腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(21)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
SparkR
gapply
函数返回多行R数据
假设我想执行如下内容:...df.
gapply
( df$column1对于在DataFrame中创建的具有每个组的n_k输出行的k个组,我期望这样的结果是,
gapply
()调用的结果将有和(1.k,n_k)行,其中键值被复制到每个组的每一个n_k行中,其中key k.然而
浏览 5
修改于2018-03-29
得票数 2
回答已采纳
1
回答
在Sparkr中使用
gapply
时声明输出模式
我想根据使用
gapply
return(list(df1,df2)) 在这种情况下,我如何声明输出模式?
浏览 1
修改于2018-03-29
得票数 0
1
回答
SparkR和dplyr:使用
gapply
的窗口函数计数()
我试着用"
gapply
“来实现对星火的简单查询,但是会遇到麻烦。但我无法通过实现这一点 %>%
gapply
浏览 10
提问于2022-06-21
得票数 0
0
回答
在R中绑定多个列表对应的数据框架元素(使用
gapply
for function)
4 a 12 clibrary(nlme) mapply(rbind, list1, list2)mapply(rbind,
gapply
(z, groups=z$variable, FUN=function)) 导致所有数据帧被编译到单个列表中。(或者,如果有人有比<e
浏览 1
修改于2016-12-24
得票数 0
回答已采纳
1
回答
Sparklyr中split-apply-combine策略错误处理
具体地说,replyr::
gapply
“通过grouping列中的值对from进行分区,对每个组应用通用转换,然后将这些组重新绑定在一起”。The group column, userid, is not # - A print statement is included to show that when
gapply
uses "group_by", the
浏览 8
提问于2019-06-04
得票数 0
回答已采纳
1
回答
Bizday不排除周末
目标是在以下函数中使用bizday,该函数将通过
gapply
应用于分组的df。util = group %>%
gapply
(.,timeentry) 其中group是分组的df。
浏览 20
修改于2020-03-05
得票数 1
回答已采纳
2
回答
na.locf在sparkR中的等价性
我认为可以通过对product_id上的df进行分组并执行此操作来使用
gapply
。但我无法使代码工作。 采用正确的方法吗?还有其他方法来实现这一点吗?
浏览 0
提问于2020-11-02
得票数 3
回答已采纳
1
回答
处理用户定义的Spark分区(1.6.1) DataFrames
在sparkR中有
gapply
函数,但是它在Scala或Python中的等价性是什么?
浏览 3
修改于2017-08-09
得票数 0
回答已采纳
2
回答
在使用sparklyr调用collect_list时根据另一个变量保留顺序
arrange(date) %>%尝试2:使用replyr::
gapply
get_cities <- . %>% replyr::
gapply
浏览 2
提问于2019-05-10
得票数 0
回答已采纳
1
回答
应用于分组数据中组的两个日期之间的工作日数
我试图在分组df上使用
gapply
来获得项目时间输入的时间线。} time_group = time_df %>% group_by(uID) time_util = time_group %>%
gapply
我知道关于
gapply
和我所写的函数有一些基本的东西,但我并不真正理解。
gapply
说我应该得到一个数据输出。我想用我的原始数据加入这个
浏览 3
修改于2020-03-06
得票数 0
回答已采纳
2
回答
如何从分组数据的最后一项中减去第一项
我的原始数据是一个groupedData,我相信另一种处理方法是使用
gapply
,但是我仍然在努力处理第三个参数(通常是一个函数)。groupedData(d_1 ~ d_2 | id, data = C, FUN = mean, labels = list( x = "", y = ""), units = list("")) x2 <-
gapply
(gr
浏览 1
修改于2017-05-23
得票数 7
回答已采纳
1
回答
SparkR org.apache.spark.SparkException: r员工意外退出
我正在尝试执行一个SparkR
gapply
,本质上,当我试图使用我的输入文件仅限于300 K行运行时,它可以工作,但是扩展到120万行时,我会在许多执行器任务中得到以下stderr中的重复异常--大约在我们的用例中,
gapply
函数在最大的10行数据中运行,在最大20列处将其拆分为4R数据,然后使用R包NlcOptim,quadprog将其输入到线性优化求解器中。
浏览 0
修改于2018-05-02
得票数 1
回答已采纳
4
回答
将函数应用于R中data.frame中的组
4 04 b 4 06 b 4 08 b 8 010 b 8 012 b 8 0 > r=
gapply
浏览 0
修改于2017-11-30
得票数 14
回答已采纳
1
回答
SparkR前馈回路
我只能找到
gapply
和dapply函数,但是我不想计算新的列值,我只是想通过从列表中并行地获取一个元素来做一些事情。
浏览 0
提问于2017-01-23
得票数 2
2
回答
如何使用apply在每组SparkR中查找最大值
- structType(structField("agent", "string"), result <-
gapply
浏览 0
提问于2016-09-06
得票数 0
1
回答
与SQL相比,sparkR运行缓慢。
integer"), ) result <-
gapply
浏览 0
提问于2018-06-28
得票数 1
回答已采纳
1
回答
根据其他列的值大小创建新变量
4 4 2help$epi <- as.numeric(0) tmp <-
gapply
浏览 0
提问于2015-06-09
得票数 2
回答已采纳
1
回答
如何使用带有readBin的箭头包修复SparkR ()中的错误?
但是,当我在SparkR::dapply或
gapply
之后执行collect(df)时,我会得到以下错误: Error in readBin(con, raw(), as.integer(dataLen
浏览 3
修改于2021-06-18
得票数 0
回答已采纳
2
回答
扩展以data.table为参数的函数以使用完整的表(而不是子集)
apply(tryshort3, 1, function(x) substituting_short_form(x) )中的一些内容,也许使用两个data.tables的索引功能,或者从内部使用来自nlme的
gapply
浏览 5
修改于2016-02-18
得票数 5
回答已采纳
1
回答
是否可以将原生R代码或其他R包函数与sparklyr一起使用?
SparkR v2中的dapply和
gapply
的工作似乎正在沿着这些方向进行,但如果它能与sparklyr一起工作,那就太好了。
浏览 1
提问于2016-08-19
得票数 3
回答已采纳
第 2 页
领券