SparkR GroupedData 对象的完整文档在哪里?
Where is the complete documentation of the SparkR GroupedData object?
SparkR 中的 groupBy 函数可以做很多事情。
这是来自 documentation 的示例:
# 计算按部门分组的所有数字列的平均值。
avg(groupBy(df, "department"))
但是我很好奇groupBy函数生成的“GroupedData”对象,在groupBy文档中有提到,也有own page.
根据该文档,以下代码将生成一个 GroupedData 对象:
groupBy(df, "department")
不幸的是,page for the "GroupedData" object appears incomplete or I don't know how to find the object documentation for it. The doc 说它是“对支持 Scala GroupedData 的 Java 对象引用”- 我尝试在 spark.apache.org 上搜索 Scala 文档,但在那里找不到任何东西。
我正在寻找“GroupedData”class 成员和方法的列表,类似于我为其他编程语言找到的文档。根据我的发现,我可能有一些新颖的方法来使用这个对象进行我在 SparkR 中所做的分析。此外,这个问题的答案将帮助我解决许多关于查找其他 SparkR 对象文档的类似问题。
如果您认为 SparkR 文档不够充分,您可以随时参考 PySpark documentation,至少我是这样做的:),有很多常用的 API
SparkR 中的 groupBy 函数可以做很多事情。
这是来自 documentation 的示例:
# 计算按部门分组的所有数字列的平均值。
avg(groupBy(df, "department"))
但是我很好奇groupBy函数生成的“GroupedData”对象,在groupBy文档中有提到,也有own page.
根据该文档,以下代码将生成一个 GroupedData 对象:
groupBy(df, "department")
不幸的是,page for the "GroupedData" object appears incomplete or I don't know how to find the object documentation for it. The doc 说它是“对支持 Scala GroupedData 的 Java 对象引用”- 我尝试在 spark.apache.org 上搜索 Scala 文档,但在那里找不到任何东西。
我正在寻找“GroupedData”class 成员和方法的列表,类似于我为其他编程语言找到的文档。根据我的发现,我可能有一些新颖的方法来使用这个对象进行我在 SparkR 中所做的分析。此外,这个问题的答案将帮助我解决许多关于查找其他 SparkR 对象文档的类似问题。
如果您认为 SparkR 文档不够充分,您可以随时参考 PySpark documentation,至少我是这样做的:),有很多常用的 API