将 R 包发送到 SparkR 中的节点
Shipping R packages to the nodes in SparkR
您好,我想知道是否有解决方案可以使用 spark-submit
运送 R 包并在 SparkR 的计算节点上使用它们?
压缩 R 包的内容并将其作为 my_package.zip 发送到集群,即使用 spark-submit 命令。这会将 zip 文件放入 SparkR 脚本的工作目录中。
然后您可以在 R 脚本中安装包:
install.packages("my_package.zip",repos=NULL)
library(my_package)
免责声明:如果您的包依赖于其他包,您将需要手动运送和安装它们。
您好,我想知道是否有解决方案可以使用 spark-submit
运送 R 包并在 SparkR 的计算节点上使用它们?
压缩 R 包的内容并将其作为 my_package.zip 发送到集群,即使用 spark-submit 命令。这会将 zip 文件放入 SparkR 脚本的工作目录中。
然后您可以在 R 脚本中安装包:
install.packages("my_package.zip",repos=NULL)
library(my_package)
免责声明:如果您的包依赖于其他包,您将需要手动运送和安装它们。