将 R 包发送到 SparkR 中的节点

Shipping R packages to the nodes in SparkR

您好,我想知道是否有解决方案可以使用 spark-submit 运送 R 包并在 SparkR 的计算节点上使用它们?

压缩 R 包的内容并将其作为 my_package.zip 发送到集群,即使用 spark-submit 命令。这会将 zip 文件放入 SparkR 脚本的工作目录中。

然后您可以在 R 脚本中安装包:

 install.packages("my_package.zip",repos=NULL)
 library(my_package)

免责声明:如果您的包依赖于其他包,您将需要手动运送和安装它们。