我是否需要在 yarn 集群的每个工作节点中安装 R 才能 运行 SparkR?

Do i need to install R in each worker node in yarn cluster in order to run SparkR?

我正在使用 amplab-extras/SparkR-pkg https://github.com/amplab-extras/SparkR-pkg/blob/master/README.md。在本地机器上测试并通过了 运行。我打算 运行 它在 yarn-cluster (cdh5.4) 上。我需要在每个数据节点中安装 R 吗?

是的,你知道。每个工作人员都必须能够访问本地 R 解释器。

我个人建议不要使用旧的 SparkR。忽略 SPARK-7230 中描述的问题,低级别 RDD API 不太可能返回到 SparkR