如何将 spark scala DataFrame 绑定到 zeppelin 中的 sparkR?

How to bind spark scala DataFrame to sparkR in zeppelin?

spark 中创建了一个数据框,试图将其传递给 spark.r

正在将成功创建的 DataFrame 绑定到 z:

%spark
z.put("myDF", myDF)

来自spark.r未能得到它:

%spark.r
z.get("myDF")

我在哪里

<simpleError in eval(expr, envir, enclos): could not find function "z.get">

如何在 spark.r 中获取在 spark 中创建的 DF

ZeppelinContext 的用法与 sparkr 解释器有点不同:

对于 sparkr 解释器,您需要在 z 之前使用 .z.get(...).。例如:

%spark.r
.z.get("myDF")