如何将 spark scala DataFrame 绑定到 zeppelin 中的 sparkR?
How to bind spark scala DataFrame to sparkR in zeppelin?
在 spark
中创建了一个数据框,试图将其传递给 spark.r
正在将成功创建的 DataFrame 绑定到 z
:
%spark
z.put("myDF", myDF)
来自spark.r未能得到它:
%spark.r
z.get("myDF")
我在哪里
<simpleError in eval(expr, envir, enclos): could not find function "z.get">
如何在 spark.r
中获取在 spark
中创建的 DF
?
ZeppelinContext
的用法与 sparkr
解释器有点不同:
对于 sparkr
解释器,您需要在 z 之前使用 .z.get(...)
和 .
。例如:
%spark.r
.z.get("myDF")
在 spark
中创建了一个数据框,试图将其传递给 spark.r
正在将成功创建的 DataFrame 绑定到 z
:
%spark
z.put("myDF", myDF)
来自spark.r未能得到它:
%spark.r
z.get("myDF")
我在哪里
<simpleError in eval(expr, envir, enclos): could not find function "z.get">
如何在 spark.r
中获取在 spark
中创建的 DF
?
ZeppelinContext
的用法与 sparkr
解释器有点不同:
对于 sparkr
解释器,您需要在 z 之前使用 .z.get(...)
和 .
。例如:
%spark.r
.z.get("myDF")