使用自定义 spark 和 scala 2.11 设置 snappydata
Setup snappydata with custom spark and scala 2.11
我已通读文档,但找不到以下问题的答案:
我更愿意设置一个已经 运行 的 spark 集群(即添加一个 jar 以便能够使用 SnappyContext),还是必须使用捆绑的 spark?如果可能,请协助:SPARK_HOME 似乎是由启动器在运行时设置的
在哪里定义JAVA_HOME?。现在我在所有 snappy 服务器节点 bin/spark-class 中完成了
使用 scala 2.11 构建 SnappyData
赞赏,
赛义夫
目前我们不支持 运行 Snappy 与 stock Spark,但我们正在努力实现这一目标。现在您可以使用 Snappy 版本的 Spark。
对于第 2 季度,您可以在启动 Snappy 服务器之前在命令行中设置 JAVA_HOME。
我们尚未使用 scala 2.11 测试 Snappy。所以不确定会出现什么问题。
我已通读文档,但找不到以下问题的答案:
我更愿意设置一个已经 运行 的 spark 集群(即添加一个 jar 以便能够使用 SnappyContext),还是必须使用捆绑的 spark?如果可能,请协助:SPARK_HOME 似乎是由启动器在运行时设置的
在哪里定义JAVA_HOME?。现在我在所有 snappy 服务器节点 bin/spark-class 中完成了
使用 scala 2.11 构建 SnappyData
赞赏, 赛义夫
目前我们不支持 运行 Snappy 与 stock Spark,但我们正在努力实现这一目标。现在您可以使用 Snappy 版本的 Spark。
对于第 2 季度,您可以在启动 Snappy 服务器之前在命令行中设置 JAVA_HOME。
我们尚未使用 scala 2.11 测试 Snappy。所以不确定会出现什么问题。