运行 dse4.6中的一个spark程序

run a spark program in dse4.6

我写了一个 Java spark 程序,想在 dse4.6 下使用命令 dse spark-submit 运行 它。

我知道我必须在 spark analytics mode.But 中启动 dse 因为我知道 spark 与 dse 4.6 集成在一起,所以这是否意味着当我必须从我的 java 在 dse4.6 spark 分析模式下编程 运行 它,然后我必须从我的程序中删除 spark 核心 jar,然后为我的应用程序创建 jar,然后 运行 它在 dse.

虽然这个问题听起来很愚蠢,但我仍然想知道如果 spark 与 DSE 集成,那么我仍然应该在我的 pom.xml 中包含 spark core 作为 maven 依赖项,或者我是否应该始终删除我的 spark-core jar在制作 jar 之前在我的程序中?

这是个好问题。感谢提问!

简短的回答是:

To use the helper classes included in dse.jar in your application

我们最近更新了 DataStax docs to include a better example of how to build custom Spark jobs against DSE. You can also check out the program by Ryah Svhila on which this documentation is based. It's on his github 存储库。