Apache Spark 提供自定义类路径

Apache Spark providing custom classpath

如何为 运行 集群模式下的 spark 应用程序提供自定义类路径(即驱动程序提交,执行程序执行)

spark.driver.userClassPathFirst 选项导致更多类路径冲突。

--conf spark.executor.extraClassPath=foo/bar.jar --conf spark.driver.extraClassPath=foo/bar.jar

我在使用时使用了这个 spark-submit 我没有看到它生效。

foo/bar.jar 是否必须存在于执行程序主机上,或者它也会使其可用?

如果你想通过作业本身将 jars 复制到所有执行程序,你可以使用 --jars。否则你需要复制罐子。

谢谢 拉维