为什么 dataproc 无法识别参数:spark.submit.deployMode=cluster?

why dataproc not recognizing argument : spark.submit.deployMode=cluster?

我正在以这种方式向 dataproc 提交 spark 作业:

gcloud dataproc 作业提交 spark --cluster=$CLUSTER --region=$REGION --properties spark.jars.packages=com.google.cloud.spark:spark-bigquery-with-dependencies_2.11: 0.19.1, spark.submit.deployMode=集群 --class path.to.my.main.class --jars=path.to.jars -- "-p" "some_arg" "-z" "some_other_arg"

但是我收到了这个错误:

ERROR: (gcloud.dataproc.jobs.submit.spark) unrecognized arguments: spark.submit.deployMode=cluster

知道为什么吗?预先感谢您的帮助。

这样可以正常工作(没有集群模式):

gcloud dataproc 作业提交 spark --cluster=$CLUSTER --region=$REGION --properties spark.jars.packages=com.google.cloud.spark:spark-bigquery-with-dependencies_2.11: 0.19.1 --class path.to.my.main.class --jars=path.to.jars -- "-p" "some_arg" "-z" "some_other_arg"

您似乎在第一个 属性 和第二个 属性 之间有一个 space。要么删除它,要么用引号将它们都括起来。

另一种选择是将其替换为

--packages com.google.cloud.spark:spark-bigquery-with-dependencies_2.11:0.19.1 --properties spark.submit.deployMode=cluster