如何列出添加到火花上下文的火花包?

how to list spark-packages added to the spark context?

是否可以列出已添加到 spark 会话中的 spark 包?

class org.apache.spark.deploySparkSubmitArguments 有一个包的变量:

var packages: String = null

假设这是一个 spark 包列表,可以通过 SparkContext 或其他地方获得吗?

我使用以下方法检索该信息:spark.sparkContext.listJars

例如:
$ spark-shell --packages elsevierlabs-os:spark-xml-utils:1.4.0

scala> spark.sparkContext.listJars.foreach(println)
spark://192.168.0.255:51167/jars/elsevierlabs-os_spark-xml-utils-1.4.0.jar
spark://192.168.0.255:51167/jars/commons-io_commons-io-2.4.jar
spark://192.168.0.255:51167/jars/commons-logging_commons-logging-1.2.jar
spark://192.168.0.255:51167/jars/org.apache.commons_commons-lang3-3.4.jar
spark://192.168.0.255:51167/jars/net.sf.saxon_Saxon-HE-9.6.0-7.jar

在这种情况下,我加载了 spark-xml-utils 包,其他 jar 作为依赖项加载。