在 LucidWorks Fusion 中启用 Spark 指标

Enable Spark metric in LucidWorks Fusion

我正在尝试将 Graphite 接收器添加到我的 Fusion Spark 组件中。

我创建了一个文件 - ${FUSION_DIR}/apps/spark-dist/conf/metrics.properties 的内容 -

# Enable Graphite
*.sink.graphite.class=org.apache.spark.metrics.sink.GraphiteSink
*.sink.graphite.host=graphite-server
*.sink.graphite.port=2003
*.sink.graphite.period=10
*.sink.graphite.prefix=lab.$(hostname)

# Enable jvm source for instance master, worker, driver and executor
master.source.jvm.class=org.apache.spark.metrics.source.JvmSource
worker.source.jvm.class=org.apache.spark.metrics.source.JvmSource
driver.source.jvm.class=org.apache.spark.metrics.source.JvmSource
executor.source.jvm.class=org.apache.spark.metrics.source.JvmSource

并将以下内容添加到 ${FUSION_DIR}/apps/spark-dist/bin/spark-submit -

exec "${SPARK_HOME}"/bin/spark-class org.apache.spark.deploy.SparkSubmit --files="${SPARK_HOME}"/conf/metrics.properties --conf spark.metrics.conf=metrics.properties  "$@"

但我在 Graphite 中没有看到任何指标报告,在 Spark 日志中也没有错误。
有没有人成功使用过 Fusion 中的 Spark 指标配置?

我需要将完整路径添加到 spark-submit 中的 --conf 参数 -

exec "${SPARK_HOME}"/bin/spark-class org.apache.spark.deploy.SparkSubmit --files="${SPARK_HOME}"/conf/metrics.properties --conf spark.metrics.conf="${SPARK_HOME}"/conf/metrics.properties "$@"

我在 Spark 主进程和工作进程启动时没有看到错误,但在启动时我确实看到了错误 spark-shell 这让我陷入了配置问题。