Apache Storm 拓扑上的 Sigar UnsatisfiedLinkError

Sigar UnsatisfiedLinkError on Apache Storm topology

我正在配置为单个本地集群的机器上部署 Storm 拓扑。我已将 conf/storm.yaml 配置为使用 storm.scheduler: "org.apache.storm.scheduler.resource.ResourceAwareScheduler"。拓扑部署成功。但是,我收到来自 Sigar 库的错误消息,指出无法获取进程 ID 以在我的拓扑中使用 CPUMetric。这是我的拓扑配置以获取指标:

config.registerMetricsConsumer(LoggingMetricsConsumer.class);
Map<String, String> workerMetrics = new HashMap<String, String>();
workerMetrics.put("CPU", "org.apache.storm.metrics.sigar.CPUMetric");
config.put(Config.TOPOLOGY_WORKER_METRICS, workerMetrics);

我已经将 sigar-1.6.4.jarstorm-metrics-1.2.2.jar 库复制到 apache-storm/lib 文件夹中。这是错误:

2019-03-13 16:24:45.920 o.a.s.util Thread-10-__system-executor[-1 -1] [ERROR] Async loop died!
java.lang.UnsatisfiedLinkError: org.hyperic.sigar.Sigar.getPid()J
    at org.hyperic.sigar.Sigar.getPid(Native Method) ~[sigar-1.6.4.jar:?]
    at org.apache.storm.metrics.sigar.CPUMetric.<init>(CPUMetric.java:38) ~[storm-metrics-1.2.2.jar:1.2.2]
    at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method) ~[?:1.8.0_191]
    at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62) ~[?:1.8.0_191]
    at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45) ~[?:1.8.0_191]
    at java.lang.reflect.Constructor.newInstance(Constructor.java:423) ~[?:1.8.0_191]
    at java.lang.Class.newInstance(Class.java:442) ~[?:1.8.0_191]
    at org.apache.storm.utils.Utils.newInstanceImpl(Utils.java:198) ~[storm-core-1.2.2.jar:1.2.2]
    at org.apache.storm.utils.Utils.newInstance(Utils.java:192) ~[storm-core-1.2.2.jar:1.2.2]
    at org.apache.storm.utils.Utils.newInstance(Utils.java:185) ~[storm-core-1.2.2.jar:1.2.2]
    at org.apache.storm.metric.SystemBolt.registerMetrics(SystemBolt.java:150) ~[storm-core-1.2.2.jar:1.2.2]
    at org.apache.storm.metric.SystemBolt.prepare(SystemBolt.java:143) ~[storm-core-1.2.2.jar:1.2.2]
    at org.apache.storm.daemon.executor$fn__10795$fn__10808.invoke(executor.clj:803) ~[storm-core-1.2.2.jar:1.2.2]
    at org.apache.storm.util$async_loop$fn__553.invoke(util.clj:482) [storm-core-1.2.2.jar:1.2.2]
    at clojure.lang.AFn.run(AFn.java:22) [clojure-1.7.0.jar:?]
    at java.lang.Thread.run(Thread.java:748) [?:1.8.0_191]

由于某种原因,Sigar 的本机部分不在 worker 的类路径中。本机文件位于资源目​​录中的 storm-metrics.jar 中。

为什么要手动将风暴指标复制到 storm/lib?确保存在拓扑依赖性的最简单方法是使用 maven-shade-plugin 制作一个胖罐子。看看storm-starter是怎么做的https://github.com/apache/storm/blob/master/examples/storm-starter/pom.xml#L153.

我会检查 worker 的日志以验证 storm-metrics.jar 文件是否在 worker 进程的类路径中。 worker 和 supervisor 一样,在引导过程中很早就打印了它的类路径。

您提到您 运行 在一个本地集群上。我不确定您是指 Storm 的单节点安装,还是您使用的是 LocalCluster(或等效的 storm local 命令)。如果您的意思是您正在使用 LocalCluster,则需要将风暴指标添加为拓扑项目的依赖项。