资源管理器立即死亡并且不会 运行

Resource Manager dies immediately and does not run

我正在尝试在我的机器上设置 hadoop 2.7.3 单节点集群。有一次,我成功地 运行 所有服务和 运行 我的自定义 jar 文件,效果很好。 停了再开服务,发现资源管理器不是运行ning。我使用以下方式启动服务:

start-dfs.sh
start-yarn.sh

jps 得到:

14755 ResourceManager
13396 DataNode
14884 NodeManager
13606 SecondaryNameNode
15099 Jps
13262 NameNode

很好,但是过了一段时间我 运行 我的 jar 文件,它卡在了这里:

17/09/08 12:54:59 INFO client.RMProxy: Connecting to ResourceManager at /127.0.0.1:8032
17/09/08 12:55:01 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8032. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
17/09/08 12:55:02 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8032. Already tried 1 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)

再次执行 jps 显示资源管理器未 运行ning。我对此很困惑,尝试了很多解决方案但没有找到一个解决方案。

这是我的 /etc/hosts

127.0.0.1       localhost
127.0.1.1       salman-home
# The following lines are desirable for IPv6 capable hosts
#::1     ip6-localhost ip6-loopback
#fe00::0 ip6-localnet
#ff00::0 ip6-mcastprefix
#ff02::1 ip6-allnodes
#ff02::2 ip6-allrouters

我已经通过 sudo ufw disable

禁用了防火墙

这是我的纱线-site.xml:

<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>127.0.0.1:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>127.0.0.1:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>127.0.0.1:8031</value>
</property>
</configuration>

mapred-site.xml:

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

核心-site.xml:

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost/</value>
    </property>
</configuration>

hdfs-site.xml:

<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
</configuration>

我们将不胜感激。

我有点傻。 InfluxDB 使用了该端口。资源管理器试图获取它,但 war 的拉锯战总是被 Influx 赢得。通过停止 Influxdb 服务,我解决了这个问题。