HDFS 无法使用 Hadoop 3.2 启动:需要 bash v3.2+

HDFS fails to start with Hadoop 3.2 : bash v3.2+ is required

我正在构建一个由 2 个节点组成的小型 Hadoop 集群:1 个 master + 1 个 worker。我使用的是最新版本的 Hadoop (3.2),一切都由 root 用户执行。在安装过程中,我已经能够hdfs namenode -format。下一步是使用 start-dfs.sh 启动 HDFS 守护进程。

$ start-dfs.sh                  
Starting namenodes on [master]
bash v3.2+ is required. Sorry.
Starting datanodes
bash v3.2+ is required. Sorry.
Starting secondary namenodes [master]
bash v3.2+ is required. Sorry.

这是日志中生成的日志:

$ journalctl --since "1 min ago"
-- Logs begin at Thu 2019-08-29 11:12:27 CEST, end at Thu 2019-08-29 11:46:40 CEST. --
Aug 29 11:46:40 master su[3329]: (to root) root on pts/0
Aug 29 11:46:40 master su[3329]: pam_unix(su-l:session): session opened for user root by root(uid=0)
Aug 29 11:46:40 master su[3329]: pam_unix(su-l:session): session closed for user root
Aug 29 11:46:40 master su[3334]: (to root) root on pts/0
Aug 29 11:46:40 master su[3334]: pam_unix(su-l:session): session opened for user root by root(uid=0)
Aug 29 11:46:40 master su[3334]: pam_unix(su-l:session): session closed for user root
Aug 29 11:46:40 master su[3389]: (to root) root on pts/0
Aug 29 11:46:40 master su[3389]: pam_unix(su-l:session): session opened for user root by root(uid=0)
Aug 29 11:46:40 master su[3389]: pam_unix(su-l:session): session closed for user root

因为我正在使用 Zsh(使用 Oh-my-Zsh),所以我登录了 bash 控制台试一试。可悲的是,我得到了相同的结果。事实上,所有 sbin/start-*.sh 脚本都会发生此错误。但是,hadoopyarn 命令的效果非常好。

由于我在网上没有找到太多关于这个错误的信息,所以我来了。很高兴有任何建议!


其他技术细节

操作系统信息:

$ lsb_release -d
Description:    Debian GNU/Linux 10 (buster)

$ uname -srm       
Linux 4.19.0-5-amd64 x86_64

可用 Java 版本(两者都试过):

$ update-alternatives --config java
There are 2 choices for the alternative java (providing /usr/bin/java).

  Selection    Path                                                Priority   Status
------------------------------------------------------------
  0            /usr/lib/jvm/java-11-openjdk-amd64/bin/java          1111      auto mode
* 1            /usr/lib/jvm/adoptopenjdk-8-hotspot-amd64/bin/java   1081      manual mode
  2            /usr/lib/jvm/java-11-openjdk-amd64/bin/java          1111      manual mode

您可能感兴趣的一些 ENV 变量:

$ env
USER=root
LOGNAME=root
HOME=/root
PATH=/root/bin:/usr/local/bin:/usr/local/hadoop/bin:/usr/local/hadoop/sbin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
SHELL=/usr/bin/zsh
TERM=rxvt-unicode
JAVA_HOME=/usr/lib/jvm/adoptopenjdk-8-hotspot-amd64
HADOOP_HOME=/usr/local/hadoop
HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
ZSH=/root/.oh-my-zsh

Hadoop 可执行文件的输出:

$ hadoop version
Hadoop 3.2.0
Source code repository https://github.com/apache/hadoop.git -r e97acb3bd8f3befd27418996fa5d4b50bf2e17bf
Compiled by sunilg on 2019-01-08T06:08Z
Compiled with protoc 2.5.0
From source with checksum d3f0795ed0d9dc378e2c785d3668f39
This command was run using /usr/local/hadoop/share/hadoop/common/hadoop-common-3.2.0.jar

我的 Zsh 和 Bash 安装:

$ zsh --version
zsh 5.7.1 (x86_64-debian-linux-gnu)

$ bash --version
GNU bash, version 5.0.3(1)-release (x86_64-pc-linux-gnu)

# only available in a console using *bash*
$ echo ${BASH_VERSINFO[@]}
5 0 3 1 release x86_64-pc-linux-gnu

TL;DR:使用不同的用户(例如 hadoop)而不是 root.


我找到了解决方案,但没有深入了解正在发生的事情。尽管我有多么难过,但这是我找到的解决方案:

运行 root 用户:

$ start-dfs.sh 
Starting namenodes on [master]
bash v3.2+ is required. Sorry.
Starting datanodes
bash v3.2+ is required. Sorry.
Starting secondary namenodes [master_bis]
bash v3.2+ is required. Sorry

然后我创建了一个 hadoop 用户并授予该用户安装 Hadoop 的权限(R/W 访问权限)。使用这个新用户登录后,我得到以下命令的输出,这给我带来了一些麻烦:

$ start-dfs.sh 
Starting namenodes on [master]
Starting datanodes
Starting secondary namenodes [master_bis]

此外,我注意到在使用 Java 11 时,由 start-yarn.sh 创建的进程未在 jps 的输出中列出。切换到 Java 8 解决了我的问题(不要忘记更新 /etc/environmenthadoop-env.sh 中的所有 $JAVA_HOME 变量)。

成功\o/。但是,我很乐意理解为什么 root 用户不能这样做。我知道使用 root 是个坏习惯,但在实验环境中,拥有一个干净的 "close-to" 生产环境对我们没有兴趣。如有任何相关信息,我们将不胜感激 :)。

尝试

chsh -s /bin/bash

将默认 shell 更改回 bash