无法在 Ambari Hadoop 集群上启动 HUE

failed to start HUE on Ambari Hadoop cluster

我是大数据、hadoop 和 linux 的新手。我们有一个小型的 4 节点集群,1 个主节点和 3 个节点,Ambari 2.1 和 Hadoop 2.2.6 上的 运行 所有机器都是 Ubuntu Server 12.04 上的 运行。所有配置正确,一切正常。包括 DNS、SSH、NTP 等。但是,当我尝试在此基础上安装 HUE 3.8.1 时,请遵循本指南:http://gethue.com/hadoop-hue-3-on-hdp-installation-tutorial/ 安装成功,并且我能够在浏览器中打开它并登录。但随后它向我显示了 3 个配置错误:

  1. 文件系统根“/”应归 hdfs 所有。
  2. 密钥应配置为随机字符串。重新启动时所有会话都将丢失...但我从未设置任何 kerberos 或其他安全性。
  3. 如果没有 运行 Livy Spark 服务器,该应用将无法运行。

文件夹/home/user/hue及其中的所有内容归hdfs用户所有,属于hdfs组。第一次登录 HUE 时,我创建了 ADMIN 用户。我是否需要将此 Admin 用户添加到某个组,如果需要,添加到哪个组?此外,Spark 作为 Ambari 包的一部分安装并启动并运行。我需要单独安装 Livy Spark 还是需要一些配置?!现在很迷茫... 我已经仔细检查了所有配置文件,它看起来对我来说一切正常,任何帮助在哪里查看甚至指导在哪里挖掘。配置指南中的所有步骤都遵循并替换为正确的端口、主机和地址。有什么问题以及如何启动 HUE 的想法吗?提前致谢。

  1. 是HDFS的/路径不属于默认'hdfs'的警告。如果所有者是其他人并且是正常的,您可以在这里更新Huehttps://github.com/cloudera/hue/blob/master/desktop/conf.dist/hue.ini#L60

  2. 您应该在此处 'secret_key' 输入一个随机的文本字符串 https://github.com/cloudera/hue/blob/master/desktop/conf.dist/hue.ini#L21,这样就没有人可以破解您的用户密码

  3. 如果您不使用 Spark App http://gethue.com/spark-notebook-and-livy-rest-job-server-improvements/,可以忘记此警告。它要求 Livy Spark 服务器为 运行