如何升级ambari中的组件

how to upgrade components in ambari

我希望在当前带有 HDP2.6.3 的 ambari 允许的较新版本中拥有 hadoop 和其他一些软件包。

这种单组件版本升级有选项吗?

Ambari 升级步骤在 Hortonworks 文档中有详细记录,您可以按照以下 link 升级 Ambari + Hadoop 组件

https://docs.hortonworks.com/HDPDocuments/Ambari-2.4.0.0/bk_ambari-upgrade/content/upgrading_ambari.html

https://docs.hortonworks.com/HDPDocuments/Ambari-2.4.0.0/bk_ambari-upgrade/content/upgrading_hdp_stack.html

下面提供了所有 2.6 包 url

https://docs.hortonworks.com/HDPDocuments/Ambari-2.6.0.0/bk_ambari-installation/content/hdp_26_repositories.html

您可以使用 yum 或 apt-get 或其他包管理器进行单个组件(HADOOP - 包括 HDFS 和 YARN、HIVE、OOZIE 等)升级,但是不建议在 Hadoop 集群中进行单个组件升级,因为依赖性问题 - 服务有时可能会失败,因此最好完成 HDP 堆栈升级而不是升级单个组件。

另外你需要检查hortonworks文档中的Amabari版本兼容性,如果你打算只升级Hadoop核心包而不升级Ambari,其他广泛的集群监控可能会失败

此功能将在 Ambari 3.0 之前准备就绪。参见 AMBARI-18678 & AMBARI-14714

不过,根据您要升级的内容,我不建议这样做。

例如HBase、Hive和Spark还不支持Hadoop 3.0。 HDP 的流组件,如 Spark、Kafka、NiFi,似乎发布版本的频率更高,并且有 Ambari 之外的方法可以升级这些组件。

您不需要 HDP 或 Ambari 来管理您的 Hadoop,但它确实是集群的一个很好的包和中央管理组件。如果您自己升级部件,您将面临不兼容的风险。

HDP 作为一个整体进行测试。您在 Ambari 中设置的 Hortonworks 存储库限制了您可以使用的组件版本,但这不会阻止您使用自己的存储库以及 Puppet/Chef 将其他软件安装到您的 Hadoop 环境中。此时您唯一失去的是来自 Ambari 的管理和配置。

您可以尝试定义自己的 Ambari Mpacks 来安装其他软件,但请确保您有资源来维护它。