Pentaho MapReduce 作业在 Hortonworks 环境中抛出错误
Pentaho MapReduce Job throwing error in Hortonworks Enviroment
我遇到了一个奇怪的问题。 Pentaho 数据集成提供示例作业 "word Count Job" 以了解 MapReduce 作业。
我正在学习 MapReduce,我真的迷失了一个奇怪的错误。
错误是:
"Caused by: java.io.IOException: Cannot initialize Cluster.
Please check your configuration for mapreduce.framework.name
and the correspond server addresses."
我已经尝试了所有方法来解决从 Pentaho 数据集成中更改 "plugin-properties" 文件到重新安装 Pentaho SHIM 的问题,但无济于事。
根据作业流程,文件已从我的本地(pentaho 数据集成为 运行)正确传输到 HDFS 服务器,但 MapReduce 作业启动时会抛出错误。
终于破解了。错误是因为在 core-site.xml 文件中,我提到了集群的“IP-Address”,其中“hostname”被集群认出来了。因此,由于这种歧义,发生了这个错误。
万岁!!
我遇到了一个奇怪的问题。 Pentaho 数据集成提供示例作业 "word Count Job" 以了解 MapReduce 作业。
我正在学习 MapReduce,我真的迷失了一个奇怪的错误。
错误是:
"Caused by: java.io.IOException: Cannot initialize Cluster.
Please check your configuration for mapreduce.framework.name
and the correspond server addresses."
我已经尝试了所有方法来解决从 Pentaho 数据集成中更改 "plugin-properties" 文件到重新安装 Pentaho SHIM 的问题,但无济于事。
根据作业流程,文件已从我的本地(pentaho 数据集成为 运行)正确传输到 HDFS 服务器,但 MapReduce 作业启动时会抛出错误。
终于破解了。错误是因为在 core-site.xml 文件中,我提到了集群的“IP-Address”,其中“hostname”被集群认出来了。因此,由于这种歧义,发生了这个错误。
万岁!!