运行 oozie 在本地模式下出错
Running oozie in local mode gives error
我正在尝试 运行 使用下面 xml 的 oozie 作业。但是操作失败并显示错误:
Main class [org.apache.oozie.action.hadoop.SparkMain], exit code [101]
在分析日志时,我发现错误是由于 java.lang.ClassNotFoundException: Mainclass。但是 Mainclass 存在于 hdfs 位置的 jar 中。 jar在xml中指定below.Here是我的代码:
<action name="action1" cred="hive_credentials">
<spark xmlns="uri:oozie:spark-action:0.2">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<master>local[*]</master>
<name>name</name>
<class>Mainclass</class>
<jar>${jar1}</jar>
<spark-opts>
--files hive-site.xml --conf spark.yarn.security.tokens.hive.enabled=false
</spark-opts>
<arg>arg1</arg>
<file>${nameNode}/test/${wf:user()}/hive-site.xml</file>
</spark>
<ok to="end" />
<error to="kill_job" />
</action>
可能是什么问题?
我解决了这个问题,
1) 在工作流程 xml
旁边直接创建一个 "lib" 文件夹
2) 将 Mainclass jar 复制到 lib 文件夹
3) 在标签中仅指定 jar 名称而不是完全限定的 hdfs 路径
我正在尝试 运行 使用下面 xml 的 oozie 作业。但是操作失败并显示错误:
Main class [org.apache.oozie.action.hadoop.SparkMain], exit code [101]
在分析日志时,我发现错误是由于 java.lang.ClassNotFoundException: Mainclass。但是 Mainclass 存在于 hdfs 位置的 jar 中。 jar在xml中指定below.Here是我的代码:
<action name="action1" cred="hive_credentials">
<spark xmlns="uri:oozie:spark-action:0.2">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<master>local[*]</master>
<name>name</name>
<class>Mainclass</class>
<jar>${jar1}</jar>
<spark-opts>
--files hive-site.xml --conf spark.yarn.security.tokens.hive.enabled=false
</spark-opts>
<arg>arg1</arg>
<file>${nameNode}/test/${wf:user()}/hive-site.xml</file>
</spark>
<ok to="end" />
<error to="kill_job" />
</action>
可能是什么问题?
我解决了这个问题,
1) 在工作流程 xml
旁边直接创建一个 "lib" 文件夹2) 将 Mainclass jar 复制到 lib 文件夹
3) 在标签中仅指定 jar 名称而不是完全限定的 hdfs 路径