运行 oozie 在本地模式下出错

Running oozie in local mode gives error

我正在尝试 运行 使用下面 xml 的 oozie 作业。但是操作失败并显示错误:

Main class [org.apache.oozie.action.hadoop.SparkMain], exit code [101]

在分析日志时,我发现错误是由于 java.lang.ClassNotFoundException: Mainclass。但是 Mainclass 存在于 hdfs 位置的 jar 中。 jar在xml中指定below.Here是我的代码:

<action name="action1" cred="hive_credentials">
                <spark xmlns="uri:oozie:spark-action:0.2">
                        <job-tracker>${jobTracker}</job-tracker>
                        <name-node>${nameNode}</name-node>
                        <master>local[*]</master>
                        <name>name</name>
                        <class>Mainclass</class>
                        <jar>${jar1}</jar>
                        <spark-opts>
                                --files hive-site.xml --conf spark.yarn.security.tokens.hive.enabled=false
                        </spark-opts>
                        <arg>arg1</arg>
                        <file>${nameNode}/test/${wf:user()}/hive-site.xml</file>
                </spark>
                <ok to="end" />
                <error to="kill_job" />
        </action>

可能是什么问题?

我解决了这个问题,

1) 在工作流程 xml

旁边直接创建一个 "lib" 文件夹

2) 将 Mainclass jar 复制到 lib 文件夹

3) 在标签中仅指定 jar 名称而不是完全限定的 hdfs 路径