在 HUE 中提交工作流程时出错 |依赖项导入错误

Error submitting workflow in HUE | Dependencies Import error

当我使用包含 Spark-Action 的 Hue 提交工作流时,出现导入错误。

回溯如下:

2019-01-30 16:31:48,048 [main] INFO  org.apache.spark.deploy.yarn.ApplicationMaster  - Waiting for spark context initialization...

Traceback (most recent call last):
  File "mover.py", line 7, in <module>
    import happybase
ImportError: No module named happybase
2019-01-30 16:31:48,169 [Driver] ERROR org.apache.spark.deploy.yarn.ApplicationMaster  - User application exited with status 1

在我的集群中,我有一个包含所有依赖项的 Python virtualenv 环境,我的集群是使用 Cloudera Spark 指令配置的,此处:https://www.cloudera.com/documentation/enterprise/latest/topics/spark_python.html

当我在控制台中使用 spark-submit 命令时,我可以 运行 我的应用程序没有任何问题。当我使用 Hue 时,问题就出现了。

通过研究我找到了这篇文章 http://www.learn4master.com/big-data/pyspark/run-pyspark-on-oozie 并且我尝试做同样的事情但没有成功。

我的 Hue 生成的工作流代码是:

<workflow-app name="Copy by hour" xmlns="uri:oozie:workflow:0.5">
<start to="spark-c88a"/>
<kill name="Kill">
<message>Action failed, error message[${wf:errorMessage(wf:lastErrorNode())}]</message>
</kill>
<action name="spark-c88a" retry-max="1" retry-interval="1">
<spark xmlns="uri:oozie:spark-action:0.2">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<configuration>
<property>
<name>spark.executorEnv.PYSPARK_PYTHON</name>
<value>/opt/env_cluster/bin/python2</value>
</property>
<property>
<name>spark.yarn.appMasterEnv.PYSPARK_PYTHON</name>
<value>/opt/env_cluster/bin/python2</value>
</property>
</configuration>
<master>yarn</master>
<mode>cluster</mode>
<name>landing_to_daily</name>
<jar>mover.py</jar>
<arg>1</arg>
<arg>-s</arg>
<arg>eir_landing</arg>
<arg>-d</arg>
<arg>eir_daily</arg>
<file>/user/spark/eir/apps/mover.py#mover.py</file>
</spark>
<ok to="End"/>
<error to="email-77d4"/>
</action>
<action name="email-77d4">
<email xmlns="uri:oozie:email-action:0.2">
<to>prueba@mail.com</to>
<subject>Error | Copy by hour</subject>
<body>Error in Workflow landing to daily </body>
<content_type>text/plain</content_type>
</email>
<ok to="Kill"/>
<error to="Kill"/>
</action>
<end name="End"/>
</workflow-app>

在 Cloudera 支持的帮助下,我以这种方式解决了这个问题:

  1. 将以下内容添加到 spark 选项中:

    --conf spark.yarn.appMasterEnv.PYSPARK_DRIVER_PYTHON=path_to_venv --conf spark.yarn.appMasterEnv.PYSPARK_PYTHON=path_to_venv

2, Spark Launcher 也需要设置这个环境变量,所以设置为作业属性

<property> 
<name>oozie.launcher.mapred.child.env</name> 
<value>PYSPARK_PYTHON=path_to_venv</value> 
</property>
  • 显然 path_to_venv 必须在集群的所有节点中位于同一路径中。