无法通过 Livy 将 Python 依赖项发送到 EMR 上的 Spark

Cannot send Python dependencies to Spark on EMR via Livy

我在网上搜索和查看了很多文章,最终在以下位置找到了可能的解决方案:

我遵循了 link 中投票最多的答案,但它对我不起作用。该主题已有 3 年历史,我想我应该提交一个新问题。

所以我所做的就像那个答案一样:

  1. 将我的 python 依赖项构建到 .zip 中:
pip install -t dependencies -r requirements.txt
cd dependencies
zip -r ../dependencies.zip .

然后将其与其他 python 文件一起上传到我的 s3 存储桶。

  1. my_job.py 中,添加以下行以将我的 python dependencies.zip 添加到 PYTHONPATH:
sc.addPyFile("dependencies.zip")

请注意,这一行添加在我的 python 代码的开头。

  1. 提交我的 Spark 作业。好吧,在 link 它使用了 spark-submit,在我的例子中,我在 ssh 到我的 AWS EMR master 之后通过 Apache Livy 使用 curl:
curl -X POST --data '{"file": "s3://my-bucket/src/my_job.py", "pyFiles": ["s3://my-bucket/src/global_settings.py", "s3://my-bucket/src/sys_init.py", "s3://my-bucket/src/dependencies.zip"]}' -H "Content-Type: application/json" http://ec2-1-23-456-789.compute-1.amazonaws.com:8998/batches

现在,从 Livy 的日志中,我得到了一个 Java 异常:

java.io.FileNotFoundException: File file:/dependencies.zip does not exist

完整的错误轨迹是这样的:

Traceback (most recent call last):
  File "/mnt/tmp/spark-bfbaa559-69b8-48cb-9287-c30f73ab6d4a/my_job.py", line 1, in <module>
    from global_settings import *
  File "/mnt/tmp/spark-bfbaa559-69b8-48cb-9287-c30f73ab6d4a/global_settings.py", line 28, in <module>
    sc.addFile('dependencies.zip')
  File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/context.py", line 898, in addFile
  File "/usr/lib/spark/python/lib/py4j-0.10.7-src.zip/py4j/java_gateway.py", line 1257, in __call__
  File "/usr/lib/spark/python/lib/py4j-0.10.7-src.zip/py4j/protocol.py", line 328, in get_return_value
py4j.protocol.Py4JJavaError: An error occurred while calling o53.addFile.
: java.io.FileNotFoundException: File file:/dependencies.zip does not exist
    at org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:640)
    at org.apache.hadoop.fs.RawLocalFileSystem.getFileLinkStatusInternal(RawLocalFileSystem.java:866)
    at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:630)
    at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:452)
    at org.apache.spark.SparkContext.addFile(SparkContext.scala:1544)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
    at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)
    at py4j.Gateway.invoke(Gateway.java:282)
    at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
    at py4j.commands.CallCommand.execute(CallCommand.java:79)
    at py4j.GatewayConnection.run(GatewayConnection.java:238)
    at java.lang.Thread.run(Thread.java:748)

完全不知道为什么 spark 找不到 dependencies.zip 而它可以找到另外两个 python 文件 global_settings.pysys_init.py.

另请注意 dependencies.zip 为 48 MB。文件大小重要吗?我认为 AWS EMR 从 AWS S3 读取 48 MB 的文件不是问题。同地域同VPC下

还有我的requirements.txt:

pandas
sqlalchemy
boto3

请帮忙。谢谢。

在 curl 调用中作为 pyFiles 的一部分提到的文件、zip、egg 将设置 spark 配置 spark.submit.pyFiles。 Spark 负责下载文件并将 files/zips 添加到 PYTHONPATH.
使用不需要添加文件使用 sc. addPyFile(<>) 再次添加文件。(上面的代码试图在默认 FS 中查找文件名依赖项,在您的情况下是 file:// 并且 Spark 无法找到它)。
我们可以去掉addPyFile调用,并尝试在指定的zip文件中导入一个class来确认它是否属于PYTHONPATH.