无法通过 Livy 将 Python 依赖项发送到 EMR 上的 Spark
Cannot send Python dependencies to Spark on EMR via Livy
我在网上搜索和查看了很多文章,最终在以下位置找到了可能的解决方案:
我遵循了 link 中投票最多的答案,但它对我不起作用。该主题已有 3 年历史,我想我应该提交一个新问题。
所以我所做的就像那个答案一样:
- 将我的 python 依赖项构建到 .zip 中:
pip install -t dependencies -r requirements.txt
cd dependencies
zip -r ../dependencies.zip .
然后将其与其他 python 文件一起上传到我的 s3 存储桶。
- 在
my_job.py
中,添加以下行以将我的 python dependencies.zip 添加到 PYTHONPATH:
sc.addPyFile("dependencies.zip")
请注意,这一行添加在我的 python 代码的开头。
- 提交我的 Spark 作业。好吧,在 link 它使用了 spark-submit,在我的例子中,我在 ssh 到我的 AWS EMR master 之后通过 Apache Livy 使用 curl:
curl -X POST --data '{"file": "s3://my-bucket/src/my_job.py", "pyFiles": ["s3://my-bucket/src/global_settings.py", "s3://my-bucket/src/sys_init.py", "s3://my-bucket/src/dependencies.zip"]}' -H "Content-Type: application/json" http://ec2-1-23-456-789.compute-1.amazonaws.com:8998/batches
现在,从 Livy 的日志中,我得到了一个 Java 异常:
java.io.FileNotFoundException: File file:/dependencies.zip does not exist
完整的错误轨迹是这样的:
Traceback (most recent call last):
File "/mnt/tmp/spark-bfbaa559-69b8-48cb-9287-c30f73ab6d4a/my_job.py", line 1, in <module>
from global_settings import *
File "/mnt/tmp/spark-bfbaa559-69b8-48cb-9287-c30f73ab6d4a/global_settings.py", line 28, in <module>
sc.addFile('dependencies.zip')
File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/context.py", line 898, in addFile
File "/usr/lib/spark/python/lib/py4j-0.10.7-src.zip/py4j/java_gateway.py", line 1257, in __call__
File "/usr/lib/spark/python/lib/py4j-0.10.7-src.zip/py4j/protocol.py", line 328, in get_return_value
py4j.protocol.Py4JJavaError: An error occurred while calling o53.addFile.
: java.io.FileNotFoundException: File file:/dependencies.zip does not exist
at org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:640)
at org.apache.hadoop.fs.RawLocalFileSystem.getFileLinkStatusInternal(RawLocalFileSystem.java:866)
at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:630)
at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:452)
at org.apache.spark.SparkContext.addFile(SparkContext.scala:1544)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)
at py4j.Gateway.invoke(Gateway.java:282)
at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
at py4j.commands.CallCommand.execute(CallCommand.java:79)
at py4j.GatewayConnection.run(GatewayConnection.java:238)
at java.lang.Thread.run(Thread.java:748)
完全不知道为什么 spark 找不到 dependencies.zip
而它可以找到另外两个 python 文件 global_settings.py
和 sys_init.py
.
另请注意 dependencies.zip
为 48 MB。文件大小重要吗?我认为 AWS EMR 从 AWS S3 读取 48 MB 的文件不是问题。同地域同VPC下
还有我的requirements.txt:
pandas
sqlalchemy
boto3
请帮忙。谢谢。
在 curl 调用中作为 pyFiles
的一部分提到的文件、zip、egg 将设置 spark 配置 spark.submit.pyFiles
。
Spark 负责下载文件并将 files/zips 添加到 PYTHONPATH
.
使用不需要添加文件使用 sc. addPyFile(<>)
再次添加文件。(上面的代码试图在默认 FS 中查找文件名依赖项,在您的情况下是 file:// 并且 Spark 无法找到它)。
我们可以去掉addPyFile
调用,并尝试在指定的zip文件中导入一个class来确认它是否属于PYTHONPATH
.
我在网上搜索和查看了很多文章,最终在以下位置找到了可能的解决方案:
我遵循了 link 中投票最多的答案,但它对我不起作用。该主题已有 3 年历史,我想我应该提交一个新问题。
所以我所做的就像那个答案一样:
- 将我的 python 依赖项构建到 .zip 中:
pip install -t dependencies -r requirements.txt
cd dependencies
zip -r ../dependencies.zip .
然后将其与其他 python 文件一起上传到我的 s3 存储桶。
- 在
my_job.py
中,添加以下行以将我的 python dependencies.zip 添加到 PYTHONPATH:
sc.addPyFile("dependencies.zip")
请注意,这一行添加在我的 python 代码的开头。
- 提交我的 Spark 作业。好吧,在 link 它使用了 spark-submit,在我的例子中,我在 ssh 到我的 AWS EMR master 之后通过 Apache Livy 使用 curl:
curl -X POST --data '{"file": "s3://my-bucket/src/my_job.py", "pyFiles": ["s3://my-bucket/src/global_settings.py", "s3://my-bucket/src/sys_init.py", "s3://my-bucket/src/dependencies.zip"]}' -H "Content-Type: application/json" http://ec2-1-23-456-789.compute-1.amazonaws.com:8998/batches
现在,从 Livy 的日志中,我得到了一个 Java 异常:
java.io.FileNotFoundException: File file:/dependencies.zip does not exist
完整的错误轨迹是这样的:
Traceback (most recent call last):
File "/mnt/tmp/spark-bfbaa559-69b8-48cb-9287-c30f73ab6d4a/my_job.py", line 1, in <module>
from global_settings import *
File "/mnt/tmp/spark-bfbaa559-69b8-48cb-9287-c30f73ab6d4a/global_settings.py", line 28, in <module>
sc.addFile('dependencies.zip')
File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/context.py", line 898, in addFile
File "/usr/lib/spark/python/lib/py4j-0.10.7-src.zip/py4j/java_gateway.py", line 1257, in __call__
File "/usr/lib/spark/python/lib/py4j-0.10.7-src.zip/py4j/protocol.py", line 328, in get_return_value
py4j.protocol.Py4JJavaError: An error occurred while calling o53.addFile.
: java.io.FileNotFoundException: File file:/dependencies.zip does not exist
at org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:640)
at org.apache.hadoop.fs.RawLocalFileSystem.getFileLinkStatusInternal(RawLocalFileSystem.java:866)
at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:630)
at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:452)
at org.apache.spark.SparkContext.addFile(SparkContext.scala:1544)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)
at py4j.Gateway.invoke(Gateway.java:282)
at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
at py4j.commands.CallCommand.execute(CallCommand.java:79)
at py4j.GatewayConnection.run(GatewayConnection.java:238)
at java.lang.Thread.run(Thread.java:748)
完全不知道为什么 spark 找不到 dependencies.zip
而它可以找到另外两个 python 文件 global_settings.py
和 sys_init.py
.
另请注意 dependencies.zip
为 48 MB。文件大小重要吗?我认为 AWS EMR 从 AWS S3 读取 48 MB 的文件不是问题。同地域同VPC下
还有我的requirements.txt:
pandas
sqlalchemy
boto3
请帮忙。谢谢。
在 curl 调用中作为 pyFiles
的一部分提到的文件、zip、egg 将设置 spark 配置 spark.submit.pyFiles
。
Spark 负责下载文件并将 files/zips 添加到 PYTHONPATH
.
使用不需要添加文件使用 sc. addPyFile(<>)
再次添加文件。(上面的代码试图在默认 FS 中查找文件名依赖项,在您的情况下是 file:// 并且 Spark 无法找到它)。
我们可以去掉addPyFile
调用,并尝试在指定的zip文件中导入一个class来确认它是否属于PYTHONPATH
.