ModuleNotFoundError: No module named 'graphframes'

ModuleNotFoundError: No module named 'graphframes'

我想 运行 graphframespyspark

我找到了这个 并按照其说明进行操作,但它不起作用。

这是我的代码hello_spark.py:

import pyspark

conf = pyspark.SparkConf().set("spark.driver.host", "127.0.0.1")
sc = pyspark.SparkContext(master="local", appName="myAppName", conf=conf)
sc.addPyFile("/opt/spark/jars/spark-graphx_2.12-3.0.2.jar")

from graphframes import *

当我 运行 使用此命令时:

spark-submit hello_spark.py 

它returns这个错误:

from graphframes import *
ModuleNotFoundError: No module named 'graphframes'

这是我的 .bashrc 配置:

# For Spark setup
export SPARK_HOME=/opt/spark

export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

export PYSPARK_PYTHON=/usr/bin/python3

export SPARK_LOCAL_IP=localhost

export SPARK_OPTS="--packages graphframes:graphframes:0.8.1-spark3.0-s_2.12"

我的版本 spark: 3.0.2, scala: 2.12.10.

我用这个命令安装了 graphframes

pyspark --packages graphframes:graphframes:0.8.1-spark3.0-s_2.12

有谁知道如何解决这个问题?谢谢。

我发现如果我使用这个命令,它会起作用:

spark-submit hello_spark.py --packages graphframes:graphframes:0.8.1-spark3.0-s_2.12 

你应该注意到你必须为 pyspark 安装一些依赖项,比如 numpy:

File "<frozen zipimport>", line 259, in load_module
  File "/opt/spark/python/lib/pyspark.zip/pyspark/ml/param/__init__.py", line 26, in <module>
ModuleNotFoundError: No module named 'numpy'

所以我只是将 PYSPARK_PYTHON 路径更改为我的 miniconda 环境。

export PYSPARK_PYTHON=/home/username/miniconda3/envs/pyenv/bin/python

您可以通过激活它和运行 which命令找到您的环境路径:

(base) username@user:~$ conda activate pyenv
(pyenv) username@user:~$ which python
/home/username/miniconda3/envs/pyenv/bin/python