为什么我在 Spark 设置中出现 "spark-shell: Permission denied" 错误?

Why I take "spark-shell: Permission denied" error in Spark Setup?

我是 Apache Spark 的新手。我正在尝试将 Apache Spark 安装到我的 Macbook。 我从 Apache Spark 官方网站下载文件 "spark-2.4.0-bin-hadoop2.7"。
当我尝试 运行 ./bin/spark-shell 或 ./bin/pyspark 我得到 Permission denied error.
我只想 运行 在我的本地机器上启动。
我还尝试授予对所有文件夹的权限,但没有帮助。 为什么会出现这个错误?

这应该可以解决您的问题chmod +x /Users/apple/spark-2.4.0-bin-hadoop2.7/bin/*

然后你可以尝试执行bin/pyspark(spark shell in python)或bin/spark-shell(spark shell in scala)。

我通过将 /libexec 文件夹添加到 spark 主路径来解决这个问题

将$SPARK_HOME设为

/usr/local/Cellar/apache-spark//libexec