运行 Spark on Linux : $JAVA_HOME 未设置错误
Running Spark on Linux : $JAVA_HOME not set error
我正在尝试在 Ubuntu 16.04.1 LTS
上配置 spark-2.0.0-bin-hadoop2.7
。我已经设置
export JAVA_HOME=/home/marc/jdk1.8.0_101
export SCALA_HOME=/home/marc/scala-2.11.8
export SPARK_HOME=/home/marc/spark-2.0.0-bin-hadoop2.7
export PATH=$PATH:$SCALA_HOME/bin:$JAVA_HOME/bin
在 .bashrc
的末尾,也包含在 spark/sbin 文件夹
的 start-all.sh
文件中
当我输入 echo $JAVA_HOME
时,它会给我正确的路径 /home/marc/jdk1.8.0_101
但是当我打电话给 sbin/start-all.sh
它给了我以下错误
localhost: failed to launch
org.apache.spark.deploy.worker.Worker: localhost: JAVA_HOME is not
set
我尝试关注类似的主题,但找不到问题的解决方案。任何帮助将不胜感激。
您需要修改 'sbin' 中名为 'spark-config.sh' 的文件。
把你的JAVA_HOME加到这个文件里,就OK了。
请尝试在 spark_env.sh 文件中配置 JAVA_HOME。
尝试在您的计算机上安装 Java:
首先,检查它是否存在:
java -version
如果没有安装:
sudo apt-get update
sudo apt-get install openjdk-8-jdk
这应该可以解决问题。
我正在尝试在 Ubuntu 16.04.1 LTS
上配置 spark-2.0.0-bin-hadoop2.7
。我已经设置
export JAVA_HOME=/home/marc/jdk1.8.0_101
export SCALA_HOME=/home/marc/scala-2.11.8
export SPARK_HOME=/home/marc/spark-2.0.0-bin-hadoop2.7
export PATH=$PATH:$SCALA_HOME/bin:$JAVA_HOME/bin
在 .bashrc
的末尾,也包含在 spark/sbin 文件夹
start-all.sh
文件中
当我输入 echo $JAVA_HOME
时,它会给我正确的路径 /home/marc/jdk1.8.0_101
但是当我打电话给 sbin/start-all.sh
它给了我以下错误
localhost: failed to launch org.apache.spark.deploy.worker.Worker: localhost: JAVA_HOME is not set
我尝试关注类似的主题,但找不到问题的解决方案。任何帮助将不胜感激。
您需要修改 'sbin' 中名为 'spark-config.sh' 的文件。 把你的JAVA_HOME加到这个文件里,就OK了。
请尝试在 spark_env.sh 文件中配置 JAVA_HOME。
尝试在您的计算机上安装 Java:
首先,检查它是否存在:
java -version
如果没有安装:
sudo apt-get update
sudo apt-get install openjdk-8-jdk
这应该可以解决问题。