Scala IDE 调用 Spark 但执行器未启动
Scala IDE Call Spark But Executor Not Start
我有 Scala IDE 问题。下面的代码
val conf = new SparkConf().setAppName("xxx").setMaster("local[*]")
运行 在 Scala 中 IDE 工作正常,但是
val conf = new SparkConf().setAppName("xxx").setMaster("spark://ipOfMyPC:7077")
无法工作。错误信息是
WARN TaskSchedulerImpl:初始作业尚未接受任何资源;检查您的集群 UI 以确保工作人员已注册并有足够的内存
我已经检查过 Spark-Shell,Spark-Shell Web UI 使用端口 4040 并且工作正常。这就是我发现Executor没有启动的原因。
Scala IDE service SparkUI 自动使用端口 4041 我发现 Executor 没有启动,只有驱动存在。我已经在下面尝试过这段代码,但没有用
val conf = new SparkConf().setAppName("xxx").set("spark.executor.instances", "2").set("spark.executor.memory", "1g").setMaster("spark://ipOfMyPC:7077")
如何在 Scala 中解决这个问题IDE?
我的平台是 windows 8.1,防火墙被禁用。
非常感谢。
转到 spark UI : yourip:8080
找到大师url的link喜欢:spark://xyz:7077
以此为主url。
使用start-all.sh
命令启动所有节点。
尽管 Scala IDE 服务 SparkUI 自动使用端口 4041 而不是 4040。
停止 Spark-Shell(在端口 4040 上)后,Scala IDE 作业可以 运行 成功。
我有 Scala IDE 问题。下面的代码
val conf = new SparkConf().setAppName("xxx").setMaster("local[*]")
运行 在 Scala 中 IDE 工作正常,但是
val conf = new SparkConf().setAppName("xxx").setMaster("spark://ipOfMyPC:7077")
无法工作。错误信息是
WARN TaskSchedulerImpl:初始作业尚未接受任何资源;检查您的集群 UI 以确保工作人员已注册并有足够的内存
我已经检查过 Spark-Shell,Spark-Shell Web UI 使用端口 4040 并且工作正常。这就是我发现Executor没有启动的原因。
Scala IDE service SparkUI 自动使用端口 4041 我发现 Executor 没有启动,只有驱动存在。我已经在下面尝试过这段代码,但没有用
val conf = new SparkConf().setAppName("xxx").set("spark.executor.instances", "2").set("spark.executor.memory", "1g").setMaster("spark://ipOfMyPC:7077")
如何在 Scala 中解决这个问题IDE?
我的平台是 windows 8.1,防火墙被禁用。 非常感谢。
转到 spark UI : yourip:8080
找到大师url的link喜欢:spark://xyz:7077
以此为主url。
使用start-all.sh
命令启动所有节点。
尽管 Scala IDE 服务 SparkUI 自动使用端口 4041 而不是 4040。 停止 Spark-Shell(在端口 4040 上)后,Scala IDE 作业可以 运行 成功。