YARN集群模式下Spark容器的入口点是什么?
What is the entry point of Spark container in YARN cluster mode?
当 Spark 作业在 Yarn 集群模式下(对于 Spark 1.2.0+)运行 时,Spark 执行器的主要入口点是什么?
我正在寻找的是 Executor 入口点的 Scala class 名称(它将是在从机上执行其中一项任务的进程)。
spark-submit --class [FULLY QUALIFIED CLASS NAME]
--master yarn-cluster
[JAR_TO_USE]
因此,鉴于上述情况,要使用的 class 是指定的,它是从给定的 jar 中加载的,它会在 class 中搜索 static main
方法。
val mainMethod = mainClass.getMethod("main", new Array[String](0).getClass)
我想你问的是 org.apache.spark.executor.Executor or perhaps org.apache.spark.executor.Executor$TaskRunner. It is TaskRunner
that will ultimately run a task。
它与部署模式(client
vs cluster
)或使用的集群管理器无关,即 Hadoop YARN 或 Spark Standalone 或 Apache Mesos。
当 Spark 作业在 Yarn 集群模式下(对于 Spark 1.2.0+)运行 时,Spark 执行器的主要入口点是什么?
我正在寻找的是 Executor 入口点的 Scala class 名称(它将是在从机上执行其中一项任务的进程)。
spark-submit --class [FULLY QUALIFIED CLASS NAME]
--master yarn-cluster
[JAR_TO_USE]
因此,鉴于上述情况,要使用的 class 是指定的,它是从给定的 jar 中加载的,它会在 class 中搜索 static main
方法。
val mainMethod = mainClass.getMethod("main", new Array[String](0).getClass)
我想你问的是 org.apache.spark.executor.Executor or perhaps org.apache.spark.executor.Executor$TaskRunner. It is TaskRunner
that will ultimately run a task。
它与部署模式(client
vs cluster
)或使用的集群管理器无关,即 Hadoop YARN 或 Spark Standalone 或 Apache Mesos。