将 RDD 处理到 Apache Spark 中的特定工作人员
Handling RDDs to an specific worker in Apache Spark
你知道是否可以设置哪个 RDD 到哪个执行器吗?
类似于并行编程,可以定义哪个线程或进程处理哪个数据。
我已经找过了,好像是不可能的,所以我想确认一下,因为,可能只是我还没有找到资料。
提前致谢。
不,使用 Spark 是不可能的。
你知道是否可以设置哪个 RDD 到哪个执行器吗?
类似于并行编程,可以定义哪个线程或进程处理哪个数据。
我已经找过了,好像是不可能的,所以我想确认一下,因为,可能只是我还没有找到资料。
提前致谢。
不,使用 Spark 是不可能的。