将 RDD 处理到 Apache Spark 中的特定工作人员

Handling RDDs to an specific worker in Apache Spark

你知道是否可以设置哪个 RDD 到哪个执行器吗?

类似于并行编程,可以定义哪个线程或进程处理哪个数据。

我已经找过了,好像是不可能的,所以我想确认一下,因为,可能只是我还没有找到资料。

提前致谢。

不,使用 Spark 是不可能的。