在spark中,阶段数和并行度之间有什么关系?

In spark,what's the relationship between the num of stages and Parallelism?

在spark中,stages的个数和Parallelism有什么关系? 最好举个例子

假设您的阶段由 RDD 上的操作 "count()" 组成,该操作分为几个可以并行完成的任务。任务数就是并行度。