Spark 任务读取超过 128MB 的块大小?这怎么可能?

Spark Tasks reading more than the block size of 128MB? How is this possible?

我加载了一个 9.4 GB 的文件,因此它创建了 74 个正确的分区 (74 * 128MB = 9472)。但我看到很少有任务读取超过 128MB,比如 160MB,如下所示。这怎么可能?当分区大小为 128 MB 时,如何读取更多?

文件行(行)可能不完全是 128mb 的块and/or数据类型的内存表示稍大