如何:Pyspark 数据框持续使用和回读

How to: Pyspark dataframe persist usage and reading-back

我是 pyspark 的新手,我遇到以下错误:

Py4JJavaError: An error occurred while calling o517.showString. 我读过这是由于内存不足:
Caused by: java.lang.OutOfMemoryError: GC overhead limit exceeded

所以,我一直在读到这种情况的转机是使用 df.persist() 然后再次阅读 persisted df,所以我想知道:

我对此很陌生,所以请尽量解释清楚。

我 运行 在本地机器上(8GB 内存),使用 jupyter-notebooks(anaconda); windows7; java8; python3.7.1; pyspark v2.4.3

Spark 是惰性评估框架,因此 转换 的 none 例如:在您调用 action 之前会调用 join .

所以继续你所做的

from pyspark import StorageLevel
    for col in columns:
       df_AA = df_AA.join(df_B, df_AA[col] == 'some_value', 'outer')
    df_AA.persist(StorageLevel.MEMORY_AND_DISK)
    df_AA.show()

有多个持久化选项可用,因此选择 MEMORY_AND_DISK 会将内存中无法处理的数据溢出到磁盘中。

GC 错误也可能是由于为 Spark 应用程序提供的 DRIVER 内存较少 运行。