Java 将 spark 数据帧导出到 hive 数据库时出现堆 Space 错误

Java Heap Space error when exporting spark dataframe to hive database

我正在使用 pyspark 对 Hive 中的 table 进行一些文本分析。我使用下面的代码

from pyspark.sql import SQLContext, Row, HiveContext
from pyspark.sql.functions import col, udf, StringType
from pyspark.sql.types import *
from pyspark import SparkContext
hc = HiveContext(sc)
df=hc.sql("select * from table1")
def cleaning_text(sentence):
   sentence=sentence.lower()
   sentence=re.sub('\'',' ',sentence)
   cleaned=' '.join([w for w in cleaned.split() if not len(w)<=2 ])
   return cleaned

org_val=udf(cleaning_text,StringType())
data=df.withColumn("cleaned",org_val(df.text))

data_1=data.select('uniqueid','cleaned','parsed')#2630789 #2022395
tokenizer = Tokenizer(inputCol="cleaned", outputCol="words")
wordsData = tokenizer.transform(data_1)

hc.sql("SET spark.sql.hive.convertMetastoreParquet=false")
hc.sql("create table table2 (uniqueid string, cleaned string, parsed string)")
wordsData.insertInto('table2')

我能做到

words_data.show(2)

但是当我尝试导出它时,它给我这个错误

INFO FileOutputCommitter: FileOutputCommitter skip cleanup _temporary folders under output directory:false, ignore cleanup failures: false
Exception in thread "stdout writer for python" 17/02/02 15:18:44 ERROR Utils: Uncaught exception in thread stdout writer for python
java.lang.OutOfMemoryError: Java heap space

我不介意它是否也导出为文本文件。

当您插入 table 时,您应该在 hiveContext 中写入插入语句,因为它正在写入配置单元 table.

hc.sql("SET spark.sql.hive.convertMetastoreParquet=false") hc.sql("create table table2 (uniqueid string, cleaned string, parsed string)") wordsData.registerTempTable("tb1") val df1 = hc.sql("insert into table table2 select * from tb1")

如果上面的方法不起作用或者你不满意,请尝试下面的方法,你可以在其中直接 saveAsTable(确保 table 已经在你想要的模式中创建)

wordsData.write.mode("append").saveAsTable("sample_database.sample_tablename") 如果您通过上述尝试遇到任何错误,请将错误粘贴到此处,我会进一步帮助您

我在 spark shell 上 运行 这个脚本,默认驱动程序内存为 1g。

我在启动 spark shell

时通过 运行 下面的语句更改了它
pyspark --driver-memory 10g

这解决了我的问题