无法 select 来自 Pyspark DataFrame 的超过 255 列
Not able to select more than 255 columns from Pyspark DataFrame
我正在尝试 select 来自 Pyspark DatFrame 的 500 列。获取错误 "SyntaxError: more than 255 arguments"
Df2 = Df\
.select("col1","col2","col3",...............,"col500")
也试过下面的方法,有点不行。
cols = ["col1","col2","col3",...............,"col500"]
Df2 = Df\
.select(cols)
这两种方法都适用于少于 255 列。
注意 : 我的Python版本是3.6
请多多指教。谢谢
在与@pissall 交谈后,下面是 select 超过 255 列的两个可行解决方案:
案例一:
cols = ["col1","col2","col3",...............,"col500"]
df2 = df.select(cols)
案例二:
df.createOrReplaceTempView("df");
spark.sql("SELECT col1, col2, ..., col500 FROM df")
我正在尝试 select 来自 Pyspark DatFrame 的 500 列。获取错误 "SyntaxError: more than 255 arguments"
Df2 = Df\
.select("col1","col2","col3",...............,"col500")
也试过下面的方法,有点不行。
cols = ["col1","col2","col3",...............,"col500"]
Df2 = Df\
.select(cols)
这两种方法都适用于少于 255 列。
注意 : 我的Python版本是3.6
请多多指教。谢谢
在与@pissall 交谈后,下面是 select 超过 255 列的两个可行解决方案:
案例一:
cols = ["col1","col2","col3",...............,"col500"]
df2 = df.select(cols)
案例二:
df.createOrReplaceTempView("df");
spark.sql("SELECT col1, col2, ..., col500 FROM df")