select uppercase/lowercase 字段是否有任何方法或选项,例如 pyspark 的 Dataframe 中的 ABC/abc?
Is there any method or options to select uppercase/lowercase field like ABC/abc in Dataframe of pyspark?
我试图在 pyspark 中获取 select 方法的结果,但是有一些错误。
我制作了一个包含两个字段(ABC
、abc
)的 Dataframe。之后,我使用 pyspark 的 select 方法获取 ABC
字段 data (不是 abc
字段)。
但是有一些错误。
如何获取ABC字段数据?
+---+---+
|ABC|abc|
+---+---+
| 1| 2|
+---+---+
这是我的示例代码。
df=_sqlCtx.createDataFrame([{'ABC':1,'abc':2}])
df.show()
df2 = df.select("ABC")
df2.show()
AnalysisException: u"Reference 'ABC' is ambiguous, could be: ABC,
ABC.;"
您可以为此启用区分大小写:
df = spark_session.createDataFrame([{'ABC':1,'abc':2}])
spark_session.sql('set spark.sql.caseSensitive=true')
df.select("ABC").show()
输出:
+---+
|ABC|
+---+
| 1|
+---+
我试图在 pyspark 中获取 select 方法的结果,但是有一些错误。
我制作了一个包含两个字段(ABC
、abc
)的 Dataframe。之后,我使用 pyspark 的 select 方法获取 ABC
字段 data (不是 abc
字段)。
但是有一些错误。
如何获取ABC字段数据?
+---+---+
|ABC|abc|
+---+---+
| 1| 2|
+---+---+
这是我的示例代码。
df=_sqlCtx.createDataFrame([{'ABC':1,'abc':2}])
df.show()
df2 = df.select("ABC")
df2.show()
AnalysisException: u"Reference 'ABC' is ambiguous, could be: ABC, ABC.;"
您可以为此启用区分大小写:
df = spark_session.createDataFrame([{'ABC':1,'abc':2}])
spark_session.sql('set spark.sql.caseSensitive=true')
df.select("ABC").show()
输出:
+---+
|ABC|
+---+
| 1|
+---+