PySpark:如何在列表理解中使用 select 但不截断列?
PySpark: How to use select in a list comprehension but not truncate columns?
我想 trim 我的专栏中的白色 space 像这样:
df = df.select( [trim(f"`{col}`").alias(col) for col in string_cols])
问题是,它正在从我的数据框中删除我的所有其他列。如何在不丢弃其他列的情况下执行特定于列的操作?
我想保留列表理解能力。
在我的 phone 上做。如果它不起作用,请告诉我。你试过了吗?
df = df.select('*',*[trim(f"{col}").alias(col) for col in string_cols])
我想 trim 我的专栏中的白色 space 像这样:
df = df.select( [trim(f"`{col}`").alias(col) for col in string_cols])
问题是,它正在从我的数据框中删除我的所有其他列。如何在不丢弃其他列的情况下执行特定于列的操作?
我想保留列表理解能力。
在我的 phone 上做。如果它不起作用,请告诉我。你试过了吗?
df = df.select('*',*[trim(f"{col}").alias(col) for col in string_cols])