PySpark:如何在列表理解中使用 select 但不截断列?

PySpark: How to use select in a list comprehension but not truncate columns?

我想 trim 我的专栏中的白色 space 像这样:

df = df.select( [trim(f"`{col}`").alias(col) for col in string_cols])

问题是,它正在从我的数据框中删除我的所有其他列。如何在不丢弃其他列的情况下执行特定于列的操作?

我想保留列表理解能力。

在我的 phone 上做。如果它不起作用,请告诉我。你试过了吗?

df = df.select('*',*[trim(f"{col}").alias(col) for col in string_cols])