从 PySpark DataFrame 中删除行索引
Remove na row index from PySpark DataFrame
我无法删除第一行。
除了带有 where 子句的解决方案之外,您还可以使用这些。你的只会用 \r 过滤掉 vendorID,这些将过滤掉所有其他列中没有的所有行,无论你有什么作为 VendorID
过滤器:
df.filter((' or '.join([''+x+' is not null' for x in df.columns if x !='VendorID'])))
卓普纳:
df.dropna(how='all', subset=[x for x in df.columns if x!='VendorID'])
我无法删除第一行。
除了带有 where 子句的解决方案之外,您还可以使用这些。你的只会用 \r 过滤掉 vendorID,这些将过滤掉所有其他列中没有的所有行,无论你有什么作为 VendorID
过滤器:
df.filter((' or '.join([''+x+' is not null' for x in df.columns if x !='VendorID'])))
卓普纳:
df.dropna(how='all', subset=[x for x in df.columns if x!='VendorID'])