当条件不工作时多个 Pyspark
Multiple when conditions is not working Pyspark
我的数据集是这样的
raw data
我写了这段代码:
flightData2015.select("*",when(flightData2015['count']>200,'above200')
.when(flightData2015['count']>400,'above400').otherwise("below").alias("new count")).show()
输出:
red line does not follow my logic, I want to know why the second "when" condition is not working
首先,条件“>200”也将满足大于 400 的项目,所以这就是不使用第二个 when 的原因。
其次,嵌套的 when otherwise 子句应该起作用。
when(flightData2015['count']>400,'above400').otherwise(when(flightData2015['count']>200,'above200').otherwise("below"))
我的数据集是这样的
raw data
我写了这段代码:
flightData2015.select("*",when(flightData2015['count']>200,'above200')
.when(flightData2015['count']>400,'above400').otherwise("below").alias("new count")).show()
输出: red line does not follow my logic, I want to know why the second "when" condition is not working
首先,条件“>200”也将满足大于 400 的项目,所以这就是不使用第二个 when 的原因。
其次,嵌套的 when otherwise 子句应该起作用。
when(flightData2015['count']>400,'above400').otherwise(when(flightData2015['count']>200,'above200').otherwise("below"))