pyspark 将 unix 时间转换为日期
pyspark converting unix time to date
我正在使用以下代码将一列 unix 时间值转换为 pyspark 中的日期:
transactions3=transactions2.withColumn('date', transactions2['time'].cast('date'))
列 transactions2['time'] 包含 unix 时间值。但是,我在此处创建的日期列中没有任何值(所有行的日期 = None)。知道为什么会这样吗?
使用from_unixtime
。 expr("from_unixtime(timeval)")
我正在使用以下代码将一列 unix 时间值转换为 pyspark 中的日期:
transactions3=transactions2.withColumn('date', transactions2['time'].cast('date'))
列 transactions2['time'] 包含 unix 时间值。但是,我在此处创建的日期列中没有任何值(所有行的日期 = None)。知道为什么会这样吗?
使用from_unixtime
。 expr("from_unixtime(timeval)")