Pyspark:如何向现有日期列添加十天
Pyspark: How to add ten days to existing date column
我在 Pyspark 中有一个数据框,其中包含一个名为 "report_date" 的日期列。
我想创建一个名为 "report_date_10" 的新列,将其添加到原始 report_date 列 10 天。
下面是我试过的代码:
df_dc["report_date_10"] = df_dc["report_date"] + timedelta(days=10)
这是我得到的错误:
AttributeError: 'datetime.timedelta' 对象没有属性 '_get_object_id'
求助!谢谢
您似乎在使用 pandas
语法来添加列;对于spark,需要使用withColumn
来添加一个新的列;要添加日期,有内置的 date_add
函数:
import pyspark.sql.functions as F
df_dc = spark.createDataFrame([['2018-05-30']], ['report_date'])
df_dc.withColumn('report_date_10', F.date_add(df_dc['report_date'], 10)).show()
+-----------+--------------+
|report_date|report_date_10|
+-----------+--------------+
| 2018-05-30| 2018-06-09|
+-----------+--------------+
我在 Pyspark 中有一个数据框,其中包含一个名为 "report_date" 的日期列。
我想创建一个名为 "report_date_10" 的新列,将其添加到原始 report_date 列 10 天。
下面是我试过的代码:
df_dc["report_date_10"] = df_dc["report_date"] + timedelta(days=10)
这是我得到的错误:
AttributeError: 'datetime.timedelta' 对象没有属性 '_get_object_id'
求助!谢谢
您似乎在使用 pandas
语法来添加列;对于spark,需要使用withColumn
来添加一个新的列;要添加日期,有内置的 date_add
函数:
import pyspark.sql.functions as F
df_dc = spark.createDataFrame([['2018-05-30']], ['report_date'])
df_dc.withColumn('report_date_10', F.date_add(df_dc['report_date'], 10)).show()
+-----------+--------------+
|report_date|report_date_10|
+-----------+--------------+
| 2018-05-30| 2018-06-09|
+-----------+--------------+