如何使用 spark.sql 从 MySql 写下一行?我正在尝试将字符串转换为日期格式
How to write below line from MySql using spark.sql? I am trying to Convert string to Date format
我需要使用 python 在 Spark.Sql 中编写以下代码:
输入列为字符串格式
[Month/YearRecordDate]
Feb 2021
SELECT [Date] = CONVERT(DATE, fr.[Month/YearRecordDate]) AS Start_Date FROM Table1 fr
输出列:
Start_Date
2021-02-01
所以我尝试了下面的代码,但出现了错误。
df1 = spark.sql (f"""
SELECT
`Date` = CONVERT(DATE,`fr.Month/YearRecordDate`) FROM Table1 fr
""")
df1.display()
我的问题是:
- 给
fr.Month/YearRecordDate
是否正确?
- 如何使用 Spark 使用 CONVERT 函数 SQL?
- 你会怎么做?
我试过了,它按预期工作。
df1 = spark.sql (f"""
SELECT `Month/YearRecordDate`, to_date(`Month/YearRecordDate`, 'MMM y')
FROM table1
""")
df1.display()
我需要使用 python 在 Spark.Sql 中编写以下代码:
输入列为字符串格式
[Month/YearRecordDate]
Feb 2021
SELECT [Date] = CONVERT(DATE, fr.[Month/YearRecordDate]) AS Start_Date FROM Table1 fr
输出列:
Start_Date
2021-02-01
所以我尝试了下面的代码,但出现了错误。
df1 = spark.sql (f"""
SELECT
`Date` = CONVERT(DATE,`fr.Month/YearRecordDate`) FROM Table1 fr
""")
df1.display()
我的问题是:
- 给
fr.Month/YearRecordDate
是否正确? - 如何使用 Spark 使用 CONVERT 函数 SQL?
- 你会怎么做?
我试过了,它按预期工作。
df1 = spark.sql (f"""
SELECT `Month/YearRecordDate`, to_date(`Month/YearRecordDate`, 'MMM y')
FROM table1
""")
df1.display()