如何在 Pyspark 中执行 SQL 查询?

How to execute a SQL query in Pyspark?

我正在尝试 运行 以下代码:

spark.sql('USE DATABASE test ;')

它给我错误:

pyspark.sql.utils.ParseException: 
extraneous input 'test' expecting {<EOF>, ';'}(line 1, pos 13)

如何解决这个问题?

语法是 - USE <database_name> 解释为 here

通常,Spark SQL 语法已记录 here