using a sql request in spark sql 执行错误

using a sql request in spark sql error in execution

我尝试在 pyspark 中执行此查询,但始终出现错误。我到处都看过,但我不知道,或者如果有人可以帮助我,那是行不通的。此请求的目标是更新我稍后将创建的名为 temp_ok 的新列: 这是我的代码:

CASE WHEN _temp_ok_calculer='non' AND Operator level 2 ="XXX" OR  Operator level 2= "AAA" AND Auto Cleaning criteria !="YYY" Auto Cleaning criteria <> "AA"  AND Workstation Type = "Chaine A" THEN 'ok' ELSE CASE WHEN _temp_ok_calculer='ok' THEN 'ok' ELSE 'ko' END END

我的 table 包含以下列:_temp_ok_calculer,2 级操作员,自动清洁标准,工作站类型

Spark SQL 使用反引号 ` 作为分隔符,identifiers 中带有空格的必须是 SQL 中的分隔标识符。所以

CASE WHEN _temp_ok_calculer='non' AND `Operator level 2` ="XXX" OR . . .