如何将 Spark 配置参数传递给 DBT?

How to pass Spark configuration parameters to DBT?

我正在使用 DBT 连接到 AWS/EMR。我能够 运行 Spark/SQL 查询但是我在哪里设置参数,例如 spark.sql.shuffle.partitions,在正常代码中你将传递:

sqlContext.setConf("spark.sql.shuffle.partitions", "1200")

?

由于我在这里没有得到任何答案,我写下我目前认为的方式(但重复,不确定它是否是正确的方式):

{{ config(
    materialized='table',
    pre_hook=['SET spark.sql.shuffle.partitions=1200'],
    ...
)}}