SparkSQL:要在 Python 代码上加载的文件中的 HQL 脚本

SparkSQL: HQL script in file to be loaded on Python code

通常情况下,文字查询字符串足以满足简短的语句,例如:

count = sqlContext.sql("SELECT * FROM db.table").count()

但是,在某些情况下,我有一个冗长的 Hive 查询脚本,并且将其放入 Python 代码中太麻烦了。

如何引用 HQL 文件并在 Python-SparkSQL 中执行它?

count = sqlContext.sql(open("file.hql").read()).count()