SparkSQL:要在 Python 代码上加载的文件中的 HQL 脚本
SparkSQL: HQL script in file to be loaded on Python code
通常情况下,文字查询字符串足以满足简短的语句,例如:
count = sqlContext.sql("SELECT * FROM db.table").count()
但是,在某些情况下,我有一个冗长的 Hive 查询脚本,并且将其放入 Python 代码中太麻烦了。
如何引用 HQL 文件并在 Python-SparkSQL 中执行它?
count = sqlContext.sql(open("file.hql").read()).count()
通常情况下,文字查询字符串足以满足简短的语句,例如:
count = sqlContext.sql("SELECT * FROM db.table").count()
但是,在某些情况下,我有一个冗长的 Hive 查询脚本,并且将其放入 Python 代码中太麻烦了。
如何引用 HQL 文件并在 Python-SparkSQL 中执行它?
count = sqlContext.sql(open("file.hql").read()).count()