BigQuery allow_large_results 未按预期工作
BigQuery allow_large_results does not work as expected
运行 API 在 Google 云端调用大查询。
我的程序是这样的:
bigquery_client = bigquery.Client();
def bq(q):
query_results = bigquery_client.run_sync_query(query);
query_results.use_legacy_sql = True;
query_results.allow_large_results = True;
query_results.destinationTable = {"projectId": my id,"tableId": my table, "datasetId": my dataset};
query_results.run();
return query_results
我得到的结果仍然是完整结果的一部分,限制在10M数据。我怎样才能绕过这个限制。
allowLargeResults
(如果设置为 true)允许查询产生任意大的结果 tables,但性能略有下降。需要设置 destinationTable。
您仍然无法向客户提供结果,因此要获得完整的结果,您需要翻阅结果
如果预期结果小于 128 MB,您不需要 save/store 它在 table 中,只需翻阅结果 - 参见 pageToken
运行 API 在 Google 云端调用大查询。
我的程序是这样的:
bigquery_client = bigquery.Client();
def bq(q):
query_results = bigquery_client.run_sync_query(query);
query_results.use_legacy_sql = True;
query_results.allow_large_results = True;
query_results.destinationTable = {"projectId": my id,"tableId": my table, "datasetId": my dataset};
query_results.run();
return query_results
我得到的结果仍然是完整结果的一部分,限制在10M数据。我怎样才能绕过这个限制。
allowLargeResults
(如果设置为 true)允许查询产生任意大的结果 tables,但性能略有下降。需要设置 destinationTable。
您仍然无法向客户提供结果,因此要获得完整的结果,您需要翻阅结果
如果预期结果小于 128 MB,您不需要 save/store 它在 table 中,只需翻阅结果 - 参见 pageToken