Airflow bigquery_to_bigquery 运算符,是否使用流向目标 table 插入数据?

Airflow bigquery_to_bigquery operator, is it using streaming to insert data to destination table?

https://airflow.apache.org/docs/stable/_modules/airflow/contrib/operators/bigquery_to_bigquery.html

将数据从一个 BigQuery table 复制到另一个。

当数据从源 table 复制到目标 table 时,是否使用 bigquery 流向目标 table 插入数据?

也就是说,如果这里使用流媒体。如果我只是 运行 这个 bigquery_to_bigquery write_truncate 任务,当流缓冲还没有空的时候,我又过早地重新 运行 这个任务,会有吗有问题吗?

就像我们在流中进行 write-t运行cate 一样,https://cloud.google.com/bigquery/docs/error-messages#streaming

在看documentation for airflow it looks like that calls the jobs api with a configuration of copy, which is different than the streaming api.