如何解决google-cloud-composer BigQuery 跨数据集加载
我正在尝试运行一个简单的选择查询(来自 biqquery)并使用 Composer 将结果集加载到另一个 bq 表中。但是,我在代码的最后一行出现错误。
损坏的 DAG:[/home/airflow/gcs/dags/es_tc_etl_wkf_mtly.py] 无效语法(es_tc_etl_wkf_mtly.py,第 47 行)
代码:
import airflow
from airflow import DAG
from airflow.operators.bash_operator import BashOperator
from airflow.contrib.operators import bigquery_operator
from datetime import timedelta
default_args = {
'start_date': airflow.utils.dates.days_ago(0),'retries': 1,'retry_delay': timedelta(minutes=5)
}
dag = DAG(
'es_tc_etl_wkf',default_args=default_args,description='Job monitoring dag',schedule_interval=None,dagrun_timeout=timedelta(minutes=20))
# priority_weight has type int in Airflow DB,uses the maximum.
t1 = bigquery_operator.BigQueryOperator(
task_id='bq_recent_questions_query',bql="""
select * from bigquery.table.`projectid`.dataset_id.table_A;
""",`enter code here`
use_legacy_sql=False,destination_dataset_table=dataset_id.table_B)
解决方法
您有一个额外的 enter code here
未分配给任何可识别的参数。 bql
已经是 deprecated,建议使用 sql
。此外,查询语句中的整个数据集应该用反勾号 (`) 括起来。
bql(可以接收一个代表一个sql语句的str,一个str的列表 (sql 语句),或对模板文件的引用。模板参考 由以 '.sql' 结尾的 str 识别。) – (不推荐使用。使用 sql 参数代替)要执行的sql代码(模板化)
应用我上面提到的建议后,您的 t1 应该如下所示。
t1 = bigquery_operator.BigQueryOperator(
task_id='bq_recent_questions_query',sql="""
select * from `bigquery.table.projectid.dataset_id.table_A`;
""",use_legacy_sql=False,destination_dataset_table=dataset_id.table_B)
有关 BigQueryOperator 的示例用法,请参阅此 documentation。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。