如何解决你如何在 Airflow 中使用 BigQueryInsertJobOperator 传递变量
我正在尝试使用 BigQueryInsertJobOperator 来查询 Google BigQuery。我试图将变量名传递到 sql 文件中,但出现错误。根据我在 sql 文件中键入的内容,错误略有不同,但它无法识别该变量。
DAG
TABLE_1 = "my_table"
with DAG(
dag_id,schedule_interval='@daily',start_date= days_ago(1),template_searchpath = '/mypath/sql/',catchup = False,) as dag:
query_one = BigQueryInsertJobOperator(
task_id='query_test',configuration={
"query":{
"query": "{% include 'big_insert_job_test.sql' %}","defaultDataset":{
"datasetId":"my_dataset_id","projectId":"my_project_id"
},"queryParameters": [
{
"name": "TABLE_1","parameterType": {
"type": "STRING",},"parameterValue": {"value":TABLE_1}
}
]
}
}
SELECT * FROM @TABLE_1
根据谷歌文档,我可以将变量作为“@”或“?”传递。 我尝试过以多种不同的方式发送变量:
SELECT * FROM {{params.TABLE_1}}. // This is how it works with BigQueryExecuteQueryOperator,but that is deprecated so trying to use the BigQueryInsertJobOperator
SELECT * FROM `TABLE_1` // just an example,I have tried every combo of "",'',{},etc
解决方法
可以使用 user_defined_macros={"varname": var1,"varname2": var2} 将参数从 DAG 传递到单独的 sql 文件。因此,将您的变量传递到 DAG 的顶部以进行常规配置,如果您调用文件,它将在您的运算符中可用。
from airflow import models
from airflow.providers.google.cloud.operators.bigquery import BigQueryInsertJobOperator
from airflow.utils.dates import days_ago
PROJECT_ID = os.environ.get("GCP_PROJECT_ID","example-project")
DATASET_NAME = os.environ.get("GCP_BIGQUERY_DATASET_NAME","test_dataset")
TABLE_1 = "table1"
dag_id = "dag1"
with models.DAG(
dag_id,schedule_interval=None,# Override to match your needs
start_date=days_ago(1),tags=["example"],user_defined_macros={"DATASET": DATASET_NAME,"TABLE": TABLE_1},) as dag:
select_query_job = BigQueryInsertJobOperator(
task_id="select_query_job",configuration={
"query": {
"query": "{% include 'example_bigquery_query.sql' %}","useLegacySql": False,}
},)
在您的 sql 文件中,用双括号将变量括起来。
SELECT * FROM {{ DATASET }}.{{ TABLE }}
这里参考了来自airflow github的例子
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。