airflow-operator专题提供airflow-operator的最新资讯内容,帮你更好的了解airflow-operator。
你好,希望你们一切都好 我想问一个问题 最近我一直在尝试 airlfow 并在这里玩它是情况一切正常我有两
我需要在 Airflow 中实施一个全面的重试计划,比如 3 次,间隔 5 分钟,然后 4 次,间隔 2 小时。这样做
我对气流相当陌生,我目前正在尝试在我的 SimpleHttpOperators 之间传递信息。 这是检索数据的位置:
我正在为我的 pythin 作业创建一个 Airflow DAG。此作业在 s3 存储桶中创建具有当前日期的 json 文件。我打
我正在尝试查找有关如何创建数据库、将数据存储在新创建的数据库中以及从该数据库中获取数据的信
我在 Airflow Composer 中使用 GoogleCLoudStorageList 运算符来列出 GCS 存储桶中的文件。 我将参数 <code>&#39;delimite
我想编写一个由 Composer/Airflow(python BigQueryOperator 指的是 SQL 文件)执行的查询 <pre><code>SELECT col1, col2,
我创建了列出 S3 文件的 DAG 文件。当未启用多因素身份验证 (MFA) 时,此 Dag 文件工作正常。之后,我启
我正在尝试使用气流 <a href="http://airflow.apache.org/docs/apache-airflow-providers-apache-livy/stable/_api/airflow/providers/ap
Bigquery 查询作业提供了在实际运行之前先试运行查询的选项。它有助于了解计费以及将在 BigQuery 中处理
我在 Airflow DAG 中有一个任务,它使用请求库从 REST API 获取数据。但是我得到了以下我无法弄清楚的例外
我尝试触发 DAG 任务 3 次,如何使用 python 脚本来完成。 目前我的流程工作是 <块引用> dag = DAG
我是气流的新手,我想安排一个作业,其中来自不同数据库记录计数的两个表必须检查它是否匹配。一
我设计了一个定制的 <code>SubDagOperator</code>。一切正常,只是没有出现“放大 Sub Dag”按钮。似乎如果气
我想在不指定架构的情况下将 avro 文件加载到 BQ,因为 BQ 会自动检测 avro 文件的架构。但是它不会选择
我已经配置了 AKS Kubernetes 集群,其中有一个 Airflow Scheduler pod 和一个 Airflow Scheduler pod。我编写了一个将
我有一个每小时运行一次的 DAG 并执行如下增量加载: <pre><code>select * from &lt;table_name&gt; where last_mod_dt
<pre><code>df[&#39;date&#39;] = {{ds}} </code></pre> 在这个数据框中,我想要存储一个 DATE 类型的值,但我得到的只
我在 docker 上的气流上安装了包 <code>apache-airflow-providers-snowflake</code>,但出现错误 <块引用> 没有名
pyspark 参数之一是 sql 查询(带空格的字符串)。 我试图将它传递为 -<code> \&#34;select * from table\&#34;</code>