airflow-operator专题提供airflow-operator的最新资讯内容,帮你更好的了解airflow-operator。
我目前正在使用 Airflow 运行一个 DAG(比如 dag.py),它有几个任务,然后,它有一个 python 脚本要执行(
我正在使用 REST API 将参数传递给基于任务流的 Dag。看看这个论坛上提出的类似问题,下面似乎是访问传
我们想用气流运行一些批次。某些批次的返回代码为 0 - 成功和 1-4 成功并带有警告,而 5 次以上失败。
在 ECS Fargate 上运行 Airflow 实例。问题是我无法运行代码来调用 DAG 中的现有胶水作业。下面是 DAG 脚本。
在这里,我试图从开源获取数据,并将其作为基于气流时间戳的分区添加到表中。但它引发了气流异常
我有以下气流 dag 的默认参数: <pre class="lang-py prettyprint-override"><code>DEFAULT_ARGS = { &#39;owner&#39;: &#39;
帮我破解这个。我正在寻找一种优雅的解决方案,用于在具有独特 <code>ExternalTaskSensor</code> 函数的 Airflow
<strong>Airflow-pandas-read-sql-query 到数据框</strong> 我正在尝试连接到本地 SQL 服务器以从表中获取数据
我正在尝试使用气流在远程系统中运行 Pentaho 作业。我能够使用气流的 SSH 操作符通过 SSH 连接到远程系
我正在使用气流来触发我的 ETL 任务。对于大多数任务,它工作得非常好 - 尽管我在处理大型结果时遇到
我遇到了一个奇怪的问题。 我已经部署了一个完整的 Airflow 设置,但是我在使用 BashOperator 运行 pyt
需要知道如何从 Kubernetes Pod Operator 访问上下文变量。我可以从 PythonOperator 看到它是可能的,但我不确定
airflow 2.0 中的 Airflow db init 命令 <块引用> 引用我收到以下错误 - 不支持 SQLite 方言中的约束变更
我想在 3 小时后强制失败。 我有一个计划在凌晨 2 点和一个计划在早上 6 点进行的 dag。我希望凌晨 2 点
脚本从气流 conf {"flag":"NA","metric_name":"RED"} 中获取输入参数。我正在尝试在 sql 的 where 子句中使用一个参
我有一个气流 dag-1 大约运行一周,而 dag-2 每天运行几个小时。当 dag-1 运行时,由于 API 限制速率,我无
我有一个新创建的每日 dag,我昨天(1 月 25 日)设置了它,一旦它被气流加载,我就可以看到它运行了
我正在 AWS ECS 上运行 Airflow 实例。效果很好。然而,最近出现了对多租户的需求。我激活了 <code>webserver:
我想为 dag 失败和成功调用两个不同的函数。为此,我想在 DAG() 函数中使用 on_failure_callback 和 on_success_ca
我正在尝试从在 Google Cloud Functions 上运行的后台函数获取事件和上下文变量数据,并将这些值传递给在 C