airflow-operator专题提供airflow-operator的最新资讯内容,帮你更好的了解airflow-operator。
我在 AWS 上的 EC2 机器上部署了一个气流调度器和气流网络服务器。我使用这个气流调度器来执行带有 <co
假设我有一个带有任务的流程: <code>T1 &gt;&gt; T2 &gt;&gt; T3</code> 进程需要为一组 id [1,2,3] 运
我在本地系统中运行 AIRFLOW 1.9.0。我混合了动态 DAG 和静态 DAG;但是我只能运行静态 DAG。动态 DAG 显示在
我正在寻求支持以调试此 Airflow KubernetesPodOperator 问题。我们在 Airflow 任务执行时随机得到这个错误。作
我对 Airflow 非常陌生(刚刚开始阅读它),我有几个关于如何确定任务是失败还是成功以及安排重试的
我有一个使用气流的任务 <code>SparkSubmitOperator</code> <pre><code>t = SparkSubmitOperator( application=&#39;/mnt/servic
目前我正在使用 airflow Operator 发送 Gmail 附件。我正在尝试将文件作为附件发送,该文件将驻留在 Google
我想了解如何使用 Airflow 管理大数据。文档清楚地表明我们需要使用外部存储,而不是 XCom,但我找不到
我们正在设计一个变量选择和参数设置器逻辑,当 DAG 被触发时需要对其进行评估。我们的 DAG 在执行之
使用的气流版本:1.10.4 根据文档,我们将 start_date 保持为过去的静态日期:'datetime.strptime("12/31/1970", "%m/
我有一个使用微服务架构的基于 Flask 的应用程序。 <ul> <li>我有多种服务,例如用于抓取产品数据的 S
使用 <strong>PythonVirtualenvOperator</strong> 我收到此错误:airflow.exceptions.AirflowException:无法解密 login=login 的
我正在尝试通过如下所示的 Dag 定义中的 rest API 访问传递给 Dag 的参数,我将 config_path 和 s3_bucket 作为 Re
我是 Airflow 的新手,正在寻找有关“何时创建新 DAG”的最佳实践? 我有几个任务 (sql) 分布在不同
我使用气流版本 2.1.0,这是我的代码: <pre><code>task1 = SSHOperator( ssh_hook=sshHook, task_id=&#39;test_spark, do_xco