airflow-operator专题提供airflow-operator的最新资讯内容,帮你更好的了解airflow-operator。
我有一个称为CC的脚本,用于收集数据并将其推送到数据仓库中。 我为此创建了一个</g> <pre><code> Task
我正在使用one_success触发规则,以便如果任何父任务通过,而子任务却按预期运行。但是,当两个都失败
我创建了一个xcom,我希望将结果作为PostgresOperator参数获取。我尝试过了 <pre><code>my_task = PostgresOperator
我遍历了SO和Web,观察到之前曾问过这个问题,但是这个问题没有回答。所以再次问同样的问题。
Airflow中是否有任何操作员检查HDFS中的文件数量。我正在使用Bash运算符,但有时无法正常工作。尽管触
我有一份工作在13:30进行。其中的第一个任务需要将近1个小时才能完成,之后我们需要等待15分钟。因此
我需要从SFTP站点获取与特定模式匹配的文件。目录中有许多.gz文件,但我只对特定的运行日期获取文件
在气流中, <code>date = &#39;{{ ds_nodash }}&#39;</code> 日期变量在这里是字符串吗? 我正在尝试根据此日期变
我有一个简单的 DAG,其中有一项需要 dockerized 的任务。基于其中包含 variable1 的脚本的运行,我需要将
目前,一些作业正在不同的 Windows 虚拟机中运行。 例如, 要运行的任务计划程序 <ul> <li>Powershell 文
我的语言环境文件中有一个 python 脚本,我不想将它 SCP 到远程机器并使用由气流远程触发的 SSHOperator 运
我目前正在使用 puckel 气流,但现在也可以使用 apache 气流图像。 哪个更好,更可靠。鉴于我需要从头开
能否请您解释一下,在某些情况下,操作符实例是否可以重用,<code>execute()</code> 方法将被多次执行并在
我使用 <code>LatestOnlyOperator</code> 作为我计划的 DAG 的第一个任务。<br/> 如何重新运行<strong>不是最后一个<
我需要在 sftp 中找到来自 <code>target_dir</code> 的新登陆文件,并且只有 id 有最新的文件。 例如,上
我将 spark2 的命令提交为: <pre><code> value = Varibale.get(&#39;value&#39;) cmd = &#34;&#34;&#34;
我已经在 Airflow 连接中配置了 JDBC 连接。 DAG 的我的任务部分如下所示,其中包含一个选择语句。当触发
升级到 Airflow 2 后,我在某些 DAG 中遇到了该错误: <pre class="lang-py prettyprint-override"><code>ModuleNotFoundErr
我是气流的新手,需要一些指导... 我正在创建我的第一个使用 subdag 并导入 subdag 运算符的 dag <pre><cod
升级到 Airflow 2 后,我在某些 DAG 中遇到了该错误: <pre><code>ImportError: cannot import name &#39;BashOperator&#39;