Airflow 使用 dag python 文件扮演 aws 角色

如何解决Airflow 使用 dag python 文件扮演 aws 角色

我正在开发一个 Airflow 管道,一旦传感器任务在特定存储桶路径中找到文件 _SUCCESS,就会触发 Spark Databricks 作业。

问题是 Airflow 无法直接访问存储桶以验证此文件是否存在,而且我们不是此 AWS 帐户的所有者,但我们拥有允许我们访问此存储桶的角色。

我尝试将来自 S3KeySensor Operator 的 aws_conn_id 与 Airflow 连接一起使用,但它不起作用。 下图显示了 Airflow 中的配置:

enter image description here

下面的代码显示了我的 DAG:

with DAG(...) as ingestion_xxx:

    staging = DatabricksRunNowOperator(
        task_id="xxx-table-staging",job_id=xxx,json={"jar_params": [...]}
    )

    sensor = S3KeySensor(
        task_id="sensor",bucket_name="mybucket",bucket_key="bucketprefix/date={{ ds }}/_SUCCESS",aws_conn_id="aws_s3_role_conn"
    )

    sensor >> staging

我没有出错,但我得出的结论是问题出在角色上。

注意:我测试了 databricks 作业,它可以正常工作。

如果我们不能使用 Airflow 连接,我们可以使用带有 boto3 的 AWS API 直接从我的 DAG 文件中承担角色吗?

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其他元素将获得点击?
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。)
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbcDriver发生异常。为什么?
这是用Java进行XML解析的最佳库。
Java的PriorityQueue的内置迭代器不会以任何特定顺序遍历数据结构。为什么?
如何在Java中聆听按键时移动图像。
Java“Program to an interface”。这是什么意思?
Java在半透明框架/面板/组件上重新绘画。
Java“ Class.forName()”和“ Class.forName()。newInstance()”之间有什么区别?
在此环境中不提供编译器。也许是在JRE而不是JDK上运行?
Java用相同的方法在一个类中实现两个接口。哪种接口方法被覆盖?
Java 什么是Runtime.getRuntime()。totalMemory()和freeMemory()?
java.library.path中的java.lang.UnsatisfiedLinkError否*****。dll
JavaFX“位置是必需的。” 即使在同一包装中
Java 导入两个具有相同名称的类。怎么处理?
Java 是否应该在HttpServletResponse.getOutputStream()/。getWriter()上调用.close()?
Java RegEx元字符(。)和普通点?