如何解决google dataproc 可以使用 gcs-connector 访问其他项目的云存储吗?
我想使用 hadoop 文件系统 API 访问跨 gcp 项目的云存储,以读取 parquet、avro 和序列文件。如果我在名为“proj1”的 gcp 项目中设置了一个 dataproc 集群,我如何使用“proj1”中的 dataproc 集群读取名为“proj2”的其他 gcp 项目中的云存储文件?
解决方法
您可以使用 service accounts 来实现这一点。创建一个,在存储桶和您想要的项目上设置您想要的权限(使用其电子邮件地址作为任何电子邮件地址,就像您可以使用用户电子邮件地址一样),就这样!
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。