微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

如何将大量数据50 TB从本地 SAP Hana 迁移到 GCP

如何解决如何将大量数据50 TB从本地 SAP Hana 迁移到 GCP

上下文:

数据仓库是使用 SAP BW On HANA 构建的。它已经运行了一段时间。它有超过 50TB 的数据。作为一项战略决策,必须将 GCP 上的数据迁移到 BigQuery(一次性活动)。

问题:

导出如此庞大的数据的最佳非侵入方式是什么,将其采用为 BigQuery 格式。 上传不是问题,因为它可以通过专用的云互连上传

解决方法

根据 Google 最佳实践,您应该使用 Transfer Appliance 传输数据。

但如果您想尝试专用的云互连,您可以尝试一下。 传输数据:您可以尝试以下选项:-

  1. 通过文件从 HANA 数据库导出数据。
  2. 通过您想要的渠道将文件传输到云存储。
  3. 在 GCS 上获得数据后,您可以通过多个选项(从 GCS 导出数据、创建数据流作业和将数据上传到 BQ 的脚本)将数据上传到 Bigquery

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。