微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

通过AWS Kinesis Data Analytics消费DynamoDB流

如何解决通过AWS Kinesis Data Analytics消费DynamoDB流

我正在使用Kinesis Firehose通过lambda消耗Dyanamo DB流并将这些记录推送到S3存储桶,glue作业每小时运行一次,以从S3中选择记录,执行重复数据删除,最后将记录插入Redshift。

enter image description here

有什么方法可以将Dynamo Streams中的记录消耗到“ Kinesis Data Analytics”中,然后在此处执行重复数据删除并将记录插入Redshift?

我已经通过一些链接https://issues.apache.org/jira/browse/FLINK-4582Consume DynamoDB streams in Apache Flink

  • 这里提到我们可以使用 FlinkKinesisConsumer 消耗DynamoDB流

。 那么我们可以在Kinesis Data Analytics中使用此FlinkKinesisConsumer,然后直接使用Dynamo Stream吗?

解决方法

使用Flink作为Kinesis Data Analytics的运行时。

来源https://docs.aws.amazon.com/kinesisanalytics/latest/java/how-sources.html

'FlinkKinesisConsumer'可用于调整Dynamo数据库流(https://issues.apache.org/jira/browse/FLINK-4582)。

目的地https://docs.aws.amazon.com/kinesisanalytics/latest/java/how-sinks.html

'FlinkKinesisFirehoseProducer'可用于写入'Kinesis data firehose'。与Redshift没有直接集成。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。