微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

StreamAnalyticsJob Blob 输出生成的文件与输入 EventHub 的分区数一样多?

如何解决StreamAnalyticsJob Blob 输出生成的文件与输入 EventHub 的分区数一样多?

我有一个 EventHub(包含 json 格式的实体作为事件),它是我的流分析作业的输入。我在我的 EH 上创建了 4 个分区,但没有任何分区键,因此理论上数据在 RoundRobin 中分布。

我的 StreamAnlytics 查询就像 SELECT * FROM EventHub OUTPUT TO BLOB 一样简单。 blob 输出配置了每 5 分钟一次的数据聚合,文件格式为 <date><HH>

我在 Blob 存储中每小时看到 4 个文件,这是预期的吗? SA 内部是否同时单独读取每个分区?

抱歉,这可能听起来很幼稚,我对此很陌生,很想知道 SA 在内部是如何工作的。

解决方法

是的,这是意料之中的。

流分析作业可以并行使用和写入不同的分区,从而提高吞吐量。

有关详细信息,请参阅Partitions in inputs and outputs

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。