如何解决StreamAnalyticsJob Blob 输出生成的文件与输入 EventHub 的分区数一样多?
我有一个 EventHub(包含 json 格式的实体作为事件),它是我的流分析作业的输入。我在我的 EH 上创建了 4 个分区,但没有任何分区键,因此理论上数据在 RoundRobin 中分布。
我的 StreamAnlytics 查询就像 SELECT * FROM EventHub
OUTPUT TO BLOB
一样简单。 blob 输出配置了每 5 分钟一次的数据聚合,文件格式为 <date><HH>
。
我在 Blob 存储中每小时看到 4 个文件,这是预期的吗? SA 内部是否同时单独读取每个分区?
抱歉,这可能听起来很幼稚,我对此很陌生,很想知道 SA 在内部是如何工作的。
解决方法
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。