微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

没有分片的PostgreSQL上的100TB数据库

在多个节点之间没有 data sharding的Postgresql上设置100 TB数据库(实际上大约90 TB)是否现实?是否有关于类似设置的成功案例/示例?
每秒50K写入需要吸收的不仅仅是挑战.即使在具有非常简单插入的合成基准测试中,Postgresql的限制也往往大约在10 K / s左右 – 而且在数据库大小方面你甚至没有这么大的野兽.

对于单个Postgresql节点的I / O系统也会很有趣,即使使用RAID 10并且假设50K插入将等于仅50K IOPS(这可能是错误的,但它取决于您的数据库方案和索引),你将需要大约一百个磁盘与一个非常好的阵列配对,这可以节省你购买数百个磁盘以及时为这些写入服务.

如果分片很容易,并且您期望如此巨大的写入负载,那么请进行分片.写作可能很难扩展.

原文地址:https://www.jb51.cc/postgresql/192500.html

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐