我不确定在生产系统上测量吞吐量的最佳方法,但是使用dd bs = 1024k count = 400的一些不科学的测试显示~1.6GB / s的本地(OpenSolaris)写入和远程(CentOS)写入~50MB /秒.我想这些低于我实际得到的,因为7个VM当前正在连接上运行.
目前,这两台机器是直接连接的gigE,在两个NIC上都启用了巨型帧(MTU = 9000).除此之外,没有进行任何优化. NFS挂载/导出使用默认值.
我应该从哪里开始转动旋钮以提高性能?
并且主机服务器正在运行安装了VMware Server的CentOS,而后者又运行7个虚拟机?有没有特别的原因你已经将CentOS和VMware Server结合起来,而不是VMware ESXi这是一个更高性能的解决方案?
50MB /秒并不是很好,但是它并不比你期望的单Gb网线低得多 – 一旦你进行了上面提到的NFS调整,你就会看到70- 80MB /秒.沿线的选项:
“RO,硬,INTR,重传= 2,RSIZE = 32768,WSIZE = 32768,nfsvers = 3,TCP”
在系统的两端对你来说都是合理的.
为了达到这个目的,你需要考虑将网卡组合成对,这样可以将吞吐量提高约90%.您可能需要一台支持802.3ad的交换机才能获得link aggregation的最佳性能.
我建议的一件事是OpenSolaris盒上的IO吞吐量听起来可疑,12个磁盘不太可能支持1.6GB /秒的吞吐量,而Solaris ZFS可能会大量缓存.
原文地址:https://www.jb51.cc/centos/373861.html
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。