微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

hadoop中exceeds the limit of concurrent xcievers错误怎么处理

本篇内容介绍了“hadoop中exceeds the limit of concurrent xcievers错误怎么处理”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

dfs.datanode.max.transfer.threads: 认 4096 < 2.0之前该参数为dfs.datanode.max.xcievers >
解释:Specifies the maximum number of threads to use for transferring data in and out of the DN.

表示datanode上负责进行文件操作的线程数。如果需要处理的文件过多,而这个参数设置得过低就会有一部分文件处理不过来,就会报异常。
linux系统中所有的文件操作都被绑定到一个socket上,进一步具体可以把他看做是一个线程。而这个参数就是指定这种线程的个数。
在datanode里面有一个专门的线程组来维护这些线程,同时有一个守护线程来监视这个线程组的体量,它负责监测线程数量是否到达上线,
超过就抛出异常,则需调大 hdfs-site.xml 文件中的 dfs.datanode.max.transfer.threads 。

dfs.datanode.max.transfer.threads 参数设置过小,datanode 异常:
ERROR org.apache.hadoop.dfs.Datanode: DatanodeRegistration(10.10.10.53:50010,
storageID=DS-1570581820-10.10.10.53-50010-1224117842339,infoPort=50075, ipcPort=50020)
:dataxceiver: java.io.IOException: xceiverCount 258 exceeds the limit of concurrent xcievers 256

注意:dfs.datanode.max.transfer.threads 数目不能大于系统打开文件数的设置,即/etc/security/limits.conf中nofile的数值。

“hadoop中exceeds the limit of concurrent xcievers错误怎么处理”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注编程之家网站,小编将为大家输出更多高质量的实用文章

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐