微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

运行较大的YARN作业的主要限制是什么?如何增加它?

如何解决运行较大的YARN作业的主要限制是什么?如何增加它?

运行较大的YARN作业(Hadoop版本HDP-3.1.0.0(3.1.0.0-78))的主要限制是什么?如何增加它? 基本上,想同时执行更多(所有都是非常大的)squip工作

我目前假设,我需要增加资源管理器的堆大小(因为这是运行YARN作业时在Ambari仪表板上看到的内容)。如何向RM堆中添加更多资源/为什么RM堆看起来只是整个群集中可用(对YARN而言)总RAM的一小部分?

在Ambari中查看:YARN群集内存为55GB,但RM堆仅为900MB。

enter image description here

有经验的人可以告诉我,运行更多YARN应用程序有什么区别,哪些是限制因素(同样,我如何增加它)?我还有什么需要看的吗?有任何文档对此进行更详细的解释吗?

解决方法

调整YARN和MapReduce内存的便捷方法是使用 yarn-utils 脚本。

下载伴侣文件## Ref

wget http://public-repo-1.hortonworks.com/HDP/tools/2.6.0.3/hdp_manual_install_rpm_helper_files-2.6.0.3.8.tar.gz

tar zxvf hdp_manual_install_rpm_helper_files-2.6.0.3.8.tar.gz

执行YARN实用程序脚本## Ref

您可以通过提供可用核心,可用内存,磁盘数量,是否安装HBase来执行 yarn-utils.py python脚本。

Example Image

如果您具有异构的Hadoop群集,则必须根据节点规范创建配置组。如果您需要更多有关此方面的信息,请告诉我,我将据此更新答案。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。