微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

scala – 当存储级别设置为磁盘时,Spark存储数据在哪里?

我想知道当存储级别设置为disK_ONLY或MEMORY_AND_disK时,Spark存储数据的目录(在这种情况下,数据不适合内存).因为我看到我设置的级别没有区别.如果程序崩溃MEMORY_ONLY级别,它也会崩溃所有其他级别.

在我正在使用的集群中,/ tmp目录是一个RAM磁盘,因此大小有限. Spark是否试图将磁盘级数据存储到该驱动器?也许,这就是为什么我没有看到差异.如果确实如此,我该如何更改此认行为?如果我正在使用Hadoop附带的纱线群集,我是否需要更改hadoop配置文件中的/ tmp文件夹,或者仅使用Spark更改spark.local.dir?

解决方法

是的,Spark正在将磁盘级数据存储到该驱动器.

在yarn-cluster模式下,Spark执行程序和Spark驱动程序使用的本地目录将是为YARN配置的本地目录(Hadoop YARN config yarn.nodemanager.local-dirs).如果用户指定spark.local.dir,它将被忽略.

参考:https://spark.apache.org/docs/latest/running-on-yarn.html#important-notes

因此,您可以在yarn配置中更改spark本地目录更改yarn.nodemanager.local-dirs

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐