微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

linux – RHEL5:无法在tmpfs中创建大于256GB的稀疏文件

登录时会写入/ var / log / lastlog.此文件的大小基于系统中最大的UID.最大UID越大,此文件越大.值得庆幸的是,它是一个稀疏文件,因此磁盘上的大小远小于ls报告的大小(ls -s报告磁盘上的大小).

在我们的系统上,我们正在针对Active Directory服务器进行身份验证,并且UID用户被分配到最终真的非常大.比方说,第一个AD用户的UID为900,000,第二个用户为900,001,等等.

这很奇怪,但应该没问题.然而,它会导致/ var / log / lastlog成为huuuuuge – 一旦AD用户登录lastlog,就会显示为280GB.幸运的是,它的实际尺寸仍然很小.

当/ var / log / lastlog存储在ext3文件系统的硬盘驱动器上时,这很好.但是,如果lastlog存储在tmpfs文件系统中,它就会中断.然后看来tmpfs上任何文件的最大文件大小是256GB,因此sessreg程序错误地尝试写入lastlog.

256GB限制来自何处,我该如何增加它?

作为创建大型稀疏文件的简单测试,我一直在做:

dd if=/dev/zero of=sparse-file bs=1 count=1 seek=300GB

我试过谷歌搜索“tmpfs最大文件大小”,“256GB文件系统限制”,“linux最大文件大小”,这样的事情.我找不到多少.我唯一能提到的256GB是带有2KB块的ext3文件系统,限制为256GB文件.但我们的硬盘驱动器是用4K块格式化的,所以似乎不是这样 – 更不用说这是在硬盘驱动器上安装的tmpfs中发生的,所以ext3分区不应该是一个因素.

这一切都发生在64位Red Hat Enterprise Linux 5.4系统上.有趣的是,在我的个人开发机器上,这是一个32位的Fedora Core 6机箱,我可以在tmpfs文件系统中创建300GB文件没问题.在RHEL5.4系统上它是不行的.

解决方法

答案可以在Linux源代码中找到,特别是/usr/src/linux/mm/shmem.c,从我的系统第70行开始(Gentoo 2.6.31-ish):
/*
 * The maximum size of a shmem/tmpfs file is limited by the maximum size of
 * its triple-indirect swap vector - see illustration at shmem_swp_entry().
 *
 * With 4kB page size,maximum file size is just over 2TB on a 32-bit kernel,* but one eighth of that on a 64-bit kernel.  With 8kB page size,maximum
 * file size is just over 4TB on a 64-bit kernel,but 16TB on a 32-bit kernel,* MAX_LFS_FILESIZE being then more restrictive than swap vector layout.

2 TB的八分之一正好是256 GB.正如您在32位FC6测试系统中发现的那样,使用32位内核可以实现更大的尺寸.

似乎将页面大小may be related更改为在内核中启用HugeTLB filesystem support.但是,我不太了解内核的内容,不知道如何或为什么,或者您需要采取哪些步骤来利用它,或者它可能具有的其他含义.要启用它,请运行make menuconfig,导航到文件系统,然后运行Pseudo filesystems.有问题的选项是HugeTLB文件系统支持.它的在线帮助说:

CONfig_HUGETLBFS:

hugetlbfs is a filesystem backing for HugeTLB pages,based on
ramfs. For architectures that support it,say Y here and read
<file:Documentation/vm/hugetlbpage.txt> for details.

If unsure,say N.

StackOverflow也可能值得运行它.我希望这有帮助.

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


在Linux上编写运行C语言程序,经常会遇到程序崩溃、卡死等异常的情况。程序崩溃时最常见的就是程序运行终止,报告 Segmentation fault (core dumped) 错误。而程序卡死一般来源于代码逻辑的缺陷,导致了死循环、死锁等问题。总的来看,常见的程序异常问题一般可以分为 非法内存访
git使用小结很多人可能和我一样,起初对git是一无所知的。我也是因为一次偶然的机会接触到git,并被它强大的功能所蛰伏。git其实就是一种版本控制工具,就像svn一样,但是git是分布式的。我不想给git打广告,我们直入正题——git能帮我们做什么?1)源码版本控制。平常写一写demo程序可能和g
1. 操作系统环境、安装包准备 宿主机:Max OSX 10.10.5 虚拟机:Parallel Desktop 10.1.1 虚拟机操作系统:CentOS 7 x86_64 DVD 1511.iso Oracle:linux.x64_11gR2_database_1of2.zip linux.x6
因为业务系统需求,需要对web服务作nginx代理,在不断的尝试过程中,简单总结了一下常见的nginx代理配置。 1. 最简反向代理配置 在http节点下,使用upstream配置服务地址,使用server的location配置代理映射。 upstream my_server { server 10
Linux模块机制浅析 Linux允许用户通过插入模块,实现干预内核的目的。一直以来,对linux的模块机制都不够清晰,因此本文对内核模块的加载机制进行简单地分析。 模块的Hello World! 我们通过创建一个简单的模块进行测试。首先是源文件main.c和Makefile。 f...
一、Hadoop HA的Web页面访问 Hadoop开启HA后,会同时存在两个Master组件提供服务,其中正在使用的组件称为Active,另一个作为备份称为Standby,例如HDFS的NameNode、YARN 的ResourceManager。HDFS的web页面只有通过Active的Name
一个简单的通用Makefile实现Makefile是Linux下程序开发的自动化编译工具,一个好的Makefile应该准确的识别编译目标与源文件的依赖关系,并且有着高效的编译效率,即每次重新make时只需要处理那些修改过的文件即可。Makefile拥有很多复杂的功能,这里不可能也没必要一一介绍,为了
Linux内核源码分析方法一、内核源码之我见Linux内核代码的庞大令不少人“望而生畏”,也正因为如此,使得人们对Linux的了解仅处于泛泛的层次。如果想透析Linux,深入操作系统的本质,阅读内核源码是最有效的途径。我们都知道,想成为优秀的程序员,需要大量的实践和代码的编写。编程固然重要,但是往往
题记:自从接触到“跳板机”的概念后,一直就被烦不胜烦的机器名,ip地址,用户名,密码折腾的死去活来,心说能有个小精灵随时帮我输入那些重复的登录信息就好了。我见过最挫的方式就是用记事本把一堆机器的ip、登录用户、密码记录下来,每次登录机器就像是一场战斗:打开笔记本 勾选复制 写ssh命令 登录 再打开
统计一下你写过多少代码最近整理了一下自己从开始学习编程以来写过的程序和代码,林林总总,花了不少的时间,最后把一些自认为还算不错的代码提交到github上做一个简单的分类和备份。当然我并不奢求它们能成为多好的开源代码,只是希望通过这种方式分享自己的劳动成果罢了。如果大家有兴趣可以访问我的github,