Linux too many open files问题的解决方法



Linux too many open files问题的解决方法。linux as 3,内核2.4,常常出现Too many open file错误!如何调整“操作系统的中打开文件的最大句柄数”?

/proc/sys/kernel/file-max,要永久生效需修改/etc/sysctl.conf

使用/proc文件系统来控制系统
/proc/sys/fs
/proc/sys/fs/file-max
文件指定了可以分配的文件句柄的最大数目。如果用户得到的错误消息声明由于打开文件数已经达到了最大值,从而他们不能打开更多文件,则可能需要增加该值。可将这个值设置成有任意多个文件,并且能通过将一个新数字值写入该文件来更改该值。

缺省设置:4096

/proc/sys/fs/file-nr
该文件与 file-max 相关有三个值: 
已分配文件句柄的数目
已使用文件句柄的数目
文件句柄的最大数目
该文件是只读的,仅用于显示信息。

不存在两个文件的配合修改问题,主要修改file-max就行了

3. ulimit -a中
open files                    (-n) 1024

也即是ulimit -n

-n     The maximum number of open file descriptors (most systems
                    do not allow this value to be set)

ulimit -n  设置用户可以同时打开的最大文件数(max open files) 

例如:ulimit -n 8192    


如果本参数设置过小,对于并发访问量大的网站,可能会出现too many open files的错误 

建议在/etc/rc.d/rc.local中修改/proc/sys/fs/file-max、/proc/sys/fs/file-nr的内容
cat /proc/sys/fs/file-max
209695

cat  /proc/sys/fs/file-nr
4483    3550    209695

这2个文件要如何配合修改?

3。采用ulimit -a出现如下描述

$ulimit -a

core file size        (blocks, -c) 0
data seg size         (kbytes, -d) unlimited
file size             (blocks, -f) unlimited
max locked memory     (kbytes, -l) 4
max memory size       (kbytes, -m) unlimited
open files                    (-n) 1024
pipe size          (512 bytes, -p) 8
stack size            (kbytes, -s) 10240
cpu time             (seconds, -t) unlimited
max user processes            (-u) 7168
virtual memory        (kbytes, -v) unlimited

其中的open files与上面现象有关系呢?

Too many open files 问题出现有两种情况:
一种是在搜索的时候出现,多半是由于索引创建完毕之后被移动过,如果创建索引的时候不出现该错误,搜索的时候也一般是不会出现的。如果出现了,有两种处理办法,一种是修改合并因子和最小合并因子,并且使用
IndexWriter.Optimize() 优化索引,这样会将索引文件数量减少到文件系统限制之内;另外一种办法是修改操作系统的打开文件数量限制。方法如下:
1. 按照最大打开文件数量的需求设置系统, 并且通过检查/proc/sys/fs/file-max文件来确认最大打开文件数已经被正确设置。 
cat /proc/sys/fs/file-max
如果设置值太小, 修改文件/etc/sysctl.conf的变量到合适的值。 这样会在每次重启之后生效。 如果设置值够大,跳过下步。 
echo 2048 /proc/sys/fs/file-max
编辑文件/etc/sysctl.conf,插入下行。 
fs.file-max 8192
2. 在/etc/security/limits.conf文件中设置最大打开文件数, 下面是一行提示: 

添加如下这行。 
nofile 8192
这行设置了每个用户的默认打开文件数为2048。 注意”nofile”项有两个可能的限制措施。就是项下的hard和soft。 要使修改过得最大打开文件数生效,必须对这两种限制进行设定。 如果使用”-”字符设定, 则hard和soft设定会同时被设定。 
硬限制表明soft限制中所能设定的最大值。 soft限制指的是当前系统生效的设置值。 hard限制值可以被普通用户降低。但是不能增加。 soft限制不能设置的比hard限制更高。 只有root用户才能够增加hard限制值。 
当增加文件限制描述,可以简单的把当前值双倍。 例子如下, 如果你要提高默认值1024, 最好提高到2048, 如果还要继续增加, 就需要设置成4096。 
另外一种情况是在创建索引的时候,也有两种可能,一种是 合并因子太小,导致创建文件数量超过操作系统限制,这时可以修改合并因子,也可以修改操作系统的打开文件数限制;另外一种是合并因子受虚拟机内存的限制,无法调整到更大,而 需要索引的doc 数量又非常的大,这个时候就只能通过修改操作系统的打开文件数限制来解决了。 
在此基础上,我还修改了以下一个配置文件
vi /etc/sysctl.conf 
添加:
Decrease the time default value for tcp_fin_timeout connection
net.ipv4.tcp_fin_timeout 30
Decrease the time default value for tcp_keepalive_time connection
net.ipv4.tcp_keepalive_time 1800
Turn off tcp_window_scaling
net.ipv4.tcp_window_scaling 0
Turn off the tcp_sack
net.ipv4.tcp_sack 0
#Turn off tcp_timestamps
net.ipv4.tcp_timestamps 0
然后 service network restart,这些都和TCP sockets有关的优化。
另外需要在 /etc/rc.d/rc.local里添加已使得重启的时候生效。
echo “30″>/proc/sys/net/ipv4/tcp_fin_timeout
echo “1800″>/proc/sys/net/ipv4/tcp_keepalive_time
echo “0″>/proc/sys/net/ipv4/tcp_window_scaling
echo “0″>/proc/sys/net/ipv4/tcp_sack
echo “0″>/proc/sys/net/ipv4/tcp_timestamps
因为不是所有的程序都在root下跑的,所有linux有对hard 与soft open files 的区分,普通用户受hard的限制,无论ulimit -n $数值调到多高,都跑不到 /etc/security/limits.conf里nofile的值.
这样的优化后 lsof -p $java_pid|wc -l可以跑到4千以上都不会抛出too many open files。
但通过以上的文章详细介绍知道,这样也是治标不治本,找到java哪个文件不关闭文件描述符或者被请求过多的原因才是最重要的!