背景
我们公司在用inotify+rsync做实时同步,来解决分布式集群文件一致性的问题。但当web文件越来越多(百万级数量html,jpg等小 文件),同步就越来越慢,根本做不到实时,按照网上的调优方法都尝试过,问题根本没有解决。经过我一翻细致研究,终于把慢的核心问题研究明白,先总结一句 inotifywait响应不会有延迟,rsync也很快。大家同样有慢的烦恼,那是因为网上的inotify+rsync的教程都是坑。下面我们来分 析。
inotifywait 单独分析
/ usr / local / bin / inotifywait - mrq -- format '%Xe %w%f' - e modify , create , delete , attrib / data /
执行上面命令,是让inotifywait监听/data/目录,当监听到有发生modify,create,delete,attrib等事件发生时,按%Xe %w%f的格式输出。
在/data/目录touch几个文件
touch / data / { 1..5 }
观看inotify输出
ATTRIB / data / 1 --表示发生了 ATTRIB事件路径为 / data / 1
ATTRIB / data / 2
ATTRIB / data / 3
ATTRIB / data / 4
ATTRIB / data / 5
知道上面的输出效果之后 我们应该想得到,可以用rsync获取inotifywait监控到的文件列表来做指定的文件同步,而不是每次都由rsync做全目录扫描来判断文件是否存在差异。
网上的inotify+rsync分析
我们来看网上的教程,我加了注释。(网上所有的教程基本都一模一样,尽管写法不一样,致命点都是一样的)
#!/bin/bash
/ usr / bin / inotifywait - mrq -- format '%w%f' - e create , close_write , delete / backup | while read file
#把发生更改的文件列表都接收到file 然后循环,但有什么鬼用呢?下面的命令都没有引用这个$file 下面做的是全量rsync
do
cd / backup && rsync - az -- delete / backup / rsync_backup @ 192.168.24.101 :: backup / -- password - file = / etc / rsync . password
done
#注意看 这里的rsync 每次都是全量的同步(这就坑爹了),而且 file列表是循环形式触发rsync ,等于有10个文件发生更改,就触发10次rsync全量同步(简直就是噩梦),那还不如直接写个死循环的rsync全量同步得了。
#有很多人会说 日志输出那里明明只有差异文件的同步记录。其实这是rsync的功能,他本来就只会输出有差异需要同步的文件信息。不信你直接拿这句rsync来跑试试。
#这种在需要同步的源目录文件量很大的情况下,简直是不堪重负。不仅耗CPU还耗时,根本不可以做到实时同步。
改良方法
要做到实时,就必须要减少rsync对目录的递归扫描判断,尽可能的做到只同步inotify监控到已发生更改的文件。结合rsync的特性,所以这里要分开判断来实现一个目录的增删改查对应的操作。
脚本如下
#!/bin/bash
src = / data / # 需要同步的源路径
des = data # 目标服务器上 rsync --daemon 发布的名称,rsync --daemon这里就不做介绍了,网上搜一下,比较简单。
rsync_passwd_file = / etc / rsyncd . passwd # rsync验证的密码文件
ip1 = 192.168.0.18 # 目标服务器1
ip2 = 192.168.0.19 # 目标服务器2
user = root # rsync --daemon定义的验证用户名
cd $ { src } # 此方法中,由于rsync同步的特性,这里必须要先cd到源目录,inotify再监听 ./ 才能rsync同步后目录结构一致,有兴趣的同学可以进行各种尝试观看其效果
/ usr / local / bin / inotifywait - mrq -- format '%Xe %w%f' - e modify , create , delete , attrib . / | while read file # 把监控到有发生更改的"文件路径列表"循环
do
INO_EVENT = $ ( echo $ file | awk '{print $1}' ) # 把inotify输出切割 把事件类型赋值给INO_EVENT
INO_FILE = $ ( echo $ file | awk '{print $2}' ) # 把inotify输出切割 把文件路径赋值给INO_FILE
echo '------------------------------------'
echo $ file
#增加、修改事件
#增、改放在同一个判断,因为他们都肯定是针对文件的操作,即使是新建目录,要同步的也只是一个空目录,不会影响速度。
if [ [ $ INO_EVENT = ~ 'CREATE' ] ] || [ [ $ INO_EVENT = ~ 'MODIFY' ] ] # 判断事件类型
then
echo 'CREATE or MODIFY'
rsync - avzR -- password - file = / etc / rsync - client . pass $ { INO_FILE } $ { user } @ $ { ip1 } :: $ { des } && # INO_FILE 变量代表路径哦
rsync - avzR -- password - file = / etc / rsync - client . pass $ { INO_FILE } $ { user } @ $ { ip2 } :: $ { des }
#仔细看 上面的rsync同步命令 源是用了${INO_FILE}变量 即每次只针对性的同步发生改变的文件 然后用-R参数把源的目录结构递归到目标后面 保证目录结构一致性
fi
#删除事件
if [ [ $ INO_EVENT = ~ 'DELETE' ] ]
then
echo 'DELETE'
rsync - avzR -- delete -- password - file = / etc / rsync - client . pass $ ( dirname $ { INO_FILE } ) $ { user } @ $ { ip1 } :: $ { des } &&
rsync - avzR -- delete -- password - file = / etc / rsync - client . pass $ ( dirname $ { INO_FILE } ) $ { user } @ $ { ip2 } :: $ { des }
#看rsync命令 如果直接同步已删除的路径${INO_FILE}会报no such or directory错误 所以这里同步的源是被删文件或目录的上一级路径,并加上--delete来删除目标上有而源中没有的文件,这里不能做到指定文件删除,如果删除的路径越靠 近根,则同步的目录月多,同步删除的操作就越花时间。这里有更好方法的同学,欢迎交流。
fi
#修改属性事件 指 touch chgrp chmod chown等操作
if [ [ $ INO_EVENT = ~ 'ATTRIB' ] ]
then
echo 'ATTRIB'
if [ ! - d "$INO_FILE" ] # 如果修改属性的是目录 则不同步,因为同步目录会发生递归扫描,等此目录下的文件发生同步时,rsync会顺带更新此目录。
then
rsync - avzR -- password - file = / etc / rsync - client . pass $ { INO_FILE } $ { user } @ $ { ip1 } :: $ { des } &&
rsync - avzR -- password - file = / etc / rsync - client . pass $ { INO_FILE } $ { user } @ $ { ip2 } :: $ { des }
fi
fi
done
每两小时做1次全量同步
因为inotify只在启动时会监控目录,他没有启动期间的文件发生更改,他是不知道的,所以这里每2个小时做1次全量同步,防止各种意外遗漏,保证目录一致。
crontab - e
* * / 2 * * * rsync - avz -- password - file = / etc / rsync - client . pass / data / root @ 192.168.0.18 :: data && rsync - avz -- password - file = / etc / rsync - client . pass / data / root @ 192.168.0.19 :: data
改良后我们公司这种百万级小文件也能做到实施同步了。
下面附上inotify的参数说明
inotify介绍-- 是一种强大的、细颗粒的、异步的文件系统监控机制,*&####&*_0_*&####&*内核从2.6.13起,加入Inotify可以监控文件系统中添加、删除、修改移动等各种事件,利用这个内核接口,就可以监控文件系统下文件的各种变化情况。
inotifywait 参数说明
参数名称 | 参数说明 |
-m,–monitor | 始终保持事件监听状态 |
-r,–recursive | 递归查询目录 |
-q,–quiet | 只打印监控事件的信息 |
–excludei | 排除文件或目录时,不区分大小写 |
-t,–timeout | 超时时间 |
–timefmt | 指定时间输出格式 |
–format | 指定时间输出格式 |
-e,–event | 后面指定删、增、改等事件 |
inotifywait events事件说明
事件名称 | 事件说明 |
access | 读取文件或目录内容 |
modify | 修改文件或目录内容 |
attrib | 文件或目录的属性改变 |
close_write | 修改真实文件内容 |
close_nowrite | |
close | |
open | 文件或目录被打开 |
moved_to | 文件或目录移动到 |
moved_from | 文件或目录从移动 |
move | 移动文件或目录移动到监视目录 |
create | 在监视目录下创建文件或目录 |
delete | 删除监视目录下的文件或目录 |
delete_self | |
unmount | 卸载文件系统 |
优化 Inotify
# 在/proc/sys/fs/inotify目录下有三个文件,对inotify机制有一定的限制
[ root @ web ~ ] # ll /proc/sys/fs/inotify/
0
- rw - r -- r -- 1 root root 09月 923 : 36 max_queued_events
- rw - r -- r -- 1 root root 09月 923 : 36 max_user_instances
- rw - r -- r -- 1 root root 09月 923 : 36 max_user_watches
-----------------------------
max_user_watches #设置inotifywait或inotifywatch命令可以监视的文件数量(单进程)
max_user_instances #设置每个用户可以运行的inotifywait或inotifywatch命令的进程数
max_queued_events #设置inotify实例事件(event)队列可容纳的事件数量
----------------------------
[ root @ web ~ ] # echo 50000000>/proc/sys/fs/inotify/max_user_watches -- 把他加入/etc/rc.local就可以实现每次重启都生效
[ root @ web ~ ] # echo 50000000>/proc/sys/fs/inotify/max_queued_events
作者信息
广州 - 小朱