0
点赞
收藏
分享

微信扫一扫

关于Zookeeper一键启动/关闭脚本所产生的乌龙事件


        大家都知道在Hadoop集群开启/关闭Zookeeper集群的时候,需要到不同的节点ZK的bin目录下执行对应的启动/关闭脚本,十分的麻烦。所以就有了以下脚本的产生~


一键开启Zookeeper

​vim /export/servers/zookeeper-3.4.5-cdh5.14.0/bin/zk_startall.sh​

for host in node01 node02 node03
do
ssh $host "source /etc/profile;nohup /export/servers/zookeeper-3.4.5-cdh5.14.0/bin/zkServer.sh start >/dev/null 2>&1
&"
echo "$host zk is running"
done


一键关闭Zookeeper

​vim /export/servers/zookeeper-3.4.5-cdh5.14.0/bin/zk_stopall.sh​

for host in node01 node02 node03
do
ssh $host "source /etc/profile;jps |grep QuorumPeerMain |cut -c 1-4 |xargs kill -s 9"
echo "$host zk is stopping"
done

正常情况下,大家只要在一台主节点上添加上述的脚本文件即可~

如果配置了ZK的环境变量,

开启集群的ZK服务只要在命令行输入​​zk_startall.sh​​即可

关闭集群的ZK服务只要在命令行输入​​zk_stopall.sh​​即可

但博主在进行日常维护集群的时候,发现执行zk_stopall.sh的时候,命令行显示如下问题:

关于Zookeeper一键启动/关闭脚本所产生的乌龙事件_Hadoop

最初的我以为又是跟之前解决关闭集群显示no datanode to stop(详情请见《完美解决Hadoop集群无法正常关闭的问题!》)的情况一样,但当我检查了ZK的配置文件之后发现貌似不是这个问题…

vim /export/servers/zookeeper-3.4.5-cdh5.14.0/conf/zoo.cfg

关于Zookeeper一键启动/关闭脚本所产生的乌龙事件_Hadoop_02

后面待我仔细检查之前命令行的打印结果,终于发现了本次事故的端倪!

关于Zookeeper一键启动/关闭脚本所产生的乌龙事件_zookeeper_03

先用​​jps​​查看当前进程

关于Zookeeper一键启动/关闭脚本所产生的乌龙事件_云计算/大数据_04

发现zk的进程号​​66241​​怎么与脚本需要kill的进程号​​6621​​的不一致?还正好差了1位?难道是脚本的shell书写出了点问题?

后面当我把​​zk_stopall.sh​​脚本重新打开了,检查了一遍,终于看出来了~

关于Zookeeper一键启动/关闭脚本所产生的乌龙事件_zookeeper_05

这个脚本获取的是ZK进程号的前四位,而我ZK的端口号又恰好是5位的,所以一直kill不掉对应的进程,所以只需要把脚本中的4改成5,再重新执行脚本就生效了~

总结

        经过这样的一次"乌龙事件",我给自己的建议就是: 长点心吧(T▽T)

关于Zookeeper一键启动/关闭脚本所产生的乌龙事件_Bug_06



举报

相关推荐

0 条评论