linux-flock文件锁之实际运用,防止任务被重叠执行

2020-06-14 12:59:55  [ linux ]      留言:0      阅读:12

来源:https://www.cnblogs.com/wangxusummer/p/4933492.html


linux-flock文件锁之实际运用

vi test.sh

#! /bin/bash echo "Hello World" sleep 10

touch test.lock #随便命名

[root@localhost ~]# flock -xn ./test.lock -c "sh /root/test.sh"

 

运行中...

开启另外一个bash窗口运行

[root@localhost ~]# flock -xn ./test.lock -c "sh /root/test.sh"

 

 

前面未获取到锁直接返回 直到其他运行完毕 这个才开始运行

 

运用

1 crontab运用flock防止重复执行

* * * * * (flock -xn ./test.lock -c "sh /root/test.sh") #-n 为非阻塞模式

2 机器down机自动启动或重启

可以在daemon开始的时候, 打开一个文件然后获取一个写锁. 守护脚本也打开文件并设置写锁, 然后阻塞, 一旦写锁获得成功, 则说明daemon已经挂了. 此时守护脚本重启daemon并放弃写锁.

运行

flock -x ./test.lock -c "/usr/local/nginx/sbin/nginx" #去掉-n表示使用阻塞模式

运行中...

再次执行

flock -x ./test.lock -c "/usr/local/nginx/sbin/nginx" #去掉-n表示使用阻塞模式

阻塞中...

 

模拟down机 

[root@localhost ~]# ps aux |grep "nginx"|grep"master"|grep -v "grep"|awk'{print $2}'|xargskill -9

 

kill后阻塞的命令马上执行 新的进程PID立马产生  欧啦

 

 

 

附加flock参数

-s,--shared:获取一个共享锁,在定向为某文件的FD上设置共享锁而未释放锁的时间内,其他进程试图在定向为此文件的FD上设置独占锁的请求失败,而其他进程试图在定向为此文件的FD上设置共享锁的请求会成功。
-x,-e,--exclusive:获取一个排它锁,或者称为写入锁,为默认项
-u,--unlock:手动释放锁,一般情况不必须,当FD关闭时,系统会自动解锁,此参数用于脚本命令一部分需要异步执行,一部分可以同步执行的情况。
-n,--nb, --nonblock:非阻塞模式,当获取锁失败时,返回1而不是等待
-w, --wait, --timeout seconds:设置阻塞超时,当超过设置的秒数时,退出阻塞模式,返回1,并继续执行后面的语句
-o, --close:表示当执行command前关闭设置锁的FD,以使command的子进程不保持锁。
-c, --command command:在shell中执行其后的语句


来源:https://www.cnblogs.com/wangxusummer/p/4933492.html


留言:


    更换校验码     

无觅相关文章插件,快速提升流量
分享到:
友荐云推荐 Process: 0.0354s ( Load:0.0004s Init:0.0008s Exec:0.0213s Template:0.0129s ) | DB :14 queries 1 writes | UseMem:3,022 kb