一次Mysql改表引发LVS下RS机器全下线的问题

数据库 MySQL
我们梳理后发现,当前有个Task程序在批量往数据库里导数据,表里的数据较多(千万级),这种情况下改表导致数据库响应变慢;同时页面上有个查询没有加缓存,SQL语句执行超时设置得也有问题,最终导致PHP-FPM进程都被卡住了,没有空闲进程来处理LVS健康检查的页面,出现了LVS下RS机器全下线的问题。

一次Mysql改表引发LVS下RS机器全下线的问题

某天下午,正在和code苦战的我突然收到报警短信,告警我们有个业务电信机房LVS下的RS机器全部下线了。***时间去看机器负载情况,发现CPU IDLE在80%左右,其他各项指标也都正常;怀疑是LVS的KeepAlive程序出问题了,上管理平台点了一遍RS上线,发现服务恢复了,于是未做进一步排查,只向OPS同学反馈了一下。

然而,刚过了半个小时,同样的报警又来了,看来还得找到根本原因。挑了一台机器保留现场,并在管理平台将其他机器操作上线,以保证充分的排查时间。

先检查Nginx allweb.log中lvscheck相关的日志,发现状态码全部为499且request_time达到5s:

  1. [tabalt@server01 ~]$ tail -100 /data/nginx/logs/allweb.log | grep lvscheck 
  2. 10.18.42.2 92 0 5.000[s] - - [12/Jul/2017:18:29:18 +0800] "GET /status.php HTTP/1.0" 499 - "-" "KeepAliveClient" lvscheck.domain.com 10.20.12.60 - - 
  3. 10.18.42.2 92 0 5.000[s] - - [12/Jul/2017:18:29:22 +0800] "GET /status.php HTTP/1.0" 499 - "-" "KeepAliveClient" lvscheck.domain.com 10.20.12.60 - - 
  4. 10.18.42.2 92 0 5.000[s] - - [12/Jul/2017:18:29:24 +0800] "GET /status.php HTTP/1.0" 499 - "-" "KeepAliveClient" lvscheck.domain.com 10.20.12.60 - - 
  5. ... 

 

原来KeepAlive程序请求http://lvscheck.domain.com/status.php页面探测服务情况时,竟然过了5s都没有收到响应,于是主动断开请求并将RS下线了。但机器很闲,为什么/status.php会处理超过5s呢?

检查PHP-FPM的日志,发现有报错/data/www/front/index.php文件执行很慢:

  1. [tabalt@server01 ~]$ tail /data/php/log/php-fpm.log 
  2.  
  3. 12-Jul-2017 18:29:18] WARNING: [pool www] child 3988, script '/data/www/front/index.php' (request: "GET /index.php") executing too slow (11.301960 sec), logging 
  4.  
  5. [12-Jul-2017 18:29:22] WARNING: [pool www] child 3945, script '/data/www/front/index.php' (request: "GET /index.php") executing too slow (11.863325 sec), logging 
  6.  
  7. [12-Jul-2017 18:29:24] WARNING: [pool www] child 3887, script '/data/www/front/index.php' (request: "GET /index.php") executing too slow (10.498795 sec), logging 
  8.  
  9. ... 

 

但/data/www/front/index.php只是入口文件,从这个日志看不出来问题在哪里,再检查下PHP-FPM的慢日志:

  1. [tabalt@server01 ~]$ tail -100 /data/php/log/www.log.slow 
  2.  
  3. ... 
  4.  
  5. script_filename = /data/www/front/index.php 
  6.  
  7. [0x00007fecbd613f90] execute() /data/www/vendor/andals/vine/src/Component/Mysql/Driver.php:218 
  8.  
  9. [0x00007fecbd613ec0] doExecute() /data/www/vendor/andals/vine/src/Component/Mysql/Driver.php:66 
  10.  
  11. [0x00007fecbd613df0] query() /data/www/vendor/andals/vine/src/Component/Mysql/Dao/Base.php:206 
  12.  
  13. [0x00007fecbd613d80] simpleQuery() /data/www/src/app/Model/Dao/Base.php:65 
  14.  
  15. [0x00007fecbd613cc0] selectByParamsForFront() /data/www/src/app/Model/Svc/SqlBase.php:211 
  16.  
  17. [0x00007fecbd613c10] selectByParamsForFront() /data/www/src/app/Model/Svc/Category.php:214 
  18.  
  19. ... 
  20.  
  21. [0x00007fecbd613580] getEsData() /data/www/src/app/Controller/Front/ListController.php:26 
  22.  
  23. [0x00007fecbd613400] indexAction() /data/www/vendor/andals/vine/src/Framework/App/Web.php:107 
  24.  
  25. [0x00007fecbd613380] call_user_func_array() /data/www/vendor/andals/vine/src/Framework/App/Web.php:107 
  26.  
  27. [0x00007fecbd613290] runController() /data/www/vendor/andals/vine/src/Framework/App/Web.php:73 
  28.  
  29. [0x00007fecbd6131b0] handleRequest() /data/www/vendor/andals/vine/src/Framework/App/Web.php:48 
  30.  
  31. [0x00007fecbd6130f0] run() /data/www/src/run/front/index.php:6 

 

可以看到最终是执行SQL的时候很慢,上管理平台查看发现在报警的两个时间点,MySQL从库的QPS突然降到0而主库QPS突然大幅升高,于是连忙反馈给DBA同学。

DBA同学排查后发现,当前读写量比较大,且有个新增字段的改标语句正在运行,停止后问题恢复;而主从库QPS的突变是因为从库延时大被Proxy操作下线了。

我们梳理后发现,当前有个Task程序在批量往数据库里导数据,表里的数据较多(***),这种情况下改表导致数据库响应变慢;同时页面上有个查询没有加缓存,SQL语句执行超时设置得也有问题,最终导致PHP-FPM进程都被卡住了,没有空闲进程来处理LVS健康检查的页面,出现了LVS下RS机器全下线的问题。

事后,我们对发现的问题做了修复,并在确保没有大量访问的情况下提交了改表操作,改表顺利执行完成。 

责任编辑:庞桂玉 来源: segmentfault
相关推荐

2021-11-01 17:29:02

Windows系统Fork

2017-08-24 17:37:18

DNS缓存分析

2018-12-27 09:09:35

2019-11-04 10:37:53

MongoDB宕机日志

2023-07-13 09:12:37

CNCF项目云原生

2022-06-10 11:06:23

服务下线

2021-03-29 12:35:04

Kubernetes环境TCP

2021-03-17 00:17:16

命令应急响应

2021-11-22 08:33:27

微信聊天离婚

2022-11-29 21:26:26

跨域配置

2022-04-07 07:30:47

InnoDBMySQL数据

2023-08-01 23:08:07

2020-01-06 09:43:14

赔偿TSB迁移

2018-07-16 22:29:29

代码迭代质量

2019-01-16 09:20:42

架构设计JVM FullGC宕机事故

2020-10-27 10:35:38

优化代码项目

2018-05-30 11:09:41

memcache服务器故障

2022-06-14 08:00:28

切换包管理器版本

2022-12-17 19:49:37

GCJVM故障

2016-11-16 09:25:15

WindowsWindow 8Windows 10
点赞
收藏

51CTO技术栈公众号