线上的CPU飙升是每个系统都绕不开的话题,这是典型的线上性能问题的排查场景,除了CPU飙升,还有 频繁GC、内存打满 等问题,在工作的过程中,我们或多或少的都会接触到此类的一些问题,接下来我结合生产案例来讲述下排查的思路
监控系统报警:order-service Java 进程 CPU 使用率持续超过 300%,服务响应时间飙升,部分请求超时失败。
首先通过 top 指令查看当前占用CPU较高的进程PID;可以通过以下指令快速查询前5个CPU最高的线程
shell ps -eo pid,ppid,cmd,%cpu --sort=-%cpu | head -n 5
观察到 java 进程 PID 为 12345 的进程 CPU 占用率稳定在 300%+,远超其他进程。确认是 Java 进程本身的问题,而非系统其他进程或外部因素(如病毒)。
接下来通过 top -Hp [PID] 命令 查看进程内线程,执行 top -Hp 12345 观察到有 3-4 个线程 (nid=0x4a3b, nid=0x4a3c, nid=0x4a3d) 的 CPU 使用率持续在 90%-99% 之间。记录下这些高 CPU 线程的 PID (这里是十六进制的 nid,即 Native Thread ID)。
提示
通过 print 命令可以将线程PID转为16进制,根据该16进制值去打印的堆栈日志内查询,查看该线程所驻留的方法位置。
使用jvm内置 jstack 命令抓取线程转储 jstack -l 进程ID
shell jstack -l 12345 > jstack_12345.log
可以多次抓取(间隔 5-10 秒,抓 3-5 次):因为线程状态是瞬时的,多次抓取有助于发现持续活跃的线程。将输出保存到文件 jstack_12345_1.log, jstack_12345_2.log 等。
将 top -Hp 中线程的十进制 PID (Linux 线程 PID) 转换为十六进制。
通过 print 命令可以将线程PID转为16进制,printf "%x\n" 19003 (假设 top -Hp 看到的十进制线程 PID 是 19003) -> 输出 0x4a3b。
根据该16进制值去打印的堆栈日志内查询,在 jstack_12345.log 文件中通过 grep '0x4a3b' jstack_12345.log -A100 搜索这个十六进制值(nid=0x4a3b)来查看该线程所驻留的方法位置。
java "Order-Processing-Thread-7" #32 daemon prio=5 os_prio=0 tid=0x00007f8ea422e800 nid=0x4a3b runnable [0x00007f8e8a7f1000] java.lang.Thread.State: RUNNABLE at com.example.orderservice.InventoryManager.lockStock(InventoryManager.java:105) at com.example.orderservice.InventoryManager.lambda$lockStockForItems$0(InventoryManager.java:87) at com.example.orderservice.InventoryManager$$Lambda$45/0x00000008000b2840.apply(Unknown Source) at java.util.stream.ReferencePipeline$3$1.accept(ReferencePipeline.java:195) at java.util.ArrayList$ArrayListSpliterator.forEachRemaining(ArrayList.java:1655) at java.util.stream.AbstractPipeline.copyInto(AbstractPipeline.java:484) at java.util.stream.AbstractPipeline.wrapAndCopyInto(AbstractPipeline.java:474) at java.util.stream.ReduceOps$ReduceOp.evaluateSequential(ReduceOps.java:913) at java.util.stream.AbstractPipeline.evaluate(AbstractPipeline.java:234) at java.util.stream.ReferencePipeline.collect(ReferencePipeline.java:578) at com.example.orderservice.InventoryManager.lockStockForItems(InventoryManager.java:89) at com.example.orderservice.OrderService.createOrder(OrderService.java:55) ...
直接分析
可以通过 jstack 【进程PID】| grep 【线程转换后十六进制】-A10 直接查询线程的十六进制进行定位分析,利用grep定位线程id,打印后续10行信息。例如:jstack 373 | grep '0x196' -A10
关键观察点
在找到线索的同时,再次检查其他几次 jstack.log 快照的输出中,同一个 nid 的线程是否 持续 停留在 InventoryManager.lockStock 方法附近。如果是,这基本锁定了问题代码区域。
观察其他高 CPU 线程 (nid=0x4a3c, 0x4a3d) 的堆栈。发现它们 几乎完全相同,都卡在 lockStock 方法,只是线程名不同 (Order-Processing-Thread-8, -9 等)。这表明多个线程在执行同一段有问题的代码。
- 检查 线程状态 (RUNNABLE 是重点)。
- 查看 线程名 (自定义线程名能快速定位业务模块)。
- 精读堆栈顶部 (当前执行点) 的方法和行号。
- 对比多次快照,看高 CPU 线程是否持续停留在相同代码位置。
- 修复后,在预发布/压测环境模拟场景验证。
- 添加针对性的监控(如特定方法的执行时间、特定锁的等待时间)。
- 加强代码审查,特别是并发和循环逻辑。
- 进行定期的压力测试。
以上是我们传统的玩法,总结一下就是:
top命令找出消耗CPU高的Java进程及其线程id:
查看消耗CPU高的线程栈:
printf %x pid)。jstack -l pid > test.txt | grep16进制的值)查看对应的线程栈,分析问题。查问题时,会要多次上面的操作以分析确定问题,这个过程太繁琐太慢了。现在我们来认识一下阿里的一个工具脚本 show-busy-java-threads
从官方文档上可以看到有3种安装方式,此处推荐使用直接在网络上下载脚本
sh # 下载脚本 wget --no-check-certificate https://raw.github.com/oldratlee/useful-scripts/release/show-busy-java-threads # 运行脚本 sh ./show-busy-java-threads
基本命令
sh # 从所有运行的Java进程中找出最消耗CPU的线程(缺省5个),打印出其线程栈 show-busy-java-threads # 缺省会自动从所有的Java进程中找出最消耗CPU的线程,这样用更方便 # 当然你可以手动指定要分析的Java进程Id,以保证只会显示你关心的那个Java进程的信息 show-busy-java-threads -p <指定的Java进程Id> show-busy-java-threads -c <要显示的线程栈数> # 多次执行 show-busy-java-threads <重复执行的间隔秒数> [<重复执行的次数>] # 记录到文件以方便回溯查看 show-busy-java-threads -a <运行输出的记录到的文件> # 指定jstack输出文件的存储目录,方便记录以后续分析 show-busy-java-threads -S <存储jstack输出文件的目录>
注意事项
sh # 如果Java进程的用户 与 执行脚本的当前用户 不同,则jstack不了这个Java进程 # 为了能切换到Java进程的用户,需要加sudo来执行,即可以解决: sudo show-busy-java-threads # 对于sudo方式的运行,JAVA_HOME环境变量不能传递给root, # 而root用户往往没有配置JAVA_HOME且不方便配置, # 显式指定jstack命令的路径就反而显得更方便了 show-busy-java-threads -s <指定jstack命令的全路径> 2.2.3 其他命令 # -m选项:执行jstack命令时加上-m选项,显示上Native的栈帧,一般应用排查不需要使用 show-busy-java-threads -m # -F选项:执行jstack命令时加上 -F 选项(如果直接jstack无响应时,用于强制jstack),一般情况不需要使用 show-busy-java-threads -F # -l选项:执行jstack命令时加上 -l 选项,显示上更多相关锁的信息,一般情况不需要使用 # 注意:和 -m -F 选项一起使用时,可能会大大增加jstack操作的耗时 show-busy-java-threads -l
示例
sh $ show-busy-java-threads [1] Busy(57.0%) thread(23355/0x5b3b) stack of java process(23269) under user(admin): "pool-1-thread-1" prio=10 tid=0x000000005b5c5000 nid=0x5b3b runnable [0x000000004062c000] java.lang.Thread.State: RUNNABLE at java.text.DateFormat.format(DateFormat.java:316) at com.xxx.foo.services.common.DateFormatUtil.format(DateFormatUtil.java:41) at com.xxx.foo.shared.monitor.schedule.AppMonitorDataAvgScheduler.run(AppMonitorDataAvgScheduler.java:127) at com.xxx.foo.services.common.utils.AliTimer$2.run(AliTimer.java:128) at java.util.concurrent.ThreadPoolExecutor$Worker.runTask(ThreadPoolExecutor.java:886) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:908) at java.lang.Thread.run(Thread.java:662) [2] Busy(26.1%) thread(24018/0x5dd2) stack of java process(23269) under user(admin): "pool-1-thread-2" prio=10 tid=0x000000005a968800 nid=0x5dd2 runnable [0x00000000420e9000] java.lang.Thread.State: RUNNABLE at java.util.Arrays.copyOf(Arrays.java:2882) at java.lang.AbstractStringBuilder.expandCapacity(AbstractStringBuilder.java:100) at java.lang.AbstractStringBuilder.append(AbstractStringBuilder.java:572) at java.lang.StringBuffer.append(StringBuffer.java:320) - locked <0x00000007908d0030> (a java.lang.StringBuffer) at java.text.SimpleDateFormat.format(SimpleDateFormat.java:890) at java.text.SimpleDateFormat.format(SimpleDateFormat.java:869) at java.text.DateFormat.format(DateFormat.java:316) at com.xxx.foo.services.common.DateFormatUtil.format(DateFormatUtil.java:41) at com.xxx.foo.shared.monitor.schedule.AppMonitorDataAvgScheduler.run(AppMonitorDataAvgScheduler.java:126) at com.xxx.foo.services.common.utils.AliTimer$2.run(AliTimer.java:128) at java.util.concurrent.ThreadPoolExecutor$Worker.runTask(ThreadPoolExecutor.java:886) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:908) at java.lang.Thread.run(Thread.java:662) ......
上面的线程栈可以看出,CPU 消耗最高的 2 个线程都在执行 java.text.DateFormat.format,业务代码对应的方法是 shared.monitor.schedule.AppMonitorDataAvgScheduler.run。可以基本确定:
多执行几次 show-busy-java-threads,如果上面情况高概率出现,则可以确定上面的判定。因为调用越少代码执行越快,则出现在线程栈的概率就越低。脚本有自动多次执行的功能,可以指定 重复执行的间隔秒数/重复执行的次数 参数。
分析 shared.monitor.schedule.AppMonitorDataAvgScheduler.run 实现逻辑和调用方式,以优化实现解决问题。
首先,我们要对问题定位而不是盲目的开启什么慢日志,在并发量大并且大量SQL性能低的情况下,开启慢日志无意是将MySQL推向崩溃的边缘。
当时遇到这个情况,分析了当前的数据量、索引情况、缓存使用情况。目测数据量不大,也就几百万条而已。接下来就去定位索引、缓存问题。
经过询问,发现很多查询都是走MySQL,没有用到缓存。既然没有用到缓存,则是大量请求全部查询MySQL导致,可以通过下面的命令查看:
sql show processlist;
以此来找出哪些查询可能是瓶颈,并据此进行优化。
通常我们通过 Top 检查发现 mysql CPU 或者 io wait 过高 那么解决这些问题都离不开 show processlist。show processlist 是显示用户正在运行的线程,需要注意的是,除了root用户能看到所有正在运行的线程外,其他用户都只能看到自己正在运行的线程,看不到其它用户正在运行的线程。除非单独个这个用户赋予了PROCESS 权限。
注意
show processlist 只显示前100条 我们可以通过 show full processlist 显示全部。
show processlist 显示的信息都是来自MySQL系统库 information_schema 中的 processlist 表。所以使用下面的查询语句可以获得相同的结果:
sql SELECT * FROM information_schema.processlist; SELECT * FROM information_schema.processlist WHERE TIME > 5 ORDER BY TIME DESC;
show full processlist。通过上述发现类似很多相同的SQL语句,一直处于query状态中。select id form user where user_code = 'xxxxx';
初步分析可能是 user_code 字段没有索引导致,接着查询user表的索引情况:show index form user;
发现这个字段是没有建立索引。增加索引之后,该条SQL查询能够正常执行。没隔一会,又发生大量的请求超时问题。
接着进行分析,发现是开启了慢日志查询。大量的SQL查询语句超过慢日志设置的阀值,于是将慢日志关闭之后,速度瞬间提升,但还不是理想状态。
紧接着将部分实时查询数据的SQL语句,都通过缓存(redis)读写实现。观察一段时间后,基本维持在了70%~ 80%。
其实本次事故的解决很简单,就是添加索引与缓存结合使用。不推荐在这种CPU使用过高的情况下进行慢日志的开启。因为大量的请求,如果真是慢日志问题会发生日志磁盘写入,性能贼低。
直接通过MySQL show processlist 命令查看,基本能清晰的定位出部分查询问题严重的SQL语句,在针对该SQL语句进行分析。一般可能就是索引、锁、查询大量字段、大表等查询问题导致。再则一定要使用缓存系统,降低对MySQL的查询频次。对于内存调优,也是一种解决方案。
本文作者:张豪
本文链接:
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!