技术分享

系统性能优化工具集合与使用技巧

96年,调色专家
之前组内一位大佬分享了一些关于系统性能优化方面的干货,这里我将它整理成文并且加入自己平时常用的一些工具和技巧。由于关于系统性能优化涉及的内容非常多,我会分几篇文章来分享。这次分享下定位系统层面问题的常用方法。

系统性能定义Throughout 吞吐量  (系统每秒钟可以处理的请求数)
Latency 延迟 (系统处理一个请求的延迟)
Usage 资源利用率
吞吐量和延迟的关系吞吐量越高,延迟会越大。因为请求量过大,系统太繁忙,所以响应时间会降低。
延迟越小,能支持的吞吐量会越高。因为延迟短说明处理速度快,就可以处理更多的请求。
异步化可以提高系统的吞吐量的灵活性,但是不会获得更快的响应时间。
系统性能压测的常用工具tcpdump1. 常用参数:-i:指定需要的网
-s:抓取数据包时默认抓取长度为68字节,加上-s 0后可以抓到完整的数据包
-w:监听的数据包写入指定的文件
2. 示例tcpdump -i eth1 host 10.1.1.1  // 抓取所有经过eth1,目的或源地址是10.1.1.1的网络数据包 

tcpdump -i eth1 src host 10.1.1.1  // 源地址

tcpdump -i eth1 dst host 10.1.1.1  // 目的地址
如果想使用 wireshark 分析 tcpdump 的包,需要加上是 -s 参数:
tcpdump -i eth0 tcp and port 80 -s 0 -w traffic.pcap
tcpcopy——线上引流压测tcpcopy 是一种请求复制工具,用于实时和离线回放,它可以将线上流量拷贝到测试机器,实时模拟线上的真实环境,达到程序不上线的情况下承担线上真实流量的测试。实战演习的必备工具。
a. tcpdump 录制 pace 文件tcpdump -i eth0 -w online.pcap tcp and port 80
b. 流量回放tcpcopy -x 80-10.1.x.x:80 -i traffic.pcap

tcpcopy -x 80-10.1.x.x:80 -a 2 -i traffic.pcap  // 离线回放加速2倍
c. 引流模式tcpcopy -x 80-10.1.x.x:80 -r 20  // 20%引流

tcpcopy -x 80-10.1.x.x:80 -n 3  // 放大三倍引流
Wrk & ApacheBench & Jmeter & Webbench个人非常推荐 Wrk,轻量且压测结果准确,结合 Lua 脚本可以支持更复杂的测试场景。
压测示例:4 个线程来模拟 1000 个并发连接,整个测试持续 30 秒,连接超时 30 秒,打印出请求的延迟统计信息。
> wrk -t4 -c1000 -d30s -T30s --latency http://www.baidu.com

Running 30s test @ http://www.baidu.com
  4 threads and 1000 connections
  Thread Stats   Avg      Stdev     Max   +/- Stdev
    Latency     1.71s     3.19s   26.51s    89.38%
    Req/Sec    15.83     10.59    60.00     66.32%
  Latency Distribution
     50%  434.52ms
     75%    1.70s
     90%    5.66s
     99%   14.38s
  1572 requests in 30.09s, 26.36MB read
Requests/sec:     52.24
Transfer/sec:      0.88MB
更多参数帮助信息:
> wrk --help

Usage: wrk <options> <url>
  Options:
    -c, --connections <N>  Connections to keep open
    -d, --duration    <T>  Duration of test
    -t, --threads     <N>  Number of threads to use

    -s, --script      <S>  Load Lua script file
    -H, --header      <H>  Add header to request
        --latency          Print latency statistics
        --timeout     <T>  Socket/request timeout
    -v, --version          Print version details

  Numeric arguments may include a SI unit (1k, 1M, 1G)
  Time arguments may include a time unit (2s, 2m, 2h)
定位性能瓶颈可以从以下几个方面衡量系统的性能:
应用层面
系统层面
JVM 层面
Profiler
应用层面应用层面的性能指标:
QPS
响应时间,95、99 线等。
成功率
系统层面系统层面指标有 Cpu、内存、磁盘、网路等,推荐用一个犀利的命令查询系统性能情况:
dstat -lcdngy
dstat 非常强大,可以实时的监控cpu、磁盘、网络、IO、内存等使用情况。
安装方法
yum install -y dstat
功能说明
-c:显示CPU系统占用,用户占用,空闲,等待,中断,软件中断等信息。
-C:当有多个CPU时候,此参数可按需分别显示cpu状态,例:-C 0,1 是显示cpu0和cpu1的信息。 
-d:显示磁盘读写数据大小。 -D hda,total:include hda and total。 
-n:显示网络状态。 -N eth1,total:有多块网卡时,指定要显示的网卡。 
-l:显示系统负载情况。 
-m:显示内存使用情况。 
-g:显示页面使用情况。 
-p:显示进程状态。 
-s:显示交换分区使用情况。 
-S:类似D/N。 
-r:I/O请求情况。 
-y:系统状态。 
--ipc:显示ipc消息队列,信号等信息。 
--socket:用来显示tcp udp端口状态。 
-a:此为默认选项,等同于-cdngy。 
-v:等同于 -pmgdsc -D total。 
--output 文件:此选项也比较有用,可以把状态信息以csv的格式重定向到指定的文件中,以便日后查看。例:dstat --output /root/dstat.csv & 此时让程序默默的在后台运行并把结果输出到/root/dstat.csv文件中。    
CPU使用率:CPU 是最重要的资源,如果 CPU 在等待,也会导致 CPU 高使用率。
CPU利用率 = 1 - 程序占用CPU时间/程序总的运行时间
用户时间/内核时间:大致判断应用是计算密集型还是 IO 密集型。
CPU 花在用户态代码的时间称为用户时间,而执行内核态代码的时间称为内核时间。内核时间主要包括系统调用,内核线程和中断的时间。当在整个系统范围内进行测量时,用户时间和内核时间之比揭示了运行的负载类型。计算密集型应用会把大量时间花在用户态代码上,用户时间/内核时间之比接近 99/1。这样的例子有图像处理,数据分析等。I/O 密集型应用的系统调用频率较高,通过执行内核代码进行 I/O 操作。一个进行网络 I/O 的 Web 服务器的用户/内核时间比大约为 70/30。
负载 Load:在特定时间间隔内运行队列中的平均进程数。每个 CPU 都有一个运行队列,队列里存放着已经就绪,等待被 CPU 执行的线程。理想状态下,希望负载平均值小于等于Cpu核数。
CPU 使用率和 Load 的区别:
负载均值用来估量 CPU 利用率的发展趋势,而不是某一时刻的状况。
负载均值包括所有 CPU 的需求,而不仅仅是在测量时活跃的。
磁盘磁盘空间:没有空间会导致程序无法启动或者报错。
du -sh //查看当前文件夹下所有文件大小

df -hl //以磁盘分区为单位查看文件系统
有时候 Linux 服务器的系统日志文件过大导致磁盘使用率过高,推荐两种清理方式:
sudo /dev/null > /var/log/**.log  //删除指定的较大日志文件,速度快
sudo find /var/log/ -type f -mtime +30 -exec rm -f {}   //删除30天之前的日志文件
磁盘权限:没有权限会导致程序无法启动或者报错。
ll /yourdir
磁盘性能测试
dd if=/dev/zero of=output.file bs=10M count=1
io 吞吐、iowait
这里重点说下这两个因素,大量的磁盘读写以及过高的 iowait 往往意味着磁盘可能是瓶颈。实际上 iowait 并不能反映磁盘成为性能瓶颈,它实际测量的是 cpu 的时间:
%iowait = (cpu idle time)/(all cpu time)
所以唯一定位磁盘成为性能瓶颈的直接方法还是看 read/write 时间。下面我们着重介绍下如何定位 io 问题。
a. 宏观确定是否是 io 的问题:top 命令,可以从 CPU 这一行看出浪费在 I/O Wait 上的 CPU 百分比;数值越高代表越多的 CPU 资源在等待 I/O 权限。
b. 确定具体磁盘问题:iostat
%util 直观地反应可哪一块磁盘正在被写入,反应了设备的繁忙程度。每毫秒读写请求(rrqm/s wrqm/s)以及每秒读写(r/s w/s)对排查问题也提供了很多有用的信息。
c. 确定具体进程:简单粗暴的 iotop 直观地反映了哪些进程是导致 io 问题的罪魁祸首。
d. ps 判断进程是否等待 IO 一样强大
众所周知,ps 命令为我们提供了内存、cpu以及进程状态等信息,根据进程状态可以很容易查到正在等待IO的进程信息。
这里简单说下linux进程的几种状态:
R (TASK_RUNNING),可执行状态。
S (TASK_INTERRUPTIBLE),可中断的睡眠状态。
D (TASK_UNINTERRUPTIBLE),不可中断的睡眠状态。
T (TASK_STOPPED or TASK_TRACED),暂停状态或跟踪状态。
Z (TASK_DEAD – EXIT_ZOMBIE),退出状态,进程成为僵尸进程。
X (TASK_DEAD – EXIT_DEAD),退出状态,进程即将被销毁。
其中等待I/O的进程状态一般是"uninterruptible sleep"即D状态,D状态以及R状态进程算为运行队列之中,所以D状态进程过多也会导致系统 load 偏高,有兴趣可以看下 linux load 的计算原理。
查看D状态进程:
> for x in `seq 1 1 10`; do ps -eo state,pid,cmd | grep "^D"; echo "--------"; sleep 5; done

D 13389 /usr/libexec/gcc/x86_64-redhat-linux/4.4.7/cc1 -quiet -I../../include/cat -I../ -I. -dD message_sender.c -quiet -dumpbase message_sender.c -mtune=generic -auxbase message_sender -ggdb3 -O2 -O0 -o /tmp/ccivsNPE.s
根据 proc 伪文件系统获取 io 相关信息:
> cat /proc/pid/io

rchar: 548875497
wchar: 270446556
syscr: 452342
syscw: 143986
read_bytes: 253100032
write_bytes: 24645632
cancelled_write_bytes: 3801088
e. 确定哪个文件频繁读写:lsof -p pid
网络1. nestatnetstat -nt 查看 tcp 相关连接状态、连接数以及发送队列和接收队列
关于 tcp 的状态需要大家熟悉三次握手和四次挥手的过程,这里先列出 tcp 的全部状态。
客户端:SYN_SENT、FIN_WAIT1、FIN_WAIT2、CLOSING、TIME_WAIT

服务端:LISTEN、SYN_RCVD、CLOSE_WAIT、LAST_ACK

Common:ESTABLISHED、CLOSED
TCP 状态变化图(摘自网络):
关于 tcp 状态的几点说明:
正常的连接应该是 ESTABLISHED 状态,如果存在大量的 SYN_SENT 的连接,则需要看下防火墙规则。
如果Recv-Q或者Send-Q持续有大量包存在,意味着连接存在瓶颈或者程序存在bug。
2. 一些其他常用技巧关于 netstat 还有很多有用的技巧,这里列出平时比较常用的:
netstat -nap | grep port 显示使用该端口的所有进程id

netstat -nat |awk '{print $6}'|sort|uniq -c|sort -rn 查询全部状态并排序

awk '{print $1}' access.log |sort|uniq -c|sort -nr|head -10 分析access.log获取访问做多的top n的ip地址

netstat -nat | grep "10.1.1.1:8080" |awk '{print $5}'|awk -F: '{print $1}'|sort|uniq -c|sort -nr|head -20 连接某服务器最多的top n的ip地址

netstat -s 如果重传的包持续增加,那么很大可能网卡存在问题
JVM定位问题的杀手锏——线程堆栈1. 获取线程堆栈的步骤:ps -ef | grep java
jstack <pid> > /tmp/jstack.<pid>
小技巧:jstack 信息是某个时刻的堆栈信息,有时间仅仅一个 jstack 并不能分析出问题所在,可以适当多几次 jstack,然后进行对比分析。
2. 如何从线程堆栈中找到本地线程对应的idnid=native thread id,特殊的是 nid 使用十六进制标识,本地线程 id 是十进制标识,所以通过进制换算就可以讲两者对应起来。
16进制和10进制的互换:
printf %d 0x1b40
printf "0x%x" 6976
3. CPU 消耗高的分析方法a. 找出对应的 java 进程 pid:
ps -ef | grep java
b. 找出 java 进程中最消耗 cpu 的线程:
top -H -p <pid>
将找出的线程id转换为16进制
jstack 获取 java 的线程堆栈
根据16进制的 id 从线程堆栈中找到相关的堆栈信息
说明:线程堆栈中可以看出对应线程执行的是Java代码还是Native method
找不到对应的线程堆栈?
执行的 Native Method 是重新创建的线程。
代码 bug,堆内存耗完,jvm 不断执行 full gc。
jvm 自身 bug。
垃圾收集的统计信息——查看GC原因jstat -gccause 用于查看垃圾收集的统计信息,若有发生垃圾回收,还会显示最后一次以及当前发生垃圾回收的原因,它比 -gcutil 会多出最后一次垃圾回收的原因以及当前正在发生的垃圾回收的原因。
jstat -gccause pid 1234

分享到:

小飞
没有人可以左右你的人生,只是很多时候我们需要多一些勇气,去坚定自己的选择。
查看“小飞”的所有文章 →

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注

相关推荐