学习笔记,摘自kuqin http://www.kuqin.com/linux/20110910/264584.html
一 可以从如下四个方面观察你的服务器机器目前的性能情况:
- CPU
- 内存
- 磁盘I/O带宽
- 网络I/O带宽
二 对如何评估系统性能有个基本的标准,经过一段时间的观察,归纳如下:
- 对于CPU,正常情况(非高峰期)下, user% + sys% < 60% 是很好的情况 也许你会问,为什么要小于60%,剩余的40%做什么?这个是业务性质决定的,tx的业务都是有时间段高峰期的,比如早九点-十点,晚八点-十点,是用户访问高峰期,我们要保证服务器能够处理尖峰并发,所以大多时候有30%~40%的空闲是可以接受而且是必须的。当你的服务器在平时cpu使用率一直>80%,那就要不得不考虑扩容或者程序本身性能优化了调皮。
- 对于内存,同样正常情况下,Swap In(si)=0,Swap Out(so)=0是很好的情况,当然允许偶尔的尖峰,但是曲线要相对平滑,消峰是很有必要的。如果出现 Per CPU with 10 page/s,那么就要重点观察了。
- 对于磁盘,正常情况下,iowait % < 25%是很好的情况,如果长期>40%,那么就会影响反映能力了 其中: %user:表示CPU处在用户模式下的时间百分比。 %sys:表示CPU处在系统模式下的时间百分比。 %iowait:表示CPU等待输入输出完成时间的百分比。 swap in:即si,表示虚拟内存的页导入,即从SWAP DISK交换到RAM swap out:即so,表示虚拟内存的页导出,即从RAM交换到SWAP DISK。
三 接下来介绍,在工作中常用到的性能分析工具, 有些常用的系统命令: vmstat、sar、iostat、netstat、free、ps、top等 工作中,我比较常用的组合方式为:
- 用vmstat、sar、iostat检测是否是CPU瓶颈
- 用free、vmstat检测是否是内存瓶颈
- 用iostat检测是否是磁盘I/O瓶颈
- 用netstat检测是否是网络带宽瓶颈
通常,会用命令uptime,看下总体cpu使用情况,例如我其中一台线上机器情况 uptime 8:40pm up 580 days 2:34, 3 users, load average: 1.24, 1.44, 1.67 重点关注,load average ,这三个值的大小一般不能大于系统CPU的个数,例如,本输出中系统有4个CPU,如果load average的三个值长期大于4时,说明CPU很繁忙,负载很高,可能会影响系统性能,但是偶尔大于4时,倒不用担心,一般不会影响系统性能。相反,如果load average的输出值小于CPU的个数,则表示CPU还有空闲的时间片,比如本例中的输出,CPU是非常空闲的,为下次业务放量作准备,哈哈。
- 用vmstat 详细分析cpu的性能:用该命令分析我线上机器
vmstat 1
procs -----------memory---------- ---swap-- -----io---- -system-- -----cpu------ r b swpd free buff cache si so bi bo in cs us sy id wa st 2 0 189216 5439580 506476 1303832 0 0 0 0 0 0 14 6 79 1 0 6 1 189216 5439588 506476 1303832 0 0 0 60 12544 13986 17 5 77 1 0 1 0 189216 5439340 506476 1303832 0 0 0 0 12441 14394 18 4 78 0 0 1 0 189216 5439588 506476 1303832 0 0 0 0 12540 15346 18 4 78 0 0
解释下: Procs r:列表示运行和等待cpu时间片的进程数,这个值如果长期大于系统CPU的个数,说明CPU不足,需要增加CPU。 b:列表示在等待资源的进程数,比如正在等待I/O、或者内存交换等。 Cpu us:列显示了用户进程消耗的CPU 时间百分比。us的值比较高时,说明用户进程消耗的cpu时间多,但是如果长期大于50%,就需要考虑优化程序或算法。 sy:列显示了内核进程消耗的CPU时间百分比。Sy的值较高时,说明内核消耗的CPU资源很多。 根据经验,us+sy的参考值为70%,如果us+sy大于 70%说明可能存在CPU资源不足。 Memory swpd: 虚拟内存使用情况,单位:KB free: 空闲的内存,单位KB buff: 被用来做为缓存的内存数,一般对块设备的读写才需要缓冲,单位:KB cache:表示page cached的内存数量,一般作为文件系统cached,频繁访问的文件都会被cached,如果cache值较大,说明cached的文件数较多,如果此时IO中bi比较小,说明文件系统效率比较好。 Swap si: 从磁盘交换到内存的交换页数量,单位:KB/秒 so: 从内存交换到磁盘的交换页数量,单位:KB/秒 I/O bi: 发送到块设备的块数,单位:块/秒 bo: 从块设备接收到的块数,单位:块/秒 System in: 每秒的中断数,包括时钟中断 cs: 每秒的环境(上下文)切换次数 注意:如果 r经常大于 4 ,且id经常少于40,表示cpu的负荷很重。 如果si,so 长期不等于0,表示内存不足。 如果disk 经常不等于0, 且在 b中的队列 大于3, 表示 io性能不好。
-
用sar分析cpu性能,sar是个非常强大的工具,可以对系统的每个方面进行单独的统计,但是使用sar命令会增加系统开销,不过这些开销是可以评估的,对系统的统计结果不会有很大影响。 sar -u 1 4 Linux 2.6.16.60-0.21-TENCENT-090803 (RS_Server_vip) 04/28/11 21:06:13 CPU %user %nice %system %iowait %idle 21:06:14 all 16.83 0.00 4.46 0.99 77.72 21:06:15 all 15.08 0.00 4.52 0.00 80.40 21:06:16 all 17.21 0.00 3.99 0.00 78.80 21:06:17 all 16.75 0.00 3.25 0.00 80.00 Average: all 16.47 0.00 4.05 0.25 79.23 对上面每项的输出解释如下: %user列显示了用户进程消耗的CPU 时间百分比。 %nice列显示了运行正常进程所消耗的CPU 时间百分比。 %system列显示了系统进程消耗的CPU时间百分比。 %iowait列显示了IO等待所占用的CPU时间百分比 %steal列显示了在内存相对紧张的环境下pagein强制对不同的页面进行的steal操作 。 %idle列显示了CPU处在空闲状态的时间百分比。 有的时候会遇到cpu很空闲,但是性能低下的情况,可能是由于开的进程数小于你cpu的数目,通常web svr进程都会开的很大,因为会调用很多后台服务,属于io类型偏多,逻辑处理偏少的,例如我线上web svr 是240个proc,但逻辑svr通常进程数相对小,因为逻辑处理是耗cpu型的,如果是异步的通常是4个proc,同步的16-32个不等。进程数与服务器性能也是息息相关的。
-
内存性能评估free free -m total used free shared buffers cached Mem: 8110 2792 5318 0 494 1263 -/+ buffers/cache: 1034 7076 Swap: 2055 184 1870 注意:一般有这样一个经验公式:应用程序可用内存/系统物理内存>70%时,表示系统内存资源非常充足,不影响系统性能,应用程序可用内存/系统物理内存<20%时,表示系统内存资源紧缺,需要增加系统内存,20%<应用程序可用内存/系统物理内存<70%时,表示系统内存资源基本能满足应用需求,暂时不影响系统性能。 同样也可以用vmstat观察内存情况,重点关注si,so的值
-
i/o性能评估iostat命令 iostat -d 2 Linux 2.6.16.60-0.21-TENCENT-090803 (RS_Server_vip) 04/28/11 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 9.48 22.73 41.50 1139188426 2080012464 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 0.00 0.00 0.00 0 0 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 7.50 0.00 112.00 0 224 对上面每项的输出解释如下: Blk_read/s表示每秒读取的数据块数。 Blk_wrtn/s表示每秒写入的数据块数。 Blk_read表示读取的所有块数。 Blk_wrtn表示写入的所有块数。 注意:1:可以通过Blk_read/s和Blk_wrtn/s的值对磁盘的读写性能有一个基本的了解,如果Blk_wrtn/s值很大,表示磁盘的写操作很频繁,可以考虑优化磁盘或者优化程序,如果Blk_read/s值很大,表示磁盘直接读取操作很多,可以将读取的数据放入内存中进行操作。 2:对于这两个选项的值没有一个固定的大小,根据系统应用的不同,会有不同的值,但是有一个规则还是可以遵循的:长期的、超大的数据读写,肯定是不正常的,这种情况一定会影响系统性能。
-
I/O性能评估sar sar -d 2 3 Linux 2.6.16.60-0.21-TENCENT-090803 (RS_Server_vip) 04/28/11 21:24:24 DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util 21:24:26 dev8-0 10.40 0.00 324.75 31.24 0.08 7.43 5.52 5.74 21:24:26 DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util 21:24:28 dev8-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 21:24:28 DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util 21:24:30 dev8-0 2.99 0.00 31.84 10.67 0.03 11.33 10.00 2.99 Average: DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util Average: dev8-0 4.48 0.00 119.40 26.67 0.04 8.30 6.52 2.92 需要重点关注的几个参数含义: await表示平均每次设备I/O操作的等待时间(以毫秒为单位)。 svctm表示平均每次设备I/O操作的服务时间(以毫秒为单位)。 %util表示一秒中有百分之几的时间用于I/O操作。 对以磁盘IO性能,一般有如下评判标准: 注意: 正常情况下svctm应该是小于await值的,而svctm的大小和磁盘性能有关,CPU、内存的负荷也会对svctm值造成影响,过多的请求也会间接的导致svctm值的增加。 await值的大小一般取决与svctm的值和I/O队列长度以及I/O请求模式,如果svctm的值与await很接近,表示几乎没有I/O等待,磁盘性能很好,如果await的值远高于svctm的值,则表示I/O队列等待太长,系统上运行的应用程序将变慢,此时可以通过更换更快的硬盘来解决问题。 %util项的值也是衡量磁盘I/O的一个重要指标,如果%util接近100%,表示磁盘产生的I/O请求太多,I/O系统已经满负荷的在工作,该磁盘可能存在瓶颈。长期下去,势必影响系统的性能,可以通过优化程序或者通过更换更高、更快的磁盘来解决此问题。
-
网络性能netstat,重用的几种方式为: netstat -s 统计不同协议否有丢包 netstat -nlp Rev-Q是否有未读取的数据 netstat -antl 所有tcp连接状况 注意:可以通过netstat查看是否timewait过多的情况,导致端口不够用,在短连接服务中且大并发情况下,要不系统的如下两个选项打开,允许端口重用
- tcp_tw_recycle
- tcp_tw_reuse
-
网络接收详细情况tcpdump
如果想要获取主机210.27.48.1除了和主机210.27.48.2之外所有主机通信的ip包,使用命令:
tcpdump ip host 210.27.48.1 and ! 210.27.48.2
如果想要获取主机210.27.48.1接收或发出的telnet包,使用如下命令:
tcpdump -i eth1 -Xnns0 tcp port 23 host 210.27.48.1