linux服务器调优

2017/02/12 iteye

学习笔记,摘自kuqin  http://www.kuqin.com/linux/20110910/264584.html    

一 可以从如下四个方面观察你的服务器机器目前的性能情况:

  1. CPU 
  2. 内存 
  3. 磁盘I/O带宽 
  4. 网络I/O带宽 

二 对如何评估系统性能有个基本的标准,经过一段时间的观察,归纳如下: 

  1. 对于CPU,正常情况(非高峰期)下, user% + sys% < 60% 是很好的情况  也许你会问,为什么要小于60%,剩余的40%做什么?这个是业务性质决定的,tx的业务都是有时间段高峰期的,比如早九点-十点,晚八点-十点,是用户访问高峰期,我们要保证服务器能够处理尖峰并发,所以大多时候有30%~40%的空闲是可以接受而且是必须的。当你的服务器在平时cpu使用率一直>80%,那就要不得不考虑扩容或者程序本身性能优化了调皮。 
  2. 对于内存,同样正常情况下,Swap In(si)=0,Swap Out(so)=0是很好的情况,当然允许偶尔的尖峰,但是曲线要相对平滑,消峰是很有必要的。如果出现 Per CPU with 10 page/s,那么就要重点观察了。 
  3. 对于磁盘,正常情况下,iowait % < 25%是很好的情况,如果长期>40%,那么就会影响反映能力了  其中:  %user:表示CPU处在用户模式下的时间百分比。  %sys:表示CPU处在系统模式下的时间百分比。  %iowait:表示CPU等待输入输出完成时间的百分比。  swap in:即si,表示虚拟内存的页导入,即从SWAP DISK交换到RAM  swap out:即so,表示虚拟内存的页导出,即从RAM交换到SWAP DISK。 

三 接下来介绍,在工作中常用到的性能分析工具, 有些常用的系统命令:  vmstat、sar、iostat、netstat、free、ps、top等  工作中,我比较常用的组合方式为:

  1. 用vmstat、sar、iostat检测是否是CPU瓶颈
  2. 用free、vmstat检测是否是内存瓶颈 
  3. 用iostat检测是否是磁盘I/O瓶颈 
  4. 用netstat检测是否是网络带宽瓶颈 

通常,会用命令uptime,看下总体cpu使用情况,例如我其中一台线上机器情况  uptime  8:40pm up 580 days 2:34, 3 users, load average: 1.24, 1.44, 1.67  重点关注,load average ,这三个值的大小一般不能大于系统CPU的个数,例如,本输出中系统有4个CPU,如果load average的三个值长期大于4时,说明CPU很繁忙,负载很高,可能会影响系统性能,但是偶尔大于4时,倒不用担心,一般不会影响系统性能。相反,如果load average的输出值小于CPU的个数,则表示CPU还有空闲的时间片,比如本例中的输出,CPU是非常空闲的,为下次业务放量作准备,哈哈。 

  1. 用vmstat 详细分析cpu的性能:用该命令分析我线上机器 
vmstat 1  
procs -----------memory---------- ---swap-- -----io---- -system-- -----cpu------  r b swpd free buff cache si so bi bo in cs us sy id wa st  2 0 189216 5439580 506476 1303832 0 0 0 0 0 0 14 6 79 1 0  6 1 189216 5439588 506476 1303832 0 0 0 60 12544 13986 17 5 77 1 0  1 0 189216 5439340 506476 1303832 0 0 0 0 12441 14394 18 4 78 0 0  1 0 189216 5439588 506476 1303832 0 0 0 0 12540 15346 18 4 78 0 0  

解释下:  Procs  r:列表示运行和等待cpu时间片的进程数,这个值如果长期大于系统CPU的个数,说明CPU不足,需要增加CPU。  b:列表示在等待资源的进程数,比如正在等待I/O、或者内存交换等。  Cpu  us:列显示了用户进程消耗的CPU 时间百分比。us的值比较高时,说明用户进程消耗的cpu时间多,但是如果长期大于50%,就需要考虑优化程序或算法。  sy:列显示了内核进程消耗的CPU时间百分比。Sy的值较高时,说明内核消耗的CPU资源很多。  根据经验,us+sy的参考值为70%,如果us+sy大于 70%说明可能存在CPU资源不足。  Memory  swpd: 虚拟内存使用情况,单位:KB  free: 空闲的内存,单位KB  buff: 被用来做为缓存的内存数,一般对块设备的读写才需要缓冲,单位:KB  cache:表示page cached的内存数量,一般作为文件系统cached,频繁访问的文件都会被cached,如果cache值较大,说明cached的文件数较多,如果此时IO中bi比较小,说明文件系统效率比较好。  Swap  si: 从磁盘交换到内存的交换页数量,单位:KB/秒  so: 从内存交换到磁盘的交换页数量,单位:KB/秒  I/O  bi: 发送到块设备的块数,单位:块/秒  bo: 从块设备接收到的块数,单位:块/秒  System  in: 每秒的中断数,包括时钟中断  cs: 每秒的环境(上下文)切换次数  注意:如果 r经常大于 4 ,且id经常少于40,表示cpu的负荷很重。  如果si,so 长期不等于0,表示内存不足。  如果disk 经常不等于0, 且在 b中的队列 大于3, 表示 io性能不好。 

  1. 用sar分析cpu性能,sar是个非常强大的工具,可以对系统的每个方面进行单独的统计,但是使用sar命令会增加系统开销,不过这些开销是可以评估的,对系统的统计结果不会有很大影响。  sar -u 1 4  Linux 2.6.16.60-0.21-TENCENT-090803 (RS_Server_vip) 04/28/11  21:06:13 CPU %user %nice %system %iowait %idle  21:06:14 all 16.83 0.00 4.46 0.99 77.72  21:06:15 all 15.08 0.00 4.52 0.00 80.40  21:06:16 all 17.21 0.00 3.99 0.00 78.80  21:06:17 all 16.75 0.00 3.25 0.00 80.00  Average: all 16.47 0.00 4.05 0.25 79.23  对上面每项的输出解释如下:  %user列显示了用户进程消耗的CPU 时间百分比。  %nice列显示了运行正常进程所消耗的CPU 时间百分比。  %system列显示了系统进程消耗的CPU时间百分比。  %iowait列显示了IO等待所占用的CPU时间百分比  %steal列显示了在内存相对紧张的环境下pagein强制对不同的页面进行的steal操作 。  %idle列显示了CPU处在空闲状态的时间百分比。  有的时候会遇到cpu很空闲,但是性能低下的情况,可能是由于开的进程数小于你cpu的数目,通常web svr进程都会开的很大,因为会调用很多后台服务,属于io类型偏多,逻辑处理偏少的,例如我线上web svr 是240个proc,但逻辑svr通常进程数相对小,因为逻辑处理是耗cpu型的,如果是异步的通常是4个proc,同步的16-32个不等。进程数与服务器性能也是息息相关的。  

  2. 内存性能评估free  free -m  total used free shared buffers cached  Mem: 8110 2792 5318 0 494 1263  -/+ buffers/cache: 1034 7076  Swap: 2055 184 1870  注意:一般有这样一个经验公式:应用程序可用内存/系统物理内存>70%时,表示系统内存资源非常充足,不影响系统性能,应用程序可用内存/系统物理内存<20%时,表示系统内存资源紧缺,需要增加系统内存,20%<应用程序可用内存/系统物理内存<70%时,表示系统内存资源基本能满足应用需求,暂时不影响系统性能。  同样也可以用vmstat观察内存情况,重点关注si,so的值

  3. i/o性能评估iostat命令  iostat -d 2  Linux 2.6.16.60-0.21-TENCENT-090803 (RS_Server_vip) 04/28/11  Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn  sda 9.48 22.73 41.50 1139188426 2080012464  Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn  sda 0.00 0.00 0.00 0 0  Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn  sda 7.50 0.00 112.00 0 224  对上面每项的输出解释如下:  Blk_read/s表示每秒读取的数据块数。  Blk_wrtn/s表示每秒写入的数据块数。  Blk_read表示读取的所有块数。  Blk_wrtn表示写入的所有块数。  注意:1:可以通过Blk_read/s和Blk_wrtn/s的值对磁盘的读写性能有一个基本的了解,如果Blk_wrtn/s值很大,表示磁盘的写操作很频繁,可以考虑优化磁盘或者优化程序,如果Blk_read/s值很大,表示磁盘直接读取操作很多,可以将读取的数据放入内存中进行操作。  2:对于这两个选项的值没有一个固定的大小,根据系统应用的不同,会有不同的值,但是有一个规则还是可以遵循的:长期的、超大的数据读写,肯定是不正常的,这种情况一定会影响系统性能。

  4. I/O性能评估sar  sar -d 2 3  Linux 2.6.16.60-0.21-TENCENT-090803 (RS_Server_vip) 04/28/11  21:24:24 DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util  21:24:26 dev8-0 10.40 0.00 324.75 31.24 0.08 7.43 5.52 5.74  21:24:26 DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util  21:24:28 dev8-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00  21:24:28 DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util  21:24:30 dev8-0 2.99 0.00 31.84 10.67 0.03 11.33 10.00 2.99  Average: DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util  Average: dev8-0 4.48 0.00 119.40 26.67 0.04 8.30 6.52 2.92  需要重点关注的几个参数含义:  await表示平均每次设备I/O操作的等待时间(以毫秒为单位)。  svctm表示平均每次设备I/O操作的服务时间(以毫秒为单位)。  %util表示一秒中有百分之几的时间用于I/O操作。  对以磁盘IO性能,一般有如下评判标准:  注意: 正常情况下svctm应该是小于await值的,而svctm的大小和磁盘性能有关,CPU、内存的负荷也会对svctm值造成影响,过多的请求也会间接的导致svctm值的增加。  await值的大小一般取决与svctm的值和I/O队列长度以及I/O请求模式,如果svctm的值与await很接近,表示几乎没有I/O等待,磁盘性能很好,如果await的值远高于svctm的值,则表示I/O队列等待太长,系统上运行的应用程序将变慢,此时可以通过更换更快的硬盘来解决问题。  %util项的值也是衡量磁盘I/O的一个重要指标,如果%util接近100%,表示磁盘产生的I/O请求太多,I/O系统已经满负荷的在工作,该磁盘可能存在瓶颈。长期下去,势必影响系统的性能,可以通过优化程序或者通过更换更高、更快的磁盘来解决此问题。

  5. 网络性能netstat,重用的几种方式为:  netstat -s 统计不同协议否有丢包  netstat -nlp Rev-Q是否有未读取的数据  netstat -antl 所有tcp连接状况  注意:可以通过netstat查看是否timewait过多的情况,导致端口不够用,在短连接服务中且大并发情况下,要不系统的如下两个选项打开,允许端口重用 

    • tcp_tw_recycle 
    • tcp_tw_reuse 
  6. 网络接收详细情况tcpdump 

如果想要获取主机210.27.48.1除了和主机210.27.48.2之外所有主机通信的ip包,使用命令:  tcpdump ip host 210.27.48.1 and ! 210.27.48.2 

如果想要获取主机210.27.48.1接收或发出的telnet包,使用如下命令:  tcpdump -i eth1 -Xnns0 tcp port 23 host 210.27.48.1

Search

    Table of Contents