Linux 服務器性能參數及問題故障定位

目錄

前言

一、cpu

1.1 說明

1.2 分析工具

1.3 使用方式

二、內存

2.1 說明

2.2 分析工具

2.3 使用方式

 三、磁盤IO

3.1 說明

3.2 分析工具

3.3 使用方式 

四、網絡

4.1 說明

4.2 分析工具

4.3 使用方式

 五、系統負載

5.1 說明

5.2 分析工具

5.3 使用方式

 六、火焰圖

6.1 說明

6.2 安裝依賴庫

6.3 安裝

6.4 CPU級別火焰圖

6.4.1 on-CPU

6.4.2 off-CPU

6.5 內存級別火焰圖

6.6 性能回退-紅藍差分火焰圖

七. 案例分析

7.1 接入層nginx集羣異常現象

7.2 分析nginx相關指標

7.3 分析系統cpu情況

7.4 火焰圖分析cpu

7.5 案例總結

7.5.1 深入分析

7.5.2 解決方式

八、參考資料


前言


一個基於 Linux 操作系統的服務器運行的同時,也會表徵出各種各樣參數信息。通常來說運維人員、系統管理員會對這些數據會極爲敏感,但是這些參數對於開發者來說也十分重要,尤其當你的程序非正常工作的時候,這些蛛絲馬跡往往會幫助快速定位跟蹤問題。

這裏只是一些簡單的工具查看系統的相關參數,當然很多工具也是通過分析加工 /proc、/sys 下的數據來工作的,而那些更加細緻、專業的性能監測和調優,可能還需要更加專業的工具(perf、systemtap 等)和技術才能完成哦。畢竟來說,系統性能監控本身就是個大學問。

img

一、cpu


1.1 說明


針對應用程序,我們通常關注的是內核CPU調度器功能和性能。

線程的狀態分析主要是分析線程的時間用在什麼地方,而線程狀態的分類一般分爲:

a. on-CPU:執行中,執行中的時間通常又分爲用戶態時間user和系統態時間sys。
b. off-CPU:等待下一輪上CPU,或者等待I/O、鎖、換頁等等,其狀態可以細分爲可執行、匿名換頁、睡眠、鎖、空閒等狀態。

如果大量時間花在CPU上,對CPU的剖析能夠迅速解釋原因;如果系統時間大量處於off-cpu狀態,定位問題就會費時很多。但是仍然需要清楚一些概念:

  • 處理器
  • 硬件線程
  • CPU內存緩存
  • 時鐘頻率
  • 每指令週期數CPI和每週期指令數IPC
  • CPU指令
  • 使用率
  • 用戶時間/內核時間
  • 調度器
  • 運行隊列
  • 搶佔
  • 多進程
  • 多線程
  • 字長

1.2 分析工具

說明:

uptime,vmstat,mpstat,top,pidstat只能查詢到cpu及負載的的使用情況。
perf可以跟着到進程內部具體函數耗時情況,並且可以指定內核函數進行統計,指哪打哪。


1.3 使用方式

top	//查看系統cpu使用情況
mpstat -P ALL 1	//查看所有cpu核信息
vmstat 1	//查看cpu使用情況以及平均負載
pidstat -u 1 -p pid	//進程cpu的統計信息
perf top -p pid -e cpu-clock	//跟蹤進程內部函數級cpu使用情況

二、內存

2.1 說明

內存是爲提高效率而生,實際分析問題的時候,內存出現問題可能不只是影響性能,而是影響服務或者引起其他問題。同樣對於內存有些概念需要清楚:

  • 主存
  • 虛擬內存
  • 常駐內存
  • 地址空間
  • OOM
  • 頁緩存
  • 缺頁
  • 換頁
  • 交換空間
  • 交換
  • 用戶分配器libc、glibc、libmalloc和mtmalloc
  • LINUX內核級SLUB分配器

2.2 分析工具

在這裏插入圖片描述

說明:

  • free,vmstat,top,pidstat,pmap只能統計內存信息以及進程的內存使用情況。
  • valgrind可以分析內存泄漏問題。
  • dtrace動態跟蹤。需要對內核函數有很深入的瞭解,通過D語言編寫腳本完成跟蹤。

2.3 使用方式

free -m	//查看系統內存使用情況
vmstat 1	//虛擬內存統計信息
top	//查看系統內存情況
pidstat -p pid -r 1	//1s採集週期,獲取內存的統計信息
pmap -d pid	//查看進程的內存映像信息
valgrind --tool=memcheck --leak-check=full --log-file=./log.txt  ./程序名	//檢測程序內存問題

 三、磁盤IO


3.1 說明


磁盤通常是計算機最慢的子系統,也是最容易出現性能瓶頸的地方,因爲磁盤離 CPU 距離最遠而且 CPU 訪問磁盤要涉及到機械操作,比如轉軸、尋軌等。訪問硬盤和訪問內存之間的速度差別是以數量級來計算的,就像1天和1分鐘的差別一樣。要監測 IO 性能,有必要了解一下基本原理和 Linux 是如何處理硬盤和內存之間的 IO 的。

在理解磁盤IO之前,同樣我們需要理解一些概念,例如:

  • 文件系統
  • VFS
  • 文件系統緩存
  • 頁緩存page cache
  • 緩衝區高速緩存buffer cache
  • 目錄緩存
  • inode
  • inode緩存
  • noop調用策略

3.2 分析工具

在這裏插入圖片描述

3.3 使用方式 

iotop	//查看系統io信息
iostat -d -x -k 1 10	//統計io詳細信息
pidstat -d 1 -p  pid	//查看進程級io的信息
perf record -e block:block_rq_issue -ag	//查看系統IO的請求,比如可以在發現系統IO異常時,可以使用該命令進行調查,就能指定到底是什麼原因導致的IO異常
perf report

四、網絡


4.1 說明


網絡的監測是所有 Linux 子系統裏面最複雜的,有太多的因素在裏面,比如:延遲、阻塞、衝突、丟包等,更糟的是與 Linux 主機相連的路由器、交換機、無線信號都會影響到整體網絡並且很難判斷是因爲 Linux 網絡子系統的問題還是別的設備的問題,增加了監測和判斷的複雜度。現在我們使用的所有網卡都稱爲自適應網卡,意思是說能根據網絡上的不同網絡設備導致的不同網絡速度和工作模式進行自動調整。

4.2 分析工具

在這裏插入圖片描述

4.3 使用方式

netstat -s	//顯示網絡統計信息
netstat -nu	//顯示當前UDP連接狀況
netstat -apu	//顯示UDP端口號的使用情況
netstat -a | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'	//統計機器中網絡連接各個狀態個數
ss -t -a	//顯示TCP連接
ss -s	//顯示sockets摘要信息
ss -u -a	//顯示所有udp sockets
sar -n TCP,ETCP 1	//tcp,etcp狀態
sar -n DEV 1	//查看網絡IO
tcpdump -i eth1 host 192.168.1.1 and port 80 	//抓包以包爲單位進行輸出
tcpflow -cp host 192.168.1.1	//抓包以流爲單位顯示數據內容

 五、系統負載


5.1 說明


Load 就是對計算機幹活多少的度量(WikiPedia:the system Load is a measure of the amount of work that a compute system is doing)簡單的說是進程隊列的長度。Load Average 就是一段時間(1分鐘、5分鐘、15分鐘)內平均Load。

5.2 分析工具

在這裏插入圖片描述

5.3 使用方式

uptime	//查看負載情況
top
vmstat
strace -c -p pid	//統計系統調用耗時情況
strace -T -e epoll_wait -p pid	//跟蹤指定的系統操作例如epoll_wait
dmesg	//查看內核日誌信息

 六、火焰圖


6.1 說明


火焰圖(Flame Graph是 Bredan Gregg 創建的一種性能分析圖表,因爲它的樣子近似 ?而得名。

火焰圖主要是用來展示 CPU的調用棧。

y 軸表示調用棧,每一層都是一個函數。調用棧越深,火焰就越高,頂部就是正在執行的函數,下方都是它的父函數。

x 軸表示抽樣數,如果一個函數在 x 軸佔據的寬度越寬,就表示它被抽到的次數多,即執行的時間長。注意,x 軸不代表時間,而是所有的調用棧合併後,按字母順序排列的。

火焰圖就是看頂層的哪個函數佔據的寬度最大。只要有”平頂”(plateaus),就表示該函數可能存在性能問題。顏色沒有特殊含義,因爲火焰圖表示的是 CPU 的繁忙程度,所以一般選擇暖色調。

常見的火焰圖類型有On-CPU、Off-CPU、Memory、Hot/Cold、Differential等等。

6.2 安裝依賴庫

//安裝systemtap,默認系統已安裝
yum install systemtap systemtap-runtime

//內核調試庫必須跟內核版本對應,例如:uname -r 2.6.18-308.el5
kernel-debuginfo-2.6.18-308.el5.x86_64.rpm
kernel-devel-2.6.18-308.el5.x86_64.rpm
kernel-debuginfo-common-2.6.18-308.el5.x86_64.rpm

//安裝內核調試庫
debuginfo-install --enablerepo=debuginfo search kernel
debuginfo-install --enablerepo=debuginfo  search glibc

6.3 安裝

git clone https://github.com/lidaohang/quick_location.git
cd quick_location

6.4 CPU級別火焰圖


cpu佔用過高,或者使用率提不上來,你能快速定位到代碼的哪塊有問題嗎?
一般的做法可能就是通過日誌等方式去確定問題。現在我們有了火焰圖,能夠非常清晰的發現哪個函數佔用cpu過高,或者過低導致的問題。

6.4.1 on-CPU


cpu佔用過高,執行中的時間通常又分爲用戶態時間user和系統態時間sys。

使用方式:
 

sh ngx_on_cpu_u.sh pid	//on-CPU user
cd ngx_on_cpu_u	//進入結果目錄
sh ngx_on_cpu_k.sh pid	//on-CPU kernel
cd ngx_on_cpu_k	//進入結果目錄
python -m SimpleHTTPServer 8088	//開一個臨時端口8088
127.0.0.1:8088/pid.svg	//打開瀏覽器輸入地址

DEMO:

#include <stdio.h>
#include <stdlib.h>

void foo3(){}

void foo2(){
  int i;
  for(i=0 ; i < 10; i++)
       foo3();
}

void foo1(){
  int i;
  for(i = 0; i< 1000; i++)
     foo3();
}

int main(void){
  int i;
  for( i =0; i< 1000000000; i++) {
      foo1();
      foo2();
  }
}

DEMO火焰圖:

在這裏插入圖片描述

 

6.4.2 off-CPU

cpu過低,利用率不高。等待下一輪CPU,或者等待I/O、鎖、換頁等等,其狀態可以細分爲可執行、匿名換頁、睡眠、鎖、空閒等狀態。

使用方式:

sh ngx_off_cpu_u.sh pid	// off-CPU user
cd ngx_off_cpu_u	//進入結果目錄
sh ngx_off_cpu_k.sh pid	//off-CPU kernel
cd ngx_off_cpu_k	//進入結果目錄
python -m SimpleHTTPServer 8088	//開一個臨時端口8088
127.0.0.1:8088/pid.svg	//打開瀏覽器輸入地址

官網DEMO:
在這裏插入圖片描述

6.5 內存級別火焰圖

如果線上程序出現了內存泄漏,並且只在特定的場景纔會出現。這個時候我們怎麼辦呢?有什麼好的方式和工具能快速的發現代碼的問題呢?同樣內存級別火焰圖幫你快速分析問題的根源。

使用方式:

sh ngx_on_memory.sh pid
cd ngx_on_memory	//進入結果目錄
python -m SimpleHTTPServer 8088	//開一個臨時端口8088
127.0.0.1:8088/pid.svg	//打開瀏覽器輸入地址

官網DEMO:

在這裏插入圖片描述

6.6 性能回退-紅藍差分火焰圖


你能快速定位CPU性能回退的問題麼? 如果你的工作環境非常複雜且變化快速,那麼使用現有的工具是來定位這類問題是很具有挑戰性的。當你花掉數週時間把根因找到時,代碼已經又變更了好幾輪,新的性能問題又冒了出來。主要可以用到每次構建中,每次上線做對比看,如果損失嚴重可以立馬解決修復。

通過抓取了兩張普通的火焰圖,然後進行對比,並對差異部分進行標色:紅色表示上升,藍色表示下降。 差分火焰圖是以當前(“修改後”)的profile文件作爲基準,形狀和大小都保持不變。因此你通過色彩的差異就能夠很直觀的找到差異部分,且可以看出爲什麼會有這樣的差異。使用方式:

cd quick_location

//抓取代碼修改前的profile 1文件
perf record -F 99 -p pid -g -- sleep 30
perf script > out.stacks1

//抓取代碼修改後的profile 2文件
perf record -F 99 -p pid -g -- sleep 30
perf script > out.stacks2

//生成差分火焰圖:
./FlameGraph/stackcollapse-perf.pl ../out.stacks1 > out.folded1
./FlameGraph/stackcollapse-perf.pl ../out.stacks2 > out.folded2
./FlameGraph/difffolded.pl out.folded1 out.folded2 | ./FlameGraph/flamegraph.pl > diff2.svg

DEMO:

//test.c
#include <stdio.h>
#include <stdlib.h>

void foo3(){}

void foo2(){
  int i;
  for(i=0 ; i < 10; i++)
       foo3();
}

void foo1(){
  int i;
  for(i = 0; i< 1000; i++)
     foo3();
}

int main(void){
  int i;
  for( i =0; i< 1000000000; i++) {
      foo1();
      foo2();
  }
}

//test1.c
#include <stdio.h>
#include <stdlib.h>

void foo3(){}

void foo2(){
  int i;
  for(i=0 ; i < 10; i++)
       foo3();
}

void foo1(){
  int i;
  for(i = 0; i< 1000; i++)
     foo3();
}

void add(){
  int i;
  for(i = 0; i< 10000; i++)
     foo3();
}

int main(void){
  int i;
  for( i =0; i< 1000000000; i++) {
      foo1();
      foo2();
      add();
  }
}

DEMO紅藍差分火焰圖:
在這裏插入圖片描述

七. 案例分析

7.1 接入層nginx集羣異常現象

通過監控插件發現在2017.09.25 19點nginx集羣請求流量出現大量的499,5xx狀態碼。並且發現機器cpu使用率升高,目前一直持續中。

7.2 分析nginx相關指標

a) 分析nginx請求流量:

在這裏插入圖片描述

結論:

通過上圖發現流量並沒有突增,反而下降了,跟請求流量突增沒關係。

b) ****分析nginx響應時間

 在這裏插入圖片描述

 

結論:

通過上圖發現nginx的響應時間有增加可能跟nginx自身有關係或者跟後端upstream響應時間有關係。

c) 分析nginx upstream響應時間

在這裏插入圖片描述

結論:

通過上圖發現nginx upstream 響應時間有增加,目前猜測可能後端upstream響應時間拖住nginx,導致nginx出現請求流量異常。

7.3 分析系統cpu情況

a) 通過top觀察系統指標

top

 在這裏插入圖片描述

結論:
發現nginx worker cpu比較高
b) 分析nginx進程內部cpu情況

perf top -p pid

結論:
發現主要開銷在free,malloc,json解析上面

7.4 火焰圖分析cpu

a) 生成用戶態cpu火焰圖 

//on-CPU user
sh ngx_on_cpu_u.sh pid

//進入結果目錄
cd ngx_on_cpu_u

//開一個臨時端口8088
python -m SimpleHTTPServer 8088

//打開瀏覽器輸入地址
127.0.0.1:8088/pid.svg

在這裏插入圖片描述

結論:

發現代碼裏面有頻繁的解析json操作,並且發現這個json庫性能不高,佔用cpu挺高。

7.5 案例總結


a) 分析請求流量異常,得出nginx upstream後端機器響應時間拉長

b) 分析nginx進程cpu高,得出nginx內部模塊代碼有耗時的json解析以及內存分配回收操作

7.5.1 深入分析


根據以上兩點問題分析的結論,我們進一步深入分析。

後端upstream響應拉長,最多可能影響nginx的處理能力。但是不可能會影響nginx內部模塊佔用過多的cpu操作。並且當時佔用cpu高的模塊,是在請求的時候纔會走的邏輯。不太可能是upstram後端拖住nginx,從而觸發這個cpu的耗時操作。

7.5.2 解決方式


遇到這種問題,我們優先解決已知的,並且非常明確的問題。那就是cpu高的問題。解決方式先降級關閉佔用cpu過高的模塊,然後進行觀察。經過降級關閉該模塊cpu降下來了,並且nginx請求流量也正常了。之所以會影響upstream時間拉長,因爲upstream後端的服務調用的接口可能是個環路再次走回到nginx。

八、參考資料


http://www.brendangregg.com/index.html
http://www.brendangregg.com/FlameGraphs/cpuflamegraphs.html
http://www.brendangregg.com/FlameGraphs/memoryflamegraphs.html
http://www.brendangregg.com/FlameGraphs/offcpuflamegraphs.html
http://www.brendangregg.com/blog/2014-11-09/differential-flame-graphs.html
https://github.com/openresty/openresty-systemtap-toolkit
https://github.com/brendangregg/FlameGraph
https://www.slideshare.net/brendangregg/blazing-performance-with-flame-graphs
 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章