一次生產的JVM優化

背景

    生產環境有二臺阿里雲服務器,均爲同一時期購買的,CPU、內存、硬盤等配置相同。具體配置如下:

   

        節點

CPU

內存

硬盤

其它

A

2CPU            

4G

普通雲盤

Centos6.4 64位+JDK1.8.0_121

B

2CPU            

4G

普通雲盤

Centos6.4 64位+JDK1.8.0_121

    由於這二服務器硬件和軟件配置相同,並且運行相同的程序,所以在Nginx輪詢策略均weight=1,即平臺的某個流量由這二臺機器平分。

    有一次對系統進行例行檢查,使用PinPoint查看下服務器”Heap Usage”的使用情況時,發現,在有一個系統Full GC非常頻繁,大約五分鐘一次Full GC(如果不明白Full GC的什麼意思的,請自行百度),嚇我一跳。這麼頻繁的Full GC,導致系統暫停處理業務,對系統的實時可用性大打折扣。我檢查了一下Tomcat(Tomcat8.5.28)配置,發現在tomcat沒有作任何關於JVM內存的設置,全部使用默認模式。由於這二服務器硬件和軟件配置相同,並且運行相同的程序,所以在Nginx輪詢策略均weight=1,即平臺的某個流量由這二臺機器平分。

    有一次對系統進行例行檢查,使用PinPoint查看下服務器”Heap Usage”的使用情況時,發現,在有一個系統Full GC非常頻繁,大約五分鐘一次Full GC(如果不明白Full GC的什麼意思的,請自行百度),嚇我一跳。這麼頻繁的Full GC,導致系統暫停處理業務,對系統的實時可用性大打折扣。我檢查了一下Tomcat(Tomcat8.5.28)配置,發現在tomcat沒有作任何關於JVM內存的設置,全部使用默認模式。

GC數據

    在業務峯期間,通過PinPoint觀察的A、B節點的”Heap Usage”使用情況,分別進行以下幾個時間段數據。

    3小時圖:

    

    上圖B系統在三個小時內,一共發生了22次Full GC,大約每8分鐘進行一次Full GC。每次Full GC的時間大概有150ms左右,即B系統在三個小時內,大約有3300ms暫停系統運行。從上圖來看,堆的空間最大值在890M左右,但在堆空間的大小大約200M就發生Full GC了,從系統資源的利用角度來考慮,這個使用率太低了。

     

    上圖A系統在3個小時內,一共發生了0次Full GC,嗯,就是沒有任何停頓。 在這3小時,系統一直在處理業務,沒有停頓。堆的總空間大約1536m,目前堆的空間大於500M。

    6小時圖:

    

    上圖B系統在6個小時的數據統計和3個小時很像,6個小時內一共發生了N次Full GC,均是堆的空間小於200M就發生Full GC了。

    

    上圖A系統在6個小時內,一共發生了0次Full GC,表現優秀。

 12小時

    

    上圖B系統在12個小時內,一共發生了N次Full GC,左邊Full GC比較少,是因爲我們的業務主要集中白天,雖然晚上屬於非業務高峯期間,還是有Full GC。

    

    上圖A系統在12個小時內,一共發生了0次Full GC,表現優秀。

GC日誌

    看下gc.log文件,因爲我們兩臺服務器都輸出了gc的詳細日誌,先看下B系統的Full GC日誌。

    

    

    上圖全部是” [Full GC (Ergonomics)”日誌,是因爲已經去掉” GC (Allocation Failure”日誌,這樣更方便觀察和分析日誌,選取GC日誌文件最後一條Full GC日誌。

    2018-12-24T15:52:11.402+0800: 447817.937: [Full GC (Ergonomics) [PSYoungGen: 480K->0K(20992K)] [ParOldGen: 89513K->69918K(89600K)] 89993K->69918K(110592K), [Metaspace: 50147K->50147K(1095680K)], 0.1519366 secs] [Times: user=0.21 sys=0.00, real=0.15 secs]

    可以計算得到以下信息:

    堆的大小:110592K=108M

    老生代大小:89600K=87.5M

    新生代大小:20992K=20.5M

    分析:這次Full GC是因爲老年代對象佔用的空間的大小已經超過老年代容量 ([ParOldGen: 89513K->69918K(89600K)])引發的Full GC。是因爲分配給老年代的空間太小,遠遠不能滿足系統對業務的需要,導致老年代的空間常常被佔滿,老年代的空間滿了,導致的Full GC。由於老年代的空間比較小,所以每次Full GC的時間也比較短。

    A系統日誌,只有2次Full GC,這2次GC均發生在系統啓動時:

    

    7.765: [Full GC (Metadata GC Threshold) [PSYoungGen: 18010K->0K(458752K)] [ParOldGen: 15142K->25311K(1048576K)] 33153K->25311K(1507328K), [Metaspace: 34084K->34084K(1081344K)], 0.0843090 secs] [Times: user=0.14 sys=0.00, real=0.08 secs]

    可以得到以下信息:

    堆的大小:1507328K=1472M

    老生代大小:89600K=1024M

    新生代大小:20992K=448M

    分析:A系統只有系統啓動纔出現二次Full GC現象,而且是” Metadata GC Threshold”引起的,而不是堆空間引起的Full GC。雖然經過一個星期的觀察,A系統沒有Full GC,但一旦發生Full GC時間則會比較長。其它系統增加發現過,1024M的老年代,Full GC持續的時間大約是900ms秒。所以看得出來推也不是越大越好,或者說在UseParallelOldGC收集器中,堆的空間不是越大越好。

分析與優化

總體分析:

  1. B系統的Full GC過於頻繁,是因爲老生代只有約108M空間,根本無法滿足系統在高峯時期的內存空間需求。由於ParOldGen(老年代)常常被耗盡,所以就發生Full GC事件了。

  2. A系統的堆初始空間(Xms)和堆的最大值(Xmx)均爲1536m,完全可以滿足業務高峯期的內存需求。

優化策略:

  1. B系統先增加堆空間大小,即通過設置Xms、 Xmx值增加堆空間。直接把Xms和Xmx均設置爲1024M。直接堆的啓動空間(Xms)直接設置爲堆的最大值的原因是:因爲直接把Xms設置爲最大值(Xmx)可以避免JVM運行時不停的進行申請內存,而是直接在系統啓動時就分配好了,從而提高系統的效率。把Xms(堆大小)設置爲1024M,是因爲採用JDK的建議,該建議通過命令得到” java -XX:+PrintCommandLineFlags -version” 。其中,“-XX:MaxHeapSize=1004719104”,即Xmx爲1024M,其它建議暫時不採納。所以綜合下來的B系統的JVM參數設置如下:export JAVA_OPTS="-server –Xms1024m -Xmx1024m -XX:+UseParallelOldGC  -verbose:gc -Xloggc:../logs/gc.log  -XX:+PrintGCDetails -XX:+PrintGCTimeStamps"

  2. A系統JVM參數設置保持不變,以便觀察系統運行情況,即:export JAVA_OPTS="-server -Xms1536m -Xmx1536m -XX:+UseParallelOldGC  -verbose:gc -Xloggc:../logs/gc.log  -XX:+PrintGCDetails -XX:+PrintGCTimeStamps"

  1. 將A、B節點系統的JVM參數採用2套參數,是爲了驗證A或B的參數更適合實際情況。


如果對java微服務、分佈式、高併發、高可用、大型互聯網架構技術、面試經驗交流。

可以加我架構圈子羣:692-845-439 領取資料,羣內每天更新資料,免費領取。


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章