背景
生產環境有二臺阿里雲服務器,均爲同一時期購買的,CPU、內存、硬盤等配置相同。具體配置如下:
節點 | CPU | 內存 | 硬盤 | 其它 |
A | 2CPU | 4G | 普通雲盤 | Centos6.4 64位+JDK1.8.0_121 |
B | 2CPU | 4G | 普通雲盤 | Centos6.4 64位+JDK1.8.0_121 |
由於這二服務器硬件和軟件配置相同,並且運行相同的程序,所以在Nginx輪詢策略均weight=1,即平臺的某個流量由這二臺機器平分。
有一次對系統進行例行檢查,使用PinPoint查看下服務器”Heap Usage”的使用情況時,發現,在有一個系統Full GC非常頻繁,大約五分鐘一次Full GC(如果不明白Full GC的什麼意思的,請自行百度),嚇我一跳。這麼頻繁的Full GC,導致系統暫停處理業務,對系統的實時可用性大打折扣。我檢查了一下Tomcat(Tomcat8.5.28)配置,發現在tomcat沒有作任何關於JVM內存的設置,全部使用默認模式。由於這二服務器硬件和軟件配置相同,並且運行相同的程序,所以在Nginx輪詢策略均weight=1,即平臺的某個流量由這二臺機器平分。
有一次對系統進行例行檢查,使用PinPoint查看下服務器”Heap Usage”的使用情況時,發現,在有一個系統Full GC非常頻繁,大約五分鐘一次Full GC(如果不明白Full GC的什麼意思的,請自行百度),嚇我一跳。這麼頻繁的Full GC,導致系統暫停處理業務,對系統的實時可用性大打折扣。我檢查了一下Tomcat(Tomcat8.5.28)配置,發現在tomcat沒有作任何關於JVM內存的設置,全部使用默認模式。
GC數據
在業務峯期間,通過PinPoint觀察的A、B節點的”Heap Usage”使用情況,分別進行以下幾個時間段數據。
3小時圖:
上圖B系統在三個小時內,一共發生了22次Full GC,大約每8分鐘進行一次Full GC。每次Full GC的時間大概有150ms左右,即B系統在三個小時內,大約有3300ms暫停系統運行。從上圖來看,堆的空間最大值在890M左右,但在堆空間的大小大約200M就發生Full GC了,從系統資源的利用角度來考慮,這個使用率太低了。
上圖A系統在3個小時內,一共發生了0次Full GC,嗯,就是沒有任何停頓。 在這3小時,系統一直在處理業務,沒有停頓。堆的總空間大約1536m,目前堆的空間大於500M。
6小時圖:
上圖B系統在6個小時的數據統計和3個小時很像,6個小時內一共發生了N次Full GC,均是堆的空間小於200M就發生Full GC了。
上圖A系統在6個小時內,一共發生了0次Full GC,表現優秀。
12小時
上圖B系統在12個小時內,一共發生了N次Full GC,左邊Full GC比較少,是因爲我們的業務主要集中白天,雖然晚上屬於非業務高峯期間,還是有Full GC。
上圖A系統在12個小時內,一共發生了0次Full GC,表現優秀。
GC日誌
看下gc.log文件,因爲我們兩臺服務器都輸出了gc的詳細日誌,先看下B系統的Full GC日誌。
上圖全部是” [Full GC (Ergonomics)”日誌,是因爲已經去掉” GC (Allocation Failure”日誌,這樣更方便觀察和分析日誌,選取GC日誌文件最後一條Full GC日誌。
2018-12-24T15:52:11.402+0800: 447817.937: [Full GC (Ergonomics) [PSYoungGen: 480K->0K(20992K)] [ParOldGen: 89513K->69918K(89600K)] 89993K->69918K(110592K), [Metaspace: 50147K->50147K(1095680K)], 0.1519366 secs] [Times: user=0.21 sys=0.00, real=0.15 secs]
可以計算得到以下信息:
堆的大小:110592K=108M
老生代大小:89600K=87.5M
新生代大小:20992K=20.5M
分析:這次Full GC是因爲老年代對象佔用的空間的大小已經超過老年代容量 ([ParOldGen: 89513K->69918K(89600K)])引發的Full GC。是因爲分配給老年代的空間太小,遠遠不能滿足系統對業務的需要,導致老年代的空間常常被佔滿,老年代的空間滿了,導致的Full GC。由於老年代的空間比較小,所以每次Full GC的時間也比較短。
A系統日誌,只有2次Full GC,這2次GC均發生在系統啓動時:
7.765: [Full GC (Metadata GC Threshold) [PSYoungGen: 18010K->0K(458752K)] [ParOldGen: 15142K->25311K(1048576K)] 33153K->25311K(1507328K), [Metaspace: 34084K->34084K(1081344K)], 0.0843090 secs] [Times: user=0.14 sys=0.00, real=0.08 secs]
可以得到以下信息:
堆的大小:1507328K=1472M
老生代大小:89600K=1024M
新生代大小:20992K=448M
分析:A系統只有系統啓動纔出現二次Full GC現象,而且是” Metadata GC Threshold”引起的,而不是堆空間引起的Full GC。雖然經過一個星期的觀察,A系統沒有Full GC,但一旦發生Full GC時間則會比較長。其它系統增加發現過,1024M的老年代,Full GC持續的時間大約是900ms秒。所以看得出來推也不是越大越好,或者說在UseParallelOldGC收集器中,堆的空間不是越大越好。
分析與優化
總體分析:
B系統的Full GC過於頻繁,是因爲老生代只有約108M空間,根本無法滿足系統在高峯時期的內存空間需求。由於ParOldGen(老年代)常常被耗盡,所以就發生Full GC事件了。
A系統的堆初始空間(Xms)和堆的最大值(Xmx)均爲1536m,完全可以滿足業務高峯期的內存需求。
優化策略:
B系統先增加堆空間大小,即通過設置Xms、 Xmx值增加堆空間。直接把Xms和Xmx均設置爲1024M。直接堆的啓動空間(Xms)直接設置爲堆的最大值的原因是:因爲直接把Xms設置爲最大值(Xmx)可以避免JVM運行時不停的進行申請內存,而是直接在系統啓動時就分配好了,從而提高系統的效率。把Xms(堆大小)設置爲1024M,是因爲採用JDK的建議,該建議通過命令得到” java -XX:+PrintCommandLineFlags -version” 。其中,“-XX:MaxHeapSize=1004719104”,即Xmx爲1024M,其它建議暫時不採納。所以綜合下來的B系統的JVM參數設置如下:export JAVA_OPTS="-server –Xms1024m -Xmx1024m -XX:+UseParallelOldGC -verbose:gc -Xloggc:../logs/gc.log -XX:+PrintGCDetails -XX:+PrintGCTimeStamps"
A系統JVM參數設置保持不變,以便觀察系統運行情況,即:export JAVA_OPTS="-server -Xms1536m -Xmx1536m -XX:+UseParallelOldGC -verbose:gc -Xloggc:../logs/gc.log -XX:+PrintGCDetails -XX:+PrintGCTimeStamps"
將A、B節點系統的JVM參數採用2套參數,是爲了驗證A或B的參數更適合實際情況。
如果對java微服務、分佈式、高併發、高可用、大型互聯網架構技術、面試經驗交流。
可以加我架構圈子羣:692-845-439 領取資料,羣內每天更新資料,免費領取。