Spring Cloud Alibaba 實戰(十三) - Sleuth調用鏈監控

展開閱讀全文

本文概要:大白話剖析調用鏈監控原理,然後學習Sleuth,Zipkin,然後將Sleuth整合Zipkin,最後學習Zipkin數據持久化(Elasticsearch)以及Zipkin依賴關係圖

  • 實戰至此,基本功能已經全部實現

1 剖析調用鏈監控原理

如果我們的項目出現異常了,怎麼辦呢?

1.1 問題定位需求

◆ 跨微服務的API調用發生異常,要求快速定位(比如5分鐘以內)出問題出在哪裏,該怎麼辦?
◆ 跨微服務的API調用發生性能瓶頸,要求迅速定位(比如5分鐘以內)出系統瓶頸,該怎麼辦?

對於這兩種情況,傳統方式很難解決,需要調用鏈監控工具排查(有點類似於Linux內核的調用棧日誌哦)

調用鏈監控工具可謂分佈式項目維護的必備工具!

1.2 監控的基本原理

  • 譬如說,對於本項目,監控如下請求
  • 定義如下4個時間節點
  • 在DB中維護了一張自關聯型數據trace表: 唯一標識,父spanid,服務名稱,調用的API,四個時間節點的階段,數據發生的時間戳

如此一來,正常情況下,一次調用,DB會生成四條數據,即可知道哪個階段發生問題!

2 優雅地使用 Sleuth

2.1 何爲 Sleuth

  • 官方定位 : Sleuth是一 個Spring Cloud的分佈式跟蹤解決方案
    講人話就是調用鏈監控工具的客戶端

2.2 術語條目

Span (跨度)

Sleuth的基本工作單元,它用一個64位的id唯一標識。
除ID外,span還包含其他數據,例如描述、時間戳事件、鍵值對的註解(標籤)、span ID、span父ID等。

前面我們DB中的一條數據就是一個span

trace (跟蹤)

一組span組成的樹狀結構稱爲trace

即DB中完整的四條數據

Annotation (標註)

● CS ( Client Sent客戶端發送)
客戶端發起一一個請求,該annotation描述了span的開始。
●SR ( Server Received服務器端接收)
服務器端獲得請求並準備處理它。
●SS( Server Sent服務器端發送)
該annotation表明完成請求處理(當響應發回客戶端時)。
●CR( Client Received客戶端接收)
span結束的標識。客戶端成功接收到服務器端的響應。

2.3 爲用戶中心整合Sleuth

  • 添加依賴


然後直接啓動服務即可

3 Zipkin搭建與整合

3.1 何爲Zipkin

Zipkin是Twitter開源的分佈式跟蹤系統,主要用來收集系統的時序數據,從而追蹤系統的調用問題

3.2 搭建 Zipkin Server

Zipkin Server的 API兼容性(微服務通過集成reporter模塊,從而Zipkin Server通信) 非常好,對於Spring Cloud Greenwich,Zipkin Server只需安裝2.x即可。

  • 下載 : Zipkin官方的Shell下載最新版本
curl -sSL https://zipkin.io/quickstart.sh | bash -s
之後 java -jar啓動

可看到也是一個SpringBoot應用

  • 查看9411端口
http://localhost:9411/zipkin/

  • 添加依賴,由於zipkin已經包含sleuth,所以移除那個依賴



抽樣是爲了減少性能損失,默認是隻上報0.1的trace數據
調用請求後,zipkin:


  • 由於該請求客戶端是瀏覽器,而其沒有集成sleuth,不上報zipkin,所以不顯示

4 整合Zipkin之後Nacos報錯解決

5 爲所有微服務整合Zipkin

對內容中心和網關都按照前面用戶中心的步驟整合即可

6 Zipkin數據持久化(Elasticsearch)

配置環境變量,即可把數據存入ES

STORAGE_TYPE=elasticsearch ES_HOSTS=localhost:9200 
java -jar zipkin.jar

7 依賴關係圖

  • 一般情況下,是不會顯示依賴圖的
  • 對此,官方有給出說明
  • 使用了ES就需要使用zipkin-dependencies
  • Zipkin Dependencies使用Elasticsearch的環境變量
  • 開始下載
curl -sSL https://zipkin.io/quickstart.sh 
| bash -s io.zipkin.dependencies:zipkin-dependencies:LATEST zipkin-dependencies.jar
  • 啓動
STORAGE_TYPE=elasticsearch ES_HOSTS=localhost:9200 java -jar zipkin-dependencies.jar

  • 現在就展示依賴圖了!實際可以配置定時任務

Zipkin Dependencies指定分析日期

#分析昨天的數據 (OS/X下的命令)
STORAGE_ TYPE=elasticsearch java -jar zipkin-dependencies.jar
`date -uv-ld +%F`

#分析昨天的數據 (Linux下的命令)
STORAGE_ TYPE=elasticsearch java -jar zipkin-dependencies.jar
date -u <span class="hljs-_">-d</span> <span class="hljs-string">'1 day ago'</span> +%F

#分析指定日期的數據
STORAGE TYPE=elasticsearch java -jar zipkin-dependencies.jar 2019-12-25

參考

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章