前端異常監控解決方案研究

摘要: 異常監控不復雜也不簡單啊...

前端監控包括行爲監控、異常監控、性能監控等,本文主要討論異常監控。對於前端而言,和後端處於同一個監控系統中,前端有自己的監控方案,後端也有自己等監控方案,但兩者並不分離,因爲一個用戶在操作應用過程中如果出現異常,有可能是前端引起,也有可能是後端引起,需要有一個機制,將前後端串聯起來,使監控本身統一於監控系統。因此,即使只討論前端異常監控,其實也不能嚴格區分前後端界限,而要根據實際系統的設計,在最終的報表中體現出監控對開發和業務的幫助。

一般而言,一個監控系統,大致可以分爲四個階段:日誌採集、日誌存儲、統計與分析、報告和警告。

採集階段:收集異常日誌,先在本地做一定的處理,採取一定的方案上報到服務器。

存儲階段:後端接收前端上報的異常日誌,經過一定處理,按照一定的存儲方案存儲。

分析階段:分爲機器自動分析和人工分析。機器自動分析,通過預設的條件和算法,對存儲的日誌信息進行統計和篩選,發現問題,觸發報警。人工分析,通過提供一個可視化的數據面板,讓系統用戶可以看到具體的日誌數據,根據信息,發現異常問題根源。

報警階段:分爲告警和預警。告警按照一定的級別自動報警,通過設定的渠道,按照一定的觸發規則進行。預警則在異常發生前,提前預判,給出警告。

1 前端異常

前端異常是指在用戶使用Web應用時無法快速得到符合預期結果的情況,不同的異常帶來的後果程度不同,輕則引起用戶使用不悅,重則導致產品無法使用,使用戶喪失對產品的認可。

1.1 前端異常分類

根據異常代碼的後果的程度,對前端異常的表現分爲如下幾類

a. 出錯

界面呈現的內容與用戶預期的內容不符,例如點擊進入非目標界面,數據不準確,出現的錯誤提示不可理解,界面錯位,提交後跳轉到錯誤界面等情況。這類異常出現時,雖然產品本身功能還能正常使用,但用戶無法達成自己目標。

b. 呆滯

界面出現操作後沒有反應的現象,例如點擊按鈕無法提交,提示成功後無法繼續操作。這類異常出現時,產品已經存在界面級局部不可用現象。

c. 損壞

界面出現無法實現操作目的的現象,例如點擊無法進入目標界面,點擊無法查看詳情內容等。這類異常出現時,應用部分功能無法被正常使用。

d. 假死

界面出現卡頓,無法對任何功能進行使用的現象。例如用戶無法登陸導致無法使用應用內功能,由於某個遮罩層阻擋且不可關閉導致無法進行任何後續操作。這類異常出現時,用戶很可能殺死應用。

e. 崩潰

應用出現經常性自動退出或無法操作的現象。例如間歇性crash,網頁無法正常加載或加載後無法進行任何操作。這類異常持續出現,將直接導致用戶流失,影響產品生命力。

1.2 異常錯誤原因分類

前端產生異常的原因主要分5類:

原因 案例 頻率
邏輯錯誤 1) 業務邏輯判斷條件錯誤 2) 事件綁定順序錯誤 3) 調用棧時序錯誤 4) 錯誤的操作js對象 經常
數據類型錯誤 1) 將null視作對象讀取property 2) 將undefined視作數組進行遍歷 3) 將字符串形式的數字直接用於加運算 4) 函數參數未傳 經常
語法句法錯誤 較少
網絡錯誤 1) 慢 2) 服務端未返回數據但仍200,前端按正常進行數據遍歷 3) 提交數據時網絡中斷 4) 服務端500錯誤時前端未做任何錯誤處理 偶爾
系統錯誤 1) 內存不夠用 2) 磁盤塞滿 3) 殼不支持API 4) 不兼容 較少

2 異常採集

2.1 採集內容

當異常出現的時候,我們需要知道異常的具體信息,根據異常的具體信息來決定採用什麼樣的解決方案。在採集異常信息時,可以遵循4W原則:

WHO did WHAT and get WHICH exception in WHICH environment?

a. 用戶信息

出現異常時該用戶的信息,例如該用戶在當前時刻的狀態、權限等,以及需要區分用戶可多終端登錄時,異常對應的是哪一個終端。

b. 行爲信息

用戶進行什麼操作時產生了異常:所在的界面路徑;執行了什麼操作;操作時使用了哪些數據;當時的API吐了什麼數據給客戶端;如果是提交操作,提交了什麼數據;上一個路徑;上一個行爲日誌記錄ID等。

c. 異常信息

產生異常的代碼信息:用戶操作的DOM元素節點;異常級別;異常類型;異常描述;代碼stack信息等。

d. 環境信息

網絡環境;設備型號和標識碼;操作系統版本;客戶端版本;API接口版本等。

字段 類型 解釋
requestId String 一個界面產生一個requestId
traceId String 一個階段產生一個traceId,用於追蹤和一個異常相關的所有日誌記錄
hash String 這條log的唯一標識碼,相當於logId,但它是根據當前日誌記錄的具體內容而生成的
time Number 當前日誌產生的時間(保存時刻)
userId String
userStatus Number 當時,用戶狀態信息(是否可用/禁用)
userRoles Array 當時,前用戶的角色列表
userGroups Array 當時,用戶當前所在組,組別權限可能影響結果
userLicenses Array 當時,許可證,可能過期
path String 所在路徑,URL
action String 進行了什麼操作
referer String 上一個路徑,來源URL
prevAction String 上一個操作
data Object 當前界面的state、data
dataSources Array<Object> 上游api給了什麼數據
dataSend Object 提交了什麼數據
targetElement HTMLElement 用戶操作的DOM元素
targetDOMPath Array<HTMLElement> 該DOM元素的節點路徑
targetCSS Object 該元素的自定義樣式表
targetAttrs Object 該元素當前的屬性及值
errorType String 錯誤類型
errorLevel String 異常級別
errorStack String 錯誤stack信息
errorFilename String 出錯文件
errorLineNo Number 出錯行
errorColNo Number 出錯列位置
errorMessage String 錯誤描述(開發者定義)
errorTimeStamp Number 時間戳
eventType String 事件類型
pageX Number 事件x軸座標
pageY Number 事件y軸座標
screenX Number 事件x軸座標
screenY Number 事件y軸座標
pageW Number 頁面寬度
pageH Number 頁面高度
screenW Number 屏幕寬度
screenH Number 屏幕高度
eventKey String 觸發事件的鍵
network String 網絡環境描述
userAgent String 客戶端描述
device String 設備描述
system String 操作系統描述
appVersion String 應用版本
apiVersion String 接口版本

這是一份非常龐大的日誌字段表,它幾乎囊括了一個異常發生時,能夠對異常周遭環境進行詳細描述的所有信息。不同情況下,這些字段並不一定都會收集,由於我們會採用文檔數據庫存儲日誌,因此,並不影響它的實際存儲結果。

2.2 異常捕獲

前端捕獲異常分爲全局捕獲和單點捕獲。全局捕獲代碼集中,易於管理;單點捕獲作爲補充,對某些特殊情況進行捕獲,但分散,不利於管理。

a、全局捕獲

通過全局的接口,將捕獲代碼集中寫在一個地方,可以利用的接口有:

  • window.addEventListener(‘error’) / window.addEventListener(“unhandledrejection”) / document.addEventListener(‘click’) 等
  • 框架級別的全局監聽,例如aixos中使用interceptor進行攔截,vue、react都有自己的錯誤採集接口
  • 通過對全局函數進行封裝包裹,實現在在調用該函數時自動捕獲異常
  • 對實例方法重寫(Patch),在原有功能基礎上包裹一層,例如對console.error進行重寫,在使用方法不變的情況下也可以異常捕獲

b、單點捕獲

在業務代碼中對單個代碼塊進行包裹,或在邏輯流程中打點,實現有針對性的異常捕獲:

  • try…catch
  • 專門寫一個函數來收集異常信息,在異常發生時,調用該函數
  • 專門寫一個函數來包裹其他函數,得到一個新函數,該新函數運行結果和原函數一模一樣,只是在發生異常時可以捕獲異常

2.3 跨域腳本異常

由於瀏覽器安全策略限制,跨域腳本報錯時,無法直接獲取錯誤的詳細信息,只能得到一個Script Error。例如,我們會引入第三方依賴,或者將自己的腳本放在CDN時。

解決Script Error的方法:

方案一:

  • 將js內聯到HTML中
  • 將js文件與HTML放在同域下

方案二:

  1. 爲頁面上script標籤添加crossorigin屬性
  2. 被引入腳本所在服務端響應頭中,增加 Access-Control-Allow-Origin 來支持跨域資源共享

2.4 異常錄製

對於一個異常,僅僅擁有該異常的信息還不足以完全抓住問題的本質,因爲異常發生的位置,並不一定是異常根源所在的位置。我們需要對異常現場進行還原,才能復原問題全貌,甚至避免類似問題在其他界面中發生。這裏需要引進一個概念,就是“異常錄製”。錄製通過“時間”“空間”兩個維度記錄異常發生前到發生的整個過程,對於找到異常根源更有幫助。

上圖表示,當異常發生時,異常的根源可能離我們很遠,我們需要回到異常發生的現場,找到異常根源。就像現實生活中破案一樣,如果有監控攝影機對案發過程的錄影,對破案來說更加容易。如果僅僅關注異常本身,要找到異常的根源,需要憑藉運氣,但有了異常錄製的幫助,找到根源就更加容易。

所謂的“異常錄製”,實際上就是通過技術手段,收集用戶的操作過程,對用戶的每一個操作都進行記錄,在發生異常時,把一定時間區間內的記錄重新運行,形成影像進行播放,讓調試者無需向用戶詢問,就能看到用戶當時的操作過程。

上圖是來自阿里的一套異常錄製還原方案示意圖,用戶在界面上的操作產生的events和mutation被產品收集起來,上傳到服務器,經過隊列處理按順序存放到數據庫中。當需要進行異常重現的時候,將這些記錄從數據庫中取出,採用一定的技術方案,順序播放這些記錄,即可實現異常還原。

2.5 異常級別

一般而言,我們會將收集信息的級別分爲info,warn,error等,並在此基礎上進行擴展。

當我們監控到異常發生時,可以將該異常劃分到“重要——緊急”模型中分爲A、B、C、D四個等級。有些異常,雖然發生了,但是並不影響用戶的正常使用,用戶其實並沒有感知到,雖然理論上應該修復,但是實際上相對於其他異常而言,可以放在後面進行處理。

下文會討論告警策略,一般而言,越靠近右上角的異常會越快通知,保證相關人員能最快接收到信息,並進行處理。A級異常需要快速響應,甚至需要相關負責人知悉。

在收集異常階段,可根據第一節劃分的異常後果來判斷異常的嚴重程度,在發生異常時選擇對應的上報方案進行上報。

3 整理與上報方案

前文已經提到,除了異常報錯信息本身,我們還需要記錄用戶操作日誌,以實現場景復原。這就涉及到上報的量和頻率問題。如果任何日誌都立即上報,這無異於自造的DDOS攻擊。因此,我們需要合理的上報方案。下文會介紹4種上報方案,但實際我們不會僅限於其中一種,而是經常同時使用,對不同級別的日誌選擇不同的上報方案。

3.1 前端存儲日誌

我們前面提到,我們並不單單採集異常本身日誌,而且還會採集與異常相關的用戶行爲日誌。單純一條異常日誌並不能幫助我們快速定位問題根源,找到解決方案。但如果要收集用戶的行爲日誌,又要採取一定的技巧,而不能用戶每一個操作後,就立即將該行爲日誌傳到服務器,對於具有大量用戶同時在線的應用,如果用戶一操作就立即上傳日誌,無異於對日誌服務器進行DDOS攻擊。因此,我們先將這些日誌存儲在用戶客戶端本地,達到一定條件之後,再同時打包上傳一組日誌。

那麼,如何進行前端日誌存儲呢?我們不可能直接將這些日誌用一個變量保存起來,這樣會擠爆內存,而且一旦用戶進行刷新操作,這些日誌就丟失了,因此,我們自然而然想到前端數據持久化方案。

目前,可用的持久化方案可選項也比較多了,主要有:Cookie、localStorage、sessionStorage、IndexedDB、webSQL 、FileSystem 等等。那麼該如何選擇呢?我們通過一個表來進行對比:

存儲方式 cookie localStorage sessionStorage IndexedDB webSQL FileSystem
類型 key-value key-value NoSQL SQL
數據格式 string string string object
容量 4k 5M 5M 500M 60M
進程 同步 同步 同步 異步 異步
檢索 key key key, index field
性能 讀快寫慢 讀慢寫快

綜合之後,IndexedDB是最好的選擇,它具有容量大、異步的優勢,異步的特性保證它不會對界面的渲染產生阻塞。而且IndexedDB是分庫的,每個庫又分store,還能按照索引進行查詢,具有完整的數據庫管理思維,比localStorage更適合做結構化數據管理。但是它有一個缺點,就是api非常複雜,不像localStorage那麼簡單直接。針對這一點,我們可以使用hello-indexeddb這個工具,它用Promise對複雜api進行來封裝,簡化操作,使IndexedDB的使用也能做到localStorage一樣便捷。另外,IndexedDB是被廣泛支持的HTML5標準,兼容大部分瀏覽器,因此不用擔心它的發展前景。

接下來,我們究竟應該怎麼合理使用IndexedDB,保證我們前端存儲的合理性呢?

上圖展示了前端存儲日誌的流程和數據庫佈局。當一個事件、變動、異常被捕獲之後,形成一條初始日誌,被立即放入暫存區(indexedDB的一個store),之後主程序就結束了收集過程,後續的事只在webworker中發生。在一個webworker中,一個循環任務不斷從暫存區中取出日誌,對日誌進行分類,將分類結果存儲到索引區中,並對日誌記錄的信息進行豐富,將最終將會上報到服務端的日誌記錄轉存到歸檔區。而當一條日誌在歸檔區中存在的時間超過一定天數之後,它就已經沒有價值了,但是爲了防止特殊情況,它被轉存到回收區,再經歷一段時間後,就會被從回收區中清除。

3.2 前端整理日誌

上文講到,在一個webworker中對日誌進行整理後存到索引區和歸檔區,那麼這個整理過程是怎樣的呢?

由於我們下文要講的上報,是按照索引進行的,因此,我們在前端的日誌整理工作,主要就是根據日誌特徵,整理出不同的索引。我們在收集日誌時,會給每一條日誌打上一個type,以此進行分類,並創建索引,同時通過object-hashcode計算每個log對象的hash值,作爲這個log的唯一標誌。

  • 將所有日誌記錄按時序存放在歸檔區,並將新入庫的日誌加入索引
  • BatchIndexes:批量上報索引(包含性能等其他日誌),可一次批量上報100條
  • MomentIndexes:即時上報索引,一次全部上報
  • FeedbackIndexes:用戶反饋索引,一次上報一條
  • BlockIndexes:區塊上報索引,按異常/錯誤(traceId,requestId)分塊,一次上報一塊
  • 上報完成後,被上報過的日誌對應的索引刪除
  • 3天以上日誌進入回收區
  • 7天以上的日誌從回收區清除

rquestId:同時追蹤前後端日誌。由於後端也會記錄自己的日誌,因此,在前端請求api的時候,默認帶上requestId,後端記錄的日誌就可以和前端日誌對應起來。

traceId:追蹤一個異常發生前後的相關日誌。當應用啓動時,創建一個traceId,直到一個異常發生時,刷新traceId。把一個traceId相關的requestId收集起來,把這些requestId相關的日誌組合起來,就是最終這個異常相關的所有日誌,用來對異常進行復盤。

上圖舉例展示瞭如何利用traceId和requestId找出和一個異常相關的所有日誌。在上圖中,hash4是一條異常日誌,我們找到hash4對應的traceId爲traceId2,在日誌列表中,有兩條記錄具有該traceId,但是hash3這條記錄並不是一個動作的開始,因爲hash3對應的requestId爲reqId2,而reqId2開始於hash2,因此,我們實際上要把hash2也加入到該異常發生的整個覆盤備選記錄中。總結起來就是,我們要找出同一個traceId對應的所有requestId對應的日誌記錄,雖然有點繞,但稍理解就可以明白其中的道理。

我們把這些和一個異常相關的所有日誌集合起來,稱爲一個block,再利用日誌的hash集合,得出這個block的hash,並在索引區中建立索引,等待上報。

3.3 上報日誌

上報日誌也在webworker中進行,爲了和整理區分,可以分兩個worker。上報的流程大致爲:在每一個循環中,從索引區取出對應條數的索引,通過索引中的hash,到歸檔區取出完整的日誌記錄,再上傳到服務器。

按照上報的頻率(重要緊急度)可將上報分爲四種:

a. 即時上報

收集到日誌後,立即觸發上報函數。僅用於A類異常。而且由於受到網絡不確定因素影響,A類日誌上報需要有一個確認機制,只有確認服務端已經成功接收到該上報信息之後,纔算完成。否則需要有一個循環機制,確保上報成功。

b. 批量上報

將收集到的日誌存儲在本地,當收集到一定數量之後再打包一次性上報,或者按照一定的頻率(時間間隔)打包上傳。這相當於把多次合併爲一次上報,以降低對服務器的壓力。

c. 區塊上報

將一次異常的場景打包爲一個區塊後進行上報。它和批量上報不同,批量上報保證了日誌的完整性,全面性,但會有無用信息。而區塊上報則是針對異常本身的,確保單個異常相關的日誌被全部上報。

d. 用戶主動提交

在界面上提供一個按鈕,用戶主動反饋bug。這有利於加強與用戶的互動。

或者當異常發生時,雖然對用戶沒有任何影響,但是應用監控到了,彈出一個提示框,讓用戶選擇是否願意上傳日誌。這種方案適合涉及用戶隱私數據時。

即時上報 批量上報 區塊上報 用戶反饋
時效 立即 定時 稍延時 延時
條數 一次全部上報 一次100條 單次上報相關條目 一次1條
容量
緊急 緊急重要 不緊急 不緊急但重要 不緊急

即時上報雖然叫即時,但是其實也是通過類似隊列的循環任務去完成的,它主要是儘快把一些重要的異常提交給監控系統,好讓運維人員發現問題,因此,它對應的緊急程度比較高。

批量上報和區塊上報的區別:批量上報是一次上報一定條數,比如每2分鐘上報1000條,直到上報完成。而區塊上報是在異常發生之後,馬上收集和異常相關的所有日誌,查詢出哪些日誌已經由批量上報上報過了,剔除掉,把其他相關日誌上傳,和異常相關的這些日誌相對而言更重要一些,它們可以幫助儘快復原異常現場,找出發生異常的根源。

用戶提交的反饋信息,則可以慢悠悠上報上去。

爲了確保上報是成功的,在上報時需要有一個確認機制,由於在服務端接收到上報日誌之後,並不會立即存入數據庫,而是放到一個隊列中,因此,前後端在確保日誌確實已經記錄進數據庫這一點上需要再做一些處理。

上圖展示了上報的一個大致流程,在上報時,先通過hash查詢,讓客戶端知道準備要上報的日誌集合中,是否存在已經被服務端保存好的日誌,如果已經存在,就將這些日誌去除,避免重複上報,浪費流量。

3.4 壓縮上報數據

一次性上傳批量數據時,必然遇到數據量大,浪費流量,或者傳輸慢等情況,網絡不好的狀態下,可能導致上報失敗。因此,在上報之前進行數據壓縮也是一種方案。

對於合併上報這種情況,一次的數據量可能要十幾k,對於日 pv 大的站點來說,產生的流量還是很可觀的。所以有必要對數據進行壓縮上報。lz-string是一個非常優秀的字符串壓縮類庫,兼容性好,代碼量少,壓縮比高,壓縮時間短,壓縮率達到驚人的60%。但它基於LZ78壓縮,如果後端不支持解壓,可選擇gzip壓縮,一般而言後端會默認預裝gzip,因此,選擇gzip壓縮數據也可以,工具包pako中自帶了gzip壓縮,可以嘗試使用。

4 日誌接收與存儲

4.1 接入層與消息隊列

一般通過提供獨立的日誌服務器接收客戶端日誌,接收過程中,要對客戶端日誌內容的合法性、安全性等進行甄別,防止被人攻擊。而且由於日誌提交一般都比較頻繁,多客戶端同時併發的情況也常見。通過消息隊列將日誌信息逐一處理後寫入到數據庫進行保存也是比較常用的方案。

上圖爲騰訊BetterJS的架構圖,其中“接入層”和“推送中心”就是這裏提到的接入層和消息隊列。BetterJS將整個前端監控的各個模塊進行拆分,推送中心承擔了將日誌推送到存儲中心進行存儲和推送給其他系統(例如告警系統)的角色,但我們可以把接收日誌階段的隊列獨立出來看,在接入層和存儲層之間做一個過渡。

4.2 日誌存儲系統

存儲日誌是一個髒活累活,但是不得不做。對於小應用,單庫單表加優化就可以應付。一個成規模的應用,如果要提供更標準高效的日誌監控服務,常常需要在日誌存儲架構上下一些功夫。目前業界已經有比較完備的日誌存儲方案,主要有:Hbase系,Dremel系,Lucene系等。總體而言,日誌存儲系統主要面對的問題是數據量大,數據結構不規律,寫入併發高,查詢需求大等。一般一套日誌存儲系統,要解決上面這些問題,就要解決寫入的緩衝,存儲介質按日誌時間選擇,爲方便快速讀取而設計合理的索引系統等等。

由於日誌存儲系統方案比較成熟,這裏就不再做更多討論。

4.3 搜索

日誌的最終目的是要使用,由於一般日誌的體量都非常大,因此,要在龐大的數據中找到需要的日誌記錄,需要依賴比較好的搜索引擎。Splunk是一套成熟的日誌存儲系統,但它是付費使用的。按照Splunk的框架,Elk是Splunk的開源實現,Elk是ElasticSearch、Logstash、Kibana的結合,ES基於Lucene的存儲、索引的搜索引擎;logstash是提供輸入輸出及轉化處理插件的日誌標準化管道;Kibana提供可視化和查詢統計的用戶界面。

5 日誌統計與分析

一個完善的日誌統計分析工具需要提供各方面方便的面板,以可視化的方式給日誌管理員和開發者反饋信息。

5.1 用戶緯度

同一個用戶的不同請求實際上會形成不同的story線,因此,針對用戶的一系列操作設計唯一的request id是有必要的。同一個用戶在不同終端進行操作時,也能進行區分。用戶在進行某個操作時的狀態、權限等信息,也需要在日誌系統中予以反應。

5.2 時間維度

一個異常是怎麼發生的,需要將異常操作的前後story線串聯起來觀察。它不單單涉及一個用戶的一次操作,甚至不限於某一個頁面,而是一連串事件的最終結果。

5.3 性能維度

應用運行過程中的性能情況,例如,界面加載時間,api請求時長統計,單元計算的消耗,用戶呆滯時間。

5.4 運行環境維度

應用及服務所運行的環境情況,例如應用所在的網絡環境,操作系統,設備硬件信息等,服務器cpu、內存狀況,網絡、寬帶使用情況等。

5.5 細粒度代碼追蹤

異常的代碼stack信息,定位到發生異常的代碼位置和異常堆棧。

5.6 場景回溯

通過將異常相關的用戶日誌連接起來,以動態的效果輸出發生異常的過程。

6 監控與通知

對異常進行統計和分析只是基礎,而在發現異常時可以推送和告警,甚至做到自動處理,纔是一個異常監控系統應該具備的能力。

6.1 自定義觸發條件的告警

a. 監控實現

當日志信息進入接入層時,就可以觸發監控邏輯。當日志信息中存在較爲高級別的異常時,也可以立即出發告警。告警消息隊列和日誌入庫隊列可以分開來管理,實現並行。

對入庫日誌信息進行統計,對異常信息進行告警。對監控異常進行響應。所謂監控異常,是指:有規律的異常一般而言都比較讓人放心,比較麻煩的是突然之間的異常。例如在某一時段突然頻繁接收到D級異常,雖然D級異常是不緊急一般重要,但是當監控本身發生異常時,就要提高警惕。

b. 自定義觸發條件

除了系統開發時配置的默認告警條件,還應該提供給日誌管理員可配置的自定義觸發條件。

  • 日誌內含有什麼內容時
  • 日誌統計達到什麼度、量時
  • 向符合什麼條件的用戶告警

6.2 推送渠道

可選擇的途徑有很多,例如郵件、短信、微信、電話。

6.3 推送頻率

針對不同級別的告警,推送的頻率也可以進行設定。低風險告警可以以報告的形式一天推送一次,高風險告警10分鐘循環推送,直到處理人手動關閉告警開關。

6.4 自動報表

對於日誌統計信息的推送,可以做到自動生成日報、週報、月報、年報並郵件發送給相關羣組。

6.5 自動產生bug工單

當異常發生時,系統可以調用工單系統API實現自動生成bug單,工單關閉後反饋給監控系統,形成對異常處理的追蹤信息進行記錄,在報告中予以展示。

7 修復異常

7.1 sourcemap

前端代碼大部分情況都是經過壓縮後發佈的,上報的stack信息需要還原爲源碼信息,才能快速定位源碼進行修改。

發佈時,只部署js腳本到服務器上,將sourcemap文件上傳到監控系統,在監控系統中展示stack信息時,利用sourcemap文件對stack信息進行解碼,得到源碼中的具體信息。

但是這裏有一個問題,就是sourcemap必須和正式環境的版本對應,還必須和git中的某個commit節點對應,這樣才能保證在查異常的時候可以正確利用stack信息,找到出問題所在版本的代碼。這些可以通過建立CI任務,在集成化部署中增加一個部署流程,以實現這一環節。

7.2 從告警到預警

預警的本質是,預設可能出現異常的條件,當觸發該條件時異常並沒有真實發生,因此,可以趕在異常發生之前對用戶行爲進行檢查,及時修復,避免異常或異常擴大。

怎麼做呢?其實就是一個統計聚類的過程。將歷史中發生異常的情況進行統計,從時間、地域、用戶等不同維度加以統計,找出規律,並將這些規律通過算法自動加入到預警條件中,當下次觸發時,及時預警。

7.3 智能修復

自動修復錯誤。例如,前端要求接口返回數值,但接口返回了數值型的字符串,那麼可以有一種機制,監控系統發送正確數據類型模型給後端,後端在返回數據時,根據該模型控制每個字段的類型。

8 異常測試

8.1 主動異常測試

撰寫異常用例,在自動化測試系統中,加入異常測試用戶。在測試或運行過程中,每發現一個異常,就將它加入到原有的異常用例列表中。

8.2 隨機異常測試

模擬真實環境,在模擬器中模擬真實用戶的隨機操作,利用自動化腳本產生隨機操作動作代碼,並執行。

定義異常,例如彈出某個彈出框,包含特定內容時,就是異常。將這些測試結果記錄下來,再聚類統計分析,對防禦異常也很有幫助。

9 部署

9.1 多客戶端

一個用戶在不同終端上登錄,或者一個用戶在登錄前和登錄後的狀態。通過特定算法生成requestID,通過該requestId可以確定某個用戶在獨立客戶端上的一系列操作,根據日誌時序,可以梳理出用戶產生異常的具體路徑。

9.2 集成便捷性

前端寫成包,全局引用即可完成大部分日誌記錄、存儲和上報。在特殊邏輯裏面,可以調用特定方法記錄日誌。

後端與應用本身的業務代碼解耦,可以做成獨立的服務,通過接口和第三方應用交互。利用集成部署,可以將系統隨時進行擴容、移植等操作。

9.3 管理系統的可擴展

整套系統可擴展,不僅服務單應用,可支持多個應用同時運行。同一個團隊下的所有應用都可以利用同一個平臺進行管理。

9.4 日誌系統權限

不同的人在訪問日誌系統時權限不同,一個訪問者只能查看自己相關的應用,有些統計數據如果比較敏感,可以單獨設置權限,敏感數據可脫敏。

10 其他

10.1 性能監控

異常監控主要針對代碼級別的報錯,但也應該關注性能異常。性能監控主要包括:

  • 運行時性能:文件級、模塊級、函數級、算法級
  • 網絡請求速率
  • 系統性能

10.2 API Monitor

後端API對前端的影響也非常大,雖然前端代碼也控制邏輯,但是後端返回的數據是基礎,因此對API的監控可以分爲:

  • 穩定性監控
  • 數據格式和類型
  • 報錯監控
  • 數據準確性監控

10.3 數據脫敏

敏感數據不被日誌系統採集。由於日誌系統的保存是比較開放的,雖然裏面的數據很重要,但是在存儲上大部分日誌系統都不是保密級,因此,如果應用涉及了敏感數據,最好做到:

  • 獨立部署,不和其他應用共享監控系統
  • 不採集具體數據,只採集用戶操作數據,在重現時,通過日誌信息可以取出數據api結果來展示
  • 日誌加密,做到軟硬件層面的加密防護
  • 必要時,可採集具體數據的ID用於調試,場景重現時,用mock數據替代,mock數據可由後端採用假的數據源生成
  • 對敏感數據進行混淆

結語

本文主要是對前端異常監控的整體框架進行了研究,沒有涉及到具體的技術實現,涉及前端部分和後臺部分以及與整個問題相關的一些知識點,主要關注前端部分,它和後端的監控有重疊部分也有分支部分,需要在一個項目中不斷實踐,總結出項目本身的監控需求和策略。

感謝你的閱讀,本文出自 Tencent CDC,轉載時請註明出處,謝謝合作。
格式爲:Tencent CDC(https://cdc.tencent.com/2018/09/13/frontend-exception-monitor-research/

關於Fundebug

Fundebug專注於JavaScript、微信小程序、微信小遊戲、支付寶小程序、React Native、Node.js和Java線上應用實時BUG監控。 自從2016年雙十一正式上線,Fundebug累計處理了20億+錯誤事件,付費客戶有陽光保險、核桃編程、荔枝FM、掌門1對1、微脈、青團社等衆多品牌企業。歡迎大家免費試用

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章