隱含馬可夫鏈

轉自 吳軍 google

其實我們平時在說話時,腦子就是一個信息源。我們的喉嚨(聲帶),空氣,就是如電線和光纜般的信道。聽衆耳朵的就是接收端,而聽到的聲音就是傳送過來的信號。根據聲學信號來推測說話者的意思,就是語音識別。這樣說來,如果接收端是一臺計算機而不是人的話,那麼計算機要做的就是語音的自動識別。同樣,在計算機中,如果我們要根據接收到的英語信息,推測說話者的漢語意思,就是機器翻譯; 如果我們要根據帶有拼寫錯誤的語句推測說話者想表達的正確意思,那就是自動糾錯。
那麼怎麼根據接收到的信息來推測說話者想表達的意思呢?我們可以利用叫做“隱含馬爾可夫模型”(Hidden Markov Model)來解決這些問題。以語音識別爲例,當我們觀測到語音信號 o1,o2,o3 時,我們要根據這組信號推測出發送的句子 s1,s2,s3。顯然,我們應該在所有可能的句子中找最有可能性的一個。用數學語言來描述,就是在已知 o1,o2,o3,...的情況下,求使得條件概率
P (s1,s2,s3,...|o1,o2,o3....) 達到最大值的那個句子 s1,s2,s3,...

當然,上面的概率不容易直接求出,於是我們可以間接地計算它。利用貝葉斯公式並且省掉一個常數項,可以把上述公式等價變換成

P(o1,o2,o3,...|s1,s2,s3....) * P(s1,s2,s3,...)
其中
P(o1,o2,o3,...|s1,s2,s3....) 表示某句話 s1,s2,s3...被讀成 o1,o2,o3,...的可能性, 而
P(s1,s2,s3,...) 表示字串 s1,s2,s3,...本身能夠成爲一個合乎情理的句子的可能性,所以這個公式的意義是用發送信號爲 s1,s2,s3...這個數列的可能性乘以 s1,s2,s3...本身可以一個句子的可能性,得出概率。
我們在這裏做兩個假設:

第一,s1,s2,s3,... 是一個馬爾可夫鏈,也就是說,si 只由 si-1 決定 (詳見系列一);
第二, 第 i 時刻的接收信號 oi 只由發送信號 si 決定(又稱爲獨立輸出假設, 即 P(o1,o2,o3,...|s1,s2,s3....) = P(o1|s1) * P(o2|s2)*P(o3|s3)...。
那麼我們就可以很容易利用算法 Viterbi 找出上面式子的最大值,進而找出要識別的句子 s1,s2,s3,...。

滿足上述兩個假設的模型就叫隱含馬爾可夫模型。我們之所以用“隱含”這個詞,是因爲狀態 s1,s2,s3,...是無法直接觀測到的。
隱含馬爾可夫模型的應用遠不只在語音識別中。在上面的公式中,如果我們把 s1,s2,s3,...當成中文,把 o1,o2,o3,...當成對應的英文,那麼我們就能利用這個模型解決機器翻譯問題; 如果我們把 o1,o2,o3,...當成掃描文字得到的圖像特徵,就能利用這個模型解決印刷體和手寫體的識別。

P (o1,o2,o3,...|s1,s2,s3....) 根據應用的不同而又不同的名稱,在語音識別中它被稱爲“聲學模型” (Acoustic Model), 在機器翻譯中是“翻譯模型” (Translation Model) 而在拼寫校正中是“糾錯模型” (Correction Model)。 而P (s1,s2,s3,...) 就是我們在系列一中提到的語言模型。

在利用隱含馬爾可夫模型解決語言處理問題前,先要進行模型的訓練。 常用的訓練方法由伯姆(Baum)在60年代提出的,並以他的名字命名。隱含馬爾可夫模型在處理語言問題早期的成功應用是語音識別。七十年代,當時 IBM 的 Fred Jelinek (賈里尼克) 和卡內基·梅隆大學的 Jim and Janet Baker (貝克夫婦,李開復的師兄師姐) 分別獨立地提出用隱含馬爾可夫模型來識別語音,語音識別的錯誤率相比人工智能和模式匹配等方法降低了三倍 (從 30% 到 10%)。 八十年代李開復博士堅持採用隱含馬爾可夫模型的框架, 成功地開發了世界上第一個大詞彙量連續語音識別系統 Sphinx。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章