機器學習——算法學習——主題模型LDA(1)數學基礎

一.重要公式

1. 貝葉斯公式

經典的貝葉斯公式表示爲:P(\theta |X)=\tfrac{P(X|\theta )*P(\theta )}{P(X)}

當X爲固定值時,P(X)爲公共項。故可以寫爲:P(\theta |X)=\tfrac{P(X|\theta )*P(\theta )}{P(X)}\propto P(X|\theta)*P(\theta )

其中,我們對於隨機變量θ,可以定義定義:

                                                                    ①先驗概率:P(\theta )

                                                                    ②似然函數:P(X|\theta )

                                                                    ③後驗概率:P(\theta |X)

因此,可以給出最後對貝葉斯公式的解讀:後驗概率∝似然函數*先驗概率

2. Gamma函數(即Γ函數)

Gamma函數最初的由來,是爲了將積分與階乘聯繫到一起。哥德巴赫向伯努利兄弟寫信請教,最終由當時在場的歐拉在22歲時提出Gamma函數解決。

Gamma函數的數學表示爲:\Gamma (a)=\int_{0}^{+\infty }t^{a-1}e^{-t}dt

這裏不再進行積分推導,直接給出Gamma函數的幾個性質:

①. 當a爲正整數時,\Gamma (a)=(a-1)!

②. \Gamma (a+1)=a\Gamma (a) 。

③. \Gamma (\tfrac{1}{2})=\sqrt{\pi } 。

二.重要分佈

1. 二項分佈

二項分佈,即進行n次伯努利實驗的概率分佈。表示爲B~(n,p)。n爲實驗次數,p爲成功概率。


舉例:經典的拋硬幣問題,即一個簡單的二項分佈。二項分佈只有兩個結果,如果我們拋十次硬幣,將拋正面記爲成功,反面記爲失敗,則該分佈即可表示爲B~(10,0.5)。(假設正面反面概率均爲0.5)


可以得到,P(k)=C_{n}^{k}p^{k}(1-p)^{n-k}

相應,可以認爲拋硬幣結果有4次正面的概率計算爲P(k=4)=C_{10}^{4}0.5^{4}(1-0.5)^{6}

2. 多項式分佈

多項式分佈,可以簡單理解成對於二項分佈的展開。

我們將二項分佈中,只有正反這兩個結果的情況改變。


①例如,有一個箱子,裏面有n個除了顏色都相同的球,其中顏色共有紅、橙、黃、綠、青、藍、紫七種,則假設不同顏色球的個數分別爲:n_{1},n_{2},n_{3},n_{4},n_{5},n_{6},n_{7}

所以從中取出某顏色的球的概率就分別爲:p_{1}=\tfrac{n_{1}}{n},p_{2}=\tfrac{n_{2}}{n},p_{3}=\tfrac{n_{3}}{n},p_{4}=\tfrac{n_{4}}{n},p_{5}=\tfrac{n_{5}}{n},p_{6}=\tfrac{n_{6}}{n},p_{7}=\tfrac{n_{7}}{n}

故,假設從中取球N次,且觀察顏色後放回,在共N次觀測中,掛測到N_{1}次紅球、N_{2}次橙球、N_{3}次黃球、N_{4}次綠球、N_{5}次青球、N_{6}次藍球、N_{7}次紫球的概率(\sum_{i=1}^{7}N_{i}=N)。


這就是一個典型的多項式分佈問題。類似這個問題我們進行如下定義:

② 多項式分佈的定義:設一個隨機事件共可能出現d種情況,且每種情況d{_{i}}出現的概率爲\mu _{i},且\sum_{i=1}^{d}\mu _{i}=1。故在N次獨立事件中出現m{_{i}}d{_{i}}的概率。(其中\sum_{i=1}^{d}m_{i}=N

得到最後概率函數:P(m_{1},m_{2}...m_{d}|N,\mu_{1},\mu_{2}...\mu_{d})=\tfrac{N!}{m_{1}!m_{2}!...m_{d}!}\prod_{i=1}^{d}\mu_{i}^{m_{i}}

有興趣可以對上面抓球的問題簡單理解一下,這裏不寫了。

3. 貝塔分佈(Beta分佈)

①.首先介紹貝塔函數B(a,b)=\frac{\Gamma(a)\Gamma (b)}{\Gamma(a+b)}。這個函數就是一個調節參數,爲了使最後的函數積分爲1而設置。

②.貝塔分佈(Beta distribution):對於連續隨機變量\mu\in [0,1],其概率密度函數如下(其中a>0、b>0):

                                 P(\mu|a,b)=\frac{\Gamma(a+b)}{\Gamma(a)\Gamma(b)}\mu^{a-1}(1-\mu )^{b-1}=\frac{1}{B(a,b)}\mu^{a-1}(1-\mu )^{b-1}

當a=b=1時,B(a,b)=1該分佈化爲均勻分佈。

對於貝塔分佈,可得到期望E[\mu]=\frac{a}{a+b}方差var[\mu]=\frac{ab}{(a+b)^{2}(a+b+a)}

4. 狄利克雷分佈(Dirichlet分佈)

類似於二項分佈向多項式分佈的擴展,狄利克雷分佈也是有貝塔分佈演化而來。我們將連續變量從1個增加到d個,分別定義爲\mu_{1},\mu_{2}...\mu_{d}\in[0,1],且\sum_{i=1}^{d}\mu _{i}=1。參數由a、b兩個增加到d個參數,分別爲\alpha_{1},\alpha_{1},...,\alpha _{d}>0

定義\overrightarrow{\mu }=(\mu _{1};\mu _{2};...\mu _{d})\overrightarrow{\alpha}=(\alpha_{1};\alpha_{1};...\alpha _{d})\widehat{a}=\sum_{i=1}^{d}\alpha_{i}

故可以給出狄利克雷分佈的概率:

                                           P(\overrightarrow{\mu}|\overrightarrow{\alpha})=\frac{\Gamma(\widehat{\alpha })}{\Gamma(\alpha_{1})...\Gamma(\alpha_{d})}\prod_{i=1}^{d}\mu_{i}^{\alpha _{i}-1}

對於狄利克雷分佈,可得到期望:E[\mu_{i}]=\frac{\alpha_{i}}{\widehat{\alpha }}方差:var[\mu_{i}]=\frac{\alpha_{i}(\widehat{\alpha}-\alpha_{i})}{\widehat{\alpha}^{2}(\widehat{\alpha }+1)}協方差:cov[\mu _{i},\mu _{j}]=\frac{\alpha_{i}\alpha_{j}}{\widehat{\alpha}^{2}(\widehat{\alpha }+1)}

三.共軛先驗分佈

本篇筆記的最終目的就是爲了理解這個概念。這個概念將用到最終LDA模型中。

首先給出共軛先驗分佈的定義:如果先驗分佈似然函數可以使得先驗分佈後驗分佈有相同的形式,那麼就稱先驗分佈與似然函數是共軛的。

這樣說比較抽象,舉個例子:

假設:①.對於隨機變量θ,其先驗分佈符合Be貝塔分佈,即:P(\theta)=beta(a,b)\propto \theta^{a-1}(1-\theta)^{b-1}

           ②.似然函數P(X|\theta )滿足二項分佈,即:P(X|\theta)\propto\theta ^{k}(1-\theta)^{n-k}

根據假設①、②計算後驗概率(參考一中貝葉斯公式)得到:

                  \small P(\theta |X)\propto P(X|\theta)*P(\theta )=\theta ^{k}(1-\theta)^{n-k}*\theta^{a-1}(1-\theta)^{b-1}=\theta ^{k+a-1}(1-\theta)^{n-k+b-1}

後驗概率符合貝塔分佈形式,故設\small a{}'=k+1\small b{}'=n-k+b

得:\small P(\theta |X)\propto \theta ^{k+a-1}(1-\theta)^{n-k+b}=\theta ^{a{}'-1}(1-\theta)^{b{}'-1}

可知後驗概率 \small P(\theta |X) 也符合貝塔分佈,即\small P(\theta |X)= Beta(a{}',b{}')=\frac{1}{B(a{}',b{}')}\theta ^{a{}'-1}(1-\theta)^{b{}'-1}

結論:從上述過程可以看到先驗分佈及後驗分佈均符合貝塔分佈,

★故:先驗分佈符合的貝塔分佈與似然函數符合的二項分佈互爲共軛先驗分佈。

★拓展:多項式分佈與狄利克雷分佈互爲共軛先驗分佈。在此不再證明,有空在更新。

 

可能上述過程存在表達上的小錯誤,但是大部分思路應該是沒有問題,如果有問題歡迎指出一起討論。

 

在創作過程中參考了以下前輩的知識,故若有地方不明白可以前往連接中博客:

https://www.jianshu.com/p/bb7bce40a15a

https://blog.csdn.net/jiangjiang_jian/article/details/81346797

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章