相對熵 KL散度 (KullbackLeibler divergence)

這個屬於香農信息論中的東西,在《PRML》書中1.6 信息論小節中有具體說明。真正碰到應用還是在洛桑聯邦理工的POM文章中(概率佔用圖)。作者使用自己產生的估計Q來去逼近未知分佈P,其中P是一個後驗概率分佈。這篇博文旨在明確KL散度的定義以及用途,以備後用。

香農大神:

 KL散度是兩個概率分佈間差異的非對稱性度量,是一些優化算法(例如最大期望算法EM)的損失函數,參與計算的一個概率分佈是真實分佈,另一個是擬合分佈。相對熵表示使用理論分佈擬合真實分佈時產生的信息損耗。

 設有未知分佈p(x),使用估計概率分佈q(x)逼近未知分佈p(x),則KL散度定義爲:

KL(p||q)=-\int{p(x)lnq(x)}dx-\left ( -\int{p(x)lnp(x)dx} \right )

KL(p||q)=-\int{p(x)ln\left (\frac{q(x)}{p(x)} \right )}dx

離散情況下寫爲:

KL(P||Q)=\sum P(x)log\frac{P(x)}{Q(x)}

1.  不對稱性:KL散度的兩個概率分佈不可以隨意調換位置,是有向的。

2.  並且KL(p||q)\geqslant 0,只有在p(x)=q(x)時才取等號。

 


放一個離散型KL散度的運算實例:

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章