交叉熵概念

信息量

概率可能性的投影空間大小,單位比特。記隨機離散變量的分佈列與信息量I爲:
[x0x1...xnp0p1...pn]I(xi)=log(p(xi)) \begin{alignedat}a &\begin{bmatrix} x_0 & x_1 & ... &x_n\\ p_0 & p_1 & ... &p_n \end{bmatrix}\\\\ &I(x_i) = -log(p(x_i)) \end{alignedat}

熵(Entropy):一個系統所有事件的不確定性之和;
相對熵(Relative Entropy):同一個隨機變量的兩個不同分佈間的差別描述;
交叉熵(Cross Entropy):使用分佈q(x)q(x)表示目標分佈p(x)p(x)的困難程度,以分佈qq描述擬合分佈pp
H(x)=E(Lenbit)=E(log(1pi))=i=1npilog(pi)DKL(pq)=i=1npilog(piqi)=i=1npi(log(pi)log(qi))H(p,q)=E(Lenbit)=E(log(1qi))=ipilog(qi) \begin{alignedat}a H(x) &= E(Len_{bit}) = E(log({1\over p_i})) = - \sum_{i=1}^np_ilog(p_i)\\ D_{KL}(p||q) &= \sum_{i=1}^np_ilog({p_i \over q_i}) = \sum_{i=1}^np_i(log(p_i)-log(q_i))\\ H(p,q) &= E(Len_{bit}) = E(log({1\over q_i})) = -\sum_{i}p_ilog(q_i) \end{alignedat}

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章