推薦系統-矩陣分解

推薦系統學習-矩陣分解算法

基本思想

推薦系統裏面需要用到MF算法,也就是把一個矩陣(user_num x item_num)分解爲兩個矩陣(user_num x trait_num) , (trait_num x item_num) 的乘積。這個過程很好理解,就是從評分矩陣中提取出來物品的特徵,分解出來的兩個矩陣分別表明用戶對該特徵的偏好程度和物品對該特徵的包含程度。比如

U=[123321],V=[101]

其中,三個特徵分別表示喜劇、恐怖、劇情,所以 U 矩陣的第一行就表示用戶1對喜劇愛好程度是1,恐怖愛好程度是2,劇情愛好程度是3,以此類推。而 V 的第一列就表示電影1包含了1的喜劇成分,0的恐怖成分,1的劇情成分。所以顯然就有用戶1對電影的評分是 1×1+2×0+3×1=4 分。

這便是基本的矩陣分解(Matrix Factorization)方法。利用這個算法,我們只需要讓最小化目標爲

minU,Ii=0nR(i)U(i)·V(i)

R(i) 表示第 i 個評分,U(i) 表示第 i 個評分對應的用戶。

進一步可以用矩陣表示,讓Rij 表示第 i 個用戶對 第 j 個商品的評分,讓

Eij={0 1 

於是優化目標就可以改寫爲

minU,IE·(RUV)

但是這個算法還有諸多侷限性,比如

  • 每個用戶的評分是不同的,有的用戶心地善良,評分都是4,5分。有的用戶眼光挑剔,評分大多是2,3分。
  • 每個電影的評分也是不同的。有的電影由於一些原因,自帶加分Buff,有的電影則因爲某些原因自帶減分Buff。
  • 可能會出現過擬合現象。

爲了解決以上問題,可以採用BiasedMF算法。這個算法裏面加入了用戶偏移和商品偏移。此時,一個商品的評分用以下公式表示:Rpij=U(i)·V(j)+bu(i)+bi(j)

Rp表示預測的評分,U V定義同上,bu,bi分別是用戶、商品的偏置係數。

同時,爲了防止過擬合,對U, V, bu, bi 的二範數乘以一個重整化係數(通常稱爲regularization, reg),加入損失函數中。

於是優化目標變爲

minU,IE·(R(UV+bu·[11...1]+[11...1]·bi))+λ(||U||2+||V||2+||bu||2+||bi||2)

但是此時可以明顯看到,重整化係數讓所有的矩陣都朝着絕對值變小的方向發展,也就是預測的評分會出現偏低。這樣顯然是不對的,所以需要對評分進行預處理,把所有評分都減去全部評分的均值。這樣重整化係數就產生了避免評分離均值太遠的趨勢,較爲合理。

具體算法

一種簡單的算法時隨機梯度下降。

即:對於每一個評分,進行誤差計算然後求導,然後根據梯度下降的方法更新權重。

如:

Lossij=(rijrpij)2+=(rijUi·Vjbuibij)2+=error2+
(1)

於是

LossUik=2·(error·Vkjλ·Uik)

同理,容易看出:

LossVkj=2·(error·Uikλ·Vkj)

Lossbui=2·(errorλ·bui)

Lossbij=2·(errorλ·bij)

而根據梯度下降的公式:

θ=θlearningRate·Lossθ

就可以在每一次迭代中更新參數,從而找到最優的U,V,bi,bu

同樣的,也可以對整個矩陣進行梯度下降。這樣子方便用Tensorflow訓練。

Loss=ij(rijrpij)+
(2)

規範化項的變化

(1)和(2)兩個誤差公式的區別,在於每次計算的評分的數目。在多個評分一起訓練的時候,針對某一個參數,會有多個評分的誤差對其進行修正,所以規範化項需要相應增加一定的倍數。

嚴格來說,(1)式最後的結果並不符合優化目標

minU,IE·(R(UV+bu·[11...1]+[11...1]·bi))+λ(||U||2+||V||2+||bu||2+||bi||2)

因爲對於每個參數,假設有 k 個評分關聯了這個參數,那麼實際上這個參數的規範化項也被帶入計算了 k 次,所以最後的優化目標近似

minU,IE·(R(UV+bu·[11...1]+[11...1]·bi))+k·λ(||U||2+||V||2+||bu||2+||bi||2)

而整體訓練,是完全符合原始的優化目標的。

數學意義

假設每個用戶的特徵是符合單位正態分佈的,即:

UiN(0,σu2)

同理,對於商品的特徵,用戶偏好,商品偏好我們也做如下假設

ViN(0,σv2)   biN(0,σbi2)   buN(0,σbu2)

然後假設評分在預測值的基礎上,加上了方差爲 σr 的噪聲。

注意符合以上條件時,很顯然評分的均值就是0,所以首先需要把所有評分都減去平均值處理。

爲了找到最好的參數組合,相當於是使得如下的概率取到最大值:

maxU,V,bi,buP(U,V,bi,bu|R,σr2,σv2,σbi2,σbu2)

根據貝葉斯公式,有

P(U,V,bi,bu|R,σr2,σv2,σbi2,σbu2)=P(R,U,V,bi,bu|σr2,σv2,σbi2,σbu2)P(R|σr2,σv2,σbi2,σbu2)

很顯然,我們只改變 U,V,bi,bu 四個參數,所以這個式子的分子相當於一個常數,可以不去考慮。

而分子又可以化爲

P(R,U,V,bi,bu|σr2,σv2,σbi2,σbu2)=P(R|U,V,bu,bi)·P(U|σu2)P(V|σv2)·P(bi|sigmabi2)·P(bu|σbu2)

很容易就可以看出

P(Rij|U,V,bu,bi)=12πσr2e(RijPredij)22σr2

其中,Predij=U(i)·V(j)+bu(i)+bi(j)

因爲每個評分的噪聲是獨立的,因此總的概率就是所有單個評分的概率連乘:

P(R|U,V,bu,bi)=ij[12πσr2e(RijPredij)22σr2]Iij

其中,

Iij
爲 1 表示有評分,爲0則無評分(不貢獻乘積)。

同理有:

P(U|σu2)=ij12πσu2eUij22σu2

P(V|σv2)=ij12πσv2eVij22σv2

P(bu|σbu2)=j12πσbu2ebuj22σbu2

P(bi|σbi2)=j12πσbi2ebij22σbi2

這些概率相乘,然後取對數,就得到了熟悉的表達式:

E·(R(UV+bu·[11...1]+[11...1]·bi))σr2(||U||2σu2+||V||2σv2+||bu||2σbu2+||bi||2σbi2)

於是很容易得出,U, V, bu, bi 對應的規範化係數應該分別爲:

σu2/σr2,σv2/σr2,σbu2/σr2,σbi2/σr2

在前面的推導中,我們全部用λ 代替了。因爲實際上我們並不能猜測出U、V、bu、bi的方差,因此這個公式只是從理論上證明了規範化係數的合理性,並沒有告訴我們如何確定規範化係數。

參考文獻

[1] [Mnih and Salakhutdinov, 2007] Andriy Mnih and Ruslan Salakhutdinov. Probabilisticmatrixfactorization. InNIPS ’07, 2007.

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章