【NLP】--- Self-Attention機制


一. Self-Attention

1.1. Self-Attention 概念及作用

通過對一句話中的不同單詞分配不同的權重來幫助模型理解輸入語句的其他位置信息, 達到更好的編碼效果.

如在 Attention Is All You Need 中所提到的一個例子:

“The animal didn’t cross the street because it was too tired”

  • 如何判別句子中的 “it” 對於機器來說指的是 “animal” 還是 “street” ?

而使用 Self-Attention 處理後能發現, it指的是 “animal”:

1.2. Self-Attention 實現原理

  1. 第一步: 輸入的是句子中第i個單詞embedding處理後的詞向量
  2. 第二步: 將上一步驟得到的一個詞向量經過一定處理得到下述三個向量:
    • Query Vector, 查詢向量
    • Key Vector, 鍵向量
    • Value Vector, 值向量
  3. 第三步: 將該單詞得到的Query Vector分別乘上輸入語句的每個單詞對應得到的Key Vector得到該單詞對句子每個單詞的得分Score, 該Score決定了對其他單詞的關注度
  4. 第四步, 根據上一步驟得到的一系列得分除以Key Vector的維度的平方根(dk\sqrt{d_k})得到新分數以確保更穩定的梯度
  5. 第五步, 根據上一步驟得到的一系列分數進行Softmax處理得到一系列概率值
  6. 第六步, 將上一步驟得到的一系列概率值乘上第二步得到的Value Vector一系列特徵向量
  7. 第七步, 將上一步驟得到的一系列特徵向量進行求和處理得到句子第i個單詞經過self-attention處理後的新向量

1.3. 三個向量獲得方法

Query Vector, Key Vector, Value Vector

在原論文中, 輸入的經過embedding處理的詞向量的維度是512512, 通過設定三個超參數: WQW_Q, WKW_K, WVW_V, 分別將這三個超參數乘上詞向量, 分別得到這三個維度爲6464向量.

值得注意的是, 之所以得到的這三個新向量的維度都小於原詞向量, 是因爲這是一種架構選擇, 可使multi-headed attention計算(大多數)不變.

二. Multi-Headed Attention

2.1. Multi-Headed Attention 概念及作用

大致處理流程類似於Self-Attention, 但可以使模型關注不同的位置, 更有效的提高Attention層的處理性能.

雖然在Self-Attention中, 最終步驟得到的z1z_1向量包含了一些其他位置的編碼,但仍然是當前位置的單詞佔主要作用,
Multi-Headed Attention正好提供了多個子空間, 更加關注其他位置信息.

2.2. Multi-Headed Attention 基本原理

  1. 使用多個headed, 使用不同的權重組合得到和 heads 數量一樣多的不同值的 Query / Key / Value 向量組
  2. 將上述得到的多個 Query / Key / Value 向量組 分別得到對應的相當於每個單詞做了多次self-attention計算的新特徵向量ZiZ_i
  3. 將上述一系列ZiZ_i進行連接成一個矩陣
  4. 將上一步驟得到的一個矩陣乘上一個額外權重矩陣WoW_o得到經過 Multi-Headed Attention 處理的 最終向量

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章