學習筆記|NLP中的注意力機制彙總(全網最全,不看後悔!)

說在前面的話:

前段時間因爲組會要對注意力機制做一個報告,我在收集資料的時候發現,網上很多所謂的attention總結無非最後都陷入了對transformer模型和自注意力機制的解釋中,其實這並沒有對所有的注意力機制類型進行一個詳細的總結,這對一個初學者來說很容易陷入一個思維定勢中。因此我決定深入剖析各個經典文章中所使用的Attention機制,並對他們進行一個分類總結。可以說這篇文章內容是全網最全的,應該找不到比這個更全的總結了,除了參考一些綜述和網上資料,我還根據自己的理解整合並加入了一些新的內容。本文參考的文獻和網上資料都會在最後部分給出。

目錄

 

一、Attention的含義

二、Attention的可解釋性

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章