大腦中的學習機制: 海馬體與新皮層構成的互補學習系統

    寫這篇文章的原因是基本沒有關於中文大腦互補學習系統(complementary learning systems)的文章。應該說有很多關於互補學習系統的英文論文,這裏也是一個總結加一點自己的見解,具體見參考文獻。

海馬體在學習和記憶中的角色

   

     海馬體系統是一個廣泛存在於哺乳動物的腦區,在學習和記憶中扮演重要的特殊角色。要確切的定義海馬系統的邊界是困難的,這裏也不去定義。應該說海馬體所扮演的角色是很多重的,如下:

     記憶記憶是海馬體的基礎功能,也是所有智能生命存在的基礎,比如我們平時記憶電話號碼,記憶單詞,學習開車,會用到海馬體,海馬體不斷的記憶關聯事件,並且遺忘不重要的信息。尤其大家體會比較深的是記憶單詞,如果幾天不復習的話就忘記了,尤其是死記硬背的東西很容易遺忘,因爲海馬體打分機制,這種死記硬背沒有與以前信息有多少關聯就很容易消失了,而對於某些單詞我們不但記憶他的意思還看他的用法及在很多句子中的使用,那麼這種記住的單詞就不容易忘記且更容易轉化爲長期記憶。

     導航作用,即通過存儲的位置記憶碎片,重構出在當前位置下的地理空間地圖(這裏叫模式補全,Pattern Completion),比如:我們到了一個陌生的地方,我們就在不斷的熟悉該地方的圖像和感知數據,如這裏是否有標誌性建築,是否有河等等,當我們迷路的時候如果回到以前到過的地方,那麼海馬體就可以記憶重現,給出一種到過的感覺,甚至可以通過記憶碎片重構出該地區的3D地圖,然後不斷的感知重放重構達到導航的目的,在計算機視覺中對應的技術爲SLAM(simultaneous localization and mapping),但是現在的SLAM沒有人的那麼強大。

    記憶檢索與重構,上面也說了扮演GPS的角色本身就有記憶檢索的作用,就是根據當前看到的場景檢索出相關的其他事物,而且這種檢索很強大,他強大的地方在於可以通過不完整的感知數據檢索出以前有過的相關事物,比如我們看到一個人的背影,那麼這個背影是不完全的,但是如果這個背影是我們熟悉的人,那麼我們就會產生熟悉的感覺,並且會自動的重構出這個人的其他信息,然後去識別,當然識別可能會不準確,因爲相似的背影總是存在的,這個時候我們的認知系統會要求補充信息(主動信息收集),如一個人的正面,這個時候就可以達到非常準確的辨別。

    信息整合,上面的兩個作用應該也闡述出了信息整合的功能,對於不完整的信息,比如我們在大街上看見一個熟悉的面孔,但是這個時候我們的認知系統不會馬上判斷這個人,而是先判斷這個人可能是誰,再去整合出預測的人平時的信息,包括髮型,穿什麼樣的衣服,穿什麼樣的鞋子,走路姿態,甚至聲音...然後再根據整合的信息與當前這個人的信息加權對比,然後再去判斷這個人是誰,當然整合的信息可以不是所有信息,只要當前有效信息達到可靠的預測精度就可以了。可以看到我們判斷人更多的是依靠綜合的上下文信息,不斷檢索出事件相應的信息,最後根據檢索出的信息作判斷,甚至當檢索信息仍然不足以判斷的時候認知系統還要求主動的收集必要的信息到海馬體,如:我們看警察偵查案件的時候,信息往往是不充分的,這個時候信息蒐集就是必要的。上面我們也看到了信息整合包含了重建上下文信息的作用,自動關聯與記憶檢索本身就在重建上下文信息,如看到詞彙:醫院,就能相應的重建出醫生,護士,生病,開刀等等上下文信息。這裏的上下文和神經網絡模型 RNN,LSTM,NTM所利用的上下文有很大不同。

   自動關聯,應該說海馬體無時無刻不在自動關聯相應的信息,比如我們聽歌的時候會關聯到當時的心裏狀態,外部環境,只是說這種關聯可能變成了長期的關聯,我們有的時候會聽到以前聽過的歌的時候,會重現出當時的心情。其實這些關聯都是潛意識的,有的時候我們並沒有意識到,而這種能力或許是無監督學習的關鍵。

    快速學習,如我們學習打街機遊戲,剛開始的時候是不會的,這個時候我們就需要記住在某個狀態時應該做哪個操作,即成對的輸入-輸出映射 input-output pairs mapping,然後不斷的這樣做,這個時候實際上我們並沒有學會,而只是根據狀態給出操作,而且反應並不快,這種快速的學習能力和記憶有點類似。

    輔助學習,海馬體有記憶的作用,而這種記憶可能是很容易消失的,比如我們學習開車這種重複性很高的技能,那麼海馬體是如何做的呢?即將記憶轉化爲技能,而這種轉化過程叫學習。應該說這種轉化過程是無時無刻不在進行的,只是我們很難意識到,尤其在睡眠期間的記憶重放,那麼你是否有在第二天感覺到技能提升呢?這就是海馬體輔助新皮層學習,即將關聯記憶重放出來使新皮層學習爲潛意識的條件反射。這種輔助學習可能是一種權衡機制,如果本身海馬體就可以處理當前問題爲什麼要轉化爲類似於條件反射的的技能呢?可能是計算複雜度的權衡,如果每時每刻都要海馬體去檢索當前狀態所應該的操作是很耗能量的,所以如果把這種(狀態,操作)的成對事件學習爲直接映射那麼就能達到更快的速度和更少的能量消耗。還有就是海馬體的記憶容量是有限的,這麼多的成對數據如果轉化學習爲映射函數那麼就能獲得更緊湊的表示。

新皮層系統

    新皮層佔據成年人整個大腦皮層表面的94%,相對於海馬體,新皮層顯得更爲簡潔。新皮層的功能是非常多的,如:把聲音轉成語言、處理顏色、表達恐懼、辨識面孔、物體識別等等,新皮層的簡潔在於每個區都有特定的功能,如辨識,語言等,都在各自的分區內,而海馬體是一個相對比較混合的系統。相對於海馬體,新皮層的學習速度很慢,比如我們學習騎車,尤其是剛學習的時候,當然這個時候海馬體是參與進來了的,理論上說,當我們不再依賴注意力去學習的時候纔算新皮層學會了騎車。而在學習的過程中又牽涉到災難性遺忘(Catastrophic forgetting)與增量學習問題[8-9],比如如果我們用學習開車的這個區域再去學習跳舞,那麼就會導致該區域學習開車的技能丟失,那麼我們也知道,我們大腦是採取用分區來避免這個差異性比較大的學習造成災難干擾用人工神經網絡來說就是,這兩個任務或許有相似的結構但是他們的參數是很不同的,兩個任務序列學習會導致前面任務的遺忘。而如騎自行車和騎摩托車是相似的任務,而且往往現實中相似任務是非常多的,如果我們全都用不同的腦區去學習就很浪費腦空間,所以這裏就有一個機制來權衡網絡的結構和參數,最大化參數和結構的利用,使得相似的任務有相似的激活腦區域。

其他

結構是智能生命的核心,深有感悟

"Structure is always central in biology," said study leader Scott Emmons, Ph.D., professor of genetics and in the Dominick P. Purpura Department of Neuroscience and the Siegfried Ullmann Chair in Molecular Genetics at Einstein. "The structure of DNA revealed how genes work, and the structure of proteins revealed how enzymes function. Now, the structure of the nervous system is revealing how animals behave and how neural connections go wrong to cause disease."

總結

    互補學習系統是一個大腦學習的重要框架,權衡了快速學習和慢速學習,快速學習與慢速學習都有各自的優點和缺陷,快速學習學習速度快但是更加消耗時間與能量,快學習也在爲慢學習準備數據,而慢速學習學習速度慢但是可以利用結構和參數信息緊湊的表示任務,且在新皮層工作的時候有快的運行速度,慢學習更像是用空間換時間,這就解釋了爲什麼我們的新皮層很大,因爲要容納非常多的任務,相對而言海馬體就小了很多能容納的任務就很少,現在的神經網絡也類似與新皮層系統,也會產生災難性遺忘,那麼如何避免災難性遺忘與增量學習,需要借鑑於我們大腦的處理方式。

 

 

參考:

    1. Complementary Learning Systems

    2. Conjunctive Representations inLearning and Memory:Principles of Cortical andHippocampal Function

    3. Hippocampal and neocortical contributions to memory: advances in the complementary learning systems framework

    4. Hippocampus, cortex, and basal ganglia: Insightsfrom computational models of complementary learning systems

    5. Modeling Hippocampal and Neocortical Contributionsto Recognition Memory: A Complementary LearningSystems Approach

    6. Why There Are Complementary Learning Systems in the Hippocampusand Neocortex: Insights From the Successes and Failures of Connectionist Models of Learning and Memory

    7. Multiple View Geometry in Computer Vision

    8. Catastrophic Forgetting in Connectionist Networks

    9. Overcoming catastrophic forgetting in neural networks

   10. What Learning Systems do Intelligent Agents Need? Complementary Learning Systems Theory Updated

 

如有錯誤請不吝指出

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章