堪比當年的LSTM,Transformer引燃機器學習圈:它是萬能的

作者|魔王

 來源|機器之心

谷歌研究科學家 David Ha:Transformer 是新的 LSTM。

2017 年 6 月谷歌發佈論文《Attention is All You Need》時,我們或許都沒有意識到它提出的 Transformer 架構將帶來多少驚喜。

在誕生至今不足四年的時間裏,Transformer 不僅成爲自然語言處理領域的主流模型(基於 Transformer 的預訓練語言模型成爲主流),還開始了向其他領域的跨界,近幾個月來出現了大量將 Transformer 應用於計算機視覺領域的研究。

2020 年 10 月,谷歌提出了 Vision Transformer (ViT),可以直接利用 transformer 對圖像進行分類,而不需要卷積網絡。ViT 模型取得了與當前最優卷積網絡相媲美的結果,但其訓練所需的計算資源大大減少。

2020 年 12 月,復旦、牛津、騰訊等機構的研究者提出了 SEgmentation TRansformer(SETR),將語義分割視爲序列到序列的預測任務,該模型在 ADE20K 上排名第一,性能優於 OCNet、GCNet 等網絡。

2021 年 1 月初,OpenAI 又連放大招 ,用 DALL·E 和 CLIP 打破了自然語言與視覺的次元壁。兩個模型都利用 Transformer 達到了很好的效果,前者可以基於本文直接生成圖像,後者則能完成圖像與文本類別的匹配。

由此,「Transformer 是萬能的嗎?」成爲了近期機器學習社區的熱門話題。谷歌大腦研究員 David Ha 發推表示:Transformer 是新的 LSTM。

他否定了自己在 2017 年 5 月發表的言論:「LSTM 就像神經網絡中的 AK47。不管我們多麼努力地想用新事物取代它,都是白費力氣。從現在起它還將應用 50 年。」LSTM 由 Sepp Hochreiter 和 Jürgen Schmidhuber 於 1997 年聯合提出,當時已誕生 20 年。

David Ha 不會想到,這句預言被一個月後出現的 Transformer 打破,而這僅用了 4 年時間。

著名機器學習資源網站 Papers with Code 在 1 月 20 日發佈的 Newsletter 中列舉了近期應用 Transformer 的十大新任務

圖像合成

  • 論文:Taming Transformers for High-Resolution Image Synthesis

  • 鏈接:https://arxiv.org/pdf/2012.09841v1.pdf

多目標追蹤

  • 論文:TransTrack: Multiple-Object Tracking with Transformer

  • 鏈接:https://arxiv.org/pdf/2012.15460v1.pdf

音樂生成

  • 論文:Compound Word Transformer: Learning to Compose Full-Song Music over Dynamic Directed Hypergraphs

  • 鏈接:https://arxiv.org/pdf/2101.02402v1.pdf

舞蹈生成

  • 論文:Dance Revolution: Long-Term Dance Generation with Music via Curriculum Learning

  • 鏈接:https://arxiv.org/pdf/2006.06119v5.pdf

3D 目標檢測

  • 論文:Self-Attention Based Context-Aware 3D Object Detection

  • 鏈接:https://arxiv.org/pdf/2101.02672v1.pdf

點雲處理

  • 論文:PCT: Point Cloud Transformer

  • 鏈接:https://arxiv.org/pdf/2012.09688v1.pdf

時序預測

  • 論文:Temporal Fusion Transformers for Interpretable Multi-horizon Time Series Forecasting

  • 鏈接:https://arxiv.org/pdf/1912.09363v3.pdf

視覺 - 語言建模

  • 論文:VinVL: Making Visual Representations Matter in Vision-Language Models

  • 鏈接:https://arxiv.org/pdf/2101.00529v1.pdf

車道形狀預測

  • 論文:End-to-end Lane Shape Prediction with Transformers

  • 鏈接:https://arxiv.org/pdf/2011.04233v2.pdf

端到端目標檢測

  • 論文:Deformable DETR: Deformable Transformers for End-to-End Object Detection

  • 鏈接:https://arxiv.org/pdf/2010.04159v2.pdf

而除了 David Ha 以外,另一位研究者英偉達研究科學家、前 OpenAI 研究科學家 Ankur Handa 也表示「Transformers are all you need」:

... is All You Need?

Transformer 引領了不止一種潮流。

在其論文《Attention is All You Need》發表後,各種「** is All You Need」論文紛紛出現。就連 LSTM 提出者 Sepp Hochreiter 也寫過一篇《Hopfield Networks is All You Need》。有趣的是,這篇論文正是對 Transformer 核心注意力機制新穎性的駁斥:Transformer 中的注意力機制等價於 Hopfield 網絡中的更新規則。

Transformer 的強大主要歸功於其中的注意力機制。注意力機制在 NLP 領域的應用最早可以追溯到 2014 年 Bengio 團隊將其引入神經機器翻譯任務,但那時模型的核心架構還是 RNN。相比之下,Transformer 完全拋棄了傳統的 CNN 和 RNN,整個網絡結構完全由注意力機制組成,這種改變所帶來的效果提升也是顛覆性的。

然而,Sepp Hochreiter 等人在 2020 年 7 月發表的論文《Hopfield Networks is All You Need》中表示,Transformer 中的注意力機制其實等價於擴展到連續狀態的 modern Hopfield 網絡中的更新規則。

Sepp 這篇論文發表時,Transformer 的跨界之旅已經開始。2020 年 5 月,Facebook AI 推出了 首個將 Transformer 成功整合爲檢測 pipeline 中心構建塊的目標檢測框架——Detection Transformer(DETR),用於目標檢測和全景分割。6 月,OpenAI 將基於 Transformer 的模型 GPT-2 應用到圖像領域,用於圖像分類任務。

半年過去,越來越多的工作開始探索如何將 Transformer 應用於計算機視覺等其他領域,最近更是出現了「Transformers are all you need」、「Transformers are the new LSTMs」的說法。

Transformer是新的LSTM嗎?

1997 年,Sepp Hochreiter 與 Jürgen Schmidhuber 聯合發表了長短期記憶網絡(LSTM)論文,被認爲是機器學習發展史上的一座里程碑。

LSTM 是一種特殊的循環神經網絡(RNN)。Sepp Hochreiter 在 1991 年分析了隨時間反向傳播(BPTT)帶來的梯度爆炸和梯度消失問題;1997 年,Sepp Hochreiter 與 Jürgen Schmidhuber 在 LSTM 論文中引入 CEC 單元解決 BPTT 帶來的梯度爆炸和消失問題。之後又有許多研究者對其進行了改進和普及。

LSTM 單元的基本結構(圖源:https://en.wikipedia.org/wiki/Long_short-term_memory)

2020 年 2 月,LSTM 提出者 Jürgen Schmidhuber 撰文綜述了 LSTM 的十年發展史,介紹了它在機器翻譯、語音識別、機器人學、時序預測、聊天機器人等多個領域的應用。

而 Transformer 誕生伊始就完全捨棄了 RNN,在 LSTM 佔優勢的 NLP 領域逐漸站穩腳跟。現在,許多研究又將它應用於時序預測、音樂生成、圖像分類等跨界任務中。在 Papers with Code 最近發佈的 Transformer 應用十大新任務中,過去都有着 LSTM 的活躍身影。

Transformer 是新的 LSTM 嗎?從模型應用領域的多樣性來看,這似乎已見雛形。

不知道如果現在發表「Transformer 無法被替代,還可以再用 50 年」的預言,多久之後會被打破。????

參考鏈接:

https://paperswithcode.com/newsletter/3

https://twitter.com/hardmaru

????

現在,在「知乎」也能找到我們了

進入知乎首頁搜索「PaperWeekly」

點擊「關注」訂閱我們的專欄吧

關於PaperWeekly

PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公衆號後臺點擊「交流羣」,小助手將把你帶入 PaperWeekly 的交流羣裏。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章