比BERT提升近10個點!百度預訓練模型ERNIE登頂GLUE榜單

北京時間12月10日,百度預訓練模型界ERNIE在自然語言處理領域權威數據集GLUE中登上榜首,並以9個任務平均得分首次突破90大關刷新該榜單歷史,其超越微軟MTDNN-SMART, 谷歌T5、ALBERT等一衆國際頂級預訓練模型的表現。

衆所周知,通用語言理解評估基準GLUE是自然語言處理領域最權威的排行榜之一,由紐約大學、華盛頓大學、谷歌DeepMind等機構聯合推出,以其涵蓋大量不同類型的NLP任務,包括自然語言推斷、語義相似度、問答匹配、情感分析等9大任務,成爲衡量自然語言處理研究進展的行業標準。因此,吸引了谷歌、Facebook、微軟等國際頂尖公司以及斯坦福大學、卡耐基·梅隆大學等頂尖大學參加。GLUE排行榜的效果,在一定程度上成爲了衡量各機構自然語言處理預訓練技術水平最重要的指標之一。此次能夠超越國際頂尖公司及高校榮登榜首,背後是百度NLP技術的長足積累。

2018年底以來,以BERT爲代表的預訓練模型大幅提升了自然語言處理任務的基準效果,取得了顯著技術突破,基於大規模數據的預訓練技術在自然語言處理領域變得至關重要。衆AI公司紛紛發力預訓練領域,相繼發佈了XLNet、RoBERTa、ALBERT、T5等預訓練模型。百度也先後發佈了ERNIE 1.0、ERNIE 2.0,在16箇中英數據集上取得了當時的SOTA。

從GLUE排行榜上來看,BERT使用預訓練加微調的方式,相對過往的基線成績大幅提升各任務的效果,首次突破了80大關。XLNet、RoBERTa、T5、MT-DNN-SMART等模型則分佈在88-89分範圍,人類水平則是87.1。

百度ERNIE此次登頂,成爲首個突破90大關的模型,並在CoLA、SST-2、QQP、WNLI等數據集上達到SOTA。相對BERT的80.5的成績,提升近10個點,取得了顯著的效果突破。

百度ERNIE 2.0原理示意圖

ERNIE 2.0 持續學習的語義理解框架, 支持增量引入不同角度的自定義預訓練任務,通過多任務學習對模型進行訓練更新,每當引入新任務時,該框架可在學習該任務的同時,不遺忘之前學到過的信息。

此次登頂的模型主要基於ERNIE 2.0持續學習語義理解框架下的系列優化。引入更多新預訓練任務, 例如引入基於互信息的動態邊界掩碼算法。對預訓練數據和模型結構也做了精細化調整。

同時,百度ERNIE 2.0的論文(https://arxiv.org/abs/1907.12412)已被國際人工智能頂級學術會議AAAI-2020收錄,AAAI-2020將於2020年2月7日-12日在美國紐約舉行, 屆時百度的技術團隊將會進一步展示近期的技術成果。

據悉,百度ERNIE預訓練技術已廣泛地應用於公司內外多個產品和技術場景,其在百度搜索、小度音箱、信息流推薦等一系列產品應用中提升技術效果和用戶體驗的同時也在逐步賦能各行各業。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章