不被大神Hinton認同,否定現有同行成果,谷歌這篇燒腦研究最終拿下ICML2019最佳論文...

曉查 栗子 安妮 發自 凹非寺
量子位 出品 | 公衆號 QbitAI

ICML 2019最佳論文來了!

今年,共有3424篇論文提交到這場一年一度的機器學習國際頂會上,大會共接收了774篇。有兩篇論文,從千軍萬馬中脫穎而出,成爲ICML 2019最佳論文。

640?wx_fmt=png

這份大獎花落誰家?谷歌等一篇名爲《挑戰無監督分離式表徵的常見假設》的論文,表明 (沒有歸納偏置的) 無監督方法學不到可靠的分離式表徵 (Disentangled Representations) 。

這項極富智慧和勇氣的研究,幾乎全面否定了現有的同行成果,也證明Hinton曾經的觀點有問題

640?wx_fmt=png

另一篇爲《稀疏變分高斯過程迴歸的收斂速率》,作者爲劍橋大學的3位研究人員。

詳細看今年的最佳研究:

最佳論文1:分離式表徵,沒法無監督學習

先用一句話概括一下:谷歌大腦、ETH蘇黎世、馬普所組成的團隊測試了12,000個模型,對現有的無監督分離式表徵學習研究,發出了嚴重的質疑。

理解高維數據,用無監督的方式,把知識蒸餾成有用的表徵,是深度學習的一個重要挑戰。

一種方法是利用分離式表徵 (disentangled representation) :

模型可以捕捉到各種相互獨立的特徵,如果其中一個特徵改變了,其他特徵不會受到影響。

640?wx_fmt=gif

這樣的方法一旦成功,就可以做出真實世界裏也能用的機器學習系統,不論是給機器人,還是給自動駕駛車,以便應對訓練中沒見過的場景。

不過,在無監督的分離式表徵學習上,新近的研究都很難看出這些方法到底有多好,侷限又有多大。

谷歌AI團隊給各種新近的成果,做了一個大規模的評估。評估結果對現有研究提出了嚴肅的挑戰。並且給分離式學習日後的研究,提供了一些建議。

什麼叫大規模的評估?谷歌團隊訓練了12,000個模型,覆蓋了目前最重要的方法,以及評估指標。

640?wx_fmt=gif

重要的是,評估過程中用到的代碼,以及10,000個預訓練模型,都已經放出了。

它們共同組成了一個巨大的庫,叫做disentanglement_lib。讓後來的研究人員,可以輕鬆站到前人的肩膀上。

大規模測試過後,谷歌發現了兩個重大的問題:

1、並沒有發現任何經驗證據,顯示無監督方法可以學到可靠的分離式表徵,因爲隨機種子和超參數似乎比模型的選擇 (Model Choice) 更重要。

也就是說,就算訓練了大量的模型,一部分得出了分離式表徵,也很難在不看ground truth標籤的情況下把這些表徵找出來。

除此之外,好用的超參數值,也並沒有在多個數據集裏都好用。

谷歌團隊說,這些結果吻合了他們提出的定理:

在數據集和模型沒有歸納偏置 (Inductive Biases) 的情況下,用無監督的方法學習分離式表徵是不可能的。

換句話說,必須要在數據集和模型上,加個前提。

2、在參加評估的模型和數據集上,並沒有證實分離式表徵對下游任務有幫助,比如:沒有證據表明用了分離式表徵,AI就可以用更少的標註來學習。

給後來者的建議是:

1、鑑於理論結果證實,不帶歸納偏置 (Inductive Biases) 的、無監督學習的分離式表徵是不可能實現的,未來的研究應該清楚地描述出歸納偏置,以及隱式和顯式的監督方式。

2、爲跨數據集的無監督模型選擇,找到好用的歸納偏置,是一個非常關鍵的問題。

3、用了分離式表徵學習之後的產生的具體優勢,應該要證明出來。

4、實驗,應該有可以復現的實驗設定,在多種多樣的數據集裏適用。

640?wx_fmt=png

順便提一句,這是一項中選了ICLR 2019 workshop的研究,卻最終成了ICML的最佳論文。

最佳論文2:稀疏變分高斯過程迴歸的收斂速率

今年ICML的第二篇最佳論文是來自英國劍橋大學和機器學習平臺Prowler.io的研究。

640?wx_fmt=png

之前已經有人開發出了一種高斯過程後驗的極好變分近似。避免出現數據集大小爲N,計算時間複雜度爲O(N3)的情況,將計算成本降低到O(NM2),其中M是一個遠小於N的數。

雖然計算成本對於N是線性的,但算法的真正複雜度取決於如何增加M以確保一定的近似質量。

本文通過描述向後KL散度(相對熵)上界的行爲來解決這個問題。研究者證明,若M比N增長得更慢,KL散度很有可能會變得任意小。一個特例是,對於在具有常見的平方指數核的D維正態分佈輸入的迴歸,只要M = O(logN)就足夠保證收斂了。

結果表明,隨着數據集的增長,高斯過程後驗概率可以被非常容易地近似,併爲如何在連續學習場景中增加M提供了一種具體的規則。

研究者證明了,從稀疏廣義迴歸變分近似到後驗廣義迴歸的KL散度的邊界,它只依賴於之前核的協方差算子特徵值的衰減。

這個邊界證明訓練數據集中在一個小區域的光滑核允許高質量、非常稀疏的近似。當M≪N時,真正稀疏的非參數推斷仍然可以提供對邊界似然性和逐點後驗的可靠估計。

本文作者在最後指出,具有非共軛可能性的模型的擴展,尤其是在Hensman等人的框架中由稀疏性引入的附加誤差,爲未來的研究提供了一個有前景的方向。

這篇文章的第一作者是來自劍橋大學信息工程系的博士研究生David Burt,他的主要研究領域是貝葉斯非參數和近似推理。

640?wx_fmt=png

作者之一Mark van der Wilk是Prowler.io的研究者,他也是劍橋大學機器學習專業的在讀博士研究生,主要的研究領域是貝葉斯推理、強化學習、高斯過程模型等。

7篇最佳論文提名

除了2篇最佳論文外,還有7篇論文獲得最佳論文提名,分別爲:

1、Analogies Explained: Towards Understanding Word Embeddings(愛丁堡大學)

論文地址:
https://arxiv.org/abs/1901.09813

2、SATNet: Bridging deep learning and logical reasoning using a differentiable satisfiability solver(CMU、南加州大學等)

論文地址:
https://arxiv.org/abs/1905.12149

3、A Tail-Index Analysis of Stochastic Gradient Noise in Deep Neural Networks(巴黎薩克雷大學等)

論文地址:
https://arxiv.org/abs/1901.06053

4、Towards A Unified Analysis of Random Fourier Features(牛津大學、倫敦過國王學院)

論文地址:
https://arxiv.org/abs/1806.09178

5、Amortized Monte Carlo Integration(牛津大學等)

論文地址:
http://www.gatsby.ucl.ac.uk/~balaji/udl-camera-ready/UDL-12.pdf
6、Social Influence as Intrinsic Motivation for Multi-Agent Deep Reinforcement Learning(MIT、DeepMind、普林斯頓)
論文地址:
https://arxiv.org/abs/1810.08647

7、Stochastic Beams and Where to Find Them: The Gumbel-Top-k Trick for Sampling Sequences Without Replacement(荷蘭阿姆斯特丹大學等)

論文地址:
https://arxiv.org/abs/1903.06059

國內多所高校上榜

和往常相比,今年的ICML格外熱鬧。

德國博世公司抓取了ICML 19官網上的接收數據,將論文的接受比例、貢獻最多的機構以及貢獻最大的個人作者統計了出來。不少國內高校和學者榜上有名。

原統計地址:
https://www.reddit.com/r/MachineLearning/comments/bn82ze/n_icml_2019_accepted_paper_stats/

今年,共提交了3424篇論文,接收了774篇,接收率爲22.6%。2018年,ICML的論文提交量爲2473篇,接收621篇,接收率爲25%。

和去年相比,今年論文提交論文數量增長不少,但錄取率降低

那麼,在這麼多投稿機構中,誰是其中貢獻度最高的那一個?

博世統計了接收論文的機構,排名標準是衡量一個機構貢獻的論文總量,最終統計結果如下:

640?wx_fmt=png

上圖紅色表示每個機構包含的第一作者,綠色爲最後包含的排名最後的作者

結果顯示,科技巨頭Google貢獻最多,MIT第二,加州大學伯克利分校奪得季軍。

其中,清華大學、北京大學、南京大學、香港中文大學、上海交通大學、阿里巴巴等多箇中國高校和公司榜上有名。

在這些接收論文中,來自學術界的論文數量遠多於工業界,論文來源構成如下:

  • 452篇論文(58.4%)爲純學術研究

  • 60篇論文(7.8%)來自純產業界研究機構

  • 262篇論文(33.9%)的作者同時隸屬於學術界和工業界

總體來看,學術界貢獻了77%的論文,產業界貢獻了23%。

在這麼多投稿的作者中,哪些作者的貢獻度最高?博世同樣對此進行了統計。

640?wx_fmt=png

結果顯示,加州大學伯克利分校的機器學習大牛Michael Jordan參與論文數量最多,EPFL(洛桑聯邦理工學院)教授Volkan Cevher位列第二,加州大學伯克利分校的Sergey Levine排名第三。

640?wx_fmt=png

也有不少中國學者戰績頗佳,清華大學計算機科學與技術系的教授朱軍、微軟亞洲研究院的劉鐵巖、清華大學軟件學院的龍明盛等都在ICML 2019發表了4篇論文。

傳送門

最後,附上今年的ICML 2019大會官網:
https://icml.cc/

AI內參|關注行業發展

640?wx_fmt=jpeg

AI社羣|與優秀的人交流

640?wx_fmt=jpeg640?wx_fmt=jpeg

量子位 QbitAI · 頭條號簽約作者

վ'ᴗ' ի 追蹤AI技術和產品新動態

喜歡就點「好看」吧 !



發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章