Yann LeCun等大咖對2019 AI發展趨勢預測

本文爲 AI 研習社編譯的技術博客,原標題 :

AI predictions for 2019 from Yann LeCun, Hilary Mason, Andrew Ng, and Rumman Chowdhury

作者 | KHARI JOHNSON

翻譯 | 鄧普斯•傑弗、dominik、哈帝•霍布森

校對 | 鄧普斯•傑弗       審覈| Pita      整理 | 菠蘿妹

原文鏈接:

https://venturebeat.com/2019/01/02/ai-predictions-for-2019-from-yann-lecun-hilary-mason-andrew-ng-and-rumman-chowdhury/


人工智能被認爲是一種拯救世界、終結世界的技術。

爲了消除噪音和炒作,VentureBeat與傑出人士交談,他們通過多年與地球上一些最大的科技和工業公司合作,瞭解了正確的人工智能方式。

以下是Google Brain聯合創始人Andrew Ng,Cloudera ML的總經理、Fast Forward Labs的創始人Hilary Mason,Facebook AI Research的創始人Yann LeCun以及埃森哲負責任的AI全球負責人Rumman Chowdhury博士的見解。 我們希望瞭解他們認爲2018年的關鍵里程碑是什麼,以及他們認爲2019年將會發生什麼。

在回顧這一年以及對未來的預測中,一些人說他們被鼓勵少聽一些終結者AI末日的場景,因爲更多的人知道AI能做什麼和不能做什麼。但這些專家也強調,在推進人工智能的同時,該領域的計算機和數據科學家仍然需要採取負責任的道德規範。

 Rumman Chowdhury

Rumman Chowdhury博士是埃森哲應用智能部門的常務董事,也是其負責任人工智能計劃的全球負責人,並於2017年入選BBC百大女性名單。去年,我有幸在波士頓和她一起分享Affectiva會議的舞臺,一起討論人工智能的信任問題。 她經常就這個話題向世界各地的觀衆發表講話。

爲了節省時間,她通過電子郵件回答了有關2019年人工智能預測的問題。 本文中其他人的所有回覆都在電話採訪中分享。

Chowdhury表示,她很高興看到2018年公衆對AI的能力和侷限性有了更多的瞭解,並且發現人們對AI帶來的威脅的討論也更均衡——不再侷限於《終結者》中那樣擔心智能機器會統治全球的恐懼。“隨之而來的是,人們對隱私和安全的意識和問題日益增強,以及AI在塑造我們和未來幾代人可能發揮的作用。”

然而,Chowdhury認爲公衆對AI的認識不是最重要的。在未來的一年裏,她希望看到更多的人利用教育資源來理解AI系統,並能夠用自己的智慧來質疑AI所做的決策。

AI生態系統中的技術公司和人們開始考慮其工作的倫理影響的速度,這讓她感到驚喜。 但她希望AI社區更進一步,能夠“從口號走向實際行動”。

她提出:“在AI與倫理領域——除了電車難題以外——我希望看到大家能深入挖掘AI將會產生的其他難題,那些沒有明確答案的問題。AI與物聯網相關監控合適的平衡點在哪裏?怎樣才能保證安全並且不導致惡化現有種族歧視的懲罰性監控狀態?我們應該如何重新分配從先進技術中獲得的收益,以便不會進一步擴大已有和還沒有的人之間的差距? 什麼程度的接觸才能讓孩子成爲“AI原生”,而不是被操縱或同質化? 如何才能利用AI實現教育的規模化和自動化,同時又能讓創造力和獨立思考蓬勃發展?”

未來1年,Chowdhury預計會看到政府對全球技術界有更多的審查和監管。

她說:“AI以及全球科技巨頭所掌握的權力,引發了諸如該如何監管該行業和技術的諸多問題。2019年,我們將不得不開始尋找這些問題的答案——當一項技術是一種具有特定背景結果的多用途工具時,你將如何對他進行監管?如何建立監管體制才能 不妨礙創新或偏袒大公司(誰能承擔合規性成本)而不是小初創企業?我們應該監管到什麼層面?國際性,國家性還是本地性?”

她還預計AI在地緣政治事務中的角色還將繼續演進。

她說:“這不僅僅是一項技術,更是經濟和社會的塑造者。我們在這種技術中反思,放大並執行我們的價值觀,我們的行業需要少一點天真。”爲此,他認爲大家需要超越那種對AI行業共同的看法,即如果我們不做的話,中國就會做,好像創造纔是威力所在。

她說:“我希望監管者、技術專業和研究人員意識到,我們的AI之爭不僅僅是計算機能力和技術智慧的較量,就像冷戰不僅僅是核能力的較量一樣。我們有責任以一種更公正、更公平的方式去重新創造世界,現在我們有難得的機會這樣做。但是這種機會轉瞬即逝,希望我們不要錯失。”

在消費者層面上,她相信2019年會AI將在家庭中得到更多應用。許多人已經變得更加習慣於使用像Googol Home和Amazon Echo這樣的智能音箱,以及很多智能設備。在這方面,她很好奇,在今年的CES(Consumer Electronics Show)大展會上會不會有什麼特別有無的東西脫穎而出,這將進一步將人工智能融入人們的日常生活當中。

她說:“我想我們都在等待一個機器人管家”。

 Andrew Ng 

當我聽說Andrew Ng拿白板開會或者講網課時,我總是忍不住發笑。也許這是因爲一位既有激情又容易相處的人很容易讓人開懷發笑。

Ng是斯坦福大學的計算機科學副教授,他的名字在人工智能領域廣爲人知,原因有很多。

他是Google Brain的聯合創始人,該公司旨在將AI推廣到Google的許多產品中。他也是Landing AI的創始人,該公司幫助企業將AI融入到運營中。

他還在YouTube和Coursera(這家公司也是他創立的)上教授了一些最受歡迎的機器學習課程,並且成立了了deeplearning.ai。並寫了《Deep Learning Yearning》一書。

在2017年,他辭去百度的首席AI科學家職務,在任職的三年多時間裏幫助百度變革成一家AI公司。

最後,還是總額1.75億美元的AI Fund的一員,並且是無人車公司Drive.ai的董事會成員。

Ng本月早些時候與VentureBeat進行了交談,當時他發佈了《AITransformation Play book》,這是一本有關解鎖AI對公司積極影響的短讀物。

他期望看到2019年會取得進展或者預期會發生變化的一個主要領域是AI被用於科技或軟件公司以外的地方。AI最大的爲開發機遇不在於軟件行業,他引用麥肯錫的一份報告來說,到2030年,AI將會產生13萬億美元的GDP。

“我認爲,明年(2019年)在軟件行業以外的AI應用領域將會有很多故事可講。作爲一個行業,我們在幫助Google和百度以及Facebook和微軟等公司做得不錯——當然這些和我已經沒有關係——但就連Square和Airbnb、Pinterest等公司也開始利用一些AI能力。我認爲下一波大規模的價值創造將會是製造廠或者農機設備公司、醫療保健公司開發數十種AI解決方案來幫助自身企業的時候。”

就像Chowdhury一樣,Ng對2018年公衆對AI能做什麼不能做什麼的理解程度也感到吃驚,並且對大家的對話不再僅僅圍繞着機器人殺人場景或者一般AI的恐懼展開而感到欣慰。

Ng說,他刻意回答了我一些其他人未必會提出的問題。

他說:“我試圖有意地舉出一些我認爲對實際應用非常重要的領域。我認爲AI的實際應用時存在障礙的,並且我認爲在在寫問題方面若干領域有望取得進展。”

Ng興奮地指出,在未來一年裏預計會看到AI/ML領域會取得有助於整個領域發展的進展。一種是AI可以使用更少的數據得到更精確的結論,也就是所謂的“小樣本學習”。

Ng說:“我認爲深度學習的第一波進展主要是有一些用大量數據訓練非常大型神經網絡的大公司,對吧?所以如果你想開發一個語音識別系統的話,你需要用十萬個小時的數據對它進行訓練。想要訓練機器翻譯系統?得用到無數平行語料庫語句來訓練它,這會產生很多突破性的結果。我越來越多地在小數據上看到結果,當你只有1000張圖片,也想嘗試在這些數據上得到結果。”

計算機視覺的另一個進展被稱爲“泛化”。計算機視覺系統用斯坦福大學的高端X光機器掃描出來的原始圖像來訓練時可能會非常好用。該領域的許多先進公司和研究人員已經建立起比人類放射線醫師更優秀的系統,但是它們靈活性略差。

他說:“不過如果你把訓練好的模型應用於來自低端X光及其或者另一家醫院的X射線時,一旦圖像有點模糊或者X光技師讓病人稍微偏右一點點,結果表明人類的放射科醫生比今天的學習算法能更好的概括這種新背景。因此,我認爲研究如何改進學習算法在新領域的泛化能力將會很有趣。”

 Yann LeCun

Yann Lecun是紐約大學的教授,Facebook首席人工智能科學家,Facebook人工智能研究院(Fair)的創始總監,該公司創建了Pytorch1.0和Caffe2,以及許多人工智能系統,如文本翻譯人工智能工具Facebook每天使用數十億次或高級強化學習系統。

Lecun認爲,那些採樣FAIP開源的研究和工具,幫助推動其他大型科技公司也這樣做,他認爲這推動了人工智能領域的整體發展。Lecun上個月在NeurIPS大會和Fair五週年紀念日前與VentureBeat進行了交談,他說Fair是一個對“機器學習的技術、數學底線”感興趣,使它們一起高效運轉。

他說:“當更多的人交流這項研究時,整個領域的發展速度會更快,這實際上是一個相當大的影響。”“你今天在人工智能中看到的進步速度很大程度上是因爲有越來越多的人比過去更快、更高效地交流,並且做了更多開放的研究。”

在倫理方面,Lecun很高興看到在簡單地考慮工作的倫理影響和有偏見的決策的危險方面取得了進展。

“這個被視爲人們應該關注的一個問題的事實現在已經得到了很好的證實。這已經不是兩三年前的情況,”他說。

Lecun說,他不相信人工智能的倫理和偏見已經成爲一個需要立即採取行動的重大問題,但他相信人們應該做好準備。

他說:“我認爲還沒有……巨大的生死問題需要緊急解決,但它們會到來,我們需要……理解這些問題,並在這些問題發生之前防止它們發生。”

和NG一樣,Lecun希望看到更多的人工智能系統具有靈活性,能夠產生強大的人工智能系統,這些系統不需要原始的輸入數據或精確的輸出條件。

Lecun說,研究人員已經可以通過深入學習很好地管理感知,但缺少的一點是對完整人工智能系統的整體架構的理解。

他說,教學機器要通過觀察世界來學習,就需要自我監督學習,或基於模型的強化學習。

“不同的人給它起了不同的名字,但從本質上講,人類的嬰兒和動物是通過觀察和找出大量有關它的背景信息來學習這個世界是如何運作的,我們還不知道如何用機器做到這一點,但這是一個巨大的挑戰。”

“這一獎項實質上是在人工智能和機器方面取得了真正的進展,使其具有一些常識和虛擬助理,這些助理不會讓人沮喪,可以與之交談,並有更廣泛的主題和討論範圍。”

對於Facebook內部有幫助的應用程序,Lecun說,在自我監督學習方面取得重大進展將非常重要,而人工智能則需要較少的數據才能返回準確的結果。

“在解決這個問題的過程中,我們希望找到減少任何特定任務所需的數據量的方法,如機器翻譯、圖像識別或類似的事情,我們已經在這個方向上取得了進展;通過對翻譯和圖像識別進行弱監督或自我監督,已經對Facebook所使用的服務產生了一定的影響。所以,這些事情實際上不僅是長期的,而且也有非常短期的影響,”他說。

在未來,Lecun希望看到在人工智能方面取得的進展,能夠在事件之間建立因果關係。這不僅是通過觀察來學習的能力,而且是通過實踐來理解的能力,例如,如果人們在使用雨傘,那麼很可能是在下雨。

他說:“這將非常重要,因爲如果你想讓一臺機器通過觀察來學習世界模型,它必須能夠知道它能影響到什麼,從而改變世界的狀態,還有一些事情是你做不到的。”“你知道,如果你在一個房間裏,前面有一張桌子,上面有一個像水瓶一樣的物體,你知道你可以推動水瓶,讓它移動,但是你不能移動桌子,因爲它又大又重,--------像這樣的事情與因果關係有關。”

 Hilary Mason


在Cloudera於2017年收購Fast Forward Labs之後,Hilary Mason成爲了Cloudera的機器學習總經理。 快速實驗室雖然吸收了Cloudera,但仍然在運作,生成應用機器學習報告,並幫助客戶到未來六個月到兩年的發展規劃。

人工智能在2018年讓梅森感到驚訝的一個進步與多任務學習有關,它可以訓練單個神經網絡在推斷例如圖像中看到的物體時應用多種標籤。

Fast Forward Labs也一直在爲客戶提供有關AI系統倫理影響的建議。 梅森認爲有必要建立某種道德框架。

“這是自從我們創建Fast Forward以來的事情 ,所以,五年前 ,我們一直在撰寫關於道德規範的報告,但是今年 [ 2018 ] 人們已經真正開始接受並關注,我想明年我們 “我會開始看到公司和那些不關注這個問題的人們在這個領域的後果或問責制。”梅森說。“我沒有說清楚的是,我希望數據科學和人工智能的實踐發展成爲默認的期望,技術人員和商業領袖創建AI產品將考慮道德和偏見問題 以及這些產品的開發,而今天並不是每個人都默認的東西。“

她說:“我認爲很明顯是那些瞭解整個產品的人,並且理解企業瞭解什麼是有價值的,什麼是沒有價值的,誰最有能力做出這些決定應該投資什麼地方。” 

“所以,如果你想要我的預測,我想同樣的方式,我們希望所有這些人都能使用電子表格這樣的簡單建模,我們很快就會期望他們能夠最低限度地識別自己的AI產品的機會。“

想要繼續查看該篇文章相關鏈接和參考文獻?

長按鏈接點擊打開:

https://ai.yanxishe.com/page/TextTranslation/1425

AI研習社每日更新精彩內容,觀看更多精彩內容:

盤點圖像分類的竅門

深度學習目標檢測算法綜述

生成模型:基於單張圖片找到物體位置

注意力的動畫解析(以機器翻譯爲例)

等你來譯:

如何在神經NLP處理中引用語義結構 

(Python)用Mask R-CNN檢測空閒車位

高級DQNs:利用深度強化學習玩吃豆人遊戲

深度強化學習新趨勢:谷歌如何把好奇心引入強化學習智能體 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章