谷歌懸賞1.7億尋找“全球好AI”,Jeff Dean領銜評審,中國高校有機會!


新智元報道

來源:theverge、cnet、ai.google

編輯:大明、三石、克雷格

【新智元導讀】本週一,谷歌宣佈提供2500萬美元資助新的人工智能挑戰。資助已於週一開放申請程序,並在明年春天谷歌年度I/O開發者大會上宣佈獲獎者,中國的高校等非盈利機構有機會參與。

谷歌撒幣1.74億,全球行善。

本週一,谷歌宣佈將在全球範圍內對從事人工智能項目的非營利組織、大學和其他組織進行資助,前提是受資助者的項目能用AI造福社會。

這是谷歌“AI for Social Good”項目中的一部分。谷歌表示,該項目旨在幫助解決重大且緊迫的問題,如危機救濟、環境保護或性交易等問題。

資助總金額爲2500萬美元(約合1.74億人民幣),所有參與申請的項目被谷歌列爲進入到一場稱爲“AI影響力挑戰”(AI Global Impact Challenge)的比賽中,並由Google.org慈善機構負責監督和管理。

資助於週一開放申請程序,並在明年春天谷歌年度I/O開發者大會上宣佈獲獎者。作爲競賽的一部分,Google將爲項目提供雲資源,並被任命爲谷歌的專家幫助開發他們的項目。

不作惡,多行善,劈柴來點贊

谷歌自2000年以來一直把“不作惡(Don’t be evil)”列進公司行爲準則,2015年,谷歌新的母公司Alphabet成立時時,“不作惡”被修改爲“做正確的事”(do the right thing)。

不過,今年4月,有媒體發現“Don’t be evil”這個短語被從“谷歌行爲準則”中悄悄刪除。

接下來的事情變得更加蹊蹺,谷歌似乎在“不作惡”的道路上越走越偏。

前不久,谷歌因爲參與國防部無人機項目Maven引起巨大爭議,遭到了4000名員工的集體抗議、外部批評和數位員工辭職,最終,谷歌同意在當前合同履行完畢後退出Maven項目。

6月初,谷歌曾經公開承諾,表示永遠不會開發AI武器,並且爲公司制定了AI研究和產品開發將遵循一系列道德準則。

“AI for Social Good”算是谷歌在“不作惡”道路上的一次迴歸,也是踐行其最新道德準的一次實際行動,谷歌CEO劈柴還在推特上轉發表示支持。

谷歌CEO Sunder Pichai發推宣佈舉辦“AI影響力挑戰賽”的消息

谷歌表示,其AI研究將主要關注“對社會有益”的項目。不會參與違反“國際公認的規範”的AI監控項目,並且其研究將遵守“廣泛接受的國際法和人權準則。”

而“AI影響力挑戰”(AI Global Impact Challenge)的比賽評委也由諸多大咖組成,包括谷歌Brain AI部門負責人兼高級研究員Jeff Dean,研發科學家、Google AI中心負責人Moustapha Cisse等。

Jeff Dean還強調,“AI影響力挑戰賽”並不是公司對與軍方合作和開展與監視技術有關的開發工作的爭議的反應。

“這個活動準備了已經有一段時間了。我們一直在尋找能夠造福社會、並且與商業應用沒有直接關係的應用。對我們來說,能夠展示AI和機器學習的潛力,並以身作則,這對我們來說是非常重要的。”

2500萬美元撒向全球,AI技術必須可擴展

想拿下2500萬美元中的獎金,並非易事。

根據Google.org介紹,申請項目需要符合以下標準:

評選標準:

1.影響力。提交的項目將如何應對社會挑戰,可以在多大程度上解決社會問題?該應用程序是否基於有關問題和解決方案的研究和數據?是否有明確的計劃來應用AI模型,將影響力化爲現實,預期的結果是什麼。

2.可行性。參賽團隊是否有完善的、切合實際的計劃來執行提出的方案?團隊是否有計劃利用有意義的數據集和技術專業知識,將AI技術應用於實際問題?是否確定了實施所需的計劃的合適的合作伙伴和相關領域內的專家?

3.使用AI技術。是否適用AI技術來解決其尋求解決的問題?

4.可擴展性。如果項目獲得成功,如何將其擴展到最初的方案之外?是能夠直接擴展,作爲其他研究的模型,還是能夠推進相關領域的研究?

5.責任。提交的項目所使用AI的方式是否符合Google的AI應用準則?

如何申請?

谷歌接受來自任何來自世界各地的非營利組織、公共慈善機構或營利性企業,前提是申請具有慈善目的的項目。不過,沒有組織從屬關係的個人沒有資格申請。

另外,也有幾個國家被谷歌拉入了黑名單,這些國家是:克里米亞、古巴、伊朗、朝鮮或敘利亞。

中國的小夥伴請放心戳申請鏈接:

https://impactchallenge-app.withgoogle.com/ai-challenge/

申請截止時間爲太平洋時間2019年1月23日0點。之後谷歌和專家評審團將對申請進行審查,從中選出有資格獲得資助的團隊,審查結果將於2019年春發佈。

AI能探鯨魚測地震,但還不能識別黑人

谷歌全球大撒幣的首要任務是利用AI來解決環境科學、醫療和野生動物保護等領域內的問題。

目前谷歌的AI已經應用到極爲廣泛的領域。最近的應用案例是AI已經可以通過跟蹤和識別座頭鯨發出的聲音來確定鯨魚的位置,這種技術用於保護其免受周圍環境和其他野生動物的威脅。

谷歌AI開發了算法,從太平洋的多個地點識別座頭鯨的叫聲。這些叫聲數據被記錄在一種叫做高頻聲波記錄裝置(HARPs)的設備上。

由於數據集時間跨度較長,瞭解座頭鯨在何時何地發出叫聲,將提供有關這些動物在過去幾年裏是否改變了它們分佈的信息,特別是與人類海洋活動增加有關的信息。

綠色:具有當前活動記錄器的站點。紅色:以前的錄音站點。

接着,利用監督學習,優化座頭鯨的圖像模型。通常選擇將音頻事件檢測作爲一個圖像分類問題,其中圖像是一個譜圖——繪製在時間-頻率軸上的聲功率直方圖。

在數據集中找到的音頻事件的示例譜圖,其中x軸爲時間,y軸爲頻率。 左:座頭鯨呼叫(特別是音調單元),中心:來自未知來源的窄帶噪聲,右:來自HARP的硬盤噪聲

此外,該數據集面臨的一個特殊挑戰是窄帶噪聲,通常是由附近的船隻和設備本身引起的。在光譜圖中,它以水平線的形式出現,早期版本的模型會把它與座頭鯨的叫聲混淆。這促使谷歌研究人員嘗試PCEN,它允許抑制固定的窄帶噪聲。這被證明是至關重要的,在鯨魚呼叫檢測的錯誤率上降低了24%。

主成分分析(PCA)的樣本標記點呈現可視化的結果。座頭鯨和非座頭鯨的區別很明顯。

無監督表示中的5000個數據點的樣本。 (橙色:座頭鯨。藍色:不是座頭鯨。)

上述這些信息將有效減輕因人爲因素而減少座頭鯨數量。另外,谷歌也已經把AI用在了地震監測上,使用神經網絡進行地震分析,速度比過去快了 500 倍。

不過,谷歌的AI也沒有強大到無所不能。工程副總裁Yossi Matias上週接受採訪時也承認,“谷歌不可能在所有事情上都起作用,還有很多問題我們可能都沒有意識到。”

比如,如何消除AI軟件中可能會重現人類盲點和偏見的缺陷上,谷歌就沒有做的足夠好。

一個值得注意的例子是,谷歌在今年1月份承認,無法找到修復其照片標記算法的解決方案,這套識別算法將照片中的黑人叔叔識別成了大猩猩。

這可能因爲谷歌的開發人員大部分是由白人和亞裔員工組成的,無法預見爲何圖像識別軟件可能會犯下這樣的根本性錯誤。(谷歌的黑人員工數僅佔員工總數的2.5%。)

當時,谷歌沒有找到這個問題的解決方案,而是刪除了在Google相冊上搜索某些靈長類動物的功能。而這就是本次“AI影響力挑戰賽”旨在解決的一類問題,谷歌希望通過競賽有助於找到解決方案。

所以,你想去試試嗎?

參考鏈接:

https://www.theverge.com/2018/10/29/18038918/google-ai-social-good-impact-challenge-global-competition

https://www.cnet.com/news/google-pledges-up-to-25-million-in-new-artificial-intelligence-challenge/

https://ai.google/social-good/impact-challenge


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章