AI一週熱聞:OpenAI架構大調整;圍棋天才柯潔免試就讀清華

  • OpenAI重組架構進入盈利模式,由原YC總裁Sam Altman領導
  • 圍棋天才柯潔免試就讀清華
  • 英偉達69億美元收購Mellanox,成英偉達史上最大收購案
  • Waymo正在尋求外部融資,開啓商業化道路
  • 谷歌:未來的機器人可以邊玩邊學
  • 商湯發佈時尚數據集DeepFashion2,包含49萬張時尚圖片學
  • Facebook創建基於文本的冒險遊戲環境LIGHT
  • 加州大學伯克利分校推出NeuroCuts,網絡數據分類時間縮短18%
  • DeepMind發佈導航數據集StreetLearn

OpenAI重組架構進入盈利模式,由YC總裁Sam Altman領導

image

3月12日,OpenAI 在官方博客宣佈:進入重組狀態,成爲一家“有限利潤(capped-profit)”的公司,由原YC總裁Sam Altman領導。雖然要開始盈利了,但是他們承諾會將將投資回報率削減至一定水平,實行“100倍利潤封頂”。

根據博客原文,OpenAI 新的組織架構是這樣的:

  • OpenAI Nonprofit:仍然主攻技術研究,通過開發新的 AI 技術,而非商業產品來創造出最大的價值。

  • OpenAI LP: “有限盈利”(capped-profit) 公司,負責提升籌集資金的能力,增加對計算和人才方面的投資,確保通用人工智能(AGI)有益於全人類。

根據官方博客顯示,OpenAI開始盈利是爲了加快人工智能技術的研究進展、拓展研究規模,其需要投資數十億美元用於大規模雲計算、吸引和留住人才,以及建造人工智能超級計算機。

簡而言之,如果現在給 OpenAI 投資 1000 萬美元,那麼只有在這 1000 萬美元創造了 10 億美元的回報之後,超出 10 億美金的部分纔會歸 OpenAI 所有。

目前 OpenAI 的董事會成員包括 OpenAI 的 Brockman、Sutskever 和 Altman、最初的投資者 Reid Hoffman,以及 Adam D’angelo、Holden Karnofsky、Sue Yoon 和 Tasha McCauley。值得注意的是,埃隆•馬斯克 (Elon Musk) 並沒有參與其中,儘管他早年是一個大投資者和支持者。

OpenAI 的官方聲明指出:董事會僅限於少數財務利益相關方,只有非利益相關成員才能對“有限合夥人的利益與 OpenAI 非營利組織的使命可能發生衝突的決定”進行投票。

柯潔免試就讀清華

日前,國家體育總局官網公示了《2019年優秀運動員免試入學推薦名單》,圍棋世界冠軍柯潔榜上有名,即將入讀清華大學。入學後,柯潔將就讀清華大學工商管理類專業。公示顯示,柯潔的運動項目爲圍棋,申報學校是清華大學,就讀專業爲工商管理類,他本人的運動等級爲國際級運動健將。

2017年,柯潔作爲“人機大戰2.0”的主角與AlphaGo進行了三番對決,推動了AI圍棋的發展。

英偉達69億美元收購Mellanox,成英偉達史上最大收購案

image

本週一,英偉達正式宣佈以創紀錄的69億美元現金收購以色列芯片設計公司Mellanox,成英偉達史上最大收購案。

此次收購將促進這家芯片製造商的發展,減小其對視頻遊戲的依賴度。

Mellanox Technologies 是一家使用 InfiniBand 和以太網技術的計算機網絡產品的跨國供應商,爲市場提供適配器、交換機、軟件、電纜和芯片,包括高性能計算、公司數據中心、雲計算、計算機數據存儲和金融服務。該公司的芯片爲連接服務器的高速網絡提供動力,總部位於以色列和美國,上週五交易日市值約爲 59 億美元。

數據中心收入佔英偉達銷售額的近三分之一。過去幾年英偉達在首席執行官 Jensen Huang 的領導下發展迅速,但中國的經濟放緩和加密貨幣熱潮退去開始讓這家公司最近幾個季度在銷售上承受巨大壓力。

1 月份,英偉達市值爲 910 億美元,由於中國遊戲芯片需求疲軟以及數據中心銷售低於預期,其第四季度收入預期下調了 5 億美元。英偉達收購 Mellanox 將贏得激進對衝基金 Starboard Value LP 的信心,該公司是英偉達的股東,於去年與英偉達達成董事會組成協議。

Waymo正在尋求外部融資,開啓商業化道路

image

The Information援引知情人士消息報道稱,Alphabet旗下的自動駕駛公司Waymo正在尋求外部投資者的融資,目標融資對象是大衆這樣的歐洲汽車製造商。

如果此次融資成功,這將是Waymo成立十年以來首次引入外部資本,這意味着Waymo向商業化的公衆公司邁出了重要的一步。

據外媒報道,Waymo的估值可能是通用Cruise的數倍,通用Cruise最近從本田汽車融資27.5億美元的估值是投後146億美元,而Waymo出讓的股份則不會超過20%。此前,摩根士丹利對Waymo的估值是1750億美元。

據分析,Waymo此次融資是爲了更好的行業資源或市場資源,這對Waymo來說是最重要的。

谷歌:未來的機器人可以邊玩邊學

谷歌大腦展示瞭如何讓機器人沒有目標地“玩”也可以變得更聰明。谷歌通過模擬遠程操縱機器人獲得了一個數據集。在遠程操作中,研究人員讓機器人用機械手和機械臂與現實世界交互,但是沒有具體的目標。

谷歌將這個數據集稱爲“Learning from Play data(LfP)”。谷歌將這個數據集用於一個系統,該系統試圖對這些有趣的動作序列進行分類,將它們映射到一個潛在的空間。同時,系統中的另一個模塊試圖查看潛在空間並提出可以將機器人從其當前狀態轉換到其目標狀態的動作序列。

谷歌將使用這個數據集的方法與使用行爲克隆技術、基於具體的演示數據完成任務的方法做比較,結果發現,使用LfP數據集的機器人表現更穩定,且在大部分任務中成功率都較高。

有趣的是,研究人員還發現,使用LfP數據集訓練的機器人在首次失敗後會多次重新嘗試完成任務,且在從未接受過任務標籤的訓練的情況下,其潛在規劃空間會學會嵌入任務語義。

重要性:機器人訓練數據手機成本昂貴、難度大,且容易發生分佈問題,這種沒有目標的數據集將讓機器人系統試驗更加簡單,有利於創建共享數據集。

閱讀更多:從玩樂中學習潛在空間規劃 https://arxiv.org/abs/1903.01973

商湯發佈時尚數據集DeepFashion2,包含49萬張時尚圖片

image

商湯研究院和中國香港大學聯合發佈時尚數據集DeepFashion2,該數據及包含大約49萬張13個種類來自商店和消費者的時尚圖片。

詳細標籤*:在DeepFashion2中,“圖像中的每個項目都標有比例、遮擋、放大、視點、類別、樣式、邊界框、密度標籤和像素掩模,”研究人員寫道。“據我們所知,這是文獻中首次定義13種類別來表現服裝姿勢預估,這些類別比人類姿勢更加豐富和多樣化”。

DeepFashion2是DeepFashion的後續數據集,後者於2017年初發布。DeepFashion2的註釋數量是DeepFashion的3.5倍。

重要性:各種行業很可能會被廣泛部署的基於人工智能的圖像分析系統所改變,時尚行業很可能會利用各種圖像分析技術自動分析並瞭解不斷變化的時尚潮流。
 
閱讀更多:DeepFashion2:用於服裝圖像檢測、後期預估、分割和重新識別的多功能基準。
 
GitHub:DeepFashion數據集(https://github.com/switchablenorms/DeepFashion2)。

Facebook創建基於文本的冒險遊戲環境LIGHT

LIGHT包含基於文本的多人地牢(MUD)中的人和AI代理。該MUD由663個位置,3462個對象和1755個單獨字符組成。它還附帶數據,Facebook已經在遊戲中收集了人類扮演角色之間的大約11,000個互動。

LIGHT創建了一個多樣化的遊戲世界,AI代理人和/或人類可以訪問的地點包括鄉村、森林、城堡等位置。

動作和情感:LIGHT中的角色可以進行一系列的動作(吃、喝、上、下等)和表達情緒,如鼓掌、臉紅、揮手等。

結果:測試結果表明,基於谷歌“BERT”語言模型的系統表現最佳。此外,在LIGHT中成功的模型使用了大量的上下文背景,這取決於大量的數據流(對話、環境描述等)。

重要性:語言可能是我們與日益強大的系統互動的基礎,弄清楚如何使用這樣的系統需要我們在更加複雜的環境中與它們進行交互,因此,瞭解LIGHT等系統中代理的性能,這些改進是否可以遷移到其他的能力將非常有趣。
 
閱讀更多:在幻想文本冒險遊戲中學習說話和行動 (https://arxiv.org/abs/1903.03094)。

加州大學伯克利分校推出NeuroCuts,網絡數據分類時間縮短18%

加州大學伯克利分校和約翰霍普金斯大學的研究人員推出了NeuroCuts,這是一個使用深度強化學習來探索如何進行高效網絡數據包分類的系統。數據包分類是一項基礎任務,要求精準和可靠。深度RL很奏效,意味着“我們的方法可以學習優化給定規則和目標的數據包分類,輕鬆地結合預先設計的啓發式方法,結合其領域知識,且不需要太多人類干預”。

結果:NeuroCuts優於最先進的解決方案,將分類時間縮短了18%,且運行時間和內存使用量減少了3倍。

重要性:自適應系統往往比普通系統對失敗的健壯性更強,而提高系統適應性的最佳方法之一就是讓它能夠根據輸入進行學習;將深度強化學習應用於網絡數據包分類這樣的任務,爲通過學習而不是編程解決計算機很多的基本連接問題開創了先河。

閱讀更多:神經包分類(https://arxiv.org/abs/1902.10319)。

DeepMind發佈導航數據集StreetLearn

image

當你在一個城市迷路的時候會怎麼找方向?很多人可能會以附近最有特色的建築地標爲指引。現在,DeepMind也在通過類似的思路來進行導航。

DeepMind開發的數據集StreetLearn讓代理學習如何在城市地區導航,並在此過程中開發更智能的通用系統。

什麼是StreetLearn? 該數據集爲“一個交互式,第一人稱,部分觀察的視覺環境,使用谷歌街景視圖獲取數據,併爲具有挑戰性的目標驅動導航任務提供性能基準,”DeepMind寫道。StreetLearn最初由匹茲堡和紐約市內的兩個大區域組成,包括一組地理定位的360度全景視圖,形成圖形的節點。其中紐約地圖包括大約56,000張圖像,匹茲堡地圖約有是58,000張。這兩張地圖還被進一步細分爲不同的區域。

StreetLearn旨在開發強化學習代理,爲代理提供了五種操作:向左或向右緩慢旋轉攝像機視圖,快速向左或向右旋轉攝像機視圖,以及向前移動。系統還可以爲代理提供特定目標,如圖像,或執行自然語言指令。

重要性:導航是金字塔類任務的基礎,如果我們能夠開發擅長導航的計算機,就能夠在此基礎上構建大量二級應用程序。
 
閱讀更多:StreetLearn環境和數據集(https://arxiv.org/abs/1903.01292)。

作者 Jack Clark 有話對 AI 前線讀者說:我們對中國的無人機研究非常感興趣,如果你想要在我們的週報裏看到更多有趣的內容,請發送郵件至:jack@jack-clark.net

參考鏈接:https://jack-clark.net/2019/03/11/import-ai-137-deepmind-uses-google-streetlearn-to-learn-to-navigate-cities-neurocuts-learns-decent-packet-classification-plus-a-490k-labelled-image-dataset/

更多內容,請關注AI前線

image

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章