AI一週熱聞:華爲年收入突破千億美元;英偉達發佈城市監控數據集

  • 何愷明、陳鑫磊提出實例分割框架TensorMask,媲美Mask R-CNN
  • 無人車創企RoadStar.ai進入清盤階段
  • 華爲年報:總收入突破千億美元大關,研發支出過千億人民幣
  • 明略數據完成20億元D輪融資,騰訊領投
  • 英偉達發佈全市監控數據集“CityFlow”
  • SkelNetOn挑戰賽從圖像、點雲和參數表示中提取骨架
  • 河南大學發佈中國商店街景數據集ShopSign,含超過25,000張圖片
  • nuTonomy發佈自動駕駛汽車數據集nuScenes,含超過1000個場景
  • 谷歌機器人每小時可拋擲500件物品

何愷明、陳鑫磊提出實例分割框架TensorMask,媲美Mask R-CNN

近日,Facebook的陳鑫磊、何愷明等人提出一種通用的實例分割框架TensorMask,彌補了密集滑動窗口實例分割的短板。

在COCO數據集上的測試顯示,TensorMask的效果可以和實例分割的主流方法——Mask R-CNN相媲美。在COCO數據集上進行實例分割檢測可以發現,TensorMask在test-dev上的平均精度達到了35.5,與Mask R-CNN的36.8非常接近。

image

在定量和定性上,TensorMask均接近Mask R-CNN。

image

論文鏈接:https://arxiv.org/abs/1903.12174

TensorMask的核心變化是,用結構化的高維張量表示一組密集滑動窗口中的圖像內容。

它包含兩部分:1. 預測蒙版的Head,負責在滑動窗口中生成蒙版;2. 進行分類的Head,負責預測目標的類別。

無人車創企RoadStar.ai進入清盤階段

近日,國內明星無人車創投公司RoadStar.ai(深圳星行科技)已進入清盤狀態,創始人單飛,公司和投資方進入仲裁階段,辦公室已關停。

RoadStar.ai被清盤疑似起因於創始人內訌,另外還有公司內部貪污腐敗、技術研發停滯、產品遲遲不落地等誘因。投資方隨後介入協調,最終具有國資背景的投資方要求清盤退出。公司創始人(最大股東)佟顯喬、周光和衡量據說已離開公司。

在這之前,RoadStar.ai還是一家明星無人車創企,2017年獲得數千萬美元種子輪融資,2018年5月份宣佈獲得1.28億美元A輪融資,創下無人駕駛單輪融資新紀錄。時隔半年,這家明星公司就迅速隕落。

華爲2018年報:總收入突破千億美元大關,研發支出過千億人民幣

image

3月29日,華爲公佈2018 年財報。財報顯示,華爲 2018 年總收入 7212 億元(約合 1070 億美元),同比增長 19.5%,淨利潤 593 億元,同比增長 25.1%,這是華爲年收入首次突破千億美元大關。經營活動現金流爲 747 億元人民幣;研發費用 1015 億元,佔收入的 14.1%。

其中,消費者業務收入爲 3489 億元,同比增長 45.1%;企業業務收入爲 744 億元,同比增長 23.8%;運營商業務收入 2940 億元,同比減少 1.3%。過半收入來自於中國市場,其次是歐洲、中東、非洲,亞太地區和美洲,總體來看,華爲在上述區域的營收均呈現增長趨勢。

明略數據完成20億元D輪融資,騰訊領投

3月27日,明略數據宣佈完成20億元D輪融資,騰訊再度領投,金拓資本、華興新經濟基金、中航信託跟投。

明略科技董事長兼CEO吳明輝表示,此次融資完成,首要任務就是繼續加強科學院,在各個實驗室中繼續補充各個層次人才,提升研發實力。未來,明略將聚焦三大方向:

  • 打造中國領先的一站式企業級AI產品與服務平臺;

  • 在大AI理念下推動HAO智能模型落地;

  • 加強明略科學院實力,從產品創新到技術創新。

  • 去年4月,明略宣佈華興、騰訊領投的10億元C輪融資,估值超14億美元,躋身獨角獸行列。

英偉達發佈全市監控數據集“CityFlow”

英偉達、聖何塞州立大學和華盛頓大學聯合發佈數據集CityFlow,這個數據集可以幫助研究人員開發用於監控和跟蹤城市周圍車輛的算法。

CityFlow數據集:包含從放置在美國城市10個交叉路口的40臺攝像機收集的時長3.25小時的視頻。“該數據集涵蓋了多種不同的位置類型,包括交叉路口、道路路面和高速公路”。CityFlow包含666輛車的超過229,680個邊界框,如汽車、公共汽車、皮卡車、貨車、SUV等。每個視頻的分辨率至少爲960像素,“大多數”的幀速率爲10 FPS。

子數據集:CityFlow ReID:這個數據子集用於重新識別從一個攝像頭中消失,又出現在另一個攝像頭中的行人和車輛。該數據子集包括56,277個邊界框。

Baseline:CityFlow附帶一組Baseline,用於執行以下任務:

  • 行人重新識別。

  • 車輛重新識別。

  • 單攝像機跟蹤不同的對象。

  • 多攝像機跟蹤給定對象。

重要性:無處不在的監控:我很高興看到報紙上越來越多地在討論監控系統的應用和潛在問題,監控系統顯然可以用來提高城市交通系統的效率(和安全性),但也會用於當地警局、國家和國際情報收集系統。這會產生很多分歧,我很高興看到更多的研究人員花時間討論監控系統的這些方面。

閱讀更多:CityFlow:城市規模的多目標多相機車輛跟蹤和重新識別基準(https://arxiv.org/abs/1903.09254)。

SkelNetOn挑戰賽從圖像、點雲和參數表示中提取骨架

多個研究機構推出了“SkelNetOn”數據集和挑戰賽,旨在“利用現有及開發新的深度學習架構進行形狀理解”。該挑戰賽涉及對象的幾何建模,這個問題非常有用,因爲解決這一問題的技術可以自然地生成“用於建模、合成、壓縮和分析形狀的緊湊、直觀的表示”。

三個領域中的三個挑戰:每個SkelNetOn挑戰都附帶自己的數據集,包括1,725個配對圖像/點雲/對象和骨架的參數化表示。

重要性:數據集有助於人工智能研究進展,能夠從圖像中巧妙地推斷出二維和三維架構將釋放應用程序的潛力,從依賴計算機的Kinect風格接口,到能夠廉價生成(基本)骨架模型,可用於媒體制作,例如視頻遊戲。

作者“相信SkelNetOn有可能成爲深度學習和形狀理解交叉的基礎基準…最終,我們預計這種深度學習方法可被用來抽象用於生成模型的表達和層次表示的參數以及程序化“。

閱讀更多:SkelNetOn 2019數學和深度學習的形狀理解挑戰(https://arxiv.org/abs/1903.09233)。

河南大學發佈中國商店街景數據集ShopSign,含超過25,000張圖片

image

… ShopSign數據集花費了兩年多的時間來收集,幷包含五個類別的標誌…

中國研究人員創建了一箇中國商店街景數據集ShopSign。研究人員指出,中國商店標誌往往是長度不一,使用材料和風格、背景不同;相比之下,美國、意大利和法國等地的商店標誌更加標準化。該數據集將幫助人們訓練與(某些)中國標誌相對應的自動字幕系統,並可能用於二次應用,例如使用生成模型創建合成的中國商店標誌。

主要統計數據

  • 25,362:中國商店牌匾圖像數量。

  • 4,000:夜間拍攝的圖像。

  • 2,516:從側面和正面視角拍攝的商店標誌的成對圖像。

  • 50:用於收集數據集的不同類型的相機,圖像發生自然變化。

  • 2.4年:收集數據集所花費的時間。

  • >10:圖像的位置,包括上海、北京、內蒙古、新疆、黑龍江、遼寧、福建、商丘、周口,以及河南省的幾個城市地區。

  • 5:“特殊類別”、“硬圖像”,標誌有木質、變形、暴露、鏡像或模糊的背景。

  • 196,010:數據集中的文本行。

  • 626,280:數據集中的中文字符。

重要性:創建不是主要用英語編寫的圖像開放數據集將有助於AI多樣化,使世界其他地區的研究人員更容易在與他們相關的環境中構建工具和進行研究。我迫不及待地想看看ShopSigns可以包含各種語言,涵蓋全世界的商店標誌(然後我希望有人用它訓練一個Style / Cycle / Big-GAN來生成合成的街景藝術!)。

獲取數據:https://github.com/chongshengzhang/shopsign

閱讀更多:ShopSign:中國商店的街景多樣化場景文本數據集 https://arxiv.org/abs/1903.10412

nuTonomy發佈自動駕駛汽車數據集nuScenes,含超過1000個場景

自動駕駛汽車公司(由APTIV所有)nuTonomy發佈了nuScenes,一個可用於開發自動駕駛汽車的多模式數據集。

數據集:nuScenes中的數據由超過1,000個不同場景組成,每個場景長度約爲20秒,每個場景都有從nuTonomy自動駕駛車輛上的五個雷達、一個激光雷達和六個基於攝像頭的傳感器收集的數據。

該數據集包括在舊金山和新加坡收集的時長約5.5小時的視頻,包括雨、雪中的場景。nuScenes是“首個從整套傳感器獲得360°覆蓋的數據集,也是首個包含雷達數據的AV數據集,以及首個使用獲得AV批准用於公共道路數據收集的數據集。”該數據集的靈感來自自動駕駛汽車數據集KITTI(http://www.cvlibs.net/datasets/kitti/),但註釋總數是前者的7倍,nuTonomy說。

有趣的場景:這個數據集包含很多具有挑戰性的場景,包括在交叉路口和建築工地的導航,救護車和動物等罕見目標出現,以及行人亂穿人行道等危險情景。

具有挑戰性的任務:nuScenes附帶一些內置任務,包括計算數據集中10類對象的邊界框,屬性和速度。

重要性:由於商業價值極高,自動駕駛汽車數據集非常少。nuScenes將讓研究人員更好地瞭解開發和部署自動駕駛汽車技術所需的數據屬性。

閱讀更多:

nuScenes:一個自動駕駛多模式數據集(https://arxiv.org/abs/1903.11027)。

nuScenes導航示例場景:https://www.nuscenes.org/explore/scene-0001/0。

GitHub:https://github.com/nutonomy/nuscenes-devkit。

註冊並下載完整數據集:https://www.nuscenes.org/download。

谷歌機器人每小時可拋擲500件物品

image

谷歌的研究人員已經教過機器人把物品從一個容器扔到另一個容器,來運輸(粗略模擬)倉庫周圍的物體。這樣的系統顯示出AI技術在應用中的強大功能,但在實際部署中卻有很高的故障風險。

機器人的三個模塊:機器人隨附一個感知模塊,一個抓取模塊和一個投擲模塊。

感知模塊幫助機器人看到對象並計算關於對象的3D信息。

抓取模塊試圖預測拾取對象的成功率。

投擲模塊試圖預測“預定義的拋擲物的釋放位置和速度”,並藉助手寫物理控制器進行預測。它使用此信號以及殘餘信號來預測要使用的適當速度。

Residual physics:系統使用手寫物理控制器和一個學習機器人操控參數的函數來學習投擲對象。通過這種方法,研究人員產生了“更廣泛的數據驅動校正,可以補償嘈雜的觀測以及未明確建模的動態”。

效果如何?他們在“UR5”機器人手臂上進行測試,該手臂使用RG2抓手“挑選並投擲80多種不同玩具積木、假水果、裝飾物品和辦公物品”。他們進行了三種baseline和人類測試。測試表明,與純迴歸或基於物理的baseline相比,本文的“Residual physics”技術是最有效的。

機器人在抓握和投擲物品時接近人的表現,人類的平均成功投擲率爲80.1%(正負10左右),而這個機器人系統的投擲成功率爲82.3%。

該系統每小時可以拾取和拋擲514件物品(不包括未能抓取的物品),比其他技術更勝一籌,比如Dex-Net或Cartman。

重要性:拋擲機器人展示了混合AI系統的強大功能,它將學習的組件與包含領域知識的手寫算法(如物理控制器)配對。這對Rich Sutton等認爲“計算是人工智能研究的主要因素”的看法提出了挑戰。然而,值得注意的是,考慮到在實際部署之前系統在還需要很長的訓練階段,拋擲機器人在實際部署中許多功能還依賴於低成本的計算。

此外,製造商一般要求工廠搬運貨物的成功率爲99.9N%(甚至99.99N%),而不是80.N,該系統82.3%表現還有待改善。

閱讀更多:

TossingBot:使用 Residual Physics學習拋擲任意物體
https://arxiv.org/abs/1903.11239。

作者 Jack Clark 有話對 AI 前線讀者說:我們對中國的無人機研究非常感興趣,如果你想要在我們的週報裏看到更多有趣的內容,請發送郵件至:[email protected]

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章