2016世界機器人大會歸來隨想

上週去參加世界機器人大會,剛去以爲就是純學術會議,沒想到還有展覽區和競賽區,不過競賽區都是一些RoboCup之類的東東,跟實用型機器人關係不大;展覽區很多展商的技術骨幹也在學術會議上做了報告,所以集中談會議所得

工業機器人(偏重控制)

連續型機器人(Continuum Robot)

用於對未知結構的生產線進行快速原型,以方便部署最終的關節型工業機器人。類似於IC行業先用FPGA驗證邏輯,再用ASIC批量生產

基於仿生接口(Bionic-Interface)的意圖預測(Intent Prediction)

來自韓國的金熙勳(keehoon kim)介紹了他的意圖預測技術,主要用於製造殘疾人的假肢,或是殘疾人輔助康復設備,技術原理我理解是這樣的:
仿生界面機器人
觀測健康人在擡手、曲臂等各種動作時,胳膊上各個位置的神經所發出的脈衝,將這個脈衝編碼成模板,然後讓機械臂在探測到這個模板時做出跟健康人一樣的動作,然後將機械臂安裝到殘疾人身上,採集人就能通過殘肢末端的神經脈衝,驅動安裝的機械臂運動了

是否開刀 肌肉 神經
開刀 EMG sEMG
不開刀

當然也可以不開刀植入,只是粘貼在胳膊表面,這樣精度會下降,但依然比Kinect更能精確地識別手勢,因爲整條胳膊的任意動作,在小臂上的神經脈衝都是不一樣的,所以他們只需要捕捉小臂,就能還原出整條胳膊的運動

協作機器人的柔順機械臂

來自北京交大機電系的張秀麗,繼張佳辰之後另一個靠譜的女研發!她說中科院提的共融機器人就是協作機器人,只是他們拿了NSFC的錢,paper上必須用這個拗口的機器人類名-_-!
協作機器人的柔順控制分爲主動型和被動型,主動型就是在控制算法上加入一些補償量(韓國Chul-Goo Kang有相關報告),被動型有很多分類,不過他們專注的是驅動系統的柔順,其中主要是電機驅動、柔順手段是減速器搭配彈性元件,而彈性元件又分恆定剛度和可變剛度,前者有線彈簧、扭彈簧、SEA等,後者有非線性彈簧和引入阻尼的線彈簧

納米機器人(nanobot)的視覺

來自香港中文大學的李文榮教授,是個ABC,聽完他的演講我認識到,科幻電影裏的納米機器人根本不存在,現在只是能通過一些高級顯微鏡技術,看到納米級的微小目標,然後通過移動的電場等技術,將藥物定向輸送到病竈而已
納米機器人

服務型機器人(偏重智能)

機器人應用商店

納恩博在收購了SegWay後,爲了充分利用其平衡車的底盤技術,將底盤加上一衆傳感器技術,打造成一個機器人半成品,領域廠商只需要將他們的領域知識通過app灌注到底盤上,就能實現自己的領域機器人。高級總監張佳辰的演講非常精彩,一句“機器人的本質是計算機的升級”就將大家的關注點從機器人上挪開了,好方便她平衡車的登場^_^
機器人應用商店

IBM的Watson

IBM爲了兜售Watson系統,到處鼓吹認知概念,什麼認知時代、認知計算,無非就是將大家的目光不僅從計算機上挪開,甚至脫離任何物理實體,只考慮他的Service。那麼什麼是Watson呢?就是一個雲端服務,它能看懂你丟給它的任意格式原始資料(doc、xls),無需做任何輔助說明,然後一個專屬於你的知識庫就構建好了,你的客戶可以通過Watson直接用自然語言與你的知識庫互動。

安防機器人

大陸智源科技的高源,是一個非常實在的人,撕了很多機器人領域皇帝的新衣,他們的安防機器人沒有語音交互,因爲他知道讓機器人跟人聊天其實很難,但加入了很多落地技術:能越障、爬坡、可靠的網絡傳輸等等。報告結束後我們的領導感慨良多。。。。。。
安防機器人

人工智能的語言遊戲

來自微軟小冰之父周明的報告,通過機器學習實現符合平仄的對聯、唐詩、字謎生成,通過RNN實現符合詞牌結構的宋詞生成
簡單說,該算法能像人一樣對對子、賦詩、猜字謎,非常牛叉

知識圖譜(Knowledge Graph)

來自浙大的陳華鈞教授,當年的人工智能大戰以符號主義敗給連接主義而告一段落,但隨着基於神經網絡等連接主義技術的感知系統(語音、視覺)越來越完善,認知&推理的重要性漸漸凸顯,而這就要依賴符號主義學派了
知識圖譜走的是跟NLP等機器學習技術完全不同的路子,它提倡在生產自然語言內容時,就對內容做語義標註,這樣AI算法就能根據這些語義很方便地進行常識推理(common-sense reasoning),這個準確性應該是要比機器學習高的
另外他提到了ONEM2M這個物聯網標準化組織,以及schema.org,貌似都是用語義網絡(semantic web)做一些實際的事情

仿人機器人(Humanoid)HRP-4C Miim

來自日本AIST的Kazuhito Yokoi報告,他們最新款Humanoid叫Miim,除了控制能力更出色,比如具備能扭轉的腳踝等,還在表情捕捉、歌聲合成等AI算法上展示出非凡成就,跟他們比,國內同行簡直是在玩過家家

智能硬件的生態

來自硬蛋科技的李世鵬,他指出了目前智能硬件的一些痛點
智能硬件現狀
這裏寫圖片描述

從能聽會說到能理解會思考

來自科大訊飛的胡鬱,他提了一個技術(但沒細講),說人耳耳蝸裏有很多纖毛,分佈在不同位置,當聲音進入耳蝸時,人腦並不像計算機那樣一段一段的理解,而是收集不同位置的纖毛給出的感應信息,在腦內繪製出一副彩色圖像——所以某種程度上,語音識別跟圖像識別是共通的

語音識別中的認知計算技術

來自思必馳的俞凱,他分別介紹了自家公司在感知和認知技術上的突破
感知層面,他說他們的語音解碼已經由幀同步升級爲音素同步,這可以大大減小語音訓練模型的體積,使得原來要放到服務器上的模型,現在可以放到手機上。不過這塊他也沒細講,我猜這個模型體積減小隻針對訊飛的在線命令詞識別吧?如果能將語音聽寫也做成離線,那就牛逼大發了,那我就能在本地做語音識別,機器人的抗噪困擾也會大大減輕。
認知層面,他詳細介紹了他家的對話管理以及多輪交互技術,不過這個跟場景緊綁定,並不是很有技術含量,不過他的思路很不錯:機器人不能獨立工作,必須將人的知識融合進去,才能高效作業。
對話管理
對話管理2

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章