機器人導航兩篇頂級會議論文解析

機器人導航兩篇頂級會議論文解析

一.一種用於四旋翼無人機室內自主導航的卷積神經網絡特徵檢測算法

標題:A Convolutional Neural Network Feature Detection Approach
to Autonomous Quadrotor Indoor Navigation

作者:Adriano Garcia, Sandeep S. Mittal, Edward Kiewra and Kanad
Ghose

來源:2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)

摘要

用於識別和定位室內結構特徵點的目標檢測技術,目前同樣可以應用於四旋翼無人機室內自動導航。四旋翼無人機上搭載的前向單目相機拍攝的視頻流會實時傳輸到外場的主機系統,並且在外場主機上運行了一套基於卷積神將網絡的目標檢測算法來識別一些特殊的特徵點,例如死角、門和一些走廊的十字口。利用被識別物體周圍邊界框的像素級尺寸,使用支持向量迴歸(SVR)模型,可以準確估計到交叉口、終端和入口的距離,生成飛行控制命令,並且在飛行速度接近2m /s時實現一致的實時自主導航。
在這裏插入圖片描述
圖1 區別於傳統的圖像處理方法,本文使用卷積神經網絡來同時對結構特徵點進行檢測和定位,這使得我們的方法可以處理更多類的目標檢測問題。圖示爲本文算法的結構流程,無人機飛行過程中的視頻流和導航數據救人無人機API TX/RX節點,其中視頻流輸入到YOLO3結構特徵點探測器節點並輸出邊界檢測數據。在控制節點中,邊界檢測數據進入近鄰估計算法並結合無人機導航數據進入導航算法流程,並計算得到無人機飛控指令。最後得到的指令同樣通過無人機API接口傳入到無人機,控制無人機行動。我們使用基於CNN的YOLO架構來訓練和執行預測模型,實驗證明這種做法可信度非常高並且可以持續的檢測和定位結構特徵點,並且平均速度可以達到25幀每秒。
在這裏插入圖片描述
圖2 本文使用的CNN視覺模型是一種目標檢測模型,該模型經過訓練和可以對交叉口、死角和一些其他例如們和海報板等多種走廊特徵進行檢測和定位。我們之前的工作是使用圖像處理方法來進行特徵點檢測,但這種方式不能很好的對光照條件進行很好的兼容。本文的CNN-based特徵識別方法則沒有這種限制,並且可以對目前進行的所有試驗場景很好的兼容工作。本文用的YOLO3網絡共有53個卷積層,batch_size爲64,learning_rate設置爲0.001。上圖所示爲使用YOLO網絡來對目標進行邊界提取標記。
在這裏插入圖片描述
圖3 估計真實世界中相機到這些標記特徵的距離是非常必要的,這樣可以把目標檢測的標記位置與真實世界中的位置進行對應,進而保證無人機控制模塊可以產生準確的指令。我們使用相機校準技術來獲得對應關係模型來講圖像平面像素長度轉換到真實世界的距離值。我們需要記錄實際的真值測量值並且分析檢測到的特徵點是如何在像素平面變化的。經過我們的實驗,我們的YOLO檢測系統可以檢測和定位前向55m到2m之家你的距離。上圖所示爲深度值估計結果,經過統計分析,最高的誤差達到3.4m,平均誤差在0.75m。
在這裏插入圖片描述
在這裏插入圖片描述在這裏插入圖片描述圖4 爲了驗證我們基於CNN系統的有效性,我們爲YOLO_based的自主導航視覺系統在一系列不同的走廊場景進行了實際飛行測試,場景包括:直線飛行經過寬的和窄的走廊;飛行經過轉彎;在多走廊路徑中進行持續自動飛行。上述三圖分別爲平面多路徑展示圖以及測試結果統計表。經過測試,路徑A中的最高時速比其他飛行過程中的大一些,這是因爲無人機在兩個拐點之間飛行了較長的距離,因此無人機有充足的時間加速到最高時速。在飛行測試過程中,發生了一些撞牆事件,但是都被控制節點很好的解決掉並且完成了整體的飛行。

二.基於先驗雷達地圖約束的視覺慣導定位

標題:Visual-Inertial Localization with Prior LiDAR Map
Constraints

作者:Xingxing Zuo, Patrick Geneva, Yulin Yang, Wenlong Ye, Yong
Liu, and Guoquan Huang

來源:IEEE/RSJ International Conference on Intelligent Robots
and Systems (IROS),2019

摘要

在本文中,我們開發了一種低成本的雙目相機-慣導定位系統,該系統有效利用多狀態約束卡爾曼濾波(MSCKF)的視覺慣性里程計同時利用先驗雷達地圖提供有界誤差的三維導航。除了VIO中使用的標準的稀疏視覺特徵點測量,在緊耦合的MSCKF更新中利用了之前的激光雷達地圖上的視覺半直接法的全局註冊,從而校正了累積誤差。這種視覺和激光雷達點雲之間的交叉模式約束得到了特別的解決。該方法在蒙特卡羅模擬和實際實驗中都得到了驗證,結果表明,通過不同的感知模式創建點雲之間的激光雷達地圖約束極大地改善了標準VIO並提供了有界誤差性能。
在這裏插入圖片描述
圖1. 提出的帶有先驗雷達地圖約束的視覺慣導定位系統在EurocMac數據集上運行。先驗的激光雷達地圖是根據高度添加顏色的,而真值和估計的軌跡分別用青色和粉紅色繪製。由一系列關鍵幀重建的半稠密點雲以黑色表示。
在這裏插入圖片描述
圖2.所提出的定位系統的數據流,雙目和慣導測量可以從左面看到,所提出地圖約束的子系統用紅色框強調。
在這裏插入圖片描述
圖3.沒有深度細化的視覺半稠密重建(左)在房間的牆壁上有高水平的噪音。相比之下,深度細化的視覺半稠密重建(右)沿邊界顯示出較低的噪聲(見插圖)。這些點雲是EurocMav V1 02中等序列的一個小子集。
在這裏插入圖片描述
表一.蒙特卡羅模擬參數

表二.具有不同層次的先驗地圖噪聲的均方根誤差
在這裏插入圖片描述
圖5.合成Gazebo數據集的鳥瞰圖。機器人長達836米的groundtruth軌跡用紅色表示。機器人的最大速度設定爲2.5 m/s。圖6.0.03的噪聲下標準MSCKF和具有先驗激光雷達地圖的MSCKF的方位和位置RMSE的仿真結果。

表三.對於不同段長度的相對位姿誤差
在這裏插入圖片描述
圖7.相對軌跡誤差統計的箱線圖。中間的盒子跨越了第一和第三個四分位數,而鬍鬚是上限和下限。從顏色上看,帶有激光雷達地圖約束的平移誤差最好。
在這裏插入圖片描述
表四.添加地圖的MSCKF、標準MSCKF和VINS-Mono的變種在5段數據集上的平均絕對軌跡誤差(左)。兩個系統線程的時間信息:(I)稀疏視覺慣導里程計和(II)先驗地圖約束(右)。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章