姿態估計1-04:HR-Net(人體姿態估算)-白話給你講論文-翻譯無死角(2)

以下鏈接是個人關於HR-Net(人體姿態估算) 所有見解,如有錯誤歡迎大家指出,我會第一時間糾正。有興趣的朋友可以加微信:a944284742相互討論技術。若是幫助到了你什麼,一定要記得點贊!因爲這是對我最大的鼓勵。
姿態估計1-00:HR-Net(人體姿態估算)-目錄-史上最新無死角講解
本論文名爲:
Deep High-Resolution Representation Learning for Human Pose Estimation (CVPR 2019)
話不多說,本人接着上篇博客繼續翻譯。

4. Experiments

4.1. COCO Keypoint Detection

Dataset: COCO數據集包含了200000張圖像,其中包含了250000個標註了人體關鍵的實例。模型的訓練使用的是 COCO train2017 數據集,其中包含了 57K 圖片,以及 150K person 實例。在 val2017 以及 test-dev2017 數據集上對我們的模型進行了評估,其分別包含了 5K, 20K圖像。

Evaluation metric: 標準的量化評估是基於 Object Keypoint Similarity (OKS):計算公式如下:
OKS=iexp(di2/2s2ki2)δ(vi>0)iδ(vi>0)OKS=\frac{\sum_iexp(-d_i^2/2s^2k_i^2)δ(v_i>0)}{\sum_iδ(v_i>0)}

這裏的did_i 是 predict keypoint 和 ground truth 的歐式距離,viv_i 是表示 ground truth 是否可見的標誌。ss 是目標縮放的比例,kik_i是一個控制衰減的每個關鍵點常數.我們報告了實驗結果的平均精度和召回率:AP at OKS =0.50)AP75、AP(10位AP得分平均值,OKS = 0.50, 0.55,…,0.90,0.95;APM表示中型對象,APL表示大型對象,而AR表示OKS =0.50, 0.55,…,0.90,0.955。

Training: 我們將人體檢測盒的高度或寬度擴展到固定的長寬比:高度:寬度= 4:3,然後從圖像中裁剪box,然後固定到尺寸256×192或者384×288。數據增加包括隨機旋轉([[45◦,45◦]),隨機縮放([0.65, 1.35]), 和翻轉。以及半體數據的增加也被涉及。
我們使用了 Adam 優化器,基礎學習率設置爲1e-3,在迭代170個 epochs 以及 200 個 epoch 進行10倍的學習率衰減。訓練過程在210個epochs 內結束

Testing: 使用2個階段的方式 - 使用person檢測器檢測person實例,然後預測檢測關鍵點。對於驗證集和測試開發集,我們使SimpleBaseline2提供的person檢測器。
使用普遍的方式,我們計算了原圖,和水平反轉圖估算出來 heatmap 的平均值。每個關鍵點的位置,都是通過調整最高熱值來進行判斷的。

**Results on the validation set: ** 我們報告了我們的方法,以及目前最先進方法的對比結果,如下圖:
在這裏插入圖片描述
我們測試的小網絡 HRNet-W32,是基於輸入圖像爲256x192進行訓練的,其達到了73.4 A 的分值,超過了其他所有使用相同大小當作輸入的算法,…

閱讀到這裏之後,基本都是一些實驗對比的結果了,有興趣的朋友直接閱讀論文把,因爲沒有太多特別的地方了/

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章