以下鏈接是個人關於HR-Net(人體姿態估算) 所有見解,如有錯誤歡迎大家指出,我會第一時間糾正。有興趣的朋友可以加微信:a944284742相互討論技術。若是幫助到了你什麼,一定要記得點贊!因爲這是對我最大的鼓勵。
姿態估計1-00:HR-Net(人體姿態估算)-目錄-史上最新無死角講解
本論文名爲:
Deep High-Resolution Representation Learning for Human Pose Estimation (CVPR 2019)
話不多說,本人接着上篇博客繼續翻譯。
4. Experiments
4.1. COCO Keypoint Detection
Dataset: COCO數據集包含了200000張圖像,其中包含了250000個標註了人體關鍵的實例。模型的訓練使用的是 COCO train2017 數據集,其中包含了 57K 圖片,以及 150K person 實例。在 val2017 以及 test-dev2017 數據集上對我們的模型進行了評估,其分別包含了 5K, 20K圖像。
Evaluation metric: 標準的量化評估是基於 Object Keypoint Similarity (OKS):計算公式如下:
這裏的 是 predict keypoint 和 ground truth 的歐式距離, 是表示 ground truth 是否可見的標誌。 是目標縮放的比例,是一個控制衰減的每個關鍵點常數.我們報告了實驗結果的平均精度和召回率:AP at OKS =0.50)AP75、AP(10位AP得分平均值,OKS = 0.50, 0.55,…,0.90,0.95;APM表示中型對象,APL表示大型對象,而AR表示OKS =0.50, 0.55,…,0.90,0.955。
Training: 我們將人體檢測盒的高度或寬度擴展到固定的長寬比:高度:寬度= 4:3,然後從圖像中裁剪box,然後固定到尺寸256×192或者384×288。數據增加包括隨機旋轉([[45◦,45◦]),隨機縮放([0.65, 1.35]), 和翻轉。以及半體數據的增加也被涉及。
我們使用了 Adam 優化器,基礎學習率設置爲1e-3,在迭代170個 epochs 以及 200 個 epoch 進行10倍的學習率衰減。訓練過程在210個epochs 內結束
Testing: 使用2個階段的方式 - 使用person檢測器檢測person實例,然後預測檢測關鍵點。對於驗證集和測試開發集,我們使SimpleBaseline2提供的person檢測器。
使用普遍的方式,我們計算了原圖,和水平反轉圖估算出來 heatmap 的平均值。每個關鍵點的位置,都是通過調整最高熱值來進行判斷的。
**Results on the validation set: ** 我們報告了我們的方法,以及目前最先進方法的對比結果,如下圖:
我們測試的小網絡 HRNet-W32,是基於輸入圖像爲256x192進行訓練的,其達到了73.4 A 的分值,超過了其他所有使用相同大小當作輸入的算法,…
閱讀到這裏之後,基本都是一些實驗對比的結果了,有興趣的朋友直接閱讀論文把,因爲沒有太多特別的地方了/