Pose-Guided Feature Alignment for Occluded Person Re-Identification閱讀筆記

Paper:https://dblp.uni-trier.de/pers/hd/l/Liu:Ping

Code:http://link.zhihu.com/?target=https%3A//github.com/lightas/ICCV19_Pose_Guided_Occluded_Person_ReID

 

摘要:行人經常被各種各樣的障礙所阻擋。對於以前的ReID方法,大都是要麼忽略此問題,要麼基於極端假設來解決它。爲了緩解遮擋問題,我們通過檢測遮擋區域,並在特徵生成和匹配過程中去除遮擋區域。在此論文中,提出了Pose-Guided Feature Alignment (PGFA,姿態引導特徵對齊)的新方法,利用姿態將有用信息從遮擋中分離出來。在提取特徵階段,我們的方法是利用人體關鍵點座標來生成注意力圖。生成的注意力圖指示了特定的身體部位是否遮擋,並引導我們的模型關注沒有遮擋的區域。在匹配過程中,我們將全局特徵圖劃分爲多個部分,並使用姿態信息來表示那些局部特徵屬於目標行人。只有可見的區域會被用於計算相似度距離。此外,我們還建立了一個大規模的數據集來緩解ReID的遮擋問題,Occluded-DukeMTMC是目前最大的行人遮擋數據集。通過在遮擋和無遮擋的數據集上進行實驗,我們方法均取得了相當優異的結果。

 

知識點解析:

Partial Re-ID和Occluded Re-ID問題:前者的query爲遮擋圖像而gallery均是完整行人圖像且不存在遮擋。後者爲query爲遮擋圖像而gallery既存在部分遮擋圖像又存在完整圖像。

Occluded-DukeMTMC數據集:論文提出了一個目前最大的遮擋數據集。其中訓練集爲702個人共15618張圖像,query爲519個人2210張圖像,gallery爲1110個人17661張圖像。這是目前最爲複雜的遮擋ReID數據集,其中存在視角和多張障礙物,如汽車、自行車、樹木和其他人。

Methodology:論文提出的方法FPGA共包含兩個分支--Pose-Guided Global Feature Branch和Partial Feature Branch。論文以resnet-50爲backbone,其中去除了GAP和分類層,並將res_conv4_1的stride降爲1,來擴大最終提取特徵圖的分辨率,正常通過backbone得到特徵圖爲(C, H/32, W/32),現在爲(C, H/16, W/16),在較大的特徵圖上,目標行人的信息和遮擋信息在廣闊的空間維度上更容易分離。然後,將backbone提取的特徵圖同時輸入到兩個分支中。a)Partial Feature Branch:此分支完全類似PCB(均是Yi Yang老師的組)。即將特徵圖硬性劃分爲水平6塊,進行GAP池化降維爲256的特徵向量進行分類,使用交叉熵損失進行監督。Pose-Guided Global Feature Branch:此分支的輸入除共享特徵圖外,還採用姿態估計器從行人圖像中檢測人體的關鍵點(N=18)座標和置信度。根據設定的閾值來篩選各個區域是否存在遮擋,得到mask特徵圖,進而和共享特徵圖相乘,得到消除遮擋區域的特徵圖(18*h*w和2048*h*w-->18*2048),利用GMP得到2048維的特徵向量。另外在共享特徵圖上進行GAP得到2048維的特徵向量,將以上兩個特徵向量進行concat再降維(4096-->256)得到256維的特徵向量進行分類,使用交叉熵損失進行監督。以上即爲算法流程。具體參照下圖:

Representation Matching:論文的query和gallery的相似度距離計算和其他的有很大不同。論文在進行相似度計算時,分別計算

Pose-Guided Global Feature分支提取的特徵的相似度距離和僅包括未遮擋對應區域的Partial Feature分支的相似度距離,然後進行規範化,即兩者之和除以(未遮擋的水平塊個數+1)。具體公式和可視化如下圖所示:

實驗結果:論文在遮擋數據集進行驗證結果均優於對比的算法而且提高挺多,但是在無遮擋數據集上低於PCB,猜測姿態預測器的原因。結果如下:

周郎有話說:論文緩解遮擋的方法,還是挺容易理解。利用姿態預測器得到未遮擋區域的mask掩碼,最終得到去除遮擋區域的特徵圖,此過程也可以理解爲注意力機制,對未遮擋區域增大更多的關注。現在覺得業界對行人重識別研究逐漸向特徵難點轉移。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章