對應論文:MUlti-Store Tracker (MUSTer): a Cognitive Psychology InspiredApproach to Object Tracking
作者該項目相關網站:MUlti-StoreTracker (MUSTer)
代碼下載地址:MUSTer_code_v1.1.zip,或者也可以下載我上傳到CSDN上的代碼,http://download.csdn.net/detail/hjl240/9585443。
下載源代碼,解壓縮之後,將"*/MUSTer_code_v1/opencv"加入系統路徑中(system path)。
打開Matlab,運行run_tracker.m文件。如果出現“InvalidMEX-file”錯誤,如下圖:
則參考一下3步解決問題:
1) install opencv 2.4.6 required by mexopencv
2) setup mexopencv in the folder "mexopencv". Please follow the instruction in "http://kyamagu.github.io/mexopencv/".
3) compile "ICF/gradientMex.cpp"
都沒問題之後,重新運行run_tracker.m文件,效果如下(截取了4幅圖像):
觀察run_tracker.m,可以發現分爲兩步驟,
第一步是加載視頻/圖片信息(load_video_info.m),
第二步就是使用MUSTer算法跟蹤(MUSTer_tracking.p)。
但是作者恰恰將關鍵部分的代碼封裝成了加密格式(.p文件),我們無法查看也無法修改。
粗略看了一下對應論文的實驗部分,作者採用3.4GHz, 8 cores,32GB RAM電腦的配置,在OOTB上的平均時間達到0.287s/frame。速度有點慢。
該算法與其他算法的比較如下:
另外,我稍微修改了一下run_tracker.m,使得可以自己選擇(框出)追蹤物體,
使用方法:選擇(框出)物體之後,左鍵雙擊矩形框內,之後便可以運行。
代碼如下:
addpath('mexopencv');
addpath('ICF');
base_path = './';
res_path = 'Results/';
name = 'Jogging';
video_path = [base_path name '/'];
[ source.img_files, pos, target_sz, ground_truth, source.video_path]...
= load_video_info(video_path);
source.n_frames = numel(source.img_files);
rect_init = [pos, target_sz];
%讀取並顯示圖片
im = imread('./Jogging/img/0001.jpg');
figure,imshow(im);
%選擇需要追蹤的物體
[I,RECT] = imcrop(); %RECT:[XMIN YMIN WIDTH HEIGHT]
bboxes = MUSTer_tracking(source, RECT);
dlmwrite([res_path name '.txt'], bboxes);
效果如下:
圖:手動選擇追蹤物體
圖:手動選擇追蹤物體後運行效果
另外,我還寫了一個將自己的視頻文件轉換爲符合該測試代碼要求的圖片,也就是將視頻的每一幀保存到圖片中。代碼如下:
fileName = 'E:\flip.avi';
obj = VideoReader(fileName);
numFrames = obj.NumberOfFrames;% 視頻幀總數
%若不存在文件夾,則新建文件夾
if ~exist('ImageTest')
mkdir('ImageTest');
end
for k = 1 : numFrames
frame = read(obj,k);
%imshow(frame);%顯示幀
imwrite(frame,strcat('./ImageTest/',sprintf('%04d.jpg',k)),'jpg');
end
運行該程序之後,將ImageTest文件夾生成的圖片覆蓋到Jogging/img文件夾下,便可以運行。