YOLOv2訓練:製作VOC格式的數據集

本文轉載自:

http://blog.csdn.net/ch_liu23/article/details/53558549


 最近在用yolo來做視頻中的人員檢測,選擇YOLO是從速度考慮,當然也可以用ssd。YOLO相關可看主頁Darknet,有相關代碼和使用方法。由於之前做自己的數據訓練過程中出現各種問題,參照了各種博客才跑通,現在記錄下以防後面忘記,也方便自己總結一下。

      YOLO本身使用的是VOC的數據集,所以可以按照VOC數據集的架構來構建自己的數據集。

1.構建VOC數據集

1.準備數據

首先準備好自己的數據集,最好固定格式,此處以VOC爲例,採用jpg格式的圖像,在名字上最好使用像VOC一樣類似000001.jpg、000002.jpg這樣。可參照下面示例代碼
[cpp] view plain copy
  1. // Getfile.cpp : 重命名文件夾內的所有圖像並寫入txt,同時也可通過重寫圖像修改格式  
  2. //配用Opencv2.4.10  
  3.   
  4. #include "stdafx.h"  
  5. #include <stdio.h>  
  6. #include <string.h>  
  7. #include<io.h>    
  8. #include <opencv2\opencv.hpp>  
  9. #define IMGNUM 20000 //圖片所在文件夾中圖片的最大數量    
  10. char img_files[IMGNUM][1000];  
  11.   
  12. using namespace cv;  
  13. int getFiles(char *path)  
  14. {  
  15.     int num_of_img = 0;  
  16.     long   hFile = 0;  
  17.     struct _finddata_t fileinfo;  
  18.     char p[700] = { 0 };  
  19.     strcpy(p, path);  
  20.     strcat(p, "\\*");  
  21.     if ((hFile = _findfirst(p, &fileinfo)) != -1)  
  22.     {  
  23.         do  
  24.         {  
  25.             if ((fileinfo.attrib & _A_SUBDIR))  
  26.             {  
  27.                 if (strcmp(fileinfo.name, ".") != 0 && strcmp(fileinfo.name, "..") != 0)  
  28.                     continue;  
  29.             }  
  30.             else  
  31.             {  
  32.                 strcpy(img_files[num_of_img], path);  
  33.                 strcat(img_files[num_of_img], "\\");  
  34.                 strcat(img_files[num_of_img++], fileinfo.name);  
  35.             }  
  36.         } while (_findnext(hFile, &fileinfo) == 0);  
  37.         _findclose(hFile);  
  38.     }  
  39.     return num_of_img;  
  40. }  
  41. int main()  
  42. {  
  43.     char path[] = "SrcImage";                               //source image  
  44.     char dstpath[] = "DstImage";                            //destination image  
  45.     int num = getFiles(path);  
  46.     int i;  
  47.     char order[1000];  
  48.     FILE *fp = fopen("train.txt""w");  
  49.     for (i = 0; i<num; ++i)  
  50.     {  
  51.         printf("%s\n", img_files[i]);  
  52.         IplImage *pSrc = cvLoadImage(img_files[i]);  
  53.         sprintf(order, "DstImage\\%05d.jpg", i);  
  54.         fprintf(fp, "%05d\n", i);  
  55.         cvSaveImage(order, pSrc);  
  56.         printf("Saving %s!\n", order);  
  57.         cvReleaseImage(&pSrc);  
  58.     }  
  59.     fclose(fp);  
  60.     return 0;  
  61. }  
讀取某文件夾下的所有圖像然後統一命名,用了opencv所以順便還可以改格式。
準備好了自己的圖像後,需要按VOC數據集的結構放置圖像文件。VOC的結構如下
[plain] view plain copy
  1. --VOC  
  2.     --Annotations  
  3.     --ImageSets  
  4.       --Main  
  5.       --Layout  
  6.       --Segmentation  
  7.     --JPEGImages  
  8.     --SegmentationClass  
  9.     --SegmentationObject  
      這裏面用到的文件夾是Annotation、ImageSets和JPEGImages。其中文件夾Annotation中主要存放xml文件,每一個xml對應一張圖像,並且每個xml中存放的是標記的各個目標的位置和類別信息,命名通常與對應的原始圖像一樣;而ImageSets我們只需要用到Main文件夾,這裏面存放的是一些文本文件,通常爲train.txt、test.txt等,該文本文件裏面的內容是需要用來訓練或測試的圖像的名字(無後綴無路徑);JPEGImages文件夾中放我們已按統一規則命名好的原始圖像。
      因此,首先
      1.新建文件夾VOC2007(通常命名爲這個,也可以用其他命名,但一定是名字+年份,例如MYDATA2016,無論叫什麼後面都需要改相關代碼匹配這裏,本例中以VOC2007爲例)
      2.在VOC2007文件夾下新建三個文件夾Annotation、ImageSets和JPEGImages,並把準備好的自己的原始圖像放在JPEGImages文件夾下
      3.在ImageSets文件夾中,新建三個空文件夾Layout、Main、Segmentation,然後把寫了訓練或測試的圖像的名字的文本拷到Main文件夾下,按目的命名,我這裏所有圖像用來訓練,故而Main文件夾下只有train.txt文件。上面說的小代碼運行後會生成該文件,把它拷進去即可。

2.標記圖像目標區域

       因爲做的是目標檢測,所以接下來需要標記原始圖像中的目標區域。相關方法和工具有很多,這裏需用labelImg,相關用法也有說明,基本就是框住目標區域然後雙擊類別,標記完整張圖像後點擊保存即可。操作界面如下:

通常save之後會將標記的信息保存在xml文件,其名字通常與對應的原始圖像一樣。最後生成的畫風是這樣的

其中每個xml文件是這樣的畫風
[html] view plain copy
  1. <?xml version="1.0" ?>  
  2. <annotation>  
  3.     <folder>JPEGImages</folder>  
  4.     <filename>00000</filename>  
  5.     <path>/home/kinglch/VOC2007/JPEGImages/00000.jpg</path>  
  6.     <source>  
  7.         <database>Unknown</database>  
  8.     </source>  
  9.     <size>  
  10.         <width>704</width>  
  11.         <height>576</height>  
  12.         <depth>3</depth>  
  13.     </size>  
  14.     <segmented>0</segmented>  
  15.     <object>  
  16.         <name>person</name>  
  17.         <pose>Unspecified</pose>  
  18.         <truncated>0</truncated>  
  19.         <difficult>0</difficult>  
  20.         <bndbox>  
  21.             <xmin>73</xmin>  
  22.             <ymin>139</ymin>  
  23.             <xmax>142</xmax>  
  24.             <ymax>247</ymax>  
  25.         </bndbox>  
  26.     </object>  
  27.     <object>  
  28.         <name>person</name>  
  29.         <pose>Unspecified</pose>  
  30.         <truncated>0</truncated>  
  31.         <difficult>0</difficult>  
  32.         <bndbox>  
  33.             <xmin>180</xmin>  
  34.             <ymin>65</ymin>  
  35.             <xmax>209</xmax>  
  36.             <ymax>151</ymax>  
  37.         </bndbox>  
  38.     </object>  
  39.     <object>  
  40.         <name>person</name>  
  41.         <pose>Unspecified</pose>  
  42.         <truncated>0</truncated>  
  43.         <difficult>0</difficult>  
  44.         <bndbox>  
  45.             <xmin>152</xmin>  
  46.             <ymin>70</ymin>  
  47.             <xmax>181</xmax>  
  48.             <ymax>144</ymax>  
  49.         </bndbox>  
  50.     </object>  
  51. </annotation>  
注意filename中文件的文件名名沒有後綴,因此需要統一加上後綴。只需一段命令即可
[plain] view plain copy
  1. find -name '*.xml' |xargs perl -pi -e 's|</filename>|.jpg</filename>|g'  
在對應目錄下執行即可,這樣就可以把後綴添上。這樣就做按照VOC做好了我們的數據集,接下來就是放到算法中去訓練跑起來。

2.用YOLOv2訓練

1.生成相關文件

    按darknet的說明編譯好後,接下來在darknet-master/scripts文件夾中新建文件夾VOCdevkit,然後將整個VOC2007文件夾都拷到VOCdevkit文件夾下。
    然後,需要利用scripts文件夾中的voc_label.py文件生成一系列訓練文件和label,具體操作如下:
    首先需要修改voc_label.py中的代碼,這裏主要修改數據集名,以及類別信息,我的是VOC2007,並且所有樣本用來訓練,沒有val或test,並且只檢測人,故只有一類目標,因此按如下設置
[python] view plain copy
  1. import xml.etree.ElementTree as ET  
  2. import pickle  
  3. import os  
  4. from os import listdir, getcwd  
  5. from os.path import join  
  6.   
  7. #sets=[('2012', 'train'), ('2012', 'val'), ('2007', 'train'), ('2007', 'val'), ('2007', 'test')]  
  8.   
  9. #classes = ["aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor"]  
  10.   
  11. sets=[('2007''train')]  
  12. classes = [ "person"]  
  13.   
  14.   
  15. def convert(size, box):  
  16.     dw = 1./size[0]  
  17.     dh = 1./size[1]  
  18.     x = (box[0] + box[1])/2.0  
  19.     y = (box[2] + box[3])/2.0  
  20.     w = box[1] - box[0]  
  21.     h = box[3] - box[2]  
  22.     x = x*dw  
  23.     w = w*dw  
  24.     y = y*dh  
  25.     h = h*dh  
  26.     return (x,y,w,h)  
  27.   
  28. def convert_annotation(year, image_id):  
  29.     in_file = open('VOCdevkit/VOC%s/Annotations/%s.xml'%(year, image_id))  #(如果使用的不是VOC而是自設置數據集名字,則這裏需要修改)  
  30.     out_file = open('VOCdevkit/VOC%s/labels/%s.txt'%(year, image_id), 'w')  #(同上)  
  31.     tree=ET.parse(in_file)  
  32.     root = tree.getroot()  
  33.     size = root.find('size')  
  34.     w = int(size.find('width').text)  
  35.     h = int(size.find('height').text)  
  36.   
  37.     for obj in root.iter('object'):  
  38.         difficult = obj.find('difficult').text  
  39.         cls = obj.find('name').text  
  40.         if cls not in classes or int(difficult) == 1:  
  41.             continue  
  42.         cls_id = classes.index(cls)  
  43.         xmlbox = obj.find('bndbox')  
  44.         b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))  
  45.         bb = convert((w,h), b)  
  46.         out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')  
  47.   
  48. wd = getcwd()  
  49.   
  50. for year, image_set in sets:  
  51.     if not os.path.exists('VOCdevkit/VOC%s/labels/'%(year)):  
  52.         os.makedirs('VOCdevkit/VOC%s/labels/'%(year))  
  53.     image_ids = open('VOCdevkit/VOC%s/ImageSets/Main/%s.txt'%(year, image_set)).read().strip().split()  
  54.     list_file = open('%s_%s.txt'%(year, image_set), 'w')  
  55.     for image_id in image_ids:  
  56.         list_file.write('%s/VOCdevkit/VOC%s/JPEGImages/%s.jpg\n'%(wd, year, image_id))  
  57.         convert_annotation(year, image_id)  
  58.     list_file.close()  
修改好後在該目錄下運行命令:python voc_label.py,之後則在文件夾scripts\VOCdevkit\VOC2007下生成了文件夾lable,該文件夾下的畫風是這樣的

這裏包含了類別和對應歸一化後的位置(i guess,如有錯請指正)。同時在scripts\下應該也生成了train_2007.txt這個文件,裏面包含了所有訓練樣本的絕對路徑。

2.配置文件修改

      做好了上述準備,就可以根據不同的網絡設置(cfg文件)來訓練了。在文件夾cfg中有很多cfg文件,應該跟caffe中的prototxt文件是一個意思。這裏以tiny-yolo-voc.cfg爲例,該網絡是yolo-voc的簡版,相對速度會快些。主要修改參數如下

[plain] view plain copy
  1. .  
  2. .  
  3. .  
  4. [convolutional]  
  5. size=1  
  6. stride=1  
  7. pad=1  
  8. filters=30  //修改最後一層卷積層核參數個數,計算公式是依舊自己數據的類別數filter=num×(classes + coords + 1)=5×(1+4+1)=30  
  9. activation=linear  
  10.   
  11. [region]  
  12. anchors = 1.08,1.19,  3.42,4.41,  6.63,11.38,  9.42,5.11,  16.62,10.52  
  13. bias_match=1  
  14. classes=1  //類別數,本例爲1類  
  15. coords=4  
  16. num=5  
  17. softmax=1  
  18. jitter=.2  
  19. rescore=1  
  20.   
  21. object_scale=5  
  22. noobject_scale=1  
  23. class_scale=1  
  24. coord_scale=1  
  25.   
  26. absolute=1  
  27. thresh = .6  
  28. random=1  
另外也可根據需要修改learning_rate、max_batches等參數。這裏歪個樓吐槽一下其他網絡配置,一開始是想用tiny.cfg來訓練的官網作者說它夠小也夠快,但是它的網絡配置最後幾層是這樣的畫風:

[html] view plain copy
  1. [convolutional]  
  2. filters=1000  
  3. size=1  
  4. stride=1  
  5. pad=1  
  6. activation=linear  
  7.   
  8. [avgpool]  
  9.   
  10. [softmax]  
  11. groups=1  
  12.   
  13. [cost]  
  14. type=sse  
這裏沒有類別數,完全不知道怎麼修改,強行把最後一層卷積層卷積核個數修改又跑不通會出錯,如有大神知道還望賜教。

      Back to the point。修改好了cfg文件之後,就需要修改兩個文件,首先是data文件下的voc.names。打開voc.names文件可以看到有20類的名稱,本例中只有一類,檢測人,因此將原來所有內容清空,僅寫上person並保存。名字仍然用這個名字,如果喜歡用其他名字則請按一開始製作自己數據集的時候的名字來修改。

      接着需要修改cfg文件夾中的voc.data文件。也是按自己需求修改,我的修改之後是這樣的畫風:

[plain] view plain copy
  1. classes= 1  //類別數  
  2. train  = /home/kinglch/darknet-master/scripts/2007_train.txt  //訓練樣本的絕對路徑文件,也就是上文2.1中最後生成的  
  3. //valid  = /home/pjreddie/data/voc/2007_test.txt  //本例未用到  
  4. names = data/voc.names  //上一步修改的voc.names文件  
  5. backup = /home/kinglch/darknet-master/results/  //指示訓練後生成的權重放在哪  
修改後按原名保存最好,接下來就可以訓練了。

ps:yolo v1中這些細節是直接在源代碼的yolo.c中修改的,源代碼如下

比如這裏的類別,訓練樣本的路徑文件和模型保存路徑均在此指定,修改後從新編譯。而yolov2似乎擯棄了這種做法,所以訓練的命令也與v1版本的不一樣。

3.運行訓練

      上面完成了就可以命令訓練了,可以在官網上找到一些預訓練的模型作爲參數初始值,也可以直接訓練,訓練命令爲

[plain] view plain copy
  1. $./darknet detector train ./cfg/voc.data cfg/tiny-yolo-voc.cfg  
如果用官網的預訓練模型darknet.conv.weights做初始化,則訓練命令爲

[plain] view plain copy
  1. $./darknet detector train ./cfg/voc.data .cfg/tiny-yolo-voc.cfg darknet.conv.weights  
不過我沒試成功,加上這個模型直接就除了final,不知道啥情況。當然也可以用自己訓練的模型做參數初始化,萬一訓練的時候被人終端了,可以再用訓練好的模型接上去接着訓練。

      訓練過程中會根據迭代次數保存訓練的權重模型,然後就可以拿來測試了,測試的命令同理:

./darknet detector test cfg/voc.data cfg/tiny-yolo-voc.cfg results/tiny-yolo-voc_6000.weights data/images.jpg
      這樣就完成了整個流程,目前測試感覺同種網絡v2版本似乎比v1版本慢很多,莫非是爲了精度的提高犧牲了部分速度。然而我需要的是速度,這個就尷尬了。
      初學yolo,如有問題歡迎加我q675143196討論交流.

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章