利用Hog特徵和SVM分類器進行行人檢測

轉載地址:http://blog.csdn.net/liulina603/article/details/8191570

 

  之前介紹過Hog特徵(http://blog.csdn.net/carson2005/article/details/7782726),也介紹過SVM分類器(http://blog.csdn.net/carson2005/article/details/6453502 );而本文的目的在於介紹利用Hog特徵和SVM分類器來進行行人檢測。

        在2005CVPR上,來自法國的研究人員Navneet Dalal Bill Triggs提出利用Hog進行特徵提取,利用線性SVM作爲分類器,從而實現行人檢測。而這兩位也通過大量的測試發現,Hog+SVM是速度和效果綜合平衡性能較好的一種行人檢測方法。後來,雖然很多研究人員也提出了很多改進的行人檢測算法,但基本都以該算法爲基礎框架。因此,Hog+SVM也成爲一個里程錶式的算法被寫入到OpenCV中。在OpenCV2.0之後的版本,都有Hog特徵描述算子的API,而至於SVM,早在OpenCV1.0版本就已經集成進去了;OpenCV雖然提供了HogSVMAPI,也提供了行人檢測的sample,遺憾的是,OpenCV並沒有提供樣本訓練的sample。這也就意味着,很多人只能用OpenCV自帶的已經訓練好的分類器來進行行人檢測。然而,OpenCV自帶的分類器是利用Navneet DalalBill Triggs提供的樣本進行訓練的,不見得能適用於你的應用場合。因此,針對你的特定應用場景,很有必要進行重新訓練得到適合你的分類器。本文的目的,正在於此。

重新訓練行人檢測的流程:

(1)準備訓練樣本集合;包括正樣本集和負樣本集;根據機器學習的基礎知識我們知道,要利用機器學習算法進行樣本訓練,從而得到一個性能優良的分類器,訓練樣本應該是無限多的,而且訓練樣本應該覆蓋實際應用過程中可能發生的各種情況。(很多朋友,用10來個正樣本,10來個負樣本進行訓練,之後,就進行測試,發現效果沒有想象中的那麼好,就開始發牢騷,抱怨。。。對於這些人,我只能抱歉的說,對於機器學習、模式識別的認識,你還處於沒有入門的階段);實際應用過程中,訓練樣本不可能無限多,但無論如何,三五千個正樣本,三五千個負樣本,應該不是什麼難事吧?(如果連這個都做不到,建議你別搞機器學習,模式識別了;訓練素材都沒有,怎麼讓機器學習到足夠的信息呢?)

(2)收集到足夠的訓練樣本之後,你需要手動裁剪樣本。例如,你想用Hog+SVM來對商業步行街的監控畫面中進行行人檢測,那麼,你就應該用收集到的訓練樣本集合,手動裁剪畫面中的行人(可以寫個簡單程序,只需要鼠標框選一下,就將框選區域保存下來)。

(3)裁剪得到訓練樣本之後,將所有正樣本放在一個文件夾中;將所有負樣本放在另一個文件夾中;並將所有訓練樣本縮放到同樣的尺寸大小。OpenCV自帶的例子在訓練時,就是將樣本縮放爲64*128進行訓練的;

(4)提取所有正樣本的Hog特徵;

(5)提取所有負樣本的Hog特徵;

(6)對所有正負樣本賦予樣本標籤;例如,所有正樣本標記爲1,所有負樣本標記爲0

(7)將正負樣本的Hog特徵,正負樣本的標籤,都輸入到SVM中進行訓練;Dalal在論文中考慮到速度問題,建議採用線性SVM進行訓練。這裏,不妨也採用線性SVM

(8)SVM訓練之後,將結果保存爲文本文件。

(9)線性SVM進行訓練之後得到的文本文件裏面,有一個數組,叫做support vector,還有一個數組,叫做alpha,有一個浮點數,叫做rho;alpha矩陣同support vector相乘,注意,alpha*supportVector,將得到一個列向量。之後,再該列向量的最後添加一個元素rho。如此,變得到了一個分類器,利用該分類器,直接替換opencv中行人檢測默認的那個分類器(cv::HOGDescriptor::setSVMDetector()),就可以利用你的訓練樣本訓練出來的分類器進行行人檢測了。

下面給出樣本訓練的參考代碼:

class Mysvm: public CvSVM
{
public:
 int get_alpha_count()
 {
  return this->sv_total;
 }

 int get_sv_dim()
 {
  return this->var_all;
 }

 int get_sv_count()
 {
  return this->decision_func->sv_count;
 }

 double* get_alpha()
 {
  return this->decision_func->alpha;
 }

 float** get_sv()
 {
  return this->sv;
 }

 float get_rho()
 {
  return this->decision_func->rho;
 }
};

void Train()
{
 char classifierSavePath[256] = "c:/pedestrianDetect-peopleFlow.txt";

 string positivePath = "E:\\pictures\\train1\\pos\\";
 string negativePath = "E:\\pictures\\train1\\neg\\";

 int positiveSampleCount = 4900;
 int negativeSampleCount = 6192;
 int totalSampleCount = positiveSampleCount + negativeSampleCount;

 cout<<"//////////////////////////////////////////////////////////////////"<<endl;
 cout<<"totalSampleCount: "<<totalSampleCount<<endl;
 cout<<"positiveSampleCount: "<<positiveSampleCount<<endl;
 cout<<"negativeSampleCount: "<<negativeSampleCount<<endl;

 CvMat *sampleFeaturesMat = cvCreateMat(totalSampleCount , 1764, CV_32FC1);
 //64*128的訓練樣本,該矩陣將是totalSample*3780,64*64的訓練樣本,該矩陣將是totalSample*1764
 cvSetZero(sampleFeaturesMat); 
 CvMat *sampleLabelMat = cvCreateMat(totalSampleCount, 1, CV_32FC1);//樣本標識 
 cvSetZero(sampleLabelMat); 

 cout<<"************************************************************"<<endl;
 cout<<"start to training positive samples..."<<endl;

 char positiveImgName[256];
 string path;
 for(int i=0; i<positiveSampleCount; i++) 
 { 
  memset(positiveImgName, '\0', 256*sizeof(char));
  sprintf(positiveImgName, "%d.jpg", i);
  int len = strlen(positiveImgName);
  string tempStr = positiveImgName;
  path = positivePath + tempStr;

  cv::Mat img = cv::imread(path);
  if( img.data == NULL )
  {
   cout<<"positive image sample load error: "<<i<<" "<<path<<endl;
   system("pause");
   continue;
  }

  cv::HOGDescriptor hog(cv::Size(64,64), cv::Size(16,16), cv::Size(8,8), cv::Size(8,8), 9);
  vector<float> featureVec;

  hog.compute(img, featureVec, cv::Size(8,8)); 
  int featureVecSize = featureVec.size();

  for (int j=0; j<featureVecSize; j++) 
  {    
   CV_MAT_ELEM( *sampleFeaturesMat, float, i, j ) = featureVec[j];
  } 
  sampleLabelMat->data.fl[i] = 1;
 }
 cout<<"end of training for positive samples..."<<endl;

 cout<<"*********************************************************"<<endl;
 cout<<"start to train negative samples..."<<endl;

 char negativeImgName[256];
 for (int i=0; i<negativeSampleCount; i++)
 { 
  memset(negativeImgName, '\0', 256*sizeof(char));
  sprintf(negativeImgName, "%d.jpg", i);
  path = negativePath + negativeImgName;
  cv::Mat img = cv::imread(path);
  if(img.data == NULL)
  {
   cout<<"negative image sample load error: "<<path<<endl;
   continue;
  }

  cv::HOGDescriptor hog(cv::Size(64,64), cv::Size(16,16), cv::Size(8,8), cv::Size(8,8), 9); 
  vector<float> featureVec;

  hog.compute(img,featureVec,cv::Size(8,8));//計算HOG特徵
  int featureVecSize = featureVec.size(); 

  for ( int j=0; j<featureVecSize; j ++) 
  { 
   CV_MAT_ELEM( *sampleFeaturesMat, float, i + positiveSampleCount, j ) = featureVec[ j ];
  } 

  sampleLabelMat->data.fl[ i + positiveSampleCount ] = -1;
 } 

 cout<<"end of training for negative samples..."<<endl;
 cout<<"********************************************************"<<endl;
 cout<<"start to train for SVM classifier..."<<endl;

 CvSVMParams params; 
 params.svm_type = CvSVM::C_SVC; 
 params.kernel_type = CvSVM::LINEAR; 
 params.term_crit = cvTermCriteria(CV_TERMCRIT_ITER, 1000, FLT_EPSILON);
 params.C = 0.01;

 Mysvm svm;
 svm.train( sampleFeaturesMat, sampleLabelMat, NULL, NULL, params ); //用SVM線性分類器訓練
 svm.save(classifierSavePath);

 cvReleaseMat(&sampleFeaturesMat);
 cvReleaseMat(&sampleLabelMat);

 int supportVectorSize = svm.get_support_vector_count();
 cout<<"support vector size of SVM:"<<supportVectorSize<<endl;
 cout<<"************************ end of training for SVM ******************"<<endl;

 CvMat *sv,*alp,*re;//所有樣本特徵向量
 sv  = cvCreateMat(supportVectorSize , 1764, CV_32FC1);
 alp = cvCreateMat(1 , supportVectorSize, CV_32FC1);
 re  = cvCreateMat(1 , 1764, CV_32FC1);
 CvMat *res  = cvCreateMat(1 , 1, CV_32FC1);

 cvSetZero(sv);
 cvSetZero(re);
 
 for(int i=0; i<supportVectorSize; i++)
 {
  memcpy( (float*)(sv->data.fl+i*1764), svm.get_support_vector(i), 1764*sizeof(float)); 
 }

 double* alphaArr = svm.get_alpha();
 int alphaCount = svm.get_alpha_count();

 for(int i=0; i<supportVectorSize; i++)
 {
        alp->data.fl[i] = alphaArr[i];
 }
 cvMatMul(alp, sv, re);

 int posCount = 0;
 for (int i=0; i<1764; i++)
 {
  re->data.fl[i] *= -1;
 }

 FILE* fp = fopen("c:/hogSVMDetector-peopleFlow.txt","wb");
 if( NULL == fp )
 {
  return 1;
 }
 for(int i=0; i<1764; i++)
 {
  fprintf(fp,"%f \n",re->data.fl[i]);
 }
 float rho = svm.get_rho();
 fprintf(fp, "%f", rho);
 cout<<"c:/hogSVMDetector.txt 保存完畢"<<endl;//保存HOG能識別的分類器
 fclose(fp);

 return 1;
}

接着,再給出利用訓練好的分類器進行行人檢測的參考代碼:

void Detect()
{
 CvCapture* cap = cvCreateFileCapture("E:\\02.avi");
 if (!cap)
 {
  cout<<"avi file load error..."<<endl;
  system("pause");
  exit(-1);
 }

 vector<float> x;
 ifstream fileIn("c:/hogSVMDetector-peopleFlow.txt", ios::in);
 float val = 0.0f;
 while(!fileIn.eof())
 {
  fileIn>>val;
  x.push_back(val);
 }
 fileIn.close();

 vector<cv::Rect>  found;
 cv::HOGDescriptor hog(cv::Size(64,64), cv::Size(16,16), cv::Size(8,8), cv::Size(8,8), 9);
 hog.setSVMDetector(x);

 IplImage* img = NULL;
 cvNamedWindow("img", 0);
 while(img=cvQueryFrame(cap))
 {
  hog.detectMultiScale(img, found, 0, cv::Size(8,8), cv::Size(32,32), 1.05, 2);
  if (found.size() > 0)
  {

   for (int i=0; i<found.size(); i++)
   {
    CvRect tempRect = cvRect(found[i].x, found[i].y, found[i].width, found[i].height);

    cvRectangle(img, cvPoint(tempRect.x,tempRect.y),
     cvPoint(tempRect.x+tempRect.width,tempRect.y+tempRect.height),CV_RGB(255,0,0), 2);
   }
  }
 }
 cvReleaseCapture(&cap);
}

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章