前天YOLOv4終於問世——
YOLO v4 論文:https://arxiv.org/abs/2004.10934
YOLO v4 開源代碼:https://github.com/AlexeyAB/darknet
效果相比YOLOv3和去年的EfficientDet系列提升明顯。這裏使用tensorflow model的測試圖片對官方給出的COCO數據集訓練的模型測試對比:
分別是YOLOv3和YOLOv4的測試結果,可以看到提升還是很明顯的,特別是小目標的識別效果,不枉論文吹B的:
Improves YOLOv3’s AP and FPS by 10% and 12%, respectively
論文細節還在研究中,後面有空更新。我也第一時間使用YOLOv4訓練了自己數據集。
具體的步驟和YOLOv3一模一樣,需要下載backbone的權重:https://github.com/AlexeyAB/darknet#how-to-compile-on-linux-using-make中for yolov4.cfg
, yolov4-custom.cfg
(162 MB)。
因爲我沒有梯子,能下載的兄弟請傳個百度網盤分享交流。這裏在網上只能找到別人分享的yolov4.weights文件,於是提取了yolov4.weights模型的backbone參數作爲backbone部分的預訓練模型。
訓練自己數據集只需要修改yolov4-custom.cfg中三處的:
[convolutional]
size=1
stride=1
pad=1
filters=${3×(自己數據集類別+5)} #例如COCO是3×(80+5)=255
activation=linear
[yolo]
mask = 3,4,5
anchors = 12, 16, 19, 36, 40, 28, 36, 75, 76, 55, 72, 146, 142, 110, 192, 243, 459, 401
classes=${自己數據集類別} #例如COCO是80
num=9
jitter=.3
ignore_thresh = .7
truth_thresh = 1
scale_x_y = 1.1
iou_thresh=0.213
cls_normalizer=1.0
iou_normalizer=0.07
iou_loss=ciou
nms_kind=greedynms
beta_nms=0.6
詳細準備工作參考https://pjreddie.com/darknet/yolo/中Training YOLO on VOC章節。
準備好後既可以開始訓練: