原创 Tools:IOU、NMS、RAdam、one-hot

Tools:IOU、NMS、RAdam、one-hot ▶IOU def iou(box, boxes, isMin = False): area = (box[2] - box[0]) * (box[3] - box[1])

原创 人臉識別-arcface損失函數

人臉識別-arcface損失函數(arcLoss、insight Loss) 參考博客: L-margin softmax loss: https://blog.csdn.net/u014380165/article/detail

原创 神經網絡打印模型參數及參數名字和數量

神經網絡打印模型參數及參數名字和數量 在設計和優化神經網絡模型性能時,很多時候需要考慮模型的參數量和計算複雜度,下面一個栗子可以幫助我們快速查看模型的參數。 ** 舉個栗子,如有錯誤,歡迎大家批評指正 ** 本文鏈接:神經網絡打印

原创 Python解析Json文件

Python解析Json文件 寫在前面   在項目開發中,難免會遇到需要解析別人發過來的Json文件或將自己的輸出打包成Json發生給別人,(尤其是做算法,50%-70%的工作量都在數據處理,而數據標註文件大多是Json、XML、

原创 神經網絡中的梯度爆炸

神經網絡中的梯度爆炸 參考文章:https://blog.csdn.net/Uwr44UOuQcNsUQb60zk2/article/details/78877974 一、什麼事梯度爆炸? “梯度爆炸指神經網絡訓練過程中大的誤差梯

原创 分類器ArcFace、ArcLoss在MNIST數據集上的實現和效果

分類器ArcFace、ArcLoss在MNIST數據集上的實現和效果 寫在前面:   前一篇文章(電梯直達)給大家介紹了CenterLoss,本文將帶領大家認識一下ArcFace(ArcLoss、Insightface),並在MN

原创 Darknet53網絡結構圖及代碼實現

Darknet53網絡結構圖及代碼實現 本文鏈接: https://blog.csdn.net/leiduifan6944/article/details/104857968 Darknet是最經典的一個深層網絡,結合Resne

原创 長短期記憶網絡LSTM識別驗證碼、車牌識別

長短期記憶網絡LSTM、驗證碼識別、車牌識別 關於LSTM的介紹和認識,可以參考這篇文章 長短期記憶網絡LSTM:https://blog.csdn.net/eagleuniversityeye/article/details/9

原创 神經網絡同時優化兩個模型的參數/加載兩個模型的參數

神經網絡同時優化兩個模型的參數/加載兩個模型的參數 框架:Pytorch 以Adam爲例 一、傳參和優化 1、傳入/優化一個模型的參數: opt= torch.optim.Adam(model_1.parameters) 2、同

原创 Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition、SPP-Net、空間金字塔池化

空間金字塔池化 Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition、SPP-Net、空間金字塔池化 一、相關理論   本篇博文

原创 CSDN博客編輯時換行、空白

CSDN博客編輯時換行、空白 空白一、1    2 空白二、1    2 空白三、1    2 &emsp; 空白一 &#8195;空白二 &nbsp;空白三 1.5倍行距段落1< p> 1.5倍行距段落2< p> 單倍行距換行1

原创 多類別多目標檢測YOLOv3網絡結構圖(注:只是網絡結構圖,勿噴)

多類別多目標檢測YOLOv3網絡結構圖(注:只是網絡結構圖,勿噴) YOLOv3網絡框架:DarkNet53特徵提取器 + 後面偵測網絡 DarkNet53網絡的實現代碼見我這篇博文:Darknet53網絡結構圖及代碼實現, 後面

原创 CenterLoss在MNIST上的實現

MNIST特徵提取解釋圖像識別之CenterLoss 一、提出問題        在圖像識別中,一個很關鍵的要素就是圖像中提取出來的特徵,它關乎着圖像識別的精準度。而通常用的softmax輸出函數提取到的特徵之間往往接的很緊,無太

原创 多GPU跑神經網絡

多GPU跑神經網絡 鏈接: https://www.jiqizhixin.com/articles/2018-10-17-11

原创 BN層的主要作用

BN層的主要作用 BN層的作用主要有三個:加快網絡的訓練和收斂的速度控制梯度爆炸防止梯度消失防止過擬合分析:(1)加快收斂速度:在深度神經網絡中中,如果每層的數據分佈都不一樣的話,將會導致網絡非常難收斂和訓練,而如果把 每層的數