原创 基於幾何中位數的通道剪枝——Filter Pruning via Geometric Median

"Filter Pruning via Geometric Median for Deep Convolutional Neural Networks Acceleration" 這篇文章開門見山地指出了"smaller-norm-les

原创 通過訓練獲得最優量化區間——Quantization Interval Learning

"Learning to Quantize Deep Networks by Optimizing Quantization Intervals with Task Loss" 這篇文章提出了通過訓練獲得最優量化器的方法(QIL: Qua

原创 基於對抗生成的結構剪枝——Generative Adversarial Learning

"Towards Optimal Structured CNN Pruning via Generative Adversarial Learning" 這篇文章提出了非常新穎的結構剪枝策略:基於生成對抗的思路,將剪枝網絡設置爲生成器(G

原创 MXNet的高效率CUDA NMS解析

非極大抑制(NMS:Non Maximum Suppression)起到邊框(水平框或傾斜框)去重疊的作用。MXNet的MultiBoxDetection涉及的NMS,體現了非常高的計算效率,API調用接口: mx.contrib.nda

原创 The Lottery Ticket Hypothesis: 尋找最優子網絡結構

"The Lottery Ticket Hypothesis Finding Sparse, Trainable Neural Networks" 這篇文章提出了Lottery Ticket Hypothesis,認爲較複雜的深度神經網絡

原创 基於連接重要性的稀疏剪枝

"SNIP: single shot network pruning based on connection sensitivity" 這篇文章提出了基於權重連接重要性(saliency)的剪枝方法,能夠在深度模型訓練之前(初始化階段),

原创 PeleeNet——一種面向實時應用的精簡CNN結構

Pelee: A Real-Time Object Detection System on Mobile Devices 1、Pelee分類網絡 PeleeNet是一種基於Densenet的輕量化網絡變體(variant),主要面向移動端

原创 ThiNet——基於Greedy Method與最小化重建誤差的Channel Selection

  "ThiNet: A Filter Level Pruning Method for Deep Neural Network Compression"這篇文章的主要貢獻包括:1)基於貪心策略與最小化重建誤差,設計了ThiNet剪枝方法

原创 鑑別力感知的通道剪枝——Discrimination-aware Channel Pruning

"Discrimination-aware Channel Pruning for Deep Neural Networks"這篇文章首先認爲通道剪枝能夠確保剪枝後模型與現有深度學習框架兼容,避免非規整的稀疏運算。其次基於訓練的通道剪枝策

原创 在線多分支融合——Knowledge Distillation by On-the-Fly Native Ensemble

"Knowledge Distillation by On-the-Fly Native Ensemble"這篇文章基於給定的基礎網絡(如Resnet等),通過在網絡深層次構造多分支結構,且每個分支作爲學生網絡,能夠融合生成推理性能更強的

原创 Bi-Real Net——XNOR-net的增強與演進(Binary Neural Network)

"Bi-Real Net: Enhancing the Performance of 1bit CNNs with Improved Representational Capacity and Advanced Training Algo

原创 目標檢測網絡的知識蒸餾

"Learning Efficient Object Detection Models with Knowledge Distillation"這篇文章通過知識蒸餾(Knowledge Distillation)與Hint指導學習(Hin

原创 結合量化的知識蒸餾(Quantization Mimic)

"Quantization Mimic Towards Very Tiny CNN for Object Detection"這篇文章通過將知識蒸餾(Knowledge Distillation)與量化技術(Model Quantizat

原创 Channel Pruning的軟化策略——允許更新Pruned Filter

 "Soft Filter Pruning for Accelerating Deep Convolutional Neural Networks"這篇文章首先強調了結構稀疏的優勢,基於結構稀疏的channel pruning不需要特定存

原创 ABCnet——高精度二值化網絡(Binary Net)

"Towards Accurate Binary Convolutional Neural Network"這篇文章提出了ABCnet,是一種表示精度較高的二值化網絡結構(作爲XNORnet的演進)。有關XNORnet及其優勢可以參考論文