這篇論文自己還不是特別理解,僅記錄自己的看法。
參考鏈接:https://blog.csdn.net/weixin_42402739/article/details/101449921
1.首先,作者提出了一些現有的問題:
太繁瑣的註釋會對標籤造成額外的錯誤
病竈邊緣不清晰
CAD受到圖像成像協議和噪聲影響
標註成本高
結合以上問題和目前的乳腺癌診斷需求,作者提出了稱爲卷積神經網絡的乳腺癌分類改進算法(CNNI-BCC),以幫助醫學專家及時通過X線攝影診斷乳腺癌。 CNNI-BCC使用卷積神經網絡來改善乳腺癌病變分類,以幫助專家診斷乳腺癌。達到的敏感性,準確性,AUC和特異性分別爲89.47%,90.50%,0.901±0.0314和90.71%。
2.主要貢獻有:
提出分類效果很好的神經網絡;
Interactive detection based lesion locator (IDBLL),也就是建議通過設計的基於交互檢測的病變定位器(IDBLL)檢測病變。
3.論文方法的優點有:
(1)將圖像分解爲補丁;
(2)基於補丁的方法允許通過遮蓋某些區域來處理圖像中的非矩形區域,而只需從集合中排除補丁即可;
(3)組合的預訓練的CNN可以對小數據集進行訓練;
(4)提出的CNNI-BCC利用補丁特徵相關性來檢測和分類病變區域和類別。
4.方法
(a) feature wise pre-processing (FWP), 這一部分指的是數據預處理,作者對圖像進行了patch劃分和旋轉,因此每張圖像會產生8個patch,完整圖像是1024*1024,patch是128*128;
(b) convolutional neural network (CNN) -based classification (CNNBS);在卷積的過程中,作者用到了depth separable convolution,分爲:depth wise卷積和point wise卷積。DW完成後feature map數量等於通道數,單獨對每個通道卷積沒有很好利用不同通道上的相同空間的feature,所以PW來組合生成新的特徵。
(c) interactive detection based lesion locator (IDBLL). 作者採用默認邊界框與註釋匹配,以在區域中給出正值。 因此,背景和非相關區域被給予負強度值。這樣可以區分乳腺區域和背景。