Multitask Classification of Breast Cancer Pathological Images Using SE-DenseNet

摘要:

本文采用密集連接的卷積網絡(DenseNet)結構,吸收SeNet,對一組蘇木精和伊紅(H&E)染色乳腺組織學顯微鏡 Camelyon16 進行多任務分類。全幻燈片圖像(WSI)通常存儲在多分辨率金字塔中,我們的數據集包含Camelyon16 在*5、*20、*40,三倍放大率下的patches。 我們的多任務是通過連接同一網絡末端的兩個分類器來識別patches的放大率並區分提取的patch是否屬於WSI的轉移性腫瘤區域。無論是在多任務還是單任務上,我們的網絡都表現出了良好的性能,SE-DenseNet-40在CIFAR-10上的準確率更是達到了92.92%。

METHODOLOGY

我們自己設計的四個網絡:DenseNet-22, DenseNet-40, SEDenseNet-22, SE-DenseNet-40

轉移學習:DenseNet-121、DenseNet-169、DenseNet-201來檢測Camelyon16的轉移瘤區域。

轉移學習的訓練方法:

第一種:轉移學習通過使用pre-trained densenet - 121    densenet - 169      densenet - 201(所有三個網絡沒有最高層)分別在我們的數據集上提取特徵,然後訓練一個新的2類分類小網絡(兩個FC層1024和2節點)。

第二種:去掉預先訓練好的網絡的最後一個FC層,用兩個新的FC層(1024和2個節點)替代。在兩個新的FC層之前凍結所有層,然後在我們的數據集上進行訓練。與第一種方法相比,第二種方法的效率很低,因爲每個patch都要迭代幾次。

三個任務:

第一個:要求將(每次放大後的)數據集的patch分爲兩類:轉移性腫瘤補片和正常補片。應用經典的數據集CIFAR-10訓練我們的四個網絡來驗證網絡的性能。

第二個:與第一個一樣分爲兩類,唯一的區別在於,訓練集是三個不同的放大下的和的數據集

第三個:首先在每個放大了的訓練集上添加一個額外的標籤來描述放大率(5 is 0,20 is 1,40 is 2),然後混合組成新的數據集。與前兩個任務的網絡架構相比,在網絡末尾添加了一個three-class分類器,這個分類器將放大倍數分爲三類:*5,*20和*40。訓練損失是兩個分類器損失的總和, 損失的權重設置爲超參數。

Model

6 convolutional layers of DenseNet-22

SE-DenseNet: 

 

注:我們在SE-DenseNet-22和SE-DenseNet-40中應用SE-PRE塊[3]。

SEDense block見下圖:

多任務分類框架的SE-DenseNet-22體系結構見下圖。

 

黃色塊表示卷積層,紫色塊表示圖3所示的SE層,,紅色塊表示圖2所示的SE層。綠色塊表示轉換塊,每個轉換塊由一個卷積層和一個池化層組成。藍色塊表示池化層。Linear是線性分類器,輸入是網絡中生成的特徵,輸出是輸入patch的標籤。與SE-DenseNet相比,DenseNet中不存在SE層。

block==3,growth rate==12(growth rate是指與前一個convolutional layer相比在當前的convolutional layer中加入的filter的數量)因爲我們四個network都是爲了防止network增長的太寬,提高parameter efficiency 。

每個dense block 或SE-dense block包含相同數量的卷積層,每個block的卷積層數等於(N-4)/3,(N爲網絡的總層數,分別設置爲22和40)。dense block和SE-dense block的唯一區別是在SE-dense block中每兩個卷積層之前添加一個SE層。

初始濾波器數量是指在我們的四個網絡中將第一個dense block設置爲24之前,開始卷積層的濾波器數量。

Dataset

訓練數據集包含兩個部分

第一個訓練數據集包含170個WSIs of lymph node(100個正常的載玻片和70個有轉移的載玻片)

第二個訓練數據集包含100個WSIs(60個正常的載玻片和40個有轉移的載玻片)。

patches: *5    128×128 pixels       24919 patches         80%  20%

             *20   256 ×256 pixels      111008 patches        90% 10%

             *40   256 ×256 pixels      136744 patches        90% 10%

Training

我們首先在三次放大下分別對我們的四個網絡在CIFAR-10和Camelyon16訓練,然後在Camelyon16上應用轉移學習。

第二個任務,首先應該將128*128個補丁調整爲256*256,與256*256個補丁混合在一起,形成新的訓練集來訓練我們的四個網絡。

第三個任務:根據第二個任務生成的訓練數據,我們*5= 0,*20=1,*40=2,然後應用新的數據集來訓練我們的多任務分類模型。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章