3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation

Refs: 3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation

1.簡介

  • 目的:對稀疏標籤的立體圖像進行分割。
    - 半自動化:標記一部分slices,網絡根據稀疏的標記自動學習一個稠密分割網絡。
    - 全自動化:選擇有代表性的稀疏標記訓練集已經訓練好的網絡,其可以在新的未標記的3D圖像上進行稠密分割。
    在這裏插入圖片描述

  • 方法:本文提出的網絡將U-net架構中的2D操作全都替換成3D。此實現有效地在訓練時進行數據增強,並且是端對端無需預訓練網絡。

  • 效果:在複雜、高度可變的3D結構中進行了測試,Xenopus kidney在兩種cases上取得了不錯的結果。

2.相關

  • 3D醫學數據標記困難,重複性工作較多,對3D圖像每個圖像都進行標記不是個有效的方法。
  • 在許多生物醫學應用中,只需要很少的圖像就可以訓練出一個能夠很好地泛化的網絡。這是因爲每個圖像已經包含了重複的結構,並具有相應的變化。3D圖像更是這樣。
  • 加權損失函數和特殊的數據擴充使我們能夠只用很少的已標記的slices來訓練網絡。

3.網絡結構

在這裏插入圖片描述

  • The input to the network is a 132132116 voxel tile of the image with 3
    channels. Our output in the nal layer is 444428 voxels in x, y, and z directions
    respectively. With a voxel size of 1.761.762:04um3, the approximate receptive
    eld becomes 155155180um3 for each voxel in the predicted segmentation.
    Thus, each output voxel has access to enough context to learn eciently.
  • 數據:three samples of Xenopus kidney embryos
  • 標籤:labels 0: inside the tubule; 1:tubule; 2: background, and 3: unlabeled.
  • 輸入樣本:the data sizes used in the experiments are 24824464, 24524456 and24624459 in xyz dimensions for our sample 1, 2, and 3。
  • 70000訓練迭代次數,3天

4.實驗

  • The IoU is dened as true positives/(true positives + false negatives + false positives).
  • 半自動化分割:通過標記一部分來分割整個圖
    - 與純2D實現進行對比
    在這裏插入圖片描述
    • slices個數影響
      在這裏插入圖片描述
    • 全自動分割:使用兩個部分標註的圖像訓練,分割第三個圖像。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章