作者:Haofu Liao, University of Rochester
metal artifact reduction(MAR)
Intro
CT影像的MAR一般是需要合成數據來進行訓練,然而合成影像並不能完美反應真實CT的物理特性。本文首次提出利用無監督學習來做MAR,具體地,文章使用了disentanglement network,將影像解耦到common content 空間和artifact 空間。
Method
如下圖所示,與爲不成對的artifact-affected影像和artifact-free影像,與分別將它們編碼到common content 空間,而將編碼artifact 空間。後續網絡基本上就是disentanglement的一般套路,用不同domain的影像解耦後的編碼,1、直接恢復,計算重建誤差;2、交叉組合兩個空間code合成cross-domain的新影像,用鑑別器D進行鑑別。
值得一提的是這裏的,定義如下,即保證對影像合成的影像是儘可能一致的。(有的文章是在合成影像之後再進行編碼,直接比較code的差異)
總的loss如下:
Results
artifact-free CT數據:deeplesion數據集