用來3D MRI和CT掃描的深度學(xué)習(xí)模型總結(jié)
醫(yī)學(xué)成像信息與其余咱們平常圖片的最大差別之一是它們許多全是3D的,例如在處置DICOM系列信息時(shí)特別這樣。DICOM圖片由許多的2D切片構(gòu)成了1個(gè)掃描或肌體的特定部分。
那么怎樣為這種信息建立深度學(xué)習(xí)解決計(jì)劃呢?在本文中將向您簡介6種神經(jīng)網(wǎng)絡(luò)架構(gòu),可以應(yīng)用它們來訓(xùn)練3D醫(yī)療信息上的深度學(xué)習(xí)模型。3 d U-Net
U-Net系統(tǒng)構(gòu)造是一類強(qiáng)大的醫(yī)學(xué)圖片分割模型。3D U-Net將經(jīng)典的U-Net模型擴(kuò)展到3D分割。它由編碼(下采樣)路徑妥協(xié)碼(上采樣)路徑構(gòu)成。
編碼路徑捕捉輸入圖片中的上下文,而解碼路徑容許準(zhǔn)確定位。3D U-Net在處置體積圖片的3D特征方面十分有效。
V-Net架構(gòu)是另一類用來體積圖片分割的3D卷積神經(jīng)網(wǎng)絡(luò)。與U-Net相似,V-Net有1個(gè)編碼器-解碼器架構(gòu),但它應(yīng)用全辨別率3D卷積,因此它比U-Net計(jì)算本錢更高。
它應(yīng)用一系列帶有殘差連通的3D卷積層。該模型是端到端訓(xùn)練的,可以一次處置全部3D圖片。
EfficientNet3D
這是對EfficientNet架構(gòu)的3D改善,它不像U-Net或V-Net那樣常用來3D分割,但假設(shè)計(jì)算資源有限,它是可以參考的,由于它在計(jì)算本錢和功能之間的優(yōu)良衡量。
這是U-Net的一類變體,它含蓋了1個(gè)注重力體制,容許網(wǎng)絡(luò)將注重力集中在與手頭任務(wù)更有關(guān)的圖片的某類部分。
這是1個(gè)應(yīng)用雙路徑的3D CNN,1個(gè)是常態(tài)辨別率,另1個(gè)是下采樣輸入,如此可以結(jié)合局部和更大的上下文數(shù)據(jù)。
總結(jié)
本文中,咱們簡介了醫(yī)學(xué)成像領(lǐng)域在處置3D MRI和CT掃描時(shí)應(yīng)用的許多深度學(xué)習(xí)模型。這類神經(jīng)網(wǎng)絡(luò)被設(shè)計(jì)拿來接收3D信息作為輸入,以學(xué)習(xí)DICOM系列肌體特定部位的高難性。
下列是本文一切模型設(shè)計(jì)的論文,假設(shè)你感興致,可以直接查閱論文了解更全面的數(shù)據(jù)
[1] 3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation
[2] V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation
[3] Deep learning-based metal artifact reduction in PET/CT imaging
[4] A modified 3D EfficientNet for the classification of Alzheimer’s disease using structural magnetic resonance images
[5] Attention U-Net: Learning Where to Look for the Pancreas
[6] DeepMedic for Brain Tumor Segmentation
作家:Nour Islam Mokhtari