李慶勃 蘇丹
摘要:基于深度學(xué)習(xí)的圖像分割中,好的訓(xùn)練效果不僅僅是選擇了合適的網(wǎng)絡(luò)框架,損失函數(shù)的選擇也同樣重要。本文中我們實(shí)現(xiàn)一種全卷積神經(jīng)網(wǎng)絡(luò)的三維圖像分割方法,該方法基于V-Net框架[1]。該網(wǎng)絡(luò)是end-to-end的,的連接訓(xùn)練方案使用了PyTorch進(jìn)行了實(shí)現(xiàn),作為醫(yī)學(xué)圖像分割的基本實(shí)現(xiàn)。
關(guān)鍵詞:3D;V-Net;Pytorch;器官分割;腹部
中圖分類號:R814 文獻(xiàn)標(biāo)識碼:A 文章編號:1007-9416(2019)01-0089-01
1 基本環(huán)境
我們將3D U-Net的一種實(shí)現(xiàn)V-Net檢測框架[1]使用PyTorch進(jìn)行了實(shí)現(xiàn)。在實(shí)現(xiàn)過程中,對其中的卷積核、損失函數(shù)以及部分stage做了修改或者增刪。網(wǎng)絡(luò)的基本配置如下:基礎(chǔ)網(wǎng)絡(luò):網(wǎng)絡(luò)結(jié)構(gòu)基于V-Net[2],并對其做了一定的修改。數(shù)據(jù)集:這些數(shù)據(jù)來自一項(xiàng)名為“顱穹外多圖譜標(biāo)記”的在線挑戰(zhàn)賽。在這個(gè)挑戰(zhàn)賽中,任務(wù)是將13種不同的器官分割,這些器官分別是:(1)spleen(脾);(2)right kidney(右腎);(3)left kidney(左腎);(4)gallbladder(膽囊);(5)esophagus(食管);(6)liver(肝臟);(7)stomach(胃);(8)aorta(大動脈);(9)inferior vena cava(下腔靜脈);(10)portal vein and splenic vein(門靜脈和脾靜脈);(11)pancreas(胰腺);(12)right adrenal gland(右腎上腺);(13)left adrenal gland(左腎上腺)。
訓(xùn)練/測試:訓(xùn)練集包含30個(gè)CT數(shù)據(jù)。我們將數(shù)據(jù)集擴(kuò)充為210個(gè),然后隨機(jī)將其分為175個(gè)訓(xùn)練組和35個(gè)測試組,評估:我們使用一個(gè)基于DICE系數(shù)的損失函數(shù)[3]作為評估,使用這個(gè)函數(shù)能避免類別不平衡。
1.1 數(shù)據(jù)預(yù)處理與數(shù)據(jù)集擴(kuò)充
首先,30例訓(xùn)練集中 3mm有17個(gè),2.5mm有1個(gè),5mm有12個(gè),因此決定把軸向的spacing統(tǒng)一到3mm,然后進(jìn)行灰度值截?cái)唷?/p>
其次,數(shù)據(jù)集擴(kuò)充,為了盡量利用有限的訓(xùn)練數(shù)據(jù),我們將通過一系列隨機(jī)變換堆數(shù)據(jù)進(jìn)行提升,這樣我們的模型將看不到任何兩張完全相同的圖片,這有利于我們抑制過擬合,使得模型的泛化能力更好。第一步,將原始圖像和已標(biāo)注圖像讀入到內(nèi)存中,第二步,在slice平面內(nèi)隨機(jī)選取48張slice。第三步,以0.5的概率在±3°范圍內(nèi)隨機(jī)旋轉(zhuǎn)圖像。
1.2 網(wǎng)絡(luò)結(jié)構(gòu)
(1)我們將卷積核從5×5×5改為3×3×3。(2)在除了第一個(gè)和最后一個(gè)block中添加了dropout。(3)去掉了編碼器的最后一個(gè)16倍降采樣stage。(4)為了彌補(bǔ)以上操作帶來的感受野損失,在編碼器的最后兩個(gè)stage添加了空洞卷積[4]。
1.3 DICE損失
在醫(yī)學(xué)圖像中,往往感興趣的區(qū)域只占掃描的一個(gè)很小的比例。這通常會導(dǎo)致學(xué)習(xí)過程陷入損失函數(shù)的局部極小值,從而產(chǎn)生一個(gè)預(yù)測嚴(yán)重偏向于背景的網(wǎng)絡(luò)。因此,前景區(qū)域經(jīng)常丟失或者只能檢測到部分圖像。本文中使用的損失函數(shù)為一種基于DICE系數(shù)的函數(shù),它的值在0和1之間,我們的目標(biāo)是使其最大化。它的表達(dá)式如下:
其中為每一種器官的權(quán)重,權(quán)重的原則是,比較容易分割的器官的權(quán)重保持為1不變,分割效果不好的器官的權(quán)重大一些;為前景分割(金標(biāo)準(zhǔn))結(jié)果;為前景標(biāo)簽預(yù)測分割結(jié)果。
1.4 訓(xùn)練測試
在將初始學(xué)習(xí)率設(shè)置為,在6塊GTX 1080Ti上訓(xùn)練情況下,整個(gè)訓(xùn)練過程大約需要7個(gè)小時(shí)。
2 討論
在圖像配準(zhǔn)和分割算法中,DICE系數(shù)和cross-entropy系數(shù)等標(biāo)記區(qū)域重疊的度量方法被廣泛應(yīng)用。在深度學(xué)習(xí)框架中損失函數(shù)的選擇非常重要,尤其在處理高度不平衡問題時(shí)。本文中所選的GDL損失函數(shù)在常見的幾種損失函數(shù)中具有最強(qiáng)的魯棒性[3]。同時(shí)在機(jī)器學(xué)習(xí)中,當(dāng)一個(gè)參數(shù)過多的模型在小樣本上訓(xùn)練的情況下,訓(xùn)練出來的模型通常在輸出的測試數(shù)據(jù)上表現(xiàn)不佳。通過在每個(gè)訓(xùn)練案例中隨機(jī)省略一半的特征檢測器,這種“過擬合”現(xiàn)象大大減少[5]。過擬合問題在機(jī)器學(xué)習(xí)中很常見,提出的Dropout可以相對有效的緩解這個(gè)問題的出現(xiàn),在一定程度上表現(xiàn)出正則化的效果。
參考文獻(xiàn)
[1] iek ,Abdulkadir A,Lienkamp S S, et al.3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation[J].arXiv preprint arXiv:1606.06650,2016.
[2] Milletari F,Navab N, Ahmadi S-A.V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation[C].International Conference on 3D Vision; IEEE International Conference on 3D Vision, et al. 2016 Fourth International Conference on 3D Vision:3DV 2016:25-28 October 2016, Stanford, California, USA : proceedings. Piscataway, NJ: IEEE,2016:565-571.
[3] Sudre C H,Li W,Vercauteren T,et al.Generalised Dice overlap as a deep learning loss function for highly unbalanced segmentations[J].arXiv preprint arXiv:1707.03237,2017.
[4] Yu F,Koltun V.Multi-Scale Context Aggregation by Dilated Convolutions[J].arXiv preprint arXiv:1511.07122,2015.
[5] Hinton G E,Srivastava N,Krizhevsky A,et al.Improving neural networks by preventing co-adaptation of feature detectors[J].arXiv preprint arXiv:1207.0580v1,2012.
Abstract:In the image segmentation based on deep learning, good training effect is not only the selection of appropriate network framework, but also the selection of loss function. In this paper, we implement a full convolutional neural network 3d image segmentation method based on the V-Net framework[1].The network is end-to-end, and PyTorch is used as the basic implementation of medical image segmentation.
Key words:3D;V-Net;Pytorch;organ segmentation;abdomen