苗政,李明洋,陳忠萍,王爍,王卓,張磊,陳麗舟,陳云天,史晟先,李昊,石光,朱萬(wàn)安
1.吉林大學(xué)第一醫(yī)院 放射科,吉林 長(zhǎng)春 130000;2.四川大學(xué)華西醫(yī)院 放射科,四川 成都 610041
腦出血是指發(fā)生在腦實(shí)質(zhì)內(nèi),由非外傷引起的血管破裂出血,是腦卒中各亞型中發(fā)病率僅次于缺血性卒中的嚴(yán)重疾病。在美國(guó)等西方國(guó)家中腦出血患者約占全部卒中患者的10%,而我國(guó)腦出血患者比例則更高,約占全部卒中患者的18%~48%[1]。同時(shí),腦出血還是致死率極高的一種疾病,發(fā)病急性期內(nèi)致死率高達(dá)30%~50%[2],在所有卒中類(lèi)型中死亡率最高。因此,腦出血的早期準(zhǔn)確診斷對(duì)于挽救患者生命至關(guān)重要。
頭部CT檢查是腦出血診斷的重要手段之一[3]。頭部CT平掃可以快速且準(zhǔn)確地顯示血腫的部位、估計(jì)血腫體積、評(píng)價(jià)占位效應(yīng)以及周?chē)X組織受損情況,對(duì)于預(yù)測(cè)血腫進(jìn)展、降低早期死亡率具有重要意義[4]。在傳統(tǒng)臨床診斷工作中,可以通過(guò)放射醫(yī)師手動(dòng)標(biāo)注腦出血患者圖像中的血腫區(qū)域來(lái)估計(jì)血腫體積,但這種方法既費(fèi)時(shí)費(fèi)力又容易受到評(píng)估者間的差異影響[5]。而一些基于傳統(tǒng)計(jì)算機(jī)圖像處理算法的標(biāo)注方法如閾值法、區(qū)域增長(zhǎng)法等需要手動(dòng)選取閾值和種子點(diǎn),并不能實(shí)現(xiàn)全自動(dòng)化分割[6-8]。近年來(lái),隨著人工智能技術(shù)的不斷發(fā)展,基于人工智能深度學(xué)習(xí)技術(shù)的圖像分割算法亦日趨成熟[9-10]。因此,基于深度學(xué)習(xí)技術(shù)構(gòu)建醫(yī)學(xué)圖像自動(dòng)化分割模型,對(duì)患者頭部CT平掃圖像中血腫區(qū)域進(jìn)行快速準(zhǔn)確地標(biāo)注,對(duì)于腦出血患者的臨床診斷具有重要意義[11-13]。
在基于深度學(xué)習(xí)技術(shù)的圖像分割算法方面,國(guó)內(nèi)外一些研究者已經(jīng)進(jìn)行了大量的研究工作[14-15]。如Schlemper等[16]在傳統(tǒng)U-NET分割網(wǎng)絡(luò)上進(jìn)行改進(jìn),引入了注意力機(jī)制,利用Attention Gate結(jié)構(gòu)加強(qiáng)通道內(nèi)高貢獻(xiàn)特征表達(dá),同時(shí)抑制低貢獻(xiàn)特征輸出,進(jìn)而加深模型對(duì)任務(wù)有關(guān)特征的學(xué)習(xí)和理解。但由于缺少殘差層連接,模型內(nèi)部跳層連接時(shí)可能出現(xiàn)梯度消失等問(wèn)題,使特征無(wú)法有效傳遞。Zhou等[17]則改進(jìn)了U-NET網(wǎng)絡(luò)深度固定的缺陷,通過(guò)引入深度可變的網(wǎng)絡(luò)結(jié)構(gòu)以及重新設(shè)計(jì)的跳層連接,使模型在不同大小的分割目標(biāo)上都達(dá)到了較好的分割性能。但由于缺少對(duì)不同感受野卷積核的多面特征融合,因此模型可能無(wú)法綜合有效利用特征。本研究綜合上述算法的優(yōu)勢(shì),并針對(duì)現(xiàn)有算法的不足,提出了一種新型分割網(wǎng)絡(luò)算法ADUNET,該網(wǎng)絡(luò)通過(guò)構(gòu)建雙編解碼結(jié)構(gòu)和殘差注意力層以便于充分利用圖像特征,并應(yīng)用于頭部CT圖像中血腫區(qū)域的自動(dòng)分割,同時(shí)設(shè)計(jì)一種針對(duì)深度學(xué)習(xí)分割網(wǎng)絡(luò)在血腫區(qū)域分割問(wèn)題上的后處理算法,對(duì)深度學(xué)習(xí)網(wǎng)絡(luò)的分割結(jié)果實(shí)現(xiàn)進(jìn)一步優(yōu)化。
本研究得到了吉林大學(xué)第一醫(yī)院醫(yī)學(xué)倫理委員會(huì)的批準(zhǔn)[2019年審(663)號(hào)],因本研究為回顧性分析免除書(shū)面知情同意。所有檢查均按照相關(guān)指南和規(guī)定進(jìn)行。回顧性分析了2018年4月至2020年8月我院腦出血患者的影像資料,納入標(biāo)準(zhǔn):① 患者年齡均大于18歲;② 所有患者均在發(fā)病后12 h內(nèi)接受CT檢查;③ 所有患者在進(jìn)行CT檢查前均未接受任何手術(shù)或介入治療。排除標(biāo)準(zhǔn):① 繼發(fā)性出血,如外傷、動(dòng)脈瘤、血管畸形、缺血再灌注損傷、靜脈竇栓塞、腫瘤;② 孤立性腦室出血;③ CT圖像存在偽影影響診斷;④ 多灶性出血。在全部1331例患者中,915例因顱內(nèi)血腫被排除,最終416例被納入本研究,其中男性218例,女性198例,平均年齡(56.86±12.28)歲,從發(fā)病到第一次CT掃描的中位時(shí)間為3.5 h。
所有病例CT圖像均由西門(mén)子或飛利浦CT設(shè)備采集。不同設(shè)備采集過(guò)程中均使用相同的管球電壓,管電流為300或587 mA,掃描層厚為5 mm,像素間距為0.45×0.45 mm2或0.49×0.49 mm2。為減少不同廠商掃描設(shè)備上的成像參數(shù)的差異,將所有體素重新采樣為1.0×1.0×1.0 mm3,并統(tǒng)一采用軟組織窗算法重建圖像。
整體流程如圖1所示,主要由三個(gè)部分組成:第一部分為數(shù)據(jù)預(yù)處理,主要包括圖像格式轉(zhuǎn)換、圖像調(diào)窗以及圖像擺正去骨等操作;第二部分為利用提出的ADUNET分割網(wǎng)絡(luò)對(duì)第一步預(yù)處理后的圖像進(jìn)行腦出血病灶的分割;第三部分為將第二步得到的初步分割結(jié)果做后處理,以進(jìn)一步修正分割結(jié)果。
圖1 整體流程圖
數(shù)據(jù)預(yù)處理主要由三部分組成,首先利用RIAS醫(yī)學(xué)影像預(yù)處理工具[18]將原始DICOM圖像轉(zhuǎn)換為Nifty格式,以便于進(jìn)行后續(xù)操作;由于不同數(shù)據(jù)對(duì)比度存在差異,因此為了使模型更好地對(duì)感興趣區(qū)域分割,本研究利用RIAS工具對(duì)Nifty圖像做自適應(yīng)對(duì)比度調(diào)整,并輸出bmp格式圖像(即調(diào)窗);最后,為減少拍攝體位以及患者圖像中顱骨結(jié)構(gòu)對(duì)血腫分割的影響,本研究對(duì)圖像進(jìn)行擺正及顱骨去除處理。其中,顱骨去除處理使用基于深度學(xué)習(xí)的VBNet網(wǎng)絡(luò)完成。VB-Net是Han等[19]基于傳統(tǒng)深度學(xué)習(xí)分割網(wǎng)絡(luò)V-Net[20]的改進(jìn),該方法主要運(yùn)用模型壓縮技術(shù)對(duì)V-Net中的殘差模塊進(jìn)行了重新設(shè)計(jì),并加入了Bottleneck網(wǎng)絡(luò)結(jié)構(gòu),構(gòu)建了一個(gè)全新的分割網(wǎng)絡(luò)模型。該分割網(wǎng)絡(luò)模型的結(jié)構(gòu)示意圖如圖2所示。
圖2 基于VB-Net的去頭骨分割網(wǎng)絡(luò)模型結(jié)構(gòu)示意圖
本研究首先對(duì)整體CT圖像進(jìn)行擺正,盡可能將腦中線(xiàn)旋轉(zhuǎn)到與水平線(xiàn)垂直的方向,以利于后續(xù)算法的高效執(zhí)行。然后使用VB-Net網(wǎng)絡(luò)去除掉CT圖像中的頭骨,擺正后和頭骨分割算法的效果如圖3所示。
圖3 VB-Net分割結(jié)果示例圖
本研究提出一種基于深度學(xué)習(xí)的自動(dòng)分割網(wǎng)絡(luò)ADUNET,該網(wǎng)絡(luò)可針對(duì)預(yù)處理后的圖像實(shí)現(xiàn)腦出血區(qū)域的自動(dòng)分割,ADUNET網(wǎng)絡(luò)結(jié)構(gòu)框圖如圖4所示。
圖4 ADUNET網(wǎng)絡(luò)結(jié)構(gòu)框圖
ADUNET主要由兩組編碼器和解碼器構(gòu)成,其中第一組編解碼器用來(lái)生成粗分割結(jié)果,第二組編解碼器以進(jìn)一步優(yōu)化分割結(jié)果。網(wǎng)絡(luò)通過(guò)共同計(jì)算粗分割結(jié)果和優(yōu)化分割結(jié)果的損失來(lái)訓(xùn)練網(wǎng)絡(luò)參數(shù),損失函數(shù)如公式(1)所示。
式中,L(out1)為網(wǎng)絡(luò)第一層輸出二值圖像的損失函數(shù),L(out2)為網(wǎng)絡(luò)輸出端輸出的二值圖像的損失函數(shù)。其中α和β為對(duì)應(yīng)損失函數(shù)的系數(shù),α+β=1。
輸入圖像首先進(jìn)入第一組編碼器和解碼器結(jié)構(gòu),其中編碼器由VGG-19網(wǎng)絡(luò)組成,解碼器包括卷積層、池化層。VGG-19網(wǎng)絡(luò)由ImageNet數(shù)據(jù)集預(yù)訓(xùn)練得到,利用該網(wǎng)絡(luò)可以實(shí)現(xiàn)對(duì)圖像的特征提取。而預(yù)訓(xùn)練過(guò)的VGG-19網(wǎng)絡(luò)由于具有自然場(chǎng)景圖像的低維和高維信息,因此訓(xùn)練時(shí)會(huì)加速網(wǎng)絡(luò)的收斂并提高分割精度。通過(guò)將4種不同尺度下的VGG-19網(wǎng)絡(luò)特征圖輸出,經(jīng)過(guò)殘差注意力層,再與不同尺度的解碼器模塊相連,實(shí)現(xiàn)粗分割結(jié)果的輸出。其中殘差注意力層由卷積層和注意力層組成,殘差結(jié)構(gòu)可以實(shí)現(xiàn)特征的遠(yuǎn)程傳遞以防止梯度消失,注意力層可以引導(dǎo)貢獻(xiàn)度較高的特征高表達(dá),以實(shí)現(xiàn)高精度分割。解碼器通過(guò)上采樣可以將高維抽象特征恢復(fù)到低維特征,即實(shí)現(xiàn)二值圖像的結(jié)果輸出。不同大小的解碼器特征與對(duì)應(yīng)大小的編碼器特征相融合,再最終將融合后的不同尺度的特征進(jìn)一步融合可以充分提取原始圖像信息。同時(shí),在編碼器輸出端和解碼器輸入端引入空洞空間卷積池化金字塔結(jié)構(gòu),通過(guò)采用不同尺度的卷積核對(duì)特征圖進(jìn)行特征提取并融合,可以有效將輸入圖像不同層級(jí)的特征進(jìn)行表達(dá),有利于模型識(shí)別目標(biāo)區(qū)域。最終第一組編碼器和解碼器結(jié)構(gòu)輸出粗分割結(jié)果,并送入下一組編解碼器。
第二組編解碼器的輸入為粗分割結(jié)果和輸入圖像對(duì)位相乘后的圖像,第二組編碼器對(duì)輸入圖像進(jìn)行不同尺度的卷積并得到特征圖,再送入第二組空洞空間卷積池化金字塔后,送入解碼器模塊。第二組解碼器通過(guò)融合第一組編碼器對(duì)應(yīng)尺度的特征圖以及經(jīng)過(guò)殘差注意力層后對(duì)應(yīng)尺度的第二組編碼器特征圖以實(shí)現(xiàn)分割結(jié)果的優(yōu)化。模型最終輸出為粗分割結(jié)果和優(yōu)化分割結(jié)果的融合圖像,即ADUNET的分割結(jié)果。
深度學(xué)習(xí)分割網(wǎng)絡(luò)訓(xùn)練時(shí),學(xué)習(xí)率設(shè)為0.0001,Batch Size設(shè)為16,優(yōu)化器為Adam,當(dāng)驗(yàn)證集Dice系數(shù)連續(xù)10輪無(wú)明顯變化時(shí),學(xué)習(xí)率乘以0.1,最低學(xué)習(xí)率為0.00001。
本研究提出一種針對(duì)深度學(xué)習(xí)分割網(wǎng)絡(luò)在腦出血分割問(wèn)題上的后處理算法,算法流程圖如圖5所示。由于受限于數(shù)據(jù)量或分割任務(wù)難度等因素,深度學(xué)習(xí)分割網(wǎng)絡(luò)可能無(wú)法完全實(shí)現(xiàn)腦出血區(qū)域的精細(xì)分割,如出現(xiàn)非標(biāo)注層的假陽(yáng)性結(jié)果或標(biāo)注層的假陰性結(jié)果等,因此后處理算法可以進(jìn)一步優(yōu)化深度學(xué)習(xí)分割結(jié)果。
圖5 后處理算法流程圖
分割后處理算法主要由4個(gè)步驟組成,輸入端為網(wǎng)絡(luò)輸出分割結(jié)果和原始圖像。首先計(jì)算圖像內(nèi)前景圖像的均值、最大值和標(biāo)準(zhǔn)差,并以均值為下界點(diǎn),最大值-標(biāo)準(zhǔn)差為上界點(diǎn),同時(shí)利用雙邊閾值分割得到分割標(biāo)簽。由于雙邊閾值的分割會(huì)存在一定的假陽(yáng)性和孔洞,因此利用腐蝕、膨脹算法及中值濾波算法進(jìn)一步平滑分割結(jié)果,最后利用最大連通域算法剔除掉離散噪聲的分割結(jié)果。
本研究共納入患者416例,按照比例7∶3隨機(jī)分為訓(xùn)練集291例和測(cè)試集125例。所有患者影像數(shù)據(jù)的腦出血區(qū)域由兩名高年資放射科醫(yī)生利用開(kāi)源標(biāo)注軟件ITKSnap(V3.8.0,http://www.itksnap.org/pmwiki/pmwiki.php)共同標(biāo)注,并對(duì)最終標(biāo)注結(jié)果達(dá)成一致。訓(xùn)練集數(shù)據(jù)為標(biāo)注層的2D圖像,測(cè)試集數(shù)據(jù)為所有層面的2D圖像。本研究通過(guò)對(duì)測(cè)試集中單個(gè)病例的所有單層圖像進(jìn)行分割和后處理,最后融合成3D分割標(biāo)簽。
硬件設(shè)備 :CPU :AMD EPYC 7402 24-Core Processor 2.80 GHz;GPU:NVIDIA Tesla A100(40 G);內(nèi) 存:75 G。軟件 工 具:ITK-Snap;RIAS(V0.1.3);TensorFlow:2.3;Python:3.6.9。
本研究主要采用醫(yī)學(xué)圖像分割領(lǐng)域廣泛使用的5種方法對(duì)結(jié)果進(jìn)行評(píng)價(jià)[21]。其公式分別如式(2)~(6)所示。
①Dice系數(shù):
② HD 系數(shù)(Hausdorff-Distance):
③Jaccard系數(shù):
④精確率(Precision):
⑤召回率(Recall):
其中,TP、TN、FP、FN分別表示真陽(yáng)性、真陰性、假陽(yáng)性、假陰性的數(shù)量。
基于不同深度學(xué)習(xí)分割網(wǎng)絡(luò)對(duì)測(cè)試集的腦出血分割結(jié)果如表1所示。表中列出測(cè)試集中所有患者的平均Dice系數(shù)、HD系數(shù)等評(píng)價(jià)指標(biāo)。由表1可以看出,ADUNET相比于Attention UNET和UNET plus在各項(xiàng)評(píng)價(jià)指標(biāo)中均最好。其中Dice系數(shù)達(dá)到0.896,相比于其他網(wǎng)絡(luò)提升了5%。而Attention UNET和UNET plus在各項(xiàng)指標(biāo)中均各有優(yōu)勢(shì),無(wú)明顯差異。綜合來(lái)看ADUNET基本可以實(shí)現(xiàn)腦出血區(qū)域的分割且分割效能較好。在平均精確度和平均召回率上ADUNET均明顯高于其他網(wǎng)絡(luò),間接說(shuō)明了ADUNET可以有效避免假陽(yáng)性和假陰性的分割。
表1 不同深度學(xué)習(xí)分割網(wǎng)絡(luò)對(duì)測(cè)試集的腦出血分割評(píng)分
針對(duì)不同分割網(wǎng)絡(luò)的分割結(jié)果分別應(yīng)用后處理算法優(yōu)化,結(jié)果如表2所示,后處理算法能在一定程度上進(jìn)一步提高模型的分割精度。對(duì)于Attention UNET和ADUNET,后處理算法在平均Dice系數(shù)上有略微提高,但是在部分指標(biāo)上略有下降。對(duì)于UNET Plus網(wǎng)絡(luò)來(lái)說(shuō),后處理算法有效提高了分割精度。相比于原始分割結(jié)果來(lái)說(shuō),加入后處理算法的分割結(jié)果指標(biāo)均優(yōu)于加入后處理算法前的指標(biāo)。由此綜合來(lái)看,本研究提出的后處理算法對(duì)于分割結(jié)果的優(yōu)化有積極作用。
表2 應(yīng)用后處理算法優(yōu)化后的不同深度學(xué)習(xí)分割網(wǎng)絡(luò)對(duì)測(cè)試集的腦出血分割評(píng)分
綜合來(lái)看,本文提出的ADUNET可以有效分割腦出血區(qū)域,同時(shí)引入后處理算法可進(jìn)一步優(yōu)化分割結(jié)果。不同模型在測(cè)試集中所有患者的Dice系數(shù)箱型圖如圖6所示。由圖6可以看出,在測(cè)試集的所有患者中,未使用后處理算法之前ADUNET的箱型圖的寬度相比于另外兩個(gè)模型更窄,且中位數(shù)最高。同時(shí)離群數(shù)據(jù)數(shù)量和范圍相比其他兩個(gè)模型更少和更窄。這進(jìn)一步說(shuō)明ADUNET可以更準(zhǔn)確地實(shí)現(xiàn)腦出血定量精準(zhǔn)分割。使用了后處理算法后,ADUNET-P相比于ADUNET來(lái)說(shuō),Dice系數(shù)中位數(shù)提高,離散值范圍減少。而使用了后處理算法的UNET Plus-P相比于UNET Plus來(lái)說(shuō),箱型圖寬度變窄,離散值范圍變少。Attention UNET-P 相比于 Attention UNET 來(lái)說(shuō),中位數(shù)提高但離群值范圍略微增加。因此通過(guò)對(duì)測(cè)試集所有患者的Dice系數(shù)結(jié)果分析,綜合來(lái)說(shuō)ADUNET-P效果最優(yōu),證明本研究提出的深度學(xué)習(xí)網(wǎng)絡(luò)ADUNET在腦出血分割上具有較好的效能,而后處理算法可以針對(duì)不同的網(wǎng)絡(luò)分割結(jié)果均起到優(yōu)化的作用。
圖6 測(cè)試集中所有患者的Dice系數(shù)箱型圖
不同模型和算法在同一2D層面的分割效果如圖7所示。由圖7可以看出,UNET Plus模型會(huì)存在更大的假陽(yáng)性,但經(jīng)過(guò)后處理算法后假陽(yáng)性被有效剔除。同時(shí)ADUNET-P相比于其他模型精準(zhǔn)度更高。
圖7 不同深度學(xué)習(xí)分割網(wǎng)絡(luò)及后處理算法對(duì)測(cè)試集的腦出血分割結(jié)果
本文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)分割模型ADUNET,以及一種針對(duì)分割結(jié)果的后處理算法,可以有效實(shí)現(xiàn)腦出血的自動(dòng)分割及檢出,提高臨床醫(yī)生工作效率及準(zhǔn)確度,具有較大的臨床意義。通過(guò)將原始DICOM圖像進(jìn)行圖像預(yù)處理后,得到擺正、去頭骨及對(duì)比度調(diào)節(jié)后的Nifty圖像,進(jìn)而送入ADUNET實(shí)現(xiàn)對(duì)腦出血部分的準(zhǔn)確識(shí)別和分割,同時(shí)應(yīng)用后處理算法可以進(jìn)一步優(yōu)化分割結(jié)果。通過(guò)對(duì)比已有的深度學(xué)習(xí)分割網(wǎng)絡(luò)在相同訓(xùn)練集和測(cè)試集上的效能,證明ADUNET有較好的分割效能。通過(guò)橫向?qū)Ρ群筇幚硭惴▽?duì)不同網(wǎng)絡(luò)分割結(jié)果的效能提升,可以證明本文提出的后處理算法的有效性。
本文提出的方法也需要做出一定改進(jìn):首先,由于ADUNET屬于2D深度學(xué)習(xí)分割網(wǎng)絡(luò),因此未考慮相鄰層的圖像空間關(guān)系,對(duì)于較小病灶的識(shí)別還有待提高;其次,ADUNET的網(wǎng)絡(luò)架構(gòu)需進(jìn)一步完善和優(yōu)化,以提高雙編碼器和解碼器對(duì)于特征的提取和應(yīng)用效率;最后,本文提出的后處理算法在某些方面還存在假陰性等問(wèn)題,因此需進(jìn)一步優(yōu)化算法以提高后處理精度。此外,在CT圖像采集階段,目前有濾波反投影算法、混合迭代重建算法、全模型迭代重建算法等多種重建技術(shù)[22],不同的重建技術(shù)對(duì)于頭部CT圖像質(zhì)量以及后續(xù)分割模型結(jié)果的影響也有待進(jìn)一步探討。今后,我們將在深度學(xué)習(xí)分割模型網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化、不同重建算法對(duì)分割結(jié)果的影響、以及能譜CT[23]等新序列對(duì)腦出血較小病灶檢出的應(yīng)用價(jià)值等多個(gè)方面進(jìn)行更深入的思考和探索。
本文主要提出了一種基于頭部CT圖像的腦出血精準(zhǔn)分割模型ADUNET,并進(jìn)一步提出一種基于閾值的后處理算法以提高模型分割準(zhǔn)確度。主要對(duì)比了后處理算法前,ADUNET和其他已有模型的分割精準(zhǔn)度,證明了ADUNET效能最優(yōu)(Dice=0.8956)。同時(shí)也驗(yàn)證了提出的后處理算法可以對(duì)不同分割網(wǎng)絡(luò)的分割精度均有不同程度的提升,且ADUNET-P效能最優(yōu)(Dice=0.8999)。因此本文提出的結(jié)合后處理算法的深度學(xué)習(xí)網(wǎng)絡(luò)ADUNET-P可以有效對(duì)頭部CT圖像的腦出血區(qū)域?qū)崿F(xiàn)精準(zhǔn)的體素分割,并為后續(xù)的出血體積測(cè)量提供了新的手段和方法。