姚冰瑩 楊薇 陳堅(jiān)強(qiáng) 牛婷婷
摘? 要:針對肝病早期的病理特征不夠明顯容易出現(xiàn)漏診的問題以及引入噪聲的肝臟CT圖像容易導(dǎo)致疾病的誤診,提出了一種基于優(yōu)化的隨機(jī)森林的肝臟病變識別方法。首先通過PNet圖像增強(qiáng)網(wǎng)絡(luò),實(shí)現(xiàn)噪聲偽影抑制和細(xì)節(jié)對比度提升。將增強(qiáng)后的肝臟CT圖像輸入基于SENet與ResNeXt-152結(jié)合雙通道重標(biāo)定機(jī)制的網(wǎng)絡(luò)提取二維特征并突出重要特征,使用改進(jìn)的類C3D網(wǎng)絡(luò)進(jìn)行三維空間特征的提取,然后進(jìn)行多維特征融合,實(shí)現(xiàn)肝臟CT圖像的高級語義特征的提取。最后使用隨機(jī)森林進(jìn)行肝臟病變識別,使用3D斷層掃描肝臟CT圖像進(jìn)行實(shí)驗(yàn),達(dá)到較好的病變識別效果。
關(guān)鍵詞:肝臟CT圖像;深度學(xué)習(xí);高級語義特征;隨機(jī)森林;病變識別
中圖分類號:TP18;TP391.4? 文獻(xiàn)標(biāo)識碼:A 文章編號:2096-4706(2021)18-0090-04
Abstract: Aiming at the problem that the early pathological features of liver disease are not obvious enough to cause missed diagnosis and the noise-introduced liver CT images easily lead to the misdiagnosis of diseases, a liver lesion recognition method based on optimized random forest is proposed. First, the PNet image enhancement network is used to achieve noise artifact suppression and detail contrast enhancement. The enhanced liver CT image is input into a network based on SENet and ResNeXt-152 and combined with a dual-channel recalibration mechanism to extract two-dimensional features and highlight important features, uses an improved C3D-like network to extract three-dimensional spatial features, and then perform multi-dimensional feature fusion. Realize the extraction of high-level semantic features of liver CT images. Finally, random forest is used to identify liver lesions, and 3D tomography liver CT images are used for experiments to achieve better lesion recognition results.
Keywords: liver CT image; deep learning; high-level semantic feature; random forest; lesion recognition
0? 引? 言
肝癌是當(dāng)前世界上發(fā)病晚及死亡率較高的惡性疾病之一,并且全國各級醫(yī)院醫(yī)生的資質(zhì)存在較大差異,同時(shí)在實(shí)際臨床應(yīng)用中,由于肝臟病變的紋理結(jié)構(gòu)及其分布模式復(fù)雜且難以區(qū)分,單純的人工讀片會導(dǎo)致誤診、漏診等問題。然而肝細(xì)胞癌的早期發(fā)現(xiàn)和早期病變的診斷和治療,可以極大地促進(jìn)患者的治療和康復(fù)。近年來,隨著圖像處理、計(jì)算機(jī)可視化、模式識別等相關(guān)領(lǐng)域技術(shù)的發(fā)展,計(jì)算機(jī)輔助診斷逐漸成為未來輔助醫(yī)學(xué)診斷的發(fā)展趨勢,對于肝臟CT圖像病變檢測具有非常重要的意義。
肝臟CT圖像病變識別研究經(jīng)歷了人工特征提取分類階段和深度學(xué)習(xí)提取高級語義特征分類階段?;趥鹘y(tǒng)人工提取紋理特征的算法是進(jìn)行肝臟病灶早期識別的重要理論基礎(chǔ)之一。吳海濤等應(yīng)用形態(tài)學(xué)開運(yùn)算和填孔法提取肝臟區(qū)域,采用灰度直方圖,灰度共生矩陣作為肝臟兩類主要特征,使用改進(jìn)特征選擇的隨機(jī)森林算法進(jìn)行分類。Kirubakaran將Gabor變換的多尺度特征與局部二值模式算法得到的局部特征進(jìn)行特征融合可將準(zhǔn)確率提高到88.23%。這種方法雖然通過級聯(lián)的方式獲得了多尺度的特征信息,但沒有從根本上突破人工提取特征的局限性,傳統(tǒng)的手動(dòng)特征提取方法僅限于低級紋理語義信息。Romero等人將提取的有效特征通過深度學(xué)習(xí)方法InceptionV3和ImageNet中訓(xùn)練得到有效特征的權(quán)重,病變類型的準(zhǔn)確率可以達(dá)到96%。該網(wǎng)絡(luò)的 Inception結(jié)構(gòu)并行實(shí)現(xiàn)卷積和池化操作[4],以獲得圖像更多的潛在特征。但沒有區(qū)分特征的表達(dá)能力,因此當(dāng)網(wǎng)絡(luò)層數(shù)增加時(shí)會出現(xiàn)網(wǎng)絡(luò)退化等問題。
相比之下通過深度學(xué)習(xí)提取的肝臟CT圖像的高級語義特征可以準(zhǔn)確彌補(bǔ)人工提取特征缺乏表現(xiàn)力的缺陷,高級語義特征具有更好的抽象性和抗干擾性。牛婷婷等構(gòu)建了一個(gè)基于注意力機(jī)制的雙通道重新校準(zhǔn)模型,抑制無用特征并計(jì)算不同的特征通道權(quán)重,并將它們嵌入到Inception_ResNet_V2網(wǎng)絡(luò)結(jié)構(gòu)中。其次,我們在二維和三維卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上設(shè)計(jì)了全連接層,然后添加特征融合層來獲取不同維度的深層語義信息。最后,使用預(yù)訓(xùn)練模型初始化網(wǎng)絡(luò)結(jié)構(gòu)并將融合的特征輸入到XGBoost分類器中進(jìn)行分類預(yù)測已經(jīng)達(dá)到了較好的預(yù)測結(jié)果。
1? 肝臟CT圖像病變識別模型
本文針對3D斷層掃描肝臟CT圖像病變識別模型進(jìn)行研究,肝臟CT圖像病變識別模型應(yīng)分為以下幾個(gè)階段:3D斷層掃描肝臟CT圖像的預(yù)處理;肝臟、肝臟腫瘤分割;深度學(xué)習(xí)提取的肝臟CT圖像的高級語義特征[1];隨機(jī)森林集成學(xué)習(xí)算法進(jìn)行肝臟CT圖像病變分類。建立肝臟CT圖像病變識別模型,整體流程如圖1所示。
2? 3D肝臟CT圖像的預(yù)處理
3D斷層掃描肝臟CT圖像是三維圖像,CT圖像無法直接分辨肝臟,不同的組織器官對應(yīng)不同的放射劑量HU(Hounsfield Unit)。肝臟的放射劑量是+40到+60。首先使用pydicom庫讀取所有斷層掃描圖像。接著將肝臟CT圖像灰度值轉(zhuǎn)換為 HU:首先去除灰度值為-2 000的像素,CT掃描邊界之外的灰度值固定為-2 000(dicom和mhd都是這個(gè)值);第一步是設(shè)定這些值為0(即空氣值);變換到HU單元,乘以rescale比率并加上intercept。然后,進(jìn)行重采樣每一次CT掃描時(shí),掃描的尺寸和間距可能不同,可以使用同構(gòu)采樣;常用的處理方法是從整個(gè)數(shù)據(jù)集中以固定的同構(gòu)分辨率重新采樣[1],將所有的東西采樣為1 mm×1 mm× 1 mm像素。然后將數(shù)據(jù)進(jìn)行歸一化,中心化,最后以nii格式保存。
3? 肝臟、肝臟腫瘤分割
由于肝臟腫瘤的形狀、大小、位置各異,并且病變區(qū)域與正常肝臟、肝臟與相鄰器官之間的界限在肝臟CT圖像中比較模糊,因此實(shí)現(xiàn)AI自動(dòng)分割肝臟病灶存在非常大的難度。2019年在全球LiTS(Liver Tumor Segmentation Challenge)大賽中,TencentX團(tuán)隊(duì)提出了的自動(dòng)分割肝臟和肝臟病灶算法,首先進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化的預(yù)處理以降低圖像差異;在肝臟分割模塊,設(shè)計(jì)了2.5D全卷積神經(jīng)網(wǎng)絡(luò)并借鑒空洞卷積模塊挖掘肝臟的結(jié)構(gòu)化信息;在肝臟腫瘤分割模塊,設(shè)計(jì)了新型的輔助損失函數(shù),使得網(wǎng)絡(luò)有效挖掘肝臟腫瘤的空間信息,最后通過模型融合等處理,保證算法的精準(zhǔn)性及可靠性。
4? 肝臟CT圖像的高級語義特征提取
由雙卷積池化單元和非線性操作組成類C3D三維網(wǎng)絡(luò)結(jié)構(gòu),用于提取肝臟CT圖像的三維語義特征;ResNeXt-152與SENet網(wǎng)絡(luò)構(gòu)成雙通道重校準(zhǔn)機(jī)制網(wǎng)絡(luò)結(jié)構(gòu),用于提取肝臟CT圖像的二維語義特征并突出重要特征,最后,利用預(yù)訓(xùn)練模型初始化網(wǎng)絡(luò)結(jié)構(gòu),將融合的多維度特征輸入到隨機(jī)森林分類器中進(jìn)行分類預(yù)測[6],基于深度學(xué)習(xí)的高語義特征提取結(jié)構(gòu)如2圖所示。
C3D包括卷積,池化,分類等,可用于提取3D肝臟CT圖像的3D特征,可基于VGGNet的結(jié)構(gòu)設(shè)計(jì)一個(gè)類C3D的網(wǎng)絡(luò)架構(gòu)SC3D,網(wǎng)絡(luò)架構(gòu)包含十個(gè)3D卷積層、五個(gè)激活函數(shù)、五個(gè)3D最大池化層、和兩個(gè)全連接層。首先,將卷積層與激活函數(shù)結(jié)合起來,產(chǎn)生更多的非線性操作,更好地匹配圖像特征。然后,在每兩個(gè)卷積層之后增加一個(gè)池化層,形成一個(gè)固定的雙卷積池化單元,在時(shí)間和空間維度上都進(jìn)行采樣,使得參數(shù)數(shù)量更小,網(wǎng)絡(luò)結(jié)構(gòu)更加精簡。接下來使用MaxPooling技術(shù)進(jìn)行池化操作,保證特征不變性和降維操作,池化模型更容易收斂。最后,插入兩個(gè)全連接層和flattening函數(shù),針對卷積層到全連接層的過渡以及多維輸入的一維化。每個(gè)雙卷積池化單元后面都附有一個(gè)Dropout操作,以防止模型參數(shù)引起的過擬合現(xiàn)象。輸入大小是9×224×224個(gè)疊加圖像的數(shù)組,其中9是提取的連續(xù)肝臟切片,224×224是每個(gè)肝臟切片圖像的高度和寬度,卷積核大小固定為3×3×3。經(jīng)過卷積層的非線性變換,生成3D張量,完成空間特征的提取。
特征重校準(zhǔn)機(jī)制是一種作用于特征通道的注意力機(jī)制,為卷積通道分配不同的權(quán)重來區(qū)分特征重要性。SENet可以通過ResNeXt-152網(wǎng)絡(luò)根據(jù)損失值突出特征差異,增大有效的feature map權(quán)重,減少效果小或者無效的feature map權(quán)重,以此方式訓(xùn)練模型達(dá)到更好的識別結(jié)果。模型的輸入為雙通道,引入最大池化層并保留特征圖中最顯著的特征信息,融合多個(gè)通道得到的不同特征,得到最終的通道權(quán)重。兩個(gè)BatchNormalization結(jié)構(gòu)和一個(gè)全連接層。這不僅是為了實(shí)現(xiàn)模型的快速收斂,降低過擬合現(xiàn)象、梯度消失問題的概率,而且使學(xué)習(xí)到的特征更容易擬合肝臟圖像。優(yōu)化后的結(jié)構(gòu),在輸出特征中包含更多層的肝臟區(qū)域信息,擴(kuò)大了不同特征之間的差異,削弱了無效特征的干擾。雙通道重校準(zhǔn)機(jī)制結(jié)構(gòu)如圖3所示。
在計(jì)算機(jī)視覺領(lǐng)域,特征融合是一種將不同視角的特征組合起來進(jìn)行信息獲取和補(bǔ)償?shù)某S貌呗?。為了?gòu)建特征融合層,本文在卷積神經(jīng)網(wǎng)絡(luò)之后設(shè)計(jì)了一個(gè)統(tǒng)一維度的全連接層,并進(jìn)行相同層的融合,以方便不同層次的對象信息的有效利用。也采用特征矩陣拼接的方法,在水平方向增強(qiáng)特征信息,得到最終的特征融合結(jié)果,輸入到隨機(jī)森林分類器進(jìn)行分類預(yù)測。
5? 隨機(jī)森林集成分類器
隨機(jī)森林(RF)是一種統(tǒng)計(jì)學(xué)習(xí)理論,采用bootstrap抽樣法從訓(xùn)練集T中有放回的隨機(jī)抽取出M個(gè)樣本集S,作為樣本Bagging,從全部K個(gè)特征中隨機(jī)抽取一個(gè)特征子集(通常選取),從特征子集中選擇最優(yōu)分裂特征為樣本Bagging建樹。使用樣本Bagging中的M棵決策樹預(yù)測測試數(shù)據(jù)分類結(jié)果,并統(tǒng)計(jì)分類結(jié)果,選擇投票數(shù)最多的類別作為最終的分類類別。隨機(jī)森林的分類結(jié)果公式為[2]:
H(x)為隨機(jī)森林組合分類器模型,hi為Bagging中單個(gè)決策樹模型,Y表示類別標(biāo)簽。I(·)表示性函數(shù)[2]。通常使用OOB估計(jì)來衡量隨機(jī)森林算法的泛化誤差,因此,OOB估計(jì)可作為算法分類性能的指標(biāo)。隨機(jī)森林算法的泛化誤差定義為[2]:
當(dāng)子決策樹數(shù)量達(dá)到一定還繼續(xù)增大時(shí),泛化誤差會無限趨近于一個(gè)上界。其中,邊緣函數(shù)mg(X,Y)為分類器平均正確分類數(shù)與平均錯(cuò)誤分類數(shù)之差,mg(X,Y)越大,表示算法模型越好[2]。
scikit-learn中隨機(jī)森林類庫是RandomForestClassifier,隨機(jī)森林需要調(diào)參的參數(shù)包括兩部分:Bagging框架的參數(shù)和CART決策樹的參數(shù)[3]。Bagging框架的參數(shù)包括:
(1)n_estimators:最大決策樹的個(gè)數(shù),太小欠擬合,太大過擬合,默認(rèn)值100。
(2)oob_score:是否使用袋外樣本來評估模型的泛化能力[3],默認(rèn)false,應(yīng)設(shè)置為true。
(3)criterion:CART樹做特征評價(jià)標(biāo)準(zhǔn),選擇絕對值差MAE。
CART決策樹的參數(shù)包括:
(1)max_features:最大特征數(shù)選擇log2,最多考慮log2N個(gè)特征。
(2)max_depth:決策樹最大深度,10~100之間。
(3)min_samples_split:節(jié)點(diǎn)繼續(xù)劃分所需最小樣本數(shù),默認(rèn)是2。
(4)min_samples_leaf:葉子節(jié)點(diǎn)最少樣本數(shù),低于此值兄弟節(jié)點(diǎn)將一起被剪枝,默認(rèn)1。
(5)min_weight_fraction_leaf:葉子節(jié)點(diǎn)最小的樣本權(quán)重,低于此值兄弟節(jié)點(diǎn)將一起被剪枝,默認(rèn)0。
(6)max_leaf_nodes:限制最大葉子節(jié)點(diǎn)數(shù),防止過擬合,默認(rèn)是”None”。
(7)min_impurity_split:節(jié)點(diǎn)劃分最小不純度,此值限制決策樹的增長,若低于此值,此節(jié)點(diǎn)不在生成葉子節(jié)點(diǎn),默認(rèn)值1e-7。
基于隨機(jī)森林的肝臟CT病變識別模型分類性能的指標(biāo)常用混淆矩陣的準(zhǔn)確率、精確度、召回率、F值來描述,其中,TP和TN分別為正確分類的正類和反類樣本數(shù),F(xiàn)N和FP分別為錯(cuò)誤分類的反類和正類的樣本數(shù)。精確度為預(yù)測為正類的樣本數(shù)中正確分類的正類樣本所占比率。
召回率表示在所有正類樣本數(shù)中正確分類的正類樣本數(shù)占的比率。
F值對精確度和召回率進(jìn)行了加權(quán)平均,是召回率和精確度的相對權(quán)重。
6? 實(shí)驗(yàn)
實(shí)驗(yàn)可采用基于深度學(xué)習(xí)的 Keras2.2.4框架,數(shù)據(jù)集可使用2019年“大數(shù)據(jù)醫(yī)療——肝癌影像AI診斷”競賽題所取的數(shù)據(jù)集共有7 398個(gè)肝臟序列,圖像格式為Dicom文件格式,可將3/4為訓(xùn)練集,1/4為測試集,統(tǒng)一圖像尺寸為224×224像素。分類模型網(wǎng)絡(luò)中批處理大小為32,訓(xùn)練次數(shù)為100,并使用SGD優(yōu)化器,設(shè)置學(xué)習(xí)率設(shè)為0.000 1,動(dòng)量設(shè)為0.9,Dropout節(jié)點(diǎn)隱藏率設(shè)為0.5,交叉熵作為肝臟分類的損失函數(shù),并根據(jù)損失值更新網(wǎng)絡(luò)參數(shù)。分類器隨機(jī)森林n_estimators設(shè)置100,oob_score設(shè)置為true,max_features設(shè)置為log2,max_depth不限制。同時(shí)把準(zhǔn)確率和F1值作為評價(jià)指標(biāo)對分類結(jié)果進(jìn)行評估,測試的結(jié)果如表1所示。
從上表中可見ResNeXt-152+SENet+類C3D方式提取的肝臟CT圖像多維高語義特征,并突出重要特征分類時(shí)的決策權(quán)重,具有較好的分類識別效果,證明了本文中分類方法的有效性。
7? 結(jié)? 論
本文對3D斷層掃描肝臟CT圖像病變識別模型進(jìn)行研究,通過深度學(xué)習(xí)提取的肝臟CT圖像的高級語義特征,包括通過類C3D網(wǎng)絡(luò)完成空間特征的提取,SENet和ResNeXt- 152網(wǎng)絡(luò)結(jié)合來區(qū)分特征重要性,使用隨機(jī)森林進(jìn)行肝臟病變識別,可達(dá)到較好的分類識別效果。
參考文獻(xiàn):
[1] 谷宇.基于深度卷積神經(jīng)網(wǎng)絡(luò)的CT影像肺結(jié)節(jié)檢測技術(shù)研究 [D].上海:上海大學(xué),2019.
[2] 武海濤.肝臟CT圖像病變檢測與識別應(yīng)用研究 [D].杭州:浙江大學(xué),2016.
[3] 劉曉虹.肝臟CT圖像特征提取與識別的研究及系統(tǒng)實(shí)現(xiàn) [D].鎮(zhèn)江:江蘇大學(xué),2019.
[4] 傅言.基于圖像分析的中醫(yī)面診及在肝病上的研究 [D].哈爾濱:哈爾濱工業(yè)大學(xué),2007.
[5] 劉天宇.基于深度監(jiān)督網(wǎng)絡(luò)的肝臟及肝臟腫瘤CT影像自動(dòng)分割算法研究 [D].蘭州:蘭州財(cái)經(jīng)大學(xué),2020.
[6] 牛婷婷.基于顯著性算法的肝臟影像圖像分類 [D].武漢:武漢科技大學(xué),2021.
作者簡介:姚冰瑩(1988.02—),女,漢族,湖北荊州人,高級工程師,講師,碩士研究生,研究方向:模式識別、云計(jì)算、Web系統(tǒng)。