陳旋,蔡宇佳,冉文兵,張利
(貴州大學(xué) 大數(shù)據(jù)與信息工程學(xué)院,貴陽 550025)
皮膚癌是常見的致命癌癥類型之一,約占癌癥病例的三分之一,其早期診斷尤其重要。皮膚鏡是檢查皮膚病變最重要的技術(shù)之一,可以捕獲皮膚的高分辨率圖像。然而,即使在有經(jīng)驗的皮膚科醫(yī)生中,僅用人類視覺檢測黑素瘤可能是主觀和不準(zhǔn)確的。尤其是皮膚病變的大小、形狀和顏色變化很大,毛發(fā)的存在會部分覆蓋病變,破壞局部環(huán)境,一些病變與正常皮膚的對比相對較低,導(dǎo)致模糊邊界,使開發(fā)計算機輔助診斷(Computer Aided Diagnosis,CAD)系統(tǒng)獲得準(zhǔn)確和突出的組織級分割極具挑戰(zhàn)性。
卷積神經(jīng)網(wǎng)絡(luò)作為計算機視覺領(lǐng)域的主要技術(shù),已經(jīng)成功地應(yīng)用于醫(yī)學(xué)圖像分類[1-2]、分割[3-4]和檢測任務(wù)[5-6]中。自2015 年提出FCN[7]后,吸引了大量的研究者進入語義分割鄰域。其中,UNet[8]就是在FCN 的基礎(chǔ)上最獲成功的改進語義分割模型之一,目前已成為醫(yī)學(xué)圖像分割領(lǐng)域應(yīng)用最為廣泛的模型,以U-Net 為骨干網(wǎng)絡(luò)的變體[9-10]在各種醫(yī)學(xué)圖像分割任務(wù)中取得了一系列可觀成果。例如,UNet++[10]通過重新設(shè)計跳過連接以利用圖像分割中的多尺度,由此來實現(xiàn)不同語義尺度的特征融合,并對固定深度的U-Net 網(wǎng)絡(luò)進行改進。Alom 等人[11]提出的基于U-Net 網(wǎng)絡(luò)和遞歸殘差卷積神經(jīng)網(wǎng)絡(luò)的模型,通過短跳躍連接來加強特征融合。Jha 等人[12]使用ResNet 和DeepLabv3+作 為UNet 的主干網(wǎng)絡(luò)來完成息肉分割任務(wù)。Oktay 等人[13]提出的Attention Unet 模型,使用門控注意力來過濾掉特征圖中不相關(guān)的反應(yīng)。Isensee 等人[14]提出nnU-Net 實現(xiàn)自適應(yīng)醫(yī)學(xué)圖像語義分割。Res-UNet[15]模型將殘差模塊與U-Net 相結(jié)合來實現(xiàn)特征融合,完成了視網(wǎng)膜分割任務(wù)。但目前技術(shù)均偏向于基于紋理、而不是結(jié)構(gòu)邊界來提取特征,這就限制了CNN 獲取目標(biāo)區(qū)域形狀信息的能力,使得當(dāng)前的技術(shù)不能很好地進行皮膚病灶分割。
針對上述算法存在的一些局限性,本文基于UNet 網(wǎng)絡(luò)框架,提出一種融合擠壓和激勵機制并用CRF 來做分割后處理的算法。通過融合SE 模塊自適應(yīng)地為特征重新分配權(quán)重,關(guān)注重要特征、同時抑制無關(guān)特征,并利用CRF 來保持目標(biāo)區(qū)域的結(jié)構(gòu)邊界,實現(xiàn)邊界精確定位。
本文的主要貢獻如下:
(1)提出了一種結(jié)合擠壓激勵機制和條件隨機場的皮膚病圖像分割模型SECU-Net,將概率圖形模型與深度學(xué)習(xí)模型結(jié)合.
(2)擠壓和激勵機制(SE)[16]使得模型能夠自適應(yīng)地重新校準(zhǔn)通道特征,突出重要特征。同時CRF[17]能細(xì)化分割。
(3)在具有挑戰(zhàn)性的ISIC2017 數(shù)據(jù)集上驗證了所提出模型的有效性。
分割是醫(yī)學(xué)圖像分析中識別和定位疾病、監(jiān)測形態(tài)變化、提取鑒別特征以便進一步診斷的關(guān)鍵。皮膚癌的早期診斷對徹底清除體內(nèi)惡性腫瘤至關(guān)重要。其中,基于人工智能的分割方法因其良好的準(zhǔn)確性、魯棒性和可靠性而被廣泛探索和采用。在過去的幾年里進行了大量的研究。例如,Nasr -Esfahani 等人[18]提出了一種新的密集全卷積網(wǎng)絡(luò)(DFCN),利用新的密集池層對病變區(qū)域進行分割。Mirikharaji 等人[19]提出了從噪聲中分割皮膚病變的方法,通過空間自適應(yīng)的重加權(quán)方法,在損失函數(shù)中運算處理干凈的和噪聲的像素級注釋,提高深度網(wǎng)絡(luò)對噪聲標(biāo)注的魯棒性。Wang 等人[20]提出了一種新的邊界感知轉(zhuǎn)換器(BAT),通過邊界注意門(BAG)提供大量的空間信息來捕獲更多的局部細(xì)節(jié)。Basak 等人[21]提出了一種新的皮膚病變分割框架,稱為多焦點分割網(wǎng)絡(luò)(MFSNet),通過聚焦于多個尺度的圖像信息產(chǎn)生最終的分割掩碼。MFSNet采用Res2Net 骨干,用于獲取深度特征,以獲得分割掩碼的全局特征圖。盡管上述基于CNN 的方法取得了成功,然而,由于分割皮膚病變在大小、形狀、質(zhì)地、位置和邊界方面存在巨大差異,使得此類分割任務(wù)是頗具挑戰(zhàn)性的。
概率圖形模型結(jié)合CNN 已經(jīng)成為語義分割鄰域的基線模型。作為模型的有效組件,CRF 在解決定位問題、產(chǎn)生準(zhǔn)確的語義分割結(jié)果和恢復(fù)對象邊界方面有著明顯優(yōu)勢。Rother 等人[22]使用CRF 來平滑噪聲分割圖。Chen 等人[23]使用雙線性插值將特征映射放大到原始圖像分辨率,此后應(yīng)用一個完全連接的CRF 來細(xì)化分割結(jié)果,更好地捕獲對象邊界。Kamnitsas 等人[24]結(jié)合全聯(lián)CRF 提出了一種高效的卷積神經(jīng)網(wǎng)絡(luò),在腦部分割病變中實現(xiàn)更結(jié)構(gòu)化的預(yù)測。Kr?henbühl 等人[25]提出一個全連通CRF模型的近似推理算法,其中成對邊緣勢由高斯核的線性組合來進行定義。Szummer 等人[26]使用圖切割來學(xué)習(xí)CRF 的最大間隔學(xué)習(xí)方法,包括結(jié)構(gòu)化輸出支持向量機、近似邊際推理和基于梯度的優(yōu)化方法來學(xué)習(xí)CRF 中的參數(shù)。雖然CRF 與神經(jīng)網(wǎng)絡(luò)結(jié)合已成為圖像語義分割領(lǐng)域較為成功的范例,然而,CRF 還沒有得到在醫(yī)學(xué)圖像分割應(yīng)用上的驗證。
受以上研究啟發(fā),本文提出一種能夠自適應(yīng)為特征分配權(quán)重和細(xì)化分割結(jié)果的網(wǎng)絡(luò)模型。主干網(wǎng)絡(luò)采用U-Net 模型,來進行特征提取。然后利用SE模塊來重新校準(zhǔn)通道特征。最后利用CRF 模塊來細(xì)化分割。
整體網(wǎng)絡(luò)結(jié)構(gòu)主要由CNN 和CRF 兩部分組成。模型框架設(shè)計如圖1 所示。這里擬展開研究論述如下。
圖1 SECU-Net 模型概述圖Fig.1 Overview of the SECU-Net model
模型采用U-Net 作為骨干網(wǎng)絡(luò)。U-Net 網(wǎng)絡(luò)是全卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),初始卷積組中有64 個濾波器,卷積濾波器大小為3×3,平均池化濾波器大小為2×2,通過收縮網(wǎng)絡(luò)和擴張網(wǎng)絡(luò)構(gòu)成一個U 型結(jié)構(gòu),對輸入樣本進行特征提取。該結(jié)構(gòu)可以使得模型能依賴較少的訓(xùn)練樣本獲得較好的分割準(zhǔn)確度。通過沿著擴展路徑使用一系列上采樣層來生成與原始圖像相同分辨率的分割圖,U-Net 沿著擴展路徑重復(fù)地將不同層次的特征通道串聯(lián)起來,并在擴展路徑的最后一階段基于大量的特征通道生成最終的分割圖。同時,長跳躍連接可使得解碼端能利用淺層特征圖,豐富了特征信息。
SE 模塊是一個計算單元,將卷積運算的輸出結(jié)果進行處理,重新為不同的特征自適應(yīng)地匹配權(quán)重,如圖2 所示。
圖2 SE 模塊Fig.2 SE module
SE 可以建立輸入X∈映射到特征U∈RH×W×C的變換上,將該變換定義為Ftr:X→U,F(xiàn)tr是一卷積操作。通過全局平均池化的方式將全局空間信息擠壓到一個通道。壓縮后的特征向量z∈RC,對于z中的第c個元素zc,計算方式如下:
接下來通過2 個非線性完全連接層將uc重新校準(zhǔn)。參數(shù)化表示如下:
其中,δ表示ReLU函數(shù);W1∈;W2∈。最后得到重新的輸出為:
SE 模塊通過全局平均匯集來排除空間依賴性,從而通過顯式建模通道之間的相互依賴性,學(xué)習(xí)信道特定描述符來重新校準(zhǔn)通道,提高對相關(guān)特征的靈敏度,自適應(yīng)地重新校準(zhǔn)通道特性響應(yīng)。
CRF 是一種判別類圖形模型,適用于空間信息或相鄰狀態(tài)影響當(dāng)前預(yù)測的任務(wù)。在本節(jié)中,將簡要描述CRF 的公式,具體描述以及符號表達(dá)遵循文獻[17]。在圖像分割任務(wù)中,所有像素被分為多個不同的類{1,...,C},其中C是類的數(shù)量。每張圖像I(在本文中,I是皮膚鏡圖像)中所有像素的取值χi構(gòu)成一組隨機變量χ={χ1,...,χN},N是圖像中像素的數(shù)量。模型訓(xùn)練時,χi被轉(zhuǎn)換成長度為C的分類向量,χi滿足全局馬爾可夫性。由先驗吉布斯分布表征的全連接成對CRF 模型P(X,I):
其中,ζ=(V,Ε)是描述隨機場X的無向圖,φ是每個團的勢函數(shù)。通過最大后驗概率(MAP)估計X,其最小化相應(yīng)的吉布斯能量E(X=x |I):
其中,i和j的范圍從1到N。式(5)的第一項是一元勢函數(shù),由分類器為每個像素獨立計算,該分類器在給定圖像特征的標(biāo)簽分配上產(chǎn)生分布。式(5)的第二項是二元勢函數(shù),表示為:
其中,μ(χi,χj)是描述不同類別對之間交互影響的標(biāo)簽兼容性函數(shù);ω(m)是不同k(m)的線性組合權(quán)重,并且是標(biāo)簽兼容性函數(shù);K是核的總數(shù)。每個k(m)是具有特定特征向量f的修正高斯核:
其中,fi和fj是任意特征空間中像素i和j的特征向量。每個核k(m)由對稱的正定精度矩陣Λ(m)來表征,該矩陣定義了相應(yīng)的形狀。在語義分割中,通常使用強度(I)和位置特征(p)的組合:
其中,外觀核由ω1控制,平滑核由ω2控制。參數(shù)θα、θβ和θγ控制相應(yīng)特征空間的影響。通過來自CNN 特征圖的新特征向量來更新隨機場X。
本文采用ISIC2017皮膚病數(shù)據(jù)集[27]。ISIC2017 是Kaggle 競賽公開的數(shù)據(jù)集,是皮膚癌診斷領(lǐng)域最知名的數(shù)據(jù)集之一,該數(shù)據(jù)集包括2 000張圖像和帶注釋的掩模。每個樣本的原始尺寸為576×767 像素。以7∶2∶1 的比例將所有數(shù)據(jù)集隨機劃分為訓(xùn)練集、測試集和驗證集。數(shù)據(jù)樣本如圖3 所示。圖3(a)~圖3(e)皆為數(shù)據(jù)集樣本示例。圖3(a)~圖3(e)中,第一張為原始圖像,第二張為對應(yīng)的真實值??梢钥闯觯つw病病灶具有面積和顏色變化大、結(jié)構(gòu)邊界不清晰以及毛發(fā)覆蓋等特點,為分割帶來巨大挑戰(zhàn)。
圖3 數(shù)據(jù)樣本Fig.3 Data samples
本次實驗基于Ubuntu18.04 系統(tǒng),使用NVIDIA GTX 2080Ti GPU 在公共Pytorch 框架上實現(xiàn)本文設(shè)計提出的網(wǎng)絡(luò),實驗將所有數(shù)據(jù)集的圖像大小統(tǒng)一調(diào)整為512×512。圖像中的所有像素值都?xì)w一化為0~1。對于數(shù)據(jù)擴充,通過將所有的數(shù)據(jù)進行水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)以及混合水平與垂直翻轉(zhuǎn)的方式,各種圖像變換可以緩解過度擬合問題。通過結(jié)合廣泛的圖像采集條件,提高了模型的魯棒性,對網(wǎng)絡(luò)進行訓(xùn)練時,批次大小設(shè)置為4,初始學(xué)習(xí)率設(shè)置為10-6,使用ReLU激活函數(shù)。
為了綜合評估本文提出方法的性能,采用5 個常見的語義分割度量評價指標(biāo),包括:準(zhǔn)確性(Accuracy,AC)、敏感性(Sensitivity,SE)、特異性(Specificity,SP)、F1-Score、精 確率(Precision,PC)以及Jaccard相似性(JS)。下面將給出闡釋解析如下。
(1)準(zhǔn)確性(AC)。顯示正確預(yù)測的百分比,該值可由如下公式計算求出:
其中,TP(True -Positive)表示真陽性,即診斷為陽性的陽性病例;TN(True -Negative)表示真陰性,即診斷為陰性的陰性病例;FP(False -Positive)表示假陽性,即診斷為陽性的陰性病例;FN(False -Negative)表示假陰性,即診斷為不利的陽性病例。
(2)特異性(SP)。衡量模型正確識別的FP的比例,該值可由如下公式計算求出:
其中,式(11)中各項的數(shù)學(xué)含義同式(10)。
(3)敏感性(SE)。衡量模型正確識別的預(yù)測TP的比例,該值可由如下公式計算求出:
其中,式(12)中各項的數(shù)學(xué)含義同式(10)。
(4)F1-Score。是精度和召回率的加權(quán)平均值,該值可由如下公式計算求出:
其中,式(13)中各項的數(shù)學(xué)含義同式(10)。
(5)Jaccard相似性(JS)。用來衡量預(yù)測值X和真實值Y之間的相似性,該值可由如下公式計算求出:
其中,式(14)中各項的數(shù)學(xué)含義同式(10)。
3.3.1 消融研究
為了充分說明網(wǎng)絡(luò)中不同模塊對分割性能的影響,對不同網(wǎng)絡(luò)結(jié)構(gòu)的性能進行比較,見表1。表1中,“The proposed”表示U-Net 融合SE 和CRF 兩個模塊、即SECU-Net 網(wǎng)絡(luò)模型。仍需指出的是,表1中的粗體表示最優(yōu)結(jié)果。
表1 不同網(wǎng)絡(luò)結(jié)構(gòu)的性能比較Tab.1 Performance comparison of different network structures
由表1 可知,U-Net 基礎(chǔ)網(wǎng)絡(luò)能獲得不錯的分割結(jié)果,但各項指標(biāo)都不是很高,通過融合SE 和CRF 模塊,其中F1、SP、AC以及JS指標(biāo),均有明顯的提升,表明提出的SE 模塊和CRF 模塊對病灶特征有更好的提取能力。最后將兩者結(jié)合,可以明顯地觀察到SECU-Net 提高了預(yù)測分割結(jié)果與真實掩碼的重疊區(qū)域,保留了更多的病灶邊界信息,充分驗證了本文分割算法的有效性。
3.3.2 不同算法對比分析
為了驗證所提出SECU-Net 網(wǎng)絡(luò)的性能,在ISIC2017 數(shù)據(jù)集上將本文模型與有代表性的其他分割網(wǎng)絡(luò)進行了比較。包括U-Net[8]、AttU-Net[28]、DAGAN[29]、TransUNet[30]以及 MedT[31]。其中,TransUNet 是基于Transformer 的方法。
ISIC 2017 數(shù)據(jù)集上的性能比較結(jié)果見表2。表2中,粗體表示最優(yōu)結(jié)果。由表2 可以明顯看出,擬提出模型能獲得較好的綜合性能。F1分?jǐn)?shù)為0.860,SE為0.878,AC為0.924,JS為0.754。與經(jīng)典的U-Net 網(wǎng)絡(luò)模型相比,F(xiàn)1分?jǐn)?shù)高出3.4%,SE高出0.3%,SP高出2.5%,AC高出1.9%,JS高出5.0%。一方面證明所提出方案的有效性。另一方面,UNet 網(wǎng)絡(luò)是SECU-Net 的主干網(wǎng)絡(luò),這也證明了改進策略的有效性。
表2 ISIC 2017 數(shù)據(jù)集上的性能比較Tab.2 Performance comparison on ISIC 2017 dataset
3.3.3 定性結(jié)果分析
為了更直觀地顯示改進算法的病灶分割效果,除以上的定性分析外,圖4~圖6 給出了SECU-Net網(wǎng)絡(luò)的定性分割結(jié)果,從視覺上能直接觀察到,在面對各種復(fù)雜情況下的皮膚病病灶分割時,本文模型都能取得較好效果。圖4 是列舉SECU-Net 網(wǎng)絡(luò)在面對目標(biāo)區(qū)域形狀和面積變化大的情況下的分割,圖5 是列舉SECU-Net 網(wǎng)絡(luò)在面對目標(biāo)區(qū)域顏色變化大和毛發(fā)存在情況下的分割,圖6 是列舉SECUNet 網(wǎng)絡(luò)在面對目標(biāo)區(qū)域邊界結(jié)構(gòu)不清晰情況下的分割。圖4~圖6中,各圖皆為不同的測試像本,每一行由左到右分別代表輸入測試樣本原始圖像、真實值(GT Mask)和預(yù)測分割結(jié)果(pre Mask)。可以看出,本文模型能得到質(zhì)量很高的分割掩碼,可以很好地完成形狀、面積和顏色變化大,以及毛發(fā)存在的皮膚病圖形分割任務(wù)。
圖4 形狀和面積變化大的樣本分割結(jié)果示例Fig.4 Example of samples segmentation results with large variation in shape and area
圖5 毛發(fā)存在和顏色變化大的樣本分割結(jié)果示例Fig.5 Examples of segmentation results for samples with large hair presence and color changes
由圖6 可以看出,雖然SECU-Net 在處理模糊邊界上,局部細(xì)節(jié)上不能實現(xiàn)很好的分割,但很明顯可看出,即使是在樣本邊界非常模糊的情況下,仍能對目標(biāo)區(qū)域的整個輪廓和邊界進行很好的分割,其結(jié)果可為臨床診斷提供指導(dǎo)。
圖6 邊界不清晰的樣本分割結(jié)果示例Fig.6 Examples of samples segmentation results with unclear boundaries
本文提出了用于皮膚病圖像分割的SDCUNet,通過在U-Net 網(wǎng)絡(luò)中添加SE 模塊,能自適應(yīng)地為特征分配權(quán)重,即:強化需要關(guān)注的特征、抑制無關(guān)特征。同時使用CRF 來做后處理,細(xì)化分割,提高模型的表示學(xué)習(xí)能力,從而獲得更好的分割性能。實驗結(jié)果表明,與列舉的其他方案相比,SDCUNet 的性能優(yōu)于其他模型,這一點從表2 即能看出。從定性結(jié)果來看,即使是針對頗具挑戰(zhàn)性的圖像,SDCU-Net 也能產(chǎn)生較好的分割掩碼。這一點從圖5 中就可以看到。同時,從其他定性結(jié)果也可以看出,該模型產(chǎn)生了高質(zhì)量的分割掩碼。在未來的工作中,擬繼續(xù)探索將SDCU-Net 模型用于其他分割任務(wù)中,并探索提升模糊邊界分割效果的新方案。
在本文中,提出的SDCU-Net 以U-Net 作為骨干網(wǎng)絡(luò),融合SE 模塊,并用CRF 來做后處理的皮膚病病灶分割模型。針對皮膚病病灶面積和形狀不規(guī)則、顏色變化大,以及病灶與背景對比度低等問題,都能實現(xiàn)較好的分割。首先,通過SE 模塊處理卷積操作輸出的特征層,經(jīng)過全局平均匯集來排除空間依賴性,從而通過顯式建模通道之間的相互依賴性,學(xué)習(xí)信道特定描述符來重新校準(zhǔn)通道,提高對相關(guān)特征的靈敏度,自適應(yīng)地重新校準(zhǔn)通道特性響應(yīng)。同時,CRF 能建模相鄰像素之間的關(guān)系,為相同屬性的像素分配一樣的標(biāo)簽,盡管是對具有挑戰(zhàn)性的皮膚病樣本,SDCU-Net 也能得到良好的分割性能。