摘"要:針對腫瘤細胞圖像與正常組織圖像之間具有強相似性、邊界模糊以及染色變化大等特點,提出了基于TransUNet網(wǎng)絡(luò)的優(yōu)化改進分割模型。此分割模型在以TransUNet為主干網(wǎng)絡(luò)的基礎(chǔ)上于編碼器部分引入注意力機制,抑制不相關(guān)的部分以突顯深層特征的語義信息。同時,改變上采樣過程中的融合方式,引入BiFusion模塊進行選擇性地融合,從而使特征數(shù)據(jù)能夠保留更多高分辨率細節(jié)信息。該分割模型在Kaggle腦部低級別膠質(zhì)瘤數(shù)據(jù)集上驗證。實驗結(jié)果表明,改進后算法的均交并比,召回率和平均精度均值分別為:"97.31%,99.91%和98.72%,與目前醫(yī)學(xué)圖像分割的主流方法相比具有更優(yōu)的性能。
關(guān)鍵詞:腦腫瘤;醫(yī)學(xué)圖像分割;注意力機制;特征融合
中圖分類號:TP391"""""文獻標(biāo)識碼:A
Research"on"Brain"Tumor"Image"Segmentation"
Method"Based"on"Improved"TransUNet"Model
ZHU"Yuting,YUAN"Xiao
(College"of"Electronic"and"Information,"Sichuan"University,"Chengdu,"Sichuan"610064,"China)
Abstract:In"view"of"the"strong"similarity"between"tumor"cell"image"and"normal"tissue"image,"fuzzy"boundary"and"large"staining"change,"an"improved"optimization"model"based"on"TransUNet"network"is"proposed."Based"on"TransUNet"as"the"backbone"network,"this"segmentation"model"introduces"the"attention"mechanism"into"the"encoder"part"to"suppress"the"irrelevant"part"to"highlight"the"semantic"information"of"the"deep"features."At"the"same"time,"the"fusion"method"in"the"upsampling"process"is"changed,"and"the"BiFusion"module"is"introduced"for"selective"fusion,"so"that"the"feature"data"can"retain"more"highresolution"details."The"model"is"verified"on"the"Kaggle"brain"lowgrade"glioma"data"set."The"experimental"results"show"that"the"MIoU,"R"and"mAP"of"the"improved"algorithm"are"97.31%,"99.91%"and"98.72%"respectively,"which"has"better"performance"compared"with"the"current"mainstream"methods"of"medical"image"segmentation.
Key"words:brain"tumor;medical"image"segmentation;attention"mechanism;feature"fusion
腦腫瘤是指生長在顱腔內(nèi)的新生物,是一種惡性程度很高的腫瘤,生長速度非???,對人類神經(jīng)系統(tǒng)的功能有很大的危害。不過大量科學(xué)研究表明,在腦腫瘤體積較小時進行手術(shù)治療的患者預(yù)后效果更好。因此,早診早治是提高腦腫瘤預(yù)后最為有效的手段。在臨床當(dāng)中腦腫瘤的診斷方法主要是通過影像學(xué)的檢查以及病理學(xué)化驗共同進行確認的。其中,核磁共振成像(Magnetic"Resonance"Imaging,MRI)是診斷腦腫瘤疾病的首選措施,這種方法具有很高的分辨率,能夠很清晰地看到腦腫瘤部位的具體形態(tài)。但是由于MRI圖像多模態(tài)和復(fù)雜的特點,給醫(yī)生手動分割帶來極大的挑戰(zhàn),且全憑專家經(jīng)驗的手工標(biāo)注分割效率低,分割精度也難以保證。因此,如何構(gòu)建一種高效、精確的腦腫瘤分割模型是當(dāng)下的研究熱點,對腫瘤的早診早治和良好預(yù)后有著極為重要的意義。
目前的分割算法層出不窮,大體可以分為兩類:傳統(tǒng)分割方法和基于深度學(xué)習(xí)的分割方法[1]。傳統(tǒng)分割方法普遍存在分割精度低的問題,且對圖像語義信息運用不充分,效果較差。近年來,深度學(xué)習(xí)技術(shù)迅速發(fā)展,取代傳統(tǒng)算法成為當(dāng)下主流的分割算法,尤其是卷積神經(jīng)網(wǎng)絡(luò)(Convdutional"Neural"Networks,"CNN)被廣泛地應(yīng)用于醫(yī)學(xué)圖像分割中。2014年,LONG等[2]提出FCN(Fully"Convolutional"Networks)網(wǎng)絡(luò),建立了一個只包含卷積層的網(wǎng)絡(luò),通過固定輸入圖像尺寸,可用于各種大小的圖像分割。2015年,RONNEBERGER等[3]提出編解碼結(jié)構(gòu)對稱分布的UNet模型,解決了FCN在恢復(fù)圖像特征信息時定位精度低的問題,同時加入跳躍連接操作使得上采樣恢復(fù)的特征圖中包含更多淺層的語義信息,提升了分割結(jié)果的精細程度。DONG等[4]在BraTS"2015[5]腦腫瘤MRI數(shù)據(jù)集上運用UNet模型進行分割,取得了不錯的效果。針對UNet在特征處理上缺乏空間關(guān)注度、分割特定圖像時缺乏最佳尺度意識等缺點,多種改進模型被提出。其中,CHEN等[6]提出Residual"UNet模型用于腦腫瘤分割,在原始的UNet中引入殘差結(jié)構(gòu),將編碼器和解碼器直接連接以提高分割精度,可以在一定程度上減少處理時間。此外,OKTAY等[7]提出Attention"UNet模型,引入注意力機制,可以在抑制輸入圖像中不相關(guān)區(qū)域的同時突出特定局部區(qū)域的顯著特征,提高了模型的靈敏度和預(yù)測的精度。
雖然基于卷積神經(jīng)網(wǎng)絡(luò)的模型在眾多醫(yī)學(xué)圖像分割任務(wù)中取得了無與倫比的效果,但是CNN在捕獲全局上下文信息方面缺乏效率?,F(xiàn)有工作通過生成非常大的感受野來獲取全局信息,需要連續(xù)下采樣和堆疊卷積層直到足夠深,這可能會帶來特征重用衰減、局部信息丟失等問題。2017年,Transformer的提出能夠有效克服CNN的缺點。Transformer用于序列到序列的預(yù)測,已經(jīng)成為具有先天性全局自我注意力機制的替代體系結(jié)構(gòu),但是由于低層次細節(jié)不足,可能會導(dǎo)致定位能力有限。CHEN"Jieneng等[8]結(jié)合Transformer和UNet提出TransUNet網(wǎng)絡(luò),結(jié)合U形對稱編解碼結(jié)構(gòu),將圖像轉(zhuǎn)換成序列處理來編碼全局信息,有效地利用淺層的CNN特征。ZHANG等[9]提出一種并行分支的TransFuse網(wǎng)絡(luò),結(jié)合Transformer和CNN兩種網(wǎng)絡(luò)架構(gòu),能同時捕獲全局依賴關(guān)系和低水平的空間細節(jié),在降低參數(shù)數(shù)量和提高推理速度方面得到很大的提升。
綜上所述,Transformer可以作為醫(yī)學(xué)圖像分割任務(wù)的強大編碼器。同時,結(jié)合注意力機制能夠有效地提高網(wǎng)絡(luò)模型的精確度。受相關(guān)研究啟發(fā),本文圍繞TransUNet骨干網(wǎng)絡(luò)開展以下工作[10]:
(1)在編碼器部分引入坐標(biāo)注意力機制CA(Coordinate"Attention)模塊。此模塊將通道注意力分解成兩個沿著不同方向聚合特征的1D特征編碼過程,可以在沿著一個空間方向捕獲長程依賴的同時沿著另一個方向保留精確的位置信息,以增強感興趣部分的表示[11]。
(2)引入BiFusion模塊用于改變上采樣過程中相應(yīng)特征圖的融合方式。此模塊主要由通道注意力和空間注意力組成,可以有效融合編解碼部分的多層級特征,精準(zhǔn)捕獲低級空間特征和高級語義上下文。
1"網(wǎng)絡(luò)模型
整體網(wǎng)絡(luò)結(jié)構(gòu)主要由編碼器、解碼器、注意力CA模塊以及特征融合BiFusion模塊這四部分組成。設(shè)計模型框架如圖1所示。
1.1"主干網(wǎng)絡(luò)
模型采用TransUNet作為骨干網(wǎng)絡(luò),它是由編碼器和解碼器組成的U形網(wǎng)絡(luò)架構(gòu)。編碼器將圖像的特征編碼為高級映射,解碼器利用細節(jié)信息生成與輸入相同維度的最終掩碼。
與傳統(tǒng)的UNet不同,TransUNet使用混合CNNTransformer架構(gòu)作為編碼器,學(xué)習(xí)來自CNN的高分辨率空間信息和來自Transformer的全局上下文信息。在編碼器部分,首先對輸入圖像做三層卷積下采樣,然后將CNN用于特征提取器產(chǎn)生一個特征圖作為輸出,接著對輸出進行圖像塊嵌入并加上位置編碼,最后將塊嵌入后的一維向量輸入到12層Transformer結(jié)構(gòu)中。這樣的混合編碼可以很好地把握全局信息以及低分辨率下的圖像細節(jié)。同時,從原始CNN中移除參數(shù)最多的最后一層,并利用Transformer分支來獲取全局上下文信息,不僅可以得到更淺的模型,而且能夠保留更加豐富的局部信息。解碼器部分較為簡單,通過常規(guī)的轉(zhuǎn)置卷積上采樣恢復(fù)圖像像素,同時級聯(lián)從編碼器的CNN下采樣對應(yīng)過來的同層分辨率特征。
本文基于TransUNet骨干網(wǎng)絡(luò),在編碼器的CNN部分添加移動網(wǎng)絡(luò)注意力機制CA模塊,并改變上采樣過程中特征融合的方式,希望使其性能表現(xiàn)優(yōu)于UNet及其相關(guān)網(wǎng)絡(luò)。
1.2"層級特征融合模塊
BiFusion模塊用于融合編碼器分支和解碼器分支的特征圖,主要由通道注意力和空間注意力組成??臻g注意力采用CBAM塊,將其作為空間濾波器增強局部細節(jié),并抑制不相關(guān)區(qū)域。由于卷積特征處理全局上下文能力較弱,且容易受到噪聲的干擾,因此對編碼器分支的特征圖進行空間注意力處理。通道注意力采用SE塊,可以增強對局部細節(jié)的提取能力,而經(jīng)過Transformer處理后的解碼器分支特征圖相對而言容易缺失局部細節(jié),因此采用通道注意力進行處理。具體來說,通過以下操作獲得融合特征fi,i=0,1,2:
fi=Residual([gEuclid"ExtrazB@
i,tEuclid"ExtrazB@
i,bEuclid"ExtrazB@
i])(1)
其中,gEuclid"ExtrazB@
i=SpatialAttn(gi),tEuclid"ExtrazB@
i=ChannelAttn(ti),bEuclid"ExtrazB@
i=Conv(tiWi1⊙giWi2),Wi1∈瘙 綆
Di×Li,Wi2∈瘙 綆
Ci×Li,|⊙|是Hadamard積,Conv是一個3×3大小的卷積層。BiFusion結(jié)構(gòu)如圖2所示。
首先將來自兩個分支的結(jié)果經(jīng)過Hadamard乘積得到一個中間結(jié)果,即交互特征bEuclid"ExtrazB@
i。接著將編碼器分支的特征圖經(jīng)過空間注意力得到結(jié)果gEuclid"ExtrazB@
i,同時將解碼器分支的特征圖經(jīng)過通道注意力得到結(jié)果tEuclid"ExtrazB@
i。最后將交互特征bEuclid"ExtrazB@
i和注意特征gEuclid"ExtrazB@
i、tEuclid"ExtrazB@
i在通道維度上進行拼接并通過殘留塊。所得到的特征fi能有效地捕獲當(dāng)前空間分辨率的全局和局部上下文。
1.3"注意力模塊
CA模塊又稱坐標(biāo)注意力,是近年來提出的一種新型高效注意力機制。目前較為流行的通道注意力機制,通常忽略了位置信息,而位置信息對于生成空間選擇性注意力圖至關(guān)重要[12]。CA模塊很好地改善了這一問題,它通過在通道注意中嵌入位置信息,使深度神經(jīng)網(wǎng)絡(luò)模型能夠在避免大量計算開銷的同時增大感受野。同時,CA模塊靈活且輕量,可以很容易地插入經(jīng)典模塊,不但可以捕捉到不同的通道,而且可以捕捉方位和方位的信息。這樣可以使模型能夠更準(zhǔn)確地找到并確定所需的對象,給分割任務(wù)帶來巨大的增益。
為了解決全局池化造成的位置信息丟失的問題,CA模塊將通道注意力分解為兩個平行的一維特征,分別沿著兩個空間方向進行聚合。這兩個嵌入特定方向信息的特征圖被分別編碼到兩個注意力圖中,每個注意力圖捕獲輸入特征圖沿一個空間方向的長期依賴關(guān)系。然后通過乘法將這兩種注意力圖應(yīng)用到輸入特征圖中,以此來加強感興趣區(qū)域的表示。這樣,在空間方向上得到了一個遠距離的依賴關(guān)系,并且在另外一個空間方向上保持了精準(zhǔn)的定位。
圖2"BiFusion模塊圖
CA注意力模塊通過坐標(biāo)信息嵌入和坐標(biāo)注意力生成這兩個步驟來編碼通道關(guān)系和遠程依賴關(guān)系。
CA模塊架構(gòu)如圖3所示。
圖3"CA模塊
可以看出,CA模塊通過兩組池化操作,并按照x方向和y方向分別提取嵌入方向的注意力特征信息。
1.3.1"坐標(biāo)信息嵌入
通道注意力一般采用全局池化的方法來實現(xiàn)空間信息的編碼,其較為暴力地將全局信息壓縮到通道描述符中,且池化后難以保存位置信息。CA模塊有所不同,為了使注意力塊在空間上捕捉到精確的位置信息,將下式進行分解,使全局池化變成一對一維的特征向量:
zc=1H×W∑Hi=1∑Wj=1xc(i,j)(2)
該全局池化操作被分成兩部分,即沿水平和垂直方向分別進行,由此得到x,y軸的相關(guān)定位信息。
水平方向得到的一維特征為:
zhc(h)=1W∑0≤ilt;Wxc(h,i)(3)
垂直方向得到的一維特征為:
zwc(h)=1H∑0≤jlt;Hxc(j,w)(4)
上述兩類轉(zhuǎn)換在兩個空間方向上進行融合,并產(chǎn)生了一對具有定向特性的圖像。這兩種變換不僅可以使注意力模塊在某一空間上獲得長期的相關(guān)性,還可以在不同的空間方向上保持精確的位置信息,從而使該網(wǎng)絡(luò)能夠更準(zhǔn)確地找到所需目標(biāo)。
1.3.2"坐標(biāo)注意力生成
上述坐標(biāo)嵌入過程中,式(3)和式(4)得到輸入特征的全局感受野,并對其進行了精準(zhǔn)定位。接著,基于以下三個準(zhǔn)則來產(chǎn)生坐標(biāo)注意力:轉(zhuǎn)換簡潔有效、精確定位感興趣區(qū)域且能夠有效地捕捉通道之間的關(guān)系。
將式(3)和式(4)的橫縱向數(shù)據(jù)結(jié)合起來,然后輸入1×1大小的卷積得到注意力的Map:
f=δ[F1([zh,zw])](5)
其中,δ是非線性激活函數(shù),F(xiàn)1是將水平和垂直的池化結(jié)果連接的操作,f∈瘙 綆
cr×(H+W),r是控制模塊大小的超參數(shù)。在得到非線性數(shù)據(jù)之后,按照水平和垂直方向,將結(jié)果分成兩組:
gh=σ[Fh(fh)](6)
gw=σ[Fw(fw)](7)
在經(jīng)過1×1卷積處理后,采用Sigmoid函數(shù)進行加權(quán)處理,最后將輸入特征圖與水平和垂直加權(quán)相乘,得到了一個具有代表性的Map,如下式所示。
yc(i,j)=xc(i,j)×ghc(i)×gwc(j)(8)
綜上所述,與僅注重通道權(quán)重的通道注意力機制不同,該方法還將空間信息納入到了計算中。將CA模塊加入編碼器部分的CNN模塊中,可以更準(zhǔn)確地定位特征圖的確切位置,從而達到更好的分割效果。
2"實驗與結(jié)果分析
2.1"數(shù)據(jù)集與網(wǎng)絡(luò)參數(shù)設(shè)置
為驗證上述方法的有效性,本文選用Kaggle腦部低級別膠質(zhì)瘤數(shù)據(jù)集。這些圖像來自癌癥成像檔案(TCIA),包含大腦MRI圖的FLAIR像以及帶有經(jīng)杜克大學(xué)董事會認證的放射線醫(yī)生批準(zhǔn)的分割掩膜。該數(shù)據(jù)集包括110個訓(xùn)練樣本,它們對應(yīng)于癌癥基因組圖譜(TCGA)低級別膠質(zhì)瘤集合中的110名患者,至少有流體衰減反轉(zhuǎn)恢復(fù)(FLAIR)序列和基因組簇數(shù)據(jù)可用。每個案例橫截面圖像數(shù)量不同,且采用“tiff”格式存儲,數(shù)據(jù)已做過預(yù)處理,不需要對其進行矯正,數(shù)據(jù)集地址為:
https://www.kaggle.com/datasets/mateuszbuda"/lggmrisegmentation。
醫(yī)學(xué)圖像分割由于數(shù)據(jù)的稀缺性,通常會導(dǎo)致過擬合。為了防止訓(xùn)練過程中產(chǎn)生此問題,首先對待分割的圖像進行預(yù)處理,包括隨機裁剪、隨機翻轉(zhuǎn)、隨機高斯、亮度調(diào)節(jié)和銳化操作,將數(shù)據(jù)集擴充至初始的2倍,以此來保證訓(xùn)練的數(shù)據(jù)量,使得模型擁有更好的泛化能力。
本次實驗基于Windows10系統(tǒng),使用Nvidia"RTX3060Ti"GPU在通用Pytorch框架上進行網(wǎng)絡(luò)的開發(fā)。實驗中Kaggle腦腫瘤數(shù)據(jù)集的所有圖像大小采用原始的224×224尺寸,并以8:2的比例將擴充后的數(shù)據(jù)集劃分為訓(xùn)練集和測試集。對網(wǎng)絡(luò)進行訓(xùn)練時,采用SGD優(yōu)化器,使得模型能夠更快收斂,從而加快訓(xùn)練速度。批次大小為8,動量為0.9,權(quán)重衰減為1e-4,最大迭代次數(shù)max_epoch為100,初始學(xué)習(xí)率0.01,并采用0.01×(1-epoch/max_epoch)0.9的學(xué)習(xí)率更新策略,終止次數(shù)為最大迭代次數(shù)。
2.2"損失函數(shù)
針對數(shù)據(jù)訓(xùn)練樣本中的類不平衡問題,采用交叉熵(Cross"Entropy,CE)和Dice損失相結(jié)合的混合損失作為模型的損失函數(shù),以此來達到更好的效果。
交叉熵損失函數(shù)定義為:
LCE=-∑Ni=1∑Lj=1[(gijlogpij)+
(1-gij)log(1-pij)](9)
其中,N表示預(yù)測圖中像素集合,L表示真實標(biāo)簽像素集合,gij表示真實類別,pij表示預(yù)測值。使用交叉熵作為損失函數(shù),能夠很好地解決梯度擴散問題,使整個網(wǎng)絡(luò)更穩(wěn)定。但是對于類不平衡圖像,會偏向于類別多的樣本,影響分割效果。
Dice損失函數(shù)定義為:
LDice=1-2∑Ni=1∑Lj=1gijpij+ε∑Ni=1∑Lj=1gij+∑Ni=1∑Lj=1pij+ε(10)
其中,為了防止損失函數(shù)中出現(xiàn)分母為0的情況,引入光滑算子ε。Dice損失函數(shù)能夠解決正負樣本不平衡的問題,并且可以自動學(xué)習(xí)網(wǎng)絡(luò)參數(shù),以使預(yù)測結(jié)果更加靠近真實值。
綜上,混合損失函數(shù)定義為:
Lmix=0.5×(LCE+LDice)(11)
2.3"評價指標(biāo)
通過3個醫(yī)學(xué)影像中常見的指標(biāo)對此模型進行量化評價,包括:均交并比MIoU、召回率(Recall)R和平均精度均值mAP。涉及相關(guān)指標(biāo)計算的參數(shù)有:TP表示真陽性(True"Positive),即確診陽性的陽性病例數(shù);TN表示真陰性(True"Negative),即診斷為陰性的陰性病例數(shù);FP表示假陽性(Flase"Positive),即確診陽性的陰性病例數(shù);FN表示假陰性(False"Negative),即診斷為陰性的陽性病例數(shù)[13]。
(1)均交并比MIoU,它是一個標(biāo)準(zhǔn)的語義分割指標(biāo),用來計算所有樣本預(yù)測值和真實值兩個集合的交集和并集之比的平均值[14]:
MIoU=TPTP+FN+FP(12)
(2)召回率R,也叫查全率,用于計算實際為陽性的樣本中被預(yù)測為陽性樣本的概率:
R=TPTP+FN(13)
(3)平均精度均值mAP,也即平均準(zhǔn)確率,是深度學(xué)習(xí)中模型好壞的一種指標(biāo),其值越接近于1,模型效果越好:
mAP=∫10P(R)dR(14)
其中,P指準(zhǔn)確率,表示分類正確的樣本占總樣本的比例:
P=TPTP+FP(15)
2.4"實驗結(jié)果與分析
2.4.1"消融實驗
通過對不同網(wǎng)絡(luò)結(jié)構(gòu)的性能對比,可以很好地描述不同模塊對分割效果的影響,實驗結(jié)果如表1所示。其中,“Proposed"Method”表示TransUNet融合CA和BiFusion兩個模塊,即本文提出的網(wǎng)絡(luò)模型。最優(yōu)的結(jié)果在表1中用粗體表示。
由表1可以看出,TransUNet基礎(chǔ)網(wǎng)絡(luò)能夠獲得較好的分割效果,但是各項指標(biāo)都有待提升。通過加入CA和BiFusion模塊,MIoU,R和mAP三項指標(biāo)都有所改善,這說明所提CA模塊和BiFusion模塊在腦腫瘤圖片特征提取方面具有較好的能力。最后,對二者進行組合,可以獲得最優(yōu)的性能指標(biāo),充分證明了文中方法的正確性。
2.4.2"對比實驗
在Kaggle腦腫瘤數(shù)據(jù)集上,將本文設(shè)計的網(wǎng)絡(luò)模型與有代表性的分割網(wǎng)絡(luò)進行比較,以此來驗證其性能。對比網(wǎng)絡(luò)包括UNet,SegNet,Deeplabv3+和TransUNet網(wǎng)絡(luò)。結(jié)果如表2所示,其中粗體表示最優(yōu)結(jié)果。
由表2可以看出,本文提出的模型能夠獲得較好的綜合性能。MIoU為0.9731,R為0.9991,mAP為0.9872。與TransUNet網(wǎng)絡(luò)相比,MIoU高出1.38%,R高出1.06%,mAP高出1.51%。與其他的輕量級網(wǎng)絡(luò)相比,分割精度均有提升。此結(jié)果一方面驗證了本文所提方案的可行性;另一方面,TransUNet作為骨干網(wǎng)絡(luò),充分驗證了改進方案的可行性。
為了更直觀地展示改進算法的分割效果,給出本文方法與其他輕量級網(wǎng)絡(luò)在腦腫瘤圖像上分割結(jié)果的對比圖,如下圖4所示。
從視覺上可以直接觀察到,各類模型均能分割出腦腫瘤不同區(qū)域的位置和大體輪廓,但是在各區(qū)域形狀不規(guī)則或模糊的邊緣位置,本文模型能得到與真實標(biāo)簽最為接近的結(jié)果,這與表2中的結(jié)果保持一致。
綜上所述,本文所提方法在分割精度方面較經(jīng)典模型有了明顯的提升,其結(jié)果可為臨床診斷提供更為精確的指導(dǎo)。
3"結(jié)"論
腦腫瘤的精準(zhǔn)分割對于腦癌的早期診斷至關(guān)重要。根據(jù)MRI腦腫瘤圖像的特點以及針對目前分割算法中存在的問題,提出了改進的TransUNet網(wǎng)絡(luò)。通過在編碼器部分加入坐標(biāo)注意力CA模塊,使模型定位更精確,同時加強對待分割區(qū)域的關(guān)注,取得更好的分割結(jié)果。同時,在上采樣過程中,改變特征融合的方式,加入BiFusion模塊來同時獲得局部和全局信息,大大提升了分割的精確度。將模型在Kaggle腦腫瘤數(shù)據(jù)集上進行實驗,結(jié)果表明,本文提出的改進TransUNet網(wǎng)絡(luò)的MIoU,R和mAP分別為97.31%,99.91%和98.72%,相比TransUNet以及UNet等主流網(wǎng)絡(luò)有較為明顯的精度優(yōu)勢。但是該模型以2D數(shù)據(jù)集為劃分依據(jù),不能充分挖掘3D空間信息。所以,如何構(gòu)建3D模型,并更加有效地提升分割效果是下一步研究的重點。
參考文獻
[1]"吳量,付殿臣,程超.基于Unet的多注意力腦腫瘤圖像分割算法[J].計算機技術(shù)與發(fā)展,2021,31(12):85-91.
[2]"LONG"J,SHELHAMER"E,DARRELL"T."Fully"convolutional"networks"for"semantic"segmentation"[C]//"Proceedings"of"the"2015"IEEE"Conference"on"Computer"Vision"and"Pattern"Recognition.Piscataway:IEEE,2015:3431-3440.
[3]"RONNEBERGER"O,F(xiàn)ISCHER"P,BROX"T.UNet:"convolutional"networks"for"biomedical"image"segmentation[J]."CoRR,2015,abs/1505.04597.
[4]"DONG"H,YANG"Guang,LIU"Fang,et"al.Automatic"brain"tuomr"dection"and"segmentation"using"Unet"based"fully"convolutional"networks"[J].Medical"Image"Understanding"and"Analysis,2017,723:506-517.
[5]"MENZE"B"H,JAKAB"A,BAUER"S,et"al.The"multimodal"brain"tumor"image"segmentation"benchmark(BRATS)"[J].IEEE"Transactions"on"Medical"Imaging,2014,34(0):1993-2024.
[6]"CHEN"Hao,DOU"Qi,YU"Lequan,et"al.VoxResNet:deep"voxelwise"residual"networks"for"brain"segmentation"from"3D"MR"images"[J].NeuroImage,2018(170):446-455.
[7]"OKTAY"O,SCHLEMPER"J,F(xiàn)OLGOC"L"L,et"al.Attention"UNet:learning"where"to"look"for"the"pancreas"[J].arXiv"preprint"arXiv:1804.03999,2018.
[8]"CHEN"Jieneng,LU"Yongyi,YU"Qihang,et"al.Transunet:transformers"make"strong"encoders"for"medical"image"segmentation"[J].arXiv"preprint"arXiv:2102.04306,2021.
[9]"ZHANG"Yundong,LIU"Huiye,HU"Qiang,et"al.TransFuse:fusing"transformers"and"CNNs"for"medical"image"segmentation"[J].arXiv"preprint"arXiv:2102.08005,2021.
[10]丁才富,楊晨,紀(jì)秋浪,等.MCANet:多尺度綜合注意力CNN在醫(yī)學(xué)圖像分割中的應(yīng)用[J].微電子學(xué)與計算機,2022,39(3):71-77.
[11]楊其晟,李文寬,楊曉峰,等.改進YOLOv5的蘋果花生長狀態(tài)檢測方法[J].計算機工程與應(yīng)用,2022,58(4):237-246.
[12]唐秉航,王艷芳,馬力,等.基于混合注意力機制的肺結(jié)節(jié)假陽性降低[J].CT理論與應(yīng)用研究,2022,31(1):63-72.
[13]陳旋,蔡宇佳,冉文兵,等.SECUNet:一種結(jié)合SE和CRF的皮膚病圖像分割網(wǎng)絡(luò)[J].智能計算機與應(yīng)用,2022,12(11):71-77+86.
[14]方新林,方艷紅,王迪.基于多模態(tài)特征融合的腦瘤圖像分割方法[J].中國醫(yī)學(xué)物理學(xué)雜志,2022,39(6):682-689.