• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    MSAG-TransNet:肺部CT圖像中新冠肺炎感染新型冠狀病毒感染區(qū)域的分割模型

    2023-03-15 14:43:43祝鵬烜黃體仁李旭
    關(guān)鍵詞:圖像分割卷積神經(jīng)網(wǎng)絡(luò)

    祝鵬烜 黃體仁 李旭

    摘 要: 針對(duì)現(xiàn)有新冠肺炎感染新型冠狀病毒感染區(qū)域的分割方法存在形態(tài)特征提取不充分、感染區(qū)域檢測(cè)不完整以及背景混淆等問(wèn)題,提出了一種肺部CT圖像中新冠肺炎感染新型冠狀病毒感染區(qū)域的分割新模型:MSAG-TransNet模型。該模型在U型網(wǎng)絡(luò)的基礎(chǔ)上增加了多尺度特征抽取模塊、Transformer語(yǔ)義增強(qiáng)模塊和多重注意力門(mén)模塊等3個(gè)新模塊。首先設(shè)計(jì)了多尺度特征抽取模塊來(lái)增強(qiáng)骨干網(wǎng)絡(luò)的特征提取能力,通過(guò)多分支結(jié)構(gòu)的深度可分離卷積,充分提取感染區(qū)域的形態(tài)特征;其次,設(shè)計(jì)了Transformer語(yǔ)義增強(qiáng)模塊來(lái)捕獲圖像全局位置信息,整合局部形態(tài)特征;最后,設(shè)計(jì)了多重注意力門(mén)模塊,將提取的特征與對(duì)應(yīng)上采樣過(guò)程的門(mén)信號(hào)拆分成不同分區(qū),然后利用注意力門(mén)抑制各分區(qū)的無(wú)效特征,得到最終分割結(jié)果。該模型在兩個(gè)公開(kāi)的新冠肺炎新型冠狀病毒感染CT數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果顯示:分割圖像的Dice系數(shù)分別為82.03%和76.67%,精確率為77.27%和72.34%,交并比為69.53%和62.16%;與其他主流模型相比,該模型能夠提取更豐富的形態(tài)特征,檢測(cè)到更完整的感染區(qū)域,并且得到更精準(zhǔn)的分割結(jié)果。該模型可以更精確的定位和量化新冠肺炎感染新型冠狀病毒感染區(qū)域,為臨床診療提供可靠參考。

    關(guān)鍵詞: 新型冠狀病毒感染;CT圖像;圖像分割;卷積神經(jīng)網(wǎng)絡(luò);U型網(wǎng)絡(luò);Transformer

    中圖分類(lèi)號(hào): TP391.4

    文獻(xiàn)標(biāo)志碼: A

    文章編號(hào): 1673-3851 (2023) 11-0734-11

    引文格式:祝鵬烜,黃體仁,李旭.MSAG-TransNet:肺部CT圖像中新冠肺炎感染新型冠狀病毒感染區(qū)域的分割模型[J]. 浙江理工大學(xué)學(xué)報(bào)(自然科學(xué)),2023,49(6):734-744.

    Reference Format: ZHU Pengxuan, HUANG Tiren, LI Xu. MSAG-TransNet: Segmentation model of COVID-19 infected areas in lung CT images[J]. Journal of Zhejiang Sci-Tech University,2023,49(6):734-744.

    MSAG-TransNet: Segmentation model of COVID-19 infected areas in lung CT images

    ZHU Pengxuan, HUANG Tiren, LI Xu

    (School of Science, Zhejiang Sci-Tech University, Hangzhou 310018, China )

    Abstract:? To solve the problems of insufficient morphological feature extraction, incomplete detection of infected areas and background confusion in the existing segmentation methods for infected areas of COVID-19, a new segmentation model MSAG-TransNet for infected areas of COVID-19 in lung CT images was proposed. This model adds three new modules to the U-shaped network: a multi-scale feature extraction module, a Transformer semantic enhancement module and a multi-attention gate module. Firstly, the multi-scale feature extraction module was designed to enhance the feature extraction ability of the backbone network, and a deep separable convolution of a multi-branch structure was used to fully extract the morphological features of the infected areas. Secondly, the global position information of the image was captured through the designed Transformer semantic enhancement module, and local morphological features were integrated. Finally, the multi-attention gate module was designed to split the extracted features and the gate signal corresponding to the upsampling process into different partitions, and then attention gates were used to suppress invalid features in each partition to obtain the final segmentation result. The model was tested on two publicly available COVID-19 CT datasets. Experimental results show that the Dice indexes of the segmented image are 82.03% and 76.67%, the accuracy rates are 77.27% and 72.34%, and the intersection and merger ratios are 69.53% and 62.16%, respectively. Compared with other mainstream models, this model can extract richer morphological features, detect more complete infected areas, and obtain more accurate segmentation results. Therefore, this model can more accurately locate and quantify the infected areas of COVID-19, and provide reliable guidance for clinical diagnosis and treatment.

    Key words: COVID-19; CT image; image segmentation; convolutional neural network; U-shaped network; Transformer

    0 引 言

    新型冠狀病毒具有快速的傳播能力和超強(qiáng)的感染性,自2019年底開(kāi)始在全球各地不斷蔓延,嚴(yán)重沖擊國(guó)內(nèi)外的醫(yī)療系統(tǒng),對(duì)人類(lèi)健康造成了極大威脅。據(jù)世衛(wèi)組織統(tǒng)計(jì),全球累計(jì)新型冠狀病毒感染確診病例超7.5億、死亡病例超680萬(wàn)[1]。在疫情高峰期,醫(yī)療人員嚴(yán)重短缺,醫(yī)療資源擠兌現(xiàn)象時(shí)有發(fā)生。CT檢查因能觀察到磨玻璃影等典型的新冠肺炎新型冠狀病毒感染表現(xiàn),成為新型冠狀病毒感染的重要影像學(xué)檢查手段。但是,觀察大量肺部CT圖像并作出診斷是一項(xiàng)繁重的工作,且會(huì)因經(jīng)驗(yàn)不足而導(dǎo)致誤診和漏診[2]。臨床上,對(duì)感染區(qū)域的分割一般由初級(jí)醫(yī)師手動(dòng)勾畫(huà),再由多名經(jīng)驗(yàn)豐富的放射科醫(yī)師審核。250張CT圖像切片的分割需要大約400 min[3]。利用現(xiàn)有的計(jì)算機(jī)智能輔助診斷系統(tǒng)可以快速地從肺部CT圖像中自動(dòng)分割出新冠肺炎感染新型冠狀病毒感染區(qū)域,不僅可以有效評(píng)估患者肺炎感染的嚴(yán)重程度及病變情況,提高診斷的準(zhǔn)確率和效率[4-5],而且能夠避免醫(yī)患交叉感染的風(fēng)險(xiǎn)。將性能更好的端到端語(yǔ)義分割模型移植到這些計(jì)算機(jī)智能輔助診斷系統(tǒng)中并進(jìn)行算法升級(jí)[6],可以提升肺炎感染區(qū)域分割精度,從而更好地分析肺部狀況,制定治療方案等。因此,設(shè)計(jì)一種分割結(jié)果更準(zhǔn)確的模型,有助于醫(yī)生診療新冠肺炎新型冠狀病毒感染,對(duì)疾病診斷、疫情控制和患者治療等都有重要意義。

    傳統(tǒng)的圖像分割方法有閾值分割、邊緣檢測(cè)等,但是這些方法難以準(zhǔn)確分割CT圖像中灰度差異小或者邊界模糊的目標(biāo),整體分割效果并不理想。隨著深度神經(jīng)網(wǎng)絡(luò)技術(shù)的蓬勃發(fā)展,醫(yī)學(xué)圖像分割算法的性能得到了有效提升[7]。Ronneberger等[8]提出了基于全卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的U-Net模型,該模型最初應(yīng)用于細(xì)胞分割任務(wù)。由于該模型采用了U型結(jié)構(gòu),并使用跳躍連接將對(duì)應(yīng)分辨率的特征信息引入上采樣過(guò)程中,可以有效利用高級(jí)語(yǔ)義信息和低級(jí)特征,為后續(xù)分割處理提供不同尺度的信息。受此啟發(fā),各種U-Net變種模型被廣泛應(yīng)用于醫(yī)學(xué)圖像分割任務(wù)中,并取得了優(yōu)異的分割性能[9]。Zhou等[10]提出了UNet++模型,通過(guò)嵌套不同深度的U-Net,對(duì)跳躍連接進(jìn)行了改進(jìn),并對(duì)網(wǎng)絡(luò)增加了深監(jiān)督,在肺結(jié)節(jié)數(shù)據(jù)集上提升了分割性能。Oktay等[11]提出了Attention U-Net模型,設(shè)計(jì)了注意力門(mén)模塊,使得模型可以自動(dòng)學(xué)習(xí)聚焦目標(biāo)結(jié)構(gòu),抑制圖像中無(wú)關(guān)區(qū)域的信息。Isensee等[12]提出了自適應(yīng)深度學(xué)習(xí)框架nnU-Net模型,該模型充分利用了不同數(shù)據(jù)集的特性,可以自主將相應(yīng)的基本架構(gòu)轉(zhuǎn)移到不同數(shù)據(jù)集和分割任務(wù)中,該模型在多項(xiàng)比賽和醫(yī)學(xué)圖像分割任務(wù)中表現(xiàn)優(yōu)異。Hatamizadeh等[13]提出了UNETR模型,直接將Transformer編碼器[14]提取的特征跳躍連接到解碼器中,該模型在多器官數(shù)據(jù)集上表現(xiàn)出較高的分割性能。Zhang等[15]提出了TransFuse模型,該模型可以將Transformer編碼器分支和卷積編碼器分支中的多尺度特征進(jìn)行有效融合,在息肉分割等任務(wù)上取得了較精確的結(jié)果。在肺部CT圖像分割任務(wù)中,Chen等[16]利用大量肺部CT圖像數(shù)據(jù)訓(xùn)練UNet++模型,使模型的分割準(zhǔn)確率達(dá)到與放射科醫(yī)生相當(dāng)?shù)乃?。謝娟英等[17]提出了XR-MSF-Unet模型,引入了融合多尺度特征的注意力模塊,強(qiáng)化了模型的細(xì)節(jié)分割性能。顧國(guó)浩等[18]在U-Net基礎(chǔ)上引入了循環(huán)殘差模塊和自注意力機(jī)制,加強(qiáng)了模型對(duì)特征信息的抓取,從而使模型在應(yīng)對(duì)新型冠狀病毒感染區(qū)域與血管相融時(shí)具有更高的分割精度。宋瑤等[19]采用預(yù)訓(xùn)練網(wǎng)絡(luò)EfficientNet-B0進(jìn)行特征提取,采用DUpsampling代替?zhèn)鹘y(tǒng)上采樣,使設(shè)計(jì)的模型獲取更多細(xì)節(jié)信息,在新冠肺炎新型冠狀病毒感染公開(kāi)數(shù)據(jù)集上提高了分割性能。余后強(qiáng)等[20]提出了PCA-Unet模型,用PCA對(duì)肺部CT圖像中的新冠肺炎感染新型冠狀病毒感染區(qū)域進(jìn)行特征預(yù)提取,去除了圖像中的噪聲等因素干擾,使模型能夠更準(zhǔn)確地分割目標(biāo)區(qū)域。

    上述醫(yī)學(xué)圖像分割模型在新冠肺炎感染新型冠狀病毒感染區(qū)域的分割中存在以下問(wèn)題:首先,由于肺部CT圖像中新型冠狀病毒感染區(qū)域形態(tài)各異、大小不一且紋理復(fù)雜,現(xiàn)有模型存在形態(tài)特征提取不充分的問(wèn)題。其次,新型冠狀病毒感染區(qū)域通常分散于肺部CT圖像的不同位置,由于卷積運(yùn)算感受野較小,長(zhǎng)距離空間相關(guān)信息的學(xué)習(xí)能力有限,難以準(zhǔn)確定位感染區(qū)域。Transformer編碼器可以通過(guò)自注意力機(jī)制很好地進(jìn)行全局和長(zhǎng)距離語(yǔ)義信息的交互,捕獲全局語(yǔ)義信息,但其對(duì)局部信息的特征抽取能力較弱。因此僅使用卷積或僅使用Transformer編碼器不能有效整合全局位置信息和局部形態(tài)特征,導(dǎo)致感染區(qū)域檢測(cè)結(jié)果不完整。最后,新型冠狀病毒感染區(qū)域通常表現(xiàn)為磨玻璃影、實(shí)變影及斑片狀模糊陰影,感染區(qū)域可彌漫至整個(gè)肺區(qū),且易與肺部氣管、血管等混淆[21-22]。如果無(wú)法有效抑制無(wú)關(guān)背景的特征信息,那么肺部CT圖像中的正常區(qū)域易被錯(cuò)誤檢測(cè)為感染區(qū)域,導(dǎo)致背景混淆,從而降低分割性能。

    針對(duì)分割任務(wù)中感染區(qū)域形態(tài)特征沒(méi)有得到充分挖掘、感染區(qū)域檢測(cè)的不完整以及背景混淆等問(wèn)題,本文提出了一種肺部CT圖像中新型冠狀病毒感染區(qū)域的分割模型。本文將該模型命名為MSAG-TransNet,由每個(gè)模塊英文名稱的字母組合而成。該模型首先設(shè)計(jì)多尺度特征抽取模塊(Multi-scale feature extraction module, MS)來(lái)增強(qiáng)骨干網(wǎng)絡(luò)的特征提取能力,通過(guò)多分支結(jié)構(gòu),利用多尺度深度可分離卷積提取不同形態(tài)感染區(qū)域的空間信息,使用空間注意力機(jī)制實(shí)現(xiàn)多尺度信息交互,充分提取感染區(qū)域的形態(tài)特征。其次,設(shè)計(jì)了Transformer語(yǔ)義增強(qiáng)模塊(Transformer semantic enhancement module, Trans),將CT圖像及特定形態(tài)特征拆分成序列特征,并輸入Transformer編碼器捕獲全局位置信息,整合局部形態(tài)特征,充分利用卷積和Transformer的優(yōu)點(diǎn)。最后,設(shè)計(jì)了多重注意力門(mén)模塊(Multi-attention gate module, MAG),將提取的特征與對(duì)應(yīng)上采樣過(guò)程的門(mén)信號(hào)拆分成不同分區(qū),利用注意力門(mén)抑制各分區(qū)的無(wú)效特征,從而突出感染區(qū)域的特征信息,得到最終分割結(jié)果。由于該模型融合了多尺度的形態(tài)特征和全局信息,并能抑制無(wú)效特征,因此有望提高新冠肺炎感染新型冠狀病毒感染區(qū)域檢測(cè)的完整性和背景區(qū)分度,進(jìn)而提升模型的分割性能。將該模型移植到現(xiàn)有的計(jì)算機(jī)智能輔助診斷系統(tǒng)中,有望在不改變硬件的情況下提高分割結(jié)果的精度,更好地輔助醫(yī)生診療患者。

    1 本文模型

    本文提出的MSAG-TransNet模型是一個(gè)端到端的語(yǔ)義分割模型。該模型采用編解碼器體系,模型結(jié)構(gòu)示意圖如圖1所示。該模型的骨干網(wǎng)絡(luò)采用U-Net的架構(gòu)方式,保留在醫(yī)學(xué)圖像分割任務(wù)上表現(xiàn)優(yōu)異的U型結(jié)構(gòu)和跳躍連接。整體網(wǎng)絡(luò)共分5層,每層編碼器由1個(gè)卷積塊和MS模塊組成,每個(gè)卷積塊由2個(gè)相連的3×3卷積和線性整流函數(shù)(Rectified linear unit, Relu)組成,其中:C表示卷積塊輸出通道數(shù)。肺部CT圖像經(jīng)過(guò)5個(gè)MS模塊增強(qiáng)的編碼器進(jìn)行4次下采樣,抽取到盡可能充分的多尺度形態(tài)特征。在模型第1層和第5層設(shè)置Trans模塊,其中第1層的輸入由肺部CT圖像和第1層編碼器抽取的特征堆疊而成。第1層的輸出分為兩部分:一部分與第5層編碼器抽取的特征進(jìn)行堆疊,利用Transformer編碼器進(jìn)一步學(xué)習(xí)特征之間的遠(yuǎn)程依賴關(guān)系;另一部分與模型最終的上采樣結(jié)果相連接。這一設(shè)計(jì)可以加強(qiáng)網(wǎng)絡(luò)最低層和最高層的特征交互,整合全局和局部信息。下采樣特征經(jīng)過(guò)4次上采樣恢復(fù)原有分辨率,這樣會(huì)使得圖像信息丟失。為減少有用信息丟失,并使模型有效抑制肺部CT圖像中的背景信息,在每層跳躍連接中加入本文設(shè)計(jì)的MAG模塊。

    1.1 多尺度特征抽取模塊:MS模塊

    由于患者感染程度不同,新冠肺炎感染新型冠狀病毒感染區(qū)域形狀多變,大小不一。即使同一感染者,在病程不同時(shí)期,其肺部感染區(qū)域也在不斷變化[23]。在感染區(qū)域的分割任務(wù)中,需要利用各種形態(tài)的信息。但是單一尺寸的卷積核對(duì)特征抽取的能力不足,在分割時(shí)無(wú)法有效提取目標(biāo)不同形態(tài)的特征,因此本文設(shè)計(jì)了MS模塊,以獲得感染區(qū)域更豐富的形態(tài)特征。

    該模塊通過(guò)多分支結(jié)構(gòu)來(lái)實(shí)現(xiàn)多尺度特征的抽取,并通過(guò)空間注意力機(jī)制[24]提取CT圖像中感染區(qū)域不同尺度的重要空間信息,最后對(duì)不同尺度卷積核抽取的特征進(jìn)行加權(quán),得到最終的特征圖,實(shí)現(xiàn)多尺度信息的交互。MS模塊流程如圖2所示,其中:Oi表示該模塊的輸出特征圖;Fi表示該模塊的輸入特征圖;“DW,1×7”表示卷積核大小為1×7的深度可分離卷積操作,其他類(lèi)似;“1×k”“k×1”“2×2”表示對(duì)應(yīng)卷積核大小的常規(guī)卷積操作。

    首先將骨干網(wǎng)絡(luò)第i層卷積塊提取的特征圖Fi作為輸入傳入該模塊,進(jìn)行一次深度可分離卷積運(yùn)算以進(jìn)一步抽取特征,然后通過(guò)一個(gè)多分支深度可分離卷積抽取多尺度特征,每個(gè)分支的輸出特征Sj的計(jì)算公式為:

    其中:fDW( )表示深度可分離卷積操作,卷積核大小為5×5;fj( )表示第j個(gè)分支的計(jì)算函數(shù)。在每個(gè)分支中串聯(lián)使用兩個(gè)帶狀深度可分離卷積來(lái)近似不同尺度的大核深度可分離卷積。參考Guo等[25]提出的多分支模型的卷積核大小設(shè)置方法,本文設(shè)置3個(gè)分支,每個(gè)分支的卷積核大小分別為7、11和21。使用深度可分離卷積和串聯(lián)使用1×k、k×1的帶狀卷積來(lái)代替一個(gè)k×k大小的卷積核,以減少模型的參數(shù)量,提高程序運(yùn)行效率。帶狀卷積核作為傳統(tǒng)方形網(wǎng)格卷積核的補(bǔ)充,抽取更多不同形態(tài)的特征。這里的分支數(shù)和卷積核大小的設(shè)置均可以根據(jù)任務(wù)不同進(jìn)行調(diào)整組合。

    為了有效整合各個(gè)分支的信息,本文對(duì)不同分支提取的特征Sj與fDW(Fi)進(jìn)行逐元素(Element-wise)相加,隨后用卷積建模不同通道間的關(guān)系得到中間特征S,S的計(jì)算公式為:

    其中:fCon1( )表示卷積操作,卷積核大小為1×1。然后對(duì)S應(yīng)用Woo等[24]提出的空間注意力機(jī)制進(jìn)一步提取出重要的空間信息,得到空間注意力特征A,A的計(jì)算公式為:

    其中:fCat( )、fAve( )、fMax( )分別表示通道堆疊操作、通道平均池化和通道最大池化;fCon7( )表示卷積核大小取7×7的卷積操作。

    為了自適應(yīng)地選擇不同分支的權(quán)重,參考Li等[26]提出的“引導(dǎo)特征”(Attention guided feature)方法,進(jìn)一步對(duì)得到的雙通道空間注意力特征A進(jìn)行步長(zhǎng)為2的卷積操作,生成一個(gè)單通道空間分辨率減半的引導(dǎo)特征s,降低空間分辨率和通道數(shù)以提高效率。隨后引導(dǎo)特征s經(jīng)轉(zhuǎn)置卷積生成3通道的注意力特征,用于自適應(yīng)地選擇不同空間尺度的信息。這里對(duì)注意力特征的通道應(yīng)用指數(shù)函數(shù)歸一化運(yùn)算,得到第j個(gè)分支的自適應(yīng)權(quán)重wj,計(jì)算過(guò)程可用式(4)—(5)表示:

    其中:fReLu( )、fBN( )分別表示線性整流激活函數(shù)和批量歸一化函數(shù);fConk1( )、fCon1k( )分別表示卷積核大小k×1、1×k的卷積操作;fT( )表示卷積核大小為2的轉(zhuǎn)置卷積操作。

    該模塊的最終輸出特征圖Oi為輸入特征Fi與各個(gè)不同分支特征的加權(quán)和的殘差連接,可用式(6)表示為:

    1.2 Transformer語(yǔ)義增強(qiáng)模塊:Trans模塊

    由于肺部CT圖像中的感染區(qū)域分散,因此較難得到位置準(zhǔn)確、結(jié)構(gòu)完整的新型冠狀病毒感染區(qū)域分割圖。本文針對(duì)感染區(qū)域檢測(cè)不完整的問(wèn)題設(shè)計(jì)了Trans模塊。該模塊通過(guò)改進(jìn)Dosovitskiy等[27]提出的ViT模型,可以有效整合全局位置信息和局部形態(tài)特征。ViT模型將原本應(yīng)用于自然語(yǔ)言處理領(lǐng)域的Transformer推廣到了計(jì)算機(jī)視覺(jué)領(lǐng)域,首先將圖像拆分變形并重組為序列特征,然后利用線性映射改變序列特征維度,最后把序列特征作為輸入,利用Transformer編碼器來(lái)捕獲豐富的全局語(yǔ)義信息。但簡(jiǎn)單地把輸入圖像分割成幾個(gè)較大的圖像塊很難抓取到圖像的低層特征,如邊和角等局部形態(tài)特征。因此將特定卷積提取的形態(tài)特征與Transformer捕獲的全局信息融合,能充分利用卷積和Transformer的優(yōu)點(diǎn)。

    本文設(shè)計(jì)的Trans模塊流程如圖3(a)所示。首先將模型第1層編碼器抽取的形態(tài)特征O1進(jìn)行最大池化和平均池化操作,得到最大池化特征和平均池化特征,并將這2個(gè)特征與原圖像堆疊成一個(gè)3通道的輸入圖像。其次將維度為H×W×3的輸入圖像拆分成維度為P×P×3的小圖像塊,拆分后的小圖像塊個(gè)數(shù)為N=H×W/P2。所有小圖像塊經(jīng)過(guò)變形重組得到維度為N×L的序列特征,并通過(guò)線性映射,將原來(lái)的N×L維序列特征變成N×D維序列特征z0。然后將z0輸入8個(gè)堆疊的Transformer編碼器中,其中第4個(gè)Transformer編碼器的輸出特征z4,通過(guò)MAG模塊跳躍連接最終的上采樣結(jié)果。第8個(gè)Transformer編碼器的輸出特征z8,進(jìn)行1個(gè)3×3卷積操作后,與最終的下采樣特征O5堆疊,并進(jìn)行拆分和線性映射。最后將該特征傳入4個(gè)堆疊的Transformer編碼器中,進(jìn)一步融合全局信息。

    Transformer編碼器流程如圖3(b)所示,其中:zi-1、zi分別表示每個(gè)編碼器的輸入和輸出。Transformer編碼器由一個(gè)多頭注意力模塊和多層感知機(jī)組成,其間采用殘差連接,并在輸入前進(jìn)行層歸一化(Layer normalization, LN)。輸出zi可由式(7)—(9)計(jì)算得到:

    其中:z、zmid分別表示層歸一化序列特征和多頭注意力提取的中間特征;fMSA( )、fMLP( )、fLN( )分別表示多頭注意力、多層感知機(jī)和層歸一化的函數(shù)。

    1.3 多重注意力門(mén)模塊:MAG模塊

    編碼器下采樣過(guò)程會(huì)極大壓縮圖像的信息,特征圖的分辨率會(huì)隨著下采樣過(guò)程降低。在解碼器部分,通過(guò)轉(zhuǎn)置卷積或者上采樣操作將這些低分辨率特征圖恢復(fù)到原始分辨率大小時(shí),需要填補(bǔ)很多空白內(nèi)容。如果這個(gè)過(guò)程缺乏足夠多的輔助信息,會(huì)導(dǎo)致大量有用特征與無(wú)關(guān)背景特征混雜。采用跳躍連接可以把相應(yīng)分辨率的特征引入上采樣或轉(zhuǎn)置卷積過(guò)程,為最后的圖像分割處理提供更多的信息。但是將編碼器提取的特征圖通過(guò)跳躍連接與解碼器上采樣的特征進(jìn)行簡(jiǎn)單通道堆疊,會(huì)混入干擾分割的無(wú)效背景特征。因此,為了進(jìn)一步突出對(duì)分割任務(wù)有用的圖像信息,抑制無(wú)效背景特征,本文采用注意力門(mén)機(jī)制對(duì)特征進(jìn)行有效融合。

    本文對(duì)注意力門(mén)進(jìn)行改進(jìn),設(shè)計(jì)了MAG模塊。將特征圖拆分成多個(gè)較小的特征塊,每個(gè)小特征塊學(xué)習(xí)不同的注意力門(mén)參數(shù),自適應(yīng)地利用門(mén)信號(hào)對(duì)不同區(qū)塊中的像素點(diǎn)進(jìn)行特征融合,進(jìn)一步提高模型抑制無(wú)效背景特征的能力,從而精細(xì)化分割結(jié)果。MAG模塊的流程如圖4所示。其中:oij為編碼器第i層抽取的特征Oi拆分后的小特征塊;Gi為解碼器部分第i+1層特征上采樣后的特征,在該模塊中作為門(mén)信號(hào);gij為Gi拆分后的小特征塊;Ui為該模塊第i層的最終輸出。

    首先把Oi拆分成M個(gè)小特征塊oij,Oi的維度為C×Ho×Wo,oij的維度為C×ho×wo。拆分保持特征通道數(shù)不變,拆分后的特征塊個(gè)數(shù)M=(Ho/ho)×(Wo/wo)。其中:Ho和Wo是Oi的高和寬;ho和wo是oij的高和寬。門(mén)信號(hào)Gi按同樣的方式拆分成M塊,每塊gij與oij相對(duì)應(yīng),由gij作為oij的門(mén)信號(hào)進(jìn)行后續(xù)的操作。拆分后的特征塊分別進(jìn)行不同的1×1卷積操作,并與線性整流激活函數(shù)和Sigmoid結(jié)合,生成各自的權(quán)重圖yij,yij由式(14)計(jì)算:

    其中:fCon3( )表示卷積核大小為3×3的卷積操作。將不同的權(quán)重圖yij按位置拼接,得到與原始特征圖大小相同的權(quán)重圖Y,MAG模塊的最終輸出Ui由式(15)計(jì)算:

    1.4 損失函數(shù)

    本文模型運(yùn)用交叉熵(Cross entropy)作為逐像素(pixel-wise)監(jiān)督的損失函數(shù)Lce,Lce可用式(16)計(jì)算:

    其中:Yseg和Pseg分別是實(shí)際的標(biāo)簽值和預(yù)測(cè)為正類(lèi)的概率值。

    2 實(shí)驗(yàn)結(jié)果與分析

    2.1 數(shù)據(jù)集及評(píng)價(jià)指標(biāo)

    2.1.1 實(shí)驗(yàn)數(shù)據(jù)集

    本文將MSAG-TransNet模型與7種主流模型在兩個(gè)公開(kāi)的新冠肺炎新型冠狀病毒感染CT數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn)。數(shù)據(jù)集1來(lái)源于新冠肺炎新型冠狀病毒感染CT肺部感染分割數(shù)據(jù)集[3],該數(shù)據(jù)集由20例新冠肺炎新型冠狀病毒感染患者的CT圖像以及專(zhuān)家手動(dòng)勾畫(huà)的標(biāo)簽圖像組成。文件以NifTi格式(*.nii)提供,使用nibabel包讀取。CT圖像的分辨率為512×512,原始數(shù)據(jù)的CT圖像共有3520個(gè)切片。標(biāo)簽圖像分為2類(lèi),分別是背景和感染區(qū)域。將原始數(shù)據(jù)中CT圖像和標(biāo)簽圖像轉(zhuǎn)換成Png格式,剔除全陰的樣本后剩余1844個(gè)切片,將其按病例劃分為訓(xùn)練集和測(cè)試集,分別包含15、5個(gè)病例的切片數(shù)據(jù),其中1482個(gè)切片用于訓(xùn)練,362個(gè)切片用于測(cè)試。

    數(shù)據(jù)集2來(lái)源于網(wǎng)絡(luò)公開(kāi)數(shù)據(jù)[28],該數(shù)據(jù)集由199例新冠肺炎新型冠狀病毒感染患者的CT圖像以及專(zhuān)家手動(dòng)勾畫(huà)的標(biāo)簽圖像組成。CT圖像的分辨率為512×512,原始數(shù)據(jù)的CT圖像中共有13705個(gè)切片。將原始數(shù)據(jù)中CT圖像和標(biāo)簽圖像轉(zhuǎn)換成Png格式,剔除全陰的樣本后剩余4981個(gè)切片,將其按病例劃分為訓(xùn)練集及測(cè)試集,分別包含160、39個(gè)病例的切片數(shù)據(jù),其中3985個(gè)切片用于訓(xùn)練,996個(gè)切片用于測(cè)試。

    訓(xùn)練中對(duì)圖像進(jìn)行隨機(jī)縮放和長(zhǎng)寬的扭曲、翻轉(zhuǎn)圖像、改變飽和度和明度等數(shù)據(jù)增強(qiáng)操作。

    2.1.2 評(píng)價(jià)指標(biāo)

    本文采用Dice系數(shù)、精確率、交并比和Hausdorff距離這4個(gè)廣泛使用的指標(biāo)對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行量化評(píng)價(jià),其計(jì)算公式為:

    其中:DSC、Pr、IoU分別表示Dice系數(shù)、精確率和交并比;HD表示Hausdorff距離,mm;TP表示預(yù)測(cè)結(jié)果是正類(lèi),實(shí)際是正類(lèi)的樣例;FP表示預(yù)測(cè)結(jié)果是正類(lèi),實(shí)際是負(fù)類(lèi)的樣例;TN表示預(yù)測(cè)結(jié)果是負(fù)類(lèi),實(shí)際是負(fù)類(lèi)的樣例;FN表示預(yù)測(cè)結(jié)果是負(fù)類(lèi),實(shí)際是正類(lèi)的樣例;PB、GB分別表示預(yù)測(cè)結(jié)果和實(shí)際標(biāo)簽的邊界點(diǎn)集;pB、qB分別表示PB和GB上的像素點(diǎn)的坐標(biāo)。精確率越高,預(yù)測(cè)正確的感染區(qū)域占所有感染區(qū)域的比例越高。Dice系數(shù)和交并比指標(biāo)越高,模型整體分割性能越好。Hausdorff距離越小,預(yù)測(cè)結(jié)果的邊界距離和實(shí)際標(biāo)簽的邊界越近。

    2.2 實(shí)驗(yàn)配置及參數(shù)設(shè)置細(xì)節(jié)

    本文模型通過(guò)Pytorch工具包在一塊NVIDIA GeForce RTX 3060 GPU上進(jìn)行訓(xùn)練。為了提高運(yùn)行效率,將訓(xùn)練圖片尺寸變?yōu)?56×256,batchsize設(shè)置為2。本文使用SGD優(yōu)化器進(jìn)行網(wǎng)絡(luò)優(yōu)化,初始學(xué)習(xí)率設(shè)置為1×10-2,動(dòng)量設(shè)置為0.99,權(quán)重衰減設(shè)置為5×10-5。學(xué)習(xí)率依據(jù)“polyLR”[12]更新,總共經(jīng)過(guò)500輪的迭代訓(xùn)練。其他對(duì)比模型除nnU-Net外也按上述同樣的方法進(jìn)行訓(xùn)練,nnU-Net使用其默認(rèn)的訓(xùn)練策略。本文模型在兩個(gè)數(shù)據(jù)集上的訓(xùn)練曲線如圖5所示,顯示了損失函數(shù)值隨訓(xùn)練輪數(shù)增加的變化情況。

    2.3 實(shí)驗(yàn)結(jié)果分析

    2.3.1 消融實(shí)驗(yàn)結(jié)果分析

    為了證實(shí)模型中增加的不同模塊的有效性,本文進(jìn)行如下實(shí)驗(yàn):在原始骨干網(wǎng)絡(luò)的基礎(chǔ)上,先后加入MS模塊、Trans模塊和MAG模塊進(jìn)行對(duì)比。實(shí)驗(yàn)結(jié)果如表1所示。在骨干網(wǎng)絡(luò)上增加MS模塊后,Dice系數(shù)、精確率和交并比分別提升了3.24%、5.01%和4.37%,各項(xiàng)指標(biāo)增幅明顯,這表明模型提取了更為豐富的形態(tài)特征。繼續(xù)在模型中加入Trans模塊后,精確率提升11.25%,這表明模型檢測(cè)到了更完整的感染區(qū)域。由于模型將圖像內(nèi)更多的點(diǎn)預(yù)測(cè)為感染區(qū)域,精確率雖然大幅提升,但模型同時(shí)把更多的背景誤分為目標(biāo),導(dǎo)致Dice系數(shù)和交并比僅提升了0.72%和1.01%。最后引入的MAG模塊可以有效抑制無(wú)效背景特征,雖然精確率有所下降,但是Dice系數(shù)和交并比相較于加入了前兩個(gè)模塊的模型進(jìn)一步提升了1.23%和1.75%,模型整體表現(xiàn)更佳。這表明了本文所提出的改進(jìn)設(shè)計(jì)可以有效提升分割效果。

    圖6展示了消融實(shí)驗(yàn)的分割結(jié)果。從圖6中可以看出,增加MS模塊后得到的分割結(jié)果具有更準(zhǔn)確的形態(tài)細(xì)節(jié)。繼續(xù)增加Trans模塊后,模型將圖像中更多的點(diǎn)預(yù)測(cè)為感染區(qū)域,但是檢測(cè)到更多感染區(qū)域的同時(shí)也將更多的背景錯(cuò)誤分類(lèi)。最后增加MAG模塊,誤分的無(wú)關(guān)背景得到了有效抑制。該結(jié)果進(jìn)一步表明本文設(shè)計(jì)的各個(gè)模塊有效。

    2.3.2 分割結(jié)果的對(duì)比分析

    為了進(jìn)一步驗(yàn)證所提出模型的有效性,本文將其在上述公開(kāi)數(shù)據(jù)集上與7種主流模型進(jìn)行了比較,這些對(duì)比模型包括U-Net[8]、Attention U-net[11]、UNETR[13]、nnU-Net[12]、UNet++[10]、TransFuse[15]及BSNet[6]。表2和表3分別顯示了以上不同模型在兩個(gè)數(shù)據(jù)集上獲得的Dice系數(shù)、精確率、交并比及Hausdorff距離。

    實(shí)驗(yàn)結(jié)果表明,相較于U-Net,本文模型在兩個(gè)數(shù)據(jù)集上的Dice系數(shù)分別提升了5.19%和4.84%,精確率提升了7.45%和9.92%,交并比提升了7.13%和6.11%,Hausdorff距離降低了4.1 mm和13.14 mm。相較于第二優(yōu)的模型,Dice系數(shù)分別提升了1.92%和1.63%,交并比提升了2.71%和2.11%,Hausdorff距離降低了0.95 mm和3.85 mm。這表明本文模型在新冠肺炎感染新型冠狀病毒感染區(qū)域分割的結(jié)果更精準(zhǔn)。

    圖7顯示了本文模型與其他模型的分割結(jié)果。結(jié)合圖7、表2和表3的評(píng)價(jià)指標(biāo)結(jié)果可知:

    a)U-Net模型采用的U型結(jié)構(gòu)和跳躍連接加強(qiáng)了編解碼器之間的信息傳遞,但其使用單一尺度的卷積進(jìn)行特征提取,無(wú)法充分獲取圖像信息,導(dǎo)致實(shí)驗(yàn)結(jié)果的分割精確率不高。

    b)利用Attention U-net模型得到的評(píng)價(jià)指標(biāo)結(jié)果明顯優(yōu)于U-Net,表明注意力門(mén)機(jī)制的引入可以提升模型分割肺部CT圖像中新冠肺炎感染新型冠狀病毒感染區(qū)域的性能。

    c)利用UNETR模型得到的一些分割結(jié)果在形態(tài)上與實(shí)際標(biāo)簽差距大,該模型使用Transformer編碼器完全替代卷積編碼器,雖然提升了模型學(xué)習(xí)遠(yuǎn)程空間依賴性的能力,但是會(huì)損失很多局部細(xì)節(jié)信息。

    d)nnU-Net模型使用的網(wǎng)絡(luò)結(jié)構(gòu)與U-Net一致,在實(shí)驗(yàn)中采用其默認(rèn)的自適應(yīng)訓(xùn)練方式,利用數(shù)據(jù)集特性自動(dòng)設(shè)置超參數(shù)。由于其沒(méi)有在本質(zhì)上解決感染分割任務(wù)的問(wèn)題,該模型得到的評(píng)價(jià)指標(biāo)結(jié)果相較于U-Net沒(méi)有提升。

    e)TransFuse模型在編碼器中以并行方式融合了卷積分支和Transformer分支,整合了全局語(yǔ)義信息和局部特征信息,相較于完全使用Transformer作編碼器的UNETR提升了分割性能。由于Transformer的歸納偏置相比于卷積更少,需要大量數(shù)據(jù)才能得到更好的實(shí)驗(yàn)結(jié)果。在增加了數(shù)據(jù)量的第二個(gè)數(shù)據(jù)集上,該模型的精確率高于U-Net等卷積神經(jīng)網(wǎng)絡(luò)模型,但模型整體分割效果仍不理想。

    f)利用UNet++模型進(jìn)行實(shí)驗(yàn)得到的評(píng)價(jià)指標(biāo)優(yōu)于上述模型,該模型嵌套不同深度的U-Net來(lái)提取不同層次特征,并在網(wǎng)絡(luò)中加入深監(jiān)督,有效整合不同層次的特征。但該模型檢測(cè)的感染區(qū)域仍然有所缺失,形態(tài)細(xì)節(jié)仍有不足。

    g)BSNet模型在精確率上優(yōu)于其他模型,該模型設(shè)計(jì)了雙分支語(yǔ)義增強(qiáng)模塊和鏡像對(duì)稱邊界引導(dǎo)模塊,對(duì)不同高級(jí)特征之間的互補(bǔ)關(guān)系進(jìn)行建模,從而能夠生成更完整的分割結(jié)果。但其誤分了更多的背景區(qū)域,這使得該模型在其他指標(biāo)上的表現(xiàn)不如本文提出的模型。

    h)本文提出的MS模塊可以提取CT圖像中感染區(qū)域不同尺度的重要空間信息,充分融合多分支信息增強(qiáng)特征提取能力,分割的感染區(qū)域形態(tài)更接近實(shí)際標(biāo)簽。Trans模塊對(duì)全局語(yǔ)義信息的提取更加準(zhǔn)確,且能有效整合局部特征,可以檢測(cè)出更完整的感染區(qū)域。MAG模塊通過(guò)對(duì)特征圖的拆分精細(xì)分配有用特征信息與無(wú)效背景特征的權(quán)重,有效抑制肺部無(wú)關(guān)背景信息。與上述主流方法相比,本文所提出的模型能更準(zhǔn)確、更完整地定位和分割肺部CT圖像中新冠肺炎感染新型冠狀病毒感染區(qū)域。

    各個(gè)模型的每輪平均訓(xùn)練時(shí)間及每張切片的平均測(cè)試時(shí)間如表4所示。每輪訓(xùn)練時(shí)間基于數(shù)據(jù)集1的實(shí)驗(yàn)計(jì)算。本文模型在數(shù)據(jù)集1上的每輪訓(xùn)練時(shí)長(zhǎng)為175.85 s,每張切片的測(cè)試時(shí)間為0.18 s。雖然訓(xùn)練時(shí)間較長(zhǎng),但測(cè)試時(shí)間與其他模型相差無(wú)幾,將訓(xùn)練完成的模型移植到計(jì)算機(jī)智能輔助診斷系統(tǒng)中可以在幾乎不影響效率的情況下得到更好的分割結(jié)果。

    3 結(jié) 語(yǔ)

    為了提升肺部CT圖像中新冠肺炎感染新型冠狀病毒感染區(qū)域的分割性能,本文提出了MSAG-TransNet模型。該模型在U型網(wǎng)絡(luò)的基礎(chǔ)上增加了MS模塊、Trans模塊和MAG模塊。消融實(shí)驗(yàn)結(jié)果表明,所加的3個(gè)模塊都能提升模型的評(píng)價(jià)指標(biāo)。設(shè)計(jì)的MS模塊有效整合了不同形態(tài)感染區(qū)域的空間信息,可以有效增強(qiáng)模型的特征抽取能力;Trans模塊有效整合了全局位置信息和局部形態(tài)特征,可以使模型檢測(cè)到更完整的新冠肺炎感染新型冠狀病毒感染區(qū)域;MAG模塊可以使模型有效抑制無(wú)關(guān)背景特征。與7種當(dāng)前主流的分割模型相比,本文模型的各項(xiàng)算法評(píng)價(jià)指標(biāo)更優(yōu)。因此,本文提出的模型能夠有效提升肺部CT圖像中新冠肺炎感染新型冠狀病毒感染區(qū)域的分割性能,更好地輔助醫(yī)生診療肺炎新型冠狀病毒感染患者。

    參考文獻(xiàn):

    [1]World Health Organization. WHO coronavirus(COVID-19) dashboard[EB/OL]. (2023-01-30)[2023-03-03]. https:∥covid19.who.int/.

    [2]左斌, 李菲菲. 基于注意力機(jī)制和Inf-Net的新冠肺炎圖像分割方法[J]. 電子科技, 2023, 36(2): 22-28.

    [3]Ma J, Wang Y X, An X L, et al. Toward data-efficient learning: a benchmark for COVID-19 CT lung and infection segmentation[J]. Medical Physics, 2021, 48(3): 1197-1210.

    [4]Zhao W T, Jiang W, Qiu X G. Deep learning for COVID-19 detection based on CT images[J]. Scientific Reports, 2021, 11:14353.

    [5]Wu J T, Leung K, Leung G M. Nowcasting and forecasting the potential domestic and international spread of the 2019-nCoV outbreak originating in Wuhan, China: A modelling study[J]. The Lancet, 2020, 395(10225): 689-697.

    [6]Cong R M, Zhang Y M, Yang N, et al. Boundary guided semantic learning for real-time COVID-19 lung infection segmentation system[J]. IEEE Transactions on Consumer Electronics, 2022, 68(4): 376-386.

    [7]彭璟,羅浩宇,趙淦森,等. 深度學(xué)習(xí)下的醫(yī)學(xué)影像分割算法綜述[J]. 計(jì)算機(jī)工程與應(yīng)用,2021, 57(3): 44-57.

    [8]Ronneberger O, Fischer P, Brox T. U-Net: Convolutional networks for biomedical image segmentation[C]∥International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer, 2015: 234-241.

    [9]王卓英,童基均,蔣路茸,等. 基于U-Dense-net網(wǎng)絡(luò)的DSA圖像冠狀動(dòng)脈血管分割[J]. 浙江理工大學(xué)學(xué)報(bào)(自然科學(xué)版), 2021, 45(3): 390-399.

    [10]Zhou Z W, Rahman Siddiquee M M, Tajbakhsh N, et al. UNet++: A nested U-Net architecture for medical image segmentation[C]∥International Workshop on Deep Learning in Medical Image Analysis, International Workshop on Multimodal Learning for Clinical Decision Support. Cham: Springer, 2018: 3-11.

    [11]Oktay O, Schlemper J, Folgoc L L, et al. Attention U-Net: Learning where to look for the pancreas[EB/OL]. (2018-5-20)[2023-03-03]. https:∥arxiv.org/abs/1804.03999.

    [12]Isensee F, Jaeger P F, Kohl S A A, et al. nnU-Net: a self-configuring method for deep learning-based biomedical image segmentation[J].Nature Methods, 2021, 18(2): 203-211.

    [13]Hatamizadeh A, Tang Y C, Nath V, et al. UNETR: Transformers for 3D medical image segmentation[C]∥2022 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV). Waikoloa, HI, USA. IEEE, 2022: 1748-1758.

    [14]Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[EB/OL]. (2017-12-06)[2023-03-03]. https:∥arxiv.org/abs/1706.03762.

    [15]Zhang Y D, Liu H Y, Hu Q. TransFuse: Fusing transformers and CNNs for medical image segmentation[C]∥International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer, 2021: 14-24.

    [16]Chen J, Wu L L, Zhang J, et al. Deep learning-based model for detecting 2019 novel coronavirus pneumonia on high-resolution computed tomography[J]. Scientific Reports, 2020, 10(1): 19196.

    [17]謝娟英,張凱云. XR-MSF-Unet: 新冠肺炎肺部CT圖像自動(dòng)分割模型[J]. 計(jì)算機(jī)科學(xué)與探索,2022, 16(8): 1850-1864.

    [18]顧國(guó)浩,龍英文,吉明明. U-Net改進(jìn)及其在新冠肺炎圖像分割的應(yīng)用[J]. 中國(guó)醫(yī)學(xué)物理學(xué)雜志,2022, 39(8): 1041-1048.

    [19]宋瑤,劉俊. 改進(jìn)U-Net的新冠肺炎圖像分割方法[J]. 計(jì)算機(jī)工程與應(yīng)用,2021, 57(19): 243-251.

    [20]余后強(qiáng),徐懌璠,徐靜蕾,等. 基于PCA的Unet網(wǎng)絡(luò)用于新冠肺炎CT圖像分割[J]. 現(xiàn)代信息科技,2022, 6(20): 94-97.

    [21]姬廣海,黃滿華,張慶,等. 新型冠狀病毒肺炎CT表現(xiàn)及動(dòng)態(tài)變化[J]. 中國(guó)醫(yī)學(xué)影像技術(shù),2020, 36(2): 242-247.

    [22]許玉環(huán),呂曉艷,張見(jiàn)增,等. 新型冠狀病毒肺炎不同臨床分型的CT特征[J]. 中國(guó)醫(yī)學(xué)影像學(xué)雜志,2020, 28(12): 887-890.

    [23]丁晨宇,秦立新,余輝山,等. 新型冠狀病毒肺炎患者的CT表現(xiàn)及動(dòng)態(tài)變化特點(diǎn)[J]. 臨床放射學(xué)雜志,2021, 40(1): 55-59.

    [24]Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module[C]∥European Conference on Computer Vision. Cham: Springer, 2018: 3-19.

    [25]Guo M H, Lu C Z, Hou Q, et al.SegNeXt: Rethinking convolutional attention design for semantic segmentation[EB/OL]. (2022-09-18)[2023-03-03].https:∥arxiv.org/abs/2209.08575.

    [26]Li X, Wang W H, Hu X L, et al. Selective kernel networks[C]∥2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, CA, USA. IEEE, 2020: 510-519.

    [27]Dosovitskiy A, Beyer L, Kolesnikov A, et al. An image is worth 16x16 words: Transformers for image recognition at scale[EB/OL].(2021-06-03)[2023-03-03]. https:∥arxiv.org/abs/2010.11929.

    [28]Roth H, Xu Z Y, Tor-Díez C, et al. Rapid artificial intelligence solutions in a pandemic: The COVID-19-20 lung CT lesion segmentation challenge[J]. Medical Image Analysis, 2022, 82: 102605.

    (責(zé)任編輯:康 鋒)

    收稿日期: 2023-03-03網(wǎng)絡(luò)出版日期:2023-06-07

    基金項(xiàng)目: 浙江省自然科學(xué)基金項(xiàng)目(LQ21F030019)

    作者簡(jiǎn)介: 祝鵬烜(1993- ),男,浙江江山人,碩士研究生,主要從事醫(yī)學(xué)圖像分割方面的研究。

    通信作者: 李 旭,E-mail:lixu0103@163.com

    猜你喜歡
    圖像分割卷積神經(jīng)網(wǎng)絡(luò)
    基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
    計(jì)算機(jī)定量金相分析系統(tǒng)的軟件開(kāi)發(fā)與圖像處理方法
    基于灰色系統(tǒng)理論的數(shù)字圖像處理算法
    一種改進(jìn)的分水嶺圖像分割算法研究
    科技視界(2016年26期)2016-12-17 16:25:03
    基于LabVIEW雛雞雌雄半自動(dòng)鑒別系統(tǒng)
    一種圖像超像素的快速生成算法
    基于魯棒性的廣義FCM圖像分割算法
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    欧美少妇被猛烈插入视频| 热re99久久精品国产66热6| 一区二区三区免费毛片| 日韩av不卡免费在线播放| 国产欧美日韩精品一区二区| 亚洲精品国产av成人精品| 天美传媒精品一区二区| 亚洲成人精品中文字幕电影| 国产毛片在线视频| 国产精品国产三级国产专区5o| 欧美高清性xxxxhd video| 在线 av 中文字幕| 日本一二三区视频观看| 亚洲成人精品中文字幕电影| 麻豆久久精品国产亚洲av| av福利片在线观看| 99re6热这里在线精品视频| 午夜视频国产福利| 欧美97在线视频| 高清在线视频一区二区三区| 建设人人有责人人尽责人人享有的 | 国产熟女欧美一区二区| 日韩亚洲欧美综合| 亚洲欧美日韩卡通动漫| 亚洲精品成人av观看孕妇| 视频区图区小说| 日韩中字成人| 各种免费的搞黄视频| 午夜日本视频在线| 人妻夜夜爽99麻豆av| 三级男女做爰猛烈吃奶摸视频| 麻豆精品久久久久久蜜桃| 毛片一级片免费看久久久久| 亚洲av一区综合| 欧美另类一区| 麻豆国产97在线/欧美| 久久久成人免费电影| 欧美bdsm另类| 人人妻人人看人人澡| 国产成人a区在线观看| 别揉我奶头 嗯啊视频| 在线观看人妻少妇| 2021少妇久久久久久久久久久| 亚洲,一卡二卡三卡| 毛片一级片免费看久久久久| 能在线免费看毛片的网站| 能在线免费看毛片的网站| 久久久色成人| 日本一二三区视频观看| 黄色视频在线播放观看不卡| 免费黄色在线免费观看| 亚洲欧美日韩另类电影网站 | 91aial.com中文字幕在线观看| 久久热精品热| 日本与韩国留学比较| 中文欧美无线码| 亚洲欧美精品专区久久| 一区二区三区精品91| 日韩精品有码人妻一区| 中国三级夫妇交换| 国国产精品蜜臀av免费| 欧美国产精品一级二级三级 | 别揉我奶头 嗯啊视频| 老师上课跳d突然被开到最大视频| 18禁动态无遮挡网站| 熟妇人妻不卡中文字幕| 国产高清三级在线| 国产日韩欧美在线精品| 联通29元200g的流量卡| 在线播放无遮挡| 一区二区av电影网| h日本视频在线播放| 欧美日韩综合久久久久久| 最近中文字幕2019免费版| 免费看光身美女| 黄色日韩在线| 成人亚洲欧美一区二区av| 欧美日韩综合久久久久久| 麻豆久久精品国产亚洲av| 黄色欧美视频在线观看| 青春草亚洲视频在线观看| 精品国产一区二区三区久久久樱花 | 久久国产乱子免费精品| 成人亚洲欧美一区二区av| 国产老妇女一区| 免费观看在线日韩| 国产高清不卡午夜福利| 久久久久国产网址| 丝袜喷水一区| 免费在线观看成人毛片| 久久久国产一区二区| 亚洲无线观看免费| 又爽又黄无遮挡网站| 国产精品久久久久久精品电影小说 | 亚洲在久久综合| 极品少妇高潮喷水抽搐| 男男h啪啪无遮挡| 国产精品国产三级国产av玫瑰| 你懂的网址亚洲精品在线观看| 日本黄色片子视频| 久久久国产一区二区| 在线天堂最新版资源| 久久久久久久国产电影| 观看美女的网站| 久久精品综合一区二区三区| 亚洲欧美日韩东京热| 极品教师在线视频| 麻豆久久精品国产亚洲av| 青青草视频在线视频观看| 嘟嘟电影网在线观看| 亚洲欧美精品自产自拍| 精品久久久久久久末码| 久久97久久精品| 超碰av人人做人人爽久久| 日本wwww免费看| 在线天堂最新版资源| 久久久久久久国产电影| av在线天堂中文字幕| 日韩人妻高清精品专区| 国产老妇女一区| 韩国高清视频一区二区三区| 亚洲精品亚洲一区二区| 久久国内精品自在自线图片| 黄色日韩在线| 少妇裸体淫交视频免费看高清| 免费看av在线观看网站| 久久精品人妻少妇| 亚洲欧美一区二区三区国产| 日韩av在线免费看完整版不卡| 美女视频免费永久观看网站| 久久久久九九精品影院| 亚洲av成人精品一二三区| 在线免费观看不下载黄p国产| 欧美高清成人免费视频www| 菩萨蛮人人尽说江南好唐韦庄| 国产精品蜜桃在线观看| 啦啦啦在线观看免费高清www| 女的被弄到高潮叫床怎么办| 美女内射精品一级片tv| 18禁裸乳无遮挡动漫免费视频 | 国产亚洲av嫩草精品影院| 国内揄拍国产精品人妻在线| 熟女人妻精品中文字幕| 人人妻人人澡人人爽人人夜夜| 一区二区av电影网| 国产精品一二三区在线看| 国产精品久久久久久久电影| av在线蜜桃| 欧美激情在线99| 在线播放无遮挡| 一级片'在线观看视频| 亚洲精品乱码久久久v下载方式| 亚洲电影在线观看av| 久久99热这里只频精品6学生| av在线老鸭窝| 亚洲国产精品专区欧美| 国产v大片淫在线免费观看| 国产爱豆传媒在线观看| 日本欧美国产在线视频| 三级男女做爰猛烈吃奶摸视频| 国产亚洲午夜精品一区二区久久 | 一区二区三区四区激情视频| 视频中文字幕在线观看| 偷拍熟女少妇极品色| 国产视频首页在线观看| 国产成人福利小说| 久久久国产一区二区| 国产国拍精品亚洲av在线观看| 亚洲精品乱久久久久久| 日韩三级伦理在线观看| 国产成人免费观看mmmm| 亚洲国产精品专区欧美| 最近最新中文字幕免费大全7| 91午夜精品亚洲一区二区三区| 欧美区成人在线视频| 99精国产麻豆久久婷婷| 国产伦理片在线播放av一区| 老司机影院成人| 日韩亚洲欧美综合| 亚洲四区av| 国产精品嫩草影院av在线观看| 能在线免费看毛片的网站| videossex国产| 国语对白做爰xxxⅹ性视频网站| av国产精品久久久久影院| 久久精品久久精品一区二区三区| 搡老乐熟女国产| 久久人人爽av亚洲精品天堂 | 久久人人爽人人爽人人片va| 少妇的逼好多水| 久久精品综合一区二区三区| 久久久精品94久久精品| 久久ye,这里只有精品| 舔av片在线| 黄色怎么调成土黄色| 久久99热这里只频精品6学生| 在线观看三级黄色| 白带黄色成豆腐渣| 欧美最新免费一区二区三区| 欧美日韩综合久久久久久| 你懂的网址亚洲精品在线观看| 国产老妇女一区| 亚洲欧美精品自产自拍| 中文天堂在线官网| 2022亚洲国产成人精品| 日韩欧美精品v在线| 日韩伦理黄色片| 美女国产视频在线观看| 97超视频在线观看视频| 国产国拍精品亚洲av在线观看| 大片电影免费在线观看免费| 欧美少妇被猛烈插入视频| 深爱激情五月婷婷| 亚洲,一卡二卡三卡| 97热精品久久久久久| 午夜福利视频1000在线观看| 在线免费十八禁| 久久精品夜色国产| 成人二区视频| 日本三级黄在线观看| 在线观看一区二区三区激情| 国产探花在线观看一区二区| 国产精品人妻久久久久久| 亚洲在久久综合| 国产高清不卡午夜福利| 两个人的视频大全免费| 2022亚洲国产成人精品| 精品久久久久久久久亚洲| 99久久精品热视频| 国产欧美另类精品又又久久亚洲欧美| 亚洲自偷自拍三级| 一级毛片电影观看| 天美传媒精品一区二区| 午夜老司机福利剧场| 亚洲成人久久爱视频| 麻豆精品久久久久久蜜桃| 欧美成人精品欧美一级黄| 涩涩av久久男人的天堂| 建设人人有责人人尽责人人享有的 | 精品国产露脸久久av麻豆| 边亲边吃奶的免费视频| 蜜臀久久99精品久久宅男| 精品久久久久久久久亚洲| 最近最新中文字幕免费大全7| 爱豆传媒免费全集在线观看| 国产精品爽爽va在线观看网站| 久久久精品欧美日韩精品| 丝袜美腿在线中文| 国内精品宾馆在线| 97精品久久久久久久久久精品| 啦啦啦中文免费视频观看日本| 亚洲精品国产色婷婷电影| 亚洲国产av新网站| 啦啦啦在线观看免费高清www| 国国产精品蜜臀av免费| 嫩草影院新地址| 欧美日韩亚洲高清精品| 免费大片黄手机在线观看| 22中文网久久字幕| 日韩伦理黄色片| 少妇的逼好多水| 一区二区三区四区激情视频| 亚洲av免费高清在线观看| 男人爽女人下面视频在线观看| 中文乱码字字幕精品一区二区三区| 国产精品一区www在线观看| 如何舔出高潮| 黄色欧美视频在线观看| 久久精品国产亚洲av涩爱| 欧美三级亚洲精品| 一区二区三区精品91| 免费av毛片视频| 丰满乱子伦码专区| 18禁在线无遮挡免费观看视频| 好男人在线观看高清免费视频| 熟女人妻精品中文字幕| 狠狠精品人妻久久久久久综合| 亚洲av在线观看美女高潮| 成人午夜精彩视频在线观看| 亚洲色图av天堂| 国产乱人视频| 26uuu在线亚洲综合色| 国产男女内射视频| 一个人观看的视频www高清免费观看| 婷婷色综合www| 成人鲁丝片一二三区免费| 乱码一卡2卡4卡精品| 高清视频免费观看一区二区| 精品熟女少妇av免费看| 久久国产乱子免费精品| 高清av免费在线| 嫩草影院入口| 99热这里只有是精品在线观看| 别揉我奶头 嗯啊视频| 国产精品人妻久久久久久| 插逼视频在线观看| 国产一区二区三区av在线| 又粗又硬又长又爽又黄的视频| 18禁在线播放成人免费| 国产亚洲av嫩草精品影院| 香蕉精品网在线| 秋霞伦理黄片| 大陆偷拍与自拍| 亚洲熟女精品中文字幕| 一级a做视频免费观看| 欧美xxxx黑人xx丫x性爽| 免费在线观看成人毛片| 观看免费一级毛片| 欧美激情久久久久久爽电影| 日韩av在线免费看完整版不卡| 日韩不卡一区二区三区视频在线| 一边亲一边摸免费视频| 亚洲av免费高清在线观看| 欧美一级a爱片免费观看看| 国产成人精品久久久久久| 成人特级av手机在线观看| 久久久久精品性色| 日韩一区二区视频免费看| 美女脱内裤让男人舔精品视频| 99久久中文字幕三级久久日本| 欧美xxxx黑人xx丫x性爽| 久久久a久久爽久久v久久| 亚洲精品日韩在线中文字幕| av国产精品久久久久影院| 乱码一卡2卡4卡精品| 亚洲激情五月婷婷啪啪| 久久久精品94久久精品| 丰满少妇做爰视频| 免费看日本二区| 人人妻人人看人人澡| av在线蜜桃| 一级毛片 在线播放| 色播亚洲综合网| 国产乱人偷精品视频| 91狼人影院| 男女边摸边吃奶| 中文精品一卡2卡3卡4更新| 一级毛片我不卡| 欧美成人午夜免费资源| 搞女人的毛片| 国产精品国产三级专区第一集| 一级毛片 在线播放| 国产成人a∨麻豆精品| 国产人妻一区二区三区在| 18禁动态无遮挡网站| 人人妻人人爽人人添夜夜欢视频 | 只有这里有精品99| 97在线视频观看| 中文乱码字字幕精品一区二区三区| 18禁动态无遮挡网站| 亚洲无线观看免费| 男女边摸边吃奶| 中国三级夫妇交换| 六月丁香七月| 亚洲久久久久久中文字幕| 亚洲国产日韩一区二区| 黄片无遮挡物在线观看| 国产精品精品国产色婷婷| 久久精品夜色国产| 久久这里有精品视频免费| 在线看a的网站| 国产精品一及| 成人无遮挡网站| 蜜桃久久精品国产亚洲av| 久久久久国产网址| 97人妻精品一区二区三区麻豆| 一级毛片电影观看| 熟女人妻精品中文字幕| 大又大粗又爽又黄少妇毛片口| .国产精品久久| 视频区图区小说| av在线播放精品| 国产在线一区二区三区精| 亚洲精品视频女| 日本爱情动作片www.在线观看| 中文字幕制服av| 国产有黄有色有爽视频| 久久久精品欧美日韩精品| 亚洲国产精品国产精品| 蜜臀久久99精品久久宅男| 久久久色成人| 黄色一级大片看看| 一级毛片电影观看| 最近最新中文字幕大全电影3| 天堂中文最新版在线下载 | 久久久精品欧美日韩精品| 亚洲精品第二区| 免费av观看视频| 免费高清在线观看视频在线观看| 国产成人精品婷婷| 毛片女人毛片| 成人美女网站在线观看视频| 永久网站在线| 一边亲一边摸免费视频| 国产人妻一区二区三区在| 午夜视频国产福利| 99热6这里只有精品| 国产伦理片在线播放av一区| 亚洲欧美精品专区久久| 校园人妻丝袜中文字幕| 中文字幕亚洲精品专区| 黄色日韩在线| 草草在线视频免费看| 国产免费一区二区三区四区乱码| 亚洲av不卡在线观看| 久久亚洲国产成人精品v| 亚洲欧美日韩无卡精品| 校园人妻丝袜中文字幕| 中文字幕免费在线视频6| 人人妻人人澡人人爽人人夜夜| 日韩伦理黄色片| av国产久精品久网站免费入址| 亚洲美女搞黄在线观看| 色网站视频免费| 亚洲国产欧美在线一区| 国产 精品1| 尾随美女入室| 少妇被粗大猛烈的视频| 美女内射精品一级片tv| 男女那种视频在线观看| 国产精品一区二区性色av| 一级毛片电影观看| 久久精品久久久久久久性| 久久鲁丝午夜福利片| 精品一区二区免费观看| 午夜福利视频1000在线观看| 成人一区二区视频在线观看| 亚洲av中文av极速乱| 观看美女的网站| 精品视频人人做人人爽| 久久久久精品久久久久真实原创| 日韩免费高清中文字幕av| 国产又色又爽无遮挡免| 美女主播在线视频| av卡一久久| 欧美97在线视频| 国产亚洲5aaaaa淫片| 最近中文字幕高清免费大全6| 国产精品久久久久久精品古装| 久久久久久久久久成人| av免费在线看不卡| 丝袜脚勾引网站| 在线精品无人区一区二区三 | 男女啪啪激烈高潮av片| 国产成人a∨麻豆精品| 国产探花在线观看一区二区| 久久99蜜桃精品久久| 亚洲国产精品成人综合色| 赤兔流量卡办理| 又粗又硬又长又爽又黄的视频| 秋霞在线观看毛片| 伦精品一区二区三区| 久久久成人免费电影| 亚洲国产色片| 搞女人的毛片| 色吧在线观看| 国产黄色视频一区二区在线观看| 久久亚洲国产成人精品v| 国产精品秋霞免费鲁丝片| 亚洲国产精品成人久久小说| 亚洲,欧美,日韩| 免费电影在线观看免费观看| 国产精品99久久99久久久不卡 | 日本爱情动作片www.在线观看| 日日摸夜夜添夜夜爱| 欧美成人午夜免费资源| 午夜福利网站1000一区二区三区| 国产成人福利小说| 免费看日本二区| 精品熟女少妇av免费看| 国产精品精品国产色婷婷| 高清在线视频一区二区三区| 22中文网久久字幕| 亚洲国产精品成人综合色| 男女无遮挡免费网站观看| 亚洲天堂av无毛| 日本欧美国产在线视频| 欧美激情国产日韩精品一区| 97超视频在线观看视频| 性色av一级| 精品熟女少妇av免费看| 综合色丁香网| 国产色爽女视频免费观看| 各种免费的搞黄视频| 97精品久久久久久久久久精品| 麻豆成人av视频| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 久久久久国产精品人妻一区二区| 亚洲,欧美,日韩| av又黄又爽大尺度在线免费看| 少妇 在线观看| 色网站视频免费| 18禁在线播放成人免费| 日本一本二区三区精品| 欧美日韩在线观看h| 久久久色成人| 免费大片黄手机在线观看| 国产成人福利小说| 亚洲图色成人| 免费高清在线观看视频在线观看| 国产精品久久久久久av不卡| 国产午夜精品一二区理论片| 亚洲国产av新网站| 麻豆精品久久久久久蜜桃| 肉色欧美久久久久久久蜜桃 | 欧美97在线视频| 26uuu在线亚洲综合色| 狂野欧美激情性bbbbbb| 欧美日韩综合久久久久久| 国产精品女同一区二区软件| 观看免费一级毛片| 亚洲天堂av无毛| 亚洲成人久久爱视频| 大陆偷拍与自拍| 日本av手机在线免费观看| 欧美潮喷喷水| 国产成人免费观看mmmm| 一级av片app| 在线观看av片永久免费下载| 亚洲高清免费不卡视频| 久久久欧美国产精品| 久久久久久久久大av| 超碰97精品在线观看| av网站免费在线观看视频| 王馨瑶露胸无遮挡在线观看| 麻豆成人av视频| 有码 亚洲区| videos熟女内射| eeuss影院久久| 麻豆乱淫一区二区| 国产精品一区二区性色av| 好男人视频免费观看在线| 麻豆成人av视频| 男女边吃奶边做爰视频| 国产综合懂色| 国产伦精品一区二区三区视频9| 久久精品久久久久久久性| 中文字幕av成人在线电影| 久久国内精品自在自线图片| av天堂中文字幕网| 亚洲欧美日韩卡通动漫| 91狼人影院| 国产高清国产精品国产三级 | tube8黄色片| 亚洲综合色惰| 别揉我奶头 嗯啊视频| 草草在线视频免费看| 在线观看一区二区三区激情| xxx大片免费视频| 青春草视频在线免费观看| 一边亲一边摸免费视频| 五月天丁香电影| 久久热精品热| 久久久久国产精品人妻一区二区| 色综合色国产| 久久99热这里只频精品6学生| 国产又色又爽无遮挡免| 亚洲国产欧美在线一区| 国产乱人偷精品视频| 七月丁香在线播放| 日日啪夜夜爽| www.色视频.com| 丝瓜视频免费看黄片| 国产精品秋霞免费鲁丝片| 欧美极品一区二区三区四区| 亚洲欧美日韩无卡精品| 午夜爱爱视频在线播放| 日韩av不卡免费在线播放| 午夜福利视频1000在线观看| 精品国产露脸久久av麻豆| 国产黄片视频在线免费观看| 国产精品99久久久久久久久| 亚洲欧洲日产国产| av专区在线播放| 在线观看三级黄色| av在线老鸭窝| 国产成人91sexporn| 免费黄网站久久成人精品| 看非洲黑人一级黄片| 99热这里只有是精品在线观看| 日本黄大片高清| 国产免费一区二区三区四区乱码| av在线亚洲专区| 久久ye,这里只有精品| 国产成人a区在线观看| 久久久成人免费电影| 中文字幕亚洲精品专区| 亚洲精品日韩av片在线观看| 青春草国产在线视频| 亚洲av中文av极速乱| 亚洲欧美日韩另类电影网站 | 免费看av在线观看网站| 亚洲精品自拍成人| 久久99热6这里只有精品| 亚洲精品日韩在线中文字幕| 99热全是精品| 日韩av在线免费看完整版不卡| 老司机影院成人| 国产成人精品久久久久久| 毛片女人毛片| 全区人妻精品视频| 婷婷色综合www| av在线蜜桃| 国产精品嫩草影院av在线观看| 天堂中文最新版在线下载 | 午夜爱爱视频在线播放| 日韩一本色道免费dvd| 丝袜脚勾引网站| 汤姆久久久久久久影院中文字幕| 久久久久精品性色| 日韩一本色道免费dvd| 水蜜桃什么品种好| 国内少妇人妻偷人精品xxx网站| 久久国内精品自在自线图片| 国产熟女欧美一区二区|