• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合CNN和Transformer的并行雙分支皮膚病灶圖像分割

    2024-08-15 00:00:00陶惜婷葉青

    摘 要:準(zhǔn)確的皮膚病變自動分割對于協(xié)助醫(yī)生臨床診斷和治療至關(guān)重要。針對現(xiàn)有卷積結(jié)構(gòu)能提取局部特征信息但無法建模長程依賴關(guān)系,而Transformer能提取全局上下文信息但存在細(xì)節(jié)信息丟失的問題,提出了一種融合CNN和Transformer的并行多尺度自動分割網(wǎng)絡(luò)PDTransCNN。首先以基于ResNet34的CNN分支和Transformer分支并行提取皮膚病圖像的特征信息,構(gòu)建多級局部相關(guān)性和捕獲上下文信息間的長距離依賴關(guān)系;其次利用特征融合模塊FM互補(bǔ)兩分支特征間的關(guān)鍵信息,增強(qiáng)語義信息間的依賴關(guān)系;最后采用Transformer解碼單元逐步融合編碼塊和融合單元所提取到的語義信息得到最終分割結(jié)果。該模型在ISIC2016、ISIC2017和ISIC2018數(shù)據(jù)集上進(jìn)行測試,其Dice系數(shù)分別高達(dá)91.72%、87.34%和90.01%,IoU值分別為85.6%、79.55%和83.67%。實(shí)驗(yàn)結(jié)果表明,PDTransCNN相比其他分割模型具有更好的分割性能,能清晰有效地分割皮膚病變圖像。

    關(guān)鍵詞:皮膚病變; 醫(yī)學(xué)圖像分割; CNN; Transformer; 特征融合

    中圖分類號:TP391 文獻(xiàn)標(biāo)志碼:A

    文章編號:1001-3695(2024)08-044-2554-07

    doi:10.19734/j.issn.1001-3695.2023.10.0600

    Parallel dual-branch image segmentation of skinlesions fusing CNN and Transformer

    Tao Xiting, Ye Qing

    (School of Computer Science, Yangtze University, Jingzhou Hubei 434000, China)

    Abstract:Accurate automatic segmentation of skin lesions is crucial to assist physicians in clinical diagnosis and treatment. Aiming at the problem that convolutional structure can extract local feature information but cannot model long-range dependencies, while Transformer can extract global context information but suffers from the loss of detail information, this paper proposed a parallel multi-scale automatic segmentation network PDTransCNN that integrated CNN and Transformer. Firstly, it constructed multi-level local correlation and captured long-range dependencies between contextual information by extracting the feature information of dermatological images in parallel with the CNN branch based on ResNet34 and Transformer branch. Secondly, it utilized the feature fusion module(FM) to complement the key information between the two branches of features and enhance the dependencies of the semantic information. Finally, it used the Transformer decoding unit to gradually fuse the semantic information extracted from the encoding block and the fusion unit in order to obtain the final segmentation result. The model was tested on ISIC2016, ISIC2017 and ISIC2018 datasets with Dice coefficients as high as 91.72%, 87.34% and 90.01%, and IoU values of 85.60%, 79.55% and 83.67%, respectively. The experimental results show that PDTransCNN has better segmentation performance compared to other segmentation models and can segment skin lesion images clearly and effectively.

    Key words:skin lesions; medical image segmentation; CNN; Transformer; feature fusion

    0 引言

    黑色素瘤是一種具有高度侵襲性的惡性皮膚腫瘤,產(chǎn)生于皮膚中的黑色素細(xì)胞。據(jù)世界衛(wèi)生組織統(tǒng)計(jì)[1],2020年黑色素瘤病例高達(dá)325 000例,其中死亡病例約57 000例,年增長速度約3%~5%,是發(fā)病率增長最快的腫瘤之一。早期黑色素瘤外觀上與痣相似,癥狀不明顯,若病發(fā)早期及時(shí)干預(yù)治療,其5年內(nèi)存活率高達(dá)98%,而晚期黑色素瘤擴(kuò)散到身體其他部位,其存活率低于15%[2],這種差異表明惡性皮膚病的早期診斷和治療極為重要。

    目前,皮膚病的檢查方法大多采用安全無創(chuàng)的皮膚鏡技術(shù),分割皮膚病灶圖像為正常區(qū)域和病變區(qū)域可為醫(yī)生判斷惡性皮膚病提供關(guān)鍵依據(jù)。然而在臨床診斷中,病變區(qū)域本身情況復(fù)雜,存在圖像對比度低、病變邊界模糊,以及氣泡、頭發(fā)和標(biāo)尺等不良?xì)埩粑锏母蓴_,醫(yī)生根據(jù)經(jīng)驗(yàn)診斷病灶耗時(shí)耗力且主觀性強(qiáng),難免出現(xiàn)誤診和漏診的情況。因此,輔助醫(yī)生評估和診斷的皮膚病灶區(qū)域自動分割方法被廣泛研究,在臨床領(lǐng)域具有極高的應(yīng)用價(jià)值。

    傳統(tǒng)的皮膚病分割方法是基于紋理和結(jié)構(gòu)等物理特征的,只提取了圖像的表層信息,如基于閾值[3]、基于區(qū)域[4]、基于邊緣的分割算法等,依賴于手工設(shè)計(jì)特征,無法刻畫圖像豐富的內(nèi)在信息,易受毛發(fā)、噪聲等干擾因素影響,分割效果有待提高。

    近年來,隨著深度學(xué)習(xí)技術(shù)的興起,基于卷積神經(jīng)網(wǎng)絡(luò)的一系列架構(gòu)應(yīng)用于圖像分割領(lǐng)域。Long等人[5]提出了全卷積神經(jīng)網(wǎng)絡(luò),端到端的編解碼結(jié)構(gòu)首次實(shí)現(xiàn)了像素級別的圖像分割。2015年,在該架構(gòu)基礎(chǔ)上,Ronneberger等人[6]提出具有跳躍連接的編解碼U型網(wǎng)絡(luò)(U-Net),編碼器與解碼器完全對稱用于特征提取,編解碼器之間的跳躍連接實(shí)現(xiàn)了淺層特征和深層特征的融合,輔以醫(yī)學(xué)圖像獨(dú)特的結(jié)構(gòu)特點(diǎn),該模型成為醫(yī)療分割領(lǐng)域的最佳模型之一。在這之后,醫(yī)學(xué)圖像的分割算法大多是基于U-Net的結(jié)構(gòu)變體,如U-Net++[7]、Attention U-Net[8]等。Tang等人[9]提出在上下文過程中采用多階段U-Net,配合深度監(jiān)督機(jī)制實(shí)現(xiàn)端到端的精準(zhǔn)皮膚分割。Double U-Net[10]通過兩級嵌套的U型結(jié)構(gòu)細(xì)化分割結(jié)果,并引入ASPP模塊獲取不同尺度的感受野和多尺度信息,用于解決皮膚病灶區(qū)域大小各異的問題。王雪等人[11]在U-Net中引入多尺度特征融合模塊來獲取皮膚病變區(qū)域的多尺度信息。梁禮明等人[12]構(gòu)造雙U型皮膚病分割算法,粗分U型網(wǎng)絡(luò)和細(xì)分U型網(wǎng)絡(luò)分別提取圖像的粗粒度特征和細(xì)粒度特征,增強(qiáng)特征學(xué)習(xí)能力。卷積分割模型不斷改善優(yōu)化,但受限于卷積固有的歸納偏置,模型感受野有限,難以獲取全局上下文信息,缺乏長距離依賴。而全局信息關(guān)系到皮膚病灶的定位,背景與像素之間的長距離依賴對醫(yī)學(xué)圖像的精細(xì)級分割至關(guān)重要。

    自然語言處理領(lǐng)域的Transformer模型可編碼遠(yuǎn)程依賴關(guān)系,用于解決卷積架構(gòu)的感受野局限性。Dosovitskiy等人[13]提出的ViT模型首次將Transformer應(yīng)用于圖像識別領(lǐng)域,其主要任務(wù)是分類,無法解決分割任務(wù)中的像素級密集預(yù)測問題。2021年提出的Swin-Transformer[14]可用作各類視覺任務(wù)中的通用骨干網(wǎng)絡(luò)架構(gòu),包括圖像分類、圖像分割和目標(biāo)檢測等具體任務(wù)。采用移動窗口多頭注意力,代替原有多頭注意力獲取非局域窗口之間的信息交互,使計(jì)算復(fù)雜度隨圖像大小線性增長,降低平方級增長的計(jì)算量。

    雖然Transformer能建模全局上下文,但對細(xì)粒度信息的提取具有局限性。為同時(shí)具備CNN的局部細(xì)節(jié)提取能力和Transformer的全局信息建模能力,多數(shù)策略是將CNN和Transformer合并研究。Chen等人[15]提出的TransUNet模型,整體結(jié)構(gòu)由CNN和Transformer混合而成,利用CNN提取淺層特征并將提取的特征圖輸入Transformer編碼全局信息,在多器官分割和皮膚病變分割任務(wù)中取得優(yōu)異成績。Zhang等人[16]融合并行CNN分支和Transformer分支,將CNN提取的不同分辨率特征圖與Transformer上采樣特征圖像結(jié)合以捕獲皮膚病灶對等特征。梁禮明等人[17]提出多尺度Transformer的U型編解碼皮膚病分割網(wǎng)絡(luò),分層編碼器獲取圖像的粗細(xì)粒度特征信息,融合解碼器利用皮膚病灶的多尺度特征信息來生成分割結(jié)果。普鐘等人[18]利用基于Transformer的雙通道融合模塊代替U型網(wǎng)絡(luò)中的跳躍連接,減輕Transformer和CNN編解碼器間的語義差異。結(jié)果表明此種架構(gòu)可獲得更精準(zhǔn)的分割結(jié)果,現(xiàn)有皮膚病分割工作大多采用卷積代替部分Transformer層或按順序堆疊兩者,未考慮兩者空間和位置的相關(guān)性及兩者特征融合時(shí)的信息缺失或冗余。

    為解決上述問題,針對現(xiàn)有皮膚病分割方法的局限,從局部信息提取、上下文信息建模和特征融合角度進(jìn)行研究,提出了一種基于CNN和Transformer的并行雙分支皮膚病分割網(wǎng)絡(luò)(parallel dual-branching Transformer-CNN,PDTransCNN)。該架構(gòu)首先分別運(yùn)行基于CNN和Transformer的編碼器分支,用于特征提取和捕獲長距離信息,接著是提出的特征融合模塊(fusion module,F(xiàn)M)在不同層次上獲取多尺度融合特征,跳躍連接獲取的多尺度融合特征和編碼器上下文信息的同時(shí),將其輸入基于Transformer的解碼器分支中,得到最終分割結(jié)果,提升分割精度。

    本文主要貢獻(xiàn)如下:

    a)為有效利用不同深度學(xué)習(xí)模型的優(yōu)勢,提出了結(jié)合CNN和Transformer兩個深度學(xué)習(xí)模型來構(gòu)建并行雙分支編碼器。CNN編碼器以ResNet34為骨干網(wǎng)絡(luò)提取上下文局部信息,Transformer編碼器在Transformer基礎(chǔ)上添加局部模塊LU來捕獲patch內(nèi)部的局部關(guān)系和結(jié)構(gòu),Enchanced MLP代替MLP層區(qū)分特征并捕獲長距離依賴。

    b)針對特征融合,提出多尺度特征融合模塊FM獲取皮膚病灶的多尺度信息,利用空間注意力單元、通道注意力單元和全局-局部卷積相關(guān)性單元,融合來自兩個分支不同分辨率的特征,將生成的三個特征圖及掩碼圖像進(jìn)行跨域融合得到不同域的多尺度融合特征。

    c)Transformer解碼器逐步融合來自上下文和跳躍連接兩條路徑的特征,增強(qiáng)特征表示能力。采用深度監(jiān)督策略獲取階段及最終分割結(jié)果,構(gòu)建損失函數(shù)。

    d)為評價(jià)提出的PDTransCNN模型,使用不同分割模型在ISIC2016、ISIC2017、ISIC2018三個公開皮膚病數(shù)據(jù)集上進(jìn)行對比實(shí)驗(yàn),結(jié)果驗(yàn)證了該方法的有效性,取得了較好的分割結(jié)果。

    1 方法

    醫(yī)學(xué)圖像分割實(shí)質(zhì)是像素級分類任務(wù),同時(shí)獲取皮膚病灶的全局和局部信息是提升分割性能的關(guān)鍵。CNN受限于固定的卷積核,感受野有限,無法建模全局信息,Transformer的自注意力機(jī)制通過計(jì)算可得全局上下文信息,但在切分和拉伸patch過程中易丟失內(nèi)部信息。本文提出將ResNet34作為CNN骨干,結(jié)合Transformer模型構(gòu)建雙分支網(wǎng)絡(luò),融合來自雙分支提取的特征,提高模型表達(dá)能力。在這部分,首先說明PDTransCNN的總體結(jié)構(gòu),然后介紹兩個分支的工作流程,之后闡述兩分支的特征融合模塊FM如何融合和提取信息,最后簡要說明解碼過程。

    1.1 框架總體

    圖1展示了本文模型的整體結(jié)構(gòu),針對皮膚圖像的數(shù)據(jù)特點(diǎn),模型由兩個并行的分支組成。CNN分支中直接輸入圖像,逐漸增加感受野并提取局部信息。Transformer分支首先將皮膚病圖像劃分為若干個小的切片,再將切片展平成一個序列,通過線性映射層變換維度后,進(jìn)入improved Transformer塊提取全局信息并對特征圖進(jìn)行下采樣。然后用FM模塊整合兩個分支上對應(yīng)分辨率的特征圖及掩碼圖像,將生成的融合特征圖及編碼后的特征圖拼接饋送到Transformer解碼器中,變形和上采樣提取的特征圖用于解碼,得到輸出特征圖,并與兩階段的輸出特征圖按比例劃分創(chuàng)建總損失函數(shù),實(shí)現(xiàn)分割信息的補(bǔ)充。

    1.2 Transformer分支-編碼器

    皮膚病灶分割存在整體定位和細(xì)節(jié)獲取兩個挑戰(zhàn),目標(biāo)整體定位的關(guān)鍵是利用全局信息突出特征對象,而傳統(tǒng)U-Net模型只運(yùn)用卷積提取特征,感受野局限導(dǎo)致無法提取全局信息并造成特征丟失情況?;诖耍褂媚塬@取全局上下文特征的Transformer塊代替卷積構(gòu)建Transformer編碼器分支。

    對于Transformer分支,如圖1所示,輸入圖像大小為x0∈Euclid ExtraaBpC×H×W,其中C、H、W分別表示輸入圖像的通道數(shù)、高度和寬度。首先將圖像劃分為N=HM×WM個小切片,其中M表示切片的尺寸,每個切片的形狀為C×M×M。切片劃分好后,將切片塊展平為一個序列,進(jìn)入輸出維度為D的線性映射層,得到原始序列向量x∈Euclid ExtraaBpN×D,這里的維度D取值為64。

    如圖2所示,improved Transformer block包含局部模塊(local unit,LU)、L層多頭自注意力(multi-head self-attention,MSA)和增強(qiáng)多層感知機(jī)(enchanced multi-layer perception,Enchanced MLP)。LU模塊利用DW卷積和殘差結(jié)構(gòu)獲取切片內(nèi)部信息,增強(qiáng)特征表達(dá)能力。自注意力中缺乏位置信息,Enchanced MLP模塊對齊并區(qū)分提取特征,在前饋網(wǎng)絡(luò)中引入深度卷積傳遞位置信息,在深度卷積之前應(yīng)用殘差連接,在連接后運(yùn)用層歸一化,可用式(1)(2)表示:

    x′in=DWConv(FC(xin))+FC(xin)(1)

    xout=FC(ReLU(LN(x′in)))(2)

    所以說第L層的總輸出Zl可用式(3)~(5)表示:

    z′l-1=DWConv(zl-1)+zl-1(3)

    z′l=MSA(LN(z′l-1))+z′l-1(4)

    zl=EnchancedMLP(LN(z′l))+z′l(5)

    其中:DWConv(·)代表卷積核為3×3的深度卷積操作;FC(·)代表線性映射;ReLU(·)代表使用ReLU激活函數(shù)進(jìn)行非線性變換和梯度傳播,LN(·)代表層歸一化操作。最后improved Transformer層的輸出序列向量為zl∈Euclid ExtraaBpN×D,將其變形為zl∈Euclid ExtraaBpH4×W4×D。

    常用的patch merging操作忽略了patch塊之間的相關(guān)性,導(dǎo)致patch周圍特征的丟失。本文使用overlap patch merging模塊對特征圖下采樣,在切分patch時(shí),讓每個patch之間存在重疊部分,其操作類似于卷積核在特征圖上的移動,通過修改K、S、P三個參數(shù)的值控制特征圖的分辨率,K表示patch的大小,S表示相鄰patch間的距離,P表示填充的大小。每次合并操作后,特征圖的尺寸減半,通道數(shù)翻倍。

    根據(jù)空間分辨率,Transformer分支的編碼器部分可分為四個階段。第一階段由patch嵌入層和兩個improved Transformer塊組成;第二至第四階段由用于下采樣的overlap patch merging塊及提取長程依賴關(guān)系的improved Transformer塊構(gòu)成,每階段improved Transformer塊的數(shù)量分別為2、6、2。四個階段中,每階段的輸出特征圖分別用g1、g2、g3和g4表示,其大小分別為H4×W4×C、H8×W8×2C、H16×W16×4C、H32×W32×8C。保存四個不同分辨率的特征圖,以便后續(xù)與CNN分支對應(yīng)特征圖的融合。

    1.3 CNN分支

    CNN分支通過ResNet34的編碼塊創(chuàng)建特征提取網(wǎng)絡(luò),實(shí)現(xiàn)高分辨率圖像到低分辨率圖像的轉(zhuǎn)換。經(jīng)過預(yù)訓(xùn)練的ResNet34自然特征豐富,能為皮膚病灶的分割提高初始權(quán)重,獲取皮膚圖像局部上下文特征和豐富的空間細(xì)節(jié)信息。如圖1所示,conv1表示使用7×7的卷積核提取信息并修改通道數(shù),然后依次經(jīng)過ResNet34的三個塊conv2、conv3和conv4,每個塊都將特征圖下采樣2倍,將conv2的輸出t1∈H4×W4×C、conv3的輸出t2∈H8×W8×2C和conv4的輸出t3∈H16×W16×4C的特征圖與Transformer分支對應(yīng)相同分辨率的特征圖進(jìn)行特征融合,增強(qiáng)Transformer分支解碼器的表示能力。

    1.4 特征融合模塊

    考慮到皮膚病變分割目標(biāo)尺度各異、形狀多變復(fù)雜,同時(shí)一些病灶邊緣模糊且伴有毛發(fā)遮擋的問題,需充分結(jié)合來自Transformer分支和CNN分支的全局和局部特征信息,因此本文提出一個特征融合模塊FM,有效融合不同分辨率的特征細(xì)節(jié)信息。該模塊設(shè)計(jì)了通道注意力單元(channel attention unit,CAU)、空間注意力單元(spatial attention unit,SAU)、全局-局部卷積相關(guān)性單元(global-local conv unit,GLCU)和組跨域融合單元(group cross-domain unit,GCU)四個小模塊,如圖3所示。

    第一塊是通道注意力單元(CAU),將來自Transformer編碼器分支的輸出特征gi作為該模塊的輸入,用于獲取特征圖不同通道的重要程度,找到特征圖關(guān)鍵通道上的重要信息并抑制其他通道的無關(guān)信息,提高特征表示能力。同時(shí)improved Transformer塊中使用自注意力建模長距離依賴,將CAU應(yīng)用于Transformer分支,相當(dāng)于實(shí)現(xiàn)自注意力和通道注意力的混合,豐富注意力特征圖的細(xì)節(jié)信息,緩解皮膚鏡圖像低對比度、顏色差異相近產(chǎn)生的噪聲干擾。CAU的實(shí)現(xiàn)為文獻(xiàn)[19]提出的SE-Block模塊,包含壓縮和擴(kuò)張兩部分,壓縮部分將輸入特征圖gi∈Euclid ExtraaBpCi×Hi×Wi經(jīng)過全局平均池化變換維度為Ci×1×1。擴(kuò)張部分使用兩個全連接層(FC),經(jīng)過第一個FC層將通道數(shù)變換為Cg/r,r代表壓縮比,設(shè)置為16,經(jīng)過ReLU激活函數(shù)激活相關(guān)性大的有效通道后進(jìn)入第二個FC層恢復(fù)原始通道數(shù)Cg,通過sigmoid函數(shù)進(jìn)行不同通道間的非線性映射,與原始輸入特征圖相乘得到加權(quán)后的通道注意力特征圖gi′。

    第二塊是空間注意力單元(SAU),淺層CNN特征存在噪聲,將來自CNN分支的輸出特征ti作為該模塊的輸入,加權(quán)特征圖的空間位置,抑制背景噪聲的影響,增強(qiáng)局部邊界細(xì)節(jié)特征信息。采用文獻(xiàn)[20]提出的CBAM模型中的空間注意力模塊,將輸入特征圖ti∈Euclid ExtraaBpCi×Hi×Wi沿通道軸進(jìn)行最大池化和平均池化操作,產(chǎn)生兩個大小為1×Hi×Wi的通道注意力圖,并將它們在維度方向上拼接。然后利用7×7的卷積操作獲取特征之間的空間關(guān)系以便學(xué)習(xí)關(guān)鍵位置的重要信息,經(jīng)過sigmoid函數(shù)后與初始特征圖相乘得到空間注意力圖ti′,如式(6)所示。

    ti′=sigmoid(conv7×7 (AvgPool(ti)+MaxPool(ti)))ti(6)

    第三塊是全局-局部卷積相關(guān)性單元(GLCU),目前處理兩個特征圖時(shí),大多采用單一的加或乘操作,忽略了特征圖之間的對應(yīng)關(guān)系和相關(guān)性。如圖3所示,GLC是GLCU的子模塊,將輸入劃分為兩個部分,這兩部分唯一不同之處在于通過逐點(diǎn)卷積交互空間位置前,一部分利用全局平均池化聚合了空間信息。將生成的特征圖經(jīng)過sigmoid函數(shù)后與初始圖像對應(yīng)元素相乘形成殘差結(jié)構(gòu),如式(7)(8)所示。

    convx(x)=LN(conv(ReLU(LN(conv(x)))))(7)

    GLC(x)=xsigmoid(convx(GAP(x))⊕convx(x))(8)

    其中:LN(·)表示批歸一化操作;GLC(x)表示GLC模塊的輸出結(jié)果;表示對應(yīng)元素相乘;⊕表示對應(yīng)元素相加。給定分別來自CNN、Transformer分支的特征圖gi、ti∈Euclid ExtraaBpCi×Hi×Wi,經(jīng)過加權(quán)平均自適應(yīng)生成融合了gi和ti關(guān)鍵信息的特征圖mi′,如下所示。

    mi=GLC(ti⊕gi)gi+(1-GLC(ti⊕gi))ti(9)

    mi′=GLC(mi)gi+(1-GLC(mi))ti(10)

    第四塊是組跨域融合單元(GCU),通過分組聚合不同層次的特征,有效集成不同關(guān)鍵特征用于多尺度特征融合。GCU有四個輸入:空間注意力特征圖、通道注意力特征圖、融合相關(guān)性特征圖和解碼器階段產(chǎn)生的掩碼圖像。解碼器每階段的輸出經(jīng)過卷積產(chǎn)生對應(yīng)的掩碼圖像協(xié)助多尺度特征融合。將三個特征圖都沿通道軸分為四塊,每組連接各個特征圖的一塊并級聯(lián)掩碼圖像,獲得四組融合特征。各組利用不同的擴(kuò)張速率(1,2,5,7)提取不同尺度信息。拼接四組并使用1×1卷積生成跨域融合特征圖,增強(qiáng)來自不同域的特征并實(shí)現(xiàn)特征間的交互。

    1.5 Transformer分支-解碼器

    解碼器由三個階段組成,每階段堆疊上采樣、跳過連接和improved Transformer塊。編碼器第四階段的輸出作為解碼器的輸入d∈H32×W32×8C。解碼器的每個階段,首先將輸入特征2倍上采樣,然后利用跳過連接級聯(lián)來自FM模塊的相同分辨率的融合特征,并將連接后的特征饋送到解碼塊,在解碼器中實(shí)現(xiàn)上下文交互并創(chuàng)建長距離依賴。三個階段的輸出分別為d1∈H16×W16×4C,d2∈H8×W8×2C,d3∈H4×W4×C,最后使用擴(kuò)展率為4的上采樣操作恢復(fù)圖像大小,并通過卷積調(diào)整通道數(shù),為分割類別數(shù)獲得最終預(yù)測結(jié)果S1。

    1.6 損失函數(shù)

    本文采用加權(quán)IoU損失函數(shù)LIoU和二進(jìn)制交叉熵?fù)p失函數(shù)LBCE進(jìn)行模型訓(xùn)練,并使用深度監(jiān)督方法額外監(jiān)控Transformer編碼器分支第四階段的輸出S2和FM第三融合階段的輸出S3,輔助模型訓(xùn)練學(xué)習(xí),改善梯度流,最終的損失函數(shù)公式如式(11)~(14)所示。

    LBCE=-[ylogy′+(1-y)log(1-y′)](11)

    LIoU=1-yy'y+y'-yy'(12)

    L=LIoU+LBCE(13)

    Loss=αL(y,S1)+βL(y,S2)+γL(y,S3)(14)

    其中:y表示真實(shí)分割標(biāo)簽圖像;y'表示模型預(yù)測值;α、β、γ作為超參數(shù)表示不同階段的權(quán)重,設(shè)置為0.5、0.3、0.2。

    2 實(shí)驗(yàn)和結(jié)果分析

    2.1 實(shí)現(xiàn)方法

    PDTransCNN模型以待分割皮膚病灶圖像為輸入,以訓(xùn)練完成的網(wǎng)絡(luò)模型作為輸出,i表示不同階段,具體實(shí)驗(yàn)步驟如下:

    a)Transformer分支特征提取,將輸入圖像映射為嵌入向量,利用自注意力機(jī)制建模獲取全局上下文信息gi,詳細(xì)實(shí)現(xiàn)過程參見1.2節(jié)。

    b)CNN分支特征提取,基于ResNet34組成的CNN特征提取網(wǎng)絡(luò)獲取皮膚圖像豐富的局部信息ti,詳細(xì)實(shí)現(xiàn)過程參見1.3節(jié)。

    c)多尺度特征融合,為有效結(jié)合CNN分支和Transformer分支的編碼特征,利用通道注意力增強(qiáng)gi特征表示能力,空間注意力增強(qiáng)ti局部細(xì)節(jié)信息,并利用卷積相關(guān)性單元加強(qiáng)兩特征圖之間的對應(yīng)關(guān)系,分組集成關(guān)鍵特征來獲取多尺度特征融合圖fi,詳細(xì)實(shí)現(xiàn)過程參見1.4節(jié)。

    d)特征融合圖fi與全局上下文特征圖gi拼接后通過Transformer解碼器逐步上采樣,并將每階段解碼結(jié)果通過卷積生成對應(yīng)掩碼送入步驟c)的下階段特征融合模塊,采樣至原始圖像大小獲取最終分割圖像Si,詳細(xì)實(shí)現(xiàn)過程參見1.5節(jié)。

    e)構(gòu)建損失函數(shù)計(jì)算真實(shí)值和分割圖像Si的差值,并反向傳播訓(xùn)練模型,計(jì)算評價(jià)指標(biāo)。直至訓(xùn)練次數(shù)達(dá)標(biāo),獲取訓(xùn)練好的模型,詳細(xì)實(shí)現(xiàn)過程參見1.6節(jié)。

    2.2 數(shù)據(jù)集和實(shí)驗(yàn)設(shè)置

    為驗(yàn)證本文網(wǎng)絡(luò)結(jié)構(gòu),在國際皮膚成像協(xié)會(The International Skin Imaging Collaboration,ISIC)發(fā)布的ISIC2016[21]、ISIC2017[22]和ISIC2018[23]三個公共數(shù)據(jù)集上進(jìn)行綜合實(shí)驗(yàn)。ISIC2016數(shù)據(jù)集包含900張訓(xùn)練圖片和379張測試圖片,將訓(xùn)練圖片按8∶2劃分為訓(xùn)練集和驗(yàn)證集。ISIC2017數(shù)據(jù)集包含2 750張圖片,其中訓(xùn)練圖片2 000張,驗(yàn)證圖片150張,測試圖片600張。ISIC2018數(shù)據(jù)集包含2 594張訓(xùn)練圖片、100張驗(yàn)證圖片和1 000張測試圖片。每組數(shù)據(jù)都包含原圖像和經(jīng)專家手動標(biāo)注的分割標(biāo)準(zhǔn)圖像,圖像分辨率都在450pi×600pi以上,本文統(tǒng)一將所有圖像重塑為224pi×224pi大小,并通過翻轉(zhuǎn)、剪裁等數(shù)據(jù)增強(qiáng)操作增加數(shù)據(jù)多樣性。

    所有實(shí)驗(yàn)基于PyTorch深度學(xué)習(xí)框架,處理器CPU為Intel Xeon Gold 5120,內(nèi)存容量32 GB,顯卡為NVIDIA GRID T4-16Q,操作系統(tǒng)為Windows 10,實(shí)驗(yàn)仿真平臺為SageMaker Studio Lib,開發(fā)工具為PyCharm 2022.1.2社區(qū)版,編程語言為Python 3.8。訓(xùn)練過程中使用Adam算法優(yōu)化模型,初始學(xué)習(xí)率為7E-5,一階和二階矩估計(jì)的指數(shù)衰減率分別為0.5和0.999,權(quán)重衰減為1E-5,實(shí)驗(yàn)進(jìn)行25輪迭代,批處理大小設(shè)置為16。

    2.3 評價(jià)指標(biāo)

    本文采用Dice相似系數(shù)(Dice similarity coefficient,DSC)、準(zhǔn)確率(accuracy,ACC)和交并比(intersection over union,IoU)來評估模型在皮膚鏡圖像上的分割性能。DSC指標(biāo)衡量分割標(biāo)簽和預(yù)測結(jié)果的相似度,取值在0~1,其值越高表示預(yù)測結(jié)果與標(biāo)簽契合度越高。ACC計(jì)算正確分類像素的數(shù)量與總像素?cái)?shù)量間的比值,準(zhǔn)確率越高,模型判斷病變和正常區(qū)域的能力越強(qiáng)。IoU表示預(yù)測值與真實(shí)值之間的交并比,各指標(biāo)計(jì)算公式如下:

    DSC=2TP2TP+FP+FN(15)

    ACC=TP+TNTP+TN+FP+FN(16)

    IoU=TPTP+FP+FN(17)

    其中:TP表示真陽性,代表病灶區(qū)域被正確分割;FN表示真陰性,代表正常區(qū)域被正確分割;FP表示假陽性,代表正常區(qū)域誤分割為病灶區(qū)域;FN表示假陰性,代表病灶區(qū)域誤分割為正常區(qū)域。

    2.4 分割結(jié)果

    為驗(yàn)證本文模型PDTransCNN的有效性,根據(jù)上述訓(xùn)練設(shè)置參數(shù)和相同配置環(huán)境,選取U-Net、U-Net++、Attention U-Net、CE-Net[24]、TransU Net、UTNet[25] 、SegFormer[26]、Swin-UNet[27]、UNeXt[28]、MALUNet[29]、UCTransNet[30]、DCSAU-Net[31]、EGE-UNet[32]等語義分割基礎(chǔ)網(wǎng)絡(luò)和醫(yī)學(xué)分割先進(jìn)方法在ISIC2016、ISIC2017、ISIC2018三個皮膚病公開數(shù)據(jù)集上進(jìn)行對比實(shí)驗(yàn),不同網(wǎng)絡(luò)預(yù)測的分割性能指標(biāo)如表1、2所示。

    從表1可得在ISIC2017數(shù)據(jù)集上本文網(wǎng)絡(luò)PDTransCNN分割性能優(yōu)異,在DSC、IoU和ACC指標(biāo)上性能較好,分別達(dá)到87.34%、79.55%和94.30%。U-Net、U-Net++等模型是基于U形結(jié)構(gòu)構(gòu)建的,可捕獲局部上下文信息和定位像素,但其缺乏全局信息,TransUNet、Swin-UNet等模型利用了Transformer建立長距離特征依賴關(guān)系,獲取豐富的全局信息,但缺失細(xì)粒度局部信息。PDTransCNN與醫(yī)學(xué)分割基礎(chǔ)模型U-Net相比,在各項(xiàng)指標(biāo)上分別提高了4.14、5.11和1.89百分點(diǎn)。比次優(yōu)網(wǎng)絡(luò)CE-Net在DSC指標(biāo)上提高1.93百分點(diǎn),IoU指標(biāo)上提高2.32百分點(diǎn),ACC指標(biāo)上提升0.87百分點(diǎn)。相較于其他先進(jìn)對比模型,PDTransCNN在三個指標(biāo)中都達(dá)到最佳值,表明該模型能較為精準(zhǔn)地區(qū)分皮膚病變區(qū)域像素和正常區(qū)域像素,其預(yù)測結(jié)果與真實(shí)值高度相似,CNN和Transformer的雙向多尺度融合應(yīng)用,使本文模型更好地感知并獲取細(xì)節(jié)信息和關(guān)鍵特征,降低病變區(qū)域誤分割的概率,提升分割精度。

    此外,本文還對比分析了各醫(yī)學(xué)圖像分割模型的參數(shù)量和計(jì)算復(fù)雜度,結(jié)果如表1所示。PDTransCNN為了能提取更豐富有效的特征上下文信息,采用并行雙分支結(jié)構(gòu)分別獲取全局和局部復(fù)雜信息,特征融合模塊互補(bǔ)融合缺失信息,模塊結(jié)構(gòu)相對復(fù)雜,導(dǎo)致模型的參數(shù)量和計(jì)算復(fù)雜度稍高。相對于U-Net、U-Net++模型,本文參數(shù)量較高,但計(jì)算復(fù)雜度降低了3.33G和19.33G,相較于TransUNet、UCTransNet、UTNet等基于CNN和Transformer的模型,PDTransCNN參數(shù)量和計(jì)算復(fù)雜度大幅度降低,但相較于SegFormer、EGE-UNet等輕量級模型,PDTransCNN參數(shù)量和計(jì)算量指標(biāo)相對較高。這是一個權(quán)衡的過程,但對于醫(yī)療領(lǐng)域,分割精度和準(zhǔn)確性是至關(guān)重要的目標(biāo),增加的參數(shù)有利于提升模型分割效果。綜合DSC等性能指標(biāo)、參數(shù)量和計(jì)算復(fù)雜度,PDTransCNN在保持較高分割精度的同時(shí)具有適宜的參數(shù)量和計(jì)算復(fù)雜度。

    表2展示了各模型在ISIC2016和ISIC2018數(shù)據(jù)集上的測試結(jié)果,其中DSC值達(dá)到91.72%和90.01%,IoU值達(dá)到85.60%和83.67%,ACC值達(dá)到95.72%和94.07%。比ISIC2016數(shù)據(jù)集上的次優(yōu)網(wǎng)絡(luò)CE-Net在各項(xiàng)指標(biāo)上分別提升了0.41百分點(diǎn)、0.59百分點(diǎn)和0.23百分點(diǎn)。與ISIC2018數(shù)據(jù)集上的次優(yōu)網(wǎng)絡(luò)TransUNet相比,DSC值提升1.05百分點(diǎn),IoU提升1.69百分點(diǎn),ACC提升0.73百分點(diǎn)。PDTransCNN的分割預(yù)測結(jié)果更接近真實(shí)掩碼圖像。

    為更直觀地反映PDTransCNN相較于其他算法的優(yōu)越性,圖4可視化展示了14種網(wǎng)絡(luò)在ISIC2017數(shù)據(jù)集上的分割結(jié)果,圖中每行表示一例病例,每列表示使用的模型,image表示原圖,mask表示專家對原圖的分割結(jié)果。第三幅和第四幅病變圖像中,病灶區(qū)域邊緣輪廓清晰,且與正常皮膚組織區(qū)分度明顯,各模型都產(chǎn)生良好的分割結(jié)果。在第一幅圖像中,從左到右病變區(qū)域顏色逐漸變淺,淺色區(qū)域與正常區(qū)域像素差異小,邊界模糊,U-Net和U-Net++未利用全局信息,導(dǎo)致難以定位邊緣位置,其他模型都未完整分割病變區(qū)域,分割結(jié)果不完整。第二幅圖像中存在毛發(fā)遮擋,且病變區(qū)域與皮膚組織顏色相近,UTNet等不能有效區(qū)分細(xì)節(jié)顏色相似的地方。第五幅和第六幅圖像病變區(qū)域顏色深淺不一,存在漏檢誤檢現(xiàn)象,U-NeXt、SegFormer難以獲取細(xì)節(jié)特征易誤分背景和病變區(qū)域。相比之下,本文模型具有獲取局部細(xì)粒度信息和建模全局上下文信息的能力,同時(shí)多尺度特征融合強(qiáng)化特征信息,使其能較為平滑地分割病灶,皮膚邊緣輪廓細(xì)節(jié)信息更加明顯,漏檢和誤檢較為輕微,分割結(jié)果更貼近真實(shí)掩碼圖像,但仍存在缺少部分邊緣細(xì)節(jié)的情況。

    2.5 消融實(shí)驗(yàn)

    2.5.1 各模塊消融實(shí)驗(yàn)

    PDTransCNN模型共具有若干個小模塊,為探討不同小模塊對模型性能的影響,利用控制變量的方法在ISIC2017數(shù)據(jù)集上進(jìn)行各模塊消融實(shí)驗(yàn)。如表3所示,方法1~9的編號分別代表添加對應(yīng)模塊所獲得的量化指標(biāo)。C表示交換通道注意力和空間注意力的輸入特征為對應(yīng)分辨率的CNN分支特征圖和Transformer分支特征圖。移除部分特征融合模塊將導(dǎo)致高低級特征融合時(shí)丟失部分空間信息并獲取無關(guān)通道信息,缺失關(guān)鍵的多尺度信息特征。CAU塊篩選有效通道信息,掩碼圖像輔助特征融合,豐富特征像素。實(shí)驗(yàn)結(jié)果表明各模塊的有效性,任一模塊缺失將導(dǎo)致總體模型性能下降,相較于對比模型,本文方法能在皮膚病圖像病灶分割上達(dá)到最好的分割效果。

    2.5.2 組合模塊消融實(shí)驗(yàn)

    表4展示了基于本文完整模型下,使用單分支及組合模塊后的實(shí)驗(yàn)數(shù)據(jù),默認(rèn)使用深度監(jiān)督機(jī)制。方法9只以ResNet34為編碼器分支,方法10只以Transformer為編碼器分支,方法11以CNN和Transformer并行雙分支為編碼器的基礎(chǔ)上加入特征融合模塊,不利用深度監(jiān)督機(jī)制,方法12以CNN和Transformer并行雙分支為基礎(chǔ)加入普通卷積作為融合模塊,方法13以CNN和Transformer并行雙分支為基礎(chǔ),使用Transformer block代替improved Transformer block。由表4可知,將CNN和Transformer分支并行利用添加到PDTransformer網(wǎng)絡(luò)中后,指標(biāo)有大幅度提升,相較于單分支結(jié)構(gòu),DSC值分別提高了1.56百分點(diǎn)、3.33百分點(diǎn),IoU值提高了2.09百分點(diǎn)、4.29百分點(diǎn)。同時(shí)學(xué)習(xí)圖像的局部細(xì)節(jié)特征和全局依賴信息能實(shí)現(xiàn)病變區(qū)域的整體定位和邊緣信息的獲取。特征融合模塊取代普通卷積能更好地互補(bǔ)高低級分辨率特征,減少圖像關(guān)鍵信息的丟失,提取網(wǎng)絡(luò)的深層特征和淺層特征。improved Transformer block模塊利用殘差思想和DW卷積提取豐富全面的特征信息,減少切片內(nèi)的信息丟失。消融實(shí)驗(yàn)闡明了本文網(wǎng)絡(luò)雙分支結(jié)構(gòu)和組合模塊對于分割性能提升的有效性。

    2.5.3 損失函數(shù)消融實(shí)驗(yàn)

    為驗(yàn)證本文采用的目標(biāo)損失函數(shù)的有效性,在本文模型結(jié)構(gòu)基礎(chǔ)上,和常用損失函數(shù)DiceLoss、IoULoss、BCELoss以及兩者結(jié)合的BCEDiceLoss、IoUDiceLoss進(jìn)行比較,實(shí)驗(yàn)結(jié)果如表5所示。本文所用的BCEIoULoss性能優(yōu)于其他對比損失函數(shù),比次優(yōu)BCEDiceLoss在DSC和IoU指標(biāo)上分別高出0.97百分點(diǎn)和1.32百分點(diǎn)。單獨(dú)使用IoU或DSC損失函數(shù)訓(xùn)練,難以解決病變分割面臨的正負(fù)樣本不平衡問題,結(jié)合兩者能綜合考慮像素和區(qū)域級別的信息,緩解正負(fù)樣本不平衡問題,產(chǎn)生最好的分割效果。

    2.6 模型的應(yīng)用

    PDTransCNN主要應(yīng)用于皮膚病灶自動分割,流程如圖5所示。首先對皮膚鏡圖像進(jìn)行預(yù)處理,包括統(tǒng)一圖像分辨率、數(shù)據(jù)增強(qiáng)和圖像歸一化操作,使網(wǎng)絡(luò)能更好地學(xué)習(xí)圖像特征并加快收斂速度。隨后將網(wǎng)絡(luò)送入PDTransCNN模型,同時(shí)經(jīng)過CNN分支和Transformer分支后,在Transformer解碼器模塊融合特征融合模塊所提取的多尺度特征,輸出各階段皮膚病灶的分割結(jié)果并進(jìn)行結(jié)果評估,最后將評估結(jié)果與初始皮膚鏡圖像一起顯示在分割信息中。還可將訓(xùn)練好的模型用于新的皮膚鏡圖像數(shù)據(jù),生成對應(yīng)的分割信息,為后續(xù)診斷、治療或研究提供支持。

    3 結(jié)束語

    為解決CNN結(jié)構(gòu)存在的歸納偏置和Transformer結(jié)構(gòu)的局部細(xì)節(jié)信息缺失問題,本文提出了一種用于皮膚病灶分割的融合CNN和Transformer的并行混合結(jié)構(gòu),通過并行分支對圖像進(jìn)行特征提取,并利用空間注意力單元、通道注意力單元和全局-局部卷積相關(guān)性單元構(gòu)成強(qiáng)化關(guān)鍵特征信息的特征融合模塊,交互來自兩分支的細(xì)粒度特征,最大程度地利用多尺度信息。此外,采用深度監(jiān)督機(jī)制構(gòu)建損失函數(shù),通過參數(shù)調(diào)整增強(qiáng)模型學(xué)習(xí)能力。對比13種經(jīng)典的分割網(wǎng)絡(luò),在ISIC2016、ISIC2017、ISIC2018三個數(shù)據(jù)集上進(jìn)行測試,實(shí)驗(yàn)證明本文網(wǎng)絡(luò)可較好地分割皮膚病變圖像,分割精度較高,在皮膚疾病的實(shí)際診療中有一定的參考價(jià)值。在未來的研究中,模型還存在輕量化的空間,降低模型參數(shù)量,優(yōu)化模型至能實(shí)際應(yīng)用到多種醫(yī)學(xué)圖像分割任務(wù)中。

    參考文獻(xiàn):

    [1]Sung H, Ferlay J, Siegel R L, et al. Global cancer statistics 2020: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries[J]. CA: a Cancer Journal for Clinicians, 2021,71(3): 209-249.

    [2]Fontanillas P, Alipanahi B, Furlotte N A, et al. Disease risk scores for skin cancers[J]. Nature Communications, 2021, 12(1): 1-13.

    [3]Yen J C, Chang F J, Chang S. A new criterion for automatic multilevel thresholding[J]. IEEE Trans on Image Processing, 1995, 4(3): 370-378.

    [4]Tremeau A, Borel N. A region growing and merging algorithm to color segmentation[J]. Pattern Recognition, 1997, 30(7): 1191-1203.

    [5]Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2015: 3431-3440.

    [6]Ronneberger O, Fischer P, Brox T. U-Net: convolutional networks for biomedical image segmentation[C]//Proc of the 18th International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer, 2015: 234-241.

    [7]Zhou Zongwei , Siddiquee M M R, Tajbakhsh N, et al. U-Net++: a nested U-Net architecture for medical image segmentation[C]//Deep Learning in Medical Image Analysis and Multimodal Learning for Cli-nical Decision Support. Cham:Springer, 2018: 3-11.

    [8]Oktay O, Schlemper J, Folgoc L L, et al. Attention U-Net: learning where to look for the pancreas[EB/OL]. (2018-05-20). https://arxiv.org/abs/1804.03999.

    [9]Tang Yujiao, Yang Feng, Yuan Shaofeng. A multi-stage framework with context information fusion structure for skin lesion segmentation[C]//Proc of the 16th IEEE International Symposium on Biomedical Imaging. Piscataway, NJ: IEEE Press, 2019: 1407-1410.

    [10]Jha D, Riegler M A, Johansen D, et al. DoubleU-Net: a deep convo-lutional neural network for medical image segmentation[C]// Proc of the 33rd IEEE International Symposium on Computer-based Medical Systems. Piscataway, NJ: IEEE Press, 2020: 558-564.

    [11]王雪. 基于U-Net多尺度和多維度特征融合的皮膚病變分割方法[J]. 吉林大學(xué)學(xué)報(bào):理學(xué)版, 2021, 59(1): 123-127. (Wang Xue. Skin lesion segmentation method based on U-Net with multi-scale and multi-dimensional feature fusion[J]. Journal of Jilin University:Science Edition, 2021, 59(1): 123-127.)

    [12]梁禮明, 彭仁杰, 馮駿,等. 基于多尺度特征融合雙U型皮膚病變分割算法[J]. 計(jì)算機(jī)應(yīng)用研究, 2021, 38(9): 2876-2880. (Liang Liming, Peng Renjie, Feng Jun, et al. Skin lesion image segmentation algorithm based on multi-scale feature fusion double U-Net[J]. Application Research of Computers, 2021, 38(9): 2876-2880.)

    [13]Dosovitskiy A, Beyer L, Kolesnikov A, et al. An image is worth 16×16 words: Transformers for image recognition at scale[EB/OL]. (2021-06-03). https://arxiv.org/abs/2010.11929.

    [14]Liu Ze, Lin Yutong, Cao Yue, et al. Swin Transformer: hierarchical vision transformer using shifted windows[C]//Proc of IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2021: 9992-10002.

    [15]Chen Jieneng, Lu Yongyi, Yu Qihang, et al. TransUNet: transfor-mers make strong encoders for medical image segmentation[EB/OL]. (2021-02-08). https://arxiv.org/abs/2102.04306.

    [16]Zhang Yundong, Liu Huiye, Hu Qiang. TransFuse: fusing transfor-mers and CNNs for medical image segmentation[C]//Proc of the 24th International Conference on Medical Image Computing and Computer Assisted Intervention. Cham: Springer, 2021: 14-24.

    [17]梁禮明, 周瓏頌, 尹江,等. 融合多尺度Transformer的皮膚病變分割算法[J]. 吉林大學(xué)學(xué)報(bào) :工學(xué)版, 2024,54(4):1086-1098. (Liang Liming, Zhou Longsong, Yin Jiang, et al. Fusion multi-scale transformer skin lesion segmentation algorithm[J]. Journal of Jilin University :Engineering and Technology Edition, 2024,54(4):1086-1098.)

    [18]普鐘, 張俊華, 黃昆,等. 融合多注意力機(jī)制的脊椎圖像分割方法[J]. 計(jì)算機(jī)應(yīng)用研究, 2023, 40(4): 1256-1262. (Pu Zhong, Zhang Junhua, Huang Kun, et al. Spinal image segmentation method with multi-attention[J]. Application Research of Computers, 2023, 40(4): 1256-1262.)

    [19]Hu Jie, Shen Li, Sun Gang. Squeeze-and-excitation networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2018: 7132-7141.

    [20]Woo S, Park J, Lee J Y, et al. CBAM: convolutional block attention module[C]//Proc of European Conference on Computer Vision. Cham: Springer, 2018: 3-19.

    [21]Gutman D, Codella N C F, Celebi E, et al. Skin lesion analysis toward melanoma detection: a challenge at the international symposium on biomedical imaging(ISBI) 2016, hosted by the international skin imaging collaboration (ISIC)[EB/OL]. (2016-05-04). https://arxiv.org/abs/1605.01397.

    [22]Codella N C F, Gutman D, Celebi M E, et al. Skin lesion analysis toward melanoma detection: a challenge at the 2017 international symposium on biomedical imaging(ISBI) , hosted by the international skin imaging collaboration(ISIC)[C]//Proc of the 15th IEEE International Symposium on Biomedical Imaging. Piscataway, NJ: IEEE Press, 2018: 168-172.

    [23]Codella N, Rotemberg V, Tschandl P, et al. Skin lesion analysis toward melanoma detection 2018: a challenge hosted by the internatio-nal skin imaging collaboration(ISIC)[EB/OL]. (2019-03-29). https://doi.org/10.48550/arXiv.1902.03368.

    [24]Gu Zaiwang, Cheng Jun, Fu Huazhu, et al. CE-Net: context encoder network for 2D medical image segmentation[J]. IEEE Trans on Medical Imaging, 2019, 38(10): 2281-2292.

    [25]Gao Yunhe, Zhou Mu, Metaxas D N. UTNet: a hybrid transformer architecture for medical image segmentation[C]//Proc of Internatio-nal Conference on Medical Image Computing and Computer-Assisted Intervention. Cham:Springer, 2021: 61-71.

    [26]Xie Enze, Wang Wenhai, Yu Zhiding, et al. SegFormer: simple and efficient design for semantic segmentation with transformers[J]. Advances in Neural Information Processing Systems, 2021, 34: 1a7788ea1267ab3a3eb788c29d228d87ce93eff219cfa0211dc55ff10e27bc6e12077-12090.

    [27]Cao Hu, Wang Yueyue, Chen J, et al. Swin-UNet: UNet-like pure transformer for medical image segmentation[C]//Proc of European Conference on Computer Vision. Cham: Springer, 2022: 205-218.

    [28]Valanarasu J M J, Patel V M. UNeXt: MLP-based rapid medical image segmentation network[C]//Proc of International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer, 2022: 23-33.

    [29]Ruan Jiacheng, Xiang Suncheng, Xie Mingye, et al. MALUNet: a multi-attention and light-weight U-Net for skin lesion segmentation[C]//Proc of IEEE International Conference on Bioinformatics and Biomedicine. Piscataway, NJ: IEEE Press, 2022: 1150-1156.

    [30]Wang Haonan, Cao Peng, Wang Jiaqi, et al. UCTransNet: rethinking the skip connections in U-Net from a channel-wise perspective with transformer[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2022: 2441-2449.

    [31]Xu Qing, Ma Zhicheng, He Na, et al. DCSAU-Net: a deeper and more compact split-attention U-Net for medical image segmentation[J]. Computers in Biology and Medicine, 2023, 154: 106626.

    [32]Ruan Jiacheng , Xie Mingye , Gao Jingsheng, et al. EGE-UNet: an efficient group enhanced U-Net for skin lesion segmentation[C]//Proc of International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer, 2023: 481-490.

    制服诱惑二区| 午夜福利在线观看吧| 在线观看日韩欧美| 久久久久精品国产欧美久久久| 夜夜躁狠狠躁天天躁| 精品欧美一区二区三区在线| 国产精品野战在线观看 | 超色免费av| 校园春色视频在线观看| 日韩精品中文字幕看吧| 国产成人系列免费观看| 99国产综合亚洲精品| 黄色视频,在线免费观看| 19禁男女啪啪无遮挡网站| 在线观看午夜福利视频| 色综合欧美亚洲国产小说| 韩国av一区二区三区四区| 一进一出抽搐gif免费好疼 | 日韩免费高清中文字幕av| 欧美日韩黄片免| 精品一品国产午夜福利视频| 高清黄色对白视频在线免费看| 亚洲成a人片在线一区二区| 亚洲精品av麻豆狂野| 精品一区二区三区视频在线观看免费 | 搡老岳熟女国产| 日韩视频一区二区在线观看| 国产区一区二久久| 亚洲自偷自拍图片 自拍| 波多野结衣高清无吗| 亚洲精品美女久久久久99蜜臀| 桃红色精品国产亚洲av| 人人澡人人妻人| 国产精品99久久99久久久不卡| 亚洲少妇的诱惑av| 中文字幕另类日韩欧美亚洲嫩草| 国产熟女午夜一区二区三区| 免费一级毛片在线播放高清视频 | 国产91精品成人一区二区三区| 亚洲欧美一区二区三区黑人| 亚洲成a人片在线一区二区| 12—13女人毛片做爰片一| 在线十欧美十亚洲十日本专区| 涩涩av久久男人的天堂| 18禁美女被吸乳视频| 国产区一区二久久| 久久久久国产精品人妻aⅴ院| 国产男靠女视频免费网站| 99精国产麻豆久久婷婷| 国产97色在线日韩免费| 久久精品亚洲精品国产色婷小说| 男女午夜视频在线观看| 性色av乱码一区二区三区2| 夜夜夜夜夜久久久久| 在线国产一区二区在线| 亚洲美女黄片视频| 国产成人精品久久二区二区91| 欧美成人免费av一区二区三区| 好看av亚洲va欧美ⅴa在| 在线十欧美十亚洲十日本专区| 欧美精品啪啪一区二区三区| 国产精品1区2区在线观看.| 欧美不卡视频在线免费观看 | a级毛片黄视频| 老汉色∧v一级毛片| 伊人久久大香线蕉亚洲五| 美女国产高潮福利片在线看| 在线观看免费高清a一片| 国产成人欧美在线观看| 国产高清国产精品国产三级| 99久久99久久久精品蜜桃| 日韩国内少妇激情av| 麻豆成人av在线观看| 黑人巨大精品欧美一区二区蜜桃| 免费在线观看完整版高清| 午夜亚洲福利在线播放| 久久九九热精品免费| 国产亚洲欧美精品永久| 欧美最黄视频在线播放免费 | 国产又色又爽无遮挡免费看| 国产有黄有色有爽视频| 久99久视频精品免费| 在线播放国产精品三级| 亚洲欧美一区二区三区久久| 在线观看www视频免费| 999精品在线视频| 精品久久久久久,| 日本精品一区二区三区蜜桃| 日韩欧美免费精品| 国产精品成人在线| 成人国语在线视频| 国产精品一区二区免费欧美| 不卡av一区二区三区| 精品国产超薄肉色丝袜足j| 欧美日本亚洲视频在线播放| 岛国视频午夜一区免费看| 午夜亚洲福利在线播放| 午夜精品久久久久久毛片777| 精品日产1卡2卡| 国产成人免费无遮挡视频| 一级黄色大片毛片| 国产精品久久久av美女十八| 国产有黄有色有爽视频| 欧美大码av| 曰老女人黄片| 日本黄色日本黄色录像| 性欧美人与动物交配| 91九色精品人成在线观看| 新久久久久国产一级毛片| 欧美人与性动交α欧美精品济南到| 91大片在线观看| 精品国产亚洲在线| 五月开心婷婷网| av片东京热男人的天堂| 精品福利观看| 天堂√8在线中文| 免费在线观看黄色视频的| 9191精品国产免费久久| 在线视频色国产色| 久久性视频一级片| 亚洲中文日韩欧美视频| 91成人精品电影| 亚洲一码二码三码区别大吗| 国产在线精品亚洲第一网站| 日本五十路高清| 少妇裸体淫交视频免费看高清 | 国产视频一区二区在线看| 国产不卡一卡二| 久久亚洲真实| 精品国内亚洲2022精品成人| 色在线成人网| 久久午夜亚洲精品久久| 国产成+人综合+亚洲专区| 巨乳人妻的诱惑在线观看| 啪啪无遮挡十八禁网站| av国产精品久久久久影院| 成人国产一区最新在线观看| 69av精品久久久久久| 在线播放国产精品三级| 纯流量卡能插随身wifi吗| 亚洲av电影在线进入| 欧美中文日本在线观看视频| 777久久人妻少妇嫩草av网站| 1024香蕉在线观看| 别揉我奶头~嗯~啊~动态视频| 久久精品国产综合久久久| 国产一区在线观看成人免费| 久久天躁狠狠躁夜夜2o2o| 人人澡人人妻人| 波多野结衣高清无吗| 狠狠狠狠99中文字幕| 色尼玛亚洲综合影院| 久久精品91蜜桃| 亚洲av日韩精品久久久久久密| 欧美黄色淫秽网站| 亚洲精品中文字幕在线视频| 51午夜福利影视在线观看| www.精华液| 亚洲 欧美 日韩 在线 免费| 黑丝袜美女国产一区| 欧美日韩亚洲国产一区二区在线观看| 亚洲 欧美 日韩 在线 免费| 国产精品爽爽va在线观看网站 | 亚洲黑人精品在线| 久久 成人 亚洲| 亚洲国产精品999在线| 最近最新免费中文字幕在线| 免费观看精品视频网站| 嫩草影视91久久| 少妇裸体淫交视频免费看高清 | 丁香欧美五月| 99riav亚洲国产免费| 中文字幕高清在线视频| 日韩 欧美 亚洲 中文字幕| 老鸭窝网址在线观看| 欧美日韩亚洲国产一区二区在线观看| 精品欧美一区二区三区在线| 日韩大尺度精品在线看网址 | 色综合婷婷激情| 美国免费a级毛片| 亚洲熟女毛片儿| 久久精品aⅴ一区二区三区四区| 一夜夜www| 男人操女人黄网站| 在线观看免费午夜福利视频| 性欧美人与动物交配| 久久 成人 亚洲| 每晚都被弄得嗷嗷叫到高潮| 午夜福利,免费看| 中国美女看黄片| 国产激情久久老熟女| 9热在线视频观看99| 自线自在国产av| 老汉色av国产亚洲站长工具| 麻豆av在线久日| 色尼玛亚洲综合影院| 国产精品98久久久久久宅男小说| 久久国产乱子伦精品免费另类| 琪琪午夜伦伦电影理论片6080| 最新在线观看一区二区三区| 麻豆久久精品国产亚洲av | 精品久久久精品久久久| 亚洲视频免费观看视频| 久久久精品国产亚洲av高清涩受| 国产精品亚洲一级av第二区| 欧美成人性av电影在线观看| 久久人人爽av亚洲精品天堂| 免费看a级黄色片| 亚洲精华国产精华精| 黄色怎么调成土黄色| 美女大奶头视频| 一区二区三区精品91| 美国免费a级毛片| 亚洲,欧美精品.| 色婷婷av一区二区三区视频| 国产无遮挡羞羞视频在线观看| 俄罗斯特黄特色一大片| 日日爽夜夜爽网站| 国产精品久久久人人做人人爽| 99热国产这里只有精品6| 色婷婷久久久亚洲欧美| www.999成人在线观看| 性欧美人与动物交配| 欧美日韩黄片免| 久久精品国产亚洲av高清一级| 黄色a级毛片大全视频| 亚洲欧美日韩无卡精品| 免费在线观看黄色视频的| 水蜜桃什么品种好| 成在线人永久免费视频| 黄色a级毛片大全视频| 美女午夜性视频免费| 两性夫妻黄色片| www日本在线高清视频| 国产欧美日韩一区二区三| 国产精品美女特级片免费视频播放器 | 女人爽到高潮嗷嗷叫在线视频| 亚洲,欧美精品.| 国产97色在线日韩免费| 老司机靠b影院| 天堂中文最新版在线下载| 黄色a级毛片大全视频| 亚洲国产看品久久| 99久久精品国产亚洲精品| 亚洲性夜色夜夜综合| 亚洲欧洲精品一区二区精品久久久| 男女午夜视频在线观看| 成年人黄色毛片网站| 9191精品国产免费久久| 日本黄色日本黄色录像| 欧美久久黑人一区二区| 男人舔女人下体高潮全视频| 性欧美人与动物交配| 国产一区二区三区视频了| 精品免费久久久久久久清纯| 亚洲色图综合在线观看| 日本 av在线| 午夜老司机福利片| 999精品在线视频| 亚洲av第一区精品v没综合| 亚洲精品av麻豆狂野| 无遮挡黄片免费观看| 男女下面插进去视频免费观看| 欧美另类亚洲清纯唯美| 亚洲欧美精品综合一区二区三区| 久久国产精品男人的天堂亚洲| 免费高清在线观看日韩| 视频区图区小说| 一级毛片高清免费大全| 精品人妻1区二区| 久久久国产精品麻豆| 老司机午夜十八禁免费视频| 又黄又粗又硬又大视频| 免费少妇av软件| 日韩人妻精品一区2区三区| 亚洲情色 制服丝袜| 免费在线观看影片大全网站| 国产一区二区在线av高清观看| 性少妇av在线| 日韩国内少妇激情av| 国产精品久久久人人做人人爽| 久久久久久亚洲精品国产蜜桃av| 热re99久久精品国产66热6| 日韩av在线大香蕉| 高清欧美精品videossex| 国产一区二区三区综合在线观看| 91老司机精品| 91麻豆精品激情在线观看国产 | 亚洲精品一二三| 久久精品国产99精品国产亚洲性色 | 日韩精品中文字幕看吧| 久久人妻熟女aⅴ| 亚洲中文日韩欧美视频| 色综合站精品国产| 看片在线看免费视频| 亚洲精品一二三| 欧美另类亚洲清纯唯美| 99re在线观看精品视频| 欧美成人免费av一区二区三区| 神马国产精品三级电影在线观看 | 丁香欧美五月| av片东京热男人的天堂| 伊人久久大香线蕉亚洲五| 成年人黄色毛片网站| 一级黄色大片毛片| 久久久久久久久久久久大奶| 欧美日韩瑟瑟在线播放| 99精品欧美一区二区三区四区| 久久久久国产一级毛片高清牌| 纯流量卡能插随身wifi吗| 成人免费观看视频高清| 国产成人av激情在线播放| 精品国产美女av久久久久小说| av片东京热男人的天堂| 国产99白浆流出| 亚洲国产欧美一区二区综合| 亚洲午夜精品一区,二区,三区| 国产精品免费一区二区三区在线| 国产熟女午夜一区二区三区| 日韩欧美在线二视频| 老汉色∧v一级毛片| 亚洲av日韩精品久久久久久密| 一级作爱视频免费观看| 男男h啪啪无遮挡| 丝袜在线中文字幕| 欧美激情高清一区二区三区| 免费久久久久久久精品成人欧美视频| 亚洲精品成人av观看孕妇| 少妇被粗大的猛进出69影院| 18禁美女被吸乳视频| 狂野欧美激情性xxxx| 中文字幕精品免费在线观看视频| 天天躁狠狠躁夜夜躁狠狠躁| 欧美人与性动交α欧美精品济南到| 精品福利观看| 性色av乱码一区二区三区2| 国产精品野战在线观看 | 超色免费av| 精品国内亚洲2022精品成人| 丰满饥渴人妻一区二区三| 亚洲熟妇熟女久久| 国产亚洲欧美98| 欧美 亚洲 国产 日韩一| 波多野结衣av一区二区av| 女生性感内裤真人,穿戴方法视频| aaaaa片日本免费| 在线十欧美十亚洲十日本专区| 日本精品一区二区三区蜜桃| 久久精品国产99精品国产亚洲性色 | 亚洲专区字幕在线| 国产精品久久久人人做人人爽| 97超级碰碰碰精品色视频在线观看| 侵犯人妻中文字幕一二三四区| 国产精品日韩av在线免费观看 | 国产97色在线日韩免费| 国产免费男女视频| 国产男靠女视频免费网站| 两性夫妻黄色片| 两性午夜刺激爽爽歪歪视频在线观看 | 啦啦啦 在线观看视频| 少妇的丰满在线观看| 激情在线观看视频在线高清| 日本黄色视频三级网站网址| 国产精品日韩av在线免费观看 | 亚洲一码二码三码区别大吗| 色尼玛亚洲综合影院| 久久人人97超碰香蕉20202| 久久久水蜜桃国产精品网| 人人妻人人澡人人看| 女性被躁到高潮视频| 国产精品二区激情视频| 免费不卡黄色视频| 一级黄色大片毛片| 国产精品av久久久久免费| 正在播放国产对白刺激| 亚洲伊人色综图| 一个人观看的视频www高清免费观看 | 每晚都被弄得嗷嗷叫到高潮| 满18在线观看网站| 午夜免费鲁丝| 一区二区日韩欧美中文字幕| 欧美日韩中文字幕国产精品一区二区三区 | 久久久国产一区二区| 99re在线观看精品视频| 精品久久久久久成人av| 婷婷六月久久综合丁香| 久久国产精品人妻蜜桃| 黄色视频不卡| 国产成人精品久久二区二区免费| 精品国产乱码久久久久久男人| 欧美乱码精品一区二区三区| 最近最新中文字幕大全免费视频| 欧美日韩瑟瑟在线播放| 久久精品91无色码中文字幕| 亚洲精品在线美女| 最近最新免费中文字幕在线| 欧美成人午夜精品| 成年人黄色毛片网站| 999精品在线视频| 久久天躁狠狠躁夜夜2o2o| 黑人巨大精品欧美一区二区mp4| 亚洲国产精品一区二区三区在线| 黄色成人免费大全| 嫁个100分男人电影在线观看| 国产精品亚洲一级av第二区| 99在线视频只有这里精品首页| 悠悠久久av| 如日韩欧美国产精品一区二区三区| 热re99久久精品国产66热6| 成人手机av| 不卡一级毛片| 国产欧美日韩综合在线一区二区| 亚洲精品在线观看二区| 国产单亲对白刺激| 两个人免费观看高清视频| 免费av中文字幕在线| 国产免费av片在线观看野外av| 黄色丝袜av网址大全| 婷婷六月久久综合丁香| 亚洲在线自拍视频| 女生性感内裤真人,穿戴方法视频| 在线国产一区二区在线| 亚洲七黄色美女视频| 国产乱人伦免费视频| 十八禁人妻一区二区| 天堂俺去俺来也www色官网| 麻豆国产av国片精品| 伊人久久大香线蕉亚洲五| 亚洲成a人片在线一区二区| 搡老岳熟女国产| 国产成人啪精品午夜网站| 91麻豆精品激情在线观看国产 | 俄罗斯特黄特色一大片| 亚洲av五月六月丁香网| 中文欧美无线码| 三上悠亚av全集在线观看| 日本撒尿小便嘘嘘汇集6| 巨乳人妻的诱惑在线观看| 老汉色∧v一级毛片| a在线观看视频网站| 老司机靠b影院| 国产精品秋霞免费鲁丝片| 亚洲成人精品中文字幕电影 | 日本五十路高清| 成年女人毛片免费观看观看9| 精品人妻在线不人妻| 校园春色视频在线观看| 国产三级在线视频| av福利片在线| 亚洲欧美一区二区三区久久| 国产亚洲欧美在线一区二区| 正在播放国产对白刺激| 精品国产亚洲在线| 日韩av在线大香蕉| 热re99久久国产66热| 精品一区二区三卡| 久99久视频精品免费| 手机成人av网站| 欧美成人性av电影在线观看| 日日摸夜夜添夜夜添小说| 18禁观看日本| 欧美日韩乱码在线| 日日爽夜夜爽网站| 精品乱码久久久久久99久播| 熟女少妇亚洲综合色aaa.| 亚洲国产精品sss在线观看 | 咕卡用的链子| 国产成人精品在线电影| 精品久久久久久久久久免费视频 | 99riav亚洲国产免费| av免费在线观看网站| 亚洲欧美一区二区三区黑人| 国产熟女xx| 90打野战视频偷拍视频| 国产激情欧美一区二区| 91精品三级在线观看| 国产精品一区二区在线不卡| 久久狼人影院| 国产单亲对白刺激| 天天影视国产精品| 操出白浆在线播放| 午夜精品国产一区二区电影| 久99久视频精品免费| 亚洲国产毛片av蜜桃av| 国产精品 欧美亚洲| 成年人免费黄色播放视频| 欧美乱色亚洲激情| 超色免费av| 99久久人妻综合| 精品午夜福利视频在线观看一区| 宅男免费午夜| 中文字幕高清在线视频| 免费搜索国产男女视频| 99久久久亚洲精品蜜臀av| 日本vs欧美在线观看视频| 国产主播在线观看一区二区| 一级毛片女人18水好多| 性色av乱码一区二区三区2| 欧美成人午夜精品| 免费在线观看亚洲国产| 少妇被粗大的猛进出69影院| 精品高清国产在线一区| 一级片免费观看大全| 亚洲一区二区三区色噜噜 | 亚洲中文字幕日韩| 97超级碰碰碰精品色视频在线观看| 国产高清激情床上av| 国产99久久九九免费精品| 午夜亚洲福利在线播放| 久久精品91蜜桃| av片东京热男人的天堂| 91麻豆精品激情在线观看国产 | 亚洲国产欧美一区二区综合| 国产欧美日韩一区二区三区在线| 高清av免费在线| 日本精品一区二区三区蜜桃| 国产免费男女视频| 午夜免费激情av| 国产男靠女视频免费网站| 伦理电影免费视频| 99热只有精品国产| 人妻丰满熟妇av一区二区三区| 啦啦啦 在线观看视频| 久久国产亚洲av麻豆专区| 亚洲狠狠婷婷综合久久图片| 91在线观看av| 国产亚洲精品久久久久5区| 欧美精品啪啪一区二区三区| 免费搜索国产男女视频| 少妇 在线观看| av网站免费在线观看视频| 两性午夜刺激爽爽歪歪视频在线观看 | 国产免费现黄频在线看| 色播在线永久视频| 俄罗斯特黄特色一大片| 国产免费男女视频| 日日干狠狠操夜夜爽| 欧美日韩精品网址| av超薄肉色丝袜交足视频| 国产精品免费视频内射| 嫁个100分男人电影在线观看| 久久久久久免费高清国产稀缺| 国产精华一区二区三区| 老汉色∧v一级毛片| 国产国语露脸激情在线看| 人人妻,人人澡人人爽秒播| www.熟女人妻精品国产| 亚洲狠狠婷婷综合久久图片| 欧美成人午夜精品| 国产亚洲欧美98| 欧美黄色片欧美黄色片| 美国免费a级毛片| 青草久久国产| 日韩成人在线观看一区二区三区| 久久国产精品人妻蜜桃| 性色av乱码一区二区三区2| 999精品在线视频| 亚洲黑人精品在线| 嫩草影视91久久| 亚洲欧洲精品一区二区精品久久久| 亚洲狠狠婷婷综合久久图片| 黄网站色视频无遮挡免费观看| 成人国语在线视频| 亚洲熟妇中文字幕五十中出 | 男人的好看免费观看在线视频 | 久久人人爽av亚洲精品天堂| 久久人妻熟女aⅴ| 99久久久亚洲精品蜜臀av| 亚洲男人的天堂狠狠| 90打野战视频偷拍视频| 亚洲中文字幕日韩| 中出人妻视频一区二区| 亚洲精品国产精品久久久不卡| 国产精品国产高清国产av| 午夜精品久久久久久毛片777| 在线观看免费视频网站a站| 看黄色毛片网站| 高清毛片免费观看视频网站 | 如日韩欧美国产精品一区二区三区| 久久国产精品男人的天堂亚洲| 黄色毛片三级朝国网站| 久久久久久久久久久久大奶| 亚洲精品在线观看二区| 黄片播放在线免费| 男女之事视频高清在线观看| 亚洲熟女毛片儿| 首页视频小说图片口味搜索| 亚洲久久久国产精品| 欧美国产精品va在线观看不卡| 99在线视频只有这里精品首页| 欧美黑人精品巨大| 欧美乱码精品一区二区三区| 后天国语完整版免费观看| 亚洲片人在线观看| 咕卡用的链子| 久久天躁狠狠躁夜夜2o2o| 新久久久久国产一级毛片| 天堂影院成人在线观看| 欧美日韩亚洲综合一区二区三区_| 国产成人欧美| 色尼玛亚洲综合影院| 欧美激情高清一区二区三区| 一进一出抽搐gif免费好疼 | 长腿黑丝高跟| 在线十欧美十亚洲十日本专区| bbb黄色大片| 另类亚洲欧美激情| 欧美人与性动交α欧美软件| 久久久国产成人免费| 丰满的人妻完整版| 超碰成人久久| 无人区码免费观看不卡| 亚洲精品一二三| 日韩国内少妇激情av| 美女 人体艺术 gogo|