• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    鬼影卷積自適應(yīng)視網(wǎng)膜血管分割算法

    2021-12-07 07:14:36梁禮明周瓏頌馮新剛
    光電工程 2021年10期
    關(guān)鍵詞:鬼影視網(wǎng)膜像素

    梁禮明,周瓏頌,陳 鑫,余 潔,馮新剛

    鬼影卷積自適應(yīng)視網(wǎng)膜血管分割算法

    梁禮明1,周瓏頌1,陳 鑫1,余 潔1,馮新剛2*

    1江西理工大學(xué)電氣工程與自動化學(xué)院,江西 贛州 341000;2江西理工大學(xué)應(yīng)用科學(xué)學(xué)院,江西 贛州 341000

    針對視網(wǎng)膜血管分割存在主血管輪廓模糊、微細(xì)血管斷裂和視盤邊界誤分割等問題,提出一種鬼影卷積自適應(yīng)視網(wǎng)膜血管分割算法。算法一是用鬼影卷積替代神經(jīng)網(wǎng)絡(luò)中普通卷積,鬼影卷積生成豐富的血管特征圖,使目標(biāo)特征提取充分進行。二是將生成的特征圖進行自適應(yīng)融合并輸入至解碼層分類,自適應(yīng)融合能夠多尺度捕獲圖像信息和高質(zhì)量保存細(xì)節(jié)。三是在精確定位血管像素與解決圖像紋理損失過程中,構(gòu)建雙路徑注意力引導(dǎo)結(jié)構(gòu)將網(wǎng)絡(luò)底層特征圖與高層特征圖有效結(jié)合,提高血管分割準(zhǔn)確率。同時引入Cross-Dice Loss函數(shù)來抑制正負(fù)樣本不均問題,減少因血管像素占比少而引起的分割誤差,在DRIVE與STARE數(shù)據(jù)集上進行實驗,其準(zhǔn)確率分別為96.56%和97.32%,敏感度分別為84.52%和83.12%,特異性分別為98.25%和98.96%,具有較好的分割效果。

    視網(wǎng)膜血管;鬼影卷積;自適應(yīng)融合模塊;雙路徑注意力引導(dǎo)結(jié)構(gòu)

    1 引 言

    視網(wǎng)膜血管形態(tài)結(jié)構(gòu)是反映人體健康的重要指標(biāo),其圖像的處理與分割對青光眼、心血管疾病和靜脈阻塞等多種疾病的早期發(fā)現(xiàn)和治療具有非常重要的意義[1]。然而,現(xiàn)實中視網(wǎng)膜血管分割面臨著眼球末端血管呈交織狀分布且輪廓模糊等難題。因此,迫切需要能夠自動識別和自動分割血管結(jié)構(gòu)的算法,去幫助醫(yī)療人員診斷眼底疾病。

    目前,視網(wǎng)膜血管分割算法主要分為無監(jiān)督和有監(jiān)督學(xué)習(xí)方法[2],其中無監(jiān)督學(xué)習(xí)方法主要關(guān)注眼底血管原始信息。She等[3]將Franqi濾波器和方向分?jǐn)?shù)相結(jié)合來提取視網(wǎng)膜血管,Hessian矩陣組成的Franqi濾波器可以提高線狀物體的平滑性,增強眼底血管與背景對比度。同時引入方向分?jǐn)?shù)去擴展平面維度,使二維血管圖像映射到多維平面中以捕獲多尺度特征信息,改善微細(xì)血管末端交叉相連問題,但該算法并沒有很好解決視盤對于血管分割的影響。有監(jiān)督學(xué)習(xí)需要先驗標(biāo)記信息,利用人工Label圖像對分類器進行特征訓(xùn)練。Liang等[4]集成可變形卷積到傳統(tǒng)U型網(wǎng)絡(luò)中構(gòu)成ASU-Net,該算法根據(jù)血管形狀和尺度自適應(yīng)地調(diào)整感受野,以捕捉結(jié)構(gòu)復(fù)雜的視網(wǎng)膜血管,并通過低級特征圖與高級特征圖相聚合的方式,來實現(xiàn)微血管精確定位,但是需要引入大量卷積算子去學(xué)習(xí)可變形偏移量,使得訓(xùn)練和測試時間大幅度增加;Wang等[5]提出HA-Net視網(wǎng)膜血管分割網(wǎng)絡(luò),該網(wǎng)絡(luò)包含一層編碼器和三層解碼器,首先利用主解碼器生成粗略血管分割圖并自動確定圖像中硬區(qū)域和軟區(qū)域,然后將軟硬區(qū)域分別輸進對應(yīng)的輔助解碼器中進行重新分割,算法存在過度分割現(xiàn)象,致使血管輪廓整體過粗和錯誤生成假血管分支。

    雖然上述算法在分割領(lǐng)域有較好研究成果,但分割視網(wǎng)膜血管時仍存在缺陷,文獻[3]利用方向分?jǐn)?shù)擴展維度,將二維圖像結(jié)構(gòu)映射到不同平面,會使眼底視盤區(qū)域、硬性滲出物和正常血管融合,進而影響微細(xì)血管分割。文獻[4]引入可變形卷積復(fù)雜化網(wǎng)絡(luò)結(jié)構(gòu),帶來大量參數(shù)和提高訓(xùn)練時長,不利于算法實際應(yīng)用。文獻[5]多層解碼器并聯(lián)會使網(wǎng)絡(luò)出現(xiàn)過擬合情況,生成假血管分支。針對上述存在問題,本文提出一種鬼影卷積自適應(yīng)視網(wǎng)膜分割算法,先對彩色眼底圖片進行RGB(Red、Green、Blue)三通道分離和限制對比度直方圖均衡化(CLAHE)處理,增強視網(wǎng)膜微細(xì)血管與視盤區(qū)域?qū)Ρ榷龋档凸庹諒姸群皖伾ǖ缹Ψ指钚Ч挠绊?。然后將眼底圖片輸入鬼影卷積自適應(yīng)網(wǎng)絡(luò)中進行訓(xùn)練以提取血管特征,U型網(wǎng)絡(luò)編碼器和解碼器中普通卷積替換成鬼影卷積,鬼影卷積利用較小計算量生成豐富甚至冗余的特征圖,可以有效減少網(wǎng)絡(luò)參數(shù)和訓(xùn)練時長,快速提取出視網(wǎng)膜血管信息。為增加卷積層感受野,多尺度提取目標(biāo)特征,將自適應(yīng)融合模塊置于神經(jīng)網(wǎng)絡(luò)底端。同時利用雙路徑注意力引導(dǎo)結(jié)構(gòu)級聯(lián)編碼部分和解碼部分,解決池化層信息損失和實現(xiàn)語義全局傳遞,能夠更好地保留血管像素,分割出邊緣細(xì)節(jié)更加完整的圖片。

    2 網(wǎng)絡(luò)結(jié)構(gòu)

    2.1 鬼影模塊

    神經(jīng)網(wǎng)絡(luò)通過卷積層擴展輸入特征圖數(shù)量,產(chǎn)生豐富甚至冗余的信息以保證視網(wǎng)膜血管特征充分提取,但冗余特征也帶來大量浮點運算(floating point operations,F(xiàn)LOP)和參數(shù)(parameters),導(dǎo)致網(wǎng)絡(luò)訓(xùn)練時間過長和占用內(nèi)存過大。眼底圖像經(jīng)過普通卷積輸出結(jié)果如圖1所示,圖中存在大量類似結(jié)構(gòu)像彼此幽靈一樣,利用這種相似特性本文采用鬼影卷積(ghost convolution)[6]生成冗余特征圖,該卷積利用廉價線性運算替代部分卷積操作,可以有效地減少網(wǎng)絡(luò)參數(shù)和優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)。

    鬼影卷積層輸出個特征圖,步驟如下:

    鬼影卷積層能夠與普通卷積層一樣生成視網(wǎng)膜特征圖,因此可以輕松地替換普通卷積層嵌入神經(jīng)網(wǎng)絡(luò)架構(gòu)中降低計算成本。普通卷積核大小為,鬼影卷

    積核大小為,輸出個視網(wǎng)膜特征圖浮點運算量之比為

    本文利用鬼影卷積層(ghost convolution layer)設(shè)計出鬼影模塊(ghost module)優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),模塊結(jié)構(gòu)見圖3。Ghost module主要由三部分組成:第一部分?jǐn)U展鬼影卷積層,利用鬼影卷積層增加視網(wǎng)膜特征圖數(shù)量;第二部分SE注意力模塊[7],SE模塊可以動態(tài)地抑制與血管任務(wù)不相關(guān)區(qū)域特征,提高網(wǎng)絡(luò)分割精度;第三部分壓縮鬼影卷積層,利用鬼影卷積層減少特征圖數(shù)量以匹配輸出所需。

    圖1 普通卷積層輸出結(jié)果

    圖 2 鬼影卷積層

    圖3 鬼影模塊

    圖4 自適應(yīng)融合模塊

    2.2 自適應(yīng)特征融合

    融合多尺度特征可以增強模型分割性能,在網(wǎng)絡(luò)底端引入空洞卷積可以使輸入特征圖在不連接池化層的情況下擴大感受野,讓卷積后輸出擁有更多細(xì)節(jié)信息。本文基于非對稱擴張卷積提出自適應(yīng)融合模塊(adaptive fusion module,AFM),該模塊由一對混合非對稱擴張卷積(HADC)[8]和一個跳躍路徑(skip connection)[9]組成。自適應(yīng)融合主要思想是通過不同感受野分支捕獲不同尺度信息,從而達到多維特征提取,整體結(jié)構(gòu)如圖4(a)所示。

    混合非對稱擴張卷積包含三個三向?qū)?three direction layer,TDL),各層空洞卷積率(rate)[10]依次擴大,分別為1、2和3,變化的空洞卷積率組合可以保證在擴大感受野同時減少區(qū)域像素丟失,如圖4(b)所示。其中三向?qū)又芯矸e以并行方式工作,在和軸上互補融合血管像素,如圖4(c)所示。TDL利用5×5空洞卷積探索全局信息,3×5空洞卷積補充橫向?qū)有畔ⅲ?×3空洞卷積補充縱向?qū)有畔?,多方向元素交叉融合可以保存高質(zhì)量細(xì)節(jié)。支路的跳躍連接由1×1卷積構(gòu)成,用于防止梯度爆炸和梯度消失(導(dǎo)數(shù)出現(xiàn)指數(shù)上升和下降)。獨特的分支結(jié)構(gòu)使得自適應(yīng)融合模塊能夠增加卷積層感受野,從而探索多維區(qū)域尺度特征和提取全局語義信息。該模塊將編碼部分信息進行自適應(yīng)融合后輸入解碼部分預(yù)測分類,可以保留視網(wǎng)膜血管深層像素。

    2.3 注意力機制

    U-Net[11]原始上下采樣方式容易丟失底層特征,難以高精度預(yù)測出視網(wǎng)膜血管輪廓。因此增強眼底血管像素對于提高分割精度十分重要,注意力引導(dǎo)(AG)結(jié)構(gòu)通過跳躍式連接將低級特征圖(編碼層特征圖)與高級特征圖(解碼層特征圖)級聯(lián),增強眼底像素傳遞,改善血管細(xì)節(jié)模糊現(xiàn)象,結(jié)構(gòu)如圖5所示。h是高級特征圖,l是低級特征圖,低級和高級特征圖先用1×1卷積處理并相加,在用1×1卷積提取血管特征,ReLU激活函數(shù)防止梯度消失,Sigmoid函數(shù)獲取注意力系數(shù)?[0,1],注意力系數(shù)與高級特征圖h相乘確定其權(quán)重,與目標(biāo)任務(wù)關(guān)系越緊密的圖像被保留的特征越多。

    單路徑注意力引導(dǎo)結(jié)構(gòu)可能會導(dǎo)致空間圖像產(chǎn)生噪聲,影響模型分割的魯棒性,因此本文將單路徑引導(dǎo)結(jié)構(gòu)改進成雙路徑引導(dǎo)(dual-pathway attention guided,DAG)結(jié)構(gòu),結(jié)構(gòu)如圖6所示。雙路徑引導(dǎo)能夠產(chǎn)生二個注意力系數(shù),輸出1是確定權(quán)重的高級特征圖h,輸出2是確定權(quán)重的低級特征圖l,二者相加并用1×1卷積、批量歸一化(BN)和ReLU激活函數(shù)處理得到最終輸出,添加雙路徑引導(dǎo)結(jié)構(gòu)使得圖像邊緣更加清晰。

    圖5 注意力引導(dǎo)結(jié)構(gòu)

    圖6 雙路徑注意力引導(dǎo)結(jié)構(gòu)

    圖7 鬼影卷積自適應(yīng)網(wǎng)絡(luò)

    2.4 網(wǎng)絡(luò)結(jié)構(gòu)

    視網(wǎng)膜血管擁有復(fù)雜的形態(tài)結(jié)構(gòu)和多變的尺度信息,為確保算法可以融合全局信息,分割出更多微細(xì)血管數(shù)目,本文提出鬼影卷積自適應(yīng)視網(wǎng)膜血管分割算法,網(wǎng)絡(luò)整體結(jié)構(gòu)如圖7所示。鬼影卷積自適應(yīng)網(wǎng)絡(luò)(GANet)主體由圖像預(yù)處理(image preprocessing)、編碼器、解碼器和連接部分共同組成。原始眼底圖像尺度為565×584×3,預(yù)處理先將眼底圖片裁剪成64×64×1,再輸入到神經(jīng)網(wǎng)絡(luò)中進行訓(xùn)練。網(wǎng)絡(luò)左半部為編碼器用于視網(wǎng)膜血管特征提取,由鬼影模塊(ghost module)和最大池化層(maxpooling)組成,對眼底圖像進行空間維度收縮和通道擴張,將尺度為64×64×1的眼底圖像變成4×4×512。網(wǎng)絡(luò)右半部為解碼器用于類別預(yù)測,由上采樣(upsampling)和鬼影模塊組成,將4×4×512尺度圖像恢復(fù)為64×64×1。連接部分分為自適應(yīng)融合模塊(AFM)和雙路徑注意力引導(dǎo)結(jié)構(gòu)(DAG),其中自適應(yīng)融合模塊置于網(wǎng)絡(luò)下層,連接神經(jīng)網(wǎng)絡(luò)底端編碼器和解碼器,交叉融合血管像素,減少特征丟失和保存高質(zhì)量細(xì)節(jié)。雙路徑注意力引導(dǎo)結(jié)構(gòu)置于網(wǎng)絡(luò)上中層,級聯(lián)相應(yīng)解碼層和編碼層,結(jié)合低級特征圖和高級特征圖,降低池化層對信息的損害,提高血管像素定位精度。網(wǎng)絡(luò)末端是Sigmoid激活函數(shù),對血管和背景進行分類得到64×64×1的分割結(jié)果圖,最后拼接(splicing)裁剪結(jié)果圖得到最終血管分割結(jié)果。此外,本文引入新型混合損失(Cross-Dice Loss)函數(shù)來抑制正負(fù)樣本不均問題,減少因血管像素占圖片整體像素比例較小而引起的分割誤差,從而得到更為優(yōu)異地分割結(jié)果。

    2.5 損失函數(shù)

    視網(wǎng)膜血管分割任務(wù)中常用交叉熵?fù)p失(Cross -entropy Loss)函數(shù)衡量模型預(yù)測的好壞,Cross-entropy Loss基于像素平均值預(yù)測,面對血管像素占眼底圖像整體像素比例較小時,會使預(yù)測偏向背景目標(biāo)。Dice-coefficient Loss可以引入權(quán)重來緩解類別間不平衡的影響,關(guān)注預(yù)測與事實之間重疊,但分割眼底圖像邊界時效果較差。將Dice-coefficient Loss和Cross-entropy Loss混合成一種新型損失(Cross-Dice Loss)函數(shù)用于本文算法評估,可以很好地適應(yīng)前景與背景像素比例不平衡的分割任務(wù),表現(xiàn)出預(yù)測結(jié)果與實際結(jié)果的區(qū)別,新?lián)p失函數(shù)定義為

    3 實驗結(jié)果與分析

    3.1 數(shù)據(jù)集與圖像預(yù)處理

    本文采用公開數(shù)據(jù)庫中的DRIVE和STARE數(shù)據(jù)集作為實驗數(shù)據(jù)集,DRIVE數(shù)據(jù)庫中包含40張彩色眼底圖片,官方已經(jīng)將數(shù)據(jù)集進行手工分割且分為訓(xùn)練集和測試集。STARE數(shù)據(jù)庫中包含20張彩色眼底圖片,將數(shù)據(jù)集平均分成五份,采用五折交叉驗證方式進行實驗。為獲取更好實驗結(jié)果,需要對原始眼底圖像進行預(yù)處理再輸入到模型中訓(xùn)練,預(yù)處理的步驟如下。

    圖8 預(yù)處理圖像。(a) 原圖;(b) 綠色通道圖;(c) CLAHE圖;(d) 伽馬變換圖

    1) 圖像擴充:DRIVE和STARE數(shù)據(jù)集中包含圖片數(shù)量較少,采用沿軸18°旋轉(zhuǎn)采樣,將數(shù)據(jù)集擴充20倍,以增加網(wǎng)絡(luò)訓(xùn)練樣本量。

    2) RGB(Red、Green、Blue)三通道處理:將眼底圖像分離成RGB三通道特征圖,發(fā)現(xiàn)綠色通道對比其他通道亮度適中、血管與背景對比度好,故選用綠色通道圖片作為預(yù)處理后續(xù)圖片。

    3) 限制對比度直方圖均衡化(CLAHE)處理:CLAHE處理在增強血管與背景對比度的同時不放大噪聲,使處理后的眼底圖片更加平滑。均衡化后采用伽馬變換對圖片較暗部分進行亮度提升,增強圖片可視度,預(yù)處理如圖8所示。

    3.2 實驗環(huán)境和參數(shù)設(shè)置

    實驗電腦仿真平臺是PyCharm,實驗環(huán)境是TensorFlow2.0開源框架,電腦配置為Intel?Core?i7-6700H CPU,16 GB內(nèi)存,Nvidia GeForce GTX 2070 GPU,64位Win10操作系統(tǒng)。

    采用Adam算法優(yōu)化Cross-Dice Loss函數(shù),加快目標(biāo)函數(shù)收斂速度,迭代次數(shù)設(shè)置為100,網(wǎng)絡(luò)初始學(xué)習(xí)率設(shè)置為0.0005,訓(xùn)練批量設(shè)置為16,訓(xùn)練集中20%樣本作為驗證集。

    3.3 評價指標(biāo)

    本文用準(zhǔn)確度(accuracy,簡寫為Acc,在式中寫為cc)、敏感度(sensitivity,簡寫為Sen,在式中寫為en)、特異性(specificity,簡寫為Spe,在式中寫為pe)和受試者工作特征曲線(ROC)下方的面積AUC這四個指標(biāo)來評估算法性能。其中,敏感度表示檢測血管像素數(shù)量與真實血管像素數(shù)量的比率;特異性表示檢測非血管像素的數(shù)量與真實非血管像素數(shù)量的比率;準(zhǔn)確度表示準(zhǔn)確分類像素數(shù)量與圖像中總像素數(shù)量的比率。

    3.4 不同算法主觀性對比

    為驗證鬼影卷積自適應(yīng)網(wǎng)絡(luò)(GANet)分割血管的有效性,選取文獻[11]中U型網(wǎng)絡(luò)(U-Net)、文獻[12]中密集卷積長短期記憶網(wǎng)絡(luò)(BCDU-Net)、文獻[13]中雙層U型網(wǎng)絡(luò)(DoubleU-Net)和文獻[14]中蝶形全卷積神經(jīng)網(wǎng)絡(luò)(BFCN)與本文算法(GANet)進行主觀性對比。編碼器和解碼器對稱連接,形似英文字母U的網(wǎng)絡(luò)稱為U型網(wǎng)絡(luò)(U-Net),編碼器用于壓縮圖片進行特征提取,解碼器用于恢復(fù)圖片尺寸進行分類預(yù)測。BCDU-Net是在U型網(wǎng)絡(luò)編碼層和解碼層中添加密集卷積塊,并用記憶神經(jīng)元級聯(lián)而成的網(wǎng)絡(luò)。DoubleU-Net由雙層U型網(wǎng)絡(luò)并聯(lián)組成,前層采用VGG-19預(yù)訓(xùn)練框架,后層類似U-Net結(jié)構(gòu),并聯(lián)框架可以多層次提取血管像素。BFCN編碼層由多尺度信息提取塊構(gòu)成,同時利用傳輸層串聯(lián)網(wǎng)絡(luò)整體結(jié)構(gòu),可以多尺度提取血管特征。普通卷積自適應(yīng)網(wǎng)絡(luò)(CANet)是將鬼影卷積還原成普通卷積,其余結(jié)構(gòu)與本文算法一致。將上述六種算法置于同一實驗環(huán)境下進行測試,不同算法對比結(jié)果見表1,其中最優(yōu)指標(biāo)加粗表示。

    表1可以看出,本文網(wǎng)絡(luò)GANet綜合性能比較好,網(wǎng)絡(luò)參數(shù)(parameters)為27400454,低于上述五種算法,僅為CANet的75.62%,證明鬼影卷積具有顯著降低網(wǎng)絡(luò)參數(shù)功能。同時單輪訓(xùn)練時長分別為152 s、286 s、294 s、422 s、348 s和244 s。GANet訓(xùn)練時間雖高于U-Net少許,但低于其余四種網(wǎng)絡(luò),僅為CANet的70.11%。U-Net未添加任何模塊以最簡單形式組成,使得訓(xùn)練最短,但本文算法其他指標(biāo)均高于U-Net,能更好地平衡時間與準(zhǔn)確率關(guān)系。

    表1 不同算法對比結(jié)果

    在DRIVE數(shù)據(jù)集上除特異性(Spe)指標(biāo)外,本文準(zhǔn)確度(Acc)、敏感度(Sen)和AUC值均為最高,分別為0.9656、0.8452和0.9869。DoubleU-Net由雙層U型網(wǎng)絡(luò)構(gòu)成,訓(xùn)練時可能出現(xiàn)過擬合現(xiàn)象,進而生成假血管分支,使特異性值高于本文算法,但本文算法準(zhǔn)確度和敏感度更高,血管誤分割率更低。在STARE數(shù)據(jù)集上除AUC值比CANet低0.01%外其余指標(biāo)均高于上述五種算法,說明本文算法綜合性能優(yōu)于傳統(tǒng)算法。圖9展示不同算法視網(wǎng)膜血管分割結(jié)果,前三幅是DRIVE數(shù)據(jù)集圖片,后三幅是STARE數(shù)據(jù)集圖片,其中9(a)代表數(shù)據(jù)庫中原始彩色圖,9(b)代表醫(yī)學(xué)專家手工分割結(jié)果稱金標(biāo)準(zhǔn),9(c)~9(h)分別代表U-Net、BCDU-Net、DoubleU-Net、BFCN、CANet和GANet分割結(jié)果。在第一幅和第三幅圖片中,U-Net、BCDU-Net、DoubleU-Net和BFCN分割眼底視盤區(qū)域時不能有效地辨別視盤和血管輪廓,容易將視盤誤分割為血管,導(dǎo)致其周圍主血管鏈結(jié),而GANet能夠較好地識別視盤與血管,避免假血管生成。第二幅眼底圖片左下角存在病變現(xiàn)象,DoubleU-Net、BCDU-Net和CANet抑制病理信息能力較差,病變區(qū)域主血管模糊和缺失,而U-Net、BFCN和GANet在分割病變血管時,能夠剔除病變斑點,減少血管缺失程度。GANet可以捕獲更多微細(xì)血管數(shù)目,使末端細(xì)小血管與主干血管平滑連接,第四幅和第五幅圖片可以看出其他分割算法微細(xì)血管丟失情況嚴(yán)重,造成評價時靈敏度較低。第六幅圖片血管附近有明顯的硬性滲出物,滲出物容易引起交叉處血管錯誤連接,同時掩蓋細(xì)小血管脈絡(luò)走勢,使目標(biāo)區(qū)域產(chǎn)生偽影,GANet和CANet豐富的特征提取使得硬性交叉處血管也能平滑融合,減小無關(guān)斑點生成,而其他算法則有不同程度的偽影,其滲出物的識別證明本文算法及其變形算法的魯棒性更強。

    圖9 不同算法分割結(jié)果。(a) 原圖;(b) 金標(biāo)準(zhǔn);(c) U-Net圖;(d) BCDU-Net圖;(e) DoubleU-Net圖;(f) BFCN圖;(g) CANet圖;(h) GANet圖

    進一步清晰展現(xiàn)分割結(jié)果,圖10和圖11給出DRIVE和STARE數(shù)據(jù)集分割細(xì)節(jié),并用顏色強化血管與背景像素,其中10(a)和11(a)代表灰色或彩色原圖,10(b)和11(b)代表金標(biāo)準(zhǔn)細(xì)節(jié)圖,10(c)~10(h)和11(c)~11(h)分別代表U-Net、BCDU-Net、DoubleU-Net、BFCN、CANet和GANet分割細(xì)節(jié)圖。圖10展示的是圖9中第三幅眼底圖像,由橙色和紅色圓圈可以看出本文算法能夠分割出更多微細(xì)血管,而其他算法在分割末端血管時效果欠缺。

    圖10 DRIVE數(shù)據(jù)集分割細(xì)節(jié)。(a) 原圖;(b) 金標(biāo)準(zhǔn)細(xì)節(jié)圖;(c) U-Net細(xì)節(jié)圖;(d) BCDU-Net細(xì)節(jié)圖;(e) DoubleU-Net細(xì)節(jié)圖;(f) BFCN細(xì)節(jié)圖;(g) CANet細(xì)節(jié)圖;(h) GANet細(xì)節(jié)圖

    圖11展示的是圖9中第六幅眼底圖像,由橙色和紅色圓圈可以看出本文算法能夠識別血管硬性滲出物,避免偽影生成。通過直觀細(xì)節(jié)對比,體現(xiàn)出本文算法能夠平滑地擬合主干血管和微細(xì)血管,保證視網(wǎng)膜血管分割完整性和準(zhǔn)確性,實驗對比細(xì)節(jié)圖說明鬼影卷積自適應(yīng)網(wǎng)絡(luò)對DRIVE和STARE中的眼底圖片具有較好的分割能力。

    圖11 STARE數(shù)據(jù)集分割細(xì)節(jié)。(a) 原圖;(b) 金標(biāo)準(zhǔn)細(xì)節(jié)圖;(c) U-Net細(xì)節(jié)圖;(d) BCDU-Net細(xì)節(jié)圖;(e) DoubleU-Net細(xì)節(jié)圖;(f) BFCN細(xì)節(jié)圖;(g) CANet細(xì)節(jié)圖;(h) GANet細(xì)節(jié)圖

    為更加直觀地顯現(xiàn)GANet優(yōu)越性,圖12和圖13給出DRIVE數(shù)據(jù)集上的受試者工作特征(ROC)曲線圖12(a)和精度召回率(PR)曲線圖13(a)走勢。ROC曲線以真陽性率(TPR)為縱坐標(biāo),假陽性率(FPR)為橫坐標(biāo),巧妙地以圖示方法揭示靈敏度和特異性關(guān)系。ROC圖中曲線越靠近左上角表明實驗準(zhǔn)確性越高,假陽性率和假陰性率占比越低,由圖12放大圖12(b)看出本文算法GANet曲線走勢最靠近左上角,分類視網(wǎng)膜圖片像素時錯誤分類為血管像素概率最低。

    圖12 受試者工作特征曲線

    圖13 精度召回率曲線

    PR曲線中P代表精準(zhǔn)率(Precision),R代表召回率(Recall),圖像蘊含精準(zhǔn)率與召回率關(guān)系,每條PR曲線對應(yīng)一個閾值。PR曲線越靠近右上角表明正負(fù)樣本區(qū)分效果越好,由圖13放大圖13(b)可以看出本文算法GANet曲線走勢最靠近右上角,分類視網(wǎng)膜圖片像素時錯誤分類為非血管像素概率最低。

    損失函數(shù)可以估量模型預(yù)測值與真實值不一致程度,圖14給出不同算法在STARE數(shù)據(jù)集上訓(xùn)練損失曲線和測試損失曲線走勢圖。

    3.5 不同算法客觀性對比

    本文算法與其他文獻方法進行客觀性對比,不同算法客觀性對比結(jié)果見表2,其中最優(yōu)指標(biāo)加粗表示。本文算法在DRIVE和STARE數(shù)據(jù)集上評價指標(biāo):準(zhǔn)確率(Acc)為96.56%和97.32%,敏感度(Sen)為84.52%和83.12%,特異性(Spe)為98.25%和98.96%,AUC值為98.69%和99.00%。通過數(shù)據(jù)證明本文算法性能對比其他視網(wǎng)膜分割算法具有明顯優(yōu)勢,實驗對比結(jié)果說明鬼影卷積自適應(yīng)網(wǎng)絡(luò)(GANet)對DRIVE和STARE庫中視網(wǎng)膜圖片具有較好地分割能力。文獻[16]利用可變形卷積去代替普通卷積,并采用雙路徑注意力引導(dǎo)結(jié)構(gòu)級聯(lián)編碼器和解碼器,可變形卷積包含偏移量學(xué)習(xí),可以動態(tài)地調(diào)整卷積核對目標(biāo)內(nèi)容進行自適應(yīng)采樣,但二個數(shù)據(jù)集四項指標(biāo)均低于本文算法,其中精度比本文低0.99%和1.12%,敏感度比本文低5.62%和5.14%,特異性比本文低0.26%和0.74%,鬼影卷積提取視網(wǎng)膜血管能力強于可變形卷積。文獻[20]基于尺度空間逼近卷積神經(jīng)網(wǎng)絡(luò)對視網(wǎng)膜血管進行分割,該網(wǎng)絡(luò)應(yīng)用上采樣多尺度結(jié)構(gòu)增加交換感受野,提高微薄結(jié)構(gòu)血管分割和邊界輪廓定位,同時引入剩余塊輔助網(wǎng)絡(luò)感受野變化,在STARE數(shù)據(jù)集中其精度和特異性均比本文低0.38%,敏感度和AUC值比本文高0.03%和0.05%,表明自適應(yīng)融合模塊和上采樣多尺度結(jié)構(gòu)對血管像素融合各有優(yōu)劣。文獻[22]提出實時模糊形態(tài)學(xué)視網(wǎng)膜血管分割算法,無監(jiān)督學(xué)習(xí)方法利用模糊集理論和模糊邏輯算子去處理不確定和信息缺失的血管,并用黑頂帽操作增強微血管區(qū)域像素,提高分割精度,在DRIVE數(shù)據(jù)集中該算法準(zhǔn)確率最高96.67%,比本文高0.11%,但是敏感度、特異性和AUC值均低于本文,敏感度低2.31%,特異性低0.08%,AUC值低0.16%,說明有監(jiān)督學(xué)習(xí)方法在分割血管輪廓時效果優(yōu)于無監(jiān)督學(xué)習(xí)方法。文獻[23]和文獻[24]采用交叉熵?fù)p失函數(shù)評估算法模型,在面對類別間不平衡時,很難權(quán)衡敏感度和特異性。相比DRIVE數(shù)據(jù)集STARE數(shù)據(jù)集中眼底圖像尺寸更大,血管像素占圖片整體像素比例更小。文獻[23]利用金字塔思想,將圖像放大不同尺度再輸入網(wǎng)絡(luò)中訓(xùn)練,使特異性最高99.03%,但敏感度為75.51%。文獻[24]采用遷移學(xué)習(xí)預(yù)訓(xùn)練模型,并將學(xué)習(xí)的多級別多尺度特征融合以消除錯誤分割,使敏感度最高89.79%,但特異性為97.01%。本文采用Cross-Dice Loss函數(shù)評估算法整體性能,可以很好地適應(yīng)前景與背景像素比例不平衡的分割任務(wù),權(quán)衡敏感度和特異性之間關(guān)系,算法敏感度和特異性分別為83.12%和98.96%,綜合分析不同算法,得出鬼影卷積自適應(yīng)網(wǎng)絡(luò)性能優(yōu)異。

    圖14 損失曲線

    表2 不同算法客觀性對比結(jié)果

    3.6 消融研究

    鬼影卷積自適應(yīng)網(wǎng)絡(luò)(GANet)生成豐富的視網(wǎng)膜特征圖,并自適應(yīng)融合血管特征,更好地保留血管像素,從而分割出邊緣細(xì)節(jié)更加完整的眼底圖片。為驗證鬼影卷積自適應(yīng)網(wǎng)絡(luò)(GANet)各模塊有效性,本文在DRIVE和STARE數(shù)據(jù)集上進行消融研究。GANet_1以普通卷積層為基礎(chǔ)加入自適應(yīng)融合模塊(AFM)和雙路徑引導(dǎo)結(jié)構(gòu)(DAG),GANet_2將普通卷積層替換成鬼影卷積模塊,并加入雙路徑引導(dǎo)結(jié)構(gòu)(DAG),GANet_3將普通卷積層替換成鬼影卷積模塊,并加入自適應(yīng)融合模塊(AFM),表3顯示消融實驗結(jié)果。

    消融實驗顯示本文算法各模塊具體作用,其中GANet_1和GANet區(qū)別在于是否加入鬼影卷積模塊,鬼影卷積模塊對比普通卷積層可以產(chǎn)生更豐富的特征圖,充分提取眼底信息,分割出更多微細(xì)血管,GANet_1和GANet準(zhǔn)確度分別為96.45%和96.56%,敏感度分別為83.74%和84.52%,明顯提高算法準(zhǔn)確度和敏感度。GANet_2在鬼影卷積模塊基礎(chǔ)上引入雙路徑引導(dǎo)結(jié)構(gòu),級聯(lián)編碼器和解碼器,解決池化層信息損失和實現(xiàn)語義全局傳遞,更好地保留血管像素,分割出邊緣細(xì)節(jié)更加完整的圖片,使敏感度達到最優(yōu)85.06%和83.36%。GANet_3在鬼影卷積模塊基礎(chǔ)上引入自適應(yīng)融合模塊,增加卷積層感受野,多尺度提取目標(biāo)特征,使特異性達到最優(yōu)98.51%和99.29%。本文算法在鬼影卷積基礎(chǔ)上加入了自適應(yīng)融合模塊和雙路徑引導(dǎo)結(jié)構(gòu),在提高算法準(zhǔn)確度的同時權(quán)衡敏感度和特異性。

    表3 各模塊消融研究

    4 結(jié) 論

    本文針對視網(wǎng)膜血管難以高精度分割,提出鬼影卷積自適應(yīng)視網(wǎng)膜血管分割算法。算法先對數(shù)據(jù)庫中圖片進行預(yù)處理,增強眼底圖像可識別度。訓(xùn)練網(wǎng)絡(luò)編碼和解碼器中普通卷積被替換為鬼影卷積,利用鬼影卷積快速生成豐富特征圖的優(yōu)勢,充分提取血管特征。編碼層捕獲信息經(jīng)過自適應(yīng)融合模塊后輸入解碼層中分類,自適應(yīng)模塊利用非對稱卷積核交叉融合血管像素,高質(zhì)量保存視網(wǎng)膜血管細(xì)節(jié)。為弱化池化層噪聲干擾,采用雙路徑注意力引導(dǎo)結(jié)構(gòu)級聯(lián)低級特征圖與高級特征圖,讓視網(wǎng)膜特征能夠全局傳遞。此外,本文引入新型混合損失(Cross-Dice Loss)函數(shù)來抑制正負(fù)樣本不均問題,減少因前景占比少而引起的分割誤差,得到優(yōu)異分割結(jié)果。實驗結(jié)果表明,本文算法綜合性能優(yōu)于現(xiàn)有算法,其分割精度數(shù)值較高,對于眼科疾病診斷擁有一定應(yīng)用價值。雖然鬼影卷積能夠生成豐富的特征圖,但不能很好地確定每張圖片信息度,無法辨別出高質(zhì)量特征圖。未來將研究如何巧妙地融合可變形學(xué)習(xí)量,通過網(wǎng)絡(luò)學(xué)習(xí)自動增加高維信息特征圖權(quán)重,提高視網(wǎng)膜血管分割精度。

    [1] Xu G Z, Wang Y W, Hu S,. Retinal vascular segmentation combined with PCNN and morphological matching enhancement[J]., 2019, 46(4): 180466.

    徐光柱, 王亞文, 胡松, 等. PCNN與形態(tài)匹配增強相結(jié)合的視網(wǎng)膜血管分割[J]. 光電工程, 2019, 46(4): 180466.

    [2] Liu X M, Cao J, Fu T Y,. Semi-supervised automatic segmentation of layer and fluid region in retinal optical coherence tomography images using adversarial learning[J]., 2018, 7: 3046–3061.

    [3] She L H, Guo Y R, Zhang S. Retinal vessel segmentation algorithm based on orientation scores and Frangi filter[J].(), 2020, 41(2): 182–187.

    佘黎煌, 郭一蓉, 張石. 基于方向分?jǐn)?shù)和Frangi濾波器的視網(wǎng)膜血管分割算法[J]. 東北大學(xué)學(xué)報(自然科學(xué)版), 2020, 41(2): 182–187.

    [4] Liang L M, Sheng X Q, Lan Z M,. U-shaped retinal vessel segmentation algorithm based on adaptive scale information[J]., 2019, 39(08): 126–140. 梁禮明, 盛校棋, 藍(lán)智敏, 等. 自適應(yīng)尺度信息的U型視網(wǎng)膜血管分割算法[J]. 光學(xué)學(xué)報, 2019, 39(08): 126–140.

    [5] Wang D Y, Haytham A, Pottenburgh J,. Hard attention net for automatic retinal vessel segmentation[J]., 2020, 24(12): 3384–3396.

    [6] Han K, Wang Y H, Tian Q,. GhostNet: more features from cheap operations[C]//. 2020: 1577–1586.

    [7] Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]//. 2018: 7132–7141.

    [8] Zheng X W, Huan L X, Xia G S,. Parsing very high resolution urban scene images by learning deep ConvNets with edge-aware loss[J]., 2020, 170: 15–28.

    [9] Zhang S D, He F Z. DRCDN: learning deep residual convolutional dehazing networks[J]., 2020, 36(9): 1797–1808.

    [10] Wang Y J, Hu S Y, Wang G D,. Multi-scale dilated convolution of convolutional neural network for crowd counting[J]., 2020, 79(1–2): 1057–1073.

    [11] Ronneberger O, Fischer P, Brox T. U-Net: convolutional networks for biomedical image segmentation[C]//. 2015: 234–241.

    [12] Azad R, Asadi-Aghbolaghi M, Fathy M,. Bi-directional ConvLSTM U-Net with densley connected convolutions[C]//. 2019: 406–415.

    [13] Jha D, Riegler M A, Johansen D,. DoubleU-Net: a deep convolutional neural network for medical image segmentation[C]//(). 2020: 558–564.

    [14] Jiang Y, Wang F L, Gao J,. Efficient BFCN for automatic retinal vessel segmentation[J]., 2020, 2020: 6439407.

    [15] Yan Z Q, Yang X, Cheng K T. Joint segment-level and pixel-wise losses for deep learning based retinal vessel segmentation[J]., 2018, 65(9): 1912–1923.

    [16] Li H, Wang Y K, Wan C,. MAU-Net: a retinal vessels segmentation method[C]//(). 2020: 1958–1961.

    [17] Jin Q G, Meng Z P, Pham T D,. DUNet: a deformable network for retinal vessel segmentation[J]., 2019, 178: 149–162.

    [18] Li X, Jiang Y C, Li M L,. Lightweight attention convolutional neural network for retinal vessel image segmentation[J]., 2021, 17(3): 1958–1967.

    [19] Tang P, Liang Q K, Yan X T,. Multi-proportion channel ensemble model for retinal vessel segmentation[J]., 2019, 111: 103352.

    [20] Oliveira A, Pereira S, Silva C A. Retinal vessel segmentation based on fully convolutional neural networks[J]., 2018, 112: 229–242.

    [21] Wu Y C, Xia Y, Song Y,. NFN+: a novel network followed network for retinal vessel segmentation[J]., 2020, 126: 153–162.

    [22] Guo F, Li W Q, Kuang Z H,. MES-Net: a new network for retinal image segmentation[J]., 2021, 80(10): 14767–14788.

    [23] Tang Y, Rui Z Y, Yan C F,. ResWnet for retinal small vessel segmentation[J]., 2020, 8: 198265–198274.

    [24] Samuel P M, Veeramalai T. Multilevel and multiscale deep neural network for retinal blood vessel segmentation[J]., 2019, 11(7): 946.

    Ghost convolution adaptive retinal vessel segmentation algorithm

    Liang Liming1, Zhou Longsong1, Chen Xin1, Yu Jie1, Feng Xingang2*

    1School of Electrical Engineering and Automation, Jiangxi University of Science and Technology, Ganzhou, Jiangxi 341000, China;2School of Applied Sciences, Jiangxi University of Science and Technology, Ganzhou, Jiangxi 341000, China

    Ghost module

    Overview:Retinal vascular morphology is an important indicator of human health, and its image processing and segmentation are of great significance for the early detection and treatment of glaucoma, cardiovascular disease, and venous obstruction. At present, retinal vessel segmentation algorithms are mainly divided into unsupervised and supervised learning methods. Unsupervised learning method mainly focuses on the original information of fundus blood vessels and uses matching filtering, mathematical morphology and vascular tracking to segment fundus images. Supervised learning requires prior label information, and the classifier is trained and extracted by manually labeled Label image, and then the retinal vessels are segmented. However, the existing retinal vessel segmentation algorithm has some problems, such as blurred main vessel contour, micro-vessel fracture, and optic disc boundary missegmentation. To solve the above problems, a ghost convolution adaptive retinal vessel segmentation algorithm was proposed. First, color fundus images were separated by RGB (Red, Green, Blue) channels and Contrast Limited Adaptive Histogram Equalization to enhance the contrast between retinal blood vessels and background, and to reduce the influence of light intensity and color channel on the segmentation effect. Then the fundus images were input into the ghoul convolution adaptive network for training to extract the vascular features. The algorithm uses ghoul convolution to replace the common convolution in the neural network, and the ghoul convolution can generate rich vascular feature maps to fully extract the target features. The features are classified and predicted by the adaptive fusion module input into the decoding layer, and the adaptive fusion can capture the image information at multiple scales and preserve the vascular details with high quality. In the process of accurately locating vascular pixels and solving the loss of image texture, a dual-pathway attention guiding structure is constructed to effectively combine the feature maps at the bottom and the high level of the network, which solves the information loss at the pooling layer, achieves global semantic transmission, better retains vascular pixels, and makes the edge details of the segmented image more complete. At the same time, Cross-Dice Loss function is introduced to suppress the problem of uneven positive and negative samples and reduce the segmentation error caused by the small proportion of foreground. The experiment was carried out on DRIVE and STARE datasets. The DRIVE dataset contains 40 color fundus images, which were manually divided into training sets and test sets by the authorities. The STARE database contains 20 color fundus images, which were evenly divided into five parts, and the experiment was carried out in a 50% fold cross validation method. Experimental results: the accuracy rate was 96.56% and 97.32%, sensitivity was 84.52% and 83.12%, specificity was 98.25% and 98.96%, respectively. In the segmentation results, the main vessels were less broken and the microvessels were clear, which has certain medical clinical application value.

    Liang L M, Zhou L S, Chen X,Ghost convolution adaptive retinal vessel segmentation algorithm[J]., 2021, 48(10): 210291; DOI:10.12086/oee.2021.210291

    Ghost convolution adaptive retinal vessel segmentation algorithm

    Liang Liming1, Zhou Longsong1, Chen Xin1, Yu Jie1, Feng Xingang2*

    1School of Electrical Engineering and Automation, Jiangxi University of Science and Technology, Ganzhou, Jiangxi 341000, China;2School of Applied Sciences, Jiangxi University of Science and Technology, Ganzhou, Jiangxi 341000, China

    In order to solve the problems in retinal vessel segmentation, such as blurred main vessel profile, broken micro-vessels, and missegmented optic disc boundary, a ghost convolution adaptive retinal vessel segmentation algorithm is proposed. The first algorithm uses ghost convolution to replace the common convolution in neural network, and the ghost convolution generates rich vascular feature maps to make the target feature extraction fully carried out. Secondly, the generated feature images are adaptive fusion and input to the decoding layer for classification. Adaptive fusion can capture image information at multiple scales and save details with high quality. Thirdly, in the process of accurately locating vascular pixels and solving image texture loss, a dual-pathway attention guiding structure is constructed to effectively combine the feature map at the bottom and the feature map at the top of the network to improve the accuracy of vascular segmentation. At the same time, Cross-Dice Loss function was introduced to suppress the problem of uneven positive and negative samples and reduce the segmentation error caused by the small proportion of vascular pixels. Experiments were conducted on DRIVE and STARE datasets. The accuracy was 96.56% and 97.32%, the sensitivity was 84.52% and 83.12%, and the specificity was 98.25% and 98.96%, respectively, which proves the good segmentation effect.

    retinal vessels; ghost convolution; adaptive fusion module; dual-pathway attention guided structure

    National Natural Science Foundation of China (51365017, 61463018), General Project of Jiangxi Natural Science Foundation (20192BAB205084), and Key Project of Science and Technology Research of Jiangxi Provincial Department of Education (GJJ170491)

    10.12086/oee.2021.210291

    TP391

    A

    * E-mail: gzfxg1980@163.com

    梁禮明,周瓏頌,陳鑫,等. 鬼影卷積自適應(yīng)視網(wǎng)膜血管分割算法[J]. 光電工程,2021,48(10): 210291

    Liang L M, Zhou L S, Chen X, et al. Ghost convolution adaptive retinal vessel segmentation algorithm[J]. Opto-Electron Eng, 2021, 48(10): 210291

    2021-09-06;

    2021-10-02

    國家自然科學(xué)基金資助項目(51365017,61463018);江西省自然科學(xué)基金面上項目(20192BAB205084);江西省教育廳科學(xué)技術(shù)研究重點項目(GJJ170491)

    梁禮明(1967-),男,碩士,教授,主要從事醫(yī)學(xué)影像方面的研究。E-mail:9119890012@jxust.edu.cn

    馮新剛(1980-),男,碩士,講師,主要從事醫(yī)學(xué)影像方面的研究。E-mail:gzfxg1980@163.com

    版權(quán)所有?2021中國科學(xué)院光電技術(shù)研究所

    猜你喜歡
    鬼影視網(wǎng)膜像素
    神秘鬼影
    趙運哲作品
    藝術(shù)家(2023年8期)2023-11-02 02:05:28
    深度學(xué)習(xí)在糖尿病視網(wǎng)膜病變診療中的應(yīng)用
    像素前線之“幻影”2000
    家族性滲出性玻璃體視網(wǎng)膜病變合并孔源性視網(wǎng)膜脫離1例
    高度近視視網(wǎng)膜微循環(huán)改變研究進展
    “像素”仙人掌
    如何消除膠印“鬼影”?
    復(fù)明片治療糖尿病視網(wǎng)膜病變視網(wǎng)膜光凝術(shù)后臨床觀察
    高像素不是全部
    CHIP新電腦(2016年3期)2016-03-10 14:22:03
    老司机影院成人| 丰满少妇做爰视频| 免费在线观看完整版高清| 97人妻天天添夜夜摸| 亚洲精品av麻豆狂野| av又黄又爽大尺度在线免费看| 国产精品一区二区在线观看99| 欧美97在线视频| 激情视频va一区二区三区| 99久久99久久久精品蜜桃| 国产一区二区三区av在线| 国产亚洲欧美在线一区二区| 女人高潮潮喷娇喘18禁视频| 激情视频va一区二区三区| 亚洲专区字幕在线| 亚洲中文日韩欧美视频| 久久久国产一区二区| 2018国产大陆天天弄谢| 人人妻人人澡人人看| 99香蕉大伊视频| av超薄肉色丝袜交足视频| 纵有疾风起免费观看全集完整版| 91麻豆精品激情在线观看国产 | 欧美日韩国产mv在线观看视频| 精品第一国产精品| 国产区一区二久久| 久久香蕉激情| 桃红色精品国产亚洲av| 男女之事视频高清在线观看| 亚洲av美国av| 一区二区三区激情视频| 一级片'在线观看视频| 亚洲精品久久久久久婷婷小说| 在线观看www视频免费| 中文字幕最新亚洲高清| 交换朋友夫妻互换小说| 精品少妇黑人巨大在线播放| 日本欧美视频一区| 欧美日韩亚洲高清精品| 国产精品久久久久成人av| 制服人妻中文乱码| 国产一区二区在线观看av| cao死你这个sao货| www.av在线官网国产| 日韩 欧美 亚洲 中文字幕| 丰满饥渴人妻一区二区三| 午夜福利影视在线免费观看| 精品一区二区三区av网在线观看 | 国产91精品成人一区二区三区 | 成年动漫av网址| 飞空精品影院首页| 狂野欧美激情性bbbbbb| 午夜91福利影院| 亚洲欧洲精品一区二区精品久久久| 成年人黄色毛片网站| 国产精品av久久久久免费| 宅男免费午夜| 午夜免费成人在线视频| 又紧又爽又黄一区二区| 久久99热这里只频精品6学生| 99久久精品国产亚洲精品| 欧美在线一区亚洲| 亚洲av电影在线进入| 亚洲成人免费av在线播放| 国产日韩欧美视频二区| 丝袜美足系列| 亚洲av电影在线观看一区二区三区| 后天国语完整版免费观看| 91av网站免费观看| 国产91精品成人一区二区三区 | 纯流量卡能插随身wifi吗| 一边摸一边抽搐一进一出视频| 日日摸夜夜添夜夜添小说| 免费久久久久久久精品成人欧美视频| 十分钟在线观看高清视频www| 男女边摸边吃奶| 国产成人精品在线电影| 久久国产精品男人的天堂亚洲| av在线app专区| 亚洲国产看品久久| 欧美中文综合在线视频| 人人妻人人爽人人添夜夜欢视频| www日本在线高清视频| 免费看十八禁软件| 精品一区二区三区av网在线观看 | 女人久久www免费人成看片| 国产在线观看jvid| 日韩欧美国产一区二区入口| 老汉色∧v一级毛片| 秋霞在线观看毛片| 午夜激情av网站| 一区二区三区乱码不卡18| 99国产精品99久久久久| 99久久综合免费| 99久久99久久久精品蜜桃| 777米奇影视久久| 日本av免费视频播放| 啦啦啦 在线观看视频| 少妇粗大呻吟视频| 老汉色∧v一级毛片| 飞空精品影院首页| 亚洲精品国产区一区二| 啦啦啦啦在线视频资源| 老汉色∧v一级毛片| 成人国产一区最新在线观看| 丝袜喷水一区| 欧美黄色片欧美黄色片| 久久人妻福利社区极品人妻图片| 亚洲精品日韩在线中文字幕| 亚洲国产av新网站| 亚洲欧洲日产国产| 一区二区三区四区激情视频| 成年人午夜在线观看视频| 国产一级毛片在线| 国产真人三级小视频在线观看| 日本精品一区二区三区蜜桃| 亚洲欧美精品自产自拍| 制服诱惑二区| 精品国产一区二区久久| 久久ye,这里只有精品| 99久久99久久久精品蜜桃| 色婷婷久久久亚洲欧美| 激情视频va一区二区三区| av天堂在线播放| 午夜福利视频在线观看免费| 久久国产精品男人的天堂亚洲| 久久毛片免费看一区二区三区| 19禁男女啪啪无遮挡网站| 久久国产精品大桥未久av| 国产成人精品无人区| 国产av又大| 性少妇av在线| 国产精品欧美亚洲77777| 久久ye,这里只有精品| 91精品国产国语对白视频| 欧美精品啪啪一区二区三区 | 国产亚洲精品第一综合不卡| 日韩欧美一区二区三区在线观看 | 成年女人毛片免费观看观看9 | 天天影视国产精品| 国产不卡av网站在线观看| 日韩视频一区二区在线观看| 1024视频免费在线观看| 日韩制服骚丝袜av| 午夜久久久在线观看| 亚洲 欧美一区二区三区| av不卡在线播放| 黄色视频在线播放观看不卡| 午夜精品国产一区二区电影| 亚洲精品成人av观看孕妇| 手机成人av网站| 亚洲伊人色综图| 在线永久观看黄色视频| 亚洲av日韩精品久久久久久密| 成年美女黄网站色视频大全免费| 欧美亚洲 丝袜 人妻 在线| 久久精品久久久久久噜噜老黄| 高清av免费在线| 色视频在线一区二区三区| 美女国产高潮福利片在线看| 男人舔女人的私密视频| 美女中出高潮动态图| 午夜福利免费观看在线| 中亚洲国语对白在线视频| 日本撒尿小便嘘嘘汇集6| 法律面前人人平等表现在哪些方面 | 精品一区在线观看国产| 精品高清国产在线一区| 777久久人妻少妇嫩草av网站| 啦啦啦啦在线视频资源| 午夜福利视频在线观看免费| 18禁国产床啪视频网站| 精品免费久久久久久久清纯 | 国产高清视频在线播放一区 | 老司机午夜十八禁免费视频| 中文字幕最新亚洲高清| 黑人操中国人逼视频| 亚洲欧美清纯卡通| 丰满饥渴人妻一区二区三| 久久狼人影院| 久久女婷五月综合色啪小说| 久久天躁狠狠躁夜夜2o2o| 久久这里只有精品19| 91麻豆av在线| av在线播放精品| 久久国产精品影院| 精品视频人人做人人爽| 久久女婷五月综合色啪小说| 久久天躁狠狠躁夜夜2o2o| 中文精品一卡2卡3卡4更新| 在线观看免费高清a一片| 麻豆乱淫一区二区| 精品亚洲成国产av| 人人妻人人澡人人爽人人夜夜| 久久精品成人免费网站| 精品欧美一区二区三区在线| 亚洲avbb在线观看| 成人国产av品久久久| av超薄肉色丝袜交足视频| 久久精品久久久久久噜噜老黄| 欧美久久黑人一区二区| 男人爽女人下面视频在线观看| 日本五十路高清| 久久久久精品人妻al黑| 亚洲av欧美aⅴ国产| 爱豆传媒免费全集在线观看| 午夜免费鲁丝| 黑人巨大精品欧美一区二区mp4| 搡老岳熟女国产| 国产亚洲欧美在线一区二区| 成人手机av| 国产精品欧美亚洲77777| 国产成+人综合+亚洲专区| 亚洲国产成人一精品久久久| 国产精品久久久人人做人人爽| 欧美黄色淫秽网站| 法律面前人人平等表现在哪些方面 | 国产成人欧美| 亚洲久久久国产精品| 丝袜人妻中文字幕| 多毛熟女@视频| 女人爽到高潮嗷嗷叫在线视频| 自线自在国产av| 国产在线视频一区二区| 亚洲五月婷婷丁香| 一级毛片电影观看| 欧美激情久久久久久爽电影 | 99国产精品一区二区三区| 国产亚洲av片在线观看秒播厂| 最近中文字幕2019免费版| 一区二区av电影网| 亚洲av电影在线观看一区二区三区| 九色亚洲精品在线播放| 男女无遮挡免费网站观看| 天堂中文最新版在线下载| 亚洲av男天堂| 丁香六月欧美| 中文字幕制服av| 人人妻人人爽人人添夜夜欢视频| 最近最新免费中文字幕在线| 欧美黄色淫秽网站| 王馨瑶露胸无遮挡在线观看| 乱人伦中国视频| 亚洲精品美女久久av网站| 成年人黄色毛片网站| 91大片在线观看| 高清黄色对白视频在线免费看| 欧美黄色淫秽网站| 午夜91福利影院| av线在线观看网站| 久久女婷五月综合色啪小说| 中文字幕人妻熟女乱码| 天堂8中文在线网| 国产成人精品在线电影| 一区在线观看完整版| 看免费av毛片| 欧美亚洲日本最大视频资源| 精品少妇黑人巨大在线播放| 免费高清在线观看视频在线观看| 热99久久久久精品小说推荐| 欧美xxⅹ黑人| 一本色道久久久久久精品综合| 欧美 亚洲 国产 日韩一| 丁香六月天网| 欧美日韩亚洲综合一区二区三区_| 99久久精品国产亚洲精品| 久久精品亚洲熟妇少妇任你| 国产在线观看jvid| 高清黄色对白视频在线免费看| 在线av久久热| 中文字幕精品免费在线观看视频| 精品人妻1区二区| 男女之事视频高清在线观看| av又黄又爽大尺度在线免费看| 亚洲va日本ⅴa欧美va伊人久久 | 亚洲黑人精品在线| 欧美日韩亚洲国产一区二区在线观看 | 老司机在亚洲福利影院| 午夜免费观看性视频| 电影成人av| 成人影院久久| 亚洲熟女毛片儿| 亚洲第一青青草原| 欧美日韩成人在线一区二区| 亚洲国产精品一区三区| 日韩一区二区三区影片| 人妻 亚洲 视频| 亚洲国产精品一区二区三区在线| 老司机福利观看| 老司机深夜福利视频在线观看 | 日本wwww免费看| 啦啦啦视频在线资源免费观看| 国产欧美日韩一区二区三区在线| 黄色视频不卡| 99久久国产精品久久久| 窝窝影院91人妻| 丝袜在线中文字幕| 19禁男女啪啪无遮挡网站| 久久久国产成人免费| av国产精品久久久久影院| 少妇粗大呻吟视频| 十八禁网站网址无遮挡| av福利片在线| 精品国内亚洲2022精品成人 | 精品国产乱码久久久久久男人| 桃花免费在线播放| 在线观看免费高清a一片| av线在线观看网站| 五月开心婷婷网| 三级毛片av免费| 色视频在线一区二区三区| 国产无遮挡羞羞视频在线观看| 人妻一区二区av| 交换朋友夫妻互换小说| 国产亚洲午夜精品一区二区久久| 久久久久国产精品人妻一区二区| 日韩欧美一区二区三区在线观看 | 亚洲精品国产色婷婷电影| 国产精品免费视频内射| 少妇精品久久久久久久| 欧美日本中文国产一区发布| 成人国语在线视频| 侵犯人妻中文字幕一二三四区| 宅男免费午夜| 电影成人av| 少妇猛男粗大的猛烈进出视频| 久久久精品区二区三区| 国产av一区二区精品久久| 免费高清在线观看视频在线观看| 亚洲色图综合在线观看| 国产亚洲av片在线观看秒播厂| 亚洲精华国产精华精| 国产一区二区 视频在线| 欧美日韩亚洲高清精品| 国产精品av久久久久免费| 亚洲精品国产一区二区精华液| 欧美成人午夜精品| 日本黄色日本黄色录像| 亚洲人成电影免费在线| 一本大道久久a久久精品| 久久精品aⅴ一区二区三区四区| 免费人妻精品一区二区三区视频| 黄色毛片三级朝国网站| 天天影视国产精品| 久久精品成人免费网站| 亚洲精品av麻豆狂野| 99国产极品粉嫩在线观看| 美女脱内裤让男人舔精品视频| 国产男女内射视频| 一级黄色大片毛片| 成人免费观看视频高清| 日韩中文字幕视频在线看片| 一区二区三区激情视频| videosex国产| av福利片在线| 亚洲精品国产av成人精品| 国产又色又爽无遮挡免| 国产av又大| 久久精品亚洲熟妇少妇任你| 亚洲精品一二三| 日韩制服骚丝袜av| 久久国产精品影院| 男女床上黄色一级片免费看| 午夜精品久久久久久毛片777| 美女福利国产在线| 欧美在线黄色| 精品国产乱码久久久久久男人| 国产一区二区在线观看av| 50天的宝宝边吃奶边哭怎么回事| 午夜精品国产一区二区电影| 日韩免费高清中文字幕av| 老熟妇仑乱视频hdxx| 久久中文字幕一级| 久久这里只有精品19| 精品国产乱子伦一区二区三区 | 午夜两性在线视频| 黄色视频不卡| 中国美女看黄片| 亚洲av男天堂| 久久99热这里只频精品6学生| 女性被躁到高潮视频| 亚洲全国av大片| 亚洲,欧美精品.| 狠狠狠狠99中文字幕| 少妇人妻久久综合中文| 久久久久久久精品精品| 国产精品免费视频内射| 搡老岳熟女国产| 成年人免费黄色播放视频| 精品欧美一区二区三区在线| av不卡在线播放| 亚洲伊人色综图| 亚洲av美国av| 亚洲精华国产精华精| 青春草亚洲视频在线观看| 亚洲国产精品成人久久小说| 亚洲成人免费av在线播放| 成人免费观看视频高清| 大香蕉久久成人网| 国产麻豆69| 黄色a级毛片大全视频| 日韩一区二区三区影片| 99国产极品粉嫩在线观看| 久久99一区二区三区| 夜夜夜夜夜久久久久| 国产成人精品久久二区二区免费| 国产一级毛片在线| 一区二区日韩欧美中文字幕| 少妇裸体淫交视频免费看高清 | 亚洲熟女精品中文字幕| av又黄又爽大尺度在线免费看| 亚洲中文字幕日韩| 欧美老熟妇乱子伦牲交| 伊人亚洲综合成人网| 久久综合国产亚洲精品| 一区二区三区激情视频| 两个人免费观看高清视频| 欧美日韩福利视频一区二区| 中国国产av一级| 又紧又爽又黄一区二区| 国产精品一区二区在线观看99| 欧美精品一区二区免费开放| 免费观看a级毛片全部| 欧美另类一区| 老司机深夜福利视频在线观看 | 国产成人精品在线电影| 欧美人与性动交α欧美精品济南到| 国产高清videossex| 日韩中文字幕欧美一区二区| 国产欧美日韩一区二区三 | 国产真人三级小视频在线观看| 在线亚洲精品国产二区图片欧美| av在线老鸭窝| 黄片小视频在线播放| 日本wwww免费看| 黑人欧美特级aaaaaa片| 一本大道久久a久久精品| kizo精华| 亚洲五月婷婷丁香| 欧美性长视频在线观看| 国产成人系列免费观看| 亚洲国产欧美在线一区| 成人18禁高潮啪啪吃奶动态图| 精品人妻1区二区| 亚洲av电影在线进入| 久久久精品国产亚洲av高清涩受| 一级a爱视频在线免费观看| 国产亚洲一区二区精品| 视频区欧美日本亚洲| 国产一区二区在线观看av| 亚洲 欧美一区二区三区| 精品视频人人做人人爽| 久久天躁狠狠躁夜夜2o2o| 欧美一级毛片孕妇| 亚洲国产欧美日韩在线播放| 国产欧美亚洲国产| av福利片在线| 美女福利国产在线| 亚洲精品一区蜜桃| 国产免费现黄频在线看| 伦理电影免费视频| 精品国产超薄肉色丝袜足j| 久久精品国产亚洲av高清一级| 亚洲国产欧美在线一区| 两性午夜刺激爽爽歪歪视频在线观看 | 男人舔女人的私密视频| 日韩,欧美,国产一区二区三区| 久久久久精品国产欧美久久久 | 国产精品av久久久久免费| 亚洲一卡2卡3卡4卡5卡精品中文| 丰满饥渴人妻一区二区三| 久久国产精品大桥未久av| 亚洲国产欧美网| 午夜福利一区二区在线看| 熟女少妇亚洲综合色aaa.| 每晚都被弄得嗷嗷叫到高潮| 国产av精品麻豆| 精品少妇内射三级| 欧美老熟妇乱子伦牲交| 久久久久精品国产欧美久久久 | www.自偷自拍.com| www.熟女人妻精品国产| 国产又色又爽无遮挡免| 久9热在线精品视频| 国产精品一二三区在线看| 国产免费现黄频在线看| xxxhd国产人妻xxx| 午夜免费成人在线视频| 午夜福利在线免费观看网站| 中国国产av一级| 久久人人爽人人片av| 十八禁网站网址无遮挡| svipshipincom国产片| 精品一区二区三区av网在线观看 | 丁香六月欧美| 国产在线一区二区三区精| 国产亚洲欧美在线一区二区| 精品欧美一区二区三区在线| 精品少妇内射三级| 欧美av亚洲av综合av国产av| 91av网站免费观看| 男男h啪啪无遮挡| 9热在线视频观看99| 三上悠亚av全集在线观看| 欧美激情极品国产一区二区三区| 国产高清videossex| 999久久久国产精品视频| 精品亚洲乱码少妇综合久久| 欧美精品一区二区免费开放| 真人做人爱边吃奶动态| 男人添女人高潮全过程视频| 日本vs欧美在线观看视频| 一二三四在线观看免费中文在| 欧美日本中文国产一区发布| 亚洲欧洲精品一区二区精品久久久| 国产成人欧美| 一个人免费在线观看的高清视频 | 一级毛片电影观看| 另类精品久久| 亚洲人成电影观看| 男男h啪啪无遮挡| 精品人妻一区二区三区麻豆| 亚洲欧美成人综合另类久久久| 91九色精品人成在线观看| 黄色视频不卡| 成人三级做爰电影| 久热爱精品视频在线9| 亚洲一码二码三码区别大吗| av天堂久久9| 久久精品国产亚洲av香蕉五月 | bbb黄色大片| 亚洲精品国产av蜜桃| 高清黄色对白视频在线免费看| 亚洲专区字幕在线| 国产一卡二卡三卡精品| 最新在线观看一区二区三区| 狠狠精品人妻久久久久久综合| 国内毛片毛片毛片毛片毛片| 久久ye,这里只有精品| 乱人伦中国视频| 亚洲av欧美aⅴ国产| 国产成人av激情在线播放| 午夜视频精品福利| 天天添夜夜摸| 熟女少妇亚洲综合色aaa.| 啦啦啦啦在线视频资源| 91av网站免费观看| 免费av中文字幕在线| 亚洲中文字幕日韩| 丝袜人妻中文字幕| 色播在线永久视频| 国产精品香港三级国产av潘金莲| av网站免费在线观看视频| 国产精品久久久久久精品电影小说| 岛国毛片在线播放| 亚洲av男天堂| 热re99久久精品国产66热6| av有码第一页| 国产欧美日韩一区二区精品| 亚洲国产欧美网| 久久精品aⅴ一区二区三区四区| 亚洲美女黄色视频免费看| 亚洲精品国产av成人精品| 久久精品人人爽人人爽视色| 国产精品欧美亚洲77777| 天天影视国产精品| 日韩,欧美,国产一区二区三区| 制服人妻中文乱码| 丁香六月天网| 99精品欧美一区二区三区四区| 自拍欧美九色日韩亚洲蝌蚪91| 一边摸一边做爽爽视频免费| 国产亚洲精品久久久久5区| 午夜福利影视在线免费观看| 无遮挡黄片免费观看| 性高湖久久久久久久久免费观看| 精品久久蜜臀av无| 岛国在线观看网站| 国产免费现黄频在线看| 久久午夜综合久久蜜桃| 五月天丁香电影| 国产成人精品无人区| 午夜福利视频精品| 日韩视频在线欧美| 久久香蕉激情| 久久人人爽av亚洲精品天堂| 男女床上黄色一级片免费看| 91麻豆av在线| 午夜福利乱码中文字幕| 色婷婷av一区二区三区视频| 亚洲精品成人av观看孕妇| 亚洲精品久久久久久婷婷小说| 免费日韩欧美在线观看| 满18在线观看网站| 亚洲av片天天在线观看| 久久人人97超碰香蕉20202| 国产欧美日韩综合在线一区二区| 麻豆乱淫一区二区| 日本av免费视频播放| 老熟妇乱子伦视频在线观看 | 乱人伦中国视频| e午夜精品久久久久久久| 婷婷成人精品国产| 操出白浆在线播放| 一边摸一边做爽爽视频免费| 在线天堂中文资源库| 色播在线永久视频| 成年人免费黄色播放视频| 久久国产亚洲av麻豆专区| 欧美午夜高清在线| 国产一区二区在线观看av| 丝袜喷水一区| 日韩有码中文字幕| av线在线观看网站| 69精品国产乱码久久久|