• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于拓?fù)浣Y(jié)構(gòu)約束和特征增強(qiáng)的醫(yī)學(xué)影像標(biāo)志點(diǎn)定位算法①

    2022-09-20 04:11:08張靈西
    關(guān)鍵詞:標(biāo)志點(diǎn)醫(yī)學(xué)影像空洞

    張靈西

    (復(fù)旦大學(xué) 計(jì)算機(jī)科學(xué)技術(shù)學(xué)院, 上海 200438)

    近年來, 人工智能技術(shù)的飛速發(fā)展在醫(yī)療領(lǐng)域受到廣泛關(guān)注. 與此同時(shí), 隨著醫(yī)學(xué)數(shù)據(jù)集的不斷擴(kuò)增、硬件計(jì)算能力的快速提升以及應(yīng)用算法的突破性進(jìn)展,人工智能在醫(yī)療場景中的技術(shù)積累日漸成熟, 應(yīng)用范圍逐步拓寬. 2019年1月, 由上海交通大學(xué)人工智能研究院領(lǐng)銜發(fā)布的《人工智能醫(yī)療白皮書》[1]中指出,人工智能在醫(yī)療領(lǐng)域應(yīng)用最廣的場景就是醫(yī)學(xué)影像分析, 該領(lǐng)域更是被業(yè)內(nèi)人士認(rèn)為是最有可能率先實(shí)現(xiàn)商業(yè)化的人工智能醫(yī)療領(lǐng)域.

    醫(yī)學(xué)影像可以直觀地呈現(xiàn)人體內(nèi)部的解剖結(jié)構(gòu)與病灶信息, 通過醫(yī)學(xué)圖像便可觀察病人身體內(nèi)部器官、組織的變化情況, 是醫(yī)生在臨床診斷和手術(shù)規(guī)劃時(shí)的重要輔助手段. 在臨床實(shí)踐中, 往往首先需要根據(jù)人體骨骼結(jié)構(gòu)對醫(yī)學(xué)影像中的解剖標(biāo)志點(diǎn)進(jìn)行標(biāo)記,再通過這些標(biāo)志點(diǎn)和參考線計(jì)算相關(guān)的線段長度或測量角度, 進(jìn)而完成疾病的診斷[2]. 由此可見, 解剖標(biāo)志點(diǎn)定位的準(zhǔn)確性對于臨床影像分析具有重要意義. 深度學(xué)習(xí)為利用人工智能技術(shù)進(jìn)行醫(yī)學(xué)影像標(biāo)志點(diǎn)定位開辟了新的視角: 深度神經(jīng)網(wǎng)絡(luò)通過學(xué)習(xí)大規(guī)模的醫(yī)學(xué)影像數(shù)據(jù), 對原始輸入圖片進(jìn)行多層非線性變換, 進(jìn)而實(shí)現(xiàn)從數(shù)據(jù)中歸納出從低級到高級的特征[3], 摒棄了傳統(tǒng)方法中根據(jù)領(lǐng)域知識手動提取特征的過程, 進(jìn)而使計(jì)算機(jī)自動完成解剖標(biāo)志點(diǎn)定位的影像分析任務(wù).

    由此可見, 標(biāo)準(zhǔn)規(guī)范的影像數(shù)據(jù)及數(shù)據(jù)標(biāo)注是利用人工智能算法進(jìn)行醫(yī)學(xué)影像分析發(fā)展的基礎(chǔ). 然而,與自然圖像的獲取不同, 醫(yī)學(xué)影像的獲取十分艱難: 一方面, 訓(xùn)練樣本的獲取需要成本高昂的專業(yè)影像采集設(shè)備; 另一方面, 影像數(shù)據(jù)的標(biāo)注需要受過專門培訓(xùn)的專業(yè)醫(yī)生參與, 而由于臨床、科研任務(wù)重, 醫(yī)療專家往往沒有時(shí)間進(jìn)行大量的數(shù)據(jù)標(biāo)注工作. 因此, 醫(yī)學(xué)影像領(lǐng)域本身面臨著高質(zhì)量標(biāo)注數(shù)據(jù)匱乏的現(xiàn)實(shí). 在這種情況下, 如何利用醫(yī)學(xué)影像本身所固有的特點(diǎn), 進(jìn)一步提升網(wǎng)絡(luò)的特征提取能力, 更好地挖掘有限數(shù)據(jù)中更多的特征, 進(jìn)而實(shí)現(xiàn)自動化提取、測量和分析影像學(xué)表型, 對于輔助醫(yī)生快速診斷疾病具有重要的理論價(jià)值和現(xiàn)實(shí)意義, 不僅可以有效提升醫(yī)學(xué)影像自動讀片效率、降低患者就醫(yī)成本, 還可以在一定程度上緩解地區(qū)醫(yī)療水平差距大、醫(yī)療資源分布不均等社會問題.

    本文提出了一種基于拓?fù)浣Y(jié)構(gòu)約束和特征增強(qiáng)的醫(yī)學(xué)影像標(biāo)志點(diǎn)定位算法, 使用多任務(wù)U-Net網(wǎng)絡(luò)[4]作為骨干網(wǎng)絡(luò), 利用醫(yī)學(xué)影像上各個(gè)標(biāo)志點(diǎn)之間形成的拓?fù)浣Y(jié)構(gòu)具有變換不變性這一特點(diǎn), 為網(wǎng)絡(luò)添加額外的約束; 通過為網(wǎng)絡(luò)引入多分辨率注意力模塊[5], 為不同分辨率下的特征圖生成不同分辨率的注意力信息,使網(wǎng)絡(luò)加強(qiáng)對重要特征信息的關(guān)注, 以避免圖像中其他冗余特征的干擾; 此外, 受啟發(fā)于空洞空間金字塔池化結(jié)構(gòu)(atrous spatial pyramid pooling, ASPP)[6], 本文通過使用多分支空洞卷積來實(shí)現(xiàn)增大感受野的目的, 多個(gè)分支并行操作可以同時(shí)捕獲不同尺度的上下文信息,且空洞卷積的使用也避免了參數(shù)量的增加.

    本文的貢獻(xiàn)可總結(jié)為以下4個(gè)方面:

    (1)考慮到各個(gè)解剖標(biāo)志點(diǎn)之間的拓?fù)潢P(guān)系存在結(jié)構(gòu)不變性的特點(diǎn), 本文為深度神經(jīng)網(wǎng)絡(luò)加入拓?fù)浣Y(jié)構(gòu)約束, 并提出結(jié)構(gòu)不變性損失來增強(qiáng)網(wǎng)絡(luò)的特征提取能力.

    (2)通過在網(wǎng)絡(luò)內(nèi)部嵌入多分辨率注意力機(jī)制, 為不同分辨率的特征圖生成不同分辨率的注意力系數(shù)圖,幫助網(wǎng)絡(luò)提取與標(biāo)志點(diǎn)更相關(guān)的特征.

    (3)通過在低層特征和高層特征的融合階段引入多分支空洞卷積層, 在不增加網(wǎng)絡(luò)參數(shù)量的情況下實(shí)現(xiàn)增大卷積層感受野的作用范圍, 使網(wǎng)絡(luò)更好地感知上下文信息.

    (4)本文在公開數(shù)據(jù)集上驗(yàn)證了提出算法的有效性. 實(shí)驗(yàn)表明, 本文算法在各個(gè)指標(biāo)上超過了當(dāng)前主流的解剖標(biāo)志點(diǎn)定位算法.

    1 相關(guān)工作

    醫(yī)學(xué)影像解剖標(biāo)志點(diǎn)定位是臨床診斷中非常重要的預(yù)處理步驟, 是制定醫(yī)學(xué)治療計(jì)劃的基礎(chǔ)環(huán)節(jié). 在實(shí)踐中, 往往需要首先對重要的解剖標(biāo)志點(diǎn)進(jìn)行準(zhǔn)確定位、測量, 進(jìn)而才能完成如骨齡預(yù)測[7]、膝關(guān)節(jié)手術(shù)[8]、骨盆外傷手術(shù)[9]及頜面部手術(shù)[10]等醫(yī)學(xué)診療任務(wù).

    傳統(tǒng)的解剖標(biāo)志點(diǎn)定位方法大致可分為兩類: 基于模型的方法和基于回歸的方法[11]. 基于模型的方法根據(jù)預(yù)定義的模板迭代地找到最佳的標(biāo)志點(diǎn)位置, 并通過形狀模型調(diào)節(jié)全局空間形狀[12,13]; 基于回歸的方法則直接從圖像特征回歸標(biāo)志點(diǎn)坐標(biāo)[14]. 除此之外, 還有部分學(xué)者提出了基于先驗(yàn)知識的邊緣檢測方法[15,16],然而此類方法只能成功檢測位于清晰邊緣的標(biāo)志點(diǎn),且先驗(yàn)知識的引入使得算法對解剖結(jié)構(gòu)變化較為敏感,降低了算法的泛化能力.

    隨著人工智能技術(shù)的不斷發(fā)展, 學(xué)術(shù)界已經(jīng)提出了一系列基于深度學(xué)習(xí)的醫(yī)學(xué)影像解剖標(biāo)志點(diǎn)定位方法, 此類方法利用深度神經(jīng)網(wǎng)絡(luò)自動地學(xué)習(xí)圖像特征并進(jìn)行標(biāo)志點(diǎn)定位, 避免了傳統(tǒng)方法依賴手工定義特征的弊端, 不僅提升了標(biāo)志點(diǎn)定位的準(zhǔn)確程度, 且減少了定義特征的人力和時(shí)間成本.

    基于深度學(xué)習(xí)的解剖標(biāo)志點(diǎn)定位算法的主要思路是輸入圖像和對應(yīng)的標(biāo)志點(diǎn)坐標(biāo), 深度神經(jīng)網(wǎng)絡(luò)自動挖掘圖像特征并選出圖像上概率最大的像素點(diǎn)作為預(yù)測坐標(biāo), 通過不斷降低預(yù)測坐標(biāo)和真實(shí)坐標(biāo)之間的損失以不斷優(yōu)化網(wǎng)絡(luò)參數(shù), 進(jìn)而實(shí)現(xiàn)標(biāo)志點(diǎn)自動定位.Zhang等人[17]提出了一種兩階段的深度學(xué)習(xí)方法, 在第1階段利用基于回歸模型的卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)局部圖像和目標(biāo)解剖標(biāo)志點(diǎn)之間的內(nèi)在關(guān)聯(lián), 在第2階段進(jìn)一步建模各個(gè)局部圖像之間的關(guān)聯(lián), 進(jìn)而實(shí)現(xiàn)在有限的訓(xùn)練數(shù)據(jù)上實(shí)時(shí)聯(lián)合檢測多個(gè)解剖標(biāo)志點(diǎn). Oh等人[18]提出了一個(gè)新的頭影測量標(biāo)志點(diǎn)檢測框架, 該框架通過引入局部特征擾動器(local feature perturbator,LFP)和解剖上下文損失(anatomical context loss, AC loss), 使得卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練期間可以學(xué)習(xí)更豐富的解剖上下文特征. Chen等人[10]提出了基于自注意力模塊的方法, 該方法可以提取語義增強(qiáng)的多層次融合特征, 以提升標(biāo)志點(diǎn)定位的精度. Payer等人[19]將空間結(jié)構(gòu)信息引入深度神經(jīng)網(wǎng)絡(luò)來定位標(biāo)志點(diǎn), 從而利用標(biāo)志點(diǎn)之間的結(jié)構(gòu)關(guān)系預(yù)測標(biāo)志點(diǎn)在圖片各個(gè)像素上出現(xiàn)的概率. 此外, 對于3D影像數(shù)據(jù), Yang等人[8]提出可以將3D空間視為2D正交平面的組合, 使用常規(guī)卷積神經(jīng)網(wǎng)絡(luò)處理3組獨(dú)立的2D磁共振圖像(magnetic resonance imaging, MRI)切片, 并將3D位置定義為3個(gè)2D切片的交點(diǎn).

    然而, 現(xiàn)有方法大多具有以下3個(gè)主要問題:

    (1)標(biāo)志點(diǎn)定位過程中未能挖掘醫(yī)學(xué)影像本身固有的特點(diǎn). 醫(yī)學(xué)影像中的解剖結(jié)構(gòu)往往相對固定, 而標(biāo)志點(diǎn)位置通常與解剖結(jié)構(gòu)密切相關(guān). 以上方法大多利用深度神經(jīng)網(wǎng)絡(luò)強(qiáng)大的非線性擬合能力, 未能針對醫(yī)學(xué)影像固有的結(jié)構(gòu)特點(diǎn)進(jìn)行優(yōu)化.

    (2)特征提取過程中缺乏對顯著特征的關(guān)注. 深度神經(jīng)網(wǎng)絡(luò)提取的特征圖中不同位置的特征往往對于預(yù)測結(jié)果有著不同的重要程度, 有的特征對于預(yù)測標(biāo)志點(diǎn)位置至關(guān)重要, 而有的特征對于預(yù)測結(jié)果作用較小,屬于冗余特征. 冗余特征的存在為實(shí)現(xiàn)精準(zhǔn)的標(biāo)志點(diǎn)定位帶來額外開銷.

    (3)特征融合的過程中缺乏對上下文信息的利用.醫(yī)學(xué)影像中的器官位置及骨骼結(jié)構(gòu)等信息通常有助于判斷解剖標(biāo)志點(diǎn)的位置, 而這些信息則蘊(yùn)含在更大的感受野之中. 但傳統(tǒng)的卷積操作只能對局部特征進(jìn)行處理, 往往忽略了上下文特征所帶來的額外信息.

    因此, 本文立足于醫(yī)學(xué)影像本身固有的結(jié)構(gòu)特點(diǎn),提出基于拓?fù)浣Y(jié)構(gòu)約束和特征增強(qiáng)的醫(yī)學(xué)影像標(biāo)志點(diǎn)定位算法, 利用標(biāo)志點(diǎn)之間拓?fù)潢P(guān)系的結(jié)構(gòu)不變性構(gòu)建額外約束, 通過多分辨率注意力機(jī)制和多分支空洞卷積結(jié)構(gòu)提升網(wǎng)絡(luò)對精細(xì)特征的提取能力以及上下文信息的感知能力, 使得網(wǎng)絡(luò)可以更好地挖掘醫(yī)學(xué)影像的結(jié)構(gòu)和語義, 并提取魯棒性更強(qiáng)的特征, 進(jìn)而取得更好的標(biāo)志點(diǎn)定位效果.

    2 網(wǎng)絡(luò)結(jié)構(gòu)與算法原理

    考慮到醫(yī)學(xué)影像數(shù)據(jù)一般較少, 且圖像中的語義和結(jié)構(gòu)都對預(yù)測標(biāo)志點(diǎn)坐標(biāo)具有重要意義, 所以網(wǎng)絡(luò)預(yù)測時(shí)不僅需要利用高層語義特征, 還需要同時(shí)考慮低層結(jié)構(gòu)特征. 因此, 本文使用可以同時(shí)結(jié)合低層特征和高層特征的U-Net[20]作為主干網(wǎng)絡(luò), 提出一種新的解剖標(biāo)志點(diǎn)定位模型, 模型整體流程如圖1所示.

    圖1 標(biāo)志點(diǎn)定位整體流程

    為避免網(wǎng)絡(luò)直接預(yù)測坐標(biāo)具有較大的偏差, 本文使網(wǎng)絡(luò)同時(shí)預(yù)測熱點(diǎn)圖(heatmap)和偏移圖(offset map), 其中熱點(diǎn)圖表示標(biāo)志點(diǎn)在圖中每個(gè)像素位置出現(xiàn)的概率, 偏移圖表示標(biāo)志點(diǎn)與真實(shí)標(biāo)志點(diǎn)之間的坐標(biāo)偏移, 分為x軸和y軸兩個(gè)方向. 將輸入圖片和經(jīng)仿射變換后的圖片輸入到深度神經(jīng)網(wǎng)絡(luò), 對于原圖使用根據(jù)真實(shí)坐標(biāo)計(jì)算的熱點(diǎn)圖和偏移圖構(gòu)建損失函數(shù);對于仿射變換的圖片, 由于標(biāo)志點(diǎn)之間形成的拓?fù)浣Y(jié)構(gòu)也將發(fā)生相同的仿射變換, 因此, 此時(shí)網(wǎng)絡(luò)預(yù)測的熱點(diǎn)圖和偏移圖, 與輸入原圖時(shí)預(yù)測的熱點(diǎn)圖和偏移圖之間, 可構(gòu)成一種額外的結(jié)構(gòu)約束, 使網(wǎng)絡(luò)更好地學(xué)習(xí)圖像結(jié)構(gòu), 并基于此構(gòu)建結(jié)構(gòu)不變性損失, 最后模型將結(jié)合兩部分損失得到標(biāo)志點(diǎn)坐標(biāo)的預(yù)測結(jié)果.

    用于預(yù)測熱點(diǎn)圖和偏移圖的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示. 對于輸入的醫(yī)學(xué)影像, 神經(jīng)網(wǎng)絡(luò)提取不同分辨率的特征圖, 同時(shí)為不同分辨率的特征圖計(jì)算各個(gè)像素的重要程度, 以生成不同分辨率的注意力系數(shù)圖,實(shí)現(xiàn)加強(qiáng)對重要特征的關(guān)注, 削弱冗余特征的影響. 通過將U-Net網(wǎng)絡(luò)每一層級的普通的上采樣部分改為多分支空洞卷積結(jié)構(gòu), 使得網(wǎng)絡(luò)可以同時(shí)感知多尺度的上下文特征, 進(jìn)而能夠更好地確定標(biāo)志點(diǎn)位置. 網(wǎng)絡(luò)將經(jīng)注意力加權(quán)后的低層特征與對應(yīng)層級的高層特征進(jìn)行拼接后得到新特征, 將該特征輸入解碼器經(jīng)過上采樣再得到下一層級的高層特征, 通過上述方式, 網(wǎng)絡(luò)不僅可以加強(qiáng)對重要特征的關(guān)注, 還可以同時(shí)考慮不同尺度的上下文信息, 提升了網(wǎng)絡(luò)的特征提取能力.

    圖2 模型結(jié)構(gòu)圖

    2.1 多任務(wù)U-Net網(wǎng)絡(luò)

    U-Net網(wǎng)絡(luò)采用編碼器-解碼器結(jié)構(gòu), 編碼器部分通過下采樣操作得到多個(gè)分辨率的低級特征圖, 解碼器部分通過上采樣操作將低級特征圖逐層上升為與編碼器相應(yīng)層級相同的分辨率, 直至恢復(fù)為原圖分辨率.網(wǎng)絡(luò)在每一層級采用跳躍連接(skip connection)來結(jié)合同層級的高級特征圖和低級特征圖, 并使用拼接后的特征圖作為該層級的上采樣層輸入. 這種方式結(jié)合了低層特征所包含的信息, 避免直接使用最后一層特征進(jìn)行損失計(jì)算, 通過利用多尺度特征有效提升網(wǎng)絡(luò)精度.

    本文使用多任務(wù)U-Net網(wǎng)絡(luò)[4]同時(shí)預(yù)測熱點(diǎn)圖和偏移圖, 對于圖片X中坐標(biāo)為( xi,yi) 的第i個(gè)標(biāo)志點(diǎn), 其熱點(diǎn)圖可由高斯函數(shù)計(jì)算, 如式(1)所示:

    本文中使用二值交叉熵?fù)p失函數(shù) Lh來懲罰預(yù)測熱點(diǎn)圖和真實(shí)熱點(diǎn)圖之間的差異, 使用L1損失函數(shù) Lo來懲罰坐標(biāo)偏移. 令 fh(X)表 示網(wǎng)絡(luò)預(yù)測的熱點(diǎn)圖,fo(X)表示網(wǎng)絡(luò)預(yù)測的坐標(biāo)偏移圖, 為了使熱點(diǎn)圖和偏移圖所包含的信息進(jìn)行有機(jī)的結(jié)合, 損失函數(shù)的構(gòu)建將同時(shí)考慮熱點(diǎn)圖和偏移圖對預(yù)測結(jié)果的約束, 這部分的損失函數(shù)Llabel如 式(3)所示, 其中, α 為 權(quán)重系數(shù),I(λ) 為 指示函數(shù), 表示只考慮熱點(diǎn)圖值高于閾值λ 的像素.

    網(wǎng)絡(luò)輸出的熱點(diǎn)圖、x軸偏移圖和y軸偏移圖均為19個(gè)通道, 每個(gè)通道代表對一個(gè)標(biāo)志點(diǎn)的預(yù)測信息.在檢測階段, 根據(jù)網(wǎng)絡(luò)預(yù)測的坐標(biāo)偏移圖, 對所有熱點(diǎn)圖值高于λ 的像素點(diǎn)進(jìn)行投票, 將第i個(gè)通道中的獲勝位置作為第i個(gè)標(biāo)志點(diǎn)的最終預(yù)測結(jié)果.

    2.2 拓?fù)浣Y(jié)構(gòu)約束

    受啟發(fā)于等價(jià)標(biāo)志點(diǎn)變換[21], 本文提出基于仿射變換的拓?fù)浣Y(jié)構(gòu)約束方法, 根據(jù)標(biāo)志點(diǎn)之間拓?fù)浣Y(jié)構(gòu)的整體性質(zhì)構(gòu)建額外的約束, 使網(wǎng)絡(luò)可以學(xué)習(xí)到更魯棒的標(biāo)志點(diǎn)特征.

    給定圖像 X和仿射變換T , X′=T(X,θ)表示圖像X經(jīng)仿射變換T 后的結(jié)果, θ為仿射變換參數(shù), 此時(shí)圖像X′上的標(biāo)志點(diǎn)坐標(biāo)也將發(fā)生相同的仿射變換. 因此, 將圖像X′輸 入到深度神經(jīng)網(wǎng)絡(luò) f所得到的結(jié)果, 應(yīng)當(dāng)與原圖像X 輸入到神經(jīng)網(wǎng)絡(luò) f所得到的結(jié)果遵循同樣的仿射變換, 即存在 f(T(X,θ))=T(f(X,θ)), 圖3為拓?fù)浣Y(jié)構(gòu)約束的示意圖, 以旋轉(zhuǎn)變換為例.

    圖3 拓?fù)浣Y(jié)構(gòu)約束(以旋轉(zhuǎn)為例)

    基于此, 利用圖像中標(biāo)志點(diǎn)所形成的拓?fù)浣Y(jié)構(gòu)經(jīng)過仿射變換后自相似的性質(zhì), 通過分別對比圖像變換前后網(wǎng)絡(luò)輸出的熱點(diǎn)圖以及偏移圖之間的相似程度,可以構(gòu)成一種額外的約束, 使網(wǎng)絡(luò)能夠捕獲標(biāo)志點(diǎn)之間所蘊(yùn)含的結(jié)構(gòu)信息, 進(jìn)而提取魯棒性更強(qiáng)的特征, 本文中使用MSE損失函數(shù)來懲罰圖像變換前后網(wǎng)絡(luò)的預(yù)測差異來構(gòu)建結(jié)構(gòu)不變性損失, 如式(4)所示:

    該部分也需同時(shí)考慮熱點(diǎn)圖和偏移圖的信息, 因此該部分的損失函數(shù)Lstructure如 式(5)所示, 其中α 為權(quán)重系數(shù),為指示函數(shù).

    此時(shí), 模型總的損失函數(shù)如式(6)所示:

    2.3 多分辨率注意力機(jī)制

    U-Net網(wǎng)絡(luò)可以獲取不同分辨率的特征圖, 進(jìn)而得到不同比例下的標(biāo)志點(diǎn)信息, 然而原始的U-Net網(wǎng)絡(luò)只是簡單地把低層特征和高層特征進(jìn)行拼接, 無法實(shí)現(xiàn)加強(qiáng)對圖像中重要區(qū)域的關(guān)注. 本文通過引入注意力門控(attention gate, AG)模塊[5], 使編碼器獲取的低層特征在經(jīng)過注意力門控調(diào)整之后, 再與解碼器得到的高層特征進(jìn)行拼接, 進(jìn)而加強(qiáng)網(wǎng)絡(luò)對顯著特征的關(guān)注, 并抑制不相關(guān)的冗余特征的影響.

    注意力門控模塊搭載于U-Net網(wǎng)絡(luò)的跳躍連接部分, 其結(jié)構(gòu)如圖4所示. g為解碼器部分經(jīng)上采樣得到的特征圖, x為編碼器部分經(jīng)下采樣得到的特征圖. 首先分別將g 和 x 經(jīng) 過1×1卷積Wg和Wx降低通道數(shù), 再將得到的兩部分特征圖相加并通過ReLU函數(shù)進(jìn)行非線性激活, 然后將激活后的特征圖經(jīng)過1×1卷積ψ 轉(zhuǎn)化為單通道的特征圖, 最后對該特征圖施加Sigmoid函數(shù)得到注意力系數(shù)圖 A tt. 通過這種方式計(jì)算得到的注意力系數(shù)圖, 強(qiáng)調(diào)了在低層特征圖和高層特征圖中同時(shí)重要的區(qū)域. A tt的計(jì)算方式如式(7)所示.

    圖4 注意力門控模塊

    通過在不同層級的跳躍連接加入注意力模塊, 可以獲得不同分辨率下的注意力系數(shù)圖. 在訓(xùn)練過程中,注意力系數(shù)圖將不斷進(jìn)行更新, 從而使網(wǎng)絡(luò)可以逐漸修正重要特征的位置信息, 最終實(shí)現(xiàn)對不同分辨率特征圖中重要區(qū)域的關(guān)注, 提升模型的特征提取能力.

    2.4 多分支空洞卷積結(jié)構(gòu)

    在對醫(yī)學(xué)影像進(jìn)行解剖標(biāo)志點(diǎn)定位時(shí), 通常需要考慮器官位置及骨骼結(jié)構(gòu)等額外信息, 故而需要增大網(wǎng)絡(luò)的感受野以使模型能夠捕獲更多的上下文特征.網(wǎng)絡(luò)的感受野大小由卷積核的大小所決定, 而更大的卷積核在帶來更大感受野的同時(shí)也引入了更多的參數(shù).空洞卷積[6]通過在卷積核中插入權(quán)值為0的空洞實(shí)現(xiàn)在不增加模型參數(shù)量的情況下增大網(wǎng)絡(luò)感受野, 卷積核各值之間的間距稱為擴(kuò)張率, 對于擴(kuò)張率為r, 卷積核大小為 k ×k的空洞卷積, 其感受野的計(jì)算方式如式(8)所示. 圖5為擴(kuò)張率為2, 卷積核大小為3×3的空洞卷積示意圖.

    圖5 空洞卷積示例

    本模塊旨在利用多尺度感受野以獲得更豐富的特征信息, 達(dá)到提升標(biāo)志點(diǎn)定位精度的目的. 受啟發(fā)于語義分割任務(wù)中常用的ASPP結(jié)構(gòu)[6], 本文提出一種適用于醫(yī)學(xué)影像標(biāo)志點(diǎn)定位的多分支空洞卷積結(jié)構(gòu), 并將其應(yīng)用于模型的解碼器部分. 每個(gè)分支使用不同擴(kuò)張率的空洞卷積層, 不同的分支提取不同尺度的上下文信息, 使解碼器在融合低層特征與高層特征的過程中,可以在更大程度上捕獲像素特征之間的相關(guān)性, 進(jìn)而更好地恢復(fù)圖像的空間位置等信息.

    定義多分支空洞卷積結(jié)構(gòu)的參數(shù)為( k,R), 其中k 表示卷積核大小, R表示各個(gè)分支擴(kuò)張率的組合, 即R=(r1,r2,···,rn) , 其中, r1,r2,···,rn分別表示n 個(gè)分支上的n種不同的擴(kuò)張率, 該部分結(jié)構(gòu)如圖6所示.

    圖6 多分支空洞卷積

    將不同擴(kuò)張率的空洞卷積提取的不同尺度的特征圖分別經(jīng)過批歸一化和ReLU激活層后進(jìn)行通道拼接,再使用1×1卷積將拼接后的新特征降低通道數(shù), 輸入接下來的上采樣層. 通過這種方式, 不僅解決了特征融合的過程中缺乏對上下文信息的利用這一問題, 并且在不增加參數(shù)量和計(jì)算量的基礎(chǔ)上使網(wǎng)絡(luò)可以更好地關(guān)注多尺度特征, 進(jìn)而提升網(wǎng)絡(luò)預(yù)測標(biāo)志點(diǎn)的準(zhǔn)確性.

    3 實(shí)驗(yàn)及分析

    本文基于公開數(shù)據(jù)集進(jìn)行實(shí)驗(yàn), 首先探究損失函數(shù)中權(quán)重系數(shù)α 對模型性能的影響; 隨后探究多分支空洞卷積結(jié)構(gòu)的不同擴(kuò)張率組合對模型性能的影響; 接著將本文算法與目前公開發(fā)表的論文中先進(jìn)的算法進(jìn)行對比, 實(shí)驗(yàn)結(jié)果表明本文提出的算法在各個(gè)指標(biāo)上取得了更好的效果; 最后對網(wǎng)絡(luò)的不同模塊進(jìn)行消融實(shí)驗(yàn), 以驗(yàn)證拓?fù)浣Y(jié)構(gòu)約束、多分辨率注意力機(jī)制和多分支空洞卷積結(jié)構(gòu)對于提升模型性能的有效性; 最后對本文算法的定位效果進(jìn)行結(jié)果展示.

    3.1 數(shù)據(jù)集介紹

    X光頭影測量分析可用于正頜外科的輔助診斷,以弄清畸形的特征, 并進(jìn)一步進(jìn)行治療設(shè)計(jì)及療效預(yù)測. 本文使用IEEE ISBI 2015 Challenge提供的頭影測量標(biāo)志點(diǎn)定位公開數(shù)據(jù)集[22]進(jìn)行實(shí)驗(yàn), 該數(shù)據(jù)集收集了400位病人的400幅頭影測量X光圖片, 并分為150張訓(xùn)練集和250張測試集. 數(shù)據(jù)集中每幅圖片的像素大小為1935×2400, 每個(gè)像素大小為0.1×0.1 mm2, 包含19個(gè)頭顱解剖標(biāo)志點(diǎn)的標(biāo)記信息, 每個(gè)標(biāo)志點(diǎn)由兩名醫(yī)生進(jìn)行手動標(biāo)記和檢查. 數(shù)據(jù)集中的原始頭影測量X光片及其上標(biāo)注的19個(gè)標(biāo)志點(diǎn)如圖7所示,19個(gè)標(biāo)志點(diǎn)的詳細(xì)信息如表1所示.

    圖7 頭影測量X光片及19個(gè)標(biāo)志點(diǎn)

    表1 19個(gè)解剖標(biāo)志點(diǎn)詳細(xì)信息

    3.2 實(shí)驗(yàn)設(shè)置

    本文實(shí)驗(yàn)中網(wǎng)絡(luò)的編碼器部分使用ImageNet[23]上預(yù)訓(xùn)練的VGG-19網(wǎng)絡(luò)[24]. 由于本文使用的數(shù)據(jù)集中圖片分辨率較高, 因此將圖片縮放至800×640大小,并歸一化至[-1, 1]區(qū)間. 模型在4個(gè)NVIDIA GeForce RTX 2080 Ti GPU上進(jìn)行訓(xùn)練, 批大小設(shè)置為4, 初始學(xué)習(xí)率設(shè)置為0.001, 每150次迭代乘以0.1減小學(xué)習(xí)率, 權(quán)值衰減系數(shù)設(shè)置為0.000 1, 共迭代300次, 閾值λ參考Yao等人[4]設(shè)置為0.6. 拓?fù)浣Y(jié)構(gòu)約束部分每張圖片僅發(fā)生一種仿射變換, 每種變換以均等概率發(fā)生,其具體參數(shù)如表2所示, 變換示例如圖8所示, 從左至右分別為旋轉(zhuǎn)變換、放縮變換、平移變換、翻轉(zhuǎn)變換.

    表2 仿射變換參數(shù)

    圖8 仿射變換示例

    3.3 評價(jià)指標(biāo)

    本文中采用IEEE ISBI 2015 Challenge提供的平均徑向誤差和成功檢測率作為評價(jià)指標(biāo), 以評估算法效果.歐氏距離, 計(jì)算方式如式(9)所示, 其中表示第i 張圖上第l 個(gè)預(yù)測標(biāo)志點(diǎn)和真實(shí)標(biāo)志點(diǎn)在x軸上的絕對誤差,表示在y軸上的絕對誤差, n 為圖片張數(shù). 該指標(biāo)

    (1)平均徑向誤差(mean radial error, MRE): 用于衡量算法所獲取的標(biāo)志點(diǎn)位置與真實(shí)標(biāo)志點(diǎn)位置之間的取值越低, 表明算法預(yù)測的標(biāo)志點(diǎn)位置越準(zhǔn)確.

    (2)成功檢測率(successful detection rate, SDR): 用于衡量算法檢測標(biāo)志點(diǎn)的精確度, 計(jì)算方式如式(10)所示, 其含義為如果預(yù)測的標(biāo)志點(diǎn)和真實(shí)標(biāo)志點(diǎn)之間歐氏距離不大于z mm, 則此標(biāo)志點(diǎn)的檢測將被視為精確檢測, 否則被視為錯(cuò)誤檢測. 該指標(biāo)越高表示算法的成功檢測率越高. 為方便同主流方法進(jìn)行對比, 本實(shí)驗(yàn)中使用與其他主流方法中相同的誤差范圍z, 即2 mm、2.5 mm、3.0 mm、4.0 mm.

    3.4 損失函數(shù)權(quán)重系數(shù)實(shí)驗(yàn)

    本部分實(shí)驗(yàn)用于探究損失監(jiān)督學(xué)習(xí)與自監(jiān)督學(xué)習(xí)的損失函數(shù)中權(quán)重系數(shù)α 的不同取值對實(shí)驗(yàn)結(jié)果的影響. α代表了熱點(diǎn)圖損失和偏移圖損失之間的權(quán)重比例, 當(dāng)α 取值越高時(shí), 表明熱點(diǎn)圖損失所占權(quán)重越高. 實(shí)驗(yàn)結(jié)果如表3所示, 表中加粗?jǐn)?shù)字表示最優(yōu)結(jié)果.

    表3 損失函數(shù)權(quán)重系數(shù)實(shí)驗(yàn)結(jié)果

    實(shí)驗(yàn)結(jié)果表明, α取值為3時(shí)模型效果最好. 當(dāng)α<3時(shí), 模型性能大體上隨著α 的增加而上升, 原因在于代表概率的熱點(diǎn)圖包含了比偏移圖更重要的信息, 因此提升其權(quán)重有助于模型性能的提高; 當(dāng)α >3時(shí), 模型性能反而隨著α 的增加而下降, 原因在于熱點(diǎn)圖權(quán)重過高時(shí), 其所包含的誤差信息權(quán)重也隨之增加, 削弱了偏移圖所包含的正確信息的作用.

    3.5 多分支空洞卷積參數(shù)實(shí)驗(yàn)

    本部分實(shí)驗(yàn)用于探究多分支空洞卷積模塊的不同擴(kuò)張率組合對實(shí)驗(yàn)結(jié)果的影響, 其中空洞卷積的卷積核大小設(shè)置為3, 即參數(shù) k =3, 參數(shù)R 選取不同的取值組合. 實(shí)驗(yàn)結(jié)果如表4所示, 表中加粗?jǐn)?shù)字表示最優(yōu)結(jié)果.

    表4 多分支空洞卷積參數(shù)實(shí)驗(yàn)結(jié)果

    從實(shí)驗(yàn)結(jié)果可以看出, 較大的擴(kuò)張率對于模型性能有一定的提升作用, 其原因在于較大的擴(kuò)張率可以更好地?cái)U(kuò)大模型的感受野, 使模型可以更多地感知上下文特征, 避免了普通卷積核僅使用局部特征帶來的局限性. 當(dāng)參數(shù) R 的取值為R =(r1=1,r2=2,r3=5)時(shí),模型效果最優(yōu), 此時(shí)3個(gè)分支的感受野大小分別為3×3, 5×5, 11×11.

    3.6 對比實(shí)驗(yàn)

    在頭影測量標(biāo)志點(diǎn)定位的公開數(shù)據(jù)集上, 將本文所提出的算法與當(dāng)前主流算法進(jìn)行對比, 實(shí)驗(yàn)結(jié)果如表5所示, 表中加粗?jǐn)?shù)字表示最優(yōu)結(jié)果.

    表5 不同算法對比實(shí)驗(yàn)結(jié)果

    從實(shí)驗(yàn)結(jié)果可以看出, 本文提出的模型效果在各個(gè)指標(biāo)上均超過了當(dāng)前主流算法, 這得益于模型在加入拓?fù)浣Y(jié)構(gòu)約束后, 能夠更好地學(xué)習(xí)到醫(yī)學(xué)影像中蘊(yùn)含的解剖結(jié)構(gòu)信息, 且多分辨率注意力機(jī)制和多分支空洞卷積的使用也使得模型可以更有效地提取圖像特征, 從而提升標(biāo)志點(diǎn)定位的準(zhǔn)確程度.

    3.7 消融實(shí)驗(yàn)

    本部分實(shí)驗(yàn)用于探究模型中各個(gè)模塊對結(jié)果的作用, 以探究拓?fù)浣Y(jié)構(gòu)約束、多分辨率注意力機(jī)制和多分支空洞卷積對標(biāo)志點(diǎn)自動定位效果的影響, 實(shí)驗(yàn)結(jié)果如表6所示, 表中加粗?jǐn)?shù)字表示最優(yōu)結(jié)果.

    表6 消融實(shí)驗(yàn)結(jié)果

    從實(shí)驗(yàn)結(jié)果可以看出, 加入拓?fù)浣Y(jié)構(gòu)約束后, 模型效果優(yōu)于未使用拓?fù)浣Y(jié)構(gòu)約束的效果, 這表明拓?fù)浣Y(jié)構(gòu)約束對于模型性能有提升作用, 且SDR指標(biāo)的提高表明拓?fù)浣Y(jié)構(gòu)約束也提升了模型的魯棒性; 加入多分辨率注意力機(jī)制后, 模型在各個(gè)指標(biāo)上的表現(xiàn)均有提高, 這表明該機(jī)制有效增強(qiáng)了對圖像中重要特征的關(guān)注, 并提升了模型預(yù)測的準(zhǔn)確率; 引入多分支空洞卷積之后, 模型的性能進(jìn)一步提高, 說明不同尺度的上下文信息有助于模型預(yù)測標(biāo)志點(diǎn)位置. 消融實(shí)驗(yàn)結(jié)果驗(yàn)證了拓?fù)浣Y(jié)構(gòu)約束、多分辨率注意力機(jī)制和多分支空洞卷積對提升模型性能的有效性.

    3.8 結(jié)果展示

    19個(gè)解剖標(biāo)志點(diǎn)各自的MRE如圖9所示, 從圖中可以看出, 所有點(diǎn)的MRE均在2.5 mm以內(nèi), 17個(gè)點(diǎn)的MRE達(dá)到2.0 mm以內(nèi), 且1、7、8、9、12、15號標(biāo)志點(diǎn)的MRE可以達(dá)到1.0 mm以內(nèi), 由此可見本文算法具有較高的定位精度, 而如4、16號標(biāo)志點(diǎn)的MRE較高, 這可能是由于不同人的個(gè)體差異導(dǎo)致這兩個(gè)標(biāo)志點(diǎn)在不同人的影像上位置有一定偏差, 對這些標(biāo)志點(diǎn)進(jìn)行有針對性的優(yōu)化也是未來的改進(jìn)方向之一.

    圖9 19個(gè)解剖標(biāo)志點(diǎn)的MRE

    圖10為部分測試集圖片的解剖標(biāo)志點(diǎn)定位效果展示, 第1排為原始圖像, 第2排為真實(shí)標(biāo)志點(diǎn)與預(yù)測標(biāo)志點(diǎn)之間的誤差對比圖像, 其中藍(lán)色為真實(shí)標(biāo)志點(diǎn), 綠色為預(yù)測標(biāo)志點(diǎn).

    圖10 解剖標(biāo)志點(diǎn)定位效果展示(真實(shí)標(biāo)志點(diǎn): 藍(lán); 預(yù)測標(biāo)志點(diǎn): 綠)

    由圖10可見, 雖然不同影像中顱骨的形態(tài)有所不同, 但本文算法依然可以在較低的誤差范圍內(nèi)定位標(biāo)志點(diǎn)位置, 由此可見本文算法在醫(yī)學(xué)影像解剖標(biāo)志點(diǎn)定位任務(wù)上的優(yōu)越性能.

    4 總結(jié)

    醫(yī)學(xué)影像標(biāo)志點(diǎn)定位的準(zhǔn)確性對于臨床診療具有重要意義. 本文針對醫(yī)學(xué)影像標(biāo)志點(diǎn)定位任務(wù)當(dāng)前所面臨的問題, 提出了一種基于拓?fù)浣Y(jié)構(gòu)約束和特征增強(qiáng)的標(biāo)志點(diǎn)定位算法, 根據(jù)標(biāo)志點(diǎn)所形成的拓?fù)浣Y(jié)構(gòu)具有結(jié)構(gòu)不變性的特點(diǎn), 為網(wǎng)絡(luò)添加額外約束, 使網(wǎng)絡(luò)提取更魯棒的特征, 以實(shí)現(xiàn)網(wǎng)絡(luò)對解剖結(jié)構(gòu)信息的利用; 多分辨率注意力機(jī)制的引入使模型更加關(guān)注重要的圖像區(qū)域, 網(wǎng)絡(luò)自動學(xué)習(xí)注意力系數(shù)圖并為不同的空間特征分配不同的權(quán)重, 以提升模型的特征提取能力; 多分支空洞卷積結(jié)構(gòu)在不增加模型參數(shù)量和計(jì)算量的情況下增大網(wǎng)絡(luò)的感受野, 實(shí)現(xiàn)對不同尺度上下文信息的融合利用, 進(jìn)一步提升了模型性能. 基于公開數(shù)據(jù)集的實(shí)驗(yàn)表明, 本文提出的算法獲得了較高的識別精度, 為目前公開發(fā)表的論文中性能較優(yōu)的水平, 具有定位效果好、魯棒性強(qiáng)的特點(diǎn). 未來在獲得更多類型的醫(yī)學(xué)影像數(shù)據(jù)后, 將在更廣泛的數(shù)據(jù)集上驗(yàn)證本文算法的有效性.

    猜你喜歡
    標(biāo)志點(diǎn)醫(yī)學(xué)影像空洞
    多尺度信息融合的船舶外板檢測三維標(biāo)志點(diǎn)識別方法
    醫(yī)學(xué)影像技術(shù)在醫(yī)學(xué)影像診斷中的合理運(yùn)用
    《當(dāng)代醫(yī)學(xué)影像誤診學(xué)》出版
    《當(dāng)代醫(yī)學(xué)影像誤診學(xué)》正式出版
    標(biāo)志點(diǎn)定向系統(tǒng)幾何精度因子的計(jì)算方法
    一種圓形編碼標(biāo)志點(diǎn)的設(shè)計(jì)及解碼算法研究
    空洞的眼神
    用事實(shí)說話勝過空洞的說教——以教育類報(bào)道為例
    新聞傳播(2015年20期)2015-07-18 11:06:46
    基于標(biāo)志點(diǎn)的三維點(diǎn)云自動拼接技術(shù)
    醫(yī)學(xué)影像專業(yè)放射物理教學(xué)改革與實(shí)踐
    超碰成人久久| 日韩免费av在线播放| 欧美av亚洲av综合av国产av| 美女高潮到喷水免费观看| 最近最新免费中文字幕在线| 久久久国产成人精品二区| 中文字幕久久专区| 成人特级黄色片久久久久久久| 色在线成人网| 日韩视频一区二区在线观看| 美女 人体艺术 gogo| 国内精品久久久久精免费| 精品不卡国产一区二区三区| 国产不卡一卡二| 亚洲九九香蕉| av片东京热男人的天堂| 国产精品野战在线观看| 嫩草影视91久久| АⅤ资源中文在线天堂| 日韩有码中文字幕| 国产成人精品久久二区二区免费| 婷婷精品国产亚洲av在线| 亚洲精品粉嫩美女一区| 国产极品粉嫩免费观看在线| 久久国产精品人妻蜜桃| 999久久久精品免费观看国产| 久热这里只有精品99| 日本a在线网址| 亚洲成a人片在线一区二区| 国产激情偷乱视频一区二区| 国产av在哪里看| 亚洲精品粉嫩美女一区| 国产日本99.免费观看| 啦啦啦观看免费观看视频高清| 欧美成人午夜精品| 亚洲,欧美精品.| 亚洲五月天丁香| 97超级碰碰碰精品色视频在线观看| 日日夜夜操网爽| 一区二区三区激情视频| www.999成人在线观看| 久久久久九九精品影院| 夜夜躁狠狠躁天天躁| 国产精品亚洲一级av第二区| 国产成年人精品一区二区| 人成视频在线观看免费观看| 国产片内射在线| 国产乱人伦免费视频| 一级a爱片免费观看的视频| 露出奶头的视频| 99久久国产精品久久久| 精品国产乱子伦一区二区三区| 亚洲三区欧美一区| 免费高清视频大片| 无人区码免费观看不卡| 国产伦在线观看视频一区| 国产精品影院久久| videosex国产| 久久精品国产99精品国产亚洲性色| 9191精品国产免费久久| 18禁黄网站禁片免费观看直播| 国产亚洲精品久久久久5区| 老司机午夜十八禁免费视频| 国产亚洲精品综合一区在线观看 | 欧美又色又爽又黄视频| 亚洲中文字幕日韩| 日本免费a在线| 欧美成人性av电影在线观看| 午夜福利欧美成人| 精品一区二区三区视频在线观看免费| 国产午夜福利久久久久久| 日韩中文字幕欧美一区二区| 韩国精品一区二区三区| 国产蜜桃级精品一区二区三区| 女性生殖器流出的白浆| 夜夜爽天天搞| 免费在线观看亚洲国产| 亚洲国产中文字幕在线视频| 成人一区二区视频在线观看| av免费在线观看网站| 伊人久久大香线蕉亚洲五| 一区二区日韩欧美中文字幕| 国产亚洲欧美在线一区二区| 一级片免费观看大全| 三级毛片av免费| 成人18禁在线播放| 久久精品国产综合久久久| 夜夜看夜夜爽夜夜摸| 久久久久亚洲av毛片大全| 草草在线视频免费看| 午夜福利免费观看在线| 在线观看免费日韩欧美大片| 国产精品亚洲av一区麻豆| 啦啦啦韩国在线观看视频| 欧美不卡视频在线免费观看 | 激情在线观看视频在线高清| 日韩免费av在线播放| 一进一出好大好爽视频| 欧美性猛交╳xxx乱大交人| 十八禁人妻一区二区| 十分钟在线观看高清视频www| 黑人欧美特级aaaaaa片| 黄色毛片三级朝国网站| 欧美乱码精品一区二区三区| 国产午夜福利久久久久久| www日本黄色视频网| 国产黄a三级三级三级人| 亚洲精品国产精品久久久不卡| 精品国产美女av久久久久小说| 19禁男女啪啪无遮挡网站| 淫秽高清视频在线观看| 欧美zozozo另类| 久久久久国内视频| 一区二区三区精品91| 精品一区二区三区四区五区乱码| 欧美日韩一级在线毛片| www国产在线视频色| 一本精品99久久精品77| 亚洲自偷自拍图片 自拍| 身体一侧抽搐| 亚洲精品粉嫩美女一区| 最新在线观看一区二区三区| 亚洲 欧美 日韩 在线 免费| 精品国产乱码久久久久久男人| 91麻豆av在线| 国产一区二区三区视频了| 国产三级黄色录像| 亚洲avbb在线观看| 一边摸一边做爽爽视频免费| 91成年电影在线观看| 精品欧美一区二区三区在线| 欧美精品亚洲一区二区| 黄色视频不卡| 99热6这里只有精品| 国产精品亚洲美女久久久| 中文字幕人成人乱码亚洲影| 国产亚洲av嫩草精品影院| 成人精品一区二区免费| 他把我摸到了高潮在线观看| 国内精品久久久久久久电影| 女同久久另类99精品国产91| 国产一区二区三区在线臀色熟女| 老司机午夜福利在线观看视频| 国产乱人伦免费视频| 天堂动漫精品| 精品久久蜜臀av无| 精品国产亚洲在线| 香蕉丝袜av| 国产精品久久电影中文字幕| 黄网站色视频无遮挡免费观看| 国产精品一区二区三区四区久久 | 亚洲人成网站在线播放欧美日韩| 国产三级黄色录像| 国内久久婷婷六月综合欲色啪| 丝袜在线中文字幕| 国产精品日韩av在线免费观看| www国产在线视频色| 精品不卡国产一区二区三区| 久久中文字幕一级| 91大片在线观看| 精品电影一区二区在线| 精品久久久久久久末码| 黄片播放在线免费| 美女免费视频网站| 男人操女人黄网站| av电影中文网址| 日韩欧美一区视频在线观看| 人人妻人人澡人人看| 一本大道久久a久久精品| 久久人人精品亚洲av| 久久中文字幕人妻熟女| 亚洲av电影不卡..在线观看| 在线观看www视频免费| 午夜福利免费观看在线| 观看免费一级毛片| 亚洲国产精品999在线| 国产精品久久视频播放| 精品久久久久久久人妻蜜臀av| 伊人久久大香线蕉亚洲五| 久久久久久久精品吃奶| 精品久久久久久久人妻蜜臀av| 午夜福利欧美成人| 精品无人区乱码1区二区| 色老头精品视频在线观看| 亚洲精品美女久久久久99蜜臀| 日韩一卡2卡3卡4卡2021年| 成人国产综合亚洲| 视频区欧美日本亚洲| 欧美日韩亚洲国产一区二区在线观看| 国产一区二区三区视频了| 中文字幕另类日韩欧美亚洲嫩草| 亚洲欧美日韩高清在线视频| 免费看a级黄色片| 久久天躁狠狠躁夜夜2o2o| 国产激情欧美一区二区| 国产主播在线观看一区二区| 老司机午夜十八禁免费视频| 中文亚洲av片在线观看爽| 天堂√8在线中文| 亚洲精华国产精华精| 午夜久久久在线观看| 国产亚洲精品久久久久久毛片| 男人舔女人下体高潮全视频| 亚洲精品粉嫩美女一区| 最近在线观看免费完整版| 久99久视频精品免费| 精品一区二区三区av网在线观看| 亚洲va日本ⅴa欧美va伊人久久| 日韩精品青青久久久久久| 欧美性猛交╳xxx乱大交人| 给我免费播放毛片高清在线观看| 伦理电影免费视频| 窝窝影院91人妻| 国产精品99久久99久久久不卡| 日韩成人在线观看一区二区三区| 国产高清激情床上av| 成人免费观看视频高清| 久久久久久大精品| 大香蕉久久成人网| 麻豆国产av国片精品| 老司机午夜十八禁免费视频| 国产精品一区二区免费欧美| 欧美乱色亚洲激情| 亚洲中文字幕日韩| 久久天堂一区二区三区四区| 香蕉国产在线看| 欧美绝顶高潮抽搐喷水| 国产精品爽爽va在线观看网站 | 波多野结衣高清无吗| 久久久久久久精品吃奶| 成人精品一区二区免费| 免费高清视频大片| 一本精品99久久精品77| 久久亚洲精品不卡| 精品欧美一区二区三区在线| 亚洲精品一区av在线观看| 久久久久国内视频| 精品福利观看| 90打野战视频偷拍视频| 久久国产精品人妻蜜桃| 午夜a级毛片| 中文字幕精品亚洲无线码一区 | 亚洲七黄色美女视频| 精品国产乱子伦一区二区三区| 午夜福利欧美成人| 欧美黄色淫秽网站| 神马国产精品三级电影在线观看 | 成人18禁高潮啪啪吃奶动态图| 日韩成人在线观看一区二区三区| x7x7x7水蜜桃| 亚洲 欧美 日韩 在线 免费| 日本 欧美在线| 成人欧美大片| 深夜精品福利| 国产av一区在线观看免费| 97碰自拍视频| tocl精华| av免费在线观看网站| 亚洲九九香蕉| 久久精品国产综合久久久| 日本精品一区二区三区蜜桃| svipshipincom国产片| 婷婷精品国产亚洲av在线| 成年人黄色毛片网站| 亚洲国产精品合色在线| 18禁美女被吸乳视频| 麻豆一二三区av精品| 精品乱码久久久久久99久播| 日本三级黄在线观看| 午夜福利在线在线| 禁无遮挡网站| 麻豆成人av在线观看| 欧美激情高清一区二区三区| 国产亚洲精品av在线| 亚洲av美国av| 国产高清videossex| 精品久久久久久,| bbb黄色大片| 在线观看免费视频日本深夜| 免费搜索国产男女视频| 欧美激情久久久久久爽电影| 亚洲精品中文字幕一二三四区| 丁香六月欧美| 欧美黑人欧美精品刺激| 级片在线观看| 久久精品aⅴ一区二区三区四区| 国产精品亚洲av一区麻豆| 大型黄色视频在线免费观看| 午夜精品在线福利| 亚洲人成网站在线播放欧美日韩| 亚洲一码二码三码区别大吗| 欧美精品啪啪一区二区三区| 欧美日韩中文字幕国产精品一区二区三区| 国产成人av激情在线播放| 久久99热这里只有精品18| 最新在线观看一区二区三区| 久久人人精品亚洲av| bbb黄色大片| 色哟哟哟哟哟哟| www.www免费av| 免费在线观看视频国产中文字幕亚洲| 国产不卡一卡二| a级毛片在线看网站| 中文字幕精品亚洲无线码一区 | 欧美又色又爽又黄视频| 久久精品影院6| 男人的好看免费观看在线视频 | 脱女人内裤的视频| 国产av在哪里看| 后天国语完整版免费观看| 亚洲色图av天堂| 嫩草影院精品99| 国产精品亚洲av一区麻豆| 久久久久免费精品人妻一区二区 | 亚洲精品色激情综合| 日韩高清综合在线| 成人欧美大片| 在线观看一区二区三区| 俺也久久电影网| 国产又黄又爽又无遮挡在线| 在线观看舔阴道视频| 国产野战对白在线观看| 亚洲av熟女| 精品国内亚洲2022精品成人| 波多野结衣高清作品| 男女之事视频高清在线观看| 久久久久免费精品人妻一区二区 | 亚洲在线自拍视频| 亚洲精品色激情综合| 午夜久久久久精精品| 两个人免费观看高清视频| 狂野欧美激情性xxxx| 波多野结衣高清无吗| 18禁黄网站禁片午夜丰满| 亚洲精品中文字幕在线视频| 国产真实乱freesex| 亚洲五月色婷婷综合| 国产成人精品久久二区二区91| 国产亚洲精品一区二区www| 亚洲av日韩精品久久久久久密| 久久青草综合色| 亚洲成av片中文字幕在线观看| 成人18禁高潮啪啪吃奶动态图| 香蕉av资源在线| 国内久久婷婷六月综合欲色啪| 久久精品夜夜夜夜夜久久蜜豆 | 久久人妻av系列| 男女做爰动态图高潮gif福利片| 国产v大片淫在线免费观看| 亚洲自拍偷在线| 十分钟在线观看高清视频www| 人人妻,人人澡人人爽秒播| 精品熟女少妇八av免费久了| 自线自在国产av| 在线观看日韩欧美| 国内少妇人妻偷人精品xxx网站 | 国产精品久久视频播放| 国产亚洲av高清不卡| a级毛片在线看网站| 国产精品98久久久久久宅男小说| 丝袜人妻中文字幕| 一级a爱视频在线免费观看| 国产精品 国内视频| 日韩精品中文字幕看吧| 精品久久久久久久末码| 夜夜看夜夜爽夜夜摸| 午夜福利视频1000在线观看| 久久精品91蜜桃| 日本 欧美在线| 一二三四在线观看免费中文在| 欧美zozozo另类| 欧美不卡视频在线免费观看 | 国产av一区在线观看免费| 黄色女人牲交| 国产在线精品亚洲第一网站| 中文字幕人妻丝袜一区二区| 精品久久久久久久久久免费视频| 99精品欧美一区二区三区四区| 欧美久久黑人一区二区| 国产精品二区激情视频| 久久国产亚洲av麻豆专区| 亚洲av日韩精品久久久久久密| 热re99久久国产66热| 亚洲中文av在线| 国产激情欧美一区二区| 久久久精品欧美日韩精品| 精品卡一卡二卡四卡免费| 亚洲性夜色夜夜综合| 一本综合久久免费| 欧美成人性av电影在线观看| 一级a爱视频在线免费观看| 久久久久国内视频| 亚洲精品中文字幕在线视频| 99久久国产精品久久久| 波多野结衣av一区二区av| 久久久国产成人精品二区| 国产又爽黄色视频| www.熟女人妻精品国产| 在线免费观看的www视频| 黄色丝袜av网址大全| 亚洲,欧美精品.| 人妻丰满熟妇av一区二区三区| 黄色视频不卡| 美国免费a级毛片| 精品免费久久久久久久清纯| 欧美精品亚洲一区二区| 十八禁人妻一区二区| 麻豆成人av在线观看| 麻豆av在线久日| 国产精品免费视频内射| 1024视频免费在线观看| 熟女电影av网| 久久久久九九精品影院| 妹子高潮喷水视频| 久久久国产成人免费| 亚洲成人久久性| 亚洲成av人片免费观看| 黄色 视频免费看| 国产精华一区二区三区| 国产亚洲精品久久久久久毛片| 一边摸一边抽搐一进一小说| 夜夜看夜夜爽夜夜摸| 一区二区三区精品91| 亚洲精品国产区一区二| 国产av又大| 黄色 视频免费看| 免费在线观看黄色视频的| 精品一区二区三区视频在线观看免费| 真人一进一出gif抽搐免费| 国产亚洲av高清不卡| 一本久久中文字幕| 不卡一级毛片| 麻豆成人午夜福利视频| 伊人久久大香线蕉亚洲五| xxxwww97欧美| 美女大奶头视频| 国产单亲对白刺激| 18禁黄网站禁片免费观看直播| 婷婷丁香在线五月| 国产欧美日韩一区二区三| 欧美大码av| 欧美黄色片欧美黄色片| 久久久久久久久免费视频了| 19禁男女啪啪无遮挡网站| 亚洲av中文字字幕乱码综合 | 男男h啪啪无遮挡| 国产三级黄色录像| 久久精品国产综合久久久| 日韩欧美免费精品| 美女国产高潮福利片在线看| 久久中文字幕人妻熟女| 中文字幕最新亚洲高清| 十八禁网站免费在线| 成人一区二区视频在线观看| 一个人免费在线观看的高清视频| 国产伦在线观看视频一区| 国产伦人伦偷精品视频| 国产黄片美女视频| 一本久久中文字幕| 亚洲一区二区三区色噜噜| 18禁美女被吸乳视频| 真人做人爱边吃奶动态| 男女做爰动态图高潮gif福利片| 老鸭窝网址在线观看| 久久 成人 亚洲| 国产91精品成人一区二区三区| 精品日产1卡2卡| 午夜免费成人在线视频| 一进一出抽搐动态| 少妇粗大呻吟视频| 91国产中文字幕| 亚洲人成网站在线播放欧美日韩| 男女视频在线观看网站免费 | 黑人巨大精品欧美一区二区mp4| 国产精品久久久久久人妻精品电影| 一本综合久久免费| 俄罗斯特黄特色一大片| 黑人操中国人逼视频| 在线天堂中文资源库| 精品第一国产精品| 久久精品国产亚洲av香蕉五月| 成人亚洲精品av一区二区| 亚洲国产看品久久| 午夜福利成人在线免费观看| 在线视频色国产色| 久久久久国产一级毛片高清牌| 婷婷六月久久综合丁香| 中文字幕av电影在线播放| 一夜夜www| 亚洲专区国产一区二区| 国产成人av教育| 久久狼人影院| 香蕉丝袜av| av福利片在线| 亚洲精品在线观看二区| 亚洲国产中文字幕在线视频| 啦啦啦 在线观看视频| 免费在线观看视频国产中文字幕亚洲| 一本久久中文字幕| 午夜免费成人在线视频| 黄色丝袜av网址大全| 久久久久久久午夜电影| 成年版毛片免费区| 免费在线观看黄色视频的| 欧美在线黄色| 淫妇啪啪啪对白视频| 久久中文字幕一级| 亚洲中文字幕日韩| 亚洲免费av在线视频| 久久精品国产清高在天天线| 亚洲中文日韩欧美视频| 免费人成视频x8x8入口观看| 老司机靠b影院| 中出人妻视频一区二区| 亚洲精品美女久久久久99蜜臀| 一本综合久久免费| 禁无遮挡网站| 成人三级黄色视频| 国内精品久久久久精免费| 午夜亚洲福利在线播放| 999久久久精品免费观看国产| 成人国语在线视频| 亚洲精品色激情综合| 欧美乱色亚洲激情| 久久午夜亚洲精品久久| 日韩成人在线观看一区二区三区| 精品久久久久久久久久免费视频| 午夜亚洲福利在线播放| 国产一区二区三区视频了| 在线看三级毛片| 午夜免费观看网址| 午夜日韩欧美国产| 丝袜人妻中文字幕| 91成人精品电影| 久久热在线av| 搡老妇女老女人老熟妇| 国产午夜福利久久久久久| 女人被狂操c到高潮| 亚洲精品色激情综合| 老司机深夜福利视频在线观看| 十八禁人妻一区二区| 午夜影院日韩av| 中文在线观看免费www的网站 | 十分钟在线观看高清视频www| 国产精品,欧美在线| 欧美日本视频| 国产精华一区二区三区| 美女大奶头视频| 免费观看精品视频网站| 人成视频在线观看免费观看| 成人国产一区最新在线观看| 国产精品 欧美亚洲| 一个人免费在线观看的高清视频| 亚洲人成网站在线播放欧美日韩| 亚洲一区高清亚洲精品| 亚洲国产欧洲综合997久久, | 麻豆国产av国片精品| 午夜福利欧美成人| 精品高清国产在线一区| 国产精品 国内视频| av天堂在线播放| 两个人看的免费小视频| 制服丝袜大香蕉在线| 日本黄色视频三级网站网址| 欧美丝袜亚洲另类 | 久热这里只有精品99| 午夜日韩欧美国产| 亚洲五月婷婷丁香| www日本黄色视频网| 免费一级毛片在线播放高清视频| 国产精品久久视频播放| 午夜影院日韩av| 高潮久久久久久久久久久不卡| 欧美zozozo另类| 日韩精品青青久久久久久| 中文在线观看免费www的网站 | 国产亚洲欧美精品永久| 亚洲精品国产精品久久久不卡| 黄色成人免费大全| 国产日本99.免费观看| 国产成年人精品一区二区| 亚洲国产精品合色在线| 三级毛片av免费| 久久中文看片网| 少妇熟女aⅴ在线视频| 国产国语露脸激情在线看| 国产蜜桃级精品一区二区三区| 香蕉久久夜色| 给我免费播放毛片高清在线观看| 午夜福利欧美成人| 亚洲av片天天在线观看| 久久久久九九精品影院| 久久国产精品男人的天堂亚洲| 麻豆一二三区av精品| 久久久久九九精品影院| 99re在线观看精品视频| 色播在线永久视频| 欧美乱妇无乱码| 精品国产一区二区三区四区第35| 热re99久久国产66热| 国产色视频综合| 亚洲精品久久成人aⅴ小说| 在线观看舔阴道视频| 99在线视频只有这里精品首页| 国产av一区二区精品久久| 久久精品亚洲精品国产色婷小说| 一级作爱视频免费观看| 亚洲激情在线av| 两性午夜刺激爽爽歪歪视频在线观看 | 极品教师在线免费播放| 亚洲 欧美 日韩 在线 免费| 亚洲avbb在线观看| 久久中文字幕人妻熟女| 久久久久久人人人人人| 国产又黄又爽又无遮挡在线|