• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深度學(xué)習(xí)多聚焦圖像融合方法綜述

    2023-02-18 06:33:12王磊齊爭爭劉羽
    中國圖象圖形學(xué)報 2023年1期
    關(guān)鍵詞:邊界像素卷積

    王磊,齊爭爭,劉羽,2*

    1.合肥工業(yè)大學(xué)生物醫(yī)學(xué)工程系,合肥 230009;2.合肥工業(yè)大學(xué)測量理論與精密儀器安徽省重點實驗室,合肥 230009

    0 引 言

    受限于光學(xué)鏡頭的有限景深,成像裝置有時無法實現(xiàn)同一場景中所有物體或區(qū)域的清晰聚焦成像,導(dǎo)致景深范圍外的場景內(nèi)容出現(xiàn)散焦模糊現(xiàn)象(Liu等,2020)。為解決上述問題,多聚焦圖像融合(multi-focus image fusion,MFIF)技術(shù)提供了一種有效途徑,通過綜合同一場景下多幅部分聚焦圖像包含的互補信息,生成一幅全聚焦(all-in-focus)融合圖像,以更加適合人類觀察或計算機處理,在數(shù)碼攝影、顯微成像、全息成像和集成成像等領(lǐng)域具有廣泛的應(yīng)用價值。多聚焦圖像融合的研究可以追溯到20世紀(jì)80年代,近40年來提出了數(shù)以百計的融合方法。傳統(tǒng)MFIF方法一般分為基于變換域的方法和基于空間域的方法兩類(Liu等,2020)。

    基于變換域的方法主要包括3個步驟,即圖像分解(變換)、系數(shù)融合和圖像重構(gòu)(逆變換)。首先,利用某種圖像表示模型將源圖像轉(zhuǎn)換到變換域,得到變換系數(shù);然后,通過設(shè)計的融合策略對變換系數(shù)進(jìn)行融合處理;最后,對融合后的系數(shù)進(jìn)行相應(yīng)的逆變換重構(gòu)得到融合圖像。根據(jù)圖像表示模型的不同,變換域方法可以進(jìn)一步分為基于多尺度變換的方法(Burt和Adelson,1985;Li等,1995,2013a;Lewis等,2007;Yang等,2007;Zhang和Guo,2009;殷明等,2016)、基于稀疏表示的方法(Yang和Li,2010;Jiang和Wang,2014;Liu和Wang,2015;Liu等,2016)、基于梯度域的方法(Sun等,2013;Zhou等,2014)、基于其他變換的方法(Mitianoudis和Stathaki,2007;Liang等,2012)以及基于混合變換的方法(Li和Yang,2008a;Liu等,2015a;Zhu等,2018;楊培 等,2021)等。

    基于空間域的方法直接在圖像空間域中對源圖像進(jìn)行處理和融合。在該類方法中,通常首先在空間域中提取相關(guān)特征來度量源圖像的活躍程度(activity level),然后根據(jù)計算出的活躍程度使用某種融合規(guī)則(fusion rule)對源圖像進(jìn)行融合。在MFIF方法中,最常用的融合規(guī)則是取極大(maximum selection)。在很多空間域方法中,最后還會使用一些一致性驗證(consistency verification)技術(shù)(Piella,2003)對得到的決策圖或融合圖像進(jìn)行優(yōu)化,進(jìn)一步提升融合質(zhì)量。根據(jù)融合算法針對的基本處理單元,空間域方法可以進(jìn)一步分為基于分塊的方法(Li等,2001;Aslantas和Kurban,2010;Bai等,2015;Guo等,2015;Zhang和Levine,2016)、基于區(qū)域的方法(Li等,2006;Li和Yang,2008b;Duan等,2018)和基于像素的方法(Li等,2013b;Liu等,2015b;Nejati等,2015;Ma等,2019b;Qiu等,2019;Xiao等,2020)。

    得益于強大的特征學(xué)習(xí)能力,深度學(xué)習(xí)在眾多圖像與視覺任務(wù)中獲得了極為成功的應(yīng)用。在MFIF問題研究中,基于深度學(xué)習(xí)的方法自2017年首次提出以來(Liu等,2017),迅速成為該問題的熱點研究方向,陸續(xù)提出了近百種方法。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)和生成對抗網(wǎng)絡(luò)(generative adversarial network,GAN)等深度學(xué)習(xí)模型成功應(yīng)用于MFIF方法研究。對上述研究工作進(jìn)行全面系統(tǒng)的回顧與總結(jié)有助于研究人員了解該方向的研究進(jìn)展,對該方向的未來發(fā)展也能起到一定的啟示作用,具有較強的實際意義。

    隨著多源圖像融合的發(fā)展,國際上出現(xiàn)了一些優(yōu)秀的綜述論文,其中一些涉及多聚焦圖像融合問題。Li等人(2017)對多源圖像融合方向的研究現(xiàn)狀進(jìn)行了全面綜述,內(nèi)容涵蓋遙感、醫(yī)學(xué)、紅外與可見光、多聚焦等多種圖像融合問題,但所述方法均為傳統(tǒng)融合方法。Liu等人(2018)與Zhang(2022b)分別對基于深度學(xué)習(xí)的圖像融合方法進(jìn)行回顧,同樣不限于多聚焦圖像融合問題。Liu等人(2020)針對MFIF問題開展系統(tǒng)綜述工作,所述方法涉及傳統(tǒng)方法和基于深度學(xué)習(xí)的方法。Zhang(2022b)對基于深度學(xué)習(xí)的MFIF方法進(jìn)行全面綜述和性能對比實驗。然而上述工作距今期間又有數(shù)十種基于深度學(xué)習(xí)的MFIF方法陸續(xù)提出。此外,上述綜述工作均發(fā)表于國際英文期刊,國內(nèi)期刊上目前還鮮有相關(guān)的綜述工作。

    鑒于上述背景,本文對基于深度學(xué)習(xí)的MFIF方法進(jìn)行系統(tǒng)回顧,將這些方法進(jìn)行歸納分類,更清晰地展現(xiàn)該方向的最新研究進(jìn)展。此外,本文對25種代表性MFIF方法(包括10種傳統(tǒng)方法和15種深度學(xué)習(xí)方法)在3個常用MFIF數(shù)據(jù)集上的性能進(jìn)行實驗對比與分析。最后,對MFIF存在的挑戰(zhàn)性問題及未來發(fā)展趨勢進(jìn)行討論與展望。

    1 基于深度學(xué)習(xí)的多聚焦圖像融合方法

    根據(jù)采用的深度學(xué)習(xí)模型類型,基于深度學(xué)習(xí)的多聚焦圖像融合方法可以進(jìn)一步分為基于分類模型的方法和基于回歸模型的方法?;诜诸惸P偷姆椒▽⒍嗑劢箞D像融合建模為像素聚焦屬性的判別問題,使用分類型卷積網(wǎng)絡(luò)實現(xiàn)該目標(biāo)。與此不同,基于回歸模型的方法學(xué)習(xí)從源圖像到融合圖像的直接映射,使用端到端網(wǎng)絡(luò)模型預(yù)測輸出融合圖像。

    1.1 基于分類模型的方法

    基于分類模型的方法與很多傳統(tǒng)空間域方法具有類似的框架。具體而言,使用深度神經(jīng)網(wǎng)絡(luò)提取圖像特征以及對圖像像素的聚焦屬性進(jìn)行分類,即判斷像素處于聚焦區(qū)域還是散焦區(qū)域。根據(jù)像素處理方式不同,基于分類模型的方法進(jìn)一步分為基于圖像分塊的方法和基于圖像分割的方法兩類。表1列出了基于深度分類模型的主要融合方法。

    表1 基于深度分類模型的多聚焦圖像融合方法概述

    1.1.1 基于圖像分塊的方法

    Liu等人(2017)首次將卷積神經(jīng)網(wǎng)絡(luò)引入到多聚焦圖像融合方法研究中,設(shè)計了一個面向分類任務(wù)的孿生型卷積神經(jīng)網(wǎng)絡(luò),用于學(xué)習(xí)從源圖像到聚焦圖(focus map)的直接映射,將傳統(tǒng)方法中活躍程度度量和融合規(guī)則這兩個關(guān)鍵步驟以網(wǎng)絡(luò)學(xué)習(xí)的方式一體化實現(xiàn),加強了兩者之間的關(guān)聯(lián)性,同時避免了傳統(tǒng)啟發(fā)式設(shè)計的困難。為了解決網(wǎng)絡(luò)訓(xùn)練的問題,采用多個尺度的高斯模糊來模擬散焦,人工創(chuàng)建了一個由清晰圖像塊和模糊圖像塊組成的大規(guī)模數(shù)據(jù)集,用于監(jiān)督學(xué)習(xí)。在具體實現(xiàn)中,通過將網(wǎng)絡(luò)中的全連接層等效轉(zhuǎn)換為卷積層,使網(wǎng)絡(luò)能夠接受任意大小的源圖像作為輸入,保證了算法的實用性。該方法的流程圖如圖1所示。

    圖1 Liu等人(2017)提出的基于CNN的MFIF方法流程圖

    在得到聚焦圖后,還需對其進(jìn)行二值分割和一致性驗證處理,生成最終決策圖用于融合。為了提高圖像塊分類的精度,Tang等人(2018)將圖像塊分為聚焦、散焦和未知3類,對3類圖像像素進(jìn)行加權(quán)求和,得到源圖像的得分圖以生成決策圖。Zhao等人(2021)為了提高邊界區(qū)域的融合質(zhì)量,解決邊界像素屬性難以判別的困難,提出了一種基于區(qū)域和像素的融合方法。首先對源圖像進(jìn)行分塊,利用三分類網(wǎng)絡(luò)將圖像塊分為聚焦、散焦和邊界3類。然后利用邊界網(wǎng)絡(luò)對邊界區(qū)域進(jìn)行微調(diào),得到二值決策圖。Amin-Naji等人(2019)將集成學(xué)習(xí)的思想應(yīng)用于多聚焦圖像融合,利用多個CNN分別對源圖像及其梯度圖像進(jìn)行分類,以進(jìn)一步提高分類精度,該方法示意圖如圖2所示。Zhou等人(2021)基于梯度信息能直觀反映圖像邊緣信息這一思想,將原始圖像和其對應(yīng)的4種梯度圖像輸入到5個CNN中,得到5個初始聚焦圖,然后合并它們得到最終聚焦圖。Guo等人(2018a)基于拉普拉斯能量對源圖像進(jìn)行聚焦度量得到聚焦信息圖,然后利用深層神經(jīng)網(wǎng)絡(luò)對圖像塊進(jìn)行分類得到?jīng)Q策圖。Yang等人(2019)提出了一種基于多層特征卷積神經(jīng)網(wǎng)絡(luò)的方法,組合不同卷積層的特征圖以提高分類精度。

    圖2 Amin-Naji等人(2019)提出的基于集成CNN的MFIF方法示意圖

    1.1.2 基于圖像分割的方法

    上述基于圖像分塊的方法由于分塊操作往往忽略了圖像的全局上下文信息,且相鄰圖像塊的預(yù)測通常是相互獨立的,導(dǎo)致得到的聚焦圖或決策圖存在空間不一致(連續(xù))性,影響融合質(zhì)量,尤其是聚焦區(qū)域和散焦區(qū)域之間邊界區(qū)域的融合質(zhì)量。為了解決這一問題,研究人員提出了一些基于圖像(語義)分割的方法,將融合任務(wù)建模為聚焦區(qū)域的分割問題。Guo等人(2018b)提出了一種基于全卷積網(wǎng)絡(luò)的融合方法,將整幅圖像用于網(wǎng)絡(luò)訓(xùn)練,輸出與源圖像大小相同的聚焦圖。為此,設(shè)計了一種基于高斯濾波的方法,使用原始圖像和聚焦/散焦分割圖合成用于監(jiān)督學(xué)習(xí)的訓(xùn)練圖像。此外,該方法通過全連接條件隨機場對決策圖進(jìn)行細(xì)化。Deshmukh等人(2018)將深度置信網(wǎng)絡(luò)(deep belief network)應(yīng)用于聚焦像素的檢測,利用該網(wǎng)絡(luò)判斷像素類別,得到權(quán)重圖,以進(jìn)行加權(quán)融合生成融合結(jié)果。Xu等人(2020a)利用從源圖像獲得的梯度關(guān)系圖構(gòu)造損失函數(shù),幫助網(wǎng)絡(luò)快速收斂,提高決策圖精度。

    為了進(jìn)一步提高聚焦邊界區(qū)域的分割精度,研究人員提出了一些對邊界進(jìn)行優(yōu)化的多聚焦圖像融合方法。Ma等人(2019a)提出了一種級聯(lián)的邊界感知卷積神經(jīng)網(wǎng)絡(luò)用于多聚焦圖像融合,如圖3所示。該方法首先使用初始融合網(wǎng)絡(luò)獲得初始聚焦圖,將像素分為聚焦、散焦和邊界像素,并加權(quán)求和得到初始融合圖;然后使用邊界融合網(wǎng)絡(luò)生成邊界融合圖像;最后二者相加得到最終融合結(jié)果。Xu等人(2020c)提出了一種邊界優(yōu)化算法對融合圖像的邊界進(jìn)行優(yōu)化。該方法首先對源圖像進(jìn)行聚焦圖檢測得到二分類聚焦圖,根據(jù)聚焦圖確定邊界,最后使用邊界優(yōu)化算法優(yōu)化融合結(jié)果中的邊界。

    圖3 Ma等人(2019a)提出的基于邊界感知CNN的MFIF方法示意圖

    除了直接對邊界進(jìn)行優(yōu)化,一些學(xué)者提出了利用多尺度特征和注意力機制等技術(shù)提升邊界分割精度的方法。Zhou等人(2019)提出一種基于金字塔場景解析網(wǎng)絡(luò)(pyramid scene parsing network)的多聚焦圖像融合方法,利用金字塔池化模塊提取圖像最后的多尺度特征,從而提高聚焦圖預(yù)測的準(zhǔn)確度。Xiao等人(2021)提出一種基于全局特征編碼的U-Net模型,用于多聚焦圖像融合,該網(wǎng)絡(luò)引入了全局特征金字塔提取模塊和全局注意力連接上采樣模塊,能有效提取和利用圖像的全局語義信息。Liu等人(2021)提出一種基于多尺度特征交互網(wǎng)絡(luò)的融合方法,網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,通過對卷積神經(jīng)網(wǎng)絡(luò)提取的多尺度特征進(jìn)行融合,并引入坐標(biāo)注意力機制增強多尺度特征交互力度,提高聚焦圖的分割精度。

    圖4 Liu等人(2021)提出的基于多尺度特征交互網(wǎng)絡(luò)的MFIF方法示意圖

    除了利用卷積神經(jīng)網(wǎng)絡(luò)提取多尺度特征,一些方法通過多尺度分解提取多尺度特征。Wang等人(2019b)提出一種在離散小波變換域進(jìn)行分割的方法,首先將源圖像進(jìn)行多尺度分解得到4個不同頻率子帶圖像,然后將這些子帶圖像輸入到不同網(wǎng)絡(luò),輸出4個決策圖以融合各個子帶圖像。Guo等人(2020)在卷積神經(jīng)網(wǎng)絡(luò)中引入了位置自注意力機制和通道自注意力機制,幫助卷積神經(jīng)網(wǎng)絡(luò)捕獲更多的圖像特征。此外,一些方法采用增強網(wǎng)絡(luò)輸入的方式來提高邊界精度。Gao等人(2022)將一對源圖像和對應(yīng)的經(jīng)拉普拉斯算子檢測的特征圖像一起輸入到網(wǎng)絡(luò)中,以準(zhǔn)確區(qū)分聚焦區(qū)域和散焦區(qū)域的邊界。

    上述方法在網(wǎng)絡(luò)訓(xùn)練時通常只是基于聚焦圖的分割結(jié)果,為了進(jìn)一步提升融合性能,一些方法將融合圖像直接輸出,并用于幫助網(wǎng)絡(luò)訓(xùn)練。Lai等人(2019)將多尺度特征提取單元和視覺注意力單元作為網(wǎng)絡(luò)的基本單元,然后網(wǎng)絡(luò)輸出聚焦圖,利用聚焦圖與源圖像進(jìn)行加權(quán)求和得到融合圖像,方法示意圖如圖5所示。該方法在訓(xùn)練過程中計算融合圖像與真實值(ground truth)之間的結(jié)構(gòu)相似性(structural similarity, SSIM)作為損失函數(shù),使融合圖像直接參與到網(wǎng)絡(luò)訓(xùn)練中。Li等人(2020)將融合圖像與ground truth之間的結(jié)構(gòu)相似性和梯度差異作為損失函數(shù)項,以進(jìn)一步提高融合性能。Ma等人(2022)使用基于梯度的融合評價度量指標(biāo)作為訓(xùn)練過程中的損失函數(shù),并且設(shè)計了一種決策圖校準(zhǔn)策略以提高邊界融合質(zhì)量。Ma等人(2021b)提出一種自監(jiān)督掩膜優(yōu)化模型用于多聚焦圖像融合。該方法設(shè)計了帶引導(dǎo)濾波的引導(dǎo)塊生成初始二值掩膜加快網(wǎng)絡(luò)收斂,并且最小化融合圖像與源圖像間的梯度差異以迫使模型學(xué)習(xí)更精確的二值掩膜。

    圖5 Lai等人(2019)提出的基于多尺度視覺注意力深度CNN(MADCNN)的MFIF方法示意圖

    由于深度學(xué)習(xí)優(yōu)越的特征表示能力,一些方法利用網(wǎng)絡(luò)模型提取或增強源圖像特征,然后度量這些特征的活躍程度得到?jīng)Q策圖。Ma等人(2021a)提出一種基于無監(jiān)督編碼器—解碼器網(wǎng)絡(luò)的方法,采用網(wǎng)絡(luò)中的編碼器來獲取源圖像的深層特征,然后使用空間頻率(spatial frequency,SF)度量活躍程度,得到?jīng)Q策圖,最后對決策圖進(jìn)行一致性驗證,得到融合結(jié)果。Song和Wu(2019)采用PCANet(principal component analysis network)提取圖像特征,利用核范數(shù)生成源圖像的活躍程度度量,得到?jīng)Q策圖,最后使用加權(quán)融合得到融合圖像。Liu等人(2022)提出一種基于超分辨重建網(wǎng)絡(luò)的方法,首先利用深度殘差網(wǎng)絡(luò)對源圖像進(jìn)行超分辨重建,然后通過滾動引導(dǎo)濾波進(jìn)行噪聲平滑和邊緣保持,最后利用基于結(jié)構(gòu)梯度的聚焦區(qū)域檢測算法生成決策圖。

    除了CNN模型,GAN也用于多聚焦圖像融合領(lǐng)域。Guo等人(2019)最早提出了基于GAN的MFIF方法,示意圖如圖6所示。在該方法中,生成器的輸出是一個聚焦決策圖,除了與真實決策圖計算二值交叉熵?fù)p失外,還設(shè)計了一個鑒別器模型,用于提高輸出與真實決策圖之間的相似性。Wang等人(2021b)針對多聚焦圖像中的散焦擴散效應(yīng)(defocus spread effect,DSE)(Xu等,2020d)提出一種基于GAN的多聚焦圖像融合方法,該網(wǎng)絡(luò)采用了擠壓和激勵殘差模塊,并在損失函數(shù)中添加了重構(gòu)和梯度正則化以增強邊界細(xì)節(jié),提升融合質(zhì)量。

    圖6 Guo等人(2019)提出的基于GAN的MFIF方法示意圖

    1.2 基于回歸模型的方法

    與上述基于分類模型的方法輸出像素聚焦屬性圖不同,基于回歸模型的方法使用網(wǎng)絡(luò)模型預(yù)測輸出融合圖像,學(xué)習(xí)從源圖像到融合圖像的端到端映射。在此類方法中,網(wǎng)絡(luò)框架通常包括特征提取、融合與重建3部分,類似于傳統(tǒng)變換域方法的框架。根據(jù)網(wǎng)絡(luò)模型學(xué)習(xí)方式的不同,本文將其進(jìn)一步分為基于監(jiān)督學(xué)習(xí)的方法和基于無監(jiān)督學(xué)習(xí)的方法兩類。表2列出了基于深度分類模型的主要融合方法。

    表2 基于深度回歸模型的多聚焦圖像融合方法概述

    1.2.1 基于監(jiān)督學(xué)習(xí)的方法

    Xu等人(2018)提出一種用于多聚焦圖像融合的全卷積雙路徑網(wǎng)絡(luò),并采用高斯濾波來合成訓(xùn)練數(shù)據(jù)集。Zhang等人(2020b)提出一種包括特征提取、融合和重建3個階段的端到端網(wǎng)絡(luò)模型用于多聚焦圖像融合,如圖7所示。該方法利用深度信息和高斯模糊生成訓(xùn)練數(shù)據(jù)集,并采用感知損失進(jìn)行網(wǎng)絡(luò)訓(xùn)練。Zhao等人(2019)提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的多層特征處理機制用于多聚焦圖像融合,在不同層上進(jìn)行特征提取、融合和重建。Yu等人(2022)提出一種雙路徑融合網(wǎng)絡(luò),在網(wǎng)絡(luò)的特征提取模塊中添加了大量的注意力機制。Zang等人(2021)設(shè)計了一種基于統(tǒng)一融合注意力的融合策略以獲得更多信息,該融合策略由通道注意力和空間注意力構(gòu)成。Deng和Dragotti(2021)提出一種用于圖像融合的公共和唯一信息分離網(wǎng)絡(luò),該網(wǎng)絡(luò)能提取源圖像的公共特征和唯一特征。Wang等人(2022)提出一種兩階段漸進(jìn)殘差學(xué)習(xí)網(wǎng)絡(luò),該網(wǎng)絡(luò)由初始融合塊網(wǎng)絡(luò)和增強融合塊網(wǎng)絡(luò)構(gòu)成,初始融合塊網(wǎng)絡(luò)用于融合源圖像中的顏色信息,增強融合塊網(wǎng)絡(luò)進(jìn)一步融合細(xì)節(jié)特征。

    圖7 Zhang等人(2020b)提出的基于CNN的通用圖像融合框架

    此外,GAN也用于基于深度回歸模型的融合方法研究中。Huang等人(2020)提出一種基于GAN的端到端多聚焦圖像融合方法,在網(wǎng)絡(luò)模型中設(shè)計了一種自適應(yīng)權(quán)重塊,引導(dǎo)生成器自適應(yīng)學(xué)習(xí)聚焦像素的分布,如圖8所示。

    圖8 Huang等人(2020)提出的基于GAN的MFIF方法示意圖

    上述方法主要采用兩分支輸入方式,將源圖像分別輸入到對應(yīng)的分支網(wǎng)絡(luò)中,再通過一定的融合規(guī)則融合特征。此外,還有一些方法將源圖像進(jìn)行通道連接后再輸入到網(wǎng)絡(luò)。Li等人(2019a)提出一種U形端到端卷積網(wǎng)絡(luò),以提高多聚焦圖像融合的特征提取能力,并設(shè)計了基于結(jié)構(gòu)相似性的損失函數(shù)來訓(xùn)練網(wǎng)絡(luò)。Pea等人(2019)提出一種基于沙漏網(wǎng)絡(luò)(hourglass network)的多聚焦圖像融合方法。

    針對網(wǎng)絡(luò)中特征融合策略存在的單一性問題,一些方法首先將源圖像分解為多個尺度,為不同尺度設(shè)計不同的融合策略。Li等人(2019b)提出一種基于小波域的CNN用于多聚焦圖像融合。在該方法中,源圖像首先被小波變換分解為高頻和低頻圖像,然后用兩個網(wǎng)絡(luò)對它們進(jìn)行融合,最后逆變換得到融合圖像。Cheng等人(2021)使用引導(dǎo)濾波將源圖像分解為基礎(chǔ)層和細(xì)節(jié)層,為兩個層的特征設(shè)計了不同的融合策略。

    1.2.2 基于無監(jiān)督學(xué)習(xí)的方法

    除了基于監(jiān)督學(xué)習(xí)的融合方法,也有基于無監(jiān)督學(xué)習(xí)的多聚焦圖像融合方法,此類方法不需要人工構(gòu)造融合圖像的ground truth。Yan等人(2020)通過在融合圖像與源圖像之間設(shè)計基于結(jié)構(gòu)相似性的損失函數(shù),提出一種基于無監(jiān)督卷積神經(jīng)網(wǎng)絡(luò)的多聚焦圖像融合方法,如圖9所示。Mustafa等人(2019b)將多尺度架構(gòu)引入到端到端卷積神經(jīng)網(wǎng)絡(luò)模型中,用于無監(jiān)督的多聚焦圖像融合,并提出一種同時考慮像素差異和結(jié)構(gòu)相似性的損失函數(shù)用于網(wǎng)絡(luò)訓(xùn)練。Jung等人(2020)利用多通道圖像對比度的結(jié)構(gòu)張量表示,提出一種無監(jiān)督損失函數(shù)。Xu等人(2022)通過持續(xù)學(xué)習(xí)(continual learning)技術(shù)提出一種無監(jiān)督圖像融合框架,用統(tǒng)一的網(wǎng)絡(luò)解決多種類型的圖像融合問題。Zhang等人(2021)提出一種基于無監(jiān)督GAN模型的多聚焦圖像融合方法,設(shè)計了一個自適應(yīng)決策塊來豐富融合圖像的紋理細(xì)節(jié)。

    圖9 Yan等人(2020)提出的基于無監(jiān)督CNN的MFIF方法示意圖

    2 實 驗

    實驗對多種代表性多聚焦圖像融合方法的性能進(jìn)行比較與分析。在3個多聚焦圖像數(shù)據(jù)集上,使用8個常用的客觀評價指標(biāo)對25種代表性融合方法(包括5種傳統(tǒng)空間域方法、5種傳統(tǒng)變換域方法和15種基于深度學(xué)習(xí)的方法)的性能進(jìn)行對比。

    2.1 數(shù)據(jù)集

    使用3個多聚焦圖像融合數(shù)據(jù)集進(jìn)行實驗,分別是Lytro數(shù)據(jù)集(Nejati等,2015)(https://www.researchgate.net/publication/291522937_Lytro_Multi-focus_Image_Dataset)、MFFW(multi-focus image fusion in the wild)數(shù)據(jù)集(Xu等,2020d)(https://www.researchgate.net/publication/350965471_MFFW)和Classic數(shù)據(jù)集(自行收集)(https://www.researchgate.net/publication/361556764_Classic-MFIF-dataset)。其中,Lytro和MFFW數(shù)據(jù)集分別包含20對彩色圖像和13對彩色圖像,Classic數(shù)據(jù)集包含多聚焦圖像融合領(lǐng)域非常經(jīng)典的20對灰度圖像(與前兩個數(shù)據(jù)集不重復(fù))。圖10展示了3個數(shù)據(jù)集中的源圖像。

    圖10 實驗中使用的3個多聚焦圖像融合數(shù)據(jù)集

    2.2 客觀評價指標(biāo)

    2.3 對比方法

    在實驗中,選擇了25種多聚焦圖像融合方法進(jìn)行性能比較,選取原則主要包括:1)方法具有較高的領(lǐng)域影響力或是最近提出的;2)方法的源代碼在網(wǎng)上公開;3)所選方法盡可能全面地涵蓋多聚焦圖像融合方法的各個類別。表4列出了所選方法的詳細(xì)信息,包括方法類型、簡稱和源代碼鏈接。所選方法中包括5種傳統(tǒng)變換域方法、5種傳統(tǒng)空間域方法和15種基于深度學(xué)習(xí)的方法。更具體地,傳統(tǒng)變換域方法中包括2種基于多尺度分解的方法:NSCT(nonsubsampled contourlet transform)(Yang等,2007)和GFF(guided filtering fusion)(Li等,2013a)、1種基于稀疏表示的方法:CSR(convolutional sparse representation)(Liu等,2016)、1種基于梯度域的方法:MWGF(multi-scale weighted gradient-based fusion)(Zhou等,2014)、1種基于不同變換組合的方法:NSCT-SR(nonsubsampled contourlet transform and sparse representation)(Liu等,2015a);傳統(tǒng)空間域方法中包括1種基于分塊的方法:QUADTREE(Bai等,2015)、4種基于像素的方法:DSIFT(dense scale invariant feature transform)(Liu等,2015b)、SRCF(sparse representation corresponding features)(Nejati等,2015)、GFDF(guided filter-based focus region detection for fusion)(Qiu等,2019)和BRW(boosted random walks)(Ma等,2019b);深度學(xué)習(xí)方法中包括10種基于分類模型的方法,其中CNN(Liu等,2017)和ECNN(ensemble of CNN)(Amin-Naji等,2019b)是基于圖像分塊的方法,GCF(gradients and connected regions based fusion)(Xu等,2020a)、MFF-SSIM(multi-focus image fusion based on structural similarity)(Xu等,2020c)、MSFIN(multiscale feature interactive network)(Liu等,2021)、MADCNN(multi-scale visual attention deep convolutional neural network)(Lai等,2019)、DRPL(deep regression pair learning)(Li等,2020)、GACN(gradient aware cascade network)(Ma等,2022)、SESF(squeeze excitation and spatial frequency)(Ma等,2020a)和SMFuse(self-supervised mask-optimization fuse)(Ma等,2021)是基于圖像分割的方法,以及5種基于回歸模型的方法,其中IFCNN(image fusion with convolutional neural network)(Zhang等,2020b)和R-PSNN(residual atrous pyramid pseudo-siamese neural network)(Jiang等,2021b)是基于監(jiān)督學(xué)習(xí)的方法,F(xiàn)usionDN(densely connected network for fusion)(Xu等,2020b)、PMGI(proportional maintenance of gradient and intensity)(Zhang等,2020a)和U2Fusion(unified unsupervised image fusion)(Xu等,2022)是基于無監(jiān)督學(xué)習(xí)的方法。所有方法均使用默認(rèn)參數(shù)設(shè)置和作者提供的訓(xùn)練模型。

    表3 實驗中選擇的25種方法

    2.4 結(jié)果與討論

    表4—表6列出了不同融合方法在3個數(shù)據(jù)集上的客觀評價結(jié)果,給出了每個數(shù)據(jù)集中所有測試圖像的平均得分??梢园l(fā)現(xiàn),3個數(shù)據(jù)集上的結(jié)果在整體上具有較強的相似性,變換域方法在QE上更有優(yōu)勢,而空間域方法在其他指標(biāo)上更具優(yōu)勢。5種變換域方法中并不存在具有明顯優(yōu)勢的方法,整體定量性能差異不大。對于空間域方法,在大部分指標(biāo)上都能獲得非常有競爭力的性能。因此,綜合來看,空間域方法的融合性能優(yōu)于變換域方法,這是由于空間域法可以更好地保持源圖像的原始聚焦信息,而變換域方法每個階段都可能引入像素誤差,導(dǎo)致融合性能的降低。

    表4 不同融合方法在Lytro數(shù)據(jù)集上的客觀性能

    表5 不同融合方法在MFFW數(shù)據(jù)集上的客觀性能

    表6 不同融合方法在Classic數(shù)據(jù)集上的客觀性能

    在基于深度學(xué)習(xí)的方法中,基于回歸模型的方法在指標(biāo)VIFF上取得不錯的結(jié)果,而基于分類模型的方法通常能在其他大多數(shù)指標(biāo)上獲得比基于回歸模型的方法更好的性能。這是因為利用回歸模型直接生成融合圖像的過程可分為特征提取、融合和重建3個階段,與變換域方法框架較為相似,受限于模型的預(yù)測精度,容易引入像素誤差,而基于分類模型的方法與空間域方法框架類似,整體性能更好。在基于回歸模型的方法中,有監(jiān)督的方法(即IFCNN和R-PSNN)的結(jié)果普遍優(yōu)于無監(jiān)督的方法(即FusionDN、PMGI和U2Fusion),由此可見,監(jiān)督學(xué)習(xí)的方式可以有效提升融合網(wǎng)絡(luò)的性能。此外,從排名來看,將源圖像由RGB轉(zhuǎn)到Y(jié)CbCr顏色空間的方法(即FusionDN、PMGI和U2Fusion)在VIFF指標(biāo)上的結(jié)果明顯優(yōu)于其他使用RGB源圖像作為網(wǎng)絡(luò)輸入的方法(即IFCNN和R-PSNN),這表明對源圖像的Y分量進(jìn)行融合能有效提高融合結(jié)果的視覺信息保真度。而在基于分類模型的方法中,有一致性驗證等后處理操作的方法(如CNN、GCF、MFF-SSIM、MSFIN和SESF)一般能取得比沒有后處理的方法(如ECNN、MADCNN、DRPL、GACN和SMFuse)更好的融合性能。但是,所有方法都無法在3個數(shù)據(jù)集中排名前10。例如,MSFIN在Lytro數(shù)據(jù)集中所有指標(biāo)都排名前10,但是在MFFW和Classic數(shù)據(jù)集中所有指標(biāo)都未排進(jìn)前10。這表明多聚焦圖像融合方法研究仍有較大的提升空間。通過比較各方法每個指標(biāo)的值可以發(fā)現(xiàn),深度學(xué)習(xí)方法的整體性能與優(yōu)秀的傳統(tǒng)方法相當(dāng)甚至略低,并未展現(xiàn)明顯優(yōu)勢,主要原因之一是多聚焦圖像融合領(lǐng)域缺乏大規(guī)??捎糜谟?xùn)練的真實數(shù)據(jù)集,通常采用的人工合成訓(xùn)練數(shù)據(jù)的方式與真實多聚焦圖像之間存在差異,導(dǎo)致訓(xùn)練得到的深度學(xué)習(xí)模型泛化能力不足,在真實多聚焦圖像數(shù)據(jù)集上的性能受限。

    圖11—圖13展示了不同融合方法在3個數(shù)據(jù)集中一組測試圖像上的融合結(jié)果。由圖11可以看出,對于較為簡單的Lytro數(shù)據(jù)集而言,幾乎所有融合方法獲得的融合圖像都具有良好的視覺效果,不同方法之間的差異相對較小。由圖12可以看出,在MFFW數(shù)據(jù)集中,源圖像存在明顯的散焦擴散效應(yīng)(DSE)(Xu等,2020d),聚焦邊界像素的處理難度較高,幾乎所有方法在邊界區(qū)域都未能獲得令人滿意的結(jié)果,存在較為嚴(yán)重的偽邊緣現(xiàn)象,影響了視覺質(zhì)量。MFF-SSIM方法的結(jié)果相對較好,這是因為該方法對邊界區(qū)域進(jìn)行了特別的優(yōu)化。由圖13可以看出,在Classic數(shù)據(jù)集給出的示例中,源圖像之前沒有進(jìn)行精確的配準(zhǔn),導(dǎo)致大多數(shù)傳統(tǒng)變換域方法和基于深度回歸模型的方法融合質(zhì)量不夠理想,在一些區(qū)域存在明顯的細(xì)節(jié)模糊現(xiàn)象,空間域法和基于深度分類模型的方法相對而言融合效果較好。

    圖11 不同方法在Lytro數(shù)據(jù)集中示例圖像瓶子上的融合結(jié)果

    圖12 不同方法在MFFW數(shù)據(jù)集中示例圖像咖啡杯上的融合結(jié)果

    圖13 不同方法在Classic數(shù)據(jù)集中示例圖像石獅子上的融合結(jié)果

    表7列出了不同方法融合一對520 × 520像素的彩色圖像消耗的平均運行時間。使用Lytro數(shù)據(jù)集中20對520 × 520像素的圖像進(jìn)行統(tǒng)計,計算平均運行時間。實驗使用的計算機硬件配置是Intel CoreTMi9-10900X CPU,NVIDIA GeForce RTX 2080Ti GPU,128 MB RAM。在25種方法中,NSCT、GFF、CSR、MWGF、NSCT-SR、QUADYREE、DSIFT、SRCF、GFDF、BRW和CNN在MATLAB環(huán)境下僅以CPU串行方式運行,ECNN、GCF、MFF-SSIM、MSFIN、MADCNN、DRPL、GACN、SESF、SMFuse、FusionDN、IFCNN、PMGI、R-PSNN和U2Fusion在Python環(huán)境下使用GPU并行加速方式運行。

    由表7可以看出,得益于GPU加速,大多數(shù)深度學(xué)習(xí)方法的計算效率較高,而個別方法由于分塊融合方式(如ECNN)或在CPU下實現(xiàn)(如CNN),運行時間較長。在傳統(tǒng)方法中,使用到稀疏表示模型的相關(guān)方法運行效率一般較低,如NSCT-SR和CSR。

    表7 不同方法融合一對520×520像素彩色圖像的平均運行時間

    3 結(jié) 語

    本文對基于深度學(xué)習(xí)的多聚焦圖像融合方法進(jìn)行了全面綜述,將現(xiàn)有方法分為基于深度分類模型的方法和基于深度回歸模型的方法,并介紹了相關(guān)的代表性方法。此外,對25種具有代表性的多聚焦圖像融合方法進(jìn)行了實驗性能驗證與對比,實驗中使用了3個多聚焦圖像融合數(shù)據(jù)集和8個常用的客觀質(zhì)量評價指標(biāo)。盡管近年來基于深度學(xué)習(xí)的多聚焦圖像融合方法研究取得了很大進(jìn)展,但實驗結(jié)果表明這些新方法與傳統(tǒng)融合方法相比并未表現(xiàn)出明顯優(yōu)勢,該方向仍存在一些挑戰(zhàn)性問題需要解決,未來工作可以從以下幾個方面開展:

    1)聚焦邊界區(qū)域的融合。邊界區(qū)域表示源圖像中聚焦區(qū)域與散焦區(qū)域之間的區(qū)域,通常位于景深突變的區(qū)域。邊界區(qū)域的聚焦特性很復(fù)雜,因為在源圖像中一些像素可能會聚焦,而一些像素可能會散焦,并且邊界形狀總是不規(guī)則的。此外,在不同的源圖像中,邊界周圍的像素通常具有不同的清晰度,存在所謂的散焦擴散效應(yīng)(DSE)(Xu等,2020d),給邊界像素的處理帶來了很大挑戰(zhàn)。因此,邊界區(qū)域的融合是多聚焦圖像融合中的一個難點,對融合圖像的視覺質(zhì)量有著至關(guān)重要的影響,提升邊界區(qū)域的融合質(zhì)量是未來一個值得深入研究的方向。

    2)未精確配準(zhǔn)情況下的融合方法?,F(xiàn)有絕大多數(shù)多聚焦圖像融合方法研究均假設(shè)源圖像之間已經(jīng)進(jìn)行了精確的空間配準(zhǔn),對于低配準(zhǔn)精度情況下的研究還十分有限,很多方法在融合未精確配準(zhǔn)的源圖像時性能顯著下降。因此,在設(shè)計融合方法時,如何提升對未精確配準(zhǔn)情況的魯棒性,獲得高質(zhì)量的融合效果,也是該領(lǐng)域未來一個值得深入研究的方向。

    3)具有真實標(biāo)簽的大規(guī)模訓(xùn)練數(shù)據(jù)集的構(gòu)造。目前多聚焦圖像融合領(lǐng)域缺乏大規(guī)模的真實訓(xùn)練數(shù)據(jù)集,大部分基于深度學(xué)習(xí)的方法往往只能通過人工模糊的方式合成數(shù)據(jù)集,然而這種方式忽略了真實多聚焦圖像中的散焦擴散效應(yīng)等很多特點,導(dǎo)致深度模型性能無法充分發(fā)揮,這一點從上述實驗結(jié)果中可以明顯看出。因此,構(gòu)造大規(guī)模的真實訓(xùn)練數(shù)據(jù)集對于未來基于深度學(xué)習(xí)的多聚焦圖像融合研究也具有重要意義。

    4)網(wǎng)絡(luò)模型以及網(wǎng)絡(luò)的學(xué)習(xí)方式的改進(jìn)。目前基于深度學(xué)習(xí)的多聚焦圖像融合方法中使用的網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)相對比較簡單,特別是對于聚焦邊界區(qū)域缺乏精細(xì)化的處理,訓(xùn)練方式也較為單一。在未來研究中,網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)和訓(xùn)練方式等方面仍具有很大的改進(jìn)空間。

    猜你喜歡
    邊界像素卷積
    趙運哲作品
    藝術(shù)家(2023年8期)2023-11-02 02:05:28
    像素前線之“幻影”2000
    拓展閱讀的邊界
    基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
    “像素”仙人掌
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    論中立的幫助行為之可罰邊界
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    高像素不是全部
    CHIP新電腦(2016年3期)2016-03-10 14:22:03
    “偽翻譯”:“翻譯”之邊界行走者
    中文精品一卡2卡3卡4更新| 亚洲四区av| 亚洲欧美中文字幕日韩二区| 精品久久久噜噜| 亚洲经典国产精华液单| 亚洲欧美精品专区久久| 有码 亚洲区| 成人午夜高清在线视频| 免费看av在线观看网站| 久久久欧美国产精品| 精品不卡国产一区二区三区| 草草在线视频免费看| 国产精品女同一区二区软件| 成人av在线播放网站| 久久精品国产亚洲av天美| 亚洲性久久影院| 日本免费一区二区三区高清不卡| 2022亚洲国产成人精品| 国产免费一级a男人的天堂| 69av精品久久久久久| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 最近最新中文字幕免费大全7| 变态另类丝袜制服| 欧美性感艳星| 成人午夜高清在线视频| 午夜福利视频1000在线观看| 中文字幕精品亚洲无线码一区| 成年免费大片在线观看| 一级毛片aaaaaa免费看小| 国产极品精品免费视频能看的| 日本wwww免费看| 卡戴珊不雅视频在线播放| 欧美3d第一页| 久久鲁丝午夜福利片| 亚洲精品自拍成人| 久久久精品欧美日韩精品| 最近2019中文字幕mv第一页| 国产精品不卡视频一区二区| 国产真实伦视频高清在线观看| 国产精品精品国产色婷婷| 国产中年淑女户外野战色| 看片在线看免费视频| 三级国产精品欧美在线观看| 日韩大片免费观看网站 | 日韩成人伦理影院| 亚洲精品亚洲一区二区| 国产亚洲最大av| 热99re8久久精品国产| 免费一级毛片在线播放高清视频| 人人妻人人澡欧美一区二区| 日日干狠狠操夜夜爽| 亚洲精品456在线播放app| 久久精品国产亚洲av涩爱| 91av网一区二区| 校园人妻丝袜中文字幕| 国产v大片淫在线免费观看| 亚洲性久久影院| 国产精品国产三级专区第一集| 国产精品三级大全| 秋霞在线观看毛片| 欧美变态另类bdsm刘玥| 日韩一本色道免费dvd| 国产一区二区亚洲精品在线观看| 精品无人区乱码1区二区| 久久久久久久久中文| 亚洲精品自拍成人| 国产黄色小视频在线观看| 又爽又黄无遮挡网站| 伦精品一区二区三区| 国产精品无大码| 男女视频在线观看网站免费| 激情 狠狠 欧美| 日韩精品青青久久久久久| 天堂√8在线中文| 岛国在线免费视频观看| 欧美丝袜亚洲另类| a级一级毛片免费在线观看| 欧美日韩一区二区视频在线观看视频在线 | h日本视频在线播放| 免费观看a级毛片全部| 成人漫画全彩无遮挡| 国产老妇伦熟女老妇高清| 国产综合懂色| 日韩,欧美,国产一区二区三区 | 午夜爱爱视频在线播放| 国产色婷婷99| 色网站视频免费| 亚洲av成人精品一二三区| 精品免费久久久久久久清纯| 1024手机看黄色片| 亚洲不卡免费看| av黄色大香蕉| 亚洲欧美日韩无卡精品| 国产精品久久久久久久电影| 亚洲人成网站在线播| 超碰97精品在线观看| 亚洲在线观看片| 看免费成人av毛片| 免费观看a级毛片全部| 18禁在线播放成人免费| 能在线免费观看的黄片| 黄色欧美视频在线观看| 精品熟女少妇av免费看| 日韩制服骚丝袜av| 天美传媒精品一区二区| 啦啦啦啦在线视频资源| 国产成人午夜福利电影在线观看| 在线天堂最新版资源| 久久精品国产自在天天线| 国产视频首页在线观看| 老司机影院成人| 国产亚洲av片在线观看秒播厂 | 国产69精品久久久久777片| 久久久精品大字幕| 人人妻人人澡人人爽人人夜夜 | 99视频精品全部免费 在线| 2021天堂中文幕一二区在线观| 精品久久久久久久久av| 免费搜索国产男女视频| 免费看日本二区| 亚洲国产日韩欧美精品在线观看| 久久热精品热| 丰满人妻一区二区三区视频av| 亚洲精品影视一区二区三区av| 久久精品久久久久久久性| 久久这里有精品视频免费| 亚洲成色77777| 免费看a级黄色片| 美女大奶头视频| 国产一区二区亚洲精品在线观看| 午夜免费激情av| 内地一区二区视频在线| 人妻制服诱惑在线中文字幕| av在线观看视频网站免费| 97在线视频观看| 亚洲欧美中文字幕日韩二区| 亚洲在线观看片| 国产精品一区二区在线观看99 | 久久久久久久久久久丰满| 伦精品一区二区三区| 国产三级中文精品| 成年女人永久免费观看视频| 亚洲精品国产av成人精品| 99热这里只有精品一区| 国产精品99久久久久久久久| 男人舔奶头视频| 精品久久久久久久久av| 深爱激情五月婷婷| 1024手机看黄色片| 国产在线一区二区三区精 | 日本午夜av视频| 狂野欧美激情性xxxx在线观看| 99久国产av精品国产电影| 亚洲久久久久久中文字幕| 久久久欧美国产精品| 身体一侧抽搐| av免费在线看不卡| 色播亚洲综合网| 99久国产av精品| 国产成人一区二区在线| 人人妻人人澡欧美一区二区| 国产精品三级大全| 欧美成人精品欧美一级黄| 色网站视频免费| 久久久久久久午夜电影| 一卡2卡三卡四卡精品乱码亚洲| 高清午夜精品一区二区三区| 欧美性感艳星| 久久久久久久亚洲中文字幕| 国产 一区精品| 性插视频无遮挡在线免费观看| 亚洲在线自拍视频| 看非洲黑人一级黄片| 午夜免费激情av| 97超碰精品成人国产| 久久精品夜夜夜夜夜久久蜜豆| 国产精品熟女久久久久浪| 日韩成人伦理影院| 国产高清视频在线观看网站| 久久99热6这里只有精品| av福利片在线观看| 免费看美女性在线毛片视频| 成人综合一区亚洲| 午夜a级毛片| 亚洲国产色片| 99久久九九国产精品国产免费| 亚洲18禁久久av| 干丝袜人妻中文字幕| 精品国产一区二区三区久久久樱花 | 日本一二三区视频观看| 久久久久国产网址| 久久久精品94久久精品| 男女那种视频在线观看| 国产不卡一卡二| 精品欧美国产一区二区三| 欧美人与善性xxx| 国产成人免费观看mmmm| 久久99热6这里只有精品| 最近中文字幕2019免费版| 久久久久久久午夜电影| 亚洲国产精品国产精品| 亚洲欧美日韩无卡精品| 最近2019中文字幕mv第一页| 欧美最新免费一区二区三区| 超碰av人人做人人爽久久| 观看免费一级毛片| 日韩精品有码人妻一区| 久久久久性生活片| 1000部很黄的大片| 性插视频无遮挡在线免费观看| 成人午夜精彩视频在线观看| 国产伦精品一区二区三区视频9| 乱系列少妇在线播放| 精品少妇黑人巨大在线播放 | 老司机影院成人| 亚洲内射少妇av| 能在线免费看毛片的网站| 中文字幕精品亚洲无线码一区| 亚洲精品日韩av片在线观看| 最近中文字幕高清免费大全6| 久久草成人影院| 特级一级黄色大片| 日本午夜av视频| av卡一久久| 亚洲国产精品国产精品| 国产av码专区亚洲av| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 日韩欧美国产在线观看| 亚洲色图av天堂| 久久99热这里只有精品18| av女优亚洲男人天堂| 黄色配什么色好看| 激情 狠狠 欧美| av黄色大香蕉| 欧美日韩精品成人综合77777| 99在线视频只有这里精品首页| 久久久久国产网址| 免费看美女性在线毛片视频| 久久精品熟女亚洲av麻豆精品 | 国产av不卡久久| 久久久久久久国产电影| 亚洲真实伦在线观看| 国产亚洲精品久久久com| 日韩,欧美,国产一区二区三区 | 国产精品国产高清国产av| 久久久久久久午夜电影| 国产高清三级在线| 免费av毛片视频| 久久99热6这里只有精品| 大话2 男鬼变身卡| 亚洲国产最新在线播放| 高清视频免费观看一区二区 | 国产人妻一区二区三区在| 网址你懂的国产日韩在线| or卡值多少钱| 看片在线看免费视频| 国产精品一及| 18禁动态无遮挡网站| 日韩一本色道免费dvd| 一本久久精品| 色网站视频免费| 一个人免费在线观看电影| 99热精品在线国产| 亚洲精品色激情综合| 午夜精品国产一区二区电影 | 欧美日韩国产亚洲二区| 九九热线精品视视频播放| 老师上课跳d突然被开到最大视频| 美女大奶头视频| 亚洲人与动物交配视频| 国产精品一区二区性色av| 亚洲高清免费不卡视频| 伦理电影大哥的女人| 中文字幕熟女人妻在线| 可以在线观看毛片的网站| www.色视频.com| 国产v大片淫在线免费观看| 国产三级中文精品| 99在线视频只有这里精品首页| 欧美最新免费一区二区三区| 性插视频无遮挡在线免费观看| 国产精品99久久久久久久久| 嫩草影院精品99| 欧美97在线视频| 久久久成人免费电影| 晚上一个人看的免费电影| 午夜福利在线在线| 一级黄片播放器| 大话2 男鬼变身卡| 在现免费观看毛片| 日本黄大片高清| 成人无遮挡网站| 人妻制服诱惑在线中文字幕| 最近中文字幕高清免费大全6| 国产成人午夜福利电影在线观看| 国产精品日韩av在线免费观看| 国产高清三级在线| 免费不卡的大黄色大毛片视频在线观看 | 级片在线观看| 久久亚洲精品不卡| 亚洲国产精品成人久久小说| 特级一级黄色大片| 哪个播放器可以免费观看大片| 亚洲欧美精品自产自拍| 久久久久久久午夜电影| 九九爱精品视频在线观看| 国产精品国产高清国产av| 亚洲自偷自拍三级| 亚洲av电影不卡..在线观看| 日韩人妻高清精品专区| 一区二区三区乱码不卡18| 赤兔流量卡办理| 97人妻精品一区二区三区麻豆| 国产精华一区二区三区| 久久亚洲国产成人精品v| 亚洲伊人久久精品综合 | 国产淫语在线视频| 色噜噜av男人的天堂激情| 乱系列少妇在线播放| 亚洲欧美日韩东京热| 久久久久久国产a免费观看| 蜜桃久久精品国产亚洲av| 看免费成人av毛片| 天堂√8在线中文| 亚洲欧美精品综合久久99| 中文亚洲av片在线观看爽| 国产一区二区在线av高清观看| 麻豆av噜噜一区二区三区| 在线a可以看的网站| 有码 亚洲区| 欧美极品一区二区三区四区| 身体一侧抽搐| 在线观看美女被高潮喷水网站| 国产精品永久免费网站| 国产乱人视频| 欧美zozozo另类| 可以在线观看毛片的网站| 哪个播放器可以免费观看大片| 99久久精品国产国产毛片| 久久久久久久久久成人| av免费在线看不卡| 麻豆av噜噜一区二区三区| 国产一级毛片七仙女欲春2| 久久6这里有精品| 国产精品电影一区二区三区| 日韩精品有码人妻一区| 国产人妻一区二区三区在| 国产精品久久久久久久电影| 2021少妇久久久久久久久久久| 99视频精品全部免费 在线| av国产久精品久网站免费入址| 国产精品.久久久| 岛国在线免费视频观看| 久久久久久久久久久免费av| 久久韩国三级中文字幕| 人人妻人人澡人人爽人人夜夜 | 国产真实乱freesex| 麻豆久久精品国产亚洲av| 亚洲欧美日韩高清专用| 22中文网久久字幕| 久久精品国产亚洲网站| 中文欧美无线码| 麻豆av噜噜一区二区三区| 亚洲精品,欧美精品| 国产精品美女特级片免费视频播放器| 国产精品一区二区三区四区免费观看| 亚洲成人中文字幕在线播放| 日韩一本色道免费dvd| 69av精品久久久久久| 久久人妻av系列| 亚洲精品自拍成人| 搡老妇女老女人老熟妇| 国产亚洲av片在线观看秒播厂 | 国产成人午夜福利电影在线观看| 日韩制服骚丝袜av| a级毛色黄片| 麻豆久久精品国产亚洲av| 嫩草影院入口| kizo精华| 黑人高潮一二区| 国产久久久一区二区三区| 亚洲成人中文字幕在线播放| a级毛色黄片| 国产高潮美女av| 亚洲国产最新在线播放| 午夜爱爱视频在线播放| 国产伦一二天堂av在线观看| 少妇的逼好多水| 高清在线视频一区二区三区 | 日本猛色少妇xxxxx猛交久久| 中文字幕免费在线视频6| 欧美一区二区精品小视频在线| 亚洲av熟女| 免费观看精品视频网站| 久久亚洲精品不卡| 99热6这里只有精品| 免费观看在线日韩| 成人漫画全彩无遮挡| 99热这里只有是精品50| 欧美bdsm另类| 国产乱来视频区| 身体一侧抽搐| 精品久久久久久久末码| 欧美日本视频| 69人妻影院| 中文字幕久久专区| 亚洲怡红院男人天堂| 国产69精品久久久久777片| 成人毛片a级毛片在线播放| 欧美成人a在线观看| 久久亚洲国产成人精品v| 欧美一区二区国产精品久久精品| 夜夜爽夜夜爽视频| 99热网站在线观看| 久久久久久久国产电影| av在线观看视频网站免费| 国产黄色视频一区二区在线观看 | 亚洲在线观看片| 国产不卡一卡二| 国产人妻一区二区三区在| av.在线天堂| 观看美女的网站| 丝袜喷水一区| 国产 一区精品| 热99re8久久精品国产| 三级经典国产精品| 亚洲av电影在线观看一区二区三区 | 日产精品乱码卡一卡2卡三| 97热精品久久久久久| 91狼人影院| 亚洲美女视频黄频| 99热6这里只有精品| 人体艺术视频欧美日本| 日本免费a在线| 亚洲丝袜综合中文字幕| 亚洲av.av天堂| 亚洲人成网站在线播| 国产三级在线视频| 乱系列少妇在线播放| 亚洲第一区二区三区不卡| 精品久久久久久久末码| www.av在线官网国产| 欧美一区二区亚洲| 中文字幕av在线有码专区| АⅤ资源中文在线天堂| 在线播放国产精品三级| av免费观看日本| 三级国产精品片| 日韩一本色道免费dvd| 在现免费观看毛片| 在线天堂最新版资源| 美女内射精品一级片tv| 你懂的网址亚洲精品在线观看 | 国产亚洲5aaaaa淫片| 女的被弄到高潮叫床怎么办| 久久久久久伊人网av| 免费观看精品视频网站| 我要搜黄色片| 99视频精品全部免费 在线| av女优亚洲男人天堂| 只有这里有精品99| 内地一区二区视频在线| 久久精品影院6| 亚洲精华国产精华液的使用体验| 中文乱码字字幕精品一区二区三区 | 你懂的网址亚洲精品在线观看 | 免费播放大片免费观看视频在线观看 | 人体艺术视频欧美日本| 久99久视频精品免费| 亚洲国产精品sss在线观看| 99久久人妻综合| 国产av不卡久久| 国产伦在线观看视频一区| 国产成人a∨麻豆精品| 国产一级毛片七仙女欲春2| 亚洲国产精品成人久久小说| 美女大奶头视频| 国产综合懂色| 最近视频中文字幕2019在线8| 欧美不卡视频在线免费观看| 国产老妇伦熟女老妇高清| 人人妻人人澡欧美一区二区| 国产乱人偷精品视频| 有码 亚洲区| 国产精品乱码一区二三区的特点| 毛片女人毛片| 2022亚洲国产成人精品| 蜜桃久久精品国产亚洲av| 又粗又硬又长又爽又黄的视频| 免费av观看视频| 69av精品久久久久久| 大话2 男鬼变身卡| 男人狂女人下面高潮的视频| 在线免费观看的www视频| 看黄色毛片网站| 99国产精品一区二区蜜桃av| 两个人的视频大全免费| 亚洲精品456在线播放app| 最近最新中文字幕免费大全7| 久久久久久久久中文| 色播亚洲综合网| 午夜福利网站1000一区二区三区| 国产精品久久久久久久久免| 亚州av有码| 久久久久免费精品人妻一区二区| 亚洲国产最新在线播放| 汤姆久久久久久久影院中文字幕 | 免费一级毛片在线播放高清视频| 日日干狠狠操夜夜爽| 欧美三级亚洲精品| 超碰97精品在线观看| 亚洲一级一片aⅴ在线观看| 国产精品人妻久久久久久| 欧美成人a在线观看| 日本免费一区二区三区高清不卡| 国产91av在线免费观看| 男女边吃奶边做爰视频| 三级经典国产精品| 国产黄色视频一区二区在线观看 | 99热精品在线国产| 欧美zozozo另类| 91久久精品电影网| 免费黄网站久久成人精品| 有码 亚洲区| 伦理电影大哥的女人| 成人性生交大片免费视频hd| 久久久久精品久久久久真实原创| 秋霞伦理黄片| 舔av片在线| 精品少妇黑人巨大在线播放 | 久久精品熟女亚洲av麻豆精品 | 禁无遮挡网站| 激情 狠狠 欧美| 赤兔流量卡办理| 青春草亚洲视频在线观看| 国产伦一二天堂av在线观看| 天美传媒精品一区二区| 亚洲国产精品合色在线| 久久韩国三级中文字幕| 最近中文字幕2019免费版| 2021少妇久久久久久久久久久| 两个人的视频大全免费| 亚洲人与动物交配视频| 2021天堂中文幕一二区在线观| 91精品国产九色| 国内揄拍国产精品人妻在线| 又爽又黄a免费视频| 亚洲自偷自拍三级| 国产激情偷乱视频一区二区| 听说在线观看完整版免费高清| 久久久久久久久久成人| 久久6这里有精品| 国产精品一区二区在线观看99 | 久久久色成人| 色噜噜av男人的天堂激情| 国产激情偷乱视频一区二区| 好男人视频免费观看在线| 蜜臀久久99精品久久宅男| 国产色爽女视频免费观看| 在线观看美女被高潮喷水网站| 大话2 男鬼变身卡| 国产91av在线免费观看| 综合色av麻豆| 在线天堂最新版资源| 又爽又黄无遮挡网站| 欧美精品国产亚洲| 国产白丝娇喘喷水9色精品| 51国产日韩欧美| 色综合亚洲欧美另类图片| 国产伦理片在线播放av一区| 国产精品嫩草影院av在线观看| 26uuu在线亚洲综合色| 夜夜爽夜夜爽视频| 91久久精品国产一区二区成人| 久久精品人妻少妇| 国产大屁股一区二区在线视频| 一级二级三级毛片免费看| 日本黄大片高清| 内地一区二区视频在线| 最近视频中文字幕2019在线8| 精品熟女少妇av免费看| 欧美另类亚洲清纯唯美| 激情 狠狠 欧美| 国产免费福利视频在线观看| 免费黄网站久久成人精品| 我要看日韩黄色一级片| 日本黄大片高清| 亚洲精品乱码久久久v下载方式| 青春草亚洲视频在线观看| 寂寞人妻少妇视频99o| 欧美另类亚洲清纯唯美| 噜噜噜噜噜久久久久久91| av.在线天堂| 午夜精品国产一区二区电影 | 久久国产乱子免费精品| 国产精品野战在线观看| 久久久久九九精品影院| 日本午夜av视频| 中文字幕av在线有码专区| 毛片女人毛片| 热99在线观看视频| 国产伦理片在线播放av一区| 久久久国产成人免费| 国产精品久久久久久精品电影| 亚洲在久久综合| 最近的中文字幕免费完整| 亚洲av免费在线观看| 欧美不卡视频在线免费观看| 国产精品国产三级国产专区5o | 亚洲欧美日韩东京热| 中文字幕精品亚洲无线码一区| 亚洲av免费在线观看| 国语自产精品视频在线第100页| 国产精品一二三区在线看| АⅤ资源中文在线天堂|