• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于三階段生成網(wǎng)絡(luò)的圖像修復(fù)

    2023-01-30 10:05:56邵新茹葉海良曹飛龍
    模式識別與人工智能 2022年12期
    關(guān)鍵詞:紋理邊緣損失

    邵新茹 葉海良 楊 冰 曹飛龍

    圖像修復(fù)[1-2]是圖像處理中的一個重要領(lǐng)域,旨在使用視覺上合理的內(nèi)容填補圖像中的受損區(qū)域,生成高質(zhì)量的圖像.目前,圖像修復(fù)已成為計算機視覺領(lǐng)域的研究熱點之一,并應(yīng)用于目標移除[3]、圖像編輯[4]、目標檢測[5]和老照片修復(fù)[6]等諸多領(lǐng)域.

    傳統(tǒng)的圖像修復(fù)方法分為基于擴散的方法[7]和基于塊的方法[8].基于擴散的方法旨在將圖像受損區(qū)域邊緣的像素信息滲透傳播到受損區(qū)域.基于塊的方法是將圖像分為若干小塊,根據(jù)小塊之間相似度將最相關(guān)的小塊填補到受損區(qū)域的相應(yīng)位置.然而,這些傳統(tǒng)方法只是在圖像水平上機械地運算,沒有學習能力,無法捕獲圖像更深層的語義特征.

    隨著深度學習技術(shù)的發(fā)展,學者們提出大量的基于深度學習的圖像修復(fù)方法,并成為當前的主流方法.Pathak等[9]將深度學習引入圖像修復(fù)任務(wù),提出上下文編碼器,采用編碼-解碼的網(wǎng)絡(luò)結(jié)構(gòu)對圖像進行語義修復(fù).隨后,憑借卷積神經(jīng)網(wǎng)絡(luò)(Convo-lutional Neural Network,CNN)[10]強大的表示能力和生成對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)[11]強大的生成能力,研究者在上下文編碼器的基礎(chǔ)上改進圖像修復(fù)方法.Iizuka等[12]利用空洞卷積[13]捕獲遠距離的上下文信息,用于填充受損區(qū)域,并提出全局一致和局部一致的判別器,保證生成的圖像具有全局和局部的一致性.Wang等[14]使用三個不同大小的卷積核提取圖像三個尺度的特征,保證特征提取的全面性.Zeng等[15]提出PEN-Net(Pyramid-Context Encoder Network),利用上下文注意力機制[16],通過相似度學習的方式恢復(fù)多個尺度的特征.Liu等[17]針對圖像修復(fù)任務(wù)的特點,改進原始卷積,提出部分卷積,確保提取像素點的有效性.

    此外,兩階段網(wǎng)絡(luò)架構(gòu)也被用于圖像修復(fù)任務(wù).Yu等[16]設(shè)計兩階段修復(fù)網(wǎng)絡(luò),第一階段先對受損圖像進行粗修復(fù),第二階段對粗修復(fù)的圖像進行精細化.進一步,Yu等又引入門控卷積[18]和Patch-GAN[19]的鑒別器改進先前工作,獲得更優(yōu)性能.

    然而,上述方法往往缺少先驗的指導,導致生成的圖像可能出現(xiàn)不合理的內(nèi)容,如顏色偏差、邊緣不明確和紋理模糊等.

    為此,一些研究者引入不同的先驗以指導圖像修復(fù).一方面,為了獲取圖像全局的色彩結(jié)構(gòu)信息,Ren等[20]引入平滑圖像[21]作為先驗,設(shè)計兩階段網(wǎng)絡(luò),第一階段重建受損平滑圖像,獲得圖像的全局色彩結(jié)構(gòu),以此作為先驗指導第二階段受損圖像的修復(fù).Qiu等[22]也采用同樣的先驗和網(wǎng)絡(luò)架構(gòu).

    在上述方法中,第一階段獲取色彩結(jié)構(gòu)先驗的過程都是建立在RGB色彩域.然而,RGB色彩域?qū)D像色彩的表征并不直觀,很難使用精確的數(shù)值表示色彩強度,并且R、G、B三個顏色分量之間高度相關(guān),任意一個分量出現(xiàn)偏差,會對圖像色彩造成很大影響.因此,為了使獲取的先驗具有較直觀的色彩強度表征,考慮在其它色彩域中進行色彩生成具有一定的研究意義.

    另一方面,為了使圖像獲得合理的邊緣特征,Nazeri等[23]提出邊緣指導[24]的兩階段網(wǎng)絡(luò)框架,第一階段先恢復(fù)受損的邊緣,并將恢復(fù)好的邊緣當作先驗指導第二階段圖像的修復(fù).Xu等[25]也提出E2I(Generative Inpainting from Edge to Image)這種類似方法.

    然而,上述方法的邊緣學習框架存在如下問題.1)第一階段中直接使用網(wǎng)絡(luò)修復(fù)受損邊緣,效果通常不穩(wěn)定,很難獲得合理的邊緣,影響后續(xù)的圖像修復(fù)過程.2)第二階段中輸入圖像仍是受損的,僅依賴邊緣指導對圖像的受損區(qū)域進行填充往往是困難的.因此,設(shè)計一種更有效的邊緣學習方法至關(guān)重要.

    此外,圖像紋理細節(jié)的合成質(zhì)量往往也影響圖像修復(fù)的性能.近來,一些研究者[26-27]致力于設(shè)計不同的網(wǎng)絡(luò)模塊合成圖像紋理細節(jié),旨在生成更清晰和逼真的圖像.

    綜上所述,盡管上述對色彩、邊緣和紋理的生成方法取得較優(yōu)性能,但其存在的問題仍需進一步改進.因此,本文設(shè)計基于三階段生成網(wǎng)絡(luò)的圖像修復(fù),每個階段分別側(cè)重于對圖像的色彩、邊緣及紋理的合成,最終構(gòu)建兼具色彩、邊緣與紋理于一體的圖像修復(fù)框架.具體而言,第一階段為HSV色彩生成階段.將圖像由RGB色彩域轉(zhuǎn)至HSV色彩域,以平滑HSV圖像為輸入,設(shè)計色彩生成網(wǎng)絡(luò),通過引入L1損失約束重建圖像的全局色彩,生成一個較合理的色彩先驗.相比傳統(tǒng)的RGB色彩域,本文的三階段生成網(wǎng)絡(luò)色彩生成的過程建立在HSV色彩域中.HSV色彩域不僅能從色調(diào)、飽和度和亮度三方面直觀表達色彩,而且對色彩的感知更敏感,這有利于進一步挖掘圖像色彩信息[28-30].第二階段是邊緣優(yōu)化階段,重點對圖像的邊緣進行細化.構(gòu)建邊緣優(yōu)化網(wǎng)絡(luò),以邊緣損失為約束,實現(xiàn)對圖像邊緣的優(yōu)化,再通過邊緣提取算法[24]獲得邊緣.該方式的優(yōu)勢在于其獲取的邊緣更準確,在邊緣約束條件下通過修復(fù)受損圖像并提取邊緣,緩解已有方法[23-25]直接使用網(wǎng)絡(luò)進行邊緣生成的不穩(wěn)定問題,同時為后續(xù)的修復(fù)過程提供更全面完整的信息.第三階段是紋理合成階段,該階段旨在對圖像的紋理進行細化.設(shè)計特征雙向融合解碼器,對圖像的高級特征與低級特征進行自適應(yīng)融合,實現(xiàn)對圖像細節(jié)的增強.同時,引入PatchGAN判別器[19],使生成圖像的細節(jié)更逼真.上述三個階段順次連接,每個階段都將上一階段的輸出作為輸入,合成的內(nèi)容通過損失約束各有側(cè)重,保證最終生成的圖像具有較合理的色彩、清晰的邊緣及紋理細節(jié).

    1 三階段生成網(wǎng)絡(luò)

    1.1 網(wǎng)絡(luò)整體框架

    本文提出三階段生成網(wǎng)絡(luò),整體框架如圖1所示.

    本文網(wǎng)絡(luò)分為HSV色彩生成階段、邊緣優(yōu)化階段和紋理合成階段,三個階段依次銜接,旨在通過三個階段的修復(fù)使生成圖像具有合理的色彩、邊緣和清晰的紋理.

    HSV色彩生成階段側(cè)重于重建圖像受損的全局色彩,從而得到一個能代表圖像全局色彩信息的先驗.首先,構(gòu)造平滑HSV圖像(如圖2所示),以此作為色彩生成的對象.構(gòu)造方法如下:先將圖像利用平滑結(jié)構(gòu)算法[21]計算平滑圖像,再將平滑圖像利用色彩轉(zhuǎn)換算法[30]由RGB色彩域轉(zhuǎn)至HSV色彩域.其中,平滑結(jié)構(gòu)算法可去除難以捕獲的高頻信息,從而降低重建全局色彩結(jié)構(gòu)的難度.

    圖1 本文網(wǎng)絡(luò)整體框架圖Fig.1 Overall architecture of the proposed network

    (a)原始圖像(a)Original images

    與已有方法[20-22]不同的是,本文色彩生成階段通過色彩轉(zhuǎn)換算法[30]將色彩生成過程由RGB色彩域轉(zhuǎn)至HSV色彩域,這主要取決于HSV色彩空間的如下優(yōu)勢[30]:HSV色彩空間可從色調(diào)、飽和度和亮度三方面對圖像進行表征,比RGB色彩空間具有更直觀的色彩描述,對色彩的感知更敏感,這對圖像色彩信息的捕獲是更有利的.真實圖像Igt可按照上述構(gòu)造方法計算平滑HSV圖像Cgt,獲得受損的平滑HSV圖像:

    Cin=Cgt⊙(1-M),

    其中,M表示二值掩碼,1表示受損區(qū)域,0表示未受損區(qū)域,⊙表示逐元素相乘.

    其次,將Cin輸入色彩生成網(wǎng)絡(luò)(Color Genera- tion Network,CGNet)進行色彩重建,可深度挖掘受損的平滑HSV圖像的色彩信息,并對其進行合理修復(fù),從而生成可信的色彩.生成的平滑HSV圖像為:

    Cout=CGNet(Cin‖M),

    其中,‖表示按通道維度拼接,CGNet(·)表示色彩生成網(wǎng)絡(luò).隨后,將Cout中生成的像素與Cin中已知的像素合并,輸出圖像

    Cme=Cout⊙M⊕Cin⊙(1-M),

    其中⊕表示逐元素相加.

    最后,平滑HSV圖像Cme由HSV色彩域轉(zhuǎn)回RGB色彩域,從而得到Ic.如圖1所示,Ic具有圖像全局的色彩結(jié)構(gòu)信息,這將被當作先驗指導后續(xù)修復(fù)過程.

    邊緣優(yōu)化階段重點在于優(yōu)化圖像邊緣,并輸出合理邊緣.Nazeri等[23]先使用網(wǎng)絡(luò)修復(fù)受損邊緣,再以此為先驗指導修復(fù)受損圖像.與文獻[23]不同,本文邊緣優(yōu)化階段是在色彩先驗的指導下先對圖像而非邊緣進行修復(fù),并在邊緣損失函數(shù)[31]的約束下優(yōu)化圖像中的邊緣信息,進而提取邊緣.在此階段,既能得到更合理的邊緣,又能獲取具有合理邊緣信息的圖像,相比文獻[23]的工作,這種方式能為后續(xù)的修復(fù)過程提供更準確完整的信息.

    具體地,將Ic當作色彩先驗連同受損圖像Iin一起輸入邊緣優(yōu)化網(wǎng)絡(luò)(Edge Optimization Network,EONet),損毀圖像:

    Iin=Igt⊙(1-M).

    EONet可在邊緣損失[31]的約束下調(diào)整圖像的邊緣結(jié)構(gòu).生成圖像

    Sout=EONet(Iin‖Ic‖M),

    其中EONet(·)表示邊緣優(yōu)化網(wǎng)絡(luò).隨后,合并Sout中生成的內(nèi)容與Iin中已知的內(nèi)容,得到輸出圖像:

    Sme=Sout⊙M⊕Iin⊙(1-M).

    因為色彩先驗和邊緣約束的介入,此圖像具有合理的色彩和邊緣.

    隨后,通過Canny邊緣提取算法[24]提取Sme的邊緣Eme.Sme和Eme緊接著傳入下一階段.

    紋理合成階段重點增強圖像的紋理細節(jié),生成更精細的圖像內(nèi)容.具體地,邊緣Eme連同圖像Sme一同輸入紋理合成網(wǎng)絡(luò)(Texture Synthesis Net- work,TSNet),用于細化圖像的紋理,生成精細的圖像:

    Iout=TSNet(Sme‖Eme‖M),

    其中TSNet(·)表示紋理合成網(wǎng)絡(luò).

    在這一階段,邊緣Eme的加入可有效指導圖像紋理細節(jié)的合成.最后,合并Iout中生成的內(nèi)容與Iin中已知的內(nèi)容,得到最終輸出圖像:

    Ifinal=Iout⊙M⊕Iin⊙(1-M).

    上述三個階段合成的內(nèi)容各有側(cè)重點,采用串聯(lián)網(wǎng)絡(luò)結(jié)構(gòu)的目的是在保留上一階段特性的同時,還可在下一階段合成新的特性,保證最終生成的圖像同時具有較合理的色彩、邊緣及清晰的紋理.

    此外,判別器的引入通??墒股蓤D像的細節(jié)更逼真清晰[3].如圖1所示,在網(wǎng)絡(luò)末尾,添加判別器,對生成器生成圖像的質(zhì)量進行評判打分.由于PatchGAN[19]中的判別器被廣泛應(yīng)用于圖像修復(fù)任務(wù),并獲得較優(yōu)性能,本文沿用這種判別器.生成器和判別器在相互對抗的過程中使生成器的生成能力和判別器的評判能力均得到提升,這也符合生成對抗網(wǎng)絡(luò)[11]的結(jié)構(gòu).

    1.2 色彩生成網(wǎng)絡(luò)

    色彩生成網(wǎng)絡(luò)(CGNet)框架如圖3所示,以受損平滑HSV圖像為輸入,可在HSV色彩空間中挖掘圖像色彩分布的同時,對受損區(qū)域進行合理填充.CGNet包含編碼器、瓶頸層和解碼器三部分.編碼器包含3層卷積層,用于將受損圖像映射到高級特征空間.瓶頸層由4個多感受野殘差聚合模塊和1個通道-空間關(guān)注模塊組成,可恢復(fù)高級特征.解碼器包含3層卷積層,用于將恢復(fù)好的高級特征映射到圖像水平.

    多感受野殘差聚合模塊結(jié)合空洞卷積[13]和ResNet[32]的優(yōu)勢,具有強大的特征聚合功能.此模塊以受損特征為輸入,可搜集特征中多個感受野的上下文信息,并將這些信息聚合到受損區(qū)域,從而實現(xiàn)特征恢復(fù).

    圖3 色彩生成網(wǎng)絡(luò)框架圖Fig.3 Framework of color generation network

    首先,一層卷積層將輸入特征X的通道數(shù)壓縮為原來的1/4,得到壓縮特征X0.X0傳入4層串聯(lián)的空洞卷積層中,每層空洞卷積都會搜集到具有不同感受野的特征,這些搜集的信息會作為填補受損區(qū)域的原材料.這一過程表示為

    Xr+1=ReLU(DConv2r(Xr)),

    (1)

    其中,r=0,1,2,3,DConv2r(·)表示卷積核大小為3、空洞率為2r的空洞卷積層,ReLU(·)表示修正線性單元.這一步既擴大網(wǎng)絡(luò)的感受野,又完成上下文信息的多樣化收集.

    通過式(1),可得到4個具有不同感受野的特征,即X1~X4.這些特征按通道維度拼接,并通過一層卷積層整合成一個綜合的上下文特征Xc.這時,Xc與輸入特征X的維度相同,使用一個殘差連接[32]使兩者相加,得到多感受野殘差聚合模塊的輸出:

    X′=X⊕Xc.

    堆疊多個多感受野殘差聚合模塊,上下文信息能反復(fù)聚合到受損區(qū)域,有利于填補具有較大受損區(qū)域的圖像.

    其中,Conv5×5(·)表示卷積核大小為5的卷積層,Avgpoolc(·)表示按通道維度的平均池化.

    多感受野殘差聚合模塊和通道-空間關(guān)注模塊的配合使用可聚合最相關(guān)的上下文信息到受損區(qū)域,從而有效修復(fù)平滑HSV圖像.

    1.3 邊緣優(yōu)化網(wǎng)絡(luò)

    邊緣優(yōu)化網(wǎng)絡(luò)(EONet)框架如圖4所示,以受損圖像和色彩先驗為輸入,重點優(yōu)化圖像邊緣.由于存在色彩先驗作為指導,大幅降低修復(fù)受損圖像的難度.同時,在邊緣損失函數(shù)[31]的約束下,網(wǎng)絡(luò)會朝著邊緣最優(yōu)的方向?qū)D像進行恢復(fù).EONet的網(wǎng)絡(luò)結(jié)構(gòu)很簡潔,由編碼器、瓶頸層和解碼器組成.編碼器和解碼器都包含3層卷積層,瓶頸層包含4個文獻[32]的殘差模塊.

    圖4 邊緣優(yōu)化網(wǎng)絡(luò)框架圖Fig.4 Framework of edge optimization network

    1.4 紋理合成網(wǎng)絡(luò)

    紋理合成網(wǎng)絡(luò)(TSNet)框架如圖5所示,網(wǎng)絡(luò)以邊緣優(yōu)化階段輸出的圖像和相應(yīng)的邊緣作為輸入,側(cè)重于增強圖像的紋理細節(jié).TSNet包含1個編碼器和1個特征雙向融合解碼器.編碼器包含4層卷積層,特征雙向融合解碼器包含5層卷積層和4個雙向門控融合模塊.

    圖5 紋理合成網(wǎng)絡(luò)框架圖Fig.5 Framework of texture synthesis network

    與傳統(tǒng)的跳躍連接[34]采用的直接拼接方式不同,雙向門控融合模塊可通過兩個門控機制自適應(yīng)地融合編碼器的淺層特征和解碼器的深層特征,權(quán)衡淺層特征和深層特征.這樣不僅可保留圖像的原始特征,也可挑選預(yù)測的新內(nèi)容.具體過程如下.

    編碼器中的特征記為Yen,解碼器中的特征記為Yde,這兩個特征具有相同維度.雙向門控融合模塊以這兩個特征為輸入,通過兩個門控機制[18]學習兩個門控權(quán)重:

    gen=δ(Conv1×1(Yen)),

    gde=δ(Conv1×1(Yde)).

    然后,兩個門控權(quán)重被用于實現(xiàn)Yen和Yde之間的交互融合,使Yen和Yde可相互獲取對自身合成有利的信息,即

    Y′en=Yen⊕(Yde⊙gen),

    Y′de=Yde⊕(Yen⊙gde).

    接著,Y′en和Y′de按通道維度拼接,得到雙向門控融合模塊的最終輸出.

    總之,TSNet以邊緣為指導,通過特征解碼方式,可使圖像紋理細節(jié)變得更清晰.

    1.5 損失函數(shù)

    大部分深度圖像修復(fù)方法都使用L1損失、感知損失[17]、風格損失[17]、對抗損失,本文網(wǎng)絡(luò)沿用這些損失函數(shù).此外,也選擇邊緣損失作為本文的損失函數(shù).

    HSV色彩生成階段損失函數(shù)如下.L1損失用于度量生成的平滑HSV圖像Cout與真實平滑HSV圖像Cgt之間的誤差,目標是在HSV色彩空間中重建圖像的色彩,損失

    Lcg=‖Cout-Cgt‖1,

    其中‖·‖1表示L1距離.

    邊緣優(yōu)化階段損失函數(shù)如下.采用L1損失和邊緣損失[31]加權(quán)和的形式度量生成圖像Sout和真實圖像Igt之間內(nèi)容和邊緣的誤差,實現(xiàn)對圖像邊緣結(jié)構(gòu)的優(yōu)化,損失

    Leo=μ‖Sout-Igt‖1+

    (1-μ)‖C(Sout)-C(Igt)‖1,

    其中,C(·)表示Canny邊緣提取算法[24],μ(0<μ<1)表示損失權(quán)重,控制邊緣約束的力度,本文中μ=0.8.

    紋理合成階段損失函數(shù)如下.首先,L1損失用于保證生成圖像Iout和真實圖像Igt絕對距離相近,損失

    Lrec=‖Iout-Igt‖1.

    其次,感知損失[17]和風格損失[17]是借助預(yù)訓練的VGG-16[35]計算的.這2個損失函數(shù)可在高級特征的水平上衡量生成圖像Iout和真實圖像Igt的差距.

    感知損失

    其中,φl(·)表示VGG-16[35]的第l層池化層,Hl、Wl表示第l層輸出特征的高、寬,Cl表示第l層輸出特征的通道數(shù).

    風格損失

    最后,對抗損失[11]的加入可使生成圖像具有逼真的細節(jié).對生成器來說,它旨在使生成圖像盡可能地逼近真實圖像,以至于判別器無法區(qū)分兩者.那么生成器的對抗損失為:

    其中,D表示判別器,z表示服從生成圖像分布的樣本,log(·)表示對數(shù)函數(shù).

    對判別器而言,希望區(qū)分生成圖像和真實圖像,判別器的對抗損失為:

    其中x表示服從于真實圖像分布的樣本.

    最終紋理合成階段的總損失函數(shù)為:

    對于λper、λsty、λadv這些損失權(quán)重,許多工作都繼承文獻[23]的設(shè)置,本文也采用同樣的參數(shù)設(shè)定,即

    λper=0.1,λsty=250,λadv=0.1.

    綜上所述,本文網(wǎng)絡(luò)總的損失函數(shù)為:

    Lsum=Lcg+Leo+Lts.

    2 實驗及結(jié)果分析

    2.1 實驗數(shù)據(jù)集

    本文采用Paris StreetView[9]、CelebA-HQ[36]圖像數(shù)據(jù)集和二值掩碼數(shù)據(jù)集[17]進行實驗,其中,二值掩碼數(shù)據(jù)集用于損毀圖像.

    Paris StreetView數(shù)據(jù)集包含15 000幅巴黎街景圖像,測試集包含100幅圖像,訓練集包含14 900幅圖像.CelebA-HQ數(shù)據(jù)集包含30 000幅人臉圖像,2 000幅用于測試,28 000幅用于訓練.

    二值掩碼數(shù)據(jù)集包含12 000幅二值掩碼,并根據(jù)受損率分為6類,分別是1%~10%,10%~20%,20%~30%,30%~40%,40%~50%,50%~60%.

    2.2 實驗設(shè)置

    CGNet、EONet和TSNet詳細的網(wǎng)絡(luò)設(shè)置如表1所示,Conv表示卷積層,TConv表示反卷積層.K表示卷積核尺寸,S/U表示滑動步長或上采樣因子,P表示零填充數(shù).

    表1 CGNet、EONet和TSNet的網(wǎng)絡(luò)設(shè)置Table 1 Network settings of CGNet,EONet and TSNet

    本文所有的實驗都在NVIDIA RTX 2080Ti GPU上進行,并通過PyTorch框架實現(xiàn).在訓練過程中,使用Adam(Adaptive Moment Estimation)優(yōu)化器[37]作為整個網(wǎng)絡(luò)的優(yōu)化器,內(nèi)置參數(shù)β1=0.5,β2=0.9.生成器的學習率為1×10-4,判別器的學習率為1×10-5.

    與文獻[17]的操作相同,在模型收斂后學習率降低為原來的0.1進行參數(shù)微調(diào).由于GPU內(nèi)存的限制,所有的圖像及對應(yīng)的二值掩碼都統(tǒng)一調(diào)整為256×256,批量大小設(shè)置為2.

    同時,本文使用峰值信噪比(Peak Signal to Noise Ratio,PSNR),結(jié)構(gòu)相似性(Structure Simila-rity,SSIM),平均L1距離(MeanL1)和LPIPS(Learned Perceptual Image Patch Similarity)作為圖像修復(fù)性能的評價指標.PSNR、SSIM值越大修復(fù)效果越優(yōu),MeanL1和LPIPS值越小修復(fù)效果越優(yōu).

    2.3 實驗結(jié)果對比

    為了證實本文網(wǎng)絡(luò)具有優(yōu)越的修復(fù)性能,選擇如下8種深度學習圖像修復(fù)網(wǎng)絡(luò)進行對比實驗:PEN-Net[15]、GatedConv(Gated Convolution)[18]、E2I[25]、文獻[26]網(wǎng)絡(luò)、文獻[27]網(wǎng)絡(luò)、RFR(Recurrent Fea-ture Reasoning)[38]、文獻[39]網(wǎng)絡(luò)、SIFNet(Split-Inpaint-Fuse Network)[40].為了公平起見,所有實驗均在相同的環(huán)境和設(shè)置下進行.

    各網(wǎng)絡(luò)在Paris StreetView、CelebA-HQ數(shù)據(jù)集上的定量對比結(jié)果如表2和表3所示,表中黑體數(shù)字表示最優(yōu)值.由表可見,本文網(wǎng)絡(luò)的定量指標結(jié)果總體上優(yōu)于其它網(wǎng)絡(luò).

    具體來說,Paris StreetView數(shù)據(jù)集上包含大量復(fù)雜的場景圖像,修復(fù)這種圖像極具挑戰(zhàn)性.本文網(wǎng)絡(luò)在4個指標上均有明顯優(yōu)勢,這說明本文網(wǎng)絡(luò)對修復(fù)復(fù)雜場景的圖像具有優(yōu)越性.在CelebA-HQ數(shù)據(jù)集上,由于人臉圖像的語義結(jié)構(gòu)都是相似的,修復(fù)這種圖像相對容易,本文網(wǎng)絡(luò)依舊可獲得偏好的定量結(jié)果,這說明本文網(wǎng)絡(luò)對人臉圖像的修復(fù)也具有優(yōu)越性能.

    表2 各網(wǎng)絡(luò)在Paris StreetView數(shù)據(jù)集上的定量對比結(jié)果Table 2 Quantitative result comparison of different networks on Paris StreetView dataset

    表3 各網(wǎng)絡(luò)在CelebA-HQ數(shù)據(jù)集上的定量對比結(jié)果Table 3 Quantitative result comparison of different networks on CelebA-HQ dataset

    各網(wǎng)絡(luò)在Paris StreetView、CelebA-HQ數(shù)據(jù)集上的可視化效果如圖6所示.

    具體地,Paris Street- View數(shù)據(jù)集上對比網(wǎng)絡(luò)生成的場景圖像存在模糊區(qū)域、偽影及結(jié)構(gòu)扭曲等不良的視覺效果,而本文網(wǎng)絡(luò)生成的圖像具有合理的邊緣結(jié)構(gòu)和清晰的細節(jié),如圖像中的窗戶框、管道和桿子.CelebA-HQ數(shù)據(jù)集上生成的人臉圖像會存在錯誤的顏色和偽影,而本文網(wǎng)絡(luò)生成的人臉圖像具有較好的視覺效果.

    進一步,通過放大的眼睛之間的對比可觀察到,本文網(wǎng)絡(luò)色彩生成更準確,如圖中男士的人臉圖像,本文網(wǎng)絡(luò)生成右眼與左眼顏色相同,都是藍色的,而其它網(wǎng)絡(luò)生成的眼睛是棕色的或黑色的,而且本文網(wǎng)絡(luò)生成的圖像細節(jié)更逼真.

    (a)輸入圖像(a)Input images

    2.4 消融實驗結(jié)果

    為了證實本文網(wǎng)絡(luò)的3個階段和提出模塊的有效性,在Paris StreetView數(shù)據(jù)集上進行消融實驗.

    本文網(wǎng)絡(luò)包含HSV色彩生成階段、邊緣優(yōu)化階段和紋理合成階段,為了證實3個階段各自的有效性,設(shè)計如下3組消融實驗:1)網(wǎng)絡(luò)1.移除本文網(wǎng)絡(luò)中的HSV色彩生成階段.2)網(wǎng)絡(luò)2.移除本文網(wǎng)絡(luò)中的邊緣優(yōu)化階段.3)網(wǎng)絡(luò)3.移除本文網(wǎng)絡(luò)中的紋理合成階段.本文還設(shè)計3個模塊,即多感受野殘差聚合模塊、通道-空間關(guān)注模塊和雙向門控融合模塊,為了證實它們各自的積極作用,也進行3組消融實驗:4)網(wǎng)絡(luò)4.將多感受野殘差聚合模塊替換為被大量工作廣泛使用的空洞殘差模塊[20,23,27],該模塊只有一種空洞率r=2.5)網(wǎng)絡(luò)5.移除通道-空間關(guān)注模塊.6)網(wǎng)絡(luò)6.將雙向門控融合模塊替換為傳統(tǒng)的跳躍連接[34].

    各網(wǎng)絡(luò)的消融實驗結(jié)果如表4所示,表中黑體數(shù)字表示最優(yōu)值.由表可觀察到,網(wǎng)絡(luò)1~網(wǎng)絡(luò)3的結(jié)果都與本文網(wǎng)絡(luò)結(jié)果具有較大差距,這反映HSV色彩生成階段、邊緣優(yōu)化階段和紋理合成階段對提升修復(fù)性能的有效性.同時,除了SSIM指標以外,網(wǎng)絡(luò)4~網(wǎng)絡(luò)6結(jié)果均差于本文網(wǎng)絡(luò),這說明多感受野殘差聚合模塊、通道-空間關(guān)注模塊和雙向門控融合模塊的加入可提升網(wǎng)絡(luò)的修復(fù)性能.

    表4 在Paris StreetView數(shù)據(jù)集上的消融實驗結(jié)果Table 4 Results of ablation experiments on Paris StreetView dataset

    為了佐證上述結(jié)論,消融實驗的視覺對比結(jié)果如圖7所示.一方面,對比網(wǎng)絡(luò)1~網(wǎng)絡(luò)3的圖像(見圖7(c)~(e))與本文網(wǎng)絡(luò)圖像(見圖7(i))可發(fā)現(xiàn),圖像(i)具有更合理的色彩和邊緣,細節(jié)更清晰,這定性說明三個階段中的每個階段都對提升圖像的視覺效果具有積極作用.

    與此同時,為了清楚展示邊緣優(yōu)化階段對圖像邊緣生成的有效性,對比網(wǎng)絡(luò)2和本文網(wǎng)絡(luò)的圖像邊緣(見圖7(j)、(k)),邊緣優(yōu)化階段的加入使圖像具有更合理的邊緣信息.另一方面,對比網(wǎng)絡(luò)4~網(wǎng)絡(luò)6的圖像(見圖7(f)~(h))和本文網(wǎng)絡(luò)圖像(見圖7(i)),可發(fā)現(xiàn)圖像(i)具有更清晰的紋理細節(jié),這證實多感受野殘差聚合模塊、通道-空間關(guān)注模塊和雙向門控融合模塊對提升圖像質(zhì)量具有一定作用.為了更加清楚地展示多感受野殘差聚合模塊和通道-空間關(guān)注模塊對色彩生成的有效性,可視化網(wǎng)絡(luò)4、網(wǎng)絡(luò)5和本文網(wǎng)絡(luò)生成的平滑HSV圖像(見圖7(l)~(n)).對比可得,圖像(n)生成的色彩圖像更全面合理,這表明多感受野殘差聚合模塊和通道-空間關(guān)注模塊可促進生成更合理的圖像色彩.

    (a)真實圖像 (b)輸入圖像 (c)網(wǎng)絡(luò)1圖像 (d)網(wǎng)絡(luò)2圖像(a)Real image (b)Input image (c)Image of network 1 (d)Image of network 2

    2.5 色彩生成方法的有效性驗證

    本節(jié)進行實驗,證實在HSV色彩生成階段中色彩生成方法的有效性和優(yōu)越性.本文的色彩生成方法與已有方法的最大區(qū)別是色彩生成過程并不是在RGB色彩域中進行,而是在HSV色彩域中進行.為了驗證這一點的有效性,設(shè)計如下消融實驗.定義網(wǎng)絡(luò)A,即移除本文網(wǎng)絡(luò)第一階段中的色彩轉(zhuǎn)換方法,在RGB色彩域中進行色彩生成[30].

    本文網(wǎng)絡(luò)與網(wǎng)絡(luò)A的有效性實驗結(jié)果如表5所示,表中黑體數(shù)字表示最優(yōu)值.由表可知,本文網(wǎng)絡(luò)的指標值優(yōu)于網(wǎng)絡(luò)A.

    與此同時,網(wǎng)絡(luò)A與本文網(wǎng)絡(luò)的視覺對比如圖8所示.由對比紅框中生成的內(nèi)容可知,網(wǎng)絡(luò)A生成色彩先驗的全局色彩和結(jié)構(gòu)并不合理,顏色也有偏差,導致最終生成圖像的色彩和結(jié)構(gòu)不合理.而本文網(wǎng)絡(luò)生成色彩先驗的結(jié)構(gòu)合理,顏色正確,最終生成圖像的視覺效果優(yōu)于網(wǎng)絡(luò)A.

    表5 本文網(wǎng)絡(luò)與網(wǎng)絡(luò)A的指標值對比Table 5 Index value comparison between the proposed network and network A

    (a)真實圖像 (b)輸入圖像 (c)網(wǎng)絡(luò)A圖像 (d)本文網(wǎng)絡(luò)圖像 (e)網(wǎng)絡(luò)A圖像色彩 (f)本文網(wǎng)絡(luò)色彩(a)Real image (b)Input image (c)Image of network A (d)Image of the proposed network (e)Color of network A (f)Color of the proposed network圖8 色彩生成方法消融實驗的視覺效果對比Fig.8 Visual effect comparison of ablation experiments of color generation methods

    上述實驗結(jié)果說明在HSV色彩域進行色彩生成的效果優(yōu)于在RGB色彩域進行色彩生成,這證實本文的色彩生成方法的有效性.

    此外,為了驗證本文網(wǎng)絡(luò)在色彩生成方面的優(yōu)越性,選擇如下相關(guān)網(wǎng)絡(luò):GatedConv[18]、Structure-Flow(Image Inpainting via Structure-Aware Appea-rance Flow)[20]、文獻[27]網(wǎng)絡(luò).

    對比各網(wǎng)絡(luò)的生成圖像結(jié)果,具體如圖9所示.由圖可見,對比網(wǎng)絡(luò)生成圖像的全局色彩并不合理,如門、墻壁都存在色彩偏差,圖像的色彩結(jié)構(gòu)也存在扭曲(如窗戶).

    而本文網(wǎng)絡(luò)生成的圖像不僅全局色彩結(jié)構(gòu)正確,而且圖像的顏色自然,細節(jié)清晰,這表明本文網(wǎng)絡(luò)在色彩生成方面的優(yōu)勢.

    (a)真實圖像 (b)輸入圖像 (c)GatedConv (d)文獻[27]網(wǎng)絡(luò) (e)StructureFlow (f)本文網(wǎng)絡(luò)(a)Real image (b)Input image (d)Network in [27] (f)The proposed network圖9 各網(wǎng)絡(luò)的生成圖像對比Fig.9 Comparison of generated images of different networks

    2.6 邊緣學習方法的有效性驗證

    本節(jié)進行實驗和分析,驗證本文的邊緣學習方法的有效性.本文的邊緣學習方法與已有邊緣學習方法的最大區(qū)別在于本文方法并非使用網(wǎng)絡(luò)直接對邊緣進行學習,而是在對圖像進行修復(fù)的過程中通過邊緣損失函數(shù)[31]的約束達到邊緣優(yōu)化的目的,進而獲取圖像邊緣.

    為了驗證這種方式的優(yōu)越性,設(shè)計如下消融實驗.定義網(wǎng)絡(luò)B,即與文獻[23]相同,使用網(wǎng)絡(luò)直接對邊緣進行學習.

    本文網(wǎng)絡(luò)與網(wǎng)絡(luò)B的有效性實驗結(jié)果對比如表6所示.由表可見,本文網(wǎng)絡(luò)的指標值遠優(yōu)于網(wǎng)絡(luò)B.

    表6 本文網(wǎng)絡(luò)與網(wǎng)絡(luò)B的指標值對比Table 6 Index value comparison between the proposed network and network B

    同時,網(wǎng)絡(luò)B和本文網(wǎng)絡(luò)的視覺對比如圖10所示.

    (a)真實圖像 (b)輸入圖像 (c)網(wǎng)絡(luò)B圖像 (d)本文網(wǎng)絡(luò)圖像 (e)網(wǎng)絡(luò)B邊緣 (f)本文網(wǎng)絡(luò)邊緣(a)Real image (b)Input image (c)Image of network B (d)Image of the proposed network (e)Edge of network B (f)Edge of the proposed network圖10 邊緣學習方法消融實驗的視覺效果對比Fig.10 Visual effect comparison of ablation experiments of edge learning methods

    由圖10可看出,相比網(wǎng)絡(luò)B,本文網(wǎng)絡(luò)生成的邊緣更完整準確.由此得出結(jié)論,本文的邊緣學習方法比已有的邊緣學習方法更有效.

    此外,為了驗證本文網(wǎng)絡(luò)生成邊緣的準確性,選擇如下對比網(wǎng)絡(luò):EdgeConnect(Structure Guided Image Inpainting Using Edge Prediction)[23]、E2I[25]、文獻[26]網(wǎng)絡(luò).下面重點對比生成圖像的邊緣,證實本文網(wǎng)絡(luò)在邊緣學習方面的優(yōu)勢.各網(wǎng)絡(luò)生成圖像對比如圖11所示.由圖可知,對比網(wǎng)絡(luò)生成的圖像并未獲得準確的邊緣,如窗戶框處的生成效果.而本文網(wǎng)絡(luò)可生成更好的邊緣特征.這表明本文邊緣學習方法的優(yōu)勢.

    (a)真實圖像 (b)輸入圖像 (c)EdgeConnect圖像 (d)E2I圖像 (e)文獻[26]網(wǎng)絡(luò)圖像(a)Real image (b)Input image (c)Image of EdgeConnect (d)Image of E2I (e)Image of network in [26]

    2.7 超參數(shù)討論

    本節(jié)討論邊緣優(yōu)化階段涉及的損失函數(shù)權(quán)重μ的取值.μ可控制邊緣約束的力度,μ值越大,邊緣約束力度越小,μ值越小,邊緣約束力度越大.為了探究μ值對網(wǎng)絡(luò)性能的影響,在Paris StreetView、CelebA-HQ數(shù)據(jù)集上利用受損率為30%~40%的二值掩碼進行實驗.μ不同對PSNR和LPIPS指標的影響如圖12所示.由圖可觀察到,在Paris Street-View數(shù)據(jù)集上,當μ=0.8,0.9時,網(wǎng)絡(luò)獲得最優(yōu)性能.在CelebA-HQ數(shù)據(jù)集上,當μ=0.7,0.8時,網(wǎng)絡(luò)獲得最優(yōu)性能.綜合上述兩點,本文網(wǎng)絡(luò)中當μ=0.8時,可達到對圖像邊緣最適合的約束力度.

    (a)PSNR (b)LPIPS圖12 μ值對網(wǎng)絡(luò)性能的影響Fig.12 Influence of μ on network performance

    2.8 實際應(yīng)用示例

    為了檢驗本文網(wǎng)絡(luò)的泛化能力,泛化到其它實際應(yīng)用中,如具有不同類型掩碼的圖像修復(fù)、目標移除[3]和人臉編輯[4].這些實際應(yīng)用的視覺效果如圖13所示,前2幅圖像是具有不同類型二值掩碼的圖像修復(fù),后2幅圖像是目標移除和人臉編輯.由圖可見,本文網(wǎng)絡(luò)依然可生成合理和高質(zhì)量的圖像內(nèi)容,這充分說明本文網(wǎng)絡(luò)具有較強的泛化能力.

    (a)原始圖像(a)Original images

    3 結(jié) 束 語

    本文構(gòu)造三階段生成網(wǎng)絡(luò),三個階段分別側(cè)重于圖像色彩、邊緣和紋理的合成.具體地,在HSV色彩生成階段,圖像的全局色彩能在HSV色彩空間中被合理重建,為整個圖像修復(fù)過程提供色彩指導.在邊緣優(yōu)化階段,提出邊緣學習方法,可獲取更合理的邊緣,并為后續(xù)修復(fù)過程提供更準確完整的信息.此外,提出特征雙向融合解碼器,嵌入紋理合成階段,達到細化圖像紋理細節(jié)的目的.大量的消融實驗結(jié)果表明三階段生成網(wǎng)絡(luò)的有效性.同時,通過與其它網(wǎng)絡(luò)定量對比和可視化效果對比,本文網(wǎng)絡(luò)具有更好的圖像修復(fù)性能.注意到本文網(wǎng)絡(luò)采用串聯(lián)的網(wǎng)絡(luò)架構(gòu),而有工作致力于設(shè)計并聯(lián)的網(wǎng)絡(luò)架構(gòu)以獲得性能提升[26].因此,今后將致力于設(shè)計合理的并聯(lián)網(wǎng)絡(luò)進行圖像修復(fù).同時,也可把本文的思路擴展到其它的計算機視覺任務(wù)中,如超分辨率重建[13]、圖像轉(zhuǎn)換[19]等.

    猜你喜歡
    紋理邊緣損失
    少問一句,損失千金
    胖胖損失了多少元
    基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
    軟件(2020年3期)2020-04-20 01:45:18
    使用紋理疊加添加藝術(shù)畫特效
    玉米抽穗前倒伏怎么辦?怎么減少損失?
    TEXTURE ON TEXTURE質(zhì)地上的紋理
    Coco薇(2017年8期)2017-08-03 15:23:38
    一張圖看懂邊緣計算
    消除凹凸紋理有妙招!
    Coco薇(2015年5期)2016-03-29 23:22:15
    一般自由碰撞的最大動能損失
    在邊緣尋找自我
    雕塑(1999年2期)1999-06-28 05:01:42
    99热网站在线观看| 久久久久性生活片| 亚洲欧美日韩高清在线视频| 白带黄色成豆腐渣| 男女下面进入的视频免费午夜| 麻豆国产97在线/欧美| 男女视频在线观看网站免费| 午夜精品国产一区二区电影 | 中文资源天堂在线| 99国产极品粉嫩在线观看| 免费电影在线观看免费观看| 给我免费播放毛片高清在线观看| av在线老鸭窝| .国产精品久久| 无遮挡黄片免费观看| 国产男人的电影天堂91| av女优亚洲男人天堂| 久久人妻av系列| 婷婷精品国产亚洲av| 欧美一区二区精品小视频在线| 日日撸夜夜添| 久久天躁狠狠躁夜夜2o2o| 极品教师在线视频| 久久久久国产网址| 日本五十路高清| 欧美精品国产亚洲| 国产片特级美女逼逼视频| 国产 一区 欧美 日韩| h日本视频在线播放| 日本色播在线视频| 91久久精品国产一区二区成人| 女人被狂操c到高潮| 麻豆一二三区av精品| 精品一区二区三区视频在线观看免费| 亚洲熟妇中文字幕五十中出| 久久久国产成人免费| 精品久久久久久久久久免费视频| 身体一侧抽搐| 麻豆国产97在线/欧美| 老司机影院成人| 久久久a久久爽久久v久久| 精品不卡国产一区二区三区| 久久中文看片网| 久久午夜福利片| 欧洲精品卡2卡3卡4卡5卡区| 插逼视频在线观看| 国产亚洲91精品色在线| 国产黄色视频一区二区在线观看 | 内地一区二区视频在线| 在线天堂最新版资源| 男女做爰动态图高潮gif福利片| 国产高清有码在线观看视频| 高清毛片免费看| 99久久九九国产精品国产免费| www日本黄色视频网| 天美传媒精品一区二区| 亚洲图色成人| 日本-黄色视频高清免费观看| 国产私拍福利视频在线观看| 亚洲国产精品成人久久小说 | 亚洲成人久久性| 国产高清视频在线观看网站| 最近2019中文字幕mv第一页| 国产伦在线观看视频一区| 蜜臀久久99精品久久宅男| 九九热线精品视视频播放| 精品人妻熟女av久视频| 中国美白少妇内射xxxbb| 人人妻,人人澡人人爽秒播| 哪里可以看免费的av片| 少妇人妻精品综合一区二区 | 国产v大片淫在线免费观看| 搞女人的毛片| 日本 av在线| 国产精品久久久久久av不卡| 国产高清三级在线| 99久久久亚洲精品蜜臀av| 亚洲熟妇熟女久久| aaaaa片日本免费| 欧美日本视频| av国产免费在线观看| 久久6这里有精品| 免费黄网站久久成人精品| 大香蕉久久网| 精品乱码久久久久久99久播| 一进一出抽搐动态| 搞女人的毛片| 色吧在线观看| 国产亚洲精品久久久com| 成人美女网站在线观看视频| 亚洲,欧美,日韩| 国内精品美女久久久久久| 国产精品久久久久久亚洲av鲁大| 男女做爰动态图高潮gif福利片| 欧美性猛交黑人性爽| 亚洲高清免费不卡视频| 在线看三级毛片| 真人做人爱边吃奶动态| 亚洲人成网站在线播放欧美日韩| 亚洲美女黄片视频| 国产黄a三级三级三级人| 99久久无色码亚洲精品果冻| 久久久久性生活片| 黄色欧美视频在线观看| 伦理电影大哥的女人| 蜜臀久久99精品久久宅男| 精品久久国产蜜桃| 最近2019中文字幕mv第一页| 黄色配什么色好看| 免费不卡的大黄色大毛片视频在线观看 | 可以在线观看的亚洲视频| 成人精品一区二区免费| 国产男靠女视频免费网站| 天美传媒精品一区二区| 尤物成人国产欧美一区二区三区| 一区二区三区高清视频在线| 综合色丁香网| 99热这里只有精品一区| 久久精品91蜜桃| 男女下面进入的视频免费午夜| 嫩草影院精品99| 成人av在线播放网站| 精品久久久久久久人妻蜜臀av| 国产av在哪里看| 日本a在线网址| 欧美高清性xxxxhd video| 熟妇人妻久久中文字幕3abv| 午夜福利在线观看免费完整高清在 | 婷婷亚洲欧美| 嫩草影视91久久| 丰满的人妻完整版| 18禁在线播放成人免费| 人妻少妇偷人精品九色| 老女人水多毛片| 中国美白少妇内射xxxbb| 国产亚洲精品久久久久久毛片| 日韩精品青青久久久久久| 久久这里只有精品中国| 一区福利在线观看| 日产精品乱码卡一卡2卡三| 12—13女人毛片做爰片一| 身体一侧抽搐| 亚洲av二区三区四区| 91狼人影院| 赤兔流量卡办理| 国产av麻豆久久久久久久| 真实男女啪啪啪动态图| 色尼玛亚洲综合影院| 成年av动漫网址| 特大巨黑吊av在线直播| 亚洲国产精品国产精品| 久久久久国产网址| 国产精品无大码| а√天堂www在线а√下载| 九九爱精品视频在线观看| 欧美日韩一区二区视频在线观看视频在线 | 免费在线观看成人毛片| 国产黄片美女视频| 成年女人永久免费观看视频| 晚上一个人看的免费电影| 变态另类成人亚洲欧美熟女| 成人特级av手机在线观看| 欧美中文日本在线观看视频| 永久网站在线| 美女xxoo啪啪120秒动态图| 欧洲精品卡2卡3卡4卡5卡区| 此物有八面人人有两片| 最后的刺客免费高清国语| 国产探花在线观看一区二区| 亚洲成人精品中文字幕电影| 精品欧美国产一区二区三| 午夜日韩欧美国产| 国产精品,欧美在线| 国产黄色视频一区二区在线观看 | 美女被艹到高潮喷水动态| 国产一区二区三区av在线 | 99久久成人亚洲精品观看| av在线蜜桃| 国产精品精品国产色婷婷| 99热这里只有精品一区| 日日啪夜夜撸| av视频在线观看入口| 校园春色视频在线观看| 一级毛片aaaaaa免费看小| 久久精品综合一区二区三区| 国产一区二区三区在线臀色熟女| 国产亚洲精品久久久com| 精品久久久久久成人av| 成人永久免费在线观看视频| 波多野结衣高清无吗| 国产精品国产三级国产av玫瑰| a级毛片免费高清观看在线播放| 国产真实乱freesex| 成人欧美大片| 亚洲成人久久性| АⅤ资源中文在线天堂| 1024手机看黄色片| 精品国内亚洲2022精品成人| 国产色爽女视频免费观看| 国产黄色视频一区二区在线观看 | 国产精品国产高清国产av| 少妇人妻一区二区三区视频| 乱人视频在线观看| 亚洲国产色片| 国产欧美日韩精品一区二区| 22中文网久久字幕| 床上黄色一级片| 99久久精品国产国产毛片| 久久精品国产鲁丝片午夜精品| 色综合色国产| 3wmmmm亚洲av在线观看| 一区二区三区四区激情视频 | 日本在线视频免费播放| 色综合色国产| 男人舔女人下体高潮全视频| 欧美zozozo另类| 内地一区二区视频在线| 黄色日韩在线| 国产蜜桃级精品一区二区三区| 男人的好看免费观看在线视频| 久久久a久久爽久久v久久| 欧美日韩一区二区视频在线观看视频在线 | 日日干狠狠操夜夜爽| 亚洲人成网站高清观看| 无遮挡黄片免费观看| av视频在线观看入口| 久久久国产成人精品二区| 在线国产一区二区在线| 亚洲国产精品sss在线观看| 18禁在线播放成人免费| 亚洲av不卡在线观看| 久久久久免费精品人妻一区二区| 久久欧美精品欧美久久欧美| 亚洲av第一区精品v没综合| 国产日本99.免费观看| 小蜜桃在线观看免费完整版高清| 深夜a级毛片| 欧美一区二区亚洲| 亚洲精品乱码久久久v下载方式| 国产精品一区二区三区四区免费观看 | 一级毛片久久久久久久久女| 亚洲欧美精品综合久久99| 亚洲国产精品合色在线| 麻豆国产97在线/欧美| 别揉我奶头 嗯啊视频| 国产男靠女视频免费网站| 久久九九热精品免费| 国产成人freesex在线 | 人人妻人人澡人人爽人人夜夜 | 国产伦精品一区二区三区四那| 国产伦精品一区二区三区视频9| 最近的中文字幕免费完整| 精品不卡国产一区二区三区| 亚洲七黄色美女视频| 真人做人爱边吃奶动态| 精品人妻视频免费看| 久久国内精品自在自线图片| 人人妻人人澡人人爽人人夜夜 | 午夜视频国产福利| 免费高清视频大片| 国产又黄又爽又无遮挡在线| 热99在线观看视频| 老司机福利观看| 国内少妇人妻偷人精品xxx网站| 中国美女看黄片| 欧美+日韩+精品| 少妇的逼好多水| 亚洲图色成人| 亚洲欧美成人综合另类久久久 | 国产精品美女特级片免费视频播放器| h日本视频在线播放| 久久综合国产亚洲精品| 精品久久久久久久人妻蜜臀av| 色吧在线观看| av黄色大香蕉| 九九久久精品国产亚洲av麻豆| 国产精品一二三区在线看| 身体一侧抽搐| 日本欧美国产在线视频| av.在线天堂| 欧美在线一区亚洲| 亚洲最大成人中文| 搡老妇女老女人老熟妇| 国产成人一区二区在线| 中文字幕熟女人妻在线| 在线国产一区二区在线| 久久人人爽人人爽人人片va| 一本精品99久久精品77| 一进一出好大好爽视频| 日本在线视频免费播放| 亚洲美女视频黄频| 欧洲精品卡2卡3卡4卡5卡区| 久久精品夜夜夜夜夜久久蜜豆| 桃色一区二区三区在线观看| 神马国产精品三级电影在线观看| 午夜激情欧美在线| 欧美区成人在线视频| 成人午夜高清在线视频| 又黄又爽又免费观看的视频| 狠狠狠狠99中文字幕| 午夜免费男女啪啪视频观看 | 欧美日韩国产亚洲二区| 噜噜噜噜噜久久久久久91| 啦啦啦观看免费观看视频高清| 色综合亚洲欧美另类图片| 人妻久久中文字幕网| 日本五十路高清| 亚洲成人久久爱视频| 日本黄色视频三级网站网址| 午夜免费激情av| 免费无遮挡裸体视频| 搡老妇女老女人老熟妇| 亚洲,欧美,日韩| 淫秽高清视频在线观看| 国产亚洲精品综合一区在线观看| 欧美性猛交黑人性爽| 联通29元200g的流量卡| 精品午夜福利在线看| 国产在视频线在精品| 一区福利在线观看| 欧洲精品卡2卡3卡4卡5卡区| 久久婷婷人人爽人人干人人爱| 精品日产1卡2卡| av中文乱码字幕在线| 欧美xxxx性猛交bbbb| 99久久久亚洲精品蜜臀av| 国产精华一区二区三区| 国产一级毛片七仙女欲春2| 日韩高清综合在线| 亚洲国产高清在线一区二区三| 一区二区三区免费毛片| 小说图片视频综合网站| 一边摸一边抽搐一进一小说| 小说图片视频综合网站| 日本一二三区视频观看| 国产成人精品久久久久久| 日韩欧美精品免费久久| 三级男女做爰猛烈吃奶摸视频| 91久久精品国产一区二区成人| 国产精品乱码一区二三区的特点| 一区二区三区四区激情视频 | 黄片wwwwww| 国产精品伦人一区二区| 97人妻精品一区二区三区麻豆| 国产日本99.免费观看| 男人舔奶头视频| 国产成人aa在线观看| 欧美一区二区精品小视频在线| 日韩亚洲欧美综合| 精品一区二区三区视频在线观看免费| 1024手机看黄色片| 日本免费一区二区三区高清不卡| 一进一出抽搐动态| 日本五十路高清| 麻豆精品久久久久久蜜桃| 97碰自拍视频| 97超级碰碰碰精品色视频在线观看| 日韩一本色道免费dvd| 美女cb高潮喷水在线观看| 国产精品亚洲一级av第二区| 禁无遮挡网站| 国产免费一级a男人的天堂| 久久久色成人| 久久热精品热| 麻豆精品久久久久久蜜桃| 国产av在哪里看| 国产精品一二三区在线看| 自拍偷自拍亚洲精品老妇| 国产精品一二三区在线看| 国产三级在线视频| 欧美成人精品欧美一级黄| 婷婷色综合大香蕉| 国产久久久一区二区三区| 搡女人真爽免费视频火全软件 | 亚洲欧美日韩无卡精品| 99久国产av精品| 成人三级黄色视频| 九九爱精品视频在线观看| 草草在线视频免费看| 九九爱精品视频在线观看| 国产伦精品一区二区三区视频9| 别揉我奶头 嗯啊视频| 久久久成人免费电影| 久久久久精品国产欧美久久久| 久久久久久久久大av| 国产又黄又爽又无遮挡在线| 国产av不卡久久| 亚洲三级黄色毛片| 成年女人永久免费观看视频| av在线亚洲专区| 美女xxoo啪啪120秒动态图| 国产伦一二天堂av在线观看| 欧美在线一区亚洲| 国产亚洲精品久久久久久毛片| 99久久精品国产国产毛片| 身体一侧抽搐| 1024手机看黄色片| 99视频精品全部免费 在线| 岛国在线免费视频观看| 三级男女做爰猛烈吃奶摸视频| 18禁裸乳无遮挡免费网站照片| 欧美最新免费一区二区三区| 午夜福利视频1000在线观看| .国产精品久久| 美女xxoo啪啪120秒动态图| 亚洲欧美成人精品一区二区| 深爱激情五月婷婷| 可以在线观看毛片的网站| 久久婷婷人人爽人人干人人爱| 午夜久久久久精精品| 日韩欧美三级三区| 亚洲av中文字字幕乱码综合| 少妇裸体淫交视频免费看高清| 成人高潮视频无遮挡免费网站| 亚洲欧美日韩卡通动漫| 亚洲人成网站在线播放欧美日韩| 麻豆成人午夜福利视频| 国产男靠女视频免费网站| 一级av片app| 男人舔女人下体高潮全视频| 久久人妻av系列| 欧美精品国产亚洲| 97超碰精品成人国产| 少妇裸体淫交视频免费看高清| 黄色配什么色好看| 高清毛片免费观看视频网站| 国内少妇人妻偷人精品xxx网站| aaaaa片日本免费| 97人妻精品一区二区三区麻豆| 欧美高清性xxxxhd video| 久久精品国产清高在天天线| 黄色欧美视频在线观看| 午夜精品在线福利| 久久鲁丝午夜福利片| 99久久无色码亚洲精品果冻| 日本-黄色视频高清免费观看| 在线免费十八禁| 免费在线观看影片大全网站| 免费人成视频x8x8入口观看| 成人一区二区视频在线观看| 亚洲综合色惰| 成熟少妇高潮喷水视频| av在线观看视频网站免费| 国产美女午夜福利| 午夜福利18| 蜜桃久久精品国产亚洲av| 国产精品免费一区二区三区在线| 真人做人爱边吃奶动态| 日本爱情动作片www.在线观看 | 国产真实乱freesex| 此物有八面人人有两片| 亚洲av电影不卡..在线观看| 美女黄网站色视频| 免费一级毛片在线播放高清视频| 校园人妻丝袜中文字幕| 免费av不卡在线播放| 亚洲最大成人手机在线| 22中文网久久字幕| 成人鲁丝片一二三区免费| 亚洲精品在线观看二区| 亚洲av不卡在线观看| 我的女老师完整版在线观看| 国产伦精品一区二区三区四那| 少妇裸体淫交视频免费看高清| 亚洲色图av天堂| 亚洲精品国产av成人精品 | 女的被弄到高潮叫床怎么办| 国产精品一及| 小蜜桃在线观看免费完整版高清| 亚洲欧美日韩卡通动漫| 亚洲欧美精品自产自拍| 夜夜夜夜夜久久久久| 久久精品久久久久久噜噜老黄 | 亚洲国产精品久久男人天堂| 哪里可以看免费的av片| 欧美激情国产日韩精品一区| 日韩高清综合在线| 22中文网久久字幕| 欧美成人免费av一区二区三区| 国产成人91sexporn| 中文字幕久久专区| 俄罗斯特黄特色一大片| 亚洲成人av在线免费| 国产精品一区www在线观看| 亚洲乱码一区二区免费版| 精品久久久久久成人av| 99在线人妻在线中文字幕| 国产伦在线观看视频一区| 美女内射精品一级片tv| 一区二区三区高清视频在线| 成年女人毛片免费观看观看9| 日日撸夜夜添| 欧美高清成人免费视频www| 91久久精品国产一区二区成人| 国产一级毛片七仙女欲春2| 亚洲成a人片在线一区二区| 国内揄拍国产精品人妻在线| 国产探花在线观看一区二区| 男女之事视频高清在线观看| 熟女电影av网| a级毛色黄片| 99久久精品热视频| 午夜视频国产福利| 国产精品久久久久久av不卡| 日本免费一区二区三区高清不卡| 色av中文字幕| 99在线人妻在线中文字幕| 久久精品国产亚洲av涩爱 | 午夜精品一区二区三区免费看| 舔av片在线| 亚洲精品一卡2卡三卡4卡5卡| 在线免费十八禁| av国产免费在线观看| 精品一区二区三区av网在线观看| 免费看美女性在线毛片视频| 亚洲av五月六月丁香网| 久99久视频精品免费| 亚洲精品一区av在线观看| 日本三级黄在线观看| 国产一区二区在线av高清观看| 伊人久久精品亚洲午夜| 一本一本综合久久| 一级a爱片免费观看的视频| 精品久久久久久久久久久久久| 亚洲无线在线观看| 亚洲精品一卡2卡三卡4卡5卡| 日韩 亚洲 欧美在线| 国产一区二区在线观看日韩| 免费人成在线观看视频色| 久久6这里有精品| 国产女主播在线喷水免费视频网站 | 欧美激情国产日韩精品一区| 成人特级av手机在线观看| 大又大粗又爽又黄少妇毛片口| 亚洲熟妇中文字幕五十中出| 乱人视频在线观看| 久久精品国产亚洲av天美| 在线天堂最新版资源| 97热精品久久久久久| 亚洲欧美日韩东京热| 欧美性猛交╳xxx乱大交人| 欧美+日韩+精品| 一级毛片久久久久久久久女| av专区在线播放| 噜噜噜噜噜久久久久久91| 少妇的逼水好多| 欧美一区二区国产精品久久精品| 日韩在线高清观看一区二区三区| 18禁在线播放成人免费| 不卡视频在线观看欧美| 毛片一级片免费看久久久久| 亚洲人成网站在线播放欧美日韩| 午夜精品在线福利| 日韩一本色道免费dvd| 最新在线观看一区二区三区| 一级a爱片免费观看的视频| 内地一区二区视频在线| 高清日韩中文字幕在线| 黄色欧美视频在线观看| 亚洲无线在线观看| 欧美人与善性xxx| 91久久精品国产一区二区成人| 三级男女做爰猛烈吃奶摸视频| 久久九九热精品免费| 欧美一区二区精品小视频在线| a级毛色黄片| 在线观看一区二区三区| 欧洲精品卡2卡3卡4卡5卡区| 在线免费观看的www视频| 国内精品久久久久精免费| a级毛片免费高清观看在线播放| 国产精品亚洲美女久久久| 91久久精品国产一区二区成人| 99视频精品全部免费 在线| av女优亚洲男人天堂| 免费看a级黄色片| 老司机福利观看| 99热只有精品国产| 美女被艹到高潮喷水动态| 成人漫画全彩无遮挡| 黄色配什么色好看| 亚洲精品国产av成人精品 | 夜夜爽天天搞| 欧美三级亚洲精品| 可以在线观看的亚洲视频| 自拍偷自拍亚洲精品老妇| 精品99又大又爽又粗少妇毛片| 国产精品久久久久久精品电影| 国产成人a区在线观看| 久久久精品94久久精品| 熟妇人妻久久中文字幕3abv| 国产精品久久视频播放| 成人毛片a级毛片在线播放| 干丝袜人妻中文字幕| 久久婷婷人人爽人人干人人爱| 啦啦啦观看免费观看视频高清| 九九热线精品视视频播放| 一个人看视频在线观看www免费| 成人无遮挡网站| 亚洲专区国产一区二区| 亚洲精品影视一区二区三区av| 欧美最新免费一区二区三区| 在线免费十八禁| 18禁黄网站禁片免费观看直播| 日韩欧美国产在线观看| a级毛片免费高清观看在线播放| 亚洲国产精品合色在线| 亚洲四区av| 自拍偷自拍亚洲精品老妇| 国内久久婷婷六月综合欲色啪| 精品久久国产蜜桃| 亚洲欧美日韩东京热| 一本一本综合久久| 欧美日韩在线观看h| 国产精品永久免费网站|