• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于生成對抗網(wǎng)絡與噪聲分布的圖像超分辨率重建方法

    2023-04-29 15:36:53王曄孫志寬李征
    四川大學學報(自然科學版) 2023年3期
    關鍵詞:低分辨率殘差分辨率

    王曄 孫志寬 李征

    現(xiàn)有的圖像超分辨率重建方法都較少考慮真實低分辨率圖像中包含的噪聲信息,因此會影響圖像的重建質量.受真實圖像去噪算法的啟發(fā),本文引入一個噪聲分布收集網(wǎng)絡來收集低分辨率圖像的噪聲分布信息,并采用生成對抗網(wǎng)絡的模型設計,提高含噪聲圖像的重建質量.噪聲分布信息會分別輸入到超分辨率重建網(wǎng)絡和判別網(wǎng)絡,在重建過程中去除噪聲的同時保證有用高頻信息的恢復,另外由于判別網(wǎng)絡的能力對整個模型的性能有著重要影響,選擇使用 U-Net 網(wǎng)絡來獲得更好的梯度信息反饋.與經(jīng)典圖像超分辨率重建算法的對比以及消融實驗表明,使用噪聲收集網(wǎng)絡和 U-Net 判別網(wǎng)絡后,本文模型在噪聲低分辨率圖像重建任務中獲得了更好的性能.

    圖像超分辨率; 生成對抗網(wǎng)絡; 真實圖像; 噪聲分布

    TP391A2023.032001

    收稿日期: 2022-06-20

    基金項目: 國家重點研發(fā)計劃項目(2020YFA0714003); 國家重大項目(GJXM92579); 四川省科技廳重點研發(fā)項目(2021YFQ0059)

    作者簡介: 王曄(1997-), 女, 山西晉城人, 碩士研究生, 主要研究領域為計算機視覺與圖像處理. E-mail: yesica1230@163.com

    通訊作者: 李征. E-mail: lizheng@scu.edu.cn

    An image super-resolution reconstruction method based onGenerative Adversarial Network and noise distribution

    WANG Ye1, SUN Zhi-Kuan1, LI Zheng1, 2

    (1.College of Computer Science(College of Software), Sichuan University, Chengdu 610065, China;

    2.Tianfu Engineering-Oriented Numerical Simulation & Software Innovation Center, Sichuan University, Chengdu 610207, China)

    Existing image super-resolution reconstruction methods take less into account the noise information contained in real low-resolution images, which will affect the quality of image reconstruction. Inspired by the real image denoising algorithm, this paper introduces a noise distribution collection network to collect noise distribution information of low-resolution images, and adopts a model design of Generative Adversarial Network to improve the reconstruction quality of noisy images. The noise distribution information will be input to the super-resolution reconstruction network and the discriminant network respectively. During the reconstruction process, the noise is removed during while ensuring the recovery of useful high-frequency information, because the ability of the discriminant network has an important impact on the performance of the entire model, the U-Net network is selected to obtain better gradient information feedback. Comparison with the classical image super-resolution reconstruction methods and ablation experiments,the resluts show that the proposed model obtains better performance in the noisy low-resolution image reconstruction task after using the noise collection network and the U-Net discriminant network.

    Image super-resolution; Generative Adversarial Network; Real images; Noise distribution

    1 引 言

    隨著科技的發(fā)展,作為重要信息載體的圖像擁有了越來越高的分辨率.更高的像素密度展示了更多的紋理細節(jié),蘊涵更豐富的信息,在很多場景中高分辨率圖像都極具價值,比如CT圖像、核磁共振圖像、監(jiān)控視頻和衛(wèi)星遙感圖像等.但高分辨率的圖像對成像設備和環(huán)境因素要求很高.在實際生活中,人們往往獲取不到期望的高質量圖片.因此,在軟件層面上圖像超分辨率重建技術滿足了這樣的需求[1-3].

    圖像超分辨率重建技術需要為低分辨率圖像恢復出更多的紋理信息,也就是擁有更多高頻細節(jié).真實場景中的自然低分辨率圖像是通過相機鏡頭捕捉到的,經(jīng)過了復雜的退化過程,常常包含不少的噪聲信息,對圖像重建過程并無用處.并且由于其圖像也是高頻信息,可能會在重建過程中被放大,從而生成偽影降低圖像的重建質量.如果將低分辨率圖像先進行去噪,然后再進行圖像的超分辨率重建,則會導致部分有用的高頻信息在去噪過程中被過濾丟失,尤其是一些紋理細節(jié)[4].圖像的先驗信息被破壞,對后續(xù)的重建過程會有影響,使得圖像重建質量一般.一些面向真實場景的圖像超分辨率重建算法都是基于模糊核估計,在考慮噪聲影響時只是添加一些人工合成的噪聲信息.因此本文主要的貢獻是:(1) 提出一個噪聲收集網(wǎng)絡用于收集圖像真實的噪聲分布信息,并能夠拓展到已有的算法模型中;(2) 提出一個新的的圖像超分辨率網(wǎng)絡模型,適用于含噪聲的低分辨率圖像重建.

    2 相關工作

    圖像超分辨率重建算法的出現(xiàn)最早可追溯到1960年.早期的傳統(tǒng)方法主要分為三大類:基于插值的方法、基于重建的方法以及基于學習的方法.基于插值的常見方法有雙三次插值、雙線性插值以及最鄰近插值等.先將低分辨率圖像放大到想要的尺寸,再將待插值的像素信息利用數(shù)學模型計算出來,獲得高分辨率圖像,運行速度快.但由于是線性運算,獲得的高分辨率圖像會出現(xiàn)局部平滑,效果一般.基于重建的方法主要基于頻率域和空間域,考慮圖像的先驗知識和退化過程進行建模,根據(jù)模型來逆向重建,經(jīng)典方法有最大后驗概率法[5]、迭代反投影法[6]以及凸集投影法[7].基于學習的方法就不再人為定義圖像的先驗知識,通過低分辨率圖像和高分辨率圖像構成的樣本數(shù)據(jù)學習映射關系來構建模型,主要方法有領域嵌入法[8]、基于稀疏表示的算法[9]以及錨定鄰域回歸法[10]等.

    隨著卷積神經(jīng)網(wǎng)絡(Convolution Neural Network, CNN)的蓬勃發(fā)展,2014年Dong等人首次提出了基于CNN的圖像超分辨率算法SRCNN[9],網(wǎng)絡類型為端到端,效果比傳統(tǒng)算法更好.之后他們又提出了FSRCNN[12],速度更快,復雜度更低,但使用在特征重建時的反卷積操作使得結果出現(xiàn)了棋盤格.針對這一問題,Shi等人在2016年提出采用亞像素卷積的神經(jīng)網(wǎng)絡結構[13],但在網(wǎng)絡深度上具有局限性.同年Kim等人受殘差網(wǎng)絡的啟發(fā)提出了VDSR[14],使用全局殘差大大加深了網(wǎng)絡結構.同年,Ledig等人提出了SRResNet[15],將全局殘差與局部殘差相結合.NTIRE2017挑戰(zhàn)賽[16]中獲得超分辨率冠軍的EDSR算法[17]開創(chuàng)性地移除了批量歸一化. Tong等人在同年提出SRDenseNet[18],使用了密集稠密連接.在2018年Zhang等人結合密集連接與殘差連接提出了RDN[19],同年又提出了基于注意力機制的RCAN[20],500層的網(wǎng)絡深度獲得了更好的重建效果.2019年基于反饋機制,Li等人提出了SRFBN[21],訓練策略采用課程學習.同年Muqeet等人提出HRAN[22],使用了殘差注意力.2020年Hyun等人提出VarSR[23],從一張低分辨率圖像中恢復出多張高分辨率圖像.2021年,Qiao等人提出基于傅里葉域注意力的網(wǎng)絡模型[24],應用于顯微鏡圖像,拓展了圖像超分辨率的應用領域.

    生成對抗網(wǎng)絡(Generative Adversarial Network, GAN)是由Goodfellow等人[25]在2014年提出的,使用兩個神經(jīng)網(wǎng)絡,分別為生成器和判別器,被廣泛應用于圖像生成和語音生成等領域.Ledig等人在2017年提出了SRGAN[15],這是第一次在圖像超分辨率領域使用GAN的網(wǎng)絡結構.2018年,Wang等人提出了改進后的ESRGAN[26],提高模型訓練的穩(wěn)定性.

    圖像超分辨率算法在人工數(shù)據(jù)集上的性能已接近瓶頸,然而由于對圖像退化過程的簡化,大多數(shù)算法在真實圖像數(shù)據(jù)集上的表現(xiàn)不盡如人意,因此面向真實場景的超分辨率算法獲得了越來越多的關注.2018年Schocher等人提出了ZSSR[27],僅利用圖像本身的內(nèi)部信息進行重建,是超分辨率重建領域首個基于CNN的無監(jiān)督學習算法.2019年Fritsche等人提出FSSR[28],利用圖像中的低頻區(qū)域和高頻區(qū)域.2021年Wang等人提出DASR[29],利用對比學習機制學習退化過程.

    3 方 法

    本文提出了一個基于生成對抗網(wǎng)絡與噪聲分布的圖像超分辨率算法模型,使用生成對抗的網(wǎng)絡設計結構,在超分辨率重建網(wǎng)絡之前添加一個噪聲分布收集網(wǎng)絡(Noise Distribution Collection Network, NDCN),共同組成生成網(wǎng)絡部分,判別網(wǎng)絡使用U-Net網(wǎng)絡結構,整體流程如圖1所示.首先使用NDCN網(wǎng)絡獲取輸入帶噪聲低分辨率圖像中的噪聲分布信息,然后再將其與低分辨率圖像一同輸入到圖像超分辨率重建網(wǎng)絡,重建出的圖片與噪聲分布信息一同輸入到判別網(wǎng)絡.

    3.1 NDCN網(wǎng)絡

    Guo等人在2019年提出了CBDNet[30]用于真實噪聲圖像去噪.該網(wǎng)絡模型由兩部分組成,分別為噪聲估計子網(wǎng)絡和非盲去噪子網(wǎng)絡.受益于其中噪聲估計子網(wǎng)絡的設計,本文提出了一個NDCN網(wǎng)絡.CBDNet中噪聲估計子網(wǎng)絡的結構非常簡單,使用了五層全卷積網(wǎng)絡,并且沒有池化操作和批量歸一化.為了能夠收集到更深層次的特征信息,更關注屬于高頻信息的噪聲,并且更加準確,本文使用編碼塊-解碼塊的網(wǎng)絡結構和自注意力機制,另外使用跳躍連接使得深層特征與淺層特征可以實現(xiàn)多層次特征融合.第一層卷積后將特征輸入到網(wǎng)絡末端,由于自注意力模塊計算量較大,僅在編碼塊的末尾添加一個自注意力模塊.為了降低網(wǎng)絡模型的計算量,在編碼塊中進行降采樣操作,使用最大池化來使特征圖尺寸減少為原來的一半.之后在解碼塊中恢復特征圖尺寸,采用的是反卷積上采樣的方式,這樣便減少了全連接CNN中的計算開銷.

    編碼塊由兩個卷積層和ReLU激活函數(shù)組成.卷積核大小設置為3×3,步長設置為1,特征圖尺度減小的同時增加通道數(shù),解碼塊中的卷積核和編碼塊中設置相同.提取深層特征的同時壓縮通道數(shù),最終NDCN網(wǎng)絡輸出與輸入尺寸相同的特征圖,其中包含有噪聲分布信息,并與含有噪聲的LR圖像一同輸入到重建網(wǎng)絡中,指導生成更好的圖像重建結果.

    自注意力模塊可表示為:

    Attention(Q,K,V)=Softmax(QKTdk)V(1)

    其中,Q表示查詢向量矩陣;K表示鍵向量矩陣;V表示值向量矩陣;dk表示縮放因子.自注意力機制使用不同的參數(shù)矩陣對Q、K、V執(zhí)行多種線性變換,計算Q和K之間的相似性,重復多次后將結果拼接起來.

    3.2 圖像超分辨率重建網(wǎng)絡

    重建網(wǎng)絡使用經(jīng)典的密集連接和殘差連接的方式.在特征映射階段使用引入了混合注意力模塊(Mixed Attentions Module, MAM)的密集殘差注意力塊(Residual Dense Attention Block, RDAB).混合注意力包括空間注意力和頻率通道注意力,實現(xiàn)對不同的特征信息進行有針對性地處理,在增強有用信息的同時,抑制無用信息.多個RDAB組成一個密集殘差注意力組(Residual Dense Attention Group, RDAG),其中用密集連接的方式將不同層級的特征圖按通道相加,結果輸入到下一個RDAG模塊中,在減少計算量的同時保證多層級網(wǎng)絡的特征復用.另外為了減少模型的參數(shù)量,在網(wǎng)絡中使用1×1的卷積,壓縮通道數(shù).

    3.2.1 MAM模塊 在CNN中,通道之間的信息相似性導致存在冗余,并且直接使用全局平均池化處理會導致通道多樣性信息丟失,而空間注意力使網(wǎng)絡更注重高頻信息,在關鍵區(qū)域增強特征表達,因此本文在超分辨率重建網(wǎng)絡中使用多頻率通道注意力和空間注意力結合的MAM模塊,在通道中考慮不同位置空間關系的同時保持通道的多樣性信息.

    多頻率通道注意力在FcaNet[31]中提出,在頻域中應用全局平均池化,采用DCT變換多頻譜.二維DCT可見式(2),DCT將二維輸入變換到頻率域見式(3).

    φi,j=cosπhH12+icosπwW12+j(2)

    fh,w=∑H-1i=0∑W-1j=0φi,jxi,js.t. h∈{0,1,…,H-1},w∈{0,1,…,W-1}(3)

    其中,cos(·)表示余弦基函數(shù),不同的h、w產(chǎn)生不同的頻率組合;xi,j為輸入信號;fh,w為二維頻譜.

    在多頻率通道注意力機制中,會計算出所有頻率分量的結果.在其中挑選出表現(xiàn)性能最優(yōu)的K個分量,K值可根據(jù)特征圖通道被劃分出的組數(shù)來設置.在通道數(shù)為C的特征圖輸入后,根據(jù)通道數(shù)劃分出n個子特征圖,分配到每個子特征圖中的通道數(shù)為C′=C/n,那么n個頻率組合為[F0,F(xiàn)1,...,F(xiàn)n-1].根據(jù)式(2)計算得到相應的頻率響應.多頻譜向量F即由這些頻率組合壓縮而成,可見式(4).

    F=compress(X)=concat([F0,F(xiàn)1,...,F(xiàn)n-1])(4)

    其中,X表示特征圖;compress(·)表示壓縮操作;將H×W×C壓縮為1×1×C;concat表示向量串聯(lián).

    最后使用全連接層和通道信息對多頻譜向量進行整合,使用Sigmoid激活函數(shù)計算注意力權重,可見式(5).

    fca(X)=σ(fc(F))Hscale(X)(5)

    其中,fc(·)表示全連接層;σ(·)表示激活函數(shù);Hscale(·)表示按通道相乘.

    在多頻譜通道注意力后加入空間注意力共同構成MAM模塊,對特征自適應性實現(xiàn)再校準,多響應包含豐富信息的通道和空間特征,同時抑制不重要的通道和空間特征.

    3.2.2 RDAB模塊 對于圖像超分辨率重建任務來說,目標圖像一般具有較少的高頻信息和較多的低頻信息.網(wǎng)絡模型要在此情況下重建出盡可能多的高頻信息,而低頻信息基本變化不大,因此可以使用全局殘差的方法.低頻信息直接映射到網(wǎng)絡末端,殘差學習部分使用高頻信息.

    批歸一化處理(Batch Normalization, BN)可以加快模型收斂速度,同時一定程度緩解出現(xiàn)在深層網(wǎng)絡的“梯度彌散”,因此幾乎是卷積神經(jīng)網(wǎng)絡的標配處理技巧.但在圖像超分辨率重建過程中,BN層會歸一化圖像的色彩分布,使得對比度信息受損,從而影響圖像重建的質量.另外BN層的計算會耗費大量資源,去掉后反而可以利用空間堆疊更多網(wǎng)絡.因此本文中的殘差結構同樣選擇去除BN層.殘差單元計算過程見式(6).

    fRU(x)=x+ReLU(Conv(ReLU(Conv(x))))(6)

    其中,x表示輸入;ReLU表示激活函數(shù);Conv表示卷積.

    RDAB模塊中包括殘差單元和MAM模塊.輸入的特征圖通過殘差單元學習高頻信息,同時使用短跳躍連接將特征圖輸入到Concat層.在Concat層中對特征圖和不同的殘差單元輸出結果進行通道拼接.使用該連接方式既能保留之前的輸出結果,又能復用在深層次網(wǎng)絡中學習的特征,提高了網(wǎng)絡的特征表達.在Concat層后使用1×1卷積核進行通道壓縮,再輸入到MAM模塊中計算通道和空間位置的相應權重,使用殘差連接將RDAB模塊的輸入與MAM模塊的輸出相加,最終得到RDAB模塊的輸出.

    3.2.3 RDAG結構 為了構建更深的殘差網(wǎng)絡,不同于對殘差網(wǎng)絡層直接進行堆疊,RDAG結構使用了殘差內(nèi)嵌殘差的方式,更有利于模型訓練[17].短跳躍連接使得網(wǎng)絡可以直接映射跳過大量低頻信息,集中殘差學習高頻信息.用公式表達網(wǎng)絡中第m個RDAG可見式(7).

    Gm=HmGm-1=HmHm-1…H1G0…(7)

    其中,Hm表示第m個RDAG的過程;Gm表示第m個RDAG的輸出;Gm-1表示第m個RDAG的輸入;G0表示淺層特征.

    3.3 判別網(wǎng)絡

    GAN網(wǎng)絡模型中使用的判別網(wǎng)絡為VGG19,在提取真實場景的圖像特征時表現(xiàn)一般.為了提高判別網(wǎng)絡的能力,本文選擇使用U-Net網(wǎng)絡作為判別網(wǎng)絡優(yōu)化模型性能,使得重建出的高分辨率圖像增強了細節(jié)信息.

    U-Net網(wǎng)絡是編碼-解碼的架構.為了充分融合網(wǎng)絡的上下文信息,從解碼塊到編碼塊使用跳躍連接的方式,對不同尺寸的特征圖進行多層次的特征拼接,并且由全卷積層組成,可以處理任意形狀和大小的圖片.編碼塊的下采樣用最大池化的方式,使用了兩個卷積層再加一個最大池化層,每個卷積層后加一個激活函數(shù),每次降采樣后使得通道數(shù)加倍.解碼塊對特征圖使用反卷積進行上采樣,得到更大分辨率的特征圖后拼接由編碼塊跳躍傳遞過來的特征圖,結合了全局信息和局部信息,融合了深層特征和淺層特征,獲得更多細節(jié)信息.由于重建出的高分辨率圖像與噪聲分布信息圖像的尺寸不同,使用了卷積層來調(diào)整大小為統(tǒng)一的32×32,融合后輸入到U-Net網(wǎng)絡中.

    3.4 損失函數(shù)

    3.4.1 內(nèi)容損失 對于圖像的像素損失和噪聲損失,均使用L1損失函數(shù).噪聲損失是通過噪聲分布信息和低分辨率圖像中的噪聲來計算,分別表示為式(8)和式(9).計算損失時對低分辨率圖像使用高通濾波器,減少被低頻信息影響.

    LG1=1m∑mi=1IiSR-IiHR1(8)

    LGn=1m∑mi=1Ni-HIiLR1(9)

    其中,m表示批處理圖像的大小;Ni表示第i個圖像的噪聲分布信息;H(·)表示高通濾波;IiLR表示第i個低分辨率圖像.

    3.4.2 感知損失 感知損失注重的是特征層面,特征提取使用預訓練好的VGG19網(wǎng)絡.僅使用內(nèi)容損失,會使得最后獲得的圖像比較平滑,缺乏高頻細節(jié).感知損失可以彌補這個問題.其表達式如下.

    LGp=1m∑mi=1VGGlIiSR-VGGlIiHR1(10)

    其中,VGGl(·)表示VGG在第l層輸出的特征圖.

    3.4.3 對抗損失 生成對抗網(wǎng)絡是非常具有開創(chuàng)性和應用前景的網(wǎng)絡模型,但也存在著難以訓練的弊端.過優(yōu)的判別網(wǎng)絡可能造成生成網(wǎng)絡的梯度消失,而差勁的判別網(wǎng)絡無法對生成網(wǎng)絡的訓練進行有效指導.因此對生成對抗網(wǎng)絡損失函數(shù)的優(yōu)化方案不斷涌現(xiàn).WGAN[32]引入了Wasserstein距離來量化生成樣本分布和真實樣本分布間的差距,定義見式(11).

    W(pr,pG)=infγ~Π(pr,pG)E(x,y)~γ[‖x-y‖](11)

    其中,x表示真實樣本;y表示生成樣本;pr表示真實樣本分布;pG表示生成樣本分布;Π(pr, pG)為pr與pG所有可能的聯(lián)合分布集合;‖x-y‖表示樣本間距離;E(x,y)~γ[·]表示期望值;inf表示下限;W(pr,pG)表示聯(lián)合分布集合中的期望值下限.

    但該公式不能直接求解,需要滿足Lipschitz連續(xù)才能求解,因此近似表示為式(12).

    Wpr,pG=1Ksup‖f‖L≤KEx~pr[f(x)]-

    Ey~pG[f(y)](12)

    其中,‖f‖L表示 Lipschitz 常數(shù);K表示一個非負的常數(shù);sup表示上限.

    使用參數(shù)組w定義一系列函數(shù),同時生成網(wǎng)絡與Ex~pr[f(x)]無關,因此可獲得生成網(wǎng)絡和判別網(wǎng)絡的損失函數(shù)分別為式(13)和式(14).

    LG=-Ey~pGfw(y)(13)

    LD=Ey~pGfw(y)-Ex~prfw(x)(14)

    之后在使用Wasserstein距離的基礎上,WGAN_GP[33]又在判別網(wǎng)絡中引入了梯度約束項來幫助滿足Lipschitz連續(xù),定義見式(15).

    SymbolQC@xD(x)2-12(15)

    本文超分辨率重建網(wǎng)絡使用的對抗損失函數(shù)為

    LGadv=-EISRG~pGDISRG(16)

    在判別網(wǎng)絡中添加了梯度約束項的對抗損失函數(shù)為

    LGadv=-EISRG~pGDISRGLDadv=

    EISRG~pGDISRG-EIHRR~prDIHRR+

    λEISRG~pGSymbolQC@ISRGDISRG2-12(17)

    本文中超分辨率重建網(wǎng)絡的損失函數(shù)包括內(nèi)容損失、感知損失以及對抗損失三部分.損失函數(shù)表示為

    LG=λALGadv+λCLG1+λNLGn+λPLGp(18)

    其中,λA、λC、λN與λP為損失函數(shù)的權重系數(shù).在本文模型中,我們設置λA=5×10-2, λC=1×10-2,λN=1×10-2,λP=1.

    4 實 驗

    4.1 數(shù)據(jù)集

    本文基于真實圖像的噪聲分布設計網(wǎng)絡模型,使用真實場景的圖像數(shù)據(jù)集DIV2K[14]和RealSR[34]作為訓練數(shù)據(jù)集.DIV2K在NTIRE2017時被提出,在圖像超分辨率重建領域應用非常廣泛,作為NTRIE和PIPM系列競賽的基準數(shù)據(jù)集,其中包含了1000張高質量圖片,涵蓋了豐富的場景,有人物、風景以及生活場景等,分辨率達到2 K,有800張作為訓練數(shù)據(jù),100張作為驗證數(shù)據(jù),100張作為測試數(shù)據(jù).RealSR數(shù)據(jù)集中的圖片采集自Canon 5D3和Nikon D810兩種相機,通過調(diào)整相機的焦距獲得具有不同尺度因子的低分辨率-高分辨率圖像對.數(shù)據(jù)集有3個版本,版本1有234個場景,204個用于訓練,30個用于測試;版本2和版本3都是包含559個場景,其中459個用于訓練,100個用于測試,不同在于版本2 的高質量圖片和低質量圖片有著相同的分辨率,版本3是不同的分辨率.測試數(shù)據(jù)集使用AIM2019測試集和RealSR測試集.AIM2019測試集數(shù)據(jù)來自于DIV2K,制作低分辨率圖像時使用了不同的退化過程,包括隨機的噪聲信息,與RealSR數(shù)據(jù)集相比有較高的噪聲強度.

    4.2 評價指標

    在圖像超分辨率重建領域,驗證模型有效性常見的評價指標是峰值信噪比(Peak Signal to Noise Ratio, PSNR)和結構相似性(Structural Similarity, SSIM)[35].模型性能越好,獲得的數(shù)值越高.而使用的評價指標學習感知圖像塊相似度(Learned Perceptual Image Patch Similarity, LPIPS)[36]則是數(shù)值越低,模型性能越好.

    4.2.1 PSNR PSNR是信號最大功率和破壞性噪聲功率的比值.由于信號的動態(tài)范圍比較大,表示時使用對數(shù)分貝單位,其定義為

    PSNRIHR,ISR=10×log102n-12MSEIHR,ISR(19)

    其中,MSE表示兩個圖像的均方誤差;n表示像素的位深,一般取值為8,則像素的最大值為255.MSE越小,PSNR越大,則表明圖像相似度越高,在圖像超分辨重建領域則表明圖像重建質量越好.PSNR高于38 dB時人眼便很難分辨圖像之間的差異,低于20 dB時圖像質量便很差,不能被接受.

    4.2.2 SSIM SSIM是從圖像組成的角度來估計兩個圖像之間的相似度.結構信息、亮度和對比度組合起來共同反應失真建模.給定圖像x和y,SSIM定義表示為

    SSIM(x,y)=2μxμy+c12σxy+c2μ2x+μ2y+c1σ2x+σ2y+c2(20)

    其中,μx表示x的平均值;σ2x表示x的方差;μx表示y的平均值;σ2y表示y的方差;σxy表示x和y的協(xié)方差;c1和c2表示常數(shù),用來維持穩(wěn)定.SSIM值的范圍是[0,1],值為1時,表示兩幅圖像完全相同.

    4.2.3 LPIPS LPIPS用來度量生成圖像和真實圖像的特征差異,與人類的感知更加一致,需要將兩個圖像輸入到網(wǎng)絡中,計算方式表示為

    dx,x0=∑l1HlWl∑h,wwl⊙y^lh w-y^l0h w22(21)

    其中,x表示真實圖像;x0表示生成圖像;HlWl表示第l層特征圖大小;y^lh w和y^l0h w分別表示真實圖像和生成圖像第l層提取的特征;wl表示通道向量,在每個通道中計算L2獲得差異,最后計算加權平均值.

    4.3 實驗設置

    為獲得更多訓練數(shù)據(jù),對數(shù)據(jù)集進行數(shù)據(jù)增強,分別進行90°、180°以及270°旋轉,對旋轉后的圖像再做水平方向和垂直方向的鏡像反轉.由于硬件設備有限,在訓練前將圖像裁剪為32×32的圖像塊,重建后的圖像塊為128×128.

    訓練網(wǎng)絡的過程中,網(wǎng)絡參數(shù)的迭代優(yōu)化使用Adam算法,其中設置β1=0.9,β2=0.999,β=10-8,學習率初值設置為1×10-4,在訓練過程中按周期減半.實驗過程使用到的硬件環(huán)境CPU為 Intel i5-10400F @2.90 GHz,32 G的計算內(nèi)存,GPU為NVIDIA GTX 1080Ti,系統(tǒng)環(huán)境為Windows 10,使用深度學習框架PyTorch和開發(fā)環(huán)境PyCharm.

    4.4 方法對比

    在圖像超分辨率重建任務中,4倍放大的重建難度最高,其效果也更能展現(xiàn)模型性能,由于篇幅原因,本文僅給出了不同方法在RealSR測試集和AIM2019測試集進行4倍放大重建的實驗結果.

    由表1可看出,本文模型在含有噪聲信息的低分辨率圖像重建結果中具有最優(yōu)表現(xiàn).相比基于真實場景的無監(jiān)督網(wǎng)絡模型DASR,PSNR增長了0.66 dB,SSIM增長了0.0308,LPIPS降低了0.085,在各項指標中有著不同程度的提升.另外相比于經(jīng)典的SRGAN方法提升較大,PSNR增長了2.7,SSIM增長了0.0652,LPIPS降低了0.962.

    由于AIM2019測試集包含較多的噪聲信息,在表1中可看到,較于RealSR測試集整體的指標表現(xiàn)均有下降,但本文模型的重建表現(xiàn)仍為最佳.相較于DASR,PSNR增長了0.44 dB,SSIM增長了0.0339,LPIPS降低了0.118.

    除了使用PSNR、SSIM和LPIPS這樣的量化指標來驗證本文模型的效果,還可通過視覺效果圖來進行分析.本文給出了AIM2019測試集中“0846”、“0883”和“0898”的結果展示.從圖5中可以看出,低分辨率圖像包含較明顯的噪聲信息,SRCNN、SRGAN、ESRGAN、RCAN和ZSSR的重建效果一般,DASR稍好一點,但噪聲問題仍存在,無法較好抑制噪聲.而本文模型重建出的結果更清晰,視覺效果與高分辨率圖像更接近,較好地抑制了噪聲.

    4.5 消融實驗

    為驗證本文模型中NDCN網(wǎng)絡的優(yōu)勢,用經(jīng)典去噪方法中值濾波(Median filter)處理圖像后再使用本文的重建網(wǎng)絡.另外對NDCN網(wǎng)絡和判別網(wǎng)絡兩部分進行消融實驗對比(結果如表2),去掉噪聲收集網(wǎng)絡,并使用傳統(tǒng)的 VGG19 判別網(wǎng)絡,然后再分別添加噪聲收集網(wǎng)絡和使用U-Net判別網(wǎng)絡.

    由表2可知,對低分辨率圖像先進行去噪再進行圖像超分辨率重建的方法性能較差,說明將圖像去噪與超分辨率重構融合處理的思想具有一定的優(yōu)勢.另外本文網(wǎng)絡模型與不使用噪聲收集網(wǎng)絡和U-Net判別網(wǎng)絡的設置下相比,PSNR值增長了0.73 dB,SSIM增長了0.0208,LPIPS下降了0.135.在與分別不使用噪聲收集網(wǎng)絡和U-Net判別網(wǎng)絡的情況對比時,指標體現(xiàn)的效果均有不同程度的下降,說明噪聲收集網(wǎng)絡和U-Net判別網(wǎng)絡都對網(wǎng)絡模型的效果提升做出了貢獻.

    5 結 論

    本文基于存在噪聲信息的真實場景低分辨率圖像來展開圖像超分辨率研究.直接對含有噪聲信息的低分辨率圖像進行重建會影響圖像的重建質量,而如果在重建前進行去噪處理,會使得對重建過程有用的高頻信息也被過濾掉,原有信息被破壞,提高了圖像重建的難度.因此本文提出了一種新的基于噪聲分布的真實圖像超分辨率算法模型,使用生成對抗網(wǎng)絡的結構設計,通過引入NDCN網(wǎng)絡,能夠獲取低分辨率圖像的噪聲分布,用于指導生成網(wǎng)絡和判別網(wǎng)絡,并在此基礎上利用U型網(wǎng)絡提高判別網(wǎng)絡的判斷能力,在完成圖像重建任務的同時降低噪聲信息對圖像質量的影響.

    雖然本文網(wǎng)絡模型在包含噪聲信息的真實場景圖像超分辨率重建任務中有著不錯表現(xiàn),但真實場景下的自然圖像超分辨率重建還面臨著很多問題.比如,現(xiàn)在用于超分辨率重建的真實場景數(shù)據(jù)集包含成對低分辨率和高分辨率圖像的數(shù)量并不多.未來可從兩個方面考慮該問題的解決方案.一方面是從擴充數(shù)據(jù)集的角度,考慮真實低分辨率圖像的多種退化過程,生成更貼近自然的低分辨率圖像;另一方面是從非成對數(shù)據(jù)集訓練方法的角度,只需要任意真實場景的高分辨率圖像和低分辨率圖像就可進行訓練.

    參考文獻:

    [1] 李千, 趙逢禹. 融合多路徑與混合注意力的遙感圖像超分辨率重建[J/OL]. 小型微型計算機系統(tǒng), 錄用定稿[2022-06-02].https://kns.cnki.net/kcms/detail/21.1106.TP.20220513.1247.014.html.

    [2] 夏英, 黃秉坤.采用改進YOLOv3的高分辨率遙感圖像目標檢測[J].重慶郵電大學學報: 自然科學版, 2022, 34: 383.

    [3] 朱海琦, 李宏, 李定文, 等. 基于生成對抗網(wǎng)絡的單圖像超分辨率重建[J]. 吉林大學學報: 理學版,? 2021,? 59: 1491.

    [4] 張意, 闞子文, 邵志敏, 等.基于注意力機制和感知損失的遙感圖像去噪[J]. 四川大學學報: 自然科學版,? 2021, 58: 042001.

    [5] Schultz R R, Stevenson R L. Extraction of high-resolution frames from video sequences [J]. IEEE T Image Process, 1996, 5: 996.

    [6] Irani M, Peleg S. Improving resolution by image registration [J]. CVGIP: Graph Mod Image Process, 1991, 53: 231.

    [7] Elad M, Feuer A. Restoration of a single superresolution image from several blurred, noisy, and undersampled measured images [J]. IEEE T Image Process, 1997, 6: 1646.

    [8] Chang H, Yeung D Y, Xiong Y. Super-resolution through neighbor embedding [C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2004.

    [9] Yang J, Wright J, Huang T S, et al. Image super-resolution via sparse representation [J]. IEEE? T Image Process, 2010, 19: 2861.

    [10] Timofte R, De Smet V, Van Gool L. Anchored neighborhood regression for fast examplebased super-resolution [C]//Proceedings of the IEEE International Conference on Computer Vision. Piscataway: IEEE Computer Society, 2013.

    [11] Dong C, Loy C C, He K, et al. Image super-resolution using deep convolutional networks [J]. IEEE T Pattern Anal, 2015, 38: 295.

    [12] Dong C, Loy C C, Tang X. Accelerating the super-resolution convolutional neural network [C]//Proceedings of the European Conference on Computer Vision. Berlin: Springer, 2016.

    [13] Shi W, Caballero J, Huszár F, et al. Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2016.

    [14] Kim J, Lee J K, Lee K M. Accurate image super-resolution using very deep convolutional networks [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2016.

    [15] Ledig C, Theis L, Huszár F, et al. Photo-realistic single image super-resolution using a generative adversarial network [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2017.

    [16] Agustsson E, Timofte R. Ntire 2017 challenge on single image super-resolution: Dataset and study [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2017.

    [17] Lim B, Son S, Kim H, et al. Enhanced deep residual networks for single image superresolution [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2017.

    [18] Tong T, Li G, Liu X, et al. Image super-resolution using dense skip connections [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2017.

    [19] Zhang Y, Tian Y, Kong Y, et al. Residual dense network for image super-resolution [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2018.

    [20] Zhang Y, Li K, Li K, et al. Image super-resolution using very deep residual channel attention networks [C]//Proceedings of the European Conference on Computer Vision. Berlin, German: Springer, 2018.

    [21] Li Z, Yang J, Liu Z, et al. Feedback network for image super-resolution [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2019.

    [22] Muqeet A, Iqbal M T B, Bae S H. HRAN: Hybrid residual attention network for single image super-resolution [J]. IEEE Access, 2019, 7: 137020.

    [23] Hyun S, Heo J P. VarSR: Variational super-resolution network for very low resolution images [C]//Proceedings of the European Conference on Computer Vision. Berlin: Springer, 2020.

    [24] Qiao C, Li D, Guo Y, et al. Evaluation and development of deep neural networks for image super-resolution in optical microscopy [J]. Nat Methods, 2021, 18: 194.

    [25] Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets [C]//Neural Information Processing Systems. Cambridge: MIT Press, 2014.

    [26] Wang X, Yu K, Wu S, et al. Esrgan: enhanced super-resolution generative adversarial networks [C] //Proceedings of the European Conference on Computer Vision. Berlin: Springer, 2018.

    [27] Shocher A, Cohen N, Irani M. “zero-shot” super-resolution using deep internal learning [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2018 .

    [28] Fritsche M, Gu S, Timofte R. Frequency separation for real-world super-resolution [C]//Proceedings of the IEEE/CVF International Conference on Computer Vision Workshop. Piscataway: IEEE Computer Society, 2019.

    [29] Wang L, Wang Y, Dong X, et al. Unsupervised degradation representation learning for blind super-resolution [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2021.

    [30] Guo S, Yan Z, Zhang K, et al. Toward convolutional blind denoising of real photographs [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2019.

    [31] Qin Z, Zhang P, Wu F, et al. Fcanet: frequency channel attention networks [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2021.

    [32] Arjovsky M, Chintala S, Bottou L. Wasserstein generative adversarial networks [C]//Proceedings of the International Conference on Machine Learning. New York: PMLR, 2017.

    [33] Gulrajani I, Ahmed F, Arjovsky M, et al. Improved training of wasserstein GANs [J]. Neur IPS, 2017, 30: 5767.

    [34] Cai J, Zeng H, Yong H, et al. Toward real-world single image super-resolution: a new benchmark and a new model [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2019.

    [35] Wang Z, Bovik A C, Sheikh H R, et al. Image quality assessment: from error visibility to structural similarity [J]. IEEE T Image Process, 2004, 13: 600.

    [36] Zhang R, Isola P, Efros A A, et al. The unreasonable effectiveness of deep features as a perceptual metric [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2018.

    引用本文格式:

    中 文: 王曄, 孫志寬, 李征. 基于生成對抗網(wǎng)絡與噪聲分布的圖像超分辨率重建方法[J]. 四川大學學報: 自然科學版, 2023, 60: 032001.

    英 文: Wang Y, Sun Z K, Li Z. An image super-resolution reconstruction method based on Generative Adversarial Network and noise distribution [J]. J Sichuan Univ: Nat Sci Ed, 2023, 60: 032001.

    猜你喜歡
    低分辨率殘差分辨率
    紅外熱成像中低分辨率行人小目標檢測方法
    紅外技術(2022年11期)2022-11-25 08:12:22
    基于偏移學習的低分辨率人體姿態(tài)估計
    基于雙向GRU與殘差擬合的車輛跟馳建模
    基于殘差學習的自適應無人機目標跟蹤算法
    基于遞歸殘差網(wǎng)絡的圖像超分辨率重建
    自動化學報(2019年6期)2019-07-23 01:18:32
    EM算法的參數(shù)分辨率
    原生VS最大那些混淆視聽的“分辨率”概念
    樹木的低分辨率三維模型資源創(chuàng)建實踐
    藝術科技(2018年2期)2018-07-23 06:35:17
    基于深度特征學習的圖像超分辨率重建
    自動化學報(2017年5期)2017-05-14 06:20:52
    一種改進的基于邊緣加強超分辨率算法
    老司机在亚洲福利影院| 好看av亚洲va欧美ⅴa在| 欧美高清成人免费视频www| 亚洲精品乱码久久久v下载方式 | 99国产精品一区二区蜜桃av| 欧美最黄视频在线播放免费| 欧美绝顶高潮抽搐喷水| 欧美xxxx黑人xx丫x性爽| 在线视频色国产色| 九色国产91popny在线| 偷拍熟女少妇极品色| 嫩草影视91久久| 亚洲av二区三区四区| 色尼玛亚洲综合影院| 中国美女看黄片| 国产黄色小视频在线观看| 成人午夜高清在线视频| 国产亚洲精品久久久com| 国产成人影院久久av| 宅男免费午夜| 国内揄拍国产精品人妻在线| 日本免费一区二区三区高清不卡| 日韩成人在线观看一区二区三区| 搡女人真爽免费视频火全软件 | 蜜桃久久精品国产亚洲av| 久久天躁狠狠躁夜夜2o2o| 日韩高清综合在线| 一区二区三区免费毛片| 俺也久久电影网| 在线观看日韩欧美| 99精品久久久久人妻精品| 嫩草影院入口| 有码 亚洲区| 欧美激情久久久久久爽电影| 日韩欧美国产一区二区入口| 欧美日韩中文字幕国产精品一区二区三区| 免费在线观看成人毛片| 国产精品亚洲美女久久久| av天堂在线播放| 90打野战视频偷拍视频| 18禁黄网站禁片午夜丰满| 免费人成在线观看视频色| 国产99白浆流出| 久久中文看片网| 亚洲精品久久国产高清桃花| 色尼玛亚洲综合影院| 黄色日韩在线| 国产成年人精品一区二区| 黄片大片在线免费观看| 可以在线观看毛片的网站| 色哟哟哟哟哟哟| 免费高清视频大片| 99热6这里只有精品| 亚洲av中文字字幕乱码综合| 人人妻人人澡欧美一区二区| 亚洲性夜色夜夜综合| 三级毛片av免费| 成人精品一区二区免费| 久久人人精品亚洲av| 最近视频中文字幕2019在线8| 热99re8久久精品国产| 国产欧美日韩精品一区二区| 日韩精品青青久久久久久| 久久久久久大精品| 欧美一级毛片孕妇| 黄色日韩在线| 亚洲精品美女久久久久99蜜臀| 国产亚洲av嫩草精品影院| 国产成人a区在线观看| 亚洲国产高清在线一区二区三| 免费电影在线观看免费观看| 亚洲最大成人手机在线| 波多野结衣巨乳人妻| 欧美+亚洲+日韩+国产| 欧美一区二区国产精品久久精品| 午夜影院日韩av| 国内毛片毛片毛片毛片毛片| 精品日产1卡2卡| 亚洲va日本ⅴa欧美va伊人久久| 91av网一区二区| 51午夜福利影视在线观看| 婷婷丁香在线五月| 国产精品亚洲一级av第二区| 国产高清视频在线观看网站| 午夜激情福利司机影院| 人人妻人人看人人澡| 日韩欧美国产一区二区入口| xxx96com| 国产午夜福利久久久久久| www.999成人在线观看| 一本一本综合久久| 成人欧美大片| 色在线成人网| 久久精品91无色码中文字幕| 高清在线国产一区| 日韩免费av在线播放| 丰满乱子伦码专区| 亚洲男人的天堂狠狠| 欧美日韩精品网址| 亚洲精品美女久久久久99蜜臀| 熟女人妻精品中文字幕| 一级毛片高清免费大全| 亚洲成人中文字幕在线播放| 免费搜索国产男女视频| 午夜精品一区二区三区免费看| 国产免费一级a男人的天堂| 久久香蕉国产精品| 国产精品久久久久久久久免 | 中文亚洲av片在线观看爽| 亚洲av美国av| 18禁黄网站禁片午夜丰满| 91九色精品人成在线观看| 亚洲精品日韩av片在线观看 | 在线播放无遮挡| 无遮挡黄片免费观看| 精品午夜福利视频在线观看一区| 久久国产精品影院| 国产av不卡久久| 午夜激情欧美在线| 婷婷精品国产亚洲av| 久久中文看片网| 亚洲国产色片| 国产伦一二天堂av在线观看| 国产91精品成人一区二区三区| 久久久色成人| 一本综合久久免费| 国产成人系列免费观看| 99riav亚洲国产免费| 欧美最黄视频在线播放免费| 婷婷精品国产亚洲av在线| 香蕉丝袜av| 在线看三级毛片| 91在线观看av| 精品国产美女av久久久久小说| 国产亚洲av嫩草精品影院| a级一级毛片免费在线观看| 国产av在哪里看| 日日干狠狠操夜夜爽| 内地一区二区视频在线| 久久久久久人人人人人| 最近最新中文字幕大全免费视频| 夜夜躁狠狠躁天天躁| 男人舔奶头视频| 欧美一区二区亚洲| 国产aⅴ精品一区二区三区波| 人妻夜夜爽99麻豆av| 乱人视频在线观看| 色尼玛亚洲综合影院| 精品一区二区三区人妻视频| 岛国在线免费视频观看| 真实男女啪啪啪动态图| 精品久久久久久,| 天天躁日日操中文字幕| 欧美一级a爱片免费观看看| 男人舔奶头视频| 搡老妇女老女人老熟妇| 日韩大尺度精品在线看网址| www日本黄色视频网| www.www免费av| 国产av麻豆久久久久久久| 91av网一区二区| 在线观看午夜福利视频| 中文资源天堂在线| 丰满人妻一区二区三区视频av | 国产精品1区2区在线观看.| 日本精品一区二区三区蜜桃| 美女高潮的动态| 黄色成人免费大全| 黄色视频,在线免费观看| 人妻久久中文字幕网| 欧美日韩综合久久久久久 | av天堂在线播放| 欧美zozozo另类| 夜夜躁狠狠躁天天躁| 午夜影院日韩av| 在线观看午夜福利视频| 国产亚洲精品综合一区在线观看| 国产91精品成人一区二区三区| 黄色片一级片一级黄色片| 国内精品一区二区在线观看| 久久香蕉国产精品| 国产高清videossex| 日韩人妻高清精品专区| 夜夜爽天天搞| 亚洲国产欧美网| 色噜噜av男人的天堂激情| 日本一二三区视频观看| 欧美乱色亚洲激情| 国产精品日韩av在线免费观看| 欧美3d第一页| 一区二区三区高清视频在线| 亚洲欧美一区二区三区黑人| 小蜜桃在线观看免费完整版高清| 国产免费av片在线观看野外av| 1024手机看黄色片| 精品福利观看| 亚洲av一区综合| 天堂影院成人在线观看| 波多野结衣高清无吗| 久久亚洲真实| 搡老熟女国产l中国老女人| 国产伦精品一区二区三区视频9 | 一区二区三区高清视频在线| 亚洲精品久久国产高清桃花| 亚洲国产欧美网| 久久婷婷人人爽人人干人人爱| 欧美日韩福利视频一区二区| 女同久久另类99精品国产91| 日本a在线网址| 欧美一级a爱片免费观看看| 国产三级在线视频| 午夜福利视频1000在线观看| 手机成人av网站| 国产一区二区在线av高清观看| 精品日产1卡2卡| 国产高潮美女av| 欧美xxxx黑人xx丫x性爽| 色综合婷婷激情| 他把我摸到了高潮在线观看| 精品午夜福利视频在线观看一区| 婷婷精品国产亚洲av在线| 欧美成人a在线观看| 国产激情偷乱视频一区二区| 国产91精品成人一区二区三区| 成年免费大片在线观看| 老汉色∧v一级毛片| 亚洲欧美日韩卡通动漫| 国产亚洲精品一区二区www| 香蕉av资源在线| 美女高潮的动态| 亚洲一区二区三区色噜噜| 俄罗斯特黄特色一大片| 九色国产91popny在线| 亚洲国产精品999在线| 免费观看的影片在线观看| 91九色精品人成在线观看| 88av欧美| 精品日产1卡2卡| 国产高潮美女av| 国产精品 国内视频| 少妇的逼水好多| 国产免费av片在线观看野外av| 国内精品久久久久久久电影| 中文亚洲av片在线观看爽| 18禁在线播放成人免费| 国产欧美日韩精品一区二区| 九九久久精品国产亚洲av麻豆| 麻豆成人午夜福利视频| 免费av不卡在线播放| 俄罗斯特黄特色一大片| 少妇的逼水好多| 国产私拍福利视频在线观看| 亚洲国产中文字幕在线视频| 丁香欧美五月| 久久午夜亚洲精品久久| 中文亚洲av片在线观看爽| 一个人免费在线观看电影| 窝窝影院91人妻| 国产精品久久久久久精品电影| 国产中年淑女户外野战色| 国产老妇女一区| 少妇裸体淫交视频免费看高清| 国产色婷婷99| 美女黄网站色视频| 级片在线观看| 搡女人真爽免费视频火全软件 | 悠悠久久av| 国产精品久久视频播放| 白带黄色成豆腐渣| 狠狠狠狠99中文字幕| 色综合婷婷激情| 五月玫瑰六月丁香| 级片在线观看| 丰满的人妻完整版| 99久久综合精品五月天人人| 日本与韩国留学比较| 亚洲av免费高清在线观看| 网址你懂的国产日韩在线| 99国产综合亚洲精品| 中文字幕久久专区| 亚洲av美国av| 国产aⅴ精品一区二区三区波| av国产免费在线观看| x7x7x7水蜜桃| 精品国产亚洲在线| 日韩高清综合在线| 麻豆成人av在线观看| 亚洲狠狠婷婷综合久久图片| 天堂av国产一区二区熟女人妻| 99久久精品热视频| 亚洲av电影不卡..在线观看| 欧美在线黄色| 成年女人毛片免费观看观看9| 亚洲专区中文字幕在线| 在线观看免费午夜福利视频| 一区二区三区高清视频在线| 99在线视频只有这里精品首页| 变态另类成人亚洲欧美熟女| 亚洲av熟女| 欧美日本视频| 九九热线精品视视频播放| 国产成人av激情在线播放| 国产蜜桃级精品一区二区三区| 国产v大片淫在线免费观看| 日韩精品青青久久久久久| 欧美色视频一区免费| 欧美最新免费一区二区三区 | 亚洲成av人片免费观看| 手机成人av网站| 日本免费a在线| 欧美高清成人免费视频www| 变态另类丝袜制服| 一级毛片女人18水好多| 亚洲熟妇中文字幕五十中出| 日本一本二区三区精品| 美女高潮喷水抽搐中文字幕| 日本在线视频免费播放| 国产精品av视频在线免费观看| 久久精品国产99精品国产亚洲性色| 男人舔奶头视频| 在线观看免费午夜福利视频| 日韩人妻高清精品专区| 狂野欧美白嫩少妇大欣赏| 国产免费一级a男人的天堂| 男插女下体视频免费在线播放| 波野结衣二区三区在线 | 91在线观看av| 偷拍熟女少妇极品色| 午夜免费男女啪啪视频观看 | 婷婷亚洲欧美| 夜夜爽天天搞| 三级男女做爰猛烈吃奶摸视频| av视频在线观看入口| 成人永久免费在线观看视频| 我要搜黄色片| 国产精品香港三级国产av潘金莲| 18禁裸乳无遮挡免费网站照片| 国产精品国产高清国产av| 超碰av人人做人人爽久久 | 国产成年人精品一区二区| 一本精品99久久精品77| 国产91精品成人一区二区三区| 色尼玛亚洲综合影院| 国产主播在线观看一区二区| 日本在线视频免费播放| 高清日韩中文字幕在线| 亚洲人成网站高清观看| 免费高清视频大片| av专区在线播放| 亚洲av成人av| 免费在线观看日本一区| 国产亚洲欧美在线一区二区| 欧美高清成人免费视频www| 欧美性猛交黑人性爽| 午夜精品一区二区三区免费看| 精品乱码久久久久久99久播| 夜夜躁狠狠躁天天躁| 五月玫瑰六月丁香| 国产欧美日韩精品一区二区| 热99在线观看视频| 可以在线观看的亚洲视频| 亚洲欧美激情综合另类| 可以在线观看的亚洲视频| 精品久久久久久久人妻蜜臀av| 国产不卡一卡二| 亚洲五月婷婷丁香| 午夜日韩欧美国产| 国产一区在线观看成人免费| 亚洲最大成人手机在线| 一级毛片高清免费大全| 九九久久精品国产亚洲av麻豆| 午夜福利在线观看吧| 久久久久久久久中文| 神马国产精品三级电影在线观看| 中文字幕熟女人妻在线| 一卡2卡三卡四卡精品乱码亚洲| 黄色日韩在线| 久久久久久国产a免费观看| 老司机福利观看| 在线观看av片永久免费下载| 午夜福利免费观看在线| 精品国产三级普通话版| 欧美成狂野欧美在线观看| 欧美日韩国产亚洲二区| 在线观看一区二区三区| 国产精华一区二区三区| 黄色日韩在线| 国产亚洲av嫩草精品影院| 不卡一级毛片| 在线观看免费午夜福利视频| 人人妻人人澡欧美一区二区| 婷婷丁香在线五月| 他把我摸到了高潮在线观看| 国产色爽女视频免费观看| 在线免费观看的www视频| 精品一区二区三区av网在线观看| 国产一区二区在线av高清观看| 麻豆一二三区av精品| 久久久精品欧美日韩精品| 国内精品久久久久精免费| 哪里可以看免费的av片| 午夜视频国产福利| 18禁在线播放成人免费| 激情在线观看视频在线高清| 天天躁日日操中文字幕| 精品一区二区三区视频在线观看免费| 可以在线观看的亚洲视频| 神马国产精品三级电影在线观看| 免费看日本二区| 美女大奶头视频| 欧美一级毛片孕妇| 一进一出好大好爽视频| 亚洲在线观看片| 国产一区二区激情短视频| 中文字幕高清在线视频| 深爱激情五月婷婷| 又黄又爽又免费观看的视频| 亚洲精品久久国产高清桃花| 12—13女人毛片做爰片一| 女警被强在线播放| 亚洲自拍偷在线| 成年女人毛片免费观看观看9| 少妇丰满av| 中文字幕人妻熟人妻熟丝袜美 | 麻豆成人午夜福利视频| 午夜免费成人在线视频| 亚洲av不卡在线观看| 久久婷婷人人爽人人干人人爱| 制服人妻中文乱码| 国产亚洲欧美在线一区二区| 内射极品少妇av片p| 久久久久久久精品吃奶| 欧美三级亚洲精品| 精品无人区乱码1区二区| 成人三级黄色视频| 色尼玛亚洲综合影院| 国产成年人精品一区二区| 天堂av国产一区二区熟女人妻| av在线天堂中文字幕| 国产精品乱码一区二三区的特点| 欧美成人一区二区免费高清观看| 国产高潮美女av| 日本撒尿小便嘘嘘汇集6| 国产真人三级小视频在线观看| 尤物成人国产欧美一区二区三区| 免费高清视频大片| 婷婷六月久久综合丁香| 精品99又大又爽又粗少妇毛片 | 日韩 欧美 亚洲 中文字幕| 亚洲人成网站在线播| 精品国产美女av久久久久小说| 人妻丰满熟妇av一区二区三区| 欧美性猛交╳xxx乱大交人| 国产探花在线观看一区二区| 深爱激情五月婷婷| 欧美最新免费一区二区三区 | 少妇的丰满在线观看| 国内揄拍国产精品人妻在线| 午夜精品一区二区三区免费看| 久久99热这里只有精品18| 狂野欧美激情性xxxx| 女人高潮潮喷娇喘18禁视频| 欧美日韩一级在线毛片| 熟女电影av网| 91在线精品国自产拍蜜月 | 国产亚洲欧美在线一区二区| 午夜视频国产福利| 国产成年人精品一区二区| 蜜桃久久精品国产亚洲av| 亚洲美女黄片视频| 狂野欧美白嫩少妇大欣赏| 大型黄色视频在线免费观看| av女优亚洲男人天堂| 变态另类成人亚洲欧美熟女| 综合色av麻豆| 免费人成在线观看视频色| 精品国产美女av久久久久小说| 又爽又黄无遮挡网站| 此物有八面人人有两片| 高清毛片免费观看视频网站| h日本视频在线播放| 黄色视频,在线免费观看| 亚洲天堂国产精品一区在线| 午夜福利欧美成人| 99久久精品国产亚洲精品| 免费看a级黄色片| 熟女少妇亚洲综合色aaa.| 黄片小视频在线播放| 日日摸夜夜添夜夜添小说| 免费观看人在逋| h日本视频在线播放| 精品一区二区三区视频在线 | 美女高潮的动态| www.色视频.com| 欧美最黄视频在线播放免费| 51午夜福利影视在线观看| 亚洲国产高清在线一区二区三| 精品无人区乱码1区二区| 精品国产三级普通话版| 国产欧美日韩精品一区二区| 女人十人毛片免费观看3o分钟| 国产极品精品免费视频能看的| 国产日本99.免费观看| 国产伦精品一区二区三区视频9 | 久久久久久久久久黄片| 搡老熟女国产l中国老女人| 欧美xxxx黑人xx丫x性爽| 日韩人妻高清精品专区| 欧美中文综合在线视频| 国产成人福利小说| 99久久九九国产精品国产免费| tocl精华| 国产真实伦视频高清在线观看 | 成熟少妇高潮喷水视频| АⅤ资源中文在线天堂| 亚洲国产精品合色在线| 别揉我奶头~嗯~啊~动态视频| 成人三级黄色视频| 亚洲欧美日韩高清在线视频| 观看美女的网站| 动漫黄色视频在线观看| 欧美黄色淫秽网站| 国产成年人精品一区二区| 国产伦一二天堂av在线观看| 国产精华一区二区三区| 亚洲欧美日韩无卡精品| 久久久精品大字幕| 搡老妇女老女人老熟妇| 人妻夜夜爽99麻豆av| 99久久综合精品五月天人人| 长腿黑丝高跟| 国产精品一区二区三区四区免费观看 | 精品一区二区三区av网在线观看| 制服丝袜大香蕉在线| 国产午夜福利久久久久久| 欧美3d第一页| 波多野结衣高清作品| 国产精品乱码一区二三区的特点| 99在线视频只有这里精品首页| 18禁黄网站禁片免费观看直播| 国产色婷婷99| 欧美在线一区亚洲| 久久精品人妻少妇| 国内久久婷婷六月综合欲色啪| 综合色av麻豆| 99视频精品全部免费 在线| 99久久精品国产亚洲精品| 18禁国产床啪视频网站| 国产午夜精品论理片| 青草久久国产| 国产真实伦视频高清在线观看 | 99久久成人亚洲精品观看| 嫩草影院精品99| 99视频精品全部免费 在线| 夜夜夜夜夜久久久久| 岛国视频午夜一区免费看| 两性午夜刺激爽爽歪歪视频在线观看| 1024手机看黄色片| av欧美777| 午夜视频国产福利| 日韩高清综合在线| 亚洲自拍偷在线| 国产色婷婷99| 免费搜索国产男女视频| 神马国产精品三级电影在线观看| 制服人妻中文乱码| 18禁美女被吸乳视频| 国产高清视频在线播放一区| 亚洲avbb在线观看| 噜噜噜噜噜久久久久久91| 亚洲人成网站在线播放欧美日韩| 欧美中文日本在线观看视频| 国产乱人视频| 午夜久久久久精精品| 一个人免费在线观看电影| 一区二区三区高清视频在线| 欧美国产日韩亚洲一区| 国产精品自产拍在线观看55亚洲| 国产视频一区二区在线看| 日本黄色片子视频| 长腿黑丝高跟| 黄色日韩在线| 欧美黄色淫秽网站| 少妇的逼好多水| 网址你懂的国产日韩在线| 在线看三级毛片| 国产高清视频在线观看网站| 白带黄色成豆腐渣| 国产视频内射| 亚洲精品色激情综合| 婷婷亚洲欧美| 99久久精品国产亚洲精品| 国产高清视频在线观看网站| 老熟妇乱子伦视频在线观看| 久久久久性生活片| 一二三四社区在线视频社区8| 欧美日韩精品网址| 夜夜夜夜夜久久久久| 长腿黑丝高跟| 久久国产精品影院| 久久草成人影院| 深夜精品福利| 国产黄片美女视频| 两人在一起打扑克的视频| 亚洲熟妇中文字幕五十中出| 一个人看的www免费观看视频| e午夜精品久久久久久久| 亚洲av成人av| 小说图片视频综合网站| 99久久综合精品五月天人人| 90打野战视频偷拍视频| 不卡一级毛片| 亚洲第一电影网av| 天美传媒精品一区二区| 嫩草影视91久久|