• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    結(jié)合坐標(biāo)注意力與生成式對(duì)抗網(wǎng)絡(luò)的圖像超分辨率重建*

    2024-01-24 14:38:02彭晏飛李泳欣劉藍(lán)兮
    關(guān)鍵詞:特征模型

    彭晏飛,孟 欣,李泳欣,劉藍(lán)兮

    (遼寧工程技術(shù)大學(xué)電子與信息工程學(xué)院,遼寧 葫蘆島 125100)

    1 引言

    圖像超分辨率SR(Super-Resolution)重建技術(shù)旨在將給定的低分辨率LR(Low-Resolution)圖像經(jīng)過一系列過程恢復(fù)出其對(duì)應(yīng)的高分辨率HR(High-Resolution)圖像,是一種底層的計(jì)算機(jī)視覺任務(wù),被廣泛應(yīng)用于衛(wèi)星遙感[1]、人臉識(shí)別[2]和醫(yī)學(xué)成像[3]等領(lǐng)域。早期,圖像SR重建分為基于插值[4]的方法、基于重建[5]的方法和基于學(xué)習(xí)[6]的方法,主要依賴約束項(xiàng)的構(gòu)造以及圖像之間配準(zhǔn)的精確度實(shí)現(xiàn)重建效果,因此難以恢復(fù)出HR圖像原本的細(xì)節(jié)信息。隨著深度學(xué)習(xí)的迅速發(fā)展,傳統(tǒng)SR重建方法中的瓶頸問題迎刃而解。目前,基于卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolutional Neural Network)的方法已經(jīng)成為主流。Dong等人[7]最先將CNN應(yīng)用于圖像SR重建問題中,提出了具有里程碑式意義的SRCNN(Super-Resolution Convolutional Neural Network),僅使用3個(gè)卷積層就實(shí)現(xiàn)了從LR圖像到HR圖像的重建過程。受這一開創(chuàng)性工作的啟發(fā),Kim等人[8]提出了具有深層網(wǎng)絡(luò)的VDSR(Super_Resolution using Very Deep convolutional network),首次將殘差學(xué)習(xí)[9]應(yīng)用于圖像SR重建問題中,實(shí)驗(yàn)結(jié)果表明該網(wǎng)絡(luò)取得了更好的重建效果。同年,Kim等人[10]在VDSR的基礎(chǔ)上進(jìn)行改進(jìn),提出了DRCN(Deeply Recursive Convolutional Network),該網(wǎng)絡(luò)使用16個(gè)遞歸層,通過遞歸監(jiān)督和跳躍連接的方法提高了模型的性能。由于將經(jīng)過插值的LR圖像作為輸入增加了計(jì)算復(fù)雜度,因此Shi等人[11]提出了ESPCN(Efficient Sub-Pixel Convolutional Neural network),直接將LR圖像作為輸入,采用亞像素卷積層代替反卷積層實(shí)現(xiàn)上采樣過程,大大縮短了模型的運(yùn)行時(shí)間。近年來,注意力機(jī)制被廣泛應(yīng)用于圖像SR重建模型中,Zhang等人[12]將通道注意力集成到殘差塊中,提出了RCAN(Residual Channel Attention Network),注重特征通道之間的相互依賴性,提高了網(wǎng)絡(luò)的表達(dá)能力。通道注意力機(jī)制只是在通道層面選擇感興趣的特征,忽略了空間中的位置信息,而位置信息是視覺任務(wù)中捕獲目標(biāo)結(jié)構(gòu)的關(guān)鍵,因此造成了位置特征利用不充分的問題。

    上述方法都是采用最小化均方誤差MSE(Mean Square Error)的優(yōu)化思想,雖然在峰值信噪比PSNR(Peak Signal-to-Noise Ratio)上取得了較優(yōu)的結(jié)果,但是生成的圖像往往過于平滑和模糊。Goodfellow等人[13]提出的生成式對(duì)抗網(wǎng)絡(luò)GAN(Generative Adversarial Network),將SR重建技術(shù)推向了一個(gè)新的高度,有效緩解了重建圖像的平滑和模糊問題。Ledig等人[14]提出了SRGAN(Super-Resolution Generative Adversarial Network),首次將GAN應(yīng)用于SR任務(wù),通過生成器和判別器的相互迭代訓(xùn)練實(shí)現(xiàn)圖像的重建。隨后,Wang等人[15]對(duì)SRGAN進(jìn)行改進(jìn),提出了ESRGAN(Enhanced Super-Resolution Generative Adversarial Network),將殘差塊中的批量歸一化BN(Batch Normalization)層去掉,使用殘差中嵌入殘差的結(jié)構(gòu)構(gòu)建生成器,使得重建圖像具有豐富的紋理細(xì)節(jié)。Li等人[16]提出了用于高質(zhì)量圖像SR重建的Beby-GAN,采用區(qū)域感知的對(duì)抗學(xué)習(xí)策略,使重建圖像具有更豐富和更合理的紋理。以上網(wǎng)絡(luò)均使用了經(jīng)典的VGG(Visual Geometry Group)式判別器,其輸出是對(duì)圖像整體結(jié)構(gòu)進(jìn)行真假判斷,沒有對(duì)局部紋理進(jìn)行細(xì)致的判斷,因此重建圖像的紋理細(xì)節(jié)不夠逼真。Yan等人[17]提出了FASRGAN,使用了類U-Net(U-shape Network)判別器,并將判別器的其中一個(gè)輸出作為細(xì)粒度注意力反饋給生成器,提升了重建圖像的紋理逼真程度。由于U-Net判別器對(duì)復(fù)雜的訓(xùn)練輸出具有更強(qiáng)的鑒別能力,Wang等人[18]將其應(yīng)用于盲SR任務(wù)中,重建出了清晰且真實(shí)的圖像。但是,GAN模型仍然面臨著因不易收斂和梯度消失而導(dǎo)致的訓(xùn)練不穩(wěn)定問題。

    針對(duì)SR重建的現(xiàn)有問題,本文提出了結(jié)合坐標(biāo)注意力和生成式對(duì)抗網(wǎng)絡(luò)的圖像超分辨率重建模型。將坐標(biāo)注意力CA(Coordinate Attention)[19]嵌入到殘差塊中作為構(gòu)建生成器的基本單元,可以將通道注意力分解為2個(gè)一維特征編碼過程,分別沿通道和空間產(chǎn)生注意力特征圖,增強(qiáng)模型對(duì)特征信息的利用率。引入高級(jí)視覺任務(wù)中的隨機(jī)失活層(Dropout)正則化,調(diào)節(jié)其加入網(wǎng)絡(luò)的方式,并應(yīng)用于SR重建任務(wù)中,防止過擬合并提高模型的泛化能力。將GAN模型中經(jīng)典的VGG式判別器改為U-Net式判別器,對(duì)局部紋理產(chǎn)生精確的梯度反饋,以生成清晰且逼真的SR圖像。并在相匹配的分辨率之間加入跳躍連接,彌補(bǔ)連續(xù)下采樣和上采樣造成的細(xì)節(jié)損失。最后在判別器中加入譜歸一化SN(Spectral Normalization)操作,以穩(wěn)定GAN的訓(xùn)練。通過以上方法充分挖掘特征信息,使重建圖像的局部紋理細(xì)節(jié)更加逼真,進(jìn)一步提升圖像的視覺效果。

    2 工作基礎(chǔ)

    2.1 坐標(biāo)注意力機(jī)制

    通道注意力廣泛應(yīng)用于SR重建任務(wù)中,對(duì)重要通道即高頻特征賦予更大的權(quán)重,對(duì)圖像質(zhì)量提升幅度較小的通道賦予低權(quán)重,從而提升模型的性能。但是,通道注意力忽略了對(duì)生成空間選擇性注意映射很重要的位置信息,使得特征圖中局部空間層面上的信息沒有被合理利用。而CA機(jī)制將位置信息嵌入到通道注意力中,可以捕獲方向感知、位置感知和跨通道的信息。

    CA機(jī)制的實(shí)現(xiàn)包括2個(gè)部分。第1部分是坐標(biāo)信息的嵌入,對(duì)輸入X(設(shè)其高度為H,寬度為W,通道數(shù)為C)使用池化核的2個(gè)空間范圍(H,1)和(1,W)分別沿水平和垂直方向?qū)γ總€(gè)通道進(jìn)行編碼,池化后的特征圖的高度為h(0≤h≤H),寬度為w(0≤w≤W),因此,第c(0≤c≤C)個(gè)通道在高度為h時(shí)的輸出可表示為式(1),同樣地,第c個(gè)通道在寬度為w時(shí)的輸出可表示為式(2):

    (1)

    (2)

    其中,xc(h,i) 表示輸入特征圖中通道為c,坐標(biāo)為(h,i)的分量;xc(j,w)表示輸入特征圖中通道為c,坐標(biāo)為(j,w)的分量。

    以上編碼過程分別沿著2個(gè)空間方向聚合特征,得到一對(duì)方向感知特征圖。第2部分是坐標(biāo)注意力的生成,將聚合的特征映射進(jìn)行級(jí)聯(lián),并將其送入共享的1×1卷積變換函數(shù)F1(·)中,得到編碼水平和垂直2個(gè)方向空間信息的中間特征f:

    f=δ(F1([zh,zw]))

    (3)

    其中,zh表示沿X軸方向平均池化后的輸出,zw表示沿Y軸方向平均池化后的輸出,δ(·)表示h-swish激活函數(shù)。

    接著沿空間維度將f分成2個(gè)單獨(dú)的張量fh和fw,再利用2個(gè)1×1卷積Fh(·)和Fw(·)分別將其通道數(shù)轉(zhuǎn)換成與輸入X相同的通道數(shù),經(jīng)過Sigmoid函數(shù)激活之后分別得到特征圖在高度和寬度方向的注意力權(quán)重gh和gw。該過程可以表示如式(4)和式(5)所示:

    gh=σ(Fh(fh))

    (4)

    gw=σ(Fw(fw))

    (5)

    最后在原始特征圖上通過乘法加權(quán)計(jì)算,最終得到在寬度和高度方向上帶有注意力權(quán)重的特征圖。由于本文設(shè)計(jì)的殘差塊去除了BN層,因此也將CA中的BN層去掉,修改后的CA機(jī)制結(jié)構(gòu)如圖1所示,圖中r表示通道的縮減因子。首先對(duì)輸入特征圖分別沿X軸和Y軸方向進(jìn)行平均池化;然后將2個(gè)方向的特征圖拼接在一起,并輸入卷積模塊進(jìn)行降維(Concat+Conv2d);再經(jīng)過非線性層(Nonlinear)編碼2個(gè)方向的空間信息;接著進(jìn)行分離(Split),通過卷積(Con2d)調(diào)整2個(gè)方向特征向量的通道數(shù);最后與原輸入加權(quán)計(jì)算(Re-weight),得到注意力權(quán)重。將CA嵌入到每個(gè)殘差塊中,使得模型可以捕獲輸入特征圖沿一個(gè)空間方向的長程依賴關(guān)系,更加精準(zhǔn)地識(shí)別圖像中感興趣的部分。

    Figure 1 Structure of coordinate attention圖1 坐標(biāo)注意力結(jié)構(gòu)

    2.2 Dropout正則化

    在高級(jí)計(jì)算機(jī)視覺任務(wù)中,Dropout可以有效降低模型過擬合的風(fēng)險(xiǎn),但在SR重建這種底層視覺任務(wù)中會(huì)造成輸出圖像的部分像素缺失。不過,Kong等人[20]通過研究證明了只要將Dropout加入網(wǎng)絡(luò)的方式進(jìn)行調(diào)整,便可以應(yīng)用于SR重建任務(wù)中,并且有益于提升模型的性能。Dropout的影響主要取決于其在網(wǎng)絡(luò)中的位置、維度和概率。(1)Dropout在網(wǎng)絡(luò)中的位置。Hinton等人[21]將Dropout應(yīng)用于分類任務(wù)輸出之前的完全連接層,類似地,在回歸任務(wù)中可以應(yīng)用于輸出前的卷積層,因此本文將其應(yīng)用于生成器網(wǎng)絡(luò)輸出前的卷積層。(2)Dropout的維度。在卷積層中可以應(yīng)用在元素或通道2個(gè)維度上,Dropout元素維度是指在所有的特征圖上隨機(jī)丟棄元素,這會(huì)造成生成圖像的像素缺失問題。Dropout通道維度是指隨機(jī)丟棄一個(gè)通道,使得PSNR值不再依賴于特定的通道,可提高通道的表達(dá)能力。因此,本文選擇在通道維度應(yīng)用Dropout。(3)Dropout的概率決定了元素或通道被丟棄的概率。在分類網(wǎng)絡(luò)中可以選擇高達(dá)50%的失活概率,由于SR網(wǎng)絡(luò)抵抗信息干擾的魯棒性要差于分類網(wǎng)絡(luò)的,所以過高的概率可能會(huì)丟失部分像素,降低SR網(wǎng)絡(luò)的性能。Kong等人[20]還指出,當(dāng)Dropout的概率為10%,20%和30%時(shí),更有利于SR網(wǎng)絡(luò)性能的提升,本文通過實(shí)驗(yàn)最終選擇使用20%的Dropout概率。

    2.3 U-Net式判別器

    GAN面臨的挑戰(zhàn)之一是判別器難以生成同時(shí)具有全局形狀和局部紋理的真實(shí)圖像。SR重建中常用的VGG式判別器如圖2所示,其中,ISR表示生成器重建出的圖像,IHR表示真實(shí)的高分辨率圖像。該判別器的輸出是基于圖像全局形狀的二分類結(jié)果,通過一個(gè)單一的數(shù)值來區(qū)分真假圖像,因此只是以粗略的方式向生成器提供反饋。而U-Net模型是一個(gè)編碼-解碼的結(jié)構(gòu)。Sch?nfeld等人[22]提出了U-Net GAN,其中編碼器對(duì)圖像整體結(jié)構(gòu)進(jìn)行判斷,解碼器對(duì)圖像進(jìn)行像素級(jí)決策,同時(shí)輸出圖像的全局和局部判定,如圖3所示。這一結(jié)構(gòu)的判別器具有更強(qiáng)的鑒別能力,使得設(shè)計(jì)欺騙判別器的生成器任務(wù)更具挑戰(zhàn)性,從而提高生成圖像的質(zhì)量。受該文獻(xiàn)啟發(fā),本文使用U-Net式判別器,不再是對(duì)圖像的全局樣式進(jìn)行二分類判斷,而是輸出一幅特征圖,即對(duì)每個(gè)像素進(jìn)行分類,每個(gè)像素均輸出一個(gè)真實(shí)數(shù)值,可以向生成器提供一種細(xì)粒度的反饋,以此來更新生成器。這樣,判別器可以對(duì)局部紋理產(chǎn)生精確的梯度反饋,更好地保留局部細(xì)節(jié),使生成的SR圖像盡可能地接近HR圖像。

    Figure 2 Structure of VGG discriminator圖2 VGG式判別器結(jié)構(gòu)圖

    Figure 3 Structure of U-Net GAN圖3 U-Net GAN結(jié)構(gòu)

    2.4 譜歸一化

    基于GAN的SR重建模型增強(qiáng)了生成圖像的真實(shí)感,但是GAN也面臨著訓(xùn)練不穩(wěn)定的問題。這是由于當(dāng)判別器非常準(zhǔn)確時(shí),生成數(shù)據(jù)和真實(shí)數(shù)據(jù)分布很難有所重疊,導(dǎo)致生成模型的損失函數(shù)幾乎沒有梯度,即二者難以同時(shí)達(dá)到收斂,造成了GAN訓(xùn)練不穩(wěn)定的結(jié)果。Arjovsky等人[23]提出了WGAN(Wasserstein Generative Adversarial Network),用Wasserstein距離代替JS(Jensen-Shannon)散度,平衡了生成器和判別器的訓(xùn)練程度,有效提高了GAN訓(xùn)練的穩(wěn)定性。WGAN雖然性能優(yōu)越,但是留下了難以解決的1-Lipschitz問題。針對(duì)這一問題,Miyato等人[24]提出了SNGAN(Spectral Normalization for Generative Adversarial Network),對(duì)判別器中的參數(shù)進(jìn)行歸一化處理,將每層的參數(shù)矩陣除以自身的最大奇異值,最大限度地保存了判別器權(quán)值矩陣的信息,使得映射函數(shù)滿足了Lipschitz約束。SN使判別器滿足Lipschitz連續(xù)性,限制了函數(shù)變化的劇烈程度,同時(shí)可以防止訓(xùn)練過程中出現(xiàn)模式坍塌現(xiàn)象,從而使模型更穩(wěn)定。因此,本文引入SN操作,在判別器的卷積層中使用SN層代替?zhèn)鹘y(tǒng)的BN層,增強(qiáng)GAN在訓(xùn)練過程中的穩(wěn)定性。

    3 本文模型

    Figure 4 Structure of the proposed model圖4 本文模型結(jié)構(gòu)

    本文模型以生成式對(duì)抗網(wǎng)絡(luò)為框架,結(jié)構(gòu)如圖4所示。生成器(其輸入為低分辨率圖像ILR)是以殘差塊為基本單元構(gòu)建的,同時(shí)在殘差塊中加入CA機(jī)制,充分聚合通道和空間2個(gè)方向的特征。并且在上采樣操作后引入了Dropout,以增強(qiáng)模型的泛化能力。判別器以U-Net結(jié)構(gòu)進(jìn)行構(gòu)造,增強(qiáng)對(duì)局部紋理的判斷能力。同時(shí)在判別器中加入譜歸一化,以穩(wěn)定GAN的訓(xùn)練。在損失函數(shù)方面,利用VGG19網(wǎng)絡(luò)激活前的多層特征加權(quán)求和計(jì)算感知損失,使用Charbonnier損失函數(shù)[25]作為內(nèi)容損失,并加入GAN特有的對(duì)抗損失,三者共同構(gòu)成生成損失,使得重建圖像具有精確的紋理細(xì)節(jié)。

    3.1 生成器

    由于BN層容易引起偽影,并且增加了計(jì)算復(fù)雜度,所以本文在殘差塊的設(shè)計(jì)中未使用BN層。本文提出的坐標(biāo)注意力殘差塊如圖5所示,具體來說,該模塊包含了3個(gè)卷積層和1個(gè)注意力層,卷積核的大小均為3×3,通道數(shù)分別為128,256和64,在第3個(gè)卷積層后設(shè)計(jì)CA,確保網(wǎng)絡(luò)提取更精細(xì)的特征信息。

    Figure 5 Structure of coordinate attention residual block圖5 坐標(biāo)注意力殘差塊結(jié)構(gòu)

    Figure 6 Structure of generator圖6 生成器結(jié)構(gòu)

    生成器的網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。首先使用一個(gè)卷積層提取輸入圖像的邊緣特征,然后將其輸入到坐標(biāo)注意力殘差模塊中,同時(shí)關(guān)注通道信息和位置信息,更全面地提取特征。生成器的上采樣模塊,由2個(gè)亞像素卷積層構(gòu)成,完成圖像像素的擴(kuò)充。在最后一個(gè)卷積層前加入Dropout正則化,并將經(jīng)過雙線性插值法處理的輸入圖像與最后一個(gè)卷積層的輸出相加,得到最終的輸出。生成器的激活函數(shù)均使用LeakyReLU函數(shù)。該激活函數(shù)通過引入小的斜率避免神經(jīng)元的“死亡”,同時(shí)解決了梯度方向的鋸齒問題,使得模型能夠更快地收斂。

    3.2 判別器

    U-Net式判別器是一個(gè)下采樣-上采樣的結(jié)構(gòu),如圖7所示。其中,n表示通道數(shù),k×k表示卷積核的尺寸,s表示步長。首先,第1個(gè)卷積層采用64個(gè)3×3的卷積核對(duì)輸入圖像進(jìn)行特征提取,然后下采樣部分(Downsampling)分別使用128,256和512個(gè)步長為2,尺寸為4×4的卷積核,實(shí)現(xiàn)通道數(shù)量的增加以及特征圖空間的減小,從而提高網(wǎng)絡(luò)的表達(dá)能力。判別器的上采樣部分使用雙線性插值法進(jìn)行漸進(jìn)式上采樣,逐漸擴(kuò)展特征圖的空間大小。為彌補(bǔ)連續(xù)下采樣和上采樣造成的細(xì)節(jié)損失,下采樣部分的各層級(jí)特征圖與經(jīng)過上采樣獲得的特征圖通過跳躍連接的方式進(jìn)行特征融合,并在卷積層后加入SN層,穩(wěn)定訓(xùn)練過程。網(wǎng)絡(luò)的末端包括3個(gè)卷積層,最后一個(gè)卷積層的通道數(shù)為1,以得到一幅與輸入圖像大小相同的灰度圖,圖中每個(gè)像素均輸出一個(gè)真實(shí)數(shù)值,以對(duì)局部紋理產(chǎn)生精確的梯度反饋。特征圖中顏色較亮部分意味著輸入圖像的相應(yīng)像素更接近于HR圖像的,對(duì)應(yīng)于像素的鑒別置信度為真,而較暗部分的鑒別置信度為假。

    Figure 7 Structure of U-Net discriminator圖7 U-Net式判別器結(jié)構(gòu)

    3.3 損失函數(shù)

    損失函數(shù)的選取對(duì)模型的訓(xùn)練影響很大,選擇合適的損失函數(shù)可以使模型正確且快速地收斂。本文采用多種損失函數(shù)相結(jié)合的策略,在預(yù)訓(xùn)練和訓(xùn)練時(shí)分別使用不同的損失函數(shù),使模型朝著正確的方向收斂,以獲得具有豐富紋理的重建圖像。

    3.3.1 內(nèi)容損失

    傳統(tǒng)的圖像SR重建方法大多是基于L2損失函數(shù)計(jì)算損失,雖然獲得了較高的PSNR值,但重建圖像過于平滑,缺乏紋理細(xì)節(jié)。而L1損失函數(shù)能加快模型的收斂速度,使重建的圖像具有相對(duì)清晰的邊緣。所以,本文模型在預(yù)訓(xùn)練時(shí),采用L1損失函數(shù)和L2損失函數(shù)相結(jié)合的策略,在保證獲取較高PSNR值的同時(shí)減輕平滑現(xiàn)象。L1損失函數(shù)和L2損失函數(shù)定義分別如式(6)和式(7)所示:

    (6)

    (7)

    其中,G(ILR)表示生成器重建的圖像,IHR表示真實(shí)的HR圖像。

    在訓(xùn)練過程中使用Charbonnier損失函數(shù)作為內(nèi)容損失,可以規(guī)避異常點(diǎn),有效抑制偽影現(xiàn)象,具有更好的魯棒性。Charbonnier損失函數(shù)定義如式(8)所示:

    LC=∑(ρ(IHR-G(ILR)))

    (8)

    3.3.2 感知損失

    本文使用預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)提取特征,使用ReLU激活層之前的特征作為計(jì)算感知損失的依據(jù)。提取VGG19網(wǎng)絡(luò)conv1-2、conv2-2、conv3-4、conv4-4和conv5-4層特征進(jìn)行計(jì)算,使得重建圖像具有更多的細(xì)節(jié)信息。對(duì)淺層特征賦予低權(quán)重,深層特征賦予高權(quán)重,加權(quán)求和作為最終的感知損失。感知損失定義如式(9)所示:

    (9)

    3.3.3 對(duì)抗損失

    本文在損失函數(shù)的計(jì)算中加入了GAN特有的對(duì)抗損失,基于U-Net GAN的思想,判別器的損失定義為所有像素的平均決策,像素級(jí)別的損失計(jì)算可以使重構(gòu)圖像的紋理細(xì)節(jié)更加精確。判別器損失函數(shù)定義如式(10)所示:

    (10)

    其中,[D(IHR)]i,j和[D(G(ILR))]i,j表示判別器在像素(i,j)處的決策。

    相應(yīng)地,生成器的優(yōu)化目標(biāo)如式(11)所示:

    (11)

    3.3.4 預(yù)訓(xùn)練損失與訓(xùn)練損失

    本文的預(yù)訓(xùn)練損失和訓(xùn)練損失是根據(jù)上述損失函數(shù)構(gòu)建的。

    預(yù)訓(xùn)練部分只針對(duì)生成器進(jìn)行訓(xùn)練,其損失定義如式(12)所示:

    Lpre=L1+L2

    (12)

    訓(xùn)練部分包括生成器和判別器2個(gè)部分,判別器的損失函數(shù)計(jì)算如式(10)所示,生成器的總損失定義如式(13)所示:

    L=γ1LC+Lpercep+γ2LG

    (13)

    其中,γ1=0.01,γ2=0.005,LC、Lpercep和LG分別表示上文提到的Charbonnier損失、感知損失和生成器損失。

    4 實(shí)驗(yàn)與結(jié)果分析

    4.1 實(shí)驗(yàn)設(shè)置

    本文實(shí)驗(yàn)在NVIDIA?GeForce?RTX 2080 GPU,內(nèi)存為43 GB的主機(jī)上進(jìn)行,使用Windows 10操作系統(tǒng),以PyTorch作為深度學(xué)習(xí)框架,編程語言為 Python。實(shí)驗(yàn)使用DIV2K(DIVerse 2K resolution image dataset)[26]中800幅HR圖像和對(duì)應(yīng)的經(jīng)過雙三次插值處理的LR圖像作為訓(xùn)練數(shù)據(jù)集,該數(shù)據(jù)集中圖像紋理豐富,適合作為訓(xùn)練數(shù)據(jù)集。測試集為2個(gè)廣泛使用的標(biāo)準(zhǔn)數(shù)據(jù)集Set5和Set14。實(shí)驗(yàn)使用PSNR和結(jié)構(gòu)相似性SSIM(Structure SIMilarity)作為評(píng)價(jià)指標(biāo)。PSNR用于衡量2幅圖像間的差異,其值越大,表示2幅圖像越接近。SSIM用于衡量2幅圖像相似性,可以較好地反映人眼的主觀感受,其值越大,表示2幅圖像越相似。

    訓(xùn)練過程中每個(gè)批次處理16個(gè)大小為128×128的圖像塊,訓(xùn)練分為2個(gè)階段:首先使用式(12)定義的損失函數(shù)訓(xùn)練一個(gè)面向PSNR的模型,預(yù)訓(xùn)練共迭代2.5×105次,初始學(xué)習(xí)率為2×10-4,每5×104次學(xué)習(xí)率衰減為原先的一半;然后將經(jīng)過預(yù)訓(xùn)練的模型作為初始生成器,根據(jù)式(13)定義的損失函數(shù)來訓(xùn)練生成器,生成器的初始學(xué)習(xí)率為10-4,判別器采用和生成器不同的學(xué)習(xí)率,初始值設(shè)為4×10-4,共迭代3×105次,每5×104次學(xué)習(xí)率減半。訓(xùn)練時(shí)生成器損失函數(shù)的參數(shù)設(shè)置為γ1=0.01,γ2=0.005。實(shí)驗(yàn)過程均使用Adam優(yōu)化器,設(shè)置參數(shù)為β1=0.9,β2=0.99,ε=10-7。

    4.2 坐標(biāo)注意力殘差塊的影響

    生成器是基于坐標(biāo)注意力殘差塊實(shí)現(xiàn)的,為了驗(yàn)證其作用,本節(jié)在預(yù)訓(xùn)練模型中進(jìn)行實(shí)驗(yàn),比較PSNR值的變化。由表1可以看出,坐標(biāo)注意力殘差塊數(shù)量由8增至16時(shí),PSNR值在Set5測試集和Set14測試集上分別提高了0.13 dB和0.12 dB;由16增至24時(shí),PSNR值在Set5測試集上沒有增加,在Set14測試集上提升了0.02 dB,但此時(shí)參數(shù)量過于龐大。因此,本文最終使用16個(gè)坐標(biāo)注意力殘差塊來構(gòu)建生成器,在保證獲得較高PSNR值的同時(shí)網(wǎng)絡(luò)參數(shù)量不會(huì)過于龐大。

    4.3 Dropout正則化的影響

    為了驗(yàn)證Dropout可以提高SR網(wǎng)絡(luò)的性能,本節(jié)在預(yù)訓(xùn)練模型中,分別對(duì)不使用Dropout和使用較小Dropout丟棄概率的情況進(jìn)行實(shí)驗(yàn),所得結(jié)果如表2所示。在Set5測試集上,PSNR值隨Dropout丟棄概率的增加而增加。在Set14測試集上,當(dāng)Dropout丟棄概率為10%和20%時(shí),PSNR值均比未使用Dropout結(jié)構(gòu)的模型提高了0.01 dB;當(dāng)丟棄概率增加為30%時(shí),PSNR值較未使用Dropout結(jié)構(gòu)的模型降低了0.02 dB??梢钥闯?Dropout的引入并不會(huì)破壞網(wǎng)絡(luò),并且有益于模型性能的提升,因此可以在生成器中加入了Dropout正則化。此外,在3種Dropout丟棄概率中,使用20%丟棄概率取得的平均PSNR值高于使用10%和30%丟棄概率的,因此本文最終選用了20%的Dropout概率。

    Table 1 Variation of PSNR with the number of coordinate attention residual blocks表1 PSNR值隨坐標(biāo)注意力殘差塊數(shù)量的變化情況

    Table 2 Variation of PSNR with Dropout probability表2 PSNR值隨Dropout概率的變化情況

    4.4 U-Net判別器的影響

    本文將SR重建模型中常用的VGG式判別器改為U-Net結(jié)構(gòu)的判別器。為了驗(yàn)證其有效性,本節(jié)在保證生成器結(jié)構(gòu)相同的情況下,計(jì)算平均PSNR值,所得結(jié)果如表3所示??梢钥闯?在Set5和Set14測試集上,U-Net式判別器較VGG式判別器得到的PSNR值分別提高了0.33 dB和0.46 dB。

    Table 3 Variation of PSNR with discriminator structure表3 PSNR值隨判別器結(jié)構(gòu)的變化情況 dB

    本文選取了Set14測試集中的“l(fā)enna”圖像進(jìn)行對(duì)比,并放大局部細(xì)節(jié),如圖8所示。可以看出,U-Net式判別器使得重建圖像的局部形狀更接近真實(shí)HR圖像的,線條走勢與HR圖像的基本相同,細(xì)節(jié)部分恢復(fù)得更加清晰,在主觀視覺上驗(yàn)證了U-Net式判別器的有效性。

    Figure 8 Reconstruction images comparison of image “l(fā)enna” in Set14 test set圖8 Set14測試集中圖像“l(fā)enna”重建對(duì)比圖

    4.5 實(shí)驗(yàn)對(duì)比

    模型訓(xùn)練完成后,本節(jié)在數(shù)據(jù)集Set5和Set14上將本文模型分別與經(jīng)典的SR重建模型(Bicubic、SRCNN和ESPCN)、基于GAN的模型(SRGAN和ESRGAN)以及使用類U-Net式判別器的 FASRGAN模型進(jìn)行實(shí)驗(yàn)比較。平均PSNR和SSIM值分別如表4和表5所示,其中加粗?jǐn)?shù)據(jù)表示最優(yōu)結(jié)果。從表4和表5可知,基于插值的Bicubic模型性能低于其他基于學(xué)習(xí)的模型(SRCNN、ESPCN、SRGAN、ESRGAN和FASRGAN)的。由表4可知,本文模型的PSNR值比SRCNN的平均提高1.82 dB,比ESPCN的平均提高1.84 dB,比SRGAN的平均提高1.87 dB,比 ESRGAN的平均提高1.14 dB,比 FASRGAN的平均提高1.44 dB。由表5可知,本文模型的SSIM值比SRCNN的平均提高0.035 4,比ESPCN的平均提高0.041 9,比 SRGAN的平均提高0.022 5,比ESRGAN的平均提高0.033 3,比FASRGAN的平均提高0.037 1。綜上,當(dāng)圖像放大因子為 4 時(shí),本文模型在PSNR和SSIM評(píng)價(jià)指標(biāo)上均取得了較優(yōu)的結(jié)果,表明了本文模型的有效性。

    本文從Set5和Set14測試集上選取了部分細(xì)節(jié)豐富的重建圖像,與其他模型的可視化對(duì)比如圖9~圖11所示??梢钥闯?Bicubic模型重建的圖像非常模糊,鋸齒狀嚴(yán)重;SRCNN和ESPCN模型較Bicubic有所改進(jìn),但重建出的圖像仍較為模糊和平滑;SRGAN模型重建的圖像減輕了模糊程度,但出現(xiàn)了偽影問題,視覺效果沒有得到明顯提升;而ESRGAN、FASRGAN和本文模型重建的圖像明顯更加清晰,恢復(fù)出了更多的紋理細(xì)節(jié),具有良好的視覺效果。不過,ESRGAN和FASRGAN模型生成的部分紋理是HR圖像中不存在的,而本文模型是基于像素進(jìn)行鑒別的,一定程度上避免了生成不真實(shí)的紋理。觀察圖9的局部放大處不難發(fā)現(xiàn),本文模型恢復(fù)出了ESRGAN和FASRGAN模型未能恢復(fù)出的線條,局部紋理與HR圖像的最為相似。從圖11可以看出,本文模型重建的圖像更為清晰,鼻梁處沒有多余的線條,五官輪廓更接近于HR圖像的。這些實(shí)驗(yàn)結(jié)果在主觀視覺上表明了本文模型的有效性,說明其可以恢復(fù)出清晰且逼真的SR圖像。

    Figure 9 Reconstruction comparison of image “monarch” in Set14 test set圖9 Set14測試集中圖像“monarch”重建對(duì)比圖

    Table 4 Comparison of average PNSR of each super-resolution reconstruction model

    Table 5 Comparison of average SSIM of each super-resolution reconstruction model表5 各超分辨率重建模型平均SSIM 值對(duì)比

    Figure 10 Reconstruction images comparison of image “baby” in Set5 test set圖10 Set5測試集中圖像“baby”重建對(duì)比圖

    Figure 11 Reconstruction images comparison of image “comic” in Set14 test set圖11 Set14測試集上圖像“comic”重建對(duì)比圖

    5 結(jié)束語

    本文提出的結(jié)合坐標(biāo)注意力與生成式對(duì)抗網(wǎng)絡(luò)的圖像超分辨率重建模型利用了空間中的位置信息,對(duì)局部紋理進(jìn)行了細(xì)粒度的判斷,穩(wěn)定了GAN的訓(xùn)練過程。通過將坐標(biāo)注意力嵌入到殘差塊中,捕獲了跨通道的信息,充分地利用了特征信息。在生成器引入高級(jí)視覺任務(wù)中的Dropout正則化,有效提升了模型性能。利用U-Net式判別器實(shí)現(xiàn)了像素級(jí)的鑒別過程,更專注于局部紋理。在判別器中引入譜歸一化操作,使訓(xùn)練過程更加穩(wěn)定。在損失函數(shù)方面結(jié)合了內(nèi)容損失、感知損失和對(duì)抗損失,使得重建圖像具有真實(shí)的細(xì)節(jié)和清晰的輪廓。實(shí)驗(yàn)結(jié)果表明,本文模型在PSNR和SSIM評(píng)價(jià)指標(biāo)上均取得了較好的結(jié)果,在基準(zhǔn)測試集Set5和Set14上取得的峰值信噪比平均提高了1.75 dB,結(jié)構(gòu)相似性平均提高了0.038,生成的SR圖像更接近于真實(shí)圖像,具有良好的視覺效果。

    猜你喜歡
    特征模型
    一半模型
    抓住特征巧觀察
    重要模型『一線三等角』
    新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
    重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    如何表達(dá)“特征”
    不忠誠的四個(gè)特征
    抓住特征巧觀察
    3D打印中的模型分割與打包
    FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
    大型黄色视频在线免费观看| 丝袜喷水一区| 乱系列少妇在线播放| 久久久色成人| 老司机影院成人| av女优亚洲男人天堂| 热99re8久久精品国产| 久久精品国产亚洲网站| a级毛色黄片| 色视频www国产| 男插女下体视频免费在线播放| 成人亚洲欧美一区二区av| 久久午夜亚洲精品久久| a级毛片a级免费在线| 在线观看av片永久免费下载| 老女人水多毛片| 亚洲国产精品成人综合色| 午夜福利18| 内射极品少妇av片p| 久久久色成人| 热99在线观看视频| 色5月婷婷丁香| 亚洲国产精品成人久久小说 | 国产精品一二三区在线看| 在线观看一区二区三区| 欧美+日韩+精品| 精品无人区乱码1区二区| 亚洲av第一区精品v没综合| 91麻豆精品激情在线观看国产| 国产精品一区二区性色av| 99精品在免费线老司机午夜| 一进一出抽搐动态| 激情 狠狠 欧美| 国产午夜福利久久久久久| 欧美潮喷喷水| 亚洲人成网站在线播| 精品日产1卡2卡| 晚上一个人看的免费电影| 成年女人毛片免费观看观看9| 老司机福利观看| 国产大屁股一区二区在线视频| 十八禁国产超污无遮挡网站| 成人一区二区视频在线观看| 亚洲专区国产一区二区| 亚洲激情五月婷婷啪啪| 国产一区二区三区av在线 | 久久天躁狠狠躁夜夜2o2o| 在线看三级毛片| 九九爱精品视频在线观看| 国产色爽女视频免费观看| 一级av片app| 99热6这里只有精品| 国内精品宾馆在线| 亚洲无线在线观看| 菩萨蛮人人尽说江南好唐韦庄 | 亚洲乱码一区二区免费版| 亚洲专区国产一区二区| 在线国产一区二区在线| 国产精品伦人一区二区| 男女视频在线观看网站免费| 香蕉av资源在线| 日本黄大片高清| av专区在线播放| 亚洲人与动物交配视频| 国产精品女同一区二区软件| 日本五十路高清| 麻豆一二三区av精品| 俺也久久电影网| 国产精品av视频在线免费观看| 日本成人三级电影网站| 国产在线精品亚洲第一网站| 久久九九热精品免费| а√天堂www在线а√下载| 国产黄a三级三级三级人| 久久精品久久久久久噜噜老黄 | 日韩一本色道免费dvd| 特级一级黄色大片| 国产免费男女视频| 国内精品一区二区在线观看| 国产精品1区2区在线观看.| 亚洲第一区二区三区不卡| 国产精品综合久久久久久久免费| 亚洲美女黄片视频| 一a级毛片在线观看| 亚洲国产欧洲综合997久久,| 免费观看人在逋| 1024手机看黄色片| 亚洲欧美中文字幕日韩二区| 日韩欧美三级三区| 综合色丁香网| 亚洲美女黄片视频| 亚洲欧美成人综合另类久久久 | 亚洲欧美精品综合久久99| 亚洲人成网站在线观看播放| 国产亚洲精品久久久久久毛片| 国产男靠女视频免费网站| 国产精品,欧美在线| 国产精品女同一区二区软件| 最近在线观看免费完整版| 99久久成人亚洲精品观看| av在线亚洲专区| 中文字幕av成人在线电影| 亚州av有码| 一区二区三区免费毛片| 男人狂女人下面高潮的视频| 成人精品一区二区免费| 国产熟女欧美一区二区| 亚洲av.av天堂| 国产精品女同一区二区软件| 亚洲欧美中文字幕日韩二区| 亚洲人成网站在线播| 久久久精品大字幕| 欧美+日韩+精品| 亚洲成人久久性| 久久久久久伊人网av| 美女xxoo啪啪120秒动态图| 欧美色视频一区免费| 99热这里只有精品一区| 国产精品不卡视频一区二区| 在线观看66精品国产| 欧美又色又爽又黄视频| 长腿黑丝高跟| 99久久无色码亚洲精品果冻| 午夜免费激情av| 在线观看午夜福利视频| 性插视频无遮挡在线免费观看| 欧美在线一区亚洲| 亚洲婷婷狠狠爱综合网| а√天堂www在线а√下载| 久久久国产成人免费| 99久国产av精品| 少妇的逼水好多| 插逼视频在线观看| 午夜福利18| 久久精品综合一区二区三区| 天天躁日日操中文字幕| 一本一本综合久久| 亚洲精品456在线播放app| 国产av麻豆久久久久久久| 亚洲av五月六月丁香网| 久久精品人妻少妇| 亚洲欧美成人综合另类久久久 | 内射极品少妇av片p| 麻豆久久精品国产亚洲av| 无遮挡黄片免费观看| 国产一区二区激情短视频| 免费搜索国产男女视频| 亚洲成a人片在线一区二区| 免费人成在线观看视频色| 变态另类成人亚洲欧美熟女| 亚洲精品一区av在线观看| 美女黄网站色视频| 我要搜黄色片| 1024手机看黄色片| 久久久久精品国产欧美久久久| 91在线观看av| 亚洲欧美精品自产自拍| av国产免费在线观看| 床上黄色一级片| 成人无遮挡网站| 麻豆av噜噜一区二区三区| a级一级毛片免费在线观看| 波野结衣二区三区在线| 搡老岳熟女国产| 久久久久久久午夜电影| 日本欧美国产在线视频| 欧美高清性xxxxhd video| 欧美高清成人免费视频www| 日本黄大片高清| 少妇丰满av| 偷拍熟女少妇极品色| 久99久视频精品免费| 国产高清三级在线| 黄色一级大片看看| 亚洲成人中文字幕在线播放| 国产一区二区亚洲精品在线观看| 天天躁日日操中文字幕| 午夜福利成人在线免费观看| 精品久久久久久久人妻蜜臀av| 不卡一级毛片| 国产精品国产三级国产av玫瑰| av在线播放精品| 欧美色欧美亚洲另类二区| 黄色欧美视频在线观看| 看十八女毛片水多多多| 久久精品久久久久久噜噜老黄 | 99视频精品全部免费 在线| 亚洲成人中文字幕在线播放| 亚洲18禁久久av| 久久亚洲精品不卡| 欧美性猛交╳xxx乱大交人| 好男人在线观看高清免费视频| 亚洲国产精品国产精品| 国产探花极品一区二区| 日日啪夜夜撸| 九色成人免费人妻av| 给我免费播放毛片高清在线观看| 成年av动漫网址| 午夜激情欧美在线| 国产欧美日韩精品一区二区| 日本黄色视频三级网站网址| 免费电影在线观看免费观看| 日韩av在线大香蕉| 欧美中文日本在线观看视频| 亚洲精华国产精华液的使用体验 | 男人舔奶头视频| 日本精品一区二区三区蜜桃| 国产精华一区二区三区| 亚洲不卡免费看| 欧美激情国产日韩精品一区| 日本与韩国留学比较| 噜噜噜噜噜久久久久久91| 午夜激情欧美在线| 少妇的逼水好多| 日韩av不卡免费在线播放| 国产精品,欧美在线| 亚洲精品国产av成人精品 | 亚洲精品成人久久久久久| 男女之事视频高清在线观看| 久久精品国产亚洲网站| 天堂av国产一区二区熟女人妻| 三级国产精品欧美在线观看| 精品乱码久久久久久99久播| 国产精品久久视频播放| 蜜桃久久精品国产亚洲av| 日韩国内少妇激情av| 日韩欧美精品v在线| 亚洲av一区综合| 欧美3d第一页| 国产探花极品一区二区| 最好的美女福利视频网| 听说在线观看完整版免费高清| 日本撒尿小便嘘嘘汇集6| 亚洲欧美成人精品一区二区| 午夜福利高清视频| 国产精品免费一区二区三区在线| 欧美xxxx黑人xx丫x性爽| 在线播放国产精品三级| 成人亚洲欧美一区二区av| 99久久精品热视频| 中国美女看黄片| 国产久久久一区二区三区| .国产精品久久| 一进一出好大好爽视频| 精品免费久久久久久久清纯| 91精品国产九色| 婷婷亚洲欧美| 国产伦精品一区二区三区视频9| 中国美女看黄片| av在线老鸭窝| av.在线天堂| 日韩三级伦理在线观看| 好男人在线观看高清免费视频| 日日摸夜夜添夜夜添小说| 天天躁夜夜躁狠狠久久av| 狂野欧美激情性xxxx在线观看| 国产亚洲欧美98| 日本熟妇午夜| 日本色播在线视频| 亚洲七黄色美女视频| 精品99又大又爽又粗少妇毛片| 色综合色国产| av免费在线看不卡| 1024手机看黄色片| 午夜视频国产福利| 男女啪啪激烈高潮av片| 乱人视频在线观看| 干丝袜人妻中文字幕| 成人高潮视频无遮挡免费网站| 国内揄拍国产精品人妻在线| 高清毛片免费观看视频网站| 成人一区二区视频在线观看| 男女啪啪激烈高潮av片| 欧美日韩乱码在线| 蜜桃久久精品国产亚洲av| 精品一区二区三区视频在线观看免费| 国产一区二区在线av高清观看| 51国产日韩欧美| 国产精品99久久久久久久久| 国产不卡一卡二| 18禁在线无遮挡免费观看视频 | 精品午夜福利在线看| 成人性生交大片免费视频hd| 日韩成人伦理影院| 97人妻精品一区二区三区麻豆| 一边摸一边抽搐一进一小说| 乱码一卡2卡4卡精品| ponron亚洲| 成人漫画全彩无遮挡| 老司机福利观看| 女同久久另类99精品国产91| 国产精品人妻久久久影院| 精品一区二区三区视频在线| 久久久欧美国产精品| 少妇被粗大猛烈的视频| 丝袜美腿在线中文| 老女人水多毛片| 成人av一区二区三区在线看| 久久久精品94久久精品| 久久久国产成人精品二区| 99久久九九国产精品国产免费| 97超视频在线观看视频| 欧美xxxx性猛交bbbb| 日日摸夜夜添夜夜添av毛片| 五月伊人婷婷丁香| 久久久久国内视频| 国产色婷婷99| 亚洲精品一区av在线观看| 69人妻影院| 精品久久久久久久久久久久久| 午夜福利在线观看免费完整高清在 | 夜夜爽天天搞| 女人十人毛片免费观看3o分钟| 亚洲五月天丁香| 国产淫片久久久久久久久| 国产精品伦人一区二区| 精品久久久噜噜| 亚洲国产日韩欧美精品在线观看| 国产高清不卡午夜福利| 日韩欧美精品v在线| 九九久久精品国产亚洲av麻豆| 一级毛片电影观看 | 久久亚洲国产成人精品v| 一区福利在线观看| 不卡一级毛片| 国产精品,欧美在线| 亚洲欧美中文字幕日韩二区| 欧美日本视频| 国产高清激情床上av| 国产欧美日韩一区二区精品| 午夜日韩欧美国产| www日本黄色视频网| 国模一区二区三区四区视频| 日韩一区二区视频免费看| 亚洲国产精品sss在线观看| 亚洲va在线va天堂va国产| 免费观看精品视频网站| 亚洲激情五月婷婷啪啪| 亚洲av第一区精品v没综合| 中文在线观看免费www的网站| 日韩精品青青久久久久久| 女人十人毛片免费观看3o分钟| 国产综合懂色| 日韩欧美 国产精品| 日韩强制内射视频| 免费黄网站久久成人精品| 国内精品美女久久久久久| 淫秽高清视频在线观看| 晚上一个人看的免费电影| 你懂的网址亚洲精品在线观看 | 日韩一区二区视频免费看| 午夜福利18| 日本一二三区视频观看| 国产亚洲精品av在线| 国内揄拍国产精品人妻在线| 老司机影院成人| 亚洲性久久影院| 草草在线视频免费看| 亚洲欧美中文字幕日韩二区| 久久久久久久久久成人| 最新中文字幕久久久久| 成人性生交大片免费视频hd| 亚洲最大成人中文| 久久中文看片网| 美女 人体艺术 gogo| 人妻制服诱惑在线中文字幕| 97超视频在线观看视频| 国产69精品久久久久777片| 99久久九九国产精品国产免费| 天堂动漫精品| 欧美丝袜亚洲另类| 亚洲经典国产精华液单| 久久久久久伊人网av| 高清毛片免费观看视频网站| 欧美日本视频| 日本 av在线| 国产美女午夜福利| 老熟妇乱子伦视频在线观看| 久久精品影院6| 欧美丝袜亚洲另类| 国产亚洲精品久久久久久毛片| 国产av不卡久久| 免费看日本二区| 不卡一级毛片| 一个人免费在线观看电影| 精品人妻一区二区三区麻豆 | a级毛片免费高清观看在线播放| 午夜福利成人在线免费观看| 精品一区二区三区视频在线观看免费| 国产精品精品国产色婷婷| 日本三级黄在线观看| 99国产极品粉嫩在线观看| 99国产精品一区二区蜜桃av| 国产欧美日韩精品一区二区| 国产高清激情床上av| 国产欧美日韩一区二区精品| 精品少妇黑人巨大在线播放 | 日日摸夜夜添夜夜添小说| 最新中文字幕久久久久| 能在线免费观看的黄片| 亚洲色图av天堂| 色哟哟·www| 亚洲图色成人| 久久久午夜欧美精品| 欧美成人一区二区免费高清观看| a级一级毛片免费在线观看| 成人国产麻豆网| 51国产日韩欧美| 在线天堂最新版资源| 国产精品日韩av在线免费观看| 高清毛片免费看| 99国产极品粉嫩在线观看| 一级毛片我不卡| 中文资源天堂在线| 男女做爰动态图高潮gif福利片| aaaaa片日本免费| 国产高清不卡午夜福利| 中国国产av一级| 一本精品99久久精品77| 国产一区二区三区av在线 | 最近的中文字幕免费完整| 人人妻人人澡人人爽人人夜夜 | 国产精品一及| 极品教师在线视频| 国产爱豆传媒在线观看| 国产精华一区二区三区| 天天一区二区日本电影三级| 少妇的逼好多水| 国产精品永久免费网站| 国产精品久久久久久亚洲av鲁大| 性色avwww在线观看| 看免费成人av毛片| 丰满乱子伦码专区| 久久久久精品国产欧美久久久| 国产三级在线视频| 久久国内精品自在自线图片| 久久久久国产精品人妻aⅴ院| 成人特级av手机在线观看| 久久久a久久爽久久v久久| 一区福利在线观看| 欧美丝袜亚洲另类| 12—13女人毛片做爰片一| 久久午夜福利片| 伦理电影大哥的女人| 成人漫画全彩无遮挡| 亚洲av成人精品一区久久| 一区福利在线观看| a级毛色黄片| 成人毛片a级毛片在线播放| 久久午夜福利片| 内射极品少妇av片p| 成人特级av手机在线观看| 精品久久久久久久久久免费视频| 美女大奶头视频| 国产真实乱freesex| 九九在线视频观看精品| 两个人视频免费观看高清| 18+在线观看网站| АⅤ资源中文在线天堂| 午夜久久久久精精品| 国产一区二区在线观看日韩| 国产极品精品免费视频能看的| 日韩欧美精品v在线| 男插女下体视频免费在线播放| 日韩,欧美,国产一区二区三区 | 91精品国产九色| 日韩av不卡免费在线播放| 男人的好看免费观看在线视频| 伦精品一区二区三区| 有码 亚洲区| 久久久a久久爽久久v久久| 国产高清激情床上av| 一级av片app| 精品人妻偷拍中文字幕| 成人午夜高清在线视频| 在线播放无遮挡| 国产亚洲91精品色在线| 日本在线视频免费播放| 国产 一区精品| 午夜激情福利司机影院| 人妻夜夜爽99麻豆av| 久久久久国内视频| 白带黄色成豆腐渣| 国产精品爽爽va在线观看网站| 99热这里只有是精品50| 国产高清激情床上av| 99久国产av精品| 神马国产精品三级电影在线观看| 最后的刺客免费高清国语| 看免费成人av毛片| or卡值多少钱| 国产色婷婷99| av免费在线看不卡| 直男gayav资源| 看非洲黑人一级黄片| 麻豆精品久久久久久蜜桃| 成人毛片a级毛片在线播放| 成人无遮挡网站| 少妇高潮的动态图| 亚洲av第一区精品v没综合| 国产亚洲精品综合一区在线观看| 九色成人免费人妻av| 国产在线精品亚洲第一网站| 精品一区二区免费观看| 欧美另类亚洲清纯唯美| 成人三级黄色视频| 成年免费大片在线观看| 欧美又色又爽又黄视频| 99久国产av精品国产电影| 日韩一区二区视频免费看| 日韩制服骚丝袜av| 成熟少妇高潮喷水视频| 国产熟女欧美一区二区| 日本免费a在线| 91狼人影院| 噜噜噜噜噜久久久久久91| 美女被艹到高潮喷水动态| 亚洲18禁久久av| 国产色婷婷99| 国产一区亚洲一区在线观看| 尤物成人国产欧美一区二区三区| 亚洲欧美成人综合另类久久久 | 国产精品人妻久久久影院| 别揉我奶头 嗯啊视频| 亚洲欧美成人综合另类久久久 | 国产不卡一卡二| 欧美成人免费av一区二区三区| 亚洲真实伦在线观看| 久久精品国产亚洲网站| 日韩av在线免费看完整版不卡| 在现免费观看毛片| 精品熟女少妇av免费看| 亚洲国产最新在线播放| 成人免费观看视频高清| 亚洲,一卡二卡三卡| 岛国毛片在线播放| 欧美日韩视频高清一区二区三区二| 久久亚洲国产成人精品v| 18禁在线播放成人免费| 99re6热这里在线精品视频| 校园人妻丝袜中文字幕| 精品人妻熟女毛片av久久网站| 久久青草综合色| 99国产精品免费福利视频| 日韩成人av中文字幕在线观看| 亚洲欧美成人精品一区二区| 久久综合国产亚洲精品| 精品少妇黑人巨大在线播放| 国产综合精华液| 国产探花极品一区二区| 久久精品久久精品一区二区三区| 成年人免费黄色播放视频 | 日日啪夜夜爽| 久久久久视频综合| 男人添女人高潮全过程视频| 大片电影免费在线观看免费| 少妇的逼水好多| 日韩强制内射视频| 在线播放无遮挡| 久久影院123| 一个人看视频在线观看www免费| 日本av手机在线免费观看| 午夜福利,免费看| 免费观看性生交大片5| 久久久久久久久久成人| 国产高清有码在线观看视频| 亚洲中文av在线| 欧美日韩国产mv在线观看视频| 免费观看在线日韩| 热99国产精品久久久久久7| 久久热精品热| 国产老妇伦熟女老妇高清| 一区二区三区四区激情视频| 国产伦理片在线播放av一区| 一级二级三级毛片免费看| 日日摸夜夜添夜夜添av毛片| 成人特级av手机在线观看| 欧美高清成人免费视频www| 偷拍熟女少妇极品色| 国产成人freesex在线| 91精品国产国语对白视频| 人人妻人人澡人人爽人人夜夜| 人妻人人澡人人爽人人| 男女免费视频国产| 国产片特级美女逼逼视频| 美女大奶头黄色视频| 麻豆乱淫一区二区| 国产精品偷伦视频观看了| 久热久热在线精品观看| 日韩中字成人| 内地一区二区视频在线| av免费在线看不卡| 成人美女网站在线观看视频| 色哟哟·www| 日韩成人伦理影院| 一区二区三区四区激情视频| 成人免费观看视频高清| 精品久久久精品久久久| 久久国产精品大桥未久av | 久久国产精品大桥未久av | 国产成人精品久久久久久| 日韩 亚洲 欧美在线| av播播在线观看一区| 亚洲精品456在线播放app| 久久久久精品久久久久真实原创| 中文在线观看免费www的网站| 免费久久久久久久精品成人欧美视频 | 尾随美女入室| 久久 成人 亚洲| 一级毛片黄色毛片免费观看视频| 丝袜脚勾引网站| 91aial.com中文字幕在线观看| 久久精品国产鲁丝片午夜精品| 国产欧美另类精品又又久久亚洲欧美| 日韩电影二区|