• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    局部特征增強(qiáng)的轉(zhuǎn)置自注意力圖像超分辨率重建

    2024-04-22 00:46:52孫陽丁建偉張琪鄧琪瑤
    中國圖象圖形學(xué)報(bào) 2024年4期
    關(guān)鍵詞:全局注意力卷積

    孫陽,丁建偉,張琪,鄧琪瑤

    中國人民公安大學(xué)信息網(wǎng)絡(luò)安全學(xué)院,北京 100038

    0 引言

    單圖像超分辨率(single image super-resolution,SISR)技術(shù)旨在將低分辨率(low resolution,LR)圖像重建為高分辨率(high resolution,HR)圖像。相較于LR 圖像來說,HR 圖像具有更豐富的細(xì)節(jié)信息和更友好的視覺感知,圖像質(zhì)量和可用性都更高。SISR技術(shù)是圖像復(fù)原領(lǐng)域的一個(gè)熱點(diǎn)研究問題,通常應(yīng)用于刑偵、遙感和醫(yī)學(xué)診斷等領(lǐng)域。SISR 技術(shù)具有非常典型的不適定(ill-posed)特性,即一個(gè)LR 輸入對(duì)應(yīng)許多可能的HR 輸出,映射空間太大,映射對(duì)象不唯一,具有非常大的挑戰(zhàn)性。

    常見的超分辨率技術(shù)主要分為以下3 類:基于插值的方法、基于重建的方法和基于學(xué)習(xí)的方法?;诓逯档姆椒ㄖ饕蕾囉趫D像先驗(yàn)信息和統(tǒng)計(jì)模型等進(jìn)行插值計(jì)算,具有簡單易用和計(jì)算復(fù)雜度低的優(yōu)點(diǎn)。然而插值得到的圖像容易出現(xiàn)鋸齒狀的偽影,并且性能嚴(yán)重依賴于原始圖像的質(zhì)量?;谥亟ǖ姆椒ㄍㄟ^融合同一場(chǎng)景下的多個(gè)低分辨率圖像中的高頻信息生成高分辨率圖像。但是在實(shí)際場(chǎng)景中,難以收集足夠多的低分辨率圖像。此外,基于重建的方法對(duì)先驗(yàn)的依賴較強(qiáng),生成的結(jié)果容易出現(xiàn)偽影或失真問題?;趯W(xué)習(xí)的方法對(duì)大量HR和LR圖像對(duì)的學(xué)習(xí)來構(gòu)建高低分辨率字典,并通過深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行圖像重建。在這個(gè)過程中,算法從大量數(shù)據(jù)對(duì)中學(xué)習(xí)圖像的特征和結(jié)構(gòu)信息,從而實(shí)現(xiàn)更加準(zhǔn)確的重建效果。相較于基于插值和基于重建的方法,基于學(xué)習(xí)的方法能夠獲得更多的高頻信息,從而得到更清晰的紋理細(xì)節(jié)和更豐富的信息特征,在準(zhǔn)確性和計(jì)算效率等方面具有很大的優(yōu)勢(shì),因此受到越來越多的關(guān)注。

    Dong 等人(2014)提出的SRCNN(convolutional neural network for image super-resolution)采用經(jīng)典的端到端結(jié)構(gòu),通過簡單的3 層卷積結(jié)構(gòu)在保證圖像質(zhì)量的同時(shí)又可以實(shí)現(xiàn)高分辨率圖像的快速重建,開創(chuàng)了基于學(xué)習(xí)的超分辨率技術(shù)的先河。Shi 等人(2016)提出的ESPCN(efficient sub-pixel convolutional neural network)方法提高了基于學(xué)習(xí)的方法的計(jì)算效率,獲得了良好的重建效果。Kim 等人(2016)采用深度殘差網(wǎng)絡(luò)的思想,通過構(gòu)建具有20 層的深度網(wǎng)絡(luò)VDSR(accurate image superresolution using very deep convolutional network),獲得了比SRCNN 更好的重建圖像質(zhì)量,證明加深網(wǎng)絡(luò)深度有助于學(xué)習(xí)圖像特征。Zhang 等人(2017)提出了深度卷積神經(jīng)網(wǎng)絡(luò)DnCNN(denoising convolutional neural network),通過學(xué)習(xí)圖像殘差進(jìn)行去噪。Lim 等人(2017)通過舍棄SRResNet(super-resolution residual network)(Ledig 等,2017)中殘差塊的批歸一化(batch normalization,BN)層并優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),使圖像重建效果得到大幅提升。Zhang等人(2018a)首次將通道注意力(channel attention,CA)機(jī)制引入到SR任務(wù)中,提出的嵌套殘差結(jié)構(gòu)(residual in residual,RIR)成為目前SR 任務(wù)中殘差塊堆疊的標(biāo)準(zhǔn)范式,其所提出的RCAN(image super-resolution using very deep residual channel attention network)網(wǎng)絡(luò)通過通道注意力機(jī)制區(qū)分不同通道特征對(duì)重建圖像的貢獻(xiàn)程度,自適應(yīng)調(diào)整通道權(quán)重,圖像重建質(zhì)量獲得極大程度的提升。

    基于Transformer 的方法在自注意力(selfattention,SA)的建模方面具有出色的能力,因此在處理輸入數(shù)據(jù)時(shí)可以更好地捕捉數(shù)據(jù)之間的關(guān)系,在自然語言處理領(lǐng)域大放異彩。Dosovitskiy 等人(2021)提出的ViT(vision Transformer)首次將廣泛應(yīng)用于自然語言處理(natural language processing,NLP)任務(wù)中的Transformer(Vaswani 等,2017)遷移至視覺任務(wù)中。其首先將輸入圖像經(jīng)過一個(gè)嵌入層轉(zhuǎn)換為一組一維向量,并通過多個(gè)自注意力層學(xué)習(xí)圖像中的信息。SwinIR(image restoration using Swin Transformer)(Liang等,2021)將Swin Transformer(Liu等,2021)引入到SR任務(wù)中,將重建圖像質(zhì)量提高到了新的高度。通過將輸入圖像分割為很多小塊,然后將每個(gè)小塊作為Swin Transformer 的輸入來處理圖像,通過跨窗口交流保持對(duì)像素之間長距離關(guān)系的建模,顯著減少了模型的計(jì)算成本,同時(shí)這也是Transformer 首次應(yīng)用于SR 任務(wù)中。劉花成等人(2022)提出了一種用于模糊圖像超分辨重建的Transformer 融合網(wǎng)絡(luò)(Transformer fusion network,TFN),采用了雙分支策略,在對(duì)模糊圖像進(jìn)行重建的同時(shí)能有效去除部分模糊特性。邱德粉等人(2023)根據(jù)紅外圖像的特性并針對(duì)深度網(wǎng)絡(luò)中存在的特征冗余問題和計(jì)算效率問題,在超分辨率模塊使用通道拆分策略,提出了一種使用高分辨率可見光圖像引導(dǎo)紅外圖像進(jìn)行超分辨率的神經(jīng)網(wǎng)絡(luò)模型。王美華等人(2022)使用Transformer模型計(jì)算圖像深層語義信息,提出了TDATDN 單幅圖像去雨算法。UFormer(U-shaped Transformer for image restoration)(Wang 等,2022)應(yīng)用8 × 8 的局部窗口并引入U(xiǎn)-Net(Ronneberge 等,2015)架構(gòu)捕捉全局信息。ViT 將自注意力引入到視覺任務(wù)中,并在高級(jí)任務(wù)中表現(xiàn)優(yōu)異。但在應(yīng)用到圖像超分辨率這類低級(jí)計(jì)算機(jī)視覺中,考慮到需要逐像素進(jìn)行操作,其復(fù)雜性與輸入特征圖的尺寸呈平方關(guān)系,尤其是對(duì)于像素更多、分辨率更高的圖像而言,需要的計(jì)算成本極高,這限制了Transformer 在低級(jí)計(jì)算機(jī)視覺任務(wù)中的使用。Mei 等人(2021)提出的NLSA(non-local sparse attention)通過將圖像劃分為不重疊的塊,獨(dú)立計(jì)算注意力,但這樣會(huì)引入偽影并降低恢復(fù)圖像的質(zhì)量。SwinIR雖然也通過劃分窗口進(jìn)行自注意力的計(jì)算,但是其通過移位機(jī)制與其他窗口建立聯(lián)系。然而SwinIR的計(jì)算量會(huì)隨著窗口大小的增加而急速增長,同時(shí)局部窗口會(huì)限制上下文的聚合范圍,不利于各像素之間長距離依賴關(guān)系的建模。

    針對(duì)目前Transformer 在SR 任務(wù)中存在的一系列問題,本文提出一種全新的基于轉(zhuǎn)置自注意力的超分辨率神經(jīng)網(wǎng)絡(luò)(super-resolution network based on transposed self-attention,SRTSA),主要的貢獻(xiàn)點(diǎn)包括:1)提出了一個(gè)全局和局部信息提取模塊(global and local information extraction block,GLEIB),該模塊通過計(jì)算交叉協(xié)方差矩陣構(gòu)建各像素點(diǎn)之間的長距離依賴關(guān)系對(duì)全局信息進(jìn)行建模,同時(shí)引入通道注意力結(jié)構(gòu)對(duì)局部信息進(jìn)行建模。通過不同層級(jí)提取圖像信息,提高模型的學(xué)習(xí)能力。2)在GLEIB 中構(gòu)建一個(gè)全新的雙門控深度卷積前饋網(wǎng)絡(luò)(double gated-dconv feed-forward network,DGDFN),控制信息在模型中的流動(dòng),提高模型對(duì)特征的建模能力及其魯棒性。3)提出的SRTSA 網(wǎng)絡(luò)通過對(duì)圖像的全局信息和局部信息進(jìn)行建模,使用門控網(wǎng)絡(luò)控制信息流動(dòng)以進(jìn)一步改善網(wǎng)絡(luò)的學(xué)習(xí)能力。在5 個(gè)基準(zhǔn)數(shù)據(jù)集上的測(cè)試結(jié)果驗(yàn)證了本文方法的先進(jìn)性和有效性,在SR任務(wù)中展現(xiàn)出極大的優(yōu)勢(shì)。

    1 本文方法

    1.1 網(wǎng)絡(luò)結(jié)構(gòu)

    本文提出的SRTSA 網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示,主要由淺層特征提取模塊、深層特征提取、上采樣模塊、重建模塊4 部分組成。定義輸入圖像為ILR∈RH×W×C,輸出圖像ISR∈RH×W×C,H、W、C分別為圖像的高度、寬度、通道數(shù)。

    圖1 SRTSA網(wǎng)絡(luò)整體結(jié)構(gòu)Fig.1 Overall architecture of the SRTSA network

    首先,使用一個(gè)3 × 3 卷積從輸入圖像ILR中提取淺層特征F0,具體為

    式中,HSF(·)表示卷積核大小為3 × 3 的卷積層,其可以將圖像空間映射到更高的維度上。

    然后,將F0送入深層特征提取模塊中,可得

    式中,HDF(·)表示深層特征提取模塊,由M個(gè)全局和局部信息提取組(global and local information extraction groups,GLEIG)和1 個(gè)卷積層堆疊而成,GLEIG由N個(gè)GLEIB和1個(gè)卷積層構(gòu)成,M和N的詳細(xì)參數(shù)見2.1節(jié)。

    深層特征FDF主要負(fù)責(zé)圖像的高頻部分的恢復(fù),淺層特征F0負(fù)責(zé)圖像低頻部分的重建,因此需要將F0與FDF通過跳躍連接聚合再送到上采樣模塊中,得到

    式中,HUP(·)表示由Shi 等人(2016)提出的ESPCN 一文中的亞像素卷積。它通過像素平移按給定上采樣系數(shù)的比例采樣。

    經(jīng)過上采樣模塊后將得到相應(yīng)尺寸的特征圖,最后,再將上采樣特征FUP送入重建模塊中,得到

    式中,HREC(·)表示卷積核大小為3 × 3 的卷積層,用于將特征圖轉(zhuǎn)換為RGB 空間的SR 圖像。HSRTSA(·)表示整個(gè)SRTSA模型映射。

    1.2 全局和局部信息提取模塊

    全局和局部信息提取模塊(GLEIB)結(jié)構(gòu)如圖2所示,該模塊主要由3部分構(gòu)成:

    圖2 全局和局部信息提取模塊結(jié)構(gòu)Fig.2 Architecture of the global and local information extraction block(GLEIB)

    1)全局信息建模模塊。主要通過轉(zhuǎn)置自注意力機(jī)制計(jì)算交叉協(xié)方差矩陣進(jìn)行圖像全局關(guān)系建模??紤]到如果只在通道維度建立長距離關(guān)系相關(guān)的話會(huì)損失一些有用的空間紋理和結(jié)構(gòu)信息,這些信息對(duì)于重建高質(zhì)量圖像十分重要。因此在采用轉(zhuǎn)置自注意力機(jī)制前使用一種輕量高效的特征提取塊進(jìn)行簡單關(guān)系建模保存部分空間結(jié)構(gòu)信息。

    2)局部信息建模模塊。自然圖像通常包含全局和局部信息結(jié)構(gòu),在對(duì)全局信息進(jìn)行建模的同時(shí)也需要注意到圖像部分特性具有局部性,因此使用通道注意力塊補(bǔ)充局部信息,增強(qiáng)模型的學(xué)習(xí)能力。

    3)雙門控深度卷積前饋網(wǎng)絡(luò)。DGDFN 通過在兩個(gè)并行路徑中采用門控機(jī)制抑制信息量較少的特征,并將篩選后的信息進(jìn)行融合,進(jìn)一步增強(qiáng)了模型對(duì)輸入特征的建模能力,提高模型的性能。

    1.2.1 全局信息建模模塊

    Transformer 中的計(jì)算資源主要消耗于自身的自注意力層中。對(duì)于一幅H×W像素的圖像來說,其需要計(jì)算任意兩個(gè)像素之間的相似度,計(jì)算復(fù)雜度為O(W2H2),將其應(yīng)用于SR 任務(wù)中顯然是十分困難的。SwinIR 采用的Swin Transformer 雖然通過劃分窗口減輕了計(jì)算成本,但是劃分窗口限制了聚合上下文的范圍,不能有效連續(xù)提取特征。為了緩解這個(gè)問題,采用Zamir 等人(2022)提出的轉(zhuǎn)置自注意力機(jī)制隱式構(gòu)建全局注意力圖。

    轉(zhuǎn)置自注意力機(jī)制的結(jié)構(gòu)如圖3 所示,輸入由NAFBlock 輸出的張量X∈RH×W×C經(jīng)過一個(gè)層歸一化(layer normalization,LN)之后生成張量Y∈RH×W×C。接著將Y輸入到卷積核大小為1 × 1的卷積中聚合跨通道信息,然后使用3 × 3大小的深度卷積生成Q,K,V,具體為

    圖3 轉(zhuǎn)置自注意力機(jī)制結(jié)構(gòu)圖Fig.3 Architecture of transposed self-attention

    式中,Wp(·)表示卷積核大小為1 × 1 的卷積,Wd(·)表示3 × 3的深度卷積。

    接著通過Reshape 操作重塑Q和K,使其生成大小為RC×C的轉(zhuǎn)置注意力圖,而不是大小為RHW×HW的常規(guī)注意力圖。整個(gè)過程可以表示為

    式中,WP(·)表示1 × 1大小的卷積,fAttention為轉(zhuǎn)置自注意力機(jī)制。

    Li 等人(2023)提出經(jīng)過softmax 歸一化生成的自注意力會(huì)影響特征聚合。根據(jù)ReLU(rectified linear unit)激活函數(shù)自身的特點(diǎn),可以在保留對(duì)圖像重建呈積極效果的特征的同時(shí)去除負(fù)面特征,這樣極大地提升了網(wǎng)絡(luò)模型重建圖像的性能。因此本文搭建的轉(zhuǎn)置自注意力機(jī)制可以表示為

    轉(zhuǎn)置自注意力機(jī)制通過在通道維度對(duì)全局注意力圖進(jìn)行隱式建模很好地解決了計(jì)算復(fù)雜度與特征圖空間維度呈二次方的關(guān)系,但是考慮到如果只在通道維度建立長距離依賴關(guān)系的話會(huì)損失一些有用的空間紋理和結(jié)構(gòu)信息,這些信息對(duì)于重建高質(zhì)量圖像十分重要。因此在使用轉(zhuǎn)置自注意力機(jī)制前需要對(duì)特征進(jìn)行簡單關(guān)系建模保存部分空間結(jié)構(gòu)信息。

    Chen 等人(2022)通過揭示GELU(Gaussian error linear unit)、GLU(gated linear unit)和通道注意力之間的聯(lián)系,通過移除或替換非線性激活函數(shù)(例如sigmoid,ReLU,GELU),提出了一個(gè)適用于圖像復(fù)原領(lǐng)域的簡單基線模型非線性無激活函數(shù)模塊(nonlinear activation free block,NAFBlock)。該模型通過將Transformer 內(nèi)較為成熟的模塊和機(jī)制應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)中,提升了卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力。NAFBlock 的網(wǎng)絡(luò)結(jié)構(gòu)如圖4 所示,其主要由兩個(gè)部分組成:移動(dòng)卷積(mobile convolution,MBConv)模塊和具有兩個(gè)全連接層的前饋網(wǎng)絡(luò)(feedforward network,F(xiàn)FN)。在MBConv 和FFN 之前都加入了層歸一化(layer norm,LN)用于標(biāo)準(zhǔn)化輸入數(shù)據(jù),提高模型的泛化性能。同時(shí)對(duì)兩個(gè)模塊使用了殘差連接,加速網(wǎng)絡(luò)訓(xùn)練和收斂。整個(gè)過程可以表示為

    圖4 非線性無激活函數(shù)模塊結(jié)構(gòu)圖Fig.4 Architecture of nonlinear activation free block

    NAFBlock 通過引入SimpleGate 單元來替代非線性激活函數(shù),給定輸入X∈RH×W×C,將特征沿通道維度分割成兩個(gè)特征X1和X2,X1、X2∈RH×W×C/2,然后使用線性門控來計(jì)算輸出,具體計(jì)算為

    式中,⊙表示逐元素相乘。由于簡化的SimpleGate引入了非線性,所以常用的激活函數(shù)就不需要再加入到網(wǎng)絡(luò)中。

    需要注意的是,NAFBlock 分別在MBConv 和FFN 中采用正則化(dropout)技術(shù)隨機(jī)丟棄部分神經(jīng)元以達(dá)到減少模型過擬合、增強(qiáng)模型泛化性能的作用。但是GLEIB 將經(jīng)過NAFBlock 進(jìn)行簡單關(guān)系建模后的特征送入轉(zhuǎn)置自注意力機(jī)制中進(jìn)行全局信息建模,為防止全局信息建模時(shí)特征信息不全,本文不使用NAFBlock 中的dropout 層以使得轉(zhuǎn)置自注意力機(jī)制對(duì)所有特征進(jìn)行全局關(guān)系建模,轉(zhuǎn)而將舍棄部分內(nèi)容增強(qiáng)模型泛化性能的任務(wù)交給轉(zhuǎn)置自注意力機(jī)制中的ReLU激活函數(shù)。

    1.2.2 局部信息建模模塊

    自然圖像包含全局信息和局部信息,通常使用自注意力機(jī)制對(duì)圖像的全局依賴關(guān)系進(jìn)行建模,但是只使用自注意力機(jī)制對(duì)圖像信息進(jìn)行建模會(huì)丟失圖像特有的局部相關(guān)性。圖像局部信息只涵蓋了幾個(gè)像素,典型局部特征表現(xiàn)為邊緣、局部色彩等,因此使用通道注意力塊(channel attention block,CAB)對(duì)圖像局部信息進(jìn)行補(bǔ)充。

    CAB 的結(jié)構(gòu)如圖5 所示,由兩個(gè)標(biāo)準(zhǔn)的卷積層組成,兩者之間使用GELU 激活函數(shù),并且還包含一個(gè)通道注意力。CAB 通過壓縮和擴(kuò)展通道特征,以及通過通道注意力模塊的自適應(yīng)調(diào)整,實(shí)現(xiàn)了對(duì)輸入特征的處理和提取。這個(gè)過程有助于提取重要的特征信息,并為后續(xù)模型提供更有代表性的特征表示。整個(gè)過程可以表示為

    圖5 通道注意力塊結(jié)構(gòu)圖Fig.5 Architecture of channel attention block

    式中,σ(·)表示GELU 激活函數(shù),W(·)表示3 × 3 大小的卷積,CA(·)表示通道注意力機(jī)制。

    1.2.3 雙門控深度卷積前饋網(wǎng)絡(luò)

    在傳統(tǒng)Transformer 中,F(xiàn)FN 通常包含兩個(gè)線性變換層和一個(gè)非線性激活函數(shù)。第1 個(gè)線性變換層用于擴(kuò)展特征通道,第2 個(gè)用于將通道減回原始輸入維度。為了更好地捕捉輸入圖像的特征信息,本文在Restormer(Zamir 等,2022)的基礎(chǔ)上提出一個(gè)全新的雙門控深度卷積前饋網(wǎng)絡(luò)(DGDFN),其結(jié)構(gòu)如圖6所示。

    圖6 雙門控深度卷積前饋網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.6 Architecture of double gated-dconv feed-forward network

    DGDFN 引入深度卷積對(duì)空間相鄰像素的信息進(jìn)行編碼,豐富局部信息。在每條路徑上都通過GELU 激活函數(shù)以實(shí)現(xiàn)雙門控機(jī)制。在兩個(gè)并行路徑中將通過門控機(jī)制處理后的特征進(jìn)行逐元素相乘操作,這樣可以過濾掉兩個(gè)路徑中相應(yīng)位置上特征向量中的較小值,從而減少信息量較少的特征的影響。之后逐元素求和操作將對(duì)應(yīng)位置的特征值相加,以合并兩個(gè)路徑中有用的信息,同時(shí)由于雙門控機(jī)制具有更強(qiáng)的非線性建模能力,因此可以學(xué)習(xí)更復(fù)雜的模式,提高模型的泛化性和建模能力。整個(gè)過程可以表示為

    式中,σ(·)表示GELU激活函數(shù),即門控機(jī)制,Wp(·)表示卷積核大小為1 × 1 的卷積,Wd(·)表示3 × 3 大小的深度卷積,⊙表示逐元素相乘。

    1.3 損失函數(shù)

    雖然L1損失函數(shù)、L2損失函數(shù)、感知損失以及對(duì)抗損失等多種損失函數(shù)的組合可以提高重建圖像的視覺效果,但為了驗(yàn)證SRTSA 網(wǎng)絡(luò)的有效性,本文采用了與上述相關(guān)工作相同的損失函數(shù)——L1損失函數(shù)進(jìn)行優(yōu)化。相較于其他損失函數(shù),L1損失函數(shù)提供了穩(wěn)定的梯度,并有助于模型快速收斂,使用L1損失函數(shù)進(jìn)行優(yōu)化是驗(yàn)證SR網(wǎng)絡(luò)性能的可靠方式。給定包含N個(gè)LR-HR 圖像對(duì)的訓(xùn)練集,通過最小化L1損失優(yōu)化SRTSA的模型參數(shù)

    式中,θ表示SRTSA網(wǎng)絡(luò)模型的參數(shù)。

    2 實(shí)驗(yàn)結(jié)果及分析

    2.1 數(shù)據(jù)集及訓(xùn)練細(xì)節(jié)

    本文使用DIV2K 數(shù)據(jù)集(Agustsson 和Timofte,2017)的800幅訓(xùn)練圖像對(duì)SRTSA 網(wǎng)絡(luò)進(jìn)行訓(xùn)練,采用雙三次插值法(Bicubic)得到×2、×3、×4 共3 個(gè)比例因子的低分辨率圖像。為了增加訓(xùn)練圖像的數(shù)據(jù)多樣性,將這800 幅訓(xùn)練圖像水平翻轉(zhuǎn)或者隨機(jī)旋轉(zhuǎn)90°,180°,270°。在每次迭代中將16個(gè)48 × 48像素的低分辨率圖像送入網(wǎng)絡(luò)(batch size=16),使用Adam 優(yōu)化器進(jìn)行訓(xùn)練,其中,β1=0.9,β2=0.999,ε=1×10-8,初始學(xué)習(xí)率lr=5×10-4,總共迭代500 000次,迭代到200 000次時(shí)學(xué)習(xí)率減半。

    使用具有不同特性的5 個(gè)標(biāo)準(zhǔn)測(cè)試集驗(yàn)證網(wǎng)絡(luò)的有效性:Set5(Bevilacqua 等,2012)、Set14(Zeyde等,2012)、BSD100(Berkeley segmentation dataset 100)(Martin 等,2002)、Urban100(Huang 等,2015)、Manga109(Matsui 等,2017),并在輸出圖像的YCbCr空間Y 通道上計(jì)算峰值信噪比(peak signal-to-noise ratio,PSNR)和結(jié)構(gòu)相似度(structural similarity,SSIM)指標(biāo)評(píng)價(jià)SR 結(jié)果。使用PyTorch 框架在兩張NVIDIA GeForce RTX 3090 顯卡上訓(xùn)練模型。在整個(gè)網(wǎng)絡(luò)中,為保持與SwinIR 模型進(jìn)行公平對(duì)比,設(shè)置GLEIG 數(shù)M=6,GLEIB 數(shù)為N=6,CAB 輸出縮放權(quán)重α=0.05,轉(zhuǎn)置自注意力特征通道設(shè)置為120,多頭數(shù)設(shè)置為6。

    2.2 實(shí)驗(yàn)結(jié)果分析

    為了展示SRTSA 模型的先進(jìn)性,本文與Bicubic算法、SRCNN、VDSR、EDSR(enhanced deep residual network for single image super-resolution)、RCAN、SAN(second-order attention network for single image super-resolution)(Dai 等,2019)、HAN(single image super-resolution via a holistic attention network)(Niu等,2020)、NLSA、SwinIR 等模型在×2、×3、×4 共3 個(gè)比例因子上對(duì)PSNR指標(biāo)和SSIM指標(biāo)進(jìn)行對(duì)比。較高的PSNR 值表示重建效果更好,SSIM 越接近1 表示SR圖像與HR圖像在結(jié)構(gòu)上更為相似。

    Chu 等人(2022)指出在圖像復(fù)原工作中由于計(jì)算資源限制,一般都將要修復(fù)的圖像裁剪成小塊(Patch)送入到模型中進(jìn)行訓(xùn)練。而在推理過程,一般則直接將需要修復(fù)的圖像送入到網(wǎng)絡(luò)中進(jìn)行復(fù)原。這種模式存在著訓(xùn)練與推理過程的不一致性,對(duì)利用全局信息的模型會(huì)產(chǎn)生負(fù)面影響。因此在測(cè)試過程中采用Chu等人(2022)提出的測(cè)試時(shí)間局部轉(zhuǎn)換器(test-time local converter,TLC)維持訓(xùn)練與推理過程的一致性。

    按照2.1 節(jié)的實(shí)驗(yàn)設(shè)置對(duì)模型進(jìn)行完整訓(xùn)練,得到×2、×3、×4 共3 個(gè)不同比例因子的PSNR 和SSIM,分別展示在表1—表3 中??梢钥吹?,在×4 倍SR 任務(wù)中,SRTSA 較SwinIR 在Set5、Set14、BSD100和Urban100 上,PSNR 分別提升0.07 dB、0.01 dB、0.03 dB 和0.08 dB,SSIM 也有較大提升。在×3 倍SR 任務(wù)中,SRTSA 較SwinIR 在Set5、BSD100、Urban100 和Manga109 上,PSNR 分別提升0.02 dB、0.04 dB、0.15 dB 和0.02 dB,SSIM 在5 個(gè)測(cè)試集上都獲得最佳指標(biāo)。在×2 倍SR 任務(wù)中,SRTSA 較SwinIR在Set5、Set14、BSD100、Urban100和Manga109上,PSNR 分別提升0.03 dB、0.21 dB、0.05 dB、0.29 dB 和0.10 dB,SSIM 在除Manga109 以外的4個(gè)測(cè)試集上,分別提升0.000 4、0.001 6、0.000 9 和0.002 7,足以說明SRTSA的優(yōu)勢(shì)十分明顯。

    表1 各模型在不同數(shù)據(jù)集上的表現(xiàn)(×2)Table 1 Performance of each model on different datasets(scale×2)

    表2 各模型在不同數(shù)據(jù)集上的表現(xiàn)(×3)Table 2 Performance of each model on different datasets(scale×3)

    表3 各模型在不同數(shù)據(jù)集上的表現(xiàn)(×4)Table 3 Performance of each model on different datasets(scale×4)

    SRTSA 網(wǎng)絡(luò)在BSD100 和Urban100 這兩個(gè)包含豐富的結(jié)構(gòu)和紋理信息且具有更高復(fù)雜度的測(cè)試集上的優(yōu)勢(shì)更為顯著。說明SRTSA網(wǎng)絡(luò)可以在復(fù)雜場(chǎng)景中保持高水平的細(xì)節(jié)保留和紋理重建能力,具有較強(qiáng)的結(jié)構(gòu)感知能力和泛化性能,可以適應(yīng)不同類型的圖像數(shù)據(jù)并提供高質(zhì)量的超分辨率重建圖像。

    圖7 展示了Urban100 數(shù)據(jù)集044_img.png 圖像通過不同算法模型重建得到的圖像??梢钥吹?,Bicubic 算法所重建圖像十分模糊,VDSR、RDN(Zhang 等,2018b)等網(wǎng)絡(luò)只能重建出圖像較為模糊的輪廓且細(xì)節(jié)信息基本丟失,RCAN、SAN、SwinIR 可以重建出較為清晰的輪廓,但對(duì)于紋理結(jié)構(gòu)的重建并不完善,SRTSA網(wǎng)絡(luò)所重建的圖像不但輪廓清晰,結(jié)構(gòu)合理,并且對(duì)于細(xì)節(jié)紋理的恢復(fù)也最接近HR圖像。

    圖7 Urban100數(shù)據(jù)集中044_img.png的測(cè)試結(jié)果(×4)Fig.7 Test results of 044_img.png in Urban100 dataset(scale×4)

    圖8 展示了Urban100 數(shù)據(jù)集092_img.png 圖像經(jīng)過不同模型重建后的效果對(duì)比。Bicubic 插值法得到的結(jié)果呈現(xiàn)出非常模糊的特征,幾乎無法重建出圖像的細(xì)節(jié)?;谏疃葘W(xué)習(xí)的其他方法在重建過程中雖然保留了主要的輪廓信息,但在紋理結(jié)構(gòu)和細(xì)節(jié)方面卻存在明顯的扭曲和偽影。而使用SRTSA網(wǎng)絡(luò)進(jìn)行重建的圖像則具有紋理清晰、邊緣銳利以及細(xì)節(jié)豐富等優(yōu)點(diǎn),通過恢復(fù)更多的信息獲得更好的結(jié)果。

    圖8 Urban100數(shù)據(jù)集中092_img.png的測(cè)試結(jié)果(×4)Fig.8 Test results of 092_img.png in Urban100 dataset(scale×4)

    圖8 中,不同方法重建結(jié)果差異性較大是因?yàn)镾R 任務(wù)是一個(gè)典型的不適定問題,LR 圖像無法唯一確定對(duì)應(yīng)的HR 圖像。VDSR、EDSR 等SR 模型受感受野較小、模型學(xué)習(xí)能力較弱等限制,無法充分考慮圖像的全局結(jié)構(gòu)恢復(fù)細(xì)節(jié)信息,在生成SR圖像時(shí)都出現(xiàn)了將豎狀條紋重建為斜狀條紋、交叉條紋或者出現(xiàn)偽影等錯(cuò)誤范式。相比之下,SRTSA 通過對(duì)全局信息進(jìn)行建模,獲得更多紋理結(jié)構(gòu)信息,極大地緩解了不適定問題,重建得到的SR 圖像也與HR 圖像更為相似。

    2.3 局部歸因分析

    局部歸因圖(local attribution maps,LAM)是由Gu和Dong(2021)針對(duì)SR 領(lǐng)域具有不可解釋性而提出的歸因分析方法,通過局部歸因圖的形式將對(duì)輸出結(jié)果產(chǎn)生強(qiáng)烈影響的像素重點(diǎn)標(biāo)注出來。通過這種方式,可以很直觀地看到SR網(wǎng)絡(luò)的有效性。為了直觀地展示SRTSA 的優(yōu)勢(shì),本文將SRTSA 和SwinIR同時(shí)使用LAM工具進(jìn)行比較,比較結(jié)果如圖9所示。在LAM 中,作者提出擴(kuò)散指數(shù)(diffusion index,DI)衡量LAM的結(jié)果,表示形式為

    圖9 不同模型的LAM結(jié)果Fig.9 LAM results for different models

    式中,GI表示基尼系數(shù)(Gini index,GI)。GI是國際上通用衡量一個(gè)國家或者地區(qū)收入差距的指標(biāo)。在LAM 中,GI是衡量LAM 差距的指標(biāo),它可以反映LAM 所涉及的像素范圍。簡單理解就是對(duì)于重建圖像的某一部分來說,如果重建該部分只涉及少數(shù)像素點(diǎn),則GI系數(shù)相對(duì)較高。因此DI和GI呈反比例關(guān)系,DI越大說明重建某一部分網(wǎng)絡(luò)考慮到更多的像素點(diǎn)。

    從圖9 可以直觀地看到,SRTSA 生成SR 圖像時(shí)考慮到的像素范圍遠(yuǎn)大于SwinIR 所考慮的像素范圍。實(shí)驗(yàn)結(jié)果和客觀指標(biāo)評(píng)價(jià)、主觀視覺感知高度一致,從可解釋性的角度證明了SRTSA的優(yōu)越性。

    2.4 消融實(shí)驗(yàn)

    為了驗(yàn)證SRTSA 網(wǎng)絡(luò)各組成部分的有效性,本文對(duì)不同結(jié)構(gòu)進(jìn)行消融實(shí)驗(yàn),并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)比分析。1)實(shí)驗(yàn)中把只有轉(zhuǎn)置自注意力機(jī)制和門控前饋網(wǎng)絡(luò)(GDFN)的模型作為Baseline;2)在Baseline上引入NAFBlock以驗(yàn)證其對(duì)特征進(jìn)行的簡單關(guān)系建模是否可以補(bǔ)充轉(zhuǎn)置自注意力機(jī)制損失的部分空間紋理和結(jié)構(gòu)信息;3)在Baseline 上引入CAB 驗(yàn)證補(bǔ)充局部信息是否可以增強(qiáng)圖像重建效果;4)同時(shí)引入NAFBlock 和CAB 驗(yàn)證對(duì)特征進(jìn)行簡單關(guān)系建模是否與對(duì)特征進(jìn)行局部關(guān)系建模產(chǎn)生沖突;5)由于DGDFN 相對(duì)獨(dú)立,在實(shí)驗(yàn)4)的基礎(chǔ)上引入DGDFN 即可驗(yàn)證其是否可以提高模型的建模能力。在消融實(shí)驗(yàn)中設(shè)置batch size=8,其余均按照2.1節(jié)的設(shè)置重新訓(xùn)練網(wǎng)絡(luò)。

    在Set5 測(cè)試集上的PSNR 如表4 所示。由表4中實(shí)驗(yàn)2)可知,在Baseline 模型的基礎(chǔ)上引入NAFBlock 模塊之后PSNR/SSIM 獲得了0.01 dB/0.000 3的提升,說明對(duì)特征進(jìn)行簡單關(guān)系建模可以保存部分空間結(jié)構(gòu)信息。實(shí)驗(yàn)3)結(jié)果表明,引入CAB 模塊后,PSNR 和SSIM 分別提升了0.02 dB 和0.000 3,說明CAB 通過捕捉圖像特有的局部相關(guān)性從而增強(qiáng)了網(wǎng)絡(luò)的建模能力。在實(shí)驗(yàn)4)中,同時(shí)引入以上兩個(gè)模塊后,PSNR 和SSIM 分別提升了0.05 dB 和0.000 7。由實(shí)驗(yàn)5)可知,本文DGDFN 的PSNR 和SSIM 分別提升了0.03 dB 和0.000 9,說明DGDFN可以提高模型的泛化性能和建模能力,同樣也說明在Transformer 模型中,自注意力機(jī)制和前饋網(wǎng)絡(luò)均發(fā)揮著不可或缺的作用。它們共同構(gòu)成了模型的核心組件,并相互協(xié)作以實(shí)現(xiàn)高效的特征提取和建模。

    表4 在 Set5(×4)測(cè)試上的消融實(shí)驗(yàn)Table 4 Ablation study on Set5(scale×4)

    同時(shí),為了更直觀地展示各個(gè)模塊在SRTSA 模型中所做出的貢獻(xiàn),采用LAM 工具分析模型的感受野,過程性結(jié)果如圖10所示。

    圖10 過程性結(jié)果展示Fig.10 Process results display

    3 結(jié)論

    為了解決主流方法通過在窗口內(nèi)使用自注意力機(jī)制,會(huì)限制特征聚合范圍而導(dǎo)致圖像重建效果不佳的問題,提出了基于轉(zhuǎn)置自注意力機(jī)制的超分辨率網(wǎng)絡(luò)(SRTSA)。通過轉(zhuǎn)置自注意力機(jī)制和通道注意力模塊分別對(duì)全局特征和局部特征進(jìn)行建模,同時(shí)提出一個(gè)全新的雙門控深度卷積前饋網(wǎng)絡(luò)(DGDFN)提高模型的泛化性能。大量實(shí)驗(yàn)結(jié)果表明,本文方法在客觀指標(biāo)、主觀視覺和模型可解釋性方面均優(yōu)于目前主流的單圖像超分辨率算法。然而,本文算法也存在較多不足:1)用于局部信息增強(qiáng)的通道注意力塊在大通道數(shù)時(shí)會(huì)使用較大參數(shù)量,使得模型推理速度變慢,后期將構(gòu)建一個(gè)全新的輕量級(jí)局部信息增強(qiáng)模塊對(duì)局部特征信息進(jìn)行補(bǔ)充。2)盡管本文方法通過引入轉(zhuǎn)置自注意力機(jī)制隱式構(gòu)建全局上下文關(guān)系節(jié)省了較多的參數(shù),但是全局信息建模網(wǎng)絡(luò)結(jié)構(gòu)較為冗余,使得網(wǎng)絡(luò)復(fù)雜度更高。在未來的工作中,將設(shè)計(jì)一個(gè)更為簡潔的自注意力機(jī)制用于圖像全局信息的提取。

    猜你喜歡
    全局注意力卷積
    Cahn-Hilliard-Brinkman系統(tǒng)的全局吸引子
    量子Navier-Stokes方程弱解的全局存在性
    讓注意力“飛”回來
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    落子山東,意在全局
    金橋(2018年4期)2018-09-26 02:24:54
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
    A Beautiful Way Of Looking At Things
    新思路:牽一發(fā)動(dòng)全局
    亚洲国产精品sss在线观看| 亚洲aⅴ乱码一区二区在线播放 | 咕卡用的链子| 变态另类成人亚洲欧美熟女 | 这个男人来自地球电影免费观看| 真人一进一出gif抽搐免费| 国产极品粉嫩免费观看在线| 精品一区二区三区四区五区乱码| 国产97色在线日韩免费| 亚洲男人的天堂狠狠| xxx96com| 99久久99久久久精品蜜桃| 色婷婷久久久亚洲欧美| 一边摸一边做爽爽视频免费| ponron亚洲| 搡老岳熟女国产| 中文字幕人妻丝袜一区二区| 久久精品影院6| 国产精品久久久久久精品电影 | 亚洲片人在线观看| 国产xxxxx性猛交| 午夜免费观看网址| 亚洲男人天堂网一区| 露出奶头的视频| 丝袜美腿诱惑在线| 一级片免费观看大全| 国产成人影院久久av| 在线观看免费日韩欧美大片| 国内精品久久久久久久电影| 自拍欧美九色日韩亚洲蝌蚪91| 欧美另类亚洲清纯唯美| 亚洲自偷自拍图片 自拍| 最好的美女福利视频网| 免费女性裸体啪啪无遮挡网站| av片东京热男人的天堂| 欧美绝顶高潮抽搐喷水| 亚洲国产看品久久| 1024视频免费在线观看| 九色国产91popny在线| 麻豆成人av在线观看| 亚洲精品久久成人aⅴ小说| av视频在线观看入口| 精品久久蜜臀av无| 欧美绝顶高潮抽搐喷水| 日韩精品免费视频一区二区三区| 欧美成人性av电影在线观看| 高清在线国产一区| 国产99白浆流出| 人人妻人人爽人人添夜夜欢视频| 可以在线观看的亚洲视频| 国产99久久九九免费精品| 久久久久久免费高清国产稀缺| 久久精品国产清高在天天线| 亚洲色图 男人天堂 中文字幕| 精品第一国产精品| ponron亚洲| 美女高潮到喷水免费观看| 操出白浆在线播放| 国产亚洲精品一区二区www| 亚洲精品一区av在线观看| 亚洲性夜色夜夜综合| 精品国产一区二区久久| 久久精品亚洲熟妇少妇任你| 欧美日本亚洲视频在线播放| 丝袜美腿诱惑在线| 一本久久中文字幕| 在线观看免费午夜福利视频| 精品久久蜜臀av无| 亚洲精品av麻豆狂野| 国语自产精品视频在线第100页| 女同久久另类99精品国产91| 国产精品久久久av美女十八| 亚洲国产看品久久| 中文字幕另类日韩欧美亚洲嫩草| 国产激情久久老熟女| 美女国产高潮福利片在线看| 国产精品免费一区二区三区在线| 18禁黄网站禁片午夜丰满| 免费一级毛片在线播放高清视频 | 成年女人毛片免费观看观看9| 欧美 亚洲 国产 日韩一| 美女大奶头视频| 搡老妇女老女人老熟妇| 婷婷丁香在线五月| 一边摸一边做爽爽视频免费| 日韩三级视频一区二区三区| 日本撒尿小便嘘嘘汇集6| 久久精品国产综合久久久| 国产野战对白在线观看| 日本 欧美在线| 色尼玛亚洲综合影院| 久久国产精品影院| 亚洲精品粉嫩美女一区| 亚洲欧美激情综合另类| 亚洲一区中文字幕在线| 他把我摸到了高潮在线观看| 国产极品粉嫩免费观看在线| 欧美性长视频在线观看| 日韩精品免费视频一区二区三区| 久久久久九九精品影院| 脱女人内裤的视频| 久久人人精品亚洲av| 最近最新中文字幕大全免费视频| 两个人看的免费小视频| 757午夜福利合集在线观看| 好男人电影高清在线观看| 久久人人精品亚洲av| 亚洲激情在线av| 国产精品爽爽va在线观看网站 | 久久精品人人爽人人爽视色| 国产成人影院久久av| 婷婷丁香在线五月| 亚洲国产精品sss在线观看| 一级a爱片免费观看的视频| 久久香蕉国产精品| 久久天躁狠狠躁夜夜2o2o| 日本撒尿小便嘘嘘汇集6| 亚洲自偷自拍图片 自拍| 在线观看免费视频网站a站| 一级片免费观看大全| 国产日韩一区二区三区精品不卡| 此物有八面人人有两片| 老鸭窝网址在线观看| 中文字幕最新亚洲高清| 此物有八面人人有两片| 最近最新免费中文字幕在线| 日日爽夜夜爽网站| av欧美777| 黄片大片在线免费观看| 国产精品亚洲美女久久久| 亚洲国产看品久久| 亚洲aⅴ乱码一区二区在线播放 | www.精华液| 精品国产超薄肉色丝袜足j| 亚洲精品国产精品久久久不卡| 日韩一卡2卡3卡4卡2021年| 久久精品亚洲熟妇少妇任你| 亚洲成av片中文字幕在线观看| 99香蕉大伊视频| 国产熟女xx| 日韩精品免费视频一区二区三区| 99香蕉大伊视频| 一本综合久久免费| 午夜福利一区二区在线看| 给我免费播放毛片高清在线观看| netflix在线观看网站| 免费少妇av软件| 视频在线观看一区二区三区| 国产成人精品久久二区二区免费| 国产欧美日韩一区二区三| 男人操女人黄网站| 亚洲av成人一区二区三| 国产精品香港三级国产av潘金莲| 一区二区三区精品91| 看片在线看免费视频| 久久久国产欧美日韩av| 国产亚洲av嫩草精品影院| 丝袜美足系列| 国产欧美日韩一区二区三| 国产欧美日韩综合在线一区二区| 国语自产精品视频在线第100页| 欧美黑人欧美精品刺激| 69精品国产乱码久久久| 成年版毛片免费区| 一个人免费在线观看的高清视频| 欧美国产日韩亚洲一区| 神马国产精品三级电影在线观看 | 欧美日韩乱码在线| 人妻丰满熟妇av一区二区三区| 亚洲精品在线观看二区| 国产成人影院久久av| 99国产精品99久久久久| 国产私拍福利视频在线观看| 两人在一起打扑克的视频| 777久久人妻少妇嫩草av网站| www.999成人在线观看| 欧美丝袜亚洲另类 | 黄色片一级片一级黄色片| 欧美 亚洲 国产 日韩一| 欧美激情 高清一区二区三区| 黄色片一级片一级黄色片| 色老头精品视频在线观看| 亚洲成av片中文字幕在线观看| 国产亚洲欧美98| 久热爱精品视频在线9| 啦啦啦 在线观看视频| 久久精品国产99精品国产亚洲性色 | 欧美日韩精品网址| 一个人免费在线观看的高清视频| 久久人人爽av亚洲精品天堂| 巨乳人妻的诱惑在线观看| 两性夫妻黄色片| 一本综合久久免费| 欧美激情极品国产一区二区三区| 亚洲第一电影网av| av中文乱码字幕在线| 亚洲精品久久国产高清桃花| 老司机深夜福利视频在线观看| 在线免费观看的www视频| 亚洲欧美激情综合另类| 国产成人欧美| 免费看十八禁软件| 搞女人的毛片| 久久精品影院6| 精品午夜福利视频在线观看一区| 每晚都被弄得嗷嗷叫到高潮| 色精品久久人妻99蜜桃| 搞女人的毛片| 91成年电影在线观看| 日本在线视频免费播放| 亚洲国产毛片av蜜桃av| 三级毛片av免费| 97人妻天天添夜夜摸| 色综合站精品国产| 国产在线精品亚洲第一网站| 国产精品香港三级国产av潘金莲| 免费不卡黄色视频| 免费在线观看影片大全网站| av网站免费在线观看视频| 丁香六月欧美| 久久精品aⅴ一区二区三区四区| bbb黄色大片| 国产精品一区二区精品视频观看| 精品国产乱码久久久久久男人| 91大片在线观看| 久久国产乱子伦精品免费另类| 给我免费播放毛片高清在线观看| 国产精品一区二区精品视频观看| 搡老妇女老女人老熟妇| 99久久99久久久精品蜜桃| 宅男免费午夜| 亚洲男人的天堂狠狠| 国产成人欧美| 久久久久久久精品吃奶| 欧美乱码精品一区二区三区| av有码第一页| 夜夜躁狠狠躁天天躁| 国产不卡一卡二| 欧美日韩福利视频一区二区| 国产99白浆流出| 男女下面插进去视频免费观看| 亚洲色图综合在线观看| 欧美激情 高清一区二区三区| 亚洲第一欧美日韩一区二区三区| 国产av在哪里看| 国产av又大| 岛国在线观看网站| 中文字幕另类日韩欧美亚洲嫩草| 国内久久婷婷六月综合欲色啪| 精品国产亚洲在线| 深夜精品福利| 久久精品91无色码中文字幕| 国产av一区在线观看免费| 欧美国产精品va在线观看不卡| 亚洲欧美日韩无卡精品| 黄频高清免费视频| 性欧美人与动物交配| 国产成+人综合+亚洲专区| 亚洲国产精品sss在线观看| 国产成人精品久久二区二区91| 美女扒开内裤让男人捅视频| 国产伦一二天堂av在线观看| 亚洲美女黄片视频| 日韩视频一区二区在线观看| 久久久国产成人精品二区| 欧美日韩瑟瑟在线播放| 一进一出好大好爽视频| 久久精品成人免费网站| 国产精品久久电影中文字幕| 黑人巨大精品欧美一区二区蜜桃| 99香蕉大伊视频| 一级黄色大片毛片| 国产高清有码在线观看视频 | 国产极品粉嫩免费观看在线| 久久婷婷成人综合色麻豆| 亚洲五月天丁香| 国产成+人综合+亚洲专区| 国产黄a三级三级三级人| svipshipincom国产片| 久久人人精品亚洲av| 99香蕉大伊视频| 亚洲熟女毛片儿| 亚洲七黄色美女视频| 一区二区三区国产精品乱码| 亚洲熟妇熟女久久| 国内精品久久久久精免费| 一区二区日韩欧美中文字幕| 91麻豆av在线| 免费少妇av软件| 极品人妻少妇av视频| 欧美亚洲日本最大视频资源| 在线观看免费日韩欧美大片| 中文亚洲av片在线观看爽| 啪啪无遮挡十八禁网站| 手机成人av网站| 制服丝袜大香蕉在线| 91精品国产国语对白视频| 18禁国产床啪视频网站| 高清在线国产一区| 国产精品久久久人人做人人爽| 成人国语在线视频| 最好的美女福利视频网| 免费不卡黄色视频| 亚洲精品一区av在线观看| 日韩有码中文字幕| 午夜视频精品福利| 国产欧美日韩一区二区精品| 亚洲成人免费电影在线观看| 一边摸一边抽搐一进一小说| 一二三四在线观看免费中文在| 51午夜福利影视在线观看| 亚洲av成人一区二区三| 免费高清在线观看日韩| 丝袜美足系列| 亚洲狠狠婷婷综合久久图片| 黑人操中国人逼视频| 19禁男女啪啪无遮挡网站| 久久人人爽av亚洲精品天堂| 99精品欧美一区二区三区四区| 高清在线国产一区| 免费av毛片视频| 国产激情久久老熟女| 美女大奶头视频| 夜夜夜夜夜久久久久| cao死你这个sao货| 亚洲国产欧美网| 国产亚洲欧美在线一区二区| 99国产精品99久久久久| 国产精品爽爽va在线观看网站 | 欧美乱码精品一区二区三区| av在线天堂中文字幕| 亚洲中文日韩欧美视频| 欧美日韩中文字幕国产精品一区二区三区 | 黄色成人免费大全| 麻豆av在线久日| 欧美不卡视频在线免费观看 | 天天添夜夜摸| 色综合婷婷激情| 99在线人妻在线中文字幕| 久久人妻av系列| av视频免费观看在线观看| 色av中文字幕| 久久精品aⅴ一区二区三区四区| 老司机福利观看| 亚洲美女黄片视频| 中文字幕色久视频| 国产一区在线观看成人免费| 欧美另类亚洲清纯唯美| 久久婷婷人人爽人人干人人爱 | 中文字幕人妻丝袜一区二区| 中文字幕久久专区| 亚洲精品粉嫩美女一区| 成人精品一区二区免费| 一个人免费在线观看的高清视频| 欧美乱码精品一区二区三区| 一夜夜www| 中文字幕精品免费在线观看视频| 一夜夜www| 老司机深夜福利视频在线观看| 免费看美女性在线毛片视频| 中文字幕精品免费在线观看视频| 两个人视频免费观看高清| 欧美国产精品va在线观看不卡| 51午夜福利影视在线观看| 超碰成人久久| 夜夜爽天天搞| 亚洲人成网站在线播放欧美日韩| 一区二区三区精品91| 亚洲国产高清在线一区二区三 | 国产亚洲欧美98| 人人妻人人澡欧美一区二区 | 色综合亚洲欧美另类图片| 亚洲国产精品久久男人天堂| 宅男免费午夜| 国产在线精品亚洲第一网站| 啦啦啦 在线观看视频| 窝窝影院91人妻| 午夜福利,免费看| 首页视频小说图片口味搜索| 此物有八面人人有两片| 最新在线观看一区二区三区| 欧美+亚洲+日韩+国产| 电影成人av| 手机成人av网站| 亚洲精华国产精华精| 久久国产精品影院| 午夜精品在线福利| 999久久久国产精品视频| 在线观看免费午夜福利视频| 精品人妻1区二区| 十分钟在线观看高清视频www| 欧美av亚洲av综合av国产av| 午夜久久久在线观看| 国产高清激情床上av| 午夜成年电影在线免费观看| 亚洲激情在线av| 久久热在线av| 久久久水蜜桃国产精品网| 亚洲色图综合在线观看| 天天添夜夜摸| 女性被躁到高潮视频| 老鸭窝网址在线观看| 国产亚洲av高清不卡| 两性夫妻黄色片| 少妇粗大呻吟视频| 操美女的视频在线观看| 国产又爽黄色视频| 黄色丝袜av网址大全| 久久精品国产清高在天天线| 欧美最黄视频在线播放免费| 黑丝袜美女国产一区| 中文字幕精品免费在线观看视频| 电影成人av| 亚洲熟女毛片儿| 一区在线观看完整版| 精品电影一区二区在线| 首页视频小说图片口味搜索| 久热这里只有精品99| 最近最新中文字幕大全电影3 | 国产精品av久久久久免费| 丝袜美足系列| 十八禁网站免费在线| 法律面前人人平等表现在哪些方面| 久久精品国产清高在天天线| 大香蕉久久成人网| 亚洲午夜精品一区,二区,三区| 91成年电影在线观看| 黄片播放在线免费| 亚洲第一av免费看| 女警被强在线播放| 欧美成人午夜精品| 男女之事视频高清在线观看| 日日爽夜夜爽网站| 亚洲七黄色美女视频| 高潮久久久久久久久久久不卡| 一区福利在线观看| 女人精品久久久久毛片| 亚洲成人久久性| 丝袜人妻中文字幕| 成人特级黄色片久久久久久久| 亚洲av熟女| 国产精品电影一区二区三区| 久久中文字幕一级| 一边摸一边抽搐一进一出视频| 1024视频免费在线观看| 一进一出抽搐gif免费好疼| 精品国产一区二区久久| 日韩 欧美 亚洲 中文字幕| 在线播放国产精品三级| 啦啦啦 在线观看视频| 国产亚洲精品av在线| 性欧美人与动物交配| 精品人妻1区二区| 婷婷丁香在线五月| 18禁国产床啪视频网站| 99国产精品99久久久久| 国产高清有码在线观看视频 | 中出人妻视频一区二区| 国产精品久久久久久精品电影 | 日韩免费av在线播放| 女人精品久久久久毛片| 日韩欧美一区二区三区在线观看| 国产精品电影一区二区三区| 午夜亚洲福利在线播放| 精品少妇一区二区三区视频日本电影| 在线观看免费午夜福利视频| 亚洲成人精品中文字幕电影| 日韩欧美在线二视频| 天堂动漫精品| 一本综合久久免费| 1024视频免费在线观看| 男人舔女人的私密视频| 色综合欧美亚洲国产小说| 色综合亚洲欧美另类图片| 久久青草综合色| 极品教师在线免费播放| 在线观看66精品国产| 波多野结衣一区麻豆| 最好的美女福利视频网| 黄色丝袜av网址大全| 啦啦啦 在线观看视频| 午夜福利影视在线免费观看| 亚洲精品久久国产高清桃花| 欧美+亚洲+日韩+国产| 欧美成人免费av一区二区三区| 宅男免费午夜| 91在线观看av| 中国美女看黄片| 精品电影一区二区在线| 亚洲av电影不卡..在线观看| 日本精品一区二区三区蜜桃| 欧美乱码精品一区二区三区| 欧美成人一区二区免费高清观看 | 亚洲av电影不卡..在线观看| 深夜精品福利| 欧美乱色亚洲激情| 在线观看免费日韩欧美大片| 免费看a级黄色片| 丰满人妻熟妇乱又伦精品不卡| 亚洲精品粉嫩美女一区| 日韩精品中文字幕看吧| 一级,二级,三级黄色视频| 国产精品1区2区在线观看.| 亚洲精品久久国产高清桃花| 精品欧美国产一区二区三| 国产亚洲精品综合一区在线观看 | 欧美乱色亚洲激情| 午夜亚洲福利在线播放| 激情在线观看视频在线高清| 亚洲精品久久国产高清桃花| 老司机靠b影院| 精品一区二区三区四区五区乱码| 亚洲成人精品中文字幕电影| 亚洲国产中文字幕在线视频| 亚洲成人精品中文字幕电影| 免费不卡黄色视频| 国产又色又爽无遮挡免费看| 亚洲第一电影网av| 人人妻人人爽人人添夜夜欢视频| 免费久久久久久久精品成人欧美视频| 在线观看免费视频网站a站| 一区二区三区精品91| 国产成人欧美| 欧美成狂野欧美在线观看| 亚洲欧美日韩另类电影网站| 麻豆av在线久日| 亚洲中文字幕一区二区三区有码在线看 | 久久久国产成人免费| 久久精品91蜜桃| 国产精华一区二区三区| 国产精品综合久久久久久久免费 | 欧美日本视频| 午夜亚洲福利在线播放| 两性午夜刺激爽爽歪歪视频在线观看 | 丰满人妻熟妇乱又伦精品不卡| 男女下面进入的视频免费午夜 | av福利片在线| 好男人电影高清在线观看| 国产麻豆69| 国产三级在线视频| 国产成人欧美在线观看| 婷婷六月久久综合丁香| 中文字幕最新亚洲高清| 亚洲久久久国产精品| 成人欧美大片| 国产一区二区三区在线臀色熟女| 亚洲午夜理论影院| 国产亚洲精品久久久久5区| 亚洲va日本ⅴa欧美va伊人久久| 两个人视频免费观看高清| 777久久人妻少妇嫩草av网站| 1024视频免费在线观看| 日本黄色视频三级网站网址| 久9热在线精品视频| 天天躁夜夜躁狠狠躁躁| 两人在一起打扑克的视频| 免费少妇av软件| 国产av一区在线观看免费| 宅男免费午夜| 麻豆一二三区av精品| 久久久久久久久久久久大奶| 黑人巨大精品欧美一区二区蜜桃| 午夜久久久久精精品| 久久人妻福利社区极品人妻图片| 999精品在线视频| 亚洲avbb在线观看| 亚洲av电影在线进入| 亚洲欧美激情在线| 中文字幕色久视频| 亚洲精品粉嫩美女一区| 亚洲欧美精品综合一区二区三区| aaaaa片日本免费| 宅男免费午夜| 在线十欧美十亚洲十日本专区| 欧美日韩福利视频一区二区| 国产精品久久久人人做人人爽| 精品久久久精品久久久| 真人一进一出gif抽搐免费| 午夜a级毛片| 看黄色毛片网站| 在线观看免费日韩欧美大片| 久久国产精品男人的天堂亚洲| 国产1区2区3区精品| 这个男人来自地球电影免费观看| 无遮挡黄片免费观看| 91大片在线观看| 国产午夜精品久久久久久| 咕卡用的链子| 国产欧美日韩一区二区三| 18美女黄网站色大片免费观看| 午夜两性在线视频| 男人的好看免费观看在线视频 | 女警被强在线播放| 天天躁狠狠躁夜夜躁狠狠躁| 国产精品 欧美亚洲| 99国产精品免费福利视频| 丝袜美足系列| 亚洲国产欧美一区二区综合| 精品电影一区二区在线| 自拍欧美九色日韩亚洲蝌蚪91| 久久久精品国产亚洲av高清涩受| 国产成人系列免费观看| 国产片内射在线| 国产黄a三级三级三级人| 午夜福利影视在线免费观看| 国产精品 国内视频| 不卡一级毛片| aaaaa片日本免费| 久久狼人影院| 黑人欧美特级aaaaaa片| 亚洲av电影在线进入| av免费在线观看网站| 波多野结衣一区麻豆| 亚洲自拍偷在线| 日本三级黄在线观看|