• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深度學習的單幅圖像超分辨率重建方法綜述

    2021-09-26 10:42:08趙元元
    計算機工程與應(yīng)用 2021年18期
    關(guān)鍵詞:殘差分辨率損失

    黃 健,趙元元,郭 蘋,王 靜

    西安科技大學 通信與信息工程學院,西安710600

    圖像超分辨率重建即用特定算法將同一場景中的低分辨率(LR)圖像轉(zhuǎn)換成高分辨率(HR)圖像[1],該技術(shù)是圖像處理與計算機視覺的主要技術(shù)之一[2]。高分辨率圖像因其具有很高的像素密度,能夠獲得圖像更多的細節(jié)特征,而在實際場景中應(yīng)用廣泛。超分辨率重建技術(shù)可根據(jù)輸入圖像的數(shù)量分為單張LR圖像生成HR圖像技術(shù)和多張LR圖像生成HR圖像技術(shù)。本文著重介紹單幅圖像超分辨率重建技術(shù)(Single Image Super-Resolution,SISR),該類技術(shù)憑借其靈活性與簡便性及高實用性,已經(jīng)被普遍應(yīng)用在圖像壓縮、醫(yī)學成像[3-5]、遙感成像[6]、公共安防[7]等領(lǐng)域,是目前圖像處理領(lǐng)域的研究熱點。

    在過去的研究工作中,傳統(tǒng)的單幅圖像超分辨率算法已經(jīng)取得了很大的成功,但是有一定的局限性,因為隨著放大倍數(shù)的增大,人為定義的先驗信息與模型能提供的用來進行高分辨率重建的信息逐漸變少,使得算法達不到重建圖像高頻信息的目的。傳統(tǒng)的SISR方法主要分為三大類[8]:基于插值的超分算法(最近鄰內(nèi)插、雙三次插值[9]等),這類算法雖簡單但重建圖像有偽影和振鈴;基于建模的超分算法(最大后驗估計法[10]、迭代反向投影算法[11]等),這類算法相較于插值法重建效果較好,但模型運算效率低且受放大因子的影響較大;基于學習的超分算法(局部嵌入[12]、稀疏編碼[13]等),該類算法的重建質(zhì)量最好,是目前研究的主流方向。這些方法都是通過學習HR圖像與LR圖像樣本對的映射函數(shù),或者利用圖像的內(nèi)部相似性來重建HR圖像。近年來,深度學習技術(shù)在其他領(lǐng)域得到了長足發(fā)展,被應(yīng)用在各類人工智能任務(wù)中,且都取得了理想結(jié)果,隨之基于深度學習的超分辨率技術(shù)也得到了積極的探索與發(fā)展,目前已經(jīng)提出了各種各樣的基于深度學習的超分辨率算法,且在各種公開數(shù)據(jù)集上取得了很好的重建效果。目前流行的網(wǎng)絡(luò)模型為卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)和生成對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN),在縮放因子較大時使用這兩個網(wǎng)絡(luò)模型都能夠很好地恢復出圖像的高頻細節(jié),使輸出的圖像更接近真實圖像。

    1 超分辨率重建方法的網(wǎng)絡(luò)模型

    基于深度學習的超分辨率重建技術(shù)的出現(xiàn),是圖像處理領(lǐng)域的一大創(chuàng)舉,解決了傳統(tǒng)算法中存在的諸多問題。近幾年在該領(lǐng)域取得了較大的發(fā)展。根據(jù)網(wǎng)絡(luò)模型結(jié)構(gòu)的不同,可以分為以下兩大類:(1)基于CNN網(wǎng)絡(luò)模型的超分方法;(2)基于生成對抗網(wǎng)絡(luò)GAN網(wǎng)絡(luò)模型的超分方法。目前,基于CNN網(wǎng)絡(luò)模型的超分方法是單幅圖像超分辨率重建領(lǐng)域應(yīng)用最廣泛的模型。

    1.1 基于CNN網(wǎng)絡(luò)模型的超分方法

    隨著深度學習的發(fā)展,在其他領(lǐng)域表現(xiàn)突出的卷積神經(jīng)網(wǎng)絡(luò)CNN已經(jīng)被成功地應(yīng)用在圖像超分辨率重建領(lǐng)域,并取得了很好的重建結(jié)果。相比于其他的神經(jīng)網(wǎng)絡(luò)方法,CNN提供的端到端學習模型通過梯度下降法訓練學習圖像特征,更適合圖像特征的學習與表達。本文又將基于CNN網(wǎng)絡(luò)模型的超分方法分為直連模型、殘差模型、密集模型以及注意力機制模型。

    1.1.1 直連模型

    第一個用于單幅圖像超分辨率重建的CNN網(wǎng)絡(luò)模型是由Dong團隊在2014年提出的SRCNN(Super-Resoution Convolutional Neural Network)算法[14],是直連模型結(jié)構(gòu)。SRCNN的網(wǎng)絡(luò)結(jié)構(gòu)簡單,如圖1所示,該網(wǎng)絡(luò)包含三個部分:特征提取、非線性映射和重建。

    圖1 SRCNN網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 SRCNN network structure

    SRCNN先用雙三次插值將低分辨率圖像放大至目標尺寸大?。ㄎㄒ活A(yù)處理),然后用9×9的卷積核進行圖像塊提取與表示,用1×1的卷積核進行非線性映射,最后用5×5的卷積核完成高分辨率圖像重建。網(wǎng)絡(luò)中通過使用大的卷積核來使淺層網(wǎng)絡(luò)(3層卷積網(wǎng)絡(luò))獲得較大的感受野,從而獲得了較好的SR重建效果。SRCNN相比于傳統(tǒng)的超分辨率算法,重建圖像的質(zhì)量有了很大的提升,但SRCNN的訓練速度非常慢。Dong等人針對SRCNN訓練慢的問題提出了FSRCNN[15]。FSRCNN網(wǎng)絡(luò)包括特征提取:直接對原始LR圖像操作;收縮:用小卷積核降維以減少參數(shù);非線性映射:感受野大;擴張:利用小卷積核擴維;反卷積層:實現(xiàn)上采樣。FSRCNN網(wǎng)絡(luò)在重建層用反卷積放大輸入圖像,可直接向網(wǎng)絡(luò)輸入LR圖像,降低網(wǎng)絡(luò)的計算量。同時FSRCNN使用更小的卷積核和更深的網(wǎng)絡(luò)層數(shù),提升訓練速度,重建圖像的質(zhì)量更高。同時Shi等人也研究了如何將低分辨率圖像直接輸入網(wǎng)絡(luò),在2016年提出了亞像素卷積超分重建網(wǎng)絡(luò)ESPCN[16]對SRCNN的重建部分進行了改進,通過亞像素卷積層來放大圖像,降低網(wǎng)絡(luò)的計算量,訓練速度有了成倍的提升。以上算法網(wǎng)絡(luò)結(jié)構(gòu)簡單,實現(xiàn)非常容易,但該網(wǎng)絡(luò)存在的致命缺點是網(wǎng)絡(luò)中使用大的卷積核以及輸入插值放大圖像,導致淺層網(wǎng)絡(luò)需要大量參數(shù)來計算,使網(wǎng)絡(luò)加深加寬時參數(shù)逐漸變多,網(wǎng)絡(luò)訓練難度大,難以收斂,SR重建效果不佳。

    1.1.2 殘差模型

    傳統(tǒng)神經(jīng)網(wǎng)絡(luò)會隨著深度加深而導致網(wǎng)絡(luò)性能退化,殘差網(wǎng)絡(luò)的提出解決了這個問題,目前大部分研究人員都在使用殘差網(wǎng)絡(luò),它成功加深了ResNet[17]網(wǎng)絡(luò)的深度,成為現(xiàn)在模型中應(yīng)用最廣泛的技術(shù)。原始低分辨率圖像與重建的高分辨率圖像在很大程度上相似,即它們的低頻部分信息基本一致,殘差學習用稀疏矩陣學習來代替原始稠密矩陣學習,使計算量大幅度降低。殘差網(wǎng)絡(luò)分為局部殘差和全局殘差,局部殘差主要用來解決隨著網(wǎng)絡(luò)的加深導致圖像退化的問題,全局殘差通過學習輸入圖像與原始HR圖像的極大相關(guān)性來重建圖像。Kim等人提出的VDSR算法[18]首次將殘差網(wǎng)絡(luò)引入單圖像超分辨率方法中。該網(wǎng)絡(luò)在輸入輸出之間用殘差進行連接使網(wǎng)絡(luò)的深度高達20層,僅學習LR圖像與HR圖像之間的高頻殘差部分,同時使用自適應(yīng)梯度裁剪來解決網(wǎng)絡(luò)加深時訓練困難性能下降的問題,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2(a)所示。VDSR的實現(xiàn)證明網(wǎng)絡(luò)結(jié)構(gòu)越深重建效果越好。RED[19]是由卷積與反卷積構(gòu)成的編碼器和解碼器,卷積層用來進行圖像的特征提取,反卷積層用來恢復圖像的內(nèi)容和細節(jié)。網(wǎng)絡(luò)中的卷積層與反卷積層的殘差跳接結(jié)構(gòu),使網(wǎng)絡(luò)的深度加深到30層并能恢復出更清晰的圖像。

    更深的網(wǎng)絡(luò)存在過度擬合和模型過于復雜的問題,為了緩解這一問題,提出了遞歸學習。Kim團隊在VDSR算法的基礎(chǔ)上通過使用全局殘差網(wǎng)絡(luò)、多目標優(yōu)化函數(shù)以及遞歸學習策略等方法提出了DRCN算法[20],網(wǎng)絡(luò)結(jié)構(gòu)如圖2(c)所示。首次將遞歸神經(jīng)網(wǎng)絡(luò)引入到圖像超分辨率算法中并取得了很好的效果。Tai等人又在DRCN的基礎(chǔ)上提出了DRRN算法[21],其結(jié)構(gòu)如圖2(d)所示,該算法采用多路徑方式的全局殘差和局部殘差進行學習,同時在殘差單元中引入了遞歸循環(huán),加深網(wǎng)絡(luò)的同時沒有帶來更多的計算量,加快了收斂速度,取得了更好的效果。這種方法證明通過遞歸網(wǎng)絡(luò)與殘差網(wǎng)絡(luò)的結(jié)合能夠使圖像層間的信息相互通信及上下文信息相互關(guān)聯(lián),對網(wǎng)絡(luò)層間連接的建設(shè)提供指導思想。EDSR(Enhanced Deep Residual Networks for SR)算法[22]提出使用全局殘差和局部殘差來學習圖像的更多高頻細節(jié),同時也可以降低網(wǎng)絡(luò)的訓練難度。具體做法是移除殘差塊中的BN層(批歸一化層),增加了卷積層的特征個數(shù)(由64改為256),提升了網(wǎng)絡(luò)的重建效果,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2(b)所示。

    圖2 VDSR、EDSR、DRCN、DRRN網(wǎng)絡(luò)結(jié)構(gòu)對比Fig.2 VDSR,EDSR,DRCN,DRRN network structure comparison

    分層特征融合可以充分利用網(wǎng)絡(luò)中不同層提取的圖像特征信息,有助于重建更準確的高分辨率圖像。首次使用分層融合方法實現(xiàn)圖像重建的算法是基于拉普拉斯金字塔網(wǎng)絡(luò)的單幅圖像超分辨率LapSRN[23],它將低分辨率圖像分為高頻細節(jié)和低頻內(nèi)容兩部分,分別對這兩部分采取不同的方法處理后將圖像融合以得到高分辨率重建圖像。LapSRN提升了網(wǎng)絡(luò)訓練速度和圖像質(zhì)量。

    1.1.3 密集模型

    網(wǎng)絡(luò)深度的增加使得梯度消失越來越明顯,受殘差連接的啟發(fā),密集連接的提出能夠緩解這類問題。密集連接中的特有的跳躍連接方式可以使每一層的輸入都充分吸收該層前面所有層的輸出,充分利用不同卷積層提取到的細節(jié)特征信息,使輸出層得到更多的參考信息來重建SR圖像,基本結(jié)構(gòu)如圖3所示?;诿芗瘔K網(wǎng)絡(luò)的SISR網(wǎng)絡(luò)SRDenseNet首次將密集連接網(wǎng)絡(luò)應(yīng)用于圖像重建,重建的SR圖像質(zhì)量有了很大的提升。該網(wǎng)絡(luò)通過堆疊密集連接的卷積層組成的稠密塊,來融合LR圖像的不同特征信息,增大了網(wǎng)絡(luò)層中信息交流的能力,并且有效抑制了梯度爆炸和梯度消失的問題[24]。He等人在SRDenseNet的基礎(chǔ)上提出了殘差密集網(wǎng)絡(luò)RDN[17],該方法在密集塊結(jié)構(gòu)的首尾增加殘差連接和卷積來進行特征降維,構(gòu)建RDN的基本單元殘差密集塊RDB,網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。RDB的作用是整合殘差塊和密集塊,RDN充分利用每一個RDB學習到的圖像分層特征,使模型具有更強的特征表達能力,重建圖像的質(zhì)量更好。

    圖3 密集連接網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Structure of dense connection network

    圖4 RDN網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Structure of RDN network

    后來Haris等人在密集連接的基礎(chǔ)上又提出了深度反投影網(wǎng)絡(luò)D-DBPN[25],該網(wǎng)絡(luò)構(gòu)建了多個上下投影單元來進行淺層特征到深層特征的映射,同時使用密集連接的方法使淺層網(wǎng)絡(luò)和投影網(wǎng)絡(luò)的輸出堆疊到迭代單元的輸入,使最終恢復圖像的效果優(yōu)于SRDenseNet。這類方法將稠密塊應(yīng)用到了網(wǎng)絡(luò)中,加強了圖像特征交流和圖像特征復用,極大豐富了重建模塊輸入圖像的信息以得到更加準確的特征細節(jié)來重建更好的圖像。

    1.1.4 注意力機制模型

    上述的網(wǎng)絡(luò)模型在各個通道都是對圖像的特征映射同等處理,但是在人類的視覺環(huán)境中圖像在不同的區(qū)域和通道中有著不同的重要性,如果等價處理這些映射將會造成計算量資源大,限制了網(wǎng)絡(luò)的深度。

    注意力機制被引入到圖像超分辨率重建中,并且取得了很好的效果。如RCAN[26](Super-Resolution Using Very Deep Residual Channel Attention Networks),該算法通過學習不同通道的重要性得到權(quán)重值,來自適應(yīng)地調(diào)整每個通道特征,強化有用通道的同時抑制無用通道,充分利用計算資源。通道注意力機制結(jié)構(gòu)如圖5所示,其中HGP用于運算提取通道描述符,WD與WU為全連接層的參數(shù),f是非線性變換,相當于對不同的通道特征重新加權(quán)分配。RACN還通過使用全局殘差和局部殘差結(jié)構(gòu)使網(wǎng)絡(luò)的深度高達400層,恢復圖像效果得到顯著提升,總體來說,RCAN在PSNR和SSIM值上都取得了最佳重建結(jié)果。

    圖5 RCAN網(wǎng)絡(luò)結(jié)構(gòu)Fig.5 Structure of RCAN network

    1.2 基于生成對抗網(wǎng)絡(luò)GAN模型的超分方法

    現(xiàn)有的基于CNN網(wǎng)絡(luò)模型的超分算法不論是恢復圖像的準確性還是訓練速度都取得了重大突破,但還存在一些缺陷,如圖像缺乏高頻細節(jié),圖像邊緣模糊,尤其在較大的放大因子下,這種缺陷更加明顯。對抗網(wǎng)絡(luò)的引入將超分重建圖像的質(zhì)量推向了一個新的高度,使網(wǎng)絡(luò)能夠生成更加精細的紋理細節(jié),進一步增強重建圖像的視覺效果。

    Leding等人首次將GAN[27]應(yīng)用到圖像超分辨率重建領(lǐng)域中,在2017年提出了SRGAN(Photo-Realistic Single Image Super Resolution Using a Generative Adversarial Network)算法[28],SRGAN的生成器網(wǎng)絡(luò)結(jié)構(gòu)主要由多個結(jié)構(gòu)相同的殘差塊組成,包括兩個3×3卷積層和64個特征映射,然后是BN層[29]及PReLU激活函數(shù)[30],最后通過兩個亞像素卷積層用來實現(xiàn)圖像上采樣。SRGAN的鑒別器網(wǎng)絡(luò)同樣包括多個卷積層,特征通道由64逐漸變?yōu)?12,激活函數(shù)為LReLU,最后使用兩個全連接層和S型激活函數(shù)得到樣本的分類概率。SRGAN的訓練原理是生成器生成的圖像盡可能騙過鑒別器,而鑒別器則盡可能區(qū)分生成器生成的圖像與真實高分辨率圖像,通過雙方的相互博弈,克服了1.1節(jié)所提網(wǎng)絡(luò)模型恢復圖像質(zhì)量差的缺點,使恢復的圖像更加自然。

    隨后,ESRGAN[31]通過移除SRGAN生成網(wǎng)絡(luò)中的BN層來降低重建圖像中產(chǎn)生的偽影,并且結(jié)合多級殘差網(wǎng)絡(luò)和密集連接提出密集殘差塊RRDB,如圖6所示,該結(jié)構(gòu)具有更深更復雜的網(wǎng)絡(luò)結(jié)構(gòu),因此具有更高的容量,更容易訓練。在判別網(wǎng)絡(luò)中使用相對平均判別器,生成更穩(wěn)定、質(zhì)量更高的數(shù)據(jù)樣本,提升模型的訓練穩(wěn)定性和圖像的重建質(zhì)量。

    圖6 RRDB網(wǎng)絡(luò)結(jié)構(gòu)Fig.6 Structure of RRDB network

    基于生成對抗網(wǎng)絡(luò)GAN網(wǎng)絡(luò)模型的超分方法相較于基于CNN網(wǎng)絡(luò)模型的超分方法能夠獲得更接近人眼真實感知的重建圖像,所以它更適合一些對感官要求比較高的圖像重建任務(wù)。但是對于需要高精度像素信息的任務(wù),明顯不適用?;谏蓪咕W(wǎng)絡(luò)GAN網(wǎng)絡(luò)模型的超分方法學習速度慢,網(wǎng)絡(luò)計算較復雜,對硬件要求高,所以訓練難度很大。

    1.3 小結(jié)

    1.1至1.2節(jié)分別詳細介紹了基于CNN網(wǎng)絡(luò)模型和基于GAN網(wǎng)絡(luò)模型的超分方法。整體而言,這兩類算法的重建質(zhì)量在不斷提高,模型的訓練速度也有一定的提升。表1總結(jié)了不同網(wǎng)絡(luò)模型的優(yōu)缺點及適用場景,表2總結(jié)了不同算法的網(wǎng)絡(luò)結(jié)構(gòu)及優(yōu)缺點對比。由表1可以看出,隨著深度學習的發(fā)展,超分辨率重建算法的網(wǎng)絡(luò)越來越復雜,重建效果也越來越優(yōu),已經(jīng)達到了很高的水平,但是隨著網(wǎng)絡(luò)復雜度的提高也帶來了計算量的增大,因此模型訓練難度也加大,難以滿足實時重建。由表2可以看出,研究人員在不斷嘗試引入新的網(wǎng)絡(luò)到超分辨率重建領(lǐng)域,加深網(wǎng)絡(luò)的深度,使重建圖像的質(zhì)量和網(wǎng)絡(luò)的訓練速度越來越好。基于深度學習的圖像超分辨率重建方法在發(fā)展的過程中,不斷解決之前算法的缺陷,向著滿足更高更多樣化需求的方向發(fā)展,基于生成對抗網(wǎng)絡(luò)GAN模型的超分方法的提出更是提升了重建圖像的真實感。但是同時也面臨著新的挑戰(zhàn),模型訓練慢的問題始終沒有得到根本性解決。未來該領(lǐng)域的發(fā)展,應(yīng)在提高重建質(zhì)量的同時提升訓練速度,并能降低模型的規(guī)模以滿足實際應(yīng)用中對于模型規(guī)模限制的要求,使該類模型能在一些硬件平臺上得到大規(guī)模的部署和應(yīng)用。

    表1 不同網(wǎng)絡(luò)模型的優(yōu)缺點及適用場景Table 1 Advantages and disadvantages of different network models and applicable scenarios

    表2 不同算法的網(wǎng)絡(luò)結(jié)構(gòu)及優(yōu)缺點Table 2 Network structure and advantages and disadvantages of different algorithms

    2 單圖像超分辨率重建尺度放大方法

    圖像超分辨率尺度放大其實質(zhì)是圖像上采樣,放大原圖像并提高圖像的分辨率。根據(jù)上采樣的方式和時機,模型所重建的圖像效果大不相同。

    2.1 上采樣方式

    目前,該領(lǐng)域常見的圖像上采樣方式主要有:基于插值的圖像SR上采樣、亞像素卷積圖像SR上采樣和反卷積圖像SR上采樣。

    基于插值的圖像SR上采樣是利用合適的內(nèi)插算法在圖像原始像素點的中間插入新生成的像素點。使用插值法來放大圖像的算法主要有最鄰近插值法和雙三次插值法等?;诓逯档膱D像SR上采樣方法計算量小,原理簡單,能夠高效率地放大低分辨率圖像的尺度,但是這種方法由于沒有考慮到離待測樣點遠的其他像素點的影響,因而圖像像素損失較大,重建圖像有鋸齒和模糊現(xiàn)象。早期使用插值法來放大圖像的算法包括SRCNN、VDSR等。

    亞像素卷積[16]圖像SR上采樣是一種高效、快速、無參的像素重新排列的上采樣方式,如圖7(a)所示,它的原理是輸入r2個通道的特征圖,通過特定的算法規(guī)則將所有的像素重新排列,最后生成一幅尺度放大的圖像。這種方式非常靈活,對于不同的重建倍數(shù),只需要改變低分辨率空間中的卷積通道數(shù),且上采樣速度很快,可以實時地實現(xiàn)上采樣。

    反卷積(Decnvolution)[32]即卷積操作的逆運算,是將卷積變換過程中某一步驟反向轉(zhuǎn)換,對圖像進行補零擴充操作再卷積,將小部分缺失像素信息最大化恢復,從而放大圖像的尺寸,其原理如圖7(b)所示。該方法屬于基于學習的上采樣方法,能夠減少圖像鋸齒狀失真等現(xiàn)象。目前SISR重建領(lǐng)域最常用的方法就是反卷積圖像SR上采樣,如FSRCNN、EDSR等。

    圖7 亞像素卷積和反卷積實現(xiàn)原理Fig.7 Principle of deconvolution and sub-pixel convolution

    2.2 上采樣時機

    目前SISR重建領(lǐng)域上采樣時機包括預(yù)先上采樣、后上采樣、漸進上采樣及迭代變動上采樣。

    預(yù)先上采樣考慮到直接學習LR圖像到HR圖像比較困難,因此先使用傳統(tǒng)的插值法將圖像上采樣到HR圖像,再通過神經(jīng)網(wǎng)絡(luò)精調(diào)。最早使用預(yù)先上采樣方法的是SRCNN算法,后來VDSR、DRCN及DRRN都使用該方法對圖像進行上采樣。由于該方法將最困難的上采樣操作交給了傳統(tǒng)的方法,神經(jīng)網(wǎng)絡(luò)值需要對上采樣后的粗糙圖像進行調(diào)整,因此減少了訓練難度。但是在預(yù)處理階段進行上采樣操作,增大了網(wǎng)絡(luò)的計算量,且網(wǎng)絡(luò)深度越深計算量越大,模型的效率和重建圖像的質(zhì)量都有待提高。

    后上采樣解決了預(yù)先上采樣計算量大的問題,將上采樣操作放在SISR模型的最后一個模塊,通過亞像素卷積或者反卷積重建來放大圖像的特征尺度。使用該方法的網(wǎng)絡(luò)模型有FSRCNN、ESPCN等。后上采樣方法雖然提高了計算效率但恢復出的圖像存在失真和重建質(zhì)量差的問題。

    為了解決后上采樣中的問題,研究學者們提出了漸進上采樣,在級聯(lián)的深度卷積神經(jīng)網(wǎng)絡(luò)模型下,每個階段都進行一次上采樣,從而得到更高分辨率的圖像,最后再使用卷積神經(jīng)網(wǎng)絡(luò)進行精調(diào),實現(xiàn)較好的上采樣效果,使恢復的圖像質(zhì)量更優(yōu)。漸進上采樣使用低倍上采樣(2倍)來解決大尺度(4倍、8倍)上采樣的問題。使用該方法的網(wǎng)絡(luò)有LapSRN和EUSR,表3為ESUR算法[33]使用不同的上采樣方法重建圖像的效果,其中數(shù)字加粗表示最優(yōu),可以看出相比于直接上采樣,漸進上采樣恢復圖像的效果更好。

    表3 ESUR算法中采用不同上采樣方法重建效果對比Table 3 Comparison of reconstruction effects using different upsampling methods in ESUR network

    迭代變動上采樣方法是迭代地進行上采樣之后再進行反向傳播并且精調(diào),它是通過計算重建誤差來調(diào)整高分辨率圖像的。這種方法能夠?qū)W習到更多不同深度的圖像上采樣特性,通過圖像在不同層的特征來重建上采樣圖像,使得恢復的圖像擁有更多細節(jié)特征。迭代變動上采樣方法被應(yīng)用在DBPN和SRFBN算法[34]中,都展現(xiàn)出良好的重建效果。DBPN網(wǎng)絡(luò)通過交替循環(huán)連接上采樣層和下采樣層,最后用所有中間重建圖像來重建最終的HR圖像,使得重建出的圖像效果更佳。SRFBN通過迭代具有密集跳躍連接的上下采樣反饋塊來學習,使重建出的HR圖像更好。近年來,迭代變動上采樣方法也是研究學者們使用的主流方法之一。

    3 基于深度學習的單圖像超分辨率重建損失函數(shù)

    目前在單幅圖像超分辨率重建領(lǐng)域常用的損失函數(shù)主要有像素損失函數(shù)和感知損失函數(shù)。

    3.1 像素損失函數(shù)

    許多超分辨率重建網(wǎng)絡(luò)訓練模型都是以均方誤差(MSE)[35]作為損失函數(shù)訓練網(wǎng)絡(luò)的,如SRCNN、DRCN、FSRCNN等。MSE計算的是實際值與目標值之間絕對值的平方和,其表達式如下:

    其中,n為訓練樣本的數(shù)量,θ為訓練參數(shù),F(xiàn)(Xi,θ)網(wǎng)絡(luò)重建后的圖像,Yi為對應(yīng)的高分辨率圖像。MSE衡量了網(wǎng)絡(luò)重建出的高分辨率圖像與原始高分辨率圖像之間的差值,使得基于深度學習的圖像超分模型在性能方面有了很大的提高。但是MSE損失能夠?qū)Υ蟮膿p失進行懲罰,在小的損失上卻無能為力,因此恢復出的圖像會模糊。與MSE類似的另一種損失函數(shù)為絕對值誤差MAE。它計算實際值與目標值之間絕對差值的總和,LapSRN、ESRGAN等都使用MAE損失函數(shù)取得了較好的效果。其表達式如下:

    為了提高模型的泛化能力,Lai等人提出了L1損失的變體,其表達式如下:

    3.2 感知損失函數(shù)

    基于像素的損失函數(shù)沒有考慮到圖像的感知、紋理質(zhì)量,在視覺上難以令人滿意。在GAN被應(yīng)用于圖像超分辨率領(lǐng)域之后,基于感知的損失函數(shù)因其能恢復更豐富的高頻細節(jié)而被廣泛應(yīng)用。目前,基于感知的損失函數(shù)主要有內(nèi)容損失和對抗損失,其中內(nèi)容損失又分為特征重建損失和風格重建損失。

    Smonyan等人[36]首次通過預(yù)訓練的VGG19網(wǎng)絡(luò)提取重建圖像與原始高分辨率圖像在特征空間中對應(yīng)的特征映射提出特征重建損失函數(shù),其表達式如下:

    其中,GθG(X)為生成的高分辨率圖像,?j為VGG19網(wǎng)絡(luò)內(nèi)第j個卷積獲得的特征圖,W和H為特征圖的寬和高,X、Y為原始LR圖像和重建的HR圖像。實驗表明,在網(wǎng)絡(luò)模型中使用特征重建損失函數(shù)能夠獲得比基于像素損失更好的視覺效果。Gatys等人[37]在特征重建損失函數(shù)的基于上又提出了風格重建損失函數(shù),該函數(shù)首先在loss網(wǎng)絡(luò)的每一層中對原始LR圖像和重建的HR圖像計算Gram矩陣,計算公式如下:

    隨后在對應(yīng)層中計算Gram矩陣的歐式距離差并相加得到風格重建損失函數(shù),如式(6):

    風格重建損失使重建圖像與原始圖像在條紋、色澤上保持一致,重建出的高分辨率圖像質(zhì)量更優(yōu)。

    SRGAN網(wǎng)絡(luò)首次提出對抗損失,其基本形式如下:

    其中,DθD(GθG(X))為模型生成的HR圖像,GθG(X)是原始HR圖像的概率。網(wǎng)絡(luò)最終的優(yōu)化目標為最小最大化問題:

    其中,Ptrain(IHR)為HR圖像分布,PG(ILR)為原始LR圖像分布。對抗網(wǎng)絡(luò)訓練使得生成的圖像與原始高分辨率圖像高度相似,使判別器難以區(qū)分,最終獲得高度接近原始高分辨率的圖像。ESRGAN網(wǎng)絡(luò)中使用了相對平均判別器[38],讓判別器預(yù)測真實HR圖像比生成HR圖像更真實的概率。

    其中,C(real)為鑒別器判別結(jié)果,E[C(fake)]為鑒別器網(wǎng)絡(luò)判別結(jié)果的平均值,σ為Sigmoid激活函數(shù),ESRGAN實驗結(jié)果表明使用相對平均判別器恢復出的圖像具有更銳利的邊緣和更多的紋理細節(jié)。

    3.3 小結(jié)

    3.1至3.2節(jié)分別詳細介紹了圖像超分辨率重建領(lǐng)域常用的兩種損失函數(shù)。其中像素損失始終反映的是圖像像素之間的誤差,而沒有考慮到像素與像素之間的內(nèi)在聯(lián)系,因此恢復的圖像邊緣模糊有振鈴現(xiàn)象,如FSRCNN、DRCN等算法恢復出的圖像邊緣模糊。內(nèi)容損失通過使用特征足夠相似來促進生成圖像的質(zhì)量,而對抗損失可以使鑒別網(wǎng)絡(luò)可以提取真實圖像中的一些難以獲取的潛在特征將解決方案推向自然圖像流形,在感知質(zhì)量上有顯著的提高使重建圖像相對真實,但圖像的PSNR[39-40]值下降了。隨著損失函數(shù)的發(fā)展,圖像超分辨率重建的質(zhì)量也越來越高,滿足更高更多樣化的需求。但是現(xiàn)有的損失函數(shù)仍然不能充分結(jié)合圖像中的語義、內(nèi)容等信息來重建圖像,未來該領(lǐng)域損失函數(shù)的發(fā)展,應(yīng)在提高PSNR值的同時恢復圖像中的更多紋理細節(jié),滿足人眼觀感。

    4 實驗對比分析

    本章對現(xiàn)有的單幅圖像超分辨率重建算法進行性能對比。通過PSNR和SSIM評價指標來度量超分算法的性能[41]。所對比的算法包括雙三次插值Bicubic和10個文中提到的基于深度學習的單幅圖像超分辨率重建算法。在公開數(shù)據(jù)集DIV2K[42]上訓練,網(wǎng)絡(luò)在Set5[43]、Set14[44]和BSD100[45]數(shù)據(jù)集下完成測試,基于像素損失函數(shù)的SR方法實驗結(jié)果如表4。

    表4 不同數(shù)據(jù)集下基于像素損失函數(shù)的SR算法的PSNR和SSIM值對比Table 4 Comparison of PSNR and SSIM values of SR algorithm based on pixel loss function under different data sets

    對比實驗數(shù)據(jù)可以明顯看出基于深度學習的算法相比傳統(tǒng)算法的PSNR值和SSIM值都有了很大的提升。作為圖像超分辨率重建領(lǐng)域的開山鼻祖,SRCNN在插值方法的基礎(chǔ)上利用卷積網(wǎng)絡(luò)強大的特征學習能力,構(gòu)建了端到端的映射,使重建圖像的質(zhì)量遠超雙三次插值Bicubic算法。隨著SRCNN的突破性進展,研究學者們在該算法的基礎(chǔ)上提出很多超分辨率算法,如FSRCNN在SRCNN的基礎(chǔ)上加快了訓練速度且恢復出更好的圖像,VDSR、DRCN、DRRN、EDSR將殘差連接與稠密連接引入網(wǎng)絡(luò)來構(gòu)建更深更復雜的網(wǎng)絡(luò)結(jié)構(gòu),實驗表明能夠獲得更好的恢復效果。LapSRN算法融合了網(wǎng)絡(luò)中不同層提取的特征信息,簡化網(wǎng)絡(luò)結(jié)構(gòu)提升了訓練速度,恢復圖像的效果接近DRCN。目前最好的算法是RCAN,它在EDN的基礎(chǔ)上將注意力機制引入網(wǎng)絡(luò)通道中,同時構(gòu)建殘差結(jié)構(gòu)加深網(wǎng)絡(luò)深度,放大因子為2時,與傳統(tǒng)Bicubic算法相比在Set5、Set14和BSD100數(shù)據(jù)集上的PSNR值分別提高4.67、3.99和2.9,SSIM值分別提高0.031 8、0.053 7和0.06;放大因子為3時,PSNR值分別提高4.46、3.21和2.18,SSIM值分別提高0.062 3、0.075 2和0.073 7;放大因子為4時,PSNR值分別提高4.31、2.98和1.89,SSIM值分別提0.909、0.088 3和0.078。通過觀察實驗數(shù)據(jù)可以看出,算法的網(wǎng)絡(luò)越深,重建圖像的質(zhì)量越好。隨著放大因子的增大,算法的性能提升越來越弱,因此對于大的放大因子圖像超分辨率重建仍然具有很大的挑戰(zhàn)。

    基于像素的損失函數(shù)存在的問題是重建圖像邊緣平滑,缺乏高頻信息,人眼視覺感知效果并不是很好。感知損失函數(shù)能在一定程度上提升圖像的人眼視覺感知質(zhì)量。Set14數(shù)據(jù)集上放大因子為4時基于感知損失函數(shù)的網(wǎng)絡(luò)與基于像素損失函數(shù)的網(wǎng)絡(luò)重建圖像的結(jié)果比較為表5。L1、L2表示MSE損失函數(shù)和MAE損失函數(shù),LC、LGAN表示內(nèi)容損失函數(shù)和對抗損失函數(shù)。其可視化效果圖如圖8。由表5可以看出,基于感知的損失函數(shù)網(wǎng)絡(luò)(SRGAN、ESGAN)相比于基于像素的損失函數(shù)網(wǎng)絡(luò)(EDSR、SRCNN)重建圖像的PSNR值有所下降。但是對比圖8的可視化效果可以看出,基于感知的損失函數(shù)網(wǎng)絡(luò)恢復出的圖像紋理更豐富,邊緣更清晰,圖中胡須毛發(fā)相對比較清楚,更接近原始圖像,人眼的感知效果更好。ESRGAN結(jié)合感知損失和像素損失,均衡了視覺感知和像素精確值,使重建圖像在視覺上更符合真實圖像。

    表5 不同類型損失函數(shù)算法Table 5 Different types of loss function algorithm

    圖8 Set14數(shù)據(jù)集上不同網(wǎng)絡(luò)重建圖像效果可視化Fig.8 Visualization of effect of different network reconstruction images on Set14 dataset

    5 總結(jié)與展望

    本文在對單幅圖像超分辨率重建網(wǎng)絡(luò)廣泛研究的基礎(chǔ)上,系統(tǒng)總結(jié)了基于深度學習的圖像超分辨率重建算法的發(fā)展情況,從網(wǎng)絡(luò)模型結(jié)構(gòu)、尺度放大方法和損失函數(shù)三個方面來詳細介紹了圖像超分辨率算法,分析主流算法的網(wǎng)絡(luò)結(jié)構(gòu)和優(yōu)缺點,并對其性能進行對比。

    總體來看,基于CNN的圖像超分辨率重建網(wǎng)絡(luò)結(jié)構(gòu)越來越復雜,近幾年許多研究學者在這些主流算法的基礎(chǔ)上不斷改進,重建圖像的像素精確值越來越高[46],但是人眼感知效果并不理想,且重建速度上普遍偏慢,難以滿足實際應(yīng)用的實時性需求,在應(yīng)用推廣上面臨困難。而基于GAN的圖像超分辨率重建網(wǎng)絡(luò)雖然在圖像的像素精確值上不如前者,但是重建出的圖像在人眼視覺感知上更有優(yōu)勢,隨著近幾年的發(fā)展,其恢復出的圖像更逼真更自然,且重建圖像的像素精確值也在逐漸提高[47-48],在實際應(yīng)用上更有潛力。未來的研究方向?qū)⒏鼘W⒂谙袼刂?、視覺感知和速度的結(jié)合,借鑒CNN高像素精度和GAN高感知質(zhì)量的優(yōu)勢,同時提高像素值與感知質(zhì)量,以滿足實際需求。

    深度學習的快速發(fā)展,以及硬件設(shè)施的不斷完善,為圖像超分辨率領(lǐng)域提供了非常好的發(fā)展機遇。雖然現(xiàn)有的深度學習圖像超分辨率重建算法的性能已經(jīng)遠遠超越了傳統(tǒng)算法,但是還有很多改進空間。如何實現(xiàn)任意放大倍數(shù)的超分重建,如何在放大比例較大時保證重建出的高分辨率圖像質(zhì)量,如何選擇重建圖像的質(zhì)量評價標準,如何更好地利用場景信息和圖像的語義、內(nèi)容信息,如何滿足視頻監(jiān)控、衛(wèi)星遙感成像、醫(yī)學圖像、刑偵分析和人臉識別等實際應(yīng)用領(lǐng)域的精確性和實用性的需求等,這將是接下來圖像超分辨率重建領(lǐng)域的重點研究方向。

    猜你喜歡
    殘差分辨率損失
    基于雙向GRU與殘差擬合的車輛跟馳建模
    少問一句,損失千金
    胖胖損失了多少元
    基于殘差學習的自適應(yīng)無人機目標跟蹤算法
    基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
    自動化學報(2019年6期)2019-07-23 01:18:32
    EM算法的參數(shù)分辨率
    玉米抽穗前倒伏怎么辦?怎么減少損失?
    原生VS最大那些混淆視聽的“分辨率”概念
    基于深度特征學習的圖像超分辨率重建
    自動化學報(2017年5期)2017-05-14 06:20:52
    一種改進的基于邊緣加強超分辨率算法
    精品国产露脸久久av麻豆| 中国国产av一级| videossex国产| 老司机影院成人| 国产成人a∨麻豆精品| 欧美zozozo另类| 免费观看性生交大片5| 久久97久久精品| 亚洲精品影视一区二区三区av| 性色avwww在线观看| 最近手机中文字幕大全| 久久精品人妻少妇| 欧美精品人与动牲交sv欧美| 一边亲一边摸免费视频| 国产 精品1| 一级爰片在线观看| 日本-黄色视频高清免费观看| 日韩欧美精品v在线| 国产精品爽爽va在线观看网站| 在现免费观看毛片| 日韩电影二区| 男女啪啪激烈高潮av片| 成人特级av手机在线观看| 亚洲av免费高清在线观看| av在线app专区| 少妇高潮的动态图| 菩萨蛮人人尽说江南好唐韦庄| 久久6这里有精品| 美女高潮的动态| 18+在线观看网站| 天天躁夜夜躁狠狠久久av| 亚洲av福利一区| 最后的刺客免费高清国语| 国产91av在线免费观看| 在线a可以看的网站| 男女下面进入的视频免费午夜| 天美传媒精品一区二区| 亚洲久久久久久中文字幕| 日韩,欧美,国产一区二区三区| 一区二区三区精品91| 欧美另类一区| 国产亚洲一区二区精品| 国产成人freesex在线| 日本与韩国留学比较| 精品一区在线观看国产| 免费看av在线观看网站| 国产毛片在线视频| 看非洲黑人一级黄片| 日韩成人av中文字幕在线观看| 人妻系列 视频| 波多野结衣巨乳人妻| 天天躁夜夜躁狠狠久久av| 色哟哟·www| 国产片特级美女逼逼视频| 亚洲av成人精品一区久久| 美女脱内裤让男人舔精品视频| 菩萨蛮人人尽说江南好唐韦庄| 王馨瑶露胸无遮挡在线观看| 国产一区有黄有色的免费视频| 成人亚洲欧美一区二区av| www.色视频.com| 好男人视频免费观看在线| 国产91av在线免费观看| 欧美日韩一区二区视频在线观看视频在线 | 免费黄频网站在线观看国产| 永久网站在线| 久久精品综合一区二区三区| 久久久久性生活片| 亚洲欧美日韩东京热| 国产真实伦视频高清在线观看| 深爱激情五月婷婷| 亚洲国产成人一精品久久久| 熟女电影av网| 国国产精品蜜臀av免费| 成人二区视频| 欧美激情久久久久久爽电影| 我的女老师完整版在线观看| 久久久久精品性色| 亚洲,欧美,日韩| 91aial.com中文字幕在线观看| 国产综合精华液| 91精品国产九色| 伦理电影大哥的女人| 九九久久精品国产亚洲av麻豆| 欧美xxxx黑人xx丫x性爽| 日日啪夜夜爽| 免费观看在线日韩| 高清av免费在线| 丝袜脚勾引网站| 久久久精品免费免费高清| 久久久亚洲精品成人影院| 亚洲精品国产成人久久av| 国产视频内射| 人妻制服诱惑在线中文字幕| 国产精品一及| 水蜜桃什么品种好| 天天一区二区日本电影三级| 国产精品一及| 国产精品嫩草影院av在线观看| 欧美97在线视频| 中文天堂在线官网| 国产精品女同一区二区软件| 成年av动漫网址| 大陆偷拍与自拍| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 日韩成人伦理影院| 在线观看一区二区三区| 亚洲最大成人手机在线| 亚洲精华国产精华液的使用体验| 少妇丰满av| 六月丁香七月| 免费人成在线观看视频色| 国产乱人视频| 黄色怎么调成土黄色| 欧美极品一区二区三区四区| 欧美三级亚洲精品| 在线观看国产h片| 欧美3d第一页| 亚洲成人av在线免费| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 夫妻性生交免费视频一级片| xxx大片免费视频| 国产人妻一区二区三区在| 赤兔流量卡办理| 国产午夜精品久久久久久一区二区三区| 午夜免费鲁丝| 真实男女啪啪啪动态图| 2021天堂中文幕一二区在线观| 天美传媒精品一区二区| 国产一区有黄有色的免费视频| 精品人妻偷拍中文字幕| 一区二区三区四区激情视频| 亚洲在线观看片| 精品熟女少妇av免费看| 久久久精品94久久精品| 午夜精品国产一区二区电影 | 亚洲最大成人av| 免费看av在线观看网站| 亚洲第一区二区三区不卡| 亚洲欧洲日产国产| 九九爱精品视频在线观看| 国产av码专区亚洲av| 国产成人精品婷婷| 亚洲精品456在线播放app| 国产男女超爽视频在线观看| 国产高清有码在线观看视频| 欧美极品一区二区三区四区| 欧美精品一区二区大全| 亚洲aⅴ乱码一区二区在线播放| 久久精品国产鲁丝片午夜精品| 欧美xxⅹ黑人| 少妇裸体淫交视频免费看高清| 晚上一个人看的免费电影| 久久女婷五月综合色啪小说 | 亚洲精品中文字幕在线视频 | 最近最新中文字幕大全电影3| 久久久久久九九精品二区国产| 国产精品女同一区二区软件| 国产精品麻豆人妻色哟哟久久| 日韩人妻高清精品专区| 亚洲高清免费不卡视频| 99热这里只有是精品50| 日本色播在线视频| 麻豆成人午夜福利视频| 色综合色国产| 一级a做视频免费观看| 亚洲精品456在线播放app| 大陆偷拍与自拍| 夫妻午夜视频| 久久精品国产鲁丝片午夜精品| 91久久精品电影网| 国产黄片视频在线免费观看| videos熟女内射| 插逼视频在线观看| 青青草视频在线视频观看| 国产乱人偷精品视频| 交换朋友夫妻互换小说| 毛片一级片免费看久久久久| 日韩一区二区视频免费看| 国产精品成人在线| 国内精品宾馆在线| 岛国毛片在线播放| 国产视频首页在线观看| 乱码一卡2卡4卡精品| 22中文网久久字幕| 亚洲精品影视一区二区三区av| 一级毛片aaaaaa免费看小| 欧美日韩视频精品一区| 精品人妻熟女av久视频| av天堂中文字幕网| 成人特级av手机在线观看| 久久久久久久国产电影| 91久久精品电影网| 日日摸夜夜添夜夜爱| 中文字幕久久专区| 成人国产麻豆网| 在线 av 中文字幕| 欧美激情国产日韩精品一区| 2018国产大陆天天弄谢| av在线app专区| freevideosex欧美| 日本一二三区视频观看| 99久久九九国产精品国产免费| 国产亚洲91精品色在线| 啦啦啦啦在线视频资源| 国产精品一区二区性色av| 国产黄片视频在线免费观看| 国产午夜精品一二区理论片| 亚洲美女视频黄频| 国产精品一二三区在线看| 久久久久久久久久人人人人人人| 久久久久久久精品精品| 一级av片app| 国产精品人妻久久久久久| 少妇丰满av| av国产精品久久久久影院| 亚洲精品乱码久久久v下载方式| 久久久久久九九精品二区国产| 欧美zozozo另类| 久久这里有精品视频免费| 视频区图区小说| 国产精品一区www在线观看| 久久久久国产网址| 激情 狠狠 欧美| 中文字幕人妻熟人妻熟丝袜美| 亚洲精品久久久久久婷婷小说| 精品久久久久久久末码| 欧美激情国产日韩精品一区| 午夜激情久久久久久久| 国产爽快片一区二区三区| 亚洲激情五月婷婷啪啪| 好男人在线观看高清免费视频| 亚洲国产日韩一区二区| 成人特级av手机在线观看| 日日啪夜夜爽| 最新中文字幕久久久久| 啦啦啦啦在线视频资源| 亚洲一区二区三区欧美精品 | 久久精品人妻少妇| 国产精品嫩草影院av在线观看| 欧美激情久久久久久爽电影| 偷拍熟女少妇极品色| av在线老鸭窝| 亚洲成人中文字幕在线播放| 秋霞在线观看毛片| 亚洲av日韩在线播放| 少妇猛男粗大的猛烈进出视频 | 在线观看免费高清a一片| 国产在线男女| 国产成人精品婷婷| 日本一本二区三区精品| 一区二区av电影网| 免费黄色在线免费观看| 中文天堂在线官网| 国产精品嫩草影院av在线观看| 99久久九九国产精品国产免费| a级毛片免费高清观看在线播放| 涩涩av久久男人的天堂| 草草在线视频免费看| 韩国av在线不卡| 天堂中文最新版在线下载 | 国产成人午夜福利电影在线观看| 少妇的逼好多水| 高清毛片免费看| 国产亚洲5aaaaa淫片| 国产精品嫩草影院av在线观看| 白带黄色成豆腐渣| 亚洲欧美日韩卡通动漫| 高清视频免费观看一区二区| 激情五月婷婷亚洲| 一级爰片在线观看| 中国三级夫妇交换| 中文字幕人妻熟人妻熟丝袜美| 日本色播在线视频| 免费看av在线观看网站| 亚洲精品,欧美精品| 亚洲最大成人手机在线| 全区人妻精品视频| 能在线免费看毛片的网站| 欧美人与善性xxx| 国产黄a三级三级三级人| 又爽又黄a免费视频| 亚洲欧美精品专区久久| 亚洲精品成人av观看孕妇| 亚洲第一区二区三区不卡| 在线观看免费高清a一片| 国产毛片在线视频| 成人漫画全彩无遮挡| 成人欧美大片| 国产黄a三级三级三级人| 亚洲天堂国产精品一区在线| 少妇人妻 视频| 又爽又黄无遮挡网站| 午夜福利高清视频| 亚洲精品日本国产第一区| 国产高清不卡午夜福利| 一个人观看的视频www高清免费观看| 国产又色又爽无遮挡免| 久久精品综合一区二区三区| a级一级毛片免费在线观看| 国产 一区精品| 亚洲国产精品成人综合色| 国产毛片在线视频| 自拍欧美九色日韩亚洲蝌蚪91 | 97热精品久久久久久| 天天一区二区日本电影三级| 黄色怎么调成土黄色| 亚洲精华国产精华液的使用体验| 久久久精品94久久精品| 赤兔流量卡办理| 国产男人的电影天堂91| 国产一区有黄有色的免费视频| 草草在线视频免费看| 如何舔出高潮| 成人黄色视频免费在线看| 国产乱来视频区| 国产乱人视频| 少妇人妻精品综合一区二区| 亚洲av中文av极速乱| 老司机影院成人| 欧美区成人在线视频| 国产成人a∨麻豆精品| 国产精品不卡视频一区二区| 欧美精品国产亚洲| 成人美女网站在线观看视频| 亚洲av.av天堂| 日韩一区二区三区影片| 日日摸夜夜添夜夜添av毛片| 99热国产这里只有精品6| 高清欧美精品videossex| 欧美+日韩+精品| 大码成人一级视频| 亚洲三级黄色毛片| 精品久久国产蜜桃| 国产一区有黄有色的免费视频| 国产真实伦视频高清在线观看| 18禁裸乳无遮挡免费网站照片| 久久久精品免费免费高清| 亚洲欧美精品专区久久| 最近中文字幕高清免费大全6| 国产爽快片一区二区三区| 日韩欧美 国产精品| 一区二区三区四区激情视频| 亚洲在线观看片| 国产午夜精品久久久久久一区二区三区| 国模一区二区三区四区视频| 国产又色又爽无遮挡免| 国产精品秋霞免费鲁丝片| 最近2019中文字幕mv第一页| 成年人免费黄色播放视频| 大片电影免费在线观看免费| 亚洲av综合色区一区| 久久精品国产亚洲av高清一级| 天堂8中文在线网| 国产野战对白在线观看| 免费人妻精品一区二区三区视频| 又黄又粗又硬又大视频| 十八禁网站网址无遮挡| 在线观看三级黄色| 在线亚洲精品国产二区图片欧美| 又大又黄又爽视频免费| 999久久久国产精品视频| 少妇被粗大猛烈的视频| 99久久人妻综合| 又大又黄又爽视频免费| 十八禁高潮呻吟视频| 日韩一卡2卡3卡4卡2021年| 亚洲av在线观看美女高潮| 日本一区二区免费在线视频| 97在线人人人人妻| 国产精品人妻久久久影院| 在线观看一区二区三区激情| 中文精品一卡2卡3卡4更新| 国产一区有黄有色的免费视频| 各种免费的搞黄视频| 无遮挡黄片免费观看| 中国三级夫妇交换| 男女无遮挡免费网站观看| 一级片'在线观看视频| 成年动漫av网址| 多毛熟女@视频| 赤兔流量卡办理| 国产视频首页在线观看| 中文字幕人妻丝袜一区二区 | 亚洲人成77777在线视频| 9191精品国产免费久久| 亚洲第一区二区三区不卡| 老司机亚洲免费影院| 51午夜福利影视在线观看| 99久国产av精品国产电影| 大话2 男鬼变身卡| 国产精品99久久99久久久不卡 | 国产欧美日韩一区二区三区在线| 精品一区二区免费观看| 国产日韩欧美在线精品| 欧美另类一区| 在线精品无人区一区二区三| 日日摸夜夜添夜夜爱| 国产免费现黄频在线看| 女人爽到高潮嗷嗷叫在线视频| 肉色欧美久久久久久久蜜桃| 国产精品嫩草影院av在线观看| 亚洲精品aⅴ在线观看| 曰老女人黄片| 十八禁人妻一区二区| 在线观看www视频免费| 日本色播在线视频| 亚洲国产精品国产精品| 777米奇影视久久| 欧美97在线视频| 亚洲欧洲日产国产| 深夜精品福利| 一二三四中文在线观看免费高清| 久久国产精品大桥未久av| netflix在线观看网站| 免费观看人在逋| 亚洲精品日本国产第一区| 美女大奶头黄色视频| 欧美成人午夜精品| 少妇被粗大猛烈的视频| 亚洲成人免费av在线播放| 中文字幕色久视频| 国产精品国产av在线观看| 中国国产av一级| 国产在线视频一区二区| 咕卡用的链子| 满18在线观看网站| 麻豆乱淫一区二区| 久久精品久久久久久噜噜老黄| 日日啪夜夜爽| 免费久久久久久久精品成人欧美视频| 欧美激情 高清一区二区三区| 最近中文字幕高清免费大全6| 岛国毛片在线播放| 欧美人与性动交α欧美软件| 久久久久久久久久久久大奶| 亚洲精品国产区一区二| 性少妇av在线| 秋霞伦理黄片| 两个人看的免费小视频| 国产在线免费精品| 老司机深夜福利视频在线观看 | 在线天堂最新版资源| 国产老妇伦熟女老妇高清| 亚洲av中文av极速乱| 亚洲av综合色区一区| 午夜老司机福利片| 搡老岳熟女国产| 国产成人啪精品午夜网站| 久久av网站| av在线播放精品| 亚洲人成77777在线视频| 欧美 亚洲 国产 日韩一| 国产在线一区二区三区精| 久久精品亚洲av国产电影网| 国产深夜福利视频在线观看| 亚洲国产欧美在线一区| 国产亚洲av片在线观看秒播厂| 亚洲精品国产一区二区精华液| 亚洲视频免费观看视频| 亚洲,一卡二卡三卡| 老司机影院毛片| 欧美 亚洲 国产 日韩一| 亚洲激情五月婷婷啪啪| 国产精品蜜桃在线观看| 国产成人91sexporn| 日韩 欧美 亚洲 中文字幕| 国产视频首页在线观看| 成人免费观看视频高清| 成年人午夜在线观看视频| 超色免费av| 18禁观看日本| 精品午夜福利在线看| 宅男免费午夜| 91精品国产国语对白视频| 制服丝袜香蕉在线| 激情视频va一区二区三区| 国产国语露脸激情在线看| 高清在线视频一区二区三区| 精品久久蜜臀av无| 亚洲精品一二三| 亚洲色图综合在线观看| 久久人妻熟女aⅴ| 麻豆乱淫一区二区| 日韩制服骚丝袜av| 秋霞伦理黄片| 中文字幕av电影在线播放| 51午夜福利影视在线观看| 麻豆精品久久久久久蜜桃| 亚洲欧美成人综合另类久久久| 日韩视频在线欧美| 久久久久久久久免费视频了| 精品国产露脸久久av麻豆| 最近2019中文字幕mv第一页| 又大又黄又爽视频免费| 精品视频人人做人人爽| 久久青草综合色| 精品国产露脸久久av麻豆| 亚洲精品第二区| 成人国产麻豆网| 国产黄色视频一区二区在线观看| 观看av在线不卡| 欧美av亚洲av综合av国产av | 亚洲av日韩精品久久久久久密 | 国产一级毛片在线| 最近最新中文字幕免费大全7| 一区二区日韩欧美中文字幕| 国产1区2区3区精品| 男女下面插进去视频免费观看| 国产精品久久久久久精品古装| 色吧在线观看| 国产毛片在线视频| 一本大道久久a久久精品| 国产精品国产三级专区第一集| 嫩草影视91久久| 亚洲欧洲日产国产| 久久久国产精品麻豆| 成年人午夜在线观看视频| 亚洲天堂av无毛| 一级爰片在线观看| 黄色怎么调成土黄色| 男女之事视频高清在线观看 | 精品人妻一区二区三区麻豆| 日韩中文字幕视频在线看片| 在线观看一区二区三区激情| 国产亚洲欧美精品永久| 精品一品国产午夜福利视频| 中文字幕人妻熟女乱码| 性色av一级| 别揉我奶头~嗯~啊~动态视频 | 少妇的丰满在线观看| 国产精品麻豆人妻色哟哟久久| 成年女人毛片免费观看观看9 | 亚洲av成人精品一二三区| 婷婷成人精品国产| 亚洲精品日韩在线中文字幕| 欧美日韩精品网址| 满18在线观看网站| 中文字幕av电影在线播放| 90打野战视频偷拍视频| 精品一区二区三区av网在线观看 | 十八禁网站网址无遮挡| 久久久久久久久免费视频了| 亚洲精华国产精华液的使用体验| 男女高潮啪啪啪动态图| 亚洲人成网站在线观看播放| svipshipincom国产片| 欧美激情极品国产一区二区三区| 国产 精品1| 精品国产一区二区久久| 亚洲精华国产精华液的使用体验| 一本久久精品| 两性夫妻黄色片| 久久国产精品男人的天堂亚洲| 亚洲精品久久午夜乱码| av.在线天堂| 亚洲精品在线美女| 777米奇影视久久| 看免费成人av毛片| 午夜激情av网站| 亚洲国产av影院在线观看| 亚洲视频免费观看视频| 亚洲精品国产av成人精品| 91aial.com中文字幕在线观看| 国产又爽黄色视频| 国产av国产精品国产| 永久免费av网站大全| 久久人人97超碰香蕉20202| 久久久久精品国产欧美久久久 | 波多野结衣av一区二区av| 日本av手机在线免费观看| 男女下面插进去视频免费观看| 亚洲专区中文字幕在线 | 美女高潮到喷水免费观看| 国产黄色视频一区二区在线观看| 性少妇av在线| 亚洲成av片中文字幕在线观看| 国产片特级美女逼逼视频| 亚洲欧美成人综合另类久久久| 蜜桃在线观看..| 2021少妇久久久久久久久久久| 99精品久久久久人妻精品| 日韩欧美一区视频在线观看| 久久精品国产综合久久久| 黄片无遮挡物在线观看| 青春草视频在线免费观看| 热re99久久国产66热| 久久99精品国语久久久| 国产又爽黄色视频| 国产成人a∨麻豆精品| 超色免费av| 久久国产精品男人的天堂亚洲| 久久 成人 亚洲| 十八禁人妻一区二区| 国产日韩欧美在线精品| 国产成人a∨麻豆精品| 免费人妻精品一区二区三区视频| 巨乳人妻的诱惑在线观看| 美女福利国产在线| 国产黄频视频在线观看| 美女中出高潮动态图| 91精品伊人久久大香线蕉| 国产精品国产三级专区第一集| 一级爰片在线观看| 中文字幕高清在线视频| 青草久久国产| 在线观看免费视频网站a站| 一级毛片我不卡| 欧美日韩视频精品一区| 成人午夜精彩视频在线观看| 欧美日韩国产mv在线观看视频| 亚洲熟女精品中文字幕| 国产av一区二区精品久久| 欧美人与性动交α欧美软件| 久久久久精品久久久久真实原创|