• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    單幅圖像超分辨重建的深度學(xué)習(xí)方法綜述

    2021-11-26 07:21:32林青宇郭茂祖
    關(guān)鍵詞:網(wǎng)絡(luò)結(jié)構(gòu)殘差損失

    張 德,林青宇,郭茂祖

    北京建筑大學(xué) 電氣與信息工程學(xué)院&建筑大數(shù)據(jù)智能處理方法研究北京市重點(diǎn)實(shí)驗(yàn)室,北京100044

    圖像超分辨重建(Super-Resolution,SR)是計(jì)算機(jī)視覺和圖像處理領(lǐng)域的重要研究方向之一。在不改善成像設(shè)備硬件條件的前提下,通過信號(hào)處理和軟件方法等提高圖像分辨率,即為SR技術(shù)。SR不僅有重要的學(xué)術(shù)研究?jī)r(jià)值,并且在很多場(chǎng)合有實(shí)際應(yīng)用價(jià)值,例如醫(yī)學(xué)影像分析[1-2]、衛(wèi)星遙感成像[3]和視頻安全監(jiān)控[4]等方面。

    單幅圖像超分辨重建(Single Image Super-Resolution,SISR)僅利用一幅低分辨率(Low Resolution,LR)圖像為輸入,重建具有豐富圖像細(xì)節(jié)和清晰紋理的高分辨率(High Resolution,HR)圖像,實(shí)用價(jià)值很高。早在20世紀(jì)60年代,SISR技術(shù)由Harris和Goodman提出,并通過圖像復(fù)原的方法來實(shí)現(xiàn)[5-6]。然后,Brown 和Wadaka 等使用長(zhǎng)橢球波函數(shù)方法[7]和疊加正弦模板方法[8]等其他復(fù)原技術(shù)進(jìn)行超分辨重建,但是實(shí)際應(yīng)用效果并不好。

    因此,研究學(xué)者們陸續(xù)提出各種SISR技術(shù),主要包括基于插值的方法,如雙線性插值(Bilinear)、雙立方插值(Bicubic)[9]、曲率插值[10]和自適應(yīng)圖像插值[11-13]等;基于重建的方法,如迭代反向投影法[14-16]、凸集投影法[17-19]和最大后驗(yàn)概率法[20-22]等;基于樣例學(xué)習(xí)的方法,如鄰域嵌入法[23-25]、稀疏表示法[26-28]和回歸方法[29-31]等。但由于超分辨重建是一個(gè)難解的欠定問題,傳統(tǒng)方法難以重建圖像高頻細(xì)節(jié)信息[32-33]。

    隨著機(jī)器學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域的發(fā)展,深度學(xué)習(xí)被廣泛應(yīng)用到圖像超分辨重建任務(wù)中,并取得了很好的重建效果。如今,基于深度學(xué)習(xí)的SISR 方法已逐漸成為主流,圖1給出了SISR深度學(xué)習(xí)研究方法的發(fā)展時(shí)間軸線。從開始基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的算法,到后來使用不斷提出的新型網(wǎng)絡(luò)結(jié)構(gòu),包括深度殘差網(wǎng)絡(luò)(Deep Residual Network,ResNet)、遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,RNN)、密集連接網(wǎng)絡(luò)(Densely Connected Convolutional Network,DenseNet)和生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)等,都表現(xiàn)出不錯(cuò)的性能,使重建生成的HR圖像更加逼真。

    圖1 SISR深度學(xué)習(xí)主要方法的發(fā)展時(shí)間軸線Fig.1 Timeline of deep learning based SISR progress

    近年來,已有研究學(xué)者對(duì)圖像超分辨重建算法進(jìn)行了總結(jié)[46-49],包括基于傳統(tǒng)特征的方法和基于深度學(xué)習(xí)的方法。文獻(xiàn)[46-47]針對(duì)這兩大類方法都介紹得比較詳細(xì)。其中,史振威等[46]總結(jié)了近20 年來的主流算法,還介紹了在視頻超分辨、遙感圖像超分辨和復(fù)雜條件下超分辨算法的設(shè)計(jì)和應(yīng)用。唐艷秋等[47]首先對(duì)傳統(tǒng)方法進(jìn)行了完整的分類介紹,然后對(duì)深度學(xué)習(xí)方法從不同的網(wǎng)絡(luò)結(jié)構(gòu)模型方面進(jìn)行了分析和闡述。劉穎等[48]將超分辨技術(shù)根據(jù)輸入輸出分為多圖像超分辨、視頻超分辨和單幅圖像超分辨,然后重點(diǎn)介紹了SISR算法,對(duì)深度學(xué)習(xí)方法從有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)兩方面進(jìn)行分類敘述,并選取了幾種典型的深度學(xué)習(xí)算法進(jìn)行實(shí)驗(yàn)和比較。南方哲等[49]主要進(jìn)行了基于深度學(xué)習(xí)的SISR算法綜述,把超分辨深度學(xué)習(xí)模型分為基于插值預(yù)處理、基于原始圖像處理、基于分層特征和基于高頻細(xì)節(jié)四類進(jìn)行介紹,然后選取了幾種來自不同類別的算法進(jìn)行實(shí)驗(yàn)和比較。

    本文針對(duì)SISR的深度學(xué)習(xí)方法進(jìn)行全面深入的分析和總結(jié),重點(diǎn)闡述并總結(jié)了近年來主流的基于深度學(xué)習(xí)的圖像超分辨重建方法,并以圖形和表格的方式對(duì)典型的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行展示和比較。同時(shí)選取了多種不同的經(jīng)典深度學(xué)習(xí)算法進(jìn)行實(shí)驗(yàn)復(fù)現(xiàn)和比較,并考慮時(shí)間的跨度,包括了近兩年內(nèi)的算法。

    本文首先介紹圖像超分辨相關(guān)基礎(chǔ)內(nèi)容,包括問題設(shè)置概述和質(zhì)量評(píng)價(jià)指標(biāo)。然后,詳細(xì)闡述為解決單幅圖像超分辨問題和提高重建質(zhì)量而采用的深度學(xué)習(xí)方法,包括網(wǎng)絡(luò)模型設(shè)計(jì)、損失函數(shù)和上采樣方式三方面,這也是SISR 深度學(xué)習(xí)技術(shù)必需的三個(gè)組成部分。而后,選取來自不同網(wǎng)絡(luò)模型的主要算法在標(biāo)準(zhǔn)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),給出不同算法之間更直觀的對(duì)比并進(jìn)行討論。最后,對(duì)基于深度學(xué)習(xí)的SISR方法進(jìn)行總結(jié)和展望。

    1 圖像超分辨問題概述

    圖像超分辨的目的是從LR 圖像中恢復(fù)出相應(yīng)的HR圖像,而LR圖像通常是由HR圖像退化得到。用Ix表示LR圖像,Iy表示HR圖像,則退化過程如式(1)所示:

    其中,D為退化函數(shù),δ表示退化過程中的相關(guān)參數(shù),如噪聲類型和縮放因子等?,F(xiàn)實(shí)中,退化過程信息D和δ是未知的,僅有已知信息為低分辨率圖像Ix。圖形超分辨問題的目的為消除退化效果,恢復(fù)出高分辨率甚至真實(shí)場(chǎng)景圖像,即

    其中,θ為超分辨模型F中的參數(shù),表示重建得到的HR圖像。

    現(xiàn)實(shí)中退化過程未知且復(fù)雜,影響因素眾多,難以確定實(shí)際問題中準(zhǔn)確的圖像退化過程。因此大多數(shù)研究都是基于單個(gè)下采樣作為退化模型,常用下采樣操作為具有抗鋸齒的雙三次插值。也有一些研究將退化模型設(shè)置為如下形式:

    其中,↓s表示縮放因子為s的下采樣運(yùn)算,?是HR圖像Iy和卷積核算子k之間的卷積操作,變量n?表示具有標(biāo)準(zhǔn)差的加性高斯白噪音。與單一采用下采樣退化過程相比,式(3)的退化過程更接近于真實(shí)場(chǎng)景,并已被證實(shí)對(duì)SR更有效[50]。

    至此,SR問題可以理解為:

    2 圖像超分辨質(zhì)量評(píng)價(jià)

    通過超分辨技術(shù)生成的高分辨率圖像,與真實(shí)高分辨率圖像的逼真度越高,則認(rèn)為圖像超分辨算法越好。一般來說,主要通過兩種客觀的量化指標(biāo)進(jìn)行評(píng)價(jià),包括峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和結(jié)構(gòu)相似度(Structual Similarity,SSIM)。

    PSNR 是一種最常用的圖像重構(gòu)質(zhì)量評(píng)價(jià)方式,其主要由MSE決定,PSNR定義如下:

    其中,amax表示參考圖像中的最大像素值,MSE如式(6)所示:

    考慮到人類的視覺系統(tǒng)是從所見場(chǎng)景中提取結(jié)構(gòu)信息進(jìn)行觀察,Wang 等[51]提出使用結(jié)構(gòu)相似度(SSIM)評(píng)價(jià)生成圖像的質(zhì)量。根據(jù)亮度(luminance)、對(duì)比度(contrast)和結(jié)構(gòu)(structure)三方面相互獨(dú)立的比較,SSIM可用來衡量圖像之間的結(jié)構(gòu)相似度。

    另外,有時(shí)也經(jīng)常用到主觀評(píng)價(jià)指標(biāo)平均意見分?jǐn)?shù)(Mean Opinion Score,MOS),給出圖像的主觀感受質(zhì)量。由觀察人員給重建生成的圖像打分,分?jǐn)?shù)范圍在1~5之間,5分為最高分。計(jì)算所有分?jǐn)?shù)的平均分,即為MOS指標(biāo)值。

    3 基于深度學(xué)習(xí)的單幅圖像超分辨重建

    近年來深度學(xué)習(xí)在單幅圖像超分辨重建(SISR)領(lǐng)域得到了廣泛的應(yīng)用,并取得了很好的重建效果。各種基于深度學(xué)習(xí)的SISR 方法層出不窮,本文從網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)、損失函數(shù)和上采樣框架三方面進(jìn)行闡述。表1對(duì)經(jīng)典網(wǎng)絡(luò)模型從以上三方面進(jìn)行總結(jié)。

    表1 SISR深度學(xué)習(xí)主要方法簡(jiǎn)述Table 1 Description of some typical deep learning based SISR methods

    3.1 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

    網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)是深度學(xué)習(xí)方法最重要的組成部分,并且結(jié)構(gòu)的多樣性很強(qiáng),難以準(zhǔn)確地劃分類別。這里,從網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的基本原理和策略出發(fā),大概分為線性網(wǎng)絡(luò)、殘差網(wǎng)絡(luò)、遞歸網(wǎng)絡(luò)、密集連接、注意力機(jī)制和生成對(duì)抗網(wǎng)絡(luò)等幾個(gè)方面進(jìn)行介紹和比較。其中,把早期應(yīng)用于SISR的CNN模型歸類為線性網(wǎng)絡(luò),模型較為簡(jiǎn)單,但效果也優(yōu)于傳統(tǒng)方法。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,網(wǎng)絡(luò)結(jié)構(gòu)的深度和寬度不斷增加,感受野變大,可以帶來更強(qiáng)的特征學(xué)習(xí)能力,明顯提升超分辨重建效果。不過,更深的網(wǎng)絡(luò)結(jié)構(gòu)增加了模型復(fù)雜度,導(dǎo)致網(wǎng)絡(luò)不易收斂、性能退化和過度擬合等現(xiàn)象。殘差學(xué)習(xí)網(wǎng)絡(luò)和遞歸網(wǎng)絡(luò)結(jié)構(gòu)的出現(xiàn)可以幫助解決這些問題。而后出現(xiàn)的密集連接可以進(jìn)一步減輕網(wǎng)絡(luò)梯度消失的問題。結(jié)合注意力機(jī)制的網(wǎng)絡(luò)模型能夠進(jìn)一步提高圖像重建質(zhì)量評(píng)價(jià)指標(biāo),而生成對(duì)抗網(wǎng)絡(luò)則有助于提升重建圖像的視覺感知質(zhì)量。

    3.1.1 線性網(wǎng)絡(luò)

    SRCNN(Super-Resolution CNN)是第一個(gè)只使用卷積神經(jīng)網(wǎng)絡(luò)來進(jìn)行圖像超分辨重建的成功嘗試[39],是深度學(xué)習(xí)在圖像超分辨重建領(lǐng)域的開山之作,并激發(fā)了后續(xù)在這個(gè)方向上的研究。SRCNN 結(jié)構(gòu)簡(jiǎn)單明了,它只由卷積層組成,除最后一層外,每一層后面都有一個(gè)ReLU 作為激活函數(shù)。第一層為特征提取層,從輸入圖像中提取特征圖塊。第二層為非線性映射層,它將特征映射轉(zhuǎn)換為高維特征向量。最后一層重建特征圖片來作為最終的高分辨率圖像輸出。

    而后Dong 等[53]進(jìn)一步提出FSRCNN(Fast Super-Resolution CNN),其是對(duì)SRCNN 的改進(jìn)(對(duì)比如圖2所示)。FSRCNN 雖然是4 個(gè)卷積層和1 個(gè)反卷積層的簡(jiǎn)單網(wǎng)絡(luò),但是其處理速度提升明顯,圖片質(zhì)量也有所提升。其改進(jìn)主要體現(xiàn)在:一是最后使用了一個(gè)反卷積層放大尺寸,從而不需要對(duì)圖像進(jìn)行預(yù)處理。二是改變特征維數(shù),使用更小的卷積核和更多的映射層,在映射前減少輸入特征的維數(shù),從而提高計(jì)算效率。

    圖2 SRCNN和FSRCNN網(wǎng)絡(luò)結(jié)構(gòu)比較Fig.2 Comparison of SRCNN and FSRCNN structure

    ESPCN(Efficient Sub-Pixel Convolutional Neural network)也是一種快速高效的超分辨方法[54]。ESPCN主要使用亞像素卷積(Sub-Pixel Convolution),作為重建生成的HR圖像中的一個(gè)子塊。這個(gè)變換實(shí)際上沒有卷積操作,圖像從LR 到HR 放大過程的插值函數(shù)被隱含在前面的卷積層中,只是在最后一層對(duì)圖像大小做變換,因此提高了算法的效率。

    早期應(yīng)用在圖像超分辨領(lǐng)域的線性網(wǎng)絡(luò)雖然模型相對(duì)簡(jiǎn)單,但重建效果優(yōu)于傳統(tǒng)方法,并起到開創(chuàng)性目的。

    3.1.2 殘差網(wǎng)絡(luò)

    與線性網(wǎng)絡(luò)的線層模型相比,殘差網(wǎng)絡(luò)使用殘差學(xué)習(xí),在網(wǎng)絡(luò)設(shè)計(jì)中使用了跳過連接方式進(jìn)行殘差單元中的直接映射[61],有效避免了梯度消失,同時(shí)可以加快訓(xùn)練速度。因此殘差學(xué)習(xí)的應(yīng)用可以使更深的網(wǎng)絡(luò)得到更好的訓(xùn)練,從而使得圖像超分辨網(wǎng)絡(luò)模型設(shè)計(jì)變得非常深。同時(shí)殘差網(wǎng)絡(luò)能利用更多的上下文信息,學(xué)習(xí)能力和層次表征能力變得更強(qiáng)。因此,殘差網(wǎng)絡(luò)在圖像超分辨中應(yīng)用廣泛。

    Kim等[36]提出的VDSR(Very Deep Super-Resolution convolutional network)網(wǎng)絡(luò)模型有20個(gè)卷積層,相較于SRCNN等線性網(wǎng)絡(luò)層數(shù)更深。Kim等通過實(shí)驗(yàn)證明層數(shù)越深,圖像重建效果越好,但對(duì)收斂速度也產(chǎn)生了很大影響。為了解決收斂速度問題,VDSR網(wǎng)絡(luò)模型采用全局殘差學(xué)習(xí),即高分辨率圖像與低分辨率圖像進(jìn)行殘差學(xué)習(xí),同時(shí)提高學(xué)習(xí)速率,使得訓(xùn)練過程更加穩(wěn)定。因此殘差網(wǎng)絡(luò)可以使網(wǎng)絡(luò)模型較深的網(wǎng)絡(luò)得到更好的訓(xùn)練,提升重建效果。Lim等[56]提出了用于圖像超分辨的改進(jìn)殘差網(wǎng)絡(luò)模型EDSR(Enhanced Deep Super-Resolution network),利用改進(jìn)殘差塊,搭建更深的網(wǎng)絡(luò)模型。EDSR主要將原始?xì)埐顗K中的批歸一化層(Batch Normalization,BN)去除,節(jié)省顯存空間,使更深的網(wǎng)絡(luò)有更好的可訓(xùn)練性,可以擁有69個(gè)卷積層,重建效果明顯提升。

    同時(shí),許多多尺度殘差網(wǎng)絡(luò)也被提出。Li等[57]提出了多尺度殘差網(wǎng)絡(luò)模型(Multi-Scale Residual Network,MSRN)。MSRN使用多尺度殘差塊(Multi-Scale Residual Block,MSRB)來獲取不同尺度圖像特征,聯(lián)合3×3和5×5卷積核幫助網(wǎng)絡(luò)獲取多尺度的信息,并采用局部殘差學(xué)習(xí)法可以讓神經(jīng)網(wǎng)絡(luò)更高效。將每個(gè)MSRB 的輸出組合起來進(jìn)行全局特征融合,充分利用圖像中的特征信息。實(shí)驗(yàn)證明盡管該模型在評(píng)價(jià)指標(biāo)PSNR和SSIM方面比EDSR模型稍差,但是MSRN模型參數(shù)數(shù)量遠(yuǎn)低于EDSR,訓(xùn)練時(shí)間短,運(yùn)行效率高。圖3 給出了EDSR 和MSRN 模型的改進(jìn)殘差塊結(jié)構(gòu),并與He 等[61]提出的原始結(jié)構(gòu)進(jìn)行了比較。另外,應(yīng)自爐等[62]使用多種程度的卷積核提取LR 層的特征信息,將每個(gè)卷積核下的殘差塊局部融合后再進(jìn)行全局融合。這使得每層信息不會(huì)丟失,從而使得網(wǎng)絡(luò)梯度一直保持存在的狀態(tài),不會(huì)發(fā)生梯度消失現(xiàn)象,同時(shí)重建效果較SRCNN 等線性網(wǎng)絡(luò)得到提升。不同于文獻(xiàn)[62],李現(xiàn)國(guó)等[63]提出的多尺度殘差網(wǎng)絡(luò)在殘差塊中用兩個(gè)3×3卷積核代替一個(gè)5×5的卷積核來提取特征,減少了模型參數(shù),增加了網(wǎng)絡(luò)的非線性特性,并且使得圖像特征信息在每個(gè)維度下得到增加,從而獲得更豐富的圖像信息,達(dá)到更好的重建效果。

    圖3 EDSR、MSRN和初始?xì)埐罹W(wǎng)絡(luò)結(jié)構(gòu)比較Fig.3 Comparison of EDSR,MSRN and original residual network structure

    3.1.3 遞歸網(wǎng)絡(luò)

    隨著網(wǎng)絡(luò)模型深度的增加,也會(huì)引入更多的參數(shù)。為了避免發(fā)生過擬合,通常會(huì)擴(kuò)大訓(xùn)練集,但過大的網(wǎng)絡(luò)模型不易存儲(chǔ)。因此將遞歸學(xué)習(xí)引入到圖像超分辨領(lǐng)域中。遞歸網(wǎng)絡(luò)為遞歸鏈接的卷積層或單元的網(wǎng)絡(luò)結(jié)構(gòu),從而在控制模型參數(shù)的情況下,提高圖像重建效果。

    Kim 等[37]提出的DRCN(Deep Recursive Convolutional Network)多次應(yīng)用疊加相同的卷積層。這種技術(shù)的一個(gè)優(yōu)點(diǎn)是在增大網(wǎng)絡(luò)感受野的同時(shí),對(duì)于更多的遞歸,可以有效地重復(fù)利用權(quán)重參數(shù),并能夠優(yōu)化隨機(jī)梯度下降算法,縮短訓(xùn)練時(shí)間。用遞歸和跳躍連接的方式減低模型的訓(xùn)練難度,從而達(dá)到更好的訓(xùn)練效果。在此基礎(chǔ)上,Tai等[58]提出了DRRN(Deep Recursive Residual Network)網(wǎng)絡(luò)模型,和DRCN 僅使用全局殘差學(xué)習(xí)不同,DRRN 加入了多路徑方式的局部殘差學(xué)習(xí),并在殘差塊中共享使用多個(gè)權(quán)重層。DRRN 運(yùn)用局部多尺度和全局殘差學(xué)習(xí)的方式,在參數(shù)數(shù)量更少的情況下獲得更好的重建性能。而程德強(qiáng)等[64]提出的多通道遞歸殘差網(wǎng)絡(luò)針對(duì)單一通道的遞歸網(wǎng)絡(luò)可能會(huì)丟失部分特征信息的問題,提出多通道網(wǎng)絡(luò),提高對(duì)細(xì)節(jié)信息的重建能力。

    DRCN 和DRRN 使用的遞歸結(jié)構(gòu)中重復(fù)運(yùn)行的部分其實(shí)是以前饋的方式共享信息,即使使用了殘差連接,前面的層依然無法有效利用底層信息。因此,Li等[43]提出了基于反饋機(jī)制的網(wǎng)絡(luò)模型SRFBN(Super-Resolution Feedback Network),設(shè)計(jì)一個(gè)反饋塊(Feedback Block,F(xiàn)B)使得上一次反饋的輸出和整個(gè)網(wǎng)絡(luò)的輸入一起重新輸入到反饋模塊,不斷地回傳。這樣回傳的好處在于不會(huì)增加額外的參數(shù)并且加深網(wǎng)絡(luò),同時(shí)使得前面的卷積層也可以學(xué)習(xí)到后面卷積層的信息,進(jìn)而提升重建效果。該模型的反饋機(jī)制如圖4(c)所示,并在圖4 中與DRCN、DRRN模型的前饋方式進(jìn)行了比較。

    圖4 DRCN、DRRN的前饋方式和SRFBN的反饋機(jī)制比較Fig.4 Comparison of DRCN,DRRN feedforward methods and SRFBN feedback mechanism

    3.1.4 密集連接

    自從Huang等[65]提出基于密集塊的DenseNet以來,密集連接在視覺任務(wù)中變得越來越流行。密集連接不僅有助于減少梯度消失,增強(qiáng)信號(hào)傳播和鼓勵(lì)特征重用,而且通過采用較小的增長(zhǎng)率(即密集塊中的信道數(shù))和級(jí)聯(lián)后的壓縮信道,大大減少了參數(shù)數(shù)目。對(duì)于稠密塊中的每一層,所有前一層的特征映射被用作輸入,其自身的特征映射被用作所有后一層的輸入,從而緩解了深層網(wǎng)絡(luò)在訓(xùn)練過程中梯度消失而難以優(yōu)化的問題。因此該方法在超分辨領(lǐng)域應(yīng)用豐富。這種設(shè)計(jì)的主要?jiǎng)訖C(jī)是結(jié)合網(wǎng)絡(luò)深度上可用的分層線索,以實(shí)現(xiàn)高度的靈活性和豐富的特征表示。

    Tong等[39]提出了SRDenseNet(Super-Resolution Dense Net)模型,首先使用一個(gè)卷積層學(xué)習(xí)低層的特征,接著用多個(gè)密集塊(Dense Block)學(xué)習(xí)高層的特征。SRDenseNet通過密集連接的方式,無論是密集塊內(nèi)還是全局網(wǎng)絡(luò)中,都可以很好地將低層信息與高層信息融合,同時(shí)減少參數(shù)數(shù)量。這樣的結(jié)構(gòu)給整個(gè)網(wǎng)絡(luò)帶來了減輕梯度消失問題、加強(qiáng)特征傳播、支持特征復(fù)用的效果,從而提高了重建性能。相較于SRDenseNet,Zhang等[40]結(jié)合殘差結(jié)構(gòu)進(jìn)一步提出RDN(Residual Dense Network)網(wǎng)絡(luò)模型。RDN 網(wǎng)絡(luò)中的殘差稠密塊(Residual Dense Block,RDB)將局部殘差塊、密集連接層與局部特征進(jìn)行融合,更好地保證了信息流的貫通。在全局網(wǎng)絡(luò)中,與SRDenseNet的全局稠密連接不同,RDN 使用了全局特征融合和全局殘差學(xué)習(xí),這樣可以更好地結(jié)合殘差學(xué)習(xí)以及密集鏈接的優(yōu)點(diǎn),更充分地提取多層次的特征,使訓(xùn)練穩(wěn)定并加速訓(xùn)練過程,共同提高網(wǎng)絡(luò)性能。圖5比較了ResNet、DenseNet和RDN的基礎(chǔ)塊結(jié)構(gòu)。

    圖5 ResNet、DenseNet和RDN塊結(jié)構(gòu)比較Fig.5 Comparison of block structure of ResNet,DenseNet and RDN

    王海勇等[66]提出了一種基于密集Inception 的單圖像超分辨率重建模型。該方法全局融合了簡(jiǎn)化的密集網(wǎng)絡(luò),核心模塊引入了Inception-ResNet-A 結(jié)構(gòu)。因此該方法擁有較少網(wǎng)絡(luò)參數(shù),加快訓(xùn)練速度,同時(shí)得到了更好的重建效果。

    3.1.5 注意力機(jī)制

    在前面的網(wǎng)絡(luò)模式中,對(duì)于超分辨問題,所有空間位置和信道都有著相同的重要性(即權(quán)值相同)。在一些情況下,在給定的層中選擇性地處理部分特征可能更有幫助。注意力機(jī)制則可以賦予其這樣的靈活性。在結(jié)合注意力機(jī)制超分辨模型中可以挑出更重要的激活值,給予其更大的權(quán)重,從而提升重建效果。

    Choi 等[59]提出了一種新的用于圖像超分辨率網(wǎng)絡(luò)的選擇單元,稱為SelNet。選擇單元充當(dāng)卷積層之間的一扇門,只允許通過從特征圖中選定的值,在每個(gè)卷積層之后都有選擇單元,使得網(wǎng)絡(luò)可以自適應(yīng)地選擇更有利于重建效果的響應(yīng)值向下傳遞,提升重建效果。類似于VDSR,在SelNet 中也采用了殘差學(xué)習(xí)和梯度轉(zhuǎn)換(梯度裁剪的一種),從而降低訓(xùn)練時(shí)間。

    Zhang 等[41]在殘差網(wǎng)絡(luò)中加入通道注意力機(jī)制,提出RCAN(Residual Channel Attention Network)網(wǎng)絡(luò)模型進(jìn)行圖像超分辨重建。該模型使用局部嵌套殘差結(jié)構(gòu)(Residual in Residual)可以搭建更深的網(wǎng)絡(luò),并通過通道之間的依賴關(guān)系選擇包含更多關(guān)鍵信息的通道,增強(qiáng)整個(gè)網(wǎng)絡(luò)的辨識(shí)學(xué)習(xí)能力。Dai等[42]使用基于協(xié)方差歸一化的二階通道注意力機(jī)制,提出SAN(Second-order Attention Network)網(wǎng)絡(luò)模型,通過高于一階的特征統(tǒng)計(jì)量來自適應(yīng)地重新縮放特征,能夠更好地學(xué)習(xí)特征之間的關(guān)聯(lián)度。利用協(xié)方差歸一化的迭代方法來加快網(wǎng)絡(luò)的訓(xùn)練速度,從而達(dá)到更優(yōu)秀的網(wǎng)絡(luò)性能和重建效果。

    李彬等[67]提出的雙重注意力機(jī)制的深度網(wǎng)絡(luò)由兩種注意力機(jī)制融合而成。相較于單一的注意力機(jī)制,通過融合通道注意力機(jī)制和空間注意力機(jī)制,可以有效獲取不同特征的權(quán)重值,使得網(wǎng)絡(luò)可以根據(jù)權(quán)重精準(zhǔn)分配計(jì)算資源,在僅僅引入極少參數(shù)的同時(shí)有效提升超分辨率重建的質(zhì)量。

    3.1.6 生成對(duì)抗網(wǎng)絡(luò)

    生成對(duì)抗網(wǎng)絡(luò)[68](Generative Adversarial Networks,GAN)采用了博弈論方法,模型由生成器和判別器兩部分組成。在圖像超分辨中,生成器負(fù)責(zé)生成重建圖像,判別器根據(jù)自身判定條件判別生成圖像與真實(shí)圖像的差距,用試圖欺騙判別器的方法來進(jìn)一步恢復(fù)圖像。由于其特殊機(jī)制的存在,通過這種方式,往往可以生成視覺效果更好的高分辨率圖像。

    Ledig 等[38]提出了超分辨生成對(duì)抗網(wǎng)絡(luò)(Super-Resolution Generative Adversarial Network,SRGAN),首次使用GAN進(jìn)行了單幅圖像超分辨重建的嘗試。如圖6 所示,SRGAN 將低分辨率圖像輸入至生成器G 中進(jìn)行圖像重建,由判別器D將生成圖像與真實(shí)圖像對(duì)抗訓(xùn)練,最后輸出訓(xùn)練后的圖像。相較于之前的算法,雖然SRGAN 在客觀評(píng)價(jià)指標(biāo)(如PSNR)上相對(duì)較低,但是其無論在視覺效果,還是圖像細(xì)節(jié)等直觀方面,重建效果更加優(yōu)秀,效果更好。這與其特殊的網(wǎng)絡(luò)結(jié)構(gòu)以及將對(duì)抗損失和感知損失相結(jié)合的損失函數(shù)有關(guān)。受SRGAN 的啟發(fā),Wang 等[60]又提出ESRGAN(Enhanced SRGAN)模型,并對(duì)SRGAN做出改進(jìn)。ESRGAN的改進(jìn)主要有以下方面:一是在生成器端去除BN和用殘差密集塊RRDB(Residual in Residual Dense Block),這樣有助于提高泛化能力,減少計(jì)算復(fù)雜度和內(nèi)存使用。二是判別器端修改,使其判別不再是真?zhèn)谓^對(duì)值,而是預(yù)測(cè)生成圖像與真實(shí)圖像的相對(duì)距離。三是對(duì)感知損失進(jìn)行修改,可以更好地保持圖像亮度的一致性和恢復(fù)更好的細(xì)節(jié)紋理。

    圖6 SRGAN基本結(jié)構(gòu)示意圖Fig.6 Basic structure diagram for SRGAN

    彭晏飛等[69]在SRGAN的基礎(chǔ)上,遷移了SVM中的Hinge 損失作為目標(biāo)函數(shù),又在原有的感知損失中加入了Charbonnier損失函數(shù)和TV正則項(xiàng),使其具有更好的穩(wěn)定性、魯棒性、抗噪性。同時(shí)保持重建圖像邊緣和細(xì)節(jié)清晰,去掉了殘差塊和判別器中不必要的BN層,并在生成器和判別器中使用譜歸一化來穩(wěn)定模型訓(xùn)練。而汪鑫耘等[70]在ESRGAN基礎(chǔ)上對(duì)激活函數(shù)、基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)進(jìn)行優(yōu)化。將激活函數(shù)改為L(zhǎng)eakyReLU,用來避免某些神經(jīng)元不激活數(shù)據(jù)現(xiàn)象。用RDB來代替RRDB,減少參數(shù)量的同時(shí)加深了網(wǎng)絡(luò)。采用雙層特征損失,并引入滲透指數(shù)PI 作為損失權(quán)重來改進(jìn)損失函數(shù)。該方法在客觀評(píng)價(jià)指標(biāo)和主觀視覺上較ESRGAN均有所提升。

    3.2 損失函數(shù)

    在圖像超分辨領(lǐng)域,損失函數(shù)用來度量生成的高分辨率圖像與真實(shí)圖像之間的差異。早期研究人員通常采用逐像素L2 損失,即均方誤差(Mean-Square Error,MSE)。但后來發(fā)現(xiàn)它并不能很精確地測(cè)量圖像的感知質(zhì)量,因此采用其他損失函數(shù)(如內(nèi)容損失[71]、生成損失[38]等)來更好地測(cè)量重構(gòu)誤差。目前,在超分辨領(lǐng)域中,損失函數(shù)發(fā)揮著重要的作用。

    3.2.1 像素?fù)p失

    像素?fù)p失主要是度量?jī)蓚€(gè)圖像之間的像素差異,主要包括L1 損失(平均絕對(duì)誤差)和L2 損失(均方誤差)。與L1損失相比,L2損失能抑制較大誤差的產(chǎn)生,但對(duì)較小的誤差往往具有更大的容錯(cuò)性,因此常常導(dǎo)致結(jié)果過于平滑。

    在實(shí)際應(yīng)用中,L1 損失比L2 損失[56]表現(xiàn)出更好的性能,尤其是收斂性。由于PSNR的定義與像素差高度相關(guān),并且最小化像素?fù)p失直接最大化PSNR,因此像素?fù)p失逐漸成為最廣泛使用的損失函數(shù)。然而,由于像素?fù)p失實(shí)際上并不考慮圖像質(zhì)量(例如感知質(zhì)量[71]、紋理[11]),往往結(jié)果缺乏高頻細(xì)節(jié),感知效果不好的過度平滑的紋理[37-38,71]。

    3.2.2 感知損失

    感知損失是近年來提出的一個(gè)比較巧妙的思想。在圖像超分辨領(lǐng)域中,由于經(jīng)常使用L1損失,會(huì)導(dǎo)致重建圖像較為平滑,丟失細(xì)節(jié)部分或高頻部分。因此感知損失被引入到超分辨領(lǐng)域中[50,72],從而更好地評(píng)價(jià)并提升的感知質(zhì)量。

    感知損失使用已經(jīng)訓(xùn)練好的圖像訓(xùn)練網(wǎng)絡(luò),其中ResNet[61]和VGG[73]是最常用的CNN 預(yù)訓(xùn)練網(wǎng)絡(luò),然后提取兩個(gè)圖像的特征,計(jì)算兩個(gè)圖像在特征空間上的歐氏距離。感知損失與像素?fù)p失相比,沒有迫使像素之間精確地匹配,而是在感知上與目標(biāo)圖像類似。因此其在視覺上產(chǎn)生更佳的效果[38,58,71]。

    3.2.3 紋理損失

    由于重建圖像應(yīng)該與目標(biāo)圖像具有相同的紋理風(fēng)格,并受Leon 等[74-75]的影響,紋理損失被引入到圖像超分辨領(lǐng)域中。圖像的紋理被視為不同特征通道之間的相關(guān)性。

    紋理損失可使SR 模型創(chuàng)建更真實(shí)的紋理,并在視覺上產(chǎn)生更令人滿意的結(jié)果[44,76]。然而,確定圖塊大小以匹配紋理仍然是經(jīng)驗(yàn)性的問題。由于紋理統(tǒng)計(jì)信息是在不同紋理區(qū)域取平均值,過小的補(bǔ)丁會(huì)導(dǎo)致紋理區(qū)域出現(xiàn)偽影現(xiàn)象,而過大的補(bǔ)丁會(huì)導(dǎo)致整個(gè)圖像出現(xiàn)偽影現(xiàn)象。

    3.2.4 對(duì)抗損失

    在基于生成對(duì)抗網(wǎng)絡(luò)的超分辨領(lǐng)域中,通常超分辨模型為生成器,而判別器根據(jù)判斷條件來進(jìn)行判別。而損失函數(shù)則通常在像素?fù)p失或感知損失的基礎(chǔ)上再結(jié)合對(duì)抗損失,從而通過判別器使得生成器生成的圖像能有更逼真的高分辨率圖片。在對(duì)抗損失計(jì)算方面,SRGAN[38]和EnhanceNet[76]等方法使用交叉熵?fù)p失函數(shù)。而后,Wang等[77]和Yuan等[78]使用最小二乘方法[79]進(jìn)行損失計(jì)算,可以生成質(zhì)量更高的圖像。RaGAN[80]和WGAN-GP[81]等變體GAN 模型使用新的距離度量方式改進(jìn)生成對(duì)抗學(xué)習(xí)的性能,例如FID(Fréchet Inception Distance)和Wasserstein距離。

    目前GAN的訓(xùn)練過程還比較困難和不穩(wěn)定。盡管已有一些關(guān)于如何穩(wěn)定GAN 訓(xùn)練的研究,但如何保證整合到超分辨模型中的GAN得到正確訓(xùn)練并發(fā)揮積極作用仍是一個(gè)問題。

    3.3 上采樣方法和模型框架

    上采樣指從低分辨率(LR)圖像輸出高分辨率(HR)圖像的操作。在圖像超分辨深度網(wǎng)絡(luò)模型中,依據(jù)上采樣層的位置和上采樣操作的基本方式,大致分為4類模型框架,包括預(yù)定義上采樣模型框架、后端上采樣模型框架、漸進(jìn)式上采樣模型框架和上下采樣迭代式模型框架。所使用的上采樣方法主要可分為兩大類,基于插值的上采樣方法和基于學(xué)習(xí)的上采樣方法。

    3.3.1 上采樣方法

    基于插值的上采樣方法指通過傳統(tǒng)的圖像插值操作進(jìn)行圖像尺寸的放大。常用的插值方法主要有最近鄰插值、雙線性插值和雙立方插值?;趯W(xué)習(xí)的上采樣方法指以端到端學(xué)習(xí)的方式進(jìn)行上采樣,可以通過在網(wǎng)絡(luò)結(jié)構(gòu)中加入轉(zhuǎn)置卷積層或者亞像素卷積層實(shí)現(xiàn)。表2給出了上采樣方法的分類和相應(yīng)的描述。

    表2 上采樣方法分類和簡(jiǎn)單描述Table 2 Category and descirption of upsampling methods

    傳統(tǒng)基于插值的上采樣方法原理比較簡(jiǎn)單,也容易實(shí)現(xiàn)。其中,雙立方插值還經(jīng)常應(yīng)用在預(yù)定義上采樣模型框架中,但是也增加了模型的計(jì)算復(fù)雜度。另外,插值方法還會(huì)引起噪聲被放大等副作用,因此可以使用端到端學(xué)習(xí)的方式進(jìn)行上采樣,以避免這些問題的發(fā)生。例如,轉(zhuǎn)置卷積應(yīng)用在SRDenseNet[39]等多個(gè)超分辨網(wǎng)絡(luò)模型中,亞像素卷積應(yīng)用在RDN[40]和SRGAN[38]等多種不同的網(wǎng)絡(luò)模型中。亞像素卷積比轉(zhuǎn)置卷積有更大的感受野,因此能夠提供更多的鄰域相關(guān)信息,重建圖像細(xì)節(jié)部分更真實(shí)。

    3.3.2 模型框架

    4種模型框架如圖7所示。圖7(a)給出了預(yù)定義上采樣框架示意圖,如圖可知,該框架是先使用傳統(tǒng)的插值方法將圖像尺寸放大到要求的倍數(shù),然后再使用深度學(xué)習(xí)網(wǎng)絡(luò)模型重建圖像細(xì)節(jié)。該框架所使用的上采樣方法簡(jiǎn)單,但深度神經(jīng)網(wǎng)絡(luò)的很多操作都需要在高維空間進(jìn)行,占用空間大,時(shí)間效率低。圖7(b)給出了后上采樣框架示意圖,如圖所示,上采樣層位于網(wǎng)絡(luò)結(jié)構(gòu)末端。這樣,深度神經(jīng)網(wǎng)絡(luò)的很多操作在低維空間進(jìn)行,極大提高了訓(xùn)練速度和算法效率。網(wǎng)絡(luò)可以自適應(yīng)地學(xué)習(xí)上采樣過程,進(jìn)行端到端可學(xué)習(xí)的上采樣。圖7(c)給出了逐步上采樣框架示意圖,基于該框架的深度網(wǎng)絡(luò)模型通過多次上采樣逐步獲得目標(biāo)尺寸的超分辨圖像。這樣,學(xué)習(xí)難度降低,并且在不需要過多時(shí)間和空間成本的情況下,能夠滿足多尺度超分辨的需求。圖7(d)給出了迭代上下采樣框架示意圖,交替進(jìn)行上采樣和下采樣操作,通過反向映射不斷地改進(jìn)超分辨重建圖像的質(zhì)量。最后,基于全部中間上采樣層得到的高分辨率特征圖,重建最終的超分辨圖像。

    圖7 上采樣模型框架比較Fig.7 Comparison of upsampling frameworks

    4 數(shù)據(jù)集及實(shí)驗(yàn)分析

    4.1 數(shù)據(jù)集介紹

    目前,有很多公用數(shù)據(jù)集可用于基于深度學(xué)習(xí)的單幅圖像超分辨重建任務(wù)。這些數(shù)據(jù)集包含的圖像數(shù)量和圖像內(nèi)容各不相同,可以綜合測(cè)試超分辨重建方法的性能。表3 列出了常用的數(shù)據(jù)集,并進(jìn)行了簡(jiǎn)單介紹。一些數(shù)據(jù)集已被劃分為固定的訓(xùn)練集、驗(yàn)證集和測(cè)試集,也有一些較大的數(shù)據(jù)集經(jīng)常作為訓(xùn)練集,如ImageNet[89]、DIV2K[87]和Flickr2K[88]等。研究人員也可以根據(jù)使用需求在數(shù)據(jù)集上自行劃分訓(xùn)練集、驗(yàn)證集和測(cè)試集,或者通過圖像旋轉(zhuǎn)等方式進(jìn)行訓(xùn)練集擴(kuò)增,或者聯(lián)合多個(gè)數(shù)據(jù)集進(jìn)行訓(xùn)練。

    表3 常用數(shù)據(jù)集介紹Table 3 Description of widely used datasets

    4.2 典型方法實(shí)驗(yàn)結(jié)果及分析

    依據(jù)不同的網(wǎng)絡(luò)結(jié)構(gòu),本文選取8種較為典型的深度學(xué)習(xí)單幅圖像超分辨重建方法進(jìn)行實(shí)驗(yàn),并與傳統(tǒng)的雙立方插值方法進(jìn)行比較。這8 種方法包括屬于線性網(wǎng)絡(luò)結(jié)構(gòu)的SRCNN[34]和FSRCNN[53],屬于殘差網(wǎng)絡(luò)結(jié)構(gòu)的VDSR[36],屬于遞歸網(wǎng)絡(luò)結(jié)構(gòu)的DRCN[37],屬于密集連接結(jié)構(gòu)的RDN[40],使用注意力機(jī)制的SAN模型[42],基于生成對(duì)抗網(wǎng)絡(luò)學(xué)習(xí)的SRGAN[38]、USRGAN[90]。然后選取了4個(gè)常用的數(shù)據(jù)集,包括Set5、Set14、BSD100和Urban100,并采用4倍放大因子進(jìn)行了測(cè)試。訓(xùn)練數(shù)據(jù)集使用T91和DIV2K。

    本文從Set14 和Urban100 各選取了1 張圖片,用于展示和比較不同算法的重建效果,如圖8 和圖9 所示。其中,GT(Ground Truth)表示從原圖像中截取的部分。表4 給出了這些方法在4 個(gè)常用數(shù)據(jù)集上的PSNR 和SSIM評(píng)價(jià)指標(biāo),實(shí)驗(yàn)結(jié)果表現(xiàn)各有差異。

    表4 不同方法在4個(gè)數(shù)據(jù)集上的PSNR/SSIM評(píng)價(jià)指標(biāo)比較(×4)Table 4 Comparison of PSNR and SSIM for different methods on 4 datasets(×4)

    圖8 Set14數(shù)據(jù)集的示例圖片實(shí)驗(yàn)結(jié)果比較Fig.8 Results comparison of different methods for sample image from Set14 dataset

    圖9 Urban100數(shù)據(jù)集的示例圖片實(shí)驗(yàn)結(jié)果比較Fig.9 Results comparison of different methods for sample image from Urban100 dataset

    由圖8 和圖9 可看出,主觀視覺特性較好的有RDN、SAN 和USRGAN 三種網(wǎng)絡(luò)模型,從表4 中可知,其相應(yīng)的評(píng)價(jià)指標(biāo)也較高。這幾種網(wǎng)絡(luò)模型是近幾年(2018年及以后)發(fā)表的,與前些年發(fā)表的方法相比,在超分辨重建質(zhì)量和效果上確實(shí)有了很大的提升。SRGAN模型的PSNR和SSIM評(píng)價(jià)指標(biāo)在表4中較低,甚至低于最開始的超分辨深度學(xué)習(xí)模型SRCNN。但是從主觀感知上看,觀察圖8 和圖9,SRGAN 的重建性能表現(xiàn)優(yōu)于其他早期(2018 年之前)的方法。由此說明,GAN 網(wǎng)絡(luò)的生成對(duì)抗學(xué)習(xí)方式可以增強(qiáng)超分辨重建圖像的逼真程度,但也會(huì)引起圖像結(jié)構(gòu)上的一些變形。因此,基于GAN 網(wǎng)絡(luò)的多種改進(jìn)模型近年來不斷被提出,這也是目前深度學(xué)習(xí)在圖像超分辨領(lǐng)域的發(fā)展趨勢(shì)。

    5 結(jié)束語

    本文主要?dú)w納和分析了近年來單幅圖像超分辨重建的深度學(xué)習(xí)方法。從早期的淺層模型SRCNN 開始,到越來越深的殘差網(wǎng)絡(luò)模型VDSR、遞歸網(wǎng)絡(luò)模型DRCN 和密集連接網(wǎng)絡(luò)模型RDN 等,并結(jié)合注意力機(jī)制,使得圖像超分辨重建質(zhì)量不斷得到提高。質(zhì)量評(píng)價(jià)客觀指標(biāo)PSNR 和SSIM 從SRCNN 開始就優(yōu)于傳統(tǒng)方法,并且重建圖像的主觀感受質(zhì)量也比傳統(tǒng)方法高。研究學(xué)者們不斷把新出現(xiàn)的CNN網(wǎng)絡(luò)結(jié)構(gòu)和設(shè)計(jì)策略應(yīng)用在SISR 領(lǐng)域,并進(jìn)行改進(jìn),以進(jìn)一步提高PSNR 和SSIM指標(biāo)值。但是重建圖像的主觀視覺感受質(zhì)量卻沒有得到同步提升,不能達(dá)到理想的效果。

    而基于GAN 網(wǎng)絡(luò)結(jié)構(gòu)的SISR 方法,盡管PSNR 和SSIM 客觀質(zhì)量評(píng)價(jià)值較低,卻可以生成主觀評(píng)價(jià)質(zhì)量高的HR圖像,這是由于GAN網(wǎng)絡(luò)模型方便結(jié)合感知損失函數(shù)。因此,近兩年來,基于GAN 網(wǎng)絡(luò)的SISR 方法迅速發(fā)展,并在解決實(shí)際問題中得到了應(yīng)用。隨著基于深度學(xué)習(xí)的SISR 技術(shù)越來越成熟和穩(wěn)定,研究人員希望超分辨重建能夠在視覺高層任務(wù)中得到更多的應(yīng)用。但目前仍存在一些問題,這也是未來的研究方向和發(fā)展趨勢(shì):

    (1)算法的效率?,F(xiàn)有方法雖然可以重建生成較高質(zhì)量的HR圖像,但是往往需要較長(zhǎng)的時(shí)間,特別是在縮放因子較大(×8和×16)的情況下。同時(shí),還需要占用很多的內(nèi)存資源完成模型的訓(xùn)練。為了能夠滿足實(shí)際應(yīng)用的需求,需要在保證重建質(zhì)量的前提下,進(jìn)一步優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),降低模型參數(shù)數(shù)量,對(duì)算法進(jìn)行輕量化改進(jìn),提高時(shí)間效率。

    (2)真實(shí)圖像超分辨。在真實(shí)的應(yīng)用場(chǎng)景中,圖像退化模型經(jīng)常是未知的,難以獲得匹配的LR-HR 圖像數(shù)據(jù)集進(jìn)行訓(xùn)練,直接進(jìn)行盲超分辨效果也不夠好。因此,可結(jié)合指定任務(wù)情景下的先驗(yàn)信息進(jìn)行無監(jiān)督的學(xué)習(xí),這將是亟待發(fā)展的研究方向。

    (3)重建結(jié)果評(píng)價(jià)。目前的重建結(jié)果評(píng)價(jià)指標(biāo)仍然以PSNR 和SSIM 為主,作為客觀評(píng)價(jià)指標(biāo)有時(shí)候不能準(zhǔn)確評(píng)估圖像的重建逼真程度,與人眼視覺的主觀感知有差異。而常用的主觀評(píng)價(jià)MOS 不能很方便地被使用,現(xiàn)在也有一些研究人員提出了新的評(píng)價(jià)指標(biāo),但是沒有受到廣泛的認(rèn)可。因此,急需進(jìn)一步找到更合適的圖像超分辨重建評(píng)價(jià)指標(biāo)體系。

    (4)合適的損失函數(shù)。損失函數(shù)在整個(gè)算法模型中其實(shí)也占據(jù)著很重要的地位,而目前對(duì)于SR任務(wù)而言,尚無明確的最合適的損失函數(shù)。現(xiàn)在使用最多的是多種損失函數(shù)的加權(quán)組合,目的是增強(qiáng)重建圖像的主觀感知程度,實(shí)際上這是SR 的根本目標(biāo)。損失函數(shù)決定了算法網(wǎng)絡(luò)模型學(xué)習(xí)的方向,而學(xué)習(xí)的目的是提高SR 的結(jié)果評(píng)價(jià)指數(shù)。因此,本文認(rèn)為,可以將評(píng)價(jià)指標(biāo)和損失函數(shù)結(jié)合進(jìn)行選擇,這也是未來的一個(gè)研究趨勢(shì)。

    猜你喜歡
    網(wǎng)絡(luò)結(jié)構(gòu)殘差損失
    基于雙向GRU與殘差擬合的車輛跟馳建模
    少問一句,損失千金
    胖胖損失了多少元
    基于殘差學(xué)習(xí)的自適應(yīng)無人機(jī)目標(biāo)跟蹤算法
    基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
    玉米抽穗前倒伏怎么辦?怎么減少損失?
    基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
    知識(shí)網(wǎng)絡(luò)結(jié)構(gòu)維對(duì)于創(chuàng)新績(jī)效的作用機(jī)制——遠(yuǎn)程創(chuàng)新搜尋的中介作用
    滬港通下A+ H股票網(wǎng)絡(luò)結(jié)構(gòu)演化的實(shí)證分析
    復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)比對(duì)算法研究進(jìn)展
    两个人的视频大全免费| 变态另类丝袜制服| 亚洲精华国产精华精| 夜夜夜夜夜久久久久| 九色国产91popny在线| 一个人看视频在线观看www免费| 麻豆久久精品国产亚洲av| 午夜a级毛片| or卡值多少钱| 久99久视频精品免费| 国产高清三级在线| 精品一区二区三区视频在线观看免费| 国产欧美日韩一区二区三| 日本a在线网址| 夜夜夜夜夜久久久久| 亚洲人成网站高清观看| 夜夜看夜夜爽夜夜摸| 国产不卡一卡二| 黄色视频,在线免费观看| 麻豆国产av国片精品| av黄色大香蕉| 欧美区成人在线视频| av欧美777| 国产伦人伦偷精品视频| 99热这里只有是精品在线观看 | 九色成人免费人妻av| 日韩欧美精品免费久久 | 在线免费观看的www视频| 欧美黑人巨大hd| 成年免费大片在线观看| a级一级毛片免费在线观看| 成人特级黄色片久久久久久久| 日本 av在线| 观看美女的网站| 51国产日韩欧美| 免费人成在线观看视频色| 亚洲人成网站在线播放欧美日韩| 一进一出好大好爽视频| 国产成人影院久久av| 日本三级黄在线观看| 人妻制服诱惑在线中文字幕| av欧美777| 成人午夜高清在线视频| 亚洲男人的天堂狠狠| 两性午夜刺激爽爽歪歪视频在线观看| 男人舔女人下体高潮全视频| 色精品久久人妻99蜜桃| 中文字幕人妻熟人妻熟丝袜美| 少妇高潮的动态图| 国产高清激情床上av| 69人妻影院| 性欧美人与动物交配| 日日摸夜夜添夜夜添av毛片 | 色综合站精品国产| 男人狂女人下面高潮的视频| 99久久九九国产精品国产免费| 人人妻人人澡欧美一区二区| 两个人视频免费观看高清| 国产精品伦人一区二区| 亚洲色图av天堂| 国产精品av视频在线免费观看| 制服丝袜大香蕉在线| 日本撒尿小便嘘嘘汇集6| 麻豆一二三区av精品| 色哟哟哟哟哟哟| 免费电影在线观看免费观看| 男插女下体视频免费在线播放| 久久人妻av系列| 在线观看免费视频日本深夜| 精品午夜福利在线看| 欧美成狂野欧美在线观看| 日本一本二区三区精品| 在线观看av片永久免费下载| 一二三四社区在线视频社区8| 久久久久九九精品影院| 欧美一级a爱片免费观看看| 精品一区二区三区视频在线观看免费| 丰满乱子伦码专区| 桃色一区二区三区在线观看| 黄色一级大片看看| 国产精品免费一区二区三区在线| 精品欧美国产一区二区三| 亚洲人成网站高清观看| 又粗又爽又猛毛片免费看| 欧美一区二区国产精品久久精品| 99久国产av精品| 日韩国内少妇激情av| ponron亚洲| 国产成人福利小说| 亚洲aⅴ乱码一区二区在线播放| 久久午夜亚洲精品久久| 97超级碰碰碰精品色视频在线观看| 色吧在线观看| 黄色视频,在线免费观看| 成人无遮挡网站| 亚洲人与动物交配视频| 非洲黑人性xxxx精品又粗又长| 国产中年淑女户外野战色| 国产单亲对白刺激| 亚洲国产精品久久男人天堂| 免费黄网站久久成人精品 | 一区二区三区高清视频在线| 日韩欧美一区二区三区在线观看| 国产精品爽爽va在线观看网站| 日本一二三区视频观看| 国产单亲对白刺激| 国产在线男女| 国产白丝娇喘喷水9色精品| 国产三级中文精品| 一区福利在线观看| 我要看日韩黄色一级片| 俺也久久电影网| 欧美日韩亚洲国产一区二区在线观看| 精品一区二区三区av网在线观看| 亚洲最大成人中文| 日韩欧美 国产精品| 国产主播在线观看一区二区| 久久久久久大精品| 久久精品国产99精品国产亚洲性色| 99国产精品一区二区三区| 欧美在线黄色| 午夜福利视频1000在线观看| 国产色婷婷99| 亚洲自拍偷在线| 一夜夜www| 亚洲久久久久久中文字幕| 婷婷精品国产亚洲av| 国产私拍福利视频在线观看| 在现免费观看毛片| 看片在线看免费视频| 亚洲精品在线观看二区| 毛片一级片免费看久久久久 | 国产伦精品一区二区三区四那| 此物有八面人人有两片| 啪啪无遮挡十八禁网站| 国产又黄又爽又无遮挡在线| 一进一出抽搐gif免费好疼| 国内少妇人妻偷人精品xxx网站| 五月玫瑰六月丁香| 一级av片app| .国产精品久久| 在线免费观看的www视频| 国产精品美女特级片免费视频播放器| 日本熟妇午夜| 亚洲av美国av| 免费看日本二区| 亚洲av五月六月丁香网| 亚州av有码| 午夜激情欧美在线| 国产成+人综合+亚洲专区| avwww免费| 男人的好看免费观看在线视频| 啦啦啦韩国在线观看视频| 国产精品久久久久久亚洲av鲁大| 夜夜爽天天搞| 欧美一级a爱片免费观看看| 婷婷精品国产亚洲av在线| 最近中文字幕高清免费大全6 | 国产精品电影一区二区三区| 日本 av在线| 麻豆成人午夜福利视频| 欧美日韩瑟瑟在线播放| 亚洲精品粉嫩美女一区| 亚洲一区高清亚洲精品| 人妻夜夜爽99麻豆av| 90打野战视频偷拍视频| 精品99又大又爽又粗少妇毛片 | 亚州av有码| 免费在线观看成人毛片| 一个人看的www免费观看视频| 美女黄网站色视频| 欧美3d第一页| 日本黄大片高清| 国产一区二区三区在线臀色熟女| 欧美中文日本在线观看视频| 精品一区二区三区人妻视频| 一个人观看的视频www高清免费观看| 亚洲一区高清亚洲精品| 国产一区二区三区视频了| 中文字幕熟女人妻在线| 午夜久久久久精精品| 日本免费一区二区三区高清不卡| 美女xxoo啪啪120秒动态图 | 日本免费a在线| 丰满人妻熟妇乱又伦精品不卡| 1000部很黄的大片| 免费搜索国产男女视频| 日日夜夜操网爽| 神马国产精品三级电影在线观看| 亚洲,欧美精品.| 亚洲av一区综合| 日本一二三区视频观看| 99久国产av精品| 中文字幕高清在线视频| 午夜福利高清视频| 亚洲熟妇熟女久久| 啪啪无遮挡十八禁网站| 午夜福利成人在线免费观看| 淫妇啪啪啪对白视频| 午夜精品一区二区三区免费看| 久久精品国产亚洲av涩爱 | 国产视频一区二区在线看| 国产乱人视频| 亚洲av.av天堂| 国产三级黄色录像| 亚洲欧美日韩高清专用| 精品一区二区三区av网在线观看| 激情在线观看视频在线高清| 成人三级黄色视频| 在线观看美女被高潮喷水网站 | 成人高潮视频无遮挡免费网站| 深夜a级毛片| 嫩草影院新地址| 成年免费大片在线观看| 免费av观看视频| 亚洲一区二区三区色噜噜| 久久久久久久久久黄片| 禁无遮挡网站| 看免费av毛片| 久久精品人妻少妇| 亚洲欧美日韩卡通动漫| 亚洲成av人片在线播放无| 精品国产三级普通话版| 桃色一区二区三区在线观看| 午夜福利高清视频| 18美女黄网站色大片免费观看| 免费人成在线观看视频色| 少妇丰满av| 简卡轻食公司| 精品不卡国产一区二区三区| 在线观看美女被高潮喷水网站 | 99久久精品热视频| 少妇人妻精品综合一区二区 | 观看美女的网站| 日本一本二区三区精品| 久久99热这里只有精品18| 国产美女午夜福利| 久久精品91蜜桃| 黄色女人牲交| 色视频www国产| 不卡一级毛片| 欧美xxxx黑人xx丫x性爽| 看黄色毛片网站| 精品久久久久久久久亚洲 | a级一级毛片免费在线观看| 久久人人精品亚洲av| 中国美女看黄片| 欧美日韩国产亚洲二区| 女生性感内裤真人,穿戴方法视频| 日本三级黄在线观看| 亚洲真实伦在线观看| 亚洲五月天丁香| 午夜免费男女啪啪视频观看 | www日本黄色视频网| 欧美在线一区亚洲| 国产色婷婷99| 色在线成人网| 日韩高清综合在线| 成年版毛片免费区| 超碰av人人做人人爽久久| 99热这里只有是精品50| 少妇丰满av| aaaaa片日本免费| 久久香蕉精品热| 日本a在线网址| 国产在线男女| 床上黄色一级片| 亚洲天堂国产精品一区在线| 久久婷婷人人爽人人干人人爱| 日本黄色片子视频| 身体一侧抽搐| 俺也久久电影网| 亚洲av成人av| av黄色大香蕉| 国产蜜桃级精品一区二区三区| 少妇人妻精品综合一区二区 | 精品免费久久久久久久清纯| 麻豆一二三区av精品| 黄片小视频在线播放| 一卡2卡三卡四卡精品乱码亚洲| 日本免费一区二区三区高清不卡| 久9热在线精品视频| 少妇高潮的动态图| 亚洲欧美日韩卡通动漫| 日韩国内少妇激情av| 亚洲无线在线观看| 国产精品电影一区二区三区| 他把我摸到了高潮在线观看| 日本在线视频免费播放| 搡女人真爽免费视频火全软件 | 欧美性感艳星| 99久久成人亚洲精品观看| 亚洲成人精品中文字幕电影| 亚洲成a人片在线一区二区| 国产极品精品免费视频能看的| 欧美成人a在线观看| 久久精品国产亚洲av涩爱 | 精品福利观看| 亚洲欧美日韩卡通动漫| 欧美日韩瑟瑟在线播放| 欧美性感艳星| 色5月婷婷丁香| 亚洲精品粉嫩美女一区| 窝窝影院91人妻| 亚洲,欧美精品.| 亚洲不卡免费看| 美女免费视频网站| 亚洲一区高清亚洲精品| 国产三级中文精品| 精品无人区乱码1区二区| 99久久久亚洲精品蜜臀av| 97热精品久久久久久| 国内精品一区二区在线观看| 日本免费a在线| 亚洲成av人片在线播放无| 国产一区二区激情短视频| 直男gayav资源| 欧美bdsm另类| 特大巨黑吊av在线直播| 成人三级黄色视频| 桃色一区二区三区在线观看| 91久久精品电影网| 国产淫片久久久久久久久 | 成人午夜高清在线视频| 99国产精品一区二区三区| 99国产综合亚洲精品| 日日夜夜操网爽| 天堂动漫精品| 一本精品99久久精品77| av欧美777| 如何舔出高潮| 18禁黄网站禁片免费观看直播| 国产成人aa在线观看| 永久网站在线| 18禁黄网站禁片免费观看直播| 很黄的视频免费| 熟女电影av网| 欧美乱妇无乱码| 夜夜看夜夜爽夜夜摸| 欧美xxxx黑人xx丫x性爽| 欧美不卡视频在线免费观看| 亚洲av熟女| 欧美+日韩+精品| 国产一区二区激情短视频| 免费在线观看日本一区| 成年女人永久免费观看视频| 看黄色毛片网站| 国产精品日韩av在线免费观看| 成人美女网站在线观看视频| 国产国拍精品亚洲av在线观看| 成人美女网站在线观看视频| 亚洲内射少妇av| 国产成人a区在线观看| 国产精品久久久久久精品电影| 人妻久久中文字幕网| 国产野战对白在线观看| 日本撒尿小便嘘嘘汇集6| 神马国产精品三级电影在线观看| 夜夜夜夜夜久久久久| av中文乱码字幕在线| 能在线免费观看的黄片| 久久久久亚洲av毛片大全| 国产精品美女特级片免费视频播放器| 亚洲av成人不卡在线观看播放网| 美女 人体艺术 gogo| 一进一出抽搐gif免费好疼| 99在线视频只有这里精品首页| 一区二区三区激情视频| 欧美乱妇无乱码| 国内精品美女久久久久久| 一本一本综合久久| 在线观看av片永久免费下载| 在线看三级毛片| 亚洲精品一区av在线观看| 国产亚洲精品久久久com| 女同久久另类99精品国产91| 俺也久久电影网| 一区二区三区激情视频| 精品一区二区三区视频在线| 91久久精品电影网| 亚洲国产色片| 国产乱人伦免费视频| 女生性感内裤真人,穿戴方法视频| 国产精品久久久久久久久免 | 亚洲成人精品中文字幕电影| 夜夜爽天天搞| 直男gayav资源| 欧美日本亚洲视频在线播放| 国产黄色小视频在线观看| 欧美中文日本在线观看视频| 日日摸夜夜添夜夜添av毛片 | 亚洲欧美日韩无卡精品| 久久九九热精品免费| 亚洲欧美日韩东京热| 国产亚洲欧美在线一区二区| 别揉我奶头 嗯啊视频| 日本与韩国留学比较| 亚洲av免费高清在线观看| 99久久九九国产精品国产免费| 我要看日韩黄色一级片| 级片在线观看| 久久人人精品亚洲av| 亚洲国产色片| 变态另类成人亚洲欧美熟女| or卡值多少钱| 夜夜躁狠狠躁天天躁| 亚洲美女视频黄频| 久久99热6这里只有精品| 欧美日韩黄片免| 久久久久久久精品吃奶| 窝窝影院91人妻| 宅男免费午夜| 亚洲第一欧美日韩一区二区三区| 色哟哟哟哟哟哟| 国模一区二区三区四区视频| 免费看光身美女| 成人特级av手机在线观看| 亚洲欧美日韩高清在线视频| 综合色av麻豆| 搞女人的毛片| 91久久精品国产一区二区成人| 成人精品一区二区免费| 天美传媒精品一区二区| 免费av不卡在线播放| 午夜福利视频1000在线观看| 亚洲 国产 在线| 色视频www国产| 少妇被粗大猛烈的视频| 久久国产精品人妻蜜桃| 在线免费观看的www视频| 欧美最黄视频在线播放免费| 国产精品日韩av在线免费观看| 韩国av一区二区三区四区| 亚洲最大成人av| 伊人久久精品亚洲午夜| 日韩高清综合在线| 日韩免费av在线播放| 夜夜夜夜夜久久久久| 久久精品国产自在天天线| 精品久久久久久久久久久久久| 丰满人妻一区二区三区视频av| 淫妇啪啪啪对白视频| 成人特级av手机在线观看| 欧美+日韩+精品| 男女视频在线观看网站免费| 国内精品美女久久久久久| 51国产日韩欧美| 精品人妻视频免费看| 日本三级黄在线观看| 亚洲自偷自拍三级| 国产亚洲精品av在线| 亚洲av熟女| 熟女电影av网| 美女 人体艺术 gogo| 97人妻精品一区二区三区麻豆| 精品日产1卡2卡| 我的女老师完整版在线观看| 赤兔流量卡办理| 欧美一区二区亚洲| 国产白丝娇喘喷水9色精品| 国产亚洲精品久久久com| 91字幕亚洲| 欧美3d第一页| 香蕉av资源在线| 日韩大尺度精品在线看网址| 嫩草影院精品99| 日本熟妇午夜| 青草久久国产| 最好的美女福利视频网| 高清在线国产一区| 九色成人免费人妻av| 无人区码免费观看不卡| 深夜a级毛片| 精品久久久久久久久久久久久| 天堂√8在线中文| 亚洲午夜理论影院| 亚洲五月天丁香| 一区二区三区高清视频在线| 免费看日本二区| 亚洲av.av天堂| 国产精品野战在线观看| 两个人视频免费观看高清| 全区人妻精品视频| 亚洲人与动物交配视频| 久久精品久久久久久噜噜老黄 | 亚洲中文字幕一区二区三区有码在线看| 欧美xxxx性猛交bbbb| 日韩成人在线观看一区二区三区| 亚洲天堂国产精品一区在线| 亚洲av电影在线进入| 国产精品乱码一区二三区的特点| 国产高清有码在线观看视频| 欧美日韩黄片免| 麻豆av噜噜一区二区三区| 国产免费av片在线观看野外av| 日日夜夜操网爽| 日本a在线网址| 欧美三级亚洲精品| 日本黄色片子视频| 国产精品免费一区二区三区在线| 在线播放无遮挡| 性插视频无遮挡在线免费观看| 两个人的视频大全免费| 99久国产av精品| 美女高潮喷水抽搐中文字幕| 色综合婷婷激情| 亚洲av一区综合| 午夜两性在线视频| 午夜激情欧美在线| 久久精品国产亚洲av香蕉五月| 亚洲欧美日韩高清在线视频| 性色av乱码一区二区三区2| 亚洲中文字幕日韩| 桃色一区二区三区在线观看| 宅男免费午夜| 国产欧美日韩精品一区二区| 日本免费a在线| 黄色日韩在线| 国产真实乱freesex| 亚洲成人中文字幕在线播放| 天堂影院成人在线观看| 亚洲av电影在线进入| 黄色日韩在线| 国产中年淑女户外野战色| 久久精品国产亚洲av香蕉五月| 男女那种视频在线观看| 亚洲性夜色夜夜综合| h日本视频在线播放| 国产精品美女特级片免费视频播放器| 午夜a级毛片| 日日摸夜夜添夜夜添小说| 69人妻影院| 三级国产精品欧美在线观看| 一级av片app| 亚洲18禁久久av| 国产伦一二天堂av在线观看| 俺也久久电影网| 午夜福利高清视频| 内地一区二区视频在线| 色哟哟·www| 欧美日韩瑟瑟在线播放| 精品熟女少妇八av免费久了| 搡女人真爽免费视频火全软件 | 午夜激情欧美在线| 色综合亚洲欧美另类图片| 国产亚洲精品综合一区在线观看| 精品久久久久久久末码| av中文乱码字幕在线| 久久人妻av系列| 欧美日韩乱码在线| 国产午夜福利久久久久久| 成年女人毛片免费观看观看9| 免费电影在线观看免费观看| 熟妇人妻久久中文字幕3abv| 国产亚洲av嫩草精品影院| 人人妻人人澡欧美一区二区| 久久久久久久亚洲中文字幕 | 日本黄色视频三级网站网址| 国产成人欧美在线观看| 国产欧美日韩精品亚洲av| 黄色一级大片看看| 51国产日韩欧美| 免费av毛片视频| 欧美日韩国产亚洲二区| 久久久色成人| 一区福利在线观看| 99久久99久久久精品蜜桃| 一本久久中文字幕| 美女免费视频网站| 国产欧美日韩精品一区二区| 国产精品久久视频播放| 国产野战对白在线观看| 日韩大尺度精品在线看网址| 一个人观看的视频www高清免费观看| 又粗又爽又猛毛片免费看| 日韩欧美国产在线观看| 国产伦人伦偷精品视频| 国产精品综合久久久久久久免费| 别揉我奶头 嗯啊视频| 欧美性猛交╳xxx乱大交人| 永久网站在线| 欧美另类亚洲清纯唯美| 成年女人永久免费观看视频| 国产老妇女一区| 久久草成人影院| 国产一区二区激情短视频| 欧美激情久久久久久爽电影| 欧美xxxx性猛交bbbb| 我的女老师完整版在线观看| 国产精品乱码一区二三区的特点| 国产美女午夜福利| 国产精品,欧美在线| 国产亚洲精品av在线| 国产精品嫩草影院av在线观看 | 免费电影在线观看免费观看| 亚洲va日本ⅴa欧美va伊人久久| 亚洲成人久久爱视频| 国产91精品成人一区二区三区| 好看av亚洲va欧美ⅴa在| 最近在线观看免费完整版| avwww免费| 亚洲无线观看免费| 国产精品嫩草影院av在线观看 | 变态另类丝袜制服| 久久国产精品影院| 老司机午夜福利在线观看视频| 国产国拍精品亚洲av在线观看| av天堂中文字幕网| 国产精品伦人一区二区| 久久久久久久午夜电影| 亚洲专区国产一区二区| 国产亚洲欧美98| 精品久久国产蜜桃| 日韩中文字幕欧美一区二区| 成人亚洲精品av一区二区|