王文卿 尚 卓 周智強(qiáng) 劉 涵
(1.西安理工大學(xué)自動(dòng)化與信息工程學(xué)院,陜西西安 710048;2.陜西省復(fù)雜系統(tǒng)控制與智能信息處理重點(diǎn)實(shí)驗(yàn)室,陜西西安 710048)
近十年來,光學(xué)遙感衛(wèi)星發(fā)展迅猛,捕獲的遙感影像數(shù)據(jù)呈幾何增長(zhǎng),在環(huán)境監(jiān)測(cè)、變化檢測(cè)和遙感圖像解譯等領(lǐng)域得到廣泛應(yīng)用。光學(xué)衛(wèi)星提供的遙感影像通常包含兩種類型:具有多個(gè)譜段的多光譜(MultiSpectral,MS)圖像和僅具有單個(gè)波段的全色(PANchromatic,PAN)圖像。多光譜圖像含有豐富的光譜信息,但空間分辨率低,細(xì)節(jié)信息模糊。與之相反,全色圖像具有較高空間分辨率,但光譜信息不足。然而,僅一類遙感數(shù)據(jù)很難滿足用戶對(duì)高空間分辨率和高光譜分辨率遙感圖像的需求。因此,結(jié)合兩者互補(bǔ)特性以獲得具有高空間分辨率的多光譜(High spatial resolution MultiSpectral,HMS)圖像成為遙感領(lǐng)域的一個(gè)熱點(diǎn)問題。經(jīng)過數(shù)十年發(fā)展,遙感圖像融合技術(shù)已非常成熟。基于不同的理論模型,遙感圖像融合算法主要分為以下四類[1-2]:分量替換(Component Substitution,CS)方法、多分辨率分析(Multi-Resolution Analysis,MRA)方法、基于模型的方法和基于深度學(xué)習(xí)的方法。
基于分量替換模型的常用算法有強(qiáng)度-色調(diào)-飽和度(Intensity-Hue-Saturation,IHS)變換方法、主成分分析法(Principal Component Analysis,PCA)、Gram-Schmid(tGS)變換方法等[3]。傳統(tǒng)CS 方法的融合策略如下:首先將上采樣至PAN 圖像相同尺寸的MS 圖像映射到一個(gè)新的特征空間,然后用直方圖匹配后的PAN 圖像替換上采樣MS圖像中代表空間信息的強(qiáng)度分量,最后通過逆變換得到HMS 圖像。該方法簡(jiǎn)單、快速、高效,但容易產(chǎn)生光譜失真。在CS算法中,基于IHS變換的方法是最早提出的經(jīng)典算法。傳統(tǒng)IHS方法僅考慮了MS圖像中紅、綠、藍(lán)三個(gè)波段與PAN 圖像的融合,產(chǎn)生的融合圖像光譜失真嚴(yán)重。為了解決這個(gè)問題,文獻(xiàn)[4]提出了適用于四波段多光譜圖像與全色圖像融合的廣義IHS(Generalized IHS,GIHS)方法,其中MS 圖像的每個(gè)譜段具有相同的權(quán)重。為了適用于不同類型的遙感數(shù)據(jù),文獻(xiàn)[5]提出了自適應(yīng)譜權(quán)重的IHS融合算法,利用多元回歸方法計(jì)算自適應(yīng)權(quán)重。針對(duì)分量替換方法容易產(chǎn)生光譜失真的問題,研究者提出從空間細(xì)節(jié)信息提取和空間細(xì)節(jié)信息注入兩方面進(jìn)行改進(jìn)。自適應(yīng)權(quán)重估計(jì)方法旨在獲取最優(yōu)的空間細(xì)節(jié)信息。然而,僅僅通過改善提取細(xì)節(jié)的方法并不能完全消除MS圖像與PAN 圖像的不適應(yīng)區(qū)域。為解決該問題,文獻(xiàn)[6]提出了基于統(tǒng)計(jì)比率的高頻細(xì)節(jié)注入模型,通過部分替代的方式實(shí)現(xiàn)細(xì)節(jié)的有效注入,提高了融合圖像質(zhì)量。文獻(xiàn)[7]中結(jié)合傳統(tǒng)IHS變換與非下采樣輪廓波變換,利用Gamma 校正和相關(guān)性分析,實(shí)現(xiàn)細(xì)節(jié)的有效注入,最終獲得高質(zhì)量融合圖像。
基于多分辨率分析的典型算法有非抽樣小波變換(UnDecimated Wavelet Transform,UDWT)[8]、“à trous”小波變換(“à trous”Wavelet Transform,ATWT)[9]、抽樣小波變換(Decimated Wavelet Transform,DWT)[10]、拉普拉斯金字塔(Laplacian Pyramid,LP)[11]等。這類方法通過提取PAN圖像的高頻信息并將其注入到上采樣MS 圖像中以構(gòu)建HMS 圖像。多分辨率分析方法獲得的融合圖像相比于CS 方法具有更好的光譜信息,但容易產(chǎn)生空間失真。
基于模型的方法是通過構(gòu)建描述低分辨率MS(Low resolution MS,LMS)圖像、PAN 圖像與HMS 圖像間關(guān)系模型的目標(biāo)函數(shù),然后利用優(yōu)化方法獲得HMS 圖像。然而,僅依賴譜保真模型和空間增強(qiáng)模型所得獲得的HMS 圖像質(zhì)量并不高。為了提升融合圖像的質(zhì)量,研究者提出了許多先驗(yàn)?zāi)P蛠砑s束HMS 圖像質(zhì)量,如拉普拉斯先驗(yàn)[12]、非局部先驗(yàn)[13]和低秩先驗(yàn)[14]等。近年來,稀疏表示理論被廣泛應(yīng)用到遙感圖像融合,成為基于模型方法的代表性算法之一。文獻(xiàn)[15]首次提出了基于稀疏表示和壓縮感知的遙感圖像融合方法。在此基礎(chǔ)上,結(jié)合不同稀疏模型,相繼提出了基于字典學(xué)習(xí)的遙感圖像融合方法[16-18]?;谀P偷姆椒苡行岣呷诤蠄D像的空譜保真度,但該類方法計(jì)算量大,復(fù)雜度高。
隨著深度學(xué)習(xí)技術(shù)的迅猛發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convoluational Neural Network,CNN)被應(yīng)用到遙感圖像融合。受到基于CNN 的圖像超分辨率方法[19]的啟發(fā),文獻(xiàn)[20]提出了一種基于CNN 的全銳化(Pansharpening with CNN,PNN)方法,該方法采用了簡(jiǎn)單有效的三層網(wǎng)絡(luò)結(jié)構(gòu)。文獻(xiàn)[21]提出了稱為PanNet的深度網(wǎng)絡(luò)結(jié)構(gòu),其通過充分考慮如何更好地保存空間信息和光譜信息來設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)。文獻(xiàn)[22]在PNN 方法基礎(chǔ)上,采用了L1 損失函數(shù)、殘差網(wǎng)絡(luò)和更深的網(wǎng)絡(luò)結(jié)構(gòu),提出了目標(biāo)自適應(yīng)全色銳化網(wǎng)絡(luò)。文獻(xiàn)[23]提出了一種雙流融合網(wǎng)絡(luò),其設(shè)計(jì)了特征提取網(wǎng)絡(luò)、融合網(wǎng)絡(luò)和重構(gòu)網(wǎng)絡(luò)?;贑NN 方法的融合圖像具有很好的空譜質(zhì)量,但此類方法需要大量訓(xùn)練樣本、模型對(duì)不同遙感數(shù)據(jù)的泛化能力差。
針對(duì)分量替換方法的光譜失真問題,本文提出了一種基于聯(lián)合卷積分析與合成(Joint Convolutional Analysis and Synthetic,JCAS)[24]稀疏表示的改進(jìn)融合算法。首先通過JCAS 算法對(duì)強(qiáng)度分量和均衡化PAN 圖像進(jìn)行分解,接著對(duì)分解后的基礎(chǔ)層和細(xì)節(jié)層分別進(jìn)行平均和取大處理。將融合后的基礎(chǔ)層和細(xì)節(jié)層進(jìn)行求和并與強(qiáng)度分量進(jìn)行相減以獲得第一幅空間細(xì)節(jié)圖。第二幅空間細(xì)節(jié)圖為直方圖匹配后的PAN 圖像與強(qiáng)度分量的差。為更好地利用這兩部分細(xì)節(jié)信息,將強(qiáng)度分量與PAN 圖像的相關(guān)系數(shù)作為權(quán)重對(duì)兩部分細(xì)節(jié)信息的注入進(jìn)行調(diào)整,以獲得具有更高質(zhì)量的融合圖像。相比傳統(tǒng)的分量替換算法,本文算法能夠有效減小融合圖像的光譜失真,同時(shí)具有較為清晰的空間結(jié)構(gòu)。在定量指標(biāo)評(píng)價(jià)上本文算法也優(yōu)于對(duì)比算法。
分量替換法的通用模型如下:
其中k為MS 圖像的波段數(shù)是上采樣至與PAN圖像相同尺寸的MS 圖像,P為PAN 圖像與強(qiáng)度分量I經(jīng)過直方圖匹配之后的圖像,gk為細(xì)節(jié)注入系數(shù),決定注入細(xì)節(jié)信息的多少為融合圖像。
Gu 等人在文獻(xiàn)[24]中提出了JCAS 算法,旨在實(shí)現(xiàn)單一圖像層分離。該算法利用了分析稀疏表示(Analysis Sparse Representation,ASR)與合成稀疏表示(Synthesis Sparse Representation,SSR)的互補(bǔ)機(jī)制。此外,該算法采用了卷積實(shí)現(xiàn),可以有效的利用圖像的全局信息。通過JCAS 算法可將單幅圖像分解為具有大尺度結(jié)構(gòu)的基礎(chǔ)層和具有精細(xì)尺度紋理的細(xì)節(jié)層。一般情況下,給定一個(gè)輸入圖像,圖像分離方法將其分解成兩個(gè)分量U和V,即:
其中V和U分別表示細(xì)節(jié)層和基礎(chǔ)層。
分析稀疏表示采用卷積方式來描述圖像的稀疏先驗(yàn)。給定噪聲圖像Y,可以通過求解式(3)恢復(fù)清晰圖像X:
其中||*||F表示F 范數(shù),?表示卷積運(yùn)算,Ri(fA,i?X)是懲罰函數(shù),通過對(duì)分析系數(shù)正則化來增強(qiáng)潛在圖像的先驗(yàn)知識(shí)。
合成稀疏表示的基本思想是通過盡可能少的非零系數(shù)來描述信號(hào)的主要信息,進(jìn)而簡(jiǎn)化信號(hào)處理過程,其基本模型如下:
其中:y和x分別表示從輸入圖像和目標(biāo)圖像中提取的矢量化圖像塊;R(αs)表示合成系數(shù)的正則化項(xiàng),用來表征合成系數(shù)的稀疏性。D為稀疏字典。此外,除了基于圖像塊實(shí)現(xiàn)的SSR 模型外,文獻(xiàn)[25]提出了卷積稀疏編碼方法。
ASR 和SSR 模型均利用了圖像的稀疏先驗(yàn),但它們具有不同的表示機(jī)制,因此在不同領(lǐng)域具有不同優(yōu)勢(shì)。JCAS算法結(jié)合了ASR和SSR模型的優(yōu)點(diǎn),可通過求解以下目標(biāo)函數(shù)實(shí)現(xiàn)圖像分離:
其中||*||1表示?1范數(shù);λ和γ表示正則化參數(shù);{fA,i}i=1,…,M表示分析字典。SSR 分量被表示為V=表示合成字典,Zj是對(duì)應(yīng)系數(shù)圖?!琭A,i?U‖1表示分量U的稀疏先驗(yàn)。
在JCAS 算法中,采用簡(jiǎn)單梯度算子作為分析字典。對(duì)于合成字典,采用從輸入圖像本身學(xué)習(xí)卷積合成字典的策略。對(duì)于式(5)是一個(gè)待優(yōu)化的變量。通過矩陣乘法方式重寫卷積,并對(duì)濾波器的界限加以約束,可將JCAS 算法的目標(biāo)函數(shù)重寫成如下形式:
其中,y、u和zj分別是Y、U和Zj的矢量化表示;FA,i和FS,i分別是濾波器fA,i和fS,i的循環(huán)塊矩陣。采用變量交替更新的方式,可通過子問題(7)、(8)和(9)依次求得u、zj和fS。
式(7)和(8)是一個(gè)標(biāo)準(zhǔn)卷積稀疏編碼問題,可利用文獻(xiàn)[26]中的ADMM 方法進(jìn)行求解,并結(jié)合快速傅里葉變換來提高計(jì)算效率。式(9)中,定義(fS,j?Zj)=FS,jzj=ΨfS,其中fS是所有濾波器的矢量化表示;Ψ=[Ψ1,…,Ψj,…,ΨN],Ψj是從Zj中得到的補(bǔ)丁塊。采用[27]中的近端梯度下降方法可實(shí)現(xiàn)(9)的求解。
分量替換方法中細(xì)節(jié)信息提取和注入是影響融合圖像質(zhì)量的關(guān)鍵步驟。針對(duì)分量替換方法中光譜失真嚴(yán)重的問題,本文提出了一種基于JCAS算法的改進(jìn)空間細(xì)節(jié)提取的遙感圖像融合方法,算法框架如圖1所示。整個(gè)融合過程具體步驟如下:
1)獲取上采樣MS 圖像的強(qiáng)度分量I。傳統(tǒng)IHS 算法中,只考慮利用MS 圖像中的B、G、R 三個(gè)通道的光譜信息,而NIR 通道的信息并沒有得到利用,使得IHS 算法獲得的融合圖像具有明顯光譜失真。為得到更準(zhǔn)確的I分量,采用文獻(xiàn)[5]中的多元回歸模型,可獲得MS 圖像各個(gè)波段的最優(yōu)權(quán)重。強(qiáng)度分量I可通過下式獲得:
其中ωi為權(quán)重系數(shù)分別表示上采樣MS圖像的藍(lán)(B)、綠(G)、紅(R)和近紅外(NIR)譜段;ξ表示偏移量常數(shù)。
2)采用JCAS算法對(duì)I和P進(jìn)行分解。首先,對(duì)強(qiáng)度分量I和PAN 圖像進(jìn)行均衡化處理,得到直方圖匹配后的全色圖像P,保證它們具有相同的均值信息,從而減小在融合過程中產(chǎn)生的光譜失真。假設(shè)強(qiáng)度分量I和全色圖像P均由基礎(chǔ)層和細(xì)節(jié)層構(gòu)成,其可寫成如下形式:
其中,Ib和Pb分別表示強(qiáng)度分量I和全色圖像P的基礎(chǔ)層圖像;Id和Pd分別表示強(qiáng)度分量I和全色圖像P的細(xì)節(jié)層圖像。通過求解式(13)和(14)可得到最優(yōu)的基礎(chǔ)層Ib和Pb。
3)兩幅細(xì)節(jié)圖像獲取?;A(chǔ)層保留了圖像的大部分信息。為了盡可能地保留信息,對(duì)Ib和Pb進(jìn)行加權(quán)平均得到圖像Fb=0.5 ×(Pb+Ib)。由于過多細(xì)節(jié)注入會(huì)造成光譜失真,過少細(xì)節(jié)注入會(huì)造成空間細(xì)節(jié)信息損失,因此采用Fd=MAX(Pd,Id)的方式得到Fd。然后,將Fb和Fd相加得到高分辨率圖像FI。將高分辨率圖像FI與I分量相減獲得第一幅細(xì)節(jié)圖像D1,即:
傳統(tǒng)CS 方法利用P與I分量的差作為細(xì)節(jié)信息注入到中以獲得融合圖像。為了彌補(bǔ)第一幅細(xì)節(jié)圖像部分信息缺失的問題,利用式(16)構(gòu)建了第二幅細(xì)節(jié)圖像。
其中a用來調(diào)節(jié)D1和D2在最終細(xì)節(jié)圖的占比。a的值設(shè)定為I與DI的相關(guān)系數(shù),如下所示:
本文在GeoEye-1 和QuickBird 數(shù)據(jù)集中選取多組遙感圖像進(jìn)行了算法性能測(cè)試。GeoEye-1 衛(wèi)星提供了2 m 空間分辨率MS 圖像和0.5 m 空間分辨率PAN 圖像。QuickBird 衛(wèi)星提供了2.4 m 空間分辨率MS 圖像和0.6 m 空間分辨率PAN 圖像。所提供圖像數(shù)據(jù)場(chǎng)景涉及城區(qū)、山脈、河流等,其中MS圖像包含四個(gè)波段:B、G、R 和NIR。實(shí)驗(yàn)環(huán)境平臺(tái)為:Intel(R)core(TM)i7-10700 @2.90 GHz,RAM 16.0GB,MATLAB 2018b。
評(píng)價(jià)融合圖像質(zhì)量的方式有兩種:主觀分析法和客觀分析法。主觀分析法通過人眼觀察融合圖像的光譜信息與空間結(jié)構(gòu),憑借主觀感受來評(píng)價(jià)融合圖像質(zhì)量。該評(píng)價(jià)方法過分依賴人類視覺系統(tǒng)對(duì)圖像質(zhì)量的感知,可重復(fù)性差。因此,許多客觀評(píng)價(jià)算法被提出。對(duì)于真實(shí)遙感圖像數(shù)據(jù),參考圖像很難獲取,所以本文采用無參考質(zhì)量(Quality with No Reference,QNR)評(píng)價(jià)方法[28]。QNR評(píng)價(jià)指標(biāo)由兩個(gè)指標(biāo)構(gòu)成,分別是空間失真指標(biāo)Ds和光譜失真指標(biāo)Dλ。Ds、Dλ和QNR的理想值分別為0、0、1。
本文方法JCAS 分解過程中,ASR 模型分析字典的參數(shù)M設(shè)置為7,SSR模型合成字典中N的大小設(shè)置為7。JCAS 算法中,正則參數(shù)λ和γ對(duì)算法性能具有顯著影響。為了能夠選擇最優(yōu)的正則參數(shù),本文探討了正則參數(shù)對(duì)算法性能的影響。圖2顯示了不同正則參數(shù)λ和γ對(duì)本文算法性能影響變化曲面圖,其中Ds、Dλ越接近0越優(yōu),QNR越接近1越優(yōu)。實(shí)驗(yàn)中,λ和γ的取值范圍為0.01、0.1、1、10、100、1000。從圖2 中可以看出,當(dāng)λ和γ的取值在0.01~10范圍內(nèi),本文算法的性能較優(yōu)。在接下來的實(shí)驗(yàn)中,λ和γ分別設(shè)定為10和1。
為驗(yàn)證本文方法的有效性,選取7 種具有代表性的融合方法作為對(duì)比算法,如:GS、PCA、基于霧度校正的加性小波亮度比例方法(Additive Wavelet Luminance Proportion with Haze correction,AWLPH[29]、基于部分置換的自適應(yīng)分量替換方法(Partial Replacement-based Adaptive Component Substitution,PRACS)[6]、波段相關(guān)空間細(xì)節(jié)(Band-Dependent Spatial-Detail,BDSD)方法[30],RBDSD(Robust Band-Dependent Spatial-Detail)[31]和基于調(diào)制傳遞函數(shù)匹配濾波器與高通調(diào)制注入模型的廣義拉普拉斯金字塔方法(GLP with MTF-matched filter and High-Pass Modulation injection model,MTF-GLP-HPM)[32]。在GeoEye-1 和QuickBird 真實(shí)數(shù)據(jù)集上分別對(duì)本文算法和比較算法進(jìn)行了性能驗(yàn)證。實(shí)驗(yàn)中采用的PAN圖像大小為256×256,MS 圖像的大小為64×64×4。實(shí)驗(yàn)采用4.1節(jié)介紹的無參考評(píng)價(jià)指標(biāo)對(duì)融合圖像質(zhì)量進(jìn)行評(píng)估。
在第一組GeoEye-1 圖像上各種對(duì)比算法的融合結(jié)果如圖3 所示。圖3 中,(a)和(b)分別為上采樣MS 圖像和原始PAN 圖像。圖3(c)為BDSD 算法的融合結(jié)果,可以看出其具有清晰的空間細(xì)節(jié)和較好的光譜保真度。圖3(d)和(e)分別為GS 和AWLP-H 算法的融合結(jié)果。AWLP-H 方法的融合圖像具有較好的空間和光譜質(zhì)量,但GS 方法融合圖像具有一定光譜失真。圖3(f)所示為PCA 算法的融合結(jié)果,其空間分辨率較高,但整體光譜失真嚴(yán)重。圖3(g)和(h)分別為RBDSD 和MTF-GLP-HFM算法得到的融合圖像。從圖中可以看出,RBDSD 方法融合圖像空間細(xì)節(jié)信息清晰,顏色自然。MTFGLP-HFM方法的融合圖像空間分辨率較高,但其局部區(qū)域呈現(xiàn)非自然顏色。圖3(i)所示為PRACS 算法的融合結(jié)果,其植被色彩較為自然,但空間細(xì)節(jié)有輕微模糊。本文算法融合結(jié)果如圖3(j)所示,與其他對(duì)比算法的融合結(jié)果相比,該圖像空間細(xì)節(jié)有少許模糊,但光譜特征較自然。
表1 給出了圖3 中各種算法融合圖像的客觀評(píng)價(jià)指標(biāo)數(shù)值結(jié)果,其中最優(yōu)值標(biāo)記為粗體,次優(yōu)值用下劃線標(biāo)記。從表1 中可以看出,本文算法提供了最優(yōu)的Dλ指標(biāo)值,GS算法提供了次優(yōu)Dλ指標(biāo)值。在空間失真指標(biāo)Ds方面,BDSD 算法的結(jié)果最優(yōu),RBDSD 算法提供了次優(yōu)的結(jié)果。在QNR 指標(biāo)上,本文算法的提供了最好的指標(biāo)值,GS算法獲得了次優(yōu)的指標(biāo)值。
表1 第一組GeoEye-1融合圖像的客觀評(píng)價(jià)指標(biāo)Tab.1 The objective evaluation indexes of the first set of GeoEye-1 fusion results
圖4 所示為第二組GeoEye-1 衛(wèi)星數(shù)據(jù)的各種對(duì)比算法融合結(jié)果圖。圖4(a)和(b)分別為上采樣MS 圖像和原始PAN 圖像。圖4(c)為BDSD 算法的融合結(jié)果,具有清晰的空間細(xì)節(jié)和豐富的光譜特征信息。圖4(d)和(e)分別為GS和AWLP-H算法的融合結(jié)果,它們的空間分辨率較高,但GS 算法的融合結(jié)果有些許光譜失真。兩者對(duì)比來看,前者的房屋顏色相對(duì)較淺,AWLP-H 算法在植被區(qū)域的飽和度較好。圖4(f)為PCA 方法的融合結(jié)果,其空間分辨率較低,細(xì)節(jié)信息模糊。圖4(g)和(h)分別為RBDSD和MTF-GLP-HPM 算法獲得的融合結(jié)果,空間細(xì)節(jié)較為清晰。但MTF-GLP-HPM 方法的融合圖像整體顏色偏淡,RBDSD 的融合圖像光譜信息較豐富。圖4(i)為PRACS算法的融合結(jié)果,其空間細(xì)節(jié)模糊,但光譜特征較好。本文算法融合結(jié)果如圖4(j)所示,與其他算法融合結(jié)果相比,其空間細(xì)節(jié)清晰,色彩與上采樣MS圖像相比更為接近,飽和度較高。
表2 給出了圖4 所示融合圖像的客觀評(píng)價(jià)指標(biāo)數(shù)值結(jié)果,其中最優(yōu)結(jié)果標(biāo)記為粗體,次優(yōu)結(jié)果用下劃線標(biāo)記。從表2 中可以看出,本文算法提供了最優(yōu)的Dλ和QNR 數(shù)值結(jié)果,BDSD 提供了最優(yōu)的Ds數(shù)值結(jié)果。RBDSD 提供了次最優(yōu)的Ds和QNR 數(shù)值結(jié)果,GS提供了次最優(yōu)的Dλ數(shù)值結(jié)果。
表2 第二組GeoEye-1融合圖像的客觀評(píng)價(jià)指標(biāo)Tab.2 The objective evaluation indexes of the second set of GeoEye-1 fusion results
圖5 所示為第一組QuickBird 圖像上各種算法的融合結(jié)果。圖5(a)和(b)分別為上采樣MS 圖像和原始PAN 圖像。圖5(c)為BDSD 算法的融合結(jié)果,可以看出其具有清晰的空間細(xì)節(jié)和較好的光譜特征。圖5(d)和(e)分別為GS 和AWLP-H 算法的融合結(jié)果。GS 算法融合圖像具有很高的空間分辨率,但整體光譜失真嚴(yán)重,植被顏色相對(duì)較淺。AWLP-H 方法的融合結(jié)果具有豐富的光譜信息,但圖像整體上模糊。圖5(f)為PCA 算法的融合結(jié)果,其空間分辨率較高,主觀性較好,但光譜特征較差。圖5(g)和(h)分別為RBDSD 和MTF-GLP-HPM 算法獲得的融合結(jié)果。它們具有較為清晰的空間細(xì)節(jié)和較為自然的顏色特征。相比之下后者的植被和房屋的光譜信息更好。圖5(i)為PRACS 算法的融合結(jié)果,其空間信息的保留度較高。本文算法的融合結(jié)果如圖5(j)所示,相較與其他對(duì)比算法的融合結(jié)果,其具有清晰的空間細(xì)節(jié)信息,顏色與上采樣MS圖像的顏色更為接近,色彩飽和度較高。
表3 給出了圖5 所示融合圖像的客觀評(píng)價(jià)指標(biāo)數(shù)值結(jié)果,其中最優(yōu)結(jié)果標(biāo)記為粗體,次優(yōu)結(jié)果用下劃線標(biāo)記。從表3 中可以看出,本文算法提供了最優(yōu)的Dλ數(shù)值結(jié)果,AWLP-H 算法給出次最優(yōu)Dλ數(shù)值結(jié)果。在Ds指標(biāo)上,AWLP-H 算法給出了最佳數(shù)值結(jié)果,PRACS 算法給出次最優(yōu)數(shù)值結(jié)果。在QNR 指標(biāo)上,AWLP-H 算法最優(yōu),本文算法為次優(yōu)。
表3 第一組QuickBird融合圖像的客觀評(píng)價(jià)指標(biāo)Tab.3 The objective evaluation indexes of the first set of QuickBird fusion results
對(duì)于第二組QuickBird 衛(wèi)星數(shù)據(jù)圖像,各種算法產(chǎn)生的融合圖像如圖6 所示。圖6(a)和(b)分別為上采樣MS 圖像和原始PAN 圖像。圖6(c)為BDSD 算法的融合結(jié)果,具有清晰的空間細(xì)節(jié)和較好的顏色特征。圖6(d)和(e)分別為GS 和AWLPH 算法的融合結(jié)果,它們的空間分辨率較高。AWLP-H 方法融合圖像的光譜信息更接近原始多光譜圖像,GS 方法融合圖像具有輕微的光譜失真。圖6(f)為PCA 算法的融合結(jié)果,其空間分辨率較高,但光譜信息丟失較多,尤其是建筑物房頂顏色失真嚴(yán)重。圖6(g)和(h)分別為RBDSD 和MTFGLP-HPM 算法的融合結(jié)果,它們的空間細(xì)節(jié)良好,但前者的光譜信息更為豐富。圖6(i)為PRACS 算法的融合結(jié)果,其空間分辨率較高,但街道區(qū)域顏色偏深。本文算法融合結(jié)果如圖6(j)所示,相較于其他對(duì)比算法的融合結(jié)果,其具有較好的空間和光譜質(zhì)量。
表4 給出了圖6 所示融合圖像的客觀評(píng)價(jià)指標(biāo),其中最優(yōu)數(shù)值標(biāo)記為粗體,次優(yōu)數(shù)值用下劃線標(biāo)記。從表4 中可以看出,本文算法給出了最優(yōu)的Dλ、Ds和QNR數(shù)值結(jié)果。此外,MTF-GLP-HPM算法給出了次最優(yōu)Ds值,PCA 算法給出了次最優(yōu)Dλ值,BDSD算法給出了次最優(yōu)QNR值。
表4 第二組QuickBird融合圖像的客觀評(píng)價(jià)指標(biāo)Tab.4 The objective evaluation indexes of the second set of QuickBird fusion results
綜合以上四組實(shí)驗(yàn)數(shù)據(jù)的主客觀評(píng)價(jià)結(jié)果表明,與其他7種對(duì)比算法相比,本文算法的融合性能更為優(yōu)越。
本文針對(duì)遙感圖像融合中MS 與PAN 圖像光譜不匹配引起的失真問題,提出了一種基于聯(lián)合卷積分析與合成稀疏表示的改進(jìn)分量替換融合方法。本文方法改進(jìn)了分量替換融合過程中空間細(xì)節(jié)提取和注入策略,有效地提升了融合算法性能。本文方法在GeoEye-1 和QuickBird 數(shù)據(jù)集上進(jìn)行了測(cè)試。實(shí)驗(yàn)結(jié)果表明,該方法獲得的融合結(jié)果主觀評(píng)價(jià)較好,客觀評(píng)價(jià)也是綜合最優(yōu)的。因此,本文方法可更好地消除細(xì)節(jié)信息過度注入引起的光譜失真問題,提高融合性能。
本文方法采用的JCAS 算法采用卷積操作,使得算法的時(shí)間復(fù)雜度較高。在未來的工作中,將研究更加有效的稀疏表示方法來進(jìn)一步改進(jìn)算法性能。此外,融合規(guī)則對(duì)融合質(zhì)量起著至關(guān)重要的作用。本文所采用的融合規(guī)則相對(duì)簡(jiǎn)單,因此設(shè)計(jì)出更優(yōu)的融合規(guī)則,以獲得更好的融合結(jié)果也是未來的研究重點(diǎn)。