基于冗余小波變換的灰度多聚焦圖像融合方法
董佳鵬,何建忠
(上海理工大學(xué) 光電信息與計(jì)算機(jī)學(xué)院,上海200093)
摘要為彌補(bǔ)Mallat算法正交變換的缺陷以及獲得更為有效的圖像融合方法。文中給出了一種基于冗余小波變換的灰度多聚焦圖像融合算法進(jìn)行圖像融合,選取不同焦點(diǎn)的灰度源圖進(jìn)行冗余小波變換。根據(jù)高低頻系數(shù)特點(diǎn),分別引入?yún)^(qū)域向量范數(shù)和局部對比度的概念,構(gòu)建新的融合規(guī)則的算法。實(shí)驗(yàn)證明與其他融合算法相比文中算法具有更好的有效性與準(zhǔn)確性。
關(guān)鍵詞圖像融合;冗余小波變換;多聚焦;區(qū)域向量范數(shù);局部對比
收稿日期:2015-05-07
作者簡介:董佳鵬(1991—),男,碩士研究生。研究方向:計(jì)算機(jī)模式識別圖像處理。E-mail:814805205@qq.com
doi:10.16180/j.cnki.issn1007-7820.2015.12.027
中圖分類號TP391.41文獻(xiàn)標(biāo)識碼A
Gray Multi-Focus Image Fusion Based on Redundant Wavelet Transform
DONG Jiapeng,HE Jianzhong
(School of Optical-Electrical and Computer Engineering,University of Shanghai for
Science and Technology,Shanghai 200093,China)
AbstractThis paper presents a gray multi-focus image fusion algorithm based on redundant wavelet transform for more efficient image fusion.Different focus gray source images are selected for redundant wavelet transform.The concepts of regional and local contrast vector norm of the construction of new fusion rules of arithmetic are introduced according to the characteristics of frequency coefficients respectively.Experiments show that the proposed method offers better efficiency and accuracy than other fusion algorithms.
Keywordsimage fusion;redundant wavelet transform;multi-focus;regional vector norm;local contrast
圖像融合是一項(xiàng)采集多渠道屬于統(tǒng)一目標(biāo)圖像數(shù)據(jù)的綜合處理技術(shù),其目的是為了綜合同一場景下的多個圖像信息,使獲得的結(jié)果成為更適合人與計(jì)算機(jī)視覺的一幅圖像,或者使之成為滿足更進(jìn)一步處理需求的圖像[1]。近年來,對于小波理論的研究日趨成熟,而時頻局部分析特性也使得小波變換在信號處理與數(shù)值計(jì)算方面得到了廣泛應(yīng)用。小波變換可對圖像進(jìn)行多分辨、多尺度分解,獲得不同尺度層的高低頻子圖像。為解決基于Mallat算法正交小波變換在不變性方面和分解與重構(gòu)圖像過程中的缺陷,1994年,Sweledens.W等人提出一種基于提升機(jī)制的小波變換方法[2]。Bijaioui、Starck和Mutragh隨后提出了一種具有移不變特性的離散小波算法[3]。本文提出一種基于冗余小波變換的多聚焦圖像融合方法,運(yùn)用à trous算法將圖像源進(jìn)行J級冗余分解,引入新型的高低頻小波系數(shù)融合規(guī)則進(jìn)行融合,對所得圖像進(jìn)行冗余逆變換重構(gòu)融合圖像,實(shí)驗(yàn)證明本文方法具有更好的圖像融合效果。
1冗余小波變換
冗余小波變換(Redundant Wavelet Transform,RWT)也稱為加性小波變換(Additive Wavelet Transform)[4],是一種在相鄰尺度上的分解結(jié)果間具有冗余的小波變換。RWT基于à trous算法,其基本思想為:把信號或圖像的高低頻信息分離,將其分解為不同頻率通道上的近似信號和小波面。à trous算法可看成是針對圖像濾波選取合適卷積核的過程。源圖在進(jìn)行J級分解后會得到一個相似平面和J個小波平面組成的圖像序列{aJ(l),w1(l),w2(l),…,wJ(l)}具體的分解過程如下
(1)
式中,l表示源圖;H為低通濾波器;ai(l)為l的第i級相似平面;wi(l)為l的第i級小波平面。由上述分解過程可得出,重構(gòu)過程如式(2)所示。
(2)
2冗余小波多聚焦圖像融合
2.1多聚焦圖像融合
在光學(xué)成像中,圖像成像在聚焦平面則清晰,成像在非聚焦平面則模糊。在圖像拍攝過程中由于聚焦點(diǎn)的差異,會造成圖像出現(xiàn)清晰區(qū)域和模糊區(qū)域的區(qū)別。成像系統(tǒng)在分辨率上的不斷提升,仍無法避免光學(xué)鏡頭在有限聚焦范圍對成像的整體影響。多聚焦圖像融合的目的在于將不同圖像中表征的清晰區(qū)域融合為一幅圖像,同時避免引入虛假信息造成失真。清晰圖像的高頻系數(shù)要遠(yuǎn)大于模糊圖像的高頻系數(shù)[5]。基于此故可將多聚焦圖像相應(yīng)像素內(nèi)的高頻信息作為聚焦區(qū)域和離焦區(qū)域的判斷依據(jù)[6]。結(jié)合多聚焦的圖像成像機(jī)理,本文提出一種基于冗余小波變換的多聚焦圖像融合算法。
2.2基于冗余小波變換的圖像融合框架
如圖1所示為基于冗余小波變換的融合框架,利用冗余小波變換對源圖進(jìn)行J級分解,可得到每幅對圖像對應(yīng)的一組分解圖像序列{aJ(l),w1(l),w2(l),…,wJ(l)}與源圖像相比,所得序列中每個元素圖像尺寸都與源圖像保持一致。包含源圖像的空間低頻信息以及原圖像的空間特征或細(xì)節(jié)在一定尺度上的體現(xiàn),由相似平面aJ和小波平面wJ經(jīng)融合后得到新的融合序列,將融合序列進(jìn)行重構(gòu),最終得到融合圖像lL。具體可分為以下幾個步驟:
(1)對源圖A、B分別進(jìn)行J級冗余小波分解,獲得對應(yīng)相似平面系數(shù)和小波面系數(shù)。
(2)分別利用對用的融合規(guī)則對低頻近似平面系數(shù)及高頻小波面系數(shù)進(jìn)行融合,所得到的融合圖像lL的新序列為{aJ(l),w1(l),w2(l),…,wJ(l)}。
(3)將圖像新序列進(jìn)行冗余小波逆變換重構(gòu)出融合圖像lL。
圖1 基于冗余小波變換的融合框架
3多聚焦圖像融合算法
融合規(guī)則是圖像融合算法的核心,不同的融合規(guī)則會得到不同的融合規(guī)則。研究表明[7],圖像的低頻系數(shù)決定了圖像的大致輪廓,而圖像的高頻系數(shù)則決定了圖像的清晰度,因此在融合過程中對于低頻好高頻信息應(yīng)采用不同的融合規(guī)則。
3.1低頻信息融合
加權(quán)平均法是低頻信息融合經(jīng)常使用的融合算法[8],因?yàn)槭褂眠^程中其權(quán)重系數(shù)可變換,對噪聲可有效地進(jìn)行抑制,且適用范圍廣,但加權(quán)平均法會造成圖像對比度下降,可能會引入一些干擾信息。對于多聚焦圖像而言,主要是確定聚焦與離焦所對應(yīng)圖像的區(qū)域。為提高清晰度量的準(zhǔn)確性,本文采用基于局部區(qū)域的低頻近似平面系數(shù)選擇,提出在冗余小波變換中引入?yún)^(qū)域向量范數(shù)的概念,以其作為清晰量測算子。定義區(qū)域向量范數(shù)如下:
(1)定義在點(diǎn)(m,n)出的J維小波面系數(shù)向量V(m,n)
(3)
其中,w(l)(m,n)為高頻小波面系數(shù)。
(4)
(5)
局部區(qū)域M×N一般取為3×3,5×5等。
(6)
其中,T為實(shí)驗(yàn)閾值,其值由具體的融合實(shí)驗(yàn)確定。
3.2高頻信息融合
一幅圖像的模糊與暗沉程度是圖像細(xì)節(jié)信息與亮度信息的表征,也是高頻信息丟失程度的反映。也因此在圖像融合過程中,高頻信息處理的要求相對較高。對于高頻系數(shù)的處理,通常采取基于最大值的融合規(guī)則[9],以盡可能地提取圖像的細(xì)節(jié)信息,但同時也造成了容易將干擾噪聲信息引入到融合圖像中[10]。本文提出基于局部對比度的高頻小波面系數(shù)融合規(guī)則,在冗余小波變換中引入局部對比,以最大程度得到圖像的詳細(xì)信息。在j尺度層(m,n)處,定義圖像局部對比度
(7)
(8)
局部區(qū)域M×N一般取3×3,5×5等。
為使多聚焦圖像的清晰區(qū)域圖像能完整地輸入到融合圖像中,高頻系數(shù)的選擇應(yīng)與低頻系數(shù)的選擇保持一致,故整理如下
(9)
由以上融合規(guī)則可得到融合圖像的RWT系數(shù),經(jīng)冗余小波逆變換,就可以獲得重構(gòu)的融合圖像。
4實(shí)驗(yàn)與結(jié)果與分析
為驗(yàn)證該算法的有效性和正確性,實(shí)驗(yàn)選取同一場景的多聚焦圖像進(jìn)行融合實(shí)驗(yàn),這里選取其他3種融合算法作為對比對象,分別為:基于拉普拉斯的金字塔變換(LaplacianPyramidTransform,LPT)的圖像融合算法、基于離散小波變換(DiscreteWaveletTransform,DWT)的圖像融合算法以及基于冗余小波變換(RWT-Sample)的圖像融合算法。選取的對比算法采用普遍的低頻系數(shù)取平均,高頻系數(shù)取模最大值的融合規(guī)則。4種算法的圖像多尺度分解級數(shù)都選取為3級;基于DWT或RWT_Simple和本節(jié)的融合算算法中,均采用“db4”小波濾波器對圖像進(jìn)行分解和重構(gòu)。圖2和圖3為選取的左右聚焦源圖,各算法融合圖像如圖4~圖7所示。
圖2 左聚焦圖像
圖3 右聚焦圖像
圖4 本文算法
圖5 LPT算法
圖6 DWT算法
圖7 RWT_Simple算法
本文采用信息熵、交叉熵、標(biāo)準(zhǔn)差及平均梯度4個指標(biāo)進(jìn)行客觀評價,由表1可知本文算法熵值最高,交叉熵最低,標(biāo)準(zhǔn)差最小,平均梯度值最高,即圖像信息保存較好,邊緣信息保留較完善,且清晰度高,綜合評價指標(biāo)好,本文算法具有更好的融合效果。
表1 灰度多聚焦圖像融合結(jié)果評價
5結(jié)束語
本文在基于冗余小波變換的灰度多聚焦的圖像融合的思想,提出低頻系數(shù)引入?yún)^(qū)域向量范數(shù)和高頻系數(shù)局部對比度新圖像融合算法,實(shí)驗(yàn)結(jié)果對比LPT算法、DWT算法、RWT_Simple算法證明本文算法融合圖像效果更好。根據(jù)客觀綜合評價指標(biāo)可以得出,本文的算法在圖像融合中相比其他算法有更好的有效性和準(zhǔn)確性。
參考文獻(xiàn)
[1]ZhongZhang,RickSBlum.Acategorizationofmultiscale-decomposition-basedimagefusionschemeswithaperformancestudyforadigitialcameraapplication[J].ProceedingoftheIEEE,1999,87(8):1315-1326.
[2]SweldensW.Theliftingscheme:aconstructionofsecondgenerationwavelets[J].SIAMJournalofMathematicalAnalysis,1997,29(2):511-546.
[3]BijiaouiA,StrackJL,MurtaghF.Restaurationdesimagesmulti-echellespar-l’algorithmeatrous[J].TraitementduSignal,1994,11(3):229-243.
[4]ChibniY.Multisourceimagefusionbyusingtheredundantwaveletdecomposition[J].PROC.onIEEEInternatinalGeoscienceandRemoteSensingSymPosium,2003(2):1383-1885.
[5]張強(qiáng),郭寶龍.基于非下采樣的多聚焦圖像融合[J].信號處理,2009,89(7):1334-1346.
[6]陸歡,吳慶憲,姜長生.基于PCA與小波變換的彩色圖像融合算法[J].計(jì)算機(jī)仿真,2007,24(9):202-205.
[7]PrellaG.Ageneralframeworkformultiresolutionimagefusion:frompixelstoregions[J].Informationfusion,2003(4):258-280.
[8]劉貴喜,劉純虎,凌文杰.一種基于小波多分辨率分解的圖像融合算法[J].光電子激光,2004,15(3):343-347.
[9]HuntsbergerT,JawerthB.Waveletbasedsensorfusion[J].Hangzhou:ProceedingofSPIE,1993.
[10]PeliE.Contrastincompleximages[J].OpticalSocietyofAmerica,1990,17(10):2032-2041.
歡 迎 刊 登 廣 告
請?jiān)L問:www.dianzikeji.orgE-mail:dzkj@mail.xidian.edu.cn
聯(lián)系電話:029-88202440 傳真:029-88202440