趙 杰,李易瑾,劉帥奇
(河北大學(xué) 電子信息工程學(xué)院,河北 保定 071000) (河北省數(shù)字醫(yī)療工程重點(diǎn)實(shí)驗(yàn)室,河北 保定 071000)
圖像融合是指從同一場景的多幅圖像中得到最理想的信息,并將其合并生成更符合人類視覺感知的新圖像的過程.紅外和可見光圖像融合以其優(yōu)勢已廣泛應(yīng)用于軍事、醫(yī)療和民用等領(lǐng)域.紅外技術(shù)可以在復(fù)雜的環(huán)境中根據(jù)不同對象發(fā)射的不同熱輻射信息有效地捕捉隱藏的熱源目標(biāo),能很好地應(yīng)對光照、氣候、遮蔽物等因素的影響,具有識別偽裝的能力,但由于紅外圖像對場景的亮度變化不夠敏感,導(dǎo)致分辨率差,使得背景非常模糊;可見光圖像可以提供更多符合人類視覺感知的紋理細(xì)節(jié)信息,能更好的體現(xiàn)目標(biāo)所在環(huán)境的全貌,但它易受天氣、光照等因素的影響,可能會丟失許多場景信息,不具有檢測偽裝目標(biāo)的能力[1].因此,紅外和可見光圖像融合能夠提供二者的互補(bǔ)信息,獲取豐富的場景信息,以達(dá)到最佳視覺感知.
隨著近幾年的發(fā)展,許多學(xué)者提出了紅外與可見光圖像融合的多種算法.基于替代技術(shù)[2]的算法,例如獨(dú)立分量分析(ICA)、主成分分析(PCA)和IHS的方法,其缺點(diǎn)是融合的結(jié)果可能會導(dǎo)致頻譜失真.基于分割[3]的算法,其融合性能強(qiáng)烈依賴于分割算法,不能保證融合結(jié)果的質(zhì)量.基于神經(jīng)網(wǎng)絡(luò)[4]的算法,包括脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)[5]的方法和人工神經(jīng)網(wǎng)絡(luò)(ANN)的方法,PCNN中需要設(shè)置大量的參數(shù),ANN在使用前也需要大量的訓(xùn)練樣本,計算復(fù)雜.基于數(shù)學(xué)形態(tài)學(xué)[6]的算法在圖像融合過程中經(jīng)常有圖像細(xì)節(jié)信息地?fù)p失[7].相對于上述算法,MST[8,9]以其在圖像融合中多尺度、多分辨率的特性,更受歡迎.常見的包括金字塔變換(PT)[10]、離散小波變換(DWT)[11]、平穩(wěn)小波變換(SWT)[12]、Contourlet變換(CT)[13]和NSCT[14],然而,LP,PT和小波變換不能有效地表示線和曲線的不連續(xù)性,CT作為二維多尺度幾何分析工具,可以有效地表示邊緣和其他各向異性曲線,但它缺乏平移不變性,在融合結(jié)果中容易產(chǎn)生頻譜混疊和偽吉布斯現(xiàn)象.為了克服CT的這種缺陷,NSCT顯示了更好的性能[15],但它進(jìn)行了下采樣操作,運(yùn)算時間較長,進(jìn)而提出了非下采樣方向?yàn)V波器和雙樹復(fù)輪廓波變換(NSDFB-DTCWT)相結(jié)合的改進(jìn)方法,構(gòu)造了非下采樣雙樹復(fù)輪廓波變換(NSDTCT),作為多尺度分解工具,它具有高度的方向選擇性、各向異性和平移不變性等特點(diǎn)[16],非常適用于圖像處理過程. NSDTCT現(xiàn)主要用于圖像去噪,在紅外和可見光圖像融合領(lǐng)域的研究還屬于探索階段.
一個良好的融合方法還與融合規(guī)則有關(guān).近幾年來,模糊邏輯成功運(yùn)用到圖像處理的各個領(lǐng)域,并取得理想的效果.本文將模糊邏輯這一方法應(yīng)用于紅外和可見光圖像融合,利用模糊邏輯集合的不確定性,靈活處理不確定的問題(如區(qū)分背景、目標(biāo)的邊緣、輪廓等),將模糊隸屬函數(shù)(Membership Function,MF)應(yīng)用于低頻融合方法中,能智能的突出紅外目標(biāo)并且保留可見光的細(xì)節(jié),提高了融合圖像的對比度.因此,本文提出結(jié)合模糊邏輯和SCM的NSDTCT域紅外和可見光圖像融合新算法.與傳統(tǒng)的融合方案相比,該算法既能充分有效地利用源圖像的輪廓信息,又能保持源圖像的細(xì)節(jié)信息.在低頻中,采用局部區(qū)域能量與模糊邏輯結(jié)合的融合方法:首先,用一個S函數(shù)去提高原始紅外圖像的對比度;然后,計算原始紅外圖像的局部能量;最后,通過構(gòu)造高斯模糊隸屬度函數(shù)方法得到權(quán)重系數(shù).在高頻中,提出了由像素清晰度和顯著性作為SCM外部輸入的融合規(guī)則,這種融合規(guī)則比單一使用清晰度或顯著性激勵SCM效果好很多.SCM與PCNN相比,最大的優(yōu)點(diǎn)就是降低了計算的復(fù)雜程度,節(jié)省了時間,是PCNN的簡化.
該算法應(yīng)用在紅外和可見光圖像融合中,在主觀和客觀上都獲得較理想效果.
雙樹濾波器的方法既能保留雙樹復(fù)輪廓波中復(fù)輪廓波的良好特性,又能保證其完美重建.因此,我們結(jié)合NSCT的非下采樣方向?yàn)V波器和DTCWT變換來構(gòu)造具有更好方向選擇性、平移不變性和抗混疊性的多尺度、多分辨變換NSDTCT[16].首先,將源圖像通過方向?yàn)V波器處理,得到每個方向上的子帶;然后,將DTCWT應(yīng)用于各方向子帶,得到兩個低頻子帶和六個高頻子帶,我們可以像小波變換一樣,通過重復(fù)上面步驟得到低頻子帶金字塔.對NSDTCT的重建是以相反順序進(jìn)行的.NSDTCT的示意圖如圖1所示.
模糊邏輯應(yīng)用于紅外和可見光圖像融合領(lǐng)域,提供了一個基于感官測量和人類知識庫的數(shù)學(xué)模型的非線性映射系統(tǒng)過程[17].首先,使用合適的隸屬函數(shù)將輸入模糊集映射到輸出模糊集;其次,將清晰的數(shù)字輸入值轉(zhuǎn)化為語言變量,采用預(yù)先定義的if-then規(guī)則產(chǎn)生模糊響應(yīng)去模糊化輸入形式,進(jìn)而輸入到模糊推理系統(tǒng)中;最后,從模糊集中恢復(fù)清晰的輸出值.模糊邏輯最大的優(yōu)點(diǎn)是不需要監(jiān)督模式識別技術(shù)的訓(xùn)練步驟,也沒有多目標(biāo)參數(shù)優(yōu)化過程中使用的無監(jiān)督機(jī)器學(xué)習(xí)算法[18],簡單便利.
圖1 NSDTCT的示意圖Fig.1 Schematic diagram of NSDTCT
低頻子帶融合的目的是保持紅外圖像的目標(biāo)和可見光圖像的背景細(xì)節(jié),模糊邏輯善于表達(dá)界限不清晰的問題,所以確定像素區(qū)域?qū)儆谀繕?biāo)或是背景是一個典型的模糊問題.針對低頻子帶系數(shù)的特點(diǎn),將模糊邏輯運(yùn)用到圖像融合中,將智能地突出紅外目標(biāo)并且保留可見光背景細(xì)節(jié),減少噪聲干擾.本文的模糊函數(shù)是由具有很好平滑性的高斯函數(shù)構(gòu)造的,有利于增強(qiáng)源圖像對比度,獲得質(zhì)量更好的融合圖像.
在SCM中,每個神經(jīng)元都由接收域、調(diào)制域和脈沖發(fā)生器3部分組成[19].SCM數(shù)學(xué)模型如下:
Fij(n)=Sij
(1)
(2)
(3)
(4)
Eij(n)=gEij(n-1)+hYij(n-1)
(5)
式(1)是進(jìn)料輸入表達(dá)式;式(2)是連接輸入表達(dá)式;式(3)是SCM的連接域和調(diào)制域表達(dá)式;式(4)是輸出脈沖Yij(n)的表達(dá)式;式(5)是神經(jīng)元的動態(tài)閾值Eij(n)表達(dá)式.
其中,Uij(n)是神經(jīng)元在像素位置(i,j)第n次迭代時的內(nèi)部活動;Sij是外部激勵;VL是震級標(biāo)度項(xiàng);Wijkl是連接權(quán)重矩陣;根據(jù)(2)式,Yij(n)的大小由Uij(n)和Eij(n)共同決定,Yij(n)只能為1或0;f是Uij(n)的衰減系數(shù),g和h分別是Eij(n)的衰減系數(shù)和活動系數(shù).
當(dāng)SCM沒有激活神經(jīng)元時,神經(jīng)元的Uij(0)能量等于0,輸出脈沖Yij(0)也等于0,網(wǎng)絡(luò)不發(fā)放脈沖.第一次迭代后,Uij(n)的值為Sij,產(chǎn)生外部激勵.隨著迭代次數(shù)n增加,Uij(n)逐漸變大,每當(dāng)Uij(n)>Eij(n)時,神經(jīng)元被激活并產(chǎn)生一個脈沖,即一次點(diǎn)火狀態(tài),設(shè)Tij(n)為神經(jīng)元的點(diǎn)火信息,賦時矩陣如下:
Tij(n)=Tij(n-1)+Yij(n)
(6)
賦時矩陣可看作是人眼對外界刺激強(qiáng)度的主觀感受.將點(diǎn)火次數(shù)作為融合規(guī)則進(jìn)行圖像融合,由于像素清晰度能較好地表達(dá)圖像的邊緣細(xì)節(jié)信息,本文提出了由像素清晰度和顯著性共同激勵SCM去融合經(jīng)過NSDTCT分解得到的高頻系數(shù),以減少融合圖像的信息損失.與PCNN相比,SCM的內(nèi)部活動項(xiàng)與外部激勵有更直接的關(guān)系,更符合人類視覺感知.因此,有機(jī)地結(jié)合SCM和NSDTCT變換的優(yōu)勢,為改善紅外和可見光圖像的融合質(zhì)量提供新思路.
融合過程的基本流程圖如圖2.主要步驟如下.
圖2 融合算法Fig.2 Fusion algorithm
1)利用 NSDTCT變換對增強(qiáng)的紅外圖像A和原始的可見光圖像B進(jìn)行分解,獲得低頻系數(shù)和一系列高頻系數(shù);
2)低頻系數(shù)采用局部區(qū)域能量和模糊邏輯結(jié)合的方法;高頻系數(shù)提出了由像素清晰度和顯著性作為SCM的外部輸入的融合規(guī)則.
3)最終的融合圖像F由逆NSDTCT變換獲得.
首先,用一個S函數(shù)去提高原始紅外圖像的對比度;然后,計算局部區(qū)域能量,用局部區(qū)域能量得到模糊函數(shù)中的權(quán)重系數(shù);最后,得出融合后的低頻系數(shù).
5.1.1 基于S函數(shù)增強(qiáng)紅外圖像對比度
S函數(shù)被定義為:
(7)
其中,
(8)
A(i,j)是紅外圖像的像素灰度值;S(i,j)是對比度拉伸之后的灰度值;μ是紅外圖像A的平均值;k是拐點(diǎn)參數(shù).
5.1.2 局部區(qū)域能量模型
首先,選擇3×3的窗口計算出原始紅外圖像的局部區(qū)域能量;然后,利用高斯模糊函數(shù)計算加權(quán)系數(shù),獲得紅外圖像的局部區(qū)域能量變換矩陣EA:
(9)
其中,
(10)
(11)
EA(i,j)是變換后的局部區(qū)域能量值;CA(i,j)是紅外圖像的矩陣;sign(i,j)是局部區(qū)域能量的符號參數(shù);(a,b)是局部窗口在a,b位置的坐標(biāo).
公式(12)給出了基于模糊邏輯的紅外和可見光圖像的低頻融合規(guī)則,定義如下:
(12)
在高斯函數(shù)的基礎(chǔ)上,構(gòu)造了在像素位置(i,j)的背景隸屬度ωB(i,j)和目標(biāo)隸屬度ωT(i,j):
(13)
ωT(i,j)=1-ωB(i,j)
(14)
k∈(1,3),根據(jù)經(jīng)驗(yàn),通常選擇1.5.
式(11)給出了局部窗口在(i,j)的高斯加權(quán)矩陣Wg(a,b),高斯矩陣的坐標(biāo)原點(diǎn)為中心點(diǎn).計算局部能量變換矩陣EA(i,j)的均值Eμ及方差Eθ去替代上式中的均值μ及方差θ.
進(jìn)而,
(15)
(16)
由式(12)求出最后的低頻子帶系數(shù).
公式(17)是用來確定任意方向尺度上的子帶清晰度X(i,j),n×n表示圖像總像素個數(shù).
(17)
其中,
(18)
τ表示重新調(diào)整,確保X能在[0,1]范圍內(nèi)動態(tài)變化.
(19)
此外,一個局部的顯著性定義如下:
(20)
其中,Wk是全局顯著性,表示在(i,j)周圍的對比度.
(21)
D是整個圖像區(qū)域;γ是像素(i,j)位置3×3的鄰域;σ2=100.
這種清晰度和顯著性的定義如下:
Z(i,j)=X(i,j)+Y(i,j)
(22)
然后將獲得的Z(i,j)作為SCM網(wǎng)絡(luò)的外部輸入來激勵神經(jīng)元并產(chǎn)生脈沖,當(dāng)n達(dá)到最大迭代次數(shù)時,迭代停止,從而計算求得總點(diǎn)火次數(shù)Tij(n) ;并將點(diǎn)火次數(shù)作為高頻系數(shù)選擇原則,利用(23)式計算各方向尺度上的高頻系數(shù):
(23)
最后,把求得的高頻系數(shù)與低頻系數(shù)通過逆NSDTCT變換重構(gòu)出融合圖像F.
本實(shí)驗(yàn)分別對“Dune”、“UN camp”、“Queen′s Road”和“Octec”四組紅外和可見光融合圖像通過文獻(xiàn)[20]基于DT-CWT、文獻(xiàn)[21]基于NSDTCT、文獻(xiàn)[22]基于NSCT-SF-PCNN、文獻(xiàn)[19]基于CST-SCM和文獻(xiàn)[23]基于NSST-SSSID的融合方法與本文方法進(jìn)行比較.五種比較方法與本文的NSDTCT分解方向數(shù)均為{2,3,3,4}.SCM參數(shù)設(shè)置如下:f=0.8,g=0.7,h=20;Wijkl=[0.1091,0.1409,0.1091;0.1409,0,0.1409;0.1091,0.1409,0.1091];迭代次數(shù)n=40[19].經(jīng)過多次實(shí)驗(yàn)驗(yàn)證,最終選定文獻(xiàn)[19]給出的參數(shù),它得到的實(shí)驗(yàn)結(jié)果是最好的,更適合本文算法,而且也便于進(jìn)行算法比較.客觀評價上用指標(biāo)QAB/F、互信息MI及熵IE衡量.QAB/F表示從源圖像中提取的邊緣信息量;MI表示融合結(jié)果中保留的源圖像原始信息量的多少;IE表示圖像的信息量.這3個值越大,融合效果越佳.
圖3 融合結(jié)果Fig.3 Fusion results
如圖3,從左至右分別是 “Dune”、“UN camp”、“Queen’s Road”和“Octec”的融合結(jié)果,從上至下分別是原始紅外圖像、可見光圖像、基于DT-CWT、基于NSDTCT、基于NSCT-SF-PCNN,基于CST-SCM、基于NSST-SSSID和本文的融合方法.通過比較融合圖像可以看出,在“Dune”中,(a)(e)(i)的背景及邊緣細(xì)節(jié)比較模糊,且對比度不高,(m)和(q)相對于(a)(e)(i)整體對比度得到了提高,但(m)的目標(biāo)人物不清晰,不容易識別.(q)在一定程度上出現(xiàn)了偽影,而本文方法(u)中的目標(biāo)與背景(路的紋路、周圍灌木的層次感)都能很好地分辨,且對比度高、細(xì)節(jié)豐富,融合效果較理想.在“UN Camp”中,(b)(g)(r)中遮擋房屋的樹葉以及人周圍的樹林存在不同程度上的模糊,目標(biāo)人物和背景信息的灰度值接近,基本看不出原有的概貌.(f)(n)相比于(b)(g)(r)有一定的改善,在整體上感覺是清晰的,包括人,樹,房屋都得到了改善,但是人物目標(biāo)和背景的對比度不是很高,目標(biāo)人物反而沒有原圖清晰,不利于識別.而本文得到的融合圖像(v)在整體上有很強(qiáng)的對比度,無論是背景(房屋,樹木,山路,尤其是樹木,有很好的層次感),還是目標(biāo)人物都比較好地保留了源圖像的紋理細(xì)節(jié)信息,尤其是目標(biāo)人物,亮度明顯,很容易識別.在“Queen’s Road”中,(o)(s)(w)圖像整體對比度比(c)(g)(k)提高了很多,但(s)圖像的輪廓和細(xì)節(jié)上也出現(xiàn)了模糊(如廣告牌,馬路,路燈等),融合效果不是最佳的,而本文方法(w)中,可以很清晰地辨別圖中的目標(biāo)及背景,尤其是廣告牌和人的亮度達(dá)到了不錯的視覺效果.“Octec”中,各種方法再次進(jìn)行比較,(d)(h)(t)方法對比度低,樹的輪廓和房屋的門窗比較模糊,損失嚴(yán)重.(l)(p)很好地改善了融合效果,但是目標(biāo)人物亮度較低,不易被發(fā)現(xiàn),而本文方法(x)的目標(biāo)人物是比較清晰的,而且保留了樹木枝葉和房屋的細(xì)節(jié)信息,提高了融合質(zhì)量.
通過對四組圖簡單的主觀分析,可以看出本文的融合效果是比較理想的,通過表1用客觀指標(biāo)對融合結(jié)果進(jìn)行評價.
表1 紅外和可見光融合方法的客觀評價Table 1 Objective evaluation of infrared and visible fusion methods
由表1可以看出,NSDTCT作為很好的尺度分解工具,有良好的時頻局部化特性,可以改善圖像的清晰程度.因此,本文算法的MI和IE比其他算法高,且QAB/F的值也比較理想.因?yàn)樵诘皖l融合中采用局部區(qū)域能量和模糊邏輯的規(guī)則時,沒有很好的引入圖像的空間連續(xù)性,可能會丟失一些源圖像有用的邊緣信息,而文獻(xiàn)[23]的SSSID 應(yīng)用景深和相似性區(qū)域,能較好的提取低頻的細(xì)節(jié)信息;高頻上,SCM需要的參數(shù)較少,相對于PCNN,沒有β參數(shù)進(jìn)行調(diào)節(jié),所以SCM的參數(shù)設(shè)置很重要,本文的參數(shù)是根據(jù)參考文獻(xiàn)提供的數(shù)據(jù)進(jìn)行對比實(shí)驗(yàn)得到的,可能不是最佳的,所以本文QAB/F比文獻(xiàn)[23]低一些.總體上來說,和主觀評價是基本一致的.所以,本文提出的方法在主觀和客觀上都有很好的表現(xiàn),融合結(jié)果既保留了紅外圖像清晰的熱目標(biāo),又保留了可見光圖像豐富的背景細(xì)節(jié),為紅外和可見光圖像的融合提供了新方法,可以很好的應(yīng)用到紅外和可見光圖像的融合領(lǐng)域中去.
本文提出了一種NSDTCT域的模糊邏輯和 SCM結(jié)合的圖像融合新算法.通過NSDTCT分解大大增加了低頻系數(shù),從而降低了在圖像融合中高頻系數(shù)的影響,有利于保持源圖像信息,實(shí)現(xiàn)感知更好的圖像融合.低頻系數(shù)采用局部區(qū)域能量和模糊邏輯的融合規(guī)則,高頻系數(shù)采用像素清晰度和顯著性激勵SCM的融合規(guī)則.實(shí)驗(yàn)結(jié)果表明,針對“Dune”、“UN camp”、“Queen’s Road”和“Octec”的紅外和可見光融合圖像,該方法與現(xiàn)有的基于DT-CWT、基于NSDTCT、基于NSCT-SF-PCNN、基于CST-SCM和基于NSST-SSSID的融合方法相比,在視覺效果和客觀評價(MI、IE)標(biāo)準(zhǔn)上都有一定的改善.
[1] Zhang Bao-hui.The infrared and visible image fusion system and application research[D].Do-ctor,Nanjing University of Science&Technol-ogy,2013.
[2] Yang S Y,Wang M,Jiao L C.Fusion of multispectral and panchromatic images based on support value transform and adaptive principal component analysis[J].Inform Fusion,2012,13(3):177-184.
[3] Wan T,Canagarajah N,chim A.Segmentation driven image fusion based on alphas
Table modeling of wavelet coefficients[J].IEEE Trans.Multimedia,2009,11(4):624-633.
[4] Xiang T Z,Yan L,Gao R R.A fusion algorithm for infrared and visible images based on ad-aptive dual-channel unit-linking PCNN in NSCT domain[J].Infrared Phys.Technol,2015,69:53-61.
[5] Zhu Qiang-bo,Ding Shi-fei.Self-adaptation NSCT-PCNN image fusion based GA optimization[J].Journal of Chinese Systems,2016,37(7):1583-1587.
[6] Bai X Z.Infrared and visual image fusion through feature extraction by morphological sequential toggle operator[J].Infrared Phys.Technol,2015,71:77-86.
[7] Bai X Z,Zhang Y.Detail preserved fusion of infrared and visual images by using opening and closing based toggle operator[J].Opt.Laser T-echnol,2014,63:105-113.
[8] Adu J H,Gan J H,Wang Y,et al.Image fusion based on nonsubsampled contourlet transform for infrared and visible light image[J].Infrared Phys.Technol,2013,61:94-100.
[9] Kong W W.Technique for gray-scale visual light and infrared image fusion based on nonsubsampled shearlet transform[J].Infrared Phys Technol,2014,63:110-118 .
[10] Jiao Du,Wei Sheng-li,Bin Xiao,et al.Union laplacian pyramid with multiple features for medical image fusion[J].Neurocomputing,2016,194(19):326-339.
[11] Yong Yang.A novel DWT based multifocus image fusion method[J].Procedia Engineering,2011,24:177-181.
[12] Beaulieu M,F(xiàn)oucher S,Gagnon L.Multispectral image resolution refinement using stationary wavelet transform[J].Proceedings of 3rd IEEE International Geoscience and Remote Sensing Symposium,2003:4032-4034.
[13] Yang Yong,Wan Wei-guo,Huang Shu-ying,et al.Multi-focus image fusion by combining HVS and cycle spinning contourlet transform[J].Journal of Chinese Compute Systems,2016,37(6):1348-1354.
[14] Li X S,Li H F,Yu Z T,et al.Multifocus image fusion scheme based on the multiscale curvature in nonsubsampled contourlet transform domain[J].Opt.Eng,2015,54(7):73-115.
[15] Zhang Bao-hua,Lv Xiao-qi.Multi-focus image fusion algorithm based on compound PCNN in NSCT domain[J].Journal of Chinese Computer Systems,2014,35(2):393-396.
[16] Ying M,Liu W,Zhao X,et al.Image denoising using trivariate prior model in nonsubsampled dual-tree complex contourlet transform domain and non-local means filter in spatial domain[J].Optik,2013,124(24):6896-6904.
[17] Yin Song-feng,et al.Infrared and visible image fusion based on NSCT and fuzzy logic[J].Mechatronics and Automation(ICMA),2010,4(7):671-675.
[18] Rahman M A,Liu S,Wong C Y,et al.Multi-focal image fusion using degree of focus and fuzzy logic[J].Digital Signal Processing,2016,1(185):1-19.
[19] Wang Cong,Qian Chen,Sun Wei,et al.Infrared and visible images fusion based on SCM and CST[J].Infrared Technology,2016,38(5):396-402.
[20] Anantrasirichai N,Achim A,Kingsbury N G,et al.Atmospheric turbulence mitigation using complex wavelet-based fusion[J].IEEE Transactions on Image Processing,2013,22(6):398-408.
[21] Liu Shuai-qi,Zhao Jie,Geng Peng,et al.Medical image fusion based on nonsubsampled direction complex wavelet transform[J].International Journal of Applied Mathematics and Machine Learning,2014,1(1):21-34.
[22] Qu Xiao-bo,Yan Jing-wen,Xiao Hong-zhi,et al.Image fusion algorithm based on spatial frequency-motivated pulse coupled neural networks innonsubsampled contourlet transform domain[J].Acta Automatica Sinica,2008,34(12):1508-1514.
[23] Liu Shuai-qi,Zhu Zhi-hui,Li Hui-ya,et al. Multi-focus image fusion using self-similarity and depth information in nonsubsampled shearlet trans-form domain[J].International Journal of Signal Processing,Image Processing and Pattern Recogni-tion,2016,9(1):347-360.
附中文參考文獻(xiàn):
[1] 張寶輝.紅外與可見光的圖像融合系統(tǒng)及應(yīng)用研究[D].南京理工大學(xué),2013.
[5] 朱強(qiáng)波,丁世飛.GA優(yōu)化自適應(yīng)NSCT-PCNN圖像融合[J].小型微型計算機(jī)系統(tǒng),2016,37(7):1583-1587.
[13] 楊 勇,萬偉國,黃淑英,等.結(jié)合HVS和循環(huán)平移Contourlet變換的多聚焦圖像融合[J].小型微型計算機(jī)系統(tǒng),2016,37(6):1348-1354.
[15] 張寶華,呂曉琪.一種復(fù)合型PCNN的NSCT域多聚焦圖像融合方法[J].小型微型計算機(jī)系統(tǒng),2014,35(2):393-396.
[19] 王 聰,錢 晨,孫 偉,等.基于SCM和CST的紅外與可見光圖像融合算法[J].紅外技術(shù),2016,38(5):396-402.