• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于視覺注意機(jī)制的異源圖像融合

      2015-02-20 08:15:54胡燕翔
      計算機(jī)工程 2015年3期
      關(guān)鍵詞:異源閾值細(xì)節(jié)

      胡燕翔,萬 莉

      (天津師范大學(xué)計算機(jī)與信息工程學(xué)院,天津300387)

      基于視覺注意機(jī)制的異源圖像融合

      胡燕翔,萬 莉

      (天津師范大學(xué)計算機(jī)與信息工程學(xué)院,天津300387)

      針對融合規(guī)則不能真實反映觀察者視覺感知特點的問題,提出一種異源圖像多尺度融合算法。應(yīng)用視覺注意機(jī)制,計算異源圖像間的視覺顯著度匹配系數(shù),并根據(jù)這一系數(shù)對小波變換近似系數(shù)進(jìn)行自適應(yīng)融合,在小波細(xì)節(jié)系數(shù)融合中使用帶有方向連續(xù)性檢查的選大值方法,采用視覺顯著度差對融合算法的視覺保持一致性進(jìn)行評價。測試結(jié)果表明,與傳統(tǒng)算法相比,該算法在客觀性能指標(biāo)和主觀視覺一致性方面都有所提高。

      異源圖像融合;視覺注意機(jī)制;視覺一致性;視覺顯著度;多尺度融合算法

      1 概述

      隨著各類電子成像技術(shù)的發(fā)展,圖像融合受到廣泛的關(guān)注和研究,已在遠(yuǎn)程監(jiān)控、數(shù)字醫(yī)療成像、航空遙感、特征識別、高動態(tài)范圍成像以及壓縮傳感成像等[1-3]圖像領(lǐng)域得到廣泛應(yīng)用。圖像融合的目的在于將多幅不同成像模式的源圖像組合為單一圖像,在融合結(jié)果中保留原圖像中的全部內(nèi)容信息并保持主要特征[4-5]。在像素級、特征級以及決策級3個層次的融合方法中,像素級融合得到大量研究和應(yīng)用,其主要方法包括多尺度分析、稀疏表示、神經(jīng)網(wǎng)絡(luò)等[6-8]。

      在基于多尺度分析的融合算法規(guī)則方面,已提出包括基于局部系數(shù)或塊能量選大、加權(quán)平均及其他更復(fù)雜的方法。這些規(guī)則以大系數(shù)或塊能量代表圖像中顯著信息(如突出目標(biāo)和邊緣)為前提進(jìn)行融合計算[6]。雖然這些算法取得了較好的融合效果,但共同問題在于根據(jù)分解系數(shù)本身的大小來確定融合系數(shù),而圖像對于人眼的視覺激勵是多種區(qū)域性因素的共同作用結(jié)果,基于數(shù)值本身的融合方式與視覺感受沒有直接聯(lián)系。

      視覺注意機(jī)制(Visual Attention Mechanism, VAM)是人類視覺系統(tǒng)的一個重要特征[9]。研究表明,圖像中的不同區(qū)域?qū)τ谌搜劬哂胁煌募畛潭取T诹炼?、顏色以及方向等方面具有快速變化的區(qū)域具有更高的注意優(yōu)先級。通過在融合過程中使

      用視覺注意機(jī)制,能夠使得源圖像中的視覺顯著區(qū)域在融合結(jié)果中被顯著體現(xiàn),使得融合結(jié)果包含更多的可視信息。這一特點對于最終觀察者是人的圖像應(yīng)用,例如視覺監(jiān)控、數(shù)字醫(yī)療等,作用尤為明顯。本文提出一種基于視覺顯著度的異源圖像多尺度融合方法及視覺一致性評價指標(biāo)。通過計算顯著度匹配系數(shù)來判斷源圖像間的視覺顯著信息互補(bǔ)程度;根據(jù)顯著度匹配系數(shù)進(jìn)行自適應(yīng)的近似系數(shù)融合。通過顯著度匹配系數(shù)直方圖選取最佳顯著度匹配系數(shù)。采用計算融合結(jié)果與源圖像的視覺顯著度圖差評價融合算法的視覺一致性性能。

      2 圖像融合算法

      近年來最受關(guān)注的圖像融合算法包括基于多尺度分析和基于稀疏表示2類。多尺度分析融合算法基于近似系數(shù)反映圖像的局部亮度、細(xì)節(jié)系數(shù)表征局部變化的思路,其主要過程包括多尺度分解、組合以及逆變換重構(gòu)。

      文獻(xiàn)[10]提出使用梯度金字塔進(jìn)行圖像融合:輸入源圖像被分解為梯度圖,按照規(guī)則進(jìn)行組合,組合梯度圖使用正交鏡像濾波器處理后,形成梯度金字塔,通過重構(gòu)得到融合結(jié)果,有效降低了對比度損失。文獻(xiàn)[11]使用拉普拉斯金字塔作為分析工具,近似系數(shù)使用基于相似度的權(quán)重規(guī)則,細(xì)節(jié)系數(shù)使用參數(shù)化對比度測量方法。文獻(xiàn)[12]對基于小波變換的高分辨率全色圖像和低分辨率多譜圖像融合算法進(jìn)行了測試比較,證明不同融合規(guī)則對于提高空間分辨率和保留光譜質(zhì)量的不同效果。文獻(xiàn)[13]采用平移不變小波進(jìn)行Landsat圖像與SPOT全色圖像的融合,測試結(jié)果表明SIDWT優(yōu)于主分量分析以及色度-強(qiáng)度-飽和度變換。文獻(xiàn)[14]研究了非下采樣輪廓波(NSCT)在多傳感器圖像融合中的應(yīng)用。文獻(xiàn)[15]研究了基于均勻離散曲波變換的多聚焦圖像融合。

      在基于稀疏表示的融合算法方面,文獻(xiàn)[8]使用NSCT多尺度分析,采用字典學(xué)習(xí)進(jìn)行NSCT系數(shù)融合,顯著減少計算量。文獻(xiàn)[16]采用同步正交匹配追蹤進(jìn)行稀疏表示圖像融合,取得良好的客觀性能評價。此外,基于壓縮感知原理的圖像融合技術(shù)也獲得了研究[17]。

      目前基于仿生視覺的多尺度圖像融合研究相對較少。包括文獻(xiàn)[18]根據(jù)多碼率視覺模型提出的融合算法[19]以及文獻(xiàn)[20]提出的局部能量與視覺顯著度組合的算法等。已提出算法的不足之處在于: (1)多尺度分解高低頻系數(shù)融合都采用顯著度制導(dǎo),沒有考慮到視覺顯著度區(qū)域效應(yīng)對于高低頻系數(shù)的不同影響;(2)使用簡單固定的融合規(guī)則,沒有考慮到源圖像間的視覺信息互補(bǔ)特點。例如文獻(xiàn)[20]算法在高低頻系數(shù)融合中均使用了基于顯著度的加權(quán)平均策略,會使圖像中的細(xì)節(jié)被模糊。

      針對上述問題,本文通過計算顯著度匹配系數(shù)來反映源圖像間的視覺差異,使用該顯著度匹配系數(shù)指導(dǎo)近似系數(shù)的融合;在細(xì)節(jié)系數(shù)的融合使用帶有方向連續(xù)性檢查的選大規(guī)則,避免使用顯著度引入的區(qū)域模糊效應(yīng),較已有算法更為合理。

      3 視覺注意機(jī)制

      視覺注意機(jī)制是近20年來興起的一個多學(xué)科交叉研究領(lǐng)域,已被應(yīng)用于認(rèn)知心理學(xué)、人工智能以及圖像處理等領(lǐng)域。視覺注意表明圖像中在強(qiáng)度、顏色、方向等屬性上具有快速變化的區(qū)域具有更高的顯著度。其最主要的價值在于當(dāng)面對海量視覺信息時,觀察者可以集中有限處理資源優(yōu)先處理圖像中的顯著目標(biāo)[21]。

      文獻(xiàn)[22]開展了自底向上的選擇性注意,在此基礎(chǔ)上提出自底向上、數(shù)據(jù)驅(qū)動的VAM模型來計算人眼感受的視覺激勵程度。該模型使用金字塔多尺度分析方法和中央-周邊差策略計算視覺顯著度圖(Visual Saliency Map,VSM)。視覺顯著度圖綜合了各類視覺刺激,量化表示了圖中每點的視覺激勵程度。觀察者將首先注意到具有最高顯著度的區(qū)域,繼而按照“勝者為王”和禁止-返回策略遍歷整個圖像。視覺注意已經(jīng)被應(yīng)用于機(jī)器視覺、機(jī)器人導(dǎo)航以及特征提取等[22]。

      圖像融合的目的在于保留源圖像中的顯著信息而不引入虛假信息。已提出的多尺度分析和稀疏表示融合方法中大多根據(jù)數(shù)值本身來確定融合方法。但視覺感受是多種因素綜合作用的結(jié)果,只考慮系數(shù)本身而非視覺特性可能引入虛假目標(biāo)。使用視覺顯著度圖來指導(dǎo)融合使不同源圖像中的高顯著區(qū)域在融合結(jié)果中同樣被突出,對于存在較大視覺差異的異源圖像融合具有突出效果。

      圖1給出了紅外-可見光圖像的視覺顯著度圖比較。圖1(a)中顯著區(qū)域包括屋角、煙囪以及右上角小路,這3個區(qū)域在圖1(c)中最為顯著,如箭頭所指;圖1(b)中最顯著的人體在圖1(d)中最為突出??梢妼τ谝曈X差異較大的異源圖像,其視覺顯著區(qū)域表征了紅外波長和可見光成像模式下主要視覺目標(biāo)的位置、輪廓和顯著程度。使用視覺顯著度

      指導(dǎo)融合,可完整將異源圖像中的顯著目標(biāo)集成在融合結(jié)果中,同時不產(chǎn)生虛假目標(biāo)。

      圖1 紅外-可見光圖像及其視覺顯著度圖

      4 融合算法

      由于小波變換具有很好的重構(gòu)能力以及較高的計算效率,因此本文使用小波變換作為多尺度分析工具。圖2給出算法的總體流程。

      圖2 小波變換融合算法流程

      算法包括以下步驟:(1)使用Itti模型計算各源圖像的視覺顯著度圖;(2)對源圖像進(jìn)行2D DWT變換;由于Itti模型計算結(jié)果為源圖像的1/8大小,因此分解層數(shù)為3;(3)按照融合規(guī)則對近似系數(shù)和細(xì)節(jié)系數(shù)進(jìn)行融合;(4)小波逆變換重構(gòu)圖像。

      4.1 近似系數(shù)融合

      視覺顯著度匹配系數(shù)為:

      其中,SA(x,y),SB(x,y)為輸入圖像A,B的VSM中(x,y)點處的值,該值表示此位置視覺激勵的大小;視覺顯著度匹配系數(shù)MAB(x,y)通過計算該處異源圖像的視覺顯著度差來比較圖像內(nèi)容的互補(bǔ)程度。此系數(shù)為0表示異源圖像的視覺顯著度圖沒有差別,為1則表示其視覺顯著度圖完全不同。

      融合方法為:

      當(dāng)視覺顯著度匹配系數(shù)小于預(yù)定義閾值Mt時,表明異源圖像中該位置的視覺顯著度相差不大,近似系數(shù)采用加權(quán)平均;當(dāng)其大于預(yù)定義閾值時,說明該區(qū)域只在一幅源圖像中被充分展示,采用“選大值”的方法來保持其高顯著度。權(quán)重WA定義為:

      文獻(xiàn)[20]在近似系數(shù)的融合中使用基于子窗口能量的比較方法,只有當(dāng)子窗口能量差異較大時才使用視覺顯著度進(jìn)行權(quán)重組合。由于子窗口能量只反映亮度高低,不能反映組合變化引起的視覺刺激,因此是不全面的。

      4.2 細(xì)節(jié)系數(shù)融合

      在細(xì)節(jié)系數(shù)融合中,采用帶方向連續(xù)性檢查的選大值策略。該方法的優(yōu)點在于融合后某點的水平、垂直、對角三方向細(xì)節(jié)系數(shù)來自同一幅源圖像,在保持細(xì)節(jié)信息量的同時不產(chǎn)生畸變。

      該位置φ方向的能量匹配度Mφ:

      其中,φ=(h,v,d),分別表示水平、垂直和對角方向。帶方向的組合能量匹配度:

      其中,取(Wv,Wh,Wd)=(0.25,0.25,0,5)。當(dāng)能量

      匹配度大于閾值Th(經(jīng)驗值0.7)時,采用加權(quán)平均:

      其中,權(quán)重系數(shù)WA有:

      當(dāng)能量匹配度小于Th時,有:

      文獻(xiàn)[20]在細(xì)節(jié)系數(shù)的融合中采用與近似系數(shù)同樣的加權(quán)策略,會使得低顯著區(qū)域的細(xì)節(jié)被模糊,例如大片平坦區(qū)域的微小細(xì)節(jié)。

      5 實驗結(jié)果與分析

      給出對紅外-可見光異源圖像進(jìn)行融合的實驗結(jié)果,并與拉普拉斯金字塔算法(LP)5、DWT算法5、文獻(xiàn)[20]算法進(jìn)行比較。LP算法和DWT算法的融合規(guī)則均為近似系數(shù)平均以及細(xì)節(jié)系數(shù)選大。本文采用的評價指標(biāo)包括:(1)文獻(xiàn)[23]提出的基于結(jié)構(gòu)相似度的3項指標(biāo):Q,QW和Q24E; (2)文獻(xiàn)[25]提出的QAB/F測度,它評價從源圖像傳遞到融合圖像的邊緣信息量;上述指標(biāo)越接近1,算法效果越好;(3)信息熵描述圖像信息含量。除上述指標(biāo)外,定義視覺顯著度差來評價主觀視覺一致性:

      其中,M,N為圖像大小;SMresult為融合結(jié)果視覺顯著度圖;SMint為組合顯著度圖:

      組合顯著度圖完整集合了各異源圖像的顯著目標(biāo),同時其顯著度大小分布不發(fā)生變化。

      圖3給出4種算法的融合結(jié)果。比較4種融合結(jié)果,可見在圖3(c)和圖3(d)中最重要目標(biāo),即人體與周圍環(huán)境的區(qū)分度最高,這是由于在近似系數(shù)融合考慮了視覺顯著度的結(jié)果,因而比圖3(a)和圖3(b)的近似系數(shù)簡單平均顯得更為突出;從細(xì)節(jié)角度觀察,圖3(c)最為模糊,特別是在煙囪周圍區(qū)域。這是由于文獻(xiàn)[20]在細(xì)節(jié)系數(shù)融合中采用加權(quán)平均方法造成的。而其他3種算法由于在細(xì)節(jié)系數(shù)融合中采用了選大或更合理的方法,因而能夠保留圖像中的細(xì)節(jié)變化。由此例可見,文獻(xiàn)[20]在細(xì)節(jié)系數(shù)采用基于顯著度的加權(quán)平均方法并不合理。而本文算法在近似系數(shù)融合中使用視覺顯著度,在細(xì)節(jié)系數(shù)融合中使用了帶有方向連續(xù)性檢查的選大值策略,因此既保證了顯著區(qū)域的突出,又使得圖像細(xì)節(jié)不被模糊。圖4給出組合顯著度圖及4種融合結(jié)果的顯著度圖。

      圖3 紅外-可見光融合結(jié)果比較

      圖4 紅外-可見光融合結(jié)果的VSM比較

      表1給出客觀評價指標(biāo)及視覺一致性比較。由表1可見,本文算法(閾值0.5)和LP算法的客觀評價指標(biāo)好于其他2種算法,本文算法同時具有最小的視覺顯著度差,這與圖4的比較一致。

      表1 紅外-可見光融合結(jié)果性能評價指標(biāo)比較

      在上述例子比較上,本文算法均具有最好的指標(biāo),LP算法的性能次之,DWT算法和文獻(xiàn)[20]算法最差。在視覺一致性比較方面,本文算法的指標(biāo)明顯高于其他算法,LP算法好于DWT算和文獻(xiàn)[20]算法,這與客觀指標(biāo)的比較一致。特別在圖像內(nèi)容差別較大的紅外-可見光圖像融合例子中更加明顯。上述結(jié)果證明本文算法在近似系數(shù)和細(xì)節(jié)系數(shù)融合上的有效性。

      根據(jù)式(1)定義,視覺顯著度匹配系數(shù)定義為源圖像對應(yīng)位置顯著度差值與其和的比值:為0時源圖像在此位置顯著度相同;為1時則差別最大。當(dāng)其小于閾值Mt時,表明源圖像在該位置的顯著度比較接近,近似系數(shù)采取權(quán)重平均方法;當(dāng)大于閾值時,為突出顯著目標(biāo)采取選大值方法。因此如何選取合理的閾值是算法的關(guān)鍵。由于光譜特性及成像模式的區(qū)別,不同的異源圖像融合時最優(yōu)閾值并不相同。表2給出紅外-可見光融合例子中不同閾值下客觀評價指標(biāo)的比較(為便于比較,將閾值為0.5時的指標(biāo)規(guī)則化為1)。

      表2 可見光-紅外融合中不同閾值的性能比較

      由表2可見:隨著閾值增大,基于結(jié)構(gòu)相似性的3項指標(biāo)、QAB/F測度以及視覺一致性都單調(diào)上升。其原因可以解釋為:原來由于視覺匹配系數(shù)大于閾值而進(jìn)行選最大值的位置,隨閾值增大變?yōu)榧訖?quán)平均,因此融合結(jié)果與源圖像的結(jié)構(gòu)相似性提高;熵值隨著閾值的增大而逐漸減小,原因為選最大值較加權(quán)平均使融合結(jié)果包含更多細(xì)節(jié)變化,具有更高的信息量。

      大量實驗比較表明,不同類型源圖像的顯著度匹配系數(shù)分布規(guī)律及其平均值差異很大:多聚焦圖像平均值為0.1~0.2,紅外/可見光圖像為0.4~ 0.7,CT/MRI、遙感圖像為0.5~0.9。圖5為紅外-可見光例子中視覺顯著度匹配系數(shù)直方圖。

      圖5 紅外-可見光圖像的顯著度匹配系數(shù)直方圖

      由圖5可見,絕大部分匹配系數(shù)小于0,7,0.8~1間的大系數(shù)表明部分區(qū)域的顯著度差異非常明顯(人體部分),其整體平均值為0.485 2。大量實驗表明,當(dāng)閾值取顯著度匹配系數(shù)平均值時具有最優(yōu)的視覺顯著度差及其他各項指標(biāo)的綜合最優(yōu)值,即:

      當(dāng)閾值大于匹配系數(shù)平均值后,由表2可見各項指標(biāo)增減隨閾值提高的變化程度非常緩慢,表明源圖像中的絕大多數(shù)顯著區(qū)域已被集成。

      此外,本文所提出的視覺一致性指標(biāo)VSD與結(jié)構(gòu)相似性3項指標(biāo)具有完全一致的變化趨勢和規(guī)律,證明該指標(biāo)準(zhǔn)確反映了融合結(jié)果中的顯著信息含量及與源圖像的視覺相似度。

      6 結(jié)束語

      本文提出一種基于視覺顯著度的異源圖像多尺度融合算法,并首次提出使用視覺一致性來評價融合算法在保持主觀視覺一致性方面的性能。實驗分析結(jié)果表明,本文算法較對比算法在客觀指標(biāo)和主觀視覺一致性方面都有提升。所提算法能夠使得異源圖像中包含的不同顯著目標(biāo)在融合結(jié)果中被更好地表現(xiàn)出來。提出的主觀視覺一致性評價指標(biāo)能夠評價視覺顯著目標(biāo)的融合保持效果,同時可以對融合過程中產(chǎn)生的虛假視覺信息進(jìn)行量化評估,這是已有的客觀評價指標(biāo)所不具備的。

      [1]Seng Cher-Hau,Bouzerdoum A,Amin M G.Two-stage Fuzzy Fusion with Applications to Through-the-Wall Radar Imaging[J].IEEE Geoscience and Remote Sensing Letters,2013,10(4):687-691.

      [2]Kao Chih-Chung,Chen Shou-Hung.Integrating Image Fusion and Motion Stabilization for Capturing Still Images in High Dynamic Range Scenes[J].IEEE Transactions on Consumer Electronics,2006,52(3): 735-741.

      [3]Luo Xiaoyan,Zhang Jun,Yang Jingyu.Classification BasedImage-fusionFrameworkforCompressive Imaging[J].Journal of Electronics Imaging,2010, 19(3):1-14.

      [4]Goshtasby A,Nikolov S.Image Fusion:Advances in the State of the Art[J].Information Fusion,2007,8(2): 114-118.

      [5]Dong Jiang,Zhuang Dafang,Huang Yaohuan.Advances inMulti-sensorDataFusion:Algorithmsand Applications[J].Sensors,2009,9(10):7771-7784.

      [6]Krista A,Zhang Yun,Peter D.Wavelet Based Image Fusion Techniques——AnIntroduction,Reviewand Comparison[J].ISPRS Journal of Photogrammetry and Remote Sensing,2007,62(4):1-13.

      [7]Kong W W,Lei Y J,Lei Y.Image Fusion Technique Based on Non-subsampled Contourlet Transform and AdaptiveUnit-fast-linkingPulse-coupledNeural Network[J].IET Image Processing,2011,5(2): 113-121.

      [8]Wang J,Peng J Y,Feng X Y.Image Fusion with Nonsubsampled Contourlet Transform and Sparse Representation[J].Journal of Electronics Imaging,2013,22(4): 1901-1915.

      [9]魏龍生.視覺信息處理中注意機(jī)制計算模型研究[D].武漢:華中科技大學(xué),2011.

      [10]Petrovic V S,XydeasCS.Gradient-basedMultiresolution Image Fusion[J].IEEE Transactions on Image Process,2004,13(2):228-237.

      [11]Nercessian S C,Panetta K A,Agaian S S.Multiscale Image Fusion Using an Adaptive Similarity-based Sensor Weighting Scheme and Human Visual System-inspired Contrast Measure[J].Journal of Electronics Imaging, 2012,21(2):1112-1117.

      [12]Guo Qing,Liu Shutian.Performance Analysis of Multispectral and Panchromatic Image Fusion Techniques Based on Two Wavelet Discrete Approaches[J].International Journal for Light and Electron Optics, 2011,122(9):811-819.

      [13]Li Shutao,Kwok J T,Wang Yaonan.Discrete Wavelet Frame Transform Method to MERGE Landsat TM and SPOT Panchromatic Images[J].Information Fusion, 2002,3(1):17-23.

      [14]常 霞,焦李成,賈建華.基于非下采樣Contourlet的多傳感器圖像自適應(yīng)融合[J].計算機(jī)學(xué)報,2009, 32(11):2229-2239.

      [15]楊 揚(yáng),戴 明,周籮魚.基于均勻離散曲波變換的多聚焦圖像融合[J].紅外與激光工程,2013,42(9): 2547-2552.

      [16]Yang Bin,Li Shutao.Pixel-level Image Fusion with SimultaneousOrthogonalMatchingPursuit[J].Information Fusion,2012,13(1):10-19.

      [17]Li X,Qin S Y.Efficient Fusion for Infrared and visible Images Based on Compressive Sensing Principle[J].IET Image Process,2011,5(2):141-147.

      [18]Rodriguez S R,GarcíaJA,FdezVJ.Axiomatic ApproachtoComputationalAttention[J].Pattern Recognition,2010,43(4):1618-1630.

      [19]Rodriguez S R,GarcíaJA,FdezVJ.From Computational Attention to Image Fusion[J].Pattern Recognition Letter,2011,32(14):1178-1195.

      [20]Ren Xianyi,Liu Wei,Duan Peng,et al.Image Fusion Based on WaveletTransformandVisualAttentionMechanism[EB/OL].(2009-10-12).http://www.researchgate.net/publication/252641798_Image_fusion_based_on_ wavelet_transform_and_visual_attention_mechanism.

      [21]Borji A,Itti L.State-of-the-Art in Visual Attention Modeling[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2013,25(1):185-207.

      [22]Itti L.Models of Bottom-up andTop-downVisual Attention[D].Pasadena,USA:California Institute of Technology,2000.

      [23]Wang Zhou,Bovik A C.A Universal Image Quality Index[J].IEEE Signal Processing Letter,2002,9(3): 81-84.

      [24]Piella G,Heijmans H.A New Quality Metric for Image Fusion[C]//Proceeding of International Conference on Image Processing.Barcelona,Spain:IEEE Computer Society,2003:173-176.

      [25]Xydeas C S,PetrovicV.ObjectiveImageFusion Performance[J].Electronics Letters,2000,36(4):308-309.

      編輯 顧逸斐

      Difference-source Image Fusion Based on Visual Attention Mechanism

      HU Yanxiang,WAN Li
      (College of Computer and Information Engineering,Tianjin Normal University,Tianjin 300387,China)

      A Visual Attention Mechanism(VAM)based multi-scale image fusion algorithm is proposed in this paper, which tries to overcome the inconformity between fusion rules and observer′s visual characteristics.Visual saliency matching coefficients based on visual attention mechanism are computed and employed in Wavelet Transform(WT) approximate coefficient fusion.In WT detail coefficient fusion,select-max rule with directional consistency checking is used.A fusion performance evaluating method based on the comparison of visual saliency is proposed to measure visual consistency between source images and fused results.Experimental results demonstrate the superiority of the proposed algorithm in terms of subjective visual similarity and objective quantization comparison.

      different-source image fusion;Visual Attention Mechanism(VAM);visual consistency;visual saliency; multi-scale fusion algorithm

      胡燕翔,萬 莉.基于視覺注意機(jī)制的異源圖像融合[J].計算機(jī)工程,2015,41(3):247-252.

      英文引用格式:Hu Yanxiang,Wan Li.Difference-source Image Fusion Based on Visual Attention Mechanism[J].Computer Engineering,2015,41(3):247-252.

      1000-3428(2015)03-0247-06

      :A

      :TP391.41

      10.3969/j.issn.1000-3428.2015.03.046

      國家自然科學(xué)基金資助項目(61274021)。

      胡燕翔(1969-),男,副教授、博士,主研方向:圖像處理,計算機(jī)視覺;萬 莉,碩士研究生。

      2014-02-18

      :2014-05-14E-mail:yanxianghu@126.com

      猜你喜歡
      異源閾值細(xì)節(jié)
      近岸水體異源遙感反射率產(chǎn)品的融合方法研究
      海洋通報(2022年4期)2022-10-10 07:40:26
      基于EM-PCNN的果園蘋果異源圖像配準(zhǔn)方法
      以細(xì)節(jié)取勝 Cambridge Audio AXR100/ FOCAL ARIA 906
      臉譜與假面 異源而殊流
      中華戲曲(2020年2期)2020-02-12 05:17:58
      小波閾值去噪在深小孔鉆削聲發(fā)射信號處理中的應(yīng)用
      基于自適應(yīng)閾值和連通域的隧道裂縫提取
      留心細(xì)節(jié)處處美——《收集東·收集西》
      比值遙感蝕變信息提取及閾值確定(插圖)
      河北遙感(2017年2期)2017-08-07 14:49:00
      細(xì)節(jié)取勝
      Coco薇(2016年10期)2016-11-29 19:59:58
      室內(nèi)表面平均氡析出率閾值探討
      海淀区| 太仆寺旗| 鱼台县| 潍坊市| 鹤庆县| 九龙城区| 栾城县| 策勒县| 高淳县| 磐安县| 临安市| 淮滨县| 阳新县| 东方市| 邹城市| 凌源市| 西乌珠穆沁旗| 南和县| 介休市| 拜城县| 治多县| 靖边县| 翁源县| 凤城市| 久治县| 凌云县| 邵东县| 青冈县| 芒康县| 阿合奇县| 九龙城区| 金湖县| 福清市| 北票市| 华坪县| 黄山市| 定南县| 德惠市| 二连浩特市| 兴和县| 托克托县|