• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      紋理抑制的光照不均圖像配準(zhǔn)算法研究

      2020-12-07 08:20:38天,曾
      關(guān)鍵詞:尺度空間紋理光照

      劉 天,曾 亮

      國防科技大學(xué) 計(jì)算機(jī)學(xué)院,長沙 410073

      1 引言

      在圖像處理中,圖像配準(zhǔn)是十分基礎(chǔ)的理論,但它也是圖像處理研究領(lǐng)域里的一個(gè)技術(shù)難點(diǎn)。計(jì)算機(jī)圖像處理領(lǐng)域飛速進(jìn)步的同時(shí),很多理論和方法都更加完善,并且做了很多創(chuàng)新。圖像配準(zhǔn)是一個(gè)熱點(diǎn)問題并且逐漸讓人們更加關(guān)注這一方面,它是獲取圖像信息的重要手段。這項(xiàng)技術(shù)在計(jì)算機(jī)視覺、圖形圖像處理、建筑學(xué)、醫(yī)學(xué)、軍事以及材料力學(xué)等領(lǐng)域都有著非常廣泛的應(yīng)用[1]。

      圖像配準(zhǔn)方法主要分為基于灰度的匹配算法、基于變換域的匹配算法和基于特征的匹配算法[2]?;谔卣鞯膱D像配準(zhǔn)方法利用圖像的局部不變特征配準(zhǔn)圖像的重合部分,其抗噪聲的能力和抗形變能力較為突出,因此,此類算法的時(shí)間復(fù)雜度較低的同時(shí),還具有較高的魯棒性。常用的特征提取算法包括Harris[3]、SUSAN(Smallest Univalue Segment Assimilation Nucleus)[4]、SIFT(Scale Invariant Feature Transform)[5]、SURF(Speed-Up Robust Features)[6]、ORB(Oriented FAST and Rotated BRIEF)[7]、BRISK(Binary Robust Invariant Scalable Keypoints)[8]、KAZE[9-10]和 AKAZE(Accelerated-KAZE)[11]等。SIFT 和SURF 算法使用高斯差分尺度空間對特征點(diǎn)進(jìn)行提取,雖然這兩種算法的魯棒性較高,但是模糊了輪廓信息,在其進(jìn)行高斯濾波后的圖像會存在邊緣細(xì)節(jié)模糊、輪廓信息丟失的情況。ORB算法結(jié)合FAST與BRIEF,計(jì)算所用時(shí)間較少,但是不具備尺度不變性。BRISK 算法具備尺度不變性與旋轉(zhuǎn)不變性,計(jì)算速度快,但是魯棒性較差。上述的局部特征檢測算法,都是利用線性濾波的方法模糊圖像來獲得光照分量,然而這種方法并不能適用于所有圖像,在一些光照不均圖像中,光照分量在一些明暗區(qū)域邊界處可能是突變的,使用線性濾波會破壞圖像的區(qū)域邊界。KAZE和AKAZE都是通過非線性濾波構(gòu)建尺度空間,穩(wěn)健性較強(qiáng),局部精度高,但是在構(gòu)建相同尺度空間時(shí),圖像細(xì)節(jié)或紋理區(qū)域的弱邊緣會很快被平滑,這時(shí)就會出現(xiàn)特征匹配錯(cuò)誤的現(xiàn)象。

      上述算法雖然對普通圖像的配準(zhǔn)具有良好的效果,但是對于光照不均圖像的配準(zhǔn)效果卻不太理想,本文針對KAZE算法對光照不均圖像特征點(diǎn)提取不準(zhǔn)確、配準(zhǔn)效果較差等方面的不足,提出了一種基于紋理抑制的改進(jìn)KAZE 算法。該方法首先將紋理抑制算法嵌入到非線性擴(kuò)散方程中,利用紋理抑制的特性,保留原圖像的邊界性邊緣,并平滑掉圖像中的紋理細(xì)節(jié),實(shí)現(xiàn)原圖像正確的光照估計(jì),然后對光照分量進(jìn)行自適應(yīng)伽馬校正[12],將反射分量和光照分量結(jié)合恢復(fù)圖像的細(xì)節(jié)和色彩,最后對校正圖像進(jìn)行配準(zhǔn)。實(shí)驗(yàn)結(jié)果表明:本文算法的準(zhǔn)確率更高,適用性更廣泛。

      2 KAZE算法

      KAZE 算法是基于非線性尺度空間的特征檢測與描述算法。該算法利用非線性擴(kuò)散濾波器構(gòu)建具有任意步長的尺度空間。在該尺度空間的平緩區(qū)域,圖像的灰度快速擴(kuò)散,反之,在邊緣處圖像的灰度緩慢擴(kuò)散。因此,使用KAZE 方法處理圖像時(shí),圖像的細(xì)節(jié)和邊緣信息能夠被較好地保存,同時(shí)噪聲被模糊。

      2.1 非線性擴(kuò)散濾波與非線性尺度空間構(gòu)造

      非線性擴(kuò)散濾波方法是將圖像像素亮度在不同尺度上的變化視為某種形式的流函數(shù)的散度。因此,可以通過非線性偏微分方程來描述,如式(1)所示:

      其中,L表示圖像的亮度,div 表示散度,?表示梯度,c(x,y,t)為傳導(dǎo)函數(shù),時(shí)間t為尺度參數(shù)。圖像的復(fù)雜程度由t決定,t的值越小,圖像越繁雜。傳導(dǎo)函數(shù)c對擴(kuò)散自適應(yīng)圖像局部結(jié)構(gòu)起著決定性作用,其定義如下:

      其中,?Lσ表示圖像Lσ經(jīng)高斯平滑后的梯度。函數(shù)g有如下三種形式:

      其中,k表示控制擴(kuò)散級別的對比度因子,其決定著邊緣信息的數(shù)量。在函數(shù)g1中對比度高的邊緣被優(yōu)先保留;在函數(shù)g2中,寬度較大的區(qū)域被優(yōu)先保留;在函數(shù)g3中,對圖像的內(nèi)部區(qū)域進(jìn)行平滑處理,以便保留邊界信息。在KAZE算法中,傳導(dǎo)函數(shù)g2被采用,k值通過圖像梯度直方圖中高于70%的部分計(jì)算。

      在傳統(tǒng)的特征檢測算法中,尺度空間的引入是為了解決圖像匹配過程中尺度變化的問題,KAZE算法也引入了該理論,而尺度空間的類型是有差別的,傳統(tǒng)算法構(gòu)建的是線性的,而KAZE 算法則是非線性的。KAZE算法始終使用與最初的圖像一致的分辨率,而不是傳統(tǒng)算法中每組都需要降采樣。圖1 展示了兩種尺度空間的對比效果。

      圖1 不同演化時(shí)間的高斯和非線性尺度空間比較

      從圖1分析可知,非線性擴(kuò)散濾波比高斯濾波更好地保留了圖像邊緣以及細(xì)節(jié)信息。

      非線性偏微分方程不存在解析解,所以普遍利用數(shù)值分析求解出近似解。以往使用顯式差分格式的求解辦法必須采取小步長,收斂較慢,KAZE 算法采用加性算子分裂(Additive Operator Splitting,AOS)算法使用非線性擴(kuò)散濾波,其可以構(gòu)建具有任意步長的非線性尺度空間,由于非線性偏微分方程不存在解析解,因此,微分方程的解通過數(shù)值分析方法近似求得。KAZE 算法采取隱式差分形式將方程離散化,如式(6)所示:

      式中,I是單位矩陣,ti是進(jìn)化時(shí)間,Al是三對角矩陣,Al(Li)為圖像L在維度l上的傳導(dǎo)矩陣。

      2.2 非線性尺度空間特征點(diǎn)檢測

      KAZE 算法進(jìn)行特征點(diǎn)提取的過程與SIFT 算法大致相同,都是尋找不同尺度歸一化后的Hessian 矩陣局部極大值點(diǎn)來完成的。Hessian 矩陣的計(jì)算公式如下所示:

      其中,σ為尺度參數(shù)σi的整數(shù)值;Lxx、Lyy、Lxy均為L的二階微分。在搜索特征點(diǎn)的過程中,全部的像素點(diǎn)都要同其相鄰位置的點(diǎn)進(jìn)行對比,當(dāng)該點(diǎn)的值大于其所在圖像域和尺度域中的每一個(gè)相鄰點(diǎn),就將其當(dāng)作極值點(diǎn)。理論上,在目前尺度及其相鄰尺度下,選擇規(guī)格為σi×σi的3個(gè)矩形窗口作為對比范圍。為了提高搜索速度,通常情況下將矩形窗口的尺寸固定為3×3,即該點(diǎn)的比較范圍變?yōu)橐栽擖c(diǎn)為中心的相同尺度上的8 個(gè)相鄰點(diǎn)和其相鄰尺度上的各9個(gè)點(diǎn)。

      在提取到特征點(diǎn)后,需要對特征點(diǎn)的位置進(jìn)行準(zhǔn)確定位。在KAZE算法中,利用子像元插值法精確確定特征的位置。其使用泰勒展開式確定亞像素的精確位置,計(jì)算公式如下:

      其中,x表示特征點(diǎn)的位置標(biāo)準(zhǔn)。特征點(diǎn)的亞像素坐標(biāo)解為:

      2.3 特征向量描述與匹配

      特征點(diǎn)的主方向是由局部圖像結(jié)構(gòu)來決定的。KAZE 算法所使用的辦法與SURF 算法大致相同,如果特征點(diǎn)的尺度參數(shù)設(shè)定為σi,那么搜索半徑就是6σi。對搜索范圍內(nèi)相鄰點(diǎn)的一階微分值做高斯加權(quán)運(yùn)算,并且通過距離的遠(yuǎn)近決定特征點(diǎn)的響應(yīng)貢獻(xiàn)值大小,距離較近的值較大,距離較遠(yuǎn)的值較小;把這部分值看作向量空間中的一組點(diǎn),利用角度為60°的扇形窗口,搜索整個(gè)圓形區(qū)域,并將這些點(diǎn)通過向量疊加,求出最大向量所在的角度,即為主方向。

      對于尺度參數(shù)為σi的特征點(diǎn),在梯度圖像上圍繞特征點(diǎn)選取一個(gè)范圍是24σi×24σi的矩形,然后把窗口分割成4×4個(gè)子區(qū)域,每一小塊的面積為 9σi×9σi,鄰近的子區(qū)域有寬度為2σi的交疊帶。每個(gè)子區(qū)域都用一個(gè)高斯核(σ1=2.5σi)做加權(quán)運(yùn)算,然后計(jì)算長度為4 的子區(qū)域描述向量:

      再通過其他大小為4×4的高斯窗口(σ2=1.5σi)對所有子區(qū)域的向量dv做加權(quán)運(yùn)算,最后對向量做歸一化處理。這樣就得到了4×4×4=64維的描述向量。

      3 改進(jìn)KAZE算法

      KAZE 算法雖然在一般圖像的特征點(diǎn)檢測方面具有良好的性能,但是對于光照不均圖像的特征點(diǎn)檢測效果并不理想,對光照不均圖像之間的匹配不準(zhǔn)確,并不能保留邊界區(qū)域的躍變,而平滑紋理區(qū)域,非線性擴(kuò)散方程中,如何濾波是由圖像的梯度值來確定的,梯度值大的地方,平滑強(qiáng)度要小,梯度值小的地方,平滑強(qiáng)度要大。然而,梯度值并不能完全區(qū)分圖像的邊界性邊緣和紋理性邊緣,某些圖像中的紋理性邊緣梯度值會大于邊界性邊緣的梯度值,這樣會導(dǎo)致某些紋理區(qū)域的擴(kuò)散率小于邊界區(qū)域的,不能完全將紋理區(qū)域平滑化和保留邊界,需要在非線性擴(kuò)散方程中添加一種機(jī)制來區(qū)分紋理區(qū)域和邊界區(qū)域。因此,本文針對KAZE 算法進(jìn)行改進(jìn)。首先,在非線性尺度空間構(gòu)造階段,將紋理抑制算法嵌入到非線性擴(kuò)散方程中,用來削弱紋理性邊緣的梯度值,突出圖像中的邊界性邊緣,使得圖像在特征點(diǎn)檢測過程中能夠更準(zhǔn)確地檢測出特征點(diǎn)的位置。其次,對圖像的光照分量進(jìn)行自適應(yīng)校正,使得圖像的清晰度更高,亮度更加均勻,提升特征點(diǎn)檢測數(shù)量與精確度,使得圖像間的匹配更加準(zhǔn)確。最后使用歐氏距離對特征向量進(jìn)行匹配。

      3.1 紋理抑制

      通過神經(jīng)生理學(xué)的實(shí)驗(yàn)發(fā)現(xiàn),初級視皮層(V1 區(qū))的神經(jīng)元在從所觀察到的場景中提煉物體的邊緣信息中起著十分關(guān)鍵的作用。V1區(qū)神經(jīng)元的所有感受野有它自己的一塊小的興奮區(qū)域,這片區(qū)域被稱為經(jīng)典感受野(Classical Receptive Field,CRF),而附近的較大一片區(qū)域則是其鄰近單位所形成的抑制區(qū),這片區(qū)域被稱為非經(jīng)典感受野(non-Classical Receptive Field,nCRF)。側(cè)抑制的機(jī)制可以簡單用圖2 說明,圖2(a)是神經(jīng)元的復(fù)合感受野,分為環(huán)形的非經(jīng)典感受野和中心的圓形經(jīng)典感受野。圖2(b)是一幅由線狀紋理生成的圖。Grigorescu 等使用Gabor 模型模仿經(jīng)典感受野的結(jié)果,并運(yùn)用非經(jīng)典感受野的抑制特性[13],利用圓環(huán)形抑制區(qū)域采取高斯差分(Difference of Gaussian,DoG)模型來計(jì)算其距離權(quán)值。

      圖2 側(cè)抑制機(jī)制

      紋理抑制機(jī)制具有削弱圖像紋理性梯度的作用,因此將借鑒紋理抑制的原理用于非線性擴(kuò)散方程中進(jìn)行紋理抑制[14]。對梯度進(jìn)行紋理抑制的步驟如下:

      (1)計(jì)算初始圖像I的梯度幅度:

      (2)模擬神經(jīng)元的環(huán)形抑制區(qū),構(gòu)造尺度相差3 倍的高斯差值系數(shù)模板:

      將DoG中的負(fù)值置0,并進(jìn)行歸一化:

      權(quán)重系數(shù)模板中不為0的區(qū)域近似為一個(gè)圓環(huán),其三維示意圖如圖3所示,因此模擬了神經(jīng)元的環(huán)形抑制區(qū)。

      圖3 側(cè)抑制權(quán)重系數(shù)模板

      (3)權(quán)重系數(shù)模板與圖像梯度值作卷積,得到圖像的抑制量:

      (4)計(jì)算紋理抑制后的圖像梯度幅度:

      紋理抑制算法中,抑制力度α直接決定了抑制量的大小,當(dāng)α較大時(shí),對紋理性邊緣的抑制效果較強(qiáng),但也會削弱一些邊界性邊緣,特別是多個(gè)邊界的交匯處,而當(dāng)α較小時(shí),對紋理的抑制能力較弱。因此,參考文獻(xiàn)[14],將α設(shè)置為一個(gè)數(shù)值較大的固定值1.2,這是為了能使非線性擴(kuò)散在較少的迭代次數(shù)下產(chǎn)生較大的紋理抑制效果。

      (5)將紋理抑制的算法嵌入到非線性擴(kuò)散方程中:

      由上式可以看出,原方程圖像的梯度幅度替換為了紋理抑制過后的圖像,這樣可以使得紋理性邊緣和邊界性邊緣得到進(jìn)一步的分離,紋理區(qū)域最終會得到平滑,邊界區(qū)域得到保留,以實(shí)現(xiàn)正確的光照估計(jì)。

      圖4 中的(a)是沒有經(jīng)過紋理抑制的光照反射分量,(b)則是經(jīng)過紋理抑制的光照反射分量,對比(a)和(b)可以發(fā)現(xiàn),有紋理抑制的圖像保留了圖像較大的邊界信息,使得圖像更加平滑,保留了大部分的圖像細(xì)節(jié),無紋理抑制的圖像中邊界信息較少,并且很少一部分的圖像細(xì)節(jié)會保存在光照分量里。所以利用紋理抑制方法能更好地保留圖像區(qū)域邊界的信息和圖像細(xì)節(jié)。

      圖4 紋理抑制對圖像邊緣檢測的影響

      3.2 自適應(yīng)Gamma增強(qiáng)

      Retinex 理論[15]認(rèn)為圖像是由亮度分量和反射分量組成。本文算法首先將圖像從RGB 顏色空間轉(zhuǎn)換到HSV 顏色空間,然后對圖像的亮度分量V(x,y)進(jìn)行處理,保留飽和度分量S(x,y)和色度分量H(x,y)。最后再將圖像從HSV顏色空間變換到RGB顏色空間。

      (1)計(jì)算光照分量與反射分量

      利用高斯濾波器G(x,y)對亮度圖像V(x,y)進(jìn)行卷積可獲得圖像的光照分量:

      由此,反射分量R(x,y)也可以被分離出來:

      (2)光照分量的Gamma校正

      計(jì)算出光照分量后對其進(jìn)行自適應(yīng)校正:

      Lco(x,y)表示校正過后的光照分量,γ(x,y)為Gamma校正系數(shù)矩陣,pw(l)為對應(yīng)于各亮度值的權(quán)值分布函數(shù):

      p(l)是亮度分量的概率密度函數(shù),pmax為p(l)的最大值,pmin為p(l)的最小值,p(l)可通過下式求得:

      nl為對應(yīng)的亮度所含像素?cái)?shù),np為亮度分量包含的像素總數(shù)。最后將校正后的光照分量Lco(x,y)與反射分量R(x,y)合并得到最后的亮度圖像V(x,y)。

      該算法主要針對圖像的光照分量進(jìn)行自適應(yīng)校正,首先統(tǒng)計(jì)對應(yīng)亮度下所含像素?cái)?shù)值,并求得亮度分量的概率密度函數(shù),然后再統(tǒng)計(jì)其最大值與最小值,計(jì)算各亮度值的權(quán)值分布函數(shù),最后求得Gamma 校正系數(shù)矩陣,對光照分量進(jìn)行校正后,與反射分量做卷積,合并得到最后的亮度圖像,校正后的圖像與原圖像相比,不僅能顯著提高圖像全局和局部區(qū)域的清晰度,而且使圖像的動(dòng)態(tài)范圍更佳,增強(qiáng)效果更為自然。

      4 實(shí)驗(yàn)結(jié)果與分析

      4.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)集

      本文實(shí)驗(yàn)以MATLAB R2018a為實(shí)驗(yàn)平臺,在Window10上運(yùn)行,處理器為Intel?Core? i5-8300H CPU @2.30 GHz 2.30 GHz,內(nèi)存為16.0 GB。為驗(yàn)證本文算法的匹配效果,實(shí)驗(yàn)采用Vonikakis V和Chrysostomou D[16-17]局部對稱特征配準(zhǔn)實(shí)驗(yàn)所用圖像數(shù)據(jù)集,該圖像數(shù)據(jù)庫具有更多種成像條件,包涵不同程度的均勻和光照不均圖像,本文選用Phos 圖像數(shù)據(jù)庫中的五組圖像。每組圖像選取兩張圖像進(jìn)行匹配,如圖5所示。

      4.2 算法對比分析

      為了驗(yàn)證本文所提出算法的可靠性及優(yōu)越性,對傳統(tǒng)的 SIFT 算法、SURF 算法、KAZE 算法以及本文算法進(jìn)行對比,并統(tǒng)計(jì)各種算法所檢測到光照不均圖像的特征點(diǎn)數(shù)目,以及匹配準(zhǔn)確率。表1給出了分別使用SIFT算法、SURF算法、KAZE算法和本文算法對Phos數(shù)據(jù)集右側(cè)圖像進(jìn)行特征點(diǎn)提取的數(shù)目進(jìn)行比較。從表中可以看出SURF 算法針對光照不均圖像所能提取的特征點(diǎn)數(shù)目最少,并且在第二個(gè)數(shù)據(jù)集中檢測到的特征點(diǎn)數(shù)量過于稀少,有很多圖像所表達(dá)出的關(guān)鍵信息都沒有檢測出來,SIFT 算法所檢測的數(shù)目較少,雖然相較SURF算法來說,可以檢測出更多的特征點(diǎn),但是在數(shù)據(jù)集2中很多關(guān)鍵信息也沒有檢測到。KAZE 算法和本文算法所提取的數(shù)目最多。但是KAZE算法對數(shù)據(jù)集3和5的光照不均圖像檢測中,邊緣特征點(diǎn)漏檢測現(xiàn)象嚴(yán)重,其檢測出的特征點(diǎn)無法很好地代表圖像所要表達(dá)的信息。而改進(jìn)算法能夠檢測出更多特征點(diǎn)的同時(shí),對圖像邊緣的特征點(diǎn)檢測效果也較好,更適用于光照不均圖像。

      圖5 實(shí)驗(yàn)用圖

      表1 各算法檢測光照不均圖像特征點(diǎn)對比結(jié)果

      為了進(jìn)一步驗(yàn)證本文所提出算法的匹配高效性,將實(shí)驗(yàn)所用數(shù)據(jù)集的五組圖像分別運(yùn)用四種算法即對SIFT、SURF、KAZE 和本文算法的匹配效果圖進(jìn)行比較,進(jìn)一步增強(qiáng)對比結(jié)果,證明本文算法的優(yōu)越性。實(shí)現(xiàn)效果如圖6~10所示。

      圖6 Phos2_scence1實(shí)驗(yàn)結(jié)果

      圖7 Phos2_scence2實(shí)驗(yàn)結(jié)果

      圖8 Phos2_scence3實(shí)驗(yàn)結(jié)果

      圖6~10 為采用 SIFT、SURF、KAZE 及本文算法對Phos 圖像數(shù)據(jù)庫中的五組光照不均圖像匹配結(jié)果對比圖。通過上面五組圖像的對比結(jié)果可以直觀地看出,傳統(tǒng)算法對圖像中光照不均和較暗區(qū)域的特征點(diǎn)檢測效果不太理想,雖然SIFT算法提供了較多的特征點(diǎn),但是SIFT算法出現(xiàn)較多誤匹配;SURF算法匹配點(diǎn)對相對稀少,誤匹配相比SIFT 算法較低;并且從圖9 中可以看出傳統(tǒng)算法對邊緣區(qū)域的特征點(diǎn)檢測效果不太理想,很多重要的特征點(diǎn)都沒有被檢測到,而KAZE算法和本文算法特征點(diǎn)檢測較多,匹配均勻,但相較于KAZE算法,本文算法能檢測出更多特征點(diǎn),并且匹配效果良好。以上只是主觀地判斷本文算法的優(yōu)劣性,為了進(jìn)一步驗(yàn)證本文算法的有效性,相關(guān)參數(shù)將通過折線圖的形式直觀顯示出來,并將匹配率進(jìn)行對比,進(jìn)一步增強(qiáng)對比效果,證明本文算法的優(yōu)越性。

      圖9 Phos2_scence4實(shí)驗(yàn)結(jié)果

      圖10 Phos2_scence5實(shí)驗(yàn)結(jié)果

      圖像配準(zhǔn)實(shí)驗(yàn)中,通過常用的評價(jià)指標(biāo)準(zhǔn)則[18-19]查全率(Recall)和錯(cuò)誤率(1?Precision)評價(jià)圖像配準(zhǔn)算法的優(yōu)劣性。

      查全率是指圖像檢索出正確的配準(zhǔn)點(diǎn)和圖像中所有配準(zhǔn)點(diǎn)對(包括已配準(zhǔn)和應(yīng)配準(zhǔn)但未通過算法配準(zhǔn)的點(diǎn))的比率:

      錯(cuò)誤率是指錯(cuò)誤配準(zhǔn)點(diǎn)占通過算法得到的總配準(zhǔn)點(diǎn)的比重:

      實(shí)驗(yàn)對 SIFT 算法、SURF 算法、KAZE 算法以及本文算法進(jìn)行比較,通過查全率和錯(cuò)誤率比較算法優(yōu)劣,如圖11所示。

      對上述5 組圖像進(jìn)行配準(zhǔn),評價(jià)4 種算法的配準(zhǔn)性能,根據(jù)圖6 可以看出,SIFT 算法雖然能夠檢測出大量的特征點(diǎn),但是容易出現(xiàn)誤匹配的狀況,SURF算法檢測出的特征點(diǎn)數(shù)量相對較小,在數(shù)據(jù)集Phos2_scence2 中的檢測效果相對較好,查全率最高達(dá)到0.9左右,但是在圖10中,其特征檢測效果較差,并出現(xiàn)了明顯的誤匹配現(xiàn)象,從整體效果來看,KAZE 算法以及本文算法的效果明顯更好,而本文算法的查全率最高達(dá)到0.8左右,相較于SIFT、SURF、KAZE算法平均查全率分別提高了26個(gè)百分點(diǎn)、5個(gè)百分點(diǎn)和5.5個(gè)百分點(diǎn)。因此可以看出,本文算法對于光照不均圖像具有更好的配準(zhǔn)效果,并且能夠更好地檢測圖像邊緣的特征點(diǎn),對于圖像明暗區(qū)域邊界處的效果也明顯優(yōu)于傳統(tǒng)算法。

      圖12是四種算法的準(zhǔn)確率對比圖,從圖中可以直觀地看出,在數(shù)據(jù)集Phos2_scence2中,SURF算法優(yōu)于KAZE算法,在剩余的4個(gè)數(shù)據(jù)集下,KAZE算法要優(yōu)于SURF算法和SIFT算法。本文算法對于數(shù)據(jù)集Phos2_scence3的匹配效果最好,準(zhǔn)確率最高,整體結(jié)果要優(yōu)于傳統(tǒng)算法。

      圖11 不同算法配準(zhǔn)實(shí)驗(yàn)曲線

      圖12 四種算法的準(zhǔn)確率對比

      表2是各算法配準(zhǔn)分?jǐn)?shù)的對比結(jié)果,SIFT算法檢測出的匹配對數(shù)最多,但是正確匹配較少,因此分?jǐn)?shù)較低,SURF 算法和KAZE 算法相對分?jǐn)?shù)較高,結(jié)合圖7 也可以看出,SURF算法在數(shù)據(jù)集Phos2_scence2中效果要好于KAZE 算法,本文算法在數(shù)據(jù)集Phos2_scence1 和Phos2_scence4中的匹配分?jǐn)?shù)分別高于KAZE算法5.5個(gè)百分點(diǎn)和4.4 個(gè)百分點(diǎn),但是對于數(shù)據(jù)集Phos2_scence2和Phos2_scence3匹配分?jǐn)?shù)分別高于KAZE算法31個(gè)百分點(diǎn)和39.3 個(gè)百分點(diǎn)。本文算法的平均正確率較SIFT、SURF、KAZE算法分別提高了48.5個(gè)百分點(diǎn)、22.1個(gè)百分點(diǎn)和20.1個(gè)百分點(diǎn)。

      表2 各算法匹配分?jǐn)?shù)對比結(jié)果

      最后,對改進(jìn)算法在不同數(shù)據(jù)集的實(shí)驗(yàn)進(jìn)行歸納總結(jié),在數(shù)據(jù)集 Phos2_scence1、Phos2_scence4、Phos2_scence5中,主要選取了光照程度較高,紋理細(xì)節(jié)內(nèi)容較少的圖片進(jìn)行測試,從表1 中可以看出,檢測的特征點(diǎn)數(shù)量相對較少,從圖11中可以看出,改進(jìn)算法的平均匹配正確率略高于原算法。但是在數(shù)據(jù)集Phos2_scence2和Phos2_scence3中,主要選取顏色鮮明、邊緣和紋理細(xì)節(jié)較為豐富的圖像進(jìn)行測試,從表1 中可以看出,改進(jìn)算法在該數(shù)據(jù)集上檢測出了更多的特征點(diǎn),并且從圖11和表2中可以看出,改進(jìn)算法的平均正確率高于原算法35個(gè)百分點(diǎn)。由此可以看出,本文算法的匹配正確率最高,對于光照不均圖像的特征點(diǎn)檢測效果最好,并且對于紋理細(xì)節(jié)豐富的圖像匹配效果更佳。

      5 結(jié)語

      本文針對光照不均圖像配準(zhǔn)不佳的問題,提出了改進(jìn)的KAZE 算法,并介紹了改進(jìn)算法的基礎(chǔ)原理,并通過實(shí)驗(yàn)驗(yàn)證了算法的優(yōu)越性。實(shí)驗(yàn)結(jié)果表明,本文算法針對光照不均圖像能檢測出更多的特征點(diǎn),并且能夠提高正確匹配率,匹配效果良好。在日常生活中,許多拍攝出的室內(nèi)外圖像大多是光照不均勻圖像,而傳統(tǒng)算法對其進(jìn)行特征點(diǎn)檢測效果不太理想,本文算法能夠很好地解決這一問題,適用性較為廣泛。由于本文圖像匹配算法在非線性擴(kuò)散方程中嵌入了紋理抑制方法和自適應(yīng)增強(qiáng)算法,所以該算法的實(shí)時(shí)性欠佳,雖然提高了準(zhǔn)確率,但是時(shí)間也相對較長,算法整體的時(shí)間復(fù)雜度較高,今后可以對非線性擴(kuò)散方程的計(jì)算進(jìn)行加速,所以對于光照不均圖像的實(shí)時(shí)性配準(zhǔn)問題仍需要進(jìn)一步研究。

      猜你喜歡
      尺度空間紋理光照
      節(jié)能環(huán)保 光照萬家(公益宣傳)
      節(jié)能環(huán)保光照萬家(公益宣傳)
      基于AHP的大尺度空間域礦山地質(zhì)環(huán)境評價(jià)研究
      基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
      軟件(2020年3期)2020-04-20 01:45:18
      春光照瑤鄉(xiāng)
      使用紋理疊加添加藝術(shù)畫特效
      TEXTURE ON TEXTURE質(zhì)地上的紋理
      Coco薇(2017年8期)2017-08-03 15:23:38
      居住區(qū)園林空間尺度研究
      魅力中國(2016年42期)2017-07-05 21:16:42
      消除凹凸紋理有妙招!
      Coco薇(2015年5期)2016-03-29 23:22:15
      基于降采樣歸一化割的多尺度分層分割方法研究
      阜平县| 台南县| 瑞金市| 临沂市| 成武县| 云和县| 子长县| 福州市| 金溪县| 湘阴县| 泸溪县| 呼和浩特市| 寿宁县| 三穗县| 务川| 炉霍县| 漯河市| 三门县| 正镶白旗| 上杭县| 平乐县| 和平区| 宽甸| 双柏县| 库伦旗| 江川县| 都匀市| 理塘县| 都昌县| 东乡县| 阆中市| 古浪县| 都安| 金山区| 巫溪县| 永兴县| 安陆市| 深水埗区| 平乡县| 新和县| 安塞县|