陶筱嬌 盧錦
摘? 要: 為了提高掌紋圖像對于位置、方向和亮度變化的魯棒性,提出一種結(jié)合濾波技術(shù)實現(xiàn)掌紋識別的算法。首先,按特定順序過濾過濾器,然后提取掌紋圖像的EOH?SIFT特征并創(chuàng)建類別數(shù)據(jù)庫。將要識別的掌紋圖像的關(guān)鍵點與類別數(shù)據(jù)庫中的所有關(guān)鍵點之間的模糊匹配度的最大值用作該點的模糊隸屬度,由模糊推理規(guī)則完成掌紋識別。實驗結(jié)果表明,所提算法提高了EOH?SIFT特征識別掌紋的有效性,并且對掌紋圖像的位置、方向、亮度變化和噪聲具有較高的魯棒性。
關(guān)鍵詞: 掌紋識別; 模糊推理; EOH?SIFT; 濾波處理; 關(guān)鍵點匹配; 實驗結(jié)果分析
中圖分類號: TN713?34? ? ? ? ? ? ? ? ? ? ? ? ? ? 文獻標識碼: A? ? ? ? ? ? ? ? ? ? ? ?文章編號: 1004?373X(2020)04?0073?05
Palmprint recognition based on integrated filtering EOH?SIFT
features and fuzzy reasoning
TAO Xiaojiao, LU Jin
(College of Electrical & Information Engineering, Shaanxi University of Science & Technology, Xian 710021, China)
Abstract: An algorithm combined with the filtering technique to realize the palmprint recognition is proposed to improve the robustness of palmprint image to the change of position, direction and brightness. The filters are filtered in a specific order, and then the EOH?SIFT features of palmprint images are extracted to build the classification database. The maximum value of the fuzzy matching degree between the key points of the palmprint image under recognition and all key points in the classification database is used as the fuzzy membership of the point, and the palmprint recognition is completed with the fuzzy inference rules. The experimental results demonstrate that the proposed algorithm can improve the effectiveness of the palmprint recognition according to the EOH?SIFT features, and has the robustness of palmprint image to the change of position, direction and brightness as well as noise.
Keywords: palmprint recognition; fuzzy reasoning; EOH?SIFT; filtering processing; key point matching; experimental result analysis
0? 引? 言
掌紋識別是一種近年來引起廣泛關(guān)注的利用多種數(shù)字圖像處理和模式識別技術(shù)的身份識別系統(tǒng)[1]。其他生物特征相比,掌紋具有豐富的線條、細節(jié)和外觀特征,可分性強,而且易定位、不易失真。因此,掌紋識別是個人認證的有效且可靠的生物特征。在過去的15年中,已經(jīng)開發(fā)了許多掌紋識別技術(shù)。目前,較為成熟的掌紋識別方法主要包括基于結(jié)構(gòu)的方法、基于子空間的方法和基于紋理的方法。掌紋識別按不同的應(yīng)用場景分為離線和在線系統(tǒng)[1]。離線系統(tǒng)對圖像質(zhì)量要求較高,掌紋識別主要側(cè)重于基于特征的特征提取和匹配,因此該系統(tǒng)適用于刑事偵查等專業(yè)應(yīng)用場景。然而,高分辨率圖像很大,預(yù)處理過程相對復(fù)雜,處理時間長。而在線系統(tǒng)針對低分辨率掌紋圖像,因此特征空間小,不易受噪聲干擾。
基于結(jié)構(gòu)的掌紋識別算法[2]是先提取掌紋特征,再將特征進行匹配來實現(xiàn)掌紋識別的。它包括基于空間域的邊緣檢測方法、基于方向投影的方法和基于堆棧過濾的方法?;诮Y(jié)構(gòu)的算法是由掌紋特征進行匹配完成識別的,所以對高分辨率圖像具有良好的分類效果。然而,由于在線系統(tǒng)中常用的低質(zhì)量掌紋圖像,難以準確地獲得掌紋的線條特征。因此,該方法僅適用于離線掌紋識別系統(tǒng)。
基于子空間分解的掌紋識別算法[3]主要通過投影或變換將掌紋圖像轉(zhuǎn)換為低維矩陣,并在低維空間中進行匹配。目前比較常用的子空間分解方法有 PCA,ICA,LDA等,此類方法都是將子空間分解系數(shù)作為掌紋特征進行匹配來實現(xiàn)掌紋識別,且都可以應(yīng)用于在線和離線識別系統(tǒng)。但是基于子空間分解的方法對掌紋圖像的位置、方向、亮度變化不敏感,很難獲得精度較高的分類結(jié)果。
基于圖像紋理分析的掌紋識別算法的識別精度一般高于基于子空間分解算法,常見的掌紋識別算法有傅里葉變換,離散余弦變換,基于小波變換的算法等。Gabor小波變換的掌紋識別方法對光照變化不敏感,時頻定位準確,具有良好的識別性能,適用于在線和離線掌紋識別系統(tǒng)。然而,由于噪聲干擾以及圖像采集期間出現(xiàn)的位置變化的干擾,圖像對方向的變化十分敏感。在采集掌紋時雖然能夠固定采集器的手掌的位置,但難以精確地定位和定向,采集到的掌紋圖像的位置和取向?qū)⒃诓煌潭壬献兓?。因此,?Gabor小波域中引入復(fù)雜的編碼過程[4]來提高掌紋圖像的方向和光照變化的魯棒性。但是由于復(fù)雜的編碼過程,算法的計算效率顯著降低。
SIFT是一種提取圖像不變特征的算法[5]。通過該方法提取的特征對圖像的尺度、位置、方向,光照和視角的微小變化具有良好的穩(wěn)定性。目前SIFT算法廣泛應(yīng)用于圖像區(qū)域匹配,目標識別和紋理分類,并具有良好的性能。本文中掌紋圖像先由組合濾波器預(yù)處理,提高了EOH?SIFT算法的準確性。訓(xùn)練過程時,提取屬于相同類型訓(xùn)練樣本的EOH?SIFT描述符以進行匹配。然后計算相互頻率超過1/2的關(guān)鍵點的匹配率,和關(guān)鍵點對應(yīng)于樣本圖像和EOH?SIFT描述符的坐標的均值和方差,組成類別數(shù)據(jù)庫。然后,計算每個類別的每個關(guān)鍵點與要識別的掌紋圖像的所有關(guān)鍵點之間的最大模糊匹配度,作為關(guān)鍵點的模糊隸屬度。最后,通過建立的模糊推理規(guī)則完成識別過程。實驗驗證了本文算法的有效性。
1? EOH?SIFT特征
1.1? SIFT特征
尺度不變特征變換(Scale Invariant Feature Transform,SIFT)算法是當今圖像處理中使用最廣泛的算法。改變原始圖像尺度可以獲得表示多個尺度圖像的尺度空間序列,并從序列中提取尺度空間的主輪廓。主輪廓用作特征向量來提取特征并檢測不同分辨率的角點。圖像的尺度空間可以定義為:
[Lx,y,σ=Gx,y,σ*Ix,y]? ? ? ? (1)
式中:[Ix,y]是原始圖像;[Gx,y,σ]是高斯函數(shù);[σ]表示空間的大小,[σ]越大表明越模糊,[σ]越小表示越清晰。高斯函數(shù)[Gx,y,σ]為:
[Gx,y,σ=12πσ2e-(x2+y2)/(2σ2)]? ? (2)
SIFT算法中使用DOG函數(shù)[Dx,y,σ]來找到極值點,定義為:
[Dx,y,σ=Lx,y,kσ-Lx,y,σ]? ? (3)
DOG對噪聲和邊緣很敏感,因此,需擬合DOG空間以找到極值點的位置和比例。由于圖像中物體邊緣位置點的主曲率一般較高,因此由主曲率判斷該點是否位于物體的邊緣位置,公式如下:
[mx,y=Lx+1,y-Lx-1,y2+Lx,y+1-Lx,(y-12]? ? ? ? ? ? ? ?(4)
[θx,y=atan2·Lx,y+1-? ? ? ? ? Lx,y-1,Lx+1,y-Lx-1,y] (5)
式中:m(x,y)是梯度幅值;[θx,y]是方向。
1.2? EOH?SIFT特征提取
邊緣方向直方圖(EOH)[6]特征根據(jù)Sobel算子獲得的梯度信息。它直觀地將每個關(guān)鍵點分配到同一個方向。為了提高其準確性, Cristhian Aguilera等人提出了結(jié)合 SIFT和 EOH特征的算法,通過使用各種濾波器來提高輸入圖像的質(zhì)量,并應(yīng)用于感興趣的領(lǐng)域,最終獲得更準確的結(jié)果[7]。因此,通過預(yù)處理和濾波,可以提高EOH?SIFT組合的精度。EOH?SIFT描述字是由圖像強度之間的非線性關(guān)系激發(fā)的,因此該描述字主要基于區(qū)域信息而不是像素信息。下面詳細描述了獲取關(guān)鍵點描述字的步驟。首先,在給定的SIFT關(guān)鍵點處得到一個N×N像素區(qū)域;然后,將該區(qū)域分成4×4=16個子區(qū)域;最后,這些子區(qū)域中的每一個區(qū)域按照MPEG?7標準[8]計算的輪廓直方圖來表示。該直方圖表示4個方向邊緣和1個非方向邊緣的空間分布,分別對應(yīng)于0°,45°,90°和135°的輪廓方向以及不包含輪廓的區(qū)域,如圖1所示。計算16個子區(qū)域得到共80維的向量(16×5=80)。這個向量歸一化后作為每個關(guān)鍵點的描述字向量。
2? 濾? 波
噪聲是圖像采集過程中誤差的結(jié)果,這些誤差導(dǎo)致像素值不能反映真實場景的真實強度。圖像不同的產(chǎn)生方式會引入不同的噪聲。如果直接以數(shù)字格式獲取圖像,用于收集數(shù)據(jù)的設(shè)備(例如CCD檢測器)可能引入噪聲。圖像數(shù)據(jù)的電子傳輸也可以引入噪聲。所以,需要對圖像進行預(yù)處理。濾波有兩個要求:一是不損壞圖像輪廓和邊緣等重要信息;二是使圖像視覺效果清晰。
2.1? 中值濾波
中值濾波器[9]對像素附近的像素的灰度值進行排序,并用排序的中值替換像素的值。諸如單極或雙極脈沖噪聲的隨機噪聲,中值濾波具有更好的去噪效果,具有更少的模糊性,能夠保護圖像邊緣不被模糊。
2.2? 雙邊濾波
雙邊濾波[10]同其他濾波器一樣,利用加權(quán)平均法,周圍像素亮度值加權(quán)平均值代表像素強度,加權(quán)平均值基于高斯分布像素范圍內(nèi)的輻射差異[11](例如卷積核中像素與中心像素的相似性、顏色強度、深度距離等)。在計算中心像素時考慮了這兩個權(quán)重。如下:
[bfIp=1Wpq∈NpGσsp-qGσrIp-IqIq] (6)
[Wp=q∈NpGσsp-qGσrIp-Iq]? ? (7)
通過鄰域N(p)中的所有像素點[q∈N(p)]加權(quán)求和來獲得像素p的值,并且權(quán)重系數(shù)是[Wpq]。
[Wpq=Gσsp-qGσrIp-Iq]? ? ? (8)
對于高斯函數(shù)[Gσ],均值為0,標準差為[σ],域核為[Gσs],值域核為[Gσr]。
[Gσsp-q=exp-px-qx2+py-qy22σ2s]? ?(9)
式中:[px],[py],[qx],[qy]表示圖像中像素p和q的位置坐標;[Gσs]表示當前濾波后的輸出值與像素的位置距離有關(guān),p點越近,對p輸出濾波的影響越大。
[Gσrp-q=exp-Ip-Iq22σ2r]? ? (10)
式中,像素點p,q的亮度值為[Ip,Iq],亮度值越大,對p的濾波輸出的影響越大。雙邊濾波器對掌紋圖像的濾波效果如圖2所示。實驗表明,用中值濾波和雙邊平滑濾波器預(yù)處理后的圖像進行EOH?SIFT特征提取能夠得到較高的分類精度。圖3、圖4為SIFT和濾波后SIFT關(guān)鍵點匹配。
3? 模糊推理規(guī)則
本文提出的算法在訓(xùn)練過程中,提取屬于相同類訓(xùn)練樣本的EOH?SIFT描述符以進行匹配。然后計算匹配頻率超過[12]的樣本的每個關(guān)鍵點的匹配率,對于屬于 w類的第i個關(guān)鍵點[ki,w],其匹配率[pi,w]定義為:
[pi,w=ni,wNw]? (11)
式中:[Nw]是這類訓(xùn)練樣本的總數(shù);[ni,w]是在訓(xùn)練樣本中的匹配次數(shù)。同時,計算相應(yīng)樣本圖像中關(guān)鍵點的位置坐標[(xj,yj)]的均值[xi,w],[yi,w]與方差[σx2i,w],[σy2i,w],有:
[xi,w=j=1ni,wxjni,w] (12)
[yi,w=j=1ni,wyjni,w]? ?(13)
[σx2i,w=j=1ni,w(xj-xi,w)2ni,w]? (14)
[σy2i,w=j=1ni,w(yj-yi,w)2ni,w]? ?(15)
計算這些關(guān)鍵點的EOH?SIFT描述字[suj]的平均值[sui,w],描述字[suj]與均值[sui,w]的最大歐氏距離為[mdi,w]。
[sui,w=j=1ni,jsujni,w] (16)
將這些關(guān)鍵點的匹配率[pi,w]、位置坐標的均值[xi,w],[yi,w]與方差[σx2i,w],[σy2i,w]和EOH?SIFT描述字的均值[sui,w]與最大歐氏距離[mdi,w]相結(jié)合以建立類別數(shù)據(jù)庫。
在識別過程中,給定待識別掌紋圖像[fx,y],基于SIFT算法提取關(guān)鍵點,并確定關(guān)鍵點的EOH?SIFT描述符[sufk]及其位置坐標[xk,yk],其中[1≤k≤M],[M]為掌紋圖像[fx,y]中提取的關(guān)鍵點的總數(shù)。然后,計算類別數(shù)據(jù)庫中每個類別的每個關(guān)鍵點與待識別掌紋圖像所有關(guān)鍵點模糊匹配度的最大值作為該關(guān)鍵點的模糊隸屬度,定義為:
[μi,w=maxexp-(xk-xi,w)22σx2i,w×exp(-(yk-yi,w)22σy2i,w×? ? ? ? ? ?exp-dsufk,sui,w22md2i,w]? ? ? ? ? ? ? ?(17)
式中,[d·]表示兩個向量的歐氏距離。然后計算[μi,w]的加權(quán)和作為圖像[fx,y]屬于該類別的模糊隸屬度[μw],有:
[μw=iμi,w·pi,w] (18)
式中,[pi,w]為歸一化匹配率,定義為:
[pi,w=pi,wipi,w]? ? ? (19)
計算該類別的關(guān)鍵點匹配率[pi,w]的均值[pw]:
[pw=ipi,wni,w]? ? ? (20)
本文構(gòu)造了一個模糊推理規(guī)則來減少SIFT關(guān)鍵點誤匹配對掌紋分類效果的影響,具體規(guī)則如下:
IF [μw]的最大值[μw1]與其次大值[μw2]的差值大于閾值T,THEN [fx,y∈w1]
ELSE IF [pw1 ELSE按順序刪除[w2]類中最小的[pi,w]對應(yīng)的關(guān)鍵點,直到[pw2]第一次超過[pw1],利用式(18)重新計算[μw1] IF [μw1≥μw2] THEN? [fx,y∈w1] ELSE? [fx,y∈w2] 4? 實驗結(jié)果和對比分析 本文使用某大學的掌紋公開庫(V2)[12]。該數(shù)據(jù)庫分兩批收集。因此,第二批采集的圖像相對于第一批采集圖像的光照條件、圖像位置和方向不同程度上發(fā)生了變化。 實驗1:本實驗的目的是測試算法的精度。在標準掌紋數(shù)據(jù)庫中選擇第一批每人的9個掌紋圖像以形成訓(xùn)練集。然后將本文方法、HOL[13]、E?BOCV[14]、DRCC[15]、基于Log?Gabor[16]的方法、基于Contourlet變換[17]的方法進行比較。由于掌紋獲取裝置具有限制用戶手掌的位置和方向的功能[1],所以收集的掌紋圖像的位置和方向的偏差較小。這在實驗中也得到了證實。類似掌紋圖像的正確匹配關(guān)鍵點大多在圍繞坐標平均值的方差的3倍之內(nèi)。在仿真算法中,僅計算滿足條件的關(guān)鍵點的模糊隸屬度。分類比較結(jié)果見表1。從表1中可以看出本文方法具有最佳分類效果。 實驗2:為了模擬復(fù)雜圖像中噪聲干擾的情況,在掌紋數(shù)據(jù)庫第一批次的原始圖像加入了均值為0,方差為15的高斯噪聲原始掌紋圖像和加入噪聲后的掌紋圖像如圖5所示。實驗分類結(jié)果見表2。從表2中可以看出,所提出的方法具有很強的魯棒性。 實驗3:此實驗的目的是驗證本文方法對照明、位置和方向變化的穩(wěn)健性。第一批掌紋圖像用作訓(xùn)練集,第二批掌紋構(gòu)成測試集。 加噪后不同算法的正確分類率從表3中可以看出,本文所提出的方法更加穩(wěn)健。 5? 結(jié)? 論 本文提出一種新的掌紋識別方法,該方法可有效消除噪聲,對掌紋圖像的旋轉(zhuǎn)、縮放和亮度變化具有魯棒性。實驗結(jié)果表明,兩種濾波器按特定順序進行預(yù)處理可顯著提高EOH?SIFT方法識別掌紋的有效性,具有比其他方法更高的識別率。 參考文獻 [1] JAIN A K, NANDAKUMAR K, ROSS A. 50 years of biometric research: accomplishments, challenges, and opportunities [J]. Pattern recognition letters, 2016(79): 80?105. [2] FEI L, XU Y, ZHANG B, et al. Low?rank representation integrated with principal line distance for contactless palmprint recognition [J]. Neurocomputing, 2016, 218(19): 264?275. [3] HEMANTHA K K, MUNAGA V N K P. Palmprint identification using gabor and wide principal line features [J]. Procedia computer science, 2016(93): 706?712. [4] YOUNESI A, AMIRANI M C. Gabor filter and texture based features for palmprint recognition [J]. Procedia computer science, 2017, 108: 2488?2495. [5] LOWE D G. Distinctive image features from scale? invariant keypoints [J]. International journal of computer vision, 2004, 60(2): 91?110. [6] LEVI K, WEISS Y. Learning object detection from a small number of examples: the importance of good features [C]// Proceedings of 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. DC: IEEE, 2004: 53?60. [7] AGUILERA? Cristhian, BARRERA Fernando, LUMBRERAS?Felipe, et al. Multispectral image feature points [J]. Sensors, 12(12): 12661?12672. [8] SIKORA T. The MPEG?7 visual standard for content description?an overview [J]. IEEE transactions on circuits and systems for video technology, 2001, 11(6): 696?702. [9] WANG J H, LIN L D. Improved median filter using minmax algorithm for image processing [J]. Electronics letters, 1997, 33(16): 1362?1363. [10] SONALI D, RANJAN S M, RANJAN J U. K?NN based automated reasoning using bilateral filter based texture descriptor for computing texture classification [J]. Egyptian informatics journal, 2018, 19(2): 133?144. [11] 劉永財,鮑益東,王小平,等.結(jié)合全變分的雙邊濾波圖像去噪方法研究[J].現(xiàn)代電子技術(shù),2017,40(17):36?39. [12] ZHANG D, WAI?KIN K, YOU J, et al. Online palmprint identification [J]. IEEE transactions on pattern analysis & machine intelligence, 2003, 25(9): 1048?1050. [13] JIA W, HU R X, LEI Y K, et al. Histogram of oriented lines for palmprint recognition [J]. IEEE transactions on systems, man, and cybernetics: systems, 2014, 44(3): 385?395. [14] ZHANG L, LI H, NIU J. Fragile bits in palmprint recognition [J]. IEEE signal processing letters, 2012, 19(10): 663?666. [15] XU Y, FEI L, WEN J, et al. discriminative and robust competitive code for palmprint recognition [J]. IEEE transactions on systems, man, and cybernetics: systems, 2016: 1?10. [16] MALVIYA R, KUMAR R, DANGI A, et al. Verification of palm print using Log Gabor filter and comparison with ICA [J]. International journal of computer applications in engineering sciences, 2011(17): 214?218. [17] ARDABILI E, MAGHOOLI E, FATEMIZADEH E. Contourlet features extraction and AdaBoost classification for palmprint verification [J]. Journal of American science, 2011, 7(7): 353?362.