劉玉珍 蔣政權(quán) 趙娜
摘 要:針對(duì)二維掌紋圖像存在易偽造、抗噪能力差的問(wèn)題,提出一種基于近鄰三值模式(NTP)和協(xié)作表示的三維掌紋識(shí)別方法。首先,利用形狀指數(shù)把三維掌紋的表面幾何信息映射成二維數(shù)據(jù),以彌補(bǔ)常用均值或高斯曲率映射無(wú)法精確描述三維掌紋特征的缺陷;其次,對(duì)形狀指數(shù)圖作分塊處理,利用近鄰三值模式提取分塊形狀指數(shù)圖的紋理特征;最后,利用協(xié)作表示的方法進(jìn)行特征分類。在三維掌紋庫(kù)上和經(jīng)典算法進(jìn)行的對(duì)比實(shí)驗(yàn)中,該方法的識(shí)別率為99.52%,識(shí)別時(shí)長(zhǎng)為0.6738s,優(yōu)于其他算法;在識(shí)別率方面,與經(jīng)典的局部二值模式(LBP)、局部三值模式(LLTP)、CompCode、均值曲率圖(MCI)法相比分別提高了7.77%、6.02%、5.12%和3.97%;在識(shí)別時(shí)間方面,與Homotopy、對(duì)偶增廣拉格朗日法(DALM)、SpaRSA方法相比分別降低了6.7s、15.9s和61s。實(shí)驗(yàn)結(jié)果表明,所提算法具有良好的特征提取和分類能力,能夠有效地提高識(shí)別精度并減少識(shí)別時(shí)間。
關(guān)鍵詞:三維掌紋;形狀指數(shù);局部三值模式;紋理特征;協(xié)作表示
中圖分類號(hào): TP391.4
文獻(xiàn)標(biāo)志碼:A
Abstract: Concerning the problem that two Dimensional (2D) palmprint images are eaasily to be forged and affected by noise, a three Dimensional (3D) palmprint recognition method based on Neighbor Ternary Pattern (NTP) and collaborative representation was proposed. Firstly, a shape index was used to map the surface geometric information of 3D palmprint into 2D data, avoiding the inaccurate description of 3D palmprint features by common mean value or Gaussian curvature mapping. Secondly, the shape index image was divided into several blocks, and NTP algorithm was used to extract texture features of divided shape index images. Finally, collaborative representation was used to classify the features. Experiments on 3D palmprint base show that compared with the classical algorithms, the proposed method has the best recognition effect with recognition rate of 99.52% and recognition time of 0.6738s. The proposed method improves the recognition rate by 7.77%, 6.02%, 5.12% and 3.97% respectively compared to Local Binary Pattern (LBP), Local Ternary Pattern (LTP), CompCode and Mean Curvature Image (MCI) method; the proposed method reduces the recognition time by 6.7s, 15.9s and 61s compared to Homotopy, Dual Augmented Lagrangian Algorithm (DALM) and SpaRSA method. The experimental results show that the proposed algorithm has good feature extraction and classification ability, which can effectively improve the recognition accuracy and reduce the recognition time.
Key words: three dimensional palmprint; shape index; local ternary pattern; texture feature; collaborative representation
0 引言
目前,傳統(tǒng)掌紋識(shí)別大多基于二維(two Dimensional, 2D)掌紋圖像進(jìn)行識(shí)別研究。在研究過(guò)程中,2D掌紋的不足之處也漸漸突顯出來(lái),如:手掌不是純平面,不能捕捉手掌的深度信息,系統(tǒng)的光照變化會(huì)影響2D掌紋的圖像質(zhì)量,2D掌紋圖像獲取較為容易,易被竊取和復(fù)制。3D掌紋作為相比2D掌紋特征更為準(zhǔn)確、有效、穩(wěn)定的生物特征,進(jìn)入人們的視線。
2008,文獻(xiàn)[1]中首次提出了三維掌紋識(shí)別。同年,文獻(xiàn)[2]中詳細(xì)介紹了3D掌紋識(shí)別系統(tǒng),文中提取手掌表面的高斯曲率、均值曲率和表面信息作為特征,采用特征匹配分?jǐn)?shù)級(jí)融合的算法進(jìn)行識(shí)別,有效提高了識(shí)別精度。文獻(xiàn)[3]中通過(guò)提取掌紋的均值曲率、Gabor特征進(jìn)行匹配識(shí)別,實(shí)驗(yàn)表明該方法具有精度高、識(shí)別率低、存儲(chǔ)空間小等優(yōu)點(diǎn)。文獻(xiàn)[4]中為了克服樣本量小和一對(duì)多識(shí)別速度低的局限性,采用表面形狀直方圖作為有效的掌紋特征,利用主成分分析(Principal Component Analysis, PCA)法進(jìn)一步壓縮了三維信息,減少了數(shù)據(jù)維數(shù),實(shí)現(xiàn)了準(zhǔn)確、高效的識(shí)別。
掌紋識(shí)別系統(tǒng)中關(guān)鍵的問(wèn)題是如何提取特征向量,為了更完整地描述掌紋特征,采用近鄰三值模式方法提取掌紋的紋理特征。文獻(xiàn)[5-6]表明基于協(xié)作表示的分類方法在模式識(shí)別領(lǐng)域取得了良好的效果,本文采用基于協(xié)作表示的分類方法。所以,本文提出基于近鄰三值模式與協(xié)作表示的三維掌紋識(shí)別方法,利用形狀指數(shù)將3D掌紋映射成二維數(shù)據(jù),并將形狀指數(shù)圖像均勻分塊,提取分塊形狀指數(shù)圖像的近鄰三值模式紋理特征,最后通過(guò)協(xié)作表示方法分類,達(dá)到掌紋識(shí)別的目的。
1 3D掌紋紋理特征提取
1.1 3D掌紋的形狀指數(shù)表示
3D掌紋數(shù)據(jù)存儲(chǔ)的是掌紋每一點(diǎn)到參考平面的深度信息。文獻(xiàn)[7]中表明曲率能夠很好地描述3D掌紋的特征,曲率特征能夠克服手掌的旋轉(zhuǎn)、平移帶來(lái)的不利影響,是一種比較穩(wěn)定的特征。曲率特征分為高斯曲率和均值曲率,但是單用一種特征描述掌紋信息存在一定的局限性,導(dǎo)致識(shí)別結(jié)果不夠準(zhǔn)確。本文將高斯曲率特征和均值曲率特征相結(jié)合共同表示掌紋特征,利用形狀指數(shù)(Shape Index, SI)特征來(lái)更加完整地表示3D掌紋的幾何細(xì)節(jié)信息。
1.2 局部三值模式
局部三值模式(Local Ternary Pattern, LTP)算法是傳統(tǒng)局部二值模式(Local Binary Pattern, LBP)算法的改進(jìn)形式,也是一種應(yīng)用在數(shù)字圖像領(lǐng)域中的紋理分析算子[9]。與LBP算法相比,LTP算法中定義了一個(gè)閾值,由此增加了算法的抗噪性。LTP算法采用三值編碼的模式,在原來(lái)LBP算法中“0”碼和“1”碼的基礎(chǔ)上增加了“-1”碼,并且自定義一個(gè)閾值t。其中心思想是在像素矩陣中,將鄰域像素gi與中心像素gk作比較,差值大于等于t,則標(biāo)記為1;差值小于-t,則標(biāo)記為-1;差值在[-t,t]內(nèi),則標(biāo)記為0。式(7)為L(zhǎng)TP的編碼方式。
1.3 近鄰三值模式
LTP算法是利用中心像素點(diǎn)與周圍相鄰像素點(diǎn)間的差異,通過(guò)對(duì)比鄰域像素與中心像素灰度值的方式確定數(shù)量關(guān)系[10]。該算法忽略了相鄰的像素點(diǎn)之間的關(guān)系,沒(méi)有考慮到相鄰像素的對(duì)比度信息,最終得到的特征會(huì)丟失局部的差異信息。為了改善這種情況,對(duì)LTP算法作出改進(jìn),提出一種基于相鄰像素間差異性的紋理描述方法,稱為近鄰三值模式(Neighbor Ternary Pattern, NTP),NTP針對(duì)的是相鄰像素灰度值的差別信息。
NTP算法既有LTP算法對(duì)光照不敏感、抗噪能力較強(qiáng)的優(yōu)點(diǎn),又增加了相鄰像素間的對(duì)比度。NTP的編碼思想是將相鄰兩個(gè)像素的差值與閾值t作對(duì)比,差值在(-t,t)范圍內(nèi)標(biāo)記為0,差值大于等于t標(biāo)記為1,差值小于-t標(biāo)記為-1。將二進(jìn)制編碼中除1以外的值標(biāo)記為0后得到的編碼,定義為上模式。將原編碼除-1以外的值標(biāo)記為0后,用1代替原來(lái)的-1,此編碼定義為下模式。上模式和下模式作為兩個(gè)獨(dú)立的局部二值模式,分別獲得上、下模式的直方圖統(tǒng)計(jì),最后將圖像的上、下模式直方圖向量串聯(lián)起來(lái)作為特征用于分類識(shí)別。
1.4 紋理特征提取
在對(duì)二維掌紋圖像的處理過(guò)程中,文獻(xiàn)[11-12]通過(guò)實(shí)驗(yàn)證明基于分塊統(tǒng)計(jì)的特征提取是一種有效的方案。當(dāng)分塊區(qū)域大小與圖像的紋理特征相互匹配時(shí),將會(huì)得到較好的識(shí)別效果,能夠提高系統(tǒng)的識(shí)別精度,因此,將分塊思想應(yīng)用到三維掌紋的特征提取中來(lái)。首先將三維掌紋映射成形狀指數(shù)圖像,然后把形狀指數(shù)圖像均勻地分割成若干塊,把新分割的區(qū)域看作獨(dú)立的樣本。分塊以后,提取的是以每一小塊為單位的局部特征,而不是整個(gè)圖像的全局特征,這樣能夠有效地改善基于全局特征的提取方法對(duì)局部變化的敏感程度。
三維掌紋紋理特征提取的具體過(guò)程可描述為如下幾個(gè)步驟:
1)首先將三維掌紋映射成二維形狀指數(shù)圖。
2)將形狀指數(shù)圖像對(duì)應(yīng)的M維矩陣G作分塊處理,將矩陣均分為大小相等的若干個(gè)矩陣。
4)將提取的直方圖特征,用于匹配識(shí)別。
2 基于NTP和協(xié)作表示的掌紋識(shí)別算
“協(xié)作表示”是在稀疏表示(Sparse Representation for Classification, SRC)的基礎(chǔ)上發(fā)展而來(lái)的[13],文獻(xiàn)[14]中對(duì)SRC分類方法的基本原理作了詳細(xì)的分析,指出在SRC分類方法中,樣本類別之間的協(xié)作表示特性比l1范數(shù)的稀疏特性更加重要。文中提出了用l2范數(shù)來(lái)替代SRC算法中的l1范數(shù),這種分類方法叫作基于協(xié)作表示和規(guī)則最小二乘法的分類識(shí)別(Collaborative Representation Classification with Regularized Least Square, CRC_RLS)方法。通過(guò)實(shí)驗(yàn)表明,CRC_RLS不僅具有良好的分類效果,而且識(shí)別速度快于SRC,因此本文采用CRC_RLS的分類方法。
在本章中,首先對(duì)模式識(shí)別領(lǐng)域中的經(jīng)典分類方法SRC算法原理作了具體的分析,分析該算法的優(yōu)缺點(diǎn),并進(jìn)一步提出了基于NTP特征與協(xié)作表示的三維掌紋識(shí)別,即NTP_CRC(NTP with Collaborative Representation Classification)。
2.1 SRC算法
SRC的主要思想是通過(guò)訓(xùn)練樣本字典中原子的線性組合來(lái)表示測(cè)試樣本的特征。對(duì)于每個(gè)類別,字典用于原始圖像的重建,并將具有最小殘差的類別判定為測(cè)試圖像類別。在訓(xùn)練樣本庫(kù)足夠大的情況下,將與測(cè)試樣本屬于同一類別的系數(shù)看作非零,與測(cè)試樣本類別不同的系數(shù)看作零,稱這種表示為稀疏表示[15]。
對(duì)于K類掌紋的訓(xùn)練樣本集A記作A=[A1,A2,…,AK],第i類訓(xùn)練樣本用Ai=[vi,1,vi,2,…,vi,ni]∈Rm×ni表示,vi,j(j=1,2,…,ni)為第i類掌紋的第j個(gè)樣本的特征向量,特征向量維度為n。假設(shè)一個(gè)測(cè)試樣本的特征向量為y,則y可以用訓(xùn)練樣本集的特征線性表示出來(lái),即y≈Aγ,γ=[γ1;γ2;…;γK],其中γi為第i類的編碼系數(shù)矢量,表示為γi=[γi,1,γi,2,…,γi,ni]T。若測(cè)試樣本的特征向量y屬于第i類掌紋,則y≈Aiγi成立。因此,可以通過(guò)系數(shù)矢量γ和訓(xùn)練樣本集A來(lái)完成樣本重構(gòu)過(guò)程,通過(guò)計(jì)算重構(gòu)后的殘差來(lái)確定各類樣本的最終類別信息。
2.2 CRC_RLS算法
SRC在模式識(shí)別領(lǐng)域被廣泛使用,在相關(guān)工作中體現(xiàn)了該方法的重要性。研究人員在對(duì)稀疏表示的研究中對(duì)l1范數(shù)所起的作用表現(xiàn)出質(zhì)疑的態(tài)度,沒(méi)有相關(guān)的經(jīng)驗(yàn)與理論知識(shí)表明l1范數(shù)的稀疏約束條件能夠完善識(shí)別性能,l1范數(shù)求解過(guò)程過(guò)于復(fù)雜,使得計(jì)算復(fù)雜度增加。同時(shí),從SRC算法的主要流程中可以看到兩個(gè)重點(diǎn)部分:一是測(cè)試樣本特征向量y的編碼系數(shù)矢量必須呈稀疏分布;二是測(cè)試樣本特征向量y的稀疏編碼并不是每類訓(xùn)練樣本單獨(dú)作用的結(jié)果,而是所有訓(xùn)練樣本協(xié)作共同作用的結(jié)果。目前很多文獻(xiàn)都在強(qiáng)調(diào)l1范數(shù)稀疏特性的重要性,而忽略了協(xié)作表示的重要性。協(xié)作表示就是使用來(lái)自所有類的訓(xùn)練樣本來(lái)表示測(cè)試樣本[16]。基于協(xié)作表示的分類原理與稀疏表示分類算法類似,都是依據(jù)重建殘差最小作為分類標(biāo)準(zhǔn)。
CRC_RLS的基本過(guò)程如下:
對(duì)K類掌紋的訓(xùn)練樣本集A記作A=[A1,A2,…,AK],第i類訓(xùn)練樣本用Ai=[vi,1,vi,2,…,vi,ni]∈Rm×ni表示,vi,j(j=1,2,…,ni)為第i類掌紋的第j個(gè)樣本的特征向量,特征向量維度為n。假設(shè)一個(gè)測(cè)試樣本的特征向量為y∈Rm,則y可以用訓(xùn)練樣本集的特征向量線性表示出來(lái),y≈Aχ,χ=[χ1;χ2;…;χK],其中χi為第i類的編碼系數(shù)矢量,表示為χi=[χi,1,χi,2,…,χi,ni]T。若測(cè)試樣本的特征向量y屬于第i類掌紋,y≈Aiχi成立。用所有訓(xùn)練樣本來(lái)協(xié)同表示測(cè)試樣本,為了簡(jiǎn)化運(yùn)算,y可以將SRC算法中的基于l1范數(shù)的約束條件簡(jiǎn)化為求解規(guī)則化最小二乘問(wèn)題。這實(shí)際上解決了以下優(yōu)化問(wèn)題:
其中I∈Rn×n是單位矩陣,令P=(ATA+λI)-1AT,可以看出,P獨(dú)立于y,并且可以通過(guò)樣本集預(yù)先計(jì)算,P可作為投影矩陣。在對(duì)測(cè)試樣本y進(jìn)行識(shí)別過(guò)程中,只需將y投影到P上,直接計(jì)算系數(shù)向量,進(jìn)而得到Py,從而降低了計(jì)算復(fù)雜度,表明與SRC相比,CRC更具有速度優(yōu)勢(shì)。
2.3 本文算法NTP_CRC
本文利用1.4節(jié)所提出的三維掌紋特征提取方案,首先提取三維掌紋的形狀指數(shù)圖像,將形狀指數(shù)均勻分成若干小塊后,分別提取每塊的NTP直方圖,將所有直方圖級(jí)聯(lián)起來(lái),作為最終特征,最后利用CRC_RLS算法實(shí)現(xiàn)掌紋類別的分類,即基于NTP與協(xié)作表示的三維掌紋識(shí)別算法NTP_CRC。
基于NTP特征和協(xié)作表示的三維掌紋識(shí)別算法的詳細(xì)步驟如下:
1)將訓(xùn)練和測(cè)試3D掌紋感興趣區(qū)域(Region Of Interest, ROI)映射成形狀指數(shù)圖像。
2)將各樣本的形狀指數(shù)圖進(jìn)行均勻分塊,提取各樣本的NTP直方圖。
3)將提取的NTP直方圖級(jí)聯(lián)起來(lái),成為一個(gè)特征矩陣。
4)將每個(gè)樣本的NTP特征作歸一化處理,計(jì)算得到訓(xùn)練字典A與y。
5)解決式(16)規(guī)則化最小二乘問(wèn)題。
計(jì)算可得=(ATA+λI)-1ATy,投影矩陣P=(ATA+λI)-1AT。
6)計(jì)算規(guī)則化殘差。
3 實(shí)驗(yàn)結(jié)果與分析
3.1 實(shí)驗(yàn)環(huán)境與評(píng)價(jià)指標(biāo)
3.2 實(shí)驗(yàn)圖庫(kù)
香港理工大學(xué)的生物識(shí)別研究中心開(kāi)發(fā)了一個(gè)實(shí)時(shí)的3D掌紋采集設(shè)備,通過(guò)該設(shè)備能夠同時(shí)采集2D和3D掌紋圖像,構(gòu)建一個(gè)大型的2D和3D掌紋數(shù)據(jù)庫(kù)。本文在兩個(gè)掌紋庫(kù)進(jìn)行實(shí)驗(yàn),庫(kù)中包含了從200人的左、右手掌采集的8000個(gè)樣本。掌紋分兩次采集,平均間隔為30d。每次采集左、右手掌各10個(gè)掌紋。第一次采集的掌紋數(shù)據(jù)作為訓(xùn)練樣本集,第二次采集的掌紋數(shù)據(jù)為測(cè)試樣本。三維掌紋庫(kù)中的每個(gè)樣本都包含一個(gè)三維感興趣區(qū)域(ROI),每個(gè)3D ROI數(shù)據(jù)存儲(chǔ)在二進(jìn)制文件記錄,該二進(jìn)制文件包含128×128浮點(diǎn)值,表示掌紋每一點(diǎn)到參考平面的深度信息。每個(gè)2D ROI圖像的格式為BMP,大小為128pixels×128pixels,與3D ROI一一對(duì)應(yīng)。
3.3 結(jié)果分析
3.3.1 確定最佳分塊方式
本文在進(jìn)行紋理特征提取時(shí),將形狀指數(shù)圖作了分塊處理。圖像分為若干個(gè)大小相同的子塊,當(dāng)子塊大小與圖像的紋理特征相互匹配時(shí),將得到較好的識(shí)別效果。通過(guò)計(jì)算不同分塊情況下的識(shí)別率,比較識(shí)別率大小,確定最佳的分塊方式。
表1分別給出了不同分塊情況下的CRR。從表1中可以看出,在不作分塊處理的情況下,CRR值為89.98%;當(dāng)采用4×4分塊方式時(shí),CRR值最高,為99.52%;當(dāng)采用5×5、6×6、7×7分塊方式時(shí),CRR值分別為97.35%、95.25%和91.80%;隨著塊數(shù)的增加,CRR值呈現(xiàn)出下降的趨勢(shì)。經(jīng)過(guò)分析可知,分塊區(qū)域過(guò)大,不能精確提取掌紋的局部紋理特征;分塊區(qū)域過(guò)小,則導(dǎo)致局部的紋理特征被分割,不能有效地表征掌紋的紋理結(jié)構(gòu),得到的紋理特征區(qū)分度不大,從而影響識(shí)別精度。因此,適當(dāng)?shù)姆謮K方式能夠有效地提高系統(tǒng)的識(shí)別性能。
3.3.2 2D掌紋對(duì)比實(shí)驗(yàn)
3D掌紋與2D掌紋進(jìn)行對(duì)比實(shí)驗(yàn),采用基于NTP和協(xié)作表示的二維掌紋識(shí)別方法。對(duì)2D掌紋作分塊處理,提取各塊的NTP紋理直方圖,將各塊級(jí)聯(lián)的直方圖作為特征向量,最后利用CRC_RLS方法進(jìn)行類別分類。3D掌紋識(shí)別的CRR值為99.52%,2D掌紋識(shí)別的CRR值為98.98%,表明3D掌紋的特征信息比2D掌紋更為豐富,因此識(shí)別效果較好。
3.3.3 驗(yàn)證本文算法的有效性
在基于NTP特征和協(xié)作表示的3D掌紋識(shí)別中,首先將3D掌紋的ROI映射成形狀指數(shù)圖像,然后將形狀指數(shù)圖均勻分塊,利用NTP提取各塊的形狀指數(shù)直方圖特征,將所有塊的直方圖連接在一起作為特征向量,最后利用CRC_RLS方法進(jìn)行類別分類。在本節(jié)中,為了驗(yàn)證本文所提算法的性能,與其他幾種經(jīng)典算法進(jìn)行了比較。本次實(shí)驗(yàn)選擇較為經(jīng)典的算法作對(duì)比實(shí)驗(yàn),如LBP法、LTP法、CompCode[17]、均值曲率圖(Mean Curvature Image, MCI)法[18]及高斯曲率圖(Gaussian Curvature Image, GCI)法[19]。
表2為不同方法的識(shí)別效果。根據(jù)表2中的實(shí)驗(yàn)結(jié)果能夠看出,利用本文特征提取方法得到的CRR值為99.52%,與經(jīng)典LBP、LTP、CompCode、MCI法相比分別提高了7.77、6.02、5.12、3.97個(gè)百分點(diǎn),表明本文提出的方法具有較強(qiáng)的表征3D掌紋局部紋理特征的能力,識(shí)別效果優(yōu)于其他方法。
3.3.4 驗(yàn)證CRC_RLS分類方法的性能
本文提出利用CRC_RLS方法進(jìn)行3D掌紋識(shí)別,具有較快的計(jì)算速度,為了更加準(zhǔn)確地體現(xiàn)該方法的優(yōu)越性能,在本次實(shí)驗(yàn)中采用統(tǒng)一的特征提取方法,即NTP形狀指數(shù)直方圖特征,然后利用不同的分類方法進(jìn)行匹配識(shí)別。選擇目前較為流行的解決基于l1范數(shù)最小化問(wèn)題的方法,如Homotopy[20]、SpaRSA[20]、對(duì)偶增廣拉格朗日法(Dual Augmented Lagrangian Algorithm, DALM)[20],分別記作CR_L1_Homotopy、CR_L1_SpaRSA、CR_L1_DALM。實(shí)驗(yàn)過(guò)程中,分別記錄每種分類方法的CRR及識(shí)別時(shí)間。
表3為各分類方法的識(shí)別效果和識(shí)別時(shí)間。根據(jù)表3中的數(shù)據(jù)可知,本文所利用的CRC_RLS方法的識(shí)別時(shí)間為0.6738s,與Homotopy、DALM、SpaRSA方法相比分別降低了6.7s、15.9s、61s,表明求解基于規(guī)則化最小二乘的問(wèn)題比求解基于l1范數(shù)的最優(yōu)解問(wèn)題要簡(jiǎn)單很多,CRC_RLS方法具有較快的計(jì)算速度。
4 結(jié)語(yǔ)
基于二維掌紋圖像具有獲取容易、易被仿冒,并且手掌不是純表面、不能體現(xiàn)手掌的深度信息等缺點(diǎn)。本文以三維掌紋為研究對(duì)象,提出基于近鄰三值模式與協(xié)作表示的三維掌紋識(shí)別方法。該方法首先采用形狀指數(shù)來(lái)描述三維掌紋的表面幾何信息,并對(duì)形狀指數(shù)圖作分塊處理,然后利用NTP算法提取形狀指數(shù)圖像的紋理特征,最后利用協(xié)作表示的方法進(jìn)行特征分類。在香港理工大學(xué)PolyU 3D掌紋庫(kù)上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明本文方法正確識(shí)別率為99.52%,識(shí)別時(shí)間為0.6738s,具有一定的應(yīng)用前景。
參考文獻(xiàn) (References)
[1] AGGITHAYA V K, ZHANG D, LUO N. A multimodal biometric authentication system based on 2D and 3D palmprint features [C]// Proceedings of the SPIE 6944 — the International Society for Optical Engineering, Biometric Technology for Human Identification V. Bellingham: SPIE, 2008: 69440C.
[2] ZHANG D, LU G M, LI W, et al. Three dimensional palmprint recognition using structured light imaging [C]// Proceedings of the 2008 IEEE Second International Conference on Biometrics: Theory, Applications and Systems. Piscataway, NJ: IEEE, 2008: 1-6.
[3] BAI X, HUANG S, GAO N, et al. Person identification by using 3D palmprint data[C]// Proceedings of the SPIE 10025, Advanced Sensor Systems and Applications VII. Bellingham: SPIE, 2016: 100250Q.
[4] BAI X, GAO N, ZHANG Z, et al. 3D palmprint identification combining blocked ST and PCA [J]. Pattern Recognition Letters, 2017, 100: 89-95.
[5] 林國(guó)軍,解梅.一種魯棒協(xié)作表示的人臉識(shí)別算法[J].計(jì)算機(jī)應(yīng)用研究,2014,31(8):2520-2522,2531.(LIN G J, XIE M. Face recognition algorithm of robust collaborative representation [J]. Application Research of Computers, 2014, 31(8): 2520-2522, 2531.)
[6] GUO X M, ZHOU W D, ZHANG Y L. Collaborative representation with HM-LBP features for palmprint recognition [J]. Machine Vision and Applications, 2017, 28(3/4): 283-291.
[7] ZHANG D, LU G M, LI W, et al. Palmprint recognition using 3-D information [J]. IEEE Transactions on Systems, Man and Cybernetics, Part C: Applications and Reviews, 2009, 39(5): 505-519.
[8] 楊冰,王小華,楊鑫.基于局部紋理特征的三維掌紋識(shí)別研究[J].光電工程,2014,41(12):53-59.(YANG B, WANG X H , YANG X. 3D Palmprint recognition based on local texture feature sets [J]. Opto-Electronic Engineering, 2014, 41(12): 53-59.)
[9] 姚騁天,夏哲雷.一種改進(jìn)的局部三值模式的人臉識(shí)別方法[J].中國(guó)計(jì)量學(xué)院學(xué)報(bào),2016,27(1):68-72.(YAO C T, XIA Z L. Face recognition based on improved local ternary patterns [J]. Journal of China University of Metrology, 2016,27(1): 68-72.)
[10] 劉海軍.局部方向三值模式紋理描述子[J].計(jì)算機(jī)工程與設(shè)計(jì),2015,36(5):1260-1264,1303.(LIU H J. Texture descriptor of local directional ternary patterns [J]. Computer Engineering and Design, 2015, 36(5): 1260-1264, 1303.)
[11] 林森,苑瑋琦,吳微,等.基于離散余弦變換和主線分塊能量的模糊掌紋識(shí)別[J].光電子·激光,2012,23(11):2200-2206.(LIN S, YUAN W Q, WU W, et al. Blurred palmprint recognition based on DCT and block enrgy of principal lines [J].Journal of Optoelectronics·Laser, 2012, 23(11): 2200-2206.)
[12] 李善廣.基于分塊的掌紋識(shí)別算法研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2013:18-23.(LI S G. Research on modular palmprint recognition algorithms [D]. Harbin: Harbin Institute of Technology, 2013: 18-23.)
[13] 蘆鑫.基于稀疏表示的遮擋人臉識(shí)別算法的研究與實(shí)現(xiàn)[D].北京:華北電力大學(xué),2016:7-16.(LU X. Research and implementation of occluded face recognition based on sparse representation [D]. Beijing: North China Electric Power University, 2016: 7-16.)
[14] ZHANG L, YANG M, FENG X C. Sparse representation or collaborative representation: which helps face recognition? [C]// Proceedings of the 2011 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2011: 471-478.
[15] 王文龍,金煒, 謝蕓,等.采用均勻局部二元模式及稀疏表示的掌紋識(shí)別[J].光電工程,2014,41(12):60-65.(WANG W L, JIN W, XIE Y, et al. Palmprint recognition using uniform local binary patterns and sparse representation [J].Opto-Electronic Engineering, 2014, 41(12): 60-65.)
[16] 張宏星,鄒剛,趙鍵,等.基于Gabor特征與協(xié)同表示的人臉識(shí)別算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2014,35(2):666-670,676.(ZHANG H X, ZOU G, ZHAO J, et al. Face recognition algorithm based on Gabor feature and collaborative representation [J]. Computer Engineering and Design, 2014,35(2): 666-670, 676.)
[17] ZHANG L, LI L D, YANG A Q, et al. Towards contactless palmprint recognition: a novel device, a new benchmark, and a collaborative representation based identification approach [J]. Pattern Recognition, 2017, 69: 199-212.
[18] 曹忠贊.基于2D和3D掌紋圖像方向特征融合的掌紋識(shí)別研究[D].秦皇島:燕山大學(xué),2013:13-17.(CAO Z Z. Study on palmprint recognition based on 2D and 3D palmprint image orientation features fusion [D]. Qinhuangdao: Yashan University, 2013: 13-17.)
[19] 李春燕,盧光明,黎偉.基于曲面曲率和RLDA 3D掌紋識(shí)別方法[J].中國(guó)圖象圖形學(xué)報(bào),2011,16(5): 807-812.(LI C Y, LU G M, LI W. 3D palmprint recognition based on surface curvature and RLDA [J]. Journal of Image and Graphics, 2011, 16(5): 807-812.)
[20] ZHANG L, SHEN Y, LI H Y, et al. 3D palmprint identification using block-wise features and collaborative representation [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(8): 1730-1736.