陳小祥
(安慶職業(yè)技術(shù)學(xué)院 信息技術(shù)學(xué)院,安徽 安慶 246003)
當(dāng)今互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、大數(shù)據(jù)等智能技術(shù)逐漸成為時(shí)代熱潮,新興信息技術(shù)引領(lǐng)智能生活走向主流[1]。智能手機(jī)作為多種新興信息技術(shù)的融合產(chǎn)物,不僅可以進(jìn)行信息快速有效獲取和高速交互,且不受時(shí)間地點(diǎn)的限制[2]。然而人們?cè)谙硎苄畔⒕W(wǎng)絡(luò)帶來的便利時(shí),也面臨著信息透明化下的人身、財(cái)產(chǎn)等各個(gè)方面的安全威脅,用戶的信息安全問題已經(jīng)成為信息技術(shù)發(fā)展的焦點(diǎn)問題,進(jìn)行用戶身份認(rèn)證是保護(hù)用戶信息安全的重要且有效的手段[3]。傳統(tǒng)的身份認(rèn)證或利用身份標(biāo)識(shí)知識(shí),如口令和密碼,或利用身份標(biāo)識(shí)物品,如各種通用證件[4]。這些傳統(tǒng)技術(shù)對(duì)信息安全有著一定程度的保護(hù)作用,但隨著科技和信息化技術(shù)的發(fā)展,一方面物品偽造、信息竊取等高端犯罪手段層出不窮;另一方面,信息智能化時(shí)代迫切需要方便安全的電子化身份認(rèn)證方式[5]?;诖?,以生物特征識(shí)別進(jìn)行用戶身份認(rèn)證方式,成為了信息安全問題的研究與應(yīng)用趨勢(shì)。
生物特征識(shí)別的本質(zhì)是模式識(shí)別,它將個(gè)體特征進(jìn)行提取、匹配,從而實(shí)現(xiàn)對(duì)個(gè)體的身份識(shí)別。用戶要實(shí)現(xiàn)其對(duì)用戶的識(shí)別功能,需完成兩個(gè)步驟,首先需要通過注冊(cè)、驗(yàn)證完成用戶數(shù)據(jù)的采集和存檔(存入數(shù)據(jù)庫(kù)),接下來才能使用該系統(tǒng)實(shí)現(xiàn)用戶特征的提取、匹配,進(jìn)而完成身份認(rèn)證。在生物特征識(shí)別中,目前常用的有掌紋識(shí)別、指紋識(shí)別、人臉識(shí)別、DNA 識(shí)別等,而掌紋識(shí)別穩(wěn)定性、可鑒別性、可采集性等特征識(shí)別性能良好,且人的掌紋信息包含著豐富的圖像內(nèi)容,由于掌紋位于手心的位置,因此不容易受到破壞,不易被偽造[6]。掌紋信息作為生物特征信息中的一種,掌紋識(shí)別系統(tǒng)與生物特征識(shí)別系統(tǒng)的結(jié)構(gòu)基本一致,區(qū)別在于掌紋信息主要是一種圖像信息,因此信息采集的第一步為掌紋圖像采集。圖像信息的識(shí)別經(jīng)過預(yù)處理環(huán)節(jié),以保證特征的有效性,在特征提取后,將提取特征與數(shù)據(jù)庫(kù)信息進(jìn)行特征匹配,并得到識(shí)別結(jié)果。
掌紋識(shí)別主要包括特征信息的提取和匹配兩個(gè)階段,其中特征提取是掌紋識(shí)別的關(guān)鍵環(huán)節(jié),但掌紋識(shí)別中的圖像處理技術(shù)對(duì)內(nèi)存有所要求,且基于PC 端的研究應(yīng)用較多。目前智能手機(jī)在人們?nèi)粘I钪械钠占靶愿?,?shí)用性更強(qiáng),但掌紋識(shí)別技術(shù)作為信息安全的保障,在智能手機(jī)端的研究必須保證在足夠的識(shí)別率的前提下,進(jìn)行內(nèi)存計(jì)算的效率優(yōu)化。基于此,本次研究以掌紋特征提取為重點(diǎn),進(jìn)行了基于算法優(yōu)化的掌線方向特征提取研究。
由于掌紋具有豐富的圖像信息,因此經(jīng)過多年發(fā)展,形成了許多關(guān)于掌紋特征信息提取的理論方法,如基于結(jié)構(gòu)特征的識(shí)別方法、基于圖像紋理的識(shí)別方法、基于圖像方向特征的識(shí)別方法、基于圖像低維空間映射的子空間識(shí)別方法、基于相關(guān)濾波器的識(shí)別方法等[7-8]。有研究表明,掌紋線的紋理走向具有較多的辨識(shí)信息,手掌等背景的灰度值與掌紋線的灰度值之間存在較強(qiáng)的差異性,且這種差異不易受到采集環(huán)境和圖像處理操作的影響,因此這里以掌紋線的方向特征進(jìn)行特征信息的識(shí)別提取。
梯度方向直方圖(Histogram of Gradient,HOG)算法的本質(zhì)是以梯度方向統(tǒng)計(jì)局部特征信息,通過密度分布描述其形狀及表象。其實(shí)現(xiàn)方法分為兩個(gè)步驟,一是將局部目標(biāo)劃分為雙層區(qū)域,并進(jìn)行梯度方向的特征統(tǒng)計(jì)計(jì)算;二是在固定維數(shù)串聯(lián)梯度特征,得到梯度方向直方圖。這種方法當(dāng)前已被廣泛應(yīng)用于目標(biāo)檢測(cè)識(shí)別領(lǐng)域。圖1 所示為HOG 梯度方向直方圖算法的具體操作流程,以HOG 算法進(jìn)行特征提取,首先需要進(jìn)行圖像的兩層區(qū)域劃分,第一層是由一個(gè)個(gè)小的聯(lián)通區(qū)域所構(gòu)成,這些小區(qū)域被稱為細(xì)胞單元(cell),每個(gè)細(xì)胞單元都分布著固定量的像素;第二層是由多個(gè)細(xì)胞單元組成的區(qū)塊(block),是圖像的第二層區(qū)域,區(qū)塊與區(qū)塊之間可以重疊。
圖1 HOG 梯度方向直方圖算法具體操作流程
雙層區(qū)域劃分完成后,便可開始計(jì)算圖像計(jì)算梯度方向像素值。設(shè)圖像像素點(diǎn)坐標(biāo)為(x,y),則式(1)、(2)分別表示其在水平方向和垂直方向的梯度值,該梯度值則是由梯度方向像素值之差得到。其中G表示梯度值,H表示像素值。
在上式基礎(chǔ)上,梯度幅值G(x,y)和梯度方向α(x,y)的計(jì)算式如下。
在完成梯度方向的計(jì)算后,需要將構(gòu)造梯度方向直方圖。在180°以內(nèi)將目標(biāo)區(qū)域等間隔劃分為k 個(gè)小區(qū)域,并以bin 表示;將cell 單元的梯度值進(jìn)行k 維梯度幅度的累加,可得到梯度方向直方圖。第一層區(qū)域的細(xì)胞單元具有劇烈的梯度變化,此時(shí)需要進(jìn)行區(qū)塊(block)的特征歸一化,以此對(duì)陰影、光照、邊緣信息進(jìn)行進(jìn)一步的壓縮。這里假設(shè)一個(gè)區(qū)塊為一個(gè)掃描窗口,對(duì)區(qū)塊內(nèi)的細(xì)胞單元進(jìn)行特征統(tǒng)計(jì),當(dāng)區(qū)塊長(zhǎng)度大于掃描步長(zhǎng)時(shí),會(huì)出現(xiàn)區(qū)塊間重疊現(xiàn)象,這就造成單個(gè)細(xì)胞單元會(huì)被計(jì)算多次,于是在最終的特征向量中,單個(gè)細(xì)胞單元有不同的結(jié)果值。重疊塊的信息對(duì)分類結(jié)果具有改善效果,因此區(qū)塊的歸一化效果對(duì)于特征提取很重要。
方向可控濾波器算法與梯度方向直方圖算法的區(qū)別在于其可以獲取的多方向特征信息,這種方法通過圖像中像素點(diǎn)的方向幅值和方向信息,尋找最優(yōu)方向,并以此提高掌紋識(shí)別率。這里的方向信息和方向幅值的獲取,需要以任意方向的濾波器進(jìn)行圖像卷積運(yùn)算,從而得到所有方向上對(duì)應(yīng)的方向響應(yīng)值,這種方式使得像素方向信息有了全方位的拓展,掌紋的方向信息更為豐富。
方向可控濾波器以已知“基濾波器”進(jìn)行線性組合,以此構(gòu)造全方位的濾波器,“基濾波器”用二維高斯函數(shù)的一階導(dǎo)數(shù)表示,二維高斯函數(shù)如式(5)所示,由此可得到0°和90°方向的基濾波器,如式(6)(7)所示。
以θ表示濾波器的方向輸入控制,通過式(6)和式(7)的線性組合,可以對(duì)全方向?yàn)V波器用下述方程式表達(dá)。
結(jié)合上述可知,HOG 算法中通過區(qū)域劃分和梯度方向幅值信息可以很好地改善特征信息分類情況,而方向可控濾波器算法可以進(jìn)行方向信息的全方位拓展,對(duì)掌紋圖像的表達(dá)信息進(jìn)行了極大的豐富?;谇笆鰞煞N算法的優(yōu)勢(shì),在這里將HOG 梯度方向直方圖算法與方向可控濾波器算法進(jìn)行結(jié)合,首先以方向可控濾波器算法進(jìn)行全方位方向響應(yīng)值和幅值信息的獲??;其次將獲取的信息進(jìn)行區(qū)域劃分和全方向的直方圖構(gòu)建,最終得到包含任意方向的掌紋識(shí)別直方圖算法結(jié)果,在這里以HOS(Historgrams of Oriented Steerable Filter)方向可控直方圖對(duì)這種方法進(jìn)行命名。
圖2 表示方向可控直方圖的算法實(shí)現(xiàn)過程,主要包括兩個(gè)階段,第一階段進(jìn)行最佳方向特征的提取和對(duì)應(yīng)方向幅值的計(jì)算,第二階段根據(jù)方向和幅值信息進(jìn)行區(qū)域劃分和方向可控直方圖的構(gòu)建。第一階段主要是以方向可控濾波器算法為主,組織和挑選掌線信息中的方向信息,其中描述信息的最佳方向個(gè)數(shù)通過方向特征的識(shí)別率進(jìn)行判斷。將得到的方向信息代入公式(8),通過計(jì)算得到信息的方向幅值,從而獲得對(duì)應(yīng)的方向圖。第二階段以HOG 算法進(jìn)行特征信息的統(tǒng)計(jì),通過雙層區(qū)域劃分,建立細(xì)胞單元與重疊區(qū)塊,通過對(duì)區(qū)塊中各個(gè)細(xì)胞單元的直方圖進(jìn)行歸一化處理,以區(qū)塊進(jìn)行細(xì)胞單元的特征掃描,最后串聯(lián)所有區(qū)塊的方向直方圖,得到完整區(qū)域內(nèi)的方向直方圖。
圖2 HOS 方向可控直方圖算法實(shí)現(xiàn)過程
在掌紋圖像的預(yù)處理中,需要進(jìn)行原始圖像的二值化,因?yàn)樵紙D像為彩色圖像,其中包含許多無關(guān)信息,所以需要將其轉(zhuǎn)換為灰度圖,這里利用轉(zhuǎn)換公式Gray=0.3R+0.59G+0.11B實(shí)現(xiàn)。通過設(shè)置背景和人手兩者不同的灰度閾值,對(duì)圖像進(jìn)行灰度等級(jí)劃分,可以將背景和人手兩者區(qū)分開來。
通過計(jì)算訓(xùn)練圖像和測(cè)試圖像之間的相似度大小,可以得到掌紋的特征匹配情況,這也是掌紋識(shí)別的關(guān)鍵任務(wù),可控方向直方圖算法中這一任務(wù)可以轉(zhuǎn)化為計(jì)算直方圖的相似度大小,在此以無參數(shù)統(tǒng)計(jì)中的曼哈頓距離和卡方距離進(jìn)行匹配。曼哈頓距離又被稱為出租車距離,因?yàn)槌鲎廛囁緳C(jī)計(jì)算兩個(gè)位置的距離是以曼哈頓地區(qū)橫平豎直的街區(qū)坐標(biāo)先進(jìn)行分別相減,再相加。這種劃分與本次研究中的圖像區(qū)域劃分有異曲同工之妙,式(9)為它的計(jì)算公式,以標(biāo)準(zhǔn)坐標(biāo)系中兩點(diǎn)的橫坐標(biāo)絕對(duì)值與縱坐標(biāo)絕對(duì)值之和進(jìn)行表示。
卡方距離是以卡方統(tǒng)計(jì)量為基準(zhǔn),衡量對(duì)象間的差異性,其計(jì)算公式如式(10)所示。
其中,S代表測(cè)試圖像的方向可控直方圖,M代表訓(xùn)練圖像的方向可控直方圖。用B表示bin 數(shù),b則表示這個(gè)直方圖的第i 個(gè)bin,通過式(10)可以計(jì)算訓(xùn)練圖像和測(cè)試圖像直方圖之間的距離。在得到圖像直方圖距離后,將提前設(shè)置的距離閾值與計(jì)算結(jié)果進(jìn)行比對(duì),當(dāng)計(jì)算的距離大小在距離閾值范圍內(nèi)時(shí),則說明測(cè)試圖像與訓(xùn)練圖像為正確的匹配結(jié)果。
香港理工大學(xué)的掌紋數(shù)據(jù)庫(kù)(PolyU II)中有7752 張掌紋灰度圖像數(shù)據(jù),這些數(shù)據(jù)來源于386只手掌,其中每一只手大約有20 張不同的樣本圖像。為驗(yàn)證上面所提出的HOS 算法性能,對(duì)PolyU II 掌紋數(shù)據(jù)庫(kù)中的386 只手掌掌紋進(jìn)行數(shù)據(jù)采集,采集分兩次進(jìn)行,每次采集10 張左右,兩次分別采集了3874 張和3868 張圖像。
為保證驗(yàn)證實(shí)驗(yàn)的可靠性,選擇了一些算法與HOS 算法進(jìn)行性能對(duì)比,分別是HOG 梯度方向直方圖算法(HOG)、kirsch方向統(tǒng)計(jì)方法(kirsch)、LBP局部二值模式(LBP)、LTP 局部三值模式(LTP)、LDP 局部方向模式(LDP)、融合Gabor 特征和LBP 方法(LBP_G),其中kirsch 卷積方法是與Steerable filter 進(jìn)行方向信息獲取性能的比較。對(duì)各種方法的參數(shù)設(shè)定進(jìn)行描述,選擇128×128 像素的圖像作為識(shí)別對(duì)象,HOG 算法選擇7×7 塊細(xì)胞單元cell,每塊像素大小為32×32,可細(xì)分為4 個(gè)區(qū)塊,且有部分重疊,梯度方向選擇9,特征維度為1764;kirsch 方法選擇kirsch 算子,卷積響應(yīng)值以每個(gè)像素8 個(gè)方向進(jìn)行計(jì)算,將每個(gè)圖像劃分為8×8 個(gè)區(qū)塊,每個(gè)區(qū)塊像素為16×16,無部分重疊,則特征維度為512;HOS 算法以Steerable filter 進(jìn)行9 個(gè)方向的特征計(jì)算,σ=1.5,每個(gè)像素圖像劃分為8×8 個(gè)區(qū)塊,每個(gè)區(qū)塊像素大小為16×16,無部分重疊,特征維度為579;LBP 和LTP 設(shè)置P 值為8,有 28個(gè)模式,每個(gè)圖像劃分為8×8 個(gè)區(qū)塊,每個(gè)區(qū)塊像素大小為16*16,無部分重疊,則LBP 特征維度為16384,LTP 特征維度為23768;LDP 采用kirsch卷積方法,相關(guān)設(shè)置與kirsch 方法一致,共 28個(gè)模式,則特征維度為16384;LBP_G 采用gabor 濾波器進(jìn)行小波濾波,σ=5.6179,8 個(gè)方向,5 種尺度,將每個(gè)圖像劃分為2×2 個(gè)區(qū)塊,均勻模式下有59 種,則特征維度為9440。這里以等錯(cuò)誤率EER 進(jìn)行算法性能評(píng)價(jià)指標(biāo)。
為了對(duì)訓(xùn)練圖像和測(cè)試圖像進(jìn)行相似度大小的度量,采用曼哈頓距離和卡方距離進(jìn)行相似性度量,表1 為各個(gè)算法下的卡方距離和曼哈頓距離,圖3 以柱形圖對(duì)各個(gè)算法下兩種距離度量進(jìn)行了直觀表示。從圖3 的統(tǒng)計(jì)結(jié)果可以看出,HOS 算法明顯優(yōu)于其他算法,無論是曼哈頓距離統(tǒng)計(jì),還是卡方距離統(tǒng)計(jì),其識(shí)別效率均達(dá)到99%以上;在保證單一變量的情況下,將HOS的Steerable filter 與kirsch 卷積方法進(jìn)行方向信息獲取性能的對(duì)比,Steerable filter 方法比kirsch 卷積方法獲取的方向信息更為豐富,算法識(shí)別率更高。除此之外,曼哈頓距離和卡方距離這兩種方法對(duì)大部分算法的識(shí)別率判斷差距較小,但其在LBP 和LDP 兩種算法的識(shí)別率判斷上存在較大分歧。
表1 卡方距離和曼哈頓距離下各算法識(shí)別率
圖3 曼哈頓距離和卡方距離匹配下各算法識(shí)別率對(duì)比
在評(píng)價(jià)智能算法的工作性能時(shí),通常會(huì)用到FRR、FAR、ARR、ROC 等指標(biāo)。本次研究采用ROC 曲線對(duì)研究算法的工作性能進(jìn)行評(píng)價(jià),它由FAR 和FRR 組成,相對(duì)全面地反映了系統(tǒng)工作性能;ROC 曲線上斜率為1 的點(diǎn)表示等錯(cuò)誤率EER,反映了算法的精確性。在這里以曼哈頓距離和卡方距離的等錯(cuò)誤率EER 對(duì)各個(gè)算法進(jìn)行性能評(píng)價(jià),結(jié)果如表2 所示,觀察數(shù)據(jù)結(jié)果可以看出,HOS 算法下的卡方距離EER 值為0.6563,曼哈頓距離EER 值為0.5308,HOS 算法的EER 值遠(yuǎn)小于其他算法,這說明HOS 算法的性能最好,能對(duì)掌紋的紋理走向進(jìn)行更為準(zhǔn)確的識(shí)別。
表2 各算法性能評(píng)價(jià)
本研究以掌紋特征識(shí)別為研究對(duì)象,對(duì)掌紋紋理走向特征提取進(jìn)行算法優(yōu)化。研究結(jié)果顯示:HOS 算法下的卡方距離EER 值和曼哈頓距離EER值分別為0.6563 和0.5308,HOS算法的EER 值遠(yuǎn)小于其他算法。通過驗(yàn)證對(duì)比實(shí)驗(yàn)說明,在目前所提出的掌紋圖像特征提取識(shí)別技術(shù)中,HOS 可控方向直方圖算法具有較好的識(shí)別性能,這為目前的圖像識(shí)別算法提供了一種新的組合思路,但研究仍舊存在一些不足,如在算法的參數(shù)上沒有進(jìn)行進(jìn)一步的優(yōu)化,這會(huì)在后續(xù)研究中進(jìn)行深入開展。