劉焰 李超
摘? 要:在新興信息技術(shù)推動(dòng)社會(huì)快速發(fā)展的背景下,信息技術(shù)給人們在生活、工作、學(xué)習(xí)等各個(gè)方面帶來了便利,不可忽視的是,技術(shù)的快速發(fā)展同時(shí)也存在著一定的不穩(wěn)定因素。當(dāng)前以生物特征為特點(diǎn)的鑒定技術(shù)頗受歡迎,其中的指紋識(shí)別具備高度的方便性和可靠性,但傳統(tǒng)的指紋識(shí)別通常需要高質(zhì)量、完整、清晰的識(shí)別對象,因此指紋出現(xiàn)污損、模糊等問題時(shí)會(huì)導(dǎo)致識(shí)別率降低。研究基于深度學(xué)習(xí)的污損指紋識(shí)別算法,來有效解決這些問題。
關(guān)鍵詞:指紋識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);指紋深層特征
引言:
與傳統(tǒng)的身份鑒定方法對比,指紋識(shí)別降低了被破譯的風(fēng)險(xiǎn),克服了傳統(tǒng)身份認(rèn)定方式準(zhǔn)確性和便利性不足的缺點(diǎn),利用不同的個(gè)體生物具有不同生理特征的特點(diǎn)來進(jìn)行識(shí)別。目前,基于特征點(diǎn)對比的指紋識(shí)別技術(shù)已達(dá)到較高水準(zhǔn),而針對指紋污損問題,仍需要提升識(shí)別準(zhǔn)確率。作為深度學(xué)習(xí)算法的其中一種,卷積神經(jīng)網(wǎng)絡(luò)(CNN)在模式識(shí)別和圖像處理上得到廣泛應(yīng)用,其具有網(wǎng)絡(luò)結(jié)構(gòu)簡單、訓(xùn)練參數(shù)少以及適用性較強(qiáng)的優(yōu)點(diǎn),在指紋識(shí)別上有效獲得較高的識(shí)別率。
一、污損指紋識(shí)別帶來的困難和挑戰(zhàn)
根據(jù)我國的指紋檔案數(shù)據(jù)顯示,具有比較完整和高質(zhì)量的指紋占比僅達(dá)總體的20%,而傳統(tǒng)的指紋識(shí)別要求匹配的特征點(diǎn)數(shù)量達(dá)到一定的值域才可識(shí)別,污損指紋的特征點(diǎn)數(shù)量匹配不足則難以準(zhǔn)確識(shí)別,識(shí)別污損指紋具有相當(dāng)?shù)睦щy和挑戰(zhàn),主要體現(xiàn)在以下幾個(gè)方面:一是對污損指紋的圖像預(yù)處理,運(yùn)用相關(guān)算法對原圖進(jìn)行處理,獲得清晰的線條,去除偽特征點(diǎn),并盡量修復(fù)指紋缺損的部分,預(yù)處理的效果將極大地影響后面的指紋匹配,但是指紋處理存在局限性,即使反復(fù)處理也不一定能完全克服污損帶來的缺陷。二是提取污損指紋的特征信息,在特征信息較少的情況下,需要選取比較具有代表性的特征信息進(jìn)行準(zhǔn)確的數(shù)據(jù)替換,這就要求研究如何從中提出足夠有用的特征信息的理想方法。三是進(jìn)行指紋匹配,污損指紋有效信息不足、錯(cuò)誤的特征點(diǎn)干擾、非線性畸變嚴(yán)重等問題極大地增加了匹配難度。面對污損指紋帶來的種種困難和挑戰(zhàn),我們必須處理好指紋識(shí)別困難的問題,增強(qiáng)指紋識(shí)別技術(shù)的普適性,保證技術(shù)的穩(wěn)定發(fā)展。
二、基于深度學(xué)習(xí)的污損指紋識(shí)別研究
(一)卷積神經(jīng)網(wǎng)絡(luò)(CNN)
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是由早期的生物學(xué)家Hubel 和Wiesel 對貓視覺皮層研究的啟發(fā),是深度學(xué)習(xí)的代表算法之一。卷積神經(jīng)網(wǎng)絡(luò)通過挖掘數(shù)據(jù)在空間上的相關(guān)性,以局部連接的方式來簡化調(diào)優(yōu)過程,能夠按其階層結(jié)構(gòu)對輸入信息進(jìn)行平移不變分類,它是由一個(gè)輸入層、多個(gè)卷積層和池化層、全連接層、一個(gè)輸出層共同組成,與其他深度學(xué)習(xí)算法對比,卷積神經(jīng)網(wǎng)絡(luò)不僅在圖像和語音方面的比較突出,還因?yàn)槠渚植窟B接方式使得需要調(diào)整的訓(xùn)練參數(shù)比較少,而更容易訓(xùn)練。因此本文將運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)(CNN)算法對污損指紋進(jìn)行分類識(shí)別,以在較短時(shí)間內(nèi)爭取到高識(shí)別率。
(二)FFPF_CNN算法
FFPF_CNN算法即利用卷積神經(jīng)網(wǎng)絡(luò)算法在對指紋特征點(diǎn)模糊化圖后進(jìn)行污損指紋的特征提取和識(shí)別。具體的計(jì)算過程為:(1)根據(jù)Poincare公式提取指紋特征的奇異點(diǎn),并提取端點(diǎn)與叉點(diǎn)等非奇異點(diǎn),完成污損指紋所有的特征點(diǎn)提取后做好標(biāo)記工作。(2)進(jìn)行模糊化處理即濾波處理,弱化具體的指紋線條和提取的特征點(diǎn)之間的具體位置,使其具有高度的旋轉(zhuǎn)移動(dòng)不變性。(3)最后運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)算法對指紋特征模糊化圖進(jìn)行準(zhǔn)確識(shí)別。這種算法的優(yōu)勢在于免除了污損指紋修復(fù)的過程,簡化了指紋特征提取過程,在一定程度上提高了對污損指紋的識(shí)別率,但值得注意的是,計(jì)算過程中的端點(diǎn)提取方法在指紋有缺損的情況下,將會(huì)提取出許多偽端點(diǎn),這無疑會(huì)影響到指紋的識(shí)別效果,因此需要進(jìn)一步研究解決的策略和方法。
(三)CBF_CNN算法
針對FFPF_CNN算法存在的不足,對此提供一種新的污損指紋識(shí)別算法,CBF_CNN算法即將提取的指紋中心塊圖輸入卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行識(shí)別的方法。具體過程為:(1)根據(jù)Poincare 公式提取污損指紋的中心點(diǎn)后做好標(biāo)記工作。(2)運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)(CNN)算法確定正確的指紋中心點(diǎn),裁剪破損的部分,保留指紋的核心特征信息。(3)截取以正確的指紋中心點(diǎn)為中心的正方塊圖,圖的大小由指紋缺損程度的大小來決定。(4)最后運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)算法對截取的中心塊圖作分類識(shí)別。這種識(shí)別算法主要是解決FFPF_CNN算法存在的問題,與FFPF_CNN算法相比較,它的算法過程更為簡單,保留和利用部分準(zhǔn)確的特征點(diǎn)信息,同時(shí)又能避免錯(cuò)誤的信息干擾,是有效識(shí)別污損指紋的方式。
在實(shí)驗(yàn)CBF_CNN算法過程中發(fā)現(xiàn),盡管利用污損指紋的中心塊圖起到一定的識(shí)別提升效果,但是僅僅使用其中的一小部分指紋特征信息,而舍棄其他區(qū)域,造成信息浪費(fèi)。因此為充分利用好指紋信息,對CBF_CNN算法作出一些改進(jìn):將中心圖塊轉(zhuǎn)變?yōu)槎喾謮K圖,以中心特征點(diǎn)為中心,截取其他八個(gè)分塊圖,組成九宮格的形式,從增加塊圖數(shù)量來保證充分提取指紋的信息。除此之外,還可以采用將FFPF_CNN算法與CBF_CNN算法相結(jié)合的方式,處理過的圖像由特征點(diǎn)的模糊化圖與中心塊圖拼接而成,使指紋信息特征實(shí)現(xiàn)利用最大化。
綜上所述,深度學(xué)習(xí)在指紋識(shí)別應(yīng)用中有著較大的優(yōu)勢,解決了傳統(tǒng)識(shí)別方法無法在指紋受到污損的情況下準(zhǔn)確識(shí)別的問題,對污損指紋進(jìn)行有效性的處理,從而達(dá)到較好的識(shí)別效果。以上提供的兩種基于深度學(xué)習(xí)的污損指紋識(shí)別算法:FFPF_CNN算法以及CBF_CNN算法。兩種算法均是利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行信息提取和識(shí)別的計(jì)算模型,其仍存在一些不足,希望在將來的工作中能夠逐漸完善。
參考文獻(xiàn)
[1]? 吳震東,王雅妮,章堅(jiān)武. 基于深度學(xué)習(xí)的污損指紋識(shí)別研究[J]. 電子與信息學(xué)報(bào),2017,39(07):1585-1591.
[2]? 王雅妮. 基于深度學(xué)習(xí)的困難指紋識(shí)別研究[D].杭州電子科技大學(xué),2017.
基金項(xiàng)目:論文來源:訓(xùn)練計(jì)劃,2019年省級(jí)大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目《互聯(lián)網(wǎng)+指臉》(項(xiàng)目編號(hào)S201913814032),項(xiàng)目負(fù)責(zé)人:劉焰。
作者簡介:劉焰(1999-),女,2018級(jí)移動(dòng)互聯(lián)應(yīng)用技術(shù)1班學(xué)生,研究方向:圖像識(shí)別與處理;李超(1980-),男,廣安職業(yè)技術(shù)學(xué)院講師,大學(xué)生創(chuàng)新創(chuàng)業(yè)導(dǎo)師,研究方向:人工智能與物聯(lián)網(wǎng)技術(shù)。