吳 超,邵 曦
(南京郵電大學(xué) 通信與信息工程學(xué)院,江蘇 南京 210003)
生物識(shí)別技術(shù)是使用人體特征進(jìn)行身份認(rèn)證的一種方法,人體特征包括人臉、指紋、虹膜和靜脈。與傳統(tǒng)生物特征相比,人體的指靜脈特征具有安全性、唯一性和長期不變性等優(yōu)點(diǎn)。1992年,北海道大學(xué)的研究人員第一次證明了世界上任意兩個(gè)人即使是雙胞胎都不可能擁有完全相同的靜脈特征[1-2]。由于指靜脈圖像是利用紅外攝像頭采集得到,與指紋采集等相比,指靜脈采集具有非接觸性,并且很難被竊取和偽造。與指紋、聲音和人臉等生物特征不同的是,即使某個(gè)手指受到損傷,依然可以利用其他手指靜脈[3-4]。
由于指靜脈作為生物特征識(shí)別具有顯著的優(yōu)勢(shì),因此國內(nèi)外都對(duì)此進(jìn)行了廣泛研究。國外對(duì)該領(lǐng)域研究較早,技術(shù)較為成熟。日本日立公司從1997年就開始這方面研究,2004年推出靜脈認(rèn)證的自動(dòng)存取款機(jī)[5-6]。2010年,該公司的NaotoMiura等在指靜脈采集裝置的設(shè)計(jì)、指靜脈圖像的獲取和指靜脈特征識(shí)別等多個(gè)方面進(jìn)行了深入研究并發(fā)表多篇文獻(xiàn)[7]。韓國國立大學(xué)的Joon Hwan等針對(duì)指靜脈圖像的預(yù)處理進(jìn)行研究,并在2009年發(fā)表的文獻(xiàn)中指出通過梯度、主曲率與二值化等方法對(duì)指靜脈圖像進(jìn)行預(yù)處理,可以有效提取靜脈紋路[8]。在國內(nèi),也有許多研究人員從事指靜脈識(shí)別研究。比如,張忠波等針對(duì)手指靜脈特征提取技術(shù),提出了基于曲波和神經(jīng)網(wǎng)絡(luò)的多尺度特征提取方法,取得了較好的識(shí)別效果[9]。
指靜脈圖像采集過程容易因光照強(qiáng)度、角度和環(huán)境溫度等外界因素的影響而降低圖像質(zhì)量。因此需要對(duì)指靜脈圖像進(jìn)行適當(dāng)?shù)念A(yù)處理,以降低外界因素對(duì)指靜脈識(shí)別的不利影響。指靜脈采集過程中,由于手指的旋轉(zhuǎn)、傾斜等會(huì)使同一手指靜脈在不同時(shí)刻產(chǎn)生輕微的旋轉(zhuǎn)角度,為了提高識(shí)別精度,需要對(duì)原始圖像進(jìn)行矯正。
近年來,由于計(jì)算機(jī)運(yùn)算能力的不斷提升,深度學(xué)習(xí)也有了巨大進(jìn)步,獲得了優(yōu)異的成果。2012年,Alex等在ImageNet圖像分類競(jìng)賽中利用AlexNet深度神經(jīng)網(wǎng)絡(luò)做出了非常好的效果,超過了其他所有淺層的方法[10]。深度學(xué)習(xí)可以通過學(xué)習(xí)一個(gè)深度非線性網(wǎng)絡(luò),實(shí)現(xiàn)復(fù)雜函數(shù)逼近,展現(xiàn)了其從少量樣本集中學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力。因此文中提出基于深度學(xué)習(xí)的指靜脈識(shí)別方法。
每個(gè)人的手指表皮下的靜脈紋路都是獨(dú)一無二的,即使是雙胞胎的對(duì)應(yīng)手指靜脈分布也一定不相同。當(dāng)進(jìn)入成年以后,手指靜脈圖像不再改變,具有較好的穩(wěn)定性和唯一性。這為指靜脈識(shí)別提供了醫(yī)學(xué)依據(jù)。
指靜脈圖像采集裝置是由近紅外光發(fā)生裝置和紅外攝像頭采集裝置組成。實(shí)驗(yàn)證明760~850nm波長的近紅外光對(duì)肌肉和骨骼具有較好的穿透能力,并且靜脈中的血紅蛋白對(duì)此范圍的近紅外光具有良好的吸收能力[11-12]。近紅外光從手指背部穿過,由于靜脈血紅蛋白可以吸收近紅外光,因此紅外攝像機(jī)采集到的手指圖像會(huì)形成一些較暗的紋路,這些紋路便是手指靜脈圖像。
然而由于光照強(qiáng)度、光照角度、骨骼和肌肉厚度等因素的影響,使得紅外攝像頭采集到的圖像除了包含指靜脈紋路外,還包含一些不規(guī)則的暗影和噪聲。這些噪聲會(huì)對(duì)后期的指靜脈識(shí)別產(chǎn)生干擾,需要對(duì)采集圖像做進(jìn)一步處理。
同一手指在不同時(shí)間采集手指靜脈時(shí),不可避免地會(huì)因?yàn)槭种概c設(shè)備角度的偏差而產(chǎn)生差異較大的手指靜脈圖像。因此需要對(duì)圖像進(jìn)行矯正。圖像矯正前,需要計(jì)算手指傾斜角度,并根據(jù)傾斜角通過圖像旋轉(zhuǎn)矯正原始圖像。
用F1(x,y)、F2(x,y)分別表示手指的左右邊界曲線,N1表示曲線F1上點(diǎn)的個(gè)數(shù),N2表示曲線F2上點(diǎn)的個(gè)數(shù)。(x1i,y1i)和(x2j,y2j)分別表示曲線F1第i個(gè)點(diǎn)的坐標(biāo)以及曲線F2第j個(gè)點(diǎn)的坐標(biāo)。圖像旋轉(zhuǎn)角度由以下公式給出:
(1)
(2)
(3)
(4)
(5)
(6)
(7)
(8)
(9)
得到指靜脈圖像傾斜角后,通過反向旋轉(zhuǎn)即可對(duì)圖像進(jìn)行矯正。
經(jīng)過上述方法獲取旋轉(zhuǎn)角后進(jìn)行反向旋轉(zhuǎn)得到矯正圖像。旋轉(zhuǎn)矯正后的圖像基本處于垂直角度,很好地解決了因?yàn)椴杉^程手指不同程度偏轉(zhuǎn)而產(chǎn)生的圖像差異問題。
通過指靜脈采集裝置采集到的原始圖像包含指靜脈特征區(qū)域和背景區(qū)域,為了減少背景對(duì)后續(xù)指靜脈特征提取的影響,需要去除背景區(qū)域,即感興趣區(qū)域提取(region of interest,ROI)[13-17]。文中使用形態(tài)學(xué)算法處理手指邊緣,獲得精確邊緣檢測(cè)。
使用Sobel算子進(jìn)行原始圖像的垂直邊緣檢測(cè),但由于光線較暗,邊緣檢測(cè)效果并不是很好,會(huì)出現(xiàn)斷斷續(xù)續(xù)的點(diǎn)。因此下一步采用形態(tài)學(xué)算法進(jìn)一步處理[18-20]。
對(duì)上一步的邊緣檢測(cè)結(jié)果進(jìn)行閉合操作,閉操作可使輪廓線更光滑,減少狹窄的間斷和細(xì)長的鴻溝,消除小的空洞,并填補(bǔ)輪廓線中的斷裂。接著進(jìn)一步骨骼化,細(xì)化邊緣區(qū)域,由此可以得到清晰明確的兩條邊界線。根據(jù)圖像左右的邊界線切割圖像得到指靜脈區(qū)域圖像。為了便于后續(xù)處理,把所有指靜脈圖像尺寸都放縮至300*100。
ROI圖像提取如圖1所示。
圖1 ROI圖像提取
由于紅外光易受到手指肌肉和骨骼的影響,在非靜脈區(qū)域也會(huì)含有大量暗部。這使指靜脈圖像的對(duì)比度降低,對(duì)圖像識(shí)別產(chǎn)生不利影響。這里引入一個(gè)高斯高通濾波器來增強(qiáng)圖像的對(duì)比度[21-22]。濾波器的公式如下:
(10)
D(x,y)定義如下:
D(x,y)=[(x-x0)2+(y-y0)2]1/2
(11)
其中,D(x,y)表示中心點(diǎn)與點(diǎn)(x,y)的距離,卷積模板的中心點(diǎn)為D0(x0,y0)。通過更改系數(shù)a,b的值來調(diào)節(jié)濾波器的濾波效果。文中卷積模板尺寸為9,a和b的取值分別為12.41和-4。
實(shí)驗(yàn)結(jié)果表明,濾波后的圖像對(duì)比度明顯高于原始圖像,很好地去除了暗部的不利影響。
深度學(xué)習(xí)(也稱深度結(jié)構(gòu)化學(xué)習(xí),分層學(xué)習(xí)或深層機(jī)器學(xué)習(xí))是基于一組算法的機(jī)器學(xué)習(xí)的分支,深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示[23]。
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究中的一個(gè)新領(lǐng)域,其目的在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機(jī)制來解釋數(shù)據(jù),例如圖像,聲音和文本。深度學(xué)習(xí)領(lǐng)域的研究主要致力于尋找對(duì)數(shù)據(jù)更好的表示以及構(gòu)建模型來從大規(guī)模無標(biāo)簽的數(shù)據(jù)中學(xué)習(xí)這些特征表示。一些研究人員受到神經(jīng)學(xué)科的啟發(fā),基于神經(jīng)系統(tǒng)中的信息處理和通信模式的解釋構(gòu)建出多種模型。諸如深度神經(jīng)網(wǎng)絡(luò)、卷積深度神經(jīng)網(wǎng)絡(luò)、深度信念網(wǎng)絡(luò)和復(fù)現(xiàn)神經(jīng)網(wǎng)絡(luò)的各種深度學(xué)習(xí)架構(gòu)已經(jīng)應(yīng)用于計(jì)算機(jī)視覺、自動(dòng)語音識(shí)別、自然語言處理、音頻識(shí)別和生物信息學(xué)等領(lǐng)域,并且顯示出了一定的優(yōu)勢(shì)。
2012年,Geoffrey Hinton和Alex在ImageNet的競(jìng)賽中使用一個(gè)8層的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)刷新了圖像分類的記錄,奠定了深度學(xué)習(xí)在計(jì)算機(jī)視覺中的地位,后來大家把這8層的CNN命名為AlexNet。AlexNet是一種典型的卷積神經(jīng)網(wǎng)絡(luò),共有8層,其中前5層是卷積層,后3層全連接,最后的一個(gè)全連接層的輸出是softmax。
整體結(jié)構(gòu)如圖2所示。
圖2 AlexNet網(wǎng)絡(luò)結(jié)構(gòu)
該卷積神經(jīng)網(wǎng)絡(luò)涉及到以下幾個(gè)部分:ReLU激活函數(shù)、卷積和池化。
(1)ReLU激活函數(shù)[24]。
Sigmoid是常用的非線性激活函數(shù),它能夠把輸入的連續(xù)實(shí)值“壓縮”到0和1之間。特別的,如果是非常大的負(fù)數(shù),那么輸出就是0;如果是非常大的正數(shù),輸出就是1。但是它有一些缺點(diǎn):當(dāng)輸入非常大或者非常小時(shí),會(huì)有飽和現(xiàn)象,這些神經(jīng)元的梯度是接近于0的。如果初始值很大的話,梯度在反向傳播時(shí)因?yàn)樾枰松弦粋€(gè)Sigmoid的導(dǎo)數(shù),使得梯度越來越小,導(dǎo)致網(wǎng)絡(luò)變得很難學(xué)習(xí)。并且Sigmoid的輸出不是0均值,這會(huì)導(dǎo)致后一層的神經(jīng)元將得到上一層輸出的非0均值的信號(hào)作為輸入,會(huì)對(duì)訓(xùn)練產(chǎn)生不利影響。因此這里用ReLU激活函數(shù)來替代Sigmod激活函數(shù)。
(2)卷積。
AlexNet的核心就是卷積層。卷積運(yùn)算一個(gè)重要的特點(diǎn)就是增強(qiáng)原信號(hào)特征,并且降低噪音。不同的卷積核能夠提取到圖像中的不同特征。
(3)池化。
池化是在卷積特征提取的基礎(chǔ)上,對(duì)每個(gè)卷積特征進(jìn)行取平均(或者取最大值),進(jìn)一步縮小隱藏節(jié)點(diǎn)對(duì)應(yīng)的卷積特征維數(shù),減小分類器的設(shè)計(jì)負(fù)擔(dān)。
AlexNet神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)有6000萬個(gè)參數(shù),這給神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)帶來了很大問題。較多的參數(shù)使得學(xué)習(xí)成本增高,并且可能帶來過擬合的問題。因此提出改進(jìn)方法,在不降低神經(jīng)網(wǎng)絡(luò)性能的前提下,進(jìn)一步減少神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的參數(shù)數(shù)量。策略如下:
(1)替換原來的3*3的卷積核為1*1的卷積核。
(2)減少輸入3*3卷積的特征圖(feature map)的數(shù)量。
具體實(shí)現(xiàn)中,將AlexNet網(wǎng)絡(luò)的每個(gè)卷積層分為兩個(gè)自帶ReLU函數(shù)的卷積層,第一層的卷積核大小為1*1,第二層的卷積中包含1*1和3*3兩種卷積核大小。在ImageNet上,參數(shù)數(shù)目可減少50倍。
改進(jìn)后的AlexNet整體網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。
圖3 網(wǎng)絡(luò)結(jié)構(gòu)
Caffe是一個(gè)清晰而高效的深度學(xué)習(xí)框架[25]。由于其模型與相關(guān)的優(yōu)化都是以文本的形式給出,因此使用Caffe框架可以方便地定義神經(jīng)網(wǎng)絡(luò),并可以通過命令行或者接口的調(diào)用來方便地對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。因此文中所有實(shí)驗(yàn)都是在Caffe框架下進(jìn)行。
在Caffe中有兩個(gè)核心配置文件train_val.prototxt和solver.prototxt。train_val.prototxt文件是網(wǎng)絡(luò)配置文件,該文件通過layer參數(shù)來定義不同的網(wǎng)絡(luò)層。solver.prototxt文件是Caffe運(yùn)行的關(guān)鍵,它協(xié)調(diào)著整個(gè)模型的運(yùn)作。在深度學(xué)習(xí)中,loss函數(shù)往往是非凸的,沒有解析解,必須找到一個(gè)優(yōu)化方法來求解。solver的主要作用就是交替調(diào)用前向(forward)算法和后向(backward)算法來更新參數(shù),從而最小化loss,實(shí)際上就是一種迭代的優(yōu)化算法。
在計(jì)算loss函數(shù)時(shí),傳統(tǒng)的梯度下降算法(gradient descent,GD)要通過所有樣本計(jì)算梯度,而隨機(jī)梯度下降算法(stochastic gradient descent,SGD)通過一個(gè)樣本或部分樣本計(jì)算一個(gè)近似的梯度,因此SGD計(jì)算量要更小。在訓(xùn)練集較大時(shí),SGD算法收斂速度更快。因此文中采用SGD算法。
實(shí)驗(yàn)數(shù)據(jù)采集于123個(gè)人的四根手指,每根手指采集12張靜脈圖片,即數(shù)據(jù)集的大小為492*12。為了對(duì)網(wǎng)絡(luò)模型進(jìn)行更好的訓(xùn)練,減少數(shù)據(jù)集過擬合的問題,對(duì)該數(shù)據(jù)集進(jìn)行擴(kuò)展。擴(kuò)展的方法是對(duì)原始圖像進(jìn)行隨機(jī)抽取。抽取方式有兩種,第一種方法是在尺寸為300*100的原始圖像上隨機(jī)抽取一個(gè)尺寸為270*90的子圖像,并將原始圖像和抽取圖像統(tǒng)一壓縮尺寸到60*30。第二種方法是對(duì)原始圖像進(jìn)行順時(shí)針和逆時(shí)針旋轉(zhuǎn),旋轉(zhuǎn)角度范圍為[0,2],并將原始圖像和抽取圖像統(tǒng)一壓縮尺寸到60*30。利用上述兩種抽取方式來擴(kuò)展數(shù)據(jù)集,將原始數(shù)據(jù)集的大小由492*12擴(kuò)大為492*120。
實(shí)驗(yàn)結(jié)果表明,通過這兩種方式擴(kuò)展得到的數(shù)據(jù)集具有良好的訓(xùn)練效果。
通過上一節(jié)所提方法得到的數(shù)據(jù)集有492類手指圖像,每類包含120張。利用該數(shù)據(jù)集進(jìn)行模型訓(xùn)練。
該實(shí)驗(yàn)利用Caffe開源框架設(shè)計(jì)和實(shí)現(xiàn)深度神經(jīng)網(wǎng)絡(luò)。其中計(jì)算機(jī)CPU型號(hào)為E7440,主頻2.4GHz,8核16G內(nèi)存。
利用Caffe框架對(duì)該神經(jīng)網(wǎng)絡(luò)進(jìn)行迭代訓(xùn)練達(dá)到80000次,實(shí)驗(yàn)結(jié)果如表1、圖4和圖5所示。由表1可以看出,隨著訓(xùn)練次數(shù)的增多,識(shí)別率逐漸提高,loss值逐步降低。由圖4和圖5可知,當(dāng)訓(xùn)練次數(shù)達(dá)到70000~80000次時(shí),整個(gè)網(wǎng)絡(luò)模型趨于穩(wěn)定。
表1 訓(xùn)練結(jié)果
圖4 識(shí)別率變化曲線 圖5 loss值變化曲線
以上實(shí)驗(yàn)表明,改進(jìn)過的AlexNet神經(jīng)網(wǎng)絡(luò)對(duì)指靜脈圖像進(jìn)行分類能夠得到較好的結(jié)果。
隨著信息技術(shù)的高速發(fā)展,對(duì)生物特征識(shí)別技術(shù)的需求越來越高。由最開始的指紋識(shí)別、語音識(shí)別到后來的虹膜識(shí)別和指靜脈識(shí)別,每一次技術(shù)的突破都意味著信息安全的重要性不斷得到重視。如今,電子產(chǎn)品與人類的交互越來越頻繁,人們對(duì)設(shè)備的數(shù)據(jù)安全需求不斷提高,因此研究指靜脈識(shí)別具有很好的現(xiàn)實(shí)意義。近來發(fā)展火熱的深度學(xué)習(xí)證明了其在圖像分類等領(lǐng)域的優(yōu)勢(shì)。實(shí)驗(yàn)結(jié)果表明,利用深度學(xué)習(xí)構(gòu)造深度神經(jīng)網(wǎng)絡(luò)模型,對(duì)指靜脈圖像的分類具有良好的效果。
[1] XI X,YANG G,YIN Y,et al.Finger vein recognition with personalized feature selection[J].Sensors,2013,13(9):11243-11259.
[2] KONO M,UEKI H,UMEMURA S.A new method for the identification of individuals by using of vein pattern matching of a finger[C]//Proceedings of the5th symposium on pattern measurement.Yamaguchi,Japan:[s.n.],2000:9-12.
[3] XIE S J,YANG J,YOON S,et al.Guided Gabor filter for finger vein pattern extraction[C]//Eighth international conference on signal image technology and internet based systems.[s.l.]:IEEE,2012:118-123.
[4] LU Y,YOON S,XIE S J,et al.Finger vein recognition using histogram of competitive Gabor responses[C]//22nd international conference on pattern recognition.[s.l.]:IEEE,2014:1758-1763.
[5] JAIN A K,ROSS A,PANKANTI S.Biometrics:a tool for information security[J].IEEE Transactions on Information Forensics and Security,2006,1(2):125-143.
[6] KONO M,UEKI H, UMEMURA S. Near-infrared finger vein patterns for personal identification[J].Applied Optics,2002,41(35):7429-7436.
[7] YAMADA J,NISHIKAWA Y.Personal identification device and method:U.S,6907134[P].2005-06-14.
[8] CHOI J H.Finger vein extraction using gradient normalization and principal curvature[J].Proceedings of SPIE,2009,7251:725111.
[9] ZHANG Z,MA S,HAN X.Multiscale feature extraction of finger-vein patterns based on curvelets and local interconnection structure neural network[C]//International conference on pattern recognition.[s.l.]:IEEE Computer Society,2006:145-148.
[10] KRIZHEVSKY A,SUTSKEVER I,HINTON G E.ImageNet classification with deep convolutional neural networks[C]//International conference on neural information processing systems.[s.l.]:Curran Associates Inc,2012:1097-1105.
[11] MIURA N,NAGASAKA A,MIYATAKE T.Feature extraction of finger-vein patterns based on repeated line tracking and its application to personal identification[J].Machine Vision and Applications,2004,15(4):194-203.
[12] 楊數(shù)強(qiáng),王軍強(qiáng),周 濤.手指靜脈采集控制板的研制[J].計(jì)算機(jī)工程與應(yīng)用,2011,47(27):80-82.
[13] YANG J,SHI Y.Finger-vein ROI localization and vein ridge enhancement[J].Pattern Recognition Letters,2012,33(12):1569-1579.
[14] 楊金鋒,張海金.手指靜脈圖像感興趣區(qū)域提取方法研究[J].山東大學(xué)學(xué)報(bào):工學(xué)版,2012,42(3):6-12.
[15] 苑瑋琦,高潔睿.基于局部灰度極小值的指靜脈圖像分割方法[J].計(jì)算機(jī)技術(shù)與發(fā)展,2016,26(7):109-111.
[16] 余成波,秦華鋒.手指靜脈圖像特征提取算法的研究[J].計(jì)算機(jī)工程與應(yīng)用,2008,44(24):175-177.
[17] 楊 穎,楊公平.手指靜脈識(shí)別技術(shù)[J].計(jì)算機(jī)科學(xué)與探索,2012,6(4):343-354.
[18] LIU Z,YIN Y,WANG H,et al.Finger vein recognition with manifold learning[J].Journal of Network & Computer Applications,2010,33(3):275-282.
[19] WANG J X.Gabor filter based fingerprint image enhancement[C]//Fifth international conference on machine vision.[s.l.]:International Society for Optics and Photonics,2013.
[20] 岡薩雷斯,伍 茲,埃丁斯,等.數(shù)字圖像處理:MATLAB版[M].北京:電子工業(yè)出版社,2005.
[21] ROSDI B A,SHING C W,SUANDI S A.Finger vein recognition using local line binary pattern[J].Sensors,2011,11(12):11357-11371.
[22] 劉 洋,郭樹旭,張鳳春,等.基于稀疏分解的指靜脈圖像去噪[J].信號(hào)處理,2012,28(2):179-185.
[23] AREL I,ROSE D C,KARNOWSKI T P.Deep machine learning-a new frontier in artificial intelligence research [research frontier][J].IEEE Computational Intelligence Magazine,2010,5(4):13-18.
[24] GLOROT X,BORDES A,BENGIO Y.Deep Sparse Rectifier Neural Networks[C]//International conference on artificial intelligence and statistics.[s.l.]:[s.n.],2011:315-323.
[25] JIA Y,SHELHAMER E,DONAHUE J,et al.Caffe:convolutional architecture for fast feature embedding[C]//Proceedings of the22nd ACM international conference on multimedia.[s.l.]:ACM,2014:675-678.