李云飛, 盧朝陽(yáng), 李 靜, 姚 超
(西安電子科技大學(xué) 綜合業(yè)務(wù)網(wǎng)理論及關(guān)鍵技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,陜西 西安 710071)
隨著信息化技術(shù)的發(fā)展,生物特征識(shí)別技術(shù)已成為保障公共和個(gè)人安全的核心技術(shù),在金融、安全、網(wǎng)絡(luò)和電子商務(wù)等領(lǐng)域都有著非常廣闊的應(yīng)用前景.人臉圖像是每個(gè)人固有的生物特征,與指紋、虹膜等其他生物特征圖像相比具有采集方式友好、采集設(shè)備隱蔽性高等優(yōu)點(diǎn),所以人臉識(shí)別在身份識(shí)別、檢索、安全監(jiān)控等方面已被廣泛應(yīng)用,一直是模式識(shí)別領(lǐng)域的一個(gè)研究熱點(diǎn).
但人臉圖像在獲取時(shí)存在一些不穩(wěn)定因素,如表情、胡須、發(fā)型、光照、姿態(tài)、胖瘦、年齡等變化始終影響著人臉識(shí)別的準(zhǔn)確性.和人臉識(shí)別相比,虹膜識(shí)別、指紋識(shí)別、DNA識(shí)別等雖然精度高,但其數(shù)據(jù)采集比較麻煩,且需要被測(cè)試對(duì)象密切配合.而鼻子是人臉中最主要、最顯著的器官之一,不易遮擋和隱藏,在人的一生中形狀比較固定,受表情、胡須、發(fā)型、胖瘦影響?。?/p>
最近有學(xué)者提出將鼻子區(qū)域作為生物特征進(jìn)行個(gè)體身份識(shí)別[1-6],但文獻(xiàn)中都是針對(duì)三維人臉數(shù)據(jù)進(jìn)行分析,筆者旨在分析二維人臉數(shù)據(jù)中鼻子區(qū)域的識(shí)別性能.首先對(duì)鼻子的生物特征進(jìn)行了分析,并對(duì)Gabor核Fisher判別分析(Gabor Kernel Fisher Discriminant Analysis,GKFA)算法進(jìn)行了優(yōu)化;然后選擇了正面中性表情人臉數(shù)據(jù)庫(kù)ORL、正面表情人臉數(shù)據(jù)庫(kù)JAFFE和側(cè)面旋轉(zhuǎn)角度比較大的人臉數(shù)據(jù)庫(kù)FEI,分別裁剪組成相應(yīng)的鼻子數(shù)據(jù)庫(kù);最后用優(yōu)化后的GKFA算法對(duì)所截取的鼻子數(shù)據(jù)庫(kù)和相應(yīng)的人臉數(shù)據(jù)庫(kù)進(jìn)行了識(shí)別比較.實(shí)驗(yàn)結(jié)果表明,利用鼻子區(qū)域進(jìn)行生物特征識(shí)別可以避免人臉識(shí)別中表情和姿態(tài)的影響,完全可以作為單獨(dú)的生物特征進(jìn)行個(gè)體身份鑒別.
圖1 鼻子結(jié)構(gòu)圖
通常,一個(gè)正常人的鼻子由外鼻、鼻腔和鼻竇3部分組成,而鼻型則由外鼻決定.外鼻分為鼻根、鼻梁、鼻尖和鼻翼4部分,如圖1所示.
整個(gè)鼻子主要由骨質(zhì)組織構(gòu)成,共有6塊骨骼,左右對(duì)稱,形成一個(gè)突出的三棱錐體.覆蓋鼻上部 2/3 的皮膚松弛,富于彈性,皮膚伸展、擴(kuò)張容易,而覆蓋鼻下部 1/3 的皮膚則緊附著在下面的皮下組織,皮膚不容易伸展、擴(kuò)張[7].醫(yī)學(xué)研究結(jié)果表明,人骨是成比例生長(zhǎng)且整體結(jié)構(gòu)比例基本保持不變,一般在18歲左右比例就穩(wěn)定而不會(huì)再長(zhǎng)了,以后僅僅是骨質(zhì)內(nèi)有機(jī)物質(zhì)發(fā)生變化,而其外觀仍能保持原有的形狀[8].
由于鼻子主要由骨質(zhì)組織構(gòu)成,沒(méi)有肌肉組織覆蓋,因骨骼的生理特性決定,鼻子在人的一生中具有穩(wěn)定的形狀,與眾多的生物特征相比,人的鼻子作為一種生物特征具有獨(dú)特的優(yōu)勢(shì):
(1) 鼻子是每個(gè)正常人都具有并且惟一的生物特征.每個(gè)人的鼻子具有相對(duì)獨(dú)特的形狀和比例,可以用其作為生物特征進(jìn)行個(gè)體身份鑒別[1-2,4-5].
(2) 鼻子受表情變化影響比較?。嗣娌勘砬橹饕梢唤M表情肌產(chǎn)生,而表情肌主要分布在眼睛、嘴巴周圍和額頭、臉頰區(qū)域,表情的變化對(duì)鼻子形狀的變化影響較小[9].
(3) 鼻子受年齡和胖瘦變化影響比較?。趮胗變旱匠扇穗A段,人臉各個(gè)部位成比例生長(zhǎng),大概從35歲以后,人臉開(kāi)始出現(xiàn)衰老跡象,主要變化是肌膚開(kāi)始松弛,出現(xiàn)皺紋.面部最容易衰老的部位是眼袋、額頭、頸部、法令紋,而鼻子影響最小[10];人的胖瘦表現(xiàn)在面部主要是臉頰、下巴和頸部肌肉的增減,由于鼻子主要由骨質(zhì)組織構(gòu)成,沒(méi)有肌肉組織覆蓋,所以鼻子不會(huì)受胖瘦變化的影響.
圖2 AR和UMB-DB人臉數(shù)據(jù)庫(kù)中的遮擋人臉示例圖
(4) 鼻子部分不易遮擋.在人臉識(shí)別中,最易受遮擋影響的因素主要有墨鏡、圍巾、帽子、口罩、胡須、手勢(shì)等,如圖2所示.相對(duì)人臉其他部位,鼻子不容易被遮擋.
(5) 鼻子具有獨(dú)特的姿態(tài)辨別優(yōu)勢(shì).人臉識(shí)別受姿態(tài)影響比較大,在人臉姿態(tài)變化比較大的情況下識(shí)別效果明顯變差.而鼻子即使在正面人臉轉(zhuǎn)動(dòng)90°時(shí),仍能提取其顯著的輪廓信息[4].
目前,國(guó)內(nèi)外還沒(méi)有專門的鼻子圖像數(shù)據(jù)庫(kù),為了比較驗(yàn)證鼻子區(qū)域的識(shí)別性能,實(shí)驗(yàn)選取正面中性表情人臉數(shù)據(jù)庫(kù)ORL、正面表情人臉數(shù)據(jù)庫(kù)JAFFE和側(cè)面旋轉(zhuǎn)角度比較大的人臉數(shù)據(jù)庫(kù)FEI,分別裁剪出鼻子區(qū)域構(gòu)成鼻子數(shù)據(jù)庫(kù).裁剪時(shí)以鼻子為中心,裁成一個(gè)上至眉間點(diǎn),下至鼻下點(diǎn),左右包括兩側(cè)鼻翼點(diǎn)的矩形區(qū)域.
ORL人臉數(shù)據(jù)庫(kù)是基于表情和姿態(tài)變化的人臉數(shù)據(jù)庫(kù),但表情和姿態(tài)變化幅度都很?。摂?shù)據(jù)庫(kù)有40個(gè)人,每人10張不同姿態(tài)和表情的人臉圖像,共400張,這些圖像在不同時(shí)間獲取,具有不同的表情和面部細(xì)節(jié),而且稍許傾斜(不超過(guò)20°),每張圖片的大小是 112×92 像素,灰度級(jí)為256.實(shí)驗(yàn)中,對(duì)每幅人臉圖像進(jìn)行了裁剪,同時(shí)裁剪出鼻子區(qū)域構(gòu)成鼻子樣本庫(kù),如圖3所示.
圖3 ORL數(shù)據(jù)庫(kù)中人臉與其對(duì)應(yīng)鼻子圖像示例
JAFFE 數(shù)據(jù)庫(kù)包含10個(gè)人的213張圖片,要求采集者分別做出7 種表情(中性、高興、難過(guò)、驚奇、生氣、惡心、害怕),每人每種表情采集2~4張,每張圖片的大小是 256×256 像素.實(shí)驗(yàn)對(duì)每幅人臉圖像進(jìn)行了裁剪,同時(shí)裁剪出鼻子區(qū)域構(gòu)成鼻子樣本庫(kù),如圖4所示.
圖4 JAFFE數(shù)據(jù)庫(kù)中人臉與其對(duì)應(yīng)鼻子圖像示例
FEI是一個(gè)巴西人臉數(shù)據(jù)庫(kù),取自FEI實(shí)驗(yàn)室的200名19歲到40歲的學(xué)生和員工,每個(gè)人有14張包括表情和光照變化的彩色圖像,面部表情包含中性和微笑,大小為 640×480 像素,每張圖像都具有相同的白色背景,人臉從側(cè)面最左到最右旋轉(zhuǎn)角度接近180°.實(shí)驗(yàn)選取數(shù)據(jù)庫(kù)中的后50個(gè)人作為測(cè)試對(duì)象,對(duì)每幅人臉圖像進(jìn)行了裁剪,同時(shí)裁剪出鼻子區(qū)域構(gòu)成鼻子樣本庫(kù),如圖5所示.
圖5 FEI數(shù)據(jù)庫(kù)中人臉與其對(duì)應(yīng)鼻子圖像示例
所截取的鼻子區(qū)域不可避免地包括了左右眼內(nèi)角,而眼角和鼻子的位置距離相對(duì)比較固定,受表情、遮擋影響比較小,是人臉中的重要特征信息.因而所截取的鼻子圖像保留了人臉中相對(duì)比較穩(wěn)定的特征信息.
生物學(xué)研究發(fā)現(xiàn),Gabor小波可較好地模擬大腦皮層中簡(jiǎn)單細(xì)胞感受野的輪廓,能夠捕捉空間定位、尺度變化、方向選擇等視覺(jué)屬性,特別是Gabor小波可像放大鏡一樣放大灰度的變化,可以將圖像局部細(xì)節(jié)特征強(qiáng)化.人臉圖像雖然屬于弱紋理圖像,但經(jīng)Gabor小波變換后會(huì)包含豐富的紋理信息,能從不同方向和尺度有效表示人臉圖像的局部特征,有利于區(qū)分不同的人臉圖像,Gabor小波特征在人臉識(shí)別領(lǐng)域得到了廣泛的應(yīng)用并取得了較好的效果.而Kernel Fisher Discriminant Analysis (KFDA)方法中核函數(shù)的映射使得樣本即使在特征線性不可分的情況下仍能進(jìn)行較好的分類[11].筆者結(jié)合Gabor和KFDA算法的優(yōu)點(diǎn),用Gabor Kernel Fisher Discriminant Analysis(GKFA)算法對(duì)鼻子區(qū)域的識(shí)別效果進(jìn)行了實(shí)驗(yàn)分析;首先對(duì)Gabor特征提取過(guò)程進(jìn)行了優(yōu)化,并用其對(duì)鼻子區(qū)域進(jìn)行特征提取,然后采用KFDA方法進(jìn)行特征分類.
Gabor濾波器的頻率和方向表示接近人類視覺(jué)系統(tǒng)對(duì)頻率和方向的表示,常被用于紋理表示和描述;另外,二維Gabor小波變換對(duì)位置的響應(yīng)特性允許圖像特征的輕微幾何變形,能減小圖像噪聲的影響.二維Gabor小波變換的這些響應(yīng)特性十分有利于人臉圖像局部特征的魯棒表示[12].
二維Gabor濾波器是帶通濾波器,在空間域和頻率域均有較好的分辨能力,它在空間域有良好的方向選擇性,在頻率域有良好的頻率選擇性,能提取圖像不同的頻率尺度和紋理方向信息.二維Gabor小波濾波器組的參數(shù)體現(xiàn)了它在空間域和頻率域的采樣方式,決定了它對(duì)信號(hào)的表達(dá)能力.
KFDA算法是核函數(shù)與線性Fisher判別分析(Fisher Discriminant Analysis,F(xiàn)DA)相結(jié)合的一種技術(shù),即先通過(guò)一個(gè)非線性映射φ將輸入空間的訓(xùn)練樣本映射到一個(gè)高維線性可分的特征空間φ:x∈RN→φ(x)∈F,然后在特征空間F中進(jìn)行線性FDA,找出使類間散度最大而類內(nèi)散度最小的投影方向進(jìn)行分類,這樣在輸入空間中就隱含地產(chǎn)生了很強(qiáng)的非線性判別式,從而實(shí)現(xiàn)相對(duì)于原空間的非線性判別分析[13].KFDA能有效提取非線性判別特征,已成為模式識(shí)別領(lǐng)域的研究熱點(diǎn)[14].
Gabor小波函數(shù)中的參數(shù)選擇仍然是一個(gè)開(kāi)放性問(wèn)題,根據(jù)經(jīng)驗(yàn),一般采用5個(gè)尺度8個(gè)方向的Gabor濾波器組來(lái)提取人臉不同尺度和方向的特征信息構(gòu)成特征向量[15].實(shí)際上,如果僅用8個(gè)固定的方向?qū)Σ煌谋亲舆M(jìn)行特征提取時(shí),會(huì)存在很多冗余信息.為了能選取適合不同鼻子樣本的Gabor方向進(jìn)行特征提取,有效地降低Gabor特征的維數(shù),對(duì)8個(gè)Gabor濾波方向的特征性能做了統(tǒng)計(jì)分析,最后選取部分特征比較強(qiáng)的方向信息.
圖6 方向算子模板Sk(k=1,2,…, 8)
結(jié)合Gabor濾波器的對(duì)稱特性,選用了圖6所示的8個(gè)方向算子模板對(duì)應(yīng)8個(gè)Gabor濾波方向,分別對(duì)每一個(gè)鼻子樣本進(jìn)行卷積計(jì)算
(1)
其中,f(i,j)表示圖像的像素值,Sk(a,b)表示模板Sk的元素值.根據(jù)方向算子的方向特性,當(dāng)對(duì)整個(gè)圖像做如上操作之后,原圖像的像素值就轉(zhuǎn)換成了表示每個(gè)像素和其相鄰像素之間位置關(guān)系的強(qiáng)度值,然后將所有強(qiáng)度值按
(2)
相加就會(huì)得到樣本的一個(gè)方向強(qiáng)度(Os)[16].
對(duì)數(shù)據(jù)庫(kù)中每個(gè)人的n個(gè)樣本分別用8個(gè)方向算子按式(1)進(jìn)行計(jì)算,每個(gè)樣本就會(huì)轉(zhuǎn)換成8個(gè)表示相鄰像素之間位置關(guān)系的強(qiáng)度信息圖,如圖7所示(圖7(a)、圖7(c)和圖7(e)分別為從數(shù)據(jù)庫(kù)FEI、ORL和JAFFE中截取的鼻子原圖;圖7(b)、圖7(d)和圖7(f)分別為用方向算子計(jì)算后得到的對(duì)應(yīng)強(qiáng)度信息);然后對(duì)每個(gè)方向信息圖按式(2)計(jì)算就會(huì)得到每個(gè)方向算子所對(duì)應(yīng)的方向強(qiáng)度值Os,這樣,每個(gè)樣本就會(huì)產(chǎn)生8個(gè)由方向算子模板計(jì)算得到的方向強(qiáng)度值Os1,Os2,…,Os8.方向強(qiáng)度值越大,表明該強(qiáng)度信息圖中像素之間的位置關(guān)系特征越明顯,用于計(jì)算該方向強(qiáng)度值所用的Gabor濾波方向性能就越優(yōu)越.
圖7 相鄰像素之間位置關(guān)系的強(qiáng)度信息圖
如果對(duì)數(shù)據(jù)庫(kù)中所有人的全部鼻子樣本分別計(jì)算其8個(gè)方向強(qiáng)度值并從小到大排序,則最后統(tǒng)計(jì)結(jié)果如圖8所示.圖中橫坐標(biāo)表示8個(gè)方向強(qiáng)度值,縱坐標(biāo)表示方向算子模板,圖中點(diǎn)的坐標(biāo)表示得到該方向強(qiáng)度值與所用方向算子之間的對(duì)應(yīng)關(guān)系.
圖8 計(jì)算方向強(qiáng)度所用方向算子模板統(tǒng)計(jì)圖
從圖8中可以看出,3個(gè)數(shù)據(jù)庫(kù)中樣本方向強(qiáng)度值最大的Os8和Os7分別都是由方向算子s5和s1計(jì)算得到的.JAFFE庫(kù)中每個(gè)人的樣本只有表情變化,姿態(tài)幾乎保持一致,裁剪得到的鼻子區(qū)域截去了表情變化豐富的嘴部信息,紋理方向比較一致,由樣本計(jì)算得到最大的4個(gè)方向強(qiáng)度值所用的方向算子比較固定,如圖8(a)所示,從大到小依次為s5、s1、s4和s6;ORL庫(kù)中樣本之間存在稍許旋轉(zhuǎn)和傾斜(不超過(guò)20°),由樣本計(jì)算得到方向強(qiáng)度值Os5和Os6所用的方向算子為s4或s6,如圖8(b)所示,這表明其中一部分樣本用方向算子s4計(jì)算得到比較大的方向強(qiáng)度值,而另一部分樣本則要用方向算子s6計(jì)算求得;而FEI庫(kù)中由于樣本之間姿態(tài)變化比較大(左右旋轉(zhuǎn)角度接近180°),紋理方向變化也比較大,因此紋理之間的位置關(guān)系變化也比較復(fù)雜,如圖8(c)所示,方向強(qiáng)度值Os5對(duì)應(yīng)多個(gè)方向算子,即不同的樣本需要從不同的方向獲得比較大的方向強(qiáng)度值.
根據(jù)以上分析,分別選取能獲得最大的4個(gè)方向強(qiáng)度值所用的方向算子所對(duì)應(yīng)的Gabor濾波方向去提取對(duì)應(yīng)的Gabor方向特征,即在JAFFE庫(kù)和ORL庫(kù)上選取方向算子s5、s1、s4和s6所對(duì)應(yīng)的4個(gè)Gabor濾波方向(0、π/8、4π/8、5π/8),而在FEI庫(kù)上則選取方向算子s5、s1、s4、s6、s2和s8所對(duì)應(yīng)的6個(gè)Gabor濾波方向(0、π/8、3π/8、4π/8、5π/8、6π/8).Gabor尺度仍然采用廣泛使用的5個(gè)尺度.比較發(fā)現(xiàn),所選取的Gabor濾波方向保留了人臉圖像中像素之間比較顯著的變化信息,忽略了變換非常小的冗余信息,對(duì)識(shí)別效果沒(méi)有明顯影響,但由于數(shù)據(jù)維數(shù)的減少,平均識(shí)別時(shí)間明顯減?。?/p>
對(duì)每個(gè)輸入原始訓(xùn)練樣本,按選定的Gabor濾波方向和5個(gè)尺度分別提取Gabor小波特征,用分?jǐn)?shù)次冪多項(xiàng)式核函數(shù)k(x,y)= sign(xy)(abs(x·y))d,將其非線性映射到核空間,然后計(jì)算類間離散度矩陣SB和類內(nèi)離散度矩陣SW,求解Fisher基向量,再將訓(xùn)練樣本的Gabor小波特征投影到Fisher基向量;同樣計(jì)算測(cè)試樣本的Gabor特征并非線性映射到核空間,將測(cè)試特征投影到Fisher基向量,然后計(jì)算訓(xùn)練特征和測(cè)試特征的距離并按最鄰近距離進(jìn)行分類判決.
用上述算法分別在ORL、JAFFE和FEI庫(kù)對(duì)人臉和鼻子區(qū)域的識(shí)別效果進(jìn)行了比較分析,首先利用Gabor濾波器組對(duì)輸入樣本進(jìn)行處理,將濾波后的值作為Gabor特征量;然后利用KFDA方法分別對(duì)裁剪后的人臉圖像樣本和鼻子圖像樣本進(jìn)行模式的分類判決.
在ORL人臉數(shù)據(jù)庫(kù)中,對(duì)每個(gè)人的10個(gè)人臉和鼻子樣本分別隨機(jī)選取i(i=4,5,6,7,8)個(gè)圖像作為訓(xùn)練集,剩下的作為測(cè)試集,重復(fù)進(jìn)行10次,最后的實(shí)驗(yàn)結(jié)果取10次實(shí)驗(yàn)結(jié)果的平均值,實(shí)驗(yàn)結(jié)果如圖9(a)所示;在JAFFE人臉數(shù)據(jù)庫(kù)中,對(duì)每個(gè)人的人臉和鼻子樣本分別隨機(jī)選取i(i=12,13,14,15,16)個(gè)圖像作為訓(xùn)練集,剩下的作為測(cè)試集,重復(fù)進(jìn)行10次,最后的實(shí)驗(yàn)結(jié)果取10次實(shí)驗(yàn)結(jié)果的平均值,實(shí)驗(yàn)結(jié)果如圖9(b)所示;在FEI人臉數(shù)據(jù)庫(kù)中,對(duì)每個(gè)人的人臉和鼻子樣本分別隨機(jī)選取i(i=6,7,8,9,10,11,12)個(gè)圖像作為訓(xùn)練集,剩下的作為測(cè)試集,重復(fù)進(jìn)行10次,最后的實(shí)驗(yàn)結(jié)果取10次實(shí)驗(yàn)結(jié)果的平均值,實(shí)驗(yàn)結(jié)果如圖9(c)所示.圖9中橫坐標(biāo)表示從數(shù)據(jù)庫(kù)中選取的訓(xùn)練樣本個(gè)數(shù),縱坐標(biāo)表示用剩下的樣本作為測(cè)試集時(shí)得到的識(shí)別率.
圖9 鼻子區(qū)域與相應(yīng)人臉識(shí)別效果比較圖
實(shí)驗(yàn)用GKFA算法分別在ORL、JAFFE和FEI數(shù)據(jù)庫(kù)上進(jìn)行了測(cè)試,將人臉和對(duì)應(yīng)鼻子區(qū)域的識(shí)別率作了比較.所選數(shù)據(jù)庫(kù)分別側(cè)重考慮常見(jiàn)的人臉3種狀態(tài):中性、表情變化和姿態(tài)變化.ORL是一個(gè)正面中性人臉數(shù)據(jù)庫(kù),姿態(tài)變化非常小,傾斜度不超過(guò)20°,表情也只限于微笑和正常兩種,眼睛也只限于輕微閉合和正常兩種;JAFFE是一個(gè)正面表情人臉數(shù)據(jù)庫(kù),面部表情豐富且變化幅度較大;FEI是一個(gè)姿態(tài)變化比較大的數(shù)據(jù)庫(kù),左右旋轉(zhuǎn)接近180°,但表情只有微笑和正常2種,眼睛都是正常睜開(kāi)的.
從實(shí)驗(yàn)結(jié)果可以看出,由于受表情和姿態(tài)變化的影響,當(dāng)單獨(dú)將鼻子區(qū)域作為生物特征進(jìn)行識(shí)別時(shí),其識(shí)別率不會(huì)比相應(yīng)的人臉識(shí)別率差.但由于ORL數(shù)據(jù)庫(kù)的姿態(tài)和表情變化比較微小,單獨(dú)將鼻子區(qū)域作為特征進(jìn)行識(shí)別時(shí),和對(duì)應(yīng)的人臉識(shí)別相比優(yōu)勢(shì)并不是很明顯,如圖9(a)所示;而JAFFE數(shù)據(jù)庫(kù)是個(gè)正面表情數(shù)據(jù)庫(kù),當(dāng)單獨(dú)將鼻子區(qū)域作為特征進(jìn)行識(shí)別時(shí),由于截取了嘴部表情變化信息的影響,和對(duì)應(yīng)的人臉識(shí)別相比較,鼻子區(qū)域的識(shí)別效果有所提升,如圖9(b)所示;而FEI數(shù)據(jù)庫(kù)由于姿態(tài)變化比較大,當(dāng)將整個(gè)人臉作為特征進(jìn)行識(shí)別時(shí)識(shí)別率比較低,但當(dāng)將鼻子區(qū)域單獨(dú)作為特征進(jìn)行識(shí)別時(shí),其識(shí)別率要明顯高于相應(yīng)的人臉識(shí)別,如圖9(c)所示.同時(shí),由于鼻子區(qū)域圖像的數(shù)據(jù)量遠(yuǎn)少于人臉圖像的數(shù)據(jù)量,所以在進(jìn)行識(shí)別時(shí),其平均識(shí)別時(shí)間都會(huì)遠(yuǎn)少于人臉識(shí)別所用的時(shí)間.
將鼻子區(qū)域這種生物特征應(yīng)用于個(gè)體身份鑒別是一種新的嘗試,目前仍處于研究的初級(jí)階段.通過(guò)分析發(fā)現(xiàn),利用鼻子區(qū)域進(jìn)行識(shí)別,可以避免表情、發(fā)型、胡須、姿態(tài)等因素的影響,特征比較穩(wěn)定,將鼻子區(qū)域單獨(dú)作為生物特征進(jìn)行身份識(shí)別確實(shí)可行,具有一定的研究?jī)r(jià)值和應(yīng)用前景.實(shí)驗(yàn)仿真結(jié)果表明,在面部表情比較豐富或人臉側(cè)面旋轉(zhuǎn)角度比較大的情況下,用鼻子區(qū)域進(jìn)行身份識(shí)別優(yōu)勢(shì)比較明顯.
目前,國(guó)內(nèi)外還沒(méi)有專門的鼻子圖像數(shù)據(jù)庫(kù),也沒(méi)有專門針對(duì)鼻子特征的描述、表示和識(shí)別方法.如何提取鼻子的有效特征,尤其在人臉圖像質(zhì)量較差、表情和姿態(tài)變化較大,或者由于遮擋造成人臉圖像信息缺損的時(shí)候,如何確定可識(shí)別的最小特征集,以及對(duì)整形后的鼻子識(shí)別效果如何,都是有待進(jìn)一步研究的內(nèi)容.
[1] Drira H, Amor B B, Srivastava A, et al. A Riemannian analysis of 3D nose shapes for partial human biometrics[C]//Proceedings of the 12th IEEE International Conference on Computer Vision. Piscataway: IEEE, 2009: 2050-2057.
[2] 韓松, 潘綱, 王躍明, 等. 三維鼻形:一種新的生物特征識(shí)別模式[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2008, 20(1): 38-42.
Han Song, Pan Gang, Wang Yueming, et al. 3D Nose: a Novel Biometrics[J]. Journal of Computer-Aided Design & Computer Graphics, 2008, 20(1): 38-42.
[3] Chang K I, Ortiz E, Bowyer K W. Multiple Nose Region Matching for 3D Face Recognition under Varying Facial Expression[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(10): 1695-1700.
[4] Moorhouse, A, Evans A N, Atkinson G A, et al. The Nose on Your Face May Not Be So Plain: Using the Nose As a Biometric[C]//Proceedings of 3rd International Conference on Imaging for Crime Detection and Prevention. Stevenage: IET, 2009: 1-6.
[5] Drira H, Amor B B, Daoudi M, et al. Nasal Region Contribution in 3D Face Biometrics Using Shape Analysis Framework[C]//Lecture Notes in Computer Science. Heidelberg: Springer Verlag, 2009: 357-366.
[6] Emambakhsh M, Evans A N. Self-dependent 3D Face Rotational Alignment Using the Nose Region[C]//Proceedings of 4th International Conference on Imaging for Crime Detection and Prevention. Stevenage: IET, 2011: 1-6.
[7] 郝凱飛, 張紹祥, 王斌全, 等. 中國(guó)數(shù)字化人體鼻部結(jié)構(gòu)的三維重建和可視化[J]. 山東大學(xué)耳鼻喉眼學(xué)報(bào), 2008, 22(2): 144-147.
Hao Kaifei, Zhang Shaoxiang, Wang Binquan, et al. 3D Reconstruction and Visualization of Nasal Anatomical Structures of the Chinese Digitized human[J]. Journal of Otolaryngology and Ophthalmology of Shandong University, 2008, 22(2): 144-147.
[8] Mann A, Robert W. Use of Bone Trabeculae to Establish Positive Identification [J]. Forensic Science International, 1998, 74: 91-99.
[9] Fasel B, Luettin J. Automatic Facial Expression Analysis: a Survey[J]. Pattern Recognition, 2003, 36(1): 259-275.
[10] Kwon, Young Ho, Lobo N D V, et al. Age Classification from Facial Images[J]. Computer Vision and Image Understanding, 1999, 74(1): 1-21.
[11] Wang J, Li Q, You J, et al. Fast kernel Fisher Discriminant Analysis Via Approximating the Kernel Principal Component Analysis[J]. Neurocomputing, 2011, 74(17): 3313-3322.
[12] 王科俊, 鄒國(guó)鋒. 基于子模式的Gabor特征融合的單樣本人臉識(shí)別[J]. 模式識(shí)別與人工智能, 2013, 26(1): 50-56.
Wang Kejun, Zou Guofeng. A Sub-Pattern Gabor Features Fusion Method for Single Sample Face Recognition[J]. Pattern Recognition and Artificial Intelligence, 2013, 26(1): 50-56.
[13] 李映, 焦李成. 基于核Fisher判別分析的目標(biāo)識(shí)別[J]. 西安電子科技大學(xué)學(xué)報(bào), 2003, 30(2): 179-182.
Li Ying, Jiao Licheng. Target Recognition Based on Kernel Fisher Discriminant [J]. Journal of Xidian University, 2003, 30(2): 179-182.
[14] Yang J, Frangi A F, Yang J. A New Kernel Fisher Discriminant Algorithm with Application to Face Recognition [J]. Neurocomputing, 2004, 56(1-4): 415-421.
[15] Yu L, He Z, Cao Q. Fisher Discriminant Analysis of Gabor Texture Features for Face Recognition [J]. Journal of Computational Information Systems, 2009, 5(1): 153-162.
[16] Han W, Lee J. Palm Vein Recognition Using Adaptive Gabor Filter [J]. Expert Systems with Applications, 2012, 39(18): 13225-13234.