陸興華++梁建銘++袁文聰++郭梓俊
摘 要: 提出一種融合角點特征匹配算法的人臉優(yōu)化識別方法。采用主成分分析方法對人臉圖像進(jìn)行三角剖分,通過統(tǒng)一框架下的紋理映射,對人臉在旋轉(zhuǎn)過程中的投影變換進(jìn)行人臉姿態(tài)變化輪廓提取和角點融合定位。采用模板匹配方法進(jìn)行角點特征提取,實現(xiàn)角點特征的匹配融合,達(dá)到人臉優(yōu)化識別的目的。仿真結(jié)果表明,該方法進(jìn)行人臉識別的準(zhǔn)確度較高,特征匹配性能較好,提高了安全身份認(rèn)證系統(tǒng)的性能。
關(guān)鍵詞: 人臉識別; 特征匹配; 身份驗證
中圖分類號:TP391 文獻(xiàn)標(biāo)志碼:A 文章編號:1006-8228(2016)03-08-04
An optimized face recognition method with corner points feature matching
Lu Xinghua, Liang Jianming, Yuan Wencong, Guo Zijun
(Huali College Guangdong University of Technology, Guangzhou, Guangdong 511325, China)
Abstract: An optimized face recognition method with corner points feature matching is proposed. By using principal component analysis method for face image triangulation, through the texture mapping, the face pose variation contour is extracted and corner points are positioned. The corner feature extraction is performed by using the template matching method to make the face recognition optimized. The simulation results show that the accuracy of the method for face recognition is higher, and the feature matching performance is better, and the performance of the security identity authentication system based on the face recognition method is improved.
Key words: face recognition; feature matching; authentication
0 引言
研究人臉優(yōu)化識別算法,在安全身份認(rèn)證系統(tǒng)設(shè)計和視覺分析等領(lǐng)域具有重要的應(yīng)用意義[1]。人臉識別的研究涉及圖像處理、模式識別、認(rèn)知科學(xué)、人工智能等相關(guān)科學(xué)。傳統(tǒng)方法中,對人臉識別方法主要有基于主成分分析的人臉識別算法、基于模板匹配的人臉識別算法和基于小波變換的人臉識別算法等[2]。后來出現(xiàn)了很多改進(jìn)的方法,比如:子空間判別模型、LDA判別方法、增強(qiáng)判別方法等等[3-7]。采用上述方法,當(dāng)人臉面部特征的類內(nèi)離散度較小時,人臉識別的準(zhǔn)確度不高[8-10]。本文提出一種融合角點特征匹配算法的人臉優(yōu)化識別方法。首先采用主成分分析方法對人臉圖像進(jìn)行三角剖分,然后進(jìn)行角點定位,采用模板匹配方法進(jìn)行角點特征提取,實現(xiàn)角點特征的匹配融合,達(dá)到人臉優(yōu)化識別的目的,最后通過仿真實驗進(jìn)行了性能測試,展示了本文方法在提高人臉識別的準(zhǔn)確度方面的優(yōu)越性能,得出有效性結(jié)論。
1 人臉圖像三角剖分和特征點提取
1.1 人臉圖像三角剖分
首先獲取人臉樣本圖像中的信息,采用三角剖分方法進(jìn)行特征提取,其次是樣本圖像集的歸一化處理,對歸一化處理的數(shù)據(jù)進(jìn)行統(tǒng)計分析,選擇一組合適的訓(xùn)練集,一般是手動標(biāo)記訓(xùn)練圖像中能充分說明圖像屬性特征的各個特征點,每幅圖像標(biāo)記ν個特征點構(gòu)成形狀s。
采用PCA變換,對標(biāo)記好的形狀區(qū)域內(nèi)的對象紋理信息進(jìn)行圖像紋理集合特征提取,得到一個線性的統(tǒng)計形狀模型:
建立一個可逆的映射方程式,然后將這個表觀區(qū)域映射到一個已設(shè)定的基準(zhǔn)形狀網(wǎng)格,在該形狀網(wǎng)格內(nèi)進(jìn)行一致的參數(shù)采樣,再將它們映射回各自的紋理區(qū)域,通過統(tǒng)一框架下的紋理映射對人臉在旋轉(zhuǎn)過程中的投影變換進(jìn)行人臉姿態(tài)變化輪廓提取,得到基于主成分分析的人臉姿態(tài)變化輪廓提取結(jié)果,如圖1所示。
人臉圖像圍繞圖像的中點進(jìn)行仿射變換,選取窗口為3×3,使用三維空間中的旋轉(zhuǎn)投影進(jìn)行人臉圖像增強(qiáng)處理,且在不同的多媒體視覺特征采集環(huán)境下,對人臉在旋轉(zhuǎn)過程中的投影圖像進(jìn)行矯正分析,采用三角剖分得到兩幅不同大小的二值前景圖像,表示為N1×N2的人臉邊緣輪廓特征矩陣,輸出測試樣本y的類別:
其中,Wfinal是人臉的旋轉(zhuǎn)過程的權(quán)值矩陣W,Di是第i類訓(xùn)練樣本兩臉頰夾角,存在一個小波尺度變換系數(shù)f(n1,n2)和g(n1,n2),假定f(n1,n2)和g(n1,n2)的具有自相關(guān)性,得到一副三角剖分后的人臉圖像為S,大小為m×n,人臉發(fā)生垂直旋轉(zhuǎn)時平面上的網(wǎng)格點為{(x,y)|x=1,2,…,m y=1,2,…,n},通過三角剖分,以人臉剖分后的輪廓線為參照線,進(jìn)行邊緣輪廓特征提取,為人臉識別奠定基礎(chǔ)。選擇其中一個樣本得到的三角剖分結(jié)果如圖2所示。
1.2 角點特征檢測技術(shù)
在上述進(jìn)行圖像的三角剖分基礎(chǔ)上,進(jìn)行角點檢測,采用平面陣對特征信息進(jìn)行興趣點檢測和跟蹤,在多媒體視覺下提取人臉認(rèn)證信息的興趣點特征,得到感興趣點匹配的跟蹤量化值V(Mmi)的計算式為:
先利用高斯與圖像的卷積設(shè)計特征提取算法,再對歸一化后的紋理進(jìn)行PCA,實現(xiàn)了表觀建模。表觀模型可以表示為:
當(dāng)初始位置與目標(biāo)真實特征點的位置較近時,更新形狀參數(shù),根據(jù)角點檢測結(jié)果,接近目標(biāo)的真實輪廓,得到輸出的角點特征的主方向判別函數(shù)為:
其中,是合成運算。對上式進(jìn)行一階泰勒展開得到:
基于角點檢測結(jié)構(gòu),構(gòu)建人臉識別的頭部橫切面模型,如圖3所示。
圖3中,將人臉識別橫切面抽象成為一個等腰三角形。采用SURF算法,根據(jù)網(wǎng)格點在圖像中的不同位置,得到人臉信息特征點的三維成像在網(wǎng)格點(x',y')處的灰度值:
其中,TC為視點控制的偏移誤差,設(shè)Fm(x,y)為第m幀(x,y)處的像素灰度值,得到Md(Ci)表示Ci中的灰度像素特征。通過上述角點檢測結(jié)果,對人臉圖像進(jìn)行分塊處理,通過模板匹配進(jìn)行人臉識別。
2 人臉識別方法改進(jìn)實現(xiàn)
在上述進(jìn)行人臉圖像的三角剖分和角點檢測的基礎(chǔ)上,進(jìn)行角點定位,采用模板匹配方法進(jìn)行角點特征提取,實現(xiàn)角點特征的匹配融合,達(dá)到人臉優(yōu)化識別的目的,改進(jìn)算法的設(shè)計關(guān)鍵技術(shù)描述如下,假設(shè)人臉圖像位姿轉(zhuǎn)置j的廣義逆RRT為:θstart∈θfree(自由C-空間),結(jié)合圖3,得到正面人臉在p平面的投影圖像的垂直旋轉(zhuǎn)投影為:
其中,θ為左右旋轉(zhuǎn)的角度,兩臉頰單元尺度變換為pobj,S'在網(wǎng)格點(x',y')處的緊耦合集合gc,人臉姿態(tài)的目標(biāo)位形θgoal未知,在尺度空間內(nèi)進(jìn)行加權(quán),在使用600的滑窗來計算特征點的主方向,滿足非線性復(fù)雜系統(tǒng)的規(guī)劃路徑:τ:[0,1]→Cfree,使得映射τ[0]=θstart,τ[1]=θgoal,(pobj,gc)→f(θgoal),在建立基于參數(shù)化的統(tǒng)計紋理模型時,計算協(xié)方差矩陣:
由于模板圖像A0(x)是常量,而且Jacobian矩陣、Hessian矩陣以及平均紋理的梯度值均與位置x無關(guān),可以根據(jù)檢測出的嘴角、眉毛、眼睛的具體位置調(diào)節(jié)初始形狀狀態(tài),使得初始化形狀更接近目標(biāo)的真實輪廓,根據(jù)紋理特征向量建立線性的統(tǒng)計參數(shù)化的紋理模型。在分析經(jīng)典方法不足的基礎(chǔ)上,采用增量主成分分析方法,假設(shè)前l(fā)個向量e1,e2,…,el兩兩關(guān)于矩陣D正交,得到人臉圖像的角點特征在核空間的投影為:
其中,K(:,xi)=[K(x1,xi),…,K(xm,xi)]T,當(dāng)時,由可知:
通過上述處理,建立基于參數(shù)化的統(tǒng)計紋理模型,采用模板匹配方法,融合角點特征,實現(xiàn)識別,此時用高斯模糊隸屬度樣本集D表示人臉樣本庫中的測試樣本y,采集一個人臉數(shù)據(jù)庫用于建立統(tǒng)計樣本信息,實現(xiàn)人臉識別算法改進(jìn)。本文設(shè)計的人臉識別算法的實現(xiàn)步驟如下。
輸入:人臉識別系統(tǒng)的人臉數(shù)據(jù)采集節(jié)點的隸屬度樣本y和特征集D的每列;,l是訓(xùn)練集中的人臉信息的個數(shù)。
輸出:α
初始化參數(shù),從t=1開始:
⑴ 計算人臉數(shù)據(jù)灰度信息余項e(t)=y-Dα(t)。
⑵ 人臉圖像三角剖分,得到加權(quán)值:
⒁
⑶ 人臉圖像三角剖分后的單元尺度變換表示:,W(t)是擬合結(jié)果,。
對歸一化后的紋理進(jìn)行PCA:
當(dāng)t-1,則;
當(dāng)t>1,則;
其中0<β(t)<1,β(t)是步長。
⑷ 在[0 1]范圍內(nèi)通過融合角點特征匹配搜索方法得到,使。
⑸ 計算重構(gòu)的測試樣本,得到識別輸出結(jié)果:。
⑹ 如果不滿足收斂條件,令t=t+1。轉(zhuǎn)回到步驟⑴,直到滿足收斂條件或者達(dá)到最大迭代數(shù)。
⑺ 結(jié)束。
3 仿真實驗與結(jié)果分析
為了測試本文設(shè)計的人臉識別方法在改善人臉識別精度和提高識別準(zhǔn)確度方面的性能,進(jìn)行仿真實驗。本實驗采用ORL人臉數(shù)據(jù)庫,含30個人,每個人10幅圖像,一共300幅圖像。選取每個人的前5幅圖像作為訓(xùn)練集樣本,其余的5幅圖像作為測試樣本集。每個人臉圖像被手工標(biāo)定43個特征點,參數(shù)設(shè)置為:λmin=4,u=0.64,σ=2.0。在上述仿真環(huán)境和參數(shù)設(shè)定的基礎(chǔ)上,采用主成分分析方法對人臉圖像進(jìn)行三角剖分,然后進(jìn)行角點定位,采用模板匹配方法進(jìn)行角點特征提取。人臉數(shù)據(jù)庫的原始圖像加載結(jié)果如圖4所示。采用本文方法,得到本文輸出的人臉識別的特征匹配結(jié)果如圖5所示。
從圖5可見,本文方法通過融合人臉的角點特征匹配結(jié)果,實現(xiàn)人臉識別,有效提高了人臉識別的準(zhǔn)確度。以人臉特征匹配的擬合誤差為測試指標(biāo),得到仿真結(jié)果如表1。
采用不同方法,得到人臉識別的準(zhǔn)確度對比結(jié)果如圖6所示,從圖6結(jié)果可見,采用本文方法進(jìn)行人臉識別的準(zhǔn)確性最好,提高了識別性能。
4 結(jié)束語
通過人臉優(yōu)化識別技術(shù),提高視覺跟蹤和計算機(jī)視覺識別的水平,在人臉識別安全身份認(rèn)證系統(tǒng)設(shè)計中具有重要應(yīng)用價值。本文提出一種融合角點特征匹配算法的人臉優(yōu)化識別方法,首先采用主成分分析方法對人臉圖像進(jìn)行三角剖分,然后進(jìn)行角點定位,采用模板匹配方法進(jìn)行角點特征提取,實現(xiàn)角點特征的匹配融合,達(dá)到人臉優(yōu)化識別的目的。仿真實驗結(jié)果表明,采用本文方法進(jìn)行人臉識別,其準(zhǔn)確程度較高,特征匹配性能較好,提高了人臉準(zhǔn)確認(rèn)證和識別的概率。
參考文獻(xiàn)(References):
[1] 閭素紅,任艷娜.Web方式人臉識別的設(shè)計與實現(xiàn)[J].科技通
報,2012.28(9):186-188
[2] 許亦男,王士同.基于SLPP和張量分解相結(jié)合的人臉識別[J].
計算機(jī)應(yīng)用研究,2011.28(8):3145-3147
[3] Yang Meng, Zhang Lei, Yang Jian, et al. Regularized
robust coding for face recognition [J]. IEEE Transactions on Image Processing,2013.22(5):1753-1766
[4] LEE K, HO J, KRIEGMAN D. Acquiring linear subspaces
for face recognition under variable lighting[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2005.27(5):684-698
[5] 龔衛(wèi)國,黃瀟瑩,李偉紅.基于正弦變換的人臉姿態(tài)矯正及識
別研究[J].計算機(jī)工程與應(yīng)用,2010.46(22):213-216
[6] 喬勇軍,謝曉方,李德棟,孫濤.SURF特征匹配中的分塊加速
方法研究[J].激光與紅外,2011.41(6):691-696
[7] 蔡自興,彭夢,余伶俐.基于時序特性的自適應(yīng)增量主成分分
析的視覺跟蹤[J].電子與信息學(xué)報,2015.37(11):2571-2577
[8] Bao C L, Wu Y, Linh H B, et al.. Real time robust L1
tracker using accelerated proximal gradient approach[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Rhode Island,2012:1830-1837
[9] Xie Yuan, Zhang Wen-sheng, Qu Yan-yun, et al..
Discriminative subspace learning with sparse representation view-based model for robust visual tracking[J]. Pattern Recognition,2014.47(3):1383-1394
[10] Wang Dong, Lu Hu-chuan, and Yang M H . Online
object tracking with sparse prototypes[J]. IEEE Transactions on Image Processing,2013.22(1):314-325