馬家軍
(商洛學(xué)院,陜西 商洛 726000)
?
不相關(guān)稀疏保留投影在人臉識別中的應(yīng)用
馬家軍
(商洛學(xué)院,陜西 商洛726000)
摘要:稀疏保留投影是一種有效的特征提取算法,它雖然能很好地保留樣本間的稀疏重構(gòu)特性,但是得到的特征分量通常具有統(tǒng)計相關(guān)性,存在數(shù)據(jù)冗余。為此,引入不相關(guān)約束條件,提出了不相關(guān)稀疏保留投影特征提取方法,利用推導(dǎo)出的公式提取不相關(guān)判別特征集,進而提高了識別率。在PIE、Extended Yale B和AR人臉庫的實驗結(jié)果表明:該方法有效且穩(wěn)定,與MLHOSDA、SPP和LPP相比具有更高的正確識別率。
關(guān)鍵詞:特征提??;不相關(guān);稀疏保留投影;人臉識別
隨著信息自動化和智能化程度的日益提高,信息安全受到了空前的重視,身份識別已成為人們生活中必不可少的安全保障手段。計算機技術(shù)和數(shù)碼技術(shù)的發(fā)展使得人臉識別技術(shù)漸漸取代了傳統(tǒng)的身份識別技術(shù)[1-3]?;谧涌臻g的學(xué)習(xí)算法具有理論完善、描述性強、計算代價小、容易實現(xiàn)及鑒別性好等特點,近年來已成為人臉識別的主流方法?;谧涌臻g的人臉識別算法常見的有主成分分析(PCA)[4]、線性判別分析(LDA)[5]、局部保距投影[6]以及非線性的核主成分分析(KPCA)[7]、核線性判別分析(KLDA)[8]等算法。PCA旨在尋找一組投影軸,使得原始的高維圖像數(shù)據(jù)在該投影軸下的投影數(shù)據(jù)的總體方差最大化,最終使得數(shù)據(jù)能很好地分開。LDA希望找到一個投影子空間,使得在該子空間中不同類的數(shù)據(jù)離得更遠,而同類的數(shù)據(jù)離得更近。Foley-Sammon線性鑒別分析(FSLDA)[9]通過對LDA進行改進,使得投影向量兩兩正交,提高了識別性能。
流形學(xué)的研究使得一些基于流形理論的識別算法被廣泛應(yīng)用。經(jīng)典的流形算法有局部保距投影(LPP)、局部線性嵌入(LLE)[10]、等距映射(Isomap)[11]、拉普拉斯特征映射(LE)[12]等。LPP通過構(gòu)建鄰接圖矩陣保留樣本間的局部流形結(jié)構(gòu)。在實際識別分類中,流形結(jié)構(gòu)相比歐氏結(jié)構(gòu)能更好地描述高維數(shù)據(jù)的拓?fù)浣Y(jié)構(gòu)。
稀疏子空間聚類是近年來子空間聚類方法的研究熱點。稀疏聚類法利用訓(xùn)練樣本構(gòu)成字典,然后用這個字典來表示待識別的樣本,從而將待識別樣本歸到正確的類別。結(jié)合LPP,稀疏保留投影(SPP)[13]算法被提出來。該算法通過最小化重構(gòu)誤差的方式計算最佳投影子空間,使得樣本間的稀疏關(guān)系得到較好的保留,與PCA和LPP相比,識別率有所提高。稀疏保留投影算法注重樣本間的稀疏重構(gòu)關(guān)系,得到的投影變換不具有正交性。文獻[14]引入正交約束條件,提出了基于流形學(xué)習(xí)的整體正交稀疏保留鑒別分析(MLHOSDA)。但經(jīng)投影變換后得到的判別特征向量各分量間仍然是統(tǒng)計相關(guān)的?;诖?,本文提出了一種新的人臉圖像識別方法,即不相關(guān)稀疏保留投影(uncorrelatedsparsepreservingprojection,USPP)。在PIE、ExtendedYaleB和AR人臉庫上的實驗結(jié)果驗證了所提方法的有效性和穩(wěn)定性。
(1)
‖x‖1表示x的l1范數(shù),si=[si1,si2,…,si,i-1,0,si,i+1,…,sin]T是一個n維向量,第i個元素值為零,意味著xi在數(shù)據(jù)集X中被移除,sij(i≠j)表示的是xj為了構(gòu)建xi所做的貢獻;I∈Rn是元素全為1的向量。
在實際識別問題中,樣本通常含有噪聲。如在人臉識別中,同一個人的樣本因表情不同(嘴巴長大、眉毛上揚等)而使xi=Xsi不成立?;诖?,引入重構(gòu)誤差ε(ε足夠小),將式(1)擴展為:
(2)
(3)
將數(shù)據(jù)按類別逐列排放,則系數(shù)矩陣P具有塊對角結(jié)構(gòu),即具有如下結(jié)構(gòu):
其中子塊Pk=(pij)nk×nk,k=1,2,…,c。
結(jié)合式(2)和式(3),稀疏保留投影目標(biāo)函數(shù)定義為
(4)
對式(4)進行代數(shù)變換可得:
(5)
記ui為n維單位向量且第i個元素為1,其余為0,則式(10)等價轉(zhuǎn)化為:
(6)
其中pi∈Rn×1為P的第i列,記G=I-P-PT+PPT,則式(4)的求解轉(zhuǎn)化為如下廣義特征值問題的求解:
(7)
前d個最小的特征值對應(yīng)的特征向量構(gòu)成投影矩陣W=[w1,w2,…,wd]。
2.1相關(guān)性分析
由本文第2節(jié)可知,對于訓(xùn)練樣本,判別特征集可由如下變換得到:
(8)
定理1由式(7)所得的判別特征向量各分量間是統(tǒng)計相關(guān)的。
證明
(9)
當(dāng)且僅當(dāng)式(8)等于0時,特征分量yi與yj是統(tǒng)計不相關(guān)的。
式(7)并不能保證式(8)等于0,因此由SPP所求的特征分量間是統(tǒng)計相關(guān)的,判別特征中存在冗余信息不利于信息的提取和最終的分類。
2.2不相關(guān)稀疏保留投影特征提取
(10)
其中:St=E[(X-EX)(X-EX)T];M=XGXT。
定理2第l+1個統(tǒng)計不相關(guān)向量wl+1是式(11)最大特征值所對應(yīng)的特征向量。
(11)
其中:ω=[w1,w2,…,wl]T;I是單位矩陣。
證明對于優(yōu)化問題(9)利用拉格朗日乘數(shù)法可得:
(12)
對 f 求偏導(dǎo),并令?f/?w=0,有
(13)
(14)
將j=1,2,…,l代入式(13)可得
(15)
(16)
式(12)可以寫成下面形式:
(17)
將式(15)代入式(16)得到:
因此求出了前l(fā)個統(tǒng)計不相關(guān)的特征向量之后,只需求解式(10)最小的特征值對應(yīng)的特征向量wl+1即可。
本文USPP算法的具體實現(xiàn)步驟如下:
1) 給定樣本集X={X1,X2,…,Xc},通過式(3)和式(4)構(gòu)建含有鑒別信息的稀疏重構(gòu)矩陣P∈Rn×n。
2) 根據(jù)式(6)得到矩陣G,從而得到矩陣M=XGXT。
3) 取M的最小特征對應(yīng)的特征向量,作為第1個不相關(guān)投影向量w1,由式(11)計算所有不相關(guān)向量,從而得到本文的投影矩陣W=[w1,w2,…,wd]。
4) 對于待測樣本xtest得到其不相關(guān)判別特征ytest=WTxtest,最后采用歐氏距離分類器得到xtest的類別。
本文實驗采用卡耐基-梅隆大學(xué)的PIE、ExtendedYaleB和AR人臉庫,參數(shù)ε=0.01。為了驗證本文算法的有效性,在同一數(shù)據(jù)庫中分別對本文算法、SPP算法和LPP算法進行仿真實驗。本文的實驗環(huán)境:Pentium4雙核3.2GHZCPU,4GB內(nèi)存。實現(xiàn)算法的軟件為Matlab2009。
3.1PIE 實驗
PIE人臉庫共有68人的41 368張人臉圖像,包含13種不同的姿勢、43種不同的光照條件、4種不同的表情。本文實驗選取變光照的前向圖像(C27),這樣每個人有43張人臉圖像。圖1是取自于PIE數(shù)據(jù)庫第1個人的樣本。
圖1 PIE數(shù)據(jù)庫第1個人的樣本
首先,分別從每類中隨機性選擇30幅圖像作為訓(xùn)練集,其余圖像作為測試集;然后,從訓(xùn)練集中每類隨機選擇一個圖像進行標(biāo)記,形成帶類標(biāo)樣本集,其余圖像無標(biāo)記,作為無類標(biāo)樣本集。圖2為PIE人臉庫中4種算法最高識別率與特征值數(shù)目的變化關(guān)系。
圖2 PIE人臉庫中4種算法最高識別率與特征值數(shù)目的變化關(guān)系
3.2Extended Yale B實驗
ExtendedYaleB人臉庫共有38個人的2 414張正面人臉圖像。每人大約有64張不同光照條件下的人臉圖像。本文將其按眼部對齊方式裁剪為32×32大小的圖像。圖3是ExtendedYaleB人臉庫中第1個人的樣本。
圖3 Extended Yale B人臉庫中第1個人的樣本
與PIE實驗相同,首先,分別從每類中隨機性選擇30幅圖像作為訓(xùn)練集,其余圖像作為測試集;然后,從訓(xùn)練集中每類隨機選擇一個圖像進行標(biāo)記,形成帶類標(biāo)樣本集,其余圖像無標(biāo)記,作為無類標(biāo)樣本集。圖4為ExtendedYaleB人臉庫中4種算法最高識別率與特征值數(shù)目的變化關(guān)系。
3.3AR實驗
AR人臉庫含有126人的4 000張人臉圖像。每人有26張圖像,這26張圖像于不同時間拍攝,每次拍攝13張,包括不同表情、光照。本文選取AR人臉庫中無遮擋的圖像。該子集共有100個人的1 400張圖像,每人14張圖像。同樣按照人眼對齊方式將其裁剪為66×48的圖像。圖5是取自于AR數(shù)據(jù)庫中第1個人的樣本。
圖4 Extended Yale B人臉庫中4種算法最高識別率與特征值數(shù)目的變化關(guān)系
圖5 AR數(shù)據(jù)庫中第1個人的樣本
在AR人臉庫試驗中,首先,從每類中隨機選擇10幅圖像形成訓(xùn)練集,其余圖像作為測試集。然后,從訓(xùn)練集的每類中隨機選擇1幅圖像進行標(biāo)記形成帶類標(biāo)樣本集,其余圖像不作標(biāo)記構(gòu)成無類標(biāo)樣本集。圖6為AR人臉庫中4種算法最高識別率與特征值數(shù)目的變化關(guān)系。
為了測試算法的有效性和穩(wěn)定性,對30次隨機訓(xùn)練/測試劃分的仿真實驗結(jié)果進行平均,并記錄平均識別率和標(biāo)準(zhǔn)差。表1為4種算法分別在PIE、ExtendedYaleB、AR數(shù)據(jù)庫中的平均識別率和標(biāo)準(zhǔn)差。
圖6 AR人臉庫中4種算法最高識別率與特征值數(shù)目的變化關(guān)系
本文提出一種不相關(guān)稀疏局部保持投影的人臉特征提取方法。在PIE、ExtendedYaleB和AR人臉數(shù)據(jù)庫上進行表情特征提取,最后用歐氏距離分類器對人臉進行分類識別,實驗結(jié)果驗證了本文算法的有效性和穩(wěn)定性。但是本文涉及參數(shù)的選取,下一步將研究參數(shù)的自適應(yīng)算法。
參考文獻:
[1]李文琴,曾廣樸,文俊浩?;谏窠?jīng)網(wǎng)絡(luò)的人臉識別系統(tǒng)[J].激光雜志,2015(3):54-57.
[2]胡偉平,鄧輝文.個性化人臉圖像模擬研究[J].西南大學(xué)學(xué)報(自然科學(xué)版),2014(2):178-185.
[3]許偉,賴惠成,齊立飛,等.基于Gabor特征的人臉識別算法的對比研究與實現(xiàn)[J].激光雜志,2015(2):41-44.
[4]TURKM,PENTLANDA.Eigenfacesforrecognition[J].JournalofCognitiveNeuroscience,1991,3(1):71-86.
[5]BELHUMEUrPN,HESPANHAJP,KRIEGMANDJ.Eigenfacesvs.fisherfaces:recognitionusingclassspecificlinearprojection[J].IEEETransonPatternAnalysisandMachineIntelligence,1997,19(7):711-720.
[6]HEXiaofei,YANShuicheng,HUYuxiao,etal.FacerecognitionusingLaplacianfaces[J].IEEETransonPatternAnalysisandMachineIntelligence,2005,27(3):328-340.
[7]趙麗紅,孫宇舸,蔡玉,等.基于核主成分分析的人臉識別[J].東北大學(xué)學(xué)報(自然科學(xué)版),2006 (8):847-850.
[8]張曉華.基于核判別分析的人臉識別算法[D].哈爾濱:哈爾濱理工大學(xué),2008.
[9]FOLEYDH,SAMMONJW.Anoptimalsetofdiscriminantvectors[J].IEEETransonComputers,1975,C-24(3):281-289.
[10]ROWEISST,SAULLK.Nonlineardimensionalityreductionbylocallylinearembedding[J].Science,2000,290(5500):2323-2326.
[11]ZHANGSL,GONGZL,LIAOHB.NonlineardimensionalityreductionmethodbyfusingLLEandISOMAP[J].ApplicationResearchofComputers,2014.
[12]CHENC,ZHANGL,BUJ,etal.ConstrainedLaplacianEigenmapfordimensionalityreduction.[J].Neurocomputing,2010,73(46):951-958.
[13]QIAOL,CHENS,TANX.Sparsitypreservingprojectionswithapplicationstofacerecognition[J].PatternRecognition,2010,43(1):331-341.
[14]吳飛,荊曉遠,李文倩,等.基于流形學(xué)習(xí)的整體正交稀疏保留鑒別分析[J].計算機技術(shù)與發(fā)展,2014(6):63-66.
[15]HUANGY.FacialExpressionRecognitionBasedonSparsePreservingProjections[J].ComputerEngineering,2011,37(8):164-165.
(責(zé)任編輯楊黎麗)
收稿日期:2016-02-18
基金項目:商洛學(xué)院科研基金資助項目(14SKY008)
作者簡介:馬家軍(1989—),男,碩士,主要從事模式識別、圖像處理研究。
doi:10.3969/j.issn.1674-8425(z).2016.07.022
中圖分類號:TP391
文獻標(biāo)識碼:A
文章編號:1674-8425(2016)07-0129-06
UncorrelatedSparsePreservingProjectionintheApplicationofFaceRecognition
MAJia-jun
(ShangluoUniversity,Shangluo726000,China)
Abstract:Sparse Preserving Projection is an effective feature extraction algorithm. Although it keeps sparse refactoring features between the samples well, the discriminant feature based SPP is generally statistical correlated, which makes the discriminant feature redundant. This paper added an uncorrelated constraint, and the projection feature extraction based uncorrelation sparse preserving projection method was proposed and theoretically derives the formula of extracting the uncorrelated discriminant features, so the recognition rate was improved. Ultimately experiments on PIE, Extended Yale B and AR face database show that the method in this paper is effective and stable, and has a higher correct recognition rate compared with the MLHOSDA, SPP and LPP.
Key words:feature extraction; uncorrelation; sparse preserving projection; face recognition
引用格式:馬家軍.不相關(guān)稀疏保留投影在人臉識別中的應(yīng)用[J].重慶理工大學(xué)學(xué)報(自然科學(xué)),2016(7):129-134.
Citationformat:MAJia-jun.UncorrelatedSparsePreservingProjectionintheApplicationofFaceRecognition[J].JournalofChongqingUniversityofTechnology(NaturalScience),2016(7):129-134.