馬曉,張番棟,封舉富
(1.北京大學 信息科學技術學院,北京 100871; 2.北京大學 機器感知與智能教育部重點實驗室,北京 100871)
?
基于深度學習特征的稀疏表示的人臉識別方法
馬曉1,2,張番棟1,2,封舉富1,2
(1.北京大學 信息科學技術學院,北京 100871; 2.北京大學 機器感知與智能教育部重點實驗室,北京 100871)
摘要:本文針對傳統(tǒng)的基于稀疏表示的人臉識別方法在小樣本情況下對類內(nèi)變化魯棒性不強的問題,從特征的層面入手,提出了基于深度學習特征的稀疏表示的人臉識別方法。本方法首先利用深度卷積神經(jīng)網(wǎng)絡提取對類內(nèi)變化不敏感的人臉特征,然后通過稀疏表示對所得人臉特征進行表達分類。本文通過實驗,說明了深度學習得到的特征也具有一定的子空間特性,符合基于稀疏表示的人臉識別方法對于子空間的假設條件。實驗證明,基于深度學習特征的稀疏表示的人臉識別方法具有較好的識別準確度,對類內(nèi)變化具有很好的魯棒性,特別在小樣本問題中具有尤為突出的優(yōu)勢。
關鍵詞:機器學習;生物特征識別;深度學習;特征學習;子空間;小樣本;稀疏表示;人臉識別
人臉識別是作為一項重要的生物識別技術,在公安刑偵、企業(yè)管理、自助服務及互聯(lián)網(wǎng)金融方面都取得了廣泛的應用。實際的人臉識別系統(tǒng)多遇到的是小樣本的人臉識別問題,即在識別中可以采集到的每個人的人臉樣本相對較少,而且采集環(huán)境通常是在不可控的自然環(huán)境下進行的,人臉樣本常常含有諸如光照、姿態(tài)、遮擋、表情、噪聲等類內(nèi)變化。如何在含有較大干擾的小樣本人臉識別問題中取得魯棒的識別結果,便成了當前許多人臉識別方面的研究工作所關心的問題。受稀疏編碼[1]和子空間方法[2-3]的啟發(fā),John Wright等[4]提出了基于稀疏表示的分類方法,在含遮擋、噪聲、光照的復雜環(huán)境下的人臉識別問題中取得了較好的效果。在John Wright工作的基礎上,一系列基于稀疏表示的分類方法的研究取得了一定的進展,具有代表性的包括關于稀疏表示中字典學習的研究工作[5-7],稀疏表示的快速優(yōu)化策略[8-10],和關于添加對表示系數(shù)的不同約束的工作[11-13]。其中,Lei Zhang[14]指出了在基于稀疏表示的分類方法中協(xié)同性機制的地位,并提出了使用更松弛的二范數(shù)來約束訓練字典表示系數(shù)的協(xié)同表示的分類方法。為了解決小樣本情況下單類訓練集字典對類內(nèi)變化表達不充分的問題,文獻[15-18]創(chuàng)造性地將補償字典引入了基于稀疏表示的人臉識別的方法中,在小樣本的人臉識別問題中取得了一定的突破,但依然不能徹底分離訓練集字典中類內(nèi)變化產(chǎn)生的干擾。
傳統(tǒng)的基于稀疏表示的方法本質(zhì)上依然基于樣本的灰度特征,利用稀疏線性表達來實現(xiàn)對類內(nèi)變化分量的分離。但對于實際問題,類內(nèi)變化相對比較復雜,如姿態(tài)、表情、復雜的光照,簡單依靠線性表達很難將其分離出來。特別對于訓練集字典極欠完備的小樣本問題,憑借有限的訓練樣本更難實現(xiàn)這一目標。為了解決這一問題,本文將人臉的灰度特征通過深度神經(jīng)網(wǎng)絡非線性映射到一個特征線性子空間內(nèi),這一映射保留了樣本分類相關的主要信息,去除了類內(nèi)變化信息的干擾,使得映射后的特征對類內(nèi)變化具有不變性且更有可區(qū)分性。然后,將該特征利用基于稀疏表示的分類方法進行表達和識別。實驗證明,本文方法在具有較大類內(nèi)變化的小樣本問題上效果尤其突出,且對于姿態(tài)、表情這類非線性疊加的類內(nèi)變化具有更好的魯棒性。
本文提出了基于深度學習特征的稀疏表示的人臉識別方法,將深度學習特征與稀疏表示相互結合,充分發(fā)揮了深度學習在特征學習方面的優(yōu)點和稀疏表示在小樣本識別上的優(yōu)點。通過實驗,在一定程度上說明了深度學習所得的特征具有線性子空間特性,并對深度學習所得特征進行了較為系統(tǒng)的分析。
1相關工作
1.1基于稀疏表示的人臉識別方法
基于稀疏表示的分類方法(sparse representation based classification, SRC)[4]假設人臉圖像位于線性子空間中,測試樣本可以為所有類的訓練樣本(字典)協(xié)同線性表達,而測試樣本所屬類別的字典可以表示得更加稀疏(用較少的字典可以達到更好的重構)。在對表示系數(shù)增加稀疏性的約束后,求解所得的稀疏表示系數(shù)中非零項應主要為測試樣本所屬類別字典的對應項,因此便可以根據(jù)哪類字典可以取得對測試樣本更小的重構誤差來進行分類,這便是SRC的工作原理。各步驟公式如下:
SRC表示過程:
(1)
SRC分類過程:
(2)
基于稀疏表示的分類方法能夠有效利用人臉圖像的子空間特性,不需要大量樣本進行分類器的學習,對噪聲具有較好的魯棒性。
基于稀疏表示的識別方法假設每類訓練樣本(字典)都必須是完備的,每類訓練樣本(字典)都有足夠的表達能力。這一假設在具有較大干擾(如光照、姿態(tài)、遮擋等)的小樣本問題中一般是不成立的。在小樣本且具有較大干擾的人臉識別問題中,測試圖片常常會被錯分為具有相似類內(nèi)變化的字典的類中,而不是具有相同外貌變化的類中。為了消除小樣本情況下類內(nèi)變化的干擾,文獻[15-18]創(chuàng)造性地將補償字典引入了基于稀疏表示的人臉識別的方法中,在小樣本的人臉識別問題中取得了一定的突破,但依然不能徹底分離訓練集字典中類內(nèi)變化。
1.2較大類內(nèi)變化干擾下的小樣本人臉識別問題
為了更好地分析子空間方法中類內(nèi)變化帶來的影響,Tang等[19]提出了統(tǒng)一子空間的理論概念。統(tǒng)一子空間理論認為人臉圖像由原型成分、類內(nèi)變化成分和噪聲成分線性組合而成。如式(3)和圖1所示。
(3)
圖1 統(tǒng)一人臉子空間示意Fig.1 The unified face subspace
式中:μ為與人臉相貌相關的原型成分,ν為與人臉圖像的類內(nèi)變化成分(如光照、姿態(tài)、遮擋等),ε為噪聲成分。在人臉識別中需要盡可能地將與分類無關的成分μ和ε與分類相關的成分μ分離開來。但通常,μ、ν和ε3個成分之間具有較強的相關性,很難通過線性表示(即便是稀疏線性表示)將其有效地分離開來,或者將v和ε有效地去除掉。以人臉的姿態(tài)變化為例,同類人臉在不同姿態(tài)下的類內(nèi)差與不同人臉在統(tǒng)一姿態(tài)下的類內(nèi)差十分接近(均在外貌輪廓處有較大的響應),很難通過有限的樣本和稀疏線性表示去除姿態(tài)對人臉圖像的影響。且這一問題,在小樣本的人臉圖像識別的問題中,變得更加棘手。
本文將人臉樣本從灰度空間投影到特征空間,然后在特征空間使用基于稀疏表示的分類方法進行識別。對于投影后的特征,需要滿足如下2個條件:1)投影后的特征需要滿足線性子空間特性,這樣才能符合基于稀疏表示的分類方法的基本前提;2)投影后的特征對類內(nèi)變化不敏感,或者消除了類內(nèi)變化。為了有效解決小樣本問題,我們同時期望特征的學習可以通過外部數(shù)據(jù)來完成,然后遷移到小樣本的數(shù)據(jù)集上來。換句話說,也就要求所學得的特征具有一定的可遷移性。
傳統(tǒng)的特征如HOG、SIFT、LBP等不能很好地保證人臉圖像中的類內(nèi)變化可以被有效地去除,特別對于諸如姿態(tài)、遮擋、表情等這類比較復雜的類內(nèi)變化,同時變化后的特征一般不具有子空間特性,很難適用于基于稀疏表示的分類方法,使之發(fā)揮更大的效能。
1.3深度卷積神經(jīng)網(wǎng)絡
深度卷積神經(jīng)網(wǎng)絡(deep convolutional neural network, DCNN)是一種有監(jiān)督的深度學習模型,已成為當前語音分析和圖像識別領域的研究熱點。 Lecun等早在1998年就提出了經(jīng)典的LeNet網(wǎng)絡[20], Hinton等使用的大規(guī)模深度CNN[21]在Imagenet這樣1 000類的分類問題上取得了非常好的結果。文獻[22-25]利用CNN網(wǎng)絡在人臉識別領域取得了較大的突破,成為目前工業(yè)界和學術界的主流算法。卷積網(wǎng)絡的核心思想是局部感受野、權值共享(或者權值復制)以及時間或空間亞采樣。CNN通常使用最后一層全連接隱層的值作為對輸入樣本所提取的特征,通過外部數(shù)據(jù)進行的有監(jiān)督學習,CNN可以保證所得的特征具有較好的對類內(nèi)變化的不變性。
為了更有效地解決復雜類內(nèi)變化條件下的小樣本人臉識別問題,本文結合近年來被深入研究和廣泛應用到各類視覺問題的深度卷積網(wǎng)絡,使用深度學習的方法來提取特征,然后與基于稀疏表示的方法相結合。使用深度學習得到的特征被諸多實驗證明具有較好的可分性和遷移性,并對類內(nèi)變化具有較好的魯棒性。但其是否具有子空間特性這一問題卻很少被人關注。本文利用實驗的方式,在一定程度上證明了深度學習所得的人臉特征具有較好的子空間特性,而且具有可遷移性和對類內(nèi)變化的不變性。
2基于深度學習特征的稀疏表示的人臉識別方法
本文結合基于深度學習的特征提取方法和基于稀疏表示的人臉識別方法,提出了兼顧二者所長的基于深度學習特征的稀疏表示的人臉識別方法(sparse representation via deep learning features based classification,SRDLFC) 。SRDLFC對于含較大類內(nèi)變化的小樣本人臉識別問題具有較大的優(yōu)勢。
2.1SRDLFC整體流程
SRDLFC方法包括網(wǎng)絡學習和樣本識別兩個過程,樣本識別過程包括特征提取和稀疏分類兩個環(huán)節(jié),其中特征提取所用的CNN網(wǎng)絡需要通過外部數(shù)據(jù)進行有監(jiān)督的學習和訓練。整體流程如圖2。
圖2 SRDLFC方法流程圖Fig.2 The process of SRDLFC method
基于深度學習特征的稀疏表示的人臉識別方法(SRDLFC)如下。
1)網(wǎng)絡學習過程:
①利用外部數(shù)據(jù)學習特征提取的CNN網(wǎng)絡f(y).
2)樣本識別過程:
①對于測試樣本y,通過特征提取網(wǎng)絡提取深度學習特征y′=f(y)。
②對y′用特征空間的訓練集字典X′進行稀疏表示,得表示系數(shù)α′:
③通過訓練集字典對測試樣本的表示殘差進行分類:
2.2基于深度學習的特征提取方法
SRDLFC方法的特征提取過程是通過深度卷積神經(jīng)網(wǎng)絡完成的,本文所用的CNN網(wǎng)絡結構如圖3所示。
圖3 SRDLFC特征提取網(wǎng)絡結構Fig.3 The structure of SRDLFC’s feature extraction network
網(wǎng)絡各層具體參數(shù)如表1所示。
表1 SRDLFC特征提取網(wǎng)絡具體結構
該網(wǎng)絡訓練中使用的Dropout概率為50%,激活函數(shù)為Relu。
本文使用CASIA數(shù)據(jù)集[26]進行訓練, 數(shù)據(jù)集為不受控環(huán)境下采集到的人臉圖像,包含光照、遮擋、姿態(tài)。我們選用前7 000類約39萬人臉圖像作為數(shù)據(jù)進行有監(jiān)督學習,監(jiān)督學習中輸出為各類的標簽。圖像使用DLIB開源庫[27]定位68個特征點,然后進行人臉對齊。我們使用FC1層作為人臉特征,使用cosine距離作為人臉特征的相似度度量,在LFW數(shù)據(jù)庫上測試得到了96.75%±0.57%人臉認證準確率,充分證明網(wǎng)絡學到的特征不僅擁有極強的判別性,而且具有良好的遷移性。
3基于深度學習的人臉特征分析
在基于深度學習特征的稀疏表示的人臉識別方法SRDLFC中,要求特征滿足線性子空間特性,且具有對類內(nèi)變化的不變性、較好的遷移性和可分性。下面對SRDLFC中所提取的深度學習特征進行分析和討論。
3.1深度學習特征對類內(nèi)變化的不變性與可區(qū)分性
SRDLFC中特征提取CNN網(wǎng)絡的各層卷積核如圖4所示。
圖4 SRDLFC特征提取網(wǎng)絡的第一層卷積核示意 Fig.4 The first level’s convolutional filters of SRDLFC’s feature extraction network
從圖4可以看出,CNN底層主要提取一些與邊緣、角度、輪廓相關信息,具有一定的通用性。CNN高層逐漸提取出一些圖像結構的信息。
以AR數(shù)據(jù)集的人臉圖像為例,將10類人臉樣本的深度學習特征進行可視化,如圖5所示(每一列代表一個樣本的特征,每張子圖對應一類人臉)。同一類的樣本,在經(jīng)過多層卷積和池化后,得到的特征圖是相似的,各個子圖有明顯的橫線紋理(說明同類對應項上的特征值比較相似),說明深度學習特征具有對類變化較好的不變性。而不同類的樣本的特征圖明顯差異很大,這在一定程度上說明了CNN所提取的特征具有較好的可分性。
圖5 人臉圖像的深度學習特征可視化圖Fig.5 The visualization deep learning face features
3.2深度學習特征的子空間特性
SRDLFC將深度學習的特征與基于稀疏表示的人臉識別方法相結合,要求特征空間滿足人臉線性子空間的假設。CNN特征提取網(wǎng)絡實現(xiàn)了人臉灰度空間到深度學習特征空間的非線性映射,不一定能保證所得特征滿足人臉子空間假設。為了驗證這一問題,本文進行如下說明實驗。
選擇AR中圖像作為測試樣本,對特征空間中任一個人臉樣本,將其用同類的特征空間內(nèi)的人臉樣本做稀疏線性表達,記錄重構誤差所占樣本能量的百分比;對特征空間中任一人臉樣本,將其用所有類的特征空間內(nèi)的人臉樣本做稀疏線性表達,記錄重構誤差所占樣本能量的百分比。訓練集字典大小為每類20項。實驗統(tǒng)計結果如表2所示。
表2 深度學習特征的類內(nèi)差類間差分布
在SRDLFC的稀疏線性表示的過程中得到的表示系數(shù)示例如圖6。
(a)示例樣本1
(b)示例樣本2
(c)示例樣本3
(d)示例樣本4圖6 SRDLFC在稀疏表示過程中的表示系數(shù)示例Fig.6 The represent coefficients in SRDLFC’s representation process
根據(jù)表2和圖6,可以看到在特征空間內(nèi)的人臉樣本可以很好地被本來樣本線性表達,滿足子空間的條件。且其在被其他類樣本協(xié)同線性表達過程中,表達是稀疏的,且同類樣本表達更加稀疏,符合稀疏表示分類方法的適用條件。實驗說明,深度學習特征具有一定的線性子空間特性。多層卷積和池化的非線性操作也有助于將人臉樣本投影到一個更好的線性子空間中。在這樣的線性特征子空間中,使用基于稀疏表示的分類方法進行分類識別,具有更高的魯棒性和更好的識別效果。
4實驗結果及分析
本文選擇AR和CMU PIE人臉數(shù)據(jù)庫進行識別實驗,對應不同類內(nèi)變化環(huán)境下的人臉識別情況。
4.1AR 人臉數(shù)據(jù)庫識別實驗
AR數(shù)據(jù)庫包含大約100人的彩色圖像(每人約50張),含有光照、遮擋、表情的類內(nèi)變化的干擾。圖像使用DLLIB開源庫進行人臉對齊。本文隨機選擇每類1~25張人臉圖像作為訓練集字典,其余圖像做測試集,10次實驗取平均值。對比方法為灰度特征+最近鄰分類(Pixel+NN)、灰度特征+Bayesian方法(Pixel+Bayesian)、灰度特征+稀疏表示分類方法(Pixel+SRC)、深度學習特征+最近鄰分類(DL+NN)、深度學習特征+Bayesian方法(DL +Bayesian)、深度學習特征+稀疏表示分類方法(DL +SRC,SRDLFC)。所得識別率結果如表3和圖7所示。
表3 AR數(shù)據(jù)庫中人臉識別結果 (每類字典數(shù)1~7)
圖7 AR數(shù)據(jù)庫中人臉識別結果Fig.7 Recognition results in AR
4.2CMU PIE 人臉數(shù)據(jù)庫識別實驗
CMU-PIE數(shù)據(jù)庫包含68人的41368張彩色圖像(每人約50張),含有13種姿態(tài)、43種光照、4種表情的類內(nèi)變化的干擾。圖像使用DLIB開源庫進行人臉對齊。
本文隨機選擇每類1-25張人臉圖像作為訓練集字典,其余圖像做測試集,10次實驗取平均值。對比方法同4.1章節(jié)。所得識別率結果如表4和圖8所示。
表4 CMU PIE數(shù)據(jù)庫中人臉識別結果 (每類字典數(shù)1~7)
圖8 CMU PIE數(shù)據(jù)庫中人臉識別結果Fig.8 Recognition results in CMU PIE
通過實驗可以看到,基于深度學習特征的各類方法在較大類內(nèi)變化干擾的環(huán)境下均能有較大的提升,特別是本文提出的基于深度學習特征的稀疏表示的人臉識別方法,取得了較各類方法更加優(yōu)越的效果。SRDLFC較傳統(tǒng)的各類方法能夠提升 6%~60%,尤其在小樣本情況下更為明顯,體現(xiàn)了稀疏表示的特征具有較好的子空間特性、可分性、可遷移性及對類內(nèi)變化的不變性。而基于稀疏表示分類框架的應用,更加有助于提升深度學習特征的分類準確率,在較大類內(nèi)變化的小樣本的人臉識別問題中具有更大的優(yōu)勢。
5結束語
本文針對較大類內(nèi)變化干擾下的人臉識別問題,提出了基于深度學習特征稀疏表示的人臉識別方法SRDLFC。本文充分分析論證了基于深度學習所提取的人臉特征基本滿足線性子空間假設,并具有較好的可分性、可遷移性及對類內(nèi)變化的不變性。本文將基于深度學習的特征應用到稀疏表示的分類框架中,充分發(fā)揮兩者優(yōu)點,實現(xiàn)識別率的提升。本文提出的SRDLFC算法,可以有效地應對光照、姿態(tài)、表情、遮擋等類內(nèi)變化帶來的干擾,且在小樣本問題中具有較大的優(yōu)勢。未來的研究工作將進一步對深度學習特征進行研究分析,通過改進網(wǎng)絡結構和損失函數(shù),使網(wǎng)絡所得特征更加滿足線性子空間約束,進一步提升SRDLFC的識別效果,并嘗試做一些理論上的推導工作。滿足線性子空間約束,進一步提升SRDLFC的識別效果,并嘗試做一些理論上的推導工作。
參考文獻:
[1]DONOHO D L. Compressed sensing[J]. Information theory, 2006, 52(4): 1289-1306.
[2]LEE K C, HO J, KRIEGMAN D. Acquiring linear subspaces for face recognition under variable lighting[J]. Pattern analysis and machine intelligence, 2005, 27(5): 684-698.
[3]NASEEM I, TOGNERI R, BENNAMOUN M. Linear regression for face recognition[J]. Pattern analysis and machine intelligence, 2010, 32(11): 2106-2112.
[4]WRIGHT J, YANG A Y, GANESH A, et al. Robust face recognition via sparse representation[J]. Pattern analysis and machine intelligence, 2009, 31(2): 210-227.
[5]AHARON M, ELAD M, BRUCKSTEIN A. K-SVD: an algorithm for designing overcomplete dictionaries for sparse representation[J]. Signal processing, 2006, 54(11): 4311-4322.
[6]YANG M, ZHANG L, YANG J, et al. Metaface learning for sparse representation based face recognition[C]// Proceedings of the IEEE International Conference on Image Processing, Hong Kong, China, 2010, 119(5):1601-1604.
[7]YANG M, ZHANG D, FENG X, et al. Fisher discrimination dictionary learning for sparse representation[C]// Proceedings of the IEEE International Conference on Computer Vision. Barcelona, Spain, 2011, 24(4):543-550.
[8]YANG J, ZHANG Y. Alternating direction algorithms for l1-problems in compressive sensing[J]. arXiv: 0912.1185, 2009, (1):250-278.
[9]UJDAT D M, MALIOUTOV D M, ?ETIN M, et al. Homotopy continuation for sparse signal representation[C]// Proceedings of the IEEE International Conference on Acoustics, Speech, and Signal Processing,Philadelphia, USA, 2005:733-736.
[10]KOH K, KIM S J, BOYD S P. An interior-point method for large-scale l1-regularized logistic regression[J]. Journal of machine learning research, 2007, 8(8): 1519-1555.
[11]LIU Y, WU F, ZHANG Z. Sparse representation using nonnegative curds and whey[C]// Proceedings of the IEEE International Conference on Computer Vision and Pattern Recognition. San Francisco, USA, 2010, 119(5):3578-3585.
[12]GAO S, TSANG I W, Chia L, et al. Local features are not lonely-laplacian sparse coding for image classification[C]// Proceedings of the IEEE International Conference on Computer Vision and Pattern Recognition, San Francisco, USA, 2010, 23(3):3555-3561.
[13]FISER J, BERKES P, WHITE B. No evidence for active sparsification in the visual cortex[C]// Advances in Neural Information Processing Systems,Vancouver, B.C., Canada, 2009: 108-116.
[14]ZHANG D, YANG M, FENG X. Sparse representation or collaborative representation: which helps face recognition?[C]// Proceedings of the IEEE International Conference on Computer Vision. Barcelona, Spain, 2011, 6669(5):471-478.
[15]DENG W, HU J, GUO J. Extended SRC: undersampled face recognition via intraclass variant dictionary[J]. Pattern analysis and machine intelligence, IEEE transactions on, 2012, 34(9): 1864-1870.
[16]GUO J. In defense of sparsity based face recognition[C]// Proceedings of the IEEE International Conference on Computer Vision. Sydney, NSW, Australia, 2013, 9(4):399-406.
[17]SU Y, SHAN S, CHEN X, et al. Adaptive generic learning for face recognition from a single sample per person[C]// Proceedings of the IEEE International Conference on Computer Vision and Pattern Recognition. San Francisco, USA, 2010: 2699-2706.
[18]WEI C, WANG Y-F. Learning auxiliary dictionaries for undersampled face recognition[C]// Proceedings of the IEEE International Conference on Multimedia and Expo.San Jose, California, USA, 2013, 2013:1-6.
[19]WANG X, TANG X. Unified subspace analysis for face recognition[C]// null. Proceedings of the IEEE International Conference on Computer Vision. Nice, France, 2003:679-686.
[20]LECUN Y L, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition. Proc IEEE[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324.
[21]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]// Advances in Neural Information Processing Systems.Lake Tahoe, Nevada, USA, 2012, 25:2012.
[22]TAIGMAN Y, YANG M, RANZATO M A, et al. Deepface: Closing the gap to human-level performance in face verification[C]// Proceedings of the IEEE International Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA, 2014: 1701-1708.
[23]SUN Y, WANG X, TANG X. Deeply learned face representations are sparse, selective, and robust[J]. arXiv: 1412.1265, 2014.
[24]SZEGEDY C, LIU W, JIA Y, ET AL. Going deeper with convolutions[J]. arXiv: 1409.4842, 2014.
[25]SCHROFF F, KALENICHENKO D, PHILBIN J. FaceNet: A unified embedding for face recognition and clustering[J]. arXiv preprint arXiv:1503.03832, 2015.
[26]YI D, LEI Z, LIAO S, ET AL. Learning face representation from scratch[J]. arXiv preprint arXiv:1411.7923. 2014.
[27]V. KAZEMI AND J. SULLIVAN. One millisecond face alignment with an ensemble of regression trees[C]// Pro-
ceedings of the IEEE International Conference on Computer Vision and Pattern Recognition.Columbus, OH, USA, 2014:1867-1874.
馬曉,男,1990 年生,博士研究生,主要研究方向為機器學習、模式識別和子空間理論。
張番棟,男,1991 年生,博士研究生,主要研究方向為機器學習和生物特征識別。
封舉富,男,1967 年生,教授,博士生導師,博士,主要研究方向為圖像處理、模式識別、機器學習和生物特征識別。主持參與國家自然科學基金、教育部新世紀優(yōu)秀人才支持計劃、“十一五”國家科技支撐計劃課題、973計劃等多項項目。曾獲中國高??萍级泉劦榷囗棯剟?。
中文引用格式:馬曉,張番棟,封舉富.基于深度學習特征的稀疏表示的人臉識別方法[J]. 智能系統(tǒng)學報, 2016, 11(3): 279-286.
英文引用格式:MA xiao, ZHANG fandong, FENG Jufu.Sparse representation via deep learning features based face recognition method[J]. CAAI transactions on intelligent systems, 2016,11(3): 279-286.
Sparse representation via deep learning features based face recognition method
MA Xiao1,2, ZHANG Fandong1,2, FENG Jufu1,2
(1. School of Electronics Engineering and Computer Science, Peking University, Beijing 100871, China; 2.Key Laboratory of Machine Perception (Ministry of Education) Department of Machine Intelligence, Peking University,Beijing 100871, China)
Abstract:Focusing on the problems that the traditional sparse representation based face recognition methods are not quite robust to intra-class variations, a novel Sparse Representation via Deep Learning Features based Classification (SRDLFC) method is proposed in this paper, employing a deep convolutional neural network to extract facial features and a sparse representation based framework to make classification. Experimental results in this paper also verifies the features extracted from deep convolutional network do satisfy the linear subspace assumption. The proposed SRDLFC proves to be quite effective and be robust to intra-class variations especially for under-sampled face recognition problems.
Keywords:machine learning; biometric recognition; deep learning; feature learning; subspace; under-sampled recognition; sparse representation; face recognition
作者簡介:
中圖分類號:TP391.4
文獻標志碼:A
文章編號:1673-4785(2016)03-0279-08
通信作者:馬曉. E-mail: maxiao2012@pku.edu.cn.
基金項目:國家自然科學基金項目(61333015); 國家重點基礎研究發(fā)展計劃(2011CB302400).
收稿日期:2016-03-16.網(wǎng)絡出版日期:2016-05-13.
DOI:10.11992/tis.2016030
網(wǎng)絡出版地址:http://www.cnki.net/kcms/detail/23.1538.TP.20160513.0919.012.html