諶湘倩 劉珂 馬飛
摘 要: 針對(duì)現(xiàn)有人臉識(shí)別方法不能很好地處理姿態(tài)變化的問(wèn)題,提出一種基于協(xié)作表示和正則化最小二乘法的多姿態(tài)人臉識(shí)別方法。利用通用彈性模型(GEM)將圖庫(kù)中的人臉圖像構(gòu)建成為一個(gè)3D模型,在3D人臉姿態(tài)的三個(gè)方向(偏航、俯仰和翻滾)上提取特征,構(gòu)建一個(gè)三維協(xié)作字典矩陣(CDM),利用正則化最小二乘法(RLS)和協(xié)作表示(CR)分類法對(duì)人臉進(jìn)行識(shí)別分類。在AR和視頻人臉數(shù)據(jù)庫(kù)上進(jìn)行實(shí)驗(yàn),結(jié)果表明,該方法能夠有效地解決具有姿態(tài)變化的人臉識(shí)別,同時(shí)對(duì)表情和光照變化也具有魯棒性,且實(shí)時(shí)性高。
關(guān)鍵詞: 多姿態(tài)人臉識(shí)別; 3D模型; 協(xié)作表示; 正則化最小二乘法
中圖分類號(hào): TN911.73?34; TP391 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2017)05?0049?05
Abstract: Since the existing face recognition method can′t deal with the posture change better, a multi?pose face recognition method based on collaborative representation (CR) and regularized least square (RLS) method is proposed. The generalized elastic model (GEM) is used to construct a 3D model of the human face image in the image library. The features in three directions (yaw, pitching and rolling) of the 3D face posture are extracted to construct a three?dimensional collaborative dictionary matrix (CDM). The RLS method and CR classification method are adopted to recognize and classify the human faces. The experiments were carried out with AR and video hunman face databases. The results show that the method can effectively solve the face recognition with posture variation, has the robustness for expression and illumination changes, and high real?time performance.
Keywords: multi?pose face recognition; 3D model; collaborative representation; regularized least square method
0 引 言
隨著生物識(shí)別技術(shù)的飛速發(fā)展,人臉識(shí)別(Face Recognition,F(xiàn)R)及其在生物特征識(shí)別、模式識(shí)別和計(jì)算機(jī)視覺(jué)上的應(yīng)用成為研究的熱點(diǎn)[1]。盡管許多人臉識(shí)別算法能在約束環(huán)境下取得良好的識(shí)別效果,但在實(shí)際應(yīng)用中,人臉圖像的不同光照條件、面部表情、頭部姿態(tài)對(duì)識(shí)別性能具有顯著的影響[2]。其中,無(wú)約束姿態(tài)變化人臉識(shí)別是最具挑戰(zhàn)性的任務(wù)[3]。
近期,學(xué)者們提出了許多用于姿態(tài)變化的人臉識(shí)別方法,例如,文獻(xiàn)[4]提出一種基于尺度不變特征融合的識(shí)別方法,利用尺度不變特征轉(zhuǎn)換算法提取尺度不變特征,在一定程度上能夠解決姿態(tài)變化的影響。文獻(xiàn)[5]提出一種基于姿態(tài)矩陣的聯(lián)合動(dòng)態(tài)系數(shù)表示分類的人臉識(shí)別方法,將圖像構(gòu)建成3D模型,然后生成姿態(tài)矩陣。然而,該方法對(duì)具有較大姿態(tài)變化人臉的識(shí)別率較低。文獻(xiàn)[6]提出一種基于特征庫(kù)矩陣(FLM)框架的姿態(tài)不變?nèi)四樧R(shí)別方法,利用雙樹(shù)復(fù)數(shù)小波變換提取特征,并利用支持向量機(jī)進(jìn)行迭代評(píng)分分類。文獻(xiàn)[7]提出一種基于稀疏字典矩陣框架的姿態(tài)不變?nèi)四樧R(shí)別方法,采用局部二值模式和稀疏表示分類算法。該方法具有較高的姿態(tài)變化人臉識(shí)別率,但在構(gòu)建稀疏字典矩陣時(shí)不能獲得有限且穩(wěn)定的最稀疏解。
針對(duì)姿態(tài)變化的人臉識(shí)別,提出一種基于協(xié)作表示和正則化最小二乘法的快速人臉識(shí)別方法。在AR人臉數(shù)據(jù)庫(kù)上進(jìn)行實(shí)驗(yàn),證明了提出的方法能夠很好地識(shí)別姿態(tài)變化的人臉,同時(shí)對(duì)表情和光照也具有魯棒性。此外,還在Biwi Kinect視頻數(shù)據(jù)庫(kù)上進(jìn)行實(shí)時(shí)識(shí)別實(shí)驗(yàn),與現(xiàn)有方法相比,提出的方法具有更高的精確度和更快的速度。
1 協(xié)作表示
協(xié)作表示(CR) [8]是稀疏表示(SR)的一種改進(jìn)算法,其在估計(jì)表示系數(shù)時(shí),重點(diǎn)考慮表示的協(xié)作性,放松對(duì)稀疏性的要求。協(xié)作表示法利用范數(shù)作為約束條件,求得的稀疏矢量同樣可以很好地表示測(cè)試樣本[9]。
從[k]個(gè)離散類中收集帶有標(biāo)簽的訓(xùn)練樣本,然后通過(guò)確定新探測(cè)樣本屬于哪個(gè)類別來(lái)完成表示過(guò)程。設(shè)定[Ai=[vi,1,vi,2,…,vi,ni]]表示圖庫(kù)中第[i]類的一個(gè)[m×ni]大小的訓(xùn)練矩陣,[ni]表示訓(xùn)練矩陣的列集合。將矩陣[Ai]中的每一列[vi,j]矢量化為一個(gè)灰度圖像??衫镁仃嘯Ai]的組織結(jié)構(gòu)進(jìn)行人臉識(shí)別,對(duì)單個(gè)類中的樣本進(jìn)行建模并在一個(gè)線性子空間中對(duì)其進(jìn)行表示。與此同時(shí),如果第[i]類中含有足夠數(shù)量的樣本,對(duì)相同類中任何新測(cè)試樣本[y]進(jìn)行估計(jì)來(lái)表示矩陣[Ai]中列的線性長(zhǎng)度,即:
實(shí)際上,利用[l0]?最小化代替[l1]?最小化可以獲得最稀疏的解,但卻引入了一個(gè)NP難題。那么,式(4)中的最優(yōu)化問(wèn)題可作為一個(gè)基追蹤(BP),可以利用標(biāo)準(zhǔn)線性編碼技術(shù)在多項(xiàng)式時(shí)間內(nèi)對(duì)其進(jìn)行求解。
在一般人臉識(shí)別方法中,為了獲取優(yōu)異的識(shí)別率,致使特征維度的定位過(guò)程較長(zhǎng)。最新的協(xié)作表示分類(CRC)法比稀疏表示更有效且更快速。因此,本文不需要利用[l1]正則化對(duì)[x]進(jìn)行稀疏,利用CRC法求解下面的最優(yōu)化問(wèn)題[10]:
設(shè)定[P=(ATA+λI)-1AT,]顯然[P]與[y]無(wú)關(guān),因此可預(yù)先將[P]作為一個(gè)投影矩陣計(jì)算出來(lái)。當(dāng)生成一個(gè)序列樣本[y]后,就可以利用[Py]對(duì)[y]進(jìn)行投影,這樣可以使CR獲得非??斓倪\(yùn)行速度。
利用[x]進(jìn)行分類的過(guò)程類似于稀疏表示分類方法中的分類過(guò)程,除了類特定表示殘差[y-Ai?xi22],其中[xi]表示與類[i]相關(guān)的系數(shù)向量,[l2]?正則化的“稀疏度” [xi22]可以引入作為用于分類的判別數(shù)據(jù)。
2 特征提取
利用協(xié)作表示(CR)在圖像姿態(tài)的三個(gè)方向上進(jìn)行特征提取,然后構(gòu)建成三維協(xié)作字典矩陣(CDM) [11],特征提取及三維CDM構(gòu)建的基本框架如圖1所示。
特征提取及三維CDM創(chuàng)建過(guò)程可以分為以下幾個(gè)步驟:
步驟1:輸入目標(biāo)[i]的圖像信息。
步驟2:對(duì)于目標(biāo)[i,]利用通用彈性模型(GEM)[12]方法構(gòu)建3D人臉。
步驟3:對(duì)于目標(biāo)[i,]根據(jù)人臉的所有姿態(tài)和可能視角合成3D人臉,在目標(biāo)姿態(tài)矩陣[Si(Y,P,R)]的三個(gè)方向(偏航、俯仰和翻滾)提取出人臉的姿態(tài)特征。[Si(Y,P,R)]是一個(gè)尺寸為[x×x×x]的立方矩陣,[Si(Y,P,R)]總的數(shù)組長(zhǎng)度為[x×x×x=x3。]實(shí)際上,目標(biāo)[i]的[Si(Y,P,R)]矩陣中的數(shù)組是根據(jù)人臉姿態(tài)結(jié)構(gòu)的三個(gè)角度進(jìn)行設(shè)定的,其中[i]表示目標(biāo)的個(gè)數(shù),[Y,][P]和[R]表示[Si(Y,P,R)]矩陣中相應(yīng)維度(偏航、俯仰和翻滾)數(shù)組的數(shù)量。為了能夠覆蓋所有的人臉姿態(tài),偏航(yaw)、俯仰(pitch)和翻滾(roll)的角度范圍為[-90°~90°。]因此,[Si(Y,P,R)]的尺寸為[x=180°s=180°5=36°,]其中[s]表示步長(zhǎng),[180°]表示人臉姿態(tài)的每個(gè)方向上覆蓋的姿態(tài)角度。比如,[Si(Y=8,P=3,R=4)]表示人臉的姿態(tài)角度為[yaw=][8×5(s=5)=40°,][pitch=3×5=15°,][roll=4×5=20°]。
步驟4:在每個(gè)[Si(Y,P,R)]中,對(duì)于人臉姿態(tài)的每個(gè)特定三維角度[(y,p,r)],在以[(y,p,r)]為中心點(diǎn)的周圍選取一個(gè)尺寸為[3×3×3]([ni=27],其中[n]表示[si(y,p,r)]總的數(shù)組個(gè)數(shù))的子訓(xùn)練矩陣[si(y,p,r)]。圖1給出了[si(y,p,r)]圖像的子訓(xùn)練矩陣內(nèi)置特定三維角度的例子,其表示如下:
[si(y,p,r)=Si(Y=y-1:y+1,P=p-1:p+1,R=r-1:r+1)] (7)
步驟5:協(xié)作表示方法要求字典[A]中的每個(gè)類都具有多個(gè)可利用的樣本。在本文中,根據(jù)人臉姿態(tài)的三維角度生成協(xié)作字典[A]的一個(gè)立方矩陣。將立方矩陣[A(Y,P,R)]定義為一個(gè)三維CDM,其中字典[A]保存在每一個(gè)數(shù)組中。因此,對(duì)于每個(gè)特定的姿態(tài)[(y,p,r)],通過(guò)[si(y,p,r)]矩陣生成的協(xié)作字典[Ai]來(lái)構(gòu)建[Ai(Y=y,P=p,R=r)]的數(shù)組,其中[Ai[vi,1,vi,2,…,vi,ni]=[si(y-1,p-1,r-1),…,si(y,p,r),…,][si(y+1,p+1,r+1)]]表示第[i]類中含有[ni=27(3×3×3)]個(gè)樣本的訓(xùn)練圖像。實(shí)際上,[(y,p,r)]姿態(tài)處的[si(y,p,r)]中的協(xié)作字典[A]保存在[Ai(Y=y,P=p,R=r)]中。
對(duì)于所有姿態(tài)以及[Si(Y,P,R)]的數(shù)組重復(fù)執(zhí)行這個(gè)處理過(guò)程。因此,利用基于協(xié)作表示和GEM的3D人臉構(gòu)建,生成了每個(gè)目標(biāo)的協(xié)作字典矩陣(三維CDM)。其中,每個(gè)三維CDM的尺寸與目標(biāo)姿態(tài)矩陣[Si(Y,P,R)]的尺寸類似。
步驟6:最終輸出具有[Am×n(Y,P,R)=[A1(Y,P,R),][A2(Y,P,R),…,Ai(Y,P,R)]]的三維CDMs。其中根據(jù)式(2)可知,[i]表示數(shù)據(jù)庫(kù)中目標(biāo)的個(gè)數(shù),根據(jù)姿態(tài)的三維角可以生成式(2)中的立方矩陣。
綜上所述,提出的方法根據(jù)人臉姿態(tài)的三維角生成每個(gè)目標(biāo)的三維CDM。比如,對(duì)于姿態(tài)角度[yaw=15°,][pitch=35°,][roll=40°,]步長(zhǎng)[s=5]的[Ai(Y,P,R)]的數(shù)組數(shù)量為[Y=yaws=3,][P=pitchs=7,][R=rolls=8]。因此,為姿態(tài)角度選取的[Ai(Y=3,P=7,R=8)]的數(shù)組為[yaw=15°,][pitch=35°,][roll=40°]。本文中,當(dāng)估計(jì)的姿態(tài)不是5的倍數(shù)時(shí),可將其四舍五入為5的倍數(shù)。比如,可以將[yaw=32°]姿態(tài)四舍五入為[yaw=30°]。
3 基于RLS_CR的人臉識(shí)別
本文提出的方法中,需要為每個(gè)目標(biāo)準(zhǔn)備兩幅圖像,一幅作為訓(xùn)練圖庫(kù)集,另一幅作為測(cè)試集。本文基于CDM和RLS_CR方法的人臉識(shí)別系統(tǒng)的流程圖見(jiàn)圖2。
本文系統(tǒng)操作分為線下和線上兩個(gè)階段。在線下階段,對(duì)2D數(shù)據(jù)庫(kù)中每個(gè)人的正面人臉圖像進(jìn)行登記,然后,對(duì)于每個(gè)登記過(guò)的人臉,利用GEM構(gòu)建3D人臉。接著,執(zhí)行特征提取。最后,根據(jù)每個(gè)人臉生成三維CDM。
在線識(shí)別階段,首先,利用文獻(xiàn)[13]提出的CLM方法對(duì)每個(gè)探測(cè)圖像進(jìn)行預(yù)處理和人臉檢測(cè)。然后,再利用CLM姿態(tài)估計(jì)方法對(duì)人臉的姿態(tài)角度進(jìn)行估計(jì)。接著,對(duì)于每個(gè)人,根據(jù)姿態(tài)估計(jì)角度選取三維CDM的一個(gè)數(shù)組[Ai(Y=yaw,P=pitch,R=roll)]。最后,對(duì)每個(gè)面部部分進(jìn)行獨(dú)立識(shí)別過(guò)程:給定一個(gè)測(cè)試樣本[y]和訓(xùn)練矩陣[A(Y=yaw,P=pitch,R=roll)=[A1(Y=yaw,P=pitch,R=roll),][A2(Y=yaw,P=pitch,R=roll),…,Ai(Y=yaw,P=pitch,R=roll)],]
作為算法1中的輸入項(xiàng)[y]和[A=A(Y=yaw,P=pitch,R=roll)。]實(shí)際上,在三維CDM中存在許多學(xué)習(xí)字典,利用姿態(tài)估計(jì)從中選取一個(gè)字典,然后利用本文提出的RLS_CR分類法進(jìn)行分類。
算法1 RLS_CR分類算法
(1) 輸入:訓(xùn)練矩陣[A]和探測(cè)矩陣[y。]
(2) 標(biāo)準(zhǔn)化:對(duì)[A]的列進(jìn)行單元[l2]正則化。
(3) 編碼:通過(guò)[A]對(duì)[y]進(jìn)行編碼:[x=Py,]其中[P=][(ATA+λI)-1AT。]
(4) 計(jì)算:將計(jì)算的正則化殘差作為誤差表示:
[ei(y)=y-Ai?xi2xi2]
(5) 輸出:[y]的身份:
[身份(y)=argmini{ei(y)}]
4 實(shí)驗(yàn)及分析
在FETET,AR,LFW和視頻數(shù)據(jù)庫(kù)上對(duì)提出的姿態(tài)變化人臉識(shí)別方法進(jìn)行性能評(píng)估,并與現(xiàn)有的先進(jìn)方法進(jìn)行對(duì)比,分別為:尺度不變特征融合法(FSIF)、姿態(tài)矩陣的聯(lián)合動(dòng)態(tài)系數(shù)表示分類法(DSRC)、特征庫(kù)矩陣法(FLM)和稀疏字典矩陣分類法(SDM)。實(shí)驗(yàn)使用MATLAB 7.0在個(gè)人計(jì)算機(jī)上實(shí)現(xiàn),計(jì)算機(jī)配置為:Windows 7操作系統(tǒng)、酷睿i5處理器、2.53 GHz主頻、4 GB RAM。
4.1 AR數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)
本文提出的方法主要是用來(lái)應(yīng)對(duì)姿態(tài)變化,為了檢測(cè)提出的方法對(duì)表情和光照的魯棒性,在AR人臉數(shù)據(jù)庫(kù)中進(jìn)行實(shí)驗(yàn)。AR人臉數(shù)據(jù)庫(kù)包括70個(gè)男性、56個(gè)女性的4 000幅圖像,這些圖像包含有六類差異:臉部表情變化(無(wú)表情、微笑、生氣、尖叫)、不同的光照變化。本文從原始AR數(shù)據(jù)庫(kù)選擇100個(gè)對(duì)象(50個(gè)男性和50個(gè)女性)用于實(shí)驗(yàn)。本文對(duì)臉部表情變化和不同光照條件情況分別進(jìn)行實(shí)驗(yàn)。圖3描述了AR數(shù)據(jù)庫(kù)中不同表情和不同光照的人臉圖像。
在AR數(shù)據(jù)庫(kù)中,對(duì)不同臉部表情變化和光照的圖像進(jìn)行識(shí)別實(shí)驗(yàn)。對(duì)于表情變化圖像,將包含三個(gè)不同的表情200幅圖像作為訓(xùn)練樣本,剩余的表情圖像作為測(cè)試樣本。AR數(shù)據(jù)庫(kù)中共包括四種光照條件:柔光、左側(cè)光、右側(cè)光和強(qiáng)光,實(shí)驗(yàn)中,不同光照條件的每個(gè)人4幅圖像用于訓(xùn)練,其余的圖像用于測(cè)試。各種方法在AR數(shù)據(jù)庫(kù)中的實(shí)驗(yàn)結(jié)果如表1所示。
從表1可以看出,提出的方法對(duì)所有臉部表情都能達(dá)到很高的識(shí)別率。另外,提出的方法在左側(cè)光和右側(cè)光條件下的識(shí)別率達(dá)到了100%。結(jié)果表明,提出的方法同樣能夠應(yīng)對(duì)表情和光照變化的人臉。
4.2 視頻數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)
對(duì)提出的方法處理視頻人臉識(shí)別的性能進(jìn)行評(píng)估。實(shí)驗(yàn)中采用了Biwi Kinect頭部姿態(tài)[14]數(shù)據(jù)庫(kù)中的30個(gè)人的30個(gè)視頻,在每個(gè)視頻中,每個(gè)目標(biāo)超過(guò)1 000幀。這些視頻中頭部姿態(tài)的變化范圍為:傾斜方向上為[±60°],偏航方向上為[±75°]。將本文CDM+RLS方法與SDM+RLS方法、FLM方法、SDM方法進(jìn)行比較。并分別計(jì)算CDM+RLS和SDM+RLS在稀疏表示中的最小化表示誤差值,對(duì)每一幀中呈現(xiàn)的所有姿態(tài)的最小化表示誤差進(jìn)行跟蹤。
圖4表明提出的方法在對(duì)每個(gè)姿態(tài)的每個(gè)探測(cè)幀進(jìn)行人臉識(shí)別的過(guò)程幾乎為實(shí)時(shí)識(shí)別,平均每秒處理8~13幀(FPS=8~13)。此外,圖5表明提出的方法比SDM+RLS方法具有較低且穩(wěn)定的表示誤差。這是因?yàn)镃RC中的正則項(xiàng)使三維CDM更加穩(wěn)定,其能夠生成有限量的稀疏度用于決策。因此,不僅具有最稀疏的解,而且還具有有限并穩(wěn)定的表示,并通過(guò)計(jì)算表示誤差做出最后的決策。
根據(jù)表2中的結(jié)果,可以看出,提出的方法識(shí)別率和平均時(shí)延均優(yōu)于其他方法。這是因?yàn)?,提出的方法采用正則化項(xiàng)使最小二乘解穩(wěn)定,并將有限量的“稀疏度”引入到解[x]中,其中,這個(gè)稀疏度遠(yuǎn)遠(yuǎn)弱于[l1]正則化,從而證明,通過(guò)生成最稀疏的解能夠提高識(shí)別率。
5 結(jié) 語(yǔ)
本文提出一種基于協(xié)作表示和正則化最小二乘法的姿態(tài)變化人臉識(shí)別方法。利用通用彈性模型(GEM)將圖庫(kù)中的人臉圖像構(gòu)建成3D模型,并在三個(gè)方向上提取特征,構(gòu)建一個(gè)三維協(xié)作字典矩陣(CDM),利用RLS_CR分類算法對(duì)人臉進(jìn)行識(shí)別分類。在AR數(shù)據(jù)庫(kù)上進(jìn)行實(shí)驗(yàn),結(jié)果證明提出的方法對(duì)于具有姿態(tài)變化的人臉具有很高的識(shí)別率,同時(shí),對(duì)表情和光照變化也具有魯棒性。在Biwi Kinect視頻人臉數(shù)據(jù)庫(kù)的實(shí)驗(yàn)表明,提出的方法具有很高的實(shí)時(shí)性,能夠滿足實(shí)時(shí)識(shí)別的要求。
在今后的研究中,將對(duì)提出的方法進(jìn)一步擴(kuò)展,使其能夠?qū)哂姓趽醯娜四樳M(jìn)行有效識(shí)別。
參考文獻(xiàn)
[1] 周旭東,陳曉紅,陳松燦.半配對(duì)半監(jiān)督場(chǎng)景下的低分辨率人臉識(shí)別[J].計(jì)算機(jī)研究與發(fā)展,2012,49(11):2328?2333.
[2] PEDDIGARI V R, SRINIVASA P, KUMAR R. Enhanced ICA based face recognition using histogram equalization and mirror image superposition [C]// Proceedings of 2015 International Conference on Consumer Electronics. [S.l.]: IEEE, 2015: 625?628.
[3] 周凱汀,鄭力新.基于改進(jìn)ORB特征的多姿態(tài)人臉識(shí)別[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2015,27(2):287?295.
[4] 李根,李文輝.基于尺度不變特征變換的平面旋轉(zhuǎn)人臉檢測(cè)[J].吉林大學(xué)學(xué)報(bào)(工學(xué)版),2013,43(1):186?191.
[5] MOEINI A, MOEINI H, FAEZ K. Real?time pose?invariant face recognition by triplet pose sparse matrix from only a single image [C]// Proceedings of 2014 22nd International Conference on Pattern Recognition. Tehran: IEEE, 2014: 465?470.
[6] MOEINI A, MOEINI H. Real?world and rapid face recognition toward pose and expression variations via feature library matrix [J]. IEEE transactions on information forensics & security, 2015, 10(5): 969?984.
[7] MOEINI A, MOEINI H, FAEZ K. Unrestricted pose?invariant face recognition by sparse dictionary matrix [J]. Image & vision computing, 2015, 36(C): 9?22.
[8] 魏冬梅,周衛(wèi)東.近鄰樣本協(xié)作表示的人臉識(shí)別算法[J].西安電子科技大學(xué)學(xué)報(bào),2015,42(3):115?121.
[9] 詹曙,臧懷娟,相桂芳.基于協(xié)作表示殘差融合的三維人臉識(shí)別[J].中國(guó)圖象圖形學(xué)報(bào),2015,20(5):115?121.
[10] YANG C, LIU C, WU N, et al. Collaborative representation with reduced residual for face recognition [J]. Neural compu?ting & applications, 2014, 25(8): 1741?1754.
[11] KHAJI R, LI H, HASAN T M, et al. Relaxed collaborative representation for face recognition based low?rank matrix recovery [C]// Proceedings of 2014 IEEE International Confe?rence on Wavelet Analysis and Pattern Recognition. [S.l.]: IEEE, 2014: 50?55.
[12] RAYMOND S T. Elastic face recognizer: invariant face recognition based on elastic graph matching model [J]. Internatio?nal journal of pattern recognition & artificial intelligence, 2011, 16(4): 463?479.
[13] SARAGIH J M, LUCEY S, COHN J F. Deformable model fitting by regularized landmark mean?shift [J]. International journal of computer vision, 2011, 91(2): 200?215.
[14] MIN R, KOSE N, DUGELAY J L. KinectFaceDB: a kinect database for face recognition [J]. IEEE transactions on systems man & cybernetics systems, 2014, 44(11): 1534?1548.