孫雨浩,陶 洋,胡 昊
(重慶郵電大學(xué)通信與信息工程學(xué)院,重慶 400065)
目前,雖然遮擋人臉識(shí)別技術(shù)已經(jīng)取得了長(zhǎng)足的進(jìn)展,但是在現(xiàn)實(shí)應(yīng)用中仍然面臨著巨大的挑戰(zhàn)。一般人臉識(shí)別都要求訓(xùn)練樣本不受噪聲污染,即前提條件是這些識(shí)別方法都是基于單一樣本的單一個(gè)體的圖像位于同一低秩子空間[1],但在現(xiàn)實(shí)場(chǎng)景中,圖像通常都會(huì)受到比如姿勢(shì)、光照、表情變化以及遮擋的各種影響。
在測(cè)試和訓(xùn)練樣本沒有受到影響的情況下,稀疏表示的分類SRC(Sparse Representation Classification)方法的識(shí)別性能較好,否則識(shí)別性能就會(huì)明顯降低。為了提高SRC的性能,Wright等人[2]提出了魯棒SRC RSRC(Robust SRC)模型,然而,由于L1范數(shù)最小化和單位遮擋字典中存在大量的原子,SRC方法計(jì)算代價(jià)很高?;诖耍珼eng等人[3]提出一種擴(kuò)展稀疏表示ESRC(Extended Sparse Representation Classification) 算法,用訓(xùn)練樣本減去其對(duì)應(yīng)的類均值得到誤差字典,取得了較好的稀疏表示結(jié)果,但還是存在遮擋字典也不能很好描述圖像的污損以及需要針對(duì)L1范數(shù)進(jìn)行相應(yīng)的優(yōu)化等問題。
針對(duì)此問題,眾多學(xué)者都在關(guān)注如何提高L1范數(shù)的計(jì)算速度,卻忽略了表示的協(xié)同性。協(xié)同性即由于不同人的面部圖像具有相似性,若第i個(gè)人與第j個(gè)人的圖像很相似,那么第j類的訓(xùn)練樣本可以用于表示來自第i類的測(cè)試樣本。Zhang等人[4]根據(jù)上述思想,提出了協(xié)同表示分類CRC(Collaborative Representation Classification)的方法。CRC在計(jì)算協(xié)同表示系數(shù)時(shí),放松了對(duì)稀疏性的要求,重點(diǎn)關(guān)注表示樣本的協(xié)同性,用L2范數(shù)代替L1范數(shù),提高了人臉識(shí)別的魯棒性,而且大大降低了復(fù)雜度。
如果所有的訓(xùn)練樣本都得到很好的控制,即在合理的姿態(tài)和光照下,沒有噪聲污染和遮擋,CRC對(duì)有污損和遮擋的測(cè)試樣本具有很強(qiáng)的魯棒性,能夠?qū)崿F(xiàn)較高的人臉識(shí)別精度。但是,當(dāng)測(cè)試樣本和訓(xùn)練樣本都被遮擋或者污損時(shí),CRC的性能也會(huì)下降。Candès等人[5]提出的魯棒主成分分析RPCA(Robust Principal Component Analysis),假設(shè)所有數(shù)據(jù)都在一個(gè)子空間中,然后從被污損的數(shù)據(jù)矩陣中恢復(fù)一個(gè)低秩數(shù)據(jù)矩陣。但是,當(dāng)數(shù)據(jù)樣本來自多個(gè)子空間時(shí),此方法性能也達(dá)不到理想的效果。Liu等人[6]提出了低秩表示LRR(Low-rank Representation)算法,不僅可以在測(cè)試樣本和訓(xùn)練樣本均受到污染的情況下有效恢復(fù)出 “干凈”的人臉圖像和誤差圖像,還在一定程度上解決了訓(xùn)練樣本來自不同子空間的問題。
最近的研究成果表明,低秩矩陣恢復(fù)的方法被廣泛運(yùn)用在圖像分類領(lǐng)域。杜海順等人[7]利用LRR對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行恢復(fù),提出了基于低秩恢復(fù)稀疏表示分類算法。何林知等人[8]利用RPCA 方法對(duì)訓(xùn)練樣本進(jìn)行低秩恢復(fù)后,使用協(xié)同表示分類方法對(duì)測(cè)試樣本進(jìn)行識(shí)別。以上基于低秩矩陣恢復(fù)的人臉識(shí)別方法,雖然可以很好地去除訓(xùn)練數(shù)據(jù)中的噪聲,但是忽略了數(shù)據(jù)的局部結(jié)構(gòu)可能會(huì)降低圖像恢復(fù)的性能,而且由于沒有充分挖掘訓(xùn)練樣本的判別信息,這些方法并不適用于分類。
本文針對(duì)訓(xùn)練樣本和測(cè)試樣本同時(shí)受到遮擋的問題,提出了一種基于判別低秩矩陣恢復(fù)和協(xié)同表示與分類的遮擋人臉識(shí)別DLMR-CRC(Discriminant Low-rank Matrix Recovery and Collaborative Representation Classification)方法。該方法首先通過在低秩矩陣恢復(fù)中引入結(jié)構(gòu)非相關(guān)性約束,有效地從被污損的訓(xùn)練樣本中恢復(fù)出干凈的訓(xùn)練樣本,這些干凈的人臉圖像不但具有更強(qiáng)的判別信息,而且還可以保持原始數(shù)據(jù)的局部幾何結(jié)構(gòu)。在得到干凈的人臉圖像后,通過學(xué)習(xí)原始污損數(shù)據(jù)與干凈的低秩數(shù)據(jù)之間的低秩投影矩陣,將受污損的測(cè)試樣本投影到相應(yīng)的低維子空間進(jìn)行測(cè)試樣本的修正。最后,利用協(xié)同表示與分類的方法對(duì)修正后的測(cè)試樣本進(jìn)行分類,獲取最終的識(shí)別結(jié)果。該方法流程如圖1所示。本文所提方法不僅在保持原始數(shù)據(jù)的局部幾何結(jié)構(gòu)的同時(shí)增強(qiáng)了恢復(fù)的低秩數(shù)據(jù)的判別能力,而且還對(duì)受污損的測(cè)試樣本進(jìn)行了修正,在協(xié)同表示與分類的作用下,大大提高了遮擋人臉識(shí)別的有效性。
Figure 1 Flow chart of DLMR-CRC 圖1 DLMR-CRC流程
由于本文提出的方法涉及低秩矩陣恢復(fù)技術(shù),本節(jié)先簡(jiǎn)單回顧一下相關(guān)的工作。RPCA試圖將數(shù)據(jù)矩陣X分為A+E,其中A為干凈的數(shù)據(jù)矩陣,E為相關(guān)的稀疏誤差矩陣。RPCA最小化矩陣A的秩的同時(shí)減小了‖E‖0,得到X的低秩表示。RPCA模型表示為:
s.t.X=A+E
(1)
其中λ是一個(gè)正則化參數(shù),用來約束稀疏誤差矩陣。
由于上述優(yōu)化問題是NP難且高度非凸的,最常見的解決方法就是用L1范數(shù)來代替L0范數(shù),以及用核范數(shù)代替秩函數(shù),這種方法被證實(shí)是有效的。因此,式(1)就可以轉(zhuǎn)化為如下優(yōu)化問題:
s.t.X=A+E
(2)
式(2)中的核范數(shù)是指向量矩陣A的奇異值的和,主要用來約束A的低秩屬性,L1范數(shù)用來約束誤差圖像矩陣E的稀疏性,根據(jù)文獻(xiàn)[9]可知L1范數(shù)并不能很好地對(duì)E的稀疏性進(jìn)行約束,因此本文使用L2,1范數(shù)代替L1范數(shù),X的L2,1范數(shù)定義如式(3)所示:
(3)
其中,m和n分別代表數(shù)據(jù)矩陣的行數(shù)和列數(shù)。
不同于L1范數(shù)的稀疏要求,從L2,1范數(shù)的定義可以看出,根號(hào)下平方是對(duì)X的列進(jìn)行求和,由從L2范數(shù)的定義可以得出,根號(hào)部分相當(dāng)于一個(gè)L2范數(shù),可知L2,1范數(shù)即為X每一行的L2范數(shù)之和,L2,1范數(shù)還要求行稀疏,從而可以更好地對(duì)誤差矩陣E的稀疏性進(jìn)行約束。同時(shí),RPCA假設(shè)數(shù)據(jù)X來自同一子空間,然而Liu等人[6]提出的LRR算法,在一定程度上解決了訓(xùn)練樣本來自不同子空間的問題。綜上所述,改進(jìn)后的模型可以表示為:
s.t.X=DZ+E
(4)
其中,D是選擇的對(duì)應(yīng)字典,Z是低秩矩陣。
式(4)所示的優(yōu)化問題可以通過非精確增廣拉格朗日乘子ALM(Augmented Lagrange Multipliers)算法[10]求解,得到最優(yōu)解Z*,利用DZ*可以從數(shù)據(jù)矩陣X中恢復(fù)出干凈的數(shù)據(jù)矩陣。
通過選擇合適的字典D,利用LRR可以尋找出低秩的表示矩陣。在一般應(yīng)用中,因?yàn)槊總€(gè)數(shù)據(jù)向量都可以用原始數(shù)據(jù)向量表示,所以LRR使用數(shù)據(jù)X作為字典,在數(shù)據(jù)恢復(fù)期間還可以自動(dòng)糾正錯(cuò)誤。
假設(shè)有n個(gè)原始訓(xùn)練樣本X屬于N類,X=[x1,x2,…,xn]∈Rm×n,為了簡(jiǎn)單起見定義X=[X1,X2,…,XN],其中Xi的列是由第i類訓(xùn)練樣本構(gòu)成。給定一個(gè)測(cè)試樣本y∈Rm,SRC方法使用訓(xùn)練樣本X的稀疏線性組合來表示y,即y=Xα,其中α∈Rn是表示系數(shù),用L1范數(shù)最小化求解稀疏表示系數(shù),因此SRC的目標(biāo)函數(shù)如式(5)所示:
(5)
(6)
進(jìn)行分類,分類規(guī)則為:
identity(y)=argmini{ei}
(7)
其中identity(y)表示測(cè)試樣本y的類別。
式(7)通過評(píng)估構(gòu)建的每個(gè)類的重構(gòu)誤差,分析哪一類訓(xùn)練樣本能夠使稀疏編碼系數(shù)相關(guān)的輸入測(cè)試圖像的重構(gòu)誤差最小,最終實(shí)現(xiàn)對(duì)人臉圖像基于稀疏表示的分類。
雖然SRC對(duì)遮擋和污染具有良好的魯棒性,但仍然存在一些問題。隨著訓(xùn)練樣本字典行數(shù)或列數(shù)的增加,SRC方法的運(yùn)行速度急速下降。
為提高算法運(yùn)行效率,Zhang等人[4]提出了CRC方法。CRC方法的一般模型可表示為:
(8)
其中λ是正則化參數(shù),p,q為1或2,p和q的不同取值導(dǎo)致CRC模型的不同實(shí)例化,CRC模型具體為:
(9)
利用正則化最小二乘法求解式(9)的解為:
(10)
其中,I為單位矩陣,P和測(cè)試圖像沒有直接關(guān)系,可以提前進(jìn)行計(jì)算,以節(jié)約運(yùn)行時(shí)間。CRC將測(cè)試圖像投影到P下,再判別測(cè)試圖像類別,最小二乘協(xié)作表示算法[4]的算法流程如下:
步驟1將X的列標(biāo)準(zhǔn)化為單位L2范數(shù);
步驟4獲得y的類別:identity(y)=argmini{ei}。
min‖Zi‖*+λ‖Ei‖2,1+
s.t.Xi=AiZi+Ei
(11)
其中,λ是正則化參數(shù);Ei是第i類的誤差矩陣;懲罰參數(shù)η用來平衡低秩矩陣近似和不連貫的問題;最后一項(xiàng)是每一對(duì)低秩矩陣Di和Dj的F范數(shù)之和,不同類別之間恢復(fù)矩陣的F范數(shù)越小,意為著其獨(dú)立性越強(qiáng)。這一項(xiàng)促進(jìn)了不同近似類之間的結(jié)構(gòu)不一致性,這個(gè)附加項(xiàng)為新的LRR問題提供了更多的判別能力。
本節(jié)使用ALM[10]來求解式(11)所示的優(yōu)化問題。首先通過引入輔助變量Ji將式(11)轉(zhuǎn)化為下面的等價(jià)優(yōu)化問題:
s.t.Xi=AiZi+Ei,Zi=Ji
(12)
構(gòu)造增廣拉格朗日函數(shù)如式(13)所示:
L(Zi,Ei,Ji,Y1,Y2)=
〈Xi-AiZi-Ei,Y1〉+〈Zi-Ji,Y2〉+
(13)
其中,Y1和Y2是拉格朗日乘數(shù),μ>0是一個(gè)懲罰參數(shù)。
將上述增廣拉格朗日函數(shù)改寫成如下形式:
L(Zi,Ei,Ji,Y1,Y2)=
f(Zi,Ji,Ei,Y1,Y2,μ)
(14)
其中,
f(Zi,Ji,Ei,Y1,Y2,μ)=
(15)
求解式(14)所示的優(yōu)化問題的完整算法如算法1所示。
算法1
輸入N類訓(xùn)練數(shù)據(jù)矩陣X,參數(shù)λ>0,η>0。
輸出:恢復(fù)干凈的數(shù)據(jù)矩陣D=XZ*。
fori=1;i 初始化Zi=Ji=Ei=Y1=Y2=0,Zj=I,μ=10-6,ρ=1.1,μmax=1010,ε=10-3,k=0。 未收斂時(shí),重復(fù)以下步驟: 步驟1求解式(16)以更新Zi; 步驟2求解式(17)以更新Ji; 步驟3求解式(18)以更新Ei; 步驟4更新拉格朗日常數(shù): 步驟5μk+1=min(ρμk,μmax) 步驟6檢查收斂條件 步驟7更新k:k←k+1; 直到收斂; endfor 步驟 8求出一個(gè)最優(yōu)解Z*; 為了交替地更新變量Zi、Ji和Ei,本文采用交替更新的方法,在對(duì)應(yīng)變量的求解中固定了其他2個(gè)變量。更新步驟如下所示: 步驟1更新Zi 其中, 則具有如下封閉式的解: (16) 步驟2更新Ji。 為了更新第i類的誤差矩陣Ji,固定式(14)中的Zi、Ei、Y1和Y2,并相應(yīng)地解決以下問題: 通過計(jì)算L相對(duì)于Ji的偏導(dǎo)數(shù)并將其設(shè)置為0,可得上述問題的解為: (17) 步驟3更新Ei。 為了更新第i類的誤差矩陣Ei,固定式(14)中的Zi,Ji,Y1和Y2,得到如下形式: (18) 為了提高CRC的性能,本文考慮去除測(cè)試樣本中可能的損壞。在Cao等人[11]工作的啟發(fā)下,一個(gè)低秩投影矩陣可以被應(yīng)用于將損壞的樣本投影到它們相應(yīng)的低維子空間中。 我們假設(shè)原始訓(xùn)練樣本X和判別低秩恢復(fù)結(jié)果D之間存在潛在的投影矩陣P,然后通過學(xué)習(xí)線性低秩投影矩陣P,將任意數(shù)據(jù)點(diǎn)x投影到它的子空間上得到精確的恢復(fù)結(jié)果Px。優(yōu)化問題表述如下: s.t.D=PX (19) 由于式(19)計(jì)算量大,可以通過用核范數(shù)代替秩函數(shù)來放寬該優(yōu)化問題。新的凸優(yōu)化問題表示為: s.t.D=PX (20) 假設(shè)P≠0,D=PX有可行解。式(20)的唯一解可以表示為P*=YX+,其中,X+是X的偽逆矩陣,X+=V∑-1UT,V∑-1UT是X的瘦SVD,即保留X的正奇異值。最優(yōu)解P*即為原始污染數(shù)據(jù)X與恢復(fù)的低秩數(shù)據(jù)D之間的低秩投影矩陣,可用于處理新的被污染測(cè)試樣本數(shù)據(jù)y,將測(cè)試樣本數(shù)據(jù)y映射到其對(duì)應(yīng)的潛在子空間中,移除其中的誤差成分得到“干凈”的測(cè)試樣本P*y,達(dá)到對(duì)測(cè)試數(shù)據(jù)誤差矯正的目的。算法2詳細(xì)描述了基于判別低秩矩陣恢復(fù)和協(xié)同表示與分類的過程。 算法2DLMR-CRC Algorithm 輸入:訓(xùn)練樣本數(shù)據(jù)矩陣X=[x1,x2,…,xn]∈Rm×n,測(cè)試樣本y∈Rm,參數(shù)λ>0,η>0,β>0。 輸出:分類識(shí)別結(jié)果。 fori=1;i 步驟1利用算法1求解下列優(yōu)化問題最優(yōu)解(Z*): s.t.Xi=AiZi+Ei endfor 步驟2得到訓(xùn)練樣本的恢復(fù)結(jié)果: D=[X1Z1,…,XkZk]; 步驟3計(jì)算低秩投影矩陣:P*=DX+; 步驟4校正測(cè)試樣本y:yP=P*y; 步驟5通過CRC對(duì)yP進(jìn)行分類: fori=1;i 步驟6計(jì)算表示殘差: ei=‖yP-Diαi‖2/‖αi‖2; 步驟7進(jìn)行分類: identity(y)=argmini{ei} endfor 實(shí)驗(yàn)中所有方法均在CPU為Intel Core i5-7200 U @2.50 GHz 2.70 GHz,內(nèi)存為8 GB,操作系統(tǒng)為64位Windows操作系統(tǒng),Matlab版本為Matlab2016a環(huán)境下進(jìn)行。 為了驗(yàn)證本文所提DLMR-CRC方法的有效性,本節(jié)在AR和Extended Yale B數(shù)據(jù)庫上進(jìn)行了大量的實(shí)驗(yàn),比較了SRC[2]、LRC(線性回歸分類)[12]、CRC[4]和NN等方法。本文通過移除式(11)中的附加項(xiàng)來實(shí)現(xiàn)LMR-CRC。本文還實(shí)現(xiàn)了基于SRC的DLMR的方法DLMR-SRC,使用SRC方法的分類器進(jìn)行分類。在本文的實(shí)驗(yàn)中,所有的比較方法都使用了標(biāo)準(zhǔn)的特征臉特征,由于人臉圖像通常是高維度的,所以在訓(xùn)練和測(cè)試之前,為了對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行公平比較,使用PCA來降低原始圖像的維數(shù)。選擇人臉圖像的特征維數(shù)分別為25,50,75,100,200和300。采用ALM算法求解L1范數(shù)問題,并將ALM中的正則化參數(shù)設(shè)置為0.001。 AR數(shù)據(jù)庫包括126個(gè)人的4 000多幅正面圖像。每個(gè)人有26幅臉部圖像,分別采集于2個(gè)不同的階段,這些圖像是在不同的光照、表情和面部遮擋/偽裝條件下拍攝的,每個(gè)階段拍攝13幅圖像,其中3幅是戴著墨鏡的,另外3幅是戴著圍巾的,剩下的7幅具有明顯的照明和表情變化。將人臉圖像裁剪為165×120像素,并轉(zhuǎn)換為灰度圖像。AR數(shù)據(jù)庫中戴墨鏡和圍巾的圖像如圖2所示。 Figure 2 Images with sunglasses and scarf in AR database 圖2 AR數(shù)據(jù)庫中戴墨鏡和圍巾的圖像 實(shí)驗(yàn)選擇AR數(shù)據(jù)庫中的一個(gè)子集,其中包括50名男性受試者和50名女性受試者的圖像,在第1階段拍攝的中性和損壞的圖像均用于訓(xùn)練。為了與其他方法進(jìn)行公平比較,將人臉圖像的特征維數(shù)都設(shè)置為25,50,75,100,200和300。本文方法的正則化參數(shù)設(shè)置為β= 1.1,η= 0.001和λ= 0.02。本節(jié)考慮文獻(xiàn)[13]中的3個(gè)場(chǎng)景來評(píng)估本文所提方法的性能。 (1)墨鏡遮擋:本文從每個(gè)人第1階段的人臉圖像中選取7幅無遮擋的圖像和1幅戴墨鏡的圖像作為訓(xùn)練集樣本圖像,選取第2階段中無遮擋的人臉圖像和2個(gè)階段中剩余的所有戴墨鏡的圖像作為測(cè)試集圖像。每個(gè)人均選取了8幅訓(xùn)練圖像和12幅測(cè)試圖像。墨鏡的遮擋面積約為人臉圖像的20%。圖3給出了各方法隨特征維數(shù)變化的識(shí)別率曲線。 Figure 3 Recognition rate of each method changing with feature dimension in the case of sunglasses occlusion圖3 墨鏡遮擋情況下各方法隨特征維數(shù)變化的識(shí)別率 (2) 圍巾遮擋:在AR數(shù)據(jù)庫中被圍巾遮擋的圖像,圍巾的遮擋面積約為人臉圖像的40%。和墨鏡遮擋情況類似,從第1階段的人臉圖像中選取7幅無遮擋的圖像和1幅圍巾遮擋的圖像作為訓(xùn)練集樣本;選擇第2階段無遮擋的圖像和2個(gè)階段中剩余的所有帶有圍巾遮擋的圖像組成測(cè)試集,也是每個(gè)人一共8幅訓(xùn)練樣本和12幅測(cè)試樣本。圖4給出了各方法隨特征維數(shù)變化的識(shí)別率曲線。 Figure 4 Recognition rate of each method changing with feature dimension in the case of scarf occlusion圖4 圍巾遮擋情況下各方法隨特征維數(shù)變化的識(shí)別率 Figure 5 Recognition rate of each method changing with feature dimension in the case of sunglasses and scarf occlusion圖5 墨鏡+圍巾遮擋情況下各方法隨特征維數(shù)變化的識(shí)別率 (3)墨鏡+圍巾遮擋:選擇9幅來自第1階段的圖像作為訓(xùn)練集樣本,其中包括7幅無遮擋的人臉圖像、1幅戴著墨鏡、另1幅戴著圍巾的人臉圖像進(jìn)行訓(xùn)練。選擇第2階段的無遮擋圖像加上來自2個(gè)階段剩余的所有帶遮擋的圖像作為測(cè)試集用于測(cè)試。圖5給出了各方法隨特征維數(shù)變化的識(shí)別率曲線。表1給出了3種場(chǎng)景下幾種方法最高的人臉識(shí)別結(jié)果。 Table 1 Comparison of the highest face recognition rate between the DLMR-CRC method and several other methods on the AR database表1 在AR數(shù)據(jù)庫上,DLMR-CRC方法與其它幾種方法的最高人臉識(shí)別率對(duì)比 % 由表1和圖3~圖5可以看出,在3種場(chǎng)景中,DLMR-CRC方法在各個(gè)維度上的識(shí)別率在大多數(shù)情況下都高于其他方法的。通過與DLMR-SRC方法的對(duì)比,3種情況下都是略高于該方法,說明DLMR-CRC使用CRC的方法更能準(zhǔn)確地描述人臉圖像的誤差遮擋。與LMR-CRC方法的對(duì)比結(jié)果表明,DLMR-CRC方法通過引入結(jié)構(gòu)非相關(guān)性的約束能更好地增強(qiáng)低秩恢復(fù)數(shù)據(jù)的判別能力。另外還可以看出,DLMR-CRC的識(shí)別率遠(yuǎn)高于LRC和NN的,說明在訓(xùn)練樣本和測(cè)試樣本均受到遮擋時(shí),本文方法的識(shí)別性能遠(yuǎn)遠(yuǎn)優(yōu)于經(jīng)典的線性回歸分類器和最近鄰分類器。 本節(jié)在Extended Yale B數(shù)據(jù)庫上通過隨機(jī)添加遮擋塊,模擬不同程度的遮擋進(jìn)行實(shí)驗(yàn),驗(yàn)證所提方法在不同光照強(qiáng)度下對(duì)遮擋的識(shí)別性能。Extended Yale B數(shù)據(jù)庫主要包括來自38個(gè)人的2 414幅人臉的正面圖像,根據(jù)光照程度,分為5個(gè)子集,包括子集Ⅰ、子集Ⅱ、子集Ⅲ、子集Ⅳ和子集Ⅴ,這5個(gè)子集光照強(qiáng)度依次增加。本節(jié)實(shí)驗(yàn)選取集Ⅰ、子集Ⅱ和子集Ⅲ中一共1 170幅人臉圖像作為測(cè)試集,為了使人臉識(shí)別更具挑戰(zhàn)性,訓(xùn)練集選取具有極端光照的子集Ⅲ和子集Ⅳ并進(jìn)行如下設(shè)置: 實(shí)驗(yàn)1選取子集Ⅲ中所有的人臉圖像作為訓(xùn)練集1,針對(duì)每幅人臉圖像分別添加0%~70%的不相關(guān)隨機(jī)塊遮擋共453×8=3264幅圖像,部分實(shí)驗(yàn)樣本如圖6a所示。 實(shí)驗(yàn)2選取子集Ⅳ中所有的人臉圖像作為訓(xùn)練集2,針對(duì)每幅人臉圖像分別添加0%~70%的不相關(guān)隨機(jī)塊遮擋共524×8=4192幅圖像,部分實(shí)驗(yàn)樣本如圖6b所示。 Figure 6 Part of the experimental samples in Extended Yale B database圖6 Extended Yale B數(shù)據(jù)庫中的部分實(shí)驗(yàn)樣本 實(shí)驗(yàn)1和實(shí)驗(yàn)2中向每個(gè)測(cè)試圖像中隨機(jī)添加一個(gè)不相關(guān)的圖像,其大小由遮擋率決定,每幅測(cè)試圖像的遮擋位置是隨機(jī)選擇的,所有圖像裁剪為96×84像素。選擇DLMR-CRC正則化參數(shù)β=1.1,η= 0.001,λ=0.005。圖7分別給出了在不同比例塊遮擋情況下,各方法的平均識(shí)別率隨著遮擋比例的變化情況。 Figure 7 Recognition rate of each method on training set 1 and training set 2 varies with the occlusion rate圖7 訓(xùn)練集1和訓(xùn)練集2上各方法識(shí)別率隨遮擋比例變化 通過圖7a和圖7b可看出,在無遮擋或遮擋面積較小時(shí),本文所提DLMR-CRC方法和其他方法一樣都具有較高的識(shí)別率。隨著隨機(jī)塊遮擋面積的增大,在實(shí)驗(yàn)1中光照條件相對(duì)較好時(shí),DLMR-CRC方法和其他對(duì)比方法一樣,整體識(shí)別性能都有所下降,但DLMR-CRC仍然具有明顯優(yōu)勢(shì),識(shí)別率最高可達(dá)64%左右,比DLMR-SRC和LMR-CRC性能分別提升了3%和9%左右,值得注意的是,比經(jīng)典的NN和SRC方法性能分別提升了33%和21%。通過圖7b分析可以看出,在極端光照的訓(xùn)練集2上,雖然隨著隨機(jī)遮擋塊比例的逐漸增加,所有的識(shí)別方法性能都急劇下降,其中本文所提方法和DLMR-SRC、LMR-CRC略占優(yōu)勢(shì),盡管最高識(shí)別率僅有38%,但是也比其他對(duì)比方法有明顯的提升,說明結(jié)構(gòu)非相關(guān)性的約束能更好地增強(qiáng)低秩恢復(fù)數(shù)據(jù)的判別特性,并且結(jié)合協(xié)同表示的分類方法降低了算法運(yùn)行的復(fù)雜度,在一定程度上緩解了因光照變化和遮擋為人臉識(shí)別帶來的干擾。 本文針對(duì)訓(xùn)練樣本和測(cè)試樣本均受到噪聲污染的情況,為解決樣本數(shù)據(jù)來自不同子空間時(shí),低秩矩陣恢復(fù)算法不能很好地保持原始數(shù)據(jù)的局部幾何結(jié)構(gòu),進(jìn)而不能有效地恢復(fù)出干凈的低秩人臉圖像和誤差矩陣圖像的問題,提出了一種基于判別低秩矩陣恢復(fù)的協(xié)同表示遮擋人臉識(shí)別方法,并在2個(gè)常見的人臉數(shù)據(jù)庫上進(jìn)行人臉識(shí)別實(shí)驗(yàn)的驗(yàn)證。該方法該通過結(jié)構(gòu)非相關(guān)性約束項(xiàng)的引入,不僅在保持原始數(shù)據(jù)的局部幾何結(jié)構(gòu)的同時(shí)增強(qiáng)了恢復(fù)的低秩數(shù)據(jù)的判別能力,而且還通過學(xué)習(xí)低秩投影矩陣對(duì)受污損的測(cè)試樣本進(jìn)行了修正,最后結(jié)合CRC較高識(shí)別精度與低運(yùn)算復(fù)雜度的優(yōu)勢(shì),提升了DLMR-CRC方法對(duì)嚴(yán)重的污損或光照變化的破壞的魯棒性,具有更好的識(shí)別性能,提高了遮擋人臉的識(shí)別率,使其在現(xiàn)實(shí)世界應(yīng)用中的遮擋人臉識(shí)別更實(shí)用。3.3 低秩投影矩陣
4 實(shí)驗(yàn)驗(yàn)證分析
4.1 AR數(shù)據(jù)庫
4.2 Extended Yale B 數(shù)據(jù)庫
5 結(jié)束語