崔建, 游春芝
(山西醫(yī)科大學(xué)汾陽學(xué)院,基礎(chǔ)醫(yī)學(xué)部, 山西,呂梁 032200)
人臉識別技術(shù)由于其非接觸性,易采集等優(yōu)勢被廣泛的應(yīng)用于身份核實、安全檢查以及刷臉支付等領(lǐng)域。目前很多成熟的算法大都是基于多樣本訓(xùn)練集,然而在一些特殊的環(huán)境下,我們只能獲取單個訓(xùn)練樣本,如身份證、駕駛證等,對于這些單樣本的人臉識別,直接使用傳統(tǒng)的方法就不能達到理想的效果。如何利用單樣本進行有效、快速的人臉識別成為越來越多科學(xué)家研究的熱點。在文獻[1-2]中研究者們提出不同人臉類內(nèi)結(jié)構(gòu)變化是相似的,那么基于多樣本識別的人臉類內(nèi)變化就可以廣泛的應(yīng)用于單樣本。如Extended Sparse Representation Based Classification(ESRC), 在ESRC中DENG提出了基于通用集表示的一種算法、在復(fù)雜環(huán)境變化下具有很好的魯棒性和識別效果,但是在特征提取過程中存在很大的信息冗余,且易受通用訓(xùn)練集的影響。CHEN等[3]提出將圖像分塊后利用 FLDA進行特征提取,最后投票得到類別標(biāo)簽。ZHU等[4]提出了一種分塊的協(xié)同表示的人臉識別方法(PCRC),將測試樣本和訓(xùn)練樣本分成重疊的樣本塊,通過這些樣本塊構(gòu)造字典塊矩陣,然后通過協(xié)同表示求解。本文結(jié)合ESRC和 PCRC這兩種方法提出一種基于局部通用的分塊協(xié)同表示單樣本人臉識別。首先根據(jù)訓(xùn)練樣本構(gòu)建聯(lián)合訓(xùn)練樣本,訓(xùn)練樣本由兩部分組成,一部分為自然變化下的人臉,另一部分為因光照、表情遮擋等變化的人臉,其次根據(jù)分塊思想將測試樣本、訓(xùn)練樣本進行分塊,并構(gòu)造字典塊矩陣。然后對每個塊進行協(xié)同表示,最后根據(jù)殘差和進行分類識別。
在人臉識別中稀疏表示[5](SRC)是一種常用的算法,該算法能夠有效地揭示人臉數(shù)據(jù)內(nèi)在的結(jié)構(gòu)。在很多的實驗中也充分表明來自同一線性空間的樣本可以使用其他樣本線性表示。該算法采用L1范數(shù)最小化作為約束條件求解系數(shù),計算復(fù)雜度高。ZHANG等[6-7]提出了基于正則化協(xié)同表示人臉識別算法(CRC),作者認為稀疏表示強調(diào)L1范數(shù)稀疏性的重要,而沒有考慮樣本之間協(xié)同表示。
設(shè)X=[X1,X2,…,XC]∈Rm×n表示由C個人組成的訓(xùn)練字典,對于給定的測試樣本z∈Rm×1,根據(jù)線性表示則有:
z=Xa
(1)
在SRC稀疏表示模型中基于L1范數(shù)約束條件求解系數(shù)x,即:
(2)
ZHANG等提出基于L2范數(shù)約束的稀疏系數(shù)求解即協(xié)同表示算法,目標(biāo)函數(shù)表示為
(3)
根據(jù)最小二乘法上式的稀疏可表示為
(4)
其中,AT表示A的轉(zhuǎn)置,I為單位矩陣,λ表示正則化參數(shù)。通過上式就可計算測試樣本與重構(gòu)樣之間的殘差ek,即:
(5)
最后依據(jù)殘差ek判別z的歸屬,即:
identity(z)=arg mink(ek)
通用學(xué)習(xí)是一種通過人臉圖像之間的相似性,從其他一些額外的人臉圖像數(shù)據(jù)中提取人臉相似信息,克服識別過程中特征提取單一的方法。通過引入通用人臉訓(xùn)練集可以在一定程度上提高了單樣本人臉識別的準(zhǔn)確率和魯棒性[8-9]。
D=Gv1-Gr,…Gvm-Gr,…,GvM-Gr,
設(shè)訓(xùn)練集G=[Gr,Gv],其中Gr表示自然狀態(tài)下人臉訓(xùn)練集,Gv表示包括光照、表情、遮擋的一個訓(xùn)練集。那么一種通用的類間變化字典就可以通過Gv、Gr構(gòu)造,即:那么任一測試樣本z,可通過X,D線性表示,即:
z=Xα+Dβ+e
(6)
圖1 通用表示
ρ=([X,D]T[X,D]+λI)[X,D]Tz
(7)
最后根據(jù)最小殘差來判斷測試樣本的類別:
(8)
局部通用的分塊CRC單樣本人臉識別步驟如下。
(1) 輸入測試樣本z,訓(xùn)練集X,通用集D,參數(shù)S,K,λ等。
(2) 對z、X、D圖像進行分塊,
z=z1,z2,…,zS ,X=X'1,X'2,…,X's,D=D'1,D'2,…,D'S。
(3) 構(gòu)造塊字典集,取第p個分塊鄰近的樣本塊來擴充訓(xùn)練樣本,重構(gòu)的訓(xùn)練字典塊記作,[X1,X2,…,XS][D1,D2,…,DS]。
(4) 對塊測試集zp進行協(xié)同表示。即:zi=Xiαi+Diβi+ei,i=1,2…,S,根據(jù)式(7)計算ρi=[αi,βi]。
(5) 根據(jù)式(8)計算測試樣本與重構(gòu)圖像的殘差,按照殘差和最小判斷類別。
在所有的實驗中,將圖像下采樣至大小為80×80,將每個圖像分成劃分到S=49小塊,每個大小為20×20,鄰近每個小塊以10個像素作為重疊部分。對于其他的對比算法,我們調(diào)優(yōu)參數(shù)最好的結(jié)果。特別的如SVDL我們按照文獻[10]參數(shù)設(shè)置,λ設(shè)置為0.001,字典原子初始化設(shè)置為400。在SRC、CRC、PCRC,我們選擇最優(yōu)正則化參數(shù)λ分別為0.000 5、0.001、0.01。
Extended Yale B 人臉數(shù)據(jù)庫包含38個對象,2 414張人臉圖像,根據(jù)光照方向變化分成64種。根據(jù)光照變化角度分為五個子集,取光源方向在0度和0度仰角作為訓(xùn)練樣本,其他照明條件下圖像作為測試集。我們使用前30個對象作為的訓(xùn)練集和測試集,其他8個對象作為通用集合。部分訓(xùn)練樣本和測試樣本如圖2所示。
圖2 Extended Yale B人臉數(shù)據(jù)部分樣本
表1列出了改進的新算法(NEW)與SRC、CRC、PCRC、SVDL等比較人臉識別率的。由表 1 可以看出,在光照變化條件下ESRC、SVDL、以及新算法,這些使用通用訓(xùn)練集后識別率整體優(yōu)于僅依靠單一訓(xùn)練集的算法。但隨著光照強度的變化識別準(zhǔn)確率就不太理想。如CRC、SRC這些算法隨著光照強度的變化識別率呈現(xiàn)直線下降,原因主要在于缺乏足夠的訓(xùn)練樣本。PCRC與CRC相比識別率明顯改善,主要原因在于圖像進行分塊,構(gòu)建塊字典這樣彌補了訓(xùn)練樣本缺少的不足,從而提高識別率。改進的新算法要比PCRC性能要更優(yōu)越,尤其是在子集4和子集5上高出39.6%、32.4%,這得益于通用訓(xùn)練集,協(xié)同表示能夠充分提取通用集的特征信息,從而準(zhǔn)確的進行線性表出。與SVDL相比新算法在子集2、3、4、5上得到很好的提高。整體來說基于通用的分塊協(xié)同表示效果要由于傳統(tǒng)的一些單樣本識別算法。
表1 Extended Yale B人臉識別率
AR臉數(shù)據(jù)庫是由126個人包含大約4 000彩色臉圖像組成,每個人面臨不同的表情、光照、遮擋,根據(jù)采集時間分成兩個子集,每個部分中每個人13幅圖像。我們選取一個由50個男人,50個女人組成的子集。在第一個子集中選取前 80個人用于訓(xùn)練樣本和測試集,另外20人用于通用訓(xùn)練集。AR臉數(shù)據(jù)庫部分樣本如圖3所示。在不同的光照、表情變化偽裝(眼鏡和圍脖遮擋)下分別進行測試,實驗結(jié)果如表2所示。
(a) 表情變化
表2 AR人臉數(shù)據(jù)庫識別率
從表2可知,局部通用性能明顯要比其他算法表現(xiàn)的的更好。PCRC與CRC相比整體的性能要有很大的提高,這說明分塊的思想在單樣本人臉識別中有很強的競爭力。在基于表情、墨鏡、圍脖遮擋下,局部通用比SVDL高出13.7%、11.2%、16.3%;比PCRC高出13.3%、12.5%、15.5%,說明LGA能夠充分的利用通集的信息從而達到良好的識別效果。
表3列出了Extended Yale B人臉數(shù)據(jù)庫上各種算法的運行時間的一個對照。實驗中我們?nèi)∽蛹?上識別率最高時對應(yīng)的每個測試樣本的平均時間作為標(biāo)準(zhǔn)。從實驗可以發(fā)現(xiàn)基于協(xié)同表示的算法如CRC、NEW的運算速度要比其他算法快得多,這得益于協(xié)同表示是基于L2范數(shù)約束的快速求解。而SRC、ESRC等是基于L1范數(shù)求解,相比于CRC計算復(fù)雜度更高。
表3 在Extended Yale B上運行時間
針對單樣本人臉識別中訓(xùn)練樣本少、遮擋等問題,提出了一種局部通用的分塊CRC單樣本人臉識別算法。算法汲取了基于圖像分塊和構(gòu)建通用訓(xùn)練集的思想,彌補了因訓(xùn)練樣本少導(dǎo)致人臉識別中類內(nèi)信息缺失等問題,更高效地表示人臉圖像的不同部位,提高人臉識別的準(zhǔn)確率和魯棒性。算法由于一定程度上增加額外的訓(xùn)練集,導(dǎo)致特征提取中存在很大的信息冗余,而且通用訓(xùn)練集的選取直接對實驗結(jié)果有一定的影響,因此如何構(gòu)造更有效的通用集有待進一步的研究。