從繼成, 張韌志(黃淮學(xué)院,河南 駐馬店 463000)
?
基于Fisher判別分析的加權(quán)估計紋理分析
從繼成, 張韌志
(黃淮學(xué)院,河南 駐馬店 463000)
傳統(tǒng)的紋理分析方法僅以每個臉部區(qū)域的相對貢獻來標記全局相似度。針對這種以局部表示全局而導(dǎo)致不能很好地進行特征提取的問題,提出了基于Fisher判別分析的加權(quán)估計紋理分析方法。首先使用局部二值模式或者局部相位量化對圖像進行紋理編碼,然后將其劃分成各個大小相等且不重疊的局部小塊,從相似空間中提取出最具識別力的坐標軸,利用Fisher線性判別分析方法對其進行紋理分析,通過權(quán)值優(yōu)化給出了最佳解決方案。最后,在FERET和FEI兩大通用人臉數(shù)據(jù)庫上的實驗驗證了所提方法的有效性。實驗結(jié)果表明,相比其他文獻中提出的紋理方法,所提方法取得了更好的識別性能。
人臉識別; Fisher判別分析; 加權(quán)估計; 紋理編碼
由于人臉識別技術(shù)具有低干擾性和高精確性[1],在很多場合下的應(yīng)用都高于其他生物識別方法,包括一些大范圍的應(yīng)用,比如護照、駕駛執(zhí)照鑒別、海關(guān)檢查等[2]。隨著人臉識別技術(shù)的發(fā)展,基于紋理分析的方法得到了越來越多的應(yīng)用。研究表明,紋理分析方法的應(yīng)用能夠超過其他人臉識別方法主要是因為其對正面照臉部表情的細節(jié)變化進行了處理[3]。紋理特征提取是成功進行圖像紋理描述、分類與分割的關(guān)鍵環(huán)節(jié),紋理特征的提取直接影響后續(xù)處理的質(zhì)量。提取的紋理特征維數(shù)不大、鑒別能力強、穩(wěn)健性好,且提取過程計算量小。在過去的20多年間,很多紋理特征提取的方法被發(fā)展。這些紋理特征可以被大致分為基于統(tǒng)計特征、基于模板卷積特征、基于頻域特征和基于模型特征這4類[4-7]。
楊關(guān)等曾提出在紋理分析中構(gòu)建高斯圖模型(Gaussian Graphical Models, GGM)[8],根據(jù)紋理特征的局部馬爾可夫性和高斯變量的條件回歸之間的關(guān)系,將復(fù)雜的模型選擇轉(zhuǎn)變?yōu)檩^為簡單的變量選擇,應(yīng)用懲罰正則化技巧同步選擇鄰域和估計參數(shù),實驗顯示了基于高斯圖模型的紋理特征對紋理分析的有效性。但是,復(fù)雜的計算開銷使其在應(yīng)用中受到了限制。結(jié)合紋理編碼,文獻[9]中提出了一種基于統(tǒng)一權(quán)值的紋理分析(Texture Analysis based on Union Weighting, UWTA)方法,采用一組實驗步驟獲得一個基于識別率的權(quán)值的固定形式,意識到了這些權(quán)值并不是最佳的,但是通過比較統(tǒng)一的權(quán)值,可以提高識別的能力。從那以后,大多數(shù)基于紋理的人臉自動識別的方法(Automatic Face Recognition, AFR)[10]都開始使用固定權(quán)值來進行人臉識別。文獻[11]中提出運用最小二乘法得出齊次非線性方程組,一定程度上提高了基于紋理編碼的人臉識別率,并且通過實驗表明,運用最小二乘法要比使用固定權(quán)值方法要好。然而,最小二乘法涉及到一個相當復(fù)雜的方程組,而且還要計算出大量樣本圖像的每一個被估計的權(quán)值。
根據(jù)上述分析,傳統(tǒng)的紋理分析方法僅以每個臉部區(qū)域的相對貢獻來標記全局相似度,針對這種以局部表示全局而導(dǎo)致不能很好地進行特征提取的問題,本文提出了基于Fisher判別分析(Fisher Discriminative Analysis, FDA)[12]的加權(quán)估計紋理分析 (Weighting Estimation for Texture Analysis, WETA) 方法,采用Fisher線性判別分析方法對相似空間中最具識別力的坐標軸進行紋理分析,通過權(quán)值優(yōu)化給出最佳解決方案。與最小二乘法相比,該方法中每個權(quán)值需要訓(xùn)練樣本的數(shù)量更少,運算更高效,最后的實驗對兩組紋理編碼進行了詳細的分析,驗證了所提方法的有效性。
1.1 基于局部二值模式(LBP)的紋理編碼
利用LBP[13-14]來進行臉部描述,是通過分配給x=(x,y)坐標的每個像素一個編碼后計算出來的,在半徑R的范圍內(nèi),中心像素強度與離中心m等距像素強度之間的差別,決定如何分配編碼。如圖1所示,根據(jù)像素強度正負值之間的差別,分配二進制“0”和“1”。當采樣點不符合中心像素時使用雙線內(nèi)插法。LBP紋理編碼以一種無序而又固定的二進制串聯(lián)方式組成,用“0”和“1”表示m等距內(nèi)的像素強度。圖2包括了4張LBP的影像樣本,從中可以看出,像素強度與每個像素的LBP編碼之間的關(guān)系。
圖1 LBP圖像編碼中不同m和R值的周邊像素
圖2 FERET、FEI中的樣圖及相應(yīng)的LBP、LPQ表示法
1.2 基于局部相位量化的紋理編碼
應(yīng)用中,局部相位量化(Local Phase Quantization, LPQ)[15-16]方法要比LBP更好,因為LBQ圖像更模糊,均勻亮度變化更大。與LBP相似,LPQ通過計算x=(x,y)坐標的每個像素編碼,用編碼代表以x為中心的M×M鄰域內(nèi)(Nx)的像素。
在4個低頻區(qū)的Nx中觀察傅里葉變換Fx(u),u=(u,v)中的實值,虛值實現(xiàn)相位量化,圖1中所示的白色圓圈。在這里產(chǎn)生了8位二進制數(shù),“0”和“1”的選擇取決于每個值是正還是負。這些二進制數(shù)隨意而又固定地串聯(lián)成了一個8位二進制數(shù),以此描繪Nx中的紋理,圖像中所有的像素都利用這種方法得出相應(yīng)的LPQ圖像表示。
此方法包括一個簡單的過程:在量化步驟前解除傅里葉系數(shù)的關(guān)聯(lián),最大限度地保存紋理代碼的信息。
2.1 人臉匹配
假設(shè)人臉數(shù)據(jù)庫中包含很多兩眼清晰的圖像,而且圖像中眼睛的像素坐標也相同,數(shù)據(jù)庫中用Sir表示第i個對象的第r個圖像。識別過程中紋理圖像將被劃分成大小相等且不重疊的從1~B的區(qū)域,其中,第b塊區(qū)域紋理編碼的直方圖統(tǒng)計中,b=1,2,…,B。
第b塊區(qū)域中,bHir和bHjt這2個直方圖的差別在于圖像Sir和圖像Sjt用不同的距離函數(shù)bdirjt(bHir,bHjt)計算,文中簡述為bdirjt。
利用計算直方圖間距的線性組合來測量臉部的全局相異度,從而推斷出兩張人臉是否來自同一個人,式中,系數(shù)wb為權(quán)值,表示第b塊區(qū)域與最終識別一致的相對相關(guān)性。
(1)
2.2 方法提出
dirjt=[1dirjt,2dirjt,…,Bdirjt]
Dirjt=dirjtwT
(2)
因此,全局相異度測量的方法是利用系數(shù)向量w來定義相同空間內(nèi)一個方向的距離向量dirjt。假定最佳加權(quán)與相同空間的方向相符合,那么就可以盡可能地把相同對象的配對圖像從不同對象的配對圖像中分離出來。
假定這兩種類型圖像對的協(xié)方差矩陣是相等的,則可以直接使用Fisher判別方法來找出最佳加權(quán),給出的式如下:
(3)
通過式(3)快速地計算權(quán)值是非常重要的,一般情況下,它并不遵循從左到右的臉部對稱性。然而,通過二等分系數(shù)的量值去估計,則可以用來執(zhí)行權(quán)值對稱,降低問題的復(fù)雜程度。假設(shè)區(qū)域b、(b+B)/2甚至B與對稱的臉部區(qū)域相符合,則可以令bw=b+B/2w使得權(quán)值對稱,如此,式(1)就可以改寫為
(4)
所提方法的主要步驟如下:
(1) 利用LBP或LPQ對人臉圖像進行紋理編碼;
(2) 將紋理圖像劃分成B個大小相等且不重疊的區(qū)域;
(3) 利用Fisher判別分析方法估算出權(quán)值系數(shù)wb,b=1,2,…,B;
(4) 利用式w=b+B/2w對稱權(quán)值;
(5) 利用直方圖間距的線性組合進行全局相異度測量,并完成識別。
實驗使用了FERET及FEI 2個通用人臉數(shù)據(jù)庫。FERET數(shù)據(jù)庫包含了820個對象的1 640張正面照,fa和fb分組里的每個對象擁有兩張圖像,圖像在臉部表情上略有不同。第二個數(shù)據(jù)庫通過FEI構(gòu)建而成,選取了50個人的每人兩張照片,分別為自然的及面帶微笑的正面照。圖3所示為實驗過程中所使用的2個數(shù)據(jù)庫的圖像樣本。
FERETFEI
圖3 人臉數(shù)據(jù)庫示例
3.1 參數(shù)設(shè)置
實驗中,圖像均被轉(zhuǎn)換為80×64像素分辨率,右側(cè)和左側(cè)眼睛的像素坐標值分別為(20,14)和(20,51)。采用統(tǒng)一的LBP變量圖像,圖像含有8個采樣點(m=8),半徑長為2個像素點(R=2)。計算每個7×7的像素鄰域(M=7),且在頻率值a=1/7時執(zhí)行相位量化,通過計算大小為8×8像素中超過10×8個非重疊區(qū)域,得到2個數(shù)據(jù)庫的直方圖。
所有實驗的單體均被隨機分散開來,一半用來訓(xùn)練,另一半用來測試。通過選取一張實驗圖像來測量比率,這張圖像應(yīng)該通過臉部匹配在參與實驗的所有圖像中被鑒別出來。在所有的實驗圖像中持續(xù)重復(fù)這個步驟之后,計算出相應(yīng)的平均識別率。設(shè)置每個數(shù)據(jù)庫與紋理編碼平均運行5次以上,每次運行1個訓(xùn)練和測試中隨機分配的個體。
3.2 權(quán)值估計
值得注意的是,定義判別軸的向量經(jīng)常會產(chǎn)生一些負面的影響,這些負面影響可能是不合理的,因為在臉部區(qū)域識別過程中習(xí)慣將權(quán)值看得過為重要。然而,所提方法向量w是一個投影方向,如此,w中負值體現(xiàn)了識別過程中相關(guān)臉部區(qū)域直方圖間距的差異。
表1列出了數(shù)據(jù)庫與編碼技術(shù)組合后得到的4種不同的結(jié)果。為了易于觀察,所有的數(shù)值都被進位,使得所有的權(quán)向量量級相等,再四舍五入為整數(shù)值。盡管有明顯的差異,但從表1中可以清晰地看到,4個權(quán)值存在一定的共同結(jié)構(gòu)。為了測量這些結(jié)果的一致性,需要計算表1中每一組加權(quán)之間的相關(guān)性,計算的結(jié)果如表2所示。由表2可見,同在一個數(shù)據(jù)庫中,加權(quán)之間的相關(guān)性是比較高的,而在不同的紋理編碼方法中估算出的權(quán)值可能都差不多,但改變數(shù)據(jù)庫,紋理編碼帶來的差異是不可忽略的。由此可見,每個固定的模板都不可能應(yīng)用在所有的數(shù)據(jù)庫中,而只能在特定的數(shù)據(jù)庫中進行計算。
3.3 加權(quán)變量對識別率的影響
實驗主要是估測加權(quán)變量對識別率的影響。前面估算了每一個加權(quán),這里利用數(shù)據(jù)庫與編碼的所有組合加權(quán)(共16種)為測試圖像計算出了識別率。經(jīng)過大量實驗,圖4列出了各種組合加權(quán)取得的最好的5個識別率,其中,小圖中每個標題顯示了編碼與數(shù)據(jù)庫的組合。
表1 LBP、LPQ與FERET、FEI的4種不同組合編碼
表2 不同數(shù)據(jù)庫與編碼技術(shù)的加權(quán)估計關(guān)聯(lián)性
從圖4可以發(fā)現(xiàn),在相同的人臉數(shù)據(jù)庫上使用相同的紋理編碼可以獲得最好的表現(xiàn)效果。不管是訓(xùn)練還是測試,LBP與LPQ兩種編碼技術(shù)在同一數(shù)據(jù)庫互相轉(zhuǎn)換,對實驗效果的影響都很小。與此相反,當加權(quán)在一個數(shù)據(jù)庫中估算而又在另一個數(shù)據(jù)庫上實驗時,表現(xiàn)效果明顯下降。這一結(jié)果完全與上一節(jié)中提出的加權(quán)關(guān)聯(lián)性分析相符合。
(a) LBP編碼在FERET上
(b) LPQ編碼在FERET上
(c) LBP編碼在FEI上
(d) LPQ編碼在FEI上
圖4 不同數(shù)據(jù)庫和編碼技術(shù)配置得出的識別率
3.4 比較與分析
針對人臉識別的性能,實驗比較所提方法與其他文獻中的方法,包括高斯圖模型(GGM)[8]、基于統(tǒng)一權(quán)值的紋理分析方法(UWTA)[9]及基于最小二乘法(Least Squares)[11],分別在FERET和FEI數(shù)據(jù)庫中用LBP和LPQ紋理編碼對識別率進行了測試,各個比較方法的參數(shù)設(shè)置均與各自的文獻相同,實驗結(jié)果取各方法的最優(yōu)的10個識別率(升序排列),詳細結(jié)果如圖5所示。
(a) LBP編碼與FERET組合
(b) LPQ編碼與FERET組合
(c) LBP編碼與FEI組合
(d) LPQ編碼與FEI組合
圖5 各個方法在不同的組合上得出的最優(yōu)識別率比較
從圖5可以看出,在各種組合情況下,所提的基于加權(quán)估計紋理分析的FLDA方法的識別率均為最高,在LPQ與FERET組合上的最高識別率高達96%,為4種組合中的最低,在LPQ編碼與FEI人臉數(shù)據(jù)組合上的識別率甚至接近100%,當然,在此組合下,最小二乘法的識別率也接近100%,但是,在其他3種組合上,所提方法的識別率均明顯超過了最小二乘法。比高斯圖模型方法、基于統(tǒng)一權(quán)值的紋理分析方法,更是超出了很多,所提方法的優(yōu)越性由此可見。
本文提出了基于Fisher判別分析的加權(quán)估計紋理分析方法來估算最佳面部區(qū)域的權(quán)值,并且在FERET及FEI兩大人臉數(shù)據(jù)庫上進行了實驗。利用兩種不同的紋理編碼技術(shù),通過對本文方法與文獻中其他的加權(quán)方法進行比較,表明了本文方法在識別性能方面的優(yōu)越性。所有的實驗都假設(shè)權(quán)值是對稱的,符合左臉到右臉的對稱性。這種假設(shè)利用二等分系數(shù)的數(shù)目去估算權(quán)值,簡化了問題。結(jié)果表明,在一個給定的應(yīng)用中,所提方法能夠捕捉到人臉圖像中可能出現(xiàn)的分類的不對稱性,例如,非對稱的視差發(fā)光格柵。
對LBP及LPQ進行紋理編碼后,進行紋理圖像劃分、權(quán)值推斷、權(quán)值對稱,明顯提高了人臉識別率,但同時也增加了額外的開銷,所以,如何在提高識別率的前提下,提高算法的效率,將是進一步研究的重點。
[1] 孫吉貴, 劉 杰, 趙連宇. 聚類算法研究 [J]. 軟件學(xué)報, 2008, 19(1): 48-61.
[2] 喬立山, 陳松燦, 王 敏. 基于相關(guān)向量機的圖像閾值技術(shù) [J]. 計算機研究與發(fā)展, 2010, 47(8): 1329-1337.
[3] Kolda T G, Bader B W. Tensor decompositions and applications [J]. SIAM Review, 2009, 51(3):455-500.
[4] 王佳奕, 葛玉榮. 基于Contourlet及支持向量機的紋理識別方法 [J]. 計算機應(yīng)用, 2013, 33(3): 677-679.
[5] Zhao Q, Zhang D, Zhang L,etal. High resolution partial fingerprint alignment using pore-valley descriptors [J]. Pattern Recognition, 2010, 43(3): 1050-1061.
[6] Zhao Q, Zhang D, Zhang L,etal. Adaptive fingerprint pore modeling and extraction [J]. Pattern Recognition, 2010, 43(8): 2833-2844.
[7] Su Y, Shan S, Chen X,etal. Adaptive Generic Learning for Face Recognition from a Single Sample per Person[C]//In IEEE International Conference on Computer Vision and Pattern Recognition, 2010: 2699-2706.
[8] Hu H. Orthogonal Neighborhood Preserving Discriminant Analysis for Face Recognition [J]. Pattern Recognition, 2008, 41(6):2045-2054.
[9] 楊 關(guān), 馮國燦, 陳偉福, 等. 紋理分析中的圖模型 [J]. 中國圖像圖形學(xué)報, 2011, 16(10): 1818-1825.
[10] Xie Z, Liu G, Fang Z. Face Recognition Based on Combination of Human Perception and Local Binary Pattern [J]. Lecture Notes in Computer Science, 2012, 72(2): 365-373.
[11] Connolly J F, Granger E, Sabourin R. An adaptive classification system for video-based face recognition[J]. Information Sciences, 2012, 192(1): 50-70.
[12] 文喬龍, 萬遂人, 徐 雙. Fisher準則和正則化水平集方法分割噪聲圖像 [J]. 計算機研究與發(fā)展, 2012, 49(6): 1339-1347.
[14] Zhang Z, Wang J, Zha H. Adaptive Manifold Learning [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(1): 131-137.
[15] Hafiz F, Shafie A A, Mustafah Y M. Face Recognition From Single Sample Per Person by Learning of Generic Discriminant Vectors [J]. Procedia Engineering, 2012, 45: 465-472.
[16] Lowe D. Distinctive image features from scale-invariant key points [J]. Int J Comput Vis, 2004, 60(1): 91-110.
Weighting Estimation for Texture Analysis Based onFisher Discriminative Analysis
CONGJi-cheng,ZHANGRen-zhi
(Huanghuai University, Zhumadian 463000, China)
Traditional texture analysis methods mark global similarity only by related attribution of each face area. For the issue that global information is represented by local information which causes bad feature extracting, weighting estimation for texture analysis (WETA) based on Fisher discriminative analysis (FDA) is proposed. Firstly, face images are divided into some non-overlapping local patches with same sizes after texture coding by using local binary patterns (LBP) or local phase quantization (LPQ). The solution is given by the most discriminative axis within a similarity space using Fisher discriminative analysis and weight optimization after extracting coordinate axes with the most discrimination. Finally, the efficiency of proposed method is verified by experiments conducted on the FERET and on the FEI face databases. The experiments indicate that the proposed method brings a better recognition performance in comparison to other weighting methods proposed in the literature.
face recognition; Fisher discriminative analysis; weighting estimation; texture coding
2014-04-03
河南省教育廳科學(xué)技術(shù)研究重點項目(13A520786)
從繼成(1979-),男,河南駐馬店人,實驗師,現(xiàn)主要從事計算機應(yīng)用研究。Tel.:13938365075;E-mail:congjicheng@sohu.com
張韌志(1980-),男,河南駐馬店人,講師,現(xiàn)主要從事計算機網(wǎng)絡(luò)和數(shù)據(jù)庫研究。
Tel.:13507640981;E-mail:13507640981@163.com
TP 311
A
1006-7167(2015)02-0024-05