侯小毛, 徐仁伯
(1. 湖南信息學(xué)院 電子信息學(xué)院, 長(zhǎng)沙 410151; 2. 中南大學(xué) a. 軟件學(xué)院, b. 物理與電子學(xué)院, 長(zhǎng)沙 410012)
隨著科學(xué)技術(shù)的發(fā)展,研究人員對(duì)隱私信息及隱私保護(hù)的概念不斷進(jìn)行演變及完善[1-2].近年來(lái),隨著云計(jì)算公司不斷出現(xiàn)用戶信息及文件隱私泄露事件,隱私安全問(wèn)題得到了空前的重視[3].而人臉圖像識(shí)別是近年來(lái)生物識(shí)別技術(shù)研究的熱點(diǎn),是一個(gè)具備廣泛應(yīng)用價(jià)值及挑戰(zhàn)性的課題[4].如何在云環(huán)境中考慮隱私保護(hù)情況下對(duì)人臉圖像進(jìn)行識(shí)別,成為了該領(lǐng)域亟待解決的問(wèn)題,受到廣大學(xué)者的關(guān)注,也出現(xiàn)了很多好的方法[5].
文獻(xiàn)[6]提出基于Gabor低秩恢復(fù)稀疏表示分類的人臉圖像識(shí)別方法,該方法針對(duì)含有光照、姿態(tài)及遮擋等誤差或者被噪聲污染的人臉圖像,用稀疏表示和Gabor特征字典,對(duì)測(cè)試樣本圖像的Gabor特征向量進(jìn)行類關(guān)聯(lián)重構(gòu),實(shí)現(xiàn)圖像分類識(shí)別,該方法具有較高的識(shí)別效率,但其抗干擾性能較差;文獻(xiàn)[7]提出基于主成分分析的人臉圖像識(shí)別方法,首先分解人臉圖像,并把分解后的各系數(shù)矩陣轉(zhuǎn)變成能量特性,采用主成分分析識(shí)別算法進(jìn)行人臉圖像識(shí)別,但是該方法識(shí)別效率不高;文獻(xiàn)[8]提出基于特征融合的人臉圖像識(shí)別方法,該方法采用局部二值形式獲取特征向量,通過(guò)PCA方法進(jìn)行融合,實(shí)現(xiàn)人臉圖像識(shí)別,但是該方法識(shí)別時(shí)間較長(zhǎng),不適合大范圍使用.
針對(duì)上述問(wèn)題,本文提出了一種云環(huán)境下人臉圖像識(shí)別方法.首先建立人臉圖像PCA數(shù)學(xué)模型,采用LBP方法提取選擇人臉圖像紋理特征,其次運(yùn)用分?jǐn)?shù)法度量所選擇的特征穩(wěn)定性,最后基于深度網(wǎng)絡(luò)法進(jìn)行人臉圖像的識(shí)別.實(shí)驗(yàn)結(jié)果表明,本文提出的識(shí)別方法具有較高的識(shí)別精確度和效率.
在實(shí)際的人臉圖像識(shí)別過(guò)程中,考慮隱私保護(hù)的約束,需要解決的問(wèn)題全是由多個(gè)有關(guān)變量構(gòu)成的,為了降低對(duì)人臉圖像進(jìn)行處理時(shí)的復(fù)雜度,需要進(jìn)行簡(jiǎn)化處理,建立人臉圖像PCA數(shù)學(xué)模型.假設(shè)有p個(gè)變量(x1,x2,…,xp)和n個(gè)樣本,樣本矩陣為
(1)
式中,xnp為矩陣X中第n個(gè)樣本中的第p個(gè)變量.
PCA就是將原先的p個(gè)樣本變量變成新的p個(gè)變量,即
(2)
式(2)可簡(jiǎn)化為
Fz=αz1x1+αz2x2+…+αzpxp
(z=1,2,…,p)
(3)
式中:F1,F(xiàn)2,…,F(xiàn)p為主分量;α為主成分系數(shù).
建立的人臉圖像PCA數(shù)學(xué)模型需要滿足以下條件:
1) 各變量之間互不相關(guān);
上述人臉圖像PCA數(shù)學(xué)模型表達(dá)式為
F(x,y)=XY
(4)
在提取人臉圖像特征時(shí),為了保護(hù)隱私,主要以人臉圖像紋理特征為主,采用LBP方法進(jìn)行人臉圖像紋理特征的獲取,增加隱私保護(hù)性能.首先確定識(shí)別區(qū)域的梯度,而人臉圖像梯度包括兩個(gè)方向,分別為x方向和y方向,對(duì)于點(diǎn)A(i,j)上的梯度,其計(jì)算表達(dá)式為
xi,j=β1(Ai,j+1-Ai,j-1)+β2
(5)
yi,j=β1(Ai+1,j-Ai-1,j)+β2
(6)
式中:Ai,j為對(duì)應(yīng)在人臉圖像坐標(biāo)(i,j)處的灰度值;xi,j和yi,j為對(duì)應(yīng)于點(diǎn)A(i,j)在x方向和y方向上的梯度;β1為半面約束參數(shù)(總范圍為0~1),0<β1≤0.5,超過(guò)一半?yún)^(qū)域失效,則自動(dòng)放棄計(jì)算;β2為經(jīng)驗(yàn)約束參數(shù),120<β2<130,評(píng)價(jià)經(jīng)驗(yàn)確定范圍,一般不超過(guò)200.
而區(qū)域梯度同樣包含x和y兩個(gè)方向,對(duì)應(yīng)點(diǎn)A(i,j)上區(qū)域梯度的計(jì)算公式為
xi,j,w
(7)
yi,j,w
(8)
(9)
式中:gc為對(duì)應(yīng)于局部鄰域中心點(diǎn)處的灰度值;gp′(p′=0,1,…,p-1)為以gc為中心,半徑為R(R=1)的灰度值,選取9個(gè)像素點(diǎn),即gc鄰域范圍為8個(gè)點(diǎn)的灰度值.s(x*)需要滿足的約束條件為
(10)
在特征選取的基礎(chǔ)上,采用保局投影LPP方法對(duì)特征進(jìn)行選擇,其基本思路為在維持樣本數(shù)據(jù)間局部鄰域結(jié)構(gòu)信息的同時(shí)減少樣本集的維數(shù),需要選擇保持?jǐn)?shù)據(jù)集局部拓?fù)浣Y(jié)構(gòu)特征的選擇算法.
首先定義人臉圖像間的拓?fù)浣Y(jié)構(gòu)矩陣Q=[Qij]M×M,其約束條件為
(11)
式中:yi為人臉圖像中第i個(gè)主成分的系數(shù);yj為人臉圖像中第j個(gè)主成分的系數(shù).
(12)
式中:JFisher(fr)為第r列特征的類間和類內(nèi)方差的比值;d(S∪{r})(i,j)為已選特征子集及欲加入的第r維特征在樣本i和j間的距離.選擇的人臉圖像特征表達(dá)式為
(13)
式中,x0和y0為兩個(gè)隨機(jī)變量.在特征選擇中,待選擇的fi與類標(biāo)c的互信息則為I(fi;c),若選擇m維就要選擇最大的前m個(gè).
為了增加云計(jì)算中隱私保護(hù)的性能,需要對(duì)選擇結(jié)果的穩(wěn)定性進(jìn)行度量,而依據(jù)穩(wěn)定性的定義,度量特征選擇結(jié)果的穩(wěn)定性,就是衡量算法選出的最優(yōu)特征子集間的相似性.因此,當(dāng)特征選擇結(jié)果的表示方法不一樣時(shí),穩(wěn)定性度量方法也不同,選取最常見(jiàn)的分?jǐn)?shù)法對(duì)選擇后的特征進(jìn)行穩(wěn)定性度量.假設(shè)原始特征空間有K維特征f1,f2,…,fK,那么通過(guò)分?jǐn)?shù)法獲取選擇的人臉圖像特征穩(wěn)定性度量表達(dá)式為
(14)
式中:e、e′為同一特征算法在圖像集Z、Z′上獲得的分?jǐn)?shù)法結(jié)果;μe、μe′為e、e′中分?jǐn)?shù)值的均值.L(e,e′)∈[-1,1],則有關(guān)系數(shù)絕對(duì)值越大,e和e′越相關(guān),那么選取的特征越穩(wěn)定,隱私保護(hù)效果越好.當(dāng)選擇的人臉圖像特征穩(wěn)定性與特征選擇的頻數(shù)相關(guān)時(shí),隱私保護(hù)性能最佳,則人臉圖像隱私保護(hù)穩(wěn)定性度量公式可轉(zhuǎn)變?yōu)?/p>
(15)
式中:T為特征選擇算法;R′為被選中的特征;|Z′|為至少被選中過(guò)一次的全部特征集合;q為特征選擇進(jìn)行的次數(shù);freq(R′)為全部被選中的特征總和.由此可以看出,假如特征在多次選擇過(guò)程中被頻繁地選擇,且這種特征越多,選擇的人臉圖像特征越穩(wěn)定,在云計(jì)算中隱私保護(hù)效果會(huì)越好.
在確定所選擇特征穩(wěn)定性的基礎(chǔ)上,對(duì)云計(jì)算中考慮隱私保護(hù)的人臉圖像識(shí)別方法進(jìn)行改進(jìn),提出了基于深度網(wǎng)絡(luò)的人臉圖像識(shí)別方法,其基本思路為:首先確定識(shí)別人臉圖像的幾何形狀,并確定特征最優(yōu)值;其次獲取人臉圖像特征均值;最后將均值與深度網(wǎng)絡(luò)相結(jié)合實(shí)現(xiàn)對(duì)云計(jì)算中考慮隱私保護(hù)的人臉圖像識(shí)別.
假設(shè)人臉幾何特征模型由34個(gè)頂點(diǎn)、51個(gè)三角形組成,分別設(shè)置為v和t,則獲得最佳隱私保護(hù)的人臉圖像集為
(16)
(17)
式中:a1為縮放操作;a2為旋轉(zhuǎn)操作;a3為平移操作;a4為剪切操作.由此可得其幾何形狀,即
(18)
(19)
式中:ci0為第i0樣本的均值;Mi0為第i0樣本數(shù);Ti0為第i0樣本子集.在確定人臉圖像特征均值的基礎(chǔ)上,結(jié)合深度網(wǎng)絡(luò)法進(jìn)行人臉圖像識(shí)別,其表達(dá)式為
(20)
綜上所述,通過(guò)采用保局投影LPP方法對(duì)特征進(jìn)行選擇,并選用最常見(jiàn)的分?jǐn)?shù)法對(duì)選擇后的特征進(jìn)行穩(wěn)定性度量,引入深度網(wǎng)絡(luò)法,可實(shí)現(xiàn)在云計(jì)算中考慮隱私保護(hù)的人臉圖像識(shí)別方法的改進(jìn).
為了驗(yàn)證改進(jìn)的人臉圖像識(shí)別方法在隱私保護(hù)約束下的有效性及可行性,需要進(jìn)行實(shí)驗(yàn)對(duì)比分析.實(shí)驗(yàn)數(shù)據(jù)集采用YALE B數(shù)據(jù)庫(kù)和CMU PIE數(shù)據(jù)庫(kù),所用方法為改進(jìn)識(shí)別方法、基于特征融合的人臉圖像識(shí)別方法和基于主成分分析法.實(shí)驗(yàn)將一幅測(cè)試圖像與庫(kù)中已注冊(cè)的每幅參考圖像作對(duì)比進(jìn)行分析.
采用YALE B數(shù)據(jù)庫(kù)和CMU PIE數(shù)據(jù)庫(kù)作為實(shí)驗(yàn)數(shù)據(jù)集,在兩個(gè)數(shù)據(jù)集上比較各種方法的人臉識(shí)別率.將所有數(shù)據(jù)集按照光照的角度劃分為5個(gè)子集(1平光、2側(cè)光、3逆光、4頂光、5底光),YALE B數(shù)據(jù)庫(kù)和CMU PIE數(shù)據(jù)庫(kù)的人臉部分圖像分別如圖1、2所示.圖1中,第一行前4個(gè)圖為平光,后三個(gè)圖為底光,第二行前三個(gè)圖為頂光,第四和第五個(gè)圖為側(cè)光,最后兩個(gè)圖為逆光.圖2中光照順序依次是平光、逆光、底光和側(cè)光.
圖1 部分YALE B數(shù)據(jù)庫(kù)人臉模糊圖像Fig.1 Fuzzy face images in partial YALE B database
圖2 部分CMU PIE數(shù)據(jù)庫(kù)人臉圖像Fig.2 Face images in partial CMU PIE database
在第一組實(shí)驗(yàn)中,以YALE B數(shù)據(jù)庫(kù)信息為主進(jìn)行分析,在這5個(gè)子集上,采用每一張人臉圖像當(dāng)作測(cè)試圖像去匹配10張標(biāo)準(zhǔn)的人臉圖像,并把10張標(biāo)準(zhǔn)的人臉圖像作為已注冊(cè)的參考人臉圖像,識(shí)別結(jié)果如表1所示.
表1 人臉圖像識(shí)別結(jié)果Tab.1 Identification results of face images %
由表1可知,采用特征融合方法時(shí),其人臉圖像識(shí)別率約為83.35%,且隨著光照角度的變化其識(shí)別率下降;采用主成分分析法時(shí),其人臉圖像識(shí)別率約為94.92%,且隨著光照角度的變化,識(shí)別率不穩(wěn)定;采用改進(jìn)識(shí)別方法時(shí),其人臉識(shí)別率約為97.91%,雖然其識(shí)別率隨著光照角度的變化發(fā)生變化,但其識(shí)別率相比特征融合方法提高了約14.56%,相比主成分分析法識(shí)別率提高了約2.99%,具有一定的優(yōu)勢(shì).
由于CMU PIE數(shù)據(jù)庫(kù)中每個(gè)人對(duì)應(yīng)的不同光照?qǐng)D像比較少,所以不能依據(jù)光照角度來(lái)分組進(jìn)行實(shí)驗(yàn),需要將標(biāo)準(zhǔn)的人臉圖像作為參考人臉圖像.實(shí)驗(yàn)二將不一樣光照條件下的人臉圖像當(dāng)作參考人臉圖像,并將其平均值當(dāng)作最終的識(shí)別結(jié)果,人臉識(shí)別率如表2所示.
表2 不同參考人臉圖像下的人臉識(shí)別率Tab.2 Identification rates of face images underdifferent reference face images %
在CMU PIE數(shù)據(jù)庫(kù)上,分別采用改進(jìn)方法、特征融合方法、主成分分析法進(jìn)行人臉圖像識(shí)別,采用每人兩幅人臉圖像當(dāng)作訓(xùn)練集時(shí),改進(jìn)方法的識(shí)別率約為92.45%;特征融合方法的識(shí)別率約為84.75%;主成分分析法的識(shí)別率約為80.46%.改進(jìn)方法相比特征融合方法、主成分分析法識(shí)別率分別提高了約7.7%和11.99%,具有一定的實(shí)用性.
為了進(jìn)一步驗(yàn)證改進(jìn)方法在人臉圖像識(shí)別方面的有效性,對(duì)其識(shí)別準(zhǔn)確度方面進(jìn)行對(duì)比實(shí)驗(yàn)驗(yàn)證,結(jié)果如圖3所示.
圖3 不同方法下人臉圖像識(shí)別準(zhǔn)確度對(duì)比Fig.3 Comparison in identification accuracy offace images with different methods
由圖3可知,當(dāng)需要識(shí)別的人臉圖像個(gè)數(shù)一定時(shí),采用特征融合方法時(shí)的識(shí)別準(zhǔn)確度約為73.43%,且存在多處波動(dòng),其穩(wěn)定性較差,不適合長(zhǎng)時(shí)間、大范圍使用;采用主成分分析法時(shí),其識(shí)別準(zhǔn)確度約為75.43%,雖然無(wú)太大波動(dòng),但隨著人臉圖像個(gè)數(shù)的增加,識(shí)別準(zhǔn)確度逐漸下降;采用改進(jìn)方法時(shí),其識(shí)別準(zhǔn)確度約為94.32%,雖然在數(shù)據(jù)量為300~400處出現(xiàn)了波動(dòng),但整體相比特征融合方法提高了約20.89%,相比主成分分析法識(shí)別準(zhǔn)確度提高了約18.89%,由此可知,改進(jìn)方法具有一定的優(yōu)勢(shì).對(duì)兩種不同算法的耗時(shí)進(jìn)行對(duì)比,結(jié)果如圖4所示,本文方法在任務(wù)數(shù)增加的情況下,所用時(shí)間也大幅低于傳統(tǒng)的主成分分析法,優(yōu)勢(shì)明顯.
本文提出一種新型效率高且準(zhǔn)確度高的人臉圖像識(shí)別方法.首先對(duì)圖像進(jìn)行簡(jiǎn)化處理,建立人臉圖像PCA數(shù)學(xué)模型,采用LBP方法提取人臉圖像紋理特征;其次度量特征的穩(wěn)定性,引入深度網(wǎng)絡(luò)法識(shí)別人臉圖像.實(shí)驗(yàn)結(jié)果表明,改進(jìn)的識(shí)別方法具有較高的人臉識(shí)別率,且識(shí)別耗時(shí)較短.
圖4 不同方法的耗時(shí)對(duì)比Fig.4 Comparison in time-consumingwith different methods
[1] Ren C X,Dai D Q,Li X X,et al.Band-reweighed Gabor kernel embedding for face image representation and recognition [J].IEEE Transactions on Image Processing,2014,23(2):725-740.
[2] Xu Y,Li X,Yang J,et al.Integrate the original face image and its mirror image for face recognition [J].Neurocomputing,2014,131(7):191-199.
[3] Shi J,Qi C.From local geometry to global structure:learning latent subspace for low-resolution face image recognition [J].IEEE Signal Processing Letters,2015,22(5):554-558.
[4] 劉中華,姚楠,劉文紅.基于自適應(yīng)特征選擇的人臉圖像識(shí)別算法 [J].上海電機(jī)學(xué)院學(xué)報(bào),2014,17(4):224-228.
(LIU Zhong-hua,YAO Nan,LIU Wen-hong.Face recognition based on adaptive feature selection [J].Journal of Shanghai Dianji University,2014,17(4):224-228.)
[5] 曾愛(ài)林.基于改進(jìn)的格拉斯曼流形的模糊人臉圖像識(shí)別 [J].現(xiàn)代電子技術(shù),2015,38(22):34-36.
(ZENG Ai-lin.Fuzzy face image recognition algorithm based on improved Grassmannian [J].Modern Electronics Technique,2015,38(22):34-36.)
[6] 杜海順,張旭東,金勇,等.基于Gabor低秩恢復(fù)稀疏表示分類的人臉圖像識(shí)別方法 [J].電子學(xué)報(bào),2014,42(12):2386-2393.
(DU Hai-shun,ZHANG Xu-dong,JIN Yong,et al.Face image recognition method via Gabor low-rank recovery sparse representation-based classification [J].Acta Electronica Sinica,2014,42(12):2386-2393.)
[7] 謝佩,吳小俊.分塊多線性主成分分析及其在人臉識(shí)別中的應(yīng)用研究 [J].計(jì)算機(jī)科學(xué),2015,42(3):274-279.
(XIE Pei,WU Xiao-jun.Modular multilinear principal component analysis and application in face recognition [J].Computer Science,2015,42(3):274-279.)
[8] 梅蓉.基于特征融合的人臉圖像識(shí)別方法研究 [J].河南科技學(xué)院學(xué)報(bào)(自然科學(xué)版),2014,42(4):70-74.
(MEI Rong.Study of face recognition method based on feature fusion [J].Journal of Henan Institute of Science and Technology (Natural Sciences Edition),2014,42(4):70-74.)