鄭秋梅,謝換麗,王風(fēng)華,蘇 政,劉 真
(中國(guó)石油大學(xué)計(jì)算機(jī)與通信工程學(xué)院,山東 青島 266580)
近年來(lái),人臉識(shí)別技術(shù)在國(guó)防安全、考試系統(tǒng)、交通管理等方面得到廣泛應(yīng)用。人臉識(shí)別的準(zhǔn)確度與選取的特征提取算法密不可分。傳統(tǒng)的特征提取算法有基于全局模式和基于局部鄰域的特征描述2種。全局模式的特征提取算法主要有主成分分析(Principal Component Analysis, PCA)[1-2]、線性鑒別分析[3](Linear Discriminant Analysis,LDA)等。Kirby和Shakunaga等人[1-2]提出的“特征臉”(PCA)算法是基于子空間的,利用低維的線性空間進(jìn)行人臉描述、表達(dá),從而進(jìn)行人臉識(shí)別,但識(shí)別率較低。1997年Belhumeur等人[3]提出的Fisher LDA方法,主要利用Fisher準(zhǔn)則使類間與類內(nèi)之間的散度比值最大化,在小樣本中也可以很好地識(shí)別,但也丟失了樣本內(nèi)的一些鑒別信息。這些基于全局的特征描述方法受光照、噪聲的影響較大,識(shí)別率明顯低于局部特征提取算法。局部模式特征描述方法有Gabor小波[4]、局部二值模式(Local Binary Pattern,LBP)[5]等。Gabor小波通過(guò)多方向和多尺度選擇,能夠很好地提取圖像特征,但提取的特征維度過(guò)高,識(shí)別率較低。2004年出現(xiàn)的LBP[6-7]算法,通過(guò)計(jì)算中間像素與周圍像素間的灰度差值表達(dá)圖像紋理特征的差異。算法具有灰度、旋轉(zhuǎn)不變的特點(diǎn),但特征提取相對(duì)困難,當(dāng)光照角度生成變化時(shí)識(shí)別效果并不令人滿意。后來(lái),研究人員在LBP的基礎(chǔ)上提出LTP(Local Ternary Pattern)[8-9]。該方法通過(guò)修改LBP的閾值函數(shù)定義方式,使得對(duì)紋理特征的描述更加詳細(xì)。LTP繼承了LBP的優(yōu)點(diǎn)但比LBP對(duì)光照變化和噪聲因素的影響小,在人臉識(shí)別方面的識(shí)別率更高,但其在特征提取過(guò)程中對(duì)主觀因素的依賴性較強(qiáng),無(wú)法自動(dòng)學(xué)習(xí)提取特征。
近年來(lái),深度學(xué)習(xí)成為計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)研究重點(diǎn)[10-11]。它從低到高依次訓(xùn)練每層網(wǎng)絡(luò),以實(shí)現(xiàn)圖像分類等功能,其思想意在模仿人腦學(xué)習(xí)過(guò)程。Deepface[12]對(duì)圖像分析采用67個(gè)基點(diǎn)將二維圖像轉(zhuǎn)化為3D形狀,使用3D模型來(lái)將人臉對(duì)齊,使用CNN(Convolutional Neural Network)進(jìn)行特征提取,然后用9層深度網(wǎng)絡(luò)訓(xùn)練獲得識(shí)別結(jié)果,但這種算法需要訓(xùn)練大量的圖片,訓(xùn)練時(shí)間長(zhǎng)。深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)[13]通過(guò)從下到上自動(dòng)學(xué)習(xí)人臉特征,可以不依賴人工自動(dòng)提取特征。傳統(tǒng)的DBN網(wǎng)絡(luò)直接以像素級(jí)特征為輸入,網(wǎng)絡(luò)對(duì)光照等因素較敏感,無(wú)法對(duì)小區(qū)域的圖像特征進(jìn)行描述。LTP的閾值擴(kuò)展到了0,1,-1的模式,使得對(duì)像素灰度差異變化的影響變小,較LBP提取的特征更加清晰,對(duì)光照、噪聲等因素更不敏感,加強(qiáng)了圖像的局部特征[14]。把取得的LTP特征輸入到該網(wǎng)絡(luò)中,可有效解決傳統(tǒng)DBN算法忽略局部特征的缺點(diǎn),避免網(wǎng)絡(luò)學(xué)習(xí)到不利的特征,使提取的特征更加清晰,從而提高識(shí)別率。
本文提出一種基于LTP和深度學(xué)習(xí)的算法(LTDBN)。算法先對(duì)人臉圖做LTP運(yùn)算,而后將其輸入到深度信念網(wǎng)絡(luò)的入口,采用逐層貪婪學(xué)習(xí)法對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到相應(yīng)的參數(shù),再進(jìn)行測(cè)試訓(xùn)練,在最頂層獲得分類。LTDBN算法既解決了DBN忽略局部特征的問(wèn)題,又能避免過(guò)多地依賴人工選擇,自動(dòng)獲取圖像特征。LTDBN方法在公開(kāi)數(shù)據(jù)集上的實(shí)驗(yàn)表明該方法的識(shí)別率獲得了提高,特別是與文獻(xiàn)[18]的算法對(duì)比,LTDBN算法不會(huì)因樣本值的改變使識(shí)別效果發(fā)生大的波動(dòng),有更好的適應(yīng)性。
LBP是由Heikkila提出的特征描述符,通過(guò)圖像中心點(diǎn)像素值和鄰域點(diǎn)像素值差值與閾值進(jìn)行比較獲得,但把該區(qū)域中心點(diǎn)的像素值作為閾值使得算子對(duì)噪聲相對(duì)敏感[15],缺乏對(duì)圖像整體信息的粗粒度把握,無(wú)法保證識(shí)別的魯棒性[16]。而LTP對(duì)圖像的特征描述更加清楚,性能有了很大提高。因此,本文采用LTP算子進(jìn)行圖像特征提取。LTP由Tan[9]提出,更改了閾值函數(shù)的定義方式,擴(kuò)展了閾值區(qū)間,由原來(lái)LBP的0,1擴(kuò)大到0,1,-1。LTP算子由LBP的一個(gè)閾值增加到了一個(gè)數(shù)值范圍[-t,t],通過(guò)計(jì)算中間點(diǎn)像素值gc與四周鄰域像素值gb的差,再和閾值范圍進(jìn)行比較,鄰域像素點(diǎn)與中心像素點(diǎn)的差值的絕對(duì)值在閾值范圍內(nèi)記為為0,兩者的差值大于閾值范圍,則記為1,小于則記為-1。LTP編碼取值如公式(1):
(1)
其中t是設(shè)定的閾值,gc是區(qū)域內(nèi)的中心像素點(diǎn),gb是均勻分布在半徑R的圓域內(nèi)的鄰域像素點(diǎn)。LTP公式由公式(2)表示:
(2)
LTP詳細(xì)的處理過(guò)程如圖1所示,經(jīng)過(guò)在鄰域內(nèi)的比對(duì)后,將對(duì)比好的0,1值以鄰域左上角為起始端記錄下為0011(-1)010。
圖1 LTP編碼過(guò)程
經(jīng)過(guò)LTP編碼后會(huì)產(chǎn)生-1部分,為了降低復(fù)雜度,將LTP的編碼拆分成上層和下層部分。上層部分是把編碼中的所有為-1的值用0代替,其余的不變;下層部分是把所有為1的值用0代替,-1的值用1代替,剩下的不改變。分解過(guò)程如圖2所示,0011(-1)010被分解為上層部分(00110010)和下層部分(0000100)。
圖2 LTP分解編碼
為了獲得圖像小區(qū)域中更清晰的紋理特征,將圖像劃分成不同的子塊,然后各自提取LTP特征,再將得到子塊的直方圖特征進(jìn)行加權(quán)連接,從而獲得最后的圖像特征。如圖3所示,圖3(a)~圖3(c)分別為原圖、LBP和LTP提取后的特征。LTP算法能詳細(xì)地描述出圖像的亮暗點(diǎn)、邊緣等信息,提取的紋理愈加清晰,編碼過(guò)程簡(jiǎn)單易懂,具有更好的鑒別能力[17],但LTP算子在特征提取過(guò)程中過(guò)多依賴主觀因素(帶眼睛、帽子、拍攝角度多大等因素)。而DBN網(wǎng)絡(luò)能夠不過(guò)多地依賴于主觀因素,所以本文通過(guò)融合深度學(xué)習(xí)自主學(xué)習(xí)能力,提出了LTDBN算法。
(a) 原圖
(b) LBP特征提取
(c) LTP特征提取圖3 LBP和LTP特征提取
2006年,Hinton提出了一種可以自上而下的自動(dòng)學(xué)習(xí)圖像特征的方法,通過(guò)訓(xùn)練可視層和隱藏層神經(jīng)元權(quán)值,獲得最好訓(xùn)練數(shù)據(jù)的概率模型(DBN模型)。DBN包括多個(gè)隱藏層(h表示)和可視層(v表示)??梢晫又饕秋@性神經(jīng)元,負(fù)責(zé)處理網(wǎng)絡(luò)的輸入數(shù)據(jù);隱藏層主要是隱性神經(jīng)元,負(fù)責(zé)對(duì)信息處理后的特征表達(dá)。DBN的核心是受限玻爾茲曼機(jī)(Restricted Boltzman Machine,RBM)[18],其訓(xùn)練過(guò)程是按順序一層層地訓(xùn)練RBM,先訓(xùn)練v,然后把v獲得的數(shù)據(jù)向量作為下一個(gè)h的輸入,按照這種方式獲取每一層的數(shù)據(jù)向量,以此來(lái)提高網(wǎng)絡(luò)訓(xùn)練時(shí)間。
RBM由一層v層和h層連接組成,但2層各自之間的單元又是互相獨(dú)立的。如v層包含m個(gè)顯性神經(jīng)元,h層包含n個(gè)隱性神經(jīng)元,這m個(gè)可視神經(jīng)元每一個(gè)都指向n個(gè)隱層神經(jīng)元,同樣每個(gè)隱層n個(gè)神經(jīng)元也與m個(gè)可視神經(jīng)元連接,但m個(gè)顯性神經(jīng)元和n個(gè)隱性神經(jīng)元各自之間是沒(méi)有連接的,如圖4所示。
圖4 RBM結(jié)構(gòu)模型
v層和h層組成的RBM作為能量模型其定義如公式(3)所示:
(3)
式(3)中,vi代表顯性神經(jīng)元,hj代表隱性神經(jīng)元,Wij∈R表示vi和hj之間的權(quán)值,aj∈R表示hj的偏置,bi∈R表示vi的偏置,其聯(lián)合概率密度函數(shù)可以用公式(4)表示:
(4)
其中Z可以表示為:
由式(3)和式(4)可知,若已知顯性神經(jīng)元v,隱性神經(jīng)元h的激活概率P為:
(5)
(6)
根據(jù)這2個(gè)條件概率公式,在已知一層數(shù)據(jù)的情況下,可以計(jì)算下一層的數(shù)據(jù),這也是RBM的關(guān)鍵所在。
DBN是一個(gè)由無(wú)人監(jiān)督的RBM組成的多層判別模型,且最頂層連接的2個(gè)RBM是雙向連接,最底層的為特征的輸入端。整個(gè)網(wǎng)絡(luò)包含可觀測(cè)數(shù)據(jù)、可視層、隱藏層(可以是多層)、輸出。其訓(xùn)練過(guò)程包括2個(gè)部分,一是將提取的圖像特征作為v層的輸入數(shù)據(jù),自下而上迭代進(jìn)行無(wú)監(jiān)督的訓(xùn)練整個(gè)神經(jīng)網(wǎng)絡(luò),得到相應(yīng)的參數(shù);二是利用第一步獲得的參數(shù)通過(guò)監(jiān)督方法對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行全局訓(xùn)練,獲得最終的網(wǎng)絡(luò)參數(shù),在最頂層進(jìn)行分類識(shí)別,計(jì)算正確率。
DBN作為一種可以自動(dòng)學(xué)習(xí)輸入數(shù)據(jù)特征的深度學(xué)習(xí)網(wǎng)絡(luò),避免了過(guò)多地依賴于主觀因素,節(jié)省了大量的人工勞動(dòng)力。但是若直接以像素級(jí)作為輸入數(shù)據(jù),網(wǎng)絡(luò)不僅對(duì)光照等因素較敏感,對(duì)圖像的小區(qū)域的紋理特征無(wú)法提取,學(xué)習(xí)不到圖像局部結(jié)構(gòu)特征,而且識(shí)別率較低[13]。而LTP算子是一種可以提取圖像局部紋理的方法,針對(duì)這種情況本文提出一種基于LTP和深度學(xué)習(xí)(LTDBN)的人臉識(shí)別算法。
結(jié)合DBN在特征提取過(guò)程中不依賴于主觀因素、易忽略局部特征的特點(diǎn)和LTP算法可以提取圖像更完整的圖像信息,對(duì)光照、噪聲因素的影響力較低等的特點(diǎn),本文提出LTDBN方法。LTDBN算法是以LTP提取的圖像特征作為DBN網(wǎng)絡(luò)的輸入,然后利用DBN網(wǎng)絡(luò)進(jìn)一步自動(dòng)學(xué)習(xí)有效的特征,LTP特征輸入到輸入層后,采用逐層貪婪學(xué)習(xí)法對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到相應(yīng)的參數(shù),再在頂層實(shí)現(xiàn)人臉的分類識(shí)別。以LTP紋理特征作為輸入數(shù)據(jù)可以更好地學(xué)習(xí)網(wǎng)絡(luò),強(qiáng)化網(wǎng)絡(luò)學(xué)習(xí)能力,同時(shí)結(jié)合DBN可以自動(dòng)學(xué)習(xí)圖像特征,保留圖像小區(qū)域的特征,提取更加清晰的特征,降低對(duì)光照、噪聲等因素的影響力。本文的LTDBN人臉識(shí)別算法的識(shí)別過(guò)程圖5所示。
圖5 LTDBN識(shí)別過(guò)程
為了獲取更詳細(xì)的圖像特征,本文將圖像均分為4×4小塊(通過(guò)在ORL人臉數(shù)據(jù)庫(kù)上實(shí)驗(yàn),當(dāng)分塊為4×4時(shí)識(shí)別效果最佳,所以本文采用4×4對(duì)圖像進(jìn)行分塊),然后對(duì)各個(gè)子塊運(yùn)用LTP算子獲得相應(yīng)的LTP編碼圖像,最后加權(quán)連接直方圖,實(shí)現(xiàn)LTP算子的人臉圖像局部特征提取。提取過(guò)程如圖6所示。
圖6 LTP特征提取過(guò)程
在獲得LTP局部特征后,將其作為DBN網(wǎng)絡(luò)的輸入數(shù)據(jù),此時(shí)網(wǎng)絡(luò)的聯(lián)合分布函數(shù)為:
p(H,h(1),h(2),…,h(m))=
P(H|h(1))P(h(1)|h(2))…P(h(m-1)|h(m))
(7)
在公式(7)中,H不再是圖像的原始像素,而是LTP提取后的特征,h(1),h(2),…,h(m),表示深度網(wǎng)絡(luò)每層訓(xùn)練得到的高級(jí)特征,而學(xué)習(xí)到的高級(jí)特征的優(yōu)劣直接影響最終的識(shí)別效果。本文在特征提取時(shí)采用LTP算法,它能夠有效地提取圖像的局部紋理特征,并且對(duì)噪聲有一定的魯棒性。網(wǎng)絡(luò)訓(xùn)練的優(yōu)劣程度決定了網(wǎng)絡(luò)對(duì)LTP特征的學(xué)習(xí)準(zhǔn)確度。LTDBN神經(jīng)網(wǎng)絡(luò)的具體訓(xùn)練過(guò)程為:1)將提取的圖像LTP特征作為第一層RBM的輸入,對(duì)RBM進(jìn)行無(wú)監(jiān)督訓(xùn)練,獲得第一層RBM訓(xùn)練的隱層參數(shù);2)將第一層獲得的參數(shù)作為第二層RBM的輸入數(shù)據(jù),學(xué)習(xí)得到第三層的隱層參數(shù),以此類推對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行訓(xùn)練學(xué)習(xí);3)運(yùn)用BP算法自上而下進(jìn)行有監(jiān)督的訓(xùn)練,微調(diào)整個(gè)網(wǎng)絡(luò),并在網(wǎng)絡(luò)的最頂層運(yùn)用softmax回歸進(jìn)行分類,計(jì)算網(wǎng)絡(luò)輸出。
本文算法具體實(shí)驗(yàn)步驟分為以下5步:
1)對(duì)訓(xùn)練圖像和測(cè)試圖像的分辨率統(tǒng)一化為92×112,并進(jìn)行直方圖均衡化處理。
2)對(duì)訓(xùn)練和測(cè)試的圖像進(jìn)行4×4的分塊LTP特征提取,獲得子塊的直方圖,然后連接各個(gè)子塊直方圖組成LTP特征。其中,LTP特征采樣區(qū)域?yàn)榘霃綖?的圓形區(qū)域,采樣點(diǎn)數(shù)P為8。
3)將獲得的訓(xùn)練圖像特征數(shù)據(jù)放入DBN網(wǎng)絡(luò),而不是用原始數(shù)據(jù)作為可視層輸入,進(jìn)行無(wú)監(jiān)督訓(xùn)練,得到各層的參數(shù),用BP反向傳播算法微調(diào)DBN網(wǎng)絡(luò),其中在微調(diào)過(guò)程中參數(shù)用fmincg函數(shù),最后取得網(wǎng)絡(luò)的最優(yōu)解。LTDBN網(wǎng)絡(luò)采用可視層-隱藏層(2層)-輸出層的神經(jīng)網(wǎng)絡(luò),可視層和隱藏層每層包含50個(gè)隱含子,輸出層輸出神經(jīng)單元數(shù)為40,即分類數(shù),學(xué)習(xí)率為0.001,迭代次數(shù)為30(通過(guò)在ORL數(shù)據(jù)獲得當(dāng)?shù)?0次時(shí)效果最佳。從而選擇迭代30次)。
4)把測(cè)試數(shù)據(jù)集提取的特征作為網(wǎng)絡(luò)的輸入,然后用獲得的最優(yōu)網(wǎng)絡(luò)自下而上地學(xué)習(xí)獲取測(cè)試數(shù)據(jù)集的特征。
5)在網(wǎng)絡(luò)的頂層利用softmax進(jìn)行回歸分類,計(jì)算本文算法的識(shí)別率。
為了測(cè)試LTDBN算法的性能,首先選取ORL,Yale,Yale-B等數(shù)據(jù)庫(kù)的全部或部分圖片作為實(shí)驗(yàn)的訓(xùn)練和測(cè)試樣本;然后在相同的實(shí)驗(yàn)條件下將本文提出的LTDBN與其他算法進(jìn)行比較,表明本文算法性能更好,最后分析總結(jié)實(shí)驗(yàn)結(jié)果。實(shí)驗(yàn)硬件環(huán)境為:2.67 GHz Intel Core i5 CPU,4 G內(nèi)存,64位操作系統(tǒng)。在Matlab2014a上進(jìn)行仿真實(shí)驗(yàn)。
ORL人臉標(biāo)準(zhǔn)庫(kù)包含40位采集者,每位采集者包含10幅人臉圖片,包含表情變化、人臉姿態(tài)變化以及部分角度變化等特征。其中,人臉的細(xì)節(jié)也不同,比如有笑容的、無(wú)笑容的、睜眼的、閉眼的等。在實(shí)驗(yàn)中,訓(xùn)練集由每人的8幅圖像組成,測(cè)試集由剩余的2幅圖像組成。
表1 在ORL人臉庫(kù)上與經(jīng)典算法的對(duì)比實(shí)驗(yàn)
算法識(shí)別率/%PCA82.50LBP83.75LTP86.25DBN93.75LBP+DBN95.00本文提出算法98.75
表1為在ORL數(shù)據(jù)庫(kù)上與經(jīng)典算法的對(duì)比實(shí)驗(yàn)。從表1可以看出運(yùn)用深度學(xué)習(xí)網(wǎng)絡(luò)的識(shí)別率高于傳統(tǒng)的方法,較傳統(tǒng)的識(shí)別方法至少高出14%。特別是本文提出的LTDBN算法能考慮到圖像的局部細(xì)小紋理特征,使提取的圖像紋理特征更加清晰,識(shí)別率比文獻(xiàn)[18]提出的LBP+DBN算法還要高出3.75%。
Yale人臉庫(kù)是由耶魯大學(xué)提出的一個(gè)公開(kāi)數(shù)據(jù)庫(kù),被許多研究人員應(yīng)用進(jìn)行實(shí)驗(yàn)測(cè)試。有15位采集者參加,其中每位采集者有11幅圖片,每位采集者的圖片也包含了不同的光照、姿態(tài)等特征。為探討不同樣本數(shù)對(duì)算法識(shí)別率的影響,在實(shí)驗(yàn)中通過(guò)選取1~10幅圖像作為訓(xùn)練集,其余圖像作為測(cè)試集進(jìn)行測(cè)試,結(jié)果如圖7所示。通過(guò)圖7可以看出PCA,LBP,LTP這些傳統(tǒng)的算法識(shí)別效果并不理想,隨著樣本數(shù)量的變化識(shí)別效果跌宕起伏,運(yùn)用了深度學(xué)習(xí)算法的LBP+DBN算法在識(shí)別性能上雖有了很大的提高,但識(shí)別性能仍受樣本變化影響較大。而本文提出的算法識(shí)別效果更穩(wěn)定,識(shí)別率也較高,尤其是在5個(gè)和6個(gè)訓(xùn)練樣本(含有包括戴眼睛、瞇眼的人臉圖像)的時(shí)候,當(dāng)其他的算法識(shí)別率明顯下降時(shí),本文提出的算法依然能夠保持較高的識(shí)別率。
圖7 Yale數(shù)據(jù)庫(kù)上不同算法在不同樣本上的識(shí)別效果
Yale-B標(biāo)準(zhǔn)數(shù)據(jù)庫(kù)總共21888幅圖像,包含38個(gè)人,每人有9種姿態(tài)、64種光照,可以說(shuō)是在光照、表情等變化中較典型的一個(gè)人臉數(shù)據(jù)庫(kù)。考慮到實(shí)際應(yīng)用中,光照角度大于85時(shí)圖像不適用,把數(shù)據(jù)集中光照角度大于85的人臉圖像去除保留每人35幅圖像,從中分別選擇15,20,25幅圖像作為訓(xùn)練集。剩余的20,15,10幅圖像作為測(cè)試集,不同算法在不同訓(xùn)練樣本數(shù)上的識(shí)別效果如圖8所示,其中結(jié)果只保存到小數(shù)點(diǎn)后兩位。從圖8可以看出在多角度照射的人臉圖像中,本文提出的算法較PCA,LTP,DBN,LBP+DBN算法在識(shí)別率上有了很大提高,說(shuō)明本文提出的算法不僅識(shí)別效果好,對(duì)于光照等因素影響力小,且提取的圖像局部特征更加地清晰,更注重細(xì)節(jié)的提取,特征提取過(guò)程中不過(guò)多依賴主觀因素,自動(dòng)學(xué)習(xí)圖像抽象特征。
圖8 在Yale-B人臉庫(kù)上不同算法對(duì)比結(jié)果
表2 在FERET人臉標(biāo)準(zhǔn)庫(kù)中算法的對(duì)比結(jié)果
算法識(shí)別率/%PCA75.40LBP82.67LTP85.69DBN90.04LBP+DBN91.72本文提出算法92.21
FERET人臉標(biāo)準(zhǔn)庫(kù)是由美國(guó)國(guó)防部為促進(jìn)人臉識(shí)別方法的研究而創(chuàng)建的一個(gè)通用人臉庫(kù),包含1196位采集者的14051張人臉圖,每位采集者都有不同姿勢(shì)、不同表情、不同光照強(qiáng)度和角度的圖像,是一個(gè)通用的人臉測(cè)試庫(kù)。它有fa,fb這2個(gè)集。fa為訓(xùn)練數(shù)據(jù),fb為測(cè)試數(shù)據(jù)。在FERET人臉標(biāo)準(zhǔn)庫(kù)中各種方法的對(duì)比結(jié)果如表2(結(jié)果保留小數(shù)點(diǎn)后兩位)所示。通過(guò)表2可以看出,本文提出的算法識(shí)別率高于其他算法,進(jìn)一步說(shuō)明結(jié)合LTP算子的應(yīng)用,提升了DBN的分類準(zhǔn)確率。
本文提出了一種LTDBN算法,主要是把圖像劃分子塊,對(duì)其進(jìn)行LTP特征提取,獲得圖像細(xì)節(jié)的局部特征,然后作為DBN輸入進(jìn)行訓(xùn)練識(shí)別。LTDBN算法能夠提取圖像局部區(qū)域的細(xì)小特征,獲得更加清晰的圖像特征,同時(shí)也克服了傳統(tǒng)圖像特征的提取過(guò)多地依賴于人工選擇的特點(diǎn),自動(dòng)獲取圖像特征。通過(guò)在ORL等數(shù)據(jù)庫(kù)上對(duì)比實(shí)驗(yàn)可知,LTDBN算法識(shí)別效果優(yōu)于其他現(xiàn)有算法,且受光照、姿態(tài)等因素的影響也有所降低,能對(duì)人臉圖像準(zhǔn)確識(shí)別。
[1] Kirby M, Sirovich L. Application of the Karhunen-Loeve procedure for the characterization of human faces[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 1990,12(1):103-108.
[2] Shakunaga T, Shigenari K. Decomposed eigenface for face recognition under various lighting conditions[C]// Proceedings of 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. 2001,1:I-864-I-871.
[3] Belhumeur P N, Hespanha J, Kriegman D J. Eigenfaces vs. Fisherfaces: Recognition using class specific linear projection[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 1997,19(7):711-720.
[4] 張娟,詹永照,毛啟容,等. 基于Gabor小波和稀疏表示的人臉表情識(shí)別[J]. 計(jì)算機(jī)工程, 2012,38(6):207-209.
[5] 宋克臣,顏云輝,陳文輝,等. 局部二值模式方法研究與展望[J]. 自動(dòng)化學(xué)報(bào), 2013,39(6):730-744.
[6] Ahonen T, Hadid A, Pietikainen M. Face description with local binary patterns: Application to face recognition[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2006,28(12):2037-2041.
[7] Ahonen T, Hadid A, Pietikainen M. Face recognition with local binary patterns[C]// The 8th European Conference on Computer Vision(ECCV). 2004:469-481.
[8] 趙靈芝,李偉生. 一種基于LTP特征的圖像匹配方法[J]. 計(jì)算機(jī)應(yīng)用研究, 2009,26(10):3983-3985.
[9] Tan X, Triggs B. Enhanced local texture feature sets for face recognition under difficult lighting conditions[J]. IEEE Transactions on Image Processing, 2010,19(6):1635-1650.
[10] Arel I, Rose D C, Karnowski T P. Deep machine learning——A new frontier in artificial intelligence research[Research Frontier][J]. IEEE Computational Intelligence Magazine, 2010,5(4):13-18.
[11] 孫志軍,薛磊,許陽(yáng)明,等. 深度學(xué)習(xí)研究綜述[J]. 計(jì)算機(jī)應(yīng)用研究, 2012,29(8):2806-2810.
[12] Taigman Y, Yang M, Ranzato M, et al. DeepFace: Closing the gap to human-level performance in face verification[C]// IEEE Conference on Computer Vision and Pattern Recognition. 2014:1701-1708.
[13] 梁淑芬,劉銀華,李立琛. 基于LBP和深度學(xué)習(xí)的非限制條件下人臉識(shí)別算法[J]. 通信學(xué)報(bào), 2014,35(6):154-160.
[14] Tan Xiaoyang, Triggs B. Enhanced local texture feature sets for face recognition under difficult lighting conditions[J]. IEEE Transactions on Image Processing, 2010,19(6):1635-1650.
[15] 薛紅,李晗,王瑜. 基于局部二值模式與K-均值的人臉識(shí)別[J]. 計(jì)算機(jī)工程與設(shè)計(jì), 2014,35(11):3879-3882.
[16] 張萬(wàn)賀,劉凱. 基于MB-LBP和Fishefaces的人臉識(shí)別[J]. 計(jì)算機(jī)工程與應(yīng)用, 2015,51(17):173-176.
[17] Ojala T, Harwood I. A comparative study of texture measures with classification based on feature distributions[J]. Pattern Recognition, 1996,29(1):51-59.
[18] 吳進(jìn),嚴(yán)輝,王潔. 采用局部二值模式與深度信念網(wǎng)絡(luò)的人臉識(shí)別[J]. 電訊技術(shù), 2016,56(10):1119-1123.