閆 河 王 樸 劉 婕 陳偉棟
(重慶理工大學(xué)計(jì)算機(jī)學(xué)院 重慶 400054)
?
自適應(yīng)中心對(duì)稱(chēng)局部三值模式的人臉識(shí)別
閆河王樸劉婕陳偉棟
(重慶理工大學(xué)計(jì)算機(jī)學(xué)院重慶 400054)
針對(duì)局部三值模式描述人臉圖像紋理特征時(shí)直方圖維數(shù)過(guò)高以及閾值不能自適應(yīng)選取的缺陷,提出一種自適應(yīng)中心對(duì)稱(chēng)局部三值模式方法。首先,用具有降低維數(shù)的中心對(duì)稱(chēng)局部三值模式算子對(duì)人臉圖像編碼,把鄰域像素均值引入編碼中以增強(qiáng)抗噪性能;其次,嵌入統(tǒng)計(jì)鄰域均值與鄰域像素的標(biāo)準(zhǔn)差作為閾值以自適應(yīng)提取人臉特征,并統(tǒng)計(jì)特征直方圖;最后用卡方距離度量訓(xùn)練樣本特征直方圖和測(cè)試樣本特征直方圖的相似度,采用最近鄰分類(lèi)器分類(lèi)識(shí)別。所提算法在YALE、Extended Yale B人臉圖像庫(kù)上的最高正確識(shí)別率分別達(dá)到99.67%,99.33%;識(shí)別一張人臉的速度分別達(dá)到0.1984和0.3988 s。實(shí)驗(yàn)結(jié)果表明,所提算法對(duì)光照變化和噪聲更加魯棒,有效提高了人臉識(shí)別的精度和速度。
人臉識(shí)別中心對(duì)稱(chēng)局部三值模式自適應(yīng)閾值
近年來(lái),受公共安全、國(guó)家安全、人機(jī)交互、金融安全等領(lǐng)域大量潛在的需求所驅(qū)動(dòng),人臉識(shí)別技術(shù)已經(jīng)成為模式識(shí)別領(lǐng)域的研究熱點(diǎn)[1],其關(guān)鍵問(wèn)題是如何找出有效描述人臉特征的算子。在實(shí)際應(yīng)用中,人臉易受光照、噪聲等變化的影響,通常使得人臉圖像呈現(xiàn)較強(qiáng)的不穩(wěn)定性,甚至?xí)斐赏粋€(gè)人的差異比不同人之間的差異還大[2],因此,增加了人臉識(shí)別的難度。局部二值模式LBP(Local Binary Pattern)[3]用于人臉識(shí)別[4-11]中是一種有效局部紋理特征描述算子,該方法簡(jiǎn)單,對(duì)微弱光照變化具有一定的魯棒性,但在編碼時(shí)會(huì)產(chǎn)生256個(gè)不同的二進(jìn)制,導(dǎo)致形成的直方圖特征維數(shù)較高以致不利于分類(lèi)與識(shí)別;其次,當(dāng)光照劇烈變化時(shí),LBP算子無(wú)法描述該變化的劇烈程度,使得LBP特征表征能力和分類(lèi)能力下降。針對(duì)LBP的不足,HeiKKiloi等[12]把中心對(duì)稱(chēng)的思想用到LBP算子上,提出了中心對(duì)稱(chēng)二值局部模式CS-LBP(Center Symmetric LBP),其思想是不再依次比較鄰域周邊像素與中心像素的灰度值,而是比較中心像素對(duì)稱(chēng)的兩個(gè)周邊像素灰度值,該模式降低了LBP特征維數(shù),計(jì)算復(fù)雜度低、且具有抗噪性。Tan等[13]在LBP基礎(chǔ)上提出了局部三值模式LTP(Local Ternary Patterns),LTP算子采用0、1、-1三個(gè)值進(jìn)行編碼,并且允許用戶(hù)自定義一個(gè)閾值,在一定程度上均衡了劇烈光照引起的灰度值變化,解決了光照劇烈變化下的識(shí)別問(wèn)題。LTP特征已在人臉識(shí)別領(lǐng)域[14-17]取得了較好的應(yīng)用效果。然而,由于LTP算子采用0、1、-1三個(gè)值進(jìn)行編碼,使得LTP特征維數(shù)更高,其次,LTP算子是事先自定義一個(gè)閾值,需要進(jìn)行大量實(shí)驗(yàn)來(lái)尋找最佳閾值,且閾值不能自適應(yīng)地兼顧不同樣本間的差異,因此LTP還存在普適性問(wèn)題。
針對(duì)上述問(wèn)題,本文提出了自適應(yīng)中心對(duì)稱(chēng)局部三值模式方法CS-LTPAT(Center Symmetric LTP with Adaptive Threshold)。該方法首先把文獻(xiàn)[12]的思想應(yīng)用到LTP算子上,提出了中心對(duì)稱(chēng)局部三值模式(CS-LTP)以降低LTP維數(shù);為了增強(qiáng)所提算子的抗噪性,把鄰域均值加入到算子的編碼中;其次,為了提高算法的普適性,通過(guò)統(tǒng)計(jì)鄰域均值與鄰域像素的對(duì)比度值,將其對(duì)比度的標(biāo)準(zhǔn)差作為閾值自適應(yīng)提取人臉特征。實(shí)驗(yàn)表明,所提算法對(duì)光照變化和噪聲更加魯棒,有效提高了人臉識(shí)別的精度和速度。
LTP算子是在LBP算子基礎(chǔ)上進(jìn)行擴(kuò)展,采用三值編碼模式,LTP繼承了LBP對(duì)光照不敏感的優(yōu)點(diǎn),并且算子本身自定義的一個(gè)閾值t在一定程度上能減少劇烈光照的影響。LTP算子量化階段增加了-1碼,通過(guò)計(jì)算鄰域像素gi與中心像素的gc差值,差值在[-t,t]范圍內(nèi)則被量化為0,差值大于t則被量化為1,差值小于-t則被量化為-1。LTP的具體計(jì)算公式定義如下:
(1)
其中t為用戶(hù)自定義的閾值,利用LTP算子進(jìn)行編碼,權(quán)值的編碼方式與LBP算子類(lèi)似,編碼方式的計(jì)算公式如下:
(2)
從LTP算子的編碼過(guò)程得出,LTP是一種圖像微量特征、局部形狀以及局部紋理的描述算子,并通過(guò)用戶(hù)自定義閾值t和增加一位編碼,在一定程度上均衡了劇烈光照變化下的像素值,有效提高了LTP特征的表征能力和分類(lèi)能力。但LTP直方圖特征維數(shù)會(huì)隨著半徑R和鄰域像素點(diǎn)P的增大而顯著增大,這將大大增加了計(jì)算的復(fù)雜度。另外,LTP閾值始終是固定值,不能根據(jù)樣本圖像的自身情況自適應(yīng)選取。因此需要一種自適應(yīng)樣本閾值,以進(jìn)一步優(yōu)化LTP。
2.1CS-LTP算子
使用LBP算子描述圖像紋理時(shí),產(chǎn)生的直方圖特征維數(shù)較高,為了降低維數(shù),文獻(xiàn)[12]重新定義像素值之間的比較關(guān)系,提出了中心對(duì)稱(chēng)局部二值模式(CS-LBP)。CS-LBP只比較鄰域內(nèi)基于中心像素中心對(duì)稱(chēng)的像素值對(duì),因此CS-LBP相比LBP統(tǒng)計(jì)直方圖的維數(shù)更低。考慮LTP的維數(shù)問(wèn)題,本文把中心對(duì)稱(chēng)的思想應(yīng)用到局部三值模式中,提出了中心對(duì)稱(chēng)局部三值模式(CS-LTP)。CS-LTP的定義如下:
(3)
其中S是權(quán)值系數(shù):
(4)
當(dāng)中心對(duì)稱(chēng)對(duì)的灰度差大于某個(gè)閾值t時(shí),S為1,否則為0。
從CS-LTP計(jì)算公式可以看出,CS-LTP直方圖維數(shù)比LTP直方圖維數(shù)更低,計(jì)算量小很多,能夠適應(yīng)實(shí)時(shí)計(jì)算的需求。為了降低噪聲的影響,本文把鄰域均值編碼考慮到CS-LTP算子中,則CS-LTP的計(jì)算公式如下:
(5)
2.2自適應(yīng)閾值的選取
針對(duì)LTP閾值不能自適應(yīng)問(wèn)題,本文提出一種能根據(jù)圖像自身情況自適應(yīng)選取閾值的方法。選取的方式為計(jì)算鄰域?qū)Ρ榷鹊臉?biāo)準(zhǔn)差,將該標(biāo)準(zhǔn)差設(shè)為當(dāng)前鄰域的閾值。在(P,R)鄰域內(nèi),通過(guò)計(jì)算鄰域均值與鄰域像素的對(duì)比度得到該鄰域的標(biāo)準(zhǔn)差δ,δ值較小表明對(duì)比度值較為分散,反之,則表明分布較為集中。標(biāo)準(zhǔn)差δ可以直觀(guān)地觀(guān)察樣本的變化程度。δ具體計(jì)算如下:
(6)
(7)
(8)
(4) 根據(jù)對(duì)比度值及其均值,計(jì)算標(biāo)準(zhǔn)差δ
(9)
從標(biāo)準(zhǔn)差δ的計(jì)算過(guò)程看,δ值會(huì)隨著每個(gè)鄰域的變化而變化,這說(shuō)明了標(biāo)準(zhǔn)差對(duì)樣本具有自適應(yīng)性。同時(shí)樣本類(lèi)內(nèi)的標(biāo)準(zhǔn)差在一般情況變化也不大,說(shuō)明鄰域均值與鄰域周邊像素對(duì)比度的標(biāo)準(zhǔn)差能描述樣本間變化關(guān)系。因此把標(biāo)準(zhǔn)差作為閾值不僅能有效解決自定義閾值的局限,同時(shí)兼顧不同樣本之間的差異,使得LTP算子能夠提取更有魯棒性的紋理特征。
2.3改進(jìn)人臉識(shí)別算法
將自適應(yīng)中心對(duì)稱(chēng)局部三值模式應(yīng)用于人臉識(shí)別。首先將人臉圖像進(jìn)行預(yù)處理,再把人臉圖像分成不同子塊,用CS-LTPAT算子提取每個(gè)子塊紋理特征,并統(tǒng)計(jì)每個(gè)子塊的直方圖。然后,按一定的次序聯(lián)接各個(gè)子塊直方圖生成人臉圖像的特征向量。其具體步驟如下:
步驟1對(duì)人臉圖像進(jìn)行直方圖均衡化等一系列的預(yù)處理。
步驟2將預(yù)處理后圖像按8×8分塊,并用自適應(yīng)中心對(duì)稱(chēng)局部三值模式(CS-LTPAT)提取人臉圖像直方圖特征。
步驟3用卡方距離度量訓(xùn)練集圖像和測(cè)試集圖像直方圖特征的相似度??ǚ骄嚯x的計(jì)算公式具體如下:
(10)
式中H1,H2分別為算法提取的特征向量。該值的距離越小,表明兩個(gè)人越相似。
步驟4通過(guò)最近鄰分類(lèi)器進(jìn)行分類(lèi)識(shí)別。
通過(guò)實(shí)驗(yàn)對(duì)幾種性能最好的基于紋理特征人臉描述算子進(jìn)行性能評(píng)估,包括文獻(xiàn)[4]局部二值模式(LBP)、文獻(xiàn)[12]中心對(duì)稱(chēng)局部二值模式(CS_LBP)以及局部三值模式(LTP)[13]和本文提出的自適應(yīng)中心對(duì)稱(chēng)局部三值模式(CS-LTPAT)。為了公平起見(jiàn),各類(lèi)算法均采用了分塊做法,分塊大小8×8,鄰域(P,R)取(8,2),并使用卡方距離作為特征向量相似度度量,最后通過(guò)最近鄰分類(lèi)器進(jìn)行分類(lèi)識(shí)別。本實(shí)驗(yàn)分為三部分。第一部分驗(yàn)證算法提取的特征維低和算法的實(shí)時(shí)性;第二部分驗(yàn)證所提算法對(duì)光照的魯棒性;第三部分驗(yàn)證算法的抗噪性。
3.1人臉數(shù)據(jù)庫(kù)
YALE人臉數(shù)據(jù)庫(kù)是由耶魯大學(xué)所采集。該人臉庫(kù)中包含15個(gè)人,每人11幅,總共165幅不同光照條件下的正面頭像。經(jīng)處理,圖像大小統(tǒng)一為100×100。圖1(a)給出了一個(gè)人經(jīng)過(guò)預(yù)處理后的11張人臉圖像,其中第4幅和第7幅圖像的光照條件較差。 Extended Yale B人臉數(shù)據(jù)庫(kù)來(lái)自38個(gè)人的不同光照下采集的 64 幅正面圖像,經(jīng)處理,圖像尺寸統(tǒng)一為 192 ×168。 根據(jù)光照強(qiáng)弱變化,該圖像庫(kù)分成 set1 至 set5 五個(gè)子集,各子集分別含有 70 幅、120幅、120 幅、140 幅和 190 幅人臉圖像。set1-set5子集的光照條件逐步變差,set 1 光照條件最好,set 5 光照條件最差。圖1(b)給出了其中一個(gè)人的8張圖片。
(a) YALE人臉庫(kù)部分圖像
(b) Extended Yale B人臉庫(kù)部分圖像圖1 YALE和Extended Yale B人臉庫(kù)部分圖像
3.2特征維數(shù)與時(shí)效性實(shí)驗(yàn)
為了驗(yàn)證所提算法提取的特征不僅維數(shù)低且實(shí)時(shí)性好,表1給出了所提算法在YALE、Extended Yale B人臉圖像庫(kù)上識(shí)別一張圖像所需要的維數(shù)與時(shí)間。
表1 識(shí)別一張人臉需要的特征維數(shù)和時(shí)間(s)
由表1可見(jiàn),雖然CS-LTPAT特征維數(shù)比CS-LBP特征維數(shù)略高,識(shí)別時(shí)間也比略長(zhǎng);但是相對(duì)LBP和LTP來(lái)說(shuō),特征維數(shù)還是比較低,也能達(dá)到實(shí)時(shí)性要求。下面實(shí)驗(yàn)也將驗(yàn)證CS-LTPAT特征比CS-LBP特征具有更好的抗光照性和抗噪性。
3.3光照實(shí)驗(yàn)
為驗(yàn)證本文算法對(duì)光照的魯棒性,分別在上述兩個(gè)人臉庫(kù)數(shù)據(jù)中進(jìn)行四組實(shí)驗(yàn)。第一組實(shí)驗(yàn)依次選取YALE人臉庫(kù)上每人1幅圖像作為訓(xùn)練集,其余圖像作為測(cè)試集。實(shí)驗(yàn)結(jié)果如圖2所示。第二組實(shí)驗(yàn)采用Extended Yale B人臉數(shù)據(jù)庫(kù)中子集set 1 作為訓(xùn)練集,其余子集作為測(cè)試集;第三組實(shí)驗(yàn)把光源較差的子集 set 4作為訓(xùn)練樣本,其余子集作為測(cè)試樣本;第四組實(shí)驗(yàn)選用每個(gè)人的一幅光照條件最好的圖片作為訓(xùn)練樣本,其余圖片作為測(cè)試樣本。第二、三、四組實(shí)驗(yàn)結(jié)果分別見(jiàn)圖3、圖4、圖5所示。
圖2 YALE人臉庫(kù)上不同方法的識(shí)別率(%)
從圖2可以看出,CS-LTPAT算子識(shí)別率優(yōu)于LBP、CS-LBP和LTP算子。當(dāng)測(cè)試集光源變化時(shí),LBP,CS-LBP和LTP方法識(shí)別性能有較大幅度的波動(dòng),而CS-LTPAT波動(dòng)幅度較小。尤其在4號(hào)樣本和7號(hào)樣本光照條件較差時(shí),CS-LTPAT仍保持較高的識(shí)別率。說(shuō)明了CS-LTPAT算子對(duì)差光源具有較好的魯棒性。圖3-圖5進(jìn)一步說(shuō)明了CS-LTPAT算法識(shí)別率高于LBP、CS-LBP和LTP算法。當(dāng)訓(xùn)練集光照條件較好時(shí),各算法均有較好的識(shí)別效果且CS-LTPAT方法識(shí)別率最高。當(dāng)訓(xùn)練集光照條件較差或者訓(xùn)練樣本單一時(shí),LBP,CS-LBP和LTP算法出現(xiàn)大幅度下降,而CS-LTPAT算法的識(shí)別率保持穩(wěn)定,體現(xiàn)了CS-LTPAT算法對(duì)光照變化的自適應(yīng)性。
綜合圖2-圖5可以得出,在光照較差時(shí),LBP算法的識(shí)別率最低,而CS-LTPAT算法的識(shí)別率最高。LBP算法之所以最低的識(shí)別率是由于LBP無(wú)法描述光照變化所引起的人臉間差異,因而人臉識(shí)別效果差。CS-LBP算法的識(shí)別率比LBP高,主要原因在于CS-LBP算法通過(guò)中心對(duì)稱(chēng)思想增強(qiáng)了對(duì)局部紋理描述的能力。LTP方法的識(shí)別率也高于LBP是由于LTP算子采用-1、0、1三個(gè)值編碼,并且算子本身自定義的一個(gè)閾值在一定程度上能夠均衡光照變化的影響。而本文算法的識(shí)別率優(yōu)于其他方法,說(shuō)明本文算法對(duì)光照變化有較強(qiáng)的自適應(yīng)性。產(chǎn)生這種結(jié)果的原因在于CS-LTPAT算子考慮了鄰域間的光照差異,把樣本鄰域像素均值與鄰域像素對(duì)比度的標(biāo)準(zhǔn)差作為閾值,使得算法動(dòng)態(tài)生成適應(yīng)于樣本的閾值,有效解決了因劇烈光照和不同樣本造成人臉差異的問(wèn)題。
圖3 Extended Yale B 人臉庫(kù)上子集set1作為訓(xùn)練集(%)
圖4 Extended Yale B 人臉庫(kù)上子集set4作為訓(xùn)練集(%)
圖5 Extended Yale B 人臉庫(kù)上單樣本圖像作為訓(xùn)練集(%)
3.4噪聲實(shí)驗(yàn)
為了驗(yàn)證本文所提算法具有較強(qiáng)的抗噪性,本實(shí)驗(yàn)分別在YALE、Extended Yale B兩個(gè)標(biāo)準(zhǔn)人臉數(shù)據(jù)庫(kù)上進(jìn)行對(duì)比實(shí)驗(yàn)。由于,現(xiàn)實(shí)中噪聲的來(lái)源非常復(fù)雜,并且每張圖像受噪聲污染的程度也是千差萬(wàn)別。因此,實(shí)驗(yàn)中的噪聲圖像是通過(guò)模擬噪聲完成。噪聲的模型選擇高斯白噪聲,其均值為0,歸一化標(biāo)準(zhǔn)差為λ,分別取0.01、0.04、0.1。實(shí)驗(yàn)分為原始圖像和噪聲圖像這兩種情況。 在YALE人臉數(shù)據(jù)庫(kù)上,隨機(jī)選取每人一幅圖像組成訓(xùn)練集,剩余圖像為測(cè)試集。實(shí)驗(yàn)結(jié)果如表2所示。在Extended YALE B中隨機(jī)選取每個(gè)子集里每人五張圖像組成訓(xùn)練樣本,其他的圖像做測(cè)試樣本,實(shí)驗(yàn)結(jié)果如表3所示。
表2 YALE人臉庫(kù)上的實(shí)驗(yàn)結(jié)果(%)
表3 Extend YALE B人臉庫(kù)上的實(shí)驗(yàn)結(jié)果(%)
由表2至表3的實(shí)驗(yàn)結(jié)果可見(jiàn),本算法的抗噪聲能力明顯要優(yōu)于LBP、CS-LBP和LTP方法。CS-LBP的抗噪性要好于LTP,LBP,而LTP要?jiǎng)儆贚BP。LBP算法的抗噪性差主要由于LBP算子采用鄰域像素與中心像素的對(duì)比度確定二值關(guān)系,二值模式易受噪聲的影響。LTP算法的抗噪性要優(yōu)于LBP算法是因?yàn)長(zhǎng)TP算子本身定義一個(gè)閾值,減小了LTP模式受噪聲干擾的程度。而CS-LBP算法的抗噪性好于LTP是由于CS-LBP算子不再考慮鄰域像素與中心像素的對(duì)比度,只比較基于中心像素對(duì)稱(chēng)的像素間對(duì)比度,大大地增強(qiáng)算子的抗噪能力。而本文算法的抗噪能力最強(qiáng)原因在于算法不僅應(yīng)用中心對(duì)稱(chēng)的思想,且引入鄰域均值和動(dòng)態(tài)閾值,極大地增強(qiáng)算法的抗噪性。
綜合上述實(shí)驗(yàn)來(lái)看,CS-LTPAT 算子提取的特征不僅維數(shù)低,具有良好實(shí)效性,而且對(duì)光照變化和噪聲變化不敏感。
本文在局部三值模式(LTP)的基礎(chǔ)上,提出了自適應(yīng)中心對(duì)稱(chēng)局部三值模式(CS-LTPAT)紋理特征提取算法。本文的工作主要包含3個(gè)方面:(1)提出了中心對(duì)稱(chēng)局部三值模式,該模式計(jì)算復(fù)雜度低,能適應(yīng)實(shí)時(shí)計(jì)算的需求;(2)引入鄰域均值增強(qiáng)算子的抗噪性能;(3)通過(guò)統(tǒng)計(jì)鄰域均值與鄰域周邊像素對(duì)比度的標(biāo)準(zhǔn)差,并將標(biāo)準(zhǔn)差作為動(dòng)態(tài)閾值,提高LTP算法的普適性。在YALE和Extended Yale B兩個(gè)標(biāo)準(zhǔn)人臉數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果表明,在光照變化不大時(shí),CS-LTPAT特征描述算法的識(shí)別精度比經(jīng)典LBP特征描述算法、CS-LBP特征描述至少高出3.5%,比LTP高出2.1%;在光照劇烈變化時(shí),CS-LTPAT的識(shí)別精度比LBP、CS-LBP至少高出10%,比LTP至少高出5%。當(dāng)人臉圖像存在噪聲時(shí);CS-LTPAT的識(shí)別精度比LBP、CS-LBP、LTP分別至少提高了13.85%,5.35%,8.30%。CS-LTPAT識(shí)別一張人臉的速度也分別達(dá)到了0.1984和0.3988 s。結(jié)果充分說(shuō)明了自適應(yīng)中心對(duì)稱(chēng)局部三值模式算法描述的人臉特征維數(shù)低、鑒別能力強(qiáng),對(duì)光照變化及噪聲干擾具有更強(qiáng)的魯棒性,有效提高了人臉識(shí)別的精度與速度。
[1] Zhao W,Chellappa R,Phillips P J,et al.Face recognition:a literature survey[J].Acm Computing Surveys,2003,35(4):399-459.
[2] Adani Y,Ullman S.Face recognition:the problem of compensating for the illumination direction[C]//Proceedings of European Conference on Computer Vision,1994:286- 296.
[3] Ojala T,Pietikainen M,Maenpaa T.Multi-resolution grayscale and rotation invarian texture classification with local binary patterns[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(7):971-987.
[4] Ahonen T,Hadid A,Pietikainen M.Face descirption with local binary pattenrs:application to face recognition[J].IEEE Trans Of Pattenr Analysis and Machine Intelligence,2006,28(12):2037-2041.
[5] 王瑋,黃菲菲,李見(jiàn)為,等.使用多尺度LBP特征描述與識(shí)別人臉[J].光學(xué)精密工程,2008,16(4):696-705.
[6] Guo Zhenhua,Zhang Lei,David Zhang.A completed modeling of local binary pattern operator for texture classification[J].IEEE Trans.on Image Processing,2010,19(6):1657-1663.[7] Zhang W C,Shan S G,Gao W,et al.Local Gabor Binary Pattern Histogran Sequence(LGBPHS):A Novel Non-statistical Model for Face Representation and Recognition[C]//Proc of the 8th Eurropean Conference on Computer Vision.Prague,Gzech Republic,2004:469-481.
[8] 袁寶華,王歡,任明武.基于完整LBP特征的人臉識(shí)別[J].計(jì)算機(jī)應(yīng)用研究,2012,29(4):1557-1559.
[9] 高濤,馬祥,白璘.采用自適應(yīng)加權(quán)擴(kuò)展LBP的單樣本人臉識(shí)別[J],光電子·激光,2012,23(4):782-790
[10] Jabid T,Kabir M H,Chae O.Local directional patern(LDP)-a robust image descriptor for Obeject Recognition[C]//Proc of 7th IEEE International Conference on Advanced Video and Signal Based Surveillance,2010:482-487.
[11] Z hang B,Gao Y,Zhao S,et a1.Local derivative pattern versus local binary pattem:face recognition with high-order local pattern descriptor[J].IEEE Transactions on Image Processing,2010,19 (2):533-544.
[12] Heikkila M,Pietikainen,Schmid C .Description of interest regions with local binary patterns[J].Pattern Recognition,2009,42(3):425-436.
[13] Tan Xiaoyang,Triggs B.Enhanced local texture feature sets for face recognition under difficult lighting conditions[J]. IEEE Trans.on Image Processing,2010,19(6):1635-1650.
[14] 霍天霖,王瑩.基于LTP子模式的人臉識(shí)別研究[J].吉林工程技術(shù)師范學(xué)院學(xué)報(bào),2012,28(5):77-80.
[15] 李偉生,王立逗,周麗芳.一種基于LTP自適應(yīng)閾值的人臉識(shí)別方法[J].小型微型計(jì)算機(jī)系統(tǒng),2014,35(9):2099-2103.
[16] 張軍,張奇志,周亞麗,等.基于局部Gabor三值模式的人臉識(shí)別[J].北京信息科技大學(xué)學(xué)報(bào),2013,28(2):71-75.
[17] 徐楠楠,李嵐,師飛龍.基于漢明約束和CLTP的人臉識(shí)別[J].信息通信,2014(4):45-47.
FACE RECOGNITION BASED ON CENTROSYMMETRIC LOCAL TERNARY PATTERN WITH ADAPTIVE THRESHOLD
Yan HeWang PuLiu JieChen Weidong
(College of Computer Science,Chongqing University of Technology,Chongqing 400054,China)
In this paper we propose a new method called centrosymmetric local ternary pattern with adaptive threshold (CS-LTPAT) to address the shortcomings of local ternary pattern in too high the histogram dimension and not being able to adaptively select threshold when describing the texture features of face image.First,the method encodes the face image with the dimension-lowered centrosymmetric local ternary pattern (CS-LTP) operator,and introduces the neighbourhood pixel mean value to encoding for enhancing the anti-noise performance; Secondly,it embeds the standard deviation of statistical neighbourhood average and neighbourhood surrounding pixel as the threshold to extract the facial feature adaptively,and counts the features histograms.Finally,it uses chi-square to measure the similarity of training sample features histogram and test sample features histogram,and employs the nearest neighbour classifier in recognition.The proposed approach is applied to YALE and Extended Yale B standard face database,result shows that the highest correct recognition rates reach 99.67% and 99.33% respectively,and the speed of identifying a face reach 0.1984s and 0.3988 s respectively.Experimental result demonstrates that the proposed method effectively improves the accuracy and speed of the face recognition,and is more robust on the illumination variation and noise.
Face recognitionCentrosymmetryLocal ternary patternAdaptive threshold
2015-03-24。國(guó)家自然科學(xué)基金面上項(xiàng)目(61173184);重慶理工大學(xué)研究生創(chuàng)新基金項(xiàng)目(YCX2013219)。閆河,教授,主研領(lǐng)域:圖像多尺度幾何分析,目標(biāo)跟蹤,模式識(shí)別等。王樸,碩士生。劉婕,碩士生。陳偉棟,碩士生。
TP391
A
10.3969/j.issn.1000-386x.2016.09.034