劉甲甲,熊 鷹,李柏林,李 立
(西南交通大學(xué) 機械工程學(xué)院,四川 成都 610031)
鐵路基礎(chǔ)設(shè)施的智能監(jiān)控和檢測是鐵路提速發(fā)展的必然要求,基于計算機視覺的檢測技術(shù)是一種新型的鐵路交通解決方案,可以有效保證軌道交通工具的高效性和安全性,鐵路扣件的自動巡檢是其中一個重要組成部分。 扣件是連接鋼軌和軌枕使之形成軌排的部件,扣件的缺失可能釀成列車脫軌等重大事故,這對鐵路的運營安全造成了很大的威脅[1]。傳統(tǒng)的鐵路檢測一直依靠人工和靜態(tài)檢測,這種檢測缺乏實時性和準確性。近年來,針對鐵路軌道基礎(chǔ)設(shè)施自動化檢測的研究,國內(nèi)外學(xué)者進行了積極的探索,其中包括基于計算機視覺的扣件檢測算法[2-8]。例如,文獻[2]采用小波特征和多層感知器神經(jīng)分類實現(xiàn)扣件的檢測,但其檢測對象是六角螺栓扣件,對國內(nèi)主流鐵路扣件類型的檢測借鑒意義較小。文獻[6]采用方向場算法并利用模板匹配的思路檢測扣件狀態(tài),該方法對扣件定位精確度和圖像質(zhì)量要求較高,但實際鐵路線上采集的圖像受不均勻光照和相機視角等因素的影響,圖像質(zhì)量差異較大,匹配精度受到嚴重制約。文獻[7]提取扣件圖像的Harr-like特征用于扣件缺陷的檢測,該特征易受光照條件變化的影響,算法的實用性較差。本文針對計算機視覺在扣件檢測中的實際應(yīng)用,提出融合改進邊緣梯度特征IEOH(Improved Edge Orientation Histograms)和圖像局部宏觀紋理特征MSLBP(Macroscopic Local Binary Patterns)的魯棒性鐵路扣件狀態(tài)檢測算法。首先從軌道圖像中分割出感興趣的扣件子圖像,然后分別提取并將二者加權(quán)融合,最后利用貝葉斯壓縮感知的方法進行扣件的分類識別。算法流程如圖1所示。
圖1 扣件檢測算法工作過程
該方法的主要貢獻在于:
(1)設(shè)計一種濾波增強方法,獲取較為完整的扣件邊緣,相對于canny邊緣,在此基礎(chǔ)上提取的基于邊緣的IEOH特征,對于不同缺陷類型的扣件具有更強的分辨能力。
(2)模擬人眼視覺注意機制,提取扣件端部的宏觀紋理特征MSLBP作為互補特征,彌補單一邊緣特征的不足。
(3)采用層級加權(quán)融合的方式將IEOH和MSLBP特征融合,并利用貝葉斯壓縮感知BCS(Bayesian Compression Sensing)模型判斷待測試樣本的狀態(tài),完成扣件缺陷識別。
軌道圖像具有如下特征:
(1) 軌枕區(qū)域在圖像中沿豎直方向分布,其橫向分布位置具有一定的隨機性。
(2) 鋼軌區(qū)域沿水平方向分布,不同圖像中鋼軌位置在垂直方向的偏移量較小,可由經(jīng)驗值確定。
(3)扣件處于軌枕區(qū)域與鋼軌區(qū)域的交叉位置,安裝固定在軌枕上。
鋼軌的位置由經(jīng)驗值確定,軌枕的位置可根據(jù)文獻[4]的方法獲得,因此可根據(jù)鋼軌和軌枕的位置信息交叉定位扣件區(qū)域并分割出扣件區(qū)域子圖像,如圖2所示。鐵路線上采集的圖像中,扣件主要有以下3種狀態(tài)存在:第一類是扣件正常的圖像,第二類是扣件部分斷裂的圖像,第三類是扣件完全丟失的圖像。圖2為三種狀態(tài)下的扣件圖像。
圖2 3種不同狀態(tài)的扣件圖像
形狀特征作為圖像的核心特征之一,因其不隨光照和圖像顏色的變化而改變,被廣泛應(yīng)用于圖像檢索、分類等領(lǐng)域[9]。邊緣梯度特征通過統(tǒng)計扣件邊緣相應(yīng)的梯度信息形成特征矢量,能同時對扣件形狀和空間布局進行較好的描述。對象邊緣通常由canny算子檢測得到(canny算子相比其他邊緣檢測算子抗干擾能力強,可獲取更完整的邊緣信息),通過閾值的設(shè)定,將梯度值大于閾值的邊緣檢測出來。然而,自然環(huán)境下采集的扣件圖像受不均勻光照的影響,采用canny算子并設(shè)定固定閾值使得低照度、對比度較低的弱邊緣無法檢測出來,因此無法得到完整的扣件邊緣,在此基礎(chǔ)上提取的邊緣梯度特征效果也會被削弱。為此,設(shè)計了一種基于特定模板的圖像濾波增強方法獲取扣件邊緣,得到更為穩(wěn)定的扣件邊緣梯度特征。
對圖像局部區(qū)域分析可知,邊緣往往是圖像梯度發(fā)生強烈變化的地方,兩側(cè)像素灰度值發(fā)生較大變化,如圖3(a)所示,根據(jù)該局部特性設(shè)計一種基于模板的邊緣濾波增強方法。以半徑R=3、鄰域像素數(shù)N=8的模板為例(如圖3(b)所示,R、N的最優(yōu)值由實驗確定),假定中心像素處于扣件邊緣處,則其灰度值必高于位于某一側(cè)的3個鄰域像素的灰度值。借鑒二元模式描述局部紋理特征的方式[10],利用中心像素的灰度值對鄰域像素進行閾值化,若鄰域像素的灰度值小于中心像素的灰度值,則把鄰域像素的灰度值賦為0,否則賦值為1。統(tǒng)計鄰域內(nèi)像素點為0的個數(shù),如圖3(b)所示,若連續(xù)3個鄰域像素的值為0,則把中心像素點的值賦為0,否則賦值為1(若3個連續(xù)的藍色點位于中心像素點的一側(cè),認為該鄰域內(nèi)具有邊緣特征)。利用該模板遍歷扣件圖像,獲得扣件圖像的二值圖,如圖4(c)所示,圖像中扣件邊緣的線性特征得到增強后更加穩(wěn)定,相對于canny邊緣圖,圖像背景中無規(guī)律的隨機特征得到了較好的抑制。
圖3 預(yù)處理模板(R=3,N=8)
該方法具有以下優(yōu)點:
(1)對于不同光照條件下采集的圖像,通過灰度差即可描述圖像局部的灰度分布差異,無需知道具體的灰度差值大小,免除設(shè)置固定閾值對強、弱邊緣檢測不能兼顧的缺點。
(2)相對于邊緣檢測,該方法結(jié)合圖像局部邊緣線性分布的特點,通過模板濾波獲得更為完整的扣件邊緣信息,對于圖像中噪點的影響抵抗力更強。
圖4 扣件邊緣的濾波增強
如圖4(c)所示,扣件圖像相應(yīng)的二值邊緣能較好地反映扣件形狀,可利用扣件輪廓的邊緣梯度特征進行圖像特征描述。首先對其進行金字塔層級分割[11]。
計算各層級中圖像邊緣像素點的梯度方向,將梯度方向θ(x,y)在[0,180]的取值范圍量化成9個區(qū)間,分別統(tǒng)計θ(x,y)處于各區(qū)間內(nèi)的像素點個數(shù),并在各區(qū)間上累加各像素點梯度幅值作為該區(qū)間的權(quán)值,表示到梯度方向直方圖中。
逐級劃分圖像,隨著劃分級數(shù)的增加,IEOH特征對形狀的刻畫也越來越精細化和局部化。低層級的特征與高層級的特征聯(lián)立,使得全局特征與局部特征統(tǒng)一在一個特征矢量中。
自然場景下采集的圖像背景比較復(fù)雜,邊緣檢測后的圖像中除扣件邊緣外,一些背景邊緣信息難免會被統(tǒng)計到IEOH特征中,對扣件檢測識別率產(chǎn)生負面影響,因此單一的IEOH特征對扣件的識別率具有一定限制??紤]到扣件4個端部區(qū)域圖像對比度強,特征較為穩(wěn)定,且根據(jù)4個扣件端部各自的存在狀態(tài)可綜合判斷整個扣件的缺陷類型。因此加入反映扣件端部結(jié)構(gòu)分布狀況的宏觀紋理特征作為IEOH特征的互補特征,加權(quán)融合成穩(wěn)定的、分辨力更強的特征。
由于基本二元模式對紋理描述具有較好的可分辨性,得到了廣泛的應(yīng)用[12-15],但其只能表達圖像的微觀紋理模式。對于扣件子圖像,人眼所能區(qū)分的實質(zhì)上是扣件區(qū)域與周圍背景區(qū)域塊間的宏觀紋理差異。基于多區(qū)域塊的局部二元模式(MB-LBP)在宏觀紋理描述方面取得了較大突破[16],然而該算法直接利用子塊內(nèi)的像素灰度均值作為子塊的灰度值,不能有效表達采樣點中心像素包含的重要可分辨性信息。FREAK(Fast Retina Keypoint)算子采用高斯核函數(shù)平滑采樣點,且核函數(shù)的尺寸隨著采樣點與中心點的距離變化而改變,但其采樣方式弱化了中心像素點的作用[17]。另外,人眼近距離觀察目標時僅能辨析對象與背景間的局部差異,遠距離觀察才能分辯整體性差異。隨著人眼與被觀察對象之間距離的變化,人眼所關(guān)注的區(qū)域也是不斷變化的,所能區(qū)分的區(qū)域塊大小也隨之變化。結(jié)合這一視覺特性,在MB-LBP及FREAK的基礎(chǔ)上,設(shè)計模擬視覺注意機制的MSLBP采樣模式,首先利用中心點處圓形子塊的灰度密度值對鄰域內(nèi)各采樣點處圓形子塊的灰度密度值進行閾值化,并依據(jù)閾值化的結(jié)果產(chǎn)生級聯(lián)的二值字符串。為降低MSLBP特征的維度,將鄰域采樣點的個數(shù)N的值限定為N=8,即在任意采樣半徑上均布8個采樣點。MSLBP特征采樣模式通過(R,S)參數(shù)值的變化調(diào)整中心點與采樣點間的距離、采樣區(qū)域Patch的大小,獲得最佳的特征采樣方式。隨采樣半徑R(R≥3)的增大,圓形圖像子塊的直徑S增大,當R的值一定時,中心點和鄰域采樣點處的圓形子塊大小相同,拓撲關(guān)系如圖5所示。R與S間的關(guān)系符合
( 1 )
圖5 MSLBP特征采樣模式拓撲圖
對于中心點和鄰域采樣點處的密度值,由以該點為圓心、S為直徑的圓形Patch內(nèi)所有像素點的高斯平滑值來表達;對于Patch內(nèi)坐標不是整數(shù)位置的像素點,其灰度值采用雙線性插值的方式計算。MSLBP特征獲取的步驟為:
步驟1扣件端部的定位??奂菢藴使ぜ衫孟闰炍恢眯畔⒃诳奂D像上獲取扣件4個端部的位置,定位出4個大小均為35 Pixel×65 Pixel的區(qū)域,如圖6所示的紅色框區(qū)域。
圖6 扣件端部宏觀紋理特征提取示意圖
步驟2改進的局部二元模式特征。通過閾值化中心子塊和各鄰域子塊,由采樣區(qū)域的強度比較結(jié)果級聯(lián)而成一個二進制比特串,如圖6所示。中心像素點處的MSLBP紋理特征值為
( 2 )
式中:P(α)為中心點與第α個鄰域采樣點形成的配對采樣區(qū)塊;N為設(shè)定的描述子長度;T(P(α))為取值為0、1的二值函數(shù),定義為
( 3 )
為了將IEOH與MSLBP的特征優(yōu)勢最大程度地互補,借鑒文獻[19]提出的特征融合方法,根據(jù)兩類扣件特征的特點,采取層級加權(quán)融合的方法將其組成聯(lián)合直方圖,融合流程如圖7所示。
圖7 特征融合示意圖
結(jié)合扣件圖像的特征,將特征的融合設(shè)計成兩個層級的融合,其中第一個層級的融合為扣件端部產(chǎn)生的4個MSLBP特征矢量CMi的融合,融合方式為
( 4 )
式中:WMi表示特征矢量CMi的特征權(quán)重。
第二個層級為融合后的MSLBP特征與IEOH特征間的加權(quán)融合,WG代表特征權(quán)重,CI、CM分別代表邊緣梯度特征與融合后的宏觀紋理特征,融合方式為
CF=WGCI+(1-WG)CM
( 5 )
貝葉斯壓縮感知與原始的壓縮感知理論相比,其對于圖像特征提取階段引入的噪聲具有較強的容忍度,而且由于采用了相關(guān)向量機進行計算,算法具有快速性,這對于扣件的自動化實時檢測具有重要意義[20]。BCS通過估計稀疏系數(shù)矢量,獲得θ的最大后驗概率估計,并據(jù)此進行扣件的分類識別。
Y=Dθ+n
( 6 )
由扣件訓(xùn)練樣本的圖像IEOH_MSLBP特征組成CS字典,因此CS字典的稀疏性是指全部訓(xùn)練樣本組成空間所呈現(xiàn)的稀疏性。扣件分類識別的過程實質(zhì)是使用不同類別的扣件訓(xùn)練樣本來決定待測試樣本的最佳類別??紤]來自類別i的所有ni個樣本,且特征矩陣Hi=[xi,1xi,2…xi,n]∈RM×n,M表示扣件樣本的特征維度。文獻[11]表明待測試樣本y可以表示成Hi中元素的線性組合。
y=βi,1xi,1+βi,2xi,2+…+βi,nxi,n
( 7 )
由于待測樣本的類別未定,矩陣H應(yīng)包含所有k類樣本,即矩陣H的列被定義為
H=[H1H2…Hk]=
[x1,1x1,2…xk,nk]∈RM×k
( 8 )
理想情況下,β中非零值的位置應(yīng)該與H矩陣中扣件類型和待測樣本y類型相同的元素對應(yīng)。然而由于圖像特征提取階段不可避免地引入噪聲,β中屬于其他扣件類型的元素也可能非零。因此,在計算過程中,為避免被此類干擾項影響,繼續(xù)計算β中對應(yīng)某一訓(xùn)練類別的所有元素的L2范數(shù)[21],并判斷具有最大L2范數(shù)的訓(xùn)練類別為待測試樣本y的類別,以增強算法分類的魯棒性,其數(shù)學(xué)定義為
( 9 )
本文實驗數(shù)據(jù)均為昆明鐵路局軌檢車在楚雄—大理區(qū)段采集,圖8為檢測車與車載圖像采集系統(tǒng)、數(shù)據(jù)處理系統(tǒng),車載圖像采集平臺采用加拿大DALSA公司生產(chǎn)的CR-GM00-H1400高速相機, 該相機分辨率為1 400×1 024,在全分辨率情況下可達75幀/s,理論最高巡檢速度為170 km/h,軌檢車拍攝圖像時速度為110 km/h,由于采用總體快門技術(shù),所采集圖像無運動畸變。由于圖像是在開放的自然條件下采集,相機視場光照由LED頻閃光源和自然光(隨時間不斷變化)組成,所采集的圖像存在嚴重的光照不均勻問題,隧道內(nèi)無陽光照射,僅靠車載 LED 光源提供照明,也是一種特殊的工況,各工況下采集的圖像如圖 2所示。因此,不同光照條件下采集的圖像狀態(tài)差異性很大,對扣件分類識別算法具有較大的挑戰(zhàn)性。
圖8 車載扣件自動巡檢系統(tǒng)
測試集由1 500幀扣件圖像組成,其中扣件正常的樣本圖像1 100張,扣件斷裂、扣件丟失兩類樣本圖像各200張。顯然這3類樣本圖像數(shù)據(jù)間存在數(shù)據(jù)不平衡。為此,從各類樣本分別取出100張組成訓(xùn)練樣本,并將剩余的扣件正常的樣本平均劃分為10份, 每份100張,分別與剩余的100張扣件斷裂樣本和 100張扣件丟失樣本構(gòu)成10組測試集。利用本文提出的算法對10次分類結(jié)果求平均值, 獲得最終的扣件狀態(tài)分類識別率。模擬實驗在Core(TM)2.00 GHz CPU,2.00 GB內(nèi)存的計算機上進行,通過Matlab R2011a模擬仿真。
前文已驗證濾波增強算法相對于canny邊緣檢測在提取扣件邊緣方面的優(yōu)越性,但仍需驗證濾波邊緣對于提取圖像特征的影響。因此分別用濾波增強的方法和canny算子獲取扣件邊緣,然后在各自的基礎(chǔ)上提取邊緣梯度特征,并用貝葉斯壓縮感知作為分類器,通過最終的扣件識別率檢驗兩種邊緣獲取方法的優(yōu)劣。選用前3組測試集作為測試對象,測試結(jié)果見表1。
表1 前3組測試集上的測試結(jié)果
從表1可以得出,在濾波增強邊緣基礎(chǔ)上提取的IEOH特征,可在扣件數(shù)據(jù)測試集上獲得更高的分類識別率,相對于基于canny邊緣的梯度特征,平均準確率高出約5%。因為濾波增強方法獲得圖像中的扣件邊緣更完整,且背景中無規(guī)律的隨機特征被較好地抑制,因此,在其基礎(chǔ)上提取的IEOH特征更加穩(wěn)健,特征矢量中包含的冗余信息明顯降低,使各類扣件之間的分辨力得到增強。
MSLBP特征采用中心點、采樣點處局部區(qū)域塊的整體灰度值作比較,獲得中心點、采樣點處于不同位置關(guān)系時局部區(qū)域間的差異,并通過調(diào)整(R,S)參數(shù)的值,模擬人眼視覺捕捉有效的各向異性信息,比原始的二元模式特征更具有一般性。(R,S)參數(shù)值對特征的有效性影響較大,調(diào)整中心點與采樣點間的距離以及采樣區(qū)域的大小,直接影響著參與比較的區(qū)域塊的選擇,將(R,S)調(diào)整到最優(yōu)值,可更好地描述扣件自身與背景間的區(qū)域性差異。實驗以前3組測試集為測試對象,提取不同(R,S)參數(shù)設(shè)置時的扣件端部MSLBP特征,再利用貝葉斯壓縮感知的方法進行分類測試,通過識別率的優(yōu)劣確定(R,S)參數(shù)對的值,測試結(jié)果見表2。
表2 (R,S)參數(shù)對的設(shè)置對識別率的影響
表2展示了(R,S)不同取值時的扣件識別率,當(R,S)的值為(6,7)時,在各組測試集上的正確識別率最高。因此,后續(xù)的實驗中將參數(shù)對的值設(shè)定為R=6,S=7。此外,利用MSLBP宏觀紋理特征對扣件圖像進行分類識別可以獲得較高的識別率。
通過以上實驗,IEOH和MSLBP特征的參數(shù)已最優(yōu)化,現(xiàn)對兩者融合特征的有效性做進一步驗證。以10組測試集為測試對象,將基于融合特征的測試結(jié)果分別與單獨使用改進IEOH特征或MSLBP特征時的測試結(jié)果進行比較。表3中,IEOH、MSLBP以及融合特征在各組測試集上均表現(xiàn)出較強的魯棒性,基于融合特征的測試識別率明顯優(yōu)于使用單一特征。融合特征在10組測試集上的平均準確率為97.6%。
表3 10組測試集的測試結(jié)果
將本文所提方法與國內(nèi)外幾種主流的扣件檢測算法相比較,為保證對比實驗的客觀性,本文復(fù)現(xiàn)了相關(guān)文獻中的算法,且實驗數(shù)據(jù)均采用本文收集的10組測試集,各種算法的測試結(jié)果見表4。文獻[4]提取邊緣特征,采用近鄰算法獲得95.3%的識別率;文獻[6]采用方向場和模板匹配的方法,扣件識別率為91.7%;文獻[7]提取Harr-like特征,在Adaboost算法的基礎(chǔ)上獲得92.5%的識別率;本文所提方法獲得97.6%的分類準確率,檢測準確率相對較高。此外,本文所提方法更具有實用意義,分析其原因為:
(1)文獻[4,6,7]中數(shù)據(jù)集各有差異,但樣本情況總體較為簡單,而本文所用測試集是由實際線路上采集得到,基本上包含了實際鐵路線路上的各類扣件形態(tài),樣本狀態(tài)更為復(fù)雜,這對圖像特征和分類算法都是較大的挑戰(zhàn),檢測結(jié)果也更能反映實際情況。
(2)根據(jù)實驗總結(jié)可知,扣件正常和扣件丟失的圖像樣本因為類間距離較大容易被分類識別,而扣件部分斷裂的圖像樣本難以被分類識別。實際線路上絕大多數(shù)的扣件是正常的,直接采用線路上某里程段內(nèi)的扣件樣本進行測試,只要能把正常的扣件正確分類,仍然可以獲得較高的識別率,然而這樣就會出現(xiàn)檢測準確率高但扣件部分斷裂的樣本漏檢情況。因此,本文充分考慮了測試集中各類樣本數(shù)量上的均衡性,并統(tǒng)計各類測試樣本的平均準確率,測試結(jié)果能更好地檢驗算法的性能,文獻[4,6,7]在這方面未做進一步的實驗。
表4 相關(guān)文獻中報道的扣件識別率
針對鐵道扣件狀態(tài)分類識別問題,提出一種基于計算機視覺技術(shù)和貝葉斯壓縮感知的目標識別方法,該方法在特征提取和圖像分類算法方面取得了較大的提升,在測試集上的平均識別率達到97.6%,檢測準確率較高。然而文中所用測試集中的樣本數(shù)據(jù)量畢竟有限,未必能全面地反映實際線路上的情況,實際線路上測試的圖像數(shù)據(jù)受陰雨、強陽光等極端天氣條件的影響,圖像質(zhì)量差異更大,因此,針對極端天氣的扣件檢測方法研究仍是下一步研究的重點和難點。目前以本文所提算法為基礎(chǔ)研發(fā)的車載軌道巡檢系統(tǒng)已在昆明鐵路局試用,巡檢速度可達到120 km/h,巡檢系統(tǒng)的檢出效率和檢測效果均遠高于人工步行巡道。其高效、精細的自動化巡檢可在很大程度上提升工務(wù)設(shè)備維護的工作效率。另外,通過提升計算機硬件水平,系統(tǒng)同樣可應(yīng)用于高速無砟軌道的扣件動態(tài)巡檢。
參考文獻:
[1]余自若,袁媛,張遠慶,等.高速鐵路扣件系統(tǒng)彈條疲勞性能研究[J].鐵道學(xué)報,2014,36(7):90-95.
YU Ziruo,YUAN Yuan,ZHANG Yuanqing,et al.Fatigue Properties of Elastic Bars of Fastening Systems Installed with High-speed Railways[J].Journal of the China Railway Society,2014,36 (7):90-95.
[2] MARINO F,DISTANTE A,MAZZEO P L,et al.A Real-time Visual Inspection System for Railway Maintenance:Automatic Hexagonal-headed Bolts Detection[J].IEEE Transactions on Systems Man & Cybernetics Part C,2007,37(3):418-428.
[3]ZHANG H B,YANG J F,TAO W,et al.Vision Method of Inspecting Missing Fastening Components in High-speed Railway[J].Applied Optics,2011,50(20):3 658-3 665.
[4]許貴陽,史天運,任盛偉,等.基于計算機視覺的車載軌道巡檢系統(tǒng)研制[J].中國鐵道科學(xué),2013,34(1):139-144.
XU Guiyang,SHI Tianyun,REN Shengwei,et al.Development of the On-board Track Inspection System Based on Computer Vision[J].China Railway Science,2013,34(1):139-144.
[5]LI Q Y,REN S W.A Real-time Visual Inspection System for Discrete Surface Defects of Rail Heads[J].IEEE Transactions on Instrumentation & Measurement,2012,61(8):2 189-2 199.
[6]YANG J F,TAO W,LIU M H,et al.An Efficient Direction Field-based Method for the Detection of Fasteners on High-speed Railways[J].Sensors,2011,1(8):7 364-7 381.
[7]XIA Y Q,XIE F Y,JIANG Z G.Broken Railway Fastener Detection Based on Adaboost Algorithm[C]//International Conference on Optoelectronics and Image Processing.New York:IEEE Press,2010:313-316.
[8] LI Y,OTTO C,HAAS N,et al.Component-based Track Inspection Using Machine Vision Technology[C]//International Conference on Multimedia Retrieval.New York:ACM Press,2011:1-8.
[9] AMANATIADIS A,KABURLASOS V G,GASTERATOS A,et al.Evaluation of Shape Descriptors for Shape-based Image Retrieval[J].IET Image Process,2011,5(5):493-499.
[10]GUO Z H,ZHANG L,DAVID Z.A Completed Modeling of Local Binary Pattern Operator for Texture Classification[J].IEEE Transactions on Image Processing,2010,19 (6):1 657-1 663.
[11]BAI Y,GUO L H,HUANG Q H,et al.A Novel Feature Method Using Pyramid Histogram of Orientation Gradients for Smile Recognition[C]//IEEE International Conference on Image Processing.New York:IEEE Press,2009:3 305-3 308.
[12] AHONEN T,HADID A,PIETIKAINEN M.Face Description with Local Binary Patterns:Application to Face Recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,28 (12):2 037-2 041.
[13]LIAO S C,ZHAO G Y,KELLOKUMPU V,et al.Modeling Pixel Process with Scale Invariant Local Patterns for Background Subtraction in Complex Scenes[C]//2010 IEEE Conferenc on Computer Vision and Pattern Recognition(CVPR).New York:IEEE Press,2010:1 301-1 306.
[14]LEI Z,LIAO S C,PIETIKAINEN M,et al.Face Recognition by Exploring Information Jointly in Space,Scale and Orientation[J].IEEE Transactions on Image Processing,2011,20(1):247-256.
[15]ZHAO G Y,AHONEN T,MATAS J,et al.Rotation-invariant Image and Video Description with Local Binary Pattern features[J].IEEE Transactions on Image Processing,2012,21(4):1 465-1 477.
[16]ZHANG L,CHU R F,XIANG S M,et al.Face Detection Based on Multi-block LBP Representation[J].Lecture Notes in Computer Science,2007,4642:11-18.
[17]ALAHI A,ORTIZ R,VANDERGHEYNST P.FREAK:Fast Retina Keypoint[C]//2012 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).New York:IEEE Press,2012:510-517.
[18] LI S Z.Markov Random Field Modeling in Image Analysis[M].Berlin:Springer-Verlag,2001.
[19]SU Y,SHAN S G,CHEN X L,et al.HieraRchical Ensemble of Global and Local Classifiers for Face Recognition[J].IEEE Transactions on Image Processing,2009,18(8):1 885-1 896.
[20]ZHANG K H,ZHANG L,YANG M H.Real-time Compressive Tracking[C]//European Conference on Computer Vision.Berlin:Springer Berlin Heidelberg,2012:864-877.
[21]WRIGHT J,YANG A Y,GANESH A,et al.Robust Face Recognition Via Sparse Representation[J].IEEE Transactions on Analysis and Machine Intelligence,2009,31(2):210-227.