摘 要:本文針對(duì)考場(chǎng)場(chǎng)景中考生檢測(cè)問(wèn)題,提出了一種以頭肩肘特征作為考生識(shí)別依據(jù)的改進(jìn)的HOG算法。該算法使用多尺寸的Block和Cell,對(duì)于小目標(biāo)減小Cell尺寸及步長(zhǎng),使用2:1、1:1Block代替?zhèn)鹘y(tǒng)的1:1Block,使之有效檢測(cè)考生目標(biāo)。實(shí)驗(yàn)中經(jīng)過(guò)基于多尺寸HOG特征的SVM分類(lèi)器的精細(xì)驗(yàn)證,完成了考生頭肩肘的檢測(cè)識(shí)別,此算法準(zhǔn)確率高于82%。
關(guān)鍵詞:HOG、SVM;多尺寸HOG;頭肩檢測(cè)
中圖分類(lèi)號(hào):TP391.41
人體定位是智能考試監(jiān)控系統(tǒng)的前提。常用的人體定位大多是對(duì)人的整個(gè)身體、臉部、膚色或者運(yùn)動(dòng)進(jìn)行檢測(cè)[1-4]。然而考場(chǎng)場(chǎng)景中存在著由于桌椅對(duì)肘部以下的遮擋、長(zhǎng)發(fā)對(duì)面部的遮擋、攝像角度導(dǎo)致的遮擋以及運(yùn)動(dòng)幅度微小等問(wèn)題,傳統(tǒng)的人體定位方法很難準(zhǔn)確的檢測(cè)目標(biāo)。
在這種情況下,經(jīng)研究發(fā)現(xiàn)人體頭肩肘部通常體現(xiàn)得較為完整且頭肩肘輪廓相似度很高,容易與背景區(qū)分,可以作為人體目標(biāo)檢測(cè)的依據(jù)。頭肩檢測(cè)(Head-Shoulder Detection)通常應(yīng)用與復(fù)雜場(chǎng)景(商場(chǎng)、街道等)下的人體檢測(cè),由于檢測(cè)目標(biāo)較大,多選擇64×64或者128×64的檢測(cè)窗口[8-10]。但在考場(chǎng)場(chǎng)景中由于攝像頭俯視、頭肩肘的長(zhǎng)寬比例約為8:5而不是傳統(tǒng)的2:1等問(wèn)題,64×64的檢測(cè)窗口不能很好的發(fā)現(xiàn)目標(biāo),128×64的檢測(cè)窗口過(guò)大漏檢率非常高,因此傳統(tǒng)的HOG特征提取方法很難取得良好的檢測(cè)效果。故本文改進(jìn)HOG算法,采用多尺寸HOG(Block比例:1:1、2:1;Cell尺寸:8×8、4×4;檢測(cè)窗口64×40)代替Dalal HOG,在考場(chǎng)場(chǎng)景中采用頭肩肘輪廓類(lèi)似“凸”形狀作為參考特征,訓(xùn)練分類(lèi)器對(duì)視頻圖像進(jìn)行掃描判決并最終奪得檢測(cè)目標(biāo)。
1 相關(guān)目標(biāo)檢測(cè)算法
1.1 靜態(tài)目標(biāo)檢測(cè)算法
人臉檢測(cè)、膚色檢測(cè)是比較常用的靜態(tài)目標(biāo)檢測(cè)方法。如Yuille[2]等提出的基于幾何特征“彈性模板”和基于統(tǒng)計(jì)特征的“Fisher臉”[3]和汪國(guó)來(lái)等提出的自適應(yīng)模型和固定模型結(jié)合的膚色分割算法[4]。雖然上述方法均可以較好的定位人體目標(biāo),但由于考場(chǎng)場(chǎng)景下攝像頭通常由斜上方向下拍攝、考生低頭作答的特點(diǎn),很難獲得良好的面部和膚色特征故不能采用上述方法進(jìn)行考生目標(biāo)定位。
1.2 運(yùn)動(dòng)目標(biāo)檢測(cè)算法
常用的運(yùn)動(dòng)目標(biāo)檢測(cè)方法有幀差法、背景減除法、混合高斯背景建模法等前景提取算法。筆者就上述三種方法進(jìn)行了實(shí)驗(yàn),發(fā)現(xiàn)由于考場(chǎng)場(chǎng)景下考生運(yùn)動(dòng)幅度小,上述方法均不能很好的獲得考生完整的輪廓信息,實(shí)驗(yàn)結(jié)果如圖1。
圖1 運(yùn)動(dòng)目標(biāo)檢測(cè)算法獲得的前景
2 HOG描述子及計(jì)算方法
針對(duì)以上問(wèn)題,本文經(jīng)研究發(fā)現(xiàn)利用考生頭肩肘部側(cè)“凸”字型特征,采用HOG描述子對(duì)考生頭肩肘輪廓進(jìn)行描述,能夠有效的發(fā)現(xiàn)考生目標(biāo)。
方向梯度直方圖——HOG描述子(HOG descriptors)最初由Navneet Dalal和Bill Triggs[5]提出,對(duì)于行人檢測(cè)表現(xiàn)出優(yōu)良的性能。HOG描述子的基本思想是:在一幅圖像中,局部目標(biāo)的外觀和形狀能夠被梯度或邊緣的方向密度分布很好地描述。假設(shè)樣本圖像大小為64×64,將圖像分為256個(gè)大小為4×4的Cell,4個(gè)Cells組成一個(gè)Block(圖像、Block、Cell關(guān)系如圖2),對(duì)Cell中每個(gè)像素計(jì)算梯度,統(tǒng)計(jì)其方向梯度直方圖(將0~360°分為9個(gè)bin),將其歸一化至對(duì)應(yīng)的Block上就獲得了36維(4個(gè)Cell,每個(gè)Cell9個(gè)bin)的特征向量。綜上HOG描述子的計(jì)算方法為:(1)歸一化輸入圖像gamma和顏色空間。(2)計(jì)算像素梯度。(3)統(tǒng)計(jì)Cell的方向梯度直方圖。(4)在Block上歸范化直方圖[6]。
圖2 Cell、Block與圖像關(guān)系示意圖
2.1 gamma和顏色空間的歸一化
gamma和顏色歸一化的作用是調(diào)節(jié)圖像對(duì)比度,降低圖像局部的陰影和光照變化所造成的影響。但是在行人檢測(cè)實(shí)驗(yàn)[5]中卻發(fā)現(xiàn)該歸一化幾乎沒(méi)有提高性能(如圖3)。這是因?yàn)楹竺孢M(jìn)行的歸范化操作起到了相同的作用,所以一般在應(yīng)用HOG時(shí)都省略了gamma歸一化操作[6]。
圖3 原圖像與歸一化圖像檢測(cè)結(jié)果對(duì)比
2.2 像素梯度計(jì)算
對(duì)彩色圖像則分別計(jì)算各顏色通道的梯度,并選取 L2范數(shù)最大的那個(gè)作為像素的梯度向量[6]。
2.3 Cell、Block和圖像的方向梯度直方圖
本文用于檢測(cè)考場(chǎng)場(chǎng)景中的考生,故將方向角度考慮為0~180°,量化為9個(gè)方向的bin(如圖4)。因此計(jì)算Cell的方向梯度直方圖的方法為,對(duì)Cell內(nèi)每個(gè)像素以梯度為權(quán)重用梯度方向在直方圖中加權(quán)投影(也可采用三線插值),這樣得到了一個(gè)9維向量。將臨近的m×n個(gè)Cell組成一個(gè)Block,則一個(gè)Block得到一個(gè)m×n×9維向量。同理一幅圖像的HOG特征維度為圖像中Block的個(gè)數(shù)乘以m×n×9,就能能到整個(gè)圖像的方向梯度直方圖。Cell和Block的形狀可以為矩形或者放射狀(圓形或扇形),本位為方便計(jì)算選用矩形Cell及Block。
圖4 0~180°方向上量化為9個(gè)bin
2.4 適用于小目標(biāo)的HOG改進(jìn)方法
現(xiàn)實(shí)場(chǎng)景中的行人檢測(cè),通常目標(biāo)較大且忽略遠(yuǎn)距離行人,因此一般使用64×128的大檢測(cè)窗口。INRIA行人數(shù)據(jù)庫(kù)[5]提供96×160的行人樣本,MIT行人數(shù)據(jù)庫(kù)[7]提供64×128的行人樣本。而現(xiàn)實(shí)的考試場(chǎng)景中,由于距離遠(yuǎn)后方的同學(xué)會(huì)比較小,小于檢測(cè)窗口很難有效的檢測(cè)出考生目標(biāo)。
本文根據(jù)Dalal等提出的HOG基本原理,改變Cell和Block的大小和對(duì)應(yīng)比例,使之適應(yīng)考場(chǎng)場(chǎng)景中的小目標(biāo)檢測(cè)。本文先后嘗試128×64、96×60、80×48以及64×40的檢測(cè)窗口進(jìn)行檢測(cè),128×64與96×60的檢測(cè)窗口過(guò)大,對(duì)考場(chǎng)前方目標(biāo)具有很好的檢測(cè)結(jié)果,然而后方漏檢率很高。80×48的檢測(cè)窗口由于計(jì)算后HOG特征維度較低,不能很好的保留輪廓信息,檢測(cè)效果一般。最后選定檢測(cè)窗口大小為64×40,Cell為4×4,Block為16×8,以4×4步長(zhǎng)滑動(dòng)的檢測(cè)窗口既與場(chǎng)景中最小目標(biāo)大小相仿,又很好的保存了輪廓信息得到了比較好的檢測(cè)結(jié)果。
3 實(shí)驗(yàn)結(jié)果與分析
3.1 實(shí)驗(yàn)樣本
由于考試場(chǎng)景的特殊性,既有的INRIA[5]和MIT[7]的行人樣本不適用,因此建立了一個(gè)基于考生頭肩肘的數(shù)據(jù)庫(kù),數(shù)據(jù)庫(kù)包含68個(gè)正樣本和200個(gè)負(fù)樣本。正樣本通過(guò)網(wǎng)上搜集的考試照片截取,負(fù)樣本圖片在隨機(jī)選取的基礎(chǔ)上加入了不同考場(chǎng)環(huán)境中的非目標(biāo)區(qū)域(如墻壁、窗戶、桌椅等)以降低誤檢率,部分考生頭肩肘樣本如圖5,實(shí)驗(yàn)圖像拍攝于2012年上學(xué)期西南交通大學(xué)期末考試。
圖5 自建考生頭肩肘樣本庫(kù)部分正負(fù)樣本
3.2 訓(xùn)練過(guò)程
在基于HOG特征的目標(biāo)分類(lèi)訓(xùn)練中,SVM的效果最優(yōu)應(yīng)用也最為廣泛。線性SVM利用兩類(lèi)樣本數(shù)據(jù)的最大間隔作為劃分的超平面,運(yùn)算簡(jiǎn)單。本文選擇線性SVM(c=0.1)來(lái)對(duì)樣本中對(duì)應(yīng)的每個(gè)HOG特征進(jìn)行分類(lèi)訓(xùn)練,得到考生頭肩特征區(qū)域的分類(lèi)器。
3.3 實(shí)驗(yàn)結(jié)果
采用多尺寸HOG(Block比例:1:1、2:1;Cell尺寸:8×8、4×4)的考場(chǎng)場(chǎng)景下考生目標(biāo)檢測(cè)結(jié)果如圖3、圖6。為了更客觀的描述本文的檢測(cè)算法性能,筆者將考生檢測(cè)算法檢測(cè)多次并與常用算法進(jìn)行了對(duì)比試驗(yàn),對(duì)同一測(cè)試集進(jìn)行五次試驗(yàn)實(shí)驗(yàn)結(jié)果見(jiàn)表1,對(duì)比結(jié)果見(jiàn)表2。
表1 考生檢測(cè)測(cè)試結(jié)果
表2 多尺度HOG與傳統(tǒng)HOG對(duì)比
圖6 考生目標(biāo)檢測(cè)結(jié)果
4 結(jié)束語(yǔ)
本文針對(duì)考試場(chǎng)景下考生尤其是小目標(biāo)考生的頭肩肘部位進(jìn)行了識(shí)別研究,基于考生頭肩肘的側(cè)“凸”型輪廓特征,經(jīng)過(guò)基于多尺寸HOG特征的SVM分類(lèi)器的精細(xì)驗(yàn)證,完成了考生頭肩肘的檢測(cè)識(shí)別。實(shí)驗(yàn)結(jié)果表明該算法具有很好的檢測(cè)率。
參考文獻(xiàn):
[1]蘇松志,李紹滋等.行人檢測(cè)技術(shù)綜述[J].電子學(xué)報(bào),2012.
[2]Yu ille A L. D efo rm ab le tem p la tes fo r face recogn ition[J].J ou rna l of C og n itiv e N eu roscience,1989.
[3]Swets D,Weng J.U sing discrim inan teigenfea tu res fo r im age retrieva l[J].IEEE Transaction on Pattern Analysis and Mach in eIntelligence,1996.
[4]江國(guó)來(lái),林耀榮.自適應(yīng)模型和固定模型結(jié)合的膚色分割算法[J].計(jì)算機(jī)應(yīng)用,2010.
[5]Dalal N,Triggs B. Histograms of oriented grandients for human detection [C]//Conference on Computer Vision and Pattern Recognition(CVPR),2005.
[6]傅紅普,鄒北驥.方向梯度直方圖及其擴(kuò)展[J].計(jì)算機(jī)工程,2013.
[7]MIT Pedestrian dateset[DB].http://cbcl.mit.edu/cbcl/software-datasets/PedestrianData.html.
[8]顧炯,趙曙光,王宏斌.基于Joint HOG特征復(fù)雜場(chǎng)景下的頭肩檢測(cè)[J].電子設(shè)計(jì)工程,2012.
[9]芮挺等.基于高斯混合建模的多尺度HOG行人頭肩特征檢測(cè)[J].山東科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2013.
[10]汪成亮等.基于高斯混合模型與PCA-HOG的快速運(yùn)動(dòng)人體檢測(cè)[J].計(jì)算機(jī)應(yīng)用研究,2012.
作者簡(jiǎn)介:劉鸞,女,碩士在讀,主要研究方向:數(shù)字視頻圖像處理;黃文培,男,副教授,博士,主要研究方向:數(shù)字視頻圖像處理。
作者單位:西南交通大學(xué) 信息科學(xué)與技術(shù)學(xué)院,成都 610031