徐小龍+谷宇章+王營冠+胡珂立
摘 要: 為改善視頻監(jiān)控中人流量檢測的準(zhǔn)確性問題,提出一種利用頭發(fā)顏色特征的人流量跟蹤檢測方法。該方法對輸入圖像同時做如下兩個操作:基于頭發(fā)顏色特征的二值化和基于混合高斯模型的前景提取。對這兩者合并后的結(jié)果做特征判別就可以得到人頭區(qū)域。以人頭區(qū)域?yàn)槟繕?biāo)進(jìn)行跟蹤,分析運(yùn)動軌跡特征后可以判斷行人的進(jìn)出方向及數(shù)目。實(shí)驗(yàn)表明該方法在雙向行走、行人密集及背景干擾條件下均有很高的正確率。并且,每幀圖像平均處理時間只需20 ms,完全可以滿足實(shí)時處理的要求。
關(guān)鍵詞: 人流量實(shí)時檢測; 人頭識別; 目標(biāo)跟蹤; 顏色空間; 混合高斯模型
中圖分類號: TN911?34; TP391 文獻(xiàn)標(biāo)識碼: A 文章編號: 1004?373X(2014)07?0092?06
Method of people counting real?time detection based on color feature
XU Xiao?long, GU Yu?zhang, WANG Ying?guan, HU Ke?li
(Key Laboratory of Wireless Sensor Network & Communication, Shanghai Institute of Microsystem & Information Technology, CAS, Shanghai 201800, China)
Abstract: In order to improve the accuracy of the people counting detection in video surveillance, a people tracking and detection method based on hair color feature is proposed in this paper. The input images are processed with the following two operations at the same time: binarization based on hair color feature and foreground extraction based on Gaussian mixture model. Through analyzing the merging results of the two operations, head regions can be got. By tracking head regions and trajectory analysis, the moving direction and number of visitors will easily come to the judgment. The experimental result shows that the method has the high?accuracy even in the conditions of bidirectional moving, dense crowd or background interference. Furthermore, the average processing time for per frame is only 20 ms. It can fully meet the requirements of real?time processing.
Keywords: people counting real?time detection; head recognition; object tracking; color space; Gaussian mixture model
0 引 言
人流量的檢測與分析在視頻監(jiān)控領(lǐng)域有著廣泛的應(yīng)用,尤其像商場、車站、機(jī)場、體育館等公共場所都有著巨大的需求。實(shí)時且準(zhǔn)確地統(tǒng)計出人流量對于公共交通,智能安防,商業(yè)統(tǒng)計等領(lǐng)域都是非常有必要的。正因?yàn)槿绱?,人流量的檢測分析已經(jīng)成為近些年來計算機(jī)視覺領(lǐng)域研究的一項(xiàng)熱點(diǎn)。
從20世紀(jì)90年代以來,隨著計算機(jī)視覺技術(shù)的發(fā)展很多基于視頻的人流量檢測方法被提出來。一種具有代表性的方法是根據(jù)圖像的底層特征進(jìn)行建模統(tǒng)計場景中的人數(shù)[1?4]。提取的特征可以是特征點(diǎn)[5],分割好的區(qū)域[1?3,5],輪廓曲線[4, 6]等,然后利用聚類[3],神經(jīng)網(wǎng)絡(luò)[5],高斯回歸[4]等方法進(jìn)行建模統(tǒng)計出數(shù)目。Chen根據(jù)行人面積和HSI顏色信息跟蹤計算人數(shù)[7],達(dá)到了較好的實(shí)時性。Borislav Antic等人先用背景差分提取前景[3],然后基于Kmeans聚類估計行人數(shù)目,在特定的場景下獲得了不錯的效果。Yu等人提出了前景/背景邊緣模型(FBEM)[6],捕獲前景邊緣,進(jìn)行跟蹤計數(shù)。隨著機(jī)器學(xué)習(xí)技術(shù)的發(fā)展,一些基于目標(biāo)識別來統(tǒng)計人流的方法也被提出來,代表性的研究有Zeng和Ma提出來的基于多級HOG?LBP特征的頭肩檢測方法[8],Chen利用人體的對稱特性計算局部能量函數(shù)[9],再結(jié)合Meanshift方法跟蹤計數(shù),Wen采用AdaBoost訓(xùn)練出人頭檢測器[10],根據(jù)運(yùn)動人頭的特征去除干擾后實(shí)現(xiàn)人數(shù)統(tǒng)計?;谧R別的方法往往有著良好的檢測精度,但是運(yùn)算復(fù)雜度太高,不適合做實(shí)時處理?;诘讓犹卣骱突谀繕?biāo)識別這兩個方法都是在二維圖像中進(jìn)行處理,在遇到遮擋、背景變化、人流擁擠等復(fù)雜情景下檢測準(zhǔn)確率會大大降低,而基于立體視覺的方法可以很好地處理這些問題。近年來用立體視覺進(jìn)行人流量統(tǒng)計的技術(shù)逐漸獲得重視,尤其是簡便的深度相機(jī)(如微軟的Kinect、華碩的Xtion等)問世后更是加速了其發(fā)展,F(xiàn)u,Hsieh,Zhang,Oosterhout等人已在此方向做出了相關(guān)的研究[2,11?13]。
基于人頭的底層特征(顏色,形狀,大小等)來統(tǒng)計人數(shù)的方法具有運(yùn)算復(fù)雜度低,易于做到實(shí)時處理的優(yōu)點(diǎn),但是還是會存在色彩一致性[14](Color Constancy)和背景噪聲等問題?;谇熬疤崛〉姆椒?,在行人之間距離很近的時候,如何準(zhǔn)確地將運(yùn)動目標(biāo)分割是一個難點(diǎn)。實(shí)際應(yīng)用中,使用垂直地面俯拍的攝像頭檢測人流可以簡化場景復(fù)雜度,減少行人之間相互遮擋的現(xiàn)象。即使人流密集的情況下,行人的身體發(fā)生接觸,人頭之間也很少會發(fā)生遮擋現(xiàn)象。因此本文提出了一種攝像頭俯拍場景下,結(jié)合頭部顏色特征和運(yùn)動目標(biāo)檢測的人流量分析方法,可以達(dá)到快速準(zhǔn)確的檢測效果。
1 人流量統(tǒng)計方案
在本文提出的人流量檢測方案中,攝像頭采用垂直地面的方式安裝在天花板上,如圖1所示。首先,本方案需要在離線狀態(tài)下采集行人頭發(fā)顏色樣本,在不同顏色空間統(tǒng)計出有效的聚類區(qū)間。整個系統(tǒng)主要分成三個部分:行人檢測,行人跟蹤,行人計數(shù),具體方案流程圖如圖2所示。行人檢測部分,對輸入的彩色圖像同時進(jìn)行基于顏色特征的二值化操作和混合高斯背景差分操作,將兩者的結(jié)果融合并且做相關(guān)特征判別之后選擇出合適的人頭目標(biāo)區(qū)域。行人跟蹤部分,以檢測到的人頭區(qū)域?yàn)槟繕?biāo)進(jìn)行跟蹤,記錄運(yùn)動軌跡和Kalman預(yù)測。行人計數(shù)部分通過對運(yùn)動軌跡的分析判斷,過濾掉錯誤信息,得到行人的行走方向和數(shù)目。
圖1 視頻監(jiān)控環(huán)境示意圖
圖2 人流量檢測流程圖
本方案能在行人同向、逆向行走,行人密集,甚至肩搭著肩行走時做出正確判決。并且本方案結(jié)合顏色特征和背景差分提取的前景,可以過濾掉背景中的干擾顏色,穩(wěn)定性高,實(shí)時性好。
2 行人檢測
行人檢測是人流量檢測過程中最關(guān)鍵的部分,因?yàn)樗呛罄m(xù)行人跟蹤、行人計數(shù)的基礎(chǔ),快速準(zhǔn)確地檢測行人目標(biāo)也是本文的一個研究重點(diǎn)。本文采用顏色特征和混合高斯背景建模相結(jié)合的方法,既能減少僅使用顏色特征的色彩一致性問題[14]及靜態(tài)干擾問題,也能減少背景建模時造成的行人難以分割[3]的問題。
2.1 提取發(fā)色區(qū)域
顏色是人類對可見光的感知,通常使用三個獨(dú)立的線性分量表示顏色,這樣便構(gòu)成了三維的顏色空間。常見的顏色空間有RGB空間,HSV空間,LUV空間,YCbCr空間等,每種顏色空間都有各自適用的場景。
頭發(fā)顏色在一些顏色空間具有很好的聚類效果,Zhao和王長軍等人提出了在YCbCr空間進(jìn)行聚類[15?16],趙軍偉使用HSI空間進(jìn)行聚類[17]。本文對頭發(fā)顏色進(jìn)行樣本采集,并分別映射到如下顏色空間:HSV、LUV、YCbCr。本文采集大量發(fā)色樣本,使用240 349個發(fā)色像素點(diǎn),對灰度值及不同空間映射結(jié)果進(jìn)行了統(tǒng)計分析,如圖3所示。在灰度值,HSV空間的H分量,YCbCr空間的Cb、Cr分量和LUV空間的U、V分量均有很好的聚類效果。由于聚類特性會隨著亮度的變化而發(fā)生改變,為了弱化該影響,本文采用多個色彩分量結(jié)合的方式,共同確定人頭的有效區(qū)域。
根據(jù)采集的發(fā)色樣本,使用高斯混合概率模型對發(fā)色在不同色彩分量上的概率分布加以描述,從而根據(jù)發(fā)色信息對人頭區(qū)域進(jìn)行提取[15]。某一像素點(diǎn)[xi]的概率密度函數(shù)表達(dá)式如下:
[p(xi)=j=1Mαj(2π)mΣjexp-12(xj-μj)TΣ-1j(xj-μj)] (1)
式中:[αj]表示某一像素點(diǎn)第[j]個高斯分布的權(quán)值;[μj]和[Σj]分別表示樣本的均值和方差。混合高斯模型的參數(shù)估計最常用的方法是EM(Expectation Maximization)算法。使用EM估計參數(shù)后可以得到如表1所示的發(fā)色聚類區(qū)間。
根據(jù)表1的發(fā)色聚類區(qū)間對圖像進(jìn)行二值化。對于像素點(diǎn)[Pi,]當(dāng)它在不同色彩分量上的值分別位于各分量的聚類區(qū)間時,二值化后的結(jié)果為[Binary(Pi)=255,]否則[Binary(Pi)=0],如表達(dá)式(2)所示:
[Binary(Pi)=255,if g(Pi)∈RGray&H(Pi)∈RH&Cb(Pi)∈RCb&Cr(Pi)∈RCr&U(Pi)∈RU&V(Pi)∈RV0,others] (2)
其中[g(Pi)、][H(Pi)、][Cb(Pi)、][Cr(Pi)、][U(Pi)、][V(Pi)]分別表示像素點(diǎn)[Pi]在不同顏色分量上的數(shù)值。
由于二值化之后,圖像中可能會存在大量凹洞,凸起,點(diǎn)噪聲等現(xiàn)象,所以利用形態(tài)學(xué)中的閉操作,即先腐蝕將細(xì)小的凸起濾除,再膨脹填補(bǔ)細(xì)小的凹洞,這樣可以提高后續(xù)操作的效果。
表1 發(fā)色聚類區(qū)間
[顏色分量\&符號表示\&聚類區(qū)間\&灰度值\&[RGray]\&[9,40]\&H(HSV)\&[RH]\&[0,5]&[110,180]\&Cb(YCbCr)\&[RCb]\&[127,132]\&Cr(YCbCr)\&[RCr]\&[127,133]\&U(LUV)\&[RU]\&[95,100]\&V(LUV)\&[RV]\&[133,141]\&]
2.2 提取前景與合并
二值化之后可以得到滿足頭發(fā)顏色特征的區(qū)域,但是當(dāng)背景中也有相似的顏色則會形成干擾。本文使用自適應(yīng)的混合高斯背景建模法提取前景,再將前景與頭發(fā)區(qū)域進(jìn)行混合,從而過濾掉靜態(tài)背景中的相似顏色干擾。
當(dāng)行人稀疏的時候,相互之間沒有遮擋,所以背景差分提取出的前景不容易出現(xiàn)連通現(xiàn)象,判斷運(yùn)動目標(biāo)所在區(qū)域就變得容易。但是人流密集的情況下,不同目標(biāo)的前景往往會形成連通區(qū)域,造成無法準(zhǔn)確判斷單個目標(biāo)直接計數(shù)。很多研究者在前景分割上做出了相關(guān)研究,使用Kmeans聚類[3],根據(jù)面積大小劃分[7]等等,但準(zhǔn)確度都無法保障。本文攝像頭垂直地面架設(shè),人頭顏色區(qū)域形成連通的可能性是非常低的,所以發(fā)色區(qū)域與前景混合之后,既可以去除靜態(tài)背景中與頭發(fā)顏色相近的物體造成的干擾,又可以將前景圖像里的連通區(qū)域有效地分割。
在提取前景的時候需要注意,在提取出的運(yùn)動目標(biāo)內(nèi)部容易出現(xiàn)空洞現(xiàn)象,為了減小空洞對合并后效果的影響,需要使用較大的膨脹系數(shù)來做膨脹,即使膨脹后使得不同的目標(biāo)連通了也沒有關(guān)系。
2.3 特征判斷
上述操作完成之后想要判斷出人頭所在的區(qū)域還需要一系列的判決。首先混合之后得到的圖像會存在毛刺、空洞等問題,所以需要先使用形態(tài)學(xué)的方法對其進(jìn)行閉運(yùn)算(先膨脹再腐蝕)。接著提取閉運(yùn)算后圖像的邊緣輪廓,本文使用的是精度較好的canny算子。對于得到的輪廓序列,需要通過相關(guān)的特征判斷才能確定人頭所在的區(qū)域。
由于人頭近似為一個圓形,所以對于輪廓的判斷主要依據(jù)如下幾點(diǎn):[L:]輪廓的周長;[A:]輪廓包圍的面積;[B:]包含輪廓的最小矩形的面積;[Z:]占空比(A與B的比值);[C:]離散度([L2A])。
其中輪廓周長及面積與攝像頭的架設(shè)高度有關(guān)系,需要根據(jù)實(shí)際情況確定,占空比和離散度通常不會有大的變化。若假想人頭區(qū)域是一個標(biāo)準(zhǔn)圓,占空比的理論值為[π4≈0.79,]離散度的理論值為[4π≈12.6,]由于在周長為定值的時候所能圍成的圖形中圓形面積最大,所以12.6為離散度的最小值。通過實(shí)驗(yàn)比較發(fā)現(xiàn)占空比范圍選擇為0.6~1.0,離散度范圍選擇為12.6~22時效果較好。最終,符合這幾個判斷條件的輪廓便可以認(rèn)為是人頭的輪廓。得到輪廓后將輪廓填充,便得到了可以用來進(jìn)行目標(biāo)跟蹤的人頭區(qū)域。
3 行人跟蹤
行人檢測得到了圖像中的人頭區(qū)域,通過對人頭區(qū)域的跟蹤,可以進(jìn)而得到行人的數(shù)目和出入方向。將同一個目標(biāo)的位置信息按時間連接起來,便可得到該目標(biāo)的運(yùn)動軌跡。如果行人檢測的結(jié)果很理想,目標(biāo)的跟蹤也會變得簡單,但實(shí)際中可能會出現(xiàn)誤檢或漏檢,對此本文使用Kalman濾波器對行人的運(yùn)動軌跡進(jìn)行濾波和預(yù)測處理。
由于相鄰幀之間,同一個目標(biāo)的位移不會發(fā)生突變,所以對于一條軌跡,找出跟它的預(yù)測位置最近的點(diǎn)作為新的軌跡點(diǎn)是合理的。如圖4所示,假設(shè)在[t]時刻對某條軌跡用Kalman濾波器進(jìn)行預(yù)測,得到該軌跡[t+1]時刻的預(yù)測位置[Pt+1,][t+1]時刻距離[Pt+1]最近的目標(biāo)點(diǎn)為[Ct+1,]若滿足下面的條件就可以將[Ct+1]添加到該軌跡當(dāng)中:
[Dist(Pt+1,Ct+1)=(xp-xc)2+(yp-yc)2≤Max Dis] (3)
其中Max Dis表示預(yù)測位置與目標(biāo)位置之間允許的最大偏移量,具體的取值根據(jù)實(shí)際情況加以確定。如圖4(a)所示,[Ct+1]和[Ct+2]分別在預(yù)測軌跡點(diǎn)的Max Dis范圍之內(nèi),所以可以添加到運(yùn)動軌跡中。
圖4 跟蹤過程中的軌跡更新示意圖
若該軌跡沒有合適的目標(biāo)點(diǎn)滿足上述公式(3),則將Kalman預(yù)測的位置添加進(jìn)軌跡。如圖4(b)所示,[Ct+2]與軌跡預(yù)測點(diǎn)[Pt+2]的距離大于Max Dis,所以[Ct+2]不能加入已有的運(yùn)動軌跡,而是將預(yù)測值[Pt+2]添加進(jìn)運(yùn)動軌跡。同時,如果一條軌跡連續(xù)多幀沒有新的軌跡點(diǎn)進(jìn)入,則認(rèn)為該軌跡終止了,具體的閾值根據(jù)實(shí)際情況進(jìn)行選取,通常取值5~10 f便可以滿足要求。另外,如果存在某個目標(biāo)點(diǎn)不屬于任何已有的軌跡,那么就以該點(diǎn)新建一條軌跡。至此,根據(jù)以上的跟蹤結(jié)果,便可以進(jìn)一步對人流量進(jìn)行統(tǒng)計分析了。
4 行人計數(shù)
為了得到行人的運(yùn)動方向和數(shù)目,需要對得到的跟蹤軌跡進(jìn)行分析。首先需要定義目標(biāo)移動的方向,本文中定義平面圖中[y]增加的方向?yàn)檫M(jìn),減小的方向?yàn)槌觥?/p>
假設(shè)某一目標(biāo)的運(yùn)動軌跡為:
[Trace={(x0,y0),(x1,y1),…,(xn,yn)}] (4)
式中:[(x,y)]表示目標(biāo)在圖像中的坐標(biāo),根據(jù)Trace可以計算出軌跡的總長度為distance。目標(biāo)在[y]方向上的運(yùn)動速度可以近似用相鄰幀之間,目標(biāo)在[y]方向上的移動距離來表示:
[vy={y1-y0,y2-y1,…,yn-yn-1}] (5)
[vy]中正數(shù)的含義是運(yùn)動方向?yàn)槿?,?fù)數(shù)的含義是運(yùn)動方向?yàn)槌?,由此統(tǒng)計出[vy]中正數(shù)的個數(shù)為[m。]
根據(jù)軌跡長度distance和[mn]的比值可以判斷一個軌跡的出入情況:
(1) 當(dāng)distance[≥180&n≥15&mn≥0.7]時,判斷行人為進(jìn)入,進(jìn)入總?cè)藬?shù)加1;
(2) 當(dāng)[distance≥180&n≥15&0≤mn≤0.3]時,判斷行人為出去,出去總?cè)藬?shù)加1;
(3) 當(dāng)不滿足以上兩個條件時說明該軌跡為錯誤軌跡,將其剔除,不做計數(shù)。
對于上述判決條件中的數(shù)值,需要根據(jù)實(shí)際的視頻情況加以選取。
5 實(shí)驗(yàn)結(jié)果與分析
為了驗(yàn)證本文提出的人流量檢測方法,對多種不同類型的視頻進(jìn)行了測試,包括行人同向行走、逆向行走、肩并肩、前后緊跟,以及存在背景顏色干擾等情況。本實(shí)驗(yàn)在Windows 7操作系統(tǒng)下,使用Visual Studio+OpenCV實(shí)現(xiàn),計算機(jī)處理器為Intel酷睿2,主頻2.93 GHz,內(nèi)存4 GB,測試視頻大小為[480×360,]幀率為30 f/s。
如圖5(a)所示,為了準(zhǔn)確測試本文方案的檢測效果,在場景中故意擺入一個跟人頭的顏色及大小近似的背包作背景干擾。從圖5(b)中可以看到,原始視頻中三個行人的頭部區(qū)域被有效檢測出來,同時引入的干擾物體由于顏色與發(fā)色接近也被檢測出來。圖5(c)是使用混合高斯背景差分檢測出的前景圖,由于干擾物體是靜止的,所以沒有被檢測出來,而且原始圖像中的三個人緊挨在一起行走,前景圖像重疊在一起,難以分割。將圖5(b)和圖5(c)做與操作得到圖5(d),此時背景干擾已經(jīng)被濾除掉了,前景圖也因?yàn)轭伾卣鞯牟町惗挥行У胤指铋_來。接下來提取出目標(biāo)輪廓,并對其特征進(jìn)行分析,去除不合適的輪廓,得到人頭區(qū)域,結(jié)果分別見圖5(e)和圖5(f)。最后,對人頭區(qū)域進(jìn)行跟蹤計數(shù),效果見圖5(g)。
對于行人逆向行走、行人肩搭著肩行走和行人衣服與頭發(fā)顏色接近的情況,本文也做了實(shí)驗(yàn),結(jié)果如圖6所示,均有良好的檢測性能。實(shí)驗(yàn)場景下,本文方案在PC機(jī)上平均處理速度約為17 ms/f,可以滿足實(shí)時處理的需要,并且準(zhǔn)確率達(dá)到了95%以上。
6 結(jié) 語
本文提出了一種基于顏色特征的實(shí)時人流量檢測方法。通過對發(fā)色在不同顏色空間做出的聚類分析,可以準(zhǔn)確地檢測出圖像中的人頭區(qū)域,結(jié)合背景差分的方法既可以濾除背景干擾又可以將前景進(jìn)行分割。實(shí)驗(yàn)結(jié)果表明,該方案具有很好的實(shí)時性和準(zhǔn)確性,可以滿足視頻監(jiān)控領(lǐng)域的應(yīng)用要求。但是,當(dāng)行人戴帽子或者白發(fā)等情況發(fā)生時會降低本方案的檢測率,這是今后將著重研究的一個方向。同時,今后還將研究如何進(jìn)一步降低算法復(fù)雜度,使該方案能在前端硬件上做到實(shí)時處理。
參考文獻(xiàn)
[1] LEFLOCH D, CHEIKH F A, HARDEBERG J Y, et al. Real?time people counting system using a single video camera [J]. Proceedings of SPIE, 2008, 6811: 9?20.
[2] VAN OOSTERHOUT T, BAKKES S, KROSE B J A. Head detection in stereo data for people counting and segmentation [C]// proceedings of the International Conference on Computer Vision Theory and Applications (VISAPP). Moscow: [s.n.], 2011: 620?625.
[3] ANTIC B, LETIC D, CULIBRK D, et al. K?means based segmentation for real?time zenithal people counting [C]// Proceedings of 2009 16th IEEE International Conference on Image Processing. [S.l.]: IEEE, 2009: 2537?2540.
[4] CHAN A B, LIANG Z S J, VASCONCELOS N. Privacy preserving crowd monitoring: Counting people without people models or tracking [C]// Proceedings of IEEE CVPR. [S.l.]: IEEE, 2008: 1766?1772.
[5] KONG D, GRAY D, TAO H. A viewpoint invariant approach for crowd counting [C]// Proceedings of 2006 18th International Conference on Pattern Recognition. Hong Kong, China: ICPR, 2006, 1187?1190.
[6] YU Sheng?sheng, CHEN Xiao?ping, SUN Wei?ping, et al. A robust method for detecting and counting people [C]// Proceedings of 2008 International Conference on Audio, Language and Image Processing. [S.l.]: ICALIP, 2008: 1545?1549.
[7] CHEN T H, CHEN T Y, CHEN Z X. An intelligent people?flow counting method for passing through a gate [C]// Proceedings of 2006 IEEE Conference on Robotics, Automation and Mechatronics. [S.l.]: IEEE, 2006: 97?102.
[8] ZENG Cheng?bin, MA H. Robust head?shoulder detection by pca?based multilevel hog?lbp detector for people counting [C]// proceedings of the 2010 20th International Conference on Pattern Recognition. Istanbul: ICPR, 2010: 2069?2072.
[9] CHEN L, TAO J, TAN Y P, et al. People counting using iterative mean?shift fitting with symmetry measure [C]// Proceedings of 2007 6th International Conference on Information, Communications & Signal Processing. [S.l.]: ICICSP, 2007: 1075?1078.
[10] 文嘉俊,徐勇,戰(zhàn)蔭偉.基于AdaBoost和幀間特征的人數(shù)統(tǒng)計[J].中國圖象圖形學(xué)報,2011(9):1729?1735.
[11] FU H, MA H, XIAO H. Real?time accurate crowd counting based on RGB?D information [C]// proceedings of the 2012 19th IEEE International Conference on Image Processing (ICIP). Orlando, FL: IEEE, 2012: 2685?2688.
[12] HSIEH C T, WANG H C, WU Y K, et al. A kinect?based people?flow counting system [C]// 2012 International Symposium on Intelligent Signal Processing and Communications Systems. New Taipei, China: ISPACS, 2012: 146?150.
[13] ZHANG Xu?cong, YAN J, FENG S, et al. Water filling: unsupervised people counting via vertical kinect sensor [C]// Proceedings of 2012 IEEE Ninth International Conference on Advanced Video and Signal?Based Surveillance. Beijing: IEEE, 2012: 215?220.
[14] LUCEY S, SRIDHARAN S, CHANDRAN V. A suitability metric for mouth tracking through chromatic segmentation [C]// Proceedings of 2001 International Conference on Image Processing. [S.l.]: ICIP, 2001, 3: 258?261.
[15] ZHAO Ming, SUN Di?hua, HE H P. Hair?color modeling and head detection [C]// Proceedings of 2008 7th World Congress on Intelligent Control and Automation. Chongqing, China: ICA, 2008: 7773?7776.
[16] 王長軍.基于視頻的目標(biāo)檢測與跟蹤技術(shù)研究[D].杭州:浙江大學(xué),2006.
[17] 趙軍偉,侯清濤,李金屏,等.基于數(shù)學(xué)形態(tài)學(xué)和HSI顏色空間的人頭檢測[J].山東大學(xué)學(xué)報:工學(xué)版,2013(2):6?10.
[12] HSIEH C T, WANG H C, WU Y K, et al. A kinect?based people?flow counting system [C]// 2012 International Symposium on Intelligent Signal Processing and Communications Systems. New Taipei, China: ISPACS, 2012: 146?150.
[13] ZHANG Xu?cong, YAN J, FENG S, et al. Water filling: unsupervised people counting via vertical kinect sensor [C]// Proceedings of 2012 IEEE Ninth International Conference on Advanced Video and Signal?Based Surveillance. Beijing: IEEE, 2012: 215?220.
[14] LUCEY S, SRIDHARAN S, CHANDRAN V. A suitability metric for mouth tracking through chromatic segmentation [C]// Proceedings of 2001 International Conference on Image Processing. [S.l.]: ICIP, 2001, 3: 258?261.
[15] ZHAO Ming, SUN Di?hua, HE H P. Hair?color modeling and head detection [C]// Proceedings of 2008 7th World Congress on Intelligent Control and Automation. Chongqing, China: ICA, 2008: 7773?7776.
[16] 王長軍.基于視頻的目標(biāo)檢測與跟蹤技術(shù)研究[D].杭州:浙江大學(xué),2006.
[17] 趙軍偉,侯清濤,李金屏,等.基于數(shù)學(xué)形態(tài)學(xué)和HSI顏色空間的人頭檢測[J].山東大學(xué)學(xué)報:工學(xué)版,2013(2):6?10.
[12] HSIEH C T, WANG H C, WU Y K, et al. A kinect?based people?flow counting system [C]// 2012 International Symposium on Intelligent Signal Processing and Communications Systems. New Taipei, China: ISPACS, 2012: 146?150.
[13] ZHANG Xu?cong, YAN J, FENG S, et al. Water filling: unsupervised people counting via vertical kinect sensor [C]// Proceedings of 2012 IEEE Ninth International Conference on Advanced Video and Signal?Based Surveillance. Beijing: IEEE, 2012: 215?220.
[14] LUCEY S, SRIDHARAN S, CHANDRAN V. A suitability metric for mouth tracking through chromatic segmentation [C]// Proceedings of 2001 International Conference on Image Processing. [S.l.]: ICIP, 2001, 3: 258?261.
[15] ZHAO Ming, SUN Di?hua, HE H P. Hair?color modeling and head detection [C]// Proceedings of 2008 7th World Congress on Intelligent Control and Automation. Chongqing, China: ICA, 2008: 7773?7776.
[16] 王長軍.基于視頻的目標(biāo)檢測與跟蹤技術(shù)研究[D].杭州:浙江大學(xué),2006.
[17] 趙軍偉,侯清濤,李金屏,等.基于數(shù)學(xué)形態(tài)學(xué)和HSI顏色空間的人頭檢測[J].山東大學(xué)學(xué)報:工學(xué)版,2013(2):6?10.