賈其臣, 張 琦, 曹開發(fā), 謝慕君
(長(zhǎng)春工業(yè)大學(xué) 電氣與電子工程學(xué)院, 吉林 長(zhǎng)春 130012)
?
動(dòng)態(tài)視覺監(jiān)控系統(tǒng)人流量檢測(cè)
賈其臣, 張 琦, 曹開發(fā), 謝慕君*
(長(zhǎng)春工業(yè)大學(xué) 電氣與電子工程學(xué)院, 吉林 長(zhǎng)春 130012)
運(yùn)用混合高斯模型對(duì)背景進(jìn)行建模,然后實(shí)時(shí)更新背景,檢測(cè)出運(yùn)動(dòng)目標(biāo),采用改進(jìn)卡爾曼濾波對(duì)目標(biāo)位置進(jìn)行預(yù)測(cè),并與目標(biāo)實(shí)際位置進(jìn)行參數(shù)匹配,如果二者距離不大于閥值,則認(rèn)為二者為同一目標(biāo),否則為二個(gè)不同目標(biāo)。視頻圖像的人數(shù)統(tǒng)計(jì)實(shí)驗(yàn)驗(yàn)證了檢測(cè)方法的有效性。
人流量檢測(cè); 混合高斯模型; 卡爾曼濾波; 目標(biāo)計(jì)數(shù)
近年來(lái),隨著計(jì)算機(jī)視覺技術(shù)的發(fā)展,人流量檢測(cè)已成為各大科研單位的研究熱點(diǎn)。Malinovskiy Y[1]等提出從連續(xù)的圖像序列中判別出運(yùn)動(dòng)行人,然后進(jìn)行快速的計(jì)數(shù),達(dá)到人流量監(jiān)測(cè)的目的。而在目標(biāo)識(shí)別和跟蹤中,建立背景模型起關(guān)鍵作用。背景差分法[2]、幀間差分法[3]、光流法[4]這3種是當(dāng)前使用最多的背景提取算法,但它們各有優(yōu)點(diǎn)與缺點(diǎn)。孫洋[5]提出采用高斯背景建模和邊緣檢測(cè)技術(shù),通過(guò)提取目標(biāo)運(yùn)動(dòng)的區(qū)域以及其邊緣信息形成目標(biāo)區(qū)域,同時(shí)把頭部和肩部組合起來(lái)形成一形態(tài),構(gòu)建行人檢測(cè)模板,然后采用該行人檢測(cè)模板對(duì)檢測(cè)區(qū)域進(jìn)行匹配,統(tǒng)計(jì)行人,達(dá)到人流量監(jiān)測(cè)效果。姚金良[6]等提出虛擬門,通過(guò)統(tǒng)計(jì)其前景像素個(gè)數(shù)進(jìn)行人流量統(tǒng)計(jì),該方法包括:學(xué)習(xí)過(guò)程與計(jì)數(shù)過(guò)程。學(xué)習(xí)過(guò)程:采用行人檢測(cè)的方法提取場(chǎng)景中的行人模型,然后用線性把行人模型擬合為虛擬門上的點(diǎn)并賦予權(quán)重。在計(jì)數(shù)過(guò)程,該方法考慮虛擬門上前景像素的權(quán)重、運(yùn)動(dòng)矢量和方向等信息,逐幀統(tǒng)計(jì)虛擬門上的前景像素點(diǎn)數(shù),在特定時(shí)間內(nèi)積累的前景點(diǎn)數(shù)來(lái)統(tǒng)計(jì)通過(guò)虛擬門的人數(shù)。Garcia J[7]等通過(guò)檢測(cè)人體頭部,跟蹤頭部得到頭部候選區(qū)的運(yùn)動(dòng)軌跡,根據(jù)軌跡的方向更新來(lái)計(jì)數(shù),該方法在室內(nèi)具有良好的行人檢測(cè)效果。
文中針對(duì)室外進(jìn)行人流量計(jì)數(shù)。運(yùn)用混合高斯背景建模與卡爾曼迭代跟蹤進(jìn)行人流量監(jiān)測(cè)。
采用混合高斯模型[8]對(duì)目標(biāo)背景進(jìn)行提取,由多個(gè)高斯模型分布的集合表示每個(gè)像素值。其樣本通過(guò)以下獲得:
(1)
式中:Xt----第t幀圖像的像素值;
(x0,y0)----像素的位置;
I(x0,y0,i)----第i時(shí)刻在位置(x0,y0)的像素值。
Xt的高斯混合分布概率密度函數(shù):
(2)
式中:K----混合高斯模型的個(gè)數(shù);
ωk,t----t時(shí)刻第k個(gè)高斯分布的權(quán)值;
圖像的每個(gè)像素點(diǎn)的特征用5個(gè)高斯模型表示。高斯混合模型包括3個(gè)處理過(guò)程。
1.1 參數(shù)初始化
(3)
(4)
1.2 模型參數(shù)更新
當(dāng)?shù)玫叫碌膱D像時(shí),用新圖像上的每一個(gè)像素與該像素的高斯混合模型中的K個(gè)高斯分布分別進(jìn)行兩兩匹配,如果該新的像素Xt和該高斯分布中的某一個(gè)滿足式(5),則認(rèn)可該像素Xt與其高斯分布滿足匹配條件。
(5)
式中:μi,t-1----第i個(gè)高斯的分布第t-1時(shí)刻的均值;
δi,t-1----第i個(gè)高斯的分布第t-1時(shí)刻的標(biāo)準(zhǔn)差。
能與Xt相匹配的每一個(gè)高斯分布,其參數(shù)按下式進(jìn)行更新:
(6)
式中:α----用戶定義的學(xué)習(xí)率;
ρ----參數(shù)學(xué)習(xí)速率。
如果該像素Xt與任一個(gè)高斯分布都不能兩兩匹配,則可認(rèn)為出現(xiàn)新的高斯分布,則權(quán)重最小的高斯分布將被新的高斯分布替換。新的高斯分布的均值為μi,t,初始化一個(gè)較大的標(biāo)準(zhǔn)差σ0和一個(gè)較小的權(quán)重ω0。
1.3 目標(biāo)檢測(cè)
高斯分布中參數(shù)完成更新后,按照ωi,t/σi的比值由大到小對(duì)所存高斯分布進(jìn)行排序,最能代表背景的高斯分布排在序列的前面,按下式取前L個(gè)高斯分布為背景,這樣行人目標(biāo)就檢測(cè)出來(lái)了。
(7)
視頻圖像處理過(guò)程如下:
1)對(duì)視頻中的每幀圖像一一做去噪等預(yù)處理。
2)根據(jù)提取視頻的前40幀圖像,用高斯混合模型進(jìn)行背景訓(xùn)練。第40幀之后的視頻圖像需要更新其背景模型和參數(shù),并且利用該模型提取前景的目標(biāo)后,進(jìn)行開、閉運(yùn)算等形態(tài)學(xué)方法,檢測(cè)到的前景目標(biāo)是二值化圖像。文中以第一段視頻第275幀為例,原圖像及二值化效果分別如圖1和圖2所示。
圖1 原圖像
圖2 二值化圖像
3)對(duì)步驟2)提取的二值化圖像進(jìn)行中值濾波,消除了目標(biāo)周圍的噪聲點(diǎn)和圖像邊緣的毛刺,效果如圖3所示。
圖3 濾波后二值圖像
4)檢測(cè)出的目標(biāo)包括非行人目標(biāo)與行人目標(biāo),此時(shí)需要根據(jù)面積大小進(jìn)行判斷域,文中面積大于40認(rèn)定是行人。
2.1 卡爾曼濾波
目標(biāo)跟蹤[9-10]常用的方法是首先得到目標(biāo)的特征向量集,然后依靠特征集去尋找與其相應(yīng)匹配的目標(biāo)。文中提取行人的前景目標(biāo)圖像之后,對(duì)行人目標(biāo)跟蹤,采用區(qū)域的方法,將包含行人目標(biāo)的團(tuán)塊作為跟蹤區(qū)域[11],將該區(qū)域外界矩形的重心作為跟蹤特征。為提高跟蹤效率和跟蹤精度,文中引入了卡爾曼濾波算法對(duì)行人重心進(jìn)行跟蹤估計(jì)。
卡爾曼濾波器(Kalman Filtering)[12]是一種通過(guò)建立線性系統(tǒng)狀態(tài)方程,計(jì)算系統(tǒng)的輸入輸出數(shù)據(jù),對(duì)系統(tǒng)的狀態(tài)做最優(yōu)化估計(jì)算法。該算法利用當(dāng)前時(shí)刻的狀態(tài)對(duì)下一時(shí)刻的狀態(tài)做最優(yōu)狀態(tài)預(yù)估計(jì),卡爾曼濾波器具有良好的實(shí)時(shí)性,并且計(jì)算量較小的特點(diǎn)。其預(yù)測(cè)方程如下:
(8)
A----狀態(tài)轉(zhuǎn)移矩陣;
B----噪聲輸入矩陣;
U(t)----隨機(jī)噪聲序列。
2.2 改進(jìn)的行人跟蹤算法
為了對(duì)行人進(jìn)行有效跟蹤,文中為每個(gè)目標(biāo)設(shè)計(jì)了一個(gè)跟蹤器,對(duì)跟蹤器進(jìn)行實(shí)時(shí)更新計(jì)數(shù),假如A代表已經(jīng)被跟蹤的目標(biāo),B代表檢測(cè)出的目標(biāo),d為用卡爾曼濾波預(yù)測(cè)出的型心與檢測(cè)出的目標(biāo)型心之間的距離。由于行人在前后二幀之間的移動(dòng)距離不大,故可設(shè)定一閥值,當(dāng)移動(dòng)距離小于此閥值時(shí),可以認(rèn)定此距離對(duì)應(yīng)的被檢測(cè)的A目標(biāo)和被跟蹤的B目標(biāo)為同一目標(biāo),故為此目標(biāo)分配跟蹤器進(jìn)行跟蹤計(jì)數(shù),文中將閥值設(shè)定為30。在開始匹配時(shí),先求出所在的d值,將其加入跟蹤器,然后找到其中小于d,若d<30,則判斷Tp和Dq為同一目標(biāo),令Tp=Dq+30,繼續(xù)找出跟蹤列表中的最小值,重復(fù)以上判斷過(guò)程,直到所有d的值全部大于30,則此次匹配結(jié)束,對(duì)目標(biāo)進(jìn)行標(biāo)號(hào)計(jì)數(shù),如圖4所示。
圖4 跟蹤計(jì)數(shù)圖
根據(jù)上述原理,繪制視頻人數(shù)統(tǒng)計(jì)流程如圖5所示。
圖5 行人統(tǒng)計(jì)算法流程圖
在PC機(jī)(Intel i5-410U 1.70 GHz 4G內(nèi)存) MATLAB2014a上運(yùn)行,視頻圖像為320×240,在同一場(chǎng)景拍攝了6個(gè)AVI視頻片段進(jìn)行行人流量檢測(cè)實(shí)驗(yàn),每段視頻時(shí)長(zhǎng)1 min左右。采用圖5的流程圖步驟,實(shí)驗(yàn)結(jié)果見表1。
表1 行人人數(shù)統(tǒng)計(jì)結(jié)果
實(shí)驗(yàn)結(jié)果表明,上述算法可以實(shí)現(xiàn)動(dòng)態(tài)監(jiān)控視頻的人數(shù)統(tǒng)計(jì)。對(duì)單個(gè)行人或無(wú)遮擋的多個(gè)行人可以達(dá)到很好的計(jì)數(shù)效果。但是由于行人運(yùn)動(dòng)的無(wú)序性,在檢測(cè)區(qū)域停留引起目標(biāo)消失,人體相互遮掩以及光照產(chǎn)生的陰影干擾,對(duì)行人統(tǒng)計(jì)有一定的誤差。
采用混合高斯針對(duì)行人進(jìn)行背景建模提取運(yùn)動(dòng)目標(biāo),然后通過(guò)改進(jìn)卡爾曼跟蹤的方法,實(shí)現(xiàn)對(duì)單個(gè)行人或多個(gè)行人目標(biāo)的有效跟蹤計(jì)數(shù),實(shí)驗(yàn)證實(shí),文中設(shè)計(jì)的行人流量跟蹤統(tǒng)計(jì)方法可行有效。但是行人相互之間的遮擋,光照突變引起對(duì)背景干擾沒有得到很好的解決,造成計(jì)數(shù)有誤差,這一問(wèn)題還需要進(jìn)一步的科學(xué)實(shí)驗(yàn)研究解決。
[1] Malinovskiy Y, Zheng J Y, Wang Y H. A simple and model-free algorithm for real-time pedestrian detection and tracking[C]// The 86th Annual Meeting of the Transportation Rescarch Board, Washington,D. C:[s.n.] ,2007.
[2] Haritaoglu, Harwood D, Davis L S G. A human body part labeling system using sihouettes[C]// Fourteenth International Conference on Pattern Recognition,1998:77-82.
[3] Hong Bingrong, He Huaiqing. Research of waling and running locomotion control methods for virtual humans[J]. Chinese High Technology Letters,2001(3):91-95.
[4] Meyer D, Denzler J, Niemann H. Model based extraction of articulated objects in image sequences for gait analysis[C]// Proc IEEE International Conference on Image Processing, Santa Barbara,California,1997:78-81.
[5] 孫洋.視頻中行人快速檢測(cè)計(jì)數(shù)方法研究[J].數(shù)字技術(shù)與應(yīng)用,2013(11):84-85.
[6] 姚金良,錢翰博,汪澄.視覺自適應(yīng)行人計(jì)數(shù)[J].光電工程,2012(7):102-108.
[7] Garcia J, Gardel A, Bravo I, et al. Directional people counter based on heads tracking[J]. IEEE Computer Socity Press,2012,120:470-475.
[8] Stauffer C, Grmson W E L. Adaptive background mixture models for real-time tracking[C]// Proceeding of IEEE International Conference on Computer Vision and Pattern Recognition, Fort Colins, Colorado, USA: iEEE Computer Society,1999(2):246-252.
[9] Lee Munwai, Cohen I, Soon Kijung. Particle filter with analytical inference for hunman body tracking[C]//Proceeding of IEEE Workshop on Motion & Gmputing,2002:159-165.
[10] Collins R T. Mean-shift blob tracking through scale space[C]// Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recongnition, Madison, WI, USA:[s.n.],2003:234-240.
[11] 王唯合,王宏志,趙蘭英.運(yùn)動(dòng)目標(biāo)檢測(cè)跟蹤方法研究[J].長(zhǎng)春工業(yè)大學(xué)學(xué)報(bào):自然科學(xué)版,2007,28(4):411-414.
[12] 胡學(xué)剛,劉忠振.基于高斯模型和卡爾曼預(yù)測(cè)的檢測(cè)與跟蹤[J].計(jì)算機(jī)工程與設(shè)計(jì),2013,34(1):247-251.
Dynamic visual pedestrians flow measurement system
JIA Qichen, ZHANG Qi, CAO Kaifa, XIE Mujun*
(School of Electrical & Electronic Engineering, Changchun University of Technology, Changchun 130012, China)
Mixed Gaussian model is applied to build and update the background to detect the moving targets. With improved Kalman filter, target positions are estimated and then matched with the real position parameters. If the distance between the estimated and real is less than the threshold, we can conclude that the two positions are thesame object otherwise they are different. Statistic experiments of pedestrian flow based on video images verified the method.
traffic detection; Gaussian mixture model; Kalman filter; target counting.
10.15923/j.cnki.cn22-1382/t.2017.1.15
2016-11-17
吉林省科技廳基金資助項(xiàng)目(2015-25)
賈其臣(1989-),男,漢族,河南商丘人,長(zhǎng)春工業(yè)大學(xué)碩士研究生,主要從事圖像處理方向研究,E-mail:fendouxiaozi2015@sina.com. *通訊作者:謝慕君(1969-),女,漢族,吉林長(zhǎng)春人,長(zhǎng)春工業(yè)大學(xué)教授,博士,主要從事智能機(jī)械方向研究,E-mail:xmj666@163.com.
TP 391
A
1674-1374(2017)01-0079-05