符鋅砂 王祥波 李海峰 孟慶昕
(1.華南理工大學(xué) 土木與交通學(xué)院,廣東 廣州510640;2.中南大學(xué) 土木工程學(xué)院,湖南 長沙410075;3.中交宇科(北京)空間信息技術(shù)有限公司,北京100101)
如何快速、有效、準(zhǔn)確地獲取交通對象是高速公路視頻監(jiān)控系統(tǒng)的關(guān)鍵.如果能準(zhǔn)確檢測出高速公路監(jiān)控環(huán)境下的各種運動目標(biāo),就可以對所獲取的目標(biāo)進行跟蹤,獲取跟蹤對象的運動參數(shù)等信息.從而可以根據(jù)所獲取對象的幾何特征來判斷目標(biāo)是屬于哪一種運動物體,例如車輛、非機動車、行人等.同時,也可以對一些異常事件自動報警,如高速公路上的非法停車、交通擁堵緩慢、高速公路出口逆行等常見的事件.
在運動目標(biāo)檢測方面,目前應(yīng)用較為廣泛的有差分法、光流法等.隨著研究的深入,近年也出現(xiàn)了一些比背景差分更高級、更準(zhǔn)確的運動目標(biāo)的檢測算法,如利用HOG、Gabor、Haar[1-4]等特征,并采用神經(jīng)網(wǎng)絡(luò)[1]、SVM[1]、隱馬爾科夫模型[5]等分類算法實現(xiàn)運動目標(biāo)的檢測[6].盡管如此,背景差分法作為一種相對舊的運動目標(biāo)提取算法[7],由于具有較小的計算復(fù)雜度,且可以達到較好精度,應(yīng)用仍然比較廣泛.
傳統(tǒng)的背景差分算法存在較大局限性,該法最初采用固定閾值,對于高速公路等場景變化較為頻繁或者光照影響較強的監(jiān)控場所來說,準(zhǔn)確檢測車輛等交通對象就變得非常困難.有很多關(guān)于背景差分算法的改進,主要是針對背景模型進行改進,包括時序均值模型[7]、高斯混合模型(GMM)等[8].但是這些算法應(yīng)用在高速公路監(jiān)控中的效果都不是很好,很難將燈光變化頻繁的場景中的車輛提取出來.因此迫切需要找到另一種改進算法來滿足高速公路智能監(jiān)控的要求.
文中提出一種新的運動目標(biāo)的檢測算法.首先對背景模型進行改進,并通過分析差分圖像的灰度直方圖,提出一種新的自適應(yīng)閾值的算法.由于此算法是針對每一幀圖像對應(yīng)的差分圖像進行分析,會產(chǎn)生隨時間變化的自適應(yīng)閾值,可以避免使用一個固定值來區(qū)分背景和前景所造成的混亂.同時,針對高速公路監(jiān)控的實際情況,夜間路面及周圍物體反光容易形成假目標(biāo)的問題,文中通過分析差分圖像的梯度分布排除這些假目標(biāo)的干擾.
目前國內(nèi)外關(guān)于背景差分算法的改進主要集中在兩個方向:一是背景模型的改進[9-11];二是閾值判斷條件的改進[12].
文中主要分析兩種背景模型,分別是Wren 等[7]提出的時序均值序列模型和高斯混合模型[8].
時序均值背景模型是將每一個像素點在過去n幀的分布看成是獨立的,且服從高斯分布.當(dāng)新的一幀圖像需要添加到背景中時,以一個時序平均值來表示,即
式中,μt、μt-1分別為t、t -1 時刻背景圖像,It為t 時刻當(dāng)前幀圖像,α 為學(xué)習(xí)率,其選擇決定背景的穩(wěn)定性和更新的速度,如何選擇一個合適的學(xué)習(xí)率需要通過實驗來獲得.
高斯混合模型是將某一像素點的顏色變化分為K 個狀態(tài),每一個狀態(tài)都服從高斯分布,而這個像素點的分布則是這K 個高斯分布的加權(quán)平均.K 個狀態(tài)中有一部分是表示背景的,另外一部分表示運動前景.K 值越大,處理波動的能力越強,但是處理的時間也長.在實際應(yīng)用中K 值范圍通常取3、4 或5[8].每個像素點用一個變量xt來表示,其概率密度函數(shù)可以表示為
式中,η(xt| μi,t,σi,t)是t 時刻第i 個高斯分布,其均值為μi,t,方差為σi,t,ωi,t是第i 個高斯分布的權(quán)重,且有
K 個高斯分布按照ω/σ 降序排列,最前面的表示背景像素值.用當(dāng)前的像素值xt與K 個高斯模型匹配,當(dāng)| xt- μi,t| <2.5σi,t時,即認為xt與第i 高斯分布匹配.如果K 個高斯分布都沒有匹配的,就將最后一個高斯模型更新.具體更新方法為用xt代替其均值μi,t,將方差σi,t設(shè)為一個較大的值,權(quán)重ωi,t設(shè)為較小的值.如果xt匹配到第r 個高斯分布,且滿足
式中,T 是一個標(biāo)準(zhǔn)閾值,每一次判斷完成之后都需要對模型進行更新,包括權(quán)重ωi,t、均值μi,t和方差σi,t,
即將xt判斷為前景目標(biāo).
對于匹配的高斯模型,模型匹配參數(shù)Mt=1,其余的都為0.當(dāng)α 的值越大時,高斯混合模型更新就越快,更容易適應(yīng)圖像的變化,但如果取值太大則不能達到背景的效果.
雖然混合高斯模型可以得到很好的效果,但是計算量相對較大,在高速公路監(jiān)控中,還需要對提取出的運動目標(biāo)做進一步的分析,要想達到實時的效果,必須在兩幀圖像的間隔時間(一般是1/25 s)內(nèi)做完所有的處理計算,對計算量的要求較嚴格.如果計算量太大,系統(tǒng)將無法獲取到由網(wǎng)絡(luò)傳輸?shù)较到y(tǒng)中的實時監(jiān)控視頻,造成網(wǎng)絡(luò)丟幀的情況.
由于夜間高速公路監(jiān)控視野中的光照變化很頻繁,采用固定閾值難以得到較好的差分效果,因此考慮采用自適應(yīng)閾值的算法.下面是兩種自適應(yīng)閾值的算法.
Otsu[12]曾提出過一個基于灰度圖像直方圖的無監(jiān)督閾值確定算法.Otsu 按照圖像灰度直方圖分布進行統(tǒng)計分析,將像素值量化為L 級,每個級的像素點個數(shù)為ni,且n1+n2+…+nL=N.則
用一個灰度閾值k 將圖像中的像素點按照像素值大小分為背景(C0)和前景(C1),像素值小于k的像素點為背景,像素值大于k 的像素點為前景,即運動目標(biāo).分別計算某一像素點屬于背景和前景的概率,即
再計算兩個類的類間方差:
當(dāng)閾值k 使得σ2B達到最大時,k 即為最佳閾值.
Gupta 等[13]認為當(dāng)前幀圖像與背景差分之后得到的差分圖像中,大部分像素點的像素值都較低,這些對應(yīng)于當(dāng)前幀中與背景相似的像素點;只有少部分像素值較高,對應(yīng)的是需要獲取的前景目標(biāo).差分圖像的直方圖往往存在兩個或多個峰值,要得到較好的閾值需要找到處于最大值右側(cè)的一個低谷,并以此作為閾值.直接從直方圖中找到這個低谷比較難,有時候也不一定存在明顯的低谷.文獻[13]中從直方圖中的最高峰所對應(yīng)的像素值開始往右開始搜索,當(dāng)某一像素值的像素點個數(shù)小于峰值到一定程度(10%)時,即將此像素值作為閾值.每一幀圖像進行差分之后,都需要進行上述分析對閾值更新.
文獻[14-15]中提出了一種新的思路,認為當(dāng)前的背景差分大多都只是針對某一固定的圖像特征進行描述分析,在不同的復(fù)雜環(huán)境下魯棒性往往都很差.因此提出了建立一個背景特征庫的思想,利用一種智能算法篩選幾種較為明顯的特征使得背景和前景的差異性達到最大.盡管這種背景差分方法計算相對復(fù)雜,但是其采用多維特征來區(qū)分前景和背景的思想很值得借鑒.
文中研究目的旨在提出一種能夠適應(yīng)各種復(fù)雜的高速公路監(jiān)控環(huán)境的目標(biāo)檢測算法,以滿足高速公路運行監(jiān)測的需要.在總結(jié)了前人研究的基礎(chǔ)上,對時序均值背景的算法進行了改進,并利用直方圖統(tǒng)計的思路,提出了一種新的確定自適應(yīng)閾值的算法.借鑒文獻[14-15]中采用多維特征進行判斷的思想,對背景差分圖像的梯度圖像進行分析,利用差分圖像的梯度信息輔助二值化過程,避免差分圖像中噪聲的干擾.算法的具體流程如圖1所示.
圖1 文中算法流程圖Fig.1 Flow chart of the proposed algorithm
為了滿足實時監(jiān)測的需求,文中采用的背景模型是在時序均值背景的基礎(chǔ)上加以改進實現(xiàn)的.文獻[7]中提出的方法是將所有獲取的圖像按照適當(dāng)?shù)膶W(xué)習(xí)率添加到背景中,對每一幀圖像都進行一次背景更新,但是由于學(xué)習(xí)率不能取得太大,所以將一幀圖像按照學(xué)習(xí)率的方法添加到背景對背景的影響很小,很難達到背景更新的效果.反而每次都更新造成了大量的計算浪費.文中通過改進,采用固定幀數(shù)N 的平均值作為背景模型,并在間隔達到一定程度時才進行背景更新.背景模型為
式中,BN表示背景圖像.
每隔一定的幀數(shù)進行更新,將背景所采用的幀數(shù)分成M 份,每份的幀數(shù)是N/M 幀.利用一個鏈表結(jié)構(gòu)將M 份串起來,當(dāng)距上次背景更新的幀數(shù)達到N/M 時,按照先入先出(FIFO)的原則,將這段時間的圖像累加的效果添加到背景中進行背景更新.文中采用M=10,即當(dāng)距上次背景更新間隔達到N/10幀時,對背景進行更新,則
按照式(10)每N/10 幀更新一次背景,每次用來計算背景的圖像幀數(shù)都是N.如果固定幀數(shù)N 取值較好,即可兼顧背景的準(zhǔn)確性和適應(yīng)性.通過實驗,文中選擇N =2 000,即每200 幀圖像更新一次背景.
利用直方圖來確定閾值的算法在文獻[12]中最先提出,但由于每次都要計算類間方差,計算量太大,對于要求實時性的系統(tǒng)來說,目標(biāo)檢測完成后需要大量的后處理分析,所以實現(xiàn)起來有些難度.文獻[13]中也提出了尋找直方圖中的谷底的方法,采用最高峰的一定比例所對應(yīng)的像素值作為閾值,但實際情況往往不是那么理想,實驗中發(fā)現(xiàn)這個比例的選取對閾值的確定有很大影響,對于夜間來說很難找到一個確定的比例來計算閾值.同時按照最大峰值10%的比例查找最適合的閾值,每一次計算都會有一部分像素點被識別成目標(biāo),而對于視頻序列的處理,不一定是每一幀圖像中都存在目標(biāo).
文中通過對直方圖的總體形狀分析后得知:當(dāng)圖像中沒有目標(biāo)出現(xiàn)時,差分圖像的直方圖分布主要集中在像素值較低的區(qū)域,且大體呈現(xiàn)高斯對稱分布.而當(dāng)圖像中出現(xiàn)目標(biāo)時,目標(biāo)區(qū)域所對應(yīng)的差分圖像中的像素值主要分布在較高的區(qū)域,且整個直方圖出現(xiàn)不對稱的形狀,像素值較高的區(qū)域會出現(xiàn)一個尾巴.為此,文中通過計算一個不對稱系數(shù)來表達圖像中是否出現(xiàn)目標(biāo),再利用此不對稱系數(shù)來確定一個閾值以區(qū)分背景和目標(biāo).
不對稱系數(shù)的表達式如下:
式中,xmax、xmin、xmost分別表示差分圖像直方圖中的最大值、最小值以及峰值像素值.為了排除高斯噪聲的影響,對于最大值和最小值采用濾掉直方圖中像素點個數(shù)太小的像素值,文中取直方圖中≥10 的像素值來計算.
對于沒有目標(biāo)的時刻t1,差分圖像的直方圖分布呈現(xiàn)較對稱分布,且均值(或峰值)處在像素值較低的區(qū)域,此時的不對稱系數(shù)接近于0;當(dāng)有目標(biāo)出現(xiàn)的時刻t2,差分圖像的直方圖呈現(xiàn)嚴重的不對稱分布,且像素值較高的區(qū)域像素點會增加,但峰值依然在像素值較低的區(qū)域,此時不均勻系數(shù)偏大,如圖2所示.
圖2 差分圖像直方圖分布Fig.2 Histogram distribution of differential images
閾值的確定算法為
式中,T 為通過此算法確定的閾值.
傳統(tǒng)的背景差分都是在RGB 等顏色空間中進行的,并且從應(yīng)用現(xiàn)狀來看,大多數(shù)情況都不易出現(xiàn)大的干擾,但是在實驗中發(fā)現(xiàn),由于夜間燈光照射以及路面、路旁反光的物體可能會導(dǎo)致假的目標(biāo)出現(xiàn).因此,文中加入背景圖像與當(dāng)前圖像的梯度差分圖像來輔助判斷,以消除由于燈光照射到路面等反光物體時造成的假目標(biāo)的現(xiàn)象.這里的梯度差分圖像是指將當(dāng)前圖像與背景圖像的某一像素點的梯度相減,并用所得的梯度值來表示與當(dāng)前像素點對應(yīng)的像素值.
式中,GT(x,y)表示差分得到的梯度圖像的像素值,GB(x,y)、GF(x,y)分別表示背景圖像梯度值、當(dāng)前圖像梯度值.
其中,GB(x,y)(或GF(x,y))采用8 鄰域的像素值之差的平均值作為該像素點的梯度值.關(guān)于圖像梯度的計算方法,文中借鑒了邊緣檢測中常用檢測算子的思路,如Sobel[16-17]、Laplacian[17].由于Lapalacian 算子中鄰域像素值的權(quán)值是-1,有時會產(chǎn)生負數(shù),這在本算法中是不希望見到的,因此文中取絕對值,同時綜合考慮計算速度和計算效果,以及各向同性的原則,采用8 鄰域均值的方法來表示梯度值:
式中,xi為各像素點的像素值.
由于燈光變化等干擾因素導(dǎo)致的假目標(biāo)在其范圍內(nèi)的紋理較少,而真實的目標(biāo)范圍內(nèi)紋理較為明顯,文中提出的上述像素梯度值輔助目標(biāo)檢測方法可以排除這種假目標(biāo)的影響.同時,通過對差分圖像的梯度分布進行分析,可以發(fā)現(xiàn)大部分的梯度值都處于較低的水平,只是在有目標(biāo)的區(qū)域內(nèi)才有較高的梯度值.因此,可以據(jù)此設(shè)定梯度圖像的閾值,以此來判斷目標(biāo)像素點.
圖3是計算梯度值時所采用的8 鄰域的示意圖,0 表示所計算的像素點,1 -8 表示像素點0 的8個相鄰像素點.
圖3 8 鄰域示意圖Fig.3 Schematic diagram of 8-neighborhood
利用某高速公路的3 種不同環(huán)境的監(jiān)控視頻檢驗算法的效果,即夜間燈光變化較頻繁的監(jiān)控環(huán)境、白天逆光的監(jiān)控環(huán)境以及雨天路面積水的監(jiān)控環(huán)境.夜間燈光變化頻繁容易導(dǎo)致目標(biāo)丟失;而白天逆光條件下攝像機視野的亮度相對較暗,在差分圖像中目標(biāo)與背景的差異性相對于其他環(huán)境較小;雨天路面積水導(dǎo)致反光容易形成假目標(biāo).采用傳統(tǒng)的目標(biāo)識別算法對這3 種環(huán)境條件下的目標(biāo)檢測比較困難.實驗結(jié)果表明,文中提出的算法能夠在這些復(fù)雜環(huán)境下進行準(zhǔn)確檢測.
為了減少計算量,同時也能提高檢測的準(zhǔn)確性,避免不必要的干擾,文中在進行圖像差分計算時,只分析路面范圍內(nèi)的圖像變化.將文中提出的算法與固定二值化閾值的算法在不同的檢測環(huán)境下進行對比,對比算法沒有利用梯度差分的圖像.
圖4(a)-4(c)分別為固定閾值算法與文中提出的算法在夜間環(huán)境、逆光環(huán)境及雨天環(huán)境的對比效果.圖中第1 行表示固定閾值算法的效果;第2 行為本文提出的算法的效果.
圖4 3 種環(huán)境下的檢測效果圖Fig.4 Detection results in three environments
實驗結(jié)果顯示,由于夜間車輛燈光的影響會導(dǎo)致反向車道區(qū)域的亮度變暗,采用原始的固定閾值的算法會導(dǎo)致二值化的結(jié)果較差,但利用文中的算法計算即可較為準(zhǔn)確地將車輛的前大燈區(qū)域識別出來,并以此表示運動車輛,如圖4(a)所示.
白天逆光條件下,路面會有一定的反光導(dǎo)致路面像素點的亮度偏大,如圖4(b)所示,固定閾值的算法容易將路面亮度值較大的點檢測為目標(biāo),而且在視頻播放時,這些假目標(biāo)可以長期穩(wěn)定的存在,嚴重影響檢測效果.利用文中的算法則可以很好地將圖像中的車輛和行人檢測出來.
雨天環(huán)境下,路面積水會產(chǎn)生反光及車尾產(chǎn)生的水花會對目標(biāo)識別產(chǎn)生干擾.文中提出的算法可以有效避免檢測到路面上由于積水反光產(chǎn)生的假目標(biāo),同時也很好地消除了車尾水花產(chǎn)生的影響.如圖4(c)所示,固定閾值在遠處產(chǎn)生了假目標(biāo),且在車尾的水花處也出現(xiàn)了較差的二值化效果.
提出了一種新的背景差分算法,在改進了背景模型的同時,通過分析差分圖像的梯度分布,利用統(tǒng)計學(xué)的方法計算出一種全新的自適應(yīng)閾值,然后引入差分圖像的梯度值作為輔助特征進行目標(biāo)檢測,大大提高了檢測的效果,提高了檢測系統(tǒng)的準(zhǔn)確性.此算法能夠適應(yīng)不同的高速公路監(jiān)控環(huán)境,能滿足高速公路全天候監(jiān)控的要求,對推動高速公路智能監(jiān)控系統(tǒng)的建設(shè)具有理論和現(xiàn)實意義.
[1]Sun Z,Bebis G,Miller R.Monocular precrash vehicle detection:features and classifiers[J].IEEE Transactions on Image Processing,2006,15(7):2019-2034.
[2]Sivaraman S,Trivedi M M.A general active-learning framework for on-road vehicle recognition and tracking[J].IEEE Transactions on Intelligent Transportation Systems,2010,11(2):267-276.
[3]Yuan Q,Thangali A,Ablavsky V,et al.Learning a family of detectors via multiplicative kernels[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(3):514-530.
[4]Chang W C,Cho C W.Online boosting for vehicle detection[J].IEEE Transactions on Systems,Man,and Cybernetics,Part B:Cybernetics,2010,40(3):892-902.
[5]Jazayeri A,Cai H,Zheng J Y,et al.Vehicle detection and tracking in car video based on motion model[J].IEEE Transactions on Intelligent Transportation Systems,2011,12(2):583-595.
[6]Sivaraman S,Trivedi M M.Looking at vehicles on the road:a survey of vision-based vehicle detection,tracking,and behavior analysis[J].IEEE Transactions on Intelligent Transportation Systems,2013,14(4):1773-1795.
[7]Wren C R,Azarbayejani A,Darrell T,et al.Pfinder:realtime tracking of the human body[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):780-785.
[8]Stauffer C,Grimson W E L.Adaptive background mixture models for real-time tracking[J].Proceedings of Computer Vision and Pattern Recognition,1999,2:2246.
[9]Piccardi M.Background subtraction techniques:a review[J].IEEE International Conference on Systems,Man and Cybernetics,2004,4:3099-3104.
[10]Halevi G,Weinshall D.Motion of disturbances:detection and tracking of multi-body non-rigid motion [J].Machine Vision and Applications,1999,11(3):122-137.
[11]張恒,胡文龍,丁赤飚.一種自適應(yīng)學(xué)習(xí)的混合高斯模型視頻目標(biāo)檢測算法[J].中國圖象圖形學(xué)報,2010,15(4):631-636.Zhang Heng,Hu Wen-long,Ding Chi-biao.Adaptive learning Gaussian mixture models for video target detection[J].Journal of Image and Graphics,2010,15(4):631-636.
[12]Otsu N.A threshold selection method from gray-level histograms[J].Automatica,1975,11:285-296.
[13]Gupte S,Masoud O,Martin R F K,et al.Detection and classification of vehicles[J].IEEE Transactions on Intelligent Transportation Systems,2002,3(1):37-47.
[14]Collins R T,Liu Y,Leordeanu M.Online selection of discriminative tracking features[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(10):1631-1643.
[15]Parag T,Elgammal A,Mittal A.A framework for feature selection for background subtraction[C]∥2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE,2006:1916-1923.
[16]Heath M D,Sarkar S,Society I C,et al.A robust visual method for assessing the relative performance of edge-detection algorithms [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(12):1338-1359.
[17]Nixon M S,Aguado A S.Feature extraction and image processing[M].Singapore:Elsevier,2010:137-139.