王占鳳,郭 星,徐秋月
(1.巢湖學(xué)院 計算機(jī)與信息工程學(xué)院,安徽 巢湖 238000; 2.安徽大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院,安徽 合肥 230031)
目前,國內(nèi)外學(xué)者對圖像中運(yùn)動目標(biāo)檢測的研究很多,常用的方法有背景減除法[1]、幀間差分法[2]和光流法[3]等.前兩種方法均采用當(dāng)前圖像與參考的差分圖像進(jìn)行差分運(yùn)算來進(jìn)行運(yùn)動物體的檢測,區(qū)別在于背景減除法中所采用的參考圖像為視場中的背景圖像,而幀間差分法所采用的參考圖像通常為前幾幀圖像的平均值,這兩種方法簡單且實時性強(qiáng).光流法需要進(jìn)行若干次的迭代運(yùn)算,所以時間復(fù)雜度比較高、耗時長.因此,人機(jī)交互這種實時性比較高的系統(tǒng)通常采用前兩種方法.
在背景較復(fù)雜的情況下,獲取背景圖像比較困難,在更新背景的自適應(yīng)模型中Friedman與Russell[4]利用擴(kuò)展的EM[5]算法,對圖像中每個像素建立對應(yīng)的混合高斯模型,該模型可以根據(jù)背景圖像的變化自動更新,自適應(yīng)地判別每個像素是背景還是前景.即使在目標(biāo)運(yùn)動速度比較緩慢的情況下,也能將運(yùn)動目標(biāo)從圖像中提取出來,并且可以有效地消除陰影帶來的影響.另外,Stringa[6]也提出了一種基于數(shù)學(xué)形態(tài)學(xué)的場景變化檢測算法,在復(fù)雜的環(huán)境中取得了比較好的目標(biāo)分割效果.
背景減除法是物體檢測中使用最為普遍的一類方法.一副圖像信息可以分為前景信息和后景信息,前景信息就是需要識別檢測的物體信息,這里指人體信息;背景信息就是除去前景信息后留下來的無關(guān)信息.背景減除法就是通過建立的背景模型來為每幅圖像進(jìn)行背景定位,然后使用差分法將前景圖像從圖像信息中提取出來的過程.這種方法的核心在于背景模型的選取,其速度快,能夠提取較為完整的物體信息,但是對外來的噪聲比較敏感[7].
用背景減除法檢測運(yùn)動目標(biāo)非常有效,基本上能夠?qū)⑦\(yùn)動目標(biāo)的大小、位置和形狀等信息提取出來,并且算法簡單、復(fù)雜度低.但是,該方法對環(huán)境變化特別敏感,光線變化、燈照不穩(wěn)定以及復(fù)雜的背景動態(tài)變化和運(yùn)動目標(biāo)自身由于光照產(chǎn)生的影子等都會造成錯誤背景的產(chǎn)生,導(dǎo)致檢測目標(biāo)不準(zhǔn)確,所以建立有效、可靠的背景模型成為該方法的主要研究工作.
背景減除法中經(jīng)常使用混合高斯模型作為背景模型進(jìn)行目標(biāo)檢測,它可以自適應(yīng)學(xué)習(xí)和表示分布復(fù)雜的背景.基于混合高斯模型的目標(biāo)檢測核心在于高斯模型參數(shù)的確定.
(1)單高斯分布背景模型
單高斯分布背景就是為背景圖像中每個像素點(diǎn)建立一個高斯分布表示的模型η(x,μt,∑t),其中t表示時間.設(shè)像素點(diǎn)的當(dāng)前灰度值為Xt,若η(xt,μt,∑t)≤Tp,則該點(diǎn)被判定為前景點(diǎn),否則為背景點(diǎn),這里的Tp為概率閾值.但隨著時間的推移,高斯分布模型需要根據(jù)當(dāng)前幀對背景進(jìn)行更新.假設(shè)更新率為α,則該像素點(diǎn)更新可表示為
μt+1=(1-α)·μt+α·Xt,
(1)
(2)
如果更新率為1,則背景模型方法退化為幀間差分方法.
(2)多高斯分布背景模型
高斯模型就是以時間域為標(biāo)線,對每個元素都使用k個高斯分布模型去描述它某段時間內(nèi)的k個歷史取值.如果k=1,那么就是單一高斯模型,而k>1就是混合高斯模型.可以這樣去描述它——對于某個像素P(x0,y0),它在某時間段t內(nèi)的取值集合為{X1,X2,…,Xt},從中選取k個歷史值使用高斯分布模型描述并記錄下來,這樣就可以得到當(dāng)前像素值的概率
(3)
(4)
這里,n表示元素值Xt的維度數(shù).
因為對每個元素都建立了k個高斯分布模型用作背景模型,在實際使用中,會選擇一些包含背景信息較多的b個高斯分布模型作為背景模型.通常將k個高斯分布模型的權(quán)值與方差的比值w/σ按照降序進(jìn)行排序,選前b個分布作為背景模型,并且滿足公式
(5)
其中,T為閾值,表示B背景模型在k個高斯分布模型中所占的比例大小.如果T取值較大,那么背景模型個數(shù)較多,選取的背景模型則比較全面;如果T取值較小,那么背景模型個數(shù)較少,選取的背景模型則比較片面.
多高斯分布背景模型的更新需要更新自身參數(shù),還要更新各分布模型的權(quán)值.若當(dāng)前沒有匹配的高斯分布,則將權(quán)值最小的刪除,根據(jù)當(dāng)前的像素點(diǎn)建立一個新的高斯分布,然后將所有的高斯分布重新分配權(quán)值,歸一化處理.若第m個高斯分布與Xt匹配,則對第i個高斯分布的權(quán)值更新如下:
其中,β是更新率.更新完畢后,再重新將k個高斯分布進(jìn)行權(quán)值計算、排序,選擇b個分布作為背景模型.
混合高斯模型在光線變化緩慢的情況下表現(xiàn)很好,但是在光線快速變化的情況下,由于高斯背景更新率較低,則沒有一個快速更新機(jī)制以應(yīng)對光線迅速變換的情況,故本研究設(shè)計了一個快速背景更新機(jī)制以適應(yīng)光線突變的情況,具體算法如下:
(1)依照傳統(tǒng)的高斯背景為每個像素建立高斯背景模型.
(2)進(jìn)行前景提取,并同時統(tǒng)計前景像素個數(shù)Spre,計算前景像素個數(shù)占總像素個數(shù)的比例r=Spre/Sall.
(3)若r大于設(shè)置的閾值,則表示光線變化很大,應(yīng)及時更新背景模型并以幀間差分方法進(jìn)行前景檢測.與此同時,進(jìn)行新的高斯背景建模,建立完畢,就以高斯背景建模的方法進(jìn)行前景檢測.
本實驗主要驗證高斯背景物體檢測方法的有效性和改進(jìn)的高斯背景方法對光線突變情況下的有效性以及陰影去除的結(jié)果.本實驗使用的檢測平臺是Windows 7,其實驗環(huán)境是Visual 2010,實驗結(jié)果見圖1、圖2和圖3.
由圖1可以看出,高斯背景的物體檢測基本可以滿足要求,但是人體旁邊的陰影也同樣被檢測出來了,從原圖可以看出陰影部分.圖2是在門突然打開的情況下的檢測結(jié)果,可以看出門的地方長期處于檢測狀態(tài)下,而實際上該部分并不是運(yùn)動物體,從而造成誤識別.圖3采用改進(jìn)的方法進(jìn)行檢測,可以看出,有效地去除了門打開后由于光線變化造成的固定背景改變而誤檢測出的物體,可以看出快速更新時候檢測上幀與當(dāng)前重合部分沒有檢測出來.通過實驗證明,經(jīng)過改進(jìn)的混合高斯模型檢測算法可以更加有效地進(jìn)行運(yùn)動物體的檢測.
圖1 正常的高斯背景物體檢測結(jié)果Fig.1 Detection result of Gaussian background object on the normal condition
圖2 光線突然變化情況下高斯背景檢測結(jié)果Fig.2 Detection result of Gaussian background object on the condition of abrupt light change
圖3 光線突然變化情況下改進(jìn)的算法檢測結(jié)果Fig.3 Detection result of improvedalgorithmin this paper on the condition of abrupt light change
根據(jù)運(yùn)動目標(biāo)檢測的背景減除法以及算法中的混合高斯模型,提出了基于改進(jìn)的混合高斯模型檢測算法,并通過實驗證明了改進(jìn)的算法在光線突然變化的情況下能提高對運(yùn)動目標(biāo)檢測的準(zhǔn)確度.
參考文獻(xiàn):
[1] Mittal A,Paragios N.Motion-based background subtraction using adaptive kernel density estimation[C]∥Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Colorado:Springs,2004:1335-1339.
[2] Foresti G.Object recognition and tracking for remote video surveillance [J].IEEE Transactions on Circuits and Systems for Video Technology,1999,9(7):1045-1062.
[3] Verri A,Uras S,DeMicheli E.Motion Segmentation from optical flow [C]∥Proceedings of the 5th Alvey Vision Conference.Brighton:Brighton University Press,1989:345-359.
[4] Friedman N,Russell S.Image segmentation in video sequences: a probabilistic approach[C]∥Proceedings of the Thirteenth Conference on Uncertainty in Artificial Intelligence.Providence:Brown University,1997:264-269.
[5] McLachlan G,Krishnan T.The EM algorithm and extensions [M].New York:Wiley,1997.
[6] Stringa E.Morphological change detection algorithms for surveillance applications [C]∥Proceedings of British Machine Vision Conference.Brighton:Brighton University Press,2000:536-552.
[7] Harville M,Gordon G,Woodfill J.Foreground segmentation using adaptive mixture models in color and depth[C]∥Proceedings of IEEE Events Workshop.Vancouver:Janeiro,2001:436-441.