劉麗偉, 張宏美, 薛春芳, 滿 濤
(長(zhǎng)春工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院, 吉林 長(zhǎng)春 130012)
基于混合高斯模型的運(yùn)動(dòng)目標(biāo)平均背景法檢測(cè)
劉麗偉, 張宏美, 薛春芳, 滿 濤
(長(zhǎng)春工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院, 吉林 長(zhǎng)春 130012)
首先采用平均背景法對(duì)混合高斯建模獲得的背景進(jìn)行處理得到純凈的背景,然后在當(dāng)前圖像與背景圖像之間進(jìn)行差分運(yùn)算,最后通過(guò)輪廓篩選的方法去除目標(biāo)圖像中的干擾點(diǎn),并通過(guò)形態(tài)學(xué)處理對(duì)目標(biāo)中的間隙進(jìn)行填充,獲得完整目標(biāo)。 實(shí)驗(yàn)結(jié)果表明,對(duì)于運(yùn)動(dòng)目標(biāo)及停留的目標(biāo),該算法的識(shí)別率和誤檢率分別為86.7%和8.3%。
目標(biāo)檢測(cè); 混合高斯模型; 平均背景; 輪廓篩選
運(yùn)動(dòng)目標(biāo)檢測(cè)是將視頻中的運(yùn)動(dòng)目標(biāo)從背景中分離出來(lái),在這一過(guò)程中需要克服天氣、光照變化等對(duì)檢測(cè)帶來(lái)的影響,且檢測(cè)結(jié)果對(duì)后續(xù)的處理影響較大[1-2]。目前,光流法、幀差法和背景差分法是運(yùn)動(dòng)目標(biāo)檢測(cè)算法中最主要也是最常用的3種算法[3-5]。其中,光流法是根據(jù)目標(biāo)運(yùn)動(dòng)速度來(lái)實(shí)現(xiàn)對(duì)目標(biāo)檢測(cè),它可以在完全不知道運(yùn)動(dòng)場(chǎng)景的情況下完成運(yùn)動(dòng)目標(biāo)的檢測(cè),但是該算法計(jì)算復(fù)雜,并且需要專門的硬件才能運(yùn)行此算法,不能用于實(shí)時(shí)目標(biāo)檢測(cè)[6-7]。幀差法是最為簡(jiǎn)單且運(yùn)行速度最快的一種目標(biāo)檢測(cè)算法[8],但無(wú)論是傳統(tǒng)幀差法還是其改進(jìn)算法,都未能得到完整的目標(biāo),且當(dāng)目標(biāo)停留或運(yùn)動(dòng)較慢時(shí),還容易造成漏檢。背景差分法是通過(guò)當(dāng)前圖像與背景圖像之間的差分運(yùn)算來(lái)完成目標(biāo)檢測(cè)的[9],其中Zoran Zivkovic[10]提出的基于像素的混合高斯背景模型能夠?qū)Ρ尘皩?shí)時(shí)更新,同時(shí)能夠適當(dāng)?shù)剡x擇高斯模型的個(gè)數(shù),所以該算法能夠?qū)\(yùn)動(dòng)目標(biāo)進(jìn)行較好的檢測(cè),但對(duì)于視頻中做短暫停留的運(yùn)動(dòng)目標(biāo),則會(huì)出現(xiàn)較大空洞甚至只可以得到目標(biāo)輪廓,郭偉[11]等對(duì)混合高斯模型進(jìn)行了改進(jìn),根據(jù)運(yùn)動(dòng)目標(biāo)的不同情況設(shè)置了不同的學(xué)習(xí)率,對(duì)運(yùn)動(dòng)緩慢的運(yùn)動(dòng)目標(biāo)的檢測(cè)效果進(jìn)行了改善,但沒(méi)有提出對(duì)場(chǎng)景中短暫停留的運(yùn)動(dòng)目標(biāo)的檢測(cè)算法。
為了解決高斯混合模型對(duì)視頻中停留的目標(biāo)在檢測(cè)過(guò)程中容易融為背景的問(wèn)題,文中提出了基于混合高斯模型的改進(jìn)型背景差分算法。該算法將背景圖像的獲得方式進(jìn)行了改進(jìn),并將背景差分后獲得的結(jié)果與混合高斯模型檢測(cè)出的前景圖像進(jìn)行“或”運(yùn)算,解決差分運(yùn)算過(guò)程中因目標(biāo)與背景圖顏色相近產(chǎn)生的目標(biāo)部分缺失問(wèn)題。該算法不但可以檢測(cè)出視頻中的運(yùn)動(dòng)目標(biāo),而且對(duì)于在場(chǎng)景中做短暫停留的目標(biāo)檢測(cè)效果也較好,避免了“空洞”現(xiàn)象的出現(xiàn)。
Zoran Zivkovic[10]提出的基于像素的自適應(yīng)混合高斯背景模型的基本思想是在RGB空間或者其他的顏色空間中將時(shí)間點(diǎn)t處的單一像素定義為x{t},其背景模型定義為px(t)|χT,BG+FG,用M(默認(rèn)值為5)個(gè)高斯分布的加權(quán)和來(lái)表征背景:
對(duì)于一組新的數(shù)據(jù),高斯混合模型的權(quán)值、均值和方差將按下式進(jìn)行更新:
一般情況下,前景目標(biāo)權(quán)值較小,而背景模型權(quán)值較大,因此,可以通過(guò)設(shè)定合適的閾值來(lái)得到近似的背景模型:
按照混合高斯模型權(quán)值大小將所建立的高斯分布降序排列,可以得到
式中:cf----屬于前景并對(duì)背景模型沒(méi)有影響的數(shù)據(jù)占總數(shù)據(jù)的百分比。
Zoran Zivkovic[10]提出的混合高斯模型雖然對(duì)運(yùn)動(dòng)目標(biāo)的檢測(cè)效果較好,但對(duì)于在視頻中做短暫停留的目標(biāo),會(huì)因背景更新而出現(xiàn)檢測(cè)不完整的問(wèn)題,如果降低背景的更新率,那么當(dāng)運(yùn)動(dòng)場(chǎng)景發(fā)生變化時(shí),將無(wú)法對(duì)背景進(jìn)行實(shí)時(shí)更新,影響對(duì)視頻中其他運(yùn)動(dòng)目標(biāo)的檢測(cè)。針對(duì)此問(wèn)題,文中對(duì)混合高斯模型目標(biāo)檢測(cè)算法進(jìn)行了如下改進(jìn)。
2.1.1 改進(jìn)的背景提取
用傳統(tǒng)的平均背景法思想處理混合高斯模型建立的背景,獲得更為真實(shí)的背景。當(dāng)目標(biāo)在視頻中停留時(shí),目標(biāo)在背景中所占的比重會(huì)逐漸增加,所以,停留時(shí)間越長(zhǎng),目標(biāo)檢測(cè)越不完整。如果將目標(biāo)融入背景中的部分去除掉,就可以得到更加真實(shí)的背景,檢測(cè)到的目標(biāo)也會(huì)更加完整。傳統(tǒng)的平均背景法是對(duì)輸入的視頻序列直接進(jìn)行處理,所以得到的背景并不純凈,而將其用于對(duì)混合高斯模型建立的背景處理,卻能取得較好的結(jié)果,主要原因是混合高斯模型建立的背景在通常情況下較為純凈,只有當(dāng)目標(biāo)停留在背景中時(shí),才會(huì)由于背景的更新將目標(biāo)融為背景,其次是因?yàn)槟繕?biāo)是逐漸融為背景的,通過(guò)對(duì)連續(xù)幾幀圖像的背景進(jìn)行均值運(yùn)算,雖不能完全去除融入背景的目標(biāo),但可以降低目標(biāo)在背景中所占的比重,使得到的背景更加接近于真實(shí)的背景。該算法的運(yùn)算步驟如下:
1)設(shè)I1(x,y),I2(x,y),…,In(x,y)為輸入的視頻序列連續(xù)n幀圖像,對(duì)輸入的每一幀圖像進(jìn)行混合高斯背景建模,獲得每一幀圖像的背景圖片B1(x,y),B2(x,y),…,Bn(x,y)。
2)對(duì)連續(xù)6幀背景圖片進(jìn)行求和運(yùn)算。設(shè)Bk(x,y)為第k幀圖像對(duì)應(yīng)的背景圖,則
3)對(duì)所得到的圖像S(k,k-5)(x,y)求平均
2.1.2 改進(jìn)的前景檢測(cè)
對(duì)于檢測(cè)結(jié)果中存在的干擾點(diǎn)主要有形態(tài)學(xué)處理和連通域分析兩種方法。
形態(tài)學(xué)處理是一種很好的去除干擾點(diǎn)的方法,但如果干擾點(diǎn)較大,那么在處理過(guò)程中對(duì)于目標(biāo)會(huì)產(chǎn)生較大影響,而連通域分析對(duì)于孤立的細(xì)小的干擾點(diǎn)的處理效果較好,對(duì)于較大的干擾點(diǎn)則不能進(jìn)行很好的去除。為了更好地消除干擾點(diǎn),文中提出輪廓提取和形態(tài)學(xué)濾波進(jìn)行結(jié)合的方法。該算法的基本思想是先尋找檢測(cè)結(jié)果中干擾點(diǎn)和所有目標(biāo)的輪廓,然后根據(jù)輪廓的面積對(duì)輪廓進(jìn)行篩選,去除輪廓面積較小的干擾點(diǎn)。去除干擾點(diǎn)后,對(duì)目標(biāo)進(jìn)行形態(tài)學(xué)操作,對(duì)目標(biāo)中存在的空洞進(jìn)行填充,具體步驟如下:
1)尋找目標(biāo)輪廓。在輪廓的檢索模式中,選擇RETR_CCOMP檢索模式,提取所有輪廓,并將其組織成雙層結(jié)構(gòu),頂層為外圍邊界,次層為孔的內(nèi)層邊界。在輪廓的近似方法中,選擇使用Teh-Chinl鏈逼近算法對(duì)輪廓進(jìn)行近似處理。
2)輪廓面積篩選。求出每一個(gè)輪廓的面積contourArea[i],然后通過(guò)設(shè)置合適的閾值去除掉前景中存在的干擾。通常情況下,干擾點(diǎn)的輪廓面積比目標(biāo)的輪廓面積小,所以相對(duì)于連通域分析方法,這種方法更加簡(jiǎn)單有效。
3)進(jìn)行輪廓繪制。需要將線條顏色選擇為白色,并將線條繪制在輪廓內(nèi)部。通過(guò)這一步的操作,可以得到只包含目標(biāo)的圖像。
4)對(duì)目標(biāo)進(jìn)行膨脹處理。雖然輪廓的繪制可以對(duì)目標(biāo)圖像內(nèi)部的空洞進(jìn)行填充,但如果目標(biāo)被細(xì)小的間隙分隔開(kāi),那么在進(jìn)行輪廓查找時(shí),這些被分開(kāi)的部分會(huì)被認(rèn)為是不同的目標(biāo),對(duì)其進(jìn)行輪廓繪制時(shí)也是單獨(dú)處理的,所以對(duì)于這些細(xì)小的間隙,膨脹處理是最有效的方法。
5)對(duì)目標(biāo)圖像進(jìn)行腐蝕操作。通過(guò)膨脹操作對(duì)目標(biāo)中的間隙進(jìn)行填充后,目標(biāo)會(huì)出現(xiàn)一定的失真,此時(shí)可以對(duì)目標(biāo)進(jìn)行腐蝕操作,腐蝕操作的核選擇和膨脹操作相同大小的核,這樣可以對(duì)4)中膨脹的部分進(jìn)行中和,減少目標(biāo)的失真。
首先對(duì)輸入的每一幀視頻序列進(jìn)行混合高斯背景建模,然后對(duì)獲得的背景進(jìn)行處理,獲得圖像的平均背景,再將當(dāng)前圖像與背景圖像進(jìn)行差分運(yùn)算,對(duì)差分后的結(jié)果進(jìn)行輪廓篩選及繪制,去除干擾點(diǎn),最后通過(guò)形態(tài)學(xué)操作,填充目標(biāo)間隙,得到完整目標(biāo)。
運(yùn)動(dòng)目標(biāo)檢測(cè)流程如圖1所示。
圖1 運(yùn)動(dòng)目標(biāo)檢測(cè)流程
文中的實(shí)驗(yàn)環(huán)境為Opencv3.0+VS2013,檢測(cè)的目標(biāo)為室外行走的人,且目標(biāo)為多個(gè)。文中截取了視頻的第587,601,608和620幀用不同方法處理的結(jié)果來(lái)說(shuō)明文中算法的有效性。不同算法檢測(cè)結(jié)果如圖2所示。
(c) 幀差法檢測(cè)結(jié)果
(d) 混合高斯模型檢測(cè)結(jié)果
(e) OTSU算法檢測(cè)結(jié)果
(f) 文中算法檢測(cè)結(jié)果
從實(shí)驗(yàn)結(jié)果中可以看出,三幀差分法可以檢測(cè)到運(yùn)動(dòng)目標(biāo)的輪廓,但是對(duì)于在視頻中停留的目標(biāo),由于位置沒(méi)有發(fā)生改變,造成了目標(biāo)的漏檢?;旌细咚顾惴軌蚝芎玫貦z測(cè)出完整的運(yùn)動(dòng)目標(biāo),但是當(dāng)目標(biāo)停留時(shí),會(huì)慢慢融入背景,此時(shí)只能檢測(cè)到該目標(biāo)的輪廓。OTSU算法和文中算法對(duì)停留的目標(biāo)檢測(cè)效果都很好,但是當(dāng)停留的目標(biāo)開(kāi)始運(yùn)動(dòng)時(shí),OTSU算法檢測(cè)出的目標(biāo)存在“拖影”現(xiàn)象。文中通過(guò)對(duì)混合高斯模型獲得的背景進(jìn)行均值運(yùn)算,對(duì)融入背景中的目標(biāo)進(jìn)行中和,得到了更加純凈的背景圖像,從背景圖像中可以看出,隨著運(yùn)動(dòng)目標(biāo)在場(chǎng)景中停留的時(shí)間變長(zhǎng),提取的背景中目標(biāo)停留的位置出現(xiàn)了目標(biāo)模糊的影子,但從檢測(cè)結(jié)果來(lái)看,檢測(cè)的效果并未因此受到影響,而且當(dāng)目標(biāo)開(kāi)始運(yùn)動(dòng)時(shí),也并未出現(xiàn)“拖影”現(xiàn)象,所以,文中算法能夠?qū)崿F(xiàn)對(duì)視頻中運(yùn)動(dòng)目標(biāo)的檢測(cè),同時(shí)對(duì)于在視頻中停留的目標(biāo),也可以完整地檢測(cè)出來(lái),并且在目標(biāo)開(kāi)始運(yùn)動(dòng)后,避免了“拖影”現(xiàn)象的出現(xiàn),檢測(cè)效果較好。
為了更好地說(shuō)明文中算法的優(yōu)點(diǎn),采用文獻(xiàn)[11]中的識(shí)別率和誤檢率對(duì)文中算法和其他3種算法進(jìn)行比較。識(shí)別率DR和誤檢率FAR算法如下:
兩種方法的識(shí)別率DR和誤檢率FAR見(jiàn)表1。
表1 兩種方法的識(shí)別率DR和誤檢率FAR %
實(shí)驗(yàn)結(jié)果表明,文中算法將傳統(tǒng)的平均背景法用于對(duì)混合高斯檢測(cè)的背景處理,提高了獲得的背景質(zhì)量,使其能夠檢測(cè)出在視頻中運(yùn)動(dòng)的目標(biāo),同時(shí)對(duì)停留的目標(biāo)檢測(cè)效果較好,提高了算法的識(shí)別率,對(duì)于在視頻中停留后開(kāi)始運(yùn)動(dòng)的目標(biāo),能夠避免“拖影”現(xiàn)象,降低了目標(biāo)的誤檢率。綜上所述,文中算法檢測(cè)效果較好。
針對(duì)目標(biāo)在視頻中做短暫停留時(shí)因背景更新出現(xiàn)的檢測(cè)不完整情況,提出基于混合高斯模型的平均背景法,該算法通過(guò)傳統(tǒng)的平均背景法對(duì)混合高斯背景建模獲得的背景進(jìn)行處理,淡化了因停留而融入背景的目標(biāo),使獲得的背景更加純凈,然后通過(guò)當(dāng)前圖像和背景圖像之間的差分運(yùn)算得到目標(biāo)圖像,最后通過(guò)輪廓篩選和形態(tài)學(xué)處理去除干擾點(diǎn),并完成對(duì)目標(biāo)間隙的填充,最終得到完整目標(biāo)。通過(guò)實(shí)驗(yàn)結(jié)果可以看出,該算法除了能夠檢測(cè)出視頻中運(yùn)動(dòng)的目標(biāo),還能夠完整地檢測(cè)出在視頻中停留的目標(biāo),當(dāng)停留的目標(biāo)開(kāi)始運(yùn)動(dòng)時(shí),可以避免“拖影”現(xiàn)象出現(xiàn),其識(shí)別率和誤檢率分別為86.7%和8.3%,檢測(cè)效果較好。但是由于對(duì)多幀混合高斯建模的背景進(jìn)行了運(yùn)算,造成算法的運(yùn)行時(shí)間較長(zhǎng),這是文中算法的不足之處,有待改進(jìn)。
[1] 王思思,任世卿.一種改進(jìn)的基于混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)科學(xué),2015,42(s2):173-174.
[2] 張紅穎,胡正.CenSurE特征和時(shí)空信息相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].光學(xué)精密工程,2013(9):2452-2463.
[3] 宋志勤,路錦正,聶詩(shī)良.改進(jìn)的時(shí)空背景差分目標(biāo)檢測(cè)[J].光電工程,2016(2):27-32.
[4] 陸牧,高揚(yáng),朱明.動(dòng)基座下的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].光學(xué)精密工程,2016(5):1782-1788.
[5] 王彬,馬永杰,李鵬飛.結(jié)合分塊的改進(jìn)三幀差和背景差的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2015,24(8):155-159.
[6] 邱聯(lián)奎,劉啟亮,趙予龍,等.混合高斯背景模型目標(biāo)檢測(cè)的一種改進(jìn)算法[J].計(jì)算機(jī)仿真,2014(5):378-384.
[7] 劉洪彬,常發(fā)亮.權(quán)重系數(shù)自適應(yīng)光流法運(yùn)動(dòng)目標(biāo)檢測(cè)[J].光學(xué)精密工程,2016(2):460-467.
[8] 王維合,王宏志,趙蘭英.運(yùn)動(dòng)目標(biāo)檢測(cè)跟蹤方法研究[J].長(zhǎng)春工業(yè)大學(xué)學(xué)報(bào):自然科學(xué)版,2001,22(4):411-414.
[9] 張傳偉,王京梅,林曉明,等.基于背景差分的一種運(yùn)動(dòng)目標(biāo)檢測(cè)方法[J].電子科技,2015,28(10):69-71.
[10] Zivkovic Z. Improved adaptive gaussian mixture model for background subtraction[J]. International Conference on Pattern Recognition. IEEE,2004(2):28-31.
[11] 郭偉,高媛媛,劉鑫焱.改進(jìn)的基于混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2016,52(13):195-200.
[12] 王宏志,劉媛媛,孫琦.基于小波變換矩陣的改進(jìn)脊波變換圖像去噪[J].吉林大學(xué)學(xué)報(bào):理學(xué)版, 2010,48(1):99-103.
AnaveragebackgroundmethodbasedonmixedGaussianmodelformovingobjectdetection
LIU Liwei, ZHANG Hongmei, XUE Chunfang, MAN Tao
(School of Computer Science and Engineering, Changchun University of Technology, Changchun 130012, China)
The average background method is used to deal the background obtained from mixed Gaussian to purify the image background. Then the difference between current and background image is calculated, and the interference points in the image are removed with contour screening. The gap in the image is filled with morphological processing to obtain the final image. Experimental results indicate that the recognition rate and false rate are 86.7% and 8.3% respectively, for both the moving and staying target.
target detection; mixed Gaussian model; average background; contour screening.
2017-07-11
吉林省教育廳“十三五”科學(xué)技術(shù)研究基金資助項(xiàng)目(2016-35)
劉麗偉(1974-),女,漢族,吉林通化人,長(zhǎng)春工業(yè)大學(xué)副教授,博士,主要從事模式識(shí)別和智能系統(tǒng)方向研究,E-mail:liuliwei@ccut.edu.cn.
10.15923/j.cnki.cn22-1382/t.2017.5.02
TP 391
A
1674-1374(2017)05-0421-05