陳 樹,丁保闊
(江南大學(xué)物聯(lián)網(wǎng)工程學(xué)院,江蘇 無(wú)錫 214122)
目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)研究的一個(gè)熱門課題,前景檢測(cè)是目標(biāo)跟蹤的基礎(chǔ)和關(guān)鍵步驟。傳統(tǒng)的前景檢測(cè)方法主要有幀差法、背景模型法和光流法。視覺(jué)背景提取ViBe(Visual Background extractor)算法[1]是Barnich提出的一種新的背景模型法,并發(fā)展成為目標(biāo)跟蹤領(lǐng)域一種通用的背景減除算法[2]。ViBe算法根據(jù)鄰域像素值具有空間相似性[3]的特點(diǎn),利用少量的鄰域像素快速建立背景模型,Barnich從理論和實(shí)驗(yàn)的角度驗(yàn)證了ViBe算法比高斯混合模型、碼本算法、加強(qiáng)型高斯混合模型、貝葉斯直方圖等背景減除算法計(jì)算速度快且檢測(cè)率高。所以,該算法很容易應(yīng)用到消費(fèi)類的電子產(chǎn)品[4]領(lǐng)域和交通視頻監(jiān)控[5]中。
ViBe算法[1,2]使用第1幀初始化背景模型,容易產(chǎn)生鬼影,文獻(xiàn)[6]在ViBe算法的初始化階段使用前n幀對(duì)模型初始化,該算法在一定程度上快速消除了鬼影,但當(dāng)前n幀中的多幀同時(shí)包含運(yùn)動(dòng)目標(biāo)時(shí),會(huì)在運(yùn)動(dòng)目標(biāo)區(qū)域出現(xiàn)前景像素的漏檢;文獻(xiàn)[7]針對(duì)鬼影在視頻中連續(xù)出現(xiàn)的次數(shù)比真實(shí)運(yùn)動(dòng)目標(biāo)出現(xiàn)的次數(shù)多的特點(diǎn),為視頻幀建立一個(gè)統(tǒng)計(jì)前景點(diǎn)出現(xiàn)次數(shù)的掩膜,當(dāng)某個(gè)像素被連續(xù)分類為前景點(diǎn)次數(shù)超過(guò)一定閾值時(shí),強(qiáng)制該像素變?yōu)楸尘包c(diǎn),同時(shí)更新該像素和其鄰域像素的背景模型,這樣判斷一個(gè)前景點(diǎn)是否為鬼影在時(shí)間上有了一定滯后性;文獻(xiàn)[8]在模型的初始化階段使用前2~n+1幀與第1幀求幀差圖像,然后添加進(jìn)入模型中,在一定程度上也能很好地消除掉鬼影,但是因?yàn)橄惹笙袼氐膸钪祲嚎s了像素之間的差別,會(huì)出現(xiàn)一定程度的檢測(cè)目標(biāo)不完整的缺點(diǎn);文獻(xiàn)[9]在檢測(cè)出前景的基礎(chǔ)上,統(tǒng)計(jì)前景中內(nèi)外邊緣區(qū)域的直方圖,然后通過(guò)直方圖匹配的方式檢測(cè)出鬼影區(qū)域,取得了良好的檢測(cè)性能,但是整個(gè)直方圖匹配過(guò)程會(huì)消耗大量時(shí)間;文獻(xiàn)[10]在深度圖像的基礎(chǔ)上另外創(chuàng)建一個(gè)參考模型,根據(jù)背景圖像中出現(xiàn)運(yùn)動(dòng)目標(biāo)時(shí)像素深度值變小的特點(diǎn)去除鬼影,但是在普通圖像中的處理效果較差;文獻(xiàn)[11]在合成真實(shí)背景圖像過(guò)程中使用三幀差分法去除運(yùn)動(dòng)目標(biāo)區(qū)域,但是傳統(tǒng)的三幀差分算法在某些場(chǎng)景下會(huì)產(chǎn)生孔洞,進(jìn)而造成合成的真實(shí)背景圖像中還會(huì)包含運(yùn)動(dòng)目標(biāo)。
本文針對(duì)ViBe算法在前景檢測(cè)中存在鬼影現(xiàn)象且長(zhǎng)時(shí)間難以消除的缺點(diǎn),提出以下三個(gè)方面的改進(jìn):首先,在模型初始化階段利用OTSU算法產(chǎn)生自適應(yīng)閾值并引入到幀差法中,分割出比較理想的前景區(qū)域;其次,利用去除前景區(qū)域的前n幀視頻幀,合成一張包含前景盡量少的真實(shí)背景樣本圖像,然后初始化ViBe算法模型;擴(kuò)大像素的鄰域范圍,把8-鄰域擴(kuò)展為24-鄰域,并且距離某像素較近的鄰域賦予較大權(quán)重,距離某像素較遠(yuǎn)的像素賦予較小權(quán)重,并應(yīng)用在ViBe模型的初始化階段和背景模型的更新階段,增強(qiáng)了模型的描述能力。
ViBe算法不需要假設(shè)背景像素的概率密度分布,而是根據(jù)鄰域像素值具有空間相似性[3]的特點(diǎn),利用少量的鄰域像素快速建立背景模型,實(shí)時(shí)性好、檢測(cè)精度高。具體步驟如下:
(1)ViBe模型的定義和初始化:假設(shè)視頻幀中x像素位置處的歐氏顏色距離值為υ(x),υi(i=1,2,…,N)[1]為像素x的背景模型中的N個(gè)像素值,背景模型如公式(1)所示:
Μ(x)={υ1,υ2,…,υN}
(1)
x像素的空間鄰域記為NG(x),通常來(lái)說(shuō)NG(x)是像素x的8-鄰域,利用視頻幀的第1幀初始化模型,如公式(2)所示:
M0(x)={υ0(y|y∈NG(x))}
(2)
(2)前景像素判斷:ViBe算法從第2幀開始進(jìn)行前景檢測(cè),定義SR(υ(x))是以υ(x)為圓心、以R為半徑的圓形區(qū)域,SR(υ(x))與模型M(x)中樣本的交集定義為#R,并與給定閾值#min比較,當(dāng)#R大于#min時(shí),判定該像素為背景點(diǎn);反之,即為前景像素。如公式(3)和公式(4)所示:
#R=SR(υ(x))∩{υ1,υ2,…,υN}
(3)
(4)
其中,background和foreground分別為背景集合和前景集合。
(3)ViBe模型的更新:當(dāng)某像素按照公式(3)和公式(4)被分類為背景像素時(shí),按照隨機(jī)更新機(jī)制[2]更新該素點(diǎn)的背景模型,并引入空間信息傳播機(jī)制[2]更新鄰域像素的背景模型。定義一個(gè)時(shí)間重采樣因子φ[1],當(dāng)某像素被判定為背景像素時(shí),該像素以1/φ的概率同時(shí)更新進(jìn)入該像素的背景模型和其鄰域像素的背景模型中。
在目標(biāo)跟蹤領(lǐng)域,各種算法往往會(huì)受到鬼影和陰影[12]的干擾,降低了檢測(cè)精度。文獻(xiàn)[13]認(rèn)為鬼影是在實(shí)際場(chǎng)景中無(wú)運(yùn)動(dòng)目標(biāo)、但是算法長(zhǎng)時(shí)間檢測(cè)出運(yùn)動(dòng)區(qū)域的像素的集合,如圖1c方框中的白色區(qū)域所示。圖1a是第1幀包含運(yùn)動(dòng)目標(biāo)的輸入,圖1b是第8幀輸入圖像,圖1c是ViBe算法對(duì)第8幀圖像檢測(cè)到的前景圖。像素P1和P2的取樣位置如圖1所示,圖1d和圖1e分別是P1和P2在第8幀的二維歐氏空間表示[1,2]。P1在第1幀的取樣位置是運(yùn)動(dòng)目標(biāo)區(qū)域,當(dāng)程序運(yùn)行到第8幀時(shí),P1處的待檢測(cè)像素雖然是真實(shí)背景像素,但是因?yàn)槟P椭袠颖军c(diǎn)大都是運(yùn)動(dòng)目標(biāo)的像素,根據(jù)公式(3)和公式(4)可以把P1判定為前景點(diǎn)(如圖1d所示),即出現(xiàn)了圖1c方框中的鬼影區(qū)域;P2在第1幀中取樣位置是真實(shí)背景區(qū)域,當(dāng)判斷第8幀P2處像素類別時(shí),根據(jù)公式(3)和公式(4)P2位置被判定為背景點(diǎn)(如圖1e所示)。所以,在建立ViBe模型時(shí),使用真實(shí)的背景像素且剔除出前景像素至為重要。
Figure 1 Ghost shadow analysis of ViBe algorithm圖1 ViBe算法的鬼影分析
傳統(tǒng)的幀差法通常根據(jù)先驗(yàn)經(jīng)驗(yàn)設(shè)置固定閾值以分割前景和背景,本文利用OTSU算法[14]為幀差法自適應(yīng)設(shè)置閾值,分割出更可靠的前景區(qū)域。前景檢測(cè)感興趣的目標(biāo)只有視頻中的背景和前景,OTSU算法在該處處理的是兩類分類問(wèn)題,背景和前景之間的類間誤差越大分類效果越好。設(shè)當(dāng)前分割閾值為T時(shí),分割出的前景點(diǎn)數(shù)量占一幀圖像的比例為ω0,所有前景點(diǎn)的均值為μ0;背景點(diǎn)占所有像素?cái)?shù)量的比例為1-ω0,均值為μ1,那么該被處理的整幀灰度圖像的均值μ以及前景和背景之間的類間方差為σ,分別如公式(5)和公式(6)所示:
μ=ω0*μ0+(1-ω0)μ1
(5)
σ=ω0*(μ0-μ)2+(1-ω0)*(μ1-μ)2
(6)
求出所有可能的閾值T后,會(huì)得到一個(gè)令前景和背景σ最大化的最優(yōu)閾值,記為Tmax,能夠使得前景和背景分類效果最好。
Rbg(i,j)=
(7)
其中,k=2,3,…,n,0≤i≤H,0≤j≤W,W和H分別為視頻幀的寬和高,且當(dāng)Rbg每更新一個(gè)像素Nc自加1。為了加快模型更新速度,為n設(shè)置一閾值上限nmax,當(dāng)未到達(dá)閾值nmax時(shí),Nc提前達(dá)到Np,意味著視頻幀的真實(shí)背景樣本圖像Rbg已經(jīng)提前合成,提前跳出循環(huán);當(dāng)構(gòu)建真實(shí)樣本圖像Rbg時(shí)超過(guò)該閾值時(shí),即使真實(shí)背景圖像沒(méi)有提取完畢也要跳出循環(huán),Rbg中沒(méi)有被賦值的像素值,使用第1幀相應(yīng)位置的像素補(bǔ)充替代,如公式(8)所示:
Rbg(i,j)=F1(i,j),ifRbg(i,j)=0
(8)
其中,F(xiàn)1是第1幀圖像的灰度圖。
Figure 2 Synthesis of background sample pictures圖2 背景樣本圖片的合成
ViBe算法[2]為一個(gè)像素建立背景模型是從相應(yīng)背景圖像的8-鄰域中反復(fù)抽取20次樣本點(diǎn)完成的,如圖3a所示。因8-鄰域的樣本像素會(huì)被反復(fù)抽取,導(dǎo)致分類像素錯(cuò)誤的可能性會(huì)加大。文獻(xiàn)[15]提出把8-鄰域擴(kuò)展為24-鄰域,如圖3b所示。為了體現(xiàn)出差異且增強(qiáng)背景模型的描述能力,本文提出根據(jù)與像素p(x)的距離不同,被抽中的概率也不同,距離p(x)近的像素被抽中的概率較大,距離p(x)較遠(yuǎn)的像素被抽中的概率較小,各像素被抽中的概率如公式(9)所示:
(9)
擴(kuò)展后的鄰域首先應(yīng)用在ViBe模型的初始化階段,圖像邊緣像素的24-鄰域超出了圖像的邊緣部分,直接使用距離最近的邊緣像素替代;然后,在模型更新階段,當(dāng)像素被模型分類為背景像素時(shí),圖3b中的1~8號(hào)像素以公式(9)中1/16的概率更新入模型,9~24號(hào)像素以公式(9)中1/32的概率更新入模型;這樣,擴(kuò)展的24-鄰域增強(qiáng)了模型的描述能力和魯棒性。
Figure 3 8-neighborhood and 24-neighborhood圖3 8-鄰域和24-鄰域
Cucchiara等人[12]認(rèn)為,一個(gè)魯棒性好的背景減除算法需要適應(yīng)外界環(huán)境、運(yùn)動(dòng)姿態(tài)和光照等方面的變化,所以本文采用ChangeDetection視頻庫(kù)[17]、Wallflower視頻庫(kù)[18]和Shadow Detection視頻庫(kù)[19]中不同場(chǎng)景下的視頻,并利用Opencv 2.4.9和Vs2012平臺(tái)進(jìn)行仿真,運(yùn)行環(huán)境是Pentium 2.70 GHz CPU,內(nèi)存為2 GB的PC機(jī)。為了對(duì)本文提出的算法進(jìn)行比較,另外使用Opencv中SDK的高斯混合模型GMM(Gauss Mixture Model)算法和CodeBook算法的庫(kù)函數(shù)進(jìn)行對(duì)比,且實(shí)現(xiàn)了文獻(xiàn)[2]的ViBe算法和文獻(xiàn)[6,8]改進(jìn)的ViBe算法進(jìn)行對(duì)比仿真。實(shí)驗(yàn)過(guò)程中的主要參數(shù)與文獻(xiàn)[2]中的是一致的,具體來(lái)說(shuō)是,模型中樣本的數(shù)量為N=20,圓形區(qū)域R=20,判斷是否為背景點(diǎn)的閾值#min=2,重采樣參數(shù)φ=16,本文提出改進(jìn)的ViBe算法中nmax=20。本實(shí)驗(yàn)主要分為兩部分:(1)在第1幀中無(wú)運(yùn)動(dòng)目標(biāo)的視頻庫(kù)中進(jìn)行;(2)在第1幀中含有運(yùn)動(dòng)目標(biāo)的視頻庫(kù)中實(shí)驗(yàn)。為了更好地突出對(duì)比實(shí)驗(yàn)結(jié)果,對(duì)所有的仿真實(shí)驗(yàn)的最后前景掩膜都沒(méi)有添加孔洞填充[20]模塊和小區(qū)域去除模塊。
為分析ViBe算法與本文改進(jìn)算法的時(shí)間復(fù)雜度和空間復(fù)雜度,設(shè)每幀輸入視頻圖像的像素個(gè)數(shù)為S,每個(gè)像素模型的樣本數(shù)為N。從第2節(jié)可以得出ViBe算法的空間復(fù)雜度和時(shí)間復(fù)雜度同時(shí)為Ο(S×N)。OTSU算法的時(shí)間復(fù)雜度為Ο(S),空間復(fù)雜度為Ο(1);合成真實(shí)背景圖片階段的時(shí)間復(fù)雜度為Ο(S),內(nèi)存方面為真實(shí)背景圖片開辟一幀原圖大小的矩形區(qū)域,故空間復(fù)雜度為Ο(1);8-鄰域擴(kuò)展為24-鄰域前后,從第2節(jié)ViBe模型的初始化、像素分類和模型更新階段使用鄰域信息的過(guò)程來(lái)看,不增加任何時(shí)間復(fù)雜度,另外,優(yōu)化前為8-鄰域開辟的存儲(chǔ)空間為2×8×4個(gè)字節(jié),優(yōu)化后為24-鄰域存儲(chǔ)2×24×4個(gè)字節(jié),優(yōu)化前后的空間復(fù)雜度同為Ο(1)。OTSU算法最多出現(xiàn)在前nmax幀中,其所占程序運(yùn)行時(shí)間和內(nèi)存空間可以忽略不計(jì),優(yōu)化后的總時(shí)間復(fù)雜度近似為Ο(S×N),總空間復(fù)雜度為Ο(S×N+1),與ViBe算法的復(fù)雜度近似。本文對(duì)ViBe算法和本文改進(jìn)的ViBe算法在不同場(chǎng)景下做對(duì)比實(shí)驗(yàn),結(jié)果如表1所示。ViBe算法的每幀平均運(yùn)行時(shí)間為32.62~34.72 ms,視頻處理速度為每秒28.8~30.7幀;本文改進(jìn)算法的每幀處理時(shí)間為34.13~39.23 ms,視頻處理速度為每秒25.5~29.3幀。所以,本文優(yōu)化算法與原ViBe算法的運(yùn)行速度近似,可以滿足實(shí)時(shí)性的要求。
Table 1 Comparison of average running time per oneframe between ViBe algorithm and the improved表1 ViBe算法與本文改進(jìn)算法的每幀平均運(yùn)行時(shí)間比較 (毫秒/幀)
(1)第1幀中不含運(yùn)動(dòng)目標(biāo)的對(duì)比實(shí)驗(yàn)。
改進(jìn)算法針對(duì)的視頻場(chǎng)景是第1幀中包含運(yùn)動(dòng)目標(biāo)的情況下產(chǎn)生的鬼影和漏檢現(xiàn)象,同時(shí)該算法需要在第1幀沒(méi)有運(yùn)動(dòng)目標(biāo)的情況下也能夠很好地完成前景檢測(cè)。該組對(duì)比實(shí)驗(yàn)在backdoor、bungalows、campus_raw和MovedObject等視頻庫(kù)中進(jìn)行,分別取自視頻幀的第55、140、60、80、864幀,實(shí)驗(yàn)結(jié)果如圖4所示。backdoor和bungalows是一般條件下的視頻監(jiān)控圖像,各算法均能很好地檢測(cè)出前景區(qū)域;campus_raw是低分辨率下的視頻庫(kù)圖像,GMM算法和文獻(xiàn)[8]算法不能完整檢測(cè)出車輛的輪廓;MovedObject是室內(nèi)場(chǎng)景下的運(yùn)動(dòng)目標(biāo)視頻,GMM和文獻(xiàn)[2]算法不能完整地檢測(cè)出運(yùn)動(dòng)目標(biāo),本文算法與其它算法能夠完整地檢測(cè)出運(yùn)動(dòng)目標(biāo)??傊摻M實(shí)驗(yàn)一方面說(shuō)明了ViBe算法比GMM和Codebook模型適應(yīng)性強(qiáng),另一方面說(shuō)明了本文改進(jìn)算法不會(huì)影響第1幀無(wú)運(yùn)動(dòng)目標(biāo)場(chǎng)景下的前景檢測(cè),具有良好的魯棒性。
(2)第1幀中包含運(yùn)動(dòng)目標(biāo)的對(duì)比實(shí)驗(yàn)。
Figure 4 Contrast test when the first frame without moving target圖4 第1幀無(wú)運(yùn)動(dòng)目標(biāo)的對(duì)比實(shí)驗(yàn)
Figure 5 Contrast test when the first frame has moving target圖5 第1幀有運(yùn)動(dòng)目標(biāo)的對(duì)比實(shí)驗(yàn)
為驗(yàn)證本文改進(jìn)算法消除鬼影的能力,分別使用惡劣天氣、光線變化大、運(yùn)動(dòng)目標(biāo)較小、運(yùn)動(dòng)速度快等多種復(fù)雜條件下視頻庫(kù)進(jìn)行對(duì)比實(shí)驗(yàn)。圖5中輸入圖像分別取自視頻庫(kù)blizzard、Bootstrap、streetLight、ramCrossroad_1fps的第230、65、35和40幀,各算法檢測(cè)到的鬼影區(qū)域如圖5方框中的白色區(qū)域所示。blizzard是暴風(fēng)雪下的運(yùn)動(dòng)車輛檢測(cè),GMM模型完全檢測(cè)不到任何運(yùn)動(dòng)目標(biāo),Codebook模型和ViBe算法在檢測(cè)到車輛的同時(shí),還存在明顯的鬼影區(qū)域,文獻(xiàn)[6]算法檢測(cè)到車輛的同時(shí),鬼影區(qū)域幾乎消失,文獻(xiàn)[8]算法完全不能檢測(cè)到車輛的同時(shí)還存在鬼影,本文提出了改進(jìn)算法不僅完全消除鬼影,還完整地提取出車輛;Bootstrap是運(yùn)動(dòng)目標(biāo)對(duì)環(huán)境光線影響大的情景,只有文獻(xiàn)[6]算法和本文算法能比較完整地檢測(cè)出運(yùn)動(dòng)的行人,其他算法均不能消除鬼影且對(duì)光線很敏感;streetLight是正常監(jiān)控條件下的車輛和行人圖像,GMM模型的鬼影明顯,文獻(xiàn)[2]算法車輛檢測(cè)正常,但還存在部分鬼影,文獻(xiàn)[6,8]算法雖然可以完全消除鬼影,但是車輛的檢測(cè)不完整;CodeBook算法和本文算法能夠很好地消除鬼影的同時(shí),車輛和行人檢測(cè)準(zhǔn)確;ramCrossroad_1fps是復(fù)雜背景下車輛的快速運(yùn)動(dòng)的情景,GMM模型和文獻(xiàn)[2]算法的鬼影突出,CodeBook的鬼影完全消失,但是噪聲較多;文獻(xiàn)[6,8]算法能夠很好地消除鬼影,但是運(yùn)動(dòng)目標(biāo)不完整,當(dāng)運(yùn)動(dòng)目標(biāo)經(jīng)過(guò)鬼影區(qū)域時(shí),會(huì)出現(xiàn)一定數(shù)量像素的漏檢,本文改進(jìn)算法能夠完整檢測(cè)出前景目標(biāo),鬼影幾乎完全消失??傊?,在第1幀包含運(yùn)動(dòng)目標(biāo)的各種場(chǎng)景下,本文改進(jìn)算法與其他算法相比,不僅能準(zhǔn)確檢測(cè)到運(yùn)動(dòng)目標(biāo),且能很好地消除鬼影現(xiàn)象。
記TP=真前景像素個(gè)數(shù),TN=真背景像素個(gè)數(shù),F(xiàn)P=假前景像素個(gè)數(shù),F(xiàn)N=假背景像素個(gè)數(shù),為了定量分析各算法性能,引入分類正確率PCC(Percentage of Correct Classification)[2],假正率FPR(False Positive Rate)和假負(fù)率FNR(False Negative Rate)[17]三個(gè)參數(shù),如公式(10)~(12)所示。PCC反映的是判斷正確的前景像素和背景像素在一幀圖像中所占的比例,可以作為衡量檢測(cè)效果的總體性能指標(biāo),數(shù)值越大,說(shuō)明總體檢測(cè)效果較好;FPR被稱為假正率,在本文中反映的是背景像素被判斷為前景的比例,也就是鬼影區(qū)域的大小,該值越小,檢測(cè)效果越好;FNR被稱為假負(fù)率,在本文中反映的是前景像素被誤判為背景像素?cái)?shù)在背景像素中的比例,該值越小,檢測(cè)效果越好。
(10)
(11)
(12)
在ChangeDetection視頻庫(kù)[17]的turnpike_0_5fps中,自第800幀起的視頻圖像包含相應(yīng)的真實(shí)背景圖像,且第800幀中包含運(yùn)動(dòng)目標(biāo),作為視頻處理的第1幀,因?yàn)楣碛艾F(xiàn)象主要存在于視頻幀開始處理階段,取前100幀對(duì)各算法統(tǒng)計(jì)TP、TN、FP和FN,各算法的PCC曲線如圖6所示。因?yàn)檐囕v在視頻中運(yùn)行速度非???,所以各算法的PCC值不是單調(diào)上升,而是有一定的波動(dòng)。
Figure 6 PCC curves of the algorithms圖6 各算法的PCC曲線
圖6中,本文算法的PCC曲線表現(xiàn)總體性能最好,單幀的PCC值與其他算法相比提高5%~20%。對(duì)各算法統(tǒng)計(jì)PCC、FPR和FNR的平均值并制作表2。從表2可以看出,GMM、CodeBook、ViBe算法[2]、文獻(xiàn)[6]算法、文獻(xiàn)[8]算法和本文算法分別從第1、21、2、21、22和11幀開始檢測(cè),并分別在59、21、180、21、22和25幀時(shí)鬼影完全消失,ViBe算法的鬼影消失時(shí)間最長(zhǎng),本文算法鬼影消失時(shí)間分別是ViBe算法、GMM和CodeBook的22.4%、43.7%和82.7%,文獻(xiàn)[6,8]算法的鬼影消失時(shí)間最快;ViBe算法的FPR和FNR最高,說(shuō)明ViBe算法在檢測(cè)過(guò)程中受到鬼影區(qū)域的影響較大,且當(dāng)新的運(yùn)動(dòng)目標(biāo)經(jīng)過(guò)鬼影區(qū)域時(shí),被判定為背景像素的概率較大,本文算法的FPR和FNR最低,并且稍優(yōu)于文獻(xiàn)[6,8]算法,說(shuō)明本文算法在去除鬼影區(qū)域的同時(shí)可以提高檢測(cè)運(yùn)動(dòng)目標(biāo)的完整性;圖4中,ViBe算法在第1幀沒(méi)有運(yùn)動(dòng)目標(biāo)時(shí)的檢測(cè)效果較好,但是在第1幀包含運(yùn)動(dòng)目標(biāo)的場(chǎng)景下,表2中ViBe算法的平均PCC值最低,本文算法的PCC值最高,分別比ViBe算法、文獻(xiàn)[6]算法和文獻(xiàn)[8]算法高10.7%、4.7%和3.7%。所以本組實(shí)驗(yàn)表明,本文改進(jìn)算法在保證前景檢測(cè)的準(zhǔn)確性和完整性的同時(shí),能夠很快消除鬼影。
想起來(lái)曾經(jīng)有個(gè)小女孩打電話到電臺(tái)給媽媽點(diǎn)歌,主持人:“為什么要給媽媽點(diǎn)歌呢?”小女孩:“媽媽上班很辛苦,周末還不能好好休息,要找各種作業(yè)給我,還要帶我去各種興趣班。這個(gè)時(shí)間,媽媽還一邊看手機(jī)一邊看我學(xué)跳舞?!敝鞒秩撕芨袆?dòng),問(wèn)要點(diǎn)什么歌呢?小女孩:“《女人何苦為難女人》”……
Table 2 Comparison of performance among the six algorithms表2 六種算法的性能對(duì)比
本文針對(duì)基于ViBe算法的前景檢測(cè)過(guò)程中存在的鬼影現(xiàn)象且長(zhǎng)時(shí)間難以消除的缺點(diǎn),進(jìn)行了深入研究并對(duì)其進(jìn)行改進(jìn)。首先,在前n幀中的幀差法中,引入了OTSU算法為幀差法求出自適應(yīng)閾值,以分割出更為準(zhǔn)確的前景區(qū)域;然后從去除前景區(qū)域的前n幀中合成一張真實(shí)背景圖像,仿真實(shí)驗(yàn)結(jié)果表明,在視頻的第5~15幀即可完成該真實(shí)背景圖像的合成并直接跳出循環(huán),進(jìn)入ViBe算法模型的初始化階段;最后,把擴(kuò)展后的24-鄰域用在ViBe模型的初始化階段和背景模型的更新階段,以增強(qiáng)模型的描述能力和魯棒性。本文通過(guò)不同場(chǎng)景下的大量對(duì)比實(shí)驗(yàn),驗(yàn)證了本文改進(jìn)算法消除鬼影的快速性,適應(yīng)多種場(chǎng)景的魯棒性和提取運(yùn)動(dòng)目標(biāo)的完整性。
參考文獻(xiàn):
[1] Barnich O, Van Droogenbroeck M.ViBe:A powerful random technique to estimate the background in video sequences[C]∥Proc of 2009 IEEE International Conference on Acoustics,Speech and Signal Processing,2009:945-948.
[2] Barnich O, Van Droogenbroeck M. ViBe:A universal background subtraction algorithm for video sequences[J].IEEE Transactions on Image Processing,2011,20(6):1709-1724.
[3] Seki M,Wada T,Fujiwara H,et al.Background subtraction based on cooccurrence of image variations[C]∥Proc of 2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2003:65-65.
[4] Wu W,He Q,Wang Y,et al.An improved method of Vibe for motion detection based on Android system[C]∥Proc of 2013 IEEE International Conference on Robotics and Biomimetics (ROBIO),2013:2436-2440.
[5] Jiang Jian-guo,Wang Tao,Qi Mei-bin,et al.The traffic statistics algorithm based on ViBe[J].Journal of Electronic Measurement and Instrument,2012,26(6):558-563.(in Chinese)
[6] Yang Yong,Sun Ming-wei,Jin Yu-cheng.An improved visual background extraction (ViBe) algorithm of vehicle detection method[J].Journal of Chongqing University of Posts and Telecommunications(Natural Science Edition),2014,26(3):397-403.(in Chinese)
[8] Mahoor E,Maghsoumi H,Asemani D.An improved motion detection algorithm using ViBe[C]∥Proc of 2015 6th International Conference on Computing,Communication and Networking Technologies (ICCCNT),2015:1-5.
[9] Wu Liang,Zhou Dong-xiang,Fan Cai-zhi,et al.A ghosts detection algorithm based on histogram matching[J].Computer Engineering & Science,2008,30(7):57-60.(in Chinese)
[10] Meng Ming, Yang Fang-bo, Yu Qing-shan,et al.Human motion detection based on the information of Kinect depth image[J].Journal of Instrument and Meter,2015,36(2):386-393.(in Chinese)
[11] He Zhi-hui,Huang Shan,Ran Geng.Moving object detection algorithm based on an improved visual background extraction model[J].Journal of Chinese Computer Systems,2015,36(11):2559-2562.(in Chinese)
[12] Cucchiara R,Grana C,Piccardi M,et al.Detection moving objects,ghosts,and shadows in video streams[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2003,25(10):1337-1342.
[13] Maadi A E, Maldague X.Outdoor infrared video surveillance:A novel dynamic technique for the subtraction of a changing background of IR images[J].Infrared Physics & Technology,2007,49(3):261-265.
[14] Han X, Gao Y,Lu Z,et al.Research on moving object detection algorithm based on improved three frame difference method and optical flow[C]∥Proc of 2015 5th International Conference on Instrumentation and Measurement,Computer,Communication and Control (IMCCC),2016:580-584.
[15] Yu Ye,Cao Ming-wei,Yue Feng.EVibe:An improved Vibe moving target detection algorithm [J].Journal of Instrument,2014,35(4):924-931.(in Chinese)
[16] Bharti M,Thind T.Background subtraction techniques—review[J].International Journal of Innovative Technology & Exploring Engineering,2013,4(2):3099-3104.
[17] Goyette N,Jodoin P M,et al.Changedetection.net:A new
change detection benchmark dataset[C]∥Proc of 2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2012:1-8.
[18] Toyama K, Krumm J,Brumitt B,et al.Wallflower:Principles and practice of background maintenance[C]∥Proc of the 7th IEEE International Conference on Computer Vision,1999:255-261.
[19] Sanin A,Sanderson C,Lovell B C.Shadow detection:A survey and comparative evaluation of recent methods[J].Pattern Recognition,2012,45(4):1684-1695.
[20] Nurhadiyatna A,Jatmiko W,Hardjono B,et al.Background subtraction using Gaussian mixture model enhanced by hole filling algorithm (GMMHF)[C]∥Proc of 2013 IEEE International Conference on Systems,Man,and Cybernetics,2013:4006-4011.
附中文參考文獻(xiàn):
[5] 蔣建國(guó),王濤,齊美彬,等.基于ViBe的車流量統(tǒng)計(jì)算法[J].電子測(cè)量與儀器學(xué)報(bào),2012,26(6):558-563.
[6] 楊勇,孫明偉,金裕成.一種改進(jìn)視覺(jué)背景提取(ViBe)算法的車輛檢測(cè)方法[J].重慶郵電大學(xué)學(xué)報(bào)(自然科學(xué)版),2014,26(3):397-403.
[9] 吳亮,周東翔,范才智,等.基于直方圖匹配的鬼影檢測(cè)算法[J].計(jì)算機(jī)工程與科學(xué),2008,30(7):57-60.
[10] 孟明,楊方波,佘青山,等.基于Kinect深度圖像信息的人體運(yùn)動(dòng)檢測(cè)[J].儀器儀表學(xué)報(bào),2015,36(2):386-393.
[11] 何志輝,黃山,冉耕.一種改進(jìn)視覺(jué)背景提取模型的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].小型微型計(jì)算機(jī)系統(tǒng),2015,36(11):2559-2562.
[15] 余燁,曹明偉,岳峰.EVibe:一種改進(jìn)的Vibe運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].儀器儀表學(xué)報(bào),2014,35(4):924-931.