戚其豐 吳忻生 鄧軍
(1.華南理工大學(xué)自動(dòng)化科學(xué)與工程學(xué)院,廣東廣州510640;2.華南理工大學(xué)精密電子制造裝備教育部工程研究中心,廣東廣州510640)
在車(chē)輛監(jiān)控、安防監(jiān)控、自主導(dǎo)航、人體跟蹤和三維物體辨識(shí)等機(jī)器視覺(jué)應(yīng)用中,運(yùn)動(dòng)對(duì)象的分割是一個(gè)非常重要的問(wèn)題.但是在真實(shí)環(huán)境下,目前主流的運(yùn)動(dòng)對(duì)象分割算法較難消除運(yùn)動(dòng)陰影對(duì)于分割的影響.比如在車(chē)輛監(jiān)控系統(tǒng)中,由于陰影的影響,即使運(yùn)用車(chē)輛的大小和形狀信息作為限制條件,還是會(huì)將運(yùn)動(dòng)的陰影誤分割為車(chē)輛.所以一個(gè)有效的陰影消除方法對(duì)于視頻監(jiān)控系統(tǒng)和圖像處理系統(tǒng)都具有重要的意義.
陰影是由環(huán)境中光照條件的變化引起的,一般根據(jù)其是否運(yùn)動(dòng)可分為固定的陰影(如路邊的綠化帶投射到路面的陰影)和運(yùn)動(dòng)的陰影(如行駛中的車(chē)輛在路面的投影).固定的陰影可以通過(guò)背景更新消除[1-6],而運(yùn)動(dòng)的陰影難以通過(guò)背景更新消除,因?yàn)檐?chē)和運(yùn)動(dòng)陰影具有相同的運(yùn)動(dòng)特征.本質(zhì)上,消除陰影就需要找到能夠描述陰影的特征.運(yùn)動(dòng)陰影的消除方法一般是從特征信息或特征模型這兩方面著手,可分為幾何模型法、顏色模型法和統(tǒng)計(jì)模型法.幾何模型法是以攝像機(jī)、環(huán)境和對(duì)象的相對(duì)幾何關(guān)系來(lái)分割運(yùn)動(dòng)陰影.Hsieh等[7-8]提出了基于直方圖的方法,將視頻圖像中的道路進(jìn)行分割,運(yùn)用基于線(xiàn)模式的陰影模型消除車(chē)輛的陰影.Yoneyama等[9]提出了二維車(chē)輛/陰影模型來(lái)去除陰影.基于幾何模型的陰影分割方法非常依賴(lài)對(duì)象和環(huán)境的幾何關(guān)系,當(dāng)幾何關(guān)系改變時(shí),這些方法隨之失效.顏色模型法試圖通過(guò)陰影點(diǎn)的顏色改變找到光照不變的顏色特征[10-11].Salvador等[12]提出了歸一化的 RGB 顏色空間,并結(jié)合陰影的幾何屬性分割視頻中的陰影.Siala等[13]采用對(duì)角線(xiàn)模型,在RGB顏色空間中描述陰影的顏色畸變,并且基于顏色比率運(yùn)用支持向量域描述算法檢測(cè)運(yùn)動(dòng)陰影.Nadimi等[14]引入了一種物理方法在室外環(huán)境中檢測(cè)運(yùn)動(dòng)陰影.統(tǒng)計(jì)模型法則運(yùn)用統(tǒng)計(jì)理論概率的方法進(jìn)行陰影的分割[15].Wang等[16]利用背景和陰影的邊界信息建立了自適應(yīng)更新的高斯分布模型,通過(guò)貝葉斯理論分割陰影點(diǎn).文獻(xiàn)[17]提出辨識(shí)陰影的分布模型算法,建立了混合高斯模型來(lái)檢測(cè)陰影.Mikic等[18]運(yùn)用最大后驗(yàn)概率的方法,將像素點(diǎn)區(qū)分為陰影、前景和背景,結(jié)合空間約束和顏色信息提高分割的準(zhǔn)確率.
以上方法在某些特定情況下非常有效,但存在一定的局限性.如幾何模型法非常依賴(lài)于幾何關(guān)系,如果場(chǎng)景發(fā)生變化,幾何關(guān)系隨之改變.統(tǒng)計(jì)模型法的計(jì)算量很大.顏色模型法在一般情況下是有效的,要提高這類(lèi)方法的準(zhǔn)確性必須進(jìn)行相應(yīng)的改進(jìn).文中引入文獻(xiàn)[10]提出的前景對(duì)象、背景和陰影間顏色的關(guān)系,以背景相減[19]為基礎(chǔ),通過(guò)離線(xiàn)訓(xùn)練多點(diǎn)對(duì)參考模型(MPPR)[20],在 HSL色彩空間中運(yùn)用圖像全局域上的信息建立多點(diǎn)對(duì)參考模型,來(lái)對(duì)車(chē)輛陰影進(jìn)行消除.
在視頻圖像中直接背景相減是最為有效的前景分割方法.這種方法雖然不能將前景對(duì)象準(zhǔn)確地分割,但是計(jì)算量小(只是對(duì)像素值進(jìn)行加減),運(yùn)算速度快,能夠去除絕大部分背景像素,提取出感興趣區(qū)域.文中采用選擇性背景更新方法[19]對(duì)視頻圖像進(jìn)行預(yù)處理,提取感興趣區(qū)域得到的粗分割圖如圖1(b)所示.再對(duì)粗分割圖進(jìn)一步進(jìn)行細(xì)分割,就是文中的重點(diǎn)——運(yùn)動(dòng)陰影的消除.
圖1 用文獻(xiàn)[19]的方法處理圖像的結(jié)果Fig.1 Image processing results using the method proposed in Reference[19]
文中方法利用HSL顏色空間中前景對(duì)象、背景和陰影之間的屬性[10]進(jìn)行運(yùn)動(dòng)陰影的消除.前景對(duì)象一般與背景和陰影的色度差異較大,而陰影與背景路面的色度差異小,陰影的亮度肯定比該點(diǎn)背景路面的小.利用該屬性對(duì)陰影進(jìn)行分割,需要準(zhǔn)確地獲得當(dāng)前點(diǎn)P對(duì)應(yīng)的背景路面點(diǎn)B.對(duì)此,文中運(yùn)用多點(diǎn)對(duì)參考模型進(jìn)行處理,其基本思想是,雖然不能直接獲取當(dāng)前點(diǎn)P對(duì)應(yīng)的準(zhǔn)確背景點(diǎn)B,但是可在整張圖像中尋找到N個(gè)與B點(diǎn)形成穩(wěn)定關(guān)系的參考點(diǎn)Q來(lái)代替.為尋找這些參考點(diǎn),可以建立一個(gè)各種光照環(huán)境下的背景圖像集,通過(guò)離線(xiàn)訓(xùn)練的方法,為整張圖像所有像素點(diǎn)建立一個(gè)穩(wěn)定的不受環(huán)境變化影響的參考點(diǎn)集.參考點(diǎn)Q的選擇原則為:當(dāng)前點(diǎn)P與其對(duì)應(yīng)的參考點(diǎn)Q在HSL色彩空間中的顏色向量空間距離最小.建立參考點(diǎn)集后,再利用HSL顏色空間中前景點(diǎn)、背景點(diǎn)和陰影點(diǎn)之間的相互關(guān)系,區(qū)分當(dāng)前點(diǎn)P是前景還是陰影.圖2為完整的車(chē)輛陰影消除算法的流程,其中點(diǎn)線(xiàn)框表示多點(diǎn)對(duì)參考模型的離線(xiàn)訓(xùn)練過(guò)程,虛線(xiàn)框和實(shí)線(xiàn)框?yàn)樵诰€(xiàn)陰影消除過(guò)程.實(shí)線(xiàn)框中的在線(xiàn)陰影去除過(guò)程用文獻(xiàn)[19]的方法完成.文中提出的陰影消除方法是在文獻(xiàn)[20]提出的MPPR的基礎(chǔ)上建立的,進(jìn)行了如下3點(diǎn)的改進(jìn):(1)文獻(xiàn)[20]中的MPPR是基于灰度圖建立的,只能作為單純的背景消除方法,而文中通過(guò)引入HSL空間中前景、陰影和背景之間的顏色關(guān)系,不但可以消除背景而且還能消除陰影;(2)運(yùn)用圖4中的道路模板離線(xiàn)訓(xùn)練多點(diǎn)對(duì)參考模型,剔除了不必要的點(diǎn)對(duì)搜索,提高了離線(xiàn)訓(xùn)練的效率;(3)引入文獻(xiàn)[19]中的感興趣區(qū)域提取方法,極大地減少了在線(xiàn)分割點(diǎn)的數(shù)量,提高了在線(xiàn)分割方法的效率.下面將詳述多點(diǎn)對(duì)參考模型的建立及陰影消除算法.
圖2 車(chē)輛陰影消除算法的流程圖Fig.2 Fowchart of vehicle shadow elimination algorithm
在HSL空間中,給定圖像I,其大小為U×V,點(diǎn)P(x,y)為目標(biāo)點(diǎn),點(diǎn)Q(i,j)為參考點(diǎn),P(x,y),Q(i,j)∈I(U×V)且x≠i,y≠j.若P(x,y)和Q(i,j)存在比較穩(wěn)定的關(guān)系,則認(rèn)為Q(i,j)是P(x,y)的穩(wěn)定參考點(diǎn),這兩個(gè)點(diǎn)形成一個(gè)點(diǎn)對(duì).為了使這些點(diǎn)對(duì)能夠得到各種環(huán)境下的穩(wěn)定關(guān)系,必須在給定的訓(xùn)練圖像集Ξ={I1,I2,…,IT}中獲取一個(gè)參考點(diǎn)對(duì)集.文中將每一個(gè)目標(biāo)點(diǎn)P在集Ξ中找到的N個(gè)穩(wěn)定參考點(diǎn)Qn(n=1,2,…,N)構(gòu)成一個(gè)參考點(diǎn)集,這一過(guò)程就是對(duì)該點(diǎn)建立多點(diǎn)對(duì)參考模型.
在HSL顏色空間,多點(diǎn)對(duì)參考模型中目標(biāo)點(diǎn)與其參考點(diǎn)必須滿(mǎn)足色度差異最小,而亮度差異必須小于給定閾值wg,如式(1)所示.
式中,H(*)和L(*)分別表示像素點(diǎn)的色度和亮度,eg是一個(gè)較小的常數(shù).
運(yùn)用式(1)選擇參考點(diǎn)時(shí)必須注意如下3個(gè)問(wèn)題:(1)閾值wg的選擇直接影響MPPR模型對(duì)噪聲的抗干擾能力,必須要適當(dāng);(2)Qn必須滿(mǎn)足一定的統(tǒng)計(jì)學(xué)要求,在絕大部分訓(xùn)練圖片中必須比目標(biāo)點(diǎn)P的亮度差異大于wg個(gè)單位;(3)從圖像的開(kāi)始點(diǎn)一直到邊界每一個(gè)目標(biāo)點(diǎn)都必須從多個(gè)方向搜索參考點(diǎn),在多數(shù)圖像中,如果目標(biāo)點(diǎn)與參考點(diǎn)的色度差異小于eg,0≤L(P(x,y)) -L(Qn(i,j))≤wg時(shí)定義MPPR(P,Qn)=1,-wg≤L(P(x,y)) -L(Qn(i,j)) <0時(shí)定義MPPR(P,Qn)=-1.所有目標(biāo)點(diǎn)對(duì)應(yīng)的參考點(diǎn)組成了正負(fù)兩個(gè)符號(hào)集.
在式(1)中給定了點(diǎn)對(duì)的選擇要求,但并未限制參考點(diǎn)的位置,即參考點(diǎn)不一定要在目標(biāo)點(diǎn)的鄰域范圍內(nèi),可在圖像的全局域中選擇滿(mǎn)足式(1)的參考點(diǎn).這解決了如下問(wèn)題:大多數(shù)圖像處理過(guò)程中,空間約束只限定在目標(biāo)點(diǎn)的鄰域范圍內(nèi),只運(yùn)用了局部的空間約束關(guān)系,致使分割不夠準(zhǔn)確.文中方法把這種空間約束擴(kuò)展到圖像全局域,使其非常適合監(jiān)控系統(tǒng)中的對(duì)象分割,例如,在車(chē)輛監(jiān)控系統(tǒng)中,運(yùn)動(dòng)陰影中的目標(biāo)點(diǎn)可以通過(guò)參考未被車(chē)輛或陰影遮擋的路面中的參考點(diǎn)進(jìn)行比對(duì)分割.
單個(gè)目標(biāo)點(diǎn)P如果與其候選參考點(diǎn)Qn的色度差異小于eg,那么Qn就具備成為P的背景參考點(diǎn)的資格.如果P與Qn的亮度差異小于wg,則認(rèn)為Qn是P的參考點(diǎn).即在任何圖像中,即使是在光照發(fā)生變化的環(huán)境下,MPPR(P,Qn)符號(hào)相同的概率都非常高.換言之,如果MPPR(P,Qn)的差異符號(hào)沒(méi)有改變,表明圖像中沒(méi)有檢測(cè)到前景運(yùn)動(dòng)物體,點(diǎn)P是背景像素點(diǎn);如果MPPR(P,Qn)的差異符號(hào)發(fā)生了變化,則點(diǎn)P為陰影像素點(diǎn).
MPPR模型的建立主要是確定參考點(diǎn)和目標(biāo)點(diǎn)的亮度差異閾值wg,因?yàn)檫@個(gè)差異直接影響MPPR模型對(duì)于噪聲的魯棒性.如果目標(biāo)點(diǎn)與參考點(diǎn)的亮度差異過(guò)小,則MPPR模型對(duì)于噪聲過(guò)于敏感;反之,差異過(guò)大,MPPR模型就會(huì)遲鈍.所以這個(gè)模型既不能過(guò)于敏感又不能遲鈍.
MPPR模型的建立分4大部分:
1)搜索候選索引點(diǎn).假設(shè)給定點(diǎn)滿(mǎn)足式(1)則為候選參考點(diǎn).給定M(M>N)個(gè)候選參考點(diǎn)QM(1≤n≤M).此時(shí)正的候選參考點(diǎn)集Ω+(P)和負(fù)的候選參考點(diǎn)集Ω-(P)分別定義如下:
在式(3)和(4)中,閾值wp(0.5<wp<1.0)為點(diǎn)對(duì)在給定圖像集中的最小比例,概率(P,Q)和表示從圖像中估計(jì)得到的滿(mǎn)足灰度要求的點(diǎn)對(duì)的數(shù)量,定義如下:Φ表示滿(mǎn)足函數(shù)f(x)的x的總數(shù),Lt(*)為在第t幀訓(xùn)練圖像中點(diǎn)的亮度,T表示訓(xùn)練圖像的總數(shù).
2)計(jì)算亮度均值.目標(biāo)點(diǎn)的亮度均值定義為其中P∈Γ,Γ為點(diǎn)P的鄰域.每一個(gè)候選參考點(diǎn)Qm的亮度均值都必須滿(mǎn)足Qm∈Ω+(P)或Qm∈Ω-(P).
3)搜索參考點(diǎn).如果Q1、Q2為兩個(gè)點(diǎn)的采樣像素點(diǎn),當(dāng)且僅當(dāng)
時(shí)定義Q1<Q2.按照這樣的大小關(guān)系存儲(chǔ)到Ω+(P)或者Ω-(P)這兩個(gè)候選參考點(diǎn)集中.對(duì)于每個(gè)給定的目標(biāo)點(diǎn)P∈Γ,文中都能給出正負(fù)參考點(diǎn)集 ref+(P)和 ref-(P)∈Γ,其中
ref+(P):={在集Ω+(P)中均勻分布于整個(gè)
ref-(P):={在集Ω-(P)中均勻分布于整個(gè)
且 ref+(P)∪ref-(P)=ref(P).
4)創(chuàng)建MPPR模型.記錄P與Qn之間灰度差異的符號(hào)為
整個(gè)標(biāo)準(zhǔn)的建模過(guò)程可由算法1的偽代碼表述.通過(guò)算法的離線(xiàn)訓(xùn)練可以得到MPPR模型,具體步驟如下.
Input:T幀訓(xùn)練圖片(圖片幀由It表示);閾值eg、wg、wp.
Output:目標(biāo)點(diǎn)P的正負(fù)參考點(diǎn)集ref+、ref-.
for每一個(gè)目標(biāo)點(diǎn)Pdo
初始化ref+(P)←?;ref-(P)←?;
由式(3)、(4)分別搜索候選參考點(diǎn)集Ω+(P)和Ω-(P);
分別計(jì)算目標(biāo)點(diǎn)與候選參考點(diǎn)集Ω+(P)和Ω-(P)每一個(gè)元素的均值亮度差異:
按照式(7)對(duì)Ω+(P)和Ω-(P)進(jìn)行排序.
選擇候選參考點(diǎn)集中均勻分布于路面的參考點(diǎn)建立ref+和 ref-;end
return ref+,ref-.
圖3所示是一個(gè)目標(biāo)點(diǎn)P對(duì)應(yīng)的參考點(diǎn)的確切分布的例子,其中選擇N=16.
圖3 目標(biāo)點(diǎn)P對(duì)應(yīng)的16個(gè)參考點(diǎn)Fig.3 Sixteen reference points corresponding to target point P
前景分割問(wèn)題可以轉(zhuǎn)化為二值分類(lèi)問(wèn)題.在運(yùn)用固定攝像頭的監(jiān)控系統(tǒng)中,可以通過(guò)對(duì)視頻圖像中的每一個(gè)像素分配不同的標(biāo)號(hào)實(shí)現(xiàn)前景對(duì)象的分割.文中算法的處理對(duì)象是由文獻(xiàn)[19]中的方法進(jìn)行處理后得到的感興趣區(qū)域,如圖1(b)所示.在每個(gè)感興趣區(qū)域中可能存在車(chē)輛、路面及運(yùn)動(dòng)陰影.在給定時(shí)刻t,圖像It中包含k個(gè)感興趣區(qū)域塊的集合{Ψ1(It),Ψ2(It),…,Ψk(It)},只要對(duì)每一個(gè)Ψi(It)中的每一個(gè)像素進(jìn)行標(biāo)號(hào)的分配,就完成了前景對(duì)象的分割.文中提出的分割算法具體如下:
1)以給定的Ψi(It)中的每一個(gè)像素作為目標(biāo)點(diǎn),在當(dāng)前幀中按照ref+、ref-找到其參考點(diǎn)的像素值.按照式(2),判斷該像素點(diǎn)是否為前景對(duì)象(車(chē)輛).如果滿(mǎn)足式(2),則認(rèn)為該像素點(diǎn)為前景.
2)對(duì)在感興趣區(qū)域塊Ψi(It)中未通過(guò)步驟1)的目標(biāo)點(diǎn)P及其參考點(diǎn)Qn(Qn∈ref+(P)或ref-(P)),比較它們之間的亮度大小得到符號(hào)集:
然后通過(guò)對(duì)比X(P,Qn)和MPPR(P,Qn)中的符號(hào),可以得到正確點(diǎn)對(duì)數(shù)量的概率:
給定閾值wh,通過(guò)式(12)、(13)計(jì)算得到正的正確點(diǎn)對(duì)數(shù)量的概率σ+(P)和負(fù)的正確點(diǎn)對(duì)數(shù)量的概率σ-(P),若分別滿(mǎn)足σ+(P) >wh,σ-(P) >wh,則認(rèn)為該目標(biāo)點(diǎn)滿(mǎn)足設(shè)定的雙邊置信準(zhǔn)則且該點(diǎn)分割為背景點(diǎn).
3)由前面兩個(gè)步驟,在塊Ψi(It)中分割出了前景和未分割完全的背景,剩余的目標(biāo)點(diǎn)則為需要去除的運(yùn)動(dòng)陰影.
分割算法中需要注意一個(gè)問(wèn)題:在參考點(diǎn)集中,有一些點(diǎn)被前景或者是陰影遮擋,如果還用這些參考點(diǎn)進(jìn)行分割,對(duì)分割結(jié)果的影響會(huì)很大.文中的解決方法是利用圖1(b)中的粗分割圖為模板對(duì)參考點(diǎn)集進(jìn)行濾波.如果參考點(diǎn)對(duì)應(yīng)的模板位置為0,則保留該參考點(diǎn);反之,如果對(duì)應(yīng)位置為255,則去除該參考點(diǎn).這種方法對(duì)于分割的準(zhǔn)確性影響不大,因?yàn)槲闹械姆椒ㄊ侵瘘c(diǎn)進(jìn)行分割,即使有些分離點(diǎn)被誤分割,也不會(huì)影響前景對(duì)象的完整性.詳細(xì)的分割算法如下.
Input:感興趣塊集{Ψ1(It),Ψ2(It),…,Ψk(It)};閾值wh;正負(fù)參考點(diǎn)集 ref+、ref-;
MPPR模型.
Output:前景對(duì)象.
for Ψi(It)中每個(gè)目標(biāo)點(diǎn)Pdo
初始化:正確率σ+(P)=0,σ-(P)=0;參考點(diǎn)濾波模板
if目標(biāo)點(diǎn)與其參考點(diǎn)滿(mǎn)足式(7)和(8)
then點(diǎn)P為前景點(diǎn)
else
通過(guò)式(12)和(13)計(jì)算σ+(P)和σ-(P)
Ifσ+(P)>wh且σ-(P)>wh
then點(diǎn)P為背景
else
點(diǎn)P為陰影點(diǎn)
在塊Ψi(It)中去除陰影點(diǎn)和背景點(diǎn)得到前景對(duì)象return
文中方法通過(guò)離線(xiàn)訓(xùn)練與在線(xiàn)分割相結(jié)合的方式去除運(yùn)動(dòng)陰影的影響.多點(diǎn)對(duì)參考模型的建立運(yùn)用了離線(xiàn)訓(xùn)練的方法,這種方法不會(huì)占用在線(xiàn)分割的時(shí)間,且增加的計(jì)算量不會(huì)影響整個(gè)方法的分割速度.文中方法的在線(xiàn)分割部分只進(jìn)行了符號(hào)集的比較就可以分割出陰影,大幅度提高了方法的運(yùn)行速度.光照環(huán)境變化時(shí),單點(diǎn)的亮度值會(huì)發(fā)生很大的變化;文中方法則利用了目標(biāo)點(diǎn)與參考點(diǎn)之間的亮度差異,這種差異對(duì)于光照變化有極強(qiáng)的魯棒性.所以只要MPPR模型訓(xùn)練完成,在線(xiàn)分割時(shí),在大多數(shù)光照環(huán)境下,都能保證分割的準(zhǔn)確性.在室外環(huán)境下,鏡頭發(fā)生輕微的晃動(dòng)或者背景圖像包含運(yùn)動(dòng)的背景對(duì)象(如搖動(dòng)的樹(shù)葉),會(huì)使前景對(duì)象的分割產(chǎn)生較大的誤差.文中方法運(yùn)用了點(diǎn)對(duì)模型,即使參考點(diǎn)正好在運(yùn)動(dòng)背景對(duì)象上,對(duì)于分割也不會(huì)造成太大的影響.原因有兩個(gè):(1)由于像素點(diǎn)P與其鄰域所具有的屬性相近,所以即使發(fā)生比較小的位置偏差,像素點(diǎn)的性質(zhì)差異也不會(huì)太大;(2)由于方法中選擇的是參考點(diǎn)集,具有較高的容錯(cuò)性,即使個(gè)別參考點(diǎn)選擇有誤,其對(duì)最終分割結(jié)果的影響也很小.
文中方法的提速可分為離線(xiàn)部分的提速和在線(xiàn)部分的提速.離線(xiàn)訓(xùn)練提速是指:尋找參考點(diǎn)時(shí)不是對(duì)整張圖像進(jìn)行搜索,而是利用如圖4所示的道路模板,通過(guò)這一模板提取出如圖5所示的路面;這種方法極大地縮小了參考點(diǎn)的搜索區(qū)域,提高了離線(xiàn)訓(xùn)練方法的效率.在線(xiàn)分割提速是指:在圖1中通過(guò)文獻(xiàn)[19]中的背景相減方法,已經(jīng)去除了絕大部分的路面像素,粗分割得到了感興趣塊,所以在運(yùn)用MPPR模型對(duì)感興趣塊消除運(yùn)動(dòng)陰影時(shí),必須處理的像素點(diǎn)已經(jīng)極大地減少了.
圖4 道路模板Fig.4 Road template
圖5 運(yùn)用圖4模板處理得到的路面圖Fig.5 Road images obtained by using the road template shown in Fig.4
文中算法用C語(yǔ)言實(shí)現(xiàn),在Pentium 2.6內(nèi)存為1GB的PC機(jī)上運(yùn)行.在離線(xiàn)訓(xùn)練和在線(xiàn)陰影消除過(guò)程中,通過(guò)對(duì)圖像庫(kù)Ξ的分析及實(shí)驗(yàn)調(diào)試,參數(shù)eg、wg、wp和wh分別設(shè)定為 5、18、0.89 和 0.32.用在4種典型的室外環(huán)境下采集的視頻圖像檢驗(yàn)算法,如圖6(a)所示,以左至右依次為高速公路1、鏡頭出現(xiàn)晃動(dòng)的高速公路、停車(chē)場(chǎng)入口和高速公路2.高速公路1圖像中具有非常強(qiáng)烈的運(yùn)動(dòng)陰影;鏡頭中出現(xiàn)晃動(dòng)的高速公路,可以測(cè)試文中方法對(duì)于運(yùn)動(dòng)背景的魯棒性;停車(chē)場(chǎng)入口是一種環(huán)境變化劇烈的特殊情況;高速公路2運(yùn)動(dòng)陰影比較小,但是車(chē)型比較復(fù)雜.在這4種環(huán)境下比較文中提出的方法與其它3種最新的陰影消除方法.3種最新的陰影消除方法分別為:(1)文獻(xiàn)[11]中提出的運(yùn)用比率邊界(RE)檢測(cè)運(yùn)動(dòng)陰影的方法;(2)Nicolas等[15]提出的混合高斯陰影模型(GMSM);(3)文獻(xiàn)[10]中提出的運(yùn)用色度、亮度和局部灰度比率構(gòu)建陰影檢測(cè)器的方法.結(jié)果如圖6所示.
圖6 不同方法的陰影檢測(cè)結(jié)果Fig.6 Shadow detection results obtained by different methods
由圖6可知,GMSM方法易把前景對(duì)象誤分割為背景,將陰影誤分割為前景.特別是圖6(b)所示GMSM對(duì)停車(chē)場(chǎng)入口的檢測(cè)結(jié)果,車(chē)輛很大區(qū)域被誤分割了,而且還留下了一塊比較大的陰影區(qū)域.RE方法和文獻(xiàn)[10]中方法的陰影消除總體效果比GMSM方法好,但是出現(xiàn)了將背景中晃動(dòng)背景誤分割為前景的情況,特別是RE方法對(duì)于高速公路2的檢測(cè).文中提出的方法在陰影的消除及克服運(yùn)動(dòng)背景的影響方面都具有較為優(yōu)異的性能;不管陰影的強(qiáng)烈與否,陰影消除的效果均較好;特別是對(duì)于環(huán)境光照劇烈變化的情況,如圖6中的停車(chē)場(chǎng)入口,能夠準(zhǔn)確地消除運(yùn)動(dòng)陰影的影響,且盡可能少地將前景對(duì)象誤分割為背景.
文中提出了基于MPPR模型的陰影消除方法,通過(guò)利用點(diǎn)對(duì)模型建立點(diǎn)對(duì)的穩(wěn)定關(guān)系,充分利用圖像的全局信息,克服了背景像素值的不準(zhǔn)確,對(duì)于復(fù)雜環(huán)境下的運(yùn)動(dòng)陰影消除具有較好的效果.文中方法能夠有效地抑制運(yùn)動(dòng)背景或晃動(dòng)鏡頭對(duì)前景分割的影響;通過(guò)離線(xiàn)學(xué)習(xí)建立MPPR模型和與在線(xiàn)消除運(yùn)動(dòng)陰影方法的結(jié)合,既不會(huì)增加陰影消除步驟的計(jì)算量,又能極大地提高陰影消除能力;通過(guò)引入背景模板減小了離線(xiàn)和在線(xiàn)過(guò)程的計(jì)算量,提高了效率.綜上所述,文中方法對(duì)于復(fù)雜環(huán)境下的光照變化、運(yùn)動(dòng)背景和運(yùn)動(dòng)陰影具有較強(qiáng)的抑制作用.文中方法雖然能夠消除運(yùn)動(dòng)陰影,但未解決車(chē)輛遮擋的分割問(wèn)題.在出現(xiàn)遮擋的環(huán)境下準(zhǔn)確地分割出車(chē)輛仍是一個(gè)有挑戰(zhàn)性的問(wèn)題.同時(shí),進(jìn)一步優(yōu)化算法提高效率,將算法移植到嵌入式平臺(tái)并測(cè)定其實(shí)時(shí)性,也將是下一步研究的主要內(nèi)容.
[1]Kilger M.A shadow handler in a video based real time traffic monitoring system[C]∥IEEE Workshop Applications of Computer Vision.Palm Spring:IEEE,1992:11-18.
[2]Koller D,Weber J,Huang T,et al.Towards robust automatic traffic scene analysis in real-time[C]∥Proceedings of International Conference on Pattern Recognition.Lake Buena Vista:IEEE,1994:126-131.
[3]Gupte S,Masoud O,Martin R F K,et al.Detection and classification of vehicles[J].IEEE Transactions on Intelligent Transportation Systems,2002,3(1):37-47.
[4]Wren C,Azarbayejani A,Darrell T,et al.Pfinder:realtime tracking of the human body[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):780-785.
[5]Stauffer C,Grimson W E L.Adaptive background mixture model for real-time tracking[C]∥Proceedings of IEEE Conference on Vision and Pattern Collins,Computer Recognition.Fort Collins:IEEE,1999:246-252.
[6]Stauffer C,Grimson W E L.Learning patterns activity using real time transactions pattern and machine tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(8):747-757.
[7]Hsieh J W,Yu S H,Chen Y S,et al.A shadow elimination method for vehicle analysis[C]∥Proceedings of the 17th International Conference on Pattern Recognition.Cambridge:[s.n.],2004:372-375.
[8]Hsieh J W,Yu S H,Chen Y S,et al.Automatic traffic surveillance system for vehicle tracking and classification[J].IEEE Transactions on Intelligent Transportation Systems,2006,7(2):175-187.
[9]Yoneyama A,Yeh C H,Kuo C C.Robust vehicle and traffic information extraction for highway surveillance[J].EURASIP Journal on Applied Signal Processing,2005,2005(14):2305-2321.
[10]Choi J M,Yoo Y J,Choi J Y.Adaptive estimator for removing shadow of moving object[J].Computer Vision and Image Understanding,2010,114(9):1017-1029.
[11]Zhang W,F(xiàn)ang X Z,Yang X K,et al.Moving cast shadows detection using ratio edge[J].IEEE Transactions on Multimedia,2007,9(6):1202-1214.
[12]Salvador E,Cavallaro A,Ebrahimi T.Cast shadow segmentation using invariant color features[J].Computer Vision and Image Understanding,2004,95(2):238-259.
[13]Siala K,Chakchouk M,Chaieb F,et al.Moving shadow detection with support vector domain description in the color ratios space[C]∥Proceedings of the 17th International Conference on Pattern Recognition.Cambridge:[s.n.],2004:384-387.
[14]Nadimi S,Bhanu B.Physical models for moving shadow and object detection in video[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2004,26(8):1079-1087.
[15]Nicolas M B,Andre Z.Learning and removing cast shadows through a multidistribution approach [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(7):1133-1146.
[16]Wang Y,Tan T,Loe K F.A probabilistic method for foreground and shadow segmentation[C]∥International Conferenceon ImageProcessing.Barcelona:IEEE,2003:937-940.
[17]Nicolas M B,Andre Z.Moving cast shadow detection from a Gaussian mixture shadow model[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition.San Diego:IEEE,2005:643-648.
[18]Mikic I,Cosman P,Kogut G,et al.Moving shadow and object detection in traffic scenes[C]∥International Conference on Pattern Recognition,2000.Barcelona:IEEE,2000:321-324.
[19]吳忻生,鄧軍,戚其豐.基于最優(yōu)閾值和隨機(jī)標(biāo)號(hào)法的多車(chē)輛分割[J].公路交通科技,2011,28(3):125-132.Wu Xin-sheng,Deng Jun,Qi Qi-feng.Multi-vehicle segmentation based on optimal threshold and random labeling[J].Journal of Highway and Transportation Research and Development,2011,28(3):125-132.
[20]Zhao X Y,Satoh Y,Takauji H,et al.Object detection based on a robust and accurate statistical multi-pointpair model[J].Pattern Recognition,2011,44(6):1296-1311.