曹明偉,余 燁
(合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院,安徽合肥 230009)
?
基于多層背景模型的運(yùn)動(dòng)目標(biāo)檢測(cè)
曹明偉,余 燁
(合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院,安徽合肥 230009)
復(fù)雜背景下的運(yùn)動(dòng)目標(biāo)檢測(cè)一直是計(jì)算機(jī)視覺領(lǐng)域中一個(gè)具有挑戰(zhàn)性的問題,本文提出一種基于多層背景模型的運(yùn)動(dòng)目標(biāo)檢測(cè)算法.該算法首先從視頻序列的第一幀中提取每個(gè)像素的鄰域樣本,用于初始化背景模型,只需一幀圖像即可完成背景模型的初始化;其次,為實(shí)現(xiàn)背景模型的自適應(yīng)更新,引入隨機(jī)采樣技術(shù),隨機(jī)選取一個(gè)不匹配的碼字,采用新的背景像素取而代之,避免錯(cuò)誤分類的碼字長(zhǎng)時(shí)間駐留在背景模型中;為處理動(dòng)態(tài)場(chǎng)景中多種干擾因素的影響,提出了多層背景模型策略,每個(gè)像素經(jīng)過多層背景模型的逐層驗(yàn)證,保證了背景模型的精確性.實(shí)驗(yàn)結(jié)果表明,該算法能夠有效克服復(fù)雜背景下的多種干擾因素影響,且檢測(cè)率和識(shí)別率均高于現(xiàn)有經(jīng)典算法.
動(dòng)態(tài)背景;目標(biāo)檢測(cè);隨機(jī)采樣;視頻監(jiān)控;像素分類器
智能視頻監(jiān)控為當(dāng)今社會(huì)的治安管理和維護(hù)社會(huì)穩(wěn)定起到了重要作用,被廣泛應(yīng)用于民用和軍工業(yè)中.運(yùn)動(dòng)目標(biāo)檢測(cè)作為智能視頻監(jiān)控系統(tǒng)的核心,受到了國(guó)內(nèi)外學(xué)者的廣泛關(guān)注,并取得一些研究成果[1~3].如Stauffer等[4]提出的混合高斯建模算法(Mixture of Gaussian,MOG),Olivier等[5]提出的可視背景提取子算法(Visual Background Extractor,VIBE)、Kim等[6]提出的碼書模型算法(CodeBook,CB)和基于像素的自適應(yīng)分割(Pixel-Based Adaptive Segmenter,PBAS)算法[7],局部二進(jìn)制相似性分割(LOcal Binary Similarity segmenTER,LOBSTER)算法[8]和基于像素的自適應(yīng)單詞一致性分割(Pixel-based Adaptive Word Consensus Segmenter,PAWCS)算法[9]均為目前常用的動(dòng)態(tài)背景下的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[10~14].
MOG算法采用多個(gè)高斯分布構(gòu)造背景模型,通過設(shè)置學(xué)習(xí)率實(shí)現(xiàn)背景模型的自適應(yīng)更新.VIBE采用真實(shí)的像素集合來表示背景模型,采用2-D空間內(nèi)的歐氏距離對(duì)像素進(jìn)行分類,算法效率較高.為了提高VIBE算法像素分類準(zhǔn)確性,Van提出了帶有反饋信息的PBAS算法.CodeBook采用少量碼字組成的碼書訓(xùn)練視頻序列的背景模型.然而,此算法采用學(xué)習(xí)率實(shí)現(xiàn)背景模型更新,必然會(huì)面對(duì)“權(quán)衡問題”.Geng等[15]采用像素的亮度值范圍代替原始的分類標(biāo)準(zhǔn),提高了算法對(duì)陰影的魯棒性.Wu等[16]將時(shí)空上下文(Spatio-Temporal Context)信息加入到CodeBook算法中,提高了算法的精確性.Charles等[17]采用時(shí)空特征描述子構(gòu)造每個(gè)像素背景模型,提出一種具有較強(qiáng)魯棒性的SuBSENSE算法,但是此算法實(shí)時(shí)性較低.LOBSTER和PAWCS算法采用局部二進(jìn)制相似模式(Local Binary Similarity Patterns,LBSP)構(gòu)造背景模型,然而LBSP的計(jì)算量較大使得算法的實(shí)時(shí)性降低.以上這些背景建模算法被廣泛應(yīng)用于復(fù)雜運(yùn)動(dòng)目標(biāo)檢測(cè)系統(tǒng)[4,5,6,12].
盡管取得了上述研究成果,在復(fù)雜背景下運(yùn)動(dòng)目標(biāo)檢測(cè)算法仍存在如下不足:(1)背景模型初始化時(shí)間過長(zhǎng);(2)背景模型的更新系數(shù)設(shè)定不具有通用性;(3)單層背景模型難以處理復(fù)雜背景干擾問題.為彌補(bǔ)上述不足,本文在CodeBook模型基礎(chǔ)之上提出一種“基于多層背景模型的運(yùn)動(dòng)目標(biāo)檢測(cè) (Moving Object Detection Based on Multi-layer Background Model,MMBM)”算法.首先,從第一幀圖像的鄰域空間內(nèi)選取20個(gè)樣本用于初始化背景模型,避免背景模型初始化時(shí)間過長(zhǎng)的問題;其次,為了實(shí)現(xiàn)背景模型自適應(yīng)更新,提出等概率替代的自適應(yīng)背景更新方法,有效解決傳統(tǒng)方法無法避免的“權(quán)衡問題”;再次,通過多層背景模型對(duì)多種干擾因素逐層驗(yàn)證,有效的克服了多干擾因素同時(shí)存在的影響.實(shí)驗(yàn)結(jié)果表明該算法在室外多干擾因素存在的復(fù)雜背景下,能夠?qū)崿F(xiàn)運(yùn)動(dòng)目標(biāo)的實(shí)時(shí)檢測(cè).
為了便于分析CoodBook算法實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)檢測(cè)的原理,給出以下兩個(gè)術(shù)語(yǔ)的示例說明:
(1)前景像素:屬于運(yùn)動(dòng)目標(biāo)區(qū)域的像素,如圖 1中的行人區(qū)域.
(2)背景像素:運(yùn)動(dòng)目標(biāo)以外的像素,如圖 1中的非行人區(qū)域.
2.1 CodeBook模型描述
(3)fi,表示碼字出現(xiàn)的頻率.
(4)λi,表示最大反面運(yùn)行長(zhǎng)度(Maximum Negative Run-Length,MNRL),即碼字沒有匹配的最大時(shí)間間隔.
(5)pi,qi,分別表示碼字第一次和最后一次匹配成功的時(shí)間.
2.2 CodeBook模型的像素分類標(biāo)準(zhǔn)
CodeBook算法采用像素分類思想?yún)^(qū)分前景像素與背景像素,其像素分類標(biāo)準(zhǔn)是運(yùn)動(dòng)目標(biāo)檢測(cè)算法的核心.如圖 2所示,如果像素Xt在判別邊界(decision boundary)內(nèi)部,表明Xt是匹配碼字;否則不匹配.具體分類過程采用像素分類器1(Classifier1)完成:
(1)
其中各變量計(jì)算方法如下:
(2)
(3)
(4)
(5)
(6)
MMBM算法的流程如圖 3所示,其核心思想為:對(duì)于給定的圖像序列,從第一幀中提取訓(xùn)練樣本,采用像素分類器1提取背景像素,構(gòu)造背景模型.創(chuàng)建多層背景模型,在背景模型的更新上采用等概率替代的自適應(yīng)背景更新方法.基于多層背景模型,利用像素分類器2 (將在3.3節(jié)中進(jìn)行定義) 對(duì)像素進(jìn)行分類,判斷哪些屬于背景像素,構(gòu)造多層背景模型.同時(shí),基于像素分類器2對(duì)多層背景模型中的主模型進(jìn)行更新,將緩存模型中滿足條件的像素提升至主模型.通過多層背景模型的逐層驗(yàn)證,準(zhǔn)確地檢測(cè)出運(yùn)動(dòng)目標(biāo).算法的三個(gè)主要部分:背景模型初始化、自適應(yīng)背景更新方法、多層背景模型的創(chuàng)建與更新,將在下面的小節(jié)中進(jìn)行詳細(xì)闡述.
3.1 基于鄰域的背景模型初始化
模型初始化的本質(zhì)是“像素表達(dá)問題”,由于鄰域內(nèi)的像素具有空間一致性[12],這些像素能夠很好表達(dá)背景模型.因此,基于空間一致性原理,本文提出了基于鄰域的背景模型初始化方法,即:讀取視頻序列的第一幀,利用鄰域中的像素來初始化背景模型,算法只需一幀圖像即可完成背景模型的初始化,提高了算法的時(shí)間效率.如圖 4所示,首先從像素的24鄰域內(nèi)隨機(jī)選取不重復(fù)的20個(gè)樣本,然后采用這些樣本構(gòu)造對(duì)應(yīng)的碼字,對(duì)碼字進(jìn)行驗(yàn)證,將滿足條件的碼字組成像素的碼書模型,遍歷整幅圖像即可構(gòu)造完整的背景模型.
3.2 等概率替代的自適應(yīng)背景更新
為避免室外環(huán)境中動(dòng)態(tài)背景的干擾,需要背景模型能夠自適應(yīng)更新,因此,提出“等概率替代的自適應(yīng)背景更新方法”(Equal Probability Alternative Method,EPAM).假設(shè)在背景模型M(x)中尋找到與像素xt匹配的碼字cm,EPAM算法不是對(duì)碼字cm進(jìn)行更新,而是采用像素xt創(chuàng)建新的碼字,取代[1,m-1]之間的某一個(gè)碼字.由于像素xt與[1,m-1]之間的碼字不匹配,說明xt是一個(gè)更優(yōu)的背景像素,因此,基于xt創(chuàng)建一個(gè)新的碼字插入到背景模型中.
背景更新過程如圖 5所示.EPAM方法的詳細(xì)步驟如下:
Step1 在背景模型M(x)中,通過像素分類器1尋找與像素xt匹配的碼字cm;
Step2 采用均勻分布的隨機(jī)數(shù)生成算法,產(chǎn)生一個(gè)范圍在[1,m-1]之間的隨機(jī)數(shù)rnd,以確定被替換的碼字為crnd;
Step3 使用像素xt創(chuàng)建一個(gè)新的碼字ct,如下所示:
vt=xt,auxt=〈I,I,1,t-1,t,t〉
Step4 采用新的碼字ct替代碼字crnd,即可實(shí)現(xiàn)背景模型的自適應(yīng)更新.
3.3 多層背景模型的創(chuàng)建與更新
為了克服室外場(chǎng)景中多種干擾因素影響,本文提出了多層背景模型的策略.按照干擾因素對(duì)背景影響的強(qiáng)度進(jìn)行分類,定義了3層背景模型,分別是:M(x)(主模型)、H(x)(一級(jí)緩存模型)和U(x)(二級(jí)緩存模型),H(x)和U(x)的數(shù)據(jù)結(jié)構(gòu)定義與M(x)相同,模型的創(chuàng)建分為三個(gè)階段,在訓(xùn)練階段創(chuàng)建主模型M(x),在檢測(cè)階段根據(jù)第一幀輸入序列與主模型的匹配情況來創(chuàng)建一級(jí)緩存模型H(x),然后根據(jù)第二幀輸入序列與一級(jí)緩存模型的匹配情況來創(chuàng)建二級(jí)緩存模型U(x).當(dāng)二級(jí)緩存模型U(x)中的碼字滿足一定時(shí)間,就將U(x)中碼字提升到H(x)中;當(dāng)H(x)中的碼字滿足一定的時(shí)間,則將H(x)中的碼字提升到M(x)中,從而得到更加精確的主模型M(x).多層背景模型的創(chuàng)建過程可以采用“像素分類器2”(Clf2)實(shí)現(xiàn),如式(7)所示.
(7)
其中,De1和De2分別表示刪除二級(jí)緩存模型和一級(jí)緩存模型的碼字.TU、Tadd1、Tdelete1、TH、Tadd2和Tdelete2為先驗(yàn)值.
采用遞歸思想描述多層背景模型的創(chuàng)建和更新過程,如下所示:
Step1 基于鄰域初始化方法創(chuàng)建主模型M(x),同時(shí),分別創(chuàng)建空的一級(jí)緩存模型H(x)和二級(jí)緩存模型U(x).
Step2 對(duì)于t時(shí)刻給定的輸入像素It,在M(x)中尋找與It匹配的碼字CWM.如果CWM在M(x)中,則認(rèn)為It屬于背景像素,采用EPAM方法對(duì)主模型M(x)進(jìn)行更新,否則跳轉(zhuǎn)到Step3.
Step3 如果沒有找到匹配的碼字,按以下步驟進(jìn)行處理:
(1)將像素It標(biāo)記為前景像素.
(2)在一級(jí)緩存模型H(x)中查找匹配碼字CWH,如果找到匹配的碼字CWH,則使用EPAM方法對(duì)H(x)進(jìn)行更新.否則采用It創(chuàng)建一個(gè)新的碼字CWt插入到一級(jí)緩存模型H(x)中.
(3)在二級(jí)緩存模型U(x)中尋找與It匹配的碼字CWU,如果找到匹配的碼字CWU,則使用EPAM算法對(duì)模型U(x)進(jìn)行更新,否則使用It創(chuàng)建一個(gè)新的碼字CWt插入到二級(jí)緩存模型U(x)中.
Step4 采用像素分類器2,將漏檢的真實(shí)背景碼字提升到主模型M(x)中,過程如下所示:
(1)移除二級(jí)緩存模型U(x)中碼字的最長(zhǎng)時(shí)間間隔λ1大于TU的所有碼字;將U(x)中碼字的最長(zhǎng)時(shí)間間隔λ1大于Tadd1的所有碼字提升到H(x)中,同時(shí)刪除H(x)中碼字的最大時(shí)間間隔大于Tdelete1的所有碼字.
(2)移除一級(jí)緩存模型H(x)中碼字的最長(zhǎng)時(shí)間間隔λ2大于TH的所有碼字;將H(x)中碼字的最長(zhǎng)時(shí)間間隔λ2大于Tadd2的所有碼字提升到M(x)中,同時(shí)刪除M(x)中碼字的最大時(shí)間間隔λ2大于Tdelete2的所有碼字.
Step5 對(duì)于新的像素It+1跳轉(zhuǎn)到Step2進(jìn)行處理.
通過Step1~Step5即可實(shí)現(xiàn)多層背景模型的創(chuàng)建與更新,為提高算法的精確性奠定基礎(chǔ).采用Camarim序列對(duì)多層背景模型的有效性進(jìn)行了驗(yàn)證,圖6(a)為Camarim序列的第132幀,圖6(b)為基于單層背景模型的檢測(cè)結(jié)果,圖6(c)為多層背景模型檢測(cè)結(jié)果,可以看出經(jīng)過多層背景模型的逐層檢驗(yàn),從而避免搖晃樹葉和光照的影響,同時(shí)提高了算法對(duì)陰影的魯棒性.
MMBM算法的開發(fā)環(huán)境為Visual C++ 2010、OpenCV SDK 2.4.6、Nvidia Cuda SDK 5.5,所用PC配置為Intel i5 CPU、8.0GB RAM.實(shí)驗(yàn)使用的數(shù)據(jù)集為ChangeDetection[18,19]和Cross (本文創(chuàng)建).為了進(jìn)行算法精度的對(duì)比分析,采用與本文算法相同的軟硬件開發(fā)環(huán)境實(shí)現(xiàn)了MOG和VIBE算法;PBAS、SuBSENSE、LOBSTER和PWACS算法采用作者提供的源代碼;CodeBook算法采用OpenCV SDK 2.4.6提供的可調(diào)用類.為了公正、有效的對(duì)算法進(jìn)行比較,MOG、VIBE、PBAS等算法的參數(shù)取值與原文相同,且實(shí)驗(yàn)結(jié)果沒有經(jīng)過后處理.4.1 定性分析
在ChangeDetection數(shù)據(jù)集上,對(duì)MMBM和MOG等算法進(jìn)行測(cè)試,結(jié)果如圖 7所示.
從Highway序列的測(cè)試結(jié)果可以看出,MOG、VIBE和LOBSTER算法都受到了背景中搖晃樹葉的干擾,導(dǎo)致檢測(cè)結(jié)果中出現(xiàn)一些小的白色亮點(diǎn);CodeBook算法結(jié)果很模糊;SuBSENSE、PWACS和本文算法的檢測(cè)結(jié)果清晰且不存在殘缺.
從Boulevard序列檢測(cè)結(jié)果可以看出,MOG和VIBE算法受到序列中光照變化的影響,在地面上形成了白色條紋;CodeBook算法的檢測(cè)結(jié)果在路面位置沒有出現(xiàn)白色條紋,但是檢測(cè)出的車輛較模糊;PBAS、SuBSENSE和LOBSTER算法結(jié)果中目標(biāo)存在殘缺;本文方法的檢測(cè)結(jié)果沒有受到光照的影響,結(jié)果清晰可見.
從Canoe序列檢測(cè)結(jié)果可以看出,MOG、VIBE和LOBSTER算法都能清晰的檢測(cè)出運(yùn)動(dòng)的小船,然而受到湖面水波運(yùn)動(dòng)的影響,檢測(cè)結(jié)果中出現(xiàn)了大量白點(diǎn);CodeBook和PWACS算法檢測(cè)出的小船出現(xiàn)了大面積殘缺;PBAS算法的結(jié)果中小船的尾部漏檢;SuBSENSE算法沒有檢測(cè)出小船上的行人.本文方法既沒有受到水波影響,檢測(cè)結(jié)果也不存在殘缺,清晰可見.
從Tramstop序列檢測(cè)結(jié)果可以看出,MOG、VIBE、PBAS以及本文算法都能很好的處理遮擋問題,且本文方法比SuBSENSE算法的結(jié)果更加精確;由于受光照和遮擋的影響,導(dǎo)致CodeBook算法的檢測(cè)結(jié)果較模糊;LOBSTER、PAWCS和本文方法雖然受到行人遺留軌跡的影響,相對(duì)而言本文算法結(jié)果更加精確.
從People序列檢測(cè)結(jié)果可以看出,MOG、VIBE、SuBSENSE、LOBSTER、PAWCS以及本文算法的檢測(cè)結(jié)果都很清晰;在CodeBook算法結(jié)果中行人的上身出現(xiàn)了大面積殘缺;PBAS算法受到了陰影的影響,在行人背后出現(xiàn)大面積虛假信息.
從Library序列檢測(cè)結(jié)果可以看出,MOG、PBAS和本文算法均可用于檢測(cè)紅外序列中的運(yùn)動(dòng)目標(biāo),且本文方法的檢測(cè)結(jié)果相對(duì)精確一些;VIBE、LOBSTER和PAWCS算法檢測(cè)出了行人運(yùn)動(dòng)的遺留軌跡;CodeBook和SuBSENSE算法只檢測(cè)出行人的部分邊緣信息.
從上述分析可知,本文算法對(duì)“多干擾復(fù)雜動(dòng)態(tài)背景”具有較強(qiáng)的魯棒性.
4.2 定量分析
4.2.1 算法精度分析
為了公正的比較算法性能,采用文獻(xiàn)[19]中的評(píng)價(jià)標(biāo)準(zhǔn)對(duì)算法的性能進(jìn)行定量分析,評(píng)價(jià)標(biāo)準(zhǔn)如下:
(1)P(Precision)表示算法的準(zhǔn)確率;
(2)R(Recall)表示識(shí)別率;
(3)Sp(Specificity) 表示背景像素的識(shí)別率;
(4)FPR(FalsePositiveRate) 表示背景像素被錯(cuò)誤分類為前景像素的比率;
(5)FNR(FalseNegativeRate) 表示前景被錯(cuò)誤分類為背景像素的比率;
(6)PWC(PercentageofWrongClassification) 表示錯(cuò)誤分類的比率;
(7)FM(F-Measure) 表示算法的測(cè)度值,其值越高越好.
基于上述評(píng)價(jià)標(biāo)準(zhǔn),在ChangeDetection和Cross數(shù)據(jù)集上對(duì)各檢測(cè)算法進(jìn)行評(píng)估,并采用ChangeDetection數(shù)據(jù)集提供的算法性能統(tǒng)計(jì)代碼,分別對(duì)每個(gè)算法的精度進(jìn)行統(tǒng)計(jì)分析,結(jié)果如表 1所示.可以看出,本文算法無論是在準(zhǔn)確率(P)還是在識(shí)別率(R)上均高于MOG、VIBE、CodeBook、PBAS和SuBSENSE等算法.
4.2.2 時(shí)間效率分析
假設(shè)圖像的寬度為W,高度為H,本文算法的時(shí)間復(fù)雜度為O(W×H×(Ns×Ns+Ss)),其中背景模型初始化的時(shí)間復(fù)雜度為O(Ns×Ns),Ns表示背景模型初始化時(shí)所用樣本的鄰域空間,實(shí)際測(cè)試時(shí)取值為5.運(yùn)動(dòng)目標(biāo)檢測(cè)時(shí)對(duì)每個(gè)像素進(jìn)行分類的時(shí)間復(fù)雜度為O(Ss),由于本文采用20個(gè)樣本表達(dá)一個(gè)像素的背景模型,因此,在算法中Ss的取值為20.CodeBook算法的時(shí)間復(fù)雜度為O(W×H×(W×H×N)),其中N表示訓(xùn)練背景模型所用樣本數(shù).由于MOG、VIBE、PBAS和SuBSENSE、LOBSTER和PAWCS算法的作者沒有明確給出時(shí)間復(fù)雜度分析,因此,為了公正比較,我們?cè)贑hangeDetection和Cross數(shù)據(jù)集上對(duì)每個(gè)算法進(jìn)行測(cè)試,計(jì)算出每個(gè)算法在不同序列上的處理時(shí)間,結(jié)果(每個(gè)算法計(jì)算3次取平均值)如表 2所示,可以看出本文算法在所有測(cè)試序列上所消耗時(shí)間均最少.
表1 算法精度測(cè)試結(jié)果
表2 算法時(shí)間效率
針對(duì)復(fù)雜背景下的運(yùn)動(dòng)目標(biāo)檢測(cè)進(jìn)行研究,提出了一種適用于復(fù)雜背景下的運(yùn)動(dòng)目標(biāo)檢測(cè)算法—MMBM.采用從第一幀圖像每個(gè)像素的鄰域中選取樣本,對(duì)背景模型進(jìn)行初始化的方案,算法的初始化過程得到了簡(jiǎn)化和加速;通過采用EPAM背景模型更新策略,避免了被錯(cuò)誤分類的像素長(zhǎng)期保留在背景模型中;由于多層背景模型方法的使用,即在初始化階段創(chuàng)建一個(gè)主模型,在檢測(cè)階段創(chuàng)建兩個(gè)緩存模型,通過緩存模型的逐層驗(yàn)證,將漏檢的背景像素提升到主模型,增強(qiáng)了主模型的精確性,提高了算法在復(fù)雜背景下的魯棒性.
在ChangeDetection和Cross數(shù)據(jù)集上開展的實(shí)驗(yàn)結(jié)果表明,與經(jīng)典的MOG、VIBE、CodeBook等算法相比,MMBM算法的檢測(cè)率和識(shí)別率均有較大提高且在多干擾復(fù)雜動(dòng)態(tài)背景環(huán)境下具有很好的魯棒性.
[1]丁瑩,李文輝,范靜濤,等.基于 Choquet模糊積分的運(yùn)動(dòng)目標(biāo)檢測(cè)算法 [J].電子學(xué)報(bào),2010,38(2):263-268.
Ding Ying,Li Wenhui,Fan Jingtao,et al.A moving object detection algprithm base on choquet integrate[J].Acta Electronica Sinica,2010,38(2):263-268.(in Chinese)
[2]李宏友,汪同慶,葉俊勇,等.基于3DOGH的視頻運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].電子學(xué)報(bào),2008,36(3):605-610.
Li Hongyou,Wang Tongqing,Ye Junyong,et al.An approach based on 3D orthogonal Gassian-Hermite mmoments for detecting moving objects[J].Acta Electronica Sinica,2008,36(3):605-610.(in Chinese)
[3]魏志強(qiáng),紀(jì)筱鵬,馮業(yè)偉.基于自適應(yīng)背景圖像更新的運(yùn)動(dòng)目標(biāo)檢測(cè)方法[J].電子學(xué)報(bào),2005,33(12):2261-2264.
Wei Zhiqiang,Ji Xiaopeng,Feng Yewei.A moving object detection method based on self-adaptive updating of background[J].Acta Electronica Sinica,2005,33(12):2261-2264.(in Chinese)
[4]Stauffer C,Grimson W E L.Adaptive background mixture models for real-time tracking[A].Computer Vision and Pattern Recognition,1999.IEEE Computer Society Conference on[C].Fort Collins,CO:IEEE,1999.2246-2253.
[5]Barnich O,Van Droogenbroeck M.ViBe:A universal background subtraction algorithm for video sequences[J].Image Processing,IEEE Transactions on,2011,20(6):1709-1724
[6]Kim K,Chalidabhongse T H,Harwood D,et al.Real-time foreground—background segmentation using codebook model[J].Real-time Imaging,2005,11(3):172-185.
[7]Hofmann M,Tiefenbacher P,Rigoll G.Background segmentation with feedback:The pixel-based adaptive segmenter[A].Computer Vision and Pattern Recognition Workshops (CVPRW),2012 IEEE Computer Society Conference on[C].Providence,RI:IEEE,2012.38-43.
[8]St-Charles P L,Bilodeau G A.Improving background subtraction using local binary similarity patterns[A].Applications of Computer Vision (WACV),2014 IEEE Winter Conference on[C].Steamboat:IEEE,2014.509-515.
[9]St-Charles P L,Bilodeau G A,Bergevin R.A self-adjusting approach to change detection based on background word consensus[A].Applications of Computer Vision (WACV),2015 IEEE Winter Conference on[C].Waikoloa Beach,HI:IEEE,2015.990-997.
[10]Sobral A,Vacavant A.A comprehensive review of background subtraction algorithms evaluated with synthetic and real videos[J].Computer Vision and Image Understanding,2014,122(5):4-21.
[11]Brutzer S,Hoferlin B,Heidemann G.Evaluation of background subtraction techniques for video surveillance[A].Computer Vision and Pattern Recognition (CVPR),2011 IEEE Conference on[C].Colorado Springs,CO:IEEE,2011.1937-1944.
[12]Bouwmans T.Traditional and recent approaches in background modeling for foreground detection:An overview[J].Computer Science Review,2014,58(3):1-37.
[13]Xue K,Liu Y,Ogunmakin G,et al.Panoramic Gaussian mixture model and large-scale range background substraction method for PTZ camera-based surveillance systems[J].Machine Vision and Applications,2013,24(3):477-492.
[14]Valera M,Velastin S A.Intelligent distributed surveillance systems:a review[J].IEE Proceedings-Vision,Image and Signal Processing,2005,152(2):192-204.
[15]Geng L,Xiao Z T.Real time foreground-background segmentation using two-layer codebook model[A].Control,Automation and Systems Engineering (CASE),2011 International Conference on[C].Singapore:IEEE,2011.1-5.
[16]Wu M,Peng X.Spatio-temporal context for codebook-based dynamic background subtraction[J].AEU-International Journal of Electronics and Communications,2010,64(8):739-747.
[17]St-Charles P L,Bilodeau G A,Bergevin R.Flexible background subtraction with self-balanced local sensitivity[A].Computer Vision and Pattern Recognition Workshops (CVPRW),2014 IEEE Computer Society Conference on[C].Columbus,OH:IEEE,2014.414-419.
[18]Goyette N,Jodoin P,Porikli F,et al.Changedetection.net:A new change detection benchmark dataset[A].Computer Vision and Pattern Recognition Workshops (CVPRW),2012 IEEE Computer Society Conference on[C].Providence,RI:IEEE,2012.1-8.
[19]Wang Y,Jodoin P M,Porikli F,et al.CDnet 2014:An expanded change detection benchmark dataset[A].IEEE Conference on Computer Vision and Pattern Recognition Workshops[C].Columbus,OH:IEEE,2014.387-394.
曹明偉 男,1986年4月出生于安徽鳳陽(yáng),現(xiàn)為合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院博士研究生,主要研究方向?yàn)槟繕?biāo)檢測(cè)與跟蹤,多視圖三維重建.
E-mail:cmwqq2008@163.com
余 燁 (通訊作者) 女,1982年3月出生,安徽安慶人,副教授,碩士生導(dǎo)師,2010年獲合肥工業(yè)大學(xué)工學(xué)博士學(xué)位.主要研究方向?yàn)?場(chǎng)景重建、計(jì)算機(jī)視覺.
E-mail:yuyeyue3841@sina.com
Moving Object Detection Based on Multi-layer Background Model
CAO Ming-wei,YU Ye
(SchoolofComputer&Information,HefeiUniversityofTechnology,Hefei,Anhui230009,China)
Moving object detection under complex-background is always a challenging issue,and in order to defend these challenges,this paper proposed an algorithm named MMBM (Moving object detection based on Multi-layer Background Model).First,samples are selected from neighbors of each pixel of the first frame to initialize background model.Only one frame image is needed for initialization.Second,in order to update the background model adaptively,random sampling technique is introduced,i.e.,selecting one code word randomly from the background model and then updating it with new background pixel,which overcomes the deficiency of the wrong classified code word overstaying in the background model.Multi-layer background model is proposed in order to overcome the influence of multi-disturbance in dynamic background,in which one pixel is tested through multi-layers,so as to guarantee and improve the accuracy of background pixels.Finally,Experimental results show that this algorithm can overcome the influence of multi-disturbance existing in dynamic outside scenes effectively,and at the same time,achieve a higher detection rate and recognition rate over the existing classical algorithms.
dynamic background; object detection; random sampling; video surveillance; pixel classifier
2015-01-28;
2015-12-15;責(zé)任編輯:梅志強(qiáng)
國(guó)家自然科學(xué)基金(No.61370167);安徽省科技攻關(guān)(No.1401b042009);安徽高校省基金(No.KJ2014ZD27)
TP391
A
0372-2112 (2016)09-2126-08
??學(xué)報(bào)URL:http://www.ejournal.org.cn
10.3969/j.issn.0372-2112.2016.09.016