瞿 中 辛 寧 廖春梅
1(重慶郵電大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 重慶 400065)2(重慶市軟件質(zhì)量保證與測評工程技術(shù)研究中心 重慶 400065)
?
結(jié)合背景更新和亮度范圍的改進(jìn)Codebook模型算法
瞿 中1,2辛 寧1廖春梅1
1(重慶郵電大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 重慶 400065)2(重慶市軟件質(zhì)量保證與測評工程技術(shù)研究中心 重慶 400065)
傳統(tǒng)的Codebook背景模型算法是在RGB顏色空間下建立的,該算法計(jì)算復(fù)雜、分割質(zhì)量不高且抗擾動(dòng)能力較差。首先利用YUV顏色空間下亮度與色度分離的特性,建立Codebook背景模型,其次針對背景模型的亮度范圍定義不合理的問題,采用碼本中碼字的Y分量均值重新定義亮度范圍,最后在運(yùn)動(dòng)目標(biāo)檢測過程中使用雙層碼本與短時(shí)滑動(dòng)窗口相結(jié)合的背景更新方法提高抗干擾能力。實(shí)驗(yàn)表明,改進(jìn)算法的亮度范圍能夠隨背景變化不斷更新。與傳統(tǒng)的Codebook背景模型算法相比,該算法能夠有效更新背景,同時(shí)提高檢測的準(zhǔn)確性。
Codebook模型 YUV空間 背景更新 亮度
運(yùn)動(dòng)目標(biāo)檢測即通過圖像處理方法檢測視頻序列中的運(yùn)動(dòng)目標(biāo)并進(jìn)行分離,是當(dāng)今智能視頻監(jiān)控中關(guān)鍵技術(shù)之一,也是計(jì)算機(jī)視覺領(lǐng)域中的研究重點(diǎn)。
目前已有的運(yùn)動(dòng)目標(biāo)檢測方法按照算法的基本原理可以分為三類:光流法、幀間差分法和背景減除法。其中光流法[1]檢測效果較好但計(jì)算復(fù)雜度高、實(shí)時(shí)性差且易受到噪聲、光照變化和背景擾動(dòng)的影響;幀間差分法[2]運(yùn)算量小、實(shí)現(xiàn)簡單,但檢測出的目標(biāo)不完整且運(yùn)動(dòng)目標(biāo)的速度對于檢測效果的影響很大;背景減除法簡單、易于實(shí)現(xiàn)且適應(yīng)動(dòng)態(tài)的背景變化,目前已成為運(yùn)動(dòng)目標(biāo)檢測領(lǐng)域的研究熱點(diǎn)[3]。在實(shí)際運(yùn)動(dòng)目標(biāo)檢測過程中背景往往是動(dòng)態(tài)且復(fù)雜的,因此如何準(zhǔn)確地構(gòu)建及更新背景模型就成為背景減除法研究的關(guān)鍵。常用的背景模型主要有核密度估計(jì)法、混合高斯背景模型和Codebook背景模型。核密度估計(jì)法[4]占用內(nèi)存大、計(jì)算復(fù)雜且實(shí)時(shí)性差;混合高斯背景模型算法[5]復(fù)雜度高、運(yùn)算量較大且參數(shù)調(diào)整困難;Kyungnam Kim[6]等人提出的Codebook背景模型算法在RGB顏色空間中用碼本來描述像素點(diǎn),用亮度范圍和顏色扭曲度模型判斷標(biāo)準(zhǔn)來構(gòu)建背景[7],該算法計(jì)算復(fù)雜度高,且RGB顏色模型中亮度信息和色度信息無法區(qū)分導(dǎo)致兩者相互影響降低了算法的精確性。本文采用在YUV空間中建立Codebook背景模型的方法,并改進(jìn)算法中亮度范圍的定義,同時(shí)采用雙層碼本和短時(shí)滑動(dòng)窗口相結(jié)合的背景更新方法在檢測過程中不斷更新背景,提高了算法的準(zhǔn)確性和魯棒性。
YUV顏色空間可以由RGB顏色空間直接經(jīng)線性運(yùn)算轉(zhuǎn)化而來,其特點(diǎn)是亮度與色度分離,互不干擾。本文在YUV顏色空間下建立Codebook模型[8]。
YUV顏色空間中Codebook背景模型包括:背景模型建立、亮度范圍和顏色扭曲度計(jì)算、最大負(fù)運(yùn)行長度計(jì)算和前景檢測。在YUV顏色空間下亮度范圍:
(1)
(2)
亮度范圍度:
(3)
顏色扭曲度:
(4)
運(yùn)動(dòng)目標(biāo)檢測采用當(dāng)前幀與背景幀“相減”的方法,即對每一幀中的每一個(gè)像素點(diǎn),若與背景模型碼本中的碼字匹配,則判斷為背景點(diǎn),并對相應(yīng)的碼字進(jìn)行更新,若不匹配則判別為前景點(diǎn)。
2.1 基于YUV顏色空間的Codebook背景模型中亮度條件判定方法的改進(jìn)
在基于YUV顏色空間的Codebook背景模型的運(yùn)動(dòng)目標(biāo)檢測過程中,常會出現(xiàn)誤檢。例如視頻序列中的某個(gè)像素點(diǎn)在剛開始檢測的時(shí)候?qū)儆诒尘包c(diǎn),一段時(shí)間后該像素點(diǎn)的位置并未出現(xiàn)運(yùn)動(dòng)目標(biāo),但該點(diǎn)卻被檢測為前景點(diǎn),如圖1、圖2所示。
圖1 camera視頻第215幀
圖2 視頻test第722幀
其中視頻camera來自于PETS2001視頻集,視頻test來自PETS2000視頻集。本文在圖1、圖2中選取了多個(gè)像素點(diǎn)進(jìn)行研究,發(fā)現(xiàn)這部分區(qū)域像素點(diǎn)Y分量值的變化如圖3、圖4所示。
圖3 視頻camera中點(diǎn)(364,90)31幀到231幀變化圖
圖4 視頻test中點(diǎn)(324,293)31幀到831幀變化圖
同時(shí)本文研究了有運(yùn)動(dòng)目標(biāo)經(jīng)過的像素點(diǎn)的Y分量值變化,由圖5可以看出該像素點(diǎn)的Y分量值在第382幀到393幀,第1651幀到1669幀,第1794幀到1814幀發(fā)生了突變。
圖5 視頻camera中有運(yùn)動(dòng)目標(biāo)經(jīng)過的像素點(diǎn)(270,218)變化圖
針對以上分析并結(jié)合YUV顏色空間中碼本的結(jié)構(gòu)和基于滑動(dòng)窗口的背景更新算法,發(fā)現(xiàn)碼字的參數(shù)Y分量均值隨像素值逐幀變化而逐漸更新,而且由于它是像素點(diǎn)連續(xù)多幀的平均值,所以其更新是緩慢進(jìn)行的。所以本文利用碼字定義一個(gè)新的亮度范圍:
(5)
(6)其中T為可以調(diào)節(jié)的參數(shù),一般在10~40間取值。亮度范圍重新定義后,像素點(diǎn)的Y分量值在一定范圍內(nèi)連續(xù)升高或降低時(shí),與其匹配的碼字的上限值和下限值將進(jìn)行緩慢調(diào)整,即碼字的亮度范圍可以隨像素值的變化而進(jìn)行緩慢更新,如圖6、圖7所示。
圖6 視頻camera中點(diǎn)(364,90)變化圖
圖7 視頻中test中點(diǎn)(324,293)變化圖
2.2 雙層碼本與短時(shí)滑動(dòng)窗口相結(jié)合的背景更新算法
在運(yùn)動(dòng)目標(biāo)檢測過程中,可能在背景訓(xùn)練之后出現(xiàn)新的背景。常見于一些運(yùn)動(dòng)目標(biāo)逐漸停下來成為背景,比如汽車開進(jìn)停車位、人把包放在椅子上等。另外在運(yùn)動(dòng)目標(biāo)檢測過程中,由于光照等因素會使背景產(chǎn)生細(xì)微變化,所以要對表示背景的Codebook模型進(jìn)行更新。傳統(tǒng)Codebook模型逐幀進(jìn)行更新,一方面會增加算法的復(fù)雜性,降低算法的效率;另一方面當(dāng)視頻序列中的前景點(diǎn)或是噪點(diǎn)具有和背景像素點(diǎn)相近的分布時(shí),逐幀更新會使背景模型逐漸產(chǎn)生偏差,造成誤檢、漏檢現(xiàn)象。因此本文采用雙層碼本模型算法[9]與采用短時(shí)滑動(dòng)窗口[10]的背景更新方法相結(jié)合的算法來更新背景,以YUV空間中Y分量為例,具體方法為:
(2) 若在窗口長度T1內(nèi)的某幀,像素點(diǎn)f(x,y)不與其碼本中的任一碼字匹配,即該像素點(diǎn)被判定為前景點(diǎn),則銷毀窗口,并記錄其連續(xù)被判定為前景點(diǎn)的幀數(shù)S,若S大于閾值T2,則為該像素新建碼本并將其添加到背景模型中。
(4) 重復(fù)上述過程,直到檢測結(jié)束。
(7)
其中Yadd為窗口內(nèi)Y分量的累加值,T1、T2為符合視頻的可調(diào)整的閾值。
采用雙層碼本與短時(shí)滑動(dòng)窗口相結(jié)合的背景更新算法一方面可以及時(shí)更新背景另一方面可以減少背景的誤更新。
本文選取4組典型視頻文件分別對原始Codebook算法、YUV顏色空間的Codebook算法和本文算法進(jìn)行了比較。實(shí)驗(yàn)條件為:CPUPencium(R)Dual-Core,內(nèi)存為2GB,實(shí)驗(yàn)平臺為VisualC++ 2008及Opencv2.4.3,視頻camera和test來自于PETS視頻集,視頻LeftBag來自于PETS-ECCV2004視頻集,視頻circle為自拍視頻。
圖8 camera視頻第298幀不同算法結(jié)果圖
圖9 test視頻第772幀不同算法的結(jié)果圖
圖10 LeftBag視頻第1164幀不同算法下的結(jié)果圖
圖11 Circle視頻第412幀不同算法下的結(jié)果圖
由圖8可以看出原始Codebook算法檢測出的運(yùn)動(dòng)目標(biāo)有大面積的陰影,同時(shí)圖像右上方的房頂部位出現(xiàn)誤檢,且噪點(diǎn)較多;YUV顏色空間下Codebook算法檢測出的運(yùn)動(dòng)目標(biāo)比較完整,去除了陰影,減少了噪點(diǎn),但圖像右上方的房頂部位仍有誤檢;本文算法檢測出的運(yùn)動(dòng)目標(biāo)完整且無陰影、背景噪點(diǎn)少且基本去除了誤檢。
由圖9可以看出原始Codebook算法將靜止的汽車誤檢為運(yùn)動(dòng)目標(biāo),并在圖片右下方區(qū)域出現(xiàn)誤檢;YUV顏色空間下Codebook算法未將靜止的汽車檢測為背景但與原算法相比汽車位置陰影小且噪點(diǎn)較少但圖中右下方區(qū)域仍有誤檢;本文算法將靜止下來的汽車更新為背景且背景干凈幾乎無噪點(diǎn)。
由圖10可以看出原始Codebook算法在陽光照射區(qū)域出現(xiàn)誤檢且沒有將地上靜止的書包更新到背景中,YUV顏色空間Codebook算法誤檢較少但仍未將背包更新為背景;本文算法更新了背景且?guī)缀鯖]有誤檢。
由圖11可以看出原始Codebook算法檢測出的運(yùn)動(dòng)目標(biāo)有較多的陰影和孔洞,且未及時(shí)將地上的背包更新到背景中;YUV顏色空間下的Codebook算法陰影和噪聲較少但仍未將背包更新為背景;本文算法檢測出的目標(biāo)準(zhǔn)確且及時(shí)更新了背景。
對檢測結(jié)果采用精確率P和召回率R進(jìn)行定量分析,公式如下:
P=Np/Nt
(7)
R=Np/Nr
(8)
其中Np是圖像中被正確檢測認(rèn)定為前景點(diǎn)的像素點(diǎn)的數(shù)量;Nt是被檢測認(rèn)定為前景點(diǎn)的像素點(diǎn)數(shù)量Nr是人工提取的圖像中前景點(diǎn)的數(shù)量。由公式可知,當(dāng)P越高則前景檢測誤檢低(即檢測結(jié)果準(zhǔn)確率高),當(dāng)R越低說明漏檢的前景點(diǎn)比較多(即前景檢測不完整)。結(jié)果如表1所示。
表1 各算法精確率和召回率比較
由表1可知,與原算法和YUV顏色空間下Codebook算法相比,本文算法精確率有很大提高,說明本文算法檢測結(jié)果準(zhǔn)確率高,誤檢率低。但召回率略有降低,這是由于本文算法僅使用一個(gè)閾值T來控制亮度范圍,方法簡單。在有效抑制噪聲的同時(shí)使得前景檢測稍有漏檢,這可以通過調(diào)整相應(yīng)的閾值來改善。
本文在YUV空間中建立Codebook背景模型,并針對算法中亮度范圍定義不合理的問題,提出了YUV空間中改進(jìn)亮度范圍Codebook算法,同時(shí)提出了結(jié)合雙層碼本與短時(shí)滑動(dòng)窗口的背景更新方法。實(shí)驗(yàn)證明該方法檢測準(zhǔn)確率高,易于實(shí)現(xiàn),適用于復(fù)雜場景的運(yùn)動(dòng)目標(biāo)檢測。
[1]XiaojingSong,SeneviratneLD,AlthoeferK.AKalmanFilterIntegratedOpticalFlowMethodforVelocitySensingofMobileRobots[J].IEEE/ASMETransactionsonMechatronics,2010,16(3):551-563.
[2]YinHP,ChaiY,YangSX,etal.Fast-movingtargettrackingbasedonmeanshiftandframe-differencemethods[J].JournalofSystemsEngineering&Electronics,2011,4(4):587-592.
[3]IntachakT,KaewapichaiW.Real-timeilluminationfeedbacksystemforadaptivebackgroundsubtractionworkingintrafficvideomonitoring[C]//2011InternationalSymposiumonIntelligentSignalProcessingandCommunicationsSystems,2011:1-5.
[4]DaweiLi,LihongXu,GoodmanE.AfastforegroundobjectdetectionalgorithmusingKernelDensityEstimation[C]//IEEEInternationalConferenceonSignalProcessing,2012:703-707.
[5]MukherjeeD,WuQMJ,ThanhMinhNguyenThanh,etal.GaussianMixtureModelWithAdvancedDistanceMeasureBasedonSupportWeightsandHistogramofGradientsforBackgroundSuppression[J].IEEETransactionsonIndustrialInformatics,2013,12(10):1086-1096.
[6]KimK,ChalidabhongseTH,HarwoodD,etal.Davis.Real-timeForeground-BackgroundSegmentationusingCodebookModel[J].Real-timeImaging,2005,11(3):167-256.
[7] 瞿中,馬慶偉,張慶慶.多線程下的視頻微動(dòng)目標(biāo)檢測與提取算法研究[J].計(jì)算機(jī)科學(xué),2012,39(4):265-268.
[8] 雷飛,黃文路,王雪麗.基于YUV顏色空間碼本模型的水下運(yùn)動(dòng)目標(biāo)檢測[J].計(jì)算機(jī)與應(yīng)用化學(xué),2014,31(4):416-420.
[9]SigariMH,FathyM.Real-timeBackgroundModeling/SubtractionusingTwo-LayerCodebookModel[C]//InternationalMulticonferenceofEngineers&ComputerScientists,2008:1-5.
[10] 姜柯,李艾華,蘇延召.基于改進(jìn)碼本模型的視頻運(yùn)動(dòng)目標(biāo)檢測算法[J].電子科技大學(xué)學(xué)報(bào),2012, 41(6):932-936.
IMPROVED CODEBOOK MODEL ALGORITHM COMBINING BACKGROUND UPDATE AND BRIGHTNESS RANGE
Qu Zhong1.2Xin Ning1Liao Chunmei1
1(CollegeofComputerScienceandTechnology,ChongqingUniversityofPostsandTelecommunications,Chongqing400065,China)2(ChongqingEngineeringResearchCenterofSoftwareQualityAssurance,TestingandAssessment,Chongqing400065,China)
Traditional Codebook background modelling algorithm is established in RGB colour space,it has the problems of complex calculation,low segmentation quality and poor anti-jamming capability.In this paper,we first built the Codebook background model by utilising the characteristics of luminance and chrominance separation of YUV colour space.Secondly,we used the mean of Y component of codeword in Codebook to redefine brightness range aimed at the problem of unreasonable definition in brightness range of background model.Finally,in the process of moving object detection we employed the background update method combining two-layer Codebook and short-sliding window to improve anti-jamming capability.Experiments showed that the brightness range in improved algorithm can update gradually with the background changes.Compared with traditional Codebook background modelling algorithm,this one can effectively update background and meanwhile improve detection accuracy as well.
Codebook model YUV colour space Background updates Brightness
2015-09-27。重慶市科委基礎(chǔ)與前沿項(xiàng)目(cstc2014jcyj A1347);重慶市高校優(yōu)秀成果轉(zhuǎn)化項(xiàng)目(KJZH14219)。瞿中,教授,主研領(lǐng)域:數(shù)字圖像處理,物聯(lián)網(wǎng)技術(shù)等。辛寧,碩士生。廖春梅,碩士生。
TP391.41
A
10.3969/j.issn.1000-386x.2016.11.036