張俊陽 謝維信 植柯霖
(深圳大學(xué)ATR國防科技重點(diǎn)實驗室,廣東深圳 518060)
隨著社會上暴恐襲擊、人群擁擠踩踏等安全問題的發(fā)生,智能視頻監(jiān)控技術(shù)的發(fā)展顯得愈加重要,考慮到中、高密度的人群往往更容易發(fā)生突發(fā)狀況,且現(xiàn)實中公共場所存在大量的視頻監(jiān)控,故針對人群的異常行為檢測越來越受到學(xué)者、管理者的重視,具有較高的研究與應(yīng)用價值,視頻中人群異常行為檢測技術(shù)已成為近年來智能視頻監(jiān)控領(lǐng)域的一個研究熱點(diǎn)。
人群異常行為檢測首要解決的問題即是如何界定人群中的異常行為和正常行為。異常行為的定義通常具有很大的人為主觀性,特點(diǎn)為發(fā)生概率小,且正常人能夠明確地發(fā)覺,通常易對他人、公共場合等造成不利影響或預(yù)示著危險事故的發(fā)生[1]。根據(jù)這一特點(diǎn),研究者重視的人群中異常行為有行人圍觀擁堵道路、可疑人往人群丟包裹[2]、廣場及室內(nèi)場合的恐慌奔跑、車輛闖入人行道等行為[3],此外,行人徘徊、摔倒、多人打架斗毆[4]等異常行為檢測也備受關(guān)注。
近年來,研究者已經(jīng)在人群異常行為檢測領(lǐng)域提出許多有效方法??傮w上,根據(jù)表征人群運(yùn)動行為特征提取方法的不同,可將異常行為檢測大致分為2類:①基于低級視覺特征的算法,如文獻(xiàn)[5]通過對每一訓(xùn)練幀提取最大光流映射直方圖特征,構(gòu)建過完備字典,設(shè)定稀疏重構(gòu)閾值判斷檢測幀是否異常??捎行z測全局異常行為,但無法定位異常,算法耗時多。文獻(xiàn)[6]提出一種基于混合核動態(tài)紋理的視頻異常行為檢測算法,對視頻塊的表觀和時域動態(tài)變化進(jìn)行建模,從時間上和空間上分別檢測異常行為和定位物體,但當(dāng)行人相互之間遮擋時,外觀發(fā)生變化,易造成誤檢。②基于高級視覺特征的算法,如文獻(xiàn)[7]通過檢測并跟蹤視頻幀中特征點(diǎn)獲得軌跡片段,計算軌跡段直方圖作為視頻分塊高級描述子,使用LDA生成模型劃分視頻幀是否存在異常行為。算法提取了更長期運(yùn)動軌跡的運(yùn)動信息,但特征點(diǎn)檢測性能與跟蹤穩(wěn)定性對特征描述的有效性存在很大影響。Chaker則認(rèn)為可從人群的能量變化判定視頻中異常行為,對人群能量建立馬爾科夫模型,對檢測幀推斷異常行為的發(fā)生[8],但不能用于長期的推斷。
為了充分挖掘表征人群運(yùn)動模式的高級視覺信息,并更有效地從異常幀中定位異常運(yùn)動的人或物體。本文提出了一種基于運(yùn)動前景效應(yīng)圖特征的人群異常行為檢測算法,算法先通過自適應(yīng)混合高斯背景分割算法提取視頻幀序列的前景區(qū)域,將每一視頻幀在空間上分塊獲得運(yùn)動前景塊,并計算所有運(yùn)動前景塊給周圍塊帶來的運(yùn)動效應(yīng),可獲得每幀相應(yīng)的效應(yīng)圖,取時間上連續(xù)多幀的空間子塊作為空時塊,提取每個空時塊的效應(yīng)圖特征。最后通過一種改進(jìn)的優(yōu)化初始聚類中心的K-means聚類算法對訓(xùn)練幀序列進(jìn)行聚類訓(xùn)練,空時塊可快速地匹配最近的聚類中心,設(shè)定固定閾值可判定其異常與否。
分析判斷視頻中異常行為的一個行之有效的方法即是分析運(yùn)動行人或物體的運(yùn)動信息[4-7,9],表現(xiàn)異常行為的運(yùn)動行人或物體往往表現(xiàn)出異常的運(yùn)動狀態(tài)。故重點(diǎn)分析視頻中的運(yùn)動前景目標(biāo)的運(yùn)動狀態(tài)是科學(xué)的,且能夠排除監(jiān)控場景中噪聲、背景等冗余信息對所要建立的運(yùn)動模型帶來的干擾。
基于混合高斯的背景建模算法是計算機(jī)視覺領(lǐng)域常用的一種運(yùn)動前景區(qū)域提取方法。該算法具有檢測效果佳、實時性較好等特點(diǎn),至今仍然具有很高的實用價值。而針對混合高斯背景建模算法中構(gòu)成每個像素的高斯數(shù)量需要人為確定的缺點(diǎn),許多自適應(yīng)混合高斯背景分割算法被提出來,可以自適應(yīng)地確定混合高斯模型中的高斯數(shù)量,能夠減少場景中光照變化、噪聲等帶來的干擾,同時減少計算量。本文主要采用Zivkovic改進(jìn)的自適應(yīng)混合高斯背景分割算法提取視頻幀序列的運(yùn)動前景[10]。并使用該文獻(xiàn)中的參數(shù)設(shè)置。
圖1為采用自適應(yīng)混合高斯背景建模算法對視頻幀圖像進(jìn)行的運(yùn)動前景提取,從所得的前景圖像可看出,即使圖片分辨率低,運(yùn)動目標(biāo)表觀模糊,算法的前景區(qū)域分割效果也很好。
圖1 自適應(yīng)混合高斯背景建模算法提取運(yùn)動前景
異常行為檢測階段準(zhǔn)確性的提高要求行人或其他物體運(yùn)動的特征描述更加具有區(qū)分性。為克服直接使用如灰度梯度、光流直方圖、動態(tài)紋理等低級視覺特征描述所造成的噪聲高、區(qū)分度低的問題[4- 6],本文結(jié)合了行人實際運(yùn)動模型,深入分析表現(xiàn)異常行為的行人或物體對周圍環(huán)境所造成效應(yīng)的不同,給出表示運(yùn)動前景對周圍環(huán)境造成效應(yīng)的特征計算方法,將人群運(yùn)動效應(yīng)作為運(yùn)動模型的高級特征描述,提出了一種基于運(yùn)動前景效應(yīng)圖的特征描述。
圖2 運(yùn)動前景效應(yīng)圖特征提取框圖
圖2給出了本文的運(yùn)動前景效應(yīng)圖特征的提取框圖,算法首先由自適應(yīng)混合高斯模型對視頻幀序列做運(yùn)動前景提取,并進(jìn)行空間上分塊得到運(yùn)動前景塊。然后根據(jù)視頻幀的稠密光流獲得運(yùn)動前景塊的運(yùn)動矢量表示,最后計算所有運(yùn)動前景塊的效應(yīng)獲得效應(yīng)圖,并以連續(xù)多幀的空間子塊作為空時塊的形式提取空時塊的效應(yīng)圖特征。
首先將自適應(yīng)混合高斯模型提取的前景圖在空間上分割成W×L個圖像塊,每個圖像塊尺度大小為Npixel×Npixel,由于重點(diǎn)在于分析運(yùn)動行人或物體的各部分運(yùn)動的效應(yīng),如人的手部揮動效應(yīng)影響。故N的取定準(zhǔn)則為:單個前景塊可表示為運(yùn)動前景目標(biāo)的某一部分。其次,對圖像塊進(jìn)行預(yù)處理,這是由于自適應(yīng)混合高斯背景提取可能存在零星的前景點(diǎn),這些前景點(diǎn)可能是噪聲、背景細(xì)微變動或者是運(yùn)動物體運(yùn)動幅度較小造成的,無法明顯地表示一個物體塊的運(yùn)動行為,特點(diǎn)是前景點(diǎn)在相應(yīng)塊內(nèi)的數(shù)量占比小,其會對后續(xù)的效應(yīng)圖特征的計算產(chǎn)生干擾,故只有圖像塊內(nèi)的前景點(diǎn)數(shù)量達(dá)到一定比例才能作為運(yùn)動前景塊。對分割出的每個圖像分塊做如下處理。
假設(shè)Bj(1≤J≤W×L)表示第j個圖像分塊,bj為其塊內(nèi)前景點(diǎn)數(shù)量,則只有滿足公式(1)才能作為運(yùn)動前景塊保留,否則該分塊作為噪聲去除。
(1)
其中,Gi(1≤i≤S)表示圖像塊Bj在滿足條件時可作為第i個運(yùn)動前景塊,λ為前景點(diǎn)比例閾值,取值可在0.1~0.4。
圖3中左圖為出現(xiàn)噪聲點(diǎn)的前景圖像,噪聲干擾主要產(chǎn)生于圖像的獲取和傳輸過程,由于存在的噪聲影響,造成某些背景像素點(diǎn)在時間序列中變化較大,短時間內(nèi)形成了一個新的高斯分布,自適應(yīng)混合高斯背景模型將其誤判為前景點(diǎn),因而前景圖中存在孤立前景點(diǎn)。由于孤立點(diǎn)呈現(xiàn)數(shù)量少、隨機(jī)分布的特點(diǎn),圖1中未出現(xiàn)噪聲點(diǎn),圖3左圖則表示了噪聲點(diǎn)出現(xiàn)的情形。
圖3中右圖為使用公式(1)對前景圖像作預(yù)處理效果圖,通過預(yù)處理結(jié)果可以看出,將塊內(nèi)前景點(diǎn)占比小的圖像塊作為背景去除可以有效地去除零星的前景點(diǎn),使所提取的運(yùn)動前景塊可以更有效地表示真實的運(yùn)動物體。
圖3 前景圖像預(yù)處理
運(yùn)動前景塊可表示為運(yùn)動目標(biāo)如行人或小車等目標(biāo)的一部分實體,通過對前景塊內(nèi)像素點(diǎn)的光流信息可描述前景塊的運(yùn)動狀態(tài)。文中先通過文獻(xiàn)[11]所提出的稠密光流算法計算原始圖像序列中每一幀每一像素點(diǎn)的光流矢量。為不失一般性,假設(shè){G1,G2,...,GS}為所提取的運(yùn)動前景塊,通過取塊內(nèi)所有像素點(diǎn)光流矢量的平均作為當(dāng)前塊的光流矢量。
(2)
人群中單個行人運(yùn)動方向容易受到很多影響因素的影響,例如道路上行駛的車輛、周圍行人和其他障礙物。這些周圍因素給行人帶來的運(yùn)動影響有效地被應(yīng)用于人群運(yùn)動模型建立[12-14]。文獻(xiàn)[14]研究了物體塊間相互影響的作用規(guī)律,但并沒有考慮物體塊對自身位置的影響。本文則從另一角度,將行人或其他運(yùn)動目標(biāo)給周圍空間造成的影響稱為運(yùn)動效應(yīng),考慮周圍空間分塊受到運(yùn)動前景塊的效應(yīng)主要取決于運(yùn)動前景塊的運(yùn)動方向、運(yùn)動速度和距離。
(3)
圖4 前景塊的運(yùn)動模型圖
故可定義運(yùn)動前景塊Gi對空間塊Bj的效應(yīng)權(quán)值為:
(4)
空間塊Bj受到多個運(yùn)動方向各不同的前景塊帶來的影響效應(yīng),需依據(jù)不同的運(yùn)動方向?qū)η熬皦K的效應(yīng)做統(tǒng)計,可以使提取的特征具有更高的區(qū)分度,為了計算效率,對運(yùn)動前景塊的運(yùn)動方向作如下量化處理。
(5)
其中,k∈{1,2,3,...,p},p為量化方向區(qū)間總數(shù)。
按照運(yùn)動前景塊光流的量化方向?qū)η熬皦K給空間塊Bj產(chǎn)生的效應(yīng)作統(tǒng)計如下。
(6)
其中,ki表示第i個運(yùn)動前景塊光流的量化方向索引值。
在計算出所有空間塊Bi的運(yùn)動前景效應(yīng)權(quán)值后,可構(gòu)建視頻序列中一幀圖像的運(yùn)動前景效應(yīng)圖,運(yùn)動前景效應(yīng)圖的每一空間塊均可由p維向量表示。為了在更長時間統(tǒng)計運(yùn)動前景效應(yīng),使所提取特征具有更高區(qū)分性,取連續(xù)t幀的空間塊作為一個空時分塊,疊加t幀空間塊的特征向量作為空時塊的特征描述。
圖5表示運(yùn)動前景效應(yīng)圖特征的提取過程,相較于直接利用光流、表觀等低級特征描述,表征運(yùn)動目標(biāo)空間上和時間上的運(yùn)動效應(yīng)的特征描述具有更高級的視覺特性。
K均值聚類算法是一種可以將大量數(shù)據(jù)劃分類別的簡單有效算法,應(yīng)用較為廣泛。這種聚類算法存在著聚類中心數(shù)量需人為確定、不同的初始質(zhì)心可導(dǎo)致不同聚類結(jié)果等缺點(diǎn),其中,初始質(zhì)心的選擇很大程度上影響算法的聚類性能,目前仍未有既保證全局最優(yōu)又聚類結(jié)果最好的解決方法[15]。
針對初始聚類中心優(yōu)化問題,研究人員提出了很多改進(jìn)方法。K-means++為戴維亞瑟等人于2007年提出的優(yōu)化初始聚類中心的K均值聚類算法[16],其主要改進(jìn)思想為:初始選定的聚類中心之間的距離應(yīng)該保持盡可能遠(yuǎn)的距離,即選定本質(zhì)上類別差異性大的初始聚類中心點(diǎn)。同樣依據(jù)該思想的改進(jìn)算法有最近鄰選擇法[17]、依據(jù)樣本密集性選擇法[18]。
為了獲得固定的初始聚類中心,且算法具有較好的聚類效果,對文獻(xiàn)[19]的最大距離初始化方法作出改進(jìn)。首先計算樣本集中所有樣本點(diǎn)相互之間的距離,從中選取距離最大的兩個樣本點(diǎn)作為聚類中心集合,取離集合最遠(yuǎn)的點(diǎn)加入集合作為集合的更新,并以此類推,直至集合中聚類中心數(shù)量達(dá)到k個。
改進(jìn)的最大距離初始化聚類中心算法的執(zhí)行流程如下所示:
輸入:數(shù)據(jù)集X={x1,x2,...,xn},xi∈Rd,聚類中心數(shù)k。
輸出:k個初始聚類中心。
1)初始化聚類中心集合C=?;
圖5 運(yùn)動前景效應(yīng)圖特征提取過程
2)計算數(shù)據(jù)集中任意兩個樣本點(diǎn)之間的歐式距離,記xi,xj為距離最大的兩個樣本點(diǎn),更新C={xi,xj};
3)記集合U=X-C,計算集合U中所有樣本點(diǎn)與集合C的距離,距離公式為D(xp,C)=minD(xp,xl),xp∈U,xl∈C;
5)重復(fù)步驟3)、4),直至集合C元素數(shù)量達(dá)到k個。
為驗證改進(jìn)的優(yōu)化初始聚類中心K均值聚類算法的有效性,將算法與經(jīng)典K均值算法、K-means++算法做比較。實驗平臺為MATLAB2013。使用UCI上常用的Iris、Wine、Seeds、User knowledge model (UKM)共4組數(shù)據(jù)集作為實驗數(shù)據(jù)集,表1為數(shù)據(jù)集的屬性。
表1 測試數(shù)據(jù)集屬性
由于K-means算法、K-means++算法所選取的初始聚類中心不是固定的,故對其取20次運(yùn)行結(jié)果作為聚類效果衡量,使用誤差平方和、聚類準(zhǔn)確率作為聚類結(jié)果評估。
表2 聚類準(zhǔn)確率結(jié)果
表3 誤差平方和結(jié)果
表2及表3為實驗結(jié)果,與前兩種算法比較,文中改進(jìn)的算法在準(zhǔn)確率和誤差平方上有一定的改善,且能夠獲得固定的初始聚類中心,在應(yīng)用于異常行為建模時避免了因為初始聚類中心不固定對聚類效果的干擾。
圖6 算法整體框架
首先使用文獻(xiàn)[10]提取視頻序列圖像的運(yùn)動前景區(qū)域,將圖像切分為W×L個空間塊,結(jié)合預(yù)處理的前景圖像可提取運(yùn)動前景塊,運(yùn)動前景塊被用于計算每個空間塊的運(yùn)動效應(yīng)權(quán)值特征向量,將時間上連續(xù)多幀的空間塊特征累加形成運(yùn)動前景效應(yīng)圖特征。
K均值聚類算法為常用的數(shù)據(jù)挖掘算法,可對大量數(shù)據(jù)進(jìn)行聚類,文中針對其隨機(jī)性初始化聚類中心的缺點(diǎn)作出改進(jìn),由于圖像尺度在視頻幀中不同位置時表現(xiàn)不一致,故對于不同位置的空時塊均采用一個K-means模型做聚類訓(xùn)練,共有W×L個K-means聚類模型。
(7)
通過設(shè)定閾值Tε判斷ε(i,j)是否為離群點(diǎn),如果ε(i,j)>Tε,則可將該空時塊標(biāo)記為異常,可實現(xiàn)對視頻中異常行為的檢測和定位。
實驗使用Intel(R) Core(TM) i7處理器、8.00 GB內(nèi)存臺式電腦,使用C++、Matlab編程實現(xiàn)。實驗采用由文獻(xiàn)[20]于2010年提出的UCSD異常檢測視頻數(shù)據(jù)集,為現(xiàn)階段認(rèn)可度較高的公開數(shù)據(jù)集。
UCSD視頻數(shù)據(jù)集包含2個不同自然場景的視頻集,分別為Ped1和Ped2,其中定義了許多異常行為對象,如:滑輪者、貨車、坐輪椅者、巡邏車、騎自行車者。Ped1的圖像分辨率為238 pixel×158 pixel,包含34段訓(xùn)練樣本和36段測試樣本;Ped2的圖像分辨率為360 pixel×240 pixel,包含16段訓(xùn)練樣本和12段測試樣本。所有測試樣本均給出標(biāo)出異常行為對象的基準(zhǔn)幀。
文中運(yùn)動前景塊的大小表示的是運(yùn)動行人或物體的一部分,故空間分塊需結(jié)合圖像中行人表觀分辨率而定,將Ped1空間分塊大小設(shè)為8 pixel×8 pixel,Ped2空間分塊大小設(shè)為12 pixel×12 pixel,由于時間分塊目的在于獲取短時內(nèi)的運(yùn)動行為表示,則可設(shè)定t=4。前景點(diǎn)比例閾值根據(jù)實際情況可設(shè)定λ=0.1。運(yùn)動前景塊影響視野范圍設(shè)為[-π,π],距離范圍隨著運(yùn)動幅值而變化,故設(shè)定δd=‖gi‖×n×n,光流量化方向p依據(jù)實驗效果設(shè)定為8,改進(jìn)的K均值聚類類數(shù)設(shè)為5,足夠表征人群的正常行為。
(3)標(biāo)準(zhǔn)化采集:解析識別原始流量,實現(xiàn)xDR數(shù)據(jù)合成、統(tǒng)計分析、流控封堵、還原等功能,同時具備智能鏡像能力,可基于應(yīng)用層信息(如應(yīng)用特征碼、關(guān)鍵字內(nèi)容等)的規(guī)則復(fù)制流量提供給上層應(yīng)用。
提取運(yùn)動前景圖的視頻理論上更有利于異常行為的檢測,故為了驗證所提出算法利用前景圖的有效性與整體檢測方案的準(zhǔn)確性。從兩方面進(jìn)行實驗比較,一為與基于前景信息的方法之間的實驗比較,另一方面為與現(xiàn)有其他檢測方法之間的實驗比較。
6.2.1基于前景信息的檢測算法實驗比較
將所提出算法(簡稱為Ours)與其他兩種基于前景信息的異常行為檢測算法做比較,分別為基于區(qū)域的軌跡分析與路徑預(yù)測[21](簡稱為Region-Based)、空時卷積神經(jīng)網(wǎng)絡(luò)[22](簡稱為ST-CNN)。前者重點(diǎn)分析前景存在的區(qū)域,而后者間接利用運(yùn)動前景信息,提取運(yùn)動信息顯著的空時塊作為重點(diǎn)分析對象。此外,為分析改進(jìn)的K均值聚類在所提出算法中的作用,將所提出的運(yùn)動前景效應(yīng)圖特征和經(jīng)典K均值聚類結(jié)合的算法(簡稱為MEM-kmeans)進(jìn)行比較。
圖7為Ours算法與其他幾種基于前景的檢測算法之間的ROC曲線比較,在數(shù)據(jù)集Ped1上,Region-Based具有最好的ROC曲線,其他三種算法基本較為接近;在數(shù)據(jù)集Ped2上,Ours算法與MEM-Kmeans表現(xiàn)相當(dāng),并比其他兩種方法好。
圖7 UCSD數(shù)據(jù)集上基于前景的檢測算法的ROC曲線比較
表4和表5分別為通過AUC(Area Under Curve)、EER(Equal Error Rate) 這2個重要的量化評估指標(biāo)的評估結(jié)果。評估實驗為幀級(flame-level)的檢測評估。
表4 UCSD數(shù)據(jù)集上基于前景的檢測算法的AUC指標(biāo)對比
由表4可得在場景Ped1下,Region-Based的AUC指標(biāo)值比Ours算法高出1.27個百分點(diǎn),Ours算法與ST-CNN的AUC指標(biāo)值則基本相等;在場景Ped2下,Ours的AUC最佳。而無論P(yáng)ed1還是Ped2,Ours的AUC指標(biāo)值與MEM-Kmeans方法的AUC值最為接近。
表5 UCSD數(shù)據(jù)集上基于前景的檢測算法的EER指標(biāo)對比
表5中在場景Ped1下,Ours算法低于Region-Based方法1.51個百分點(diǎn),為19.52%,但要優(yōu)于ST-CNN的20.37%;在場景Ped2下,Ours算法比Region-Based提高了4.07%。此外,總體上,Ours算法只比MEM-Kmeans提高了0.8%的指標(biāo)值。
故整體上看,Ours算法取得最佳的準(zhǔn)確率。Region-Based在Ped1具有最佳的表現(xiàn),其對幀間前景信息進(jìn)行了較為深入的軌跡分析。Ped2視頻集具有更高的分辨率,Ours算法則可對運(yùn)動前景塊建立更為有效的運(yùn)動模型。無論P(yáng)ed1數(shù)據(jù)集還是Ped2數(shù)據(jù)集,MEM-Kmeans與整體Ours算法表現(xiàn)均十分接近,表明了異常行為檢測有效性的提高更多的是特征提取的改進(jìn),而改進(jìn)的K均值聚類則是為了避免K均值聚類中心不固定導(dǎo)致聚類模型不穩(wěn)定的缺點(diǎn)。
6.2.2其他檢測算法實驗比較
為驗證所提出算法(簡稱為Ours) 的準(zhǔn)確性,將Ours算法與現(xiàn)有的其他幾種算法作比較,這些檢測方案并無利用前景信息,分別為:社會力模型[12](簡稱SF)、運(yùn)動影響圖[14](簡稱Dong-Gyu)、局部光流直方圖[23](簡稱SL-HOF)。其中局部光流直方圖為Siqi Wang 于2016年提出的算法。
圖8為所提出算法和其他3種對比算法在Ped1和Ped2上的ROC曲線對比。Ours算法具有最佳的ROC曲線。
圖8 UCSD數(shù)據(jù)集不同算法的ROC曲線比較
算法SFDong-GyuSL-HOFOursPed174.46%80.22%79.94%84.66%Ped268.49%90.87%89.52%93.24%平均71.47%85.54%84.73%88.95%
表6為本文算法及其他對比算法在UCSD數(shù)據(jù)集上的AUC指標(biāo)值對比。在數(shù)據(jù)集Ped1上,本文的AUC為84.66%,比Dong-Gyu提高了4.44%,與SL-HOF相比,則提升了4.72%;在數(shù)據(jù)集Ped2上,Ours比Dong-Gyu高了2.37%,與SL-HOF相比,也有較高的提升。這得益于重點(diǎn)分析前景目標(biāo)的運(yùn)動模式,而濾除背景冗余信息的影響。
表7 UCSD數(shù)據(jù)集上不同算法的EER指標(biāo)對比
表7為本文算法與其他現(xiàn)有幾種算法在數(shù)據(jù)集UCSD上的EER指標(biāo)值對比。對于各種算法在Ped1上的EER指標(biāo)值,相較于Dong-Gyu和SL-HOF,Ours分別提升了3.5%和6.74%;而在Ped2上,Ours為11.48%,比Dong-Gyu提升了2.08%,與SL-HOF相比,也有3.99%的提升。
圖9為文中算法對測試視頻序列中異常行為對象的定位效果圖,由于重點(diǎn)針對稀密不同的人群正常運(yùn)動視頻序列做特征提取及聚類訓(xùn)練,圖(e)與(f)表明人數(shù)稀疏、密集出現(xiàn)的異常行為對象均可進(jìn)行有效地檢測。
圖9 測試序列圖像出現(xiàn)的異常行為對象的定位
本文提出了一種基于運(yùn)動前景效應(yīng)圖特征的人群異常行為檢測算法,通過自適應(yīng)混合高斯背景建模方法得到視頻序列的前景圖像,并通過塊內(nèi)前景點(diǎn)篩選的預(yù)處理方法分割得前景圖像塊,計算運(yùn)動前景的效應(yīng)圖,并以空時塊為單位提取運(yùn)動前景效應(yīng)圖特征,以一種改進(jìn)的優(yōu)化初始聚類中心的K均值聚類算法判定待檢測空時塊的特征表示是否為離群點(diǎn)。
通過與其他算法在公認(rèn)UCSD數(shù)據(jù)集上的實驗比對,本文算法在AUC和EER指標(biāo)上有一定的提高,并且可以定位異常行為的位置。
[1] 吳新宇, 郭會文, 李楠楠,等.基于視頻的人群異常事件檢測綜述[J]. 電子測量與儀器學(xué)報, 2014, 28(6):575-584.
Wu Xinyu, Guo Huiwen, Li Nannan, et al. Survey on the video-based abnormal event detection in crowd scenes[J]. Journal of Electronic Measurement and Instrumentation,2014,28(6):575-584.(in Chinese)
[2] Rabiee H, Haddadnia J, Mousavi H.Crowd behavior representation: an attribute-based approach[J].SpringerPlus,2016,5(1):1179-1195.
[3] Popoola O P, Wang K. Video-Based Abnormal Human Behavior Recognition—A Review[J]. IEEE Transactions on Systems Man & Cybernetics Part C, 2012, 42(6):865- 878.
[4] Mohammadi S, Kiani H, Perina A, et al. Violence detection in crowded scenes using substantial derivative[C]∥IEEE International Conference on Advanced Video and Signal Based Surveillance, 2015:1- 6.
[5] Li A, Miao Z, Cen Y, et al. Abnormal event detection based on sparse reconstruction in crowded scenes[C]∥IEEE International Conference on Acoustics, Speech and Signal Processing, 2016:1786-1790.
[6] Duan S, Wang X, Yu X. Crowded abnormal detection based on mixture of kernel dynamic texture[C]∥International Conference on Audio, Language and Image Processing,2015:931-936.
[7] Mousavi H, Mohammadi S, Perina A, et al. Analyzing Tracklets for the Detection of Abnormal Crowd Behavior[C]∥IEEE Winter Conference on Applications of Computer Vision,2015:148-155.
[8] Li Z, Chen L, Ren Z, et al. A pattern recognition for group abnormal behaviors based on Markov Random Fields energy[C]∥IEEE International Conference on Cognitive Informatics & Cognitive Computing, 2014:526-528.
[9] 柳晶晶, 陶華偉, 羅琳,等.梯度直方圖和光流特征融合的視頻圖像異常行為檢測算法[J].信號處理, 2016, 32(1):1-7.
Liu Jingjing, Tao Huawei, Luo lin, et al. Video Anomaly Detection Algorithm Combined with Histogram of Oriented Gradients and Optical Flow[J]. Journal of Signal Processing, 2016, 32(1):1-7. (in Chinese)
[10] Zivkovic Z. Improved Adaptive Gaussian Mixture Model for Background Subtraction[C]∥International Conference on Pattern Recognition, 2004:28-31.
[11] Farneb?ck G. Two-Frame Motion Estimation Based on Polynomial Expansion[M]. Image Analysis. Springer Berlin Heidelberg, 2003:363-370.
[12] Mehran R, Oyama A, Shah M. Abnormal crowd behavior detection using social force model[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2009:935-942.
[13] Chaker R, Junejo I N, Aghbari Z A. Crowd modeling using social networks[C]∥IEEE International Conference on Image Processing, 2015:1280-1284.
[14] Lee D G, Suk H I, Park S K, et al. Motion Influence Map for Unusual Human Activity Detection and Localization in Crowded Scenes[J]. IEEE Transactions on Circuits & Systems for Video Technology, 2015, 25(10):1612-1623.
[15] Choudhary A, Sharma P, Singh M. Improving K-means through better initialization and normalization[C]∥2016 International Conference on Advances in Computing,Communications and Informatics (ICACCI), Jaipur, 2016: 2415-2419.
[16] Arthur D, Vassilvitskii S. k-means++: the advantages of careful seeding[C]∥Eighteenth Acm-Siam Symposium on Discrete Algorithms Society for Industrial and Applied Mathematics, 2007:1027-1035.
[17] Kettani O, Tadili B, Ramdani F. A Deterministic K-means Algorithm based on Nearest Neighbor Search[J]. International Journal of Computer Applications, 2013, 63(15):33-37.
[18] Xiong C, Hua Z, Lv K, et al. An Improved K-means Text Clustering Algorithm by Optimizing Initial Cluster Centers[C]∥2016 7th International Conference on Cloud Computing and BigData (CCBD), Macau, China, 2016:265-268.
[19] Rajaraman A, Ullman J D. Mining of massive Datasets[M]. 2nd ed. Cambridge University Press, 2014:252-254.
[20] Mahadevan V, Li W, Bhalodia V, et al. Anomaly detection in crowded scenes[C]∥Computer Vision and Pattern Recognition, 2010:1975-1981.
[21] Zhang T, Wiliem A, Lovell B C. Region-Based Anomaly Localisation in Crowded Scenes via Trajectory Analysis and Path Prediction[C]∥International Conference on Digital Image Computing: Techniques and Applications. IEEE, 2013:1-7.
[22] Zhou S, Shen W, Zeng D, et al.Spatial-temporal Convolutional Neural Networks for Anomaly Detection and Localization in Crowded Scenes[J]. Signal Processing Image Communication, 2016, 47:358-368.
[23] Wang S, Zhu E, Yin J, et al. Anomaly detection in crowed scenes by SL-HOF descriptor and foreground classification[C]∥ 2016 23rd International Conference on Pattern Recognition (ICPR), Cancun, 2016:3398-3403.