• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于快速SIFT 匹配的行人信息檢測(cè)*

      2012-08-09 08:08:16杜金輝管業(yè)鵬時(shí)勇杰
      電子器件 2012年5期
      關(guān)鍵詞:人頭頭部分類器

      杜金輝,管業(yè)鵬,時(shí)勇杰

      (上海大學(xué)通信與信息工程學(xué)院,上海 200072)

      隨著現(xiàn)代社會(huì)各種突發(fā)安全事故的頻繁發(fā)生,人們對(duì)安全的要求也愈來愈高,同時(shí)也大大刺激了相關(guān)產(chǎn)業(yè)的發(fā)展。異常行為檢測(cè)就是智能視頻監(jiān)控的一個(gè)重要應(yīng)用。智能視頻監(jiān)控就是依賴計(jì)算機(jī)視覺技術(shù),對(duì)視頻內(nèi)容進(jìn)行處理。復(fù)雜場(chǎng)景下,人體作為非剛體,形態(tài)變化多樣,且容易發(fā)生遮擋,跟蹤起來場(chǎng)景變化快等,以人體為參照,所得效果會(huì)大打折扣,如何在復(fù)雜場(chǎng)景下對(duì)人進(jìn)行檢測(cè)以及跟蹤識(shí)別,這也是目前研究的難點(diǎn)和熱點(diǎn)。目前主要的檢測(cè)方法有人頭曲率檢測(cè)幾何特征跟蹤法[1],依據(jù)人頭曲率檢測(cè)來檢測(cè)人的頭部,并根據(jù)幾何特征來跟蹤,克服了陰影和光照,但對(duì)于相似曲率的物體容易檢測(cè)為人頭,并且跟蹤效果也因此大打折扣,誤檢率高。改進(jìn)的粒子濾波檢測(cè)跟蹤法[2],該方法最大的缺點(diǎn)是只能跟蹤一個(gè)物體,且跟丟的可能性很大,計(jì)算量大,費(fèi)時(shí).粒子濾波作為一種基于貝葉斯估計(jì)的非線性濾波算法,在處理非線性運(yùn)動(dòng)目標(biāo)跟蹤問題方面有著特殊的優(yōu)勢(shì)。但是當(dāng)對(duì)多個(gè)目標(biāo)進(jìn)行跟蹤,目標(biāo)如果相互遮擋時(shí),會(huì)出現(xiàn)跟蹤目標(biāo)的“失跟”現(xiàn)象。此外,多個(gè)目標(biāo)之間的干擾也會(huì)影響跟蹤的準(zhǔn)確性;能量信息人群檢測(cè)法[3],通過自定義的能量函數(shù)來評(píng)估觀測(cè)區(qū)域的擁擠程度和異常檢測(cè)的方法,未能精確的計(jì)算個(gè)體運(yùn)動(dòng)信息對(duì)異常對(duì)象進(jìn)行識(shí)別;三維紋理分析法[4],算法復(fù)雜度高,且泛化能力不足,對(duì)于具有較多對(duì)象時(shí),計(jì)算比較費(fèi)時(shí);卡爾曼濾波法[5]對(duì)于復(fù)雜背景下運(yùn)動(dòng)目標(biāo)識(shí)別與跟蹤問題,要實(shí)現(xiàn)實(shí)時(shí)控制,對(duì)算法的實(shí)時(shí)性和準(zhǔn)確性都有較高的要求?;诳柭鼮V波器預(yù)測(cè)功能的運(yùn)動(dòng)目標(biāo)快速跟蹤算法可以通過預(yù)測(cè)目標(biāo)物體在下一幀中的位置,將全局搜索問題轉(zhuǎn)化為局部搜索,提高算法的實(shí)時(shí)性。

      通常的目標(biāo)識(shí)別算法都是基于像素的全局搜索方法存在以下顯著缺點(diǎn):

      (1)全局搜索計(jì)算量大、耗時(shí),實(shí)時(shí)性無法滿足;

      (2)全局搜索抗干擾能力差,容易受到背景中相似特征物體的干擾。

      本文利用人體頭部結(jié)構(gòu)比較穩(wěn)定且受干擾小不易發(fā)生遮擋,干擾噪聲小等優(yōu)勢(shì),提出了一種針對(duì)人頭的檢測(cè)的快速SIFT 匹配的人體運(yùn)動(dòng)信息檢測(cè)方法。論文主要貢獻(xiàn)有以下3點(diǎn):

      (1)依據(jù)場(chǎng)景設(shè)置感興趣區(qū)域,避免對(duì)圖像的全局搜索,提高了檢測(cè)效率;

      (2)利用Adaboost 級(jí)聯(lián)分類器檢測(cè)人體頭部,快速有效地檢測(cè)出人體頭部,且依據(jù)人體頭部這個(gè)剛體信息能有效區(qū)分運(yùn)動(dòng)個(gè)體;

      (3)利用SIFT 特征僅僅對(duì)檢測(cè)到人頭部分進(jìn)行匹配,得到人體的運(yùn)動(dòng)信息,并提出一些機(jī)制,進(jìn)行有效判斷移動(dòng)對(duì)象進(jìn)出檢測(cè)區(qū)域。

      本文主要分成以下幾個(gè)部分,第1 部分講述本文方案,第2 部分描述具體算法。第3 部分對(duì)實(shí)驗(yàn)詳細(xì)描述,與相關(guān)方法進(jìn)行對(duì)比。第4 部分對(duì)全文進(jìn)行總結(jié)。

      1 本文方案

      Adaboost 分類器[6]能夠直接對(duì)分類器進(jìn)行分級(jí)放大,然后在檢測(cè)區(qū)域利用不同尺寸的分類器進(jìn)行搜索。從而避免了對(duì)圖像中的人體頭部進(jìn)行歸一化的操作,提高了運(yùn)算效率,有效解決了對(duì)于頭部距離攝像頭遠(yuǎn)近不同造成的人頭部尺度不一致的問題。我們?cè)诒疚闹胁捎秒x線方法訓(xùn)練Adaboost 分類器,選擇大量人的頭部樣本,提取Haar 特征和訓(xùn)練得到的Adaboost 級(jí)聯(lián)分類器進(jìn)行人體頭部檢測(cè)。

      本文依據(jù)采集視頻的場(chǎng)景,其中大部分?jǐn)z像頭都是在機(jī)場(chǎng),公交車等場(chǎng)景中固定位置,可以明顯分析出大部分場(chǎng)合不需要對(duì)場(chǎng)景進(jìn)行全局檢測(cè),若要進(jìn)行全屏幕檢測(cè),在實(shí)時(shí)性上面要大打折扣。對(duì)此,我們采用背景差分的方法檢測(cè)運(yùn)動(dòng)前景得到感興趣區(qū)域,提取運(yùn)動(dòng)區(qū)域時(shí),以前若干幀平均值作為背景,與當(dāng)前幀進(jìn)行差分取得運(yùn)動(dòng)前景,對(duì)的得到的前景區(qū)域取連通域外接邊框,并作適當(dāng)擴(kuò)大,避免造成檢測(cè)頭部區(qū)域的不完整。在感興趣區(qū)域內(nèi)進(jìn)行檢測(cè),有效減少了檢測(cè)時(shí)的搜索時(shí)間。

      通過在感興趣區(qū)域進(jìn)行人頭檢測(cè)得到人體頭部的數(shù)目、大小等信息,在此基礎(chǔ)上,利用SIFT 特征進(jìn)行不同人體頭部之間的匹配。SIFT 特征是一種具有強(qiáng)烈方向性及亮度性的特征,這使得它適用于人頭這種剛體。我們對(duì)相鄰幀進(jìn)行快速SIFT 匹配,得到相鄰幀間同一個(gè)運(yùn)動(dòng)的人體頭部的具體的運(yùn)動(dòng)方向,運(yùn)動(dòng)速度等信息,結(jié)合以往若干幀得到歷史信息,進(jìn)行推理判斷最終得到精確的檢測(cè)結(jié)果。

      2 實(shí)時(shí)行人檢測(cè)與匹配算法

      2.1 人體頭部的檢測(cè)

      在公共場(chǎng)合,尤其是人比較多的場(chǎng)合,人體的遮擋很大,根據(jù)人體頭部作為檢測(cè)特征,有遮擋少,不易變化的特點(diǎn)[7],把頭部作為有效的特征來衡量人群信息,相對(duì)于其他特征而言,頭部受光線、噪聲、陰影等影響較小,可以得到運(yùn)動(dòng)個(gè)體的有效位置信息。

      Adaboost 分類器算法利用大量的分類能力一般的簡(jiǎn)單分類器通過一定的方法疊加起來,構(gòu)成一個(gè)分類能力很強(qiáng)的分類器,再將若干個(gè)強(qiáng)分類器串聯(lián)成為分級(jí)分類器完成圖像搜索檢測(cè),串聯(lián)的級(jí)數(shù)依賴于系統(tǒng)對(duì)錯(cuò)誤率和識(shí)別速度的要求。本文采用離線訓(xùn)練Adaboost 分類器,通過大量的具有比較明顯的Haar 特征(矩形)的頭部圖像用模式識(shí)別的方法訓(xùn)練出分類器。

      圖1 部分人頭樣本

      本文對(duì)利用幀間差分得到的感興趣區(qū)域進(jìn)行檢測(cè)[8],檢測(cè)人體頭部效果如圖2所示。通過選定的區(qū)域,能夠有效減少檢測(cè)時(shí)間,同時(shí),對(duì)通過區(qū)域的人群有效區(qū)分。如果是背后檢測(cè)人體頭部,可能受到衣服顏色等相關(guān)方面干擾,故后期對(duì)檢測(cè)得到的頭部序列進(jìn)行篩選,由于分類器是級(jí)聯(lián)的,每級(jí)都以大概相同的識(shí)別率保留進(jìn)入下一級(jí)的具有物體特征的候選物體,而每一級(jí)的子分類器則由許多Haar 特征構(gòu)成。識(shí)別物體的時(shí)候,同樣計(jì)算積分圖像為后面計(jì)算Haar 特征做準(zhǔn)備,然后采用與訓(xùn)練的時(shí)候有物體的窗口同樣大小的窗口遍歷整幅圖像,以后逐漸放大窗口,同樣做遍歷搜索物體。遍歷窗口大小為10×10 到40×40,故頭部尺度大小一般是10×10到40×40,超過或者小于這個(gè)區(qū)間頭部大小的檢測(cè)結(jié)果都是誤檢,如圖3所示,提高檢測(cè)的精確度。

      圖2 人頭檢測(cè)效果

      圖3 人頭誤檢結(jié)果

      2.2 快速SIFT 匹配

      SIFT 特征是圖像的局部特征,其對(duì)旋轉(zhuǎn)、尺度縮放、亮度變化保持不變性,對(duì)視角變化、仿射變換、噪聲也保持一定程度的穩(wěn)定性,而對(duì)物體運(yùn)動(dòng)、遮擋、噪聲等因素也保持較好的可匹配性,從而可以實(shí)現(xiàn)差異較大的兩幅圖像之間特征的匹配,同時(shí)SITF特征具有獨(dú)特性好,能夠有效區(qū)分出不同對(duì)象;信息量豐富,適用于在海量特征數(shù)據(jù)庫中進(jìn)行快速、準(zhǔn)確的匹配。多量性,即使少數(shù)的幾個(gè)物體也可以產(chǎn)生大量SIFT 特征向量,本文只是針對(duì)檢測(cè)得到的頭部進(jìn)行匹配,由于檢測(cè)區(qū)域較小,仍然能夠得到大量有效的SIFT 特征;高速性,經(jīng)優(yōu)化的SIFT 匹配算法甚至可以達(dá)到實(shí)時(shí)的要求;可擴(kuò)展性,可以很方便的與其他形式的特征向量進(jìn)行聯(lián)合。

      目前對(duì)于異常行為判斷中,針對(duì)人體檢測(cè)的識(shí)別[9],大部分方法都是集中于跟蹤預(yù)測(cè)或者提取運(yùn)動(dòng)軌跡判斷[10],本文采用文獻(xiàn)[11]的快速SIFT 匹配算法,解決了采用跟蹤算法費(fèi)時(shí)且容易跟丟的問題。本文只是針對(duì)檢測(cè)得到的頭部之間互相匹配,無需對(duì)整個(gè)相鄰幀全部像素的匹配過程,這也大大減少了匹配時(shí)間。具體匹配結(jié)果如圖4所示。

      圖4 具體匹配結(jié)果

      由圖4 可知,相同頭部用快速SIFT 進(jìn)行匹配,有較多的匹配SIFT 特征點(diǎn),可以依據(jù)此效果來有效區(qū)分不同的人頭。同時(shí),通過連續(xù)視頻幀的檢測(cè),也能有效地去除某一幀誤檢的人頭。

      在SIFT 匹配后,僅僅以匹配點(diǎn)數(shù)來確定個(gè)體之間的關(guān)系,單獨(dú)取頭部進(jìn)行匹配可能由于頭發(fā)的顏色相似度高,也產(chǎn)生較大的誤差,通過實(shí)驗(yàn)驗(yàn)證我們匹配時(shí)將頭部以及下方的10個(gè)像素部分包括在內(nèi)進(jìn)行匹配,取得較好的匹配效果。

      為了更好的衡量匹配的正確率,我們用下面的公式來評(píng)估匹配效果[17]:

      其中,TP 是正確匹配點(diǎn)的匹配點(diǎn)數(shù),TN 正確匹配點(diǎn)的未匹配點(diǎn)數(shù)。FN 是錯(cuò)誤匹配點(diǎn)的匹配數(shù),F(xiàn)P 是錯(cuò)誤匹配點(diǎn)的未匹配數(shù)。具體關(guān)系如圖5所示,由此可知,匹配點(diǎn)數(shù)的多寡,與檢測(cè)率呈正相關(guān)。

      圖5 匹配率與檢測(cè)率關(guān)系

      在本文中,相鄰幀中匹配率最高的運(yùn)動(dòng)對(duì)象被視為相同的運(yùn)動(dòng)個(gè)體。對(duì)于已匹配的個(gè)體,不再進(jìn)行匹配,進(jìn)一步節(jié)約算法時(shí)間。

      對(duì)于利用粒子濾波[12]對(duì)人體頭部進(jìn)行跟蹤,由于頭部特征相似度高,尤其是頭部區(qū)域小,當(dāng)出現(xiàn)多個(gè)頭部交叉的時(shí)候,容易出現(xiàn)“錯(cuò)跟”現(xiàn)象。本算法效果明顯優(yōu)于粒子濾波。

      2.3 判斷推理

      在檢測(cè)過程中,人進(jìn)出監(jiān)控區(qū)域,會(huì)對(duì)之前匹配結(jié)果進(jìn)行干擾,僅僅依據(jù)匹配點(diǎn)數(shù)可能導(dǎo)致較大匹配誤差,此時(shí)我們引入一個(gè)推理判斷機(jī)制:

      (1)人頭狀態(tài)信息

      (2)人頭運(yùn)動(dòng)的變化

      (3)統(tǒng)計(jì)人頭匹配的基本范圍,建立拒絕域

      由于檢測(cè)方面的誤差以及檢測(cè)區(qū)域的不斷變化,為了提高算法的穩(wěn)定性,我們需要對(duì)過去的幀的信息進(jìn)行積累來對(duì)當(dāng)前幀進(jìn)行判斷,在本算法中設(shè)置了一個(gè)緩沖的幀數(shù)區(qū)間,對(duì)于歷史幀信息幀數(shù)大小設(shè)置,如果過大會(huì)導(dǎo)致處理速度降低,其距離當(dāng)前幀較遠(yuǎn)的幀的信息影響對(duì)當(dāng)前運(yùn)動(dòng)的推理判斷,過小信息不具有代表性,相對(duì)于人運(yùn)動(dòng)的速率,一般取值范圍為2 幀~11 幀,通過實(shí)驗(yàn)統(tǒng)計(jì),檢測(cè)率與緩沖幀值以及處理時(shí)間的關(guān)系的如圖6所示。

      圖6 緩沖幀取值與檢測(cè)率

      由圖6 可知,緩沖幀的取值取為6 誤差最小,檢測(cè)率達(dá)到了95.7%,,也可看出因緩沖幀過大,影響對(duì)當(dāng)前的判斷推理,故本文緩沖幀取為6,若6 幀人體頭部仍然檢測(cè)不到視為消失,連續(xù)6 幀出現(xiàn)的視為新進(jìn)入檢測(cè)區(qū)域的人體頭部。針對(duì)人頭狀態(tài)變化,設(shè)置幀數(shù)的緩沖區(qū)間,若在緩沖區(qū)新增加的數(shù)目,表示為新加入的。

      在緩沖幀得到歷史信息的基礎(chǔ)上,對(duì)于新進(jìn)入感興趣區(qū)域建立相應(yīng)的新的人頭狀態(tài)信息。

      其中,θn表示運(yùn)動(dòng)方向,(xn,yn)位頭部區(qū)域位置,vn主要表現(xiàn)當(dāng)前的運(yùn)動(dòng)速率,位置以頭部的中心點(diǎn)為參考。運(yùn)動(dòng)信息主要是根據(jù)歷史幀的運(yùn)動(dòng)信息,來比對(duì)當(dāng)前幀的對(duì)象的運(yùn)動(dòng)信息及相對(duì)位置每幀之間的變化。

      以人頭部中心為中心點(diǎn),Δτ表示相鄰兩幀中心點(diǎn)運(yùn)動(dòng)的歐氏距離,Xavg表示在X 軸方向上的中心點(diǎn)平均平移距離,Yavg表示在Y 軸方向上的平均平移距離,系數(shù)α、β為相鄰幀的滑動(dòng)系數(shù),通過實(shí)驗(yàn)發(fā)現(xiàn)值分別取為0.8和0.2 得到較好的效果。表示取上述值的結(jié)果。依此為匹配前提,避免了對(duì)所有檢測(cè)結(jié)果進(jìn)行匹配,進(jìn)一步減少了時(shí)間。

      為了進(jìn)一步提高算法的穩(wěn)定性,依據(jù)匹配率的大小,取其最大值不足以表現(xiàn)匹配結(jié)果。需要對(duì)匹配的設(shè)置判斷機(jī)制[15]。

      其中p(Xt|Statet)表示當(dāng)前人頭的匹配模型,p(Xt|Statet-1)為動(dòng)態(tài)匹配模型。

      綜合以上3個(gè)推理判斷準(zhǔn)則,能夠很好地解決運(yùn)動(dòng)對(duì)象進(jìn)出檢測(cè)區(qū)域的問題,得到運(yùn)動(dòng)對(duì)象的準(zhǔn)確信息。

      3 實(shí)驗(yàn)及結(jié)果分析

      本文算法實(shí)驗(yàn)選擇主要的配置為:CPU為Intel Pentium E5300,主頻為2.6GHz,2G 內(nèi)存,Windows XP 操作系統(tǒng),在VC++6.0 平臺(tái)下,使用OpenCV 視覺庫作為主要的圖像處理工具進(jìn)行實(shí)驗(yàn)。

      同時(shí),為了更好的評(píng)估本算法,本文同文獻(xiàn)所提HOG 法[15]、粒子濾波[18]進(jìn)行兩個(gè)方面的對(duì)比:(1)檢測(cè)誤差,(2)運(yùn)算速率。

      我們采用CAVIAR 測(cè)試視頻庫,分別取其中的走廊、商場(chǎng)、通道三個(gè)視頻進(jìn)行匹配和跟蹤實(shí)驗(yàn)。在對(duì)比中,我們?cè)谕葪l件下,針對(duì)多場(chǎng)景以及多人的檢測(cè)匹配。通過下面誤檢率和漏檢率來判定頭部檢測(cè)效果[13]:

      其中,Rateerror誤檢率,Nerror為誤檢人數(shù),Ntotal為監(jiān)控中出現(xiàn)總?cè)藬?shù)。

      其中,Rateleak誤檢率,Nleak為誤檢人數(shù),Ntotal為監(jiān)控中出現(xiàn)總?cè)藬?shù)3個(gè)視頻的檢測(cè)率。為了更好的評(píng)估本方法的檢測(cè)效果,我們與通用的HOG 檢測(cè)人的方法[16]和粒子濾波的方法[18]進(jìn)行對(duì)比。

      表1 視頻人體頭部的檢測(cè)率及匹配率

      在人頭部檢測(cè)中,針對(duì)3個(gè)視頻中出現(xiàn)的人的次數(shù),誤檢的情況有以下幾個(gè)方面:

      ①人的頭發(fā)顏色以及身體某部分衣服;

      ②旁人遮擋頭部情況;

      ③頭戴裝飾品比較明顯,或者遮擋住頭部。

      可以明顯得出本算法比粒子濾波算法在精度上有了明顯的提高,并且檢測(cè)識(shí)別后進(jìn)行匹配比識(shí)別跟蹤效果精度要高。

      對(duì)于算法的效率,我們同樣利用一個(gè)實(shí)驗(yàn)平臺(tái),檢測(cè)時(shí)間利用式(7)來對(duì)各算法進(jìn)行對(duì)比:

      其中,ti是第i 幀視頻的處理時(shí)間,ˉt 表示每一類幀的平均處理時(shí)間,對(duì)3 類視頻的檢測(cè)結(jié)果,見表2。

      表2 視頻每幀平均處理時(shí)間 單位:ms

      從表2 可以知道本算法平均處理時(shí)間比PF和HOG 效果要好,檢測(cè)效率高,具有良好的實(shí)用性。

      4 結(jié)論

      本文提出了一種基于快速SIFT 匹配的行人檢測(cè)算法,對(duì)于各種場(chǎng)景都有較好的檢測(cè)效果,且檢測(cè)精度高,具有一定的實(shí)用意義。

      當(dāng)然還存在一定的不足,后期工作還需要?jiǎng)澐指信d趣區(qū)域改成運(yùn)動(dòng)區(qū)域的選擇,然后對(duì)運(yùn)動(dòng)區(qū)域進(jìn)行檢測(cè),以及對(duì)運(yùn)動(dòng)信息的向更高層次的建模來對(duì)行為進(jìn)行判斷,還有對(duì)于幀間相關(guān)信息的獲取。相關(guān)參數(shù)的自適應(yīng)獲得等方面還有大量工作需要進(jìn)行。隨后工作需要對(duì)人群人數(shù)估計(jì)和運(yùn)動(dòng)方向分布的評(píng)價(jià),利用人群人數(shù)變化和運(yùn)動(dòng)的混亂程度為人群異常檢測(cè)提供基礎(chǔ)。

      [1]Chee B C.Detection and Monitoring of Passengers on a Bus by Video Surveillance[C]//Proceedings of 14th International Conference on Image Analysis and Processing,2007:143-148.

      [2]Han H,Ding Y,Hao K.A New Immune Particle Filter Algorithm for Tracking a Moving Target[C]//Proceedings of 6th International Conference on Natural Computation,2010:3248-3252.

      [3]Zhong Z,Xu Y.Crowd Energy and Feature Analysis[C]//Proceedings of IEEE International Conference on Integration Technology,2007:144-150.

      [4]Elhabian S,Ali A,F(xiàn)arag A.Face Recognition at-a-Distance using Texture Sparse-Stereo and Dense-Stereo[C]//International Conference on Multimedia Technology,2011:6690-6695.

      [5]Czyzewski A.Examining Kalman Filters Applied to Tracking Objects in Motion[C]//Proceedings of the 9th International Workshop on Image Analysis for Multimedia Interactive Services,2008:175-178.

      [6]Talele K T,Kadam S.Face Detection and Geometric Face Normalization[C]//Proceedings of IEEE Region 10 Conference,2009:1-6.

      [7]Li M,Zhang Z,Huang K,et al.Estimating the Number of People in Crowded Scenes by MID Based Foreground Segmentation and Head-Shoulder Detection[C]//Proceedings of International Conference on Pattern Recognition,2008,1:1-4.

      [8]Fan H,Zhu L L,Tang Y D.An Extended Set of Haar-Like Features for Rapid Object Detection [C]//Proceedings of IEEE International Conference on Image Processing,2002,1:900-903.

      [9]Guo L,Ge P S,Zhang M H,et al.Pedestrian Detection for Intelligent Transportation Systems Combining AdaBoost Algorithm and Support Vector Machine [J].Expert Systems with Applications,2012,39(4):4274-4286.

      [10]Nguyen N T,Phung D Q.Learning and Detecting Activities from Movement Trajectories Using the Hierarchical Hidden Markov Models[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2005,2:955-960.

      [11]Li K.A Fast SIFT Feature Matching Algorithm for Image Registration[C]//Proceedings of International Conference on Multimedia and Signal Processing,2011,1:89-93.

      [12]Guo C.Tracking of Human Head with Particle Filter[J].Journal of Harbin Institute of Technology,2009,16(2):269-274.

      [13]Seemann E,F(xiàn)ritz M,Schiele B.Towards Robust Pedestrian Detection in Crowded Image Sequences[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2007:1-8.

      [14]Han Q L.An Automatic Pedestrian Detection and Tracking Method:Based on Mach and Particle Filter [C]//Proceedings of International Conference on Network Computing and Information Security,2011,1:385-389.

      [15]Li M,Zhang Z,Huang K,et al.Estimating the Number of People in Crowded Scenes by MID Based Foreground Segmentation and Head-Shoulder Detection[C]//Proceedings of International Conference on Pattern Recognition,2008,1:1-4.

      [16]Wang X Y,Han T X.An HOG-LBP Human Detector with Partial Occlusion Handling[C]//Proceedings of IEEE 12th International Conference on Computer Vision,2009:32-39.

      [17]Xia L.Human Detection Using Depth Information by Kinect[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops,2011:15-22.

      [18]Sherrah J.Particle Filter to Track Multiple People for Visual Surveillance[J].IET Computer Vision,2011,5(4):192-200.

      猜你喜歡
      人頭頭部分類器
      交出人頭
      頭部按摩治療老伴失憶
      火箭的頭部為什么是圓鈍形?
      軍事文摘(2020年22期)2021-01-04 02:16:38
      假人頭防盜大法
      知識(shí)窗(2019年4期)2019-04-26 03:16:02
      BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
      朋友圈
      百花洲(2018年1期)2018-02-07 16:33:02
      加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
      結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
      自適應(yīng)統(tǒng)計(jì)迭代重建算法在頭部低劑量CT掃描中的應(yīng)用
      基于LLE降維和BP_Adaboost分類器的GIS局部放電模式識(shí)別
      拉萨市| 广昌县| 平武县| 南昌市| 安丘市| 常宁市| 江山市| 灌阳县| 贵溪市| 张家口市| 江北区| 昌图县| 东台市| 阿荣旗| 宜君县| 剑川县| 颍上县| 平武县| 凭祥市| 积石山| 西乌珠穆沁旗| 武清区| 大冶市| 资兴市| 大英县| 桐柏县| 江川县| 肃北| 中宁县| 黔东| 晋州市| 徐水县| 乌什县| 墨脱县| 安福县| 崇义县| 集贤县| 上饶市| 灵山县| 裕民县| 始兴县|