• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    目標(biāo)再確認(rèn)中的優(yōu)化擴(kuò)散距離相似性度量

    2018-03-15 07:47:09曹偉韓華王裕明孫憲坤
    智能系統(tǒng)學(xué)報(bào) 2018年2期
    關(guān)鍵詞:識(shí)別率直方圖度量

    曹偉,韓華,王裕明,孫憲坤

    跨攝像頭目標(biāo)再確認(rèn)是目前多攝像機(jī)智能監(jiān)控領(lǐng)域的一個(gè)重點(diǎn)研究方向[1],如何在不同的光照條件、不同的行人姿態(tài)以及不同尺度甚至遮擋等復(fù)雜環(huán)境下實(shí)現(xiàn)不同監(jiān)控?cái)z像頭下的同一目標(biāo)的再確認(rèn),是現(xiàn)在智能監(jiān)控領(lǐng)域研究的熱點(diǎn)。能否在復(fù)雜的環(huán)境中快速地匹配到同一目標(biāo)的關(guān)鍵點(diǎn)在于能否找到目標(biāo)在時(shí)間、空間上的不變特性以及選擇合適的匹配算法。

    目前最先進(jìn)的算法對(duì)VIPeR(viewpoint invariant pedestrian recognition)數(shù)據(jù)庫(kù)的視頻目標(biāo)進(jìn)行再確認(rèn)的正確率為40%,處于比較低的水平[2]。根據(jù)上文所述,目標(biāo)再確認(rèn)主要的研究方法分為兩類:目標(biāo)外觀特征類和度量算法類。而目標(biāo)外觀特征類的研究又可以歸納為3類:1)依據(jù)目標(biāo)本身的整體特征進(jìn)行描述,如文獻(xiàn)[3-9]通過(guò)建立整體相關(guān)特征顏色直方圖進(jìn)行目標(biāo)再確認(rèn);2)基于目標(biāo)本身的局部特征進(jìn)行目標(biāo)匹配,如文獻(xiàn)[10-13]通過(guò)訓(xùn)練大量樣本得出的數(shù)據(jù)作為匹配函數(shù),依據(jù)目標(biāo)本身的顏色特征、紋理特征進(jìn)行目標(biāo)的再確認(rèn);3)通過(guò)整體和局部多特征融合來(lái)匹配目標(biāo),如文獻(xiàn)[14-18]通過(guò)人體本身的局部LBP(local binary patterns)特征、SIFT(scale-invariant feature transform)特征以及整體的顏色特征進(jìn)行描述,來(lái)完成目標(biāo)再確認(rèn)。度量算法類的研究方向相對(duì)特征類方法而言,對(duì)目標(biāo)外觀特征的要求較低,更多地依賴選擇和訓(xùn)練優(yōu)秀的度量函數(shù)。比如,ERSVM方法[19]采用基于相對(duì)距離排序的SVM分類器集成多個(gè)特征向量權(quán)重;文獻(xiàn)[20]采用多核SVM學(xué)習(xí)的方法融合顏色和視覺(jué)單詞直方圖;文獻(xiàn)[21]采用直方圖交叉核;文獻(xiàn)[22]采用夾角余弦法等相似度量函數(shù)進(jìn)行目標(biāo)匹配。

    以上兩類方法在目標(biāo)再確認(rèn)過(guò)程中,度量算法類對(duì)特征的選擇要求較低,通常能取得更好的再確認(rèn)效果。但其訓(xùn)練的時(shí)間和空間復(fù)雜度較高,且場(chǎng)景和圖庫(kù)變化時(shí)需要重新訓(xùn)練。目標(biāo)外觀特征類方法則需要人為地尋找和設(shè)計(jì)較好的特征,該方法的性能依賴于特征的優(yōu)劣程度。本文受兩類方法優(yōu)點(diǎn)的啟發(fā),在特征類方法的思路下設(shè)計(jì)和構(gòu)造優(yōu)秀的特征;同時(shí)在度量算法類方法的思路下,引入物理學(xué)科中的熱擴(kuò)散原理作為度量函數(shù)[23],并最終建立基于優(yōu)化的擴(kuò)散距離的度量函數(shù)完成目標(biāo)再確認(rèn)。

    基于上文所述,引入度量算法的基礎(chǔ)來(lái)源于擴(kuò)散距離。擴(kuò)散距離是物理學(xué)中用于描述熱力場(chǎng)中存在的一種擴(kuò)散現(xiàn)象的,國(guó)外學(xué)者Ling等[23]曾提出了一種非線性基于擴(kuò)散現(xiàn)象和距離判斷方式二者結(jié)合的擴(kuò)散距離,它是模擬熱擴(kuò)散和記錄隨機(jī)擴(kuò)散遍歷的時(shí)間計(jì)算兩點(diǎn)之間的距離。這使得擴(kuò)散距離具有可以很好地描述目標(biāo)間相似性的特性,同時(shí),傳統(tǒng)度量算法存在諸多缺點(diǎn),比如:對(duì)圖像形變比較敏感;缺少考慮像素間的空間關(guān)系;較小的形變就能使距離計(jì)算變化較大,從而產(chǎn)生誤匹配等,而擴(kuò)散距離的引入克服了以上不足?;跀U(kuò)散距離的眾多優(yōu)點(diǎn),因此本文引入擴(kuò)散距離,并對(duì)其進(jìn)行優(yōu)化,構(gòu)造出優(yōu)秀的相似性度量函數(shù),以完成對(duì)行人目標(biāo)的再確認(rèn)。

    1 多特征描述

    目標(biāo)再確認(rèn)過(guò)程中,描述每個(gè)目標(biāo)的外觀相當(dāng)于從目標(biāo)身上找到可辨識(shí)性的特征。在描述目標(biāo)特征時(shí),直方圖是目前應(yīng)用最廣泛的的外觀描述器。但是,大部分基于直方圖的方法,其不足之處是缺少特征分布的空間信息。比如,基于直方圖的方法不能分辨出一個(gè)穿著白色襯衫和黑色褲子的行人與另一個(gè)穿著黑色襯衫和白色褲子的行人是否是不同的。

    因此,文中提出了一個(gè)新穎而簡(jiǎn)單的方法:基于兩級(jí)區(qū)域的直方圖提取方法。首先,提出的第一級(jí)區(qū)域?yàn)椋盒腥苏麄€(gè)身體區(qū)域(Hglobal)顏色直方圖;提出的二級(jí)區(qū)域?yàn)椋盒腥说纳习肷韰^(qū)域(Htor)和腿部區(qū)域(Hleg)如圖1所示。圖中(a)、(d)為一級(jí)區(qū)域身體直方圖,圖(b)、(e)為二級(jí)區(qū)域身軀直方圖,圖(c)、(f)為二級(jí)區(qū)域腿部直方圖。

    圖1 兩級(jí)區(qū)域直方圖Fig. 1 Two levels of area histogram

    圖1 (a)、(d) 一級(jí)所提取的Hglobal直方圖,(d)直方圖中的3個(gè)峰值在(a)直方圖中可以找到相似的對(duì)應(yīng),因此單純靠全局直方圖很難發(fā)現(xiàn)目標(biāo)是兩個(gè)不同的人;通過(guò)對(duì)圖1中的兩個(gè)原始圖像分別提取身軀段和腿部段的Htor和Hleg直方圖,對(duì)應(yīng)于二級(jí),如圖1左圖中的(b)、(c)和圖1右圖中的(e)、(f)所示,對(duì)比圖1(b)和圖1(e),可發(fā)現(xiàn)兩者身軀直方圖明顯不同,同時(shí)對(duì)比圖1(c)和圖1(f)也能發(fā)現(xiàn)兩者的腿部直方圖也是明顯不同的,可以通過(guò)局部直方圖的差異,發(fā)現(xiàn)兩目標(biāo)并不是同一個(gè)人。通過(guò)上述方法可以有效地提取顏色的空間信息,并區(qū)分出圖1兩個(gè)行人的不同。

    人體目標(biāo)本身具有很多穩(wěn)定不變的特征,這些不變特征在應(yīng)對(duì)因光照變化或細(xì)微的肢體動(dòng)作變化時(shí)具有很好的魯棒性。因此,為了更好利用這些優(yōu)勢(shì)特征來(lái)克服由于光照變化或其他因素所帶來(lái)的干擾,本文在下文中會(huì)從整體特征和局部特征兩方面來(lái)介紹本文所提取的這些優(yōu)勢(shì)多特征,實(shí)驗(yàn)表明,使用這些多特征中的任何一類進(jìn)行匹配時(shí),識(shí)別率都不太理想,但結(jié)合下文中的多特征進(jìn)行目標(biāo)再確認(rèn)時(shí),可以很大程度上提高目標(biāo)的識(shí)別率。

    1.1 整體特征

    整體特征使用基于一級(jí)區(qū)域(圖1中Level 1)的RGB顏色直方圖進(jìn)行粗識(shí)別。在提取RGB顏色直方圖時(shí),本文將R、G、B 這3個(gè)通道分別進(jìn)行量化。而量化過(guò)程中存在兩個(gè)極端問(wèn)題:粗量化會(huì)造成大量的可辯別性信息被放棄,細(xì)量化會(huì)生成稀疏直方圖。本文在3個(gè)通道使用相同的量化級(jí)數(shù)32bins。通過(guò)大量實(shí)驗(yàn)驗(yàn)證了本文所使用的32bins具有較好的可辨別性和準(zhǔn)確性。通過(guò)圖1可以很清楚地體現(xiàn)出來(lái)。

    1.2 局部特征

    局部特征相對(duì)整體特征而言更加注重局部小范圍特征的不變性,采用更細(xì)膩的特征描述子或者具有較強(qiáng)魯棒性的特征來(lái)進(jìn)行匹配。觀察大部分行人目標(biāo)的Htor和Hleg特征發(fā)現(xiàn):最顯著的局部差異特征仍是顏色特征,實(shí)驗(yàn)過(guò)程中發(fā)現(xiàn)使用顏色特征應(yīng)對(duì)攝像機(jī)鏡頭旋轉(zhuǎn)變化所造成的差異具有很好的辨別性。所以在下文中的局部特征表述過(guò)程中,基于上文中二級(jí)區(qū)域Htor和Hleg的基礎(chǔ)上,為了使人體目標(biāo)取得更佳的匹配效果使用GrabCut[24]背景去除法,將干擾背景(頭部也當(dāng)作背景)進(jìn)行去除,同時(shí)將RGB顏色通道模型和加權(quán)HSV顏色通道模型作為主要的局部特征;而另一方面考慮到局部人體目標(biāo)的表象和形狀能夠被梯度或邊緣的方向密度分布很好地描述,方向梯度直方圖(histogram of oriented gradient,HOG)特征可以通過(guò)計(jì)算和統(tǒng)計(jì)圖像局部區(qū)域的梯度方向直方圖來(lái)構(gòu)成特征,并且能夠?qū)D像的幾何和光學(xué)形變都能保持很好的不變性,所以,將結(jié)構(gòu)性HOG描述子作為次要的局部特征。

    1.2.1 局部RGB顏色特征

    觀察數(shù)據(jù)庫(kù)中行人目標(biāo)發(fā)現(xiàn):去除頭部的影響后,由于目標(biāo)行人上身所穿的衣服和下身所穿的褲子在顏色上往往會(huì)表現(xiàn)出明顯的差異,所以本文在二級(jí)區(qū)域Htor和Hleg基礎(chǔ)上使用局部RGB顏色直方圖匹配。通過(guò)觀察圖2(b):掩膜背景圖(圖中干擾背景和頭部已經(jīng)去除)和測(cè)試樣本庫(kù)里的圖片(國(guó)際通用標(biāo)準(zhǔn)庫(kù)VIPeR中的樣本圖片大小:48×128)分析得到:頭部和身軀段的平均分界線在第20行,身軀段和腿部段的平均分界線在62行。為了減少背景對(duì)匹配結(jié)果的干擾,如圖2(c)所示,將身軀段去除左右邊界各4列,即使用整張圖像的第20~60行,第6~44列作為身軀段窗口;同時(shí),在腿部段部分去除最下面的8行,以及左右各14列,使用整張圖像的第66~122行,第14~36列,作為腿部段窗口。在量化過(guò)程中,同整體特征量化數(shù)相同,提取每個(gè)通道對(duì)其量化后的直方圖統(tǒng)計(jì)如圖2。

    圖2中,分段處理和圖1中的兩級(jí)區(qū)域一致,將圖像中的人物按照不對(duì)稱原則分為頭部、身軀和腿部3個(gè)水平段,并將圖像中的人物的身軀和腿部按照對(duì)稱原則分為兩個(gè)垂直段,并且去掉權(quán)重比較小的頭部像素點(diǎn),得到的實(shí)際效果如圖2(c)所示。圖2(d)代表實(shí)驗(yàn)過(guò)程中所繪制的圖2(b)被去除頭部和背景干擾之后,身軀和腿部的R、G、B分量直方圖。其中,圖2(d)中的橫軸,0~31代表身軀段和腿部段上的R顏色通道統(tǒng)計(jì)直方圖(其中0~15代表身軀段,16~31代表腿部段);32~63代表身軀段和腿部段上的G顏色通道統(tǒng)計(jì)直方圖;64~95代表身軀段和腿部段上的B顏色通道統(tǒng)計(jì)直方圖。

    圖2 局部RGB顏色直方圖Fig. 2 Local RGB color histogram

    局部RGB顏色直方圖充分利用了空間分布信息,可以有效區(qū)分出上文所提到的上身下身穿衣顏色的不同。在局部特征描述方面的應(yīng)用中,可以較好地實(shí)現(xiàn)應(yīng)對(duì)圖像旋轉(zhuǎn)和平移的改變所帶來(lái)的影響,并且還可借助歸一化技術(shù),來(lái)達(dá)到不受圖像尺度的改變所帶來(lái)的影響,充分利用了局部顏色特征的優(yōu)勢(shì)。

    1.2.2 加權(quán)HSV特征

    根據(jù)人眼視覺(jué)特性, 顏色信息中HSV特征相比較RGB特征,在應(yīng)對(duì)光照變化方面,可以很大程度上忽略圖像亮度變化所帶來(lái)的影響;在二級(jí)區(qū)域中對(duì)HSV模型使用高斯分布的加權(quán)處理,可以在提取空間信息基礎(chǔ)上更好地對(duì)特征權(quán)重化處理,所以本文選擇HSV顏色模型作為局部特征之一來(lái)使用。

    考慮到由于人體目標(biāo)特征分布比例的差異性,有些顯著特征在人體身上的某些部位所占比例很重,而有些特征則在人體身上的某些部位所占比例很小。通過(guò)觀察圖3(b)發(fā)現(xiàn):身軀和腿部中間部分的顏色特征比較明顯,對(duì)圖像匹配時(shí)的影響會(huì)比較重,所以相應(yīng)地給予較大的權(quán)重分配,越遠(yuǎn)離垂直坐標(biāo)的顏色特征對(duì)匹配性能的提高影響較小,甚至?xí)档推ヅ湫阅?,所以相?yīng)地給予遠(yuǎn)離垂直坐標(biāo)的點(diǎn)以較小的權(quán)重分配。根據(jù)人體不同部位所對(duì)應(yīng)的分段坐標(biāo)對(duì)HSV直方圖進(jìn)行高斯分布的加權(quán)[16]處理。

    圖3 人體加權(quán)HSV處理圖Fig. 3 Body weighted HSV processing figure

    如圖3所示,為了更形象地表現(xiàn)人體身上特征權(quán)重的分布,文中提取人體不同位置對(duì)應(yīng)的高斯分布圖譜3(b)和三維空間中的核能量圖譜3(c)??紤]到光照的影響會(huì)對(duì)匹配精度造成很大的影響,因而為了抑制光照變化,將HSV中的亮度值(V)分配較小區(qū)間段。文中的H、S、V通道分別分成16、16、4段,進(jìn)而得到一個(gè)加權(quán)的108段(其中0~31段為頭部段,已被忽略計(jì)算;32~71段為身軀段;72~107為腿部段)HSV直方圖,其相應(yīng)的實(shí)驗(yàn)效果如圖3(d)。

    1.2.3 HOG特征

    HOG是目標(biāo)檢測(cè)常用的特征描述子。目標(biāo)局部的表象和形狀能夠被梯度或邊緣的方向的密度分布很好地描述[24]。具體的實(shí)現(xiàn)方法是:首先將圖像分成小的連通區(qū)域,我們把它叫細(xì)胞單元[25]。然后采集細(xì)胞單元中各像素點(diǎn)梯度或邊緣的方向直方圖。最后把這些直方圖組合起來(lái)就可以構(gòu)成特征描述器。為了提高性能,還可以把這些局部直方圖在圖像的更大的范圍內(nèi)(也可稱為區(qū)間或block)進(jìn)行對(duì)比度歸一化,所采用的方法是:先計(jì)算各直方圖在這個(gè)區(qū)間(block)中的密度,然后根據(jù)這個(gè)密度對(duì)區(qū)間中的各個(gè)細(xì)胞單元做歸一化。本文在實(shí)際操作中使用的參數(shù)為:窗口大小統(tǒng)一為48×128,block塊大小為16×16,每個(gè)block劃分為4個(gè)cell,并且block每次滑動(dòng)8個(gè)像素(即一個(gè)cell的寬),以及梯度方向劃分為9個(gè)區(qū)間,最后在0~360o范圍內(nèi)統(tǒng)計(jì),將cell的梯度方向360o分成9個(gè)方向塊,也就是每360o/9=40o分到一個(gè)方向,方向大小按像素邊緣強(qiáng)度加權(quán),對(duì)cell內(nèi)每個(gè)像素用梯度方向在直方圖中進(jìn)行加權(quán)投影(映射到固定的角度范圍),其相應(yīng)的實(shí)驗(yàn)效果如圖4(c)所示。實(shí)驗(yàn)過(guò)程中,根據(jù)上文相應(yīng)參數(shù)對(duì)圖4(a)進(jìn)行HOG特征提取,提取過(guò)程中的實(shí)驗(yàn)效果如圖4所示。

    從圖中可以清晰的看出:本文將cell的梯度方向以40o為一個(gè)單位,分成一個(gè)方向;圖4(d)代表實(shí)驗(yàn)過(guò)程中提取的歸一化后HOG 3維特征曲面圖。由于HOG方法是在圖像的局部細(xì)胞單元上操作的,所以它對(duì)圖像幾何和光學(xué)的形變能夠保持很好的不變性,歸一化后能對(duì)光照變化和陰影獲得更好的效果。它的優(yōu)點(diǎn)不僅包括對(duì)圖像幾何和光學(xué)形變方面能保持良好的不變性,還包括歸一化后允許行人有細(xì)微的肢體動(dòng)作,且不影響檢測(cè)效果,多特征融合HOG特征描述可以很好地提高匹配率。

    圖4 HOG特征描述子實(shí)驗(yàn)效果圖Fig. 4 HOG feature descriptor experimental result

    2 相似性度量函數(shù)

    在相似性度量函數(shù)的建立方面,傳統(tǒng)度量算法大多基于歐氏距離或者余弦距離等進(jìn)行優(yōu)化。然而,歐式距離和余弦距離本身存在諸多缺點(diǎn),比如:歐式距離不能從高維特征向量恢復(fù)到具有低維的幾何機(jī)構(gòu),對(duì)圖像的形變比較敏感和缺少像素間的空間關(guān)系;余弦距離存在位置判定上差異性太大以及對(duì)數(shù)值的不敏感導(dǎo)致結(jié)果的眾多誤差等缺點(diǎn)??紤]到傳統(tǒng)相似性度量算法的不足,本文引進(jìn)物理學(xué)溫度場(chǎng)擴(kuò)散距離[26]的概念來(lái)建立相似性度量函數(shù)。擴(kuò)散距離的本質(zhì)來(lái)源于物理學(xué)中的溫度場(chǎng),它不同于歐式距離中的距離長(zhǎng)短決定相似度大小的標(biāo)準(zhǔn)。擴(kuò)散距離中的相似度取決于溫度擴(kuò)散路徑的多少以及熱擴(kuò)散的快慢。本文所使用的基于優(yōu)化擴(kuò)散距離相似性度量函數(shù)用于衡量個(gè)體在空間上存在的距離,距離越遠(yuǎn),說(shuō)明個(gè)體間的差異越大,反之,差異越小。優(yōu)化擴(kuò)散距離在一定程度上彌補(bǔ)了歐式和余弦距離的不足的同時(shí),在匹配性能上顯示了較優(yōu)的表現(xiàn)[26]。其原理如下:

    由于一維擴(kuò)散距離的應(yīng)用沒(méi)有多大實(shí)際意義,所以推廣到高維且引入高斯金字塔對(duì)擴(kuò)散距離進(jìn)行優(yōu)化,進(jìn)一步提高了相似性度量函數(shù)的計(jì)算效率。

    從式(6)可以看出,dl中的向下采樣操作在運(yùn)算量上呈指數(shù)減少,同時(shí)使用采樣值的2/3,又能夠最大限度保留樣本值的信息;其次,高斯濾波卷積操作是線性運(yùn)算,在計(jì)算效率上明顯有優(yōu)勢(shì)。但是,優(yōu)化后的擴(kuò)散距離雖然在計(jì)算效率上提高不少,但是由式(4)和(5)可以知道,優(yōu)化擴(kuò)散距離在表示空間向量直方圖和之間的累積差時(shí),缺少對(duì)內(nèi)部單個(gè)元素之間差異的表示。雖然使用式(8)可以直接應(yīng)用到相似距離度量中,但其忽略了空間向量對(duì)應(yīng)元素之間的相似性的影響,因而其精確度會(huì)存在誤差。由于不同中的每個(gè)元素代表不同的特征屬性,比如wHSV(weighted HSV, 加權(quán)HSV)直方圖中的第z個(gè)元素代表第z個(gè)區(qū)域內(nèi)的像素點(diǎn)的總個(gè)數(shù)或者代表圖像中的顏色值為z。所以,進(jìn)行相似性距離度量時(shí),既要考慮累積差異的影響,也要考慮對(duì)應(yīng)元素間相似性的影響。假設(shè):降采樣,相應(yīng)的,無(wú)法區(qū)分哪兩個(gè)直方圖更相似。通過(guò)觀察、和發(fā)現(xiàn),相比擁有更多相同或者相近的元素個(gè)數(shù)。從直觀上,只能定性的認(rèn)為與應(yīng)該比與更相似。

    通過(guò)以上分析,在計(jì)算空間向量直方圖之間距離時(shí),不應(yīng)該將內(nèi)部元素歸置一樣的權(quán)值,而應(yīng)該對(duì)那些元素值間對(duì)應(yīng)相同或者相近的給予更大的權(quán)值。所以,本文在優(yōu)化擴(kuò)散距離基礎(chǔ)上進(jìn)行二次優(yōu)化,提出加權(quán)式擴(kuò)散距離,相應(yīng)表達(dá)式為

    首先,將式(5)改寫成

    式中:1i和2i分別代表直方圖1中第i個(gè)元素和直方圖2中第i個(gè)元素,;式(5)和(9)代表類似的含義,即兩個(gè)直方圖差異的距離等同于兩個(gè)直方圖中每一個(gè)對(duì)應(yīng)元素差異的累積。那么計(jì)算時(shí)使用的公式即為式(9)。

    其次,將式(9)改寫成

    圖5顯示了不同時(shí)間段擴(kuò)散距離的狀態(tài)。圖5(a)中顯示同一個(gè)人在不同視角下的直方圖差異的擴(kuò)散過(guò)程;圖5(b)中顯示不同的人在不同視角下的直方圖差異的擴(kuò)散過(guò)程。通過(guò)兩幅圖的對(duì)比我們可以看到,(a)圖相比(b)圖衰減更快,即同類人直方圖的擴(kuò)散距離小于不同類人的。

    圖5 擴(kuò)散距離匹配過(guò)程Fig. 5 Diffusion distance matching process

    3 目標(biāo)再確認(rèn)

    3.1 歸一化處理

    單獨(dú)使用上述3種特征描述中任何一種所建立的相似性度量函數(shù)都不能達(dá)到較好的匹配效果,所以本文使用多特征融合進(jìn)而建立起的相似性度量函數(shù)進(jìn)行目標(biāo)再確認(rèn),對(duì)上述3種特征提取相應(yīng)特征直方圖,然后分別計(jì)算相應(yīng)的優(yōu)化擴(kuò)散距離,為防止由于不同特征算出的擴(kuò)散距離有較大差異而影響目標(biāo)再確認(rèn)結(jié)果,對(duì)每類特征描述計(jì)算所得到的擴(kuò)散距離都做歸一化處理。

    3.2 總體相似性度量函數(shù)的建立

    目標(biāo)再確認(rèn)中,通常會(huì)有兩組圖像數(shù)據(jù):待識(shí)別目標(biāo)IA和候選目標(biāo)IB。本文利用兩組圖像數(shù)據(jù)庫(kù),對(duì)上述3類特征得到的擴(kuò)散距離都做相應(yīng)的歸一化處理之后,使用式(8)結(jié)合式(10)來(lái)計(jì)算不同圖像庫(kù)IA和IB中的圖像之間的匹配距離。

    式中:g代表一級(jí)區(qū)域;lca代表二級(jí)區(qū)域;α、β、λ、μ分別代表不同特征直方圖的權(quán)重,。本文對(duì)于粗識(shí)別過(guò)程中的整體RGB特征直方圖分配經(jīng)驗(yàn)值為α=0.2影響因素較大的局部RGB直方圖給予較大的權(quán)值,選擇目前最佳的經(jīng)驗(yàn)值β=0.4;對(duì)于影響因素較弱的加權(quán)HSV直方圖給予目前最佳的經(jīng)驗(yàn)值λ=0.3;對(duì)于影響因素最小的局部HOG直方圖給予相對(duì)較弱的經(jīng)驗(yàn)值μ=0.1。總的評(píng)價(jià)準(zhǔn)則函數(shù)即總的相似性度量函數(shù)為式(11) 。

    4 實(shí)驗(yàn)驗(yàn)證

    上文所述理論相比傳統(tǒng)再確認(rèn)算法在特征選擇和度量算法上都進(jìn)行了優(yōu)化,同時(shí),本文進(jìn)行多組實(shí)驗(yàn)驗(yàn)證了本文所提出優(yōu)化算法的可行性,下文會(huì)分別從實(shí)驗(yàn)運(yùn)行效果和實(shí)驗(yàn)數(shù)據(jù)統(tǒng)計(jì)來(lái)闡述本文的有效性。

    4.1 實(shí)驗(yàn)運(yùn)行效果

    從實(shí)驗(yàn)運(yùn)行結(jié)果來(lái)看應(yīng)用本文原理編程實(shí)現(xiàn)的匹配成功率較為理想,能夠很好地實(shí)現(xiàn)目標(biāo)再確認(rèn)的功能,如圖6(a)、圖7所示。下面顯示的效果圖中圖6(a)和圖7是目標(biāo)再確認(rèn)中顯示正確的效果圖,圖6(a)圖顯示了實(shí)驗(yàn)過(guò)程中成功再確認(rèn)的案列,而圖7是實(shí)驗(yàn)完成后所有再確認(rèn)成功的部分匯總。盡管本文算法可以很好地實(shí)現(xiàn)目標(biāo)再確認(rèn),但是,仍存在少數(shù)失敗的案列,比如圖6(b)所示。

    圖6 匹配效果圖Fig. 6 Matching figures

    圖7 目標(biāo)再確認(rèn)成功對(duì)顯示圖Fig. 7 Target to reconfirm success of figure

    圖6 (a)是實(shí)驗(yàn)中匹配正確的效果圖,從圖中可以看出兩個(gè)攝像頭中所呈現(xiàn)的目標(biāo)的顏色特征有很大相似性,在圖6(a)中行人身上的局部顏色特征,如上身身軀和下身身軀的顏色差異性很明顯,其他特征的干擾比較小,因而在特征表達(dá)更具體,更有辨別性。所以在算法中可以比較容易地將目標(biāo)進(jìn)行再確認(rèn)。相比之下,圖6(b)中兩個(gè)行人在進(jìn)行軀體分割,特征提取等過(guò)程后,由于用于提取特征而分割出來(lái)的部分特征較為接近(左右兩圖上身衣服和下身褲子的顏色分別比較接近),因而導(dǎo)致出現(xiàn)了錯(cuò)誤的再確認(rèn)結(jié)果。

    本文通過(guò)隨機(jī)選取圖片庫(kù)中45對(duì)圖片進(jìn)行目標(biāo)再確認(rèn)實(shí)驗(yàn),將部分匹配成功對(duì)在MATLAB畫布中顯示在一起(圖7),可以更加直觀地看出本文的算法達(dá)到了良好的再確認(rèn)效果。具體性能指標(biāo)可以通過(guò)下文中實(shí)驗(yàn)數(shù)據(jù)統(tǒng)計(jì)評(píng)估結(jié)果進(jìn)行說(shuō)明。

    4.2 實(shí)驗(yàn)數(shù)據(jù)統(tǒng)計(jì)評(píng)估

    評(píng)價(jià)目標(biāo)再確認(rèn)的性能是否優(yōu)良并沒(méi)有統(tǒng)一的標(biāo)準(zhǔn),但目前在評(píng)估行人再確認(rèn)性能方面主要采用的是累積匹配特性曲線CMC[27](cumulative match characteristic)。CMC曲線反映的是在目標(biāo)圖庫(kù)前n個(gè)最相似候選目標(biāo)內(nèi)找到正確匹配圖片的概率[27]。實(shí)驗(yàn)中隨機(jī)抽取50對(duì)行人目標(biāo)進(jìn)行測(cè)試,實(shí)驗(yàn)的總次數(shù)是5次。最后給出平均CMC曲線(橫坐標(biāo)為排名,縱坐標(biāo)為識(shí)別率)。假設(shè)曲線上有一點(diǎn)(m,n),代表排名前m個(gè)的匹配目標(biāo)中能夠命中的概論是n,當(dāng)然其中的m可以理解成所有匹配數(shù)目中具有最大相似度的前m個(gè)目標(biāo),n自然是這m個(gè)目標(biāo)中包含正確匹配結(jié)果的比率)[27],實(shí)驗(yàn)運(yùn)行第1次和5次實(shí)驗(yàn)運(yùn)行之后生成CMC平均曲線效果圖如圖8中的(a)和(b)圖所示。

    圖8(a)圖中顯示的是第1次實(shí)驗(yàn)完成后生成的CMC性能曲線,其中圖中的橫軸代表排名等級(jí),豎軸是識(shí)別率,從曲線上可以看出第1次實(shí)驗(yàn)至少前20位匹配的效率才能達(dá)到100%,此處的識(shí)別率也代表:達(dá)到最高效率所需要匹配的數(shù)量越少,說(shuō)明該算法越好。圖8(b)圖中顯示的5次實(shí)驗(yàn)完成后生成的平均CMC性能曲線,從曲線上可以看出5次實(shí)驗(yàn)完成后求平均值生成的CMC曲線圖中顯示,至少前19位匹配的效率才能達(dá)到100%,當(dāng)然這里達(dá)到最高效率所需要匹配數(shù)量越少,也說(shuō)明該算法越好。圖中第一次實(shí)驗(yàn)獲得了44%的匹配率,5次平均實(shí)驗(yàn)后獲得的匹配率為46%,相比現(xiàn)有提出的參考算法,本文算法的匹配率是比較理想的。

    圖8 基于VIPeR數(shù)據(jù)集的CMC性能曲線Fig. 8 CMC performance curve based on the data set of VIPeR

    4.3 不同數(shù)據(jù)集實(shí)驗(yàn)對(duì)比分析

    4.3.1 基于VIPeR數(shù)據(jù)庫(kù)實(shí)驗(yàn)結(jié)果

    本文在實(shí)現(xiàn)基于優(yōu)化擴(kuò)散距離算法的基礎(chǔ)上使用多特征融合的方式進(jìn)行目標(biāo)再確認(rèn),實(shí)驗(yàn)過(guò)程中,本文為了突出多特征組合的優(yōu)勢(shì),相應(yīng)的做了多組實(shí)驗(yàn):?jiǎn)我惶卣骱投嗵卣髟谕瑯泳嚯x度量算法的軟硬件環(huán)境下進(jìn)行了識(shí)別率對(duì)比,其相應(yīng)實(shí)驗(yàn)效果如圖9(a)所示;同時(shí)將本文算法和傳統(tǒng)的目標(biāo)再確認(rèn)的其他優(yōu)秀算法(夾角余弦度量算法和直方圖交叉核度量算法)進(jìn)行了性能方面上的對(duì)比,其相應(yīng)實(shí)驗(yàn)效果圖如圖9(b)所示。如圖9(a)所示,通過(guò)CMC曲線圖可以看出,使用本文中的多特征來(lái)識(shí)別時(shí)匹配率更高。從圖中統(tǒng)計(jì)出Rank=1, 3, 6, 8,10排名時(shí)所對(duì)應(yīng)單一特征和多特征組合的識(shí)別率,可以從數(shù)據(jù)中觀察出,本文中使用多特征組合所得識(shí)別率為46.2%;僅使用RGB特征所得識(shí)別率為28.2%;僅使用HSV特征所得識(shí)別率為27.5%;僅使用HOG特征所得識(shí)別率為4.5%;無(wú)論在哪個(gè)排名階段,總體上,本文使用的多特征組合相對(duì)使用單一特征來(lái)進(jìn)行識(shí)別時(shí),多特征組合的識(shí)別率更高,更有優(yōu)勢(shì)。

    圖9 VIPeR圖庫(kù)性能對(duì)比圖Fig. 9 The performance contrast figure based on the VIPeR

    如圖9(b)所示,通過(guò)3種算法的CMC曲線對(duì)比圖可以很明確地看出,本文算法在相同條件下識(shí)別率更高。從圖中統(tǒng)計(jì)出Rank=1, 3, 6, 8, 10排名時(shí)所對(duì)應(yīng)不同算法的識(shí)別率,可以從數(shù)據(jù)中觀察出,本文的識(shí)別率已經(jīng)達(dá)到了50.5%,而其他優(yōu)秀算法中的直方圖交叉核和夾角余弦算法的識(shí)別率分別為47.3%和22.5%;無(wú)論在哪個(gè)排名階段,總體上,優(yōu)化擴(kuò)散距離算法相比其他兩種優(yōu)秀算法在識(shí)別率方面都比較高。

    為了體現(xiàn)本文算法在識(shí)別率上的優(yōu)勢(shì),實(shí)驗(yàn)中,同時(shí)進(jìn)行了不同優(yōu)秀算法和本文算法的性能對(duì)比,對(duì)應(yīng)性能表如下表1所示。

    表1 本文算法與其他特征類算法的性能比較Table 1 Comparison between the proposed algorithm and other feature-class algorithms

    通過(guò)表1特征類算法的對(duì)比:SDALF (symmetry-driven accumulation of local features)方法在提取前景后分割人體目標(biāo)為頭部、軀干和腿部3部分的基礎(chǔ)上進(jìn)行wHSV、最大穩(wěn)定顏色區(qū)域和重復(fù)紋理塊組合識(shí)別,最后使用歐式距離進(jìn)行測(cè)距,實(shí)驗(yàn)中的匹配率達(dá)到了19.77%,這個(gè)應(yīng)用廣泛的算法的優(yōu)勢(shì)在于較好特征的建立,但是在距離度量上還是使用傳統(tǒng)的歐式距離,相比而言,本文在距離度量上的優(yōu)勢(shì)是顯而易見(jiàn)的;CPS(custom pictorial structures)方法的優(yōu)勢(shì)在于能夠根據(jù)人體結(jié)構(gòu)檢測(cè)出人體的各個(gè)部位進(jìn)行識(shí)別,能夠更好地提取前景特征,匹配率達(dá)到了20.32%;eLDFV(encoded local descriptors fisher vectors)方法結(jié)合SDALF使用Fisher向量編碼圖像的亮度和梯度信息,匹配率達(dá)到了21.42%,但是對(duì)于度量算法仍然需要改進(jìn);SCEFA(structural constraints enhanced feature accumulation)方法雖然使用基于Gabor紋理模式的關(guān)鍵點(diǎn)檢測(cè)和雙向匹配顏色區(qū)域特征的方法,匹配率達(dá)到了25.36%,其多特征的構(gòu)建是最大的優(yōu)點(diǎn);eSDC(effectiveness salience and dense correspondence)方法也是結(jié)合SDALF以及非監(jiān)督的學(xué)習(xí)方式去尋找個(gè)體更好的特征,匹配率達(dá)到了很高的26.77%,但是欠缺考慮距離度量算法的改進(jìn);特征類中的HSCD(hybrid spatiogram and covariance descriptor)方法結(jié)合了空間直方圖和區(qū)域協(xié)方差兩種優(yōu)秀的統(tǒng)計(jì)描述,并且從多個(gè)層次的統(tǒng)計(jì)區(qū)域提取多類互補(bǔ)性較好的統(tǒng)計(jì)向量,這個(gè)方法和同類相比是最好的,得到了29.32%的識(shí)別率。通過(guò)表2所展現(xiàn)的度量算法來(lái)看:ELF(ensemble of localized features)方法雖然AdaBoost分類器選取顏色和紋理特征,這種方法充分利用了分類器的選優(yōu)特性,識(shí)別率僅僅為11.36%;ERSVM(Ensemble RankSVM)方法和PRDC(relative distance comparison)相類似,利用相對(duì)距離排序的SVM分類器集成多個(gè)特征向量權(quán)重,此方法在度量算法方面優(yōu)勢(shì)很明顯,但是在特征方面仍需要改進(jìn);LMNN-R(large margin nearest neighbor with rejection)方法也使用相對(duì)距離比較的PRDC方法,使用了大邊近鄰分類器,在特征設(shè)計(jì)方面同樣需要改進(jìn)。

    度量算法類中,性能表現(xiàn)最好的是HI(histogram intersection),直方圖交叉核,該算法是一種基于隱式對(duì)應(yīng)關(guān)系的內(nèi)核函數(shù),解決了無(wú)序、可變長(zhǎng)度的矢量集合的判別分類的問(wèn)題,而且是正定的,由于該算法的優(yōu)勢(shì),應(yīng)用到目標(biāo)再確認(rèn)領(lǐng)域,匹配率高達(dá)47.38%,因此,通過(guò)上文所述,同等條件下,度量算法類相比特征類在匹配率方面具有一定的優(yōu)勢(shì)。而查看表格,本文算法無(wú)論在特征類還是距離度量類對(duì)比中,其50.5%的匹配率仍然具有一定的優(yōu)勢(shì)。通過(guò)以上優(yōu)秀算法和本文算法在數(shù)據(jù)上對(duì)比可以看出,本文在基于VIPeR圖像庫(kù)的基礎(chǔ)上,識(shí)別率方面性能相對(duì)比較好,這是因?yàn)楸疚奶卣髟O(shè)計(jì)上的優(yōu)勢(shì)和優(yōu)秀度量算法引入的原因。

    表2 本文算法與其他距離度量類算法的性能比較Table 2 Comparison between the proposed algorithm and other distance metric-class algorithms

    4.3.2 基于ETHZ數(shù)據(jù)庫(kù)實(shí)驗(yàn)結(jié)果

    ETHZ數(shù)據(jù)庫(kù)是從運(yùn)動(dòng)的攝像機(jī)中獲取的圖像,ETHZ1包含83個(gè)目標(biāo)的4 857幅圖像;ETHZ2包含35個(gè)目標(biāo)的1 936幅圖像;ETHZ3包含28個(gè)行人的1 762幅圖像。本文使用這類數(shù)據(jù)庫(kù)作為測(cè)試樣本庫(kù),用來(lái)驗(yàn)證本文算法和余弦、直方圖正交算法的性能對(duì)比。在數(shù)據(jù)庫(kù)中,光照的改變和行人的遮擋相對(duì)嚴(yán)重,人體姿態(tài)方面變化比較小。根據(jù)獲得的目標(biāo)的幀數(shù),可以將目標(biāo)再確認(rèn)分為以下3類:

    1) 單幀對(duì)單幀(single vs single, SvsS)

    2) 多幀對(duì)單幀(multiple vs single, MvsS)

    3) 多幀對(duì)多幀(multiple vs multiple, MvsM)

    本文分別測(cè)試了SvsS、MvsS、MvsM模式下的不同算法的目標(biāo)再確認(rèn)的性能,相應(yīng)的CMC曲線圖如圖10所示。

    在圖10中,(a)、(d)分別代表ETHZ1數(shù)據(jù)集下MvsS和MvsM的性能表現(xiàn);(b)、(e)分別代表ETHZ2數(shù)據(jù)集下MvsS和MvsM的性能表現(xiàn);(c)、(f)分別代表ETHZ3數(shù)據(jù)集下MvsS和MvsM的性能表現(xiàn)。通過(guò)測(cè)試ETHZ數(shù)據(jù)庫(kù)中的實(shí)驗(yàn)圖像可以發(fā)現(xiàn),在不同ETHZ集下,本文算法在匹配精度方面,一直保持領(lǐng)先。ETHZ1中,在MvsS和MvsM幀下,本文算法在Rank=1時(shí)都達(dá)到了87%左右;ETHZ2中,在MvsS和MvsM幀下,本文算法在Rank=1時(shí)分別達(dá)到了87.5%和93%左右;ETHZ3中,在MvsS和MvsM幀下,本文算法在Rank=1時(shí)分別達(dá)到了94%和96%左右。相比余弦算法和直方圖正交算法,本文算法能夠得到更好的表現(xiàn),其原因在于:由于多特征的使用,可以應(yīng)對(duì)攝像機(jī)鏡頭的不同、遮擋所造成的差異;更重要的是在距離匹配過(guò)程中所應(yīng)用的優(yōu)化擴(kuò)散距離,可以有效應(yīng)對(duì)光亮、陰影等造成的差異,并且利用直方圖的空間信息更加精確其對(duì)應(yīng)距離,從而準(zhǔn)確的進(jìn)行目標(biāo)再確認(rèn)。這也是本文適合更多場(chǎng)景且無(wú)需監(jiān)督的原因,通過(guò)在ETHZ數(shù)據(jù)集上的表現(xiàn),可以看出本文算法的性能還是不錯(cuò)的,觀察匹配出的效果圖發(fā)現(xiàn),本文所提出算法在應(yīng)對(duì)姿態(tài)、視角、和光照變化等方面具有較好的魯棒性。

    圖10 基于ETHZ數(shù)據(jù)集下的多幀實(shí)驗(yàn)Fig. 10 The performance contrast figure based on the ETHZ

    5 結(jié)束語(yǔ)

    通過(guò)上文中的理論分析和實(shí)驗(yàn)驗(yàn)證,本文最大的創(chuàng)新點(diǎn)在于引入物理學(xué)溫度場(chǎng)的擴(kuò)散距離的概念并進(jìn)行優(yōu)化,來(lái)建立相似性度量函數(shù)。并為了提高優(yōu)化擴(kuò)散距離的計(jì)算效率,進(jìn)行了二次加權(quán)性優(yōu)化,進(jìn)而提高了計(jì)算的準(zhǔn)確性。特征提取方面,定義了兩級(jí)區(qū)域直方圖提取方案,這種簡(jiǎn)易而有效的方法可以在特征基礎(chǔ)上實(shí)現(xiàn)空間信息的添加,從而提高了識(shí)別率。在兩級(jí)區(qū)域方案基礎(chǔ)上,通過(guò)高斯加權(quán)HSV直方圖,整體、局部RGB直方圖,以及HOG特征描述子3類特征的綜合使用,并輔以適當(dāng)?shù)募訖?quán)處理,較好地實(shí)現(xiàn)了行人目標(biāo)再確認(rèn)。最后,本文優(yōu)化算法與同類別的其他優(yōu)秀算法以及傳統(tǒng)目標(biāo)再確認(rèn)過(guò)程中所使用的有監(jiān)督的訓(xùn)練學(xué)習(xí)型度量算法進(jìn)行了對(duì)比。相比其他算法,本文的優(yōu)點(diǎn)是:目標(biāo)再確認(rèn)準(zhǔn)確率明顯提高,同時(shí)不需要大量的訓(xùn)練樣本、節(jié)省了訓(xùn)練時(shí)間、可以適應(yīng)大部分的場(chǎng)景變化、節(jié)省內(nèi)存開(kāi)支等,在一定程度上體現(xiàn)了本文算法的優(yōu)越性。但本文仍然還有許多需要改進(jìn)的地方,比如如何在更加復(fù)雜的環(huán)境中可以更高效率的進(jìn)行目標(biāo)再確認(rèn),這也是本文下一步研究的重點(diǎn)。

    [1]ZHAO R, OYANG W, WANG X. Person re-identification by saliency learning[J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(2): 356–370.

    [2]JIA J, RUAN Q, JIN Y. Geometric preserving local fisher discriminant analysis for person re-identification[J]. Neurocomputing, 2016, 205: 92–105.

    [3]UKITA N, MORIGUCHI Y, HAGITA N. People re-identification across non-overlapping cameras using group features[J]. Computer vision and image understanding, 2016,144(C): 228–236.

    [4]MARTINEL N, MICHELONI C. Re-identify people in wide area camera network[C]//2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. RI, USA, 2012: 31–36.

    [5]HUA J I, PAN M L. Person re-identification based on global color context[C]//ACCV'10 Proceedings of the 2010 international conference on Computer vision. Queenstown,New Zealand, 2010, 6468(I): 205–215.

    [6]ZHAO T, NEVATIA R. Tracking multiple humans in complex situations[J]. IEEE transactions on pattern analysis and machine intelligence, 2004, 26(9): 1208–1221.

    [7]LI P, WU H, CHEN Q. Person re-identification using color enhancing feature[C]//2015 3rd IAPR Asian Conference on Pattern Recognition. Kuala Lumpur, Malaysia, 2015: 86–90.

    [8]李金, 胡文廣. 基于顏色的快速人體跟蹤及遮擋處理[J].智能系統(tǒng)學(xué)報(bào), 2010, 5(4): 353–359.LI Jin, HU Wenguang. Tracking fast movement using colors while accommodating occlusion[J]. CAAI transactions on intelligent systems, 2010, 5(4): 353–359.

    [9]劉宇, 向高林, 王伊冰. 一種改進(jìn)的行人導(dǎo)航算法研究[J].重慶郵電大學(xué)學(xué)報(bào):自然科學(xué)版, 2016, 28(2): 233–238.LIU Yu, XIANG Gaolin, WANG Yibing. An improved pedestrian navigation algorithm[J]. Journal of Chongqing university of posts and telecommunication: natural science edition, 2016, 28(2): 233–238.

    [10]HU Y, LIAO S, LEI Z. Exploring structural information and fusing multiple features for person re-identification[C]//2013 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Portland, USA, 2013:794–799.

    [11]LIU P, GUO J M, CHAMNONGTHAI K, et al. Fusion of color histogram and lbp-based features for texture image retrieval and classification[J]. Information sciences, 2017,1(390): 95–111.

    [12]CHANG C, LIN C. LIBSVM: a library for support vector machines[J]. Journal ACM transactions on intelligent systems and technology, 2011, 2(3): 389–396.

    [13]CAI Y, CHEN W, HUANG K, TAN T. Continuously tracking objects across multiple widely separated cameras[C]//ACCV'07 Proceedings of the 8th Asian conference on Computer vision. Tokyo, Japan, 2012(I):843–852.

    [14]PATHYA B, NAINAN S. Performance evaluation of face recognition using LBP, PCA and SVM[J]. International journal of advanced trends in computer science and engineering, 2016, 3(4): 85–88.

    [15]王彩玲, 詹松, 荊曉遠(yuǎn). 基于圖像顯著特征的非重疊視域行人再識(shí)別[J]. 南京郵電大學(xué)學(xué)報(bào): 自然科學(xué)版, 2016,36(3): 106–111.WANG Cailing, ZHAN Song, JING Xiaoyuan. Pedestrian re-identification based on salient features in non-overlapping areas[J]. Journal of Nanjing university of posts and telecommunications: natural science edition, 2016, 36(3):106–111.

    [16]FARENZENA M, BAZZANI L. Person re-identification by symmetry-driven accumulation of local features[C]//2010 IEEE Conference on Computer Vision and Pattern Recognition. San Francisco, CA, USA, 2010: 2360–2367.

    [17]彭程, 劉帥師, 萬(wàn)川, 等. 基于局部紋理ASM模型的人臉表情識(shí)別[J]. 智能系統(tǒng)學(xué)報(bào), 2011, 6(3): 231–238.PENG Cheng, LIU Shuaishi, WAN Chuan, et al. An active shape model for facial expression recognition based on a local texture model[J]. CAAI transactions on intelligent systems, 2011, 6(3): 231–238.

    [18]FENG X, PIETIKAINEN M, HADID A. Facial expression recognition with local binary patterns and linear programming[J]. Pattern recognition and image analysis, 2005,15(2): 550–552.

    [19]PROSSER B, ZHENG W S, GONG S. Person re-identification by support vector ranking[C]//BMVC2010 British Machine Vision Conference. Aberystwyth, UK, 2010(42):1–11.

    [20]FANG C. People re-identification based on online multiple kernel learning in video surveillance[J]. Opto-electronic engineering, 2012, 39(9): 65–71.

    [21]PANG Y, XIN-CHU S: Multiway histogram intersection for multi-target tracking[C]//2015 18th International Conference on Information Fusion. Washington, DC, USA,2015: 1938–1945.

    [22]YIN J, ZHOU J, JIN Z. Principal component analysis and kernel principal component analysis based on cosine angle distance[J]. Computer engineering and applications, 2011,47(3): 9–12.

    [23]HAIBIN L, OKADA K. Diffusion distance for histogram comparison[C]//Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC, USA, 2006, 1(1): 246–253.

    [24]ROTHER C, KOLMOGOROV V, BLAKE A. “GrabCut”:interactive foreground extraction using iterated graph cuts[J]. ACM transactions on graphics, 2004, 23(3):307–312.

    [25]QING-JUN W, RU-BO Z. LPP-HOG: a new local image descriptor for fast human detection[C]//2008 IEEE International Symposium on Knowledge Acquisition and Modeling Workshop. Wuhan, China, 2008: 640–643.

    [26]JUN Y. HOCK-SOON S: fuzzy diffusion distance learning for cartoon similarity estimation[J]. Journal of computer science and technology: English edition, 2011, 26(2):203–216.

    [27]MAZZON R, TAHIR S F, CAVALLARO A. Person reidentification in crowd[J]. Pattern recognition letters, 2012,33(14): 1828–1837.

    [28]CHENG D S, CRISTANI M, STOPPA M. Custom pictorial structures for re-identification[C]//BMVC2010 British Machine Vision Conference. Dundee, UK, 2011, (68):1–11.

    [29]MA B, SU Y, JURIE F. Local descriptors encoded by fisher vectors for person re-identification[C]//12th European Conference on Computer Vision Workshops. Florence,Italy, 2012, 7583: 413–422.

    [30]ZHAO R, OUYANG W, WANG X. Unsupervised salience learning for person re-identification[C]//2013 IEEE Conference on Computer Vision and Pattern Recognition.Portland, USA, 2013, 9(4): 3586–3593.

    [31]ZENG M Y, WU Z M, CHANG T. Fusing appearance statistical features for person re-identification[J]. Journal of electronics and information technology, 2014, 36(8):1844–1851.

    [32]GRAY D, TAO H. Viewpoint invariant pedestrian recognition with an ensemble of localized features[C]// ECCV'08 Proceedings of the 10th European Conference on Computer Vision. Marseille, France, 2008, (I): 262–275.

    [33]ZHENG W S, GONG S, XIANG T. Reidentification by relative distance comparison[J]. IEEE transactions on pattern analysis and machine intelligence, 2013, 35(3):653–668.

    [34]DIKMEN M, AKBAS E, HUANG T S. Pedestrian recognition with a learned metric[C]//ACCV'10 Proceedings of the 10th Asian conference on Computer vision. Queenstown, New Zealand, 2010, 6495(IV): 501–512.

    猜你喜歡
    識(shí)別率直方圖度量
    有趣的度量
    統(tǒng)計(jì)頻率分布直方圖的備考全攻略
    符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
    模糊度量空間的強(qiáng)嵌入
    基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
    迷向表示分為6個(gè)不可約直和的旗流形上不變愛(ài)因斯坦度量
    基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
    用直方圖控制畫面影調(diào)
    提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
    高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
    三级国产精品片| 国产久久久一区二区三区| 蜜桃在线观看..| 在线天堂最新版资源| 亚洲av成人精品一二三区| 国产高清国产精品国产三级 | 天天躁夜夜躁狠狠久久av| 色吧在线观看| 男人和女人高潮做爰伦理| 国产爽快片一区二区三区| 久久av网站| 寂寞人妻少妇视频99o| 99热网站在线观看| 亚洲va在线va天堂va国产| 欧美极品一区二区三区四区| 国产在线免费精品| 少妇人妻 视频| 最近中文字幕高清免费大全6| 亚洲精品第二区| 男人添女人高潮全过程视频| 午夜福利在线观看免费完整高清在| 欧美日韩精品成人综合77777| 美女xxoo啪啪120秒动态图| 黄色视频在线播放观看不卡| 久久精品熟女亚洲av麻豆精品| 熟女电影av网| 最新中文字幕久久久久| 王馨瑶露胸无遮挡在线观看| 免费黄频网站在线观看国产| 亚洲国产日韩一区二区| 精品久久久久久久久亚洲| 视频中文字幕在线观看| 美女视频免费永久观看网站| 亚洲欧美日韩东京热| 免费人妻精品一区二区三区视频| 天美传媒精品一区二区| 国产91av在线免费观看| 亚洲成色77777| 又大又黄又爽视频免费| 毛片一级片免费看久久久久| 高清毛片免费看| 大香蕉久久网| 亚洲av成人精品一二三区| 美女福利国产在线 | 亚洲精品亚洲一区二区| 青青草视频在线视频观看| 少妇熟女欧美另类| 欧美激情国产日韩精品一区| 日本av免费视频播放| 成人18禁高潮啪啪吃奶动态图 | 欧美国产精品一级二级三级 | av视频免费观看在线观看| 国产乱人视频| 丰满迷人的少妇在线观看| 51国产日韩欧美| 国产欧美日韩精品一区二区| 日产精品乱码卡一卡2卡三| 国产精品一区二区在线不卡| 日本黄色片子视频| 日本黄色日本黄色录像| 少妇丰满av| 久久97久久精品| 中文字幕制服av| 国产成人freesex在线| av国产免费在线观看| 免费观看性生交大片5| 国产精品伦人一区二区| 欧美最新免费一区二区三区| 国产精品人妻久久久影院| 婷婷色综合www| 国产精品麻豆人妻色哟哟久久| 夜夜看夜夜爽夜夜摸| 一本色道久久久久久精品综合| 99久久综合免费| 欧美成人午夜免费资源| 日韩电影二区| 国内少妇人妻偷人精品xxx网站| 日韩制服骚丝袜av| 国产精品一区二区在线不卡| 美女视频免费永久观看网站| 黄色日韩在线| 亚洲一级一片aⅴ在线观看| 高清欧美精品videossex| 丝袜喷水一区| 久久久亚洲精品成人影院| 亚洲欧洲日产国产| 免费看日本二区| 亚洲欧美日韩东京热| 蜜臀久久99精品久久宅男| 搡女人真爽免费视频火全软件| 欧美少妇被猛烈插入视频| 国产精品久久久久成人av| 日韩一区二区三区影片| 蜜桃久久精品国产亚洲av| 欧美一级a爱片免费观看看| 国产精品99久久久久久久久| 在线天堂最新版资源| av国产免费在线观看| 久久久国产一区二区| 卡戴珊不雅视频在线播放| 水蜜桃什么品种好| 伊人久久国产一区二区| 在线播放无遮挡| 欧美日韩一区二区视频在线观看视频在线| 亚洲天堂av无毛| 久久久国产一区二区| 久久精品夜色国产| 亚洲中文av在线| 日本vs欧美在线观看视频 | 女性被躁到高潮视频| 免费人成在线观看视频色| 男女啪啪激烈高潮av片| 超碰av人人做人人爽久久| 亚洲精品456在线播放app| h日本视频在线播放| 亚洲国产精品专区欧美| 下体分泌物呈黄色| 人人妻人人看人人澡| 只有这里有精品99| av国产精品久久久久影院| 国产久久久一区二区三区| 夜夜看夜夜爽夜夜摸| 日本猛色少妇xxxxx猛交久久| 熟女人妻精品中文字幕| 女人久久www免费人成看片| 99热网站在线观看| 乱系列少妇在线播放| 蜜桃在线观看..| 成人黄色视频免费在线看| 卡戴珊不雅视频在线播放| 久久久a久久爽久久v久久| 欧美精品人与动牲交sv欧美| 久久6这里有精品| 亚洲精品乱码久久久v下载方式| 最近中文字幕2019免费版| 少妇的逼好多水| 99热6这里只有精品| 伦精品一区二区三区| 少妇丰满av| 亚洲欧美清纯卡通| 午夜免费男女啪啪视频观看| 欧美日韩视频精品一区| 卡戴珊不雅视频在线播放| 少妇精品久久久久久久| 久久99蜜桃精品久久| 亚洲欧美日韩卡通动漫| 精品久久久噜噜| 欧美亚洲 丝袜 人妻 在线| 一区二区三区四区激情视频| 精品视频人人做人人爽| 久久精品久久久久久噜噜老黄| 性色avwww在线观看| 日韩电影二区| 亚洲欧美成人综合另类久久久| 日本一二三区视频观看| 少妇的逼水好多| 中文欧美无线码| 91久久精品国产一区二区成人| av在线app专区| 中文天堂在线官网| 六月丁香七月| 人人妻人人看人人澡| 少妇被粗大猛烈的视频| 日韩 亚洲 欧美在线| 欧美+日韩+精品| 日日撸夜夜添| 久久精品夜色国产| 在线天堂最新版资源| 男女国产视频网站| 乱码一卡2卡4卡精品| 欧美精品人与动牲交sv欧美| 高清不卡的av网站| 欧美97在线视频| 街头女战士在线观看网站| 99久久综合免费| 日韩一区二区视频免费看| 久久国产乱子免费精品| 国产淫片久久久久久久久| 久久av网站| 久久久久久伊人网av| 国产精品99久久99久久久不卡 | 国产午夜精品一二区理论片| 久久久成人免费电影| 五月天丁香电影| 亚洲久久久国产精品| 日本vs欧美在线观看视频 | 免费看不卡的av| 精品国产乱码久久久久久小说| videossex国产| h视频一区二区三区| 精品人妻视频免费看| 欧美成人a在线观看| 亚洲三级黄色毛片| 亚洲欧洲国产日韩| 狂野欧美激情性bbbbbb| 大陆偷拍与自拍| 丰满乱子伦码专区| 亚洲不卡免费看| 国产永久视频网站| av国产久精品久网站免费入址| 日韩欧美一区视频在线观看 | 亚洲,一卡二卡三卡| 一个人免费看片子| 3wmmmm亚洲av在线观看| 少妇熟女欧美另类| 高清黄色对白视频在线免费看 | 中文字幕制服av| 两个人的视频大全免费| av国产精品久久久久影院| 欧美97在线视频| 精品久久久久久久久亚洲| 日韩亚洲欧美综合| h日本视频在线播放| 免费av中文字幕在线| 免费黄网站久久成人精品| 欧美精品一区二区大全| 精品久久久久久久末码| 小蜜桃在线观看免费完整版高清| 十分钟在线观看高清视频www | 免费黄网站久久成人精品| 天天躁夜夜躁狠狠久久av| 天天躁日日操中文字幕| 亚洲无线观看免费| 国产亚洲欧美精品永久| 精品亚洲乱码少妇综合久久| 精品人妻视频免费看| 国产成人a∨麻豆精品| 直男gayav资源| 不卡视频在线观看欧美| 一区在线观看完整版| 99久国产av精品国产电影| 日韩国内少妇激情av| 国产男人的电影天堂91| 伊人久久国产一区二区| 欧美日韩精品成人综合77777| av女优亚洲男人天堂| 国产精品一区二区三区四区免费观看| 有码 亚洲区| 国产深夜福利视频在线观看| 成人黄色视频免费在线看| 成年人午夜在线观看视频| 亚洲中文av在线| 精品一区在线观看国产| 97在线人人人人妻| 3wmmmm亚洲av在线观看| 韩国高清视频一区二区三区| 男女边摸边吃奶| 日韩欧美精品免费久久| 少妇高潮的动态图| 日本av手机在线免费观看| 日韩视频在线欧美| 亚洲一级一片aⅴ在线观看| 蜜桃亚洲精品一区二区三区| 男人舔奶头视频| 一级毛片我不卡| 麻豆成人av视频| 尤物成人国产欧美一区二区三区| 日本色播在线视频| 韩国av在线不卡| 欧美xxⅹ黑人| 久久精品久久精品一区二区三区| 亚洲性久久影院| 午夜激情久久久久久久| 国产色爽女视频免费观看| 日韩中字成人| 免费看av在线观看网站| 国产黄色免费在线视频| 下体分泌物呈黄色| 身体一侧抽搐| 夜夜骑夜夜射夜夜干| 看免费成人av毛片| 2018国产大陆天天弄谢| 在线观看人妻少妇| 色婷婷av一区二区三区视频| 亚洲美女搞黄在线观看| av国产免费在线观看| 亚洲精品第二区| 亚洲电影在线观看av| 女人十人毛片免费观看3o分钟| kizo精华| 国产亚洲最大av| 一个人免费看片子| 成人国产av品久久久| 久久 成人 亚洲| 国产精品国产av在线观看| 黑人高潮一二区| 99热这里只有精品一区| 亚洲成人中文字幕在线播放| 狂野欧美激情性bbbbbb| 亚洲最大成人中文| av在线蜜桃| 国产成人freesex在线| 欧美日韩视频精品一区| 国产精品一区二区在线不卡| 亚洲av不卡在线观看| 亚洲经典国产精华液单| 久久久久视频综合| 精品一区二区三区视频在线| 欧美激情国产日韩精品一区| 日本vs欧美在线观看视频 | 最近手机中文字幕大全| 中文在线观看免费www的网站| 久久人妻熟女aⅴ| 一级片'在线观看视频| 国产淫片久久久久久久久| 欧美日本视频| 久久精品久久久久久噜噜老黄| 免费观看的影片在线观看| 久久久精品免费免费高清| 国产真实伦视频高清在线观看| 天天躁日日操中文字幕| 精品视频人人做人人爽| 成人黄色视频免费在线看| 能在线免费看毛片的网站| 99久久精品一区二区三区| 91aial.com中文字幕在线观看| 18禁在线无遮挡免费观看视频| 久久国产精品男人的天堂亚洲 | 日本wwww免费看| 日本黄色片子视频| 中文欧美无线码| 秋霞在线观看毛片| 国产亚洲5aaaaa淫片| 欧美精品亚洲一区二区| 天天躁夜夜躁狠狠久久av| 五月天丁香电影| 肉色欧美久久久久久久蜜桃| 大香蕉97超碰在线| 肉色欧美久久久久久久蜜桃| 美女cb高潮喷水在线观看| 网址你懂的国产日韩在线| 人人妻人人添人人爽欧美一区卜 | 中文精品一卡2卡3卡4更新| 亚洲国产精品国产精品| 国产精品av视频在线免费观看| 超碰97精品在线观看| 亚洲av中文av极速乱| 亚洲欧美一区二区三区国产| 亚洲av中文av极速乱| 人妻少妇偷人精品九色| 22中文网久久字幕| 黄色视频在线播放观看不卡| 亚洲激情五月婷婷啪啪| 久久久久性生活片| 午夜日本视频在线| 三级国产精品片| freevideosex欧美| 美女高潮的动态| 只有这里有精品99| 国产精品伦人一区二区| 少妇被粗大猛烈的视频| 欧美高清性xxxxhd video| 婷婷色综合大香蕉| 免费黄网站久久成人精品| 少妇丰满av| 久久久久久久国产电影| 九九久久精品国产亚洲av麻豆| 亚洲精品国产av蜜桃| 最黄视频免费看| 如何舔出高潮| 99热国产这里只有精品6| 极品教师在线视频| 久久精品国产自在天天线| 国产精品久久久久久精品古装| 男女啪啪激烈高潮av片| 欧美日韩国产mv在线观看视频 | 亚洲av.av天堂| 久久久久视频综合| 超碰av人人做人人爽久久| 日韩一区二区视频免费看| 亚洲成人中文字幕在线播放| 久久 成人 亚洲| 在线播放无遮挡| 亚洲国产av新网站| 性色avwww在线观看| 国产毛片在线视频| 中文精品一卡2卡3卡4更新| 欧美高清性xxxxhd video| 免费人妻精品一区二区三区视频| 国产片特级美女逼逼视频| 国产精品一区二区在线观看99| 我要看日韩黄色一级片| 99热这里只有是精品50| 99久久精品热视频| 国产无遮挡羞羞视频在线观看| 边亲边吃奶的免费视频| 最后的刺客免费高清国语| 日本黄色日本黄色录像| 国产精品一区二区在线不卡| 男人添女人高潮全过程视频| 精品久久久久久电影网| 国产精品久久久久久精品电影小说 | 成人一区二区视频在线观看| 欧美少妇被猛烈插入视频| 国产av一区二区精品久久 | 亚洲av成人精品一区久久| 丰满人妻一区二区三区视频av| 一个人免费看片子| 精品久久国产蜜桃| 人妻一区二区av| 天美传媒精品一区二区| h日本视频在线播放| 日韩欧美精品免费久久| 午夜福利网站1000一区二区三区| 最近2019中文字幕mv第一页| 免费人妻精品一区二区三区视频| 特大巨黑吊av在线直播| 美女国产视频在线观看| 欧美一级a爱片免费观看看| 一级a做视频免费观看| 国产午夜精品一二区理论片| 校园人妻丝袜中文字幕| .国产精品久久| 国产在视频线精品| 精品人妻偷拍中文字幕| 建设人人有责人人尽责人人享有的 | 国产一级毛片在线| 成人国产麻豆网| 精品亚洲成a人片在线观看 | 久久久久久久久久成人| av卡一久久| 精品国产露脸久久av麻豆| 最近手机中文字幕大全| 日韩人妻高清精品专区| 99热这里只有是精品在线观看| 久久久亚洲精品成人影院| 麻豆精品久久久久久蜜桃| 国产精品成人在线| 亚洲图色成人| 精品午夜福利在线看| 成人一区二区视频在线观看| 噜噜噜噜噜久久久久久91| 亚洲性久久影院| 国精品久久久久久国模美| 亚洲av二区三区四区| 最近手机中文字幕大全| 亚洲激情五月婷婷啪啪| 亚洲精品成人av观看孕妇| 只有这里有精品99| 内地一区二区视频在线| 国产男人的电影天堂91| 尾随美女入室| 亚洲aⅴ乱码一区二区在线播放| 国产男女超爽视频在线观看| 久久久久精品性色| 国产一区二区三区av在线| 欧美成人午夜免费资源| 中文精品一卡2卡3卡4更新| 亚洲人成网站在线观看播放| 天美传媒精品一区二区| 插逼视频在线观看| 国产人妻一区二区三区在| 蜜臀久久99精品久久宅男| 如何舔出高潮| 97超视频在线观看视频| 人妻 亚洲 视频| 日韩成人av中文字幕在线观看| 成人亚洲精品一区在线观看 | h日本视频在线播放| 国产精品久久久久成人av| 日韩av不卡免费在线播放| 日本黄色片子视频| 亚洲伊人久久精品综合| 中文字幕久久专区| 免费大片18禁| 波野结衣二区三区在线| 在线 av 中文字幕| 亚洲真实伦在线观看| 女的被弄到高潮叫床怎么办| 欧美变态另类bdsm刘玥| 偷拍熟女少妇极品色| h日本视频在线播放| 久久久色成人| av播播在线观看一区| 婷婷色av中文字幕| 中国三级夫妇交换| 午夜免费男女啪啪视频观看| 久久韩国三级中文字幕| 午夜福利网站1000一区二区三区| 亚洲成人一二三区av| 亚洲国产精品专区欧美| 亚洲av中文字字幕乱码综合| 久久精品久久精品一区二区三区| 欧美三级亚洲精品| 成年免费大片在线观看| 日日撸夜夜添| 欧美高清成人免费视频www| 91久久精品国产一区二区成人| 国产av码专区亚洲av| 麻豆成人午夜福利视频| 观看av在线不卡| 国产 一区 欧美 日韩| 国产视频首页在线观看| 亚洲中文av在线| 五月天丁香电影| 中文欧美无线码| av黄色大香蕉| 欧美少妇被猛烈插入视频| 久久久久国产网址| 国产淫片久久久久久久久| 国产一区二区三区av在线| 国产日韩欧美亚洲二区| av一本久久久久| 性高湖久久久久久久久免费观看| 色婷婷久久久亚洲欧美| 久久国产乱子免费精品| 在线观看一区二区三区激情| 99九九线精品视频在线观看视频| 美女脱内裤让男人舔精品视频| 午夜激情福利司机影院| 美女主播在线视频| 国产色婷婷99| 久久青草综合色| 国产精品久久久久久久电影| 久久人人爽人人片av| 日韩制服骚丝袜av| 人人妻人人看人人澡| 天天躁日日操中文字幕| 亚洲精品乱码久久久久久按摩| 久久久久久人妻| 又粗又硬又长又爽又黄的视频| 人妻一区二区av| 婷婷色综合www| 日本与韩国留学比较| 尤物成人国产欧美一区二区三区| 久久ye,这里只有精品| 夫妻性生交免费视频一级片| 最近2019中文字幕mv第一页| 日本wwww免费看| av视频免费观看在线观看| 毛片一级片免费看久久久久| 亚洲精品亚洲一区二区| 伊人久久国产一区二区| 青春草亚洲视频在线观看| 一个人看的www免费观看视频| 国产成人aa在线观看| 日韩精品有码人妻一区| h视频一区二区三区| 国产成人免费无遮挡视频| 人妻夜夜爽99麻豆av| 国产精品蜜桃在线观看| 2018国产大陆天天弄谢| 女性生殖器流出的白浆| 97精品久久久久久久久久精品| 国产伦精品一区二区三区视频9| 小蜜桃在线观看免费完整版高清| 好男人视频免费观看在线| freevideosex欧美| 国产亚洲av片在线观看秒播厂| 国产精品精品国产色婷婷| 精品国产一区二区三区久久久樱花 | av视频免费观看在线观看| 天天躁日日操中文字幕| 久久久午夜欧美精品| 久久精品国产鲁丝片午夜精品| 噜噜噜噜噜久久久久久91| 国产av码专区亚洲av| 免费看av在线观看网站| 国产亚洲91精品色在线| 色综合色国产| 久久精品夜色国产| 99久久中文字幕三级久久日本| 久久av网站| 亚洲av免费高清在线观看| 国产一区二区三区av在线| 欧美97在线视频| 卡戴珊不雅视频在线播放| 亚洲av中文av极速乱| videos熟女内射| 在线观看美女被高潮喷水网站| 国产免费福利视频在线观看| 久久久久久久国产电影| 日韩强制内射视频| 人体艺术视频欧美日本| 日本黄色片子视频| 大片电影免费在线观看免费| 国产精品一区二区三区四区免费观看| 97精品久久久久久久久久精品| 高清日韩中文字幕在线| 欧美人与善性xxx| 国产淫片久久久久久久久| 国产精品秋霞免费鲁丝片| 91精品一卡2卡3卡4卡| 毛片女人毛片| 99热国产这里只有精品6| 国产精品国产av在线观看| 春色校园在线视频观看| 五月伊人婷婷丁香| 赤兔流量卡办理| 夜夜骑夜夜射夜夜干| 国产一区二区在线观看日韩| 国产午夜精品一二区理论片| 日本一二三区视频观看| 欧美bdsm另类| 赤兔流量卡办理| 日本一二三区视频观看| 黄片wwwwww| 久久毛片免费看一区二区三区| 春色校园在线视频观看| 黄片wwwwww| 亚洲精华国产精华液的使用体验| 国内精品宾馆在线| 搡女人真爽免费视频火全软件| 国产伦理片在线播放av一区| 男人爽女人下面视频在线观看| 菩萨蛮人人尽说江南好唐韦庄| 亚洲,欧美,日韩| 国产精品99久久99久久久不卡 | 精品国产乱码久久久久久小说| 国产又色又爽无遮挡免| 亚洲欧美清纯卡通| 26uuu在线亚洲综合色| 久久亚洲国产成人精品v| 国产精品嫩草影院av在线观看| 少妇被粗大猛烈的视频|