曹偉,韓華,王裕明,孫憲坤
跨攝像頭目標(biāo)再確認(rèn)是目前多攝像機(jī)智能監(jiān)控領(lǐng)域的一個(gè)重點(diǎn)研究方向[1],如何在不同的光照條件、不同的行人姿態(tài)以及不同尺度甚至遮擋等復(fù)雜環(huán)境下實(shí)現(xiàn)不同監(jiān)控?cái)z像頭下的同一目標(biāo)的再確認(rèn),是現(xiàn)在智能監(jiān)控領(lǐng)域研究的熱點(diǎn)。能否在復(fù)雜的環(huán)境中快速地匹配到同一目標(biāo)的關(guān)鍵點(diǎn)在于能否找到目標(biāo)在時(shí)間、空間上的不變特性以及選擇合適的匹配算法。
目前最先進(jìn)的算法對(duì)VIPeR(viewpoint invariant pedestrian recognition)數(shù)據(jù)庫(kù)的視頻目標(biāo)進(jìn)行再確認(rèn)的正確率為40%,處于比較低的水平[2]。根據(jù)上文所述,目標(biāo)再確認(rèn)主要的研究方法分為兩類:目標(biāo)外觀特征類和度量算法類。而目標(biāo)外觀特征類的研究又可以歸納為3類:1)依據(jù)目標(biāo)本身的整體特征進(jìn)行描述,如文獻(xiàn)[3-9]通過(guò)建立整體相關(guān)特征顏色直方圖進(jìn)行目標(biāo)再確認(rèn);2)基于目標(biāo)本身的局部特征進(jìn)行目標(biāo)匹配,如文獻(xiàn)[10-13]通過(guò)訓(xùn)練大量樣本得出的數(shù)據(jù)作為匹配函數(shù),依據(jù)目標(biāo)本身的顏色特征、紋理特征進(jìn)行目標(biāo)的再確認(rèn);3)通過(guò)整體和局部多特征融合來(lái)匹配目標(biāo),如文獻(xiàn)[14-18]通過(guò)人體本身的局部LBP(local binary patterns)特征、SIFT(scale-invariant feature transform)特征以及整體的顏色特征進(jìn)行描述,來(lái)完成目標(biāo)再確認(rèn)。度量算法類的研究方向相對(duì)特征類方法而言,對(duì)目標(biāo)外觀特征的要求較低,更多地依賴選擇和訓(xùn)練優(yōu)秀的度量函數(shù)。比如,ERSVM方法[19]采用基于相對(duì)距離排序的SVM分類器集成多個(gè)特征向量權(quán)重;文獻(xiàn)[20]采用多核SVM學(xué)習(xí)的方法融合顏色和視覺(jué)單詞直方圖;文獻(xiàn)[21]采用直方圖交叉核;文獻(xiàn)[22]采用夾角余弦法等相似度量函數(shù)進(jìn)行目標(biāo)匹配。
以上兩類方法在目標(biāo)再確認(rèn)過(guò)程中,度量算法類對(duì)特征的選擇要求較低,通常能取得更好的再確認(rèn)效果。但其訓(xùn)練的時(shí)間和空間復(fù)雜度較高,且場(chǎng)景和圖庫(kù)變化時(shí)需要重新訓(xùn)練。目標(biāo)外觀特征類方法則需要人為地尋找和設(shè)計(jì)較好的特征,該方法的性能依賴于特征的優(yōu)劣程度。本文受兩類方法優(yōu)點(diǎn)的啟發(fā),在特征類方法的思路下設(shè)計(jì)和構(gòu)造優(yōu)秀的特征;同時(shí)在度量算法類方法的思路下,引入物理學(xué)科中的熱擴(kuò)散原理作為度量函數(shù)[23],并最終建立基于優(yōu)化的擴(kuò)散距離的度量函數(shù)完成目標(biāo)再確認(rèn)。
基于上文所述,引入度量算法的基礎(chǔ)來(lái)源于擴(kuò)散距離。擴(kuò)散距離是物理學(xué)中用于描述熱力場(chǎng)中存在的一種擴(kuò)散現(xiàn)象的,國(guó)外學(xué)者Ling等[23]曾提出了一種非線性基于擴(kuò)散現(xiàn)象和距離判斷方式二者結(jié)合的擴(kuò)散距離,它是模擬熱擴(kuò)散和記錄隨機(jī)擴(kuò)散遍歷的時(shí)間計(jì)算兩點(diǎn)之間的距離。這使得擴(kuò)散距離具有可以很好地描述目標(biāo)間相似性的特性,同時(shí),傳統(tǒng)度量算法存在諸多缺點(diǎn),比如:對(duì)圖像形變比較敏感;缺少考慮像素間的空間關(guān)系;較小的形變就能使距離計(jì)算變化較大,從而產(chǎn)生誤匹配等,而擴(kuò)散距離的引入克服了以上不足?;跀U(kuò)散距離的眾多優(yōu)點(diǎn),因此本文引入擴(kuò)散距離,并對(duì)其進(jìn)行優(yōu)化,構(gòu)造出優(yōu)秀的相似性度量函數(shù),以完成對(duì)行人目標(biāo)的再確認(rèn)。
目標(biāo)再確認(rèn)過(guò)程中,描述每個(gè)目標(biāo)的外觀相當(dāng)于從目標(biāo)身上找到可辨識(shí)性的特征。在描述目標(biāo)特征時(shí),直方圖是目前應(yīng)用最廣泛的的外觀描述器。但是,大部分基于直方圖的方法,其不足之處是缺少特征分布的空間信息。比如,基于直方圖的方法不能分辨出一個(gè)穿著白色襯衫和黑色褲子的行人與另一個(gè)穿著黑色襯衫和白色褲子的行人是否是不同的。
因此,文中提出了一個(gè)新穎而簡(jiǎn)單的方法:基于兩級(jí)區(qū)域的直方圖提取方法。首先,提出的第一級(jí)區(qū)域?yàn)椋盒腥苏麄€(gè)身體區(qū)域(Hglobal)顏色直方圖;提出的二級(jí)區(qū)域?yàn)椋盒腥说纳习肷韰^(qū)域(Htor)和腿部區(qū)域(Hleg)如圖1所示。圖中(a)、(d)為一級(jí)區(qū)域身體直方圖,圖(b)、(e)為二級(jí)區(qū)域身軀直方圖,圖(c)、(f)為二級(jí)區(qū)域腿部直方圖。
圖1 兩級(jí)區(qū)域直方圖Fig. 1 Two levels of area histogram
圖1 (a)、(d) 一級(jí)所提取的Hglobal直方圖,(d)直方圖中的3個(gè)峰值在(a)直方圖中可以找到相似的對(duì)應(yīng),因此單純靠全局直方圖很難發(fā)現(xiàn)目標(biāo)是兩個(gè)不同的人;通過(guò)對(duì)圖1中的兩個(gè)原始圖像分別提取身軀段和腿部段的Htor和Hleg直方圖,對(duì)應(yīng)于二級(jí),如圖1左圖中的(b)、(c)和圖1右圖中的(e)、(f)所示,對(duì)比圖1(b)和圖1(e),可發(fā)現(xiàn)兩者身軀直方圖明顯不同,同時(shí)對(duì)比圖1(c)和圖1(f)也能發(fā)現(xiàn)兩者的腿部直方圖也是明顯不同的,可以通過(guò)局部直方圖的差異,發(fā)現(xiàn)兩目標(biāo)并不是同一個(gè)人。通過(guò)上述方法可以有效地提取顏色的空間信息,并區(qū)分出圖1兩個(gè)行人的不同。
人體目標(biāo)本身具有很多穩(wěn)定不變的特征,這些不變特征在應(yīng)對(duì)因光照變化或細(xì)微的肢體動(dòng)作變化時(shí)具有很好的魯棒性。因此,為了更好利用這些優(yōu)勢(shì)特征來(lái)克服由于光照變化或其他因素所帶來(lái)的干擾,本文在下文中會(huì)從整體特征和局部特征兩方面來(lái)介紹本文所提取的這些優(yōu)勢(shì)多特征,實(shí)驗(yàn)表明,使用這些多特征中的任何一類進(jìn)行匹配時(shí),識(shí)別率都不太理想,但結(jié)合下文中的多特征進(jìn)行目標(biāo)再確認(rèn)時(shí),可以很大程度上提高目標(biāo)的識(shí)別率。
整體特征使用基于一級(jí)區(qū)域(圖1中Level 1)的RGB顏色直方圖進(jìn)行粗識(shí)別。在提取RGB顏色直方圖時(shí),本文將R、G、B 這3個(gè)通道分別進(jìn)行量化。而量化過(guò)程中存在兩個(gè)極端問(wèn)題:粗量化會(huì)造成大量的可辯別性信息被放棄,細(xì)量化會(huì)生成稀疏直方圖。本文在3個(gè)通道使用相同的量化級(jí)數(shù)32bins。通過(guò)大量實(shí)驗(yàn)驗(yàn)證了本文所使用的32bins具有較好的可辨別性和準(zhǔn)確性。通過(guò)圖1可以很清楚地體現(xiàn)出來(lái)。
局部特征相對(duì)整體特征而言更加注重局部小范圍特征的不變性,采用更細(xì)膩的特征描述子或者具有較強(qiáng)魯棒性的特征來(lái)進(jìn)行匹配。觀察大部分行人目標(biāo)的Htor和Hleg特征發(fā)現(xiàn):最顯著的局部差異特征仍是顏色特征,實(shí)驗(yàn)過(guò)程中發(fā)現(xiàn)使用顏色特征應(yīng)對(duì)攝像機(jī)鏡頭旋轉(zhuǎn)變化所造成的差異具有很好的辨別性。所以在下文中的局部特征表述過(guò)程中,基于上文中二級(jí)區(qū)域Htor和Hleg的基礎(chǔ)上,為了使人體目標(biāo)取得更佳的匹配效果使用GrabCut[24]背景去除法,將干擾背景(頭部也當(dāng)作背景)進(jìn)行去除,同時(shí)將RGB顏色通道模型和加權(quán)HSV顏色通道模型作為主要的局部特征;而另一方面考慮到局部人體目標(biāo)的表象和形狀能夠被梯度或邊緣的方向密度分布很好地描述,方向梯度直方圖(histogram of oriented gradient,HOG)特征可以通過(guò)計(jì)算和統(tǒng)計(jì)圖像局部區(qū)域的梯度方向直方圖來(lái)構(gòu)成特征,并且能夠?qū)D像的幾何和光學(xué)形變都能保持很好的不變性,所以,將結(jié)構(gòu)性HOG描述子作為次要的局部特征。
1.2.1 局部RGB顏色特征
觀察數(shù)據(jù)庫(kù)中行人目標(biāo)發(fā)現(xiàn):去除頭部的影響后,由于目標(biāo)行人上身所穿的衣服和下身所穿的褲子在顏色上往往會(huì)表現(xiàn)出明顯的差異,所以本文在二級(jí)區(qū)域Htor和Hleg基礎(chǔ)上使用局部RGB顏色直方圖匹配。通過(guò)觀察圖2(b):掩膜背景圖(圖中干擾背景和頭部已經(jīng)去除)和測(cè)試樣本庫(kù)里的圖片(國(guó)際通用標(biāo)準(zhǔn)庫(kù)VIPeR中的樣本圖片大小:48×128)分析得到:頭部和身軀段的平均分界線在第20行,身軀段和腿部段的平均分界線在62行。為了減少背景對(duì)匹配結(jié)果的干擾,如圖2(c)所示,將身軀段去除左右邊界各4列,即使用整張圖像的第20~60行,第6~44列作為身軀段窗口;同時(shí),在腿部段部分去除最下面的8行,以及左右各14列,使用整張圖像的第66~122行,第14~36列,作為腿部段窗口。在量化過(guò)程中,同整體特征量化數(shù)相同,提取每個(gè)通道對(duì)其量化后的直方圖統(tǒng)計(jì)如圖2。
圖2中,分段處理和圖1中的兩級(jí)區(qū)域一致,將圖像中的人物按照不對(duì)稱原則分為頭部、身軀和腿部3個(gè)水平段,并將圖像中的人物的身軀和腿部按照對(duì)稱原則分為兩個(gè)垂直段,并且去掉權(quán)重比較小的頭部像素點(diǎn),得到的實(shí)際效果如圖2(c)所示。圖2(d)代表實(shí)驗(yàn)過(guò)程中所繪制的圖2(b)被去除頭部和背景干擾之后,身軀和腿部的R、G、B分量直方圖。其中,圖2(d)中的橫軸,0~31代表身軀段和腿部段上的R顏色通道統(tǒng)計(jì)直方圖(其中0~15代表身軀段,16~31代表腿部段);32~63代表身軀段和腿部段上的G顏色通道統(tǒng)計(jì)直方圖;64~95代表身軀段和腿部段上的B顏色通道統(tǒng)計(jì)直方圖。
圖2 局部RGB顏色直方圖Fig. 2 Local RGB color histogram
局部RGB顏色直方圖充分利用了空間分布信息,可以有效區(qū)分出上文所提到的上身下身穿衣顏色的不同。在局部特征描述方面的應(yīng)用中,可以較好地實(shí)現(xiàn)應(yīng)對(duì)圖像旋轉(zhuǎn)和平移的改變所帶來(lái)的影響,并且還可借助歸一化技術(shù),來(lái)達(dá)到不受圖像尺度的改變所帶來(lái)的影響,充分利用了局部顏色特征的優(yōu)勢(shì)。
1.2.2 加權(quán)HSV特征
根據(jù)人眼視覺(jué)特性, 顏色信息中HSV特征相比較RGB特征,在應(yīng)對(duì)光照變化方面,可以很大程度上忽略圖像亮度變化所帶來(lái)的影響;在二級(jí)區(qū)域中對(duì)HSV模型使用高斯分布的加權(quán)處理,可以在提取空間信息基礎(chǔ)上更好地對(duì)特征權(quán)重化處理,所以本文選擇HSV顏色模型作為局部特征之一來(lái)使用。
考慮到由于人體目標(biāo)特征分布比例的差異性,有些顯著特征在人體身上的某些部位所占比例很重,而有些特征則在人體身上的某些部位所占比例很小。通過(guò)觀察圖3(b)發(fā)現(xiàn):身軀和腿部中間部分的顏色特征比較明顯,對(duì)圖像匹配時(shí)的影響會(huì)比較重,所以相應(yīng)地給予較大的權(quán)重分配,越遠(yuǎn)離垂直坐標(biāo)的顏色特征對(duì)匹配性能的提高影響較小,甚至?xí)档推ヅ湫阅?,所以相?yīng)地給予遠(yuǎn)離垂直坐標(biāo)的點(diǎn)以較小的權(quán)重分配。根據(jù)人體不同部位所對(duì)應(yīng)的分段坐標(biāo)對(duì)HSV直方圖進(jìn)行高斯分布的加權(quán)[16]處理。
圖3 人體加權(quán)HSV處理圖Fig. 3 Body weighted HSV processing figure
如圖3所示,為了更形象地表現(xiàn)人體身上特征權(quán)重的分布,文中提取人體不同位置對(duì)應(yīng)的高斯分布圖譜3(b)和三維空間中的核能量圖譜3(c)??紤]到光照的影響會(huì)對(duì)匹配精度造成很大的影響,因而為了抑制光照變化,將HSV中的亮度值(V)分配較小區(qū)間段。文中的H、S、V通道分別分成16、16、4段,進(jìn)而得到一個(gè)加權(quán)的108段(其中0~31段為頭部段,已被忽略計(jì)算;32~71段為身軀段;72~107為腿部段)HSV直方圖,其相應(yīng)的實(shí)驗(yàn)效果如圖3(d)。
1.2.3 HOG特征
HOG是目標(biāo)檢測(cè)常用的特征描述子。目標(biāo)局部的表象和形狀能夠被梯度或邊緣的方向的密度分布很好地描述[24]。具體的實(shí)現(xiàn)方法是:首先將圖像分成小的連通區(qū)域,我們把它叫細(xì)胞單元[25]。然后采集細(xì)胞單元中各像素點(diǎn)梯度或邊緣的方向直方圖。最后把這些直方圖組合起來(lái)就可以構(gòu)成特征描述器。為了提高性能,還可以把這些局部直方圖在圖像的更大的范圍內(nèi)(也可稱為區(qū)間或block)進(jìn)行對(duì)比度歸一化,所采用的方法是:先計(jì)算各直方圖在這個(gè)區(qū)間(block)中的密度,然后根據(jù)這個(gè)密度對(duì)區(qū)間中的各個(gè)細(xì)胞單元做歸一化。本文在實(shí)際操作中使用的參數(shù)為:窗口大小統(tǒng)一為48×128,block塊大小為16×16,每個(gè)block劃分為4個(gè)cell,并且block每次滑動(dòng)8個(gè)像素(即一個(gè)cell的寬),以及梯度方向劃分為9個(gè)區(qū)間,最后在0~360o范圍內(nèi)統(tǒng)計(jì),將cell的梯度方向360o分成9個(gè)方向塊,也就是每360o/9=40o分到一個(gè)方向,方向大小按像素邊緣強(qiáng)度加權(quán),對(duì)cell內(nèi)每個(gè)像素用梯度方向在直方圖中進(jìn)行加權(quán)投影(映射到固定的角度范圍),其相應(yīng)的實(shí)驗(yàn)效果如圖4(c)所示。實(shí)驗(yàn)過(guò)程中,根據(jù)上文相應(yīng)參數(shù)對(duì)圖4(a)進(jìn)行HOG特征提取,提取過(guò)程中的實(shí)驗(yàn)效果如圖4所示。
從圖中可以清晰的看出:本文將cell的梯度方向以40o為一個(gè)單位,分成一個(gè)方向;圖4(d)代表實(shí)驗(yàn)過(guò)程中提取的歸一化后HOG 3維特征曲面圖。由于HOG方法是在圖像的局部細(xì)胞單元上操作的,所以它對(duì)圖像幾何和光學(xué)的形變能夠保持很好的不變性,歸一化后能對(duì)光照變化和陰影獲得更好的效果。它的優(yōu)點(diǎn)不僅包括對(duì)圖像幾何和光學(xué)形變方面能保持良好的不變性,還包括歸一化后允許行人有細(xì)微的肢體動(dòng)作,且不影響檢測(cè)效果,多特征融合HOG特征描述可以很好地提高匹配率。
圖4 HOG特征描述子實(shí)驗(yàn)效果圖Fig. 4 HOG feature descriptor experimental result
在相似性度量函數(shù)的建立方面,傳統(tǒng)度量算法大多基于歐氏距離或者余弦距離等進(jìn)行優(yōu)化。然而,歐式距離和余弦距離本身存在諸多缺點(diǎn),比如:歐式距離不能從高維特征向量恢復(fù)到具有低維的幾何機(jī)構(gòu),對(duì)圖像的形變比較敏感和缺少像素間的空間關(guān)系;余弦距離存在位置判定上差異性太大以及對(duì)數(shù)值的不敏感導(dǎo)致結(jié)果的眾多誤差等缺點(diǎn)??紤]到傳統(tǒng)相似性度量算法的不足,本文引進(jìn)物理學(xué)溫度場(chǎng)擴(kuò)散距離[26]的概念來(lái)建立相似性度量函數(shù)。擴(kuò)散距離的本質(zhì)來(lái)源于物理學(xué)中的溫度場(chǎng),它不同于歐式距離中的距離長(zhǎng)短決定相似度大小的標(biāo)準(zhǔn)。擴(kuò)散距離中的相似度取決于溫度擴(kuò)散路徑的多少以及熱擴(kuò)散的快慢。本文所使用的基于優(yōu)化擴(kuò)散距離相似性度量函數(shù)用于衡量個(gè)體在空間上存在的距離,距離越遠(yuǎn),說(shuō)明個(gè)體間的差異越大,反之,差異越小。優(yōu)化擴(kuò)散距離在一定程度上彌補(bǔ)了歐式和余弦距離的不足的同時(shí),在匹配性能上顯示了較優(yōu)的表現(xiàn)[26]。其原理如下:
由于一維擴(kuò)散距離的應(yīng)用沒(méi)有多大實(shí)際意義,所以推廣到高維且引入高斯金字塔對(duì)擴(kuò)散距離進(jìn)行優(yōu)化,進(jìn)一步提高了相似性度量函數(shù)的計(jì)算效率。
從式(6)可以看出,dl中的向下采樣操作在運(yùn)算量上呈指數(shù)減少,同時(shí)使用采樣值的2/3,又能夠最大限度保留樣本值的信息;其次,高斯濾波卷積操作是線性運(yùn)算,在計(jì)算效率上明顯有優(yōu)勢(shì)。但是,優(yōu)化后的擴(kuò)散距離雖然在計(jì)算效率上提高不少,但是由式(4)和(5)可以知道,優(yōu)化擴(kuò)散距離在表示空間向量直方圖和之間的累積差時(shí),缺少對(duì)內(nèi)部單個(gè)元素之間差異的表示。雖然使用式(8)可以直接應(yīng)用到相似距離度量中,但其忽略了空間向量對(duì)應(yīng)元素之間的相似性的影響,因而其精確度會(huì)存在誤差。由于不同中的每個(gè)元素代表不同的特征屬性,比如wHSV(weighted HSV, 加權(quán)HSV)直方圖中的第z個(gè)元素代表第z個(gè)區(qū)域內(nèi)的像素點(diǎn)的總個(gè)數(shù)或者代表圖像中的顏色值為z。所以,進(jìn)行相似性距離度量時(shí),既要考慮累積差異的影響,也要考慮對(duì)應(yīng)元素間相似性的影響。假設(shè):降采樣,相應(yīng)的,無(wú)法區(qū)分哪兩個(gè)直方圖更相似。通過(guò)觀察、和發(fā)現(xiàn),相比擁有更多相同或者相近的元素個(gè)數(shù)。從直觀上,只能定性的認(rèn)為與應(yīng)該比與更相似。
通過(guò)以上分析,在計(jì)算空間向量直方圖之間距離時(shí),不應(yīng)該將內(nèi)部元素歸置一樣的權(quán)值,而應(yīng)該對(duì)那些元素值間對(duì)應(yīng)相同或者相近的給予更大的權(quán)值。所以,本文在優(yōu)化擴(kuò)散距離基礎(chǔ)上進(jìn)行二次優(yōu)化,提出加權(quán)式擴(kuò)散距離,相應(yīng)表達(dá)式為
首先,將式(5)改寫成
式中:1i和2i分別代表直方圖1中第i個(gè)元素和直方圖2中第i個(gè)元素,;式(5)和(9)代表類似的含義,即兩個(gè)直方圖差異的距離等同于兩個(gè)直方圖中每一個(gè)對(duì)應(yīng)元素差異的累積。那么計(jì)算時(shí)使用的公式即為式(9)。
其次,將式(9)改寫成
圖5顯示了不同時(shí)間段擴(kuò)散距離的狀態(tài)。圖5(a)中顯示同一個(gè)人在不同視角下的直方圖差異的擴(kuò)散過(guò)程;圖5(b)中顯示不同的人在不同視角下的直方圖差異的擴(kuò)散過(guò)程。通過(guò)兩幅圖的對(duì)比我們可以看到,(a)圖相比(b)圖衰減更快,即同類人直方圖的擴(kuò)散距離小于不同類人的。
圖5 擴(kuò)散距離匹配過(guò)程Fig. 5 Diffusion distance matching process
單獨(dú)使用上述3種特征描述中任何一種所建立的相似性度量函數(shù)都不能達(dá)到較好的匹配效果,所以本文使用多特征融合進(jìn)而建立起的相似性度量函數(shù)進(jìn)行目標(biāo)再確認(rèn),對(duì)上述3種特征提取相應(yīng)特征直方圖,然后分別計(jì)算相應(yīng)的優(yōu)化擴(kuò)散距離,為防止由于不同特征算出的擴(kuò)散距離有較大差異而影響目標(biāo)再確認(rèn)結(jié)果,對(duì)每類特征描述計(jì)算所得到的擴(kuò)散距離都做歸一化處理。
目標(biāo)再確認(rèn)中,通常會(huì)有兩組圖像數(shù)據(jù):待識(shí)別目標(biāo)IA和候選目標(biāo)IB。本文利用兩組圖像數(shù)據(jù)庫(kù),對(duì)上述3類特征得到的擴(kuò)散距離都做相應(yīng)的歸一化處理之后,使用式(8)結(jié)合式(10)來(lái)計(jì)算不同圖像庫(kù)IA和IB中的圖像之間的匹配距離。
式中:g代表一級(jí)區(qū)域;lca代表二級(jí)區(qū)域;α、β、λ、μ分別代表不同特征直方圖的權(quán)重,。本文對(duì)于粗識(shí)別過(guò)程中的整體RGB特征直方圖分配經(jīng)驗(yàn)值為α=0.2影響因素較大的局部RGB直方圖給予較大的權(quán)值,選擇目前最佳的經(jīng)驗(yàn)值β=0.4;對(duì)于影響因素較弱的加權(quán)HSV直方圖給予目前最佳的經(jīng)驗(yàn)值λ=0.3;對(duì)于影響因素最小的局部HOG直方圖給予相對(duì)較弱的經(jīng)驗(yàn)值μ=0.1。總的評(píng)價(jià)準(zhǔn)則函數(shù)即總的相似性度量函數(shù)為式(11) 。
上文所述理論相比傳統(tǒng)再確認(rèn)算法在特征選擇和度量算法上都進(jìn)行了優(yōu)化,同時(shí),本文進(jìn)行多組實(shí)驗(yàn)驗(yàn)證了本文所提出優(yōu)化算法的可行性,下文會(huì)分別從實(shí)驗(yàn)運(yùn)行效果和實(shí)驗(yàn)數(shù)據(jù)統(tǒng)計(jì)來(lái)闡述本文的有效性。
從實(shí)驗(yàn)運(yùn)行結(jié)果來(lái)看應(yīng)用本文原理編程實(shí)現(xiàn)的匹配成功率較為理想,能夠很好地實(shí)現(xiàn)目標(biāo)再確認(rèn)的功能,如圖6(a)、圖7所示。下面顯示的效果圖中圖6(a)和圖7是目標(biāo)再確認(rèn)中顯示正確的效果圖,圖6(a)圖顯示了實(shí)驗(yàn)過(guò)程中成功再確認(rèn)的案列,而圖7是實(shí)驗(yàn)完成后所有再確認(rèn)成功的部分匯總。盡管本文算法可以很好地實(shí)現(xiàn)目標(biāo)再確認(rèn),但是,仍存在少數(shù)失敗的案列,比如圖6(b)所示。
圖6 匹配效果圖Fig. 6 Matching figures
圖7 目標(biāo)再確認(rèn)成功對(duì)顯示圖Fig. 7 Target to reconfirm success of figure
圖6 (a)是實(shí)驗(yàn)中匹配正確的效果圖,從圖中可以看出兩個(gè)攝像頭中所呈現(xiàn)的目標(biāo)的顏色特征有很大相似性,在圖6(a)中行人身上的局部顏色特征,如上身身軀和下身身軀的顏色差異性很明顯,其他特征的干擾比較小,因而在特征表達(dá)更具體,更有辨別性。所以在算法中可以比較容易地將目標(biāo)進(jìn)行再確認(rèn)。相比之下,圖6(b)中兩個(gè)行人在進(jìn)行軀體分割,特征提取等過(guò)程后,由于用于提取特征而分割出來(lái)的部分特征較為接近(左右兩圖上身衣服和下身褲子的顏色分別比較接近),因而導(dǎo)致出現(xiàn)了錯(cuò)誤的再確認(rèn)結(jié)果。
本文通過(guò)隨機(jī)選取圖片庫(kù)中45對(duì)圖片進(jìn)行目標(biāo)再確認(rèn)實(shí)驗(yàn),將部分匹配成功對(duì)在MATLAB畫布中顯示在一起(圖7),可以更加直觀地看出本文的算法達(dá)到了良好的再確認(rèn)效果。具體性能指標(biāo)可以通過(guò)下文中實(shí)驗(yàn)數(shù)據(jù)統(tǒng)計(jì)評(píng)估結(jié)果進(jìn)行說(shuō)明。
評(píng)價(jià)目標(biāo)再確認(rèn)的性能是否優(yōu)良并沒(méi)有統(tǒng)一的標(biāo)準(zhǔn),但目前在評(píng)估行人再確認(rèn)性能方面主要采用的是累積匹配特性曲線CMC[27](cumulative match characteristic)。CMC曲線反映的是在目標(biāo)圖庫(kù)前n個(gè)最相似候選目標(biāo)內(nèi)找到正確匹配圖片的概率[27]。實(shí)驗(yàn)中隨機(jī)抽取50對(duì)行人目標(biāo)進(jìn)行測(cè)試,實(shí)驗(yàn)的總次數(shù)是5次。最后給出平均CMC曲線(橫坐標(biāo)為排名,縱坐標(biāo)為識(shí)別率)。假設(shè)曲線上有一點(diǎn)(m,n),代表排名前m個(gè)的匹配目標(biāo)中能夠命中的概論是n,當(dāng)然其中的m可以理解成所有匹配數(shù)目中具有最大相似度的前m個(gè)目標(biāo),n自然是這m個(gè)目標(biāo)中包含正確匹配結(jié)果的比率)[27],實(shí)驗(yàn)運(yùn)行第1次和5次實(shí)驗(yàn)運(yùn)行之后生成CMC平均曲線效果圖如圖8中的(a)和(b)圖所示。
圖8(a)圖中顯示的是第1次實(shí)驗(yàn)完成后生成的CMC性能曲線,其中圖中的橫軸代表排名等級(jí),豎軸是識(shí)別率,從曲線上可以看出第1次實(shí)驗(yàn)至少前20位匹配的效率才能達(dá)到100%,此處的識(shí)別率也代表:達(dá)到最高效率所需要匹配的數(shù)量越少,說(shuō)明該算法越好。圖8(b)圖中顯示的5次實(shí)驗(yàn)完成后生成的平均CMC性能曲線,從曲線上可以看出5次實(shí)驗(yàn)完成后求平均值生成的CMC曲線圖中顯示,至少前19位匹配的效率才能達(dá)到100%,當(dāng)然這里達(dá)到最高效率所需要匹配數(shù)量越少,也說(shuō)明該算法越好。圖中第一次實(shí)驗(yàn)獲得了44%的匹配率,5次平均實(shí)驗(yàn)后獲得的匹配率為46%,相比現(xiàn)有提出的參考算法,本文算法的匹配率是比較理想的。
圖8 基于VIPeR數(shù)據(jù)集的CMC性能曲線Fig. 8 CMC performance curve based on the data set of VIPeR
4.3.1 基于VIPeR數(shù)據(jù)庫(kù)實(shí)驗(yàn)結(jié)果
本文在實(shí)現(xiàn)基于優(yōu)化擴(kuò)散距離算法的基礎(chǔ)上使用多特征融合的方式進(jìn)行目標(biāo)再確認(rèn),實(shí)驗(yàn)過(guò)程中,本文為了突出多特征組合的優(yōu)勢(shì),相應(yīng)的做了多組實(shí)驗(yàn):?jiǎn)我惶卣骱投嗵卣髟谕瑯泳嚯x度量算法的軟硬件環(huán)境下進(jìn)行了識(shí)別率對(duì)比,其相應(yīng)實(shí)驗(yàn)效果如圖9(a)所示;同時(shí)將本文算法和傳統(tǒng)的目標(biāo)再確認(rèn)的其他優(yōu)秀算法(夾角余弦度量算法和直方圖交叉核度量算法)進(jìn)行了性能方面上的對(duì)比,其相應(yīng)實(shí)驗(yàn)效果圖如圖9(b)所示。如圖9(a)所示,通過(guò)CMC曲線圖可以看出,使用本文中的多特征來(lái)識(shí)別時(shí)匹配率更高。從圖中統(tǒng)計(jì)出Rank=1, 3, 6, 8,10排名時(shí)所對(duì)應(yīng)單一特征和多特征組合的識(shí)別率,可以從數(shù)據(jù)中觀察出,本文中使用多特征組合所得識(shí)別率為46.2%;僅使用RGB特征所得識(shí)別率為28.2%;僅使用HSV特征所得識(shí)別率為27.5%;僅使用HOG特征所得識(shí)別率為4.5%;無(wú)論在哪個(gè)排名階段,總體上,本文使用的多特征組合相對(duì)使用單一特征來(lái)進(jìn)行識(shí)別時(shí),多特征組合的識(shí)別率更高,更有優(yōu)勢(shì)。
圖9 VIPeR圖庫(kù)性能對(duì)比圖Fig. 9 The performance contrast figure based on the VIPeR
如圖9(b)所示,通過(guò)3種算法的CMC曲線對(duì)比圖可以很明確地看出,本文算法在相同條件下識(shí)別率更高。從圖中統(tǒng)計(jì)出Rank=1, 3, 6, 8, 10排名時(shí)所對(duì)應(yīng)不同算法的識(shí)別率,可以從數(shù)據(jù)中觀察出,本文的識(shí)別率已經(jīng)達(dá)到了50.5%,而其他優(yōu)秀算法中的直方圖交叉核和夾角余弦算法的識(shí)別率分別為47.3%和22.5%;無(wú)論在哪個(gè)排名階段,總體上,優(yōu)化擴(kuò)散距離算法相比其他兩種優(yōu)秀算法在識(shí)別率方面都比較高。
為了體現(xiàn)本文算法在識(shí)別率上的優(yōu)勢(shì),實(shí)驗(yàn)中,同時(shí)進(jìn)行了不同優(yōu)秀算法和本文算法的性能對(duì)比,對(duì)應(yīng)性能表如下表1所示。
表1 本文算法與其他特征類算法的性能比較Table 1 Comparison between the proposed algorithm and other feature-class algorithms
通過(guò)表1特征類算法的對(duì)比:SDALF (symmetry-driven accumulation of local features)方法在提取前景后分割人體目標(biāo)為頭部、軀干和腿部3部分的基礎(chǔ)上進(jìn)行wHSV、最大穩(wěn)定顏色區(qū)域和重復(fù)紋理塊組合識(shí)別,最后使用歐式距離進(jìn)行測(cè)距,實(shí)驗(yàn)中的匹配率達(dá)到了19.77%,這個(gè)應(yīng)用廣泛的算法的優(yōu)勢(shì)在于較好特征的建立,但是在距離度量上還是使用傳統(tǒng)的歐式距離,相比而言,本文在距離度量上的優(yōu)勢(shì)是顯而易見(jiàn)的;CPS(custom pictorial structures)方法的優(yōu)勢(shì)在于能夠根據(jù)人體結(jié)構(gòu)檢測(cè)出人體的各個(gè)部位進(jìn)行識(shí)別,能夠更好地提取前景特征,匹配率達(dá)到了20.32%;eLDFV(encoded local descriptors fisher vectors)方法結(jié)合SDALF使用Fisher向量編碼圖像的亮度和梯度信息,匹配率達(dá)到了21.42%,但是對(duì)于度量算法仍然需要改進(jìn);SCEFA(structural constraints enhanced feature accumulation)方法雖然使用基于Gabor紋理模式的關(guān)鍵點(diǎn)檢測(cè)和雙向匹配顏色區(qū)域特征的方法,匹配率達(dá)到了25.36%,其多特征的構(gòu)建是最大的優(yōu)點(diǎn);eSDC(effectiveness salience and dense correspondence)方法也是結(jié)合SDALF以及非監(jiān)督的學(xué)習(xí)方式去尋找個(gè)體更好的特征,匹配率達(dá)到了很高的26.77%,但是欠缺考慮距離度量算法的改進(jìn);特征類中的HSCD(hybrid spatiogram and covariance descriptor)方法結(jié)合了空間直方圖和區(qū)域協(xié)方差兩種優(yōu)秀的統(tǒng)計(jì)描述,并且從多個(gè)層次的統(tǒng)計(jì)區(qū)域提取多類互補(bǔ)性較好的統(tǒng)計(jì)向量,這個(gè)方法和同類相比是最好的,得到了29.32%的識(shí)別率。通過(guò)表2所展現(xiàn)的度量算法來(lái)看:ELF(ensemble of localized features)方法雖然AdaBoost分類器選取顏色和紋理特征,這種方法充分利用了分類器的選優(yōu)特性,識(shí)別率僅僅為11.36%;ERSVM(Ensemble RankSVM)方法和PRDC(relative distance comparison)相類似,利用相對(duì)距離排序的SVM分類器集成多個(gè)特征向量權(quán)重,此方法在度量算法方面優(yōu)勢(shì)很明顯,但是在特征方面仍需要改進(jìn);LMNN-R(large margin nearest neighbor with rejection)方法也使用相對(duì)距離比較的PRDC方法,使用了大邊近鄰分類器,在特征設(shè)計(jì)方面同樣需要改進(jìn)。
度量算法類中,性能表現(xiàn)最好的是HI(histogram intersection),直方圖交叉核,該算法是一種基于隱式對(duì)應(yīng)關(guān)系的內(nèi)核函數(shù),解決了無(wú)序、可變長(zhǎng)度的矢量集合的判別分類的問(wèn)題,而且是正定的,由于該算法的優(yōu)勢(shì),應(yīng)用到目標(biāo)再確認(rèn)領(lǐng)域,匹配率高達(dá)47.38%,因此,通過(guò)上文所述,同等條件下,度量算法類相比特征類在匹配率方面具有一定的優(yōu)勢(shì)。而查看表格,本文算法無(wú)論在特征類還是距離度量類對(duì)比中,其50.5%的匹配率仍然具有一定的優(yōu)勢(shì)。通過(guò)以上優(yōu)秀算法和本文算法在數(shù)據(jù)上對(duì)比可以看出,本文在基于VIPeR圖像庫(kù)的基礎(chǔ)上,識(shí)別率方面性能相對(duì)比較好,這是因?yàn)楸疚奶卣髟O(shè)計(jì)上的優(yōu)勢(shì)和優(yōu)秀度量算法引入的原因。
表2 本文算法與其他距離度量類算法的性能比較Table 2 Comparison between the proposed algorithm and other distance metric-class algorithms
4.3.2 基于ETHZ數(shù)據(jù)庫(kù)實(shí)驗(yàn)結(jié)果
ETHZ數(shù)據(jù)庫(kù)是從運(yùn)動(dòng)的攝像機(jī)中獲取的圖像,ETHZ1包含83個(gè)目標(biāo)的4 857幅圖像;ETHZ2包含35個(gè)目標(biāo)的1 936幅圖像;ETHZ3包含28個(gè)行人的1 762幅圖像。本文使用這類數(shù)據(jù)庫(kù)作為測(cè)試樣本庫(kù),用來(lái)驗(yàn)證本文算法和余弦、直方圖正交算法的性能對(duì)比。在數(shù)據(jù)庫(kù)中,光照的改變和行人的遮擋相對(duì)嚴(yán)重,人體姿態(tài)方面變化比較小。根據(jù)獲得的目標(biāo)的幀數(shù),可以將目標(biāo)再確認(rèn)分為以下3類:
1) 單幀對(duì)單幀(single vs single, SvsS)
2) 多幀對(duì)單幀(multiple vs single, MvsS)
3) 多幀對(duì)多幀(multiple vs multiple, MvsM)
本文分別測(cè)試了SvsS、MvsS、MvsM模式下的不同算法的目標(biāo)再確認(rèn)的性能,相應(yīng)的CMC曲線圖如圖10所示。
在圖10中,(a)、(d)分別代表ETHZ1數(shù)據(jù)集下MvsS和MvsM的性能表現(xiàn);(b)、(e)分別代表ETHZ2數(shù)據(jù)集下MvsS和MvsM的性能表現(xiàn);(c)、(f)分別代表ETHZ3數(shù)據(jù)集下MvsS和MvsM的性能表現(xiàn)。通過(guò)測(cè)試ETHZ數(shù)據(jù)庫(kù)中的實(shí)驗(yàn)圖像可以發(fā)現(xiàn),在不同ETHZ集下,本文算法在匹配精度方面,一直保持領(lǐng)先。ETHZ1中,在MvsS和MvsM幀下,本文算法在Rank=1時(shí)都達(dá)到了87%左右;ETHZ2中,在MvsS和MvsM幀下,本文算法在Rank=1時(shí)分別達(dá)到了87.5%和93%左右;ETHZ3中,在MvsS和MvsM幀下,本文算法在Rank=1時(shí)分別達(dá)到了94%和96%左右。相比余弦算法和直方圖正交算法,本文算法能夠得到更好的表現(xiàn),其原因在于:由于多特征的使用,可以應(yīng)對(duì)攝像機(jī)鏡頭的不同、遮擋所造成的差異;更重要的是在距離匹配過(guò)程中所應(yīng)用的優(yōu)化擴(kuò)散距離,可以有效應(yīng)對(duì)光亮、陰影等造成的差異,并且利用直方圖的空間信息更加精確其對(duì)應(yīng)距離,從而準(zhǔn)確的進(jìn)行目標(biāo)再確認(rèn)。這也是本文適合更多場(chǎng)景且無(wú)需監(jiān)督的原因,通過(guò)在ETHZ數(shù)據(jù)集上的表現(xiàn),可以看出本文算法的性能還是不錯(cuò)的,觀察匹配出的效果圖發(fā)現(xiàn),本文所提出算法在應(yīng)對(duì)姿態(tài)、視角、和光照變化等方面具有較好的魯棒性。
圖10 基于ETHZ數(shù)據(jù)集下的多幀實(shí)驗(yàn)Fig. 10 The performance contrast figure based on the ETHZ
通過(guò)上文中的理論分析和實(shí)驗(yàn)驗(yàn)證,本文最大的創(chuàng)新點(diǎn)在于引入物理學(xué)溫度場(chǎng)的擴(kuò)散距離的概念并進(jìn)行優(yōu)化,來(lái)建立相似性度量函數(shù)。并為了提高優(yōu)化擴(kuò)散距離的計(jì)算效率,進(jìn)行了二次加權(quán)性優(yōu)化,進(jìn)而提高了計(jì)算的準(zhǔn)確性。特征提取方面,定義了兩級(jí)區(qū)域直方圖提取方案,這種簡(jiǎn)易而有效的方法可以在特征基礎(chǔ)上實(shí)現(xiàn)空間信息的添加,從而提高了識(shí)別率。在兩級(jí)區(qū)域方案基礎(chǔ)上,通過(guò)高斯加權(quán)HSV直方圖,整體、局部RGB直方圖,以及HOG特征描述子3類特征的綜合使用,并輔以適當(dāng)?shù)募訖?quán)處理,較好地實(shí)現(xiàn)了行人目標(biāo)再確認(rèn)。最后,本文優(yōu)化算法與同類別的其他優(yōu)秀算法以及傳統(tǒng)目標(biāo)再確認(rèn)過(guò)程中所使用的有監(jiān)督的訓(xùn)練學(xué)習(xí)型度量算法進(jìn)行了對(duì)比。相比其他算法,本文的優(yōu)點(diǎn)是:目標(biāo)再確認(rèn)準(zhǔn)確率明顯提高,同時(shí)不需要大量的訓(xùn)練樣本、節(jié)省了訓(xùn)練時(shí)間、可以適應(yīng)大部分的場(chǎng)景變化、節(jié)省內(nèi)存開(kāi)支等,在一定程度上體現(xiàn)了本文算法的優(yōu)越性。但本文仍然還有許多需要改進(jìn)的地方,比如如何在更加復(fù)雜的環(huán)境中可以更高效率的進(jìn)行目標(biāo)再確認(rèn),這也是本文下一步研究的重點(diǎn)。
[1]ZHAO R, OYANG W, WANG X. Person re-identification by saliency learning[J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(2): 356–370.
[2]JIA J, RUAN Q, JIN Y. Geometric preserving local fisher discriminant analysis for person re-identification[J]. Neurocomputing, 2016, 205: 92–105.
[3]UKITA N, MORIGUCHI Y, HAGITA N. People re-identification across non-overlapping cameras using group features[J]. Computer vision and image understanding, 2016,144(C): 228–236.
[4]MARTINEL N, MICHELONI C. Re-identify people in wide area camera network[C]//2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. RI, USA, 2012: 31–36.
[5]HUA J I, PAN M L. Person re-identification based on global color context[C]//ACCV'10 Proceedings of the 2010 international conference on Computer vision. Queenstown,New Zealand, 2010, 6468(I): 205–215.
[6]ZHAO T, NEVATIA R. Tracking multiple humans in complex situations[J]. IEEE transactions on pattern analysis and machine intelligence, 2004, 26(9): 1208–1221.
[7]LI P, WU H, CHEN Q. Person re-identification using color enhancing feature[C]//2015 3rd IAPR Asian Conference on Pattern Recognition. Kuala Lumpur, Malaysia, 2015: 86–90.
[8]李金, 胡文廣. 基于顏色的快速人體跟蹤及遮擋處理[J].智能系統(tǒng)學(xué)報(bào), 2010, 5(4): 353–359.LI Jin, HU Wenguang. Tracking fast movement using colors while accommodating occlusion[J]. CAAI transactions on intelligent systems, 2010, 5(4): 353–359.
[9]劉宇, 向高林, 王伊冰. 一種改進(jìn)的行人導(dǎo)航算法研究[J].重慶郵電大學(xué)學(xué)報(bào):自然科學(xué)版, 2016, 28(2): 233–238.LIU Yu, XIANG Gaolin, WANG Yibing. An improved pedestrian navigation algorithm[J]. Journal of Chongqing university of posts and telecommunication: natural science edition, 2016, 28(2): 233–238.
[10]HU Y, LIAO S, LEI Z. Exploring structural information and fusing multiple features for person re-identification[C]//2013 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Portland, USA, 2013:794–799.
[11]LIU P, GUO J M, CHAMNONGTHAI K, et al. Fusion of color histogram and lbp-based features for texture image retrieval and classification[J]. Information sciences, 2017,1(390): 95–111.
[12]CHANG C, LIN C. LIBSVM: a library for support vector machines[J]. Journal ACM transactions on intelligent systems and technology, 2011, 2(3): 389–396.
[13]CAI Y, CHEN W, HUANG K, TAN T. Continuously tracking objects across multiple widely separated cameras[C]//ACCV'07 Proceedings of the 8th Asian conference on Computer vision. Tokyo, Japan, 2012(I):843–852.
[14]PATHYA B, NAINAN S. Performance evaluation of face recognition using LBP, PCA and SVM[J]. International journal of advanced trends in computer science and engineering, 2016, 3(4): 85–88.
[15]王彩玲, 詹松, 荊曉遠(yuǎn). 基于圖像顯著特征的非重疊視域行人再識(shí)別[J]. 南京郵電大學(xué)學(xué)報(bào): 自然科學(xué)版, 2016,36(3): 106–111.WANG Cailing, ZHAN Song, JING Xiaoyuan. Pedestrian re-identification based on salient features in non-overlapping areas[J]. Journal of Nanjing university of posts and telecommunications: natural science edition, 2016, 36(3):106–111.
[16]FARENZENA M, BAZZANI L. Person re-identification by symmetry-driven accumulation of local features[C]//2010 IEEE Conference on Computer Vision and Pattern Recognition. San Francisco, CA, USA, 2010: 2360–2367.
[17]彭程, 劉帥師, 萬(wàn)川, 等. 基于局部紋理ASM模型的人臉表情識(shí)別[J]. 智能系統(tǒng)學(xué)報(bào), 2011, 6(3): 231–238.PENG Cheng, LIU Shuaishi, WAN Chuan, et al. An active shape model for facial expression recognition based on a local texture model[J]. CAAI transactions on intelligent systems, 2011, 6(3): 231–238.
[18]FENG X, PIETIKAINEN M, HADID A. Facial expression recognition with local binary patterns and linear programming[J]. Pattern recognition and image analysis, 2005,15(2): 550–552.
[19]PROSSER B, ZHENG W S, GONG S. Person re-identification by support vector ranking[C]//BMVC2010 British Machine Vision Conference. Aberystwyth, UK, 2010(42):1–11.
[20]FANG C. People re-identification based on online multiple kernel learning in video surveillance[J]. Opto-electronic engineering, 2012, 39(9): 65–71.
[21]PANG Y, XIN-CHU S: Multiway histogram intersection for multi-target tracking[C]//2015 18th International Conference on Information Fusion. Washington, DC, USA,2015: 1938–1945.
[22]YIN J, ZHOU J, JIN Z. Principal component analysis and kernel principal component analysis based on cosine angle distance[J]. Computer engineering and applications, 2011,47(3): 9–12.
[23]HAIBIN L, OKADA K. Diffusion distance for histogram comparison[C]//Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC, USA, 2006, 1(1): 246–253.
[24]ROTHER C, KOLMOGOROV V, BLAKE A. “GrabCut”:interactive foreground extraction using iterated graph cuts[J]. ACM transactions on graphics, 2004, 23(3):307–312.
[25]QING-JUN W, RU-BO Z. LPP-HOG: a new local image descriptor for fast human detection[C]//2008 IEEE International Symposium on Knowledge Acquisition and Modeling Workshop. Wuhan, China, 2008: 640–643.
[26]JUN Y. HOCK-SOON S: fuzzy diffusion distance learning for cartoon similarity estimation[J]. Journal of computer science and technology: English edition, 2011, 26(2):203–216.
[27]MAZZON R, TAHIR S F, CAVALLARO A. Person reidentification in crowd[J]. Pattern recognition letters, 2012,33(14): 1828–1837.
[28]CHENG D S, CRISTANI M, STOPPA M. Custom pictorial structures for re-identification[C]//BMVC2010 British Machine Vision Conference. Dundee, UK, 2011, (68):1–11.
[29]MA B, SU Y, JURIE F. Local descriptors encoded by fisher vectors for person re-identification[C]//12th European Conference on Computer Vision Workshops. Florence,Italy, 2012, 7583: 413–422.
[30]ZHAO R, OUYANG W, WANG X. Unsupervised salience learning for person re-identification[C]//2013 IEEE Conference on Computer Vision and Pattern Recognition.Portland, USA, 2013, 9(4): 3586–3593.
[31]ZENG M Y, WU Z M, CHANG T. Fusing appearance statistical features for person re-identification[J]. Journal of electronics and information technology, 2014, 36(8):1844–1851.
[32]GRAY D, TAO H. Viewpoint invariant pedestrian recognition with an ensemble of localized features[C]// ECCV'08 Proceedings of the 10th European Conference on Computer Vision. Marseille, France, 2008, (I): 262–275.
[33]ZHENG W S, GONG S, XIANG T. Reidentification by relative distance comparison[J]. IEEE transactions on pattern analysis and machine intelligence, 2013, 35(3):653–668.
[34]DIKMEN M, AKBAS E, HUANG T S. Pedestrian recognition with a learned metric[C]//ACCV'10 Proceedings of the 10th Asian conference on Computer vision. Queenstown, New Zealand, 2010, 6495(IV): 501–512.