陳冬艷,彭錦佳,蔣廣琪,付先平,2,米澤田+
(1.大連海事大學(xué) 信息科學(xué)技術(shù)學(xué)院,遼寧 大連 116026; 2.鵬城實(shí)驗(yàn)室 機(jī)器人中心部,廣東 深圳 518033)
由于不同車輛可能具有相同品牌、型號(hào)和顏色,因此很難通過(guò)全局外觀辨別不同車輛之間的差異,如圖1所示,每一列的兩輛車具有不同的ID,圖中用圓圈突出它們的局部差異性。為克服這一困難,早期的車輛重識(shí)別[1-3]采用人工標(biāo)注的方式,但監(jiān)視視頻的質(zhì)量通常受拍攝角度、光照、背景等諸多因素的影響,由圖2可知,不同攝像頭下的車輛圖片差異較大,因此,在監(jiān)視場(chǎng)景中人工提取的判別特征具有不穩(wěn)定性。隨著深卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)[4,5]在計(jì)算機(jī)視覺(jué)領(lǐng)域的發(fā)展,一些研究者采用CNN技術(shù)獲取車輛全局特征,如Liu等[6]提出一種相對(duì)距離學(xué)習(xí)的耦合簇?fù)p失對(duì)全局特征進(jìn)行學(xué)習(xí)該方法從一定程度上提高了重識(shí)別的準(zhǔn)確性,但對(duì)高度相似車輛的識(shí)別率并不高。為解決這一問(wèn)題,Liu等[7]提出一種區(qū)域感知深度模型,直接將較高層全局特征進(jìn)行劃分, 以獲得粗略的局部特征。Pirazh等[8]提出利用關(guān)鍵點(diǎn)特征作為車輛結(jié)構(gòu)特征,但未考慮背景信息的影響。Wang 等[9]將車輛方向關(guān)鍵點(diǎn)分為4組,使得每個(gè)方向的關(guān)鍵點(diǎn)均具有可見(jiàn)性,但不是所有關(guān)鍵點(diǎn)均具有判別信息。為解決以上問(wèn)題,本文提出基于局部感知的車輛重識(shí)別算法LVR采用三分支網(wǎng)絡(luò)結(jié)構(gòu),不僅可獲取較為精細(xì)的判別特征,還解決背景信息的干擾問(wèn)題。實(shí)驗(yàn)結(jié)果表明,該算法具有較好的重識(shí)別結(jié)果。
圖1 相似外觀的不同車輛示例
LVR算法模型結(jié)構(gòu)如圖3所示,該網(wǎng)絡(luò)模型主要包含3個(gè)網(wǎng)絡(luò)分支:即圖3(a)全局特征分支(第1.1節(jié))、圖3(b)分塊局部特征分支(第1.2節(jié))和圖3(c)關(guān)鍵點(diǎn)選擇分支(第1.3節(jié))。首先,將車輛圖像輸入全局特征提取分支,該分支將極大限度的提取車輛的宏觀特征并保留圖像上下文信息,但該網(wǎng)絡(luò)分支可能無(wú)法判別相似車輛之間的細(xì)微差異,其中最困難的是相同品牌、顏色、型號(hào)的車輛;為解決這一問(wèn)題,本文引入另一網(wǎng)絡(luò)分支:基于圖像分塊的局部特征分支,該分支在去除圖像背景信息干擾后,將車輛圖像均分為上、中、下3塊,經(jīng)卷積得到的車輛局部特征;其次,將去除背景信息后的車輛圖像輸入兩階段關(guān)鍵點(diǎn)檢測(cè)分支,該分支首先預(yù)測(cè)出20個(gè)車輛關(guān)鍵點(diǎn),然后采用由粗到細(xì)的方式篩選關(guān)鍵點(diǎn)并去除不可見(jiàn)關(guān)鍵點(diǎn)的影響,得到更為精細(xì)的車輛關(guān)鍵點(diǎn)特征;最后將3個(gè)網(wǎng)絡(luò)分支的車輛特征相連,利用L2-Softmax損失[10]對(duì)車輛圖像進(jìn)行分類。網(wǎng)絡(luò)結(jié)構(gòu)和模型訓(xùn)練的詳細(xì)信息將在以下部分描述。
圖3 基于局部感知的車輛重識(shí)別算法(LVR)網(wǎng)絡(luò)模型
如圖3(a)所示,為提取全局外觀特征,本文采用了ResNet-50作為Backbone網(wǎng)絡(luò),并將該網(wǎng)絡(luò)作為L(zhǎng)VR網(wǎng)絡(luò)結(jié)構(gòu)的Baseline模型。該模型由5個(gè)下采樣和一個(gè)全局平均池組成。首先,利用ImageNet預(yù)訓(xùn)練模型的權(quán)重作為該模型的初始化權(quán)重;然后,將ResNet-50最后一個(gè)卷積層的2048維特征向量輸入淺層感知器。為了將相同車輛ID特征聚集,不同車輛ID特征分開(kāi),本文采用L2-Softmax損失函數(shù)訓(xùn)練該網(wǎng)絡(luò),將網(wǎng)絡(luò)提取到的特征向量約束在半徑為α的區(qū)域內(nèi)。該操作的具體的表達(dá)式為
(1)
其中,y表示車輛類別,x表示車輛特征向量,Wm表示權(quán)重,bm表示與類別m對(duì)應(yīng)的偏差,α是可訓(xùn)練的正標(biāo)量參數(shù),N表示車輛類別的數(shù)量。
為提取判別度較高的局部特征并解決背景信息對(duì)重識(shí)別的影響,本文采用空間變換網(wǎng)絡(luò)(spatial transformer networks,STN)[11]對(duì)齊模塊對(duì)輸入的車輛圖像進(jìn)行定位對(duì)齊,然后將圖像分為均等的上、中、下3部分,分塊后的圖像輸入到ResNet-50的Block3~Block5層,得到相對(duì)全局特征更為精細(xì)的局部判別特征。
空間變換網(wǎng)絡(luò)對(duì)齊模塊。該模塊主要由3部分組成:本地網(wǎng)絡(luò)(localisation network)、網(wǎng)格生成器(grid gene-rator)以及采樣器(sampler)。如圖4所示,首先,使用ResNet-50提取車輛圖像的全局特征。Block4特征通過(guò)由兩個(gè)卷積層組成的網(wǎng)格生成器進(jìn)行特征映射,輸出轉(zhuǎn)換參數(shù)θ。之后,網(wǎng)格生成器依據(jù)預(yù)測(cè)的變換參數(shù)θ構(gòu)建采樣網(wǎng)格T(θ), 最后采樣器利用雙線性內(nèi)插法根據(jù)T(θ) 對(duì)車輛圖像定位,輸出目標(biāo)特征圖。本文對(duì)STN對(duì)齊模塊中特征圖的具體轉(zhuǎn)換過(guò)程進(jìn)行分析,其轉(zhuǎn)換過(guò)程如下
(2)
L2(ω)=λ1l1+λ2l2+λ3l3
(3)
其中,l1,l2,l3分別表示上、中、下3個(gè)分支的損失,λ1,λ2,λ3表示對(duì)應(yīng)的權(quán)重,ω表示深度模型網(wǎng)絡(luò)參數(shù)。
圖4 空間變換網(wǎng)絡(luò)(STN)
局部分塊特征訓(xùn)練過(guò)程中,添加了全連接層來(lái)識(shí)別只有局部特征作為輸入的車輛圖像。該過(guò)程強(qiáng)制網(wǎng)絡(luò)在每個(gè)部分提取判別細(xì)節(jié),提高網(wǎng)絡(luò)對(duì)局部特征的學(xué)習(xí)能力。
為獲得更精細(xì)的局部特征,本文對(duì)上節(jié)利用空間變換網(wǎng)絡(luò)去除背景信息后的車輛圖像采用兩階段的關(guān)鍵點(diǎn)檢測(cè)模型:第一階段,將去除背景信息的車輛圖像輸入到VGG-16[12]的全卷積神經(jīng)網(wǎng)絡(luò),進(jìn)行關(guān)鍵點(diǎn)預(yù)測(cè),并輸出大小為112×112×64的20個(gè)關(guān)鍵點(diǎn)的響應(yīng)圖。盡管第一階段已預(yù)測(cè)出可見(jiàn)關(guān)鍵點(diǎn)的位置,但預(yù)測(cè)出的結(jié)果中可能存在不可見(jiàn)關(guān)鍵點(diǎn)的影響。受堆疊式沙漏網(wǎng)絡(luò)[13]的啟發(fā),本文采用去除全連接層的兩層沙漏網(wǎng)絡(luò)提取關(guān)鍵點(diǎn)特征,該網(wǎng)絡(luò)在保證輸出關(guān)鍵點(diǎn)響應(yīng)圖質(zhì)量的同時(shí),對(duì)第一階段粗糙關(guān)鍵點(diǎn)進(jìn)行精細(xì)化選擇。圖5展示了兩階段的關(guān)鍵點(diǎn)響應(yīng)圖,左側(cè)為第一階段預(yù)測(cè)的20個(gè)粗略關(guān)鍵點(diǎn)響應(yīng)圖,右側(cè)為第二階段關(guān)鍵點(diǎn)精細(xì)化選擇后的響應(yīng)圖,圖中可以觀察到關(guān)鍵點(diǎn)由粗糙到精細(xì)的變化。
圖5 車輛關(guān)鍵點(diǎn)響應(yīng)
車輛關(guān)鍵點(diǎn)方向設(shè)定。為得到預(yù)測(cè)出的20個(gè)關(guān)鍵點(diǎn)對(duì)應(yīng)的車輛方向,受OIFE[6]的啟發(fā),本文將20個(gè)關(guān)鍵點(diǎn)分為4類,分別代表車輛的前、后、左、右4個(gè)方向,但相鄰兩個(gè)方向之間沒(méi)有絕對(duì)的界限。然后通過(guò)關(guān)鍵點(diǎn)選擇器自適應(yīng)選擇關(guān)鍵點(diǎn)最多的方向。為保證預(yù)測(cè)方向的準(zhǔn)確性,每個(gè)方向至少有6個(gè)可見(jiàn)關(guān)鍵點(diǎn),并根據(jù)關(guān)鍵點(diǎn)預(yù)測(cè)的多個(gè)方向,選擇關(guān)鍵點(diǎn)最多的方向,并以此作為車輛的方向。對(duì)于每個(gè)圖,利用σ=2的高斯核確定關(guān)鍵點(diǎn)位置,以解決不可見(jiàn)關(guān)鍵點(diǎn)問(wèn)題。為得到第一階段粗略關(guān)鍵點(diǎn)估計(jì),本文采用交叉熵?fù)p失訓(xùn)練網(wǎng)絡(luò)
(4)
(5)
(6)
其中,O={上、 下、 左、 右} 表示關(guān)鍵點(diǎn)方向,o*表示關(guān)鍵點(diǎn)的真實(shí)方向。第二階段精細(xì)關(guān)鍵點(diǎn)分支總損失為
L3=LMSE+βLCEE
(7)
其中,β表示平衡優(yōu)化模型損失的權(quán)重,經(jīng)實(shí)驗(yàn)驗(yàn)證當(dāng)β=12時(shí)取得的效果最好。
最后,我們將3個(gè)分支特征連接,并在全連接層后利用L2-Softmax作為分類損失對(duì)車輛圖像進(jìn)行分類。
在本節(jié)中,首先介紹用于車輛重識(shí)別任務(wù)的兩個(gè)大型數(shù)據(jù)集及評(píng)估標(biāo)準(zhǔn),然后通過(guò)對(duì)比實(shí)驗(yàn)和消融實(shí)驗(yàn)驗(yàn)證本文所述算法的有效性。
本文實(shí)驗(yàn)采用兩個(gè)公開(kāi)的大規(guī)模車輛重識(shí)別數(shù)據(jù)集:VeRi-776數(shù)據(jù)集和Vehicle-ID數(shù)據(jù)集,測(cè)試LVR算法的有效性。
VeRi-776數(shù)據(jù)集包含由20個(gè)監(jiān)控?cái)z像頭捕獲的776種車輛ID的50 000張圖像。所有圖像均標(biāo)有車輛ID、類型和顏色。其中車輛類型有9種,例如轎車、公共汽車和卡車等;車輛顏色有10種,例如紅色、黑色和橙色等。在這些圖像中,訓(xùn)練集和測(cè)試集分別包含按37 778張圖片(576種ID)和11 579張圖片(200種ID)。并從測(cè)試集中選擇1678張圖像作為查詢集。
VehicleID數(shù)據(jù)集包含26 267種車輛ID的221 763張圖像。所有圖像均標(biāo)有車輛的ID信息,一部分標(biāo)有車輛類型和顏色信息。選取13 164車輛的圖片作為訓(xùn)練集,而另一半用于評(píng)估。從測(cè)試集中分別提取800、1600、2400種車輛ID的圖片分為3個(gè)子集。在每個(gè)子集中,隨機(jī)選擇每個(gè)車輛ID圖像,分別得到800、1600、2400種圖像組成的測(cè)試集,本文測(cè)試實(shí)驗(yàn)中使用了800和1600種圖像組成的測(cè)試集。
車輛重識(shí)別中廣泛采用兩個(gè)評(píng)判指標(biāo)對(duì)重識(shí)別結(jié)果進(jìn)行評(píng)估——累積匹配曲線(cumulative match characteristic,CMC)和平均精確度均值(mean average precision,mAP)。CMC反映總體分類器的性能,其中CMC@1表示首位匹配準(zhǔn)確率。mAP代表所有查詢的平均精度的平均值,它反映整體識(shí)別結(jié)果的平均精度,其中平均精度(ave-rage precision,AP)是識(shí)別結(jié)果中某一類別的加權(quán)平均值,mAP則為所有類別AP值的平均。
實(shí)驗(yàn)過(guò)程中,將輸入網(wǎng)絡(luò)的圖像大小調(diào)整為224×224,Batch size的大小設(shè)定為64。訓(xùn)練期間,首先對(duì)基礎(chǔ)網(wǎng)絡(luò)進(jìn)行微調(diào)(參照1.1),然后使用Adam(β1=0.5、β2=0.999)優(yōu)化器優(yōu)化網(wǎng)絡(luò),另外,本文針對(duì)不同數(shù)據(jù)集在訓(xùn)練過(guò)程中設(shè)置的學(xué)習(xí)率變化方式也不同。在VeRi-776上全局特征分支和分塊局部分支前40個(gè)Epoch初始學(xué)習(xí)率為0.1,后40個(gè)Epoch學(xué)習(xí)率設(shè)置為0.01;在VehicleID上全局特征分支和分塊局部分支前40個(gè)Epoch初始學(xué)習(xí)率為0.1,后50個(gè)Epoch學(xué)習(xí)率設(shè)置為0.01;特別的,對(duì)于關(guān)鍵點(diǎn)網(wǎng)絡(luò)分支,在VeRi-776和VehicleID數(shù)據(jù)集上該分支網(wǎng)絡(luò)第一、二階段均訓(xùn)練40個(gè)Epoch,學(xué)習(xí)率均為le-4。此外本文所有實(shí)驗(yàn)均通過(guò)Pytorch[13]工具完成。
為測(cè)試LVR算法每個(gè)分支的有效性,首先對(duì)兩階段關(guān)鍵點(diǎn)選擇分支進(jìn)行評(píng)估,然后在VeRi-776和Vehicle-ID數(shù)據(jù)集上設(shè)定消融實(shí)驗(yàn)和對(duì)比實(shí)驗(yàn)對(duì)該算法進(jìn)行評(píng)估并給出相應(yīng)的實(shí)驗(yàn)結(jié)果。
關(guān)鍵點(diǎn)選擇分支評(píng)估。為評(píng)估兩階段關(guān)鍵點(diǎn)選擇分支的性能,首先,我們使用均方誤差在VeRi-776數(shù)據(jù)集上對(duì)檢測(cè)到的關(guān)鍵點(diǎn)位置進(jìn)行準(zhǔn)確性測(cè)試。表1顯示了該分支在第一階段和第二階段的MSE數(shù)值,由表1可知,第二階段關(guān)鍵點(diǎn)定位誤差比第一階段降低了18.3個(gè)百分點(diǎn)。這也進(jìn)一步表明,本文采用兩階段由粗到細(xì)的關(guān)鍵點(diǎn)檢測(cè)方法的有效性。然后,采用與OIFE算法相同的評(píng)價(jià)標(biāo)準(zhǔn),利用交叉熵?fù)p失對(duì)該分支的所有可見(jiàn)關(guān)鍵點(diǎn)位置與真實(shí)位置之間的平均距離進(jìn)行評(píng)估。如果該距離小于閾值r0則認(rèn)為該關(guān)鍵點(diǎn)預(yù)測(cè)正確,否則認(rèn)為該關(guān)鍵點(diǎn)預(yù)測(cè)錯(cuò)誤。比較結(jié)果見(jiàn)表2,當(dāng)閾值r0為5時(shí)預(yù)測(cè)的準(zhǔn)確性提高了1.93個(gè)百分點(diǎn),不難發(fā)現(xiàn)本文提出的兩階段關(guān)鍵點(diǎn)選擇分支優(yōu)于OIFE算法。
表1 關(guān)鍵點(diǎn)特征圖定位均方誤差
表2 關(guān)鍵點(diǎn)預(yù)測(cè)結(jié)果
STN去除背景有效性評(píng)估。為進(jìn)一步說(shuō)明背景信息對(duì)車輛重識(shí)別的噪聲干擾,本文刪除了局部分塊分支中的STN定位模型并將車輛圖像直接劃分為3個(gè)重疊區(qū)域(按照1.2節(jié)所述方式),該網(wǎng)絡(luò)命名為“背景分塊局部分支”并在VeRi-776和VehicleID數(shù)據(jù)集上對(duì)“全局特征分支+背景分塊局部分支”網(wǎng)絡(luò)模型和“全局特征分支+分塊局部分支”網(wǎng)絡(luò)模型的準(zhǔn)確性進(jìn)行對(duì)比驗(yàn)證。實(shí)驗(yàn)結(jié)果見(jiàn)表3和表4。與未去除背景信息的分塊局部分支相比,包含STN去除背景信息定位模塊的“全局特征分支+分塊局部分支”網(wǎng)絡(luò)模型在VehicleID 800和1600測(cè)試集上的mAP值分別提升了1.82個(gè)百分點(diǎn)和2.10個(gè)百分點(diǎn),CMC@1分別提升了1.85個(gè)百分點(diǎn)和1.64個(gè)百分點(diǎn);在VeRi-776數(shù)據(jù)集上“全局特征分支+分塊局部分支”網(wǎng)絡(luò)模型的mAP提升了3.41個(gè)百分點(diǎn),CMC@1提升了2.45個(gè)百分點(diǎn)。實(shí)驗(yàn)結(jié)果表明,本文采用STN的定位模型能有效去除背景信息提升車輛重識(shí)別的準(zhǔn)確性。
表3 VeRi-776上STN去除背景性能實(shí)驗(yàn)評(píng)估結(jié)果/%
表4 VehicleID上STN去除背景性能實(shí)驗(yàn)評(píng)估結(jié)果/%
各分支性能評(píng)估。為了評(píng)估各分支的性能,本文分別在兩個(gè)數(shù)據(jù)集上設(shè)定了7個(gè)步驟的消融實(shí)驗(yàn)對(duì)各分支進(jìn)行評(píng)價(jià)并給出相應(yīng)的實(shí)驗(yàn)結(jié)果。第一是全局特征分支。命名為“全局特征分支”;第二是分塊局部分支的上、中、下3個(gè)分支,命名為“上局部分塊分支”、“中間局部分塊分支”、“下局部分塊分支”;第三是整個(gè)將分塊局部分支的上、中、下3個(gè)分支連接起來(lái),命名為“局部分塊分支”;第四是“全局特征分支+局部分塊分支”;第五是在“全局特征分支”的基礎(chǔ)上加入兩階段關(guān)鍵點(diǎn)檢測(cè)分支,命名為“全局特征分塊+關(guān)鍵點(diǎn)選擇分支”;第六是在“局部分塊分支”的基礎(chǔ)上加入“關(guān)鍵點(diǎn)選擇分支”命名為“局部分塊分支+關(guān)鍵點(diǎn)選擇分支”;第七是在“局部分塊分支+關(guān)鍵點(diǎn)選擇分支”基礎(chǔ)上加入“全局特征分支”分支,也就是本文提出的“LVR”。
在VehicleID數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果見(jiàn)表5。由表可知,“上局部分塊分支”、“中間局部分塊分支”、“下局部分塊分支”的mAP、CMC@1、CMC@5的結(jié)果均低于“全局特征分支”,這是由于分塊之后3個(gè)分塊局部分支不包含整張圖片上下文信息導(dǎo)致的;“全局特征分支+局部分塊分支”的mAP比“全局特征分支”在800和1600測(cè)試集上分別提升了3.28個(gè)百分點(diǎn)和3.47個(gè)百分點(diǎn);“全局特征分支+關(guān)鍵點(diǎn)選擇分支”在800和1600測(cè)試集上的mAP、值比“全局特征分支”分別提升了3.16個(gè)百分點(diǎn)和3.35個(gè)百分點(diǎn),這說(shuō)明了局部分塊分支和關(guān)鍵點(diǎn)分支的有效性;在“局部分塊分支+關(guān)鍵點(diǎn)選擇分支”后加入“全局特征分支”構(gòu)成LVR算法,在800和1600測(cè)試集上,與“全局特征分支+局部分塊分支”相比LVR算法的mAP值分別提升了2.87個(gè)百分點(diǎn)和4.69個(gè)百分點(diǎn),CMC@1分別提升了2.42個(gè)百分點(diǎn)和5.29個(gè)百分點(diǎn);同樣可知LVR算法比“全局特征分支+關(guān)鍵點(diǎn)選擇分支”識(shí)別效果也得到進(jìn)一步提升,其中mAP值分別提升了2.99個(gè)百分點(diǎn)和4.81個(gè)百分點(diǎn),CMC@5分別提升了1.42個(gè)百分點(diǎn)和0.94個(gè)百分點(diǎn)。
在VeRi-776數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果見(jiàn)表6,不難發(fā)現(xiàn)與在VehicleID數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果類似,“上局部分塊分支”、“中間局部分塊分支”、“下局部分塊分支”的各個(gè)評(píng)價(jià)標(biāo)準(zhǔn)均低于“全局特征分支”,這是由局部特征不能包含整個(gè)車輛的判別特征導(dǎo)致的,與LVR相比“全局特征分支+局部分塊分支”的mAP值降低了3.22個(gè)百分點(diǎn),“全局特征分支+關(guān)鍵點(diǎn)選擇分支”的CMC@1值降低了2.45個(gè)百分點(diǎn),進(jìn)一步驗(yàn)證了各個(gè)分支的有效性。
LVR算法的車輛重識(shí)別效果評(píng)估。為驗(yàn)證本文提出的LVR算法的有效性,我們?cè)赩ehicleID和VeRi-776兩個(gè)數(shù)據(jù)集上設(shè)定了對(duì)比實(shí)驗(yàn)。一方面,在VehicleID上與LOMO[14]、VGG+T[15]、VGG+CCL[15]、Mixed DC[15]、FACT[16]、VAMI[17]進(jìn)行比較。實(shí)驗(yàn)結(jié)果見(jiàn)表7,不難發(fā)現(xiàn)LVR的CMC@1和CMC@5值均優(yōu)于其它算法。其中,LVR比傳統(tǒng)人工特征選擇方法LOMO的CMC@1提升了53.31個(gè)百分點(diǎn),這也充分驗(yàn)證基于CNN的車輛重識(shí)別方法遠(yuǎn)遠(yuǎn)優(yōu)于早期人工特征選擇方法;LVR和這些比較方法中結(jié)果最高的VAMI相比,VAMI比LVR算法的CMC@1降低了9.95個(gè)百分點(diǎn),這充分顯示出本文提出的LVR算法的有效性。另一方面,在VeRi-776與LOMO[14]、FACT[16]、OIFE[9]、FACT+Plate-SNN+STR[18]、OIFE+ST[9]及RAM[7]、Siamese-Visual[19]進(jìn)行比較。實(shí)驗(yàn)結(jié)果見(jiàn)表8,由表8可知,LVR算法比OIFE和RAM的mAP值分別提升了17.53個(gè)百分點(diǎn)、4.03個(gè)百分點(diǎn),LVRC比RAM的CMC@1值提升了1.37個(gè)百分點(diǎn),比OIFE的CMC@5值提升了7.12個(gè)百分點(diǎn),這也表明LVR去除背景信息和考慮不可見(jiàn)關(guān)鍵點(diǎn)信息的有效性。
表5 在VehicleID上特征融合性能實(shí)驗(yàn)評(píng)估結(jié)果/%
表6 VeRi-776上特征融合性能實(shí)驗(yàn)評(píng)估結(jié)果/%
表7 VehicleID上與已有部分方法對(duì)比實(shí)驗(yàn)評(píng)估結(jié)果/%
表8 VeRi-776上與已有部分方法對(duì)比實(shí)驗(yàn)評(píng)估結(jié)果/%
為解決相似度較高車輛尤其是相同品牌、顏色、型號(hào)的車輛識(shí)別率低的問(wèn)題,本文從全局和局部多個(gè)角度提取車輛的判別特征,提高車輛重識(shí)別對(duì)相似車輛識(shí)別效果。與已有的全局和局部特征識(shí)別算法相比,本文方法融合局部分塊和關(guān)鍵點(diǎn)及全局特征,可以獲取更加精細(xì)的車輛判別特征,最終提升重識(shí)別的準(zhǔn)確性。由消融實(shí)驗(yàn)和對(duì)比實(shí)驗(yàn)可以得出本文方法不僅有效解決背景信息干擾,還可以獲取更加精細(xì)的局部判別特征,增強(qiáng)了識(shí)別性能。盡管本文方法獲得了較好的重識(shí)別效果,但仍然存在以下不足:本文方法采用的提取關(guān)鍵點(diǎn)選擇分支雖然可以獲取精細(xì)的判別特征,增強(qiáng)重識(shí)別對(duì)相似度較高車輛的識(shí)別性能,但如果采集到的車輛圖像遮擋物較多不能獲取6個(gè)以上關(guān)鍵點(diǎn),本文方法則不能達(dá)到最優(yōu)的效果。