耿樹澤 于明 岑世欣 劉曉亮
摘要 為了解決行人再識別中由于視角變化和背景干擾造成的錯(cuò)位匹配(未對齊)問題,提出一種基于行人分割的部位對齊網(wǎng)絡(luò)(SegPAN)的方法,該網(wǎng)絡(luò)由3部分組成:1) 構(gòu)建一種基于RefineNet的行人分割網(wǎng)絡(luò)(TL-RefineNet),以獲得多個(gè)局部對齊部位;2)基于分割的行人部位,提出一種行人部位對齊網(wǎng)絡(luò),以提取多個(gè)局部對齊特征;3)通過一種加權(quán)融合的策略將提取的局部對齊特征融合,提高視覺特征的判別能力。在此基礎(chǔ)上利用特征之間的相似度實(shí)現(xiàn)行人再識別。實(shí)驗(yàn)在Market-1501和DukeMTMC-reID數(shù)據(jù)集上進(jìn)行測試,R1的性能分別達(dá)到90.5%和80.3%。結(jié)果證明該方法不僅有效的緩解了錯(cuò)位匹配問題,而且減少了背景的干擾,提高了再識別性能。
關(guān) 鍵 詞 行人再識別;行人分割;部位對齊網(wǎng)絡(luò);加權(quán)融合
中圖分類號 TP391.41? ? ?文獻(xiàn)標(biāo)志碼 A
A segmentation-based part alignment network for person re-identification
GENG Shuze1, YU Ming1, 2, CEN Shixin2, LIU Xiaoliang3
( 1. School of Electronic and Information Engineering, Hebei University of Technology, Tianjin 300401, China; 2. School of Artificial Intelligence and Data Science, Hebei University of Technology, Tianjin 300401, China; 3. State Grid Shandong Electric Power Company Weifang Power Supply Company, Weifang, Shandong 261000, China )
Abstract In order to solve the problem of misalignment caused by view changes and background interference in person re-identification, a Segmentation-based Part Alignment Network (SegPAN) is proposed. SegPAN includes three main parts: 1) A RefineNet-based segmentation network (TL-RefineNet) is developed to obtain multiple local alignment parts; 2) A part alignment network is put forward based on the segmentation of human body parts to extract the local alignment features; 3) A weighted fusion strategy is applied into the local alignment features to improve the discrimination of visual features, on which the similarity measure is leveraged to achieve person re-identification. Experiment shows that R1 performance achieves 90.5% and 80.3% respectively on Market-1501 and DukeMTMC-reID datasets. The proposed method not only alleviates the problem of misalignment effectively, but also reduces the interference of background and improves the re-ID performance.
Key words person re-identification; person segmentation; part alignment network; weighted fusion
0 引言
行人再識別是指在非交疊的視頻監(jiān)控中尋找與目標(biāo)一致的行人,該技術(shù)可以應(yīng)用于行人檢索、交叉攝像機(jī)跟蹤等視頻監(jiān)控領(lǐng)域[1-5],是視頻智能分析的一個(gè)重要組成部分。但由于光線、姿勢和視角的多樣性,使得跨場景中的行人匹配極具挑戰(zhàn)性。眾多的影響因素中,錯(cuò)位匹配是導(dǎo)致行人再識別失敗的一個(gè)重要因素,究其原因可分為兩類:1)行人檢測不準(zhǔn)確。例如,當(dāng)圖像中包含大量的背景或行人部位不全時(shí)[6-8],很容易造成局部背景與行人某區(qū)域之間的錯(cuò)誤匹配(圖1 a));2)不同視角中行人姿態(tài)的變化。例如,同一行人在騎車與行走時(shí)產(chǎn)生的對應(yīng)匹配,也會(huì)造成錯(cuò)位匹配(圖1 b))。
為了解決行人再識別中的錯(cuò)位匹配,Zhang等[9]提出一個(gè)多分枝網(wǎng)絡(luò),每個(gè)分支對應(yīng)行人圖像中一個(gè)水平條區(qū)域,通過匹配對應(yīng)的水平區(qū)域?qū)崿F(xiàn)行人部位對齊,但當(dāng)背景較大時(shí),匹配效果并不理想。Su等[10]構(gòu)建了一個(gè)深度對齊網(wǎng)絡(luò),網(wǎng)絡(luò)不僅提取全局特征,同時(shí)對整個(gè)行人進(jìn)行重定位,利用重定位的行人進(jìn)行相似度比較以實(shí)現(xiàn)行人的對齊,但該方法并沒有對行人部位進(jìn)行細(xì)分,導(dǎo)致算法對行人姿態(tài)的魯棒性會(huì)受到影響。此外,許多方法借助于行人關(guān)鍵點(diǎn)實(shí)現(xiàn)行人部位對齊[11-18]。Zheng[13]將行人劃分為14個(gè)關(guān)鍵點(diǎn),利用這些關(guān)鍵點(diǎn)把行人劃分為若干個(gè)區(qū)域,同時(shí)為了提取不同尺度上的局部特征,還設(shè)定了3個(gè)不同的PoseBox組合進(jìn)行映射矯正對齊。與方法[13]不同的是,Zhao[15]并沒有用仿射變換來實(shí)現(xiàn)局部對齊,而是直接利用行人關(guān)鍵點(diǎn)來摳出多個(gè)行人部位,然后將這些區(qū)域和原始圖像一并輸入到對齊網(wǎng)絡(luò)進(jìn)行特征匹配。由于該方法的摳取方式過于簡單使得算法無法獲取精確的部位區(qū)域,不可避免地引入無關(guān)背景,并且關(guān)鍵點(diǎn)的檢測并不可靠[19]。
為了解決行人未對齊,提高算法對姿態(tài)變化的魯棒性,本文提出一種新的再識別方法,該方法不僅提取全局特征,同時(shí)還對行人的各個(gè)部分進(jìn)行了區(qū)域劃分,通過對應(yīng)部位之間的匹配實(shí)現(xiàn)行人對齊,與其他方法[11-15]不同的是,本方法并沒有采用行人關(guān)鍵點(diǎn)進(jìn)行行人區(qū)域劃分,而是采用一種行人分割的策略完成圖像中行人各部分的有效分割(頭部、軀干、腿等),在此基礎(chǔ)上進(jìn)一步構(gòu)建行人部位對齊網(wǎng)絡(luò)實(shí)現(xiàn)行人部位對齊。此外,在融合部位對齊特征時(shí),采用一種加權(quán)的策略以提高特征魯棒性。通過該方法不僅能實(shí)現(xiàn)行人與背景的分離,消除背景的干擾,而且能有效地提高行人對齊效果(圖2)。
本文主要的貢獻(xiàn)可歸納為以下3點(diǎn):
1)提出基于行人部位分割對齊的再識別網(wǎng)絡(luò),網(wǎng)絡(luò)的輸入不僅包含分割的行人區(qū)域,而且包含對應(yīng)區(qū)域置信特征,該特征可以對分割的效果進(jìn)行有效反饋,提高局部特征的可靠性。
2)為了獲取良好的行人分割效果,提出基于過渡層(Transition Layer)的RefineNet網(wǎng)絡(luò)(TL-RefineNet),以實(shí)現(xiàn)對行人部位的精確分割。
3)提出一種加權(quán)融合的方法,將提取的多個(gè)區(qū)域特征進(jìn)行加權(quán),實(shí)現(xiàn)多個(gè)對齊特征的有效融合,進(jìn)一步提高特征的可區(qū)分性。
為了驗(yàn)證提出方法的有效性,在兩個(gè)標(biāo)準(zhǔn)行人再識別數(shù)據(jù)集進(jìn)行驗(yàn)證,分析其有效性及各部分的作用,并與其他主流方法進(jìn)行性能比較。
1 本文方法
本文方法主要包括3個(gè)部分:行人分割、行人部位對齊以及行人對齊特征的融合(圖2)。首先利用提出的TL-RefineNet網(wǎng)絡(luò)將行人圖像進(jìn)行分割,得到多個(gè)行人分割區(qū)域,例如,行人上半?yún)^(qū)域和行人下半?yún)^(qū)域。然后基于分割的行人區(qū)域,構(gòu)建行人部位對齊網(wǎng)絡(luò),提取部位對齊特征。最后通過加權(quán)融合的方式將提取的對齊特征進(jìn)行融合,提高特征的魯棒性。在該基礎(chǔ)上計(jì)算特征之間的相似性,獲得最終結(jié)果。
1.1 TL-RefineNet與行人部位分割
本研究目標(biāo)是分割出行人對齊部位,然后將其應(yīng)用到行人部位對齊網(wǎng)絡(luò),以解決行人錯(cuò)位匹配問題。但直接對re-ID數(shù)據(jù)集中的行人進(jìn)行分割將面臨兩個(gè)主要問題:1)由于re-ID數(shù)據(jù)集沒有語義分割標(biāo)簽,很難直接在re-ID數(shù)據(jù)集上訓(xùn)練分割網(wǎng)絡(luò);2)直接利用在非re-ID數(shù)據(jù)集(如Person Parts Dataset [20])訓(xùn)練的分割模型,用在re-ID數(shù)據(jù)集上進(jìn)行分割,并不能獲得理想的分割效果。其主要原因在于:在re-ID數(shù)據(jù)集中,行人圖像的分辨率太低(尺寸?。?,使得圖像分割目標(biāo)過小,許多細(xì)節(jié)特征不足。但是,在re-ID數(shù)據(jù)集中,行人已被裁剪好,并且他們在圖像中占據(jù)了絕大部分區(qū)域。因此一個(gè)合適的放大操作不僅能放大分割目標(biāo),而且因放大而導(dǎo)致的背景干擾也是有限的?;诖怂悸罚疚奶岢鲆粋€(gè)過渡層嵌入到RefineNet分割網(wǎng)絡(luò)中,以實(shí)現(xiàn)圖像中行人各部位的良好分割。
具體的,過渡層由一個(gè)雙線性差值構(gòu)成,設(shè)插值像素值f (m, n)如公式(1)所示:
[fm,n=θ1θ2Q11Q12Q21Q22θ3θ4][,] (1)
式中:[θ1=m2-m,][θ2=m-m1,][θ3=n2-n,][θ4=n-n1,][Q11=m1,n1,][Q12=m1,n2,][Q21=m2,n1,][Q22=m2,n2]表示[fm,n]的4個(gè)近鄰坐標(biāo)。放大尺度參數(shù)設(shè)為α,該參數(shù)可通過網(wǎng)絡(luò)訓(xùn)練獲得。首先在Person Parts 數(shù)據(jù)集上訓(xùn)練基礎(chǔ)的RefineNet,然后將T-Layer層嵌入到訓(xùn)練好的RefineNet(如圖3所示)。最后通過固定RefineNet網(wǎng)絡(luò)的其他參數(shù),利用部分分割結(jié)果訓(xùn)練尺度參數(shù)。行人分割網(wǎng)絡(luò)的輸出為預(yù)定義的分割標(biāo)簽,即行人上半部分(包括行人頭部、上臂和軀干)和行人下半部分(包括行人軀干以下及腿部,如圖2所示)。
1.2 基于分割的行人部位對齊網(wǎng)絡(luò)
為了緩解行人未對齊問題,本文基于分割的行人區(qū)域構(gòu)建一個(gè)行人部位對齊網(wǎng)絡(luò)。該網(wǎng)絡(luò)針對每個(gè)行人部位構(gòu)建一個(gè)分支網(wǎng)絡(luò),從而提取部位對齊特征。
此外,考慮到,當(dāng)行人被嚴(yán)重遮擋時(shí),行人的分割效果會(huì)受到一定的影響。為了彌補(bǔ)這一影響,本文將原始圖像單獨(dú)作為一個(gè)網(wǎng)絡(luò)分支,合并到整個(gè)行人對齊網(wǎng)絡(luò)中,共構(gòu)建3個(gè)網(wǎng)絡(luò)分支。每個(gè)網(wǎng)絡(luò)分支的基本結(jié)構(gòu)為Resnet50網(wǎng)絡(luò)的pooling5層及以前的所有網(wǎng)絡(luò)層結(jié)構(gòu)。特別的,每個(gè)網(wǎng)絡(luò)分支的輸入除了分割后的RGB圖像,由分割獲得的對應(yīng)的置信特征也被輸入到對齊網(wǎng)絡(luò)中,以提高分割結(jié)果的可靠度。將每個(gè)網(wǎng)絡(luò)分支輸出的1×1×2 048維特征作為部位對齊特征。具體結(jié)構(gòu)如圖2所示。
在訓(xùn)練時(shí),由于不同數(shù)據(jù)集的行人數(shù)目不同,本文增加了一個(gè)全鏈接層以調(diào)整輸出結(jié)果的維度變化。Softmax用來將每一個(gè)行人的預(yù)測值[ak]歸一化到[0, 1]:
[pkx=expakk=1Kak][,] (2)
式中[K]表示數(shù)據(jù)集中行人的類別數(shù)目 (Person ID)。通過交叉熵來迭代獲取每個(gè)分支網(wǎng)絡(luò)的最小損失值:
[lossi=-k=1K(log(p(k|x))q(k|x))][,] [qy|x=1,y=k0,y≠k], (3)
式中:x表示網(wǎng)絡(luò)輸入特征;i =1,2,3對應(yīng)3個(gè)網(wǎng)絡(luò)分支;y為類別標(biāo)簽。此外,當(dāng)行人圖像檢測不準(zhǔn)確或者存在大量背景時(shí),在輸入對齊網(wǎng)絡(luò)之前,本文通過雙線性差值對分割結(jié)果進(jìn)行裁剪、尺寸調(diào)整,從而實(shí)現(xiàn)行人初步對齊,如圖4所示。
1.3 局部對齊特征的加權(quán)融合
為了反映不同部位在再識別過程中的重要程度,本文提出一種特征加權(quán)融合方法,來提高行人特征的魯棒性。在此過程中,使用3個(gè)(1×1)加權(quán)卷積核對提取的3個(gè)對齊特征進(jìn)行加權(quán)融合,然后通過一個(gè)全連接層,來調(diào)整融合后特征的輸出維度(不同數(shù)據(jù)集中行人數(shù)目不同)。
考慮到單個(gè)線性權(quán)重層可能會(huì)對某些部位的特殊特征產(chǎn)生過大的響應(yīng)[2], 為此,一個(gè)非線性函數(shù)被加入以均衡部位特征向量的響應(yīng)。
具體的經(jīng)過非線性變換的特征[hwi]以通過公式(4)計(jì)算:
[hwi=tanh(hi⊙Wi+Bi)][,] (4)
式中:[Wi]代表權(quán)重參數(shù);[Bi]表示偏置向量,其維度與特征向量一致;符[號][⊙]表示2個(gè)向量的阿達(dá)瑪積。輸出的向量[hwi]為提取的加權(quán)特征。
同樣的,在訓(xùn)練時(shí),用Softmax將每個(gè)行人的預(yù)測值[ak]歸一化到[0, 1]。網(wǎng)絡(luò)中,3個(gè)網(wǎng)絡(luò)分枝的損失之和作為特征融合網(wǎng)絡(luò)的損失函數(shù),通過交叉熵來計(jì)算融合網(wǎng)絡(luò)的最小損失值:
[ losssum=-i=13k=1K(log(p(k|x))q(k|x))][,] [qy|x=1,y=k0,y≠k], (5)
式中:x表示網(wǎng)絡(luò)輸入特征;i =1,2,3對應(yīng)3個(gè)網(wǎng)絡(luò)分支;y為類別標(biāo)簽。融合后的特征作為最終的行人再識別特征,利用歐式距離計(jì)算特征之間的相似度,獲取最終的再識別結(jié)果。
2 實(shí)驗(yàn)結(jié)果及分析
本文在兩個(gè)行人再識別數(shù)據(jù)集上對提出的算法進(jìn)行驗(yàn)證,并與當(dāng)前主流算法進(jìn)行對比。測試的數(shù)據(jù)集包括DukeMTMC-reID(Duke)和Market1501(如圖5所示)。這些數(shù)據(jù)集的視角、光照、場景以及遮擋情況各不相同,能較好的反映行人再識別的真實(shí)場景。在訓(xùn)練測試時(shí),隨機(jī)選取數(shù)據(jù)集中一半行人進(jìn)行訓(xùn)練,剩下一半行人進(jìn)行測試。為了增加測試結(jié)果的可靠性,取10次測試結(jié)果的平均結(jié)果作為最終的測試結(jié)果。測試的評價(jià)指標(biāo)采用累積匹配特性曲線(Cumulative Match Characteristic, CMC)和平均準(zhǔn)確精度(Mean Average Precision, mAP)來評估模型性能。
Market-1501數(shù)據(jù)集包括(由6個(gè)攝像頭拍攝到的)1 501個(gè)行人、32 668個(gè)檢測到的行人圖像。每個(gè)行人至少包含2個(gè)視角,并且在一個(gè)視角中可能具有多張圖像。訓(xùn)練集有751人,包含12 936張圖像,測試集有750人,包含19 732張圖像。
DukeMTMC 數(shù)據(jù)集是一個(gè)大規(guī)模標(biāo)記的多目標(biāo)多視角行人跟蹤數(shù)據(jù)集,一共有1 404個(gè)行人,36 411 張圖像。其中測試集702人,共17 661張圖像;訓(xùn)練集702人,共16 522張圖像,驗(yàn)證集2 228張圖像。
2.1 實(shí)驗(yàn)分析
2.1.1 TL-RefineNet的有效性分析
由于行人再識別數(shù)據(jù)集沒有語義分割標(biāo)簽,不能直接利用交并比(Intersection over Union, IOU)指標(biāo)進(jìn)行性能測試,但是分割效果仍然可以通過視覺對比進(jìn)行比較,具體結(jié)果如圖6所示。
從結(jié)果可以看出,提出的TL-RefineNet能夠有效的完成復(fù)雜場景中的行人部位分割。與RefineNet相比,TL-RefineNet的行人分割效果得到很大的提高,不僅提取到更多的行人細(xì)節(jié),而且降低了的額外噪聲。這表明,T-Layer對行人的分割是有效的,一方面可以提高局部區(qū)域的細(xì)節(jié)信息,另一方面為部位對齊網(wǎng)絡(luò)提供了良好的對齊區(qū)域。
2.1.2 特征加權(quán)融合的有效性分析
為了驗(yàn)證特征加權(quán)融合的有效性,本文首先采用加權(quán)模型進(jìn)行特征加權(quán)融合(SegPAN),在兩個(gè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),然后去掉加權(quán)模型,將提取的對齊特征直接拼接組成行人特征(SegPAN-W),作為對比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖7所示。具體來說,在Market1501數(shù)據(jù)集上,SegPAN在R1(CMC曲線中,排名第1時(shí)的正確率)上的性能為90.5%,與SegPAN-W相比提高了1.4%。同樣的,在Duke數(shù)據(jù)集中,加權(quán)融合后R1的性能相比沒有加權(quán)融合的性能高1.1%。進(jìn)一步,從整體性能(前R10和mAP)上看, SegPAN的性能也都高于SegPAN-W的性能。這些性能的提高主要?dú)w結(jié)于加權(quán)融合策略能根據(jù)行人姿態(tài)、場景等情況來分配不同的權(quán)重以提高特征的魯棒性。
2.1.3 對齊效果的分析
為了驗(yàn)證本文方法對錯(cuò)位匹配的有效性,本文不僅對比了基本網(wǎng)絡(luò)ResNet50[24],同時(shí)還對比了3個(gè)經(jīng)典的解決錯(cuò)位對齊的方法:PSE[12]、PIE[13]和Pose-T[14], 具體結(jié)果如表1所示。
從結(jié)果可以看出本文方法的性能在R1和mAP上都取得了最好的效果,特別地,與ResNet50相比,本文提出方法有著更大的性能優(yōu)勢,在Market1501數(shù)據(jù)集上,SegPAN的性能分別為90.5% (R1)和73.7%(mAP),分別比基礎(chǔ)網(wǎng)絡(luò)ResNet50的性能提高了7.9%和14.6%。同樣,在Duke數(shù)據(jù)集上,SegPAN的性能為80.3%(R1),相比ResNet50的識別率提高了8%,這些性能的提高可以充分說明本文方法對錯(cuò)位匹配的有效性,不僅避免了背景的干擾,而且能有效的實(shí)現(xiàn)了各個(gè)部位的對齊匹配,提高了再識別性能。
進(jìn)一步,與對齊方法PSE(基于關(guān)鍵點(diǎn)構(gòu)建的)相比,本文方法在R1和mAP上仍然有2.8%和4.7%的優(yōu)勢(Market1501)。主要原因在于相比基于行人關(guān)鍵點(diǎn)構(gòu)建的對齊方法,本文方法能夠更準(zhǔn)確的獲得行人的對齊區(qū)域,提高部位對齊效果。
2.2 與主流方法的對比
1)Market1501。在Market-1501中,SegPAN表現(xiàn)出最佳的再識別率:R1 = 90.5%,mAP = 73.7%。與Pose-T[14]相比,分別提高2.9%和4.8%。造成這些差距的主要原因是Pose-T是基于行人部位關(guān)鍵位姿點(diǎn)進(jìn)行對齊,很容易將額外的背景引入到對齊區(qū)域中。相反,本文方法是基于分割策略來實(shí)現(xiàn)行人對齊,并提出了TL-RefineNet來提高分割性能。
2)Duke。在該數(shù)據(jù)集中,選擇6種主流方法來對比。與Market1501數(shù)據(jù)集相比,Duke數(shù)據(jù)集具有更多的遮擋和更大的場景變換。從結(jié)果可以看出,SegPAN的性能依然是最好的,在R1和mAP上,相比方法PSE[12]的性能分別高0.5%和1.1%。此外,相比基于級聯(lián)網(wǎng)絡(luò)的T-S+d-II[23]有著4.8%的優(yōu)勢(R1),這些結(jié)果充分說明本文方法的有效性。
3 結(jié)束語
本文提出一種新的再識別方法來解決行人再識別中的未對齊問題,該方法采用一種分割的策略來獲取行人對齊部位,不僅有助于行人部位的有效對齊,而且降低了背景的干擾。在特征融合方面進(jìn)一步采用加權(quán)融合的方法,來提高對齊特征的魯棒性。實(shí)驗(yàn)表明,在Market1501和Duke數(shù)據(jù)集中,本文方法分別獲得了90.5%和80.3%的再識別率(R1),高于其他主流方法。
通過該研究,本文對行人未對齊問題有了更深入的認(rèn)識,一方面通過行人分割對齊可以有效緩解行人未對齊現(xiàn)象;另一方面行人分割的準(zhǔn)確性對再識別結(jié)果有著一定的干擾。特別是當(dāng)行人圖像出現(xiàn)嚴(yán)重遮擋或分辨率過低時(shí),行人的對齊效果會(huì)受到更大的影響,該不足也將會(huì)成為我們未來研究的重點(diǎn)。
參考文獻(xiàn):
[1]? ? 李幼蛟,卓力,張菁,等. 行人再識別技術(shù)綜述[J]. 自動(dòng)化學(xué)報(bào),2018,44(9):1554-1568.
[2]? ? 譚飛剛,黃玲,翟聰,等. 一種用于大型交通樞紐的跨攝像機(jī)行人再識別算法研究[J]. 鐵道學(xué)報(bào),2017,39(1):76-82.
[3]? ? 王沖,王洪元. 基于跨場景遷移學(xué)習(xí)的行人再識別[J]. 計(jì)算機(jī)工程與設(shè)計(jì),2018,39(5):1457-1462.
[4]? ? GENG S,YU M,GUO Y,et al. A Weighted center graph fusion method for person re-identification [J]. IEEE Access,2019,7:23329- 23342.
[5]? ? 蔣建國,楊寧,齊美彬,等. 區(qū)域塊分割與融合的行人再識別[J]. 中國圖象圖形學(xué)報(bào),2019,24(4):513-522.
[6]? ? GENG S,YU M,LIU Y,et al. Re-ranking pedestrian re-identification with multiple metrics[J]. Multimedia Tools and Applications,2019,78(9):11631-11653.
[7]? ? GUO Y,CHEUNG N M. Efficient and deep person re-identification using multi-level similarity[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT. New York,USA:IEEE,2018:2335-2344.
[8]? ? CHEN Y,ZHU X,GONG S,et al. Person re-identification by deep learning multi-scale representations[C]// 2017 IEEE International Conference on Computer Vision Workshops (ICCVW). Venice. New York,USA:IEEE,2017:2590-2600.
[9]? ? ZHANG Z,SI T. Learning deep features from body and parts for person re-identification in camera networks [J]. Journal on Wireless Communications and Networking,2018 (1):39-52.
[10]? SU C,LI J,ZHANG S,et al. Pose-driven deep convolutional model for person re-identification[C]// 2017 IEEE International Conference on Computer Vision (ICCV). Venice. New York,USA:IEEE,2017:3980-3989.
[11]? ZHENG Z,ZHENG L,YANG Y. Pedestrian alignment network for large-scale person re-identification [J]. IEEE Transactions on Circuits and Systems for Video Technology,2018,4:1-11.
[12]? SARFRAZ M S,SCHUMANN A,EBERLE A,et al. A pose-sensitive embedding for person re-identification with expanded cross neighborhood re-ranking [C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT. New York,USA:IEEE,2018:420-429.
[13]? ZHENG L,HUANG Y,LU H C,et al. Pose invariant embedding for deep person re-identification [J]. IEEE Transactions on Image Processing,2019,28(9):4500-4509.
[14]? LIU J,NI B,YAN Y,et al. Pose transferrable person re-identification [C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT,USA. New York,USA:IEEE,2018:4099-4108.
[15]? ZHAO H,TIAN M,SUN S,et al. Spindle net:Person re-identification with human body region guided feature decomposition and fusion[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu,HI. New York,USA:IEEE,2017:1077-1085.
[16]? YAO H T,ZHANG S L,HONG R C,et al. Deep representation learning with part loss for person re-identification [J]. IEEE Transactions on Image Processing,2019,28(6):2860–2871.
[17]? ZHANG W S,YAO H,GAO W,et al. Glad:Global-local-alignment descriptor for pedestrian retrieval[C]// ACM International Conference on Multimedia. Silicon Valley,USA,2017:420-428.
[18]? 田萱,王亮,丁琪. 基于深度學(xué)習(xí)的圖像語義分割方法綜述[J]. 軟件學(xué)報(bào),2019,30(2):440-468.
[19]? XIAO T,LI S,WANG B C,et al. Joint detection and identification feature learning for person search[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu,HI. New York,USA:IEEE,2017:3376-3385.
[20]? LIN G,ANTON M,SHEN C,et al. Refinenet:Multi-path refinement networks for high-resolution semantic segmentation[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu,HI. New York,USA:IEEE,2017:1925-1934.
[21]? ZHANG Y,XIANG T,TIMOTHY M,et al. Deep mutual learning[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT. New York,USA:IEEE,2018:4320-4328.
[22]? YU R,DOU Z,BAI S,ZHANG Z,et al. Hard-aware point-to-set deep metric for person re-identification [C]// European Conference on Computer Vision. Munich,Germany,2018:196-212.
[23]? HUANG Y,XU J,WU Q,et al. Multi-pseudo regularized label for generated data in person re-identification [J]. IEEE Transactions on Image Processing,2019,28(3):1391-1403.
[24]? HE K,ZHANG X,REN S,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas,NV,USA. New York,USA:IEEE,2016:770-778.
[25]? ZHONG Z,ZHENG L,ZHENG Z,et al. Camstyle:A novel data augmentation method for person re-identification [J]. IEEE Transactions on Image Processing,2019,28(3):1176-1190.
[責(zé)任編輯 田 豐]