• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    視覺行人重識(shí)別研究方法分析及評(píng)價(jià)指標(biāo)探討

    2022-11-03 07:24:16趙安新楊金橋史新國(guó)劉帥師文李學(xué)文
    關(guān)鍵詞:度量行人樣本

    趙安新 楊金橋 史新國(guó) 劉帥 師文 李學(xué)文

    摘 要:行人重識(shí)別技術(shù)是指在視角不重疊的多個(gè)攝像頭下對(duì)同一目標(biāo)行人進(jìn)行圖像匹配的技術(shù),從而實(shí)現(xiàn)跨鏡的目標(biāo)物的智能視頻檢索與跟蹤,在公共安全、工業(yè)場(chǎng)景等方面發(fā)揮著關(guān)鍵的作用。從行人重識(shí)別技術(shù)的研究歷程出發(fā),通過(guò)查閱國(guó)內(nèi)外行人重識(shí)別技術(shù)的研究現(xiàn)狀,對(duì)行人重識(shí)別技術(shù)中經(jīng)典的特征提取方法與度量學(xué)習(xí)方法進(jìn)行綜述分析,梳理行人重識(shí)別研究過(guò)程中常用的圖像數(shù)據(jù)集、視頻數(shù)據(jù)集與評(píng)價(jià)指標(biāo),并對(duì)典型應(yīng)用場(chǎng)景中常見的問(wèn)題進(jìn)行總結(jié)性分析。研究表明,無(wú)論在安防還是工業(yè)領(lǐng)域,都會(huì)遇到光照變化和遮擋問(wèn)題,為此提取更具針對(duì)性的特征是行人重識(shí)別技術(shù)的重大挑戰(zhàn),將多種特征提取方法與度量學(xué)習(xí)方法結(jié)合使用,對(duì)于提升行人重識(shí)別算法的精度大有裨益,其中FastReID算法在Market-1501數(shù)據(jù)集上的Rank-1與mAP值更是達(dá)到95.40%和88.20%,與IDE相比分別提升19.8%和31.2%。最后得出行人重識(shí)別技術(shù)的3大研究趨勢(shì):大規(guī)模視頻數(shù)據(jù)集的支撐算法;算法模型的精準(zhǔn)性、魯棒性與實(shí)時(shí)性;結(jié)合行人檢測(cè)與跟蹤技術(shù),提升匹配精度等。關(guān)鍵詞:行人重識(shí)別;特征提?。欢攘繉W(xué)習(xí);深度學(xué)習(xí);注意力機(jī)制;計(jì)算機(jī)視覺中圖分類號(hào):TN 911.73

    文獻(xiàn)標(biāo)志碼:A

    文章編號(hào):1672-9315(2022)05-1003-10

    DOI:10.13800/j.cnki.xakjdxxb.2022.0520開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

    Analysis of visual person re-identification’s research methods and evaluation indicator’ discussion

    ZHAO Anxin,YANG Jinqiao,SHI Xinguo,LIU Shuai,SHI Wen,LI Xuewen

    (1.College of Communication and Information? Engineering,Xi’an University of Science and Technology,Xi’an 710054,China;2.Shandong Boxuan Mineral Resources Technology Development Co.,Jining 272073,China)

    Abstract:By the person re-identification technology is meant a method for matching the image of the same target person under multiple cameras with non-overlapping perspectives to realize the intelligent video retrieval and tracking of cross-mirror objects.It plays a key role in public safety and industrial scenes.From the research process of pedestrian re-recognition technology and the research status of person re-identification technology at home and abroad,this paper summarizes and analyzes the classical feature extraction methods and measurement learning methods in person re-identification technology,combs the image data sets,video data sets and evaluation indicators commonly used in the research process of person re-identification,with a summative analysis of the common problems in typical application scenarios conducted.It is suggested that whether in security or industrial fields,there often arise problems of illumination change and occlusion.Therefore,extracting more targeted features is a major challenge for person re-identification technology.Combining a variety of feature extraction methods with metric learning methods is of great benefit to improve the accuracy of the person re-identification algorithm.Among them,the rank-1 and map values of the FastReID algorithm on the market-1501 dataset reached 95.40% and 88.20% and increased by 19.8% and 31.2% respectively compared with IDE.Finally,three research trends of person re-identification technology are obtained:support algorithms for large-scale video datasets;accuracy,robustness,and real-time algorithm model,a combination of person detection and tracking technology to improve the matching accuracy.

    Key words:person re-identification;feature extraction;metric learning;deep learning;attentional mechanism;computer vision

    0 引 言

    行人重識(shí)別(person re-identification,簡(jiǎn)稱Re-ID)是利用計(jì)算機(jī)視覺,將多個(gè)攝像機(jī)拍攝的同一行人的圖像關(guān)聯(lián)起來(lái),行人第一次被攝像機(jī)拍攝到的圖像會(huì)被保存到一個(gè)圖像庫(kù),當(dāng)行人被另一個(gè)攝像機(jī)拍攝到時(shí),當(dāng)前圖像會(huì)在圖像庫(kù)中進(jìn)行匹配識(shí)別,識(shí)別出準(zhǔn)確的身份信息,行人重識(shí)別根據(jù)其輸入數(shù)據(jù)的不同可以分為2類,圖像行人重識(shí)別和視頻行人重識(shí)別。而相比圖像行人重識(shí)別,視頻行人重識(shí)別攜帶更多的信息,更接近真實(shí)應(yīng)用,但相較圖像而言更為復(fù)雜,計(jì)算量也更大。

    行人重識(shí)別任務(wù)可以追溯到多攝像機(jī)追蹤的問(wèn)題上,2006年在CVPR上第一次提出行人重識(shí)別的概念,從多攝像機(jī)追蹤的問(wèn)題中將行人重識(shí)別分離出來(lái),使其作為一個(gè)獨(dú)立的研究方向。2007年VIPeR數(shù)據(jù)集問(wèn)世,對(duì)行人重識(shí)別具有重大的研究意義。此后,越來(lái)越多的學(xué)者進(jìn)行行人重識(shí)別方面的研究。2012年ECCV會(huì)議上召開了行人重識(shí)別有關(guān)的第一個(gè)研討會(huì)。早期的行人重識(shí)別主要由人來(lái)設(shè)計(jì)需要提取的特征,以顏色特征為主,常與梯度特征和紋理特征結(jié)合使用,但依賴于設(shè)計(jì)者的經(jīng)驗(yàn)。隨著工業(yè)中人工智能技術(shù)的引入,這些特征難以滿足市場(chǎng)需求,2014年以后,深度學(xué)習(xí)的方法被廣泛應(yīng)用于行人重識(shí)別領(lǐng)域,極大地提高行人重識(shí)別的精度。2017年,ZHANG等提出AlignedReID模型,在行人重識(shí)別問(wèn)題上首次超越人類的表現(xiàn)。2020年HE等提出Fast ReID模型,增強(qiáng)了特征提取的魯棒性。深度學(xué)習(xí)雖然為行人重識(shí)別技術(shù)帶來(lái)正收益,但深度學(xué)習(xí)技術(shù)需要大規(guī)模的行人重識(shí)別數(shù)據(jù)集的支撐,Market-1501, DukeMTMC-ReID等大型數(shù)據(jù)集就應(yīng)運(yùn)而生,既降低模型過(guò)擬合的風(fēng)險(xiǎn),又能夠提升模型的泛化能力。但目前的數(shù)據(jù)集面對(duì)日益擴(kuò)大的監(jiān)控網(wǎng)絡(luò)仍顯不足,需要進(jìn)一步收集更大規(guī)模的數(shù)據(jù)集。除了數(shù)據(jù)集規(guī)模問(wèn)題,現(xiàn)階段的行人重識(shí)別領(lǐng)域還面臨著如光照、遮擋、姿態(tài)變換等問(wèn)題。針對(duì)行人重識(shí)別中的光照問(wèn)題,龔云鵬等在模型訓(xùn)練時(shí),隨機(jī)選擇訓(xùn)練的圖像批組,該批組內(nèi)所有的RGB圖像均會(huì)選擇一個(gè)矩形塊,將所選矩形塊的像素替換為相應(yīng)的灰度圖像像素,生成含有不同灰度區(qū)域的訓(xùn)練圖像。湯紅忠等利用不同視圖的特征表示中編碼系數(shù)間的潛在關(guān)聯(lián),提出具有多級(jí)判別性的字典學(xué)習(xí)算法,該算法降低不同視圖下光照和分辨率差異造成的影響。為解決行人重識(shí)別中的遮擋和姿態(tài)變化問(wèn)題,徐家臻等將最優(yōu)局部特征和整體特征進(jìn)行融合,得到新的特征,該特征提高行人重識(shí)別的精確度。徐勝軍等將行人的全局特征和局部特征整合到一起,通過(guò)多樣化的局部注意力網(wǎng)絡(luò)(DLAN)生成更全面的行人特征。

    近年來(lái),行人重識(shí)別技術(shù)作為計(jì)算機(jī)視覺領(lǐng)域的興起的一種新型技術(shù),在安防與工業(yè)領(lǐng)域內(nèi)扮演者關(guān)鍵角色,如工人安全管控、小區(qū)安防、相冊(cè)聚類和車站智能尋人等等。目前對(duì)行人重識(shí)別中的研究圍繞著獲得魯棒性高、針對(duì)性強(qiáng)的行人描述特征。CHENG等將局部特征與全局特征在三元組網(wǎng)絡(luò)框架下進(jìn)行整合,設(shè)計(jì)出一個(gè)部分聚合的多通道深度網(wǎng)絡(luò)模型。謝琦彬等設(shè)計(jì)一種新的圖像描述方法,該方法在結(jié)合全局特征和局部特征的同時(shí)引入一種新的注意力機(jī)制,增強(qiáng)圖像特征與語(yǔ)義信息之間的映射。提升魯棒性和針對(duì)性之后的行人特征能夠更加從容的應(yīng)對(duì)復(fù)雜的工業(yè)場(chǎng)景。但在實(shí)際應(yīng)用中的遮擋、姿態(tài)變換和光照等問(wèn)題,會(huì)造成行人關(guān)鍵信息的缺失,影響行人重識(shí)別的準(zhǔn)確率,因此,學(xué)術(shù)界將關(guān)注點(diǎn)放在優(yōu)化行人特征表示方法和優(yōu)化距離度量函數(shù)上。接下來(lái)將針對(duì)基于特征表示方法的行人重識(shí)別技術(shù)與基于度量學(xué)習(xí)的行人重識(shí)別技術(shù)兩方面進(jìn)行重點(diǎn)分析。

    1 基于特征學(xué)習(xí)的行人重識(shí)別

    基于特征學(xué)習(xí)的重識(shí)別方法著重于設(shè)計(jì)魯棒性高的行人特征模型,包括傳統(tǒng)手工特征提取和基于深度學(xué)習(xí)的特征提取。行人重識(shí)別技術(shù)的整體框架如圖1所示。

    1.1 傳統(tǒng)特征提取算法

    傳統(tǒng)特征提取算法著重于發(fā)現(xiàn)描述行人外貌的圖像特征,包括顏色特征、梯度特征和紋理特征。

    顏色特征作為區(qū)分不同目標(biāo)和背景的最直觀有效的特征,通常使用顏色直方圖進(jìn)行統(tǒng)計(jì)描述。在行人重識(shí)別中,通常將行人圖像分割為多個(gè)區(qū)域,對(duì)于每個(gè)區(qū)域,通過(guò)獲取它的顏色直方圖來(lái)獲得行人不同部位的顏色特征,如圖2所示。顏色特征可以于不同的顏色空間進(jìn)行計(jì)算,如RGB,HSV,XYZ,LAB等均屬于常用的顏色空間。顏色直方圖具有旋轉(zhuǎn)不變性并且能夠高效的提取目標(biāo)特征,但正是由于其計(jì)算簡(jiǎn)單,忽略了行人圖像空間分布信息,在圖像量化處理時(shí)會(huì)造成顏色誤檢現(xiàn)象,比如將視覺感官相近的顏色量化到不同區(qū)間、把視覺感官不同的顏色量化到同一區(qū)間等等。根據(jù)行人圖像的主顏色構(gòu)建顏色直方圖,并采用圖像增強(qiáng)算法提高行人圖像的顏色對(duì)比度是解決上述問(wèn)題的常用方法。

    雖然顏色特征對(duì)于行人圖片的尺寸和角度的依賴性很小,但是單靠顏色特征難以有效提升行人重識(shí)別的精度,為此學(xué)者們將紋理特征與顏色特征結(jié)合起來(lái)使用。紋理特征用于描述圖像或圖像區(qū)域所對(duì)應(yīng)目標(biāo)物體的表面性質(zhì),從物體的紋理角度反應(yīng)物體的特征。紋理特征不同與顏色特征,通常并不基于像素點(diǎn),而那時(shí)通過(guò)統(tǒng)計(jì)圖像相鄰像素點(diǎn)的差異得到特征。常用的紋理特征方法包括LBP,GMRF,SILTP等。LBP編碼計(jì)算過(guò)程如圖3所示,中心像素點(diǎn)的灰度值是12,以12作為閾值,將該值與其周圍的其他像素值做比較,大于或者等于12,將其對(duì)應(yīng)的像素值置為1,小于12則置為0,從而得到對(duì)應(yīng)的二進(jìn)制碼用來(lái)表示紋理特征。紋理特征受到圖像分辨率的影響,分辨率改變前后計(jì)算的紋理特征可能會(huì)出現(xiàn)較大偏差,并且由于紋理特征表現(xiàn)的是物體的表面性質(zhì),不能完全表示目標(biāo)的本質(zhì),單一紋理特征難以獲得更高層次的的圖像內(nèi)容。學(xué)者們通常將紋理特征與顏色特征結(jié)合起來(lái)使用,把行人圖像劃分成水平條帶,計(jì)算每個(gè)條帶的顏色和紋理直方圖。

    紋理特征通常用來(lái)描述行人的細(xì)節(jié)特征,比如人體腿的姿態(tài)容易改變,就適合采用LBP算子描述對(duì)該區(qū)域進(jìn)行描述。當(dāng)人體軀干處于相對(duì)穩(wěn)定的情況時(shí),梯度特征能夠更好地描述該行人特征。梯度特征反映向量像素的變化差異,比如邊、角點(diǎn)等特性。方向梯度直方圖(histogram of oriented gridients,HOG)是計(jì)算機(jī)視覺領(lǐng)域中一種表征圖像梯度特征的描述子,能夠有效檢測(cè)出行人。行人圖像的HOG特征如圖4所示,對(duì)于輸入的圖像,先計(jì)算該圖像像素點(diǎn)的梯度特性,生成梯度直方圖,再對(duì)圖像的每一個(gè)子塊(block)的特征進(jìn)行拼接,得到圖像的HOG特征。HOG對(duì)行人圖像中的顏色和亮度變化不敏感,但其描述子生成速度慢會(huì)導(dǎo)致實(shí)時(shí)性差并且容易受到噪音的影響,針對(duì)這些問(wèn)題,學(xué)者們通常將HOG算法與其他傳統(tǒng)特征和支持向量機(jī)(support vector machines,SVM)結(jié)合使用,比如將HOG提取出來(lái)的信息和圖像方差與單元均值等融合在一起,并于SVM算法結(jié)合使用,通過(guò)非極大抑制和多尺度檢測(cè)等手段提升模型的泛化性。

    從以上研究中可以發(fā)現(xiàn),傳統(tǒng)的手工特征,以顏色特征為主。由于只依靠顏色特征難以有效地提升行人重識(shí)別的精度,這些方法會(huì)將顏色特征與紋理特征或梯度特征結(jié)合使用,在一定程度減少了表觀差異的問(wèn)題,然而依賴特征設(shè)計(jì)者的設(shè)計(jì)經(jīng)驗(yàn),與度量學(xué)習(xí)算法也互相獨(dú)立,無(wú)法解決光照和外部遮擋的問(wèn)題。雖然傳統(tǒng)算法占用的計(jì)算資源較小,但其檢測(cè)性能難以滿足如今市場(chǎng)需求。為此,越來(lái)越多的學(xué)者在行人重識(shí)別中使用了深度學(xué)習(xí)的方法。

    1.2 基于深度學(xué)習(xí)的特征提取

    以深度學(xué)習(xí)為基礎(chǔ)的特征提取是通過(guò)卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)提取目標(biāo)特征,從而實(shí)現(xiàn)損失函數(shù)和距離度量的優(yōu)化?;谏疃葘W(xué)習(xí)的行人重識(shí)別特征提取主要分為4種:①提取全局特征;②提取局部特征;③提取語(yǔ)義屬性特征;④提取時(shí)空特征。

    基于全局特征的提取方法是直接利用CNN學(xué)習(xí)圖片信息,獲得行人的全局特征向量。早期的研究直接使用分類網(wǎng)絡(luò)進(jìn)行行人識(shí)別,分類網(wǎng)絡(luò)通過(guò)全連接層提取出全局特征。

    雖然全局特征計(jì)算簡(jiǎn)單并且具有良好的不變性,但其特征維數(shù)高、計(jì)算量大,無(wú)法區(qū)分行人信息和背景信息,并且會(huì)產(chǎn)生無(wú)關(guān)背景的干擾現(xiàn)象。為此學(xué)者們?cè)O(shè)計(jì)出層數(shù)更深的卷積神經(jīng)網(wǎng)絡(luò),比如VGG 16,GoogleNet,ResNet 50等等。

    后續(xù)的研究也基于這些深度卷積網(wǎng)絡(luò)提取行人間更精細(xì)且具有強(qiáng)區(qū)分性的特征。

    隨著研究的不斷深入,學(xué)者們開始對(duì)細(xì)小的特征進(jìn)行學(xué)習(xí),網(wǎng)絡(luò)中也陸續(xù)增加了對(duì)局部特征的學(xué)習(xí)。行人圖像中的局部特征數(shù)量豐富,特征之間的相關(guān)度小,不會(huì)因?yàn)檎趽鯁?wèn)題影響其他特征點(diǎn)的檢測(cè)和匹配。局部特征包括邊緣、線和角點(diǎn)等。有學(xué)者將行人分割為數(shù)個(gè)水平條帶,分別學(xué)習(xí)每個(gè)條帶的局部特征,最后對(duì)局部特征進(jìn)行整合。除了將圖像分割成塊,熊煒使用注意力機(jī)制關(guān)注人體骨架關(guān)鍵部位的特征,該文中提出行人的信息主要表現(xiàn)在軀干、肘、膝部、手腕、腳腕等部位,通過(guò)注意力機(jī)制獲取到這些行人身體關(guān)鍵點(diǎn)的信息。以上2種方法都沒(méi)有考慮人體各個(gè)部位之間的關(guān)聯(lián)性,人體每個(gè)部位之間的關(guān)系對(duì)于降低如遮擋、背景雜亂等影響有正向作用。為了解決該問(wèn)題,有學(xué)者使用圖卷積方法對(duì)關(guān)鍵點(diǎn)區(qū)域的局部特征進(jìn)行整合,使用圖匹配算法獲取點(diǎn)與點(diǎn)之間的對(duì)應(yīng)關(guān)系。

    局部特征提取時(shí)可能存在行人圖像劃分后部分圖像塊中不包含行人特征信息的情況。僅僅使用局部特征進(jìn)行行人重識(shí)別的工作不多,更多學(xué)者將局部特征與全局特征結(jié)合起來(lái)表示行人特征。HYUNJONG等在CVPR—2020上提出一種新的特征融合方法——全局對(duì)比池化方法(GCP)提取行人特征,增強(qiáng)了模型的特征鑒別能力。該方法以ResNet50為骨干網(wǎng)絡(luò),將特征圖在h的維度上均分成6塊,分析每一塊之間的關(guān)系并計(jì)算其GCP特征,整體流程如圖5所示。

    行人語(yǔ)義屬性特征,就是按照人類語(yǔ)言意義使用計(jì)算機(jī)語(yǔ)言描述行人特征,判斷2張圖像中的行人是否為同一人,例如頭發(fā)長(zhǎng)短,衣服和顏色等信息。楊曉宇等結(jié)合行人語(yǔ)義特征與行人重識(shí)別技術(shù),提出了一種新的行人重識(shí)別框架,在Market-1501和DukeMTMC-ReID數(shù)據(jù)集上的表現(xiàn)均處于領(lǐng)先水平。此外,還有學(xué)者根據(jù)行人屬性特征,利用GAN(generative adversarial network)網(wǎng)絡(luò)生成新的行人圖片,增加數(shù)據(jù)集的數(shù)量。

    因行人圖像不包含時(shí)間信息,遇到遮擋或拍攝角度變化等情況會(huì)影響識(shí)別效果,因此學(xué)者們通過(guò)視頻中多幀行人序列表示行人時(shí)序和外觀信息。圖6展示了使用視頻幀提取行人外觀和時(shí)空信息。早期研究者直接提取每一幀信息,再通過(guò)最大池化或者平均池化獲取視頻特征。為了能夠使用視頻中的時(shí)間與空間信息,有學(xué)者基于LSTM(long short time memory)提出了一種視頻行人重識(shí)別跨膜態(tài)匹配框架,該網(wǎng)絡(luò)使用一個(gè)分支學(xué)習(xí)空間特征,其他分支學(xué)習(xí)幀與幀之間的關(guān)系。

    當(dāng)視頻過(guò)長(zhǎng)時(shí),消耗的計(jì)算資源龐大,為了對(duì)不同長(zhǎng)度的視頻進(jìn)行處理,通常將長(zhǎng)視頻分成多個(gè)短視頻,聚集排名靠前的短視頻,對(duì)共同關(guān)注的視頻片段特征進(jìn)行學(xué)習(xí)。為了更有效地提取視頻幀中關(guān)鍵信息,蔣玉芳等使用幀間分差法提取關(guān)鍵幀信息。針對(duì)視頻中的異常幀,李自強(qiáng)等提出一種孿生網(wǎng)絡(luò)模型,該網(wǎng)絡(luò)均采用同樣的自編碼器結(jié)構(gòu),能夠同時(shí)捕捉動(dòng)作和外觀信息。

    在行人重識(shí)別技術(shù)中使用深度學(xué)習(xí)算法進(jìn)行特征提取,能夠在無(wú)監(jiān)督的情況下學(xué)習(xí)到行人的深層特征,解決行人監(jiān)控視頻中無(wú)標(biāo)簽數(shù)據(jù)多的問(wèn)題,是行人重識(shí)別領(lǐng)域的重大飛躍,但同時(shí)存在由于數(shù)據(jù)集規(guī)模小而產(chǎn)生的過(guò)擬合問(wèn)題,學(xué)者們針對(duì)該問(wèn)題制作規(guī)模更大的數(shù)據(jù)集。此外,與傳統(tǒng)手工特征相同,將多種深度特征組合使用往往能夠優(yōu)化識(shí)別結(jié)果,現(xiàn)階段的研究主要將局部特征與全局特征相結(jié)合使用,在此基礎(chǔ)上融入其他深度特征成為該領(lǐng)域中新的研究熱點(diǎn)。

    2 基于度量學(xué)習(xí)的行人重識(shí)別

    行人重識(shí)別中為計(jì)算不同數(shù)據(jù)點(diǎn)間的距離,傳統(tǒng)做法是根據(jù)行人識(shí)別領(lǐng)域的先驗(yàn)知識(shí)選擇標(biāo)準(zhǔn)的度量距離如巴氏距離,歐式距離等等。但由于不同攝像機(jī)拍攝視角不同,分辨率不同且同時(shí)存在光線、遮擋、行人衣著以及姿態(tài)的變化,使用標(biāo)準(zhǔn)的度量距離來(lái)度量行人特征的相似度得到的重識(shí)別效果并不好,因此,學(xué)者們提出使用度量學(xué)習(xí)的方法進(jìn)行行人重識(shí)別?;诙攘繉W(xué)習(xí)的算法著重于找到行人特征之間有效的度量準(zhǔn)則,拉近同類特征之間的距離,加大不同類特征之間的距離。最為經(jīng)典的距離為馬氏距離,使用標(biāo)簽相同的樣本組成正樣本對(duì),標(biāo)簽不相同的樣本組成負(fù)樣本對(duì),以此為約束建立馬氏矩陣,在拉近相同人員的特征距離的同時(shí)增大了不同人員的特征距離。

    基于馬氏距離,學(xué)者們提出KISSME,XQDA,LMNN和LMNN-R等度量方法。保持簡(jiǎn)單直接的度量方法(keep it simple and straightforward MEtric,KISSME)以馬氏距離作為其度量距離,通過(guò)樣本對(duì)之間的似然比來(lái)檢驗(yàn)它們是否為同一樣本。交叉視角的二次判別方法(cross-view quadratic discriminant analysis,XQDA)是KISSME算法的推廣,通過(guò)對(duì)多個(gè)場(chǎng)景的數(shù)據(jù)進(jìn)行學(xué)習(xí),將原樣本的一個(gè)子空間,同時(shí)使用KISSME學(xué)習(xí)與子空間對(duì)應(yīng)的距離函數(shù)。KISSME算法雖然并不需要迭代就可以找到閉合解,但是如果特征向量具有較高的維度時(shí),會(huì)影響算法運(yùn)行速度。齊美彬等使用學(xué)習(xí)好的交叉視圖映射模型變換行人特征,消除了因攝像機(jī)拍攝區(qū)域不同造成的特征差異。為增加子空間的判別性,黃新宇等使用Null Foley-Sammon方法對(duì)零空間內(nèi)的總體散度矩陣和類內(nèi)散度矩陣增量學(xué)習(xí),獲得了區(qū)分性較強(qiáng)的子空間。為減少KISSME方法計(jì)算的復(fù)雜度,有學(xué)者使用PCCA(paired constraint component analysis)方法替代KISSME算法的降維步驟,降低計(jì)算的復(fù)雜度。包括大間隔最近鄰方法(large margin nearest neighbor,LMNN)根據(jù)KNN訓(xùn)練樣本得到同類的近鄰樣本,并根據(jù)樣本的位置設(shè)置一個(gè)距離,距離之內(nèi)的同類樣本為目標(biāo)近鄰,反之則為偽裝者。LMNN在最小化樣本與其目標(biāo)近鄰距離的同時(shí)使樣本與偽裝者的距離最大化。LMNN-R為增加樣本間的約束效果,使用全部樣本的平均近鄰邊界替代LMNN中樣本的各自近鄰邊界。

    在度量學(xué)習(xí)中,常常由于正樣本對(duì)數(shù)量有限,會(huì)受到大規(guī)模的負(fù)樣本對(duì)的影響。針對(duì)該問(wèn)題,通常做法是將度量學(xué)習(xí)視為邏輯歸回問(wèn)題,使得正負(fù)樣本對(duì)分類概率最大化。由于單度量學(xué)習(xí)方法在使用過(guò)程中容易過(guò)擬合,學(xué)者們將多種度量學(xué)習(xí)方法結(jié)合使用。在實(shí)際應(yīng)用中,度量學(xué)習(xí)常與特征提取網(wǎng)絡(luò)結(jié)合起來(lái)構(gòu)建出度量損失函數(shù),用于增強(qiáng)特征描述與重識(shí)別模型的魯棒性。常用的損失函數(shù)除了分類損失之外,還有對(duì)比損失,三元組損失等。

    分類損失將行人重識(shí)別的訓(xùn)練過(guò)程直接視為多分類過(guò)程,利用行人ID作為訓(xùn)練的標(biāo)簽進(jìn)行網(wǎng)絡(luò)訓(xùn)練,每個(gè)行人的ID就是一個(gè)類別。對(duì)比損失主要用于訓(xùn)練孿生網(wǎng)絡(luò),通過(guò)降維拉近相同類別的樣本點(diǎn)。基于三元組的度量學(xué)習(xí)將三元組間相對(duì)距離設(shè)置為約束條件,使得同類樣本間距小于不同類樣本間距。當(dāng)輸入2個(gè)相似圖片,三元組損失(Triplet Loss)能夠更好地對(duì)細(xì)節(jié)建模,進(jìn)行細(xì)節(jié)區(qū)分,從而學(xué)習(xí)到更好的輸入表示。與對(duì)比損失函數(shù)相比,通常給定一個(gè)三元組,包含一個(gè)相同目標(biāo)的正樣本,一個(gè)不同目標(biāo)的負(fù)樣本,和一個(gè)目標(biāo)樣例,通過(guò)網(wǎng)絡(luò)訓(xùn)練拉近正樣本距離,加大負(fù)樣本間距離。三元組損失函數(shù)在選擇樣本對(duì)的時(shí)候會(huì)遍歷全部樣本,選擇相差不大的正樣本和相差很大的負(fù)樣本得到的網(wǎng)絡(luò)模型的識(shí)別能力弱,為降低這個(gè)問(wèn)題的影響,有學(xué)者將每次訓(xùn)練中的最難正、負(fù)樣本對(duì)挖掘出來(lái),設(shè)計(jì)一種新的Triplet Loss。此外,潘玥等將三元組損失函數(shù)應(yīng)用于行人重識(shí)別中,并進(jìn)行了優(yōu)化[18]。三元組是近年來(lái)使用最多的度量損失,以三元組損失為例,基于度量學(xué)習(xí)方法的行人重識(shí)別原理如圖7所示。

    包括三元組損失和分類損失在內(nèi)的大多數(shù)損失函數(shù)對(duì)每個(gè)相似性分?jǐn)?shù)的懲罰強(qiáng)度都相同,這種優(yōu)化方式靈活性不高。圓損失作為一種新的損失函數(shù),對(duì)需要優(yōu)化的相似性分?jǐn)?shù)進(jìn)行加權(quán),當(dāng)相似性分?jǐn)?shù)遠(yuǎn)離中心時(shí),獲得更強(qiáng)的懲罰?;趫A損失的行人重識(shí)別模型如圖8所示,將行人重識(shí)別的總?cè)蝿?wù)分解成多個(gè)子任務(wù),模型通過(guò)每個(gè)子任務(wù)不斷學(xué)習(xí)如何處理新的任務(wù),在模型的學(xué)習(xí)過(guò)程中,使用圓損失約束行人的特征向量。FastReID模型中使用Circle Loss,該模型在行人重識(shí)別,車輛重識(shí)別等領(lǐng)域取得優(yōu)異的成果。

    上述損失中,三元組是應(yīng)用最多的度量損失,圓損失作為度量損失的新秀,被認(rèn)為是表現(xiàn)最好的損失。在多任務(wù)學(xué)習(xí)中,由于任務(wù)性質(zhì)存在差異,需要多種損失函數(shù)聯(lián)合使用實(shí)現(xiàn)網(wǎng)絡(luò)優(yōu)化。

    綜合來(lái)看目前基于度量學(xué)習(xí)的行人重識(shí)別方法大都從樣本間距離出發(fā),涉及投影子空間、特征對(duì)齊等多個(gè)方面。但基于樣本特征向量之間的距離度量設(shè)計(jì)的行人重識(shí)別模型在行人關(guān)鍵信息缺失時(shí)準(zhǔn)確率會(huì)大幅度降低,為此將特征提取和度量學(xué)習(xí)結(jié)合起來(lái),提取到行人更加全面的外觀和運(yùn)動(dòng)特征,能夠降低該問(wèn)題帶來(lái)影響。其次,基于度量學(xué)習(xí)的行人重識(shí)別模型同樣存在著數(shù)據(jù)集的問(wèn)題。目前的大多數(shù)基于度量學(xué)習(xí)的模型需要使用提前標(biāo)注好的數(shù)據(jù)集提升模型的魯棒性,在數(shù)據(jù)集的建立中,不只是完整的行人樣本難以收集,對(duì)大量的樣本的進(jìn)行標(biāo)注也是一項(xiàng)巨大的工程。為此,度量學(xué)習(xí)需要考慮如何使用未標(biāo)注的數(shù)據(jù)建立魯棒性高模型。

    3 應(yīng)用分析

    3.1 常用數(shù)據(jù)集

    在行人重識(shí)別中,數(shù)據(jù)集包括圖像數(shù)據(jù)集和視頻數(shù)據(jù)集,圖像數(shù)據(jù)集包括CUHK03,Market-1501,DukeMTMC-ReID,MSMT17;視頻數(shù)據(jù)集包括iLIDS-VID,PRID2011,MARS,Duck-Video。相關(guān)統(tǒng)計(jì)信息見表1和表2。

    隨著學(xué)者們?cè)谛腥酥刈R(shí)別中引入深度學(xué)習(xí)的方法,規(guī)模小的數(shù)據(jù)集已經(jīng)不能滿足研究需求。表1和表2中的圖像與視頻數(shù)量變化表明了,隨著年份的增長(zhǎng),數(shù)據(jù)集的規(guī)模在不斷擴(kuò)大,比如圖像數(shù)據(jù)集中的MSMT 17和視頻數(shù)據(jù)集中的MARS在規(guī)模上都有顯著提升。為得到規(guī)模更大的數(shù)據(jù)集,標(biāo)簽構(gòu)建方式由以往的手工標(biāo)記逐漸改變?yōu)闄C(jī)器智能標(biāo)記,評(píng)價(jià)指標(biāo)也變得多樣化,不再是單一的CMC指標(biāo)。

    將IDE,TriNet,Aligned ReID,MLFN,HA-CNN和FastReID等最新的研究方法在Market-1501數(shù)據(jù)集上的性能進(jìn)行比較,見表3。

    在上述研究方法中,IDE被學(xué)者們廣泛用來(lái)當(dāng)作深度學(xué)習(xí)方法的測(cè)評(píng)基準(zhǔn),后續(xù)提出的研究方法與IDE相比,其Rank-1與mAP值都有不同程度的提升,這是由于這些研究方法中都將多種特征提取方法與度量學(xué)習(xí)方法結(jié)合使用,其中2020年提出的FastReID方法的Rank-1與mAP值更是分別達(dá)到了95.40%和88.20%。

    3.2 評(píng)價(jià)指標(biāo)

    為評(píng)估行人重識(shí)別算法在公開數(shù)據(jù)集上的效果,通常使用評(píng)價(jià)指標(biāo)對(duì)算法模型進(jìn)行量化比較,常用的評(píng)價(jià)指標(biāo)主要有準(zhǔn)確率(Precision)、召回率(Recall)、累計(jì)匹配曲線(cumulative matching characteristics,CMC)和平均精度均值(mean average precision,mAP)。

    3.2.1 準(zhǔn)確率和召回率

    一般來(lái)說(shuō),Precision表示預(yù)測(cè)結(jié)果的準(zhǔn)確率。

    式中 TP(true positives)為將樣本中的正類判別為正類;FP(false positives)為將樣本中的負(fù)類判別為正類。

    Recall是指原始樣本的中的正類被正確預(yù)測(cè)為正類的概率,稱為召回率。

    FN(false negatives)為將樣本中的正類判定為負(fù)類。Precision和Recall都是針對(duì)同一類別的目標(biāo),并且只在檢索到當(dāng)前類別時(shí)進(jìn)行計(jì)算。實(shí)際工程中,我們希望得到較高的Precision和Recall,但常在某種情況下難以實(shí)現(xiàn)。比如有100個(gè)正類,100個(gè)負(fù)類,預(yù)測(cè)結(jié)果均為正,那他的Precision為0.5,而Recall卻為1,為此產(chǎn)生了F1-score。

    3.2.2 F1得分

    一般情況下,我們?cè)诒WCRecall的前提下,盡可能的提升Precision,這就需要對(duì)2個(gè)指標(biāo)進(jìn)行綜合權(quán)衡。F1得分(F1-score)結(jié)合了Precision和Recall的特點(diǎn),表示Precision和Recall調(diào)和后的平均評(píng)估指標(biāo)。

    3.2.3 累計(jì)匹配曲線

    CMC(cumulative matching characteristics)稱為累計(jì)匹配曲線,在行人重識(shí)別領(lǐng)域有著廣泛的應(yīng)用。該曲線反映出分類器的性能,是Rank-k關(guān)于識(shí)別率的曲線。Rank-k表示按照某種相似度匹配規(guī)則,在前k個(gè)匹配結(jié)果中匹配正確的概率,如Rank 1是第1張結(jié)果平均匹配正確率。通常k取值為1,5,10,20。當(dāng)匹配結(jié)果中只有一個(gè)匹配目標(biāo)時(shí),CMC能夠取得極好的效果。但當(dāng)存在多個(gè)目標(biāo)時(shí),CMC無(wú)法全面反映出分類器的性能。

    3.2.4 平均精度均值

    為解決多個(gè)匹配目標(biāo)的測(cè)評(píng)問(wèn)題,學(xué)者們提出平均精度均值mAP(mean average precision)。平均精度AP(average precision)是指Recall在0~1之間的全部值對(duì)應(yīng)的精確度的平均值。假設(shè)庫(kù)中某一目標(biāo)行人的圖片數(shù)量為n張,通過(guò)圖像匹配的結(jié)果中,n張圖片的位置分別為k1,k2,k3,…,kn,則AP為

    AP的值越大表明目標(biāo)圖片在匹配列表中的排名越靠前,匹配的準(zhǔn)備率越高。當(dāng)所有的匹配圖像均在不匹配的圖像之前時(shí),AP的值為1。mAP就是對(duì)多次輸入的AP結(jié)果求和后再取均值

    3.3 應(yīng)用場(chǎng)景分析

    智能視覺監(jiān)控(intelligent visual surveillance,IVS)是通過(guò)機(jī)器學(xué)習(xí)以及深度學(xué)習(xí)等算法自動(dòng)分析圖像序列,實(shí)現(xiàn)監(jiān)控場(chǎng)景中目標(biāo)的識(shí)別、定位與跟蹤,并對(duì)場(chǎng)景進(jìn)行理解分析等,響應(yīng)國(guó)家提出的”安全城市”與”智慧城市”建設(shè)。行人重識(shí)別作為智能視覺的子任務(wù)之一,主要應(yīng)用場(chǎng)景如下。

    1)工廠人員安全管控。如洗煤廠、煉鋼廠等工廠中大型設(shè)備較多,工作環(huán)境差,容易發(fā)生安全事故。傳統(tǒng)的視頻監(jiān)控會(huì)因工作人員視覺疲勞或疏忽等原因無(wú)法及時(shí)察覺危險(xiǎn)。將ReID技術(shù)應(yīng)用到該場(chǎng)景中,建立智能監(jiān)控系統(tǒng),當(dāng)工人出現(xiàn)在任一攝像頭中,系統(tǒng)及時(shí)與圖像庫(kù)中的工人圖像進(jìn)行匹配,并精準(zhǔn)識(shí)別到工人的具體身份,確定工人的行動(dòng)軌跡,從而避免工人進(jìn)入危險(xiǎn)區(qū)域。

    2)礦井人員定位。與工廠人員安全管控類似,將ReID技術(shù)應(yīng)用到該場(chǎng)景中能夠準(zhǔn)確的匹配識(shí)別到井下每一位人員,從而預(yù)判并規(guī)避風(fēng)險(xiǎn)。

    3)商業(yè)ReID。為更好地了解用戶需求,在大型商場(chǎng)中通過(guò)ReID技術(shù)來(lái)實(shí)時(shí)跟蹤用戶,為管理者優(yōu)化用戶購(gòu)物體驗(yàn)提供便利。

    4)手機(jī)相冊(cè)聚類。在手機(jī)電子相冊(cè)中,將單一照片視為查詢圖像,整個(gè)相冊(cè)的圖像視為圖像檢索庫(kù),使用ReID技術(shù)對(duì)圖像進(jìn)行匹配查詢,可以將同一人的照片聚集在一起,方便用戶進(jìn)行相冊(cè)管理。

    5)小區(qū)安防。居民小區(qū)與其他場(chǎng)所不同,日常出入的行人多為小區(qū)常駐居民,將ReID技術(shù)應(yīng)用到小區(qū)安防當(dāng)中,既能夠有效識(shí)別常駐居民,又能夠在小區(qū)盜竊等犯罪活動(dòng)中追蹤犯罪嫌疑人。

    6)公共場(chǎng)所智能尋人。如在火車站、游樂(lè)場(chǎng)、超市等人流量較大的大型公共場(chǎng)中,如果不慎與家人或朋友走散,常用尋人方式是通過(guò)廣播尋人。而對(duì)于失散者是年齡較小的孩子或是聽力不佳的殘疾人等便難以起效。將ReID技術(shù)應(yīng)用到該情景下,只需提供一張失散者的照片,系統(tǒng)就會(huì)在監(jiān)控視頻中進(jìn)行實(shí)時(shí)搜尋匹配。

    此外ReID技術(shù)的使用還可與人臉識(shí)別技術(shù)進(jìn)行結(jié)合使用,但無(wú)論用于那種場(chǎng)景,都會(huì)面臨光照變化和遮擋問(wèn)題。

    3.3.1 光照變化

    某一時(shí)刻光照突然發(fā)生改變,會(huì)嚴(yán)重影響行人重識(shí)別模型識(shí)別的準(zhǔn)確率,現(xiàn)階段的研究方法以顏色特征為主,而光照的改變會(huì)導(dǎo)致行人圖像顏色發(fā)生變化。

    為降低光照對(duì)識(shí)別結(jié)果的影響,徐同文等對(duì)人體輪廓進(jìn)行水平垂直分割,考慮不同光照時(shí)人體不同分割部位的顏色特征分布,使特征具有顏色不變性[19]。表4記錄該算法與其他主流算法在CUHK01上的識(shí)別精度,可以看出該算法的精度一直高于其他的算法。除了建立具有顏色不變性的特征,處理光照變化的另一種方法是利用圖像增強(qiáng)等方法對(duì)圖像進(jìn)行預(yù)處理,如Retinex 算法,之后提取出對(duì)光照變化更具魯棒性的特征。

    3.3.2 遮擋問(wèn)題

    在以上場(chǎng)景中,目標(biāo)行人身體的任何部位隨時(shí)都可能會(huì)被其他行人或者建筑物遮擋,這會(huì)導(dǎo)致行人外觀信息發(fā)生改變。針對(duì)遮擋問(wèn)題,學(xué)者們使用注意力機(jī)制引導(dǎo)網(wǎng)絡(luò)學(xué)習(xí)圖片中需要關(guān)注的區(qū)域,主要可以分為空間注意力機(jī)制、通道注意力機(jī)制和結(jié)合空間域和通道域的混合注意力機(jī)制[20]。表5記錄文獻(xiàn)[20]提出的行人重識(shí)別算法與其他主流算法的在Market 1501數(shù)據(jù)集和DukeMTMC-ReID數(shù)據(jù)集上的對(duì)比結(jié)果。從表5可以看出,融合注意力機(jī)制的行人重識(shí)別算法在不同數(shù)據(jù)集上的表現(xiàn)均優(yōu)于其他的主流算法。

    4 結(jié) 論

    1)現(xiàn)階段的行人重識(shí)別技術(shù)引入深度學(xué)習(xí)的方法,主要圍繞特征學(xué)習(xí)和度量學(xué)習(xí)兩方面展開,通過(guò)多種特征相互結(jié)合獲取魯棒性高、針對(duì)性強(qiáng)的行人特征,以應(yīng)對(duì)遮擋、光照等多種因素帶來(lái)的負(fù)面影響。但使用深度學(xué)習(xí)技術(shù)設(shè)計(jì)算法模型時(shí),受制于現(xiàn)有的數(shù)據(jù)集的規(guī)模,相較于傳統(tǒng)方法并未有重大的突破。所以在行人重識(shí)別今后的發(fā)展中,依舊需要收集規(guī)模更大的數(shù)據(jù)集,使數(shù)據(jù)集的數(shù)量接近實(shí)際應(yīng)用的規(guī)模。

    2)行人重識(shí)別技術(shù)可以理解為一種識(shí)別任務(wù),但目前行人重識(shí)別模型的識(shí)別精度仍然不高,并且在實(shí)際應(yīng)用需要同時(shí)保證識(shí)別精度與速度。因此,行人重識(shí)別未來(lái)的發(fā)展不但需要提高識(shí)別速率,追求網(wǎng)絡(luò)的實(shí)時(shí)性,將無(wú)監(jiān)督學(xué)習(xí),跨模態(tài)學(xué)習(xí)以及輕量化技術(shù)應(yīng)用到算法當(dāng)中,還要注重與行人檢測(cè)和行人追蹤技術(shù)的聯(lián)合使用,這將會(huì)有利于行人重識(shí)別技術(shù)在實(shí)際中的高效使用。

    參考文獻(xiàn)(References):

    [1]胡曉強(qiáng),魏丹,王子陽(yáng),等.基于時(shí)空關(guān)注區(qū)域的視頻行人重識(shí)別[J].計(jì)算機(jī)工程,2021,47(6):277-283.HU Xiaoqiang,WEI Dan,WANG Ziyang,et al.Person re-identification in video based on spatial-temporal attention region[J].Computer Engineering,2021,47(6):277-283.

    [2]王麗.融合底層和中層字典特征的行人重識(shí)別[J].中國(guó)光學(xué),2016,9(5):540-546.WANG Li.Pedestrian re-identification based on fusing low-level and mid-level features[J].Chinese Optics,2016,9(5):540-546.

    [3]ZHANG X,LUO H,F(xiàn)AN X,et al.Aligned ReID:surpassing human-level performance in person re-identification[J].Computer Vision and Pattern Recognition,2017,36(2):1383-1387.

    [4]HE L X,LIAO X Y,LIU W,et al.FastReID:a pytorch toolbox for general instance re-identification[J].Computer Vision and Pattern Recognition,2020,14(3):407-414.[5]龔云鵬,曾智勇,葉鋒.基于灰度域特征增強(qiáng)的行人重識(shí)別方法[J].計(jì)算機(jī)應(yīng)用,2021,41(12):3590-3595.GONG Yunpeng,ZENG Zhiyong,YE Feng.Person? re-identification method based on grayscale feature enhancement[J].Journal of Computer Applications,2021,41(12):3590-3595.

    [6]湯紅忠,陳天宇,鄧仕俊,等.面向跨視圖行人重識(shí)別的多級(jí)判別性字典學(xué)習(xí)算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2020,32(9):1430-1441.TANG Hongzhong,CHEN Tianyu,DENG Shijun,et al.Multi-level discriminative dictionary learning method for cross-view person re-identification[J].Journal of Computer-Aided Design & Computer Graphics,2020,32(9):1430-1441.

    [7]徐家臻,李婷,楊巍.多尺度局部特征選擇的行人重識(shí)別算法[J].計(jì)算機(jī)工程與應(yīng)用,2020,56(2):141-145.XU Jiazhen,LI Ting,YANG Wei.Person re-identification by multi-scale local feature selection[J].Computer Engineering and Applications,2020,56(2):141-145.

    [8]徐勝軍,劉求緣,史亞,等.基于多樣化局部注意力網(wǎng)絡(luò)的行人重識(shí)別[J].電子與信息學(xué)報(bào),2022,44(1):211-220.XU Shengjun,LIU Qiuyuan,SHI Ya,et al.Person re-identification based on diversified local attention network[J].Journal of Electronics & Information Technology,2022,44(1):211-220.

    [9]CHENG D,GONG Y H,ZHOU S P,et al.Person re-identification by multi-channel parts-based CNN with improved triplet loss function[C]//IEEE Conference on Computer Vision and Pattern Recognition,2016,44(8):1335-1344.

    [10]謝琦彬,陳平華.結(jié)合全局-局部特征和注意力的圖像描述方法[J].計(jì)算機(jī)工程與應(yīng)用,2022,58(12):218-225.XIE Qibin,CHEN Pinghua.Image caption combiningglobal-local features and attention[J].Computer Engineering and Applications,2022,58(12):218-225.

    [11]熊煒,樂(lè)玲,周蕾,等.基于多層級(jí)特征融合的行人重識(shí)別算法[J].光電子·激光,2021,32(8):872-878.XIONG Wei,YUE Ling,ZHOU Lei,et al.Pedestrian re-identification algorithm based on multi-level feature fusion[J].Journal of Optoelectronics Laser,2021,32(8):872-878.

    [12]HYUNJONG P,BUMSUB H.Relation network for person re-identification[C]//AAAI 2020-34th AAAI Conference on Artificial Intelligence,New York,United States,2020:11839-11847.

    [13]楊曉宇,殷康寧,候少麒,等.基于特征定位與融合的行人重識(shí)別算法[J].計(jì)算機(jī)科學(xué),2022,49(3):170-178.YANG Xiaoyu,YIN Kangning,HOU Shaoqi,et al.Person re-identification based on feature locationand fusion[J].Computer Science,2022,49(3):170-178.

    [14]蔣玉芳.船舶客艙監(jiān)控視頻關(guān)鍵信息多特征融合行為識(shí)別[J].艦船科學(xué)技術(shù),2020,42(22):181-183.JIANG Yufang.Identification of multi-feature fusion-behavior of key information of ship cabin surveillance video[J].Ship Science and Technology,2020,42(22):181-183.

    [15]李自強(qiáng),王正勇,陳洪剛,等.基于外觀和動(dòng)作特征雙預(yù)測(cè)模型的視頻異常行為檢測(cè)[J].計(jì)算機(jī)應(yīng)用,2021,41(10):2997-3003.LI Ziqiang,WANG Zhengyong,CHEN Honggang,et al.Video abnormal behavior detection based on dual prediction model of appearance and motion features[J].Journal of Computer Applications,2021,41(10):2997-3003.

    [16]齊美彬,檀勝順,王運(yùn)俠,等.基于多特征子空間與核學(xué)習(xí)的行人再識(shí)別[J].自動(dòng)化學(xué)報(bào),2016,21(11):1464-1472.QI Meibin,TAN Shengshun,WANG Yunxia,et al.Multi-feature subspace and kernel learning for person re-identification[J].Acta Automatica Sinica,2016,21(11):1464-1472.

    [17]黃新宇,郭綱,許嬌龍,等.基于增量零空間Foley-Sammon變換的行人重識(shí)別[J].光電子·激光,2018,29(4):405-410.HUANG Xinyu,GUO Gang,XU Jiaolong,et al.Increm-ental null Foley-Sammon transform for pedestrian re-identification[J].Journal of Optoelectronics Laser,2018,29(4):405-410.

    [18]潘玥,楊會(huì)成,徐姝琪,等.聯(lián)合損失優(yōu)化三元組模型的行人重識(shí)別[J].光電子·激光,2020,31(9):947-954.PAN Yue,YANG Huicheng,XU Shuqi,et al.Person re-identification based on joint loss optimization triple model[J].Journal of Optoelectronics Laser,2020,31(9):947-954.

    [19]徐同文,白宗文,楊延寧,等.基于光照不變性顏色特征的行人再識(shí)別方法[J].電子設(shè)計(jì)工程,2021,29(14):154-158.XU Tongwen,BAI Zongwen,YANG Yanning,et al.The method of person re-identification based on illumination invariant color feature[J].Electronic? Design Engineering,2021,29(14):154-158.

    [20]宋曉茹,楊佳,高嵩,等.基于注意力機(jī)制與多尺度特征融合的行人重識(shí)別方法[J].科學(xué)技術(shù)與工程,2022,22(4):1526-1533.SONG Xiaoru,YANG Jia,GAO Song,et al.Person re-identification method based on attention mechanism and multi-scale feature fusion[J].Science Technology and Engineering,2022,22(4):1526-1533.

    猜你喜歡
    度量行人樣本
    有趣的度量
    模糊度量空間的強(qiáng)嵌入
    毒舌出沒(méi),行人避讓
    意林(2021年5期)2021-04-18 12:21:17
    用樣本估計(jì)總體復(fù)習(xí)點(diǎn)撥
    迷向表示分為6個(gè)不可約直和的旗流形上不變愛因斯坦度量
    路不為尋找者而設(shè)
    推動(dòng)醫(yī)改的“直銷樣本”
    我是行人
    隨機(jī)微分方程的樣本Lyapunov二次型估計(jì)
    村企共贏的樣本
    国产在线免费精品| 成人无遮挡网站| 制服丝袜香蕉在线| 成人美女网站在线观看视频| 男女国产视频网站| freevideosex欧美| 成人亚洲精品一区在线观看| 在线播放无遮挡| 中文字幕久久专区| 九九爱精品视频在线观看| 国产片特级美女逼逼视频| 婷婷色综合www| 免费大片18禁| 九色成人免费人妻av| 国产亚洲91精品色在线| 七月丁香在线播放| 草草在线视频免费看| 精品久久久久久久久亚洲| 一区在线观看完整版| 欧美精品一区二区免费开放| 寂寞人妻少妇视频99o| 国产男女超爽视频在线观看| 精品少妇黑人巨大在线播放| 午夜福利,免费看| 亚洲性久久影院| 亚洲人成网站在线观看播放| 国产亚洲av片在线观看秒播厂| 97在线人人人人妻| 亚洲精品国产av蜜桃| 狠狠精品人妻久久久久久综合| 91精品国产九色| 一级av片app| 亚洲精品第二区| 欧美 亚洲 国产 日韩一| 久久韩国三级中文字幕| 久久久久久久精品精品| 国产综合精华液| 在线观看美女被高潮喷水网站| 97在线视频观看| 精品午夜福利在线看| 五月开心婷婷网| 十八禁网站网址无遮挡 | 精品一品国产午夜福利视频| 蜜桃久久精品国产亚洲av| av在线播放精品| 天美传媒精品一区二区| 一级a做视频免费观看| 91久久精品国产一区二区三区| √禁漫天堂资源中文www| 高清av免费在线| 一级a做视频免费观看| 日韩中文字幕视频在线看片| 国内揄拍国产精品人妻在线| 亚洲欧美精品专区久久| 亚洲精品视频女| av在线观看视频网站免费| 亚洲av二区三区四区| .国产精品久久| 久久精品国产亚洲av涩爱| 亚洲无线观看免费| 亚洲性久久影院| 三级经典国产精品| 欧美最新免费一区二区三区| 人妻制服诱惑在线中文字幕| 国产精品一区二区三区四区免费观看| 欧美人与善性xxx| 亚洲欧洲精品一区二区精品久久久 | 亚洲怡红院男人天堂| 国产精品偷伦视频观看了| 高清黄色对白视频在线免费看 | 久久97久久精品| 日韩强制内射视频| 欧美性感艳星| 嫩草影院新地址| 久久 成人 亚洲| 日日摸夜夜添夜夜爱| 国精品久久久久久国模美| 亚洲,一卡二卡三卡| 人人妻人人添人人爽欧美一区卜| 丰满迷人的少妇在线观看| 欧美性感艳星| 啦啦啦中文免费视频观看日本| 久久久久久久精品精品| 王馨瑶露胸无遮挡在线观看| 精品少妇内射三级| 午夜老司机福利剧场| 国产免费视频播放在线视频| 91精品伊人久久大香线蕉| 天堂8中文在线网| 久久97久久精品| 最近中文字幕高清免费大全6| 中文字幕av电影在线播放| 亚洲精品日本国产第一区| 乱系列少妇在线播放| 狂野欧美白嫩少妇大欣赏| 青春草国产在线视频| 国产无遮挡羞羞视频在线观看| 91精品国产九色| 在线亚洲精品国产二区图片欧美 | 九九爱精品视频在线观看| 亚洲av在线观看美女高潮| 少妇精品久久久久久久| 久久这里有精品视频免费| a级片在线免费高清观看视频| 尾随美女入室| 99re6热这里在线精品视频| 性高湖久久久久久久久免费观看| 亚洲国产精品一区二区三区在线| 亚洲精品亚洲一区二区| 亚洲精品,欧美精品| 69精品国产乱码久久久| 精品久久久久久电影网| 各种免费的搞黄视频| 2018国产大陆天天弄谢| 亚洲精品国产成人久久av| 久久99热这里只频精品6学生| 免费观看性生交大片5| 久久6这里有精品| 午夜福利影视在线免费观看| 国产精品嫩草影院av在线观看| 久久久久国产精品人妻一区二区| 婷婷色av中文字幕| videos熟女内射| 国产伦精品一区二区三区四那| 久久鲁丝午夜福利片| 肉色欧美久久久久久久蜜桃| 亚洲av日韩在线播放| 汤姆久久久久久久影院中文字幕| 欧美精品一区二区免费开放| 女人精品久久久久毛片| 有码 亚洲区| 天美传媒精品一区二区| 亚洲va在线va天堂va国产| 国产老妇伦熟女老妇高清| 国产精品一二三区在线看| 三上悠亚av全集在线观看 | 九九久久精品国产亚洲av麻豆| 少妇的逼好多水| 日本av手机在线免费观看| 精品少妇内射三级| 亚洲欧美中文字幕日韩二区| 免费看日本二区| 一个人免费看片子| 尾随美女入室| 中文字幕久久专区| 国产在线视频一区二区| 成人亚洲欧美一区二区av| 国产免费一级a男人的天堂| 一区在线观看完整版| 五月玫瑰六月丁香| 亚洲欧洲精品一区二区精品久久久 | 丰满迷人的少妇在线观看| 久久韩国三级中文字幕| 97精品久久久久久久久久精品| 熟妇人妻不卡中文字幕| a级一级毛片免费在线观看| 大香蕉久久网| 日本黄大片高清| 免费观看在线日韩| av在线观看视频网站免费| www.色视频.com| 免费人成在线观看视频色| 久久国产精品男人的天堂亚洲 | 大片电影免费在线观看免费| 天美传媒精品一区二区| 欧美日韩国产mv在线观看视频| 人妻少妇偷人精品九色| 性色av一级| 在线观看人妻少妇| 不卡视频在线观看欧美| 肉色欧美久久久久久久蜜桃| 成人黄色视频免费在线看| 国产欧美另类精品又又久久亚洲欧美| 少妇裸体淫交视频免费看高清| 高清欧美精品videossex| 国产亚洲一区二区精品| 乱码一卡2卡4卡精品| 青春草视频在线免费观看| 内射极品少妇av片p| 亚洲成人av在线免费| 91aial.com中文字幕在线观看| 免费不卡的大黄色大毛片视频在线观看| 男女国产视频网站| 性色avwww在线观看| 少妇熟女欧美另类| 老女人水多毛片| 伊人久久精品亚洲午夜| 亚洲国产精品一区二区三区在线| 观看av在线不卡| 伦理电影免费视频| 人妻人人澡人人爽人人| 亚洲精品成人av观看孕妇| 欧美精品高潮呻吟av久久| 中文资源天堂在线| 欧美最新免费一区二区三区| 一区二区三区精品91| 久久人人爽人人爽人人片va| 少妇裸体淫交视频免费看高清| 最近手机中文字幕大全| 亚洲欧美日韩另类电影网站| 老熟女久久久| 一个人看视频在线观看www免费| a级毛片在线看网站| 少妇人妻 视频| 伦理电影免费视频| 美女cb高潮喷水在线观看| 国产视频内射| 日韩精品免费视频一区二区三区 | 精品国产乱码久久久久久小说| 国产欧美日韩综合在线一区二区 | 亚洲欧美日韩另类电影网站| 乱人伦中国视频| 伦精品一区二区三区| 高清黄色对白视频在线免费看 | 蜜桃久久精品国产亚洲av| 欧美人与善性xxx| 亚洲一区二区三区欧美精品| 国产精品国产三级国产av玫瑰| 在线观看免费日韩欧美大片 | 免费观看在线日韩| 少妇人妻 视频| 成人漫画全彩无遮挡| 在线观看美女被高潮喷水网站| 草草在线视频免费看| 三级经典国产精品| 日韩三级伦理在线观看| 日本黄大片高清| 国产在线一区二区三区精| 亚洲熟女精品中文字幕| 男人舔奶头视频| 美女大奶头黄色视频| 亚洲国产日韩一区二区| 日韩成人伦理影院| 久久精品国产自在天天线| 国产亚洲精品久久久com| 精品99又大又爽又粗少妇毛片| 婷婷色综合www| 久久久久视频综合| 精品国产露脸久久av麻豆| 夫妻性生交免费视频一级片| 国产成人午夜福利电影在线观看| 国产精品蜜桃在线观看| 少妇熟女欧美另类| 18禁动态无遮挡网站| 丁香六月天网| 男女无遮挡免费网站观看| h视频一区二区三区| 欧美精品高潮呻吟av久久| 国产午夜精品一二区理论片| 日韩制服骚丝袜av| 色婷婷久久久亚洲欧美| 国产色婷婷99| www.色视频.com| 99热这里只有是精品在线观看| av有码第一页| 亚洲国产精品一区三区| 久久久久久久亚洲中文字幕| 精品国产乱码久久久久久小说| 夜夜骑夜夜射夜夜干| 麻豆成人av视频| 黑人高潮一二区| 婷婷色av中文字幕| 欧美精品一区二区大全| 一级毛片我不卡| 欧美高清成人免费视频www| 观看av在线不卡| 精品一区二区三区视频在线| 黑丝袜美女国产一区| av天堂久久9| 97在线人人人人妻| 成人亚洲精品一区在线观看| 全区人妻精品视频| 中文资源天堂在线| 国产亚洲精品久久久com| 高清不卡的av网站| 日韩av免费高清视频| 国产精品秋霞免费鲁丝片| 婷婷色麻豆天堂久久| a级毛片在线看网站| 深夜a级毛片| 日韩精品有码人妻一区| 极品人妻少妇av视频| 精品少妇内射三级| 欧美人与善性xxx| 又粗又硬又长又爽又黄的视频| 欧美 日韩 精品 国产| 交换朋友夫妻互换小说| 春色校园在线视频观看| 成人免费观看视频高清| 国产精品女同一区二区软件| 精品视频人人做人人爽| 亚洲精品乱久久久久久| av在线app专区| 国产真实伦视频高清在线观看| 亚洲av免费高清在线观看| 久久久久久久久久成人| 伦理电影免费视频| 日韩电影二区| 十分钟在线观看高清视频www | 天美传媒精品一区二区| 欧美97在线视频| 久久99精品国语久久久| 欧美精品亚洲一区二区| 男女免费视频国产| 国产亚洲精品久久久com| 久久久久久久久久久免费av| 色视频在线一区二区三区| 久久精品熟女亚洲av麻豆精品| 一区二区av电影网| 免费黄网站久久成人精品| 日韩不卡一区二区三区视频在线| 精品少妇久久久久久888优播| 少妇被粗大的猛进出69影院 | 国产黄片美女视频| 最近中文字幕高清免费大全6| 日韩电影二区| 国产成人精品婷婷| 久久久久久久亚洲中文字幕| 亚洲一级一片aⅴ在线观看| 欧美 日韩 精品 国产| 国产黄色免费在线视频| 国产 精品1| 高清午夜精品一区二区三区| 如何舔出高潮| a级毛片在线看网站| 亚洲四区av| 女人久久www免费人成看片| 成人影院久久| 80岁老熟妇乱子伦牲交| 欧美精品国产亚洲| 中文字幕久久专区| 久久久久视频综合| 少妇精品久久久久久久| 各种免费的搞黄视频| 熟妇人妻不卡中文字幕| 观看av在线不卡| 丰满饥渴人妻一区二区三| 成人毛片a级毛片在线播放| 丰满少妇做爰视频| 精品国产露脸久久av麻豆| 91精品伊人久久大香线蕉| 久久av网站| 免费av中文字幕在线| 在线观看人妻少妇| 美女国产视频在线观看| 久久精品国产亚洲av天美| 国产真实伦视频高清在线观看| 亚洲精品成人av观看孕妇| 国产成人精品无人区| 一级毛片我不卡| 免费av不卡在线播放| 久久青草综合色| 国产又色又爽无遮挡免| 成人影院久久| 国产精品99久久久久久久久| 综合色丁香网| 99国产精品免费福利视频| av天堂久久9| kizo精华| 国产精品国产三级专区第一集| 91久久精品国产一区二区成人| 免费看av在线观看网站| av有码第一页| 各种免费的搞黄视频| 一级黄片播放器| 国产在线视频一区二区| 日韩三级伦理在线观看| a级毛色黄片| 久久国产精品大桥未久av | 精品亚洲乱码少妇综合久久| 老司机影院毛片| 日本wwww免费看| 国模一区二区三区四区视频| 精品人妻一区二区三区麻豆| 国产免费一级a男人的天堂| 久久人妻熟女aⅴ| 国产淫语在线视频| 日本免费在线观看一区| 91久久精品国产一区二区三区| 精品久久久久久久久av| 免费久久久久久久精品成人欧美视频 | av福利片在线观看| 国产一区亚洲一区在线观看| 日韩 亚洲 欧美在线| 国产免费一级a男人的天堂| 男人爽女人下面视频在线观看| 成年美女黄网站色视频大全免费 | 少妇精品久久久久久久| 大片电影免费在线观看免费| 国产欧美日韩精品一区二区| 丰满乱子伦码专区| 国产精品不卡视频一区二区| 免费大片18禁| 人妻一区二区av| 人人澡人人妻人| 高清视频免费观看一区二区| 最近中文字幕高清免费大全6| 久久鲁丝午夜福利片| 免费观看性生交大片5| 不卡视频在线观看欧美| 99久久综合免费| 欧美最新免费一区二区三区| 最近手机中文字幕大全| 美女大奶头黄色视频| 99热6这里只有精品| 国产黄色免费在线视频| 嘟嘟电影网在线观看| 日韩中字成人| 亚洲精品乱码久久久v下载方式| 少妇人妻 视频| 麻豆成人av视频| 国产欧美日韩综合在线一区二区 | 国产精品无大码| 日韩亚洲欧美综合| 大香蕉久久网| 久久精品国产自在天天线| 国产精品熟女久久久久浪| 人妻一区二区av| 国产一区亚洲一区在线观看| 国产爽快片一区二区三区| 国产成人精品无人区| 亚洲欧洲日产国产| 亚洲精品国产av蜜桃| 午夜日本视频在线| av国产久精品久网站免费入址| 国产成人精品一,二区| 日本av免费视频播放| 男人和女人高潮做爰伦理| 亚洲久久久国产精品| 大码成人一级视频| 特大巨黑吊av在线直播| 国产极品天堂在线| 在现免费观看毛片| 久久久国产精品麻豆| 久久97久久精品| 国产黄片美女视频| 色婷婷久久久亚洲欧美| 欧美亚洲 丝袜 人妻 在线| 国产精品嫩草影院av在线观看| 在线观看av片永久免费下载| 欧美xxxx性猛交bbbb| 亚洲欧美精品专区久久| 蜜桃久久精品国产亚洲av| 亚洲综合色惰| 国产淫语在线视频| 国产综合精华液| 内射极品少妇av片p| 国精品久久久久久国模美| 亚洲国产精品999| 天堂8中文在线网| 岛国毛片在线播放| 一区二区三区免费毛片| 欧美日韩一区二区视频在线观看视频在线| 久久久久精品性色| 久久人妻熟女aⅴ| 狂野欧美白嫩少妇大欣赏| 如日韩欧美国产精品一区二区三区 | 成人影院久久| 看十八女毛片水多多多| 我要看黄色一级片免费的| 亚洲第一区二区三区不卡| 水蜜桃什么品种好| 91aial.com中文字幕在线观看| 久久久久久久大尺度免费视频| 国产精品秋霞免费鲁丝片| 精品久久久噜噜| 高清av免费在线| 尾随美女入室| 国产成人a∨麻豆精品| 制服丝袜香蕉在线| 在线观看www视频免费| 亚洲怡红院男人天堂| 男人添女人高潮全过程视频| 亚洲精品视频女| 久久久久精品性色| av免费观看日本| 久久久久久久国产电影| 深夜a级毛片| 国产亚洲一区二区精品| 黄片无遮挡物在线观看| 韩国高清视频一区二区三区| 久久久午夜欧美精品| 亚洲欧美一区二区三区国产| 久久精品国产自在天天线| 国产精品麻豆人妻色哟哟久久| √禁漫天堂资源中文www| 国产探花极品一区二区| 精品久久久精品久久久| 伊人亚洲综合成人网| 久热久热在线精品观看| 十分钟在线观看高清视频www | 亚洲国产精品专区欧美| 久久狼人影院| 啦啦啦中文免费视频观看日本| 夜夜看夜夜爽夜夜摸| 韩国av在线不卡| 亚洲精品日韩av片在线观看| 新久久久久国产一级毛片| 一级毛片电影观看| 亚洲av二区三区四区| 女性被躁到高潮视频| 91aial.com中文字幕在线观看| 精品人妻一区二区三区麻豆| 成人影院久久| 最近中文字幕2019免费版| 简卡轻食公司| 国产欧美日韩综合在线一区二区 | 亚洲综合色惰| 97超碰精品成人国产| 久久国产亚洲av麻豆专区| 永久网站在线| 丰满饥渴人妻一区二区三| 国产成人免费观看mmmm| 午夜免费男女啪啪视频观看| 久久韩国三级中文字幕| 久久免费观看电影| 久久精品国产亚洲av天美| 国产精品欧美亚洲77777| 欧美日本中文国产一区发布| 在线 av 中文字幕| 一区在线观看完整版| 免费黄频网站在线观看国产| 久久人人爽av亚洲精品天堂| 国产高清不卡午夜福利| 亚洲人与动物交配视频| 视频区图区小说| 日本欧美视频一区| 久久久精品94久久精品| av视频免费观看在线观看| 一级毛片 在线播放| 人人澡人人妻人| 人妻 亚洲 视频| 2018国产大陆天天弄谢| 欧美精品高潮呻吟av久久| 国产男人的电影天堂91| 精品视频人人做人人爽| 亚洲精品国产成人久久av| 国产精品99久久久久久久久| 啦啦啦视频在线资源免费观看| www.av在线官网国产| 免费观看无遮挡的男女| 亚洲第一av免费看| 有码 亚洲区| 人人妻人人爽人人添夜夜欢视频 | 老司机亚洲免费影院| 国产免费福利视频在线观看| av女优亚洲男人天堂| 国产黄色免费在线视频| 热re99久久精品国产66热6| 午夜av观看不卡| 在线亚洲精品国产二区图片欧美 | 97在线视频观看| 国产成人一区二区在线| 久久综合国产亚洲精品| 不卡视频在线观看欧美| 国产精品久久久久久av不卡| 免费黄色在线免费观看| 成人毛片60女人毛片免费| 男人和女人高潮做爰伦理| 国内少妇人妻偷人精品xxx网站| 少妇熟女欧美另类| 欧美日韩精品成人综合77777| av线在线观看网站| 免费不卡的大黄色大毛片视频在线观看| 午夜福利视频精品| 老司机影院毛片| 日韩免费高清中文字幕av| 国产成人精品无人区| 亚洲精品色激情综合| 亚洲国产精品成人久久小说| 91久久精品电影网| 日韩欧美精品免费久久| 永久网站在线| 秋霞在线观看毛片| 久久久久精品久久久久真实原创| 国产免费又黄又爽又色| 丰满乱子伦码专区| 亚洲在久久综合| 王馨瑶露胸无遮挡在线观看| 99精国产麻豆久久婷婷| 久久人人爽av亚洲精品天堂| 亚洲欧美清纯卡通| 成人亚洲精品一区在线观看| 我要看黄色一级片免费的| 久久久久久久久久久久大奶| 亚洲欧美日韩另类电影网站| 男女边摸边吃奶| 久久久久久久大尺度免费视频| 丰满人妻一区二区三区视频av| 国产成人精品一,二区| 有码 亚洲区| 国产毛片在线视频| 一区二区三区四区激情视频| 欧美激情极品国产一区二区三区 | 婷婷色综合大香蕉| 天堂俺去俺来也www色官网| 午夜日本视频在线| 热re99久久精品国产66热6| 精品国产乱码久久久久久小说| 日日啪夜夜爽| 久久人人爽人人爽人人片va| 久久这里有精品视频免费| 成人影院久久| 欧美日本中文国产一区发布| av卡一久久| 在线天堂最新版资源| 曰老女人黄片| 2022亚洲国产成人精品| 久久久久久久大尺度免费视频| 男女边吃奶边做爰视频| 中国美白少妇内射xxxbb| 国内精品宾馆在线| 99热国产这里只有精品6| 人妻 亚洲 视频| 久久午夜福利片|