• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于孿生網(wǎng)絡(luò)和雙向最大邊界排序損失的行人再識別

    2019-08-01 01:54:12祁子梁曲寒冰趙傳虎董良李博昭王長生
    計算機(jī)應(yīng)用 2019年4期
    關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)

    祁子梁 曲寒冰 趙傳虎 董良 李博昭 王長生

    摘 要:針對在實際場景中存在的不同行人圖像之間比相同行人圖像之間更相似所造成的行人再識別準(zhǔn)確率較低的問題,提出一種基于孿生網(wǎng)絡(luò)并結(jié)合識別損失和雙向最大邊界排序損失的行人再識別方法。首先,對在超大數(shù)據(jù)集上預(yù)訓(xùn)練過的神經(jīng)網(wǎng)絡(luò)模型進(jìn)行結(jié)構(gòu)改造,主要是對最后的全連接層進(jìn)行改造,使模型可以在行人再識別數(shù)據(jù)集上進(jìn)行識別判斷;其次,聯(lián)合識別損失和排序損失監(jiān)督網(wǎng)絡(luò)在訓(xùn)練集上的訓(xùn)練,并通過正樣本對的相似度值減去負(fù)樣本對的相似度值大于預(yù)定閾值這一判定條件,來使得負(fù)例圖像對之間的距離大于正例圖像對之間的距離;最后,使用訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型在測試集上測試,提取特征并比對特征之間的余弦相似度。在公開數(shù)據(jù)集Market-1501、CUHK03和DukeMTMC-reID上進(jìn)行的實驗結(jié)果表明,所提方法分別取得了89.4%、86.7%、77.2%的rank-1識別率,高于其他典型的行人再識別方法,并且該方法在基準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu)下最高達(dá)到了10.04%的rank-1識別率提升。

    關(guān)鍵詞:?行人再識別;孿生網(wǎng)絡(luò);雙向最大邊界;排序損失;卷積神經(jīng)網(wǎng)絡(luò)

    中圖分類號:TP391.4

    文獻(xiàn)標(biāo)志碼:A

    文章編號:1001-9081(2019)04-0977-07

    Abstract: Focusing on the low accuracy of person re-identification caused by that the similarity between different pedestrians images is more than that between the same pedestrians images in reality, a person re-identification method based on Siamese network combined with identification loss and bidirectional max margin ranking loss was proposed. Firstly, a neural network model which was pre-trained on a huge dataset, especially its final full-connected layer was structurally modified so that it can output correct results on the person re-identification dataset. Secondly, training of the network on the training set was supervised by the combination of identification loss and ranking loss. And according to that the difference between the similarity of the positive and negative sample pairs is greater than the predetermined value, the distance between negative sample pair was made to be larger than that of positive sample pair. Finally, a trained neural network model was used to test on the test set, extracting features and comparing the cosine similarity between the features. Experimental result on the open datasets Market-1501, CUHK03 and DukeMTMC-reID show that rank-1 recognition rates of the proposed method reach 89.4%, 86.7%, and 77.2% respectively, which are higher than those of other classical methods. Moreover, the proposed method can achieve a rank-1 rate improvement of up to 10.04% under baseline network structure.

    Key words: person re-identification; Siamese network; bidirectional max margin; ranking loss; Convolutional Neural Network (CNN)

    0?引言

    行人再識別的目的是識別出跨攝像頭、跨場景下的行人是否為同一個人,可以幫助進(jìn)行進(jìn)一步的查詢跟蹤,其應(yīng)用領(lǐng)域廣泛,如視頻監(jiān)控、城市監(jiān)管、刑事安防等[1]。近年來,行人再識別技術(shù)引起了人們的廣泛關(guān)注,雖然取得了大量的研究成果,但是行人再識別的研究依然存在著諸多挑戰(zhàn)。例如:1)由于攝像機(jī)一般架設(shè)在較高位置,距離行人目標(biāo)較遠(yuǎn),所采集的圖像內(nèi)行人細(xì)節(jié)特征不明顯,導(dǎo)致再識別精度不高;2)行人處于非合作狀態(tài),造成拍攝視角更加多樣;3)即使視角相同,但由于服裝或姿勢的變化,導(dǎo)致不同行人的圖像可能比相同行人的圖像更加相似。

    行人再識別的研究方法大體可以分為無監(jiān)督學(xué)習(xí)方法和有監(jiān)督學(xué)習(xí)方法兩種,當(dāng)前大部分行人再識別技術(shù)采用的是有監(jiān)督學(xué)習(xí)方法?;谟斜O(jiān)督學(xué)習(xí)的行人再識別方法可以概括為三大類:基于特征提取的方法、基于度量學(xué)習(xí)的方法和基于深度學(xué)習(xí)的方法。其中,早期的行人再識別方法主要為特征提取和度量學(xué)習(xí)兩種,并且這些早期方法只關(guān)注其中的某一種,沒有把這兩個過程進(jìn)行很好的結(jié)合,而深度學(xué)習(xí)則提供了較好的端到端解決方法。

    特征提取通過提取具有分辨力和魯棒性的行人特征來解決行人再識別問題,這里的特征是指通過研究者對研究對象觀察研究后,人工選擇并提取的特征,常用的特征如文獻(xiàn)[2-3]中采用的顏色特征、紋理特征,以及多種特征的組合。

    但是通過人工提取的特征大部分只能適應(yīng)特定情況下拍攝的圖像,對于未考慮到的情況無法很好地適用,并且設(shè)計特征需要較高的經(jīng)驗水平。當(dāng)前,隨著行人再識別研究的進(jìn)行,人工特征研究對識別率的提升變得越來越小。

    鑒于在特征研究中存在的問題和困難,度量學(xué)習(xí)的方法被應(yīng)用于行人再識別問題,例如,XQDA(Cross-view Quadratic Discriminant Analysis)算法[3]、KISSME(Keep It Simple and Straightforward MEtric)算法[4]、最大邊界近鄰(Large Margin Nearest Neighbor, LMNN)算法[5]。該類方法的主要思想是通過學(xué)習(xí)一個映射矩陣,將特征從原始特征空間映射到另一個具有高區(qū)分度的特征空間,使得在原始特征空間難區(qū)分甚至不可分的特征變得容易區(qū)分。這種方法在一定程度上降低了對特征的要求,提高了識別算法的魯棒性,但是這些特征提取和度量學(xué)習(xí)相互獨立的處理方法還是不能達(dá)到令人滿意的效果,在拍攝條件和環(huán)境差異較大時無法取得良好的效果。

    隨著計算機(jī)硬件的發(fā)展、計算能力的不斷提升,以及大規(guī)模數(shù)據(jù)集的出現(xiàn),深度學(xué)習(xí)開始應(yīng)用于包括計算機(jī)視覺領(lǐng)域在內(nèi)的各個領(lǐng)域,并取得了優(yōu)異表現(xiàn)[6]。自從在2012年的ImageNet競賽中獲勝,深度學(xué)習(xí)吸引了許多的研究者。隨著其發(fā)展,LeNet5、AlexNet、VGGNet、GoogLeNet、ResNet等優(yōu)秀的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)模型不斷被提出,網(wǎng)絡(luò)的結(jié)構(gòu)越來越深,網(wǎng)絡(luò)性能也不斷提升。

    由于深度學(xué)習(xí)在計算機(jī)視覺領(lǐng)域展現(xiàn)出了優(yōu)越的性能,以及非深度學(xué)習(xí)方法的局限性,深度學(xué)習(xí)方法開始被用于行人再識別課題的研究。其中一些深度學(xué)習(xí)的研究方法可以看作從分類的角度來解決行人再識別的問題,如文獻(xiàn)[7-8]方法,這些方法通過softmax函數(shù)連接交叉熵?fù)p失來判斷某個行人的ID,依此來確定某一幅圖像是否屬于某一個人;還有一些方法從排序的角度來考慮這個問題,如文獻(xiàn)[9-10],這類方法的出發(fā)點就是類內(nèi)距離應(yīng)該比類間距離更近,與被檢索圖像屬于同一類別的行人圖像排在前面。

    針對不同行人圖像之間比相同行人圖像之間更相似所造成的行人再識別準(zhǔn)確率較低的問題,

    本文從排序角度進(jìn)行分析,利用深度學(xué)習(xí)的方法來解決行人再識別問題。

    本文方法是一種有監(jiān)督學(xué)習(xí)方法,實質(zhì)上就是通過更有效的損失函數(shù)來對具有較深結(jié)構(gòu)的網(wǎng)絡(luò)進(jìn)行監(jiān)督訓(xùn)練,從而得到更好的網(wǎng)絡(luò)權(quán)重,之后通過提取更具分辨力和魯棒性的深度特征來解決行人再識別問題。

    本文網(wǎng)絡(luò)結(jié)構(gòu)與文獻(xiàn)[11]中的網(wǎng)絡(luò)結(jié)構(gòu)相似,但其網(wǎng)絡(luò)結(jié)構(gòu)為一個較淺的8層的CNN結(jié)構(gòu),且未經(jīng)過預(yù)訓(xùn)練,而本文采用了網(wǎng)絡(luò)結(jié)構(gòu)更復(fù)雜、效果更好的預(yù)訓(xùn)練過的CNN結(jié)構(gòu)來處理圖像對,這使得所提取的特征可以對圖像進(jìn)行更好的表達(dá)。雖然本文方法在操作上與文獻(xiàn)[9]比較相似,但其僅僅使用了平方損失,而本文使用了更好的損失函數(shù)(排序損失)來監(jiān)督網(wǎng)絡(luò)的學(xué)習(xí),其優(yōu)勢在于可以使得正樣本之間的距離小于負(fù)樣本之間的距離。同時,與文獻(xiàn)[9]不同之處還在于本文方法中正負(fù)樣本的比例是固定的,這樣可以降低正負(fù)樣本的數(shù)量不平衡所造成的影響,從而得到較高識別率。

    1?網(wǎng)絡(luò)結(jié)構(gòu)

    1.1?整體網(wǎng)絡(luò)結(jié)構(gòu)

    本文的整體網(wǎng)絡(luò)結(jié)構(gòu)是在孿生網(wǎng)絡(luò)(Siamese網(wǎng)絡(luò))結(jié)構(gòu)的基礎(chǔ)上進(jìn)行的改進(jìn),所提出的網(wǎng)絡(luò)主要包括兩個判別力很強的CNN模型,并且融合了softmax損失和雙向最大邊界排序損失(本文簡稱為排序損失),網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。圖1中輸入圖像序列是一個四元圖像組,并且這些輸入圖像需要調(diào)整大小來適應(yīng)網(wǎng)絡(luò)輸入尺寸,CNN模型可以是任何一個基準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu),或者是一個重新設(shè)計定義的網(wǎng)絡(luò)結(jié)構(gòu)。為了得到更好的結(jié)果和提高訓(xùn)練效率,并對所提出的聯(lián)合損失的有效性進(jìn)行驗證,本文采用已經(jīng)在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練過的VGGNet-16、GoogLeNet、ResNet-50基準(zhǔn)網(wǎng)絡(luò)作為CNN模型進(jìn)行實驗。

    以ResNet-50為例,首先,為了使本文模型能夠在行人數(shù)據(jù)集上進(jìn)行訓(xùn)練和預(yù)測,需要去掉原始ResNet-50中與最后的池化層相連的全連接(Fully Connected, FC)層和結(jié)果預(yù)測層;然后,在ResNet-50后添加用于防止過擬合的Dropout層和用于預(yù)測的1×1×2048×N維的全連接層,其中2048是特征維數(shù),N是數(shù)據(jù)集的實例個數(shù);最后,通過連接softmax損失層,得到識別損失,并且使用該網(wǎng)絡(luò)最后池化層的輸出作為圖像特征來對輸入圖像進(jìn)行表示,圖像特征會用于測試階段。

    本文所提出的網(wǎng)絡(luò)結(jié)構(gòu)不僅利用到了結(jié)構(gòu)和參數(shù)非常優(yōu)秀的預(yù)訓(xùn)練模型,同時也可以通過孿生網(wǎng)絡(luò)結(jié)構(gòu)很方便地將softmax損失和排序損失結(jié)合在一起。下面分別對構(gòu)建整體網(wǎng)絡(luò)結(jié)構(gòu)所用到的技術(shù)進(jìn)行介紹。

    1.2?基準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu)

    本文中孿生網(wǎng)絡(luò)的兩個分支結(jié)構(gòu)采用在ImageNet競賽的大規(guī)模數(shù)據(jù)集上預(yù)訓(xùn)練過的網(wǎng)絡(luò)模型作為基準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu)(baseline network),該數(shù)據(jù)集有10萬左右的圖片,包括各種類別的對象1000類。使用預(yù)訓(xùn)練過的模型有以下優(yōu)點:1)由于預(yù)訓(xùn)練數(shù)據(jù)集包含對象類別較多,圖片數(shù)量很大,因此使用預(yù)訓(xùn)練模型的初始權(quán)重相對人為設(shè)置更加合理,在訓(xùn)練時有利于快速找到最優(yōu)解;2)由于參數(shù)量巨大,重新對復(fù)雜網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練需要很多的計算資源和時間,不必要的重復(fù)訓(xùn)練會造成很大的浪費;3)這些預(yù)訓(xùn)練模型的性能已經(jīng)通過大量研究者的實驗驗證,性能有所保障。表1對當(dāng)前常用的經(jīng)典基準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu)的特點進(jìn)行簡單總結(jié)。

    表1中的層數(shù)計算的是網(wǎng)絡(luò)中包含可變參數(shù)的層的數(shù)量,比如卷積層和全連接層,那些參數(shù)固定或不包含可變參數(shù)的層未計算進(jìn)去,其中參數(shù)可變與否是針對訓(xùn)練階段而言的。另外,盡管表1中的網(wǎng)絡(luò)結(jié)構(gòu)都有相當(dāng)多不同的版本和各種結(jié)構(gòu)上的改進(jìn),但考慮到訓(xùn)練的效率和實驗驗證效果,本文只采用了表格中所展示的基準(zhǔn)結(jié)構(gòu)進(jìn)行實驗,其中包括VGGNet-16[12]、GoogLeNet[13]和ResNet-50[14]。

    1.3?孿生網(wǎng)絡(luò)

    孿生網(wǎng)絡(luò)通常用來度量兩個輸入樣本之間的相似性(兩個輸入樣本為同類,即輸入都是圖像或者都是文本),判斷輸入樣本是否為相同標(biāo)簽。同時,對應(yīng)孿生網(wǎng)絡(luò)的還有偽孿生網(wǎng)絡(luò)(pseudo-Siamese network,兩種輸入樣本可以是不同類型的,比如一個是圖像另一個是文本),用來判別輸入樣本是否匹配。兩類網(wǎng)絡(luò)的基本結(jié)構(gòu)如圖2所示。

    圖2中孿生網(wǎng)絡(luò)的兩個分支使用相同的結(jié)構(gòu)并且權(quán)重W共享,輸入無論從類型還是數(shù)量上也都是相同的,而偽孿生網(wǎng)絡(luò)則可以使用不同的結(jié)構(gòu)(比如一個為VGGNet,另一個為GoogLeNet),且權(quán)重不共享,輸入也不相同。對于本文來講更加適合使用Siamese網(wǎng)絡(luò)結(jié)構(gòu)的依據(jù)如下:1)行人再識別問題中輸入的都是行人圖像,即輸入的是相同類型的數(shù)據(jù);2)在訓(xùn)練過程中利用到兩幅圖像是否為相同行人這一已知信息;3)充分利用每幅圖像自身所包含的各種信息(顏色和形狀等)。Siamese網(wǎng)絡(luò)通過把輸入圖像映射到特征空間中,從而在特征空間中用度量函數(shù)對比圖像特征的相似度。通常度量函數(shù)可以表示為:

    通過訓(xùn)練找到合適的W,使得當(dāng)X1和X2屬于相同類別時DW較小,當(dāng)類別不同時DW較大。

    可以看到,當(dāng)輸入為相同類別圖像對時,即輸入圖像屬于相同行人,則只需要在訓(xùn)練時最小化DW即可。DW可以是歐氏距離、余弦距離或其他度量方法。

    2?目標(biāo)函數(shù)

    2.1?雙向最大邊界排序損失

    通常用于兩個特征向量之間距離度量的是歐氏距離,但對于行人再識別問題來說,僅僅使用歐氏距離無法區(qū)分那些外觀非常相似的不同行人的圖像。因此,本文使用余弦相似度來度量特征向量的相似度,即通過兩個向量之間的夾角來判斷圖像是否屬于同一行人。余弦相似度可以表示為:

    其中:m是最大損失邊界,它的大小影響訓(xùn)練中收斂的速度和效率;D(*,*)為式(2)所示的余弦相似度分?jǐn)?shù),圖像的相似度越大則這個分?jǐn)?shù)會越高。由式(3)~(4)可知正樣本對之間的相似度大于負(fù)樣本對之間的相似度,排序損失函數(shù)的作用就是在訓(xùn)練中約束這種關(guān)系。因此在式(5)中,當(dāng)正樣本對的相似性分?jǐn)?shù)減去負(fù)樣本對的相似性分?jǐn)?shù)大于m時,即符合判定條件,損失為0。

    本文截取了ResNet-50網(wǎng)絡(luò)中某一非線性層(res4fx)的結(jié)果來可視化輸出其特征圖,分別對使用了雙向最大邊界損失的本文方法,文獻(xiàn)[9]方法(使用了歐氏距離)和基準(zhǔn)網(wǎng)絡(luò)ResNet-50(僅使用了識別損失)的效果進(jìn)行展示,其中原始圖像來自Market-1501數(shù)據(jù)集,結(jié)果如圖3所示。

    由圖3可看出:1)相對于文獻(xiàn)[9]方法,本文方法訓(xùn)練出的網(wǎng)絡(luò)對于圖像中行人信息的表達(dá)更加準(zhǔn)確,對于一些背景的處理效果更好;2)相對于基準(zhǔn)網(wǎng)絡(luò)ResNet-50,本文方法對于行人和背景之間的差異性表現(xiàn)更好,即圖像中行人的信息得到了更高的響應(yīng)值(對應(yīng)特征圖中采用深色進(jìn)行表示)。

    2.2?目標(biāo)函數(shù)

    受文獻(xiàn)[9]的啟發(fā),本文最后的目標(biāo)函數(shù)同時利用識別損失和排序損失。通過兩個較深的基準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu)提取兩幅圖像的特征,然后銜接FC層和softmax損失層產(chǎn)生每一類的概率和識別損失,其中softmax損失定義為:

    代表該樣本在真實標(biāo)簽位置i上的值;分母是對該樣本在所有標(biāo)簽位置上的值進(jìn)行求和。

    softmax損失可以充分利用圖像類別信息,但是只使用該損失函數(shù)無法有效地對那些相似的不同類別圖像進(jìn)行訓(xùn)練。因此,為了學(xué)習(xí)到一個判別力好的特征,并且在特征空間中具有相同類標(biāo)簽的特征向量之間比具有不同類標(biāo)簽的特征向量距離更近,本文把兩種損失函數(shù)結(jié)合,得到最終的目標(biāo)函數(shù)為:

    其中:Lobject代表整個網(wǎng)絡(luò)計算得到的損失;Lsoftmax1和Lsoftmax2為網(wǎng)絡(luò)中兩個分支的softmax損失;Lrank為雙向最大邊界排序損失; μ是用來權(quán)衡兩種損失之間的影響,當(dāng)μ=0時,只有softmax損失函數(shù)產(chǎn)生作用,并且本文在實驗驗證中得到 μ=0.5可以取得較好的實驗結(jié)果。

    通過式(7)對兩種損失的結(jié)合,不僅充分利用了圖像的類別信息,也使得相同類的特征向量之間比不同類的特征向量之間距離更近,從而降低了由于不同行人的圖像非常相似導(dǎo)致誤判的可能性。并且相對于只使用一種損失的方法, 本文方法充分利用了所有的已知信息去訓(xùn)練,因此可以達(dá)到較好的效果。

    圖4通過可視化展示了上述目標(biāo)函數(shù)(式(7))的處理效果。為了得到該可視化結(jié)果,首先,通過本文方法訓(xùn)練得到網(wǎng)絡(luò)權(quán)重,基準(zhǔn)網(wǎng)絡(luò)為ResNet-50;然后,提取行人圖像特征并通過主成分分析法(Principal Component Analysis, PCA)降維使得特征降為50維,行人圖像為來自Market-1501數(shù)據(jù)集的421人的7000張圖像;最后,使用Barnes-Hut t-SNE(tree-based approaches for Stochastic Neighbor Embedding)算法[16]使特征降到2維(坐標(biāo)位置)并聚類。由圖4容易看出,相似的圖像距離較近,不同圖像距離較遠(yuǎn),即本文方法在直觀上是有效的。

    2.3?參數(shù)分析

    由式(7)可知本文方法中較重要的參數(shù)有損失邊界和損失權(quán)重,為了得到更好的改進(jìn)提升,這兩個參數(shù)需要通過實驗得到。本節(jié)實驗在Market-1501數(shù)據(jù)集上采用ResNet-50為基準(zhǔn)進(jìn)行,為了實驗效果和速度,采用單檢索(Single Query)的測試方式,實驗結(jié)果如圖5所示。

    圖5中橫坐標(biāo)分別為m和μ的值,縱坐標(biāo)為在不同參數(shù)下兩種評價指標(biāo)第一準(zhǔn)確度(rank-1)和平均精度均值(mean Average Precision, mAP)的數(shù)值。rank-1是最重要的指標(biāo),即檢索序列結(jié)果排序在第一位(相關(guān)程度第一)的結(jié)果為正確結(jié)果的概率。

    通過實驗結(jié)果可知,m和μ值均為0.5左右時可以取得最好的效果。通過對圖5分析可得:1)當(dāng)m很小時排序損失作用較小,無法取得較大的效果提升;2)當(dāng)m較大時容易導(dǎo)致過擬合現(xiàn)象的產(chǎn)生,因此準(zhǔn)確率也會下降;3)當(dāng)μ為0時,結(jié)果幾乎和只用softmax損失是一樣的,即Lobject=Lsoftmax,這和本文的預(yù)期相符;4)當(dāng)μ較大時,由于識別損失無法充分發(fā)揮作用,即對圖像信息的利用不夠充分,因此也會造成準(zhǔn)確率下降。

    3?實驗與結(jié)果分析

    3.1?數(shù)據(jù)集

    清華大學(xué)的Market-1501數(shù)據(jù)集[1]拍攝場景為清華校園,包含了1501位行人的標(biāo)記好的32668幅圖像,這些行人圖像是用6個不同的攝像機(jī)拍攝的。本文使用751位行人的12936張圖像進(jìn)行訓(xùn)練,750位行人的19732張圖像進(jìn)行測試。該數(shù)據(jù)集中的邊界框(bounding box)是用可變形部分模型(Deformable Part Model,DPM)獲得的。

    香港中文大學(xué)的CUHK03數(shù)據(jù)集[17]包含1467位行人的14097幅圖像,這些圖像拍攝于兩個攝像頭,每個攝像頭下每個行人平均有4.8幅圖像。該數(shù)據(jù)集同時具有人工標(biāo)記和DPM算法檢測的邊界框,為了更接近實際應(yīng)用場景,本文使用DPM檢測到的邊界數(shù)據(jù)進(jìn)行實驗。

    DukeMTMC-reID數(shù)據(jù)集[10]是行人跟蹤數(shù)據(jù)集DukeMTMC的一個子集。DukeMTMC數(shù)據(jù)集由杜克大學(xué)學(xué)者在文獻(xiàn)[18]中提出,包含8個不同視角的85min高分辨率視頻。DukeMTMC-reID數(shù)據(jù)集的圖片截取自DukeMTMC的視頻,它的結(jié)構(gòu)類似于Market-1501數(shù)據(jù)集,包含702位行人,其中16522張為訓(xùn)練圖片,17661張圖像用于測試,2228張作為查詢圖像。

    3.2?評價準(zhǔn)則和實驗設(shè)置

    為了驗證本文方法的有效性,本文采用3種基準(zhǔn)網(wǎng)絡(luò)(VGGNet、GoogLeNet和ResNet-50)和3個公開的行人再識別數(shù)據(jù)集(Market-1501、CUHK03和DukeMTMC-reID)進(jìn)行實驗。使用Matconvnet深度學(xué)習(xí)框架進(jìn)行算法實現(xiàn),實驗環(huán)境為Ubuntu 16.04,Matlab 2016a,NVIDIA Tesla P100顯卡。

    本文使用隨機(jī)梯度下降(Stochastic Gradient Descent, SGD)算法對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,訓(xùn)練中采用批訓(xùn)練的方式,批尺寸(mini-batch size)設(shè)置為10,訓(xùn)練的動量因子固定為0.9,共訓(xùn)練40次,前20次學(xué)習(xí)率為0.1,其后10次為0.02,最后10次為0.01。

    在訓(xùn)練階段:首先,數(shù)據(jù)集中的原始行人圖像被重置為256×256像素的大小,并且從該圖像中裁剪出224×224大小的圖像作為網(wǎng)絡(luò)輸入;然后,圖像數(shù)據(jù)輸入網(wǎng)絡(luò)之中,經(jīng)前向傳播計算得到損失;最后,進(jìn)行損失反向傳播,并調(diào)整網(wǎng)絡(luò)參數(shù),其中排序損失邊界和損失權(quán)重為0.5。

    在測試階段:由于本文網(wǎng)絡(luò)中的兩個分支權(quán)重共享,因此只使用其中一個進(jìn)行特征提取即可。首先,對圖像進(jìn)行預(yù)處理;然后,通過訓(xùn)練過的網(wǎng)絡(luò)進(jìn)行特征提取,對應(yīng)VGGNet-16、GoogLeNet和ResNet-50分別為4096維、1024維和2048維的深度特征;最后,計算對比所提特征的余弦距離得到余弦相似度獲得最終結(jié)果。

    本文在實驗中主要采用兩種評價指標(biāo),分別為累計匹配特征曲線(Cumulated Matching Characteristics curve, CMC)和平均精度均值(mAP)。累計匹配特征曲線從排序的角度對再識別問題進(jìn)行評價,即把檢索結(jié)果按照相關(guān)程度進(jìn)行排序。當(dāng)然,排序靠后的檢索結(jié)果正確率也很重要,盡管排序靠后的檢索結(jié)果相關(guān)程度不如在第一位的結(jié)果,但對于輔助人工識別具有重要意義。

    平均精度均值則是把行人再識別當(dāng)作圖像檢索問題來進(jìn)行評價,該指標(biāo)可以從整體上對算法進(jìn)行評價。其中,精度均值(Average Precision, AP)計算公式為:

    3.3?有效性驗證

    本文通過對行人再識別問題進(jìn)行分析,提出并采用了性能更好的損失函數(shù),因此在有效性實驗部分本文分別采用VGGNet-16、GoogLeNet和ResNet-50作為基準(zhǔn)網(wǎng)絡(luò),

    通過在Market-1501數(shù)據(jù)集上比較本文方法和基準(zhǔn)網(wǎng)絡(luò)的CMC曲線來進(jìn)行有效性驗證,實驗結(jié)果如圖6所示。

    由圖6可知,與基準(zhǔn)網(wǎng)絡(luò)的結(jié)果相比本文方法取得了較大的提升,其中對VGGNet-16、GoogLeNet和ResNet-50三種基準(zhǔn)網(wǎng)絡(luò)在Market-1501數(shù)據(jù)集上rank-1的提升幅度分別為5.85%、8.94%和10.04%,并且通過對比在三種基準(zhǔn)網(wǎng)絡(luò)上的提升幅度也可以得出,當(dāng)網(wǎng)絡(luò)結(jié)構(gòu)較深時本文方法可以達(dá)到更好的提升效果。

    3.4?Market-1501數(shù)據(jù)集實驗

    本文在Market-1501數(shù)據(jù)集上采用了兩種測試方法,即單檢索(Single-Query)和多檢索(Multi-Query)。單檢索時被檢索的圖像為單幀行人圖像,多檢索時被檢索的圖像為多幀同一行人的圖像的均值圖像,其中多檢索可以利用到更多的行人圖像信息,但單檢索更接近實際情況,實驗結(jié)果如表2所示。

    從表2可知,在Market-1501數(shù)據(jù)集上,本文方法在使用ResNet-50作為基準(zhǔn)網(wǎng)絡(luò)時分別在單檢索和多檢索條件下取得了84.5%和89.4%的rank-1準(zhǔn)確率,67.4%和79.2%的mAP。

    從實驗結(jié)果數(shù)據(jù)可得,本文方法取得了最好的綜合效果,并且,在多檢索條件下采用多幅行人圖像用于檢索,有利于提高再識別準(zhǔn)確率。

    3.5?CUHK03數(shù)據(jù)集實驗

    在CUHK03數(shù)據(jù)集中分別在單攝像采集(single-shot)和多攝像采集(multi-shot)的條件下進(jìn)行實驗。單攝像采集條件下每個被檢索圖像在搜索集中只有一幅對應(yīng)的正確圖像,多攝像采集條件下則是使用來自其他攝像機(jī)的所有圖像用于待檢索,對應(yīng)正確的行人圖像不只一幅。其中多攝像采集的情況非常接近圖像檢索,并且可以在一定程度上降低隨機(jī)采樣對結(jié)果帶來的影響,實驗結(jié)果如表3所示。

    從表3可知,本文方法在CUHK03數(shù)據(jù)集上使用ResNet-50作為基準(zhǔn)網(wǎng)絡(luò),在單攝像采集(single-shot)條件下取得了82.9%的rank-1準(zhǔn)確率和89.2%的mAP;在多攝像采集(multi-shot)條件下取得了86.7%的rank-1準(zhǔn)確率和77.8%的mAP。表3中,在單攝像采集條件下,Siamese-reranking方法[8]取得了最好的rank-1結(jié)果,原因是其在訓(xùn)練網(wǎng)絡(luò)并提取特征后采用了重排序技術(shù),使得特征更相似的圖像有更大的概率被排在前面,處理過程較為復(fù)雜;然而,本文僅僅通過改進(jìn)網(wǎng)絡(luò)和損失函數(shù)來提高深度特征對行人圖像的表達(dá)能力,直接提升網(wǎng)絡(luò)本身的性能,沒有進(jìn)行進(jìn)一步的處理。

    3.6?DukeMTMC-reID數(shù)據(jù)集實驗

    DukeMTMC-reID數(shù)據(jù)集的數(shù)據(jù)在結(jié)構(gòu)上和Market-1501相似,由于該數(shù)據(jù)集提出較晚,因此本文只列出了在單檢索(Single Query)時本文方法與其他一些方法的對比。從表4可知,在DukeMTMC-reID數(shù)據(jù)集上本文方法使用ResNet-50作為基準(zhǔn)網(wǎng)絡(luò)取得了77.2%的rank-1準(zhǔn)確率和53.9%的mAP。表4中得到最好mAP的方法是BraidNet-CS+SRL算法[23],該方法比BraidNet-CS多了對負(fù)樣本率進(jìn)行自適應(yīng)學(xué)習(xí)的步驟,使得參數(shù)的選擇更加合理,但同時也需要更多的學(xué)習(xí)時間。

    4?結(jié)語

    本文通過提出一種基于孿生網(wǎng)絡(luò)結(jié)合識別損失和雙向最大邊界排序損失的方法,解決了在實際中不同行人圖像之間比相同行人圖像之間更相似所造成的行人再識別準(zhǔn)確率較低的問題,并且通過數(shù)據(jù)可視化手段展示了識別處理效果。盡管本文只使用了3種基準(zhǔn)網(wǎng)絡(luò)驗證本文方法的有效性,但本文所提的排序損失和對應(yīng)的網(wǎng)絡(luò)結(jié)構(gòu)可以適用于所有的基準(zhǔn)CNN結(jié)構(gòu)。同時,通過在三個公開數(shù)據(jù)集上與其他方法進(jìn)行對比實驗,本文方法取得了較好的綜合性能。

    本文方法存在的主要問題是:1)盡管沒有通過實驗數(shù)據(jù)對運行時間進(jìn)行分析,但是由于使用了擁有大量參數(shù)的網(wǎng)絡(luò)模型,并且所提出的損失函數(shù)在訓(xùn)練時計算較慢,因此訓(xùn)練時間相對較長;2)文中實驗的參數(shù)并不是通過自適應(yīng)學(xué)習(xí)得到的,而是通過在某一數(shù)據(jù)集上實驗獲得的,因此參數(shù)選擇的合理性需要進(jìn)行進(jìn)一步的驗證。

    基于現(xiàn)有結(jié)論,本文認(rèn)為未來可以沿以下幾個方向開展進(jìn)一步的研究工作:首先,對如何把本文方法應(yīng)用于更大規(guī)模的再識別數(shù)據(jù)集進(jìn)行研究,或者驗證其在實際場景中的效果;其次,對損失函數(shù)計算的優(yōu)化和對算法參數(shù)的選擇上需要采用更合理的方法;最后,盡管本文方法是針對行人再識別提出的,但也可以對其應(yīng)用到其他課題進(jìn)行探索,如圖像檢索等。

    參考文獻(xiàn)(References)

    [1] ZHENG L, SHEN L, TIAN L, et al. Scalable person re-identification: a benchmark[C]// ICCV 2015: Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2015: 1116-1124.

    [2] MATSUKAWA T, OKABE T, SUZUKI E, et al. Hierarchical Gaussian descriptor for person re-identification[C]// CVPR 2016: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. ?Washington, DC: IEEE Computer Society, 2016: 1363-1372.

    [3] LIAO S, HU Y, ZHU X, et al. Person re-identification by local maximal occurrence representation and metric learning[C]// CVPR 2015: Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. ?Washington, DC: IEEE Computer Society, 2015: 2197-2206.

    [4] KOESTINGER M, HIRZER M, WOHLHART P, et al. Large scale metric learning from equivalence constraints[C]// CVPR 2012: Proceedings of the 2012 IEEE International Conference on Computer Vision. ?Washington, DC: IEEE Computer Society, 2012: 2288-2295.

    猜你喜歡
    卷積神經(jīng)網(wǎng)絡(luò)
    基于深度神經(jīng)網(wǎng)絡(luò)的微表情識別
    卷積神經(jīng)網(wǎng)絡(luò)中減少訓(xùn)練樣本時間方法研究
    卷積神經(jīng)網(wǎng)絡(luò)語言模型研究
    基于卷積神經(jīng)網(wǎng)絡(luò)的車輛檢索方法研究
    基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    深度學(xué)習(xí)技術(shù)下的中文微博情感的分析與研究
    軟件(2016年5期)2016-08-30 06:27:49
    基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識別的算法的研究
    真人一进一出gif抽搐免费| 日韩免费av在线播放| 久久草成人影院| 高清毛片免费观看视频网站| 国内毛片毛片毛片毛片毛片| a级毛片a级免费在线| 波多野结衣高清作品| 黄色女人牲交| 亚洲美女黄片视频| 精品国产亚洲在线| 老熟妇乱子伦视频在线观看| 日日夜夜操网爽| 脱女人内裤的视频| 国产97色在线日韩免费| 国产av又大| 国产精品自产拍在线观看55亚洲| 国产成人精品久久二区二区91| 国产精品永久免费网站| 最近最新免费中文字幕在线| 亚洲av五月六月丁香网| 桃色一区二区三区在线观看| 亚洲国产欧美一区二区综合| 亚洲性夜色夜夜综合| 久久久水蜜桃国产精品网| 波多野结衣高清作品| 亚洲,欧美精品.| 久久精品国产亚洲av香蕉五月| 国产三级在线视频| 18禁观看日本| 精品一区二区三区视频在线观看免费| 欧美激情久久久久久爽电影| 看黄色毛片网站| 欧美最黄视频在线播放免费| 人妻丰满熟妇av一区二区三区| 观看免费一级毛片| 国产人伦9x9x在线观看| 黄色a级毛片大全视频| 人妻丰满熟妇av一区二区三区| 一本精品99久久精品77| 欧美一级毛片孕妇| 欧美一级毛片孕妇| 美女 人体艺术 gogo| 香蕉国产在线看| 给我免费播放毛片高清在线观看| 麻豆av在线久日| av超薄肉色丝袜交足视频| 最近最新中文字幕大全免费视频| 成人午夜高清在线视频 | av福利片在线| 嫁个100分男人电影在线观看| 午夜精品在线福利| 一个人观看的视频www高清免费观看 | 亚洲中文日韩欧美视频| 99热这里只有精品一区 | 午夜激情福利司机影院| 午夜精品久久久久久毛片777| 青草久久国产| 好男人在线观看高清免费视频 | 久久香蕉精品热| 国产成人精品无人区| 色老头精品视频在线观看| 久久久久免费精品人妻一区二区 | 99国产极品粉嫩在线观看| 精品人妻1区二区| 成人av一区二区三区在线看| 亚洲精品国产区一区二| 天天躁夜夜躁狠狠躁躁| 欧美+亚洲+日韩+国产| 精品人妻1区二区| 国产真人三级小视频在线观看| 2021天堂中文幕一二区在线观 | 美女 人体艺术 gogo| 很黄的视频免费| 亚洲成a人片在线一区二区| av片东京热男人的天堂| 在线av久久热| 久久草成人影院| 亚洲精品国产一区二区精华液| 级片在线观看| 黑人欧美特级aaaaaa片| 国内精品久久久久精免费| 亚洲在线自拍视频| 免费一级毛片在线播放高清视频| 亚洲国产欧美网| 日韩国内少妇激情av| 熟妇人妻久久中文字幕3abv| 婷婷亚洲欧美| 侵犯人妻中文字幕一二三四区| 亚洲电影在线观看av| 色哟哟哟哟哟哟| 亚洲av成人不卡在线观看播放网| 一进一出抽搐gif免费好疼| 无遮挡黄片免费观看| av在线播放免费不卡| 久久精品国产亚洲av香蕉五月| 亚洲av美国av| 露出奶头的视频| а√天堂www在线а√下载| 麻豆av在线久日| 一级作爱视频免费观看| 久久这里只有精品19| 成人亚洲精品av一区二区| 正在播放国产对白刺激| xxx96com| 亚洲av中文字字幕乱码综合 | 亚洲精品色激情综合| 色综合站精品国产| 搡老妇女老女人老熟妇| 成人手机av| 97超级碰碰碰精品色视频在线观看| 日韩一卡2卡3卡4卡2021年| 91麻豆av在线| 成人18禁在线播放| 丁香六月欧美| 国产精品亚洲美女久久久| 曰老女人黄片| 久久香蕉精品热| 日韩欧美国产一区二区入口| 午夜福利一区二区在线看| 国产av不卡久久| 丝袜美腿诱惑在线| 亚洲国产欧美一区二区综合| tocl精华| 免费在线观看亚洲国产| 熟女少妇亚洲综合色aaa.| 欧美一级a爱片免费观看看 | 久久人妻av系列| 一级毛片高清免费大全| 少妇熟女aⅴ在线视频| 动漫黄色视频在线观看| 97碰自拍视频| 国产又色又爽无遮挡免费看| 宅男免费午夜| 天堂√8在线中文| 国内毛片毛片毛片毛片毛片| 午夜福利在线观看吧| 久久久久国内视频| 别揉我奶头~嗯~啊~动态视频| 欧美丝袜亚洲另类 | 最新美女视频免费是黄的| 精品高清国产在线一区| 亚洲一区二区三区不卡视频| 国产精品免费视频内射| 亚洲精品国产区一区二| 色老头精品视频在线观看| 亚洲精品一卡2卡三卡4卡5卡| 中文字幕高清在线视频| 欧美精品亚洲一区二区| 少妇粗大呻吟视频| 女人高潮潮喷娇喘18禁视频| 欧美黑人精品巨大| 啦啦啦 在线观看视频| 日韩欧美免费精品| av超薄肉色丝袜交足视频| 美女 人体艺术 gogo| 熟女少妇亚洲综合色aaa.| 人妻丰满熟妇av一区二区三区| 老司机深夜福利视频在线观看| 精品卡一卡二卡四卡免费| 免费在线观看视频国产中文字幕亚洲| 亚洲五月色婷婷综合| 日本五十路高清| 久久精品国产清高在天天线| 黄色视频,在线免费观看| 久久精品91无色码中文字幕| 别揉我奶头~嗯~啊~动态视频| 校园春色视频在线观看| 国产成人av激情在线播放| 熟妇人妻久久中文字幕3abv| 亚洲五月色婷婷综合| 男女午夜视频在线观看| 国产91精品成人一区二区三区| 琪琪午夜伦伦电影理论片6080| 国产高清有码在线观看视频 | 欧美激情 高清一区二区三区| 国产精品自产拍在线观看55亚洲| 大型av网站在线播放| 香蕉国产在线看| 特大巨黑吊av在线直播 | 亚洲成人国产一区在线观看| 亚洲无线在线观看| 99国产精品一区二区蜜桃av| 久99久视频精品免费| 国产激情久久老熟女| 亚洲国产欧美网| 一边摸一边做爽爽视频免费| 国产亚洲精品第一综合不卡| 国产蜜桃级精品一区二区三区| 天堂√8在线中文| 欧美zozozo另类| 免费在线观看亚洲国产| 国产高清videossex| 色播在线永久视频| 精品高清国产在线一区| 国产精品乱码一区二三区的特点| 国产激情偷乱视频一区二区| 国产亚洲精品av在线| 日本成人三级电影网站| 国产精品影院久久| 亚洲精品色激情综合| 欧美在线一区亚洲| 非洲黑人性xxxx精品又粗又长| 黄片播放在线免费| 亚洲国产精品合色在线| 每晚都被弄得嗷嗷叫到高潮| 久久99热这里只有精品18| 国产一区二区三区在线臀色熟女| 黄片大片在线免费观看| 首页视频小说图片口味搜索| 精品久久久久久久久久免费视频| 亚洲色图av天堂| 国产三级在线视频| 19禁男女啪啪无遮挡网站| 欧美人与性动交α欧美精品济南到| 欧美日韩亚洲国产一区二区在线观看| 一级毛片女人18水好多| 亚洲午夜精品一区,二区,三区| 老熟妇仑乱视频hdxx| 国产蜜桃级精品一区二区三区| 丝袜美腿诱惑在线| 国产成人av教育| 高潮久久久久久久久久久不卡| 国产黄片美女视频| 亚洲精品在线观看二区| 天堂动漫精品| 中国美女看黄片| 欧美中文日本在线观看视频| 午夜久久久久精精品| 久久久久国产精品人妻aⅴ院| 999久久久国产精品视频| 欧美黄色片欧美黄色片| cao死你这个sao货| 最新在线观看一区二区三区| 啦啦啦韩国在线观看视频| 日本成人三级电影网站| 午夜影院日韩av| 国产一区二区激情短视频| 色精品久久人妻99蜜桃| 夜夜夜夜夜久久久久| 欧美最黄视频在线播放免费| 久久香蕉精品热| 日韩欧美一区二区三区在线观看| 大型av网站在线播放| 亚洲成av人片免费观看| 精品日产1卡2卡| 人人妻人人看人人澡| 身体一侧抽搐| 精品乱码久久久久久99久播| 国产高清有码在线观看视频 | 免费在线观看完整版高清| 欧美激情高清一区二区三区| 欧美日韩福利视频一区二区| 国产aⅴ精品一区二区三区波| 日韩精品中文字幕看吧| 此物有八面人人有两片| 一进一出好大好爽视频| 嫩草影院精品99| 精品熟女少妇八av免费久了| 淫妇啪啪啪对白视频| 老司机在亚洲福利影院| 久久人人精品亚洲av| 久久久久久国产a免费观看| 国产精品久久视频播放| 久久草成人影院| 色播在线永久视频| 欧美一区二区精品小视频在线| 久久99热这里只有精品18| 欧美成人性av电影在线观看| 老司机午夜十八禁免费视频| 淫妇啪啪啪对白视频| 日本成人三级电影网站| 在线观看一区二区三区| 女警被强在线播放| 欧美黄色淫秽网站| 中文字幕高清在线视频| 一区二区三区高清视频在线| 国产精品久久久久久精品电影 | 久久久久久久久中文| 黄色 视频免费看| 黄色女人牲交| 日韩av在线大香蕉| 欧美一级毛片孕妇| 国产成+人综合+亚洲专区| 久久久久久九九精品二区国产 | 日韩欧美一区视频在线观看| 丝袜美腿诱惑在线| 99久久国产精品久久久| 看片在线看免费视频| 亚洲成人免费电影在线观看| 日韩 欧美 亚洲 中文字幕| 久久人妻福利社区极品人妻图片| 国产熟女午夜一区二区三区| 亚洲在线自拍视频| 国产一区二区三区视频了| 日韩欧美三级三区| 亚洲精品久久国产高清桃花| 欧美一级毛片孕妇| 亚洲专区字幕在线| 精品久久久久久,| 男女之事视频高清在线观看| 亚洲免费av在线视频| 国产亚洲精品一区二区www| 中文字幕人成人乱码亚洲影| 人成视频在线观看免费观看| 成人一区二区视频在线观看| 老汉色∧v一级毛片| 国产欧美日韩精品亚洲av| 高清毛片免费观看视频网站| 丰满人妻熟妇乱又伦精品不卡| 亚洲国产精品合色在线| 女人高潮潮喷娇喘18禁视频| 亚洲九九香蕉| 亚洲欧美激情综合另类| 精品高清国产在线一区| 国产成人欧美| 亚洲精品美女久久av网站| 午夜精品久久久久久毛片777| 成人一区二区视频在线观看| 亚洲 国产 在线| 亚洲无线在线观看| 人人妻人人澡人人看| 可以在线观看毛片的网站| 久久久久久免费高清国产稀缺| 久久中文看片网| 午夜福利视频1000在线观看| 久久国产精品人妻蜜桃| 色哟哟哟哟哟哟| www.999成人在线观看| 黄片大片在线免费观看| 欧美久久黑人一区二区| 日韩中文字幕欧美一区二区| 亚洲男人天堂网一区| 精品欧美国产一区二区三| 欧美久久黑人一区二区| 日韩免费av在线播放| 精品久久久久久久毛片微露脸| 欧美黄色淫秽网站| 午夜激情av网站| 日韩 欧美 亚洲 中文字幕| 黄频高清免费视频| 色尼玛亚洲综合影院| 亚洲人成网站在线播放欧美日韩| 日韩欧美一区二区三区在线观看| 久久精品91无色码中文字幕| 日本在线视频免费播放| 日韩国内少妇激情av| 啦啦啦免费观看视频1| 免费看美女性在线毛片视频| 夜夜夜夜夜久久久久| 国产激情偷乱视频一区二区| 男女午夜视频在线观看| 男女之事视频高清在线观看| 99热这里只有精品一区 | 久久亚洲精品不卡| 1024视频免费在线观看| 国产人伦9x9x在线观看| 麻豆久久精品国产亚洲av| 亚洲熟妇熟女久久| 一进一出抽搐动态| 午夜日韩欧美国产| 国产男靠女视频免费网站| 欧美性猛交╳xxx乱大交人| 国产区一区二久久| 国产亚洲精品一区二区www| 搡老岳熟女国产| 99久久无色码亚洲精品果冻| 中文在线观看免费www的网站 | 又黄又爽又免费观看的视频| 一区福利在线观看| 午夜免费激情av| 亚洲中文日韩欧美视频| 亚洲成人精品中文字幕电影| 人成视频在线观看免费观看| 高清在线国产一区| 在线观看www视频免费| 美女高潮到喷水免费观看| 亚洲成a人片在线一区二区| 女性被躁到高潮视频| 久久精品国产亚洲av香蕉五月| 久久性视频一级片| 日日夜夜操网爽| 国产99白浆流出| 成人免费观看视频高清| 老司机午夜福利在线观看视频| 国产乱人伦免费视频| 亚洲av成人av| 国产单亲对白刺激| 精品福利观看| 欧美午夜高清在线| 午夜激情福利司机影院| 国产亚洲精品一区二区www| 久久精品夜夜夜夜夜久久蜜豆 | 久久狼人影院| 麻豆成人午夜福利视频| 男男h啪啪无遮挡| 久久久久久人人人人人| 亚洲自拍偷在线| 国产免费男女视频| 婷婷丁香在线五月| av视频在线观看入口| 久久久久久九九精品二区国产 | 午夜两性在线视频| 99热只有精品国产| 午夜老司机福利片| 欧美精品啪啪一区二区三区| 男女床上黄色一级片免费看| 首页视频小说图片口味搜索| 亚洲 欧美 日韩 在线 免费| 视频区欧美日本亚洲| 老司机福利观看| 国产午夜福利久久久久久| 国产一卡二卡三卡精品| 在线观看免费午夜福利视频| 一本大道久久a久久精品| 他把我摸到了高潮在线观看| 亚洲成av人片免费观看| 男男h啪啪无遮挡| 国产主播在线观看一区二区| 欧美日韩一级在线毛片| 香蕉久久夜色| 午夜福利一区二区在线看| 国产国语露脸激情在线看| netflix在线观看网站| 草草在线视频免费看| 最近在线观看免费完整版| 亚洲自偷自拍图片 自拍| 精品国产美女av久久久久小说| 女警被强在线播放| 免费无遮挡裸体视频| 天堂√8在线中文| 亚洲avbb在线观看| ponron亚洲| 国产精品久久久久久人妻精品电影| 中文字幕久久专区| 97人妻精品一区二区三区麻豆 | 黄色a级毛片大全视频| 久久久国产欧美日韩av| 国产成人影院久久av| 黑人操中国人逼视频| 一二三四社区在线视频社区8| 少妇的丰满在线观看| 999久久久精品免费观看国产| 成在线人永久免费视频| 高清在线国产一区| 男人舔奶头视频| 免费看十八禁软件| 国产熟女xx| 国产91精品成人一区二区三区| 99热6这里只有精品| 麻豆成人av在线观看| 90打野战视频偷拍视频| av有码第一页| tocl精华| 国产成+人综合+亚洲专区| 亚洲,欧美精品.| 在线av久久热| 欧美亚洲日本最大视频资源| 亚洲av熟女| 一级毛片精品| 日韩欧美一区视频在线观看| 国产视频内射| 成人av一区二区三区在线看| 亚洲一码二码三码区别大吗| 国产精品野战在线观看| 精品国产一区二区三区四区第35| 在线观看免费午夜福利视频| 久热爱精品视频在线9| 国产精品爽爽va在线观看网站 | 日韩国内少妇激情av| 19禁男女啪啪无遮挡网站| 黄色丝袜av网址大全| 日韩欧美国产一区二区入口| 给我免费播放毛片高清在线观看| 欧美 亚洲 国产 日韩一| 啦啦啦 在线观看视频| 日韩欧美在线二视频| 亚洲av成人不卡在线观看播放网| 久久精品成人免费网站| 成人永久免费在线观看视频| 99精品欧美一区二区三区四区| 亚洲avbb在线观看| 大型黄色视频在线免费观看| 黄片大片在线免费观看| 欧美国产精品va在线观看不卡| 91成年电影在线观看| 最新美女视频免费是黄的| 国产又色又爽无遮挡免费看| 欧美色欧美亚洲另类二区| 亚洲成人久久性| 中亚洲国语对白在线视频| 好看av亚洲va欧美ⅴa在| 欧美激情极品国产一区二区三区| 色综合欧美亚洲国产小说| 欧美一区二区精品小视频在线| 国产成人影院久久av| 老司机深夜福利视频在线观看| 成人免费观看视频高清| 久久人妻av系列| 久久精品国产亚洲av香蕉五月| 首页视频小说图片口味搜索| 伊人久久大香线蕉亚洲五| 欧美色视频一区免费| 一级黄色大片毛片| 亚洲av电影在线进入| 看免费av毛片| 欧美av亚洲av综合av国产av| 久9热在线精品视频| 精品不卡国产一区二区三区| 狠狠狠狠99中文字幕| 亚洲av成人一区二区三| 亚洲精品粉嫩美女一区| 国产aⅴ精品一区二区三区波| av在线播放免费不卡| 国产区一区二久久| 好男人电影高清在线观看| 久久午夜亚洲精品久久| 亚洲精品一卡2卡三卡4卡5卡| 国产伦人伦偷精品视频| 一级毛片高清免费大全| 亚洲熟妇中文字幕五十中出| 久久午夜综合久久蜜桃| 草草在线视频免费看| 国产v大片淫在线免费观看| 91成人精品电影| 99热6这里只有精品| 一进一出抽搐gif免费好疼| 国产精华一区二区三区| 久久香蕉精品热| www.www免费av| 一级a爱视频在线免费观看| 51午夜福利影视在线观看| 中文资源天堂在线| 久久精品影院6| 精品一区二区三区av网在线观看| 在线永久观看黄色视频| 国产久久久一区二区三区| 美女午夜性视频免费| 女人被狂操c到高潮| 国产野战对白在线观看| 亚洲欧美激情综合另类| 日韩欧美国产一区二区入口| 非洲黑人性xxxx精品又粗又长| 老熟妇仑乱视频hdxx| 国产熟女午夜一区二区三区| 午夜两性在线视频| 免费看十八禁软件| 久久国产精品影院| 中亚洲国语对白在线视频| 日本熟妇午夜| 免费看美女性在线毛片视频| 搡老熟女国产l中国老女人| 欧美日韩中文字幕国产精品一区二区三区| 观看免费一级毛片| 国产精品免费一区二区三区在线| 成人18禁在线播放| 黄色女人牲交| 午夜久久久久精精品| 免费av毛片视频| 亚洲第一电影网av| 黄色女人牲交| 伦理电影免费视频| 国产蜜桃级精品一区二区三区| 日本在线视频免费播放| 丰满的人妻完整版| 午夜久久久久精精品| 精品乱码久久久久久99久播| 黑人欧美特级aaaaaa片| 岛国视频午夜一区免费看| xxx96com| 天堂动漫精品| 欧美最黄视频在线播放免费| 国产一区二区激情短视频| 麻豆一二三区av精品| 视频区欧美日本亚洲| 国产成人精品久久二区二区免费| videosex国产| 91九色精品人成在线观看| 亚洲九九香蕉| 欧美性长视频在线观看| 亚洲av熟女| 国产精品98久久久久久宅男小说| 久久天躁狠狠躁夜夜2o2o| 久久国产精品影院| 午夜免费激情av| 国产一级毛片七仙女欲春2 | 午夜两性在线视频| 俺也久久电影网| 亚洲中文字幕一区二区三区有码在线看 | 在线看三级毛片| 亚洲国产精品sss在线观看| 老司机福利观看| 国产精品久久久久久精品电影 | 男女做爰动态图高潮gif福利片| 精品久久久久久久久久久久久 | av超薄肉色丝袜交足视频| 一级黄色大片毛片| 欧美乱妇无乱码| 精品电影一区二区在线| 日本一区二区免费在线视频| www.自偷自拍.com| 可以在线观看的亚洲视频| 久久久久亚洲av毛片大全| 成人国语在线视频| av在线播放免费不卡| 黄色丝袜av网址大全| 黄片小视频在线播放| 日日夜夜操网爽| 成在线人永久免费视频| 不卡av一区二区三区| 老鸭窝网址在线观看| 女同久久另类99精品国产91| 两性夫妻黄色片| 国内少妇人妻偷人精品xxx网站 | 天天躁狠狠躁夜夜躁狠狠躁| 一卡2卡三卡四卡精品乱码亚洲|