• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于孿生網(wǎng)絡(luò)和雙向最大邊界排序損失的行人再識別

    2019-08-01 01:54:12祁子梁曲寒冰趙傳虎董良李博昭王長生
    計算機(jī)應(yīng)用 2019年4期
    關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)

    祁子梁 曲寒冰 趙傳虎 董良 李博昭 王長生

    摘 要:針對在實際場景中存在的不同行人圖像之間比相同行人圖像之間更相似所造成的行人再識別準(zhǔn)確率較低的問題,提出一種基于孿生網(wǎng)絡(luò)并結(jié)合識別損失和雙向最大邊界排序損失的行人再識別方法。首先,對在超大數(shù)據(jù)集上預(yù)訓(xùn)練過的神經(jīng)網(wǎng)絡(luò)模型進(jìn)行結(jié)構(gòu)改造,主要是對最后的全連接層進(jìn)行改造,使模型可以在行人再識別數(shù)據(jù)集上進(jìn)行識別判斷;其次,聯(lián)合識別損失和排序損失監(jiān)督網(wǎng)絡(luò)在訓(xùn)練集上的訓(xùn)練,并通過正樣本對的相似度值減去負(fù)樣本對的相似度值大于預(yù)定閾值這一判定條件,來使得負(fù)例圖像對之間的距離大于正例圖像對之間的距離;最后,使用訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型在測試集上測試,提取特征并比對特征之間的余弦相似度。在公開數(shù)據(jù)集Market-1501、CUHK03和DukeMTMC-reID上進(jìn)行的實驗結(jié)果表明,所提方法分別取得了89.4%、86.7%、77.2%的rank-1識別率,高于其他典型的行人再識別方法,并且該方法在基準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu)下最高達(dá)到了10.04%的rank-1識別率提升。

    關(guān)鍵詞:?行人再識別;孿生網(wǎng)絡(luò);雙向最大邊界;排序損失;卷積神經(jīng)網(wǎng)絡(luò)

    中圖分類號:TP391.4

    文獻(xiàn)標(biāo)志碼:A

    文章編號:1001-9081(2019)04-0977-07

    Abstract: Focusing on the low accuracy of person re-identification caused by that the similarity between different pedestrians images is more than that between the same pedestrians images in reality, a person re-identification method based on Siamese network combined with identification loss and bidirectional max margin ranking loss was proposed. Firstly, a neural network model which was pre-trained on a huge dataset, especially its final full-connected layer was structurally modified so that it can output correct results on the person re-identification dataset. Secondly, training of the network on the training set was supervised by the combination of identification loss and ranking loss. And according to that the difference between the similarity of the positive and negative sample pairs is greater than the predetermined value, the distance between negative sample pair was made to be larger than that of positive sample pair. Finally, a trained neural network model was used to test on the test set, extracting features and comparing the cosine similarity between the features. Experimental result on the open datasets Market-1501, CUHK03 and DukeMTMC-reID show that rank-1 recognition rates of the proposed method reach 89.4%, 86.7%, and 77.2% respectively, which are higher than those of other classical methods. Moreover, the proposed method can achieve a rank-1 rate improvement of up to 10.04% under baseline network structure.

    Key words: person re-identification; Siamese network; bidirectional max margin; ranking loss; Convolutional Neural Network (CNN)

    0?引言

    行人再識別的目的是識別出跨攝像頭、跨場景下的行人是否為同一個人,可以幫助進(jìn)行進(jìn)一步的查詢跟蹤,其應(yīng)用領(lǐng)域廣泛,如視頻監(jiān)控、城市監(jiān)管、刑事安防等[1]。近年來,行人再識別技術(shù)引起了人們的廣泛關(guān)注,雖然取得了大量的研究成果,但是行人再識別的研究依然存在著諸多挑戰(zhàn)。例如:1)由于攝像機(jī)一般架設(shè)在較高位置,距離行人目標(biāo)較遠(yuǎn),所采集的圖像內(nèi)行人細(xì)節(jié)特征不明顯,導(dǎo)致再識別精度不高;2)行人處于非合作狀態(tài),造成拍攝視角更加多樣;3)即使視角相同,但由于服裝或姿勢的變化,導(dǎo)致不同行人的圖像可能比相同行人的圖像更加相似。

    行人再識別的研究方法大體可以分為無監(jiān)督學(xué)習(xí)方法和有監(jiān)督學(xué)習(xí)方法兩種,當(dāng)前大部分行人再識別技術(shù)采用的是有監(jiān)督學(xué)習(xí)方法?;谟斜O(jiān)督學(xué)習(xí)的行人再識別方法可以概括為三大類:基于特征提取的方法、基于度量學(xué)習(xí)的方法和基于深度學(xué)習(xí)的方法。其中,早期的行人再識別方法主要為特征提取和度量學(xué)習(xí)兩種,并且這些早期方法只關(guān)注其中的某一種,沒有把這兩個過程進(jìn)行很好的結(jié)合,而深度學(xué)習(xí)則提供了較好的端到端解決方法。

    特征提取通過提取具有分辨力和魯棒性的行人特征來解決行人再識別問題,這里的特征是指通過研究者對研究對象觀察研究后,人工選擇并提取的特征,常用的特征如文獻(xiàn)[2-3]中采用的顏色特征、紋理特征,以及多種特征的組合。

    但是通過人工提取的特征大部分只能適應(yīng)特定情況下拍攝的圖像,對于未考慮到的情況無法很好地適用,并且設(shè)計特征需要較高的經(jīng)驗水平。當(dāng)前,隨著行人再識別研究的進(jìn)行,人工特征研究對識別率的提升變得越來越小。

    鑒于在特征研究中存在的問題和困難,度量學(xué)習(xí)的方法被應(yīng)用于行人再識別問題,例如,XQDA(Cross-view Quadratic Discriminant Analysis)算法[3]、KISSME(Keep It Simple and Straightforward MEtric)算法[4]、最大邊界近鄰(Large Margin Nearest Neighbor, LMNN)算法[5]。該類方法的主要思想是通過學(xué)習(xí)一個映射矩陣,將特征從原始特征空間映射到另一個具有高區(qū)分度的特征空間,使得在原始特征空間難區(qū)分甚至不可分的特征變得容易區(qū)分。這種方法在一定程度上降低了對特征的要求,提高了識別算法的魯棒性,但是這些特征提取和度量學(xué)習(xí)相互獨立的處理方法還是不能達(dá)到令人滿意的效果,在拍攝條件和環(huán)境差異較大時無法取得良好的效果。

    隨著計算機(jī)硬件的發(fā)展、計算能力的不斷提升,以及大規(guī)模數(shù)據(jù)集的出現(xiàn),深度學(xué)習(xí)開始應(yīng)用于包括計算機(jī)視覺領(lǐng)域在內(nèi)的各個領(lǐng)域,并取得了優(yōu)異表現(xiàn)[6]。自從在2012年的ImageNet競賽中獲勝,深度學(xué)習(xí)吸引了許多的研究者。隨著其發(fā)展,LeNet5、AlexNet、VGGNet、GoogLeNet、ResNet等優(yōu)秀的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)模型不斷被提出,網(wǎng)絡(luò)的結(jié)構(gòu)越來越深,網(wǎng)絡(luò)性能也不斷提升。

    由于深度學(xué)習(xí)在計算機(jī)視覺領(lǐng)域展現(xiàn)出了優(yōu)越的性能,以及非深度學(xué)習(xí)方法的局限性,深度學(xué)習(xí)方法開始被用于行人再識別課題的研究。其中一些深度學(xué)習(xí)的研究方法可以看作從分類的角度來解決行人再識別的問題,如文獻(xiàn)[7-8]方法,這些方法通過softmax函數(shù)連接交叉熵?fù)p失來判斷某個行人的ID,依此來確定某一幅圖像是否屬于某一個人;還有一些方法從排序的角度來考慮這個問題,如文獻(xiàn)[9-10],這類方法的出發(fā)點就是類內(nèi)距離應(yīng)該比類間距離更近,與被檢索圖像屬于同一類別的行人圖像排在前面。

    針對不同行人圖像之間比相同行人圖像之間更相似所造成的行人再識別準(zhǔn)確率較低的問題,

    本文從排序角度進(jìn)行分析,利用深度學(xué)習(xí)的方法來解決行人再識別問題。

    本文方法是一種有監(jiān)督學(xué)習(xí)方法,實質(zhì)上就是通過更有效的損失函數(shù)來對具有較深結(jié)構(gòu)的網(wǎng)絡(luò)進(jìn)行監(jiān)督訓(xùn)練,從而得到更好的網(wǎng)絡(luò)權(quán)重,之后通過提取更具分辨力和魯棒性的深度特征來解決行人再識別問題。

    本文網(wǎng)絡(luò)結(jié)構(gòu)與文獻(xiàn)[11]中的網(wǎng)絡(luò)結(jié)構(gòu)相似,但其網(wǎng)絡(luò)結(jié)構(gòu)為一個較淺的8層的CNN結(jié)構(gòu),且未經(jīng)過預(yù)訓(xùn)練,而本文采用了網(wǎng)絡(luò)結(jié)構(gòu)更復(fù)雜、效果更好的預(yù)訓(xùn)練過的CNN結(jié)構(gòu)來處理圖像對,這使得所提取的特征可以對圖像進(jìn)行更好的表達(dá)。雖然本文方法在操作上與文獻(xiàn)[9]比較相似,但其僅僅使用了平方損失,而本文使用了更好的損失函數(shù)(排序損失)來監(jiān)督網(wǎng)絡(luò)的學(xué)習(xí),其優(yōu)勢在于可以使得正樣本之間的距離小于負(fù)樣本之間的距離。同時,與文獻(xiàn)[9]不同之處還在于本文方法中正負(fù)樣本的比例是固定的,這樣可以降低正負(fù)樣本的數(shù)量不平衡所造成的影響,從而得到較高識別率。

    1?網(wǎng)絡(luò)結(jié)構(gòu)

    1.1?整體網(wǎng)絡(luò)結(jié)構(gòu)

    本文的整體網(wǎng)絡(luò)結(jié)構(gòu)是在孿生網(wǎng)絡(luò)(Siamese網(wǎng)絡(luò))結(jié)構(gòu)的基礎(chǔ)上進(jìn)行的改進(jìn),所提出的網(wǎng)絡(luò)主要包括兩個判別力很強的CNN模型,并且融合了softmax損失和雙向最大邊界排序損失(本文簡稱為排序損失),網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。圖1中輸入圖像序列是一個四元圖像組,并且這些輸入圖像需要調(diào)整大小來適應(yīng)網(wǎng)絡(luò)輸入尺寸,CNN模型可以是任何一個基準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu),或者是一個重新設(shè)計定義的網(wǎng)絡(luò)結(jié)構(gòu)。為了得到更好的結(jié)果和提高訓(xùn)練效率,并對所提出的聯(lián)合損失的有效性進(jìn)行驗證,本文采用已經(jīng)在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練過的VGGNet-16、GoogLeNet、ResNet-50基準(zhǔn)網(wǎng)絡(luò)作為CNN模型進(jìn)行實驗。

    以ResNet-50為例,首先,為了使本文模型能夠在行人數(shù)據(jù)集上進(jìn)行訓(xùn)練和預(yù)測,需要去掉原始ResNet-50中與最后的池化層相連的全連接(Fully Connected, FC)層和結(jié)果預(yù)測層;然后,在ResNet-50后添加用于防止過擬合的Dropout層和用于預(yù)測的1×1×2048×N維的全連接層,其中2048是特征維數(shù),N是數(shù)據(jù)集的實例個數(shù);最后,通過連接softmax損失層,得到識別損失,并且使用該網(wǎng)絡(luò)最后池化層的輸出作為圖像特征來對輸入圖像進(jìn)行表示,圖像特征會用于測試階段。

    本文所提出的網(wǎng)絡(luò)結(jié)構(gòu)不僅利用到了結(jié)構(gòu)和參數(shù)非常優(yōu)秀的預(yù)訓(xùn)練模型,同時也可以通過孿生網(wǎng)絡(luò)結(jié)構(gòu)很方便地將softmax損失和排序損失結(jié)合在一起。下面分別對構(gòu)建整體網(wǎng)絡(luò)結(jié)構(gòu)所用到的技術(shù)進(jìn)行介紹。

    1.2?基準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu)

    本文中孿生網(wǎng)絡(luò)的兩個分支結(jié)構(gòu)采用在ImageNet競賽的大規(guī)模數(shù)據(jù)集上預(yù)訓(xùn)練過的網(wǎng)絡(luò)模型作為基準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu)(baseline network),該數(shù)據(jù)集有10萬左右的圖片,包括各種類別的對象1000類。使用預(yù)訓(xùn)練過的模型有以下優(yōu)點:1)由于預(yù)訓(xùn)練數(shù)據(jù)集包含對象類別較多,圖片數(shù)量很大,因此使用預(yù)訓(xùn)練模型的初始權(quán)重相對人為設(shè)置更加合理,在訓(xùn)練時有利于快速找到最優(yōu)解;2)由于參數(shù)量巨大,重新對復(fù)雜網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練需要很多的計算資源和時間,不必要的重復(fù)訓(xùn)練會造成很大的浪費;3)這些預(yù)訓(xùn)練模型的性能已經(jīng)通過大量研究者的實驗驗證,性能有所保障。表1對當(dāng)前常用的經(jīng)典基準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu)的特點進(jìn)行簡單總結(jié)。

    表1中的層數(shù)計算的是網(wǎng)絡(luò)中包含可變參數(shù)的層的數(shù)量,比如卷積層和全連接層,那些參數(shù)固定或不包含可變參數(shù)的層未計算進(jìn)去,其中參數(shù)可變與否是針對訓(xùn)練階段而言的。另外,盡管表1中的網(wǎng)絡(luò)結(jié)構(gòu)都有相當(dāng)多不同的版本和各種結(jié)構(gòu)上的改進(jìn),但考慮到訓(xùn)練的效率和實驗驗證效果,本文只采用了表格中所展示的基準(zhǔn)結(jié)構(gòu)進(jìn)行實驗,其中包括VGGNet-16[12]、GoogLeNet[13]和ResNet-50[14]。

    1.3?孿生網(wǎng)絡(luò)

    孿生網(wǎng)絡(luò)通常用來度量兩個輸入樣本之間的相似性(兩個輸入樣本為同類,即輸入都是圖像或者都是文本),判斷輸入樣本是否為相同標(biāo)簽。同時,對應(yīng)孿生網(wǎng)絡(luò)的還有偽孿生網(wǎng)絡(luò)(pseudo-Siamese network,兩種輸入樣本可以是不同類型的,比如一個是圖像另一個是文本),用來判別輸入樣本是否匹配。兩類網(wǎng)絡(luò)的基本結(jié)構(gòu)如圖2所示。

    圖2中孿生網(wǎng)絡(luò)的兩個分支使用相同的結(jié)構(gòu)并且權(quán)重W共享,輸入無論從類型還是數(shù)量上也都是相同的,而偽孿生網(wǎng)絡(luò)則可以使用不同的結(jié)構(gòu)(比如一個為VGGNet,另一個為GoogLeNet),且權(quán)重不共享,輸入也不相同。對于本文來講更加適合使用Siamese網(wǎng)絡(luò)結(jié)構(gòu)的依據(jù)如下:1)行人再識別問題中輸入的都是行人圖像,即輸入的是相同類型的數(shù)據(jù);2)在訓(xùn)練過程中利用到兩幅圖像是否為相同行人這一已知信息;3)充分利用每幅圖像自身所包含的各種信息(顏色和形狀等)。Siamese網(wǎng)絡(luò)通過把輸入圖像映射到特征空間中,從而在特征空間中用度量函數(shù)對比圖像特征的相似度。通常度量函數(shù)可以表示為:

    通過訓(xùn)練找到合適的W,使得當(dāng)X1和X2屬于相同類別時DW較小,當(dāng)類別不同時DW較大。

    可以看到,當(dāng)輸入為相同類別圖像對時,即輸入圖像屬于相同行人,則只需要在訓(xùn)練時最小化DW即可。DW可以是歐氏距離、余弦距離或其他度量方法。

    2?目標(biāo)函數(shù)

    2.1?雙向最大邊界排序損失

    通常用于兩個特征向量之間距離度量的是歐氏距離,但對于行人再識別問題來說,僅僅使用歐氏距離無法區(qū)分那些外觀非常相似的不同行人的圖像。因此,本文使用余弦相似度來度量特征向量的相似度,即通過兩個向量之間的夾角來判斷圖像是否屬于同一行人。余弦相似度可以表示為:

    其中:m是最大損失邊界,它的大小影響訓(xùn)練中收斂的速度和效率;D(*,*)為式(2)所示的余弦相似度分?jǐn)?shù),圖像的相似度越大則這個分?jǐn)?shù)會越高。由式(3)~(4)可知正樣本對之間的相似度大于負(fù)樣本對之間的相似度,排序損失函數(shù)的作用就是在訓(xùn)練中約束這種關(guān)系。因此在式(5)中,當(dāng)正樣本對的相似性分?jǐn)?shù)減去負(fù)樣本對的相似性分?jǐn)?shù)大于m時,即符合判定條件,損失為0。

    本文截取了ResNet-50網(wǎng)絡(luò)中某一非線性層(res4fx)的結(jié)果來可視化輸出其特征圖,分別對使用了雙向最大邊界損失的本文方法,文獻(xiàn)[9]方法(使用了歐氏距離)和基準(zhǔn)網(wǎng)絡(luò)ResNet-50(僅使用了識別損失)的效果進(jìn)行展示,其中原始圖像來自Market-1501數(shù)據(jù)集,結(jié)果如圖3所示。

    由圖3可看出:1)相對于文獻(xiàn)[9]方法,本文方法訓(xùn)練出的網(wǎng)絡(luò)對于圖像中行人信息的表達(dá)更加準(zhǔn)確,對于一些背景的處理效果更好;2)相對于基準(zhǔn)網(wǎng)絡(luò)ResNet-50,本文方法對于行人和背景之間的差異性表現(xiàn)更好,即圖像中行人的信息得到了更高的響應(yīng)值(對應(yīng)特征圖中采用深色進(jìn)行表示)。

    2.2?目標(biāo)函數(shù)

    受文獻(xiàn)[9]的啟發(fā),本文最后的目標(biāo)函數(shù)同時利用識別損失和排序損失。通過兩個較深的基準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu)提取兩幅圖像的特征,然后銜接FC層和softmax損失層產(chǎn)生每一類的概率和識別損失,其中softmax損失定義為:

    代表該樣本在真實標(biāo)簽位置i上的值;分母是對該樣本在所有標(biāo)簽位置上的值進(jìn)行求和。

    softmax損失可以充分利用圖像類別信息,但是只使用該損失函數(shù)無法有效地對那些相似的不同類別圖像進(jìn)行訓(xùn)練。因此,為了學(xué)習(xí)到一個判別力好的特征,并且在特征空間中具有相同類標(biāo)簽的特征向量之間比具有不同類標(biāo)簽的特征向量距離更近,本文把兩種損失函數(shù)結(jié)合,得到最終的目標(biāo)函數(shù)為:

    其中:Lobject代表整個網(wǎng)絡(luò)計算得到的損失;Lsoftmax1和Lsoftmax2為網(wǎng)絡(luò)中兩個分支的softmax損失;Lrank為雙向最大邊界排序損失; μ是用來權(quán)衡兩種損失之間的影響,當(dāng)μ=0時,只有softmax損失函數(shù)產(chǎn)生作用,并且本文在實驗驗證中得到 μ=0.5可以取得較好的實驗結(jié)果。

    通過式(7)對兩種損失的結(jié)合,不僅充分利用了圖像的類別信息,也使得相同類的特征向量之間比不同類的特征向量之間距離更近,從而降低了由于不同行人的圖像非常相似導(dǎo)致誤判的可能性。并且相對于只使用一種損失的方法, 本文方法充分利用了所有的已知信息去訓(xùn)練,因此可以達(dá)到較好的效果。

    圖4通過可視化展示了上述目標(biāo)函數(shù)(式(7))的處理效果。為了得到該可視化結(jié)果,首先,通過本文方法訓(xùn)練得到網(wǎng)絡(luò)權(quán)重,基準(zhǔn)網(wǎng)絡(luò)為ResNet-50;然后,提取行人圖像特征并通過主成分分析法(Principal Component Analysis, PCA)降維使得特征降為50維,行人圖像為來自Market-1501數(shù)據(jù)集的421人的7000張圖像;最后,使用Barnes-Hut t-SNE(tree-based approaches for Stochastic Neighbor Embedding)算法[16]使特征降到2維(坐標(biāo)位置)并聚類。由圖4容易看出,相似的圖像距離較近,不同圖像距離較遠(yuǎn),即本文方法在直觀上是有效的。

    2.3?參數(shù)分析

    由式(7)可知本文方法中較重要的參數(shù)有損失邊界和損失權(quán)重,為了得到更好的改進(jìn)提升,這兩個參數(shù)需要通過實驗得到。本節(jié)實驗在Market-1501數(shù)據(jù)集上采用ResNet-50為基準(zhǔn)進(jìn)行,為了實驗效果和速度,采用單檢索(Single Query)的測試方式,實驗結(jié)果如圖5所示。

    圖5中橫坐標(biāo)分別為m和μ的值,縱坐標(biāo)為在不同參數(shù)下兩種評價指標(biāo)第一準(zhǔn)確度(rank-1)和平均精度均值(mean Average Precision, mAP)的數(shù)值。rank-1是最重要的指標(biāo),即檢索序列結(jié)果排序在第一位(相關(guān)程度第一)的結(jié)果為正確結(jié)果的概率。

    通過實驗結(jié)果可知,m和μ值均為0.5左右時可以取得最好的效果。通過對圖5分析可得:1)當(dāng)m很小時排序損失作用較小,無法取得較大的效果提升;2)當(dāng)m較大時容易導(dǎo)致過擬合現(xiàn)象的產(chǎn)生,因此準(zhǔn)確率也會下降;3)當(dāng)μ為0時,結(jié)果幾乎和只用softmax損失是一樣的,即Lobject=Lsoftmax,這和本文的預(yù)期相符;4)當(dāng)μ較大時,由于識別損失無法充分發(fā)揮作用,即對圖像信息的利用不夠充分,因此也會造成準(zhǔn)確率下降。

    3?實驗與結(jié)果分析

    3.1?數(shù)據(jù)集

    清華大學(xué)的Market-1501數(shù)據(jù)集[1]拍攝場景為清華校園,包含了1501位行人的標(biāo)記好的32668幅圖像,這些行人圖像是用6個不同的攝像機(jī)拍攝的。本文使用751位行人的12936張圖像進(jìn)行訓(xùn)練,750位行人的19732張圖像進(jìn)行測試。該數(shù)據(jù)集中的邊界框(bounding box)是用可變形部分模型(Deformable Part Model,DPM)獲得的。

    香港中文大學(xué)的CUHK03數(shù)據(jù)集[17]包含1467位行人的14097幅圖像,這些圖像拍攝于兩個攝像頭,每個攝像頭下每個行人平均有4.8幅圖像。該數(shù)據(jù)集同時具有人工標(biāo)記和DPM算法檢測的邊界框,為了更接近實際應(yīng)用場景,本文使用DPM檢測到的邊界數(shù)據(jù)進(jìn)行實驗。

    DukeMTMC-reID數(shù)據(jù)集[10]是行人跟蹤數(shù)據(jù)集DukeMTMC的一個子集。DukeMTMC數(shù)據(jù)集由杜克大學(xué)學(xué)者在文獻(xiàn)[18]中提出,包含8個不同視角的85min高分辨率視頻。DukeMTMC-reID數(shù)據(jù)集的圖片截取自DukeMTMC的視頻,它的結(jié)構(gòu)類似于Market-1501數(shù)據(jù)集,包含702位行人,其中16522張為訓(xùn)練圖片,17661張圖像用于測試,2228張作為查詢圖像。

    3.2?評價準(zhǔn)則和實驗設(shè)置

    為了驗證本文方法的有效性,本文采用3種基準(zhǔn)網(wǎng)絡(luò)(VGGNet、GoogLeNet和ResNet-50)和3個公開的行人再識別數(shù)據(jù)集(Market-1501、CUHK03和DukeMTMC-reID)進(jìn)行實驗。使用Matconvnet深度學(xué)習(xí)框架進(jìn)行算法實現(xiàn),實驗環(huán)境為Ubuntu 16.04,Matlab 2016a,NVIDIA Tesla P100顯卡。

    本文使用隨機(jī)梯度下降(Stochastic Gradient Descent, SGD)算法對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,訓(xùn)練中采用批訓(xùn)練的方式,批尺寸(mini-batch size)設(shè)置為10,訓(xùn)練的動量因子固定為0.9,共訓(xùn)練40次,前20次學(xué)習(xí)率為0.1,其后10次為0.02,最后10次為0.01。

    在訓(xùn)練階段:首先,數(shù)據(jù)集中的原始行人圖像被重置為256×256像素的大小,并且從該圖像中裁剪出224×224大小的圖像作為網(wǎng)絡(luò)輸入;然后,圖像數(shù)據(jù)輸入網(wǎng)絡(luò)之中,經(jīng)前向傳播計算得到損失;最后,進(jìn)行損失反向傳播,并調(diào)整網(wǎng)絡(luò)參數(shù),其中排序損失邊界和損失權(quán)重為0.5。

    在測試階段:由于本文網(wǎng)絡(luò)中的兩個分支權(quán)重共享,因此只使用其中一個進(jìn)行特征提取即可。首先,對圖像進(jìn)行預(yù)處理;然后,通過訓(xùn)練過的網(wǎng)絡(luò)進(jìn)行特征提取,對應(yīng)VGGNet-16、GoogLeNet和ResNet-50分別為4096維、1024維和2048維的深度特征;最后,計算對比所提特征的余弦距離得到余弦相似度獲得最終結(jié)果。

    本文在實驗中主要采用兩種評價指標(biāo),分別為累計匹配特征曲線(Cumulated Matching Characteristics curve, CMC)和平均精度均值(mAP)。累計匹配特征曲線從排序的角度對再識別問題進(jìn)行評價,即把檢索結(jié)果按照相關(guān)程度進(jìn)行排序。當(dāng)然,排序靠后的檢索結(jié)果正確率也很重要,盡管排序靠后的檢索結(jié)果相關(guān)程度不如在第一位的結(jié)果,但對于輔助人工識別具有重要意義。

    平均精度均值則是把行人再識別當(dāng)作圖像檢索問題來進(jìn)行評價,該指標(biāo)可以從整體上對算法進(jìn)行評價。其中,精度均值(Average Precision, AP)計算公式為:

    3.3?有效性驗證

    本文通過對行人再識別問題進(jìn)行分析,提出并采用了性能更好的損失函數(shù),因此在有效性實驗部分本文分別采用VGGNet-16、GoogLeNet和ResNet-50作為基準(zhǔn)網(wǎng)絡(luò),

    通過在Market-1501數(shù)據(jù)集上比較本文方法和基準(zhǔn)網(wǎng)絡(luò)的CMC曲線來進(jìn)行有效性驗證,實驗結(jié)果如圖6所示。

    由圖6可知,與基準(zhǔn)網(wǎng)絡(luò)的結(jié)果相比本文方法取得了較大的提升,其中對VGGNet-16、GoogLeNet和ResNet-50三種基準(zhǔn)網(wǎng)絡(luò)在Market-1501數(shù)據(jù)集上rank-1的提升幅度分別為5.85%、8.94%和10.04%,并且通過對比在三種基準(zhǔn)網(wǎng)絡(luò)上的提升幅度也可以得出,當(dāng)網(wǎng)絡(luò)結(jié)構(gòu)較深時本文方法可以達(dá)到更好的提升效果。

    3.4?Market-1501數(shù)據(jù)集實驗

    本文在Market-1501數(shù)據(jù)集上采用了兩種測試方法,即單檢索(Single-Query)和多檢索(Multi-Query)。單檢索時被檢索的圖像為單幀行人圖像,多檢索時被檢索的圖像為多幀同一行人的圖像的均值圖像,其中多檢索可以利用到更多的行人圖像信息,但單檢索更接近實際情況,實驗結(jié)果如表2所示。

    從表2可知,在Market-1501數(shù)據(jù)集上,本文方法在使用ResNet-50作為基準(zhǔn)網(wǎng)絡(luò)時分別在單檢索和多檢索條件下取得了84.5%和89.4%的rank-1準(zhǔn)確率,67.4%和79.2%的mAP。

    從實驗結(jié)果數(shù)據(jù)可得,本文方法取得了最好的綜合效果,并且,在多檢索條件下采用多幅行人圖像用于檢索,有利于提高再識別準(zhǔn)確率。

    3.5?CUHK03數(shù)據(jù)集實驗

    在CUHK03數(shù)據(jù)集中分別在單攝像采集(single-shot)和多攝像采集(multi-shot)的條件下進(jìn)行實驗。單攝像采集條件下每個被檢索圖像在搜索集中只有一幅對應(yīng)的正確圖像,多攝像采集條件下則是使用來自其他攝像機(jī)的所有圖像用于待檢索,對應(yīng)正確的行人圖像不只一幅。其中多攝像采集的情況非常接近圖像檢索,并且可以在一定程度上降低隨機(jī)采樣對結(jié)果帶來的影響,實驗結(jié)果如表3所示。

    從表3可知,本文方法在CUHK03數(shù)據(jù)集上使用ResNet-50作為基準(zhǔn)網(wǎng)絡(luò),在單攝像采集(single-shot)條件下取得了82.9%的rank-1準(zhǔn)確率和89.2%的mAP;在多攝像采集(multi-shot)條件下取得了86.7%的rank-1準(zhǔn)確率和77.8%的mAP。表3中,在單攝像采集條件下,Siamese-reranking方法[8]取得了最好的rank-1結(jié)果,原因是其在訓(xùn)練網(wǎng)絡(luò)并提取特征后采用了重排序技術(shù),使得特征更相似的圖像有更大的概率被排在前面,處理過程較為復(fù)雜;然而,本文僅僅通過改進(jìn)網(wǎng)絡(luò)和損失函數(shù)來提高深度特征對行人圖像的表達(dá)能力,直接提升網(wǎng)絡(luò)本身的性能,沒有進(jìn)行進(jìn)一步的處理。

    3.6?DukeMTMC-reID數(shù)據(jù)集實驗

    DukeMTMC-reID數(shù)據(jù)集的數(shù)據(jù)在結(jié)構(gòu)上和Market-1501相似,由于該數(shù)據(jù)集提出較晚,因此本文只列出了在單檢索(Single Query)時本文方法與其他一些方法的對比。從表4可知,在DukeMTMC-reID數(shù)據(jù)集上本文方法使用ResNet-50作為基準(zhǔn)網(wǎng)絡(luò)取得了77.2%的rank-1準(zhǔn)確率和53.9%的mAP。表4中得到最好mAP的方法是BraidNet-CS+SRL算法[23],該方法比BraidNet-CS多了對負(fù)樣本率進(jìn)行自適應(yīng)學(xué)習(xí)的步驟,使得參數(shù)的選擇更加合理,但同時也需要更多的學(xué)習(xí)時間。

    4?結(jié)語

    本文通過提出一種基于孿生網(wǎng)絡(luò)結(jié)合識別損失和雙向最大邊界排序損失的方法,解決了在實際中不同行人圖像之間比相同行人圖像之間更相似所造成的行人再識別準(zhǔn)確率較低的問題,并且通過數(shù)據(jù)可視化手段展示了識別處理效果。盡管本文只使用了3種基準(zhǔn)網(wǎng)絡(luò)驗證本文方法的有效性,但本文所提的排序損失和對應(yīng)的網(wǎng)絡(luò)結(jié)構(gòu)可以適用于所有的基準(zhǔn)CNN結(jié)構(gòu)。同時,通過在三個公開數(shù)據(jù)集上與其他方法進(jìn)行對比實驗,本文方法取得了較好的綜合性能。

    本文方法存在的主要問題是:1)盡管沒有通過實驗數(shù)據(jù)對運行時間進(jìn)行分析,但是由于使用了擁有大量參數(shù)的網(wǎng)絡(luò)模型,并且所提出的損失函數(shù)在訓(xùn)練時計算較慢,因此訓(xùn)練時間相對較長;2)文中實驗的參數(shù)并不是通過自適應(yīng)學(xué)習(xí)得到的,而是通過在某一數(shù)據(jù)集上實驗獲得的,因此參數(shù)選擇的合理性需要進(jìn)行進(jìn)一步的驗證。

    基于現(xiàn)有結(jié)論,本文認(rèn)為未來可以沿以下幾個方向開展進(jìn)一步的研究工作:首先,對如何把本文方法應(yīng)用于更大規(guī)模的再識別數(shù)據(jù)集進(jìn)行研究,或者驗證其在實際場景中的效果;其次,對損失函數(shù)計算的優(yōu)化和對算法參數(shù)的選擇上需要采用更合理的方法;最后,盡管本文方法是針對行人再識別提出的,但也可以對其應(yīng)用到其他課題進(jìn)行探索,如圖像檢索等。

    參考文獻(xiàn)(References)

    [1] ZHENG L, SHEN L, TIAN L, et al. Scalable person re-identification: a benchmark[C]// ICCV 2015: Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2015: 1116-1124.

    [2] MATSUKAWA T, OKABE T, SUZUKI E, et al. Hierarchical Gaussian descriptor for person re-identification[C]// CVPR 2016: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. ?Washington, DC: IEEE Computer Society, 2016: 1363-1372.

    [3] LIAO S, HU Y, ZHU X, et al. Person re-identification by local maximal occurrence representation and metric learning[C]// CVPR 2015: Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. ?Washington, DC: IEEE Computer Society, 2015: 2197-2206.

    [4] KOESTINGER M, HIRZER M, WOHLHART P, et al. Large scale metric learning from equivalence constraints[C]// CVPR 2012: Proceedings of the 2012 IEEE International Conference on Computer Vision. ?Washington, DC: IEEE Computer Society, 2012: 2288-2295.

    猜你喜歡
    卷積神經(jīng)網(wǎng)絡(luò)
    基于深度神經(jīng)網(wǎng)絡(luò)的微表情識別
    卷積神經(jīng)網(wǎng)絡(luò)中減少訓(xùn)練樣本時間方法研究
    卷積神經(jīng)網(wǎng)絡(luò)語言模型研究
    基于卷積神經(jīng)網(wǎng)絡(luò)的車輛檢索方法研究
    基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    深度學(xué)習(xí)技術(shù)下的中文微博情感的分析與研究
    軟件(2016年5期)2016-08-30 06:27:49
    基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識別的算法的研究
    日韩欧美三级三区| 国产99白浆流出| 国产av又大| a级毛片a级免费在线| e午夜精品久久久久久久| 每晚都被弄得嗷嗷叫到高潮| 国产乱人伦免费视频| 观看免费一级毛片| 午夜亚洲福利在线播放| 一区福利在线观看| 麻豆成人av在线观看| 成人18禁高潮啪啪吃奶动态图| 桃色一区二区三区在线观看| 麻豆国产av国片精品| 国产私拍福利视频在线观看| 久久香蕉精品热| 人妻丰满熟妇av一区二区三区| 99久久精品国产亚洲精品| 亚洲精品粉嫩美女一区| 亚洲美女视频黄频| 男人舔奶头视频| 久久久久久久久中文| 老司机午夜福利在线观看视频| 操出白浆在线播放| 亚洲色图 男人天堂 中文字幕| 老鸭窝网址在线观看| 精品免费久久久久久久清纯| 亚洲国产精品999在线| 欧美3d第一页| 国产精品九九99| 色综合欧美亚洲国产小说| 国产精品 欧美亚洲| 99热只有精品国产| 日韩免费av在线播放| 成人国产综合亚洲| 午夜成年电影在线免费观看| 国内毛片毛片毛片毛片毛片| 1024香蕉在线观看| 国产乱人伦免费视频| 日本三级黄在线观看| 五月伊人婷婷丁香| 亚洲一码二码三码区别大吗| 成人av一区二区三区在线看| 99热这里只有精品一区 | 又黄又粗又硬又大视频| 成人亚洲精品av一区二区| 人成视频在线观看免费观看| 久久久久久久久久黄片| av中文乱码字幕在线| 欧美精品亚洲一区二区| 在线观看舔阴道视频| 九色国产91popny在线| 中文字幕精品亚洲无线码一区| 精品国产亚洲在线| x7x7x7水蜜桃| 久久精品aⅴ一区二区三区四区| 欧美精品亚洲一区二区| 超碰成人久久| 精品第一国产精品| 久久久久性生活片| 日本 欧美在线| 国产欧美日韩一区二区三| www.自偷自拍.com| 一区二区三区高清视频在线| 国产黄片美女视频| 国产激情偷乱视频一区二区| 夜夜夜夜夜久久久久| 母亲3免费完整高清在线观看| 国产爱豆传媒在线观看 | 亚洲免费av在线视频| a级毛片在线看网站| 亚洲自拍偷在线| 黄色片一级片一级黄色片| 18禁黄网站禁片免费观看直播| 91大片在线观看| 1024视频免费在线观看| 欧美性猛交黑人性爽| 丰满人妻一区二区三区视频av | 欧美三级亚洲精品| 亚洲av五月六月丁香网| 真人做人爱边吃奶动态| 久久性视频一级片| 欧美黑人欧美精品刺激| 日本黄色视频三级网站网址| 成人一区二区视频在线观看| 亚洲第一电影网av| 首页视频小说图片口味搜索| 日本撒尿小便嘘嘘汇集6| videosex国产| 一个人免费在线观看的高清视频| ponron亚洲| 激情在线观看视频在线高清| 免费一级毛片在线播放高清视频| 亚洲天堂国产精品一区在线| 最近在线观看免费完整版| 一个人免费在线观看的高清视频| 亚洲熟妇中文字幕五十中出| 国内少妇人妻偷人精品xxx网站 | 欧美日韩亚洲综合一区二区三区_| 他把我摸到了高潮在线观看| 波多野结衣高清无吗| 久久久久久九九精品二区国产 | 国产成人精品久久二区二区91| 午夜a级毛片| 妹子高潮喷水视频| 欧美三级亚洲精品| 999久久久精品免费观看国产| 成人永久免费在线观看视频| 亚洲成av人片在线播放无| 中文字幕av在线有码专区| 90打野战视频偷拍视频| 亚洲中文字幕一区二区三区有码在线看 | 免费无遮挡裸体视频| 黄色毛片三级朝国网站| √禁漫天堂资源中文www| 欧美一级毛片孕妇| 免费看十八禁软件| 变态另类丝袜制服| 日韩欧美一区二区三区在线观看| 久久精品91蜜桃| 国产久久久一区二区三区| 日本一区二区免费在线视频| 91麻豆av在线| 日韩大尺度精品在线看网址| 国产熟女xx| 可以在线观看毛片的网站| 亚洲精品av麻豆狂野| 国产精品1区2区在线观看.| 久热爱精品视频在线9| 国产精品久久久久久亚洲av鲁大| 午夜a级毛片| 最好的美女福利视频网| 嫩草影视91久久| 两个人免费观看高清视频| 99热只有精品国产| 亚洲av成人av| 最近视频中文字幕2019在线8| 最近最新中文字幕大全免费视频| 狠狠狠狠99中文字幕| 毛片女人毛片| 三级毛片av免费| 欧美日韩亚洲国产一区二区在线观看| 后天国语完整版免费观看| 丝袜美腿诱惑在线| 亚洲精品一区av在线观看| 在线国产一区二区在线| 三级毛片av免费| 又爽又黄无遮挡网站| 免费在线观看亚洲国产| 日韩av在线大香蕉| 国产成人av教育| 欧美另类亚洲清纯唯美| 亚洲欧洲精品一区二区精品久久久| 久久午夜综合久久蜜桃| 一本大道久久a久久精品| 在线十欧美十亚洲十日本专区| 欧美成人午夜精品| 国语自产精品视频在线第100页| 国产久久久一区二区三区| 亚洲国产精品999在线| 757午夜福利合集在线观看| 两个人看的免费小视频| 国内久久婷婷六月综合欲色啪| 国产激情久久老熟女| 日韩大尺度精品在线看网址| 国产在线精品亚洲第一网站| 性欧美人与动物交配| 欧美黄色淫秽网站| 中文在线观看免费www的网站 | 一级黄色大片毛片| 国产99白浆流出| 村上凉子中文字幕在线| 久久婷婷人人爽人人干人人爱| 日韩欧美一区二区三区在线观看| 黄色 视频免费看| 亚洲中文字幕一区二区三区有码在线看 | 国产精品国产高清国产av| 特级一级黄色大片| 夜夜看夜夜爽夜夜摸| 欧美又色又爽又黄视频| 一区福利在线观看| 国产精品久久久人人做人人爽| 黄色女人牲交| 午夜福利免费观看在线| 两个人视频免费观看高清| 免费看十八禁软件| 黄片小视频在线播放| 亚洲自偷自拍图片 自拍| 天堂影院成人在线观看| 很黄的视频免费| 中出人妻视频一区二区| 中文在线观看免费www的网站 | av福利片在线观看| 最好的美女福利视频网| 淫秽高清视频在线观看| 禁无遮挡网站| 欧美中文综合在线视频| 亚洲国产欧美网| 三级男女做爰猛烈吃奶摸视频| 亚洲一区二区三区色噜噜| 91字幕亚洲| 熟妇人妻久久中文字幕3abv| 中文字幕久久专区| 欧美成狂野欧美在线观看| 久久中文字幕一级| 最近视频中文字幕2019在线8| 男人舔女人的私密视频| 黄色毛片三级朝国网站| 亚洲欧洲精品一区二区精品久久久| 欧美一级毛片孕妇| 又大又爽又粗| 99久久无色码亚洲精品果冻| 两个人视频免费观看高清| 欧美日韩一级在线毛片| 欧美极品一区二区三区四区| 亚洲欧美日韩高清在线视频| 亚洲av五月六月丁香网| 精品国产亚洲在线| 国产精品香港三级国产av潘金莲| 19禁男女啪啪无遮挡网站| 中亚洲国语对白在线视频| 一进一出好大好爽视频| 在线a可以看的网站| 在线观看免费视频日本深夜| 欧美 亚洲 国产 日韩一| 亚洲自偷自拍图片 自拍| 白带黄色成豆腐渣| 久久香蕉精品热| 亚洲成人久久性| 亚洲美女黄片视频| 哪里可以看免费的av片| 天天添夜夜摸| 极品教师在线免费播放| 久久久精品欧美日韩精品| 国产视频一区二区在线看| 久热爱精品视频在线9| 欧美+亚洲+日韩+国产| 久久婷婷人人爽人人干人人爱| or卡值多少钱| 亚洲色图 男人天堂 中文字幕| 久久精品国产99精品国产亚洲性色| 50天的宝宝边吃奶边哭怎么回事| 亚洲欧美日韩东京热| 我的老师免费观看完整版| 小说图片视频综合网站| 精品不卡国产一区二区三区| 久久久国产成人精品二区| 国产视频内射| 亚洲成人久久爱视频| x7x7x7水蜜桃| 国产成人一区二区三区免费视频网站| 一进一出抽搐动态| 最近视频中文字幕2019在线8| 999久久久精品免费观看国产| 午夜福利视频1000在线观看| 亚洲国产精品合色在线| 久久香蕉精品热| 亚洲专区中文字幕在线| 黄色成人免费大全| 亚洲va日本ⅴa欧美va伊人久久| 黄色毛片三级朝国网站| 丁香六月欧美| 亚洲欧美日韩高清在线视频| 日韩欧美国产在线观看| 亚洲av成人一区二区三| 丁香六月欧美| 久久国产精品影院| 村上凉子中文字幕在线| 久久香蕉国产精品| cao死你这个sao货| 国产视频内射| 精品久久久久久久久久免费视频| 老司机深夜福利视频在线观看| 成人三级黄色视频| 亚洲国产欧洲综合997久久,| 国产精品久久久久久人妻精品电影| 午夜久久久久精精品| 亚洲人成网站在线播放欧美日韩| 日本五十路高清| 深夜精品福利| 淫秽高清视频在线观看| 两个人视频免费观看高清| 国产成人精品久久二区二区91| 国产精华一区二区三区| 夜夜夜夜夜久久久久| 男女那种视频在线观看| 免费无遮挡裸体视频| 丁香欧美五月| a级毛片a级免费在线| www.www免费av| 国产精品 欧美亚洲| 国产精品国产高清国产av| 午夜免费成人在线视频| 床上黄色一级片| 亚洲狠狠婷婷综合久久图片| 黄色视频不卡| а√天堂www在线а√下载| 午夜老司机福利片| xxx96com| 黄色成人免费大全| 在线视频色国产色| 俄罗斯特黄特色一大片| 久9热在线精品视频| 国产又黄又爽又无遮挡在线| 曰老女人黄片| 搡老岳熟女国产| 亚洲精品国产精品久久久不卡| 国产精品日韩av在线免费观看| 性色av乱码一区二区三区2| 午夜精品久久久久久毛片777| 久久久精品国产亚洲av高清涩受| www.熟女人妻精品国产| 久久精品亚洲精品国产色婷小说| 国产三级中文精品| 国产精品一区二区三区四区久久| 色综合站精品国产| 亚洲色图 男人天堂 中文字幕| 国产成人av教育| 国产成人欧美在线观看| 又爽又黄无遮挡网站| 久久午夜综合久久蜜桃| 国产激情偷乱视频一区二区| 黄色 视频免费看| 久久欧美精品欧美久久欧美| 草草在线视频免费看| 久久久久久大精品| 好男人在线观看高清免费视频| 久久人妻av系列| 黄色a级毛片大全视频| 人人妻人人看人人澡| 久久国产精品影院| 亚洲成人国产一区在线观看| 俺也久久电影网| 久久国产精品人妻蜜桃| 女同久久另类99精品国产91| 国产免费av片在线观看野外av| 99久久无色码亚洲精品果冻| √禁漫天堂资源中文www| 亚洲色图av天堂| 久久精品aⅴ一区二区三区四区| 国产精品爽爽va在线观看网站| 欧美成狂野欧美在线观看| 最新美女视频免费是黄的| 亚洲精品av麻豆狂野| 国产视频一区二区在线看| 久久婷婷人人爽人人干人人爱| 母亲3免费完整高清在线观看| 成人18禁在线播放| av免费在线观看网站| 国产精品av视频在线免费观看| 亚洲精华国产精华精| 一本精品99久久精品77| 亚洲国产高清在线一区二区三| 国产精品免费一区二区三区在线| 亚洲七黄色美女视频| 很黄的视频免费| 夜夜躁狠狠躁天天躁| 国产亚洲精品久久久久久毛片| 欧美黑人精品巨大| 午夜福利在线观看吧| 国产在线精品亚洲第一网站| 老汉色∧v一级毛片| 黄色视频不卡| 国产成人一区二区三区免费视频网站| 国产成人精品久久二区二区免费| 大型黄色视频在线免费观看| 色综合站精品国产| 免费在线观看亚洲国产| 免费观看精品视频网站| 午夜激情av网站| 亚洲真实伦在线观看| 亚洲国产看品久久| 国产亚洲精品久久久久5区| 夜夜夜夜夜久久久久| 欧美高清成人免费视频www| 日韩免费av在线播放| 久久中文看片网| 亚洲欧美一区二区三区黑人| 久久久久性生活片| 欧美 亚洲 国产 日韩一| 美女午夜性视频免费| 女生性感内裤真人,穿戴方法视频| 午夜亚洲福利在线播放| 亚洲一区高清亚洲精品| 久久久久国产精品人妻aⅴ院| 五月伊人婷婷丁香| 国产亚洲精品久久久久5区| 亚洲欧美精品综合久久99| 99热这里只有是精品50| 一二三四在线观看免费中文在| 久久99热这里只有精品18| 免费搜索国产男女视频| 婷婷丁香在线五月| 婷婷亚洲欧美| 欧美黑人欧美精品刺激| 亚洲人成伊人成综合网2020| 国产亚洲精品av在线| av国产免费在线观看| 欧美成狂野欧美在线观看| 国产在线精品亚洲第一网站| 动漫黄色视频在线观看| 国产精品九九99| 老司机午夜十八禁免费视频| 欧美绝顶高潮抽搐喷水| 国产高清激情床上av| 最近在线观看免费完整版| 久久久久久久久中文| 国产野战对白在线观看| 极品教师在线免费播放| 亚洲男人的天堂狠狠| 亚洲中文字幕日韩| 国内揄拍国产精品人妻在线| 黄片大片在线免费观看| 可以在线观看毛片的网站| 女人高潮潮喷娇喘18禁视频| av超薄肉色丝袜交足视频| 国内精品久久久久精免费| 欧美又色又爽又黄视频| 国产高清有码在线观看视频 | 成人av在线播放网站| 欧美乱码精品一区二区三区| 国产高清激情床上av| 一本久久中文字幕| 美女扒开内裤让男人捅视频| 久久精品亚洲精品国产色婷小说| 女人高潮潮喷娇喘18禁视频| 国内毛片毛片毛片毛片毛片| 国产精品久久电影中文字幕| 亚洲熟女毛片儿| 日韩三级视频一区二区三区| 国产视频内射| 一级黄色大片毛片| 国产精品免费一区二区三区在线| 久99久视频精品免费| 亚洲欧美日韩东京热| 88av欧美| 国产成人aa在线观看| 日韩国内少妇激情av| 国产精品香港三级国产av潘金莲| 亚洲国产精品成人综合色| √禁漫天堂资源中文www| 搞女人的毛片| avwww免费| 免费看十八禁软件| 国产人伦9x9x在线观看| 日韩中文字幕欧美一区二区| 国产精品,欧美在线| 精品欧美国产一区二区三| 老鸭窝网址在线观看| 可以免费在线观看a视频的电影网站| 我的老师免费观看完整版| www.www免费av| 国产成+人综合+亚洲专区| 草草在线视频免费看| aaaaa片日本免费| 国产爱豆传媒在线观看 | 欧美绝顶高潮抽搐喷水| 色综合站精品国产| 九色国产91popny在线| 日韩欧美精品v在线| 久久这里只有精品19| 久久精品人妻少妇| 久99久视频精品免费| 黄色 视频免费看| 男人的好看免费观看在线视频 | 亚洲黑人精品在线| 欧美绝顶高潮抽搐喷水| 国产黄色小视频在线观看| 亚洲一区二区三区不卡视频| 欧美日韩亚洲综合一区二区三区_| 啦啦啦韩国在线观看视频| 五月玫瑰六月丁香| 久久久久久亚洲精品国产蜜桃av| 999久久久精品免费观看国产| 一个人观看的视频www高清免费观看 | 欧美+亚洲+日韩+国产| 亚洲五月婷婷丁香| 777久久人妻少妇嫩草av网站| 亚洲无线在线观看| 国产探花在线观看一区二区| 免费电影在线观看免费观看| 欧美中文综合在线视频| 巨乳人妻的诱惑在线观看| 桃色一区二区三区在线观看| 久久欧美精品欧美久久欧美| 国产精品美女特级片免费视频播放器 | 淫妇啪啪啪对白视频| 他把我摸到了高潮在线观看| 蜜桃久久精品国产亚洲av| 美女午夜性视频免费| 国产v大片淫在线免费观看| 欧美av亚洲av综合av国产av| 99热6这里只有精品| 国产高清视频在线播放一区| 好男人在线观看高清免费视频| 精品国产亚洲在线| 黄片大片在线免费观看| 小说图片视频综合网站| 国产精品 国内视频| 久热爱精品视频在线9| 九九热线精品视视频播放| 亚洲午夜理论影院| 大型av网站在线播放| 妹子高潮喷水视频| 又爽又黄无遮挡网站| 免费电影在线观看免费观看| 国产亚洲精品av在线| 亚洲精华国产精华精| 999久久久国产精品视频| 国产成人欧美在线观看| 亚洲男人天堂网一区| 欧美乱码精品一区二区三区| 丝袜人妻中文字幕| 91字幕亚洲| 国产成人欧美在线观看| 免费av毛片视频| 一级毛片高清免费大全| 啪啪无遮挡十八禁网站| 国产精品综合久久久久久久免费| 国产单亲对白刺激| 美女高潮喷水抽搐中文字幕| 国产伦在线观看视频一区| 1024视频免费在线观看| 男人舔奶头视频| 国产精品久久电影中文字幕| 19禁男女啪啪无遮挡网站| 国产精品乱码一区二三区的特点| 两性夫妻黄色片| 欧美日本亚洲视频在线播放| 亚洲天堂国产精品一区在线| 中文字幕熟女人妻在线| 日本成人三级电影网站| 精品无人区乱码1区二区| 国产精品av视频在线免费观看| 国产激情欧美一区二区| 大型av网站在线播放| 人妻夜夜爽99麻豆av| 少妇的丰满在线观看| 99热只有精品国产| 特级一级黄色大片| 给我免费播放毛片高清在线观看| 久久欧美精品欧美久久欧美| www.熟女人妻精品国产| 女生性感内裤真人,穿戴方法视频| 久久精品亚洲精品国产色婷小说| 毛片女人毛片| 18禁黄网站禁片免费观看直播| 日韩大尺度精品在线看网址| 久久久久久久精品吃奶| 天天躁夜夜躁狠狠躁躁| 国内久久婷婷六月综合欲色啪| 90打野战视频偷拍视频| 女同久久另类99精品国产91| 国产97色在线日韩免费| 岛国视频午夜一区免费看| 老司机深夜福利视频在线观看| 制服诱惑二区| 一级a爱片免费观看的视频| 蜜桃久久精品国产亚洲av| 国产精品久久久久久精品电影| 久久人妻av系列| 国产精品一区二区三区四区久久| 看免费av毛片| 久久久久久久久久黄片| 国产99久久九九免费精品| 亚洲国产欧美人成| 国产99久久九九免费精品| 亚洲精品粉嫩美女一区| 欧美高清成人免费视频www| 制服丝袜大香蕉在线| 成年版毛片免费区| 亚洲精华国产精华精| 日韩中文字幕欧美一区二区| 久9热在线精品视频| 国产精品影院久久| 精品久久蜜臀av无| 国产免费av片在线观看野外av| 黑人欧美特级aaaaaa片| 国产精品日韩av在线免费观看| 欧美日本视频| 欧美在线一区亚洲| 亚洲成人免费电影在线观看| 久9热在线精品视频| 婷婷精品国产亚洲av在线| 欧美一级毛片孕妇| 欧美午夜高清在线| 成人一区二区视频在线观看| 国产精品av久久久久免费| 日韩国内少妇激情av| 中国美女看黄片| 亚洲成人久久性| 成年免费大片在线观看| 国产不卡一卡二| 国产又黄又爽又无遮挡在线| 俄罗斯特黄特色一大片| 久久婷婷成人综合色麻豆| √禁漫天堂资源中文www| 国产精品精品国产色婷婷| 身体一侧抽搐| 国产精品 欧美亚洲| 免费看美女性在线毛片视频| 免费在线观看影片大全网站| 日韩欧美在线二视频| 丝袜美腿诱惑在线| 少妇粗大呻吟视频| 天堂影院成人在线观看| 亚洲av第一区精品v没综合| 18禁观看日本| 最近最新中文字幕大全电影3| 最近最新中文字幕大全免费视频| 又粗又爽又猛毛片免费看| 国产又黄又爽又无遮挡在线| 日本a在线网址| 日韩精品青青久久久久久| 亚洲在线自拍视频|