• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于注意力機制學(xué)習(xí)域內(nèi)變化的跨域行人重識別方法

    2022-06-21 06:40:14陳代麗許國良
    計算機應(yīng)用 2022年5期
    關(guān)鍵詞:源域全局行人

    陳代麗,許國良*

    (1.重慶郵電大學(xué) 通信與信息工程學(xué)院,重慶 400065;2.重慶郵電大學(xué) 電子信息與網(wǎng)絡(luò)工程研究院,重慶 400065)(?通信作者電子郵箱xugl@cqupt.edu.cn)

    基于注意力機制學(xué)習(xí)域內(nèi)變化的跨域行人重識別方法

    陳代麗1,2,許國良1,2*

    (1.重慶郵電大學(xué) 通信與信息工程學(xué)院,重慶 400065;2.重慶郵電大學(xué) 電子信息與網(wǎng)絡(luò)工程研究院,重慶 400065)(?通信作者電子郵箱xugl@cqupt.edu.cn)

    針對行人重識別任務(wù)跨域遷移時性能嚴(yán)重衰退的問題,提出了一種基于注意力機制學(xué)習(xí)域內(nèi)變化的跨域行人重識別方法。首先,以ResNet50為基礎(chǔ)架構(gòu)并對其進(jìn)行調(diào)整使其適合行人重識別任務(wù),并引入實例-批歸一化網(wǎng)絡(luò)(IBN-Net)以提高模型的泛化能力,同時增加區(qū)域注意力分支以提取更具鑒別性的行人特征。對于源域的訓(xùn)練,將其作為分類任務(wù),使用交叉熵?fù)p失進(jìn)行源域的有監(jiān)督學(xué)習(xí),同時引入三元組損失來挖掘源域樣本的細(xì)節(jié),從而提高源域的分類性能。對于目標(biāo)域的訓(xùn)練,通過學(xué)習(xí)域內(nèi)變化來適應(yīng)源域和目標(biāo)域間的數(shù)據(jù)分布差異。在測試階段,以ResNet50 pool-5層的輸出作為圖像特征,并計算查詢圖像與候選圖像間的歐氏距離來度量兩者的相似度。在兩個大規(guī)模公共數(shù)據(jù)集Market-1501和DukeMTMC-reID上進(jìn)行實驗,所提方法的Rank-1準(zhǔn)確率分別達(dá)到80.1%和67.7%,平均精度均值(mAP)分別為49.5%和44.2%。實驗結(jié)果表明,所提方法在提高模型泛化能力方面性能較優(yōu)。

    無監(jiān)督域適應(yīng);域內(nèi)變化;行人重識別;注意力機制;鑒別特征

    0 引言

    作為智能安防領(lǐng)域的一個基本任務(wù),行人重識別(Person re-identification)[1]得到了學(xué)術(shù)界和工業(yè)界的長期關(guān)注。它旨在給定查詢圖像的前提下,檢索出不同時間、不同地點包含該行人的圖像。早期行人重識別主要集中于手工設(shè)計結(jié)構(gòu)特征或者距離度量學(xué)習(xí),隨著深度學(xué)習(xí)技術(shù)廣泛應(yīng)用于目標(biāo)檢測、目標(biāo)追蹤等領(lǐng)域,深度學(xué)習(xí)也逐漸應(yīng)用于重識別任務(wù)。在擁有良好的、足夠的訓(xùn)練數(shù)據(jù)的情況下,深度學(xué)習(xí)依靠強大的學(xué)習(xí)能力在大部分任務(wù)中可獲得較好的性能,包括行人重識別任務(wù)。然而,由于數(shù)據(jù)分布的較大偏差,在源域訓(xùn)練的模型直接部署于目標(biāo)域時將產(chǎn)生嚴(yán)重的性能衰退[2]。此外,有監(jiān)督學(xué)習(xí)需要大量有標(biāo)簽信息的訓(xùn)練數(shù)據(jù),這在實際場景中難以獲得。這些問題限制了有監(jiān)督重識別模型的應(yīng)用,因此研究者們提出了無監(jiān)督域適應(yīng)行人重識別方法以提高模型的泛化能力。

    最近無監(jiān)督域適應(yīng)行人重識別方法的重要思路之一是為缺少標(biāo)簽信息的目標(biāo)域樣本分配偽標(biāo)簽,使無監(jiān)督學(xué)習(xí)等同于有監(jiān)督學(xué)習(xí),比如:文獻(xiàn)[3]中對樣本特征相似度進(jìn)行聚類,并根據(jù)聚類結(jié)果為其分配偽標(biāo)簽;文獻(xiàn)[4]中通過比較未標(biāo)記的行人圖像與輔助域的參考行人圖像,為每個未標(biāo)記的行人學(xué)習(xí)標(biāo)簽似然向量,實現(xiàn)不同攝像機視域內(nèi)的行人重識別。也有方法主要關(guān)注如何縮小域差,例如文獻(xiàn)[5-7]中將來自源域的圖像翻譯到目標(biāo)域,形成具有目標(biāo)域圖像風(fēng)格的中間數(shù)據(jù)集并保留源域固有身份,使模型在中間數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練時就學(xué)習(xí)了目標(biāo)域圖像風(fēng)格,從而緩解目標(biāo)域與源域數(shù)據(jù)風(fēng)格差異對模型性能的影響。除此之外,有研究通過考慮目標(biāo)域域內(nèi)變化,提升重識別模型的泛化能力,比如:文獻(xiàn)[8]中研究了三種不變性即樣本不變性、相機不變性及鄰居不變性;文獻(xiàn)[9]中挖掘目標(biāo)數(shù)據(jù)集存在的一致性約束,增強全局線索和局部線索的協(xié)調(diào)性,并鼓勵給定實例與其正樣本有相似的特征,從而適應(yīng)域內(nèi)變化。

    總體來看,無監(jiān)督域適應(yīng)行人重識別研究基于解決思路和關(guān)注點不同,采用的方法也存在差異。從整體考慮,獲取更具鑒別性的行人特征是關(guān)注的基本問題;就考慮目標(biāo)域域內(nèi)變化的方法而言,不同樣本間的差異及不同攝像機所拍圖像風(fēng)格差異(攝像機編號分別為C1、C3、C6)如圖1所示,是影響模型跨域重識別性能的關(guān)鍵。

    圖1 域內(nèi)行人圖像變化Fig.1 Person image changes in domain

    針對上述問題,本文的主要工作如下:1)為提取更具鑒別性的行人特征,同時考慮樣本層級特征及區(qū)域注意力特征;2)引入實例-批歸一化網(wǎng)絡(luò)(Instance-Batch Normalization Network, IBN-Net),通過學(xué)習(xí)目標(biāo)域域內(nèi)變化,增強模型的泛化性。在兩個公開數(shù)據(jù)集Market-1501和DukeMTMC-reID上進(jìn)行了實驗,結(jié)果表明本文所提方法的綜合性能較優(yōu)。

    1 前期工作

    就跨域行人重識別任務(wù)而言,一般有兩個數(shù)據(jù)域:一是有標(biāo)簽信息的源域,它有位行人共張圖像,每個樣本對應(yīng)的身份標(biāo)簽為;二是沒有標(biāo)簽信息的目標(biāo)域,共有張圖像。除這些信息外,本文還需要目標(biāo)域攝像頭編號?;谝陨闲畔?,本文的目的是通過提取更具鑒別性的行人信息來學(xué)習(xí)目標(biāo)域的域內(nèi)變化,從而提升模型從源域遷移到目標(biāo)域的重識別性能。

    為估計目標(biāo)域樣本的相似性,本文首先構(gòu)建了一個樣本特征存儲庫,每一個位置存儲目標(biāo)域樣本的特征。在訓(xùn)練過程中,樣本特征存儲庫根據(jù)式(1)以迭代方式進(jìn)行更新:

    2 本文方法

    2.1 IBN-Net

    域間風(fēng)格差異是影響跨域行人重識別性能衰退的重要因素,與生成中間風(fēng)格圖像的方法[6,10]不同,本文直接提取風(fēng)格不變特征緩解域間風(fēng)格差異的影響。由于批歸一化(Batch Normalization, BN)[11]可以保存與內(nèi)容相關(guān)的信息,實例歸一化(Instance Normalization, IN)[12]對目標(biāo)的外觀變化具有魯棒性,因此用IN來處理與風(fēng)格相關(guān)的淺層特征,用BN來處理與高層特征相關(guān)的深度特征。在淺層網(wǎng)絡(luò)中加入IN時,同時加入BN層以保證與內(nèi)容相關(guān)的信息能順利通過深度網(wǎng)絡(luò)。IBN-Net結(jié)構(gòu)[13]如圖2所示。

    圖2 IBN-Net結(jié)構(gòu)Fig. 2 Structure of IBN-Net

    2.2 基于注意力機制的風(fēng)格不變網(wǎng)絡(luò)

    本文所提方法的總體結(jié)構(gòu)如圖3所示。該模型以ResNet50為基礎(chǔ)架構(gòu),其中ResNet50的殘差塊增加了IBN-Net,同時在ImageNet數(shù)據(jù)集上進(jìn)行了預(yù)訓(xùn)練。為進(jìn)行后續(xù)的重識別任務(wù),本文移除ResNet50-IBN用于分類的全連接層,并增加用于學(xué)習(xí)樣本特征的全局分支和用于學(xué)習(xí)區(qū)域注意力特征的區(qū)域注意力分支。

    對于全局特征分支,本文將ResNet50-IBN的pool-5層輸出通過全局平均池化(Global Average Pooling, GAP)處理后,經(jīng)過包含卷積、BN層及整流線性單元(Rectified Linear Unit, ReLU)激活的降維操作,得到一個256維的全局特征。

    圖3 所提方法的總體結(jié)構(gòu)Fig. 3 Overall structure of proposed method

    在提取區(qū)域注意力特征時,采用直接水平劃分特征圖的方式,將特征映射圖分為上下兩部分水平區(qū)域,再以注意力模塊CBAM(Convolutional Block Attention Module)[14]學(xué)習(xí)區(qū)域中重要特征并抑制其他無關(guān)特征,實現(xiàn)鑒別特征提取。CBAM依次使用通道和空間注意力模塊,以便每個分支可分別在通道和空間軸中學(xué)習(xí)要注意什么和注意哪里。將經(jīng)過切分后所得的上下部分區(qū)域特征圖、作為輸入,CBAM依次推斷1維通道注意映射圖、和2維空間注意映射圖、,如圖4所示。

    圖4 CBAM 結(jié)構(gòu)Fig. 4 Structure of CBAM

    當(dāng)?shù)玫絽^(qū)域注意力特征圖后,對每個特征圖使用全局最大池化(Global Max Pooling, GMP)和GAP的組合。與全局分支僅使用GAP不同,對區(qū)域注意力特征圖使用組合池化更有利于挖掘豐富的特征,之后再通過類似全局分支的降維操作獲得兩個256維的注意力特征。最后,將樣本特征與區(qū)域注意力特征沿通道維度連接,然后通過一個2 048維的全連接層,之后是BN層、ReLU層、Dropout層,最終得到行人鑒別特征。結(jié)合全局信息和區(qū)域注意信息可以彌補全局特征分支難以使用局部區(qū)域的語義信息[15]。利用主要特征并關(guān)注其中的關(guān)鍵特征,使得本文方法能識別相似度較高的難負(fù)樣本。

    2.3 源域的有監(jiān)督學(xué)習(xí)

    源域數(shù)據(jù)擁有身份信息,對該域數(shù)據(jù)的訓(xùn)練屬于有監(jiān)督范式。因此,本文使用交叉熵?fù)p失(Cross-entropy loss)和三元組損失(Triplet loss)的組合來進(jìn)行源域的有監(jiān)督學(xué)習(xí)。源域的交叉熵?fù)p失為:

    一般來說,訓(xùn)練數(shù)據(jù)中存在正樣本和負(fù)樣本,最小化正樣本間的距離和最大化負(fù)樣本間的距離有助于優(yōu)化行人的嵌入特征。故本文使用Hermans等[16]提出的三元組損失來挖掘訓(xùn)練圖像中的樣本細(xì)節(jié),源域的三元組損失為:

    通過聯(lián)合交叉熵?fù)p失和三元組損失得到源域有監(jiān)督損失為:

    在有標(biāo)簽信息的源域訓(xùn)練的重識別模型在具有相同數(shù)據(jù)分布的測試集上有相似的分類準(zhǔn)確率。事實上,不同數(shù)據(jù)集間的數(shù)據(jù)分布存在較大差異,直接將訓(xùn)練好的模型遷移到未知數(shù)據(jù)集上,模型性能可能發(fā)生嚴(yán)重衰減。為緩解該問題,本文進(jìn)一步學(xué)習(xí)目標(biāo)域的域內(nèi)變化,以提高模型的泛化能力。

    2.4 目標(biāo)域域內(nèi)變化學(xué)習(xí)

    在真實場景下,背景、姿態(tài)、照明、視角、相機等條件變化很大[17],采集的行人圖像在外觀上具有差異,甚至是擁有相同身份的行人樣本也不盡相同,即一張圖像只和自身有最高的相似度,故本文將每張圖像看作單獨的一類。對于目標(biāo)圖像,首先計算與存儲在樣本特征庫中的特征間的相似性,然后使用softmax函數(shù)預(yù)測樣本屬于類的概率:

    根據(jù)式(6),訓(xùn)練樣本被迫遠(yuǎn)離其他行人圖像,而同一身份的圖像特征應(yīng)該具有極高的相似性,強迫相同身份的行人具有明顯不同的表征將對模型產(chǎn)生消極影響[18]。為找到相同身份的行人,本文首先計算樣本與樣本特征庫中特征間的余弦相似性,并根據(jù)相似性,找到與最接近的個樣本作為它的最近鄰居集,并把對應(yīng)索引作為它的近鄰標(biāo)簽。不難想象,與樣本最相似的圖像是其本身,類別為。受ECN(Exemplar-invariance,Camera-invariance,Neighborhood-invariance)[8]的啟發(fā),目標(biāo)圖像應(yīng)和它對應(yīng)的最近鄰居共享相同身份,因此屬于鄰居標(biāo)簽的概率權(quán)重為:

    通過最小化相似圖像間的距離,充分利用了正樣本,提高了模型面對目標(biāo)域域內(nèi)變化的魯棒性。該目標(biāo)函數(shù)是一個軟標(biāo)簽損失,為:

    根據(jù)式(6)、(8),樣本間的損失為:

    在行人重識別任務(wù)中,行人可能在不同時間出現(xiàn)在不同攝像機視域內(nèi)。由于環(huán)境以及相機參數(shù)的影響,不同攝像機所攝圖像具有較大的風(fēng)格差異,如圖1(b)所示,這種差異可能會影響模型的重識別性能。為此,本文將每個攝像機視為不同的子域,用循環(huán)生成對抗網(wǎng)絡(luò)(Cycle-consistent Generative Adversarial Network, CycleGAN)[19]為目標(biāo)域訓(xùn)練相機風(fēng)格(Camera Style, CamStyle)[20]模型。根據(jù)CamStyle模型,來自攝像機的圖像將生成張其他攝像機風(fēng)格的圖像,同時保留原圖像的身份,是目標(biāo)域相機數(shù)量。訓(xùn)練時,從目標(biāo)域中選擇128張行人圖像作為模型輸入,其中部分圖像被隨機替換為對應(yīng)的風(fēng)格遷移圖像共同參與模型優(yōu)化。

    目標(biāo)域訓(xùn)練將樣本間的變化和攝像機風(fēng)格差異同時考慮在內(nèi),故總的目標(biāo)域優(yōu)化函數(shù)為:

    3 實驗與結(jié)果分析

    3.1 數(shù)據(jù)集和評估

    本文在常用的兩個大規(guī)模行人重識別數(shù)據(jù)集Martket-1501[21]和DukeMTMC-reID[22-23]上進(jìn)行驗證。

    Martket-1501包括由5個高清攝像頭和1個低清攝像頭共1 501位行人32 668幅行人圖像,其中用于訓(xùn)練的圖像有12 936張,分別來自于751位身份不同的行人,用于測試的數(shù)據(jù)來自750位行人共19 732張圖像數(shù)據(jù)。

    DukeMTMC-reID數(shù)據(jù)集是DukeMTMC數(shù)據(jù)集[23]的一個子集。它由隨機從視頻中每120幀采樣而得的702個身份共16 522張訓(xùn)練樣本、702個身份2 228張查詢圖像以及17 661張候選圖像組成,其中1 404人出現(xiàn)在大于兩個攝像頭下,有408人僅出現(xiàn)在一個攝像頭下。

    在訓(xùn)練過程中,以其中一個數(shù)據(jù)集作為源域,另一個數(shù)據(jù)集作為目標(biāo)域。在測試時,提取融合樣本特征和區(qū)域注意力特征的行人信息,計算查詢圖像與候選圖像間的歐氏距離作為它們的相似性,然后根據(jù)相似性計算累積匹配特征(Cumulated Matching Characteristics, CMC)曲線和平均精度均值(mean Average Precision, mAP)。

    3.2 實驗細(xì)節(jié)

    本文使用在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練的ResNet50-IBN作為主要框架,輸出層維度設(shè)置為批量輸入大小,移除最后的池化層和全連接層,得到特征映射圖后通過一個全局特征分支和一個區(qū)域注意力分支,并分別通過降維操作得到256維的特征圖,按照通道方向級聯(lián)。在訓(xùn)練時,固定ResNet50-IBN的layer1、layer2和layer3層的參數(shù),網(wǎng)絡(luò)輸出層參數(shù)則以正態(tài)分布初始化,并采用隨機梯度下降法(Stochastic Gradient Descent, SGD)來優(yōu)化模型。超參數(shù)的設(shè)置基本參照文獻(xiàn)[8]中,訓(xùn)練數(shù)據(jù)被重置為的大小,并經(jīng)過隨機翻轉(zhuǎn)、隨即裁剪及隨機擦除等常用數(shù)據(jù)增強操作,前40次迭代時,ResNet50-IBN的基礎(chǔ)層學(xué)習(xí)率設(shè)為0.01,其他新增網(wǎng)絡(luò)層學(xué)習(xí)率設(shè)為0.1,在后續(xù)的20次迭代中,學(xué)習(xí)率分別縮小為原來的1/10,Dropout概率設(shè)為0.3。目標(biāo)域最近鄰居數(shù)量,樣本特征存儲庫的特征更新率隨迭代次數(shù)的增加而增加,即。本文設(shè)置特征分布平衡因子,源域與目標(biāo)域損失比例。

    本文方法的構(gòu)建是基于Pytorch1.1.0的深度學(xué)習(xí)框架,所有實驗均在GPU型號為Tesla K40m的Linux服務(wù)器上進(jìn)行訓(xùn)練和測試。

    3.3 參數(shù)分析

    本文方法的各項參數(shù)可能對最終的行人重識別結(jié)果產(chǎn)生一定影響,如特征更新動量、特征分布、源域與目標(biāo)域損失權(quán)重以及鄰居范圍,其中參數(shù)是學(xué)習(xí)目標(biāo)域域內(nèi)變化的關(guān)鍵因素,故下面主要分析鄰居范圍對模型性能的影響。

    3.4 消融實驗

    表1給出了本文方法主要部分對模型性能的影響。與直接將ResNet50-IBN網(wǎng)絡(luò)(Baseline)在目標(biāo)域進(jìn)行測試相比,僅考慮全局特征分支(Global Feature Branch, GFB)學(xué)習(xí)目標(biāo)域域內(nèi)變化時,在Market-1501上Rank-1準(zhǔn)確率提高了33個百分點,結(jié)果表明模型對樣本變化和圖像風(fēng)格差異具有一定的魯棒性。若僅引入?yún)^(qū)域注意力分支(Region Attention Branch, RAB),特征映射圖被劃分為上下兩部分,CBAM注意力模塊提取重要特征,在學(xué)習(xí)域內(nèi)變化后,模型性能比僅考慮全局特征分支時略有提升,且相較于直接使用Baseline,性能提升更為顯著。同時考慮全局特征分支和區(qū)域注意力分支,以DukeMTMC-reID為源域,Market-1501為目標(biāo)域,模型的Rank-1準(zhǔn)確率達(dá)到80.1%,表明本文方法能有效提高跨域重識別性能。

    圖5 不同鄰居數(shù)在Rank-1準(zhǔn)確率上的評估Fig. 5 Evaluation of Rank-1 accuracy with different neighbor number

    3.5 性能對比

    將基于注意力機制學(xué)習(xí)域內(nèi)變化的行人重識別方法在兩個基準(zhǔn)數(shù)據(jù)集上的結(jié)果與其他無監(jiān)督域適應(yīng)方法進(jìn)行對比,包括:1)基于手工特征的表征模型LOMO(LOcal Maximal Occurrence)[24]和BoW(Bag-of-Words)[21];基于偽標(biāo)簽生成的方法SSG(Self-Similarity Grouping)[3]和MAR(MultilAbel Reference learning)[4];2)基于風(fēng)格遷移的方法SPGAN(Similarity Preserving Generative Adversarial Network)[5]、PTGAN(Person Transfer Generative Adversarial Network)[6]、CamStyle[20]及CSGAN(Cross-domain Similarity Generative Adversarial Network)[7];3)關(guān)注域內(nèi)變化的方法ECN[8]、D-MMD(Dissimilarity-based Maximum Mean Discrepancy)[25]和ICE(Intra-domain Consistency Enhancement)[9]。分別以Market-1501和DukeMTMC-reID為源域,DukeMTMC-reID和Market-1501為目標(biāo)域,將本文方法與對比方法的性能進(jìn)行比較,結(jié)果如表2所示。

    圖6 不同鄰居數(shù)在mAP上的評估Fig. 6 Evaluation of mAP with different neighbor number

    表1 不同分支性能對比 單位: %Tab. 1 Performance comparison of different branches unit: %

    表2 不同方法在Market-1501和DukeMTMC-reID上的性能比較 單位: %Tab. 2 Performance comparison of different methods on Market-1501 and DukeMTMC-reID unit: %

    由表2可知,本文方法在DukeMTMC-reID遷移到Market-1501和Market-1501遷移到DukeMTMC-reID上分別獲得了80.1%和67.7%的Rank-1準(zhǔn)確率,49.5%及44.2%的mAP。與ECN相比,對于DukeMTMC-reID遷移到Market-1501,本文方法的Rank-1和mAP分別提高了5個百分點和6.5個百分點;對于Market-1501遷移到DukeMTMC-reID,本文方法的Rank-1和mAP分別提高了4.4個百分點及3.8個百分點。雖然某些方法的性能優(yōu)于本文方法,比如模型ICE從DukeMTMC-reID遷移到Market-1501時,Rank-1達(dá)到了90.8%,mAP達(dá)到了73.8%,但是該方法使用教師學(xué)生模型緩解噪聲標(biāo)簽的影響,相較于本文所提方法更為復(fù)雜,故本文方法的綜合性能更優(yōu)。

    3.6 特征可視化

    為分析本文方法的有效性,本文使用Grad-CAM (Gradient-weighted Class Activation Mapping)[26]對模型的全局特征和區(qū)域注意力特征進(jìn)行可視化分析,可視化結(jié)果如圖7所示,依次是原始查詢圖、全局特征映射圖、區(qū)域注意力特征映射圖和總體特征映射圖,圖中顏色越深表示權(quán)重越大。全局特征分支從樣本層級關(guān)注行人鑒別信息,區(qū)域注意力分支從部分層級學(xué)習(xí)關(guān)鍵特征并抑制其他干擾信息,聯(lián)合兩個分支有助于模型提取更具鑒別力的特征。本文從樣本層級和部分層級出發(fā),通過學(xué)習(xí)行人鑒別信息及目標(biāo)域域內(nèi)變化,使模型的泛化能力有所提升,如圖7中的總體特征映射圖顯然比全局特征和注意力特征映射圖含有更多的信息。

    圖7 特征可視化結(jié)果Fig. 7 Feature visualization results

    4 結(jié)語

    本文提出了基于注意力機制學(xué)習(xí)域內(nèi)變化的跨域行人重識別方法,不僅在ResNet50的殘差塊中引入IBN-Net緩解跨域適應(yīng)問題,還引入CBAM注意力機制學(xué)習(xí)行人鑒別特征,同時通過學(xué)習(xí)目標(biāo)域域內(nèi)變化適應(yīng)不同數(shù)據(jù)集的數(shù)據(jù)分布差異,并在兩個行人重識別數(shù)據(jù)集上進(jìn)行驗證,驗證了本文方法的有效性,在數(shù)據(jù)集Market-1501和DukeMTMC-reID上的Rank-1準(zhǔn)確率分別達(dá)到了80.1%和67.7%,mAP分別達(dá)到了49.5%和44.2%。接下來將進(jìn)一步研究如何有效緩解不同數(shù)據(jù)集圖像間的風(fēng)格差異,進(jìn)一步提升重識別模型的易泛化性。

    [1] LI Y, WU Z Y, KARANAM S, et al. Real-world re-identification in an airport camera network [C]// Proceedings of the 2014 International Conference on Distributed Smart Cameras. New York: ACM,2014: 1-6.

    [2] LUO C C, SONG C F, ZHANG Z X. Generalizing person re-identification by camera-aware invariance learning and cross-domain mixup [C]// Proceedings of the 2020 16th European Conference on Computer Vision, LNCS 12360. Cham:Springer, 2020: 224-241.

    [3] FU Y, WEI Y C, WANG G S, et al. Self-similarity grouping: a simple unsupervised cross domain adaptation approach for person re-identification [C]// Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2019: 6111-6120.

    [4] YU H X, ZHENG W S, WU A, et al. Unsupervised person re-identification by soft multi-label learning [C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019: 2148-2157.

    [5] DENG W J, ZHENG L, YE Q X, et al. Image-image domain adaptation with preserved self-similarity and domain-dissimilarity for person re-identification [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE,2018: 994-1003.

    [6] WEI L H, ZHANG S L, GAO W, et al. Person transfer GAN to bridge domain gap for person re-identification [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 79-88.

    [7] ZHANG W Y, ZHU L, LU L. Improving the style adaptation for unsupervised cross-domain person re-identification [C]// Proceedings of the 2020 International Joint Conference on Neural Networks. Piscataway: IEEE. 2020: 1-8.

    [8] ZHONG Z, ZHENG L, LUO Z M, et al. Invariance matters: exemplar memory for domain adaptive person re-identification [C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019:598-607.

    [9] LI Y Y, YAO H T, XU C S. Intra-domain Consistency Enhancement for Unsupervised Person Re-identification [J]. IEEE Transactions on Multimedia, 2021, 24: 415-425.

    [10] WANG J Y, ZHU X T, GONG S G, et al. Transferable joint attribute-identity deep learning for unsupervised person re-identification [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018:2275-2284.

    [11] IOFFE S, SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift [C]// Proceedings of the 2015 32nd International Conference on Machine Learning. New York: ACM, 2015: 448-456.

    [12] HUANG X, BELONGIE S. Arbitrary style transfer in real-time with adaptive instance normalization [C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017:1510-1519.

    [13] PAN X G, LUO P, SHI J P, et al. Two at once: enhancing learning and generalization capacities via IBN-Net [C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11208. Cham: Springer, 2018:484-500.

    [14] WOO S Y, PARK J C, LEE J-Y, et al. CBAM: convolutional block attention module [C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11211. Cham: Springer, 2018: 3-19.

    [15] 李佳賓,李學(xué)偉,劉宏哲,等.基于局部特征關(guān)聯(lián)與全局注意力機制的行人重識別[J].計算機工程,2022,48(1):245-252.(LI J B, LI X W, LIU H Z, et al. Person recognition based on local features relation and global attention mechanism [J]. Computer Engineering, 2022, 48(1): 245-252.)

    [16] HERMANS A, BEYER L, LEIBE B. In defense of the triplet loss for person re-identification [EB/OL]. [2020-12-13]. https://arxiv.org/pdf/1703.07737.pdf.

    [17] 廖華年,徐新.基于注意力機制的跨分辨率行人重識別[J].北京航空航天大學(xué)學(xué)報,2021,47(3):605-612.(LIAO H N, XU X Cross-resolution person re-identification based on attention mechanism [J]. Journal of Beijing University of Aeronautics and Astronautics, 2021, 47(3): 605-612.)

    [18] LIN Y T, XIE L X, WU Y, et al. Unsupervised person re-identification via softened similarity learning [C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2020: 3387-3396.

    [19] ZHU J Y, PARK T, ISOLA P, et al. Unpaired image to-image translation using cycle-consistent adversarial networks [C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017:2242-2251.

    [20] ZHONG Z, ZHENG L, ZHENG Z D, et al. Camera style adaptation for person reidentification [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE,2018: 5157-5166.

    [21] ZHENG L, SHEN L Y, TIAN L, et al. Scalable person re-identification: a benchmark [C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2015:1116-1124.

    [22] ZHENG Z D, ZHENG L, YANG Y. Unlabeled samples generated by GAN improve the person re-identification baseline in vitro [C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017: 3774-3782.

    [23] RISTANI E, SOLERA F, ZOU R S, et al. Performance measures and a data set for multi-target, multi-camera tracking [C]// Proceedings of the 2016 European Conference on Computer Vision, LNCS 9914. Cham: Springer, 2016:17-35.

    [24] LIAO S C, HU Y, ZHU X Y, et al. Person re-identification by local maximal occurrence representation and metric learning [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway:IEEE, 2015: 2197-2206.

    [25] MEKHAZNI D, BHUIYAN A, ESKANDER G, et al. Unsupervised domain adaptation in the dissimilarity space for person re-identification [C]// Proceedings of the 2020 European Conference on Computer Vision, LNCS 12372. Cham: Springer, 2020:159-174.

    [26] SELVARAJU R R, COGSWELL M, DAS A, et al. Grad-CAM: visual explanations from deep networks via gradient-based localization [J]. International Journal of Computer Vision, 2020, 128(2): 336-359.

    Cross-domain person re-identification method based on attention mechanism with learning intra-domain variance

    CHEN Daili1,2, XU Guoliang1,2*

    (1.School of Communication and Information Engineering,Chongqing University of Posts and Telecommunications,Chongqing400065,China;2.Electronic Information and Networking Research Institute,Chongqing University of Posts and Telecommunications,Chongqing400065,China)

    To solve severe performance degradation problem of person re-identification task during cross-domain migration, a new cross-domain person re-identification method based on attention mechanism with learning intra-domain variance was proposed. Firstly, ResNet50 was used as the backbone network and some modifications were made to it, so that it was more suitable for person re-identification task. And Instance-Batch Normalization Network (IBN-Net) was introduced to improve the generalization ability of model. At the same time, for the purpose of learning more discriminative features, a region attention branch was added to the backbone network. For the training of source domain, it was treated as a classification task. Cross-entropy loss was utilized for supervised learning of source domain, and triplet loss was introduced to mine the details of source domain samples and improve the classification performance of source domain. For the training of target domain, intra-domain variance was considered to adapt the difference in data distribution between the source domain and the target domain. In the test phase, the output of ResNet50 pool-5 layer was used as image features, and Euclidean distance between query image and candidate image was calculated to measure the similarity of them. In the experiments on two large-scale public datasets of Market-1501 and DukeMTMC-reID, the Rank-1 accuracy of the proposed method is 80.1% and 67.7% respectively, and its mean Average Precision (mAP) is 49.5% and 44.2% respectively. Experimental results show that, the proposed method has better performance in improving generalization ability of model.

    unsupervised domain adaptation; intra-domain variance; person re-identification; attention mechanism; discriminative feature

    TP391.41

    A

    1001-9081(2022)05-1391-07

    10.11772/j.issn.1001-9081.2021030459

    2021?03?26;

    2021?06?22;

    2021?06?23。

    陳代麗(1996—),女,四川宜賓人,碩士研究生,主要研究方向:計算機視覺; 許國良(1973—),男,浙江金華人,教授,博士,主要研究方向:計算機視覺、大數(shù)據(jù)分析與挖掘。

    CHEN Daili, born in 1996,M. S. candidate. Her research interests include computer vision.

    XU Guoliang, born in 1973,Ph. D., professor. His research interests include computer vision, big data analysis and mining.

    猜你喜歡
    源域全局行人
    多源域適應(yīng)方法綜述
    Cahn-Hilliard-Brinkman系統(tǒng)的全局吸引子
    量子Navier-Stokes方程弱解的全局存在性
    毒舌出沒,行人避讓
    意林(2021年5期)2021-04-18 12:21:17
    基于參數(shù)字典的多源域自適應(yīng)學(xué)習(xí)算法
    路不為尋找者而設(shè)
    揚子江(2019年1期)2019-03-08 02:52:34
    落子山東,意在全局
    金橋(2018年4期)2018-09-26 02:24:54
    我是行人
    可遷移測度準(zhǔn)則下的協(xié)變量偏移修正多源集成方法
    新思路:牽一發(fā)動全局
    国产探花极品一区二区| 婷婷精品国产亚洲av| 久久精品国产亚洲av涩爱 | 国产男靠女视频免费网站| 亚洲av.av天堂| 免费看美女性在线毛片视频| 俺也久久电影网| 欧美另类亚洲清纯唯美| 日韩,欧美,国产一区二区三区 | 黄色配什么色好看| 色噜噜av男人的天堂激情| 久久久久久大精品| av女优亚洲男人天堂| 中文字幕人妻熟人妻熟丝袜美| 久久鲁丝午夜福利片| 国产精品福利在线免费观看| 淫秽高清视频在线观看| 精品欧美国产一区二区三| 校园春色视频在线观看| 伊人久久精品亚洲午夜| 日韩精品青青久久久久久| 日韩三级伦理在线观看| 国产欧美日韩一区二区精品| 99热这里只有是精品50| 精品一区二区三区人妻视频| 天堂√8在线中文| 最近手机中文字幕大全| 天堂网av新在线| 在线a可以看的网站| 久久人人精品亚洲av| 一级毛片电影观看 | 欧美bdsm另类| 亚洲高清免费不卡视频| 亚洲图色成人| 黄色日韩在线| 亚洲成人中文字幕在线播放| 超碰av人人做人人爽久久| av天堂在线播放| 欧美绝顶高潮抽搐喷水| av中文乱码字幕在线| 成年女人永久免费观看视频| 在线看三级毛片| 青春草视频在线免费观看| 成人特级黄色片久久久久久久| 久久99热这里只有精品18| 欧美在线一区亚洲| 亚洲av不卡在线观看| 亚洲,欧美,日韩| 亚洲精品在线观看二区| 少妇裸体淫交视频免费看高清| 最近的中文字幕免费完整| 午夜精品一区二区三区免费看| 国产午夜福利久久久久久| 99热只有精品国产| 乱系列少妇在线播放| 啦啦啦韩国在线观看视频| 两个人的视频大全免费| 欧美一区二区国产精品久久精品| 久久人人爽人人片av| 赤兔流量卡办理| 日韩一本色道免费dvd| 精品久久久久久久久av| 成人鲁丝片一二三区免费| 国产精品亚洲美女久久久| 欧美日韩在线观看h| 少妇裸体淫交视频免费看高清| 成人二区视频| 啦啦啦韩国在线观看视频| 成人毛片a级毛片在线播放| 亚洲av美国av| 欧美xxxx性猛交bbbb| 成人精品一区二区免费| 日韩欧美精品v在线| 超碰av人人做人人爽久久| 久久精品国产99精品国产亚洲性色| 欧美激情国产日韩精品一区| 日韩制服骚丝袜av| 精品欧美国产一区二区三| 免费观看精品视频网站| 国产高清视频在线播放一区| 最近视频中文字幕2019在线8| 日本黄色片子视频| 婷婷精品国产亚洲av| 听说在线观看完整版免费高清| 欧美成人免费av一区二区三区| 人妻少妇偷人精品九色| 深爱激情五月婷婷| 免费观看人在逋| 女生性感内裤真人,穿戴方法视频| 国产精品日韩av在线免费观看| 听说在线观看完整版免费高清| 两个人视频免费观看高清| 不卡视频在线观看欧美| 青春草视频在线免费观看| 免费av观看视频| 亚洲国产日韩欧美精品在线观看| 久久精品国产亚洲av涩爱 | 亚洲人成网站在线观看播放| 久久精品人妻少妇| 69人妻影院| 欧美成人精品欧美一级黄| 欧美不卡视频在线免费观看| 国产成年人精品一区二区| 国产欧美日韩一区二区精品| 国产伦在线观看视频一区| 日本色播在线视频| 国产成人a∨麻豆精品| 欧美国产日韩亚洲一区| 免费av不卡在线播放| 国产精品,欧美在线| 精品欧美国产一区二区三| a级一级毛片免费在线观看| 人人妻,人人澡人人爽秒播| 天堂动漫精品| 99热全是精品| 精品国内亚洲2022精品成人| 久久久久久伊人网av| 国产乱人视频| 22中文网久久字幕| 亚洲国产精品sss在线观看| 国产精品,欧美在线| 亚洲熟妇熟女久久| 国产一区二区亚洲精品在线观看| 成年女人永久免费观看视频| 狠狠狠狠99中文字幕| 一个人免费在线观看电影| 一个人免费在线观看电影| 国产精品一二三区在线看| 18+在线观看网站| 我的老师免费观看完整版| 亚洲熟妇中文字幕五十中出| 99久国产av精品国产电影| 久久精品国产鲁丝片午夜精品| 国产毛片a区久久久久| 村上凉子中文字幕在线| 一夜夜www| 99久国产av精品| 日韩国内少妇激情av| 18禁黄网站禁片免费观看直播| 国产黄色小视频在线观看| 久久九九热精品免费| 精品久久久噜噜| 三级国产精品欧美在线观看| or卡值多少钱| 午夜精品国产一区二区电影 | 最近视频中文字幕2019在线8| 啦啦啦啦在线视频资源| 日韩欧美 国产精品| 日日啪夜夜撸| 日日啪夜夜撸| 精品乱码久久久久久99久播| 日本色播在线视频| 97人妻精品一区二区三区麻豆| 国产av在哪里看| 热99在线观看视频| 国产精品,欧美在线| 欧美一区二区国产精品久久精品| av视频在线观看入口| 成人无遮挡网站| 亚洲人与动物交配视频| 国产精品久久电影中文字幕| 精品99又大又爽又粗少妇毛片| 亚洲av成人精品一区久久| 青春草视频在线免费观看| 国产免费一级a男人的天堂| 99在线人妻在线中文字幕| 少妇熟女欧美另类| av天堂中文字幕网| 国国产精品蜜臀av免费| 女人被狂操c到高潮| 黄色日韩在线| 日韩三级伦理在线观看| 亚洲欧美精品综合久久99| 亚洲精品一卡2卡三卡4卡5卡| 99久久中文字幕三级久久日本| 精品一区二区三区视频在线| 国产免费男女视频| 男女做爰动态图高潮gif福利片| 久久久久国内视频| 国产亚洲精品综合一区在线观看| 久久久久免费精品人妻一区二区| 精品欧美国产一区二区三| 热99re8久久精品国产| 国产美女午夜福利| 一本精品99久久精品77| 中文资源天堂在线| 欧美区成人在线视频| 天天躁夜夜躁狠狠久久av| 99热网站在线观看| 日韩欧美免费精品| 午夜免费激情av| aaaaa片日本免费| 天堂影院成人在线观看| 中国美白少妇内射xxxbb| 成人三级黄色视频| 99久久精品国产国产毛片| 日日摸夜夜添夜夜添小说| 色在线成人网| 一区二区三区免费毛片| 看黄色毛片网站| 成人三级黄色视频| 精品人妻熟女av久视频| 亚洲欧美日韩东京热| 精品人妻一区二区三区麻豆 | 亚州av有码| 午夜爱爱视频在线播放| 精品少妇黑人巨大在线播放 | 久久热精品热| 国模一区二区三区四区视频| 国产伦在线观看视频一区| 日韩欧美精品v在线| 欧美成人一区二区免费高清观看| 欧美日本视频| 国产精品人妻久久久影院| 国产视频内射| av.在线天堂| 黄色视频,在线免费观看| 直男gayav资源| 国产免费一级a男人的天堂| 一夜夜www| 亚洲人成网站高清观看| 午夜a级毛片| 精品一区二区三区视频在线| 久久精品国产亚洲av涩爱 | 麻豆国产av国片精品| 中国美白少妇内射xxxbb| 菩萨蛮人人尽说江南好唐韦庄 | 成年女人永久免费观看视频| 亚洲国产精品国产精品| 日产精品乱码卡一卡2卡三| 亚洲婷婷狠狠爱综合网| 日韩国内少妇激情av| 亚洲av美国av| 校园春色视频在线观看| 日韩精品青青久久久久久| 一边摸一边抽搐一进一小说| 免费看光身美女| 精品午夜福利在线看| 免费看日本二区| 国产成人精品久久久久久| 18禁在线播放成人免费| 天堂影院成人在线观看| 婷婷色综合大香蕉| 简卡轻食公司| 网址你懂的国产日韩在线| 久久精品影院6| 亚洲av不卡在线观看| 欧美一区二区精品小视频在线| 欧美性猛交╳xxx乱大交人| 蜜桃久久精品国产亚洲av| 国产免费一级a男人的天堂| av视频在线观看入口| 国产精品野战在线观看| 国产精品免费一区二区三区在线| 精品午夜福利视频在线观看一区| 亚洲精品亚洲一区二区| 欧美成人a在线观看| 18+在线观看网站| 日韩欧美一区二区三区在线观看| 中文字幕精品亚洲无线码一区| 三级经典国产精品| 午夜亚洲福利在线播放| 亚洲丝袜综合中文字幕| 91麻豆精品激情在线观看国产| 麻豆乱淫一区二区| 一进一出抽搐gif免费好疼| 免费人成视频x8x8入口观看| 亚洲欧美日韩东京热| 亚洲综合色惰| 亚洲av不卡在线观看| 日本免费一区二区三区高清不卡| 男女视频在线观看网站免费| 成人综合一区亚洲| 久久精品夜夜夜夜夜久久蜜豆| av女优亚洲男人天堂| 国语自产精品视频在线第100页| 亚洲国产欧美人成| 国产高清三级在线| 婷婷六月久久综合丁香| 成年女人毛片免费观看观看9| 我的老师免费观看完整版| 嫩草影院新地址| av专区在线播放| 亚洲欧美成人综合另类久久久 | 日韩亚洲欧美综合| 黄色日韩在线| 嫩草影院新地址| 一级毛片aaaaaa免费看小| 久久精品国产自在天天线| 在线免费观看不下载黄p国产| 在线天堂最新版资源| 天美传媒精品一区二区| 国产探花在线观看一区二区| 国产精品免费一区二区三区在线| 国内久久婷婷六月综合欲色啪| 午夜福利18| 99在线视频只有这里精品首页| h日本视频在线播放| 黄色视频,在线免费观看| 真实男女啪啪啪动态图| 男女做爰动态图高潮gif福利片| 麻豆乱淫一区二区| 欧美+亚洲+日韩+国产| 亚洲五月天丁香| 97超碰精品成人国产| 欧美日韩精品成人综合77777| av在线播放精品| 亚洲性夜色夜夜综合| 香蕉av资源在线| 日本免费a在线| 精品无人区乱码1区二区| 又黄又爽又刺激的免费视频.| 欧美区成人在线视频| 国产蜜桃级精品一区二区三区| 18禁裸乳无遮挡免费网站照片| 久久久欧美国产精品| eeuss影院久久| 少妇猛男粗大的猛烈进出视频 | 亚洲成人久久爱视频| 三级男女做爰猛烈吃奶摸视频| 我要搜黄色片| 亚洲无线观看免费| 欧美性猛交黑人性爽| 国产av一区在线观看免费| 美女免费视频网站| 成年免费大片在线观看| 日日啪夜夜撸| 美女 人体艺术 gogo| 亚洲中文字幕一区二区三区有码在线看| 久久韩国三级中文字幕| 国产探花极品一区二区| 日韩欧美免费精品| 亚洲无线观看免费| 99九九线精品视频在线观看视频| 国产色婷婷99| 国产成年人精品一区二区| 国产精品永久免费网站| 久久精品久久久久久噜噜老黄 | 给我免费播放毛片高清在线观看| 你懂的网址亚洲精品在线观看 | 国产欧美日韩精品亚洲av| 亚洲av电影不卡..在线观看| 欧美又色又爽又黄视频| 日韩 亚洲 欧美在线| 国产一级毛片七仙女欲春2| 久久6这里有精品| 成人精品一区二区免费| 成人特级av手机在线观看| 亚洲在线观看片| 日韩欧美一区二区三区在线观看| 日本在线视频免费播放| 亚洲美女视频黄频| 老司机午夜福利在线观看视频| 非洲黑人性xxxx精品又粗又长| 在线观看66精品国产| 国产高清有码在线观看视频| 国产精品乱码一区二三区的特点| 欧美性感艳星| 久久久久免费精品人妻一区二区| 欧美性感艳星| 内射极品少妇av片p| 黄色视频,在线免费观看| 精品久久久久久久人妻蜜臀av| 久久中文看片网| 亚洲国产精品久久男人天堂| 日韩欧美一区二区三区在线观看| 老女人水多毛片| 搡老岳熟女国产| 最近2019中文字幕mv第一页| 欧美一区二区精品小视频在线| 麻豆国产av国片精品| 日本-黄色视频高清免费观看| 亚洲婷婷狠狠爱综合网| 色综合色国产| 天天躁日日操中文字幕| av天堂中文字幕网| 中国美女看黄片| 亚洲无线观看免费| 搡老妇女老女人老熟妇| 国产免费男女视频| 一个人免费在线观看电影| 色5月婷婷丁香| 狂野欧美激情性xxxx在线观看| 大又大粗又爽又黄少妇毛片口| 天堂动漫精品| 联通29元200g的流量卡| 国产精品日韩av在线免费观看| 人妻丰满熟妇av一区二区三区| 日韩欧美一区二区三区在线观看| 国产久久久一区二区三区| 美女大奶头视频| 日本撒尿小便嘘嘘汇集6| 又粗又爽又猛毛片免费看| 国内精品宾馆在线| 亚洲中文字幕一区二区三区有码在线看| 毛片一级片免费看久久久久| 插逼视频在线观看| 99riav亚洲国产免费| 国产精品亚洲一级av第二区| 嫩草影院入口| 国产精品1区2区在线观看.| 深爱激情五月婷婷| 免费观看精品视频网站| 国产男靠女视频免费网站| 亚洲国产精品合色在线| 看非洲黑人一级黄片| 18禁裸乳无遮挡免费网站照片| 小蜜桃在线观看免费完整版高清| 久久精品夜夜夜夜夜久久蜜豆| 午夜激情欧美在线| 成人亚洲欧美一区二区av| 舔av片在线| 黄色欧美视频在线观看| 亚洲自拍偷在线| 免费观看的影片在线观看| 看片在线看免费视频| 亚洲经典国产精华液单| 天堂√8在线中文| 特大巨黑吊av在线直播| 免费在线观看影片大全网站| 日韩欧美免费精品| 国产高清三级在线| 国产 一区精品| 日韩高清综合在线| 搞女人的毛片| 色吧在线观看| 久久久国产成人精品二区| 熟妇人妻久久中文字幕3abv| 免费看日本二区| 欧美最新免费一区二区三区| 国国产精品蜜臀av免费| 欧美另类亚洲清纯唯美| 99视频精品全部免费 在线| 精品国产三级普通话版| 日韩欧美免费精品| 乱码一卡2卡4卡精品| 国产一区二区三区av在线 | 听说在线观看完整版免费高清| 国产aⅴ精品一区二区三区波| 深夜a级毛片| 精品人妻熟女av久视频| 亚洲人成网站在线播放欧美日韩| 国产高清有码在线观看视频| 欧美高清成人免费视频www| 国产男人的电影天堂91| 最新在线观看一区二区三区| 久久久久国产精品人妻aⅴ院| 亚洲av成人av| 尤物成人国产欧美一区二区三区| 人人妻,人人澡人人爽秒播| 韩国av在线不卡| 日韩欧美精品v在线| 女的被弄到高潮叫床怎么办| 久久亚洲精品不卡| 丝袜喷水一区| 99在线人妻在线中文字幕| 欧美最黄视频在线播放免费| 激情 狠狠 欧美| 一个人看视频在线观看www免费| 亚洲av第一区精品v没综合| 一个人看的www免费观看视频| 毛片女人毛片| 亚洲av中文av极速乱| 亚洲欧美精品综合久久99| 久久久久久伊人网av| 国产色婷婷99| 超碰av人人做人人爽久久| 欧美不卡视频在线免费观看| 国产亚洲精品久久久com| 日韩精品青青久久久久久| 免费看av在线观看网站| 亚洲欧美成人综合另类久久久 | 简卡轻食公司| 亚洲成人精品中文字幕电影| 99热这里只有精品一区| 国产精品国产三级国产av玫瑰| 免费观看精品视频网站| 噜噜噜噜噜久久久久久91| 日韩国内少妇激情av| 插阴视频在线观看视频| 一区二区三区高清视频在线| 夜夜夜夜夜久久久久| 国产伦精品一区二区三区视频9| 一本精品99久久精品77| 国产精品三级大全| 国产探花极品一区二区| 日韩欧美精品免费久久| 久久久久久九九精品二区国产| 99热全是精品| 男女下面进入的视频免费午夜| 精品人妻一区二区三区麻豆 | 国产乱人偷精品视频| 国产亚洲91精品色在线| 成人永久免费在线观看视频| 久久韩国三级中文字幕| 国产高潮美女av| 色视频www国产| 国内揄拍国产精品人妻在线| 免费人成在线观看视频色| 国产精品女同一区二区软件| 国产高清不卡午夜福利| 亚洲四区av| av天堂在线播放| 精品久久久久久成人av| 亚洲一级一片aⅴ在线观看| 国产精品电影一区二区三区| 国产黄色小视频在线观看| 国产精品1区2区在线观看.| 99久久精品国产国产毛片| 嫩草影视91久久| 午夜精品在线福利| 插逼视频在线观看| 欧美日韩乱码在线| 国产色婷婷99| av免费在线看不卡| 亚洲人成网站高清观看| 亚洲18禁久久av| 日韩欧美国产在线观看| 免费不卡的大黄色大毛片视频在线观看 | 六月丁香七月| 国产精品乱码一区二三区的特点| 日韩欧美三级三区| 老司机福利观看| 深夜a级毛片| 欧美丝袜亚洲另类| 在线观看免费视频日本深夜| 观看美女的网站| av在线亚洲专区| 亚洲国产欧美人成| 国产精品一区二区免费欧美| 国产成人91sexporn| 九九爱精品视频在线观看| 欧美三级亚洲精品| 亚洲七黄色美女视频| 欧美日本视频| 九九热线精品视视频播放| 精品久久久久久久久久免费视频| 深夜a级毛片| 午夜激情欧美在线| 日韩精品中文字幕看吧| 一个人免费在线观看电影| 免费看光身美女| 少妇裸体淫交视频免费看高清| 不卡视频在线观看欧美| 69人妻影院| 久久鲁丝午夜福利片| 夜夜爽天天搞| 免费无遮挡裸体视频| 中文字幕熟女人妻在线| 免费一级毛片在线播放高清视频| 天堂动漫精品| 可以在线观看毛片的网站| 日韩三级伦理在线观看| 国产乱人偷精品视频| 搡女人真爽免费视频火全软件 | 午夜日韩欧美国产| 狂野欧美激情性xxxx在线观看| 国产精品人妻久久久久久| 97在线视频观看| 波多野结衣巨乳人妻| 噜噜噜噜噜久久久久久91| 成人永久免费在线观看视频| 综合色丁香网| 国产在线男女| 亚洲熟妇熟女久久| 99热精品在线国产| 亚洲国产欧洲综合997久久,| 国产精品永久免费网站| 色综合亚洲欧美另类图片| 欧美国产日韩亚洲一区| 日韩欧美一区二区三区在线观看| 老司机午夜福利在线观看视频| 日本精品一区二区三区蜜桃| 日韩中字成人| 精品人妻一区二区三区麻豆 | 亚洲五月天丁香| 成年女人看的毛片在线观看| 五月玫瑰六月丁香| 在线播放无遮挡| 天天躁日日操中文字幕| 亚洲第一区二区三区不卡| 少妇人妻精品综合一区二区 | 国产不卡一卡二| 成人美女网站在线观看视频| 欧美性感艳星| 国产白丝娇喘喷水9色精品| 乱系列少妇在线播放| 看非洲黑人一级黄片| 亚洲三级黄色毛片| а√天堂www在线а√下载| 在线天堂最新版资源| 国产亚洲欧美98| 久久中文看片网| 成人永久免费在线观看视频| 毛片女人毛片| 男女啪啪激烈高潮av片| 国产精品久久久久久久久免| 国产亚洲91精品色在线| 成人高潮视频无遮挡免费网站| 麻豆成人午夜福利视频| 国内揄拍国产精品人妻在线| 欧美最黄视频在线播放免费| 18禁在线播放成人免费| 成年女人看的毛片在线观看| 极品教师在线视频| 国产黄a三级三级三级人| 黄色一级大片看看| 欧美xxxx性猛交bbbb| 高清日韩中文字幕在线| 中文资源天堂在线| 在线观看午夜福利视频| 村上凉子中文字幕在线| 久久久精品大字幕| 国产高清有码在线观看视频| 日韩欧美 国产精品|