• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深度優(yōu)先局部聚合哈希

    2021-08-02 17:08:28龍顯忠程成李云
    關(guān)鍵詞:圖像檢索卷積神經(jīng)網(wǎng)絡(luò)

    龍顯忠 程成 李云

    摘? ?要:已有的深度監(jiān)督哈希方法不能有效地利用提取到的卷積特征,同時(shí),也忽視了數(shù)據(jù)對(duì)之間相似性信息分布對(duì)于哈希網(wǎng)絡(luò)的作用,最終導(dǎo)致學(xué)到的哈希編碼之間的區(qū)分性不足. 為了解決該問題,提出了一種新穎的深度監(jiān)督哈希方法,稱之為深度優(yōu)先局部聚合哈希(Deep Priority Local Aggregated Hashing,DPLAH). DPLAH將局部聚合描述子向量嵌入到哈希網(wǎng)絡(luò)中,提高網(wǎng)絡(luò)對(duì)同類數(shù)據(jù)的表達(dá)能力,并且通過在數(shù)據(jù)對(duì)之間施加不同權(quán)重,從而減少相似性信息分布傾斜對(duì)哈希網(wǎng)絡(luò)的影響. 利用Pytorch深度框架進(jìn)行DPLAH實(shí)驗(yàn),使用NetVLAD層對(duì)Resnet18網(wǎng)絡(luò)模型輸出的卷積特征進(jìn)行聚合,將聚合得到的特征進(jìn)行哈希編碼學(xué)習(xí). 在CIFAR-10和NUS-WIDE數(shù)據(jù)集上的圖像檢索實(shí)驗(yàn)表明,與使用手工特征和卷積神經(jīng)網(wǎng)絡(luò)特征的非深度哈希學(xué)習(xí)算法的最好結(jié)果相比,DPLAH的平均準(zhǔn)確率均值要高出11%,同時(shí),DPLAH的平均準(zhǔn)確率均值比非對(duì)稱深度監(jiān)督哈希方法高出2%.

    關(guān)鍵詞:深度哈希學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);圖像檢索;局部聚合描述子向量

    中圖分類號(hào):TP391.4? ? ? ? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)志碼:A

    Deep Priority Local Aggregated Hashing

    LONG Xianzhong1,2?,CHENG Cheng1,2 ,LI Yun1,2

    (1. School of Computer Science & Technology,Nanjing University of Posts and Telecommunications,Nanjing 210023,China;

    2. Key Laboratory of Jiangsu Big Data Security and Intelligent Processing,Nanjing 210023,China)

    Abstract:The existing deep supervised hashing methods? cannot effectively utilize the extracted convolution features, but also ignore the role of the similarity information distribution between data pairs on the hash network, resulting in insufficient discrimination between the learned hash codes. In order to solve this problem, a novel deep supervised hashing method called deep priority locally aggregated hashing (DPLAH) is proposed in this paper, which embeds the vector of locally aggregated descriptors (VLAD) into the hash network, so as to improve the ability of the hash network to express the similar data, and reduce the impact of similarity distribution skew on the hash network by imposing different weights on the data pairs. DPLAH experiment is carried out by using the Pytorch deep framework. The convolution features of the Resnet18 network model output are aggregated by using the NetVLAD layer, and the hash coding is learned by using the aggregated features. The image retrieval experiments on the CIFAR-10 and NUS-WIDE datasets show that the mean average precision (MAP) of DPLAH is 11 percentage points higher than that of non-deep hash learning algorithms using manual features and convolution neural network features, and the MAP of DPLAH is 2 percentage points higher than that of asymmetric deep supervised hashing method.

    Key words:deep Hash learning;convolutional neural network;image retrieval;vector of locally aggregated descriptors(VLAD)

    隨著信息檢索技術(shù)的不斷發(fā)展和完善,如今人們可以利用互聯(lián)網(wǎng)輕易獲取感興趣的數(shù)據(jù)內(nèi)容,然而,信息技術(shù)的發(fā)展同時(shí)導(dǎo)致了數(shù)據(jù)規(guī)模的迅猛增長. 面對(duì)海量的數(shù)據(jù)以及超大規(guī)模的數(shù)據(jù)集,利用最近鄰搜索[1](Nearest Neighbor Search,NN)的檢索技術(shù)已經(jīng)無法獲得理想的檢索效果與可接受的檢索時(shí)間. 因此,近年來,近似最近鄰搜索[2](Approximate Nearest Neighbor Search,ANN)變得越來越流行,它通過搜索可能相似的幾個(gè)數(shù)據(jù)而不再局限于返回最相似的數(shù)據(jù),在犧牲可接受范圍的精度下提高了檢索效率. 作為一種廣泛使用的ANN搜索技術(shù),哈希方法(Hashing)[3]將數(shù)據(jù)轉(zhuǎn)換為緊湊的二進(jìn)制編碼(哈希編碼)表示,同時(shí)保證相似的數(shù)據(jù)對(duì)生成相似的二進(jìn)制編碼. 利用哈希編碼來表示原始數(shù)據(jù),顯著減少了數(shù)據(jù)的存儲(chǔ)和查詢開銷,從而可以應(yīng)對(duì)大規(guī)模數(shù)據(jù)中的檢索問題. 因此,哈希方法吸引了越來越多學(xué)者的關(guān)注.

    當(dāng)前哈希方法主要分為兩類:數(shù)據(jù)獨(dú)立的哈希方法和數(shù)據(jù)依賴的哈希方法,這兩類哈希方法的區(qū)別在于哈希函數(shù)是否需要訓(xùn)練數(shù)據(jù)來定義. 局部敏感哈希(Locality Sensitive Hashing,LSH)[4]作為數(shù)據(jù)獨(dú)立的哈希代表,它利用獨(dú)立于訓(xùn)練數(shù)據(jù)的隨機(jī)投影作為哈希函數(shù). 相反,數(shù)據(jù)依賴哈希的哈希函數(shù)需要通過訓(xùn)練數(shù)據(jù)學(xué)習(xí)出來,因此,數(shù)據(jù)依賴的哈希也被稱為哈希學(xué)習(xí),數(shù)據(jù)依賴的哈希通常具有更好的性能. 近年來,哈希方法的研究主要側(cè)重于哈希學(xué)習(xí)方面.

    根據(jù)哈希學(xué)習(xí)過程中是否使用標(biāo)簽,哈希學(xué)習(xí)方法可以進(jìn)一步分為:監(jiān)督哈希學(xué)習(xí)和無監(jiān)督哈希學(xué)習(xí). 典型的無監(jiān)督哈希學(xué)習(xí)包括:譜哈希[5](Spectral Hashing,SH);迭代量化哈希[6](Iterative Quantization,ITQ);離散圖哈希[7](Discrete Graph Hashing,DGH);有序嵌入哈希[8] (Ordinal Embedding Hashing,OEH)等. 無監(jiān)督哈希學(xué)習(xí)方法僅使用無標(biāo)簽的數(shù)據(jù)來學(xué)習(xí)哈希函數(shù),將輸入的數(shù)據(jù)映射為哈希編碼的形式. 相反,監(jiān)督哈希學(xué)習(xí)方法通過利用監(jiān)督信息來學(xué)習(xí)哈希函數(shù),由于利用了帶有標(biāo)簽的數(shù)據(jù),監(jiān)督哈希方法往往比無監(jiān)督哈希方法具有更好的準(zhǔn)確性,本文的研究主要針對(duì)監(jiān)督哈希學(xué)習(xí)方法.

    傳統(tǒng)的監(jiān)督哈希方法包括:核監(jiān)督哈希[9] (Supervised Hashing with Kernels,KSH);潛在因子哈希[10](Latent Factor Hashing,LFH);快速監(jiān)督哈希[11](Fast Supervised Hashing,F(xiàn)astH);監(jiān)督離散哈希[12](Supervised Discrete Hashing,SDH)等. 隨著深度學(xué)習(xí)技術(shù)的發(fā)展[13],利用神經(jīng)網(wǎng)絡(luò)提取的特征已經(jīng)逐漸替代手工特征,推動(dòng)了深度監(jiān)督哈希的進(jìn)步. 具有代表性的深度監(jiān)督哈希方法包括:卷積神經(jīng)網(wǎng)絡(luò)哈希[14](Convolutional Neural Networks Hashing,CNNH);深度語義排序哈希[15] (Deep Semantic Ranking Based Hashing,DSRH);深度成對(duì)監(jiān)督哈希[16] (Deep Pairwise-Supervised Hashing,DPSH);深度監(jiān)督離散哈希[17] (Deep Supervised Discrete Hashing,DSDH);深度優(yōu)先哈希[18](Deep Priority Hashing,DPH)等. 通過將特征學(xué)習(xí)和哈希編碼學(xué)習(xí)(或哈希函數(shù)學(xué)習(xí))集成到一個(gè)端到端網(wǎng)絡(luò)中,深度監(jiān)督哈希方法可以顯著優(yōu)于非深度監(jiān)督哈希方法.

    到目前為止,大多數(shù)現(xiàn)有的深度哈希方法都采用對(duì)稱策略來學(xué)習(xí)查詢數(shù)據(jù)和數(shù)據(jù)集的哈希編碼以及深度哈希函數(shù). 相反,非對(duì)稱深度監(jiān)督哈希[19](Asymmetric Deep Supervised Hashing,ADSH)以非對(duì)稱的方式處理查詢數(shù)據(jù)和整個(gè)數(shù)據(jù)庫數(shù)據(jù),解決了對(duì)稱方式中訓(xùn)練開銷較大的問題,僅僅通過查詢數(shù)據(jù)就可以對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練來學(xué)習(xí)哈希函數(shù),整個(gè)數(shù)據(jù)庫的哈希編碼可以通過優(yōu)化直接得到. 本文的模型同樣利用了ADSH的非對(duì)稱訓(xùn)練策略.

    然而,現(xiàn)有的非對(duì)稱深度監(jiān)督哈希方法并沒有考慮到數(shù)據(jù)之間的相似性分布對(duì)于哈希網(wǎng)絡(luò)的影響,可能導(dǎo)致結(jié)果是:容易在漢明空間中保持相似關(guān)系的數(shù)據(jù)對(duì),往往會(huì)被訓(xùn)練得越來越好;相反,那些難以在漢明空間中保持相似關(guān)系的數(shù)據(jù)對(duì),往往在訓(xùn)練后得到的提升并不顯著. 同時(shí)大部分現(xiàn)有的深度監(jiān)督哈希方法在哈希網(wǎng)絡(luò)中沒有充分有效利用提取到的卷積特征.

    本文提出了一種新的深度監(jiān)督哈希方法,稱為深度優(yōu)先局部聚合哈希(Deep Priority Local Aggregated Hashing,DPLAH). DPLAH的貢獻(xiàn)主要有三個(gè)方面:

    1)DPLAH采用非對(duì)稱的方式處理查詢數(shù)據(jù)和數(shù)據(jù)庫數(shù)據(jù),同時(shí)DPLAH網(wǎng)絡(luò)會(huì)優(yōu)先學(xué)習(xí)查詢數(shù)據(jù)和數(shù)據(jù)庫數(shù)據(jù)之間困難的數(shù)據(jù)對(duì),從而減輕相似性分布傾斜對(duì)哈希網(wǎng)絡(luò)的影響.

    2)DPLAH設(shè)計(jì)了全新的深度哈希網(wǎng)絡(luò),具體來說,DPLAH將局部聚合表示融入到哈希網(wǎng)絡(luò)中,提高了哈希網(wǎng)絡(luò)對(duì)同類數(shù)據(jù)的表達(dá)能力. 同時(shí)考慮到數(shù)據(jù)的局部聚合表示對(duì)于分類任務(wù)的有效性.

    3)在兩個(gè)大型數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,DPLAH在實(shí)際應(yīng)用中性能優(yōu)越.

    1? ?相關(guān)工作

    本節(jié)分別對(duì)哈希學(xué)習(xí)[3]、NetVLAD[20]和Focal Loss[21]進(jìn)行介紹. DPLAH分別利用NetVLAD和Focal Loss提高哈希網(wǎng)絡(luò)對(duì)同類數(shù)據(jù)的表達(dá)能力及減輕數(shù)據(jù)之間相似性分布傾斜對(duì)于哈希網(wǎng)絡(luò)的影響.

    1. 1? ?哈希學(xué)習(xí)

    哈希學(xué)習(xí)[3]的任務(wù)是學(xué)習(xí)查詢數(shù)據(jù)和數(shù)據(jù)庫數(shù)據(jù)的哈希編碼表示,同時(shí)要滿足原始數(shù)據(jù)之間的近鄰關(guān)系與數(shù)據(jù)哈希編碼之間的近鄰關(guān)系相一致的條件. 具體來說,利用機(jī)器學(xué)習(xí)方法將所有數(shù)據(jù)映射成{0,1}r形式的二進(jìn)制編碼(r表示哈希編碼長度),在原空間中不相似的數(shù)據(jù)點(diǎn)將被映射成不相似(即漢明距離較大)的兩個(gè)二進(jìn)制編碼,而原空間中相似的兩個(gè)數(shù)據(jù)點(diǎn)將被映射成相似(即漢明距離較?。┑膬蓚€(gè)二進(jìn)制編碼.

    為了便于計(jì)算,大部分哈希方法學(xué)習(xí){-1,1}r形式的哈希編碼,這是因?yàn)閧-1,1}r形式的哈希編碼對(duì)之間的內(nèi)積等于哈希編碼的長度減去漢明距離的兩倍,同時(shí){-1,1}r形式的哈希編碼可以容易轉(zhuǎn)化為{0,1}r形式的二進(jìn)制編碼.

    圖1是哈希學(xué)習(xí)的示意圖. 經(jīng)過特征提取后的高維向量被用來表示原始圖像,哈希函數(shù)h將每張圖像映射成8 bits的哈希編碼,使原來相似的數(shù)據(jù)對(duì)(圖中老虎1和老虎2)之間的哈希編碼漢明距離盡可能小,原來不相似的數(shù)據(jù)對(duì)(圖中大象和老虎1)之間的哈希編碼漢明距離盡可能大.

    1. 2? ?NetVLAD

    NetVLAD的提出是用于解決端到端的場景識(shí)別問題[20](場景識(shí)別被當(dāng)作一個(gè)實(shí)例檢索任務(wù)),它將傳統(tǒng)的局部聚合描述子向量(Vector of Locally Aggregated Descriptors,VLAD[22])結(jié)構(gòu)嵌入到CNN網(wǎng)絡(luò)中,得到了一個(gè)新的VLAD層. 可以容易地將NetVLAD使用在任意CNN結(jié)構(gòu)中,利用反向傳播算法進(jìn)行優(yōu)化,它能夠有效地提高對(duì)同類別圖像的表達(dá)能力,并提高分類的性能.

    NetVLAD的編碼步驟為:利用卷積神經(jīng)網(wǎng)絡(luò)提取圖像的卷積特征;利用NetVLAD層對(duì)卷積特征進(jìn)行聚合操作. 圖2為NetVLAD層的示意圖. 在特征提取階段,NetVLAD會(huì)在最后一個(gè)卷積層上裁剪卷積特征,并將其視為密集的描述符提取器,最后一個(gè)卷積層的輸出是H×W×D映射,可以將其視為在H×W空間位置提取的一組D維特征,該方法在實(shí)例檢索和紋理識(shí)別任務(wù)[23-24]中都表現(xiàn)出了很好的效果.

    NetVLAD在特征聚合階段,利用一個(gè)新的池化層對(duì)裁剪的CNN特征進(jìn)行聚合,這個(gè)新的池化層被稱為NetVLAD層. NetVLAD的聚合操作公式如下:

    V(j,k) = ak(xi)(xi(j) - ck(j))? ? ? ? ?(1)

    式中:xi(j)和ck(j)分別表示第i個(gè)特征的第j維和第k個(gè)聚類中心的第j維;ak(xi)表示特征xi與第k個(gè)視覺單詞之間的權(quán). NetVLAD特征聚合的輸入為:NetVLAD裁剪得到的N個(gè)D維的卷積特征,K個(gè)聚類中心.

    VLAD的特征分配方式是硬分配,即每個(gè)特征只和對(duì)應(yīng)的最近鄰聚類中心相關(guān)聯(lián),這種分配方式會(huì)造成較大的量化誤差,并且,這種分配方式嵌入到卷積神經(jīng)網(wǎng)絡(luò)中無法進(jìn)行反向傳播更新參數(shù). 因此,NetVLAD采用軟分配的方式進(jìn)行特征分配,軟分配對(duì)應(yīng)的公式如下:

    ak(xi) =? ? ? ? ? ? (2)

    如果α→+∞,那么對(duì)于最接近的聚類中心,ak(xi)的值為1,其他為0. ak(xi)可以進(jìn)一步重寫為:

    ak(xi) =? ? ? ? ? ? (3)

    式中:wk = 2αck;bk = -α‖ck‖2. 最終的NetVLAD的聚合表示可以寫為:

    V(j,k)=(xi(j) - ck(j))? ? ? ? (4)

    1.3? ?Focal Loss

    對(duì)于目標(biāo)檢測(cè)方法,一般可以分為兩種類型:單階段目標(biāo)檢測(cè)和兩階段目標(biāo)檢測(cè),通常情況下,兩階段的目標(biāo)檢測(cè)效果要優(yōu)于單階段的目標(biāo)檢測(cè). Lin等人[21]揭示了前景和背景的極度不平衡導(dǎo)致了單階段目標(biāo)檢測(cè)的效果無法令人滿意,具體而言,容易被分類的背景雖然對(duì)應(yīng)的損失很低,但由于圖像中背景的比重很大,對(duì)于損失依舊有很大的貢獻(xiàn),從而導(dǎo)致收斂到不夠好的一個(gè)結(jié)果. Lin等人[21]提出了Focal Loss應(yīng)對(duì)這一問題,圖3是對(duì)應(yīng)的示意圖. 使用交叉熵作為目標(biāo)檢測(cè)中的分類損失,對(duì)于易分類的樣本,它的損失雖然很低,但數(shù)據(jù)的不平衡導(dǎo)致大量易分類的損失之和壓倒了難分類的樣本損失,最終難分類的樣本不能在神經(jīng)網(wǎng)絡(luò)中得到有效的訓(xùn)練. Focal Loss的本質(zhì)是一種加權(quán)思想,權(quán)重可根據(jù)分類正確的概率pt得到,利用γ可以對(duì)該權(quán)重的強(qiáng)度進(jìn)行調(diào)整.

    針對(duì)非對(duì)稱深度哈希方法,希望難以在漢明空間中保持相似關(guān)系的數(shù)據(jù)對(duì)優(yōu)先訓(xùn)練,具體來說,對(duì)于DPLAH的整體訓(xùn)練損失,通過施加權(quán)重的方式,相對(duì)提高難以在漢明空間中保持相似關(guān)系的數(shù)據(jù)對(duì)之間的訓(xùn)練損失. 然而深度哈希學(xué)習(xí)并不是一個(gè)分類任務(wù),因此無法像Focal Loss一樣根據(jù)分類正確的概率設(shè)計(jì)權(quán)重,哈希學(xué)習(xí)的目的是學(xué)到保相似性的哈希編碼,本文最終利用數(shù)據(jù)對(duì)哈希編碼的相似度作為權(quán)重的設(shè)計(jì)依據(jù),具體的權(quán)重形式將在模型部分詳細(xì)介紹.

    2? ?深度優(yōu)先局部聚合哈希

    2. 1? ?基本定義

    DPLAH模型采用非對(duì)稱的網(wǎng)絡(luò)設(shè)計(jì). Q={qi}n

    i=1表示n張查詢圖像,X = {xi}m

    i=1表示數(shù)據(jù)庫有m張圖像;查詢圖像和數(shù)據(jù)庫圖像的標(biāo)簽分別用Z = {zi}n

    i=1和Y = {yi}m

    i=1表示;zi = [zi1,…,zic]T,i = 1,…,n;c表示類別數(shù);如果查詢圖像qi屬于類別j, j = 1,…,c;那么zij = 1,否則zij = 0. 利用標(biāo)簽信息,可以構(gòu)造圖像對(duì)的相似性矩陣S∈{-1,1}n × m,sij = 1表示查詢圖像qi和數(shù)據(jù)庫中的圖像xj語義相似,sij = -1表示查詢圖像qi和數(shù)據(jù)庫中的圖像xj語義不相似. 深度哈希方法的目標(biāo)是學(xué)習(xí)查詢圖像和數(shù)據(jù)庫中圖像的哈希編碼,查詢圖像的哈希編碼用U∈{-1,1}n × r,表示,數(shù)據(jù)庫中圖像的哈希編碼用B∈{-1,1}m × r表示,其中r表示哈希編碼的長度.

    對(duì)于DPLAH模型,它在特征提取部分采用預(yù)訓(xùn)練好的Resnet18網(wǎng)絡(luò)[25]. 圖4為DPLAH網(wǎng)絡(luò)的結(jié)構(gòu)示意圖,利用NetVLAD層聚合Resnet18網(wǎng)絡(luò)提取到的卷積特征,哈希編碼通過VLAD編碼得到,由于VLAD編碼在分類任務(wù)中被廣泛使用,于是本文將NetVLAD層的輸出作為分類任務(wù)的輸入,利用圖像的標(biāo)簽信息監(jiān)督NetVLAD層對(duì)卷積特征的利用. 事實(shí)上,任何一種CNN模型都能實(shí)現(xiàn)圖像特征提取的功能,所以對(duì)于選用哪種網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí)并不是本文的重點(diǎn).

    2. 2? ?DPLAH模型的目標(biāo)函數(shù)

    為了學(xué)習(xí)可以保留查詢圖像與數(shù)據(jù)庫圖像之間相似性的哈希編碼,一種常見的方法是利用相似性的監(jiān)督信息S∈{-1,1}n × m、生成的哈希編碼長度r,以及查詢圖像的哈希編碼ui和數(shù)據(jù)庫中圖像的哈希編碼bj三者之間的關(guān)系[9],即最小化相似性的監(jiān)督信息與哈希編碼對(duì)(ui,bj)內(nèi)積之間的L2損失. 考慮到相似性分布的傾斜問題,本文通過施加權(quán)重來調(diào)節(jié)查詢圖像和數(shù)據(jù)庫圖像之間的損失,其公式可以表示為:

    J = (1-wij)α(uT

    ibj - rsij)2

    s.t. U∈{-1,1}n × r,B∈{-1,1}m × r,W∈Rn × m

    (5)

    受Focal Loss啟發(fā),希望深度哈希網(wǎng)絡(luò)優(yōu)先訓(xùn)練相似性不容易保留圖像對(duì),然而Focal Loss利用圖像的分類結(jié)果對(duì)損失進(jìn)行調(diào)整,因此,需要重新進(jìn)行設(shè)計(jì),由于哈希學(xué)習(xí)的目的是為了保留圖像在漢明空間中的相似性關(guān)系,本文利用哈希編碼的余弦相似度來設(shè)計(jì)權(quán)重,其表達(dá)式為:

    wij =

    ,sij = 1

    ,sij = -1? ? ? ? ? ? ? ? ?(6)

    式中:ui和bj分別表示查詢圖像i和數(shù)據(jù)庫圖像j的哈希編碼;sij = 1表示圖像i和j語義相似,sij = -1表示圖像i和j語義不相似. 從公式(6)中可以發(fā)現(xiàn),若ui和bj越相似,且圖像i和j語義相似,則wij的值接近1,這就表示哈希編碼ui和bj相似的難度低;反之ui和bj不相似,而圖像i和j語義相似,則wij的值接近0,這就表示哈希編碼ui和bj相似的難度高. 本文希望深度哈希網(wǎng)絡(luò)優(yōu)先關(guān)注相似難度高的圖像對(duì),因此對(duì)查詢圖像和數(shù)據(jù)庫圖像之間施加權(quán)重(1-wij)α,α是一個(gè)超參數(shù).

    對(duì)于查詢圖像的哈希編碼{ui}n

    i=1∈U而言,它是離散值,所以不能直接利用反向傳播算法(BP)來更新神經(jīng)網(wǎng)絡(luò)的參數(shù)Θ. 為了使神經(jīng)網(wǎng)絡(luò)能夠進(jìn)行反向傳播,使用tanh(L)激活函數(shù)來近似表示U,其中L = {li}n

    i=1表示圖像網(wǎng)絡(luò)中哈希層的輸出,對(duì)應(yīng)的優(yōu)化問題(5)可以被重新表示為:

    J = (1-wij)α(tanh(li)Tbj - rsij)2

    s.t. B∈{-1,1}m × r? ?(7)

    使用Ψ={1,2,…,m}表示數(shù)據(jù)庫中所有圖像的索引,隨機(jī)地從數(shù)據(jù)庫中選擇nΨΥ張圖像創(chuàng)建查詢集,并用Υ = {i1,i2,…,in}?Ψ表示查詢集的索引. 此時(shí),公式(7)可以表示為:

    J = (1-wij)α(tanh(li)Tbj - rsij)2

    s.t. B∈{-1,1}m × r? ? ? ?(8)

    創(chuàng)建的查詢集通過深度哈希網(wǎng)絡(luò)生成哈希編碼,同樣它們?cè)谡麄€(gè)數(shù)據(jù)集中的哈希編碼也可以通過優(yōu)化直接得到,因此,還需要保證查詢集在哈希網(wǎng)絡(luò)中學(xué)習(xí)到的哈希編碼要與數(shù)據(jù)集中的哈希編碼盡可能相同. 對(duì)應(yīng)的優(yōu)化問題可進(jìn)一步表示為:

    J = (1-wij)α(tanh(li)Tbj - rsij)2 +

    β(bi - tanh(li))2

    s.t. B∈{-1,1}m × r? ? ? ? ? ? ? ? ? ? ? (9)

    由于VLAD對(duì)于圖像具有較好的表示性能,并且VLAD同樣被廣泛運(yùn)用于圖像分類任務(wù)中,因此,NetVLAD層的輸出對(duì)于分類任務(wù)也依然有效,并將NetVLAD層的輸出pi作為分類網(wǎng)絡(luò)的輸入. 利用NetVLAD在分類網(wǎng)絡(luò)中的預(yù)測(cè)標(biāo)簽和圖像的真實(shí)標(biāo)簽之間的損失更新網(wǎng)絡(luò)參數(shù),希望圖像哈希網(wǎng)絡(luò)能夠提取到更具有判別力的特征. 最終,DPLAH的目標(biāo)函數(shù)可寫為:

    J=(1-wij)α(tanh(li)Tbj-rsij)2 +

    β(bj-tanh(li))2+μ‖yi-WTpi‖2

    2

    s.t. B∈{-1,1}m × r? ? ? ? ? ? ? ? ? ? ? ? ? ? ? (10)

    2.3? ?學(xué)習(xí)過程

    本文采用迭代優(yōu)化的方式來學(xué)習(xí)DPLAH網(wǎng)絡(luò)的參數(shù)Θ和數(shù)據(jù)庫圖像的哈希編碼B. 算法1是整個(gè)DPLAH算法的學(xué)習(xí)過程.

    固定B,學(xué)習(xí)參數(shù)Θ. 當(dāng)B被固定,直接使用反向傳播算法(BP)來更新參數(shù)Θ,具體來說,從查詢集中采樣一個(gè)批次的圖像來更新深度哈希網(wǎng)絡(luò)的參數(shù).

    固定參數(shù)Θ,學(xué)習(xí)B. 當(dāng)深度哈希網(wǎng)絡(luò)的參數(shù)Θ被固定時(shí),使用與非對(duì)稱深度哈希[19]相同的優(yōu)化策略來更新數(shù)據(jù)庫中的哈希編碼B,公式如下所示:

    B*k = -sign(2[B][^]k[U][^]T

    kU*k - 2rSTU-2βU)? ? ? ? (11)

    式中:B*k表示B的第k列;[B][^]k是矩陣B除了第k列的矩陣;U*k表示U的第k列;[U][^]k是矩陣U除了第k列的矩陣;S為相似性矩陣.

    算法1? ?DPLAH學(xué)習(xí)算法

    輸入:m張數(shù)據(jù)庫圖像X = {xi}m

    i=1,數(shù)據(jù)庫圖像標(biāo)簽Y = {yi}m

    i=1,相似性

    矩陣S∈{-1,1}n × m

    輸出:DPLAH的網(wǎng)絡(luò)參數(shù)Θ,數(shù)據(jù)庫圖像的哈希編碼B

    1:初始化:Θ和B,哈希編碼長度r,最小批次大小g,迭代次數(shù)tl和

    ts,查詢圖像個(gè)數(shù)n

    2:for t1 = 1→tl

    3: 隨機(jī)從數(shù)據(jù)庫圖像Ψ中采樣生成查詢集Υ

    4: for t2 = 1→ts

    5:? ?for k = 1→n/g

    6? ? ? ? 隨機(jī)采取查詢圖像中的g張作為一個(gè)批次

    7:? ? ? 利用BP算法更新Θ:Θ ← Θ - μ·[Δ]Θ(J)

    8:? ? end

    9:? ? for? i = 1→r

    10:? ? ? ?按照公式(11)更新B* i

    11:? ?end

    12:? end

    13:end

    3? ?實(shí)驗(yàn)設(shè)計(jì)與分析

    3. 1? ?實(shí)驗(yàn)設(shè)計(jì)

    3.1.1? ?數(shù)據(jù)集

    為了驗(yàn)證DPLAH算法的有效性,在CIFAR-10[26]和NUS-WIDE[27]數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn).

    CIFAR-10數(shù)據(jù)集由60 000張32×32的RGB彩色圖像構(gòu)成,它是一個(gè)用于識(shí)別普適物體的數(shù)據(jù)集. 這些圖像被手動(dòng)標(biāo)記為10個(gè)類別,分別是飛機(jī)、汽車、鳥、貓、鹿、狗、青蛙、馬、船和卡車.

    NUS-WIDE是一個(gè)真實(shí)的網(wǎng)絡(luò)數(shù)據(jù)集,一共包含269 648張圖像,每張圖像都與來自81個(gè)語義類別中的一個(gè)或多個(gè)類別相關(guān)聯(lián). 本文遵循與ADSH類似的實(shí)驗(yàn)方案,使用最常見的21個(gè)類別中的圖像,其中每個(gè)類別中至少包含了5 000張圖像,從而總共使用了195 834張圖像.

    3.1.2? ?實(shí)驗(yàn)運(yùn)行環(huán)境及超參數(shù)配置

    所有關(guān)于DPLAH的實(shí)驗(yàn)都是利用Pytorch深度框架完成的,利用預(yù)訓(xùn)練好的Resnet18網(wǎng)絡(luò)[25]提取圖像的特征,NetVLAD層對(duì)Resnet18模型輸出的卷積特征進(jìn)行聚合,最后,利用聚合得到的特征進(jìn)行哈希編碼的學(xué)習(xí).

    對(duì)CIFAR-10和NUS-WIDE數(shù)據(jù)集,NetVLAD的聚類中心個(gè)數(shù)設(shè)置為64. 超參數(shù)β、μ和Υ分別設(shè)置為200、200和2 000,DPLAH網(wǎng)絡(luò)的學(xué)習(xí)率在10-7 ~ 10-3區(qū)間進(jìn)行調(diào)整,tl和ts分別為60和3,超參數(shù)α為0.2.

    在本文實(shí)驗(yàn)中,使用到的NetVLAD層去掉了規(guī)范化操作,由于整個(gè)數(shù)據(jù)集的哈希編碼是通過優(yōu)化算法直接得到,因此在訓(xùn)練初期并不使用權(quán)重. 具體來說,當(dāng)超參數(shù)tl的值小于10時(shí),都不施加優(yōu)先權(quán)重;當(dāng)tl的值大于10時(shí),施加權(quán)重進(jìn)行訓(xùn)練的同時(shí),會(huì)對(duì)學(xué)習(xí)率進(jìn)行調(diào)整.

    3.1.3? ?實(shí)驗(yàn)對(duì)比

    按照現(xiàn)有的深度哈希方法中的評(píng)估指標(biāo),使用平均準(zhǔn)確率均值(MAP)和Top-5K精度來評(píng)估DPLAH算法的性能. 對(duì)于NUS-WIDE數(shù)據(jù)集,計(jì)算前5 000張返回圖像的MAP. 對(duì)于CIFAR-10數(shù)據(jù)集,在每個(gè)類別中選取100張圖像作為測(cè)試圖像,對(duì)于NUS-WIDE數(shù)據(jù)集,同樣在每個(gè)類別中選取100張圖像作為測(cè)試圖像,因此這兩個(gè)數(shù)據(jù)集的測(cè)試圖像數(shù)量分別為1 000和2 100張,剩余圖像作為數(shù)據(jù)庫圖像. 遵循非對(duì)稱深度哈希等方法[19]在圖像相似性上的構(gòu)造方法,利用圖像標(biāo)簽構(gòu)造用于深度哈希函數(shù)學(xué)習(xí)的相似性矩陣. 具體來說:若兩張圖像共享至少一個(gè)標(biāo)簽,則它們被視為語義相似對(duì),否則,它們是語義不相似的圖像對(duì).

    多種哈希學(xué)習(xí)方法被用來與DPLAH進(jìn)行比較,如SH、ITQ等無監(jiān)督的哈希方法(包括SH+CNN、ITQ+CNN),SDH、FastH和LFH等有監(jiān)督的哈希方法(包括SDH+CNN、FastH+CNN和LFH+CNN),CNNH、DPSH和ADSH等深度哈希方法(其中CNNH是兩階段的深度哈希學(xué)習(xí)方法,其他都是端到端的深度哈希學(xué)習(xí)方法).

    3.2? ?實(shí)驗(yàn)結(jié)果和分析

    在兩個(gè)數(shù)據(jù)集上的MAP對(duì)比結(jié)果如表1所示. 由于ADSH算法的優(yōu)越性能,它成為本文重點(diǎn)比較的方法. 為了進(jìn)行公平的比較,此處利用Pytorch版本的ADSH來進(jìn)行實(shí)驗(yàn)對(duì)比,預(yù)訓(xùn)練好的Resnet18模型同樣會(huì)被用來提取圖像的卷積特征,其他哈希算法的實(shí)驗(yàn)結(jié)果來源于DPSH[16]和ADSH[19].

    表1中的非深度哈希學(xué)習(xí)算法使用圖像的手工特征,同時(shí)也比較了使用CNN特征的非深度哈希學(xué)習(xí)算法,可以發(fā)現(xiàn)端到端的深度哈希方法優(yōu)于傳統(tǒng)的哈希學(xué)習(xí)方法,非對(duì)稱的深度哈希方法優(yōu)于對(duì)稱的深度哈希方法. 與LFH+CNN的最好結(jié)果0.814相比,DPLAH的平均準(zhǔn)確率均值要高出11%,同時(shí),DPLAH的平均準(zhǔn)確率均值最多比非對(duì)稱深度監(jiān)督哈希方法ADSH高出2%.

    由于非對(duì)稱深度監(jiān)督哈希方法(ADSH)的性能遠(yuǎn)優(yōu)于其他哈希學(xué)習(xí)方法,因此,比較DPLAH 和ADSH在不同比特長度下的Top-5K精度,結(jié)果如圖5所示.由表1和圖5可知,DPLAH無論在MAP還是Top-5K精度的衡量下,其性能都優(yōu)于現(xiàn)有的深度監(jiān)督哈希方法.

    根據(jù)實(shí)驗(yàn)結(jié)果,發(fā)現(xiàn)DPLAH方法在NUS-WIDE數(shù)據(jù)集上性能較好. 這可能由于NUS-WIDE數(shù)據(jù)集中的圖像來自于真實(shí)世界,圖像中包含的內(nèi)容非常豐富;而NetVLAD的提出就是為了解決現(xiàn)實(shí)中的場景識(shí)別問題,在面對(duì)圖像中的光線變化、視角變化等情況,具備一定的魯棒性,從而使得DPLAH方法在NUS-WIDE數(shù)據(jù)集上的性能較好.

    為了驗(yàn)證NetVLAD層確實(shí)能學(xué)習(xí)到具有區(qū)分力的哈希編碼,本文在NUS-WIDE數(shù)據(jù)集不使用優(yōu)先權(quán)重的條件下,僅僅將NetVLAD層加入哈希網(wǎng)絡(luò)中,對(duì)比不同比特長度下的MAP. 實(shí)驗(yàn)結(jié)果如圖6所示.

    圖7為DPLAH算法基于漢明距離排序的搜索結(jié)果. 結(jié)果是基于32 bits的哈希編碼長度給出的幾個(gè)示例. 在圖7中,每行圖片中的第1張代表查詢圖像,后面10張圖像表示與查詢圖像的漢明距離最近的10張圖像. 由圖7可知,DPLAH算法具有優(yōu)越的性能,盡管還存在一些錯(cuò)誤的搜索結(jié)果(示例中最后一行的查詢圖像是飛機(jī),然而檢索出的圖像是輪船),但這在接受的范圍內(nèi).

    4? ?結(jié)? ?論

    本文提出了一種基于局部聚合的深度優(yōu)先哈希方法,在應(yīng)對(duì)相似性分布傾斜方面,受到了Focal Loss的啟發(fā),利用查詢圖像在哈希網(wǎng)絡(luò)中學(xué)習(xí)的哈希編碼和整個(gè)數(shù)據(jù)庫圖像的哈希編碼之間的余弦相似度,設(shè)計(jì)了損失函數(shù)的優(yōu)先權(quán)重,使得深度哈希網(wǎng)絡(luò)優(yōu)先關(guān)注相似難度高的圖像,從而保證難以在漢明空間中保持相似關(guān)系的圖像對(duì)得到充分訓(xùn)練. 在哈希特征提取方面,由于NetVLAD層能夠有效地提高對(duì)同類別圖像的表達(dá)能力,因此利用NetVLAD層將卷積得到的特征進(jìn)行聚合,從而使學(xué)到的哈希編碼更具有區(qū)分性. 在CIFAR-10和NUS-WIDE兩個(gè)數(shù)據(jù)集下進(jìn)行了實(shí)驗(yàn),將DPLAH與多種哈希學(xué)習(xí)方法進(jìn)行比較,通過實(shí)驗(yàn)分析,表明了DPLAH算法的優(yōu)越性能.

    參考文獻(xiàn)

    [1]? ? CLARKSON K L. Fast algorithms for the all nearest neighbors problem[C]//24th Annual Symposium on Foundations of Computer Science (sfcs 1983). Tucson,AZ,USA:IEEE,1983:226—232.

    [2]? ? ANDONI A,INDYK P. Near-optimal Hashing algorithms for approximate nearest neighbor in high dimensions[C]//2006 47th Annual IEEE Symposium on Foundations of Computer Science (FOCS′06). Berkeley,CA,USA:IEEE,2006:459—468.

    [3]? ? 李武軍,周志華. 大數(shù)據(jù)哈希學(xué)習(xí):現(xiàn)狀與趨勢(shì)[J]. 科學(xué)通報(bào),2015,60(5/6):485—490.

    LI W J,ZHOU Z H. Learning to Hash for big data:current status and future trends[J]. Chinese Science Bulletin,2015,60(5/6):485—490. (In Chinese)

    [4]? ? DATAR M,IMMORLICA N,INDYK P,et al. Locality-sensitive Hashing scheme based on p-stable distributions[C]//Proceedings of the Twentieth Annual Symposium on Computational Geometry-SCG 04. Brooklyn,New York:ACM Press,2004:253—262.

    [5]? ?WEISS Y,TORRALBA A,F(xiàn)ERGUS R. Spectral Hashing[C]// IEEE Advances in Neural Information Processing Systems Conference. Vancouver,BC,Canada:NIPS,2008:1753—1760.

    [6]? ? GONG Y C,LAZEBNIK S,GORDO A,et al. Iterative quantization:a procrustean approach to learning binary codes for large-scale image retrieval[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(12):2916—2929.

    [7]? ? LIU W,MU C,KUMAR S,et al. Discrete graph Hashing[J]. Advances in Neural Information Processing Systems,2014,4:3419—3427.

    [8]? ? LIU H,JI R,WU Y,et al. Towards optimal binary code learning via ordinal embedding[C]// AAAI Conference on Artificial Intelligence. Phoenix,AZ,USA:AAAI,2016:1258—1265.

    [9]? ? LIU W,WANG J,JI R R,et al. Supervised Hashing with kernels[C]//2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence,RI,USA:IEEE,2012:2074—2081.

    [10]? ZHANG P,ZHANG W,LI W J,et al. Supervised Hashing with latent factor models[C]// Proceedings of the 37th International ACM SIGIR Conference on Research & Development in Information Retrieval. Gold Coast,QLD,Australia:SIGIR,2014:173—182.

    [11]? LIN G S,SHEN C H,SHI Q F,et al. Fast supervised Hashing with decision trees for high-dimensional data[C]// IEEE Conference on Computer Vision and Pattern Recognition. Columbus,OH,USA:IEEE,2014:1971—1978.

    [12]? SHEN F M,SHEN C H,LIU W,et al. Supervised discrete Hashing[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston,MA,USA:IEEE,2015:37—45.

    [13]? LECUN Y,BENGIO Y,HINTON G. Deep learning[J]. Nature,2015,521(7553):436—444.

    [14]? XIA R,PAN Y,LAI H,et al. Supervised Hashing for image retrieval via image representation learning[C]// AAAI Conference on Artificial Intelligence. Quebec City,QC,Canada:AAAI,2014:2156—2162.

    [15]? ZHAO F,HUANG Y Z,WANG L,et al. Deep semantic ranking based Hashing for multi-label image retrieval[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston,MA,USA:IEEE,2015:1556—1564.

    [16]? LI W J,WANG S,KANG W C. Feature learning based deep supervised Hashing with pairwise labels[C]// International Joint Conference on Artificial Intelligence. New York,USA:IJCAI,2016:1711—1717.

    [17]? LI Q,SUN Z,HE R,et al. Deep supervised discrete Hashing[C]// Advances in Neural Information Processing Systems Conference. Long Beach,CA,USA:NIPS,2017:2482—2491.

    [18]? CAO Z J,SUN Z P,LONG M S,et al. Deep priority Hashing[C]// ACM International Conference on Multimedia. Seoul,Korea:MM,2018:1653—1661.

    [19]? JIANG Q Y,LI W J. Asymmetric deep supervised Hashing[C]// AAAI Conference on Artificial Intelligence. New Orleans,LA,USA:AAAI,2018:3342—3349.

    [20]? ARANDJELOVI[C]R,GRONAT P,TORII A,et al. NetVLAD:CNN architecture for weakly supervised place recognition[C]// IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas,NV,USA:IEEE,2016:5297—5307.

    [21]? LIN T Y,GOYAL P,GIRSHICK R,et al. Focal loss for dense object detection[C]//2017 IEEE International Conference on Computer Vision (ICCV).Venice,Italy:IEEE,2017:2999—3007.

    [22]? J?GOU H,PERRONNIN F,DOUZE M,et al. Aggregating local image descriptors into compact codes[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(9):1704—1716.

    [23]? YANDEX A B,LEMPITSKY V. Aggregating local deep features for image retrieval[C]//2015 IEEE International Conference on Computer Vision (ICCV). Santiago,Chile:IEEE,2015:1269—1277.

    [24]? CIMPOI M,MAJI S,VEDALDI A. Deep filter banks for texture recognition and segmentation[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston,MA,USA:IEEE,2015:3828—3836.

    [25]? HE K M,ZHANG X Y,REN S Q,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas,NV,USA:IEEE,2016:770—778.

    [26]? KRIZHEVSKY A,HINTON G. Learning multiple layers of features from tiny images[J]. Handbook of Systemic Autoimmune Diseases,2009,1(4):1—60.

    [27]? CHUA T S,TANG J H,HONG R C,et al. NUS-WIDE:a real-world web image database from National University of Singapore[C]//Proceeding of the ACM International Conference on Image and Video Retrieval-CIVR09. Santorini,F(xiàn)ira,Greece. New York:ACM Press, 2009:368—375.

    猜你喜歡
    圖像檢索卷積神經(jīng)網(wǎng)絡(luò)
    基于卷積神經(jīng)網(wǎng)絡(luò)的車輛檢索方法研究
    基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
    圖像特征在區(qū)域范圍內(nèi)提取方法的研究
    基于Hadoop平臺(tái)的圖像檢索模型
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
    基于顏色特征的行李箱檢索系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
    基于內(nèi)容的圖像檢索算法技術(shù)研究
    亚洲激情五月婷婷啪啪| 成年人免费黄色播放视频| 亚洲av成人不卡在线观看播放网 | 久久久久久久精品精品| 免费观看性生交大片5| 丰满少妇做爰视频| 男女午夜视频在线观看| 美女午夜性视频免费| 欧美变态另类bdsm刘玥| 日韩一区二区视频免费看| 欧美黑人欧美精品刺激| 日本黄色日本黄色录像| 久久99精品国语久久久| 免费av中文字幕在线| 超碰成人久久| 三上悠亚av全集在线观看| 午夜福利,免费看| 国产探花极品一区二区| 欧美日韩福利视频一区二区| 最近中文字幕高清免费大全6| 亚洲,一卡二卡三卡| 欧美激情 高清一区二区三区| 18禁观看日本| 高清在线视频一区二区三区| 亚洲第一av免费看| 亚洲国产欧美日韩在线播放| 一边摸一边做爽爽视频免费| 久久精品亚洲熟妇少妇任你| 777久久人妻少妇嫩草av网站| 黄网站色视频无遮挡免费观看| 亚洲国产最新在线播放| 又黄又粗又硬又大视频| 国产亚洲av高清不卡| 黄片无遮挡物在线观看| av网站免费在线观看视频| 老司机影院毛片| 中文字幕人妻丝袜制服| 18在线观看网站| 亚洲欧美成人综合另类久久久| 国产一区二区在线观看av| 国产av精品麻豆| 黄色一级大片看看| 亚洲人成77777在线视频| 在线观看免费午夜福利视频| 久久精品国产综合久久久| 亚洲专区中文字幕在线 | 一级毛片电影观看| 久久精品久久久久久久性| 亚洲成人国产一区在线观看 | 欧美少妇被猛烈插入视频| 热99国产精品久久久久久7| 在线观看www视频免费| 国产精品女同一区二区软件| 亚洲精品视频女| 如日韩欧美国产精品一区二区三区| 日本vs欧美在线观看视频| 狂野欧美激情性xxxx| 国产男人的电影天堂91| 日韩av免费高清视频| 国产精品免费大片| 日韩av免费高清视频| 99久久99久久久精品蜜桃| 2021少妇久久久久久久久久久| 不卡av一区二区三区| 久久久久久免费高清国产稀缺| 搡老岳熟女国产| 91精品三级在线观看| 久久女婷五月综合色啪小说| 免费高清在线观看视频在线观看| 一区在线观看完整版| 十八禁人妻一区二区| 亚洲一区二区三区欧美精品| 一区在线观看完整版| 七月丁香在线播放| 成人国产av品久久久| 成年女人毛片免费观看观看9 | 成人亚洲欧美一区二区av| 日韩一本色道免费dvd| 波野结衣二区三区在线| 久久天躁狠狠躁夜夜2o2o | 国产精品秋霞免费鲁丝片| 亚洲精品av麻豆狂野| 飞空精品影院首页| 欧美日韩综合久久久久久| 色婷婷av一区二区三区视频| 欧美国产精品va在线观看不卡| 天天躁狠狠躁夜夜躁狠狠躁| 亚洲精品自拍成人| 丁香六月欧美| 国产xxxxx性猛交| 中文天堂在线官网| 男女国产视频网站| 亚洲熟女毛片儿| 久久久欧美国产精品| 国产av码专区亚洲av| 亚洲一码二码三码区别大吗| 男女边摸边吃奶| 日韩不卡一区二区三区视频在线| www.精华液| 丰满少妇做爰视频| 亚洲国产成人一精品久久久| 在线观看一区二区三区激情| 日韩欧美一区视频在线观看| 99re6热这里在线精品视频| 免费观看av网站的网址| 超色免费av| 中文字幕色久视频| 亚洲色图综合在线观看| 国产精品一区二区精品视频观看| 亚洲伊人色综图| 亚洲精品一二三| 欧美老熟妇乱子伦牲交| 国产精品av久久久久免费| 欧美亚洲 丝袜 人妻 在线| xxx大片免费视频| 9色porny在线观看| 在线 av 中文字幕| 免费黄频网站在线观看国产| 性高湖久久久久久久久免费观看| 母亲3免费完整高清在线观看| 亚洲人成电影观看| 亚洲国产欧美在线一区| 精品少妇内射三级| 少妇 在线观看| 在线观看人妻少妇| 日本黄色日本黄色录像| 日韩av不卡免费在线播放| 日韩大片免费观看网站| 免费观看性生交大片5| 狂野欧美激情性bbbbbb| 午夜福利视频在线观看免费| 欧美日本中文国产一区发布| 99热网站在线观看| 亚洲精品第二区| 国产一区二区三区综合在线观看| 亚洲成国产人片在线观看| 一边摸一边抽搐一进一出视频| 欧美变态另类bdsm刘玥| 国产麻豆69| 高清欧美精品videossex| 秋霞伦理黄片| 亚洲av成人精品一二三区| 一本久久精品| avwww免费| 十八禁人妻一区二区| 高清不卡的av网站| 精品一区二区三卡| 国产一区二区三区av在线| 精品少妇内射三级| 久久狼人影院| 最黄视频免费看| 国产免费一区二区三区四区乱码| 另类亚洲欧美激情| 日韩制服骚丝袜av| 99热全是精品| 国产熟女欧美一区二区| 欧美精品av麻豆av| 午夜福利视频在线观看免费| 日本av免费视频播放| netflix在线观看网站| 欧美97在线视频| 免费高清在线观看视频在线观看| 一本大道久久a久久精品| 国产av一区二区精品久久| 波多野结衣一区麻豆| 国语对白做爰xxxⅹ性视频网站| 日韩精品免费视频一区二区三区| 少妇人妻 视频| 国产精品嫩草影院av在线观看| 国产精品国产av在线观看| 哪个播放器可以免费观看大片| 王馨瑶露胸无遮挡在线观看| 日韩欧美一区视频在线观看| 午夜老司机福利片| 日韩欧美精品免费久久| 久久久久久久大尺度免费视频| 精品国产一区二区三区四区第35| 欧美黑人欧美精品刺激| 亚洲精品视频女| 熟女少妇亚洲综合色aaa.| av不卡在线播放| av线在线观看网站| 亚洲成色77777| 成人国产麻豆网| 高清不卡的av网站| 久久久久久久国产电影| 欧美黑人欧美精品刺激| 色综合欧美亚洲国产小说| 亚洲三区欧美一区| 亚洲国产精品一区二区三区在线| 日日爽夜夜爽网站| 免费看不卡的av| 亚洲av成人精品一二三区| a 毛片基地| 国产探花极品一区二区| 免费av中文字幕在线| 天天躁夜夜躁狠狠躁躁| 超色免费av| 欧美乱码精品一区二区三区| 精品亚洲成国产av| 精品国产露脸久久av麻豆| 成人手机av| 久久午夜综合久久蜜桃| 亚洲欧美一区二区三区国产| 亚洲国产看品久久| 人成视频在线观看免费观看| 午夜激情久久久久久久| 我要看黄色一级片免费的| 伊人久久国产一区二区| 精品国产乱码久久久久久男人| 丝袜美足系列| 亚洲精品中文字幕在线视频| 黄片小视频在线播放| 又大又爽又粗| www.熟女人妻精品国产| 侵犯人妻中文字幕一二三四区| 国产不卡av网站在线观看| 人人妻人人澡人人看| 下体分泌物呈黄色| 天天添夜夜摸| 久久久久人妻精品一区果冻| 国产成人系列免费观看| 亚洲av成人精品一二三区| 一级a爱视频在线免费观看| 久久女婷五月综合色啪小说| 久久久久久久精品精品| 免费看不卡的av| e午夜精品久久久久久久| 精品少妇一区二区三区视频日本电影 | 天天躁狠狠躁夜夜躁狠狠躁| 亚洲美女视频黄频| 悠悠久久av| 天天操日日干夜夜撸| 卡戴珊不雅视频在线播放| 日韩欧美一区视频在线观看| 可以免费在线观看a视频的电影网站 | 18在线观看网站| 亚洲欧美一区二区三区久久| 啦啦啦 在线观看视频| 国产男女内射视频| av在线老鸭窝| 日本wwww免费看| 少妇人妻精品综合一区二区| 啦啦啦 在线观看视频| 桃花免费在线播放| 2021少妇久久久久久久久久久| 在线观看人妻少妇| 午夜福利网站1000一区二区三区| 黑人猛操日本美女一级片| 日韩一区二区三区影片| 久久天堂一区二区三区四区| 婷婷色麻豆天堂久久| 中国国产av一级| 亚洲精品中文字幕在线视频| 19禁男女啪啪无遮挡网站| 看非洲黑人一级黄片| 亚洲国产精品一区三区| 老司机靠b影院| 高清视频免费观看一区二区| 哪个播放器可以免费观看大片| 日日爽夜夜爽网站| 高清在线视频一区二区三区| 亚洲av日韩在线播放| 国产激情久久老熟女| 老熟女久久久| 只有这里有精品99| 狂野欧美激情性bbbbbb| 永久免费av网站大全| 大片免费播放器 马上看| 尾随美女入室| 国产精品免费大片| 久久国产精品男人的天堂亚洲| 国产极品粉嫩免费观看在线| 欧美亚洲日本最大视频资源| 亚洲精品久久久久久婷婷小说| 国产免费一区二区三区四区乱码| 久久久久精品人妻al黑| 欧美久久黑人一区二区| 另类亚洲欧美激情| svipshipincom国产片| av在线老鸭窝| 视频区图区小说| 在线观看www视频免费| 国产精品一区二区在线观看99| 色综合欧美亚洲国产小说| 亚洲一区中文字幕在线| 国产色婷婷99| 超色免费av| 少妇猛男粗大的猛烈进出视频| 新久久久久国产一级毛片| 永久免费av网站大全| 久久午夜综合久久蜜桃| 亚洲国产成人一精品久久久| 午夜福利免费观看在线| 国产精品三级大全| 亚洲av成人不卡在线观看播放网 | 高清欧美精品videossex| 在线观看一区二区三区激情| 高清黄色对白视频在线免费看| 伦理电影免费视频| 欧美成人精品欧美一级黄| 美女脱内裤让男人舔精品视频| 黑人猛操日本美女一级片| 一级爰片在线观看| 久久久久视频综合| 国产精品麻豆人妻色哟哟久久| 免费在线观看黄色视频的| 久久久精品区二区三区| 久久性视频一级片| 久久精品久久久久久久性| 日韩av不卡免费在线播放| 老司机亚洲免费影院| 国产av精品麻豆| 国产1区2区3区精品| 国产精品久久久人人做人人爽| 日韩伦理黄色片| 免费日韩欧美在线观看| 秋霞伦理黄片| 男人操女人黄网站| 美国免费a级毛片| 国产午夜精品一二区理论片| 成人黄色视频免费在线看| 美国免费a级毛片| 国产一卡二卡三卡精品 | 熟妇人妻不卡中文字幕| 国产国语露脸激情在线看| 国产一级毛片在线| 亚洲一卡2卡3卡4卡5卡精品中文| 丝袜在线中文字幕| 在线观看免费午夜福利视频| 久久久久久久国产电影| 视频区图区小说| 女人被躁到高潮嗷嗷叫费观| 久久精品久久久久久噜噜老黄| 美女视频免费永久观看网站| 99精品久久久久人妻精品| 国产精品一二三区在线看| 母亲3免费完整高清在线观看| 老司机亚洲免费影院| 国产伦人伦偷精品视频| 五月天丁香电影| 亚洲第一区二区三区不卡| 人妻人人澡人人爽人人| 久久人妻熟女aⅴ| 丝袜美足系列| 欧美激情 高清一区二区三区| 中文天堂在线官网| 日韩一本色道免费dvd| 国产成人av激情在线播放| 亚洲少妇的诱惑av| 国产精品国产三级专区第一集| 国产成人av激情在线播放| 18禁观看日本| 在线天堂最新版资源| 大片电影免费在线观看免费| 麻豆乱淫一区二区| 99精国产麻豆久久婷婷| 免费av中文字幕在线| 一边摸一边做爽爽视频免费| 大陆偷拍与自拍| 国产日韩一区二区三区精品不卡| 亚洲av在线观看美女高潮| 亚洲激情五月婷婷啪啪| 王馨瑶露胸无遮挡在线观看| 久久久精品免费免费高清| 精品亚洲成国产av| 国产成人免费观看mmmm| 午夜福利视频在线观看免费| 中文精品一卡2卡3卡4更新| 少妇精品久久久久久久| 日韩av免费高清视频| 日韩电影二区| 国产片内射在线| 热99久久久久精品小说推荐| 国产精品女同一区二区软件| 看免费成人av毛片| 亚洲成人手机| 精品国产乱码久久久久久男人| 午夜福利影视在线免费观看| 高清黄色对白视频在线免费看| 中文乱码字字幕精品一区二区三区| 亚洲欧美一区二区三区黑人| 午夜激情av网站| av网站免费在线观看视频| 97人妻天天添夜夜摸| 久久久久久久久久久久大奶| 国产精品免费视频内射| 青草久久国产| 欧美日韩亚洲高清精品| 菩萨蛮人人尽说江南好唐韦庄| 亚洲伊人色综图| 女人精品久久久久毛片| 男人添女人高潮全过程视频| 欧美精品av麻豆av| 久久久久精品人妻al黑| 99久久综合免费| 波野结衣二区三区在线| 免费在线观看视频国产中文字幕亚洲 | 曰老女人黄片| 国产精品国产三级专区第一集| 黄网站色视频无遮挡免费观看| 国产精品无大码| 999精品在线视频| 中文字幕人妻熟女乱码| 女人高潮潮喷娇喘18禁视频| 亚洲av福利一区| 一区福利在线观看| 国产一区二区 视频在线| 不卡视频在线观看欧美| 热re99久久国产66热| 叶爱在线成人免费视频播放| 美女国产高潮福利片在线看| 最新的欧美精品一区二区| 黄网站色视频无遮挡免费观看| 国产一区二区三区av在线| 18禁动态无遮挡网站| 又大又黄又爽视频免费| av在线老鸭窝| 一级毛片电影观看| 久久久久精品人妻al黑| 久久精品国产综合久久久| av.在线天堂| 老司机影院成人| 天天躁夜夜躁狠狠久久av| 亚洲欧美激情在线| 中文字幕人妻熟女乱码| 91成人精品电影| 久久久久国产一级毛片高清牌| h视频一区二区三区| 久久久久人妻精品一区果冻| 大香蕉久久网| av电影中文网址| 亚洲一码二码三码区别大吗| 青春草国产在线视频| 99香蕉大伊视频| 国产乱人偷精品视频| 精品久久蜜臀av无| 亚洲欧美成人精品一区二区| 一二三四中文在线观看免费高清| 免费观看av网站的网址| 亚洲精品第二区| 日本色播在线视频| 性色av一级| a级毛片在线看网站| 一级a爱视频在线免费观看| 亚洲精品,欧美精品| 三上悠亚av全集在线观看| 国产成人免费观看mmmm| 久久久精品免费免费高清| 黑人欧美特级aaaaaa片| 欧美最新免费一区二区三区| av女优亚洲男人天堂| 亚洲人成电影观看| 日韩制服丝袜自拍偷拍| 在线观看三级黄色| 欧美黄色片欧美黄色片| 王馨瑶露胸无遮挡在线观看| 国产精品久久久久久人妻精品电影 | 色网站视频免费| 高清欧美精品videossex| 老鸭窝网址在线观看| 丰满饥渴人妻一区二区三| 99精品久久久久人妻精品| 精品亚洲成a人片在线观看| 国产精品免费大片| 捣出白浆h1v1| 夜夜骑夜夜射夜夜干| 日韩av不卡免费在线播放| 亚洲精品中文字幕在线视频| 女人精品久久久久毛片| 午夜免费男女啪啪视频观看| 丁香六月欧美| 国产成人精品久久二区二区91 | 国产成人精品无人区| 亚洲欧美激情在线| 日韩制服骚丝袜av| 久久久精品免费免费高清| 午夜免费鲁丝| 肉色欧美久久久久久久蜜桃| 麻豆精品久久久久久蜜桃| 久久精品久久久久久噜噜老黄| 少妇精品久久久久久久| 精品第一国产精品| 欧美日韩综合久久久久久| 国产 精品1| 亚洲熟女精品中文字幕| tube8黄色片| 搡老乐熟女国产| 亚洲中文av在线| 在现免费观看毛片| 午夜av观看不卡| 久久久国产欧美日韩av| 久久久久精品国产欧美久久久 | 丝瓜视频免费看黄片| 又粗又硬又长又爽又黄的视频| 午夜福利,免费看| 久久精品国产综合久久久| 免费观看av网站的网址| 最近手机中文字幕大全| 国产精品av久久久久免费| 一本久久精品| 男女下面插进去视频免费观看| 另类精品久久| 久久这里只有精品19| 日韩一区二区视频免费看| 亚洲色图综合在线观看| 国产成人精品无人区| 亚洲av综合色区一区| 日韩一卡2卡3卡4卡2021年| 精品人妻在线不人妻| 最近中文字幕高清免费大全6| 免费观看av网站的网址| 啦啦啦啦在线视频资源| 国产成人欧美在线观看 | 香蕉国产在线看| 国产亚洲av片在线观看秒播厂| 成人影院久久| 99国产综合亚洲精品| 欧美成人午夜精品| 国产成人免费观看mmmm| 亚洲第一青青草原| 欧美乱码精品一区二区三区| 超色免费av| videos熟女内射| 久久午夜综合久久蜜桃| 精品国产露脸久久av麻豆| 亚洲熟女毛片儿| 亚洲av男天堂| 久久久欧美国产精品| 亚洲国产欧美网| 电影成人av| 九九爱精品视频在线观看| √禁漫天堂资源中文www| 国产一区二区激情短视频 | 一本久久精品| 两性夫妻黄色片| 亚洲欧美色中文字幕在线| 天美传媒精品一区二区| 国产福利在线免费观看视频| 欧美 日韩 精品 国产| 在线观看三级黄色| 久久鲁丝午夜福利片| 成年人午夜在线观看视频| 最黄视频免费看| 美女午夜性视频免费| av国产精品久久久久影院| 国产成人精品久久久久久| 亚洲精品中文字幕在线视频| 午夜激情久久久久久久| av有码第一页| 侵犯人妻中文字幕一二三四区| 少妇人妻久久综合中文| 免费在线观看完整版高清| 老司机深夜福利视频在线观看 | 亚洲av中文av极速乱| 十八禁高潮呻吟视频| 久久久久精品国产欧美久久久 | 在线观看国产h片| 国产av码专区亚洲av| 国产无遮挡羞羞视频在线观看| 可以免费在线观看a视频的电影网站 | 亚洲精品国产一区二区精华液| 国产一区二区三区综合在线观看| 丝袜脚勾引网站| 久久精品久久久久久噜噜老黄| 成人午夜精彩视频在线观看| av国产久精品久网站免费入址| 汤姆久久久久久久影院中文字幕| 日本91视频免费播放| 校园人妻丝袜中文字幕| 天天操日日干夜夜撸| 嫩草影视91久久| 男女国产视频网站| 欧美激情高清一区二区三区 | 色吧在线观看| 亚洲在久久综合| 9热在线视频观看99| 久久这里只有精品19| 亚洲,欧美精品.| 欧美 亚洲 国产 日韩一| 别揉我奶头~嗯~啊~动态视频 | 一个人免费看片子| 亚洲 欧美一区二区三区| 电影成人av| 男女午夜视频在线观看| 亚洲精品久久午夜乱码| 交换朋友夫妻互换小说| 人人妻,人人澡人人爽秒播 | 国语对白做爰xxxⅹ性视频网站| 香蕉国产在线看| 久久婷婷青草| 欧美日韩国产mv在线观看视频| 一区二区三区精品91| 日韩 欧美 亚洲 中文字幕| 黄色毛片三级朝国网站| 汤姆久久久久久久影院中文字幕| 国产精品久久久av美女十八| 久久国产亚洲av麻豆专区| 国产极品天堂在线| 免费少妇av软件| 男男h啪啪无遮挡| 国产黄频视频在线观看| 国产淫语在线视频| 99久久综合免费| 香蕉国产在线看| 久热这里只有精品99| 日韩免费高清中文字幕av| 日本午夜av视频| 国产精品麻豆人妻色哟哟久久| 国产人伦9x9x在线观看| 国产在线免费精品| 男女国产视频网站| 亚洲欧美一区二区三区国产| 在线观看免费日韩欧美大片| 亚洲av在线观看美女高潮|