• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度卷積神經(jīng)網(wǎng)絡(luò)和二進(jìn)制哈希學(xué)習(xí)的圖像檢索方法

    2016-08-30 11:57:39彭天強(qiáng)河南工程學(xué)院計算機(jī)學(xué)院鄭州451191河南圖像識別工程技術(shù)中心鄭州450001
    電子與信息學(xué)報 2016年8期
    關(guān)鍵詞:二進(jìn)制哈希檢索

    彭天強(qiáng) 栗 芳(河南工程學(xué)院計算機(jī)學(xué)院鄭州451191)(河南圖像識別工程技術(shù)中心鄭州450001)

    ?

    基于深度卷積神經(jīng)網(wǎng)絡(luò)和二進(jìn)制哈希學(xué)習(xí)的圖像檢索方法

    彭天強(qiáng)*①栗芳②①
    ①(河南工程學(xué)院計算機(jī)學(xué)院鄭州451191)
    ②(河南圖像識別工程技術(shù)中心鄭州450001)

    隨著圖像數(shù)據(jù)的迅猛增長,當(dāng)前主流的圖像檢索方法采用的視覺特征編碼步驟固定,缺少學(xué)習(xí)能力,導(dǎo)致其圖像表達(dá)能力不強(qiáng),而且視覺特征維數(shù)較高,嚴(yán)重制約了其圖像檢索性能。針對這些問題,該文提出一種基于深度卷積神徑網(wǎng)絡(luò)學(xué)習(xí)二進(jìn)制哈希編碼的方法,用于大規(guī)模的圖像檢索。該文的基本思想是在深度學(xué)習(xí)框架中增加一個哈希層,同時學(xué)習(xí)圖像特征和哈希函數(shù),且哈希函數(shù)滿足獨(dú)立性和量化誤差最小的約束。首先,利用卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的學(xué)習(xí)能力挖掘訓(xùn)練圖像的內(nèi)在隱含關(guān)系,提取圖像深層特征,增強(qiáng)圖像特征的區(qū)分性和表達(dá)能力。然后,將圖像特征輸入到哈希層,學(xué)習(xí)哈希函數(shù)使得哈希層輸出的二進(jìn)制哈希碼分類誤差和量化誤差最小,且滿足獨(dú)立性約束。最后,給定輸入圖像通過該框架的哈希層得到相應(yīng)的哈希碼,從而可以在低維漢明空間中完成對大規(guī)模圖像數(shù)據(jù)的有效檢索。在3個常用數(shù)據(jù)集上的實驗結(jié)果表明,利用所提方法得到哈希碼,其圖像檢索性能優(yōu)于當(dāng)前主流方法。

    圖像檢索;深度卷積神徑網(wǎng)絡(luò);二進(jìn)制哈希;量化誤差;獨(dú)立性

    針對大規(guī)模數(shù)據(jù)的檢索問題,哈希技術(shù)被廣泛用于計算機(jī)視覺、機(jī)器學(xué)習(xí)、信息檢索等相關(guān)領(lǐng)域。為了在大規(guī)模圖像集中進(jìn)行快速有效的檢索,哈希技術(shù)將圖像的高維特征保持相似性地映射為緊致的二進(jìn)制哈希碼。由于二進(jìn)制哈希碼在漢明距離計算上的高效性和存儲空間上的優(yōu)勢,哈希碼在大規(guī)模圖像檢索中非常高效。

    位置敏感哈希[4](Locality Sensitive Hashing,LSH)按照其應(yīng)用可以分為兩類[5]:一類是以一個有效的方式對原始數(shù)據(jù)進(jìn)行排序,以加快搜索速度,這種類型的哈希算法稱為“original LSH”;另一類是將高維數(shù)據(jù)嵌入到Hamm ing空間中,并進(jìn)行按位操作以找到相似的對象,將這種類型的哈希算法稱為二進(jìn)制哈希(binary hashing)。二進(jìn)制哈希方法可以分為無監(jiān)督的哈希算法、半監(jiān)督的哈希算法和監(jiān)督的哈希算法。無監(jiān)督的哈希方法不考慮數(shù)據(jù)的監(jiān)督信息,包括Isotropic hashing[6]、譜哈希[7](SH)、PCA-ITQ[8]等;半監(jiān)督的哈希方法考慮部分的相似性信息,包括SSH[9];監(jiān)督的哈希方法利用數(shù)據(jù)集的標(biāo)簽信息或者相似性點對信息作為監(jiān)督信息,包括BRE[10]、監(jiān)督的核哈希[11](KSH)等。這些哈希算法的目標(biāo)均是構(gòu)造出能夠保持?jǐn)?shù)據(jù)在原空間中的相似性且能夠生成緊致二進(jìn)制哈希碼的哈希函數(shù)。在譜哈希[7]中給出了度量哈希函數(shù)好壞的3個標(biāo)準(zhǔn):(1)將原始數(shù)據(jù)空間中相似的對象映射為相似的二進(jìn)制編碼;(2)需要較少的位數(shù)來對整個數(shù)據(jù)集進(jìn)行編碼;(3)給定一個新的輸入易求出相應(yīng)的二進(jìn)制編碼。其中第(2)個標(biāo)準(zhǔn)的目標(biāo)要求生成緊致的二進(jìn)制碼,即不同哈希函數(shù)之間應(yīng)該是獨(dú)立的。在PCA-ITQ[8]中在哈希函數(shù)構(gòu)造利用量化誤差最小作為優(yōu)化目標(biāo),最后生成了表達(dá)能力很強(qiáng)的二進(jìn)制哈希碼。

    基于深度學(xué)習(xí)的方法[1214]-在圖像分類、目標(biāo)檢測等方面都展現(xiàn)了其優(yōu)越性。從2012年文獻(xiàn)[13]提出的A lexNet模型到2014年文獻(xiàn)[15]提出的NIN(Network In Network)模型和文獻(xiàn)[16]提出的深層VGG模型都成功地驗證了基于深度卷積神經(jīng)網(wǎng)絡(luò)的方法在學(xué)習(xí)圖像特征表示上的能力。

    由于深度卷積神經(jīng)網(wǎng)絡(luò)在特征學(xué)習(xí)上的優(yōu)越性以及哈希方法在檢索中計算速度和存儲空間上的優(yōu)越性,近幾年也出現(xiàn)了深度卷積神經(jīng)網(wǎng)絡(luò)與哈希技術(shù)相結(jié)合的方法。文獻(xiàn)[17]提出了一種CNNs與哈希方法相結(jié)合的算法,該算法分為兩個步驟,第1步首先利用數(shù)據(jù)的相似性信息構(gòu)建相似性矩陣,然后得到訓(xùn)練樣本的近似哈希編碼;第2步將第1步學(xué)習(xí)得到的哈希碼作為目標(biāo)利用深度卷積網(wǎng)絡(luò)框架學(xué)習(xí)哈希構(gòu)造函數(shù),該論文將哈希編碼的學(xué)習(xí)和特征的提取分為兩個階段,效果不夠好。文獻(xiàn)[18]提出了一種利用深度卷積網(wǎng)絡(luò)同時學(xué)習(xí)特征和哈希函數(shù)的算法,它利用圖像三元組作為監(jiān)督信息,優(yōu)化目標(biāo)函數(shù)是在最終的變換空間中相似的圖像對之間距離比不相似圖像對的距離近,且有一定的間隔;該論文將三元組作為監(jiān)督信息,三元組對的挑選質(zhì)量直接影響著檢索的精度且三元組的挑選需要較大的工作量。文獻(xiàn)[19]也提出了一種利用深度卷積網(wǎng)絡(luò)框架同時學(xué)習(xí)特征和哈希函數(shù)的算法,該論文中采用標(biāo)簽信息作為監(jiān)督信息,避免了需要挑選三元組的工作量,但是它沒有考慮到將連續(xù)值閾值化為二進(jìn)制碼時產(chǎn)生的量化誤差以及哈希函數(shù)之間的獨(dú)立性。

    結(jié)合深度卷積神經(jīng)網(wǎng)絡(luò)和哈希算法的優(yōu)勢,本文提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)二進(jìn)制哈希函數(shù)的編碼方法,學(xué)習(xí)得到的二進(jìn)制哈希碼可用于大規(guī)模的圖像檢索。本文的基本思想是在CNNs框架中引入哈希層,利用圖像標(biāo)簽信息同時學(xué)習(xí)圖像特征和哈希函數(shù),且哈希函數(shù)需要滿足獨(dú)立性和量化誤差最小的約束。本文提出的二進(jìn)制哈希函數(shù)學(xué)習(xí)算法,考慮哈希函數(shù)之間的獨(dú)立性和閾值化產(chǎn)生的量化誤差,與其他相關(guān)的方法相比,本文有以下特點:

    (1)在原有的CNNs框架中,引入哈希層,將哈希層得到的編碼輸入分類器進(jìn)行分類,將Softmax分類損失作為優(yōu)化目標(biāo)之一。

    (2)哈希層中包括兩部分,第1部分包括分片層(slice layer)、全連接層、激活層以及合并層(concat layer),將特征映射為連續(xù)的編碼,用于生成具有獨(dú)立性的哈希函數(shù);第2部分是閾值化層,將連續(xù)編碼二值化,得到二值哈希碼,用于計算量化誤差。

    (3)在整個框架模型中考慮量化誤差的影響,將連續(xù)值閾值化為二進(jìn)制哈希碼時產(chǎn)生的誤差加入到優(yōu)化目標(biāo)中,從而得到表達(dá)能力更強(qiáng)的哈希碼。

    實驗結(jié)果表明,本文提出的二進(jìn)制哈希學(xué)習(xí)方法的檢索性能優(yōu)于現(xiàn)有的方法。

    2 本文方法

    本文方法的框架圖如圖1所示。該模型接受的輸入為圖像及其相應(yīng)的標(biāo)簽信息。該模型主要包括3個部分:(1)卷積子網(wǎng)絡(luò),用于學(xué)習(xí)圖像的特征表示;(2)哈希層,用于構(gòu)建獨(dú)立的哈希函數(shù)得到相應(yīng)的哈希碼;(3)損失層,包括Softmax分類損失和量化誤差損失。首先,輸入圖像通過卷積子網(wǎng)絡(luò)層得到圖像的特征表示;其次,圖像特征經(jīng)過哈希層得到哈希碼;最后,哈希碼進(jìn)入損失層,計算損失函數(shù),并優(yōu)化該損失函數(shù)學(xué)習(xí)得到模型參數(shù)。

    圖1 本文卷積神經(jīng)網(wǎng)絡(luò)的框架圖

    2.1卷積子網(wǎng)絡(luò)

    卷積子網(wǎng)絡(luò)層用于學(xué)習(xí)圖像的特征表示,輸入圖像通過該卷積子網(wǎng)絡(luò)層可以得到圖像的特征表示。

    本文采用具有深度為16的VGG[16]模型結(jié)構(gòu)作為基本架構(gòu)。卷積子網(wǎng)絡(luò)中包含5個大卷積層、5個池化層和兩個全連接層。前2個大卷積層中分別包含了兩個核大小為3×3,步幅為1的卷積層;后3個大卷積層分別包含了兩個核大小為3×3,步幅為1的卷積層和一個核大小為1×1,步幅為1的卷積層。在使用該卷積子網(wǎng)絡(luò)模型時需要根據(jù)圖像大小,調(diào)整相應(yīng)的卷積層的輸出個數(shù)。對于圖像大小為32×32的小圖,本文的卷積子網(wǎng)絡(luò)配置見表1。

    2.2哈希層和優(yōu)化目標(biāo)

    LSH[20]中給出了保持內(nèi)積相似性的哈希函數(shù)的定義:給定特征構(gòu)造q個m維隨機(jī)向量構(gòu)成矩陣個哈希函數(shù)產(chǎn)生的哈希碼為

    在本文中,哈希層是由分片層、各子塊的全連接層、各子塊的激活層、合并層和閾值化層組成。其中,分片層、各子塊的全連接層、各子塊的激活層和合并層用于構(gòu)造相互獨(dú)立的哈希函數(shù);閾值化層將連續(xù)值編碼二值化,用于計算量化誤差。

    從卷積子網(wǎng)絡(luò)的第2個全連接層得到圖像特征x之后,將它傳入哈希層。首先,進(jìn)入哈希層的分片層,對圖像特征x進(jìn)行分片,假設(shè)圖像特征x的維數(shù)為m,需要生成哈希碼的長度為q,則需要將圖像特征分為q片,記為中包含的特征維數(shù)為/m q(這里最好m為q的倍數(shù),可以通過控制卷積子網(wǎng)絡(luò)第2個全連接層的輸出單元數(shù)確定圖像特征的維數(shù))。

    表1 小圖的卷積子網(wǎng)絡(luò)配置

    其中,W∈R dim(x(i))×1i為第i個全連接層的權(quán)重矩陣。

    每個子塊分別進(jìn)入激活層,激活層使用雙正切激活函數(shù)將每個子塊輸出的1維數(shù)值映射為值域在[1,1]-之間的數(shù)值,表示為

    然后進(jìn)入合并層,合并層主要是將q個子塊的1維輸出合并為一個q維向量,表示為

    合并層的輸出即為哈希函數(shù)輸出值的近似值,為連續(xù)的編碼值。

    最后進(jìn)入閾值化層,閾值化層主要是將合并層得到值域在[1,1]-之間的q維連續(xù)值編碼進(jìn)行量化,量化為1-和1,表示為

    本文中深度卷積神經(jīng)網(wǎng)絡(luò)框架的優(yōu)化目標(biāo)結(jié)構(gòu)圖如圖2所示。損失層函數(shù)包括Softmax分類器損失和量化誤差損失。激活層得到的編碼進(jìn)入Softm ax分類器進(jìn)行分類,在這個過程中產(chǎn)生Softm ax分類誤差損失,記為slL。另一方面,考慮到哈希碼為離散值,需要加入將連續(xù)值二值化為離散值時帶來的誤差,在目標(biāo)損失函數(shù)中,加入合并層輸出的連續(xù)值編碼與閾值化層輸出的哈希碼之間的誤差損失,即量化誤差損失,表示為

    圖2 本文卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)化目標(biāo)結(jié)構(gòu)圖

    圖3 哈希碼生成流程圖

    結(jié)合Softm ax分類器的損失函數(shù)和量化誤差損失,得到該框架的整體損失函數(shù):

    其中,λ為權(quán)重因子,決定著量化損失所占的重要性。

    2.3哈希碼的生成

    在利用本文卷積神經(jīng)網(wǎng)絡(luò)的框架訓(xùn)練之后,給定一張圖像作為輸入,通過該網(wǎng)絡(luò)框架可以得到q位二進(jìn)制哈希碼。生成流程如圖3所示,給定輸入圖像,首先經(jīng)過卷積子網(wǎng)絡(luò)層,然后經(jīng)過哈希層,哈希層中的最后一層為閾值層,直接輸出了二進(jìn)制哈希碼。

    3 實驗設(shè)置與性能評價

    3.1實驗設(shè)置

    為驗證本文方法的有效性,在以下3個圖像集上對本文方法進(jìn)行了評估。MNIST數(shù)據(jù)集[21],該數(shù)據(jù)集是包括了70000張28×28的灰度圖像,手寫數(shù)字從0到9共10個類別。CIFAR-10數(shù)據(jù)集[22],包括了60000張32×32的彩色圖像,其類別包括飛機(jī)、卡車等10類。NUS-W IDE數(shù)據(jù)集[23],包括了將近270000張圖像,每張圖像具有一個或者多個標(biāo)簽。借鑒文獻(xiàn)[24]的使用方式,僅使用21個常用類,常用類中每一類中至少包括5000張圖像。另外在訓(xùn)練時我們統(tǒng)一將圖像大小重設(shè)置為256×256。

    將本文的方法的檢索性能與其它的哈希方法做比較,包括非監(jiān)督的哈希方法ITQ[8],監(jiān)督的哈希方法KSH[11],以及深度學(xué)習(xí)與哈希技術(shù)相結(jié)合的哈希方法CNNH[17],改進(jìn)CNNH[18],DCNNH[19]。

    在MNIST和CIFAR-10數(shù)據(jù)集中,每一類選擇1000張圖像構(gòu)成包含10000圖像的測試集。對于無監(jiān)督的哈希方法,其余的數(shù)據(jù)作為訓(xùn)練集。對于監(jiān)督的哈希方法,每類選擇出500張,組成包括5000張圖像的訓(xùn)練集。在NUS-W IDE數(shù)據(jù)集中,隨機(jī)從每一類中選擇出100張圖像組成2100張圖像的測試圖像集。對于無監(jiān)督的哈希方法,其余的數(shù)據(jù)作為訓(xùn)練集。對于有監(jiān)督的哈希方法,每類選擇出500張,組成包括10500張圖像的訓(xùn)練集。

    對于深度學(xué)習(xí)與哈希計算相結(jié)合的算法,直接使用圖像作為輸入。而其余的方法,數(shù)據(jù)集MNIST和CIFAR-10采用512維的Gist特征表示圖像;NUS-W IDE圖像使用500維的bag-of-words向量表示圖像。

    為了評估圖像檢索性能并與已有方法作比較,本文采用MAP、查準(zhǔn)-查全率(Precision-Recall,P-R)曲線、漢明距離小于2的準(zhǔn)確率曲線以及檢索返回top-k近鄰域的準(zhǔn)確率曲線這4個參數(shù)進(jìn)行評估。其中,查準(zhǔn)率是指查詢結(jié)果中正確結(jié)果所占的比例,查全率是指查詢結(jié)果中正確結(jié)果占全部正確結(jié)果的比例;P-R曲線是指按照漢明距離從小到大的排序,所有測試圖像的平均查全率和平均查準(zhǔn)率的曲線圖。MAP是指P-R曲線所包圍的面積。漢明距離小于2的準(zhǔn)確率是指在與查詢圖像的漢明距離小于2的圖像中正確結(jié)果所占的比例。top-k近鄰域的準(zhǔn)確率是指與查詢圖像距離最小的k張圖像中正確結(jié)果所占的比例。

    本文的訓(xùn)練過程基于開源Caffe實現(xiàn)的。在所有實驗中,量化損失的權(quán)重因子λ取值為0.2。

    3.2實驗性能分析

    表2中給出在MNIST數(shù)據(jù)集上,本文方法和已有方法MAP值的比較結(jié)果。從表2中可以看出,本文算法的MAP值遠(yuǎn)遠(yuǎn)高于傳統(tǒng)特征與哈希方法相結(jié)合的算法(KSH,ITQ),因為本文利用深度卷積網(wǎng)絡(luò)同時學(xué)習(xí)特征表示和哈希函數(shù),大大提高了圖像的表示能力。與其它的深度卷積網(wǎng)絡(luò)與哈希技術(shù)相結(jié)合的方法相比,本文算法的MAP值最高,與CNNH算法和改進(jìn)CNNH算法相比,本文算法采用了標(biāo)簽信息作為監(jiān)督信息且考慮了量化誤差,得到了表示能力更強(qiáng)的哈希碼;與DCNNH算法相比,本文算法架構(gòu)中考慮了量化誤差和哈希函數(shù)之間的獨(dú)立性,得到了更具有圖像表示能力的哈希碼,使得它在檢索中MAP值較高。

    表3給出在CIFAR-10數(shù)據(jù)集上,本文方法和已有方法MAP值的比較結(jié)果。從表3中可以看出,本文算法的MAP值遠(yuǎn)遠(yuǎn)高于傳統(tǒng)特征與哈希方法相結(jié)合的算法(如KSH),提高了50%;與現(xiàn)有的深度卷積網(wǎng)絡(luò)與哈希技術(shù)相結(jié)合的方法相比,由于本文算法同時考慮了量化誤差和哈希函數(shù)之間的獨(dú)立性,且采用了標(biāo)簽信息作為監(jiān)督信息,本文算法的MAP值最高。特別地,比改進(jìn)CNNH算法的MAP值提高了27%左右。

    表2 在數(shù)據(jù)集MNIST上按漢明距離排序的MA P值對比

    表3 在數(shù)據(jù)集CIFAR-10上按漢明距離排序的MAP值對比

    表4 在數(shù)據(jù)集NUS-W IDE上top-5000近鄰域的MAP值對比

    表4給出在NUS-W IDE數(shù)據(jù)集上,本文方法和已有方法MAP值的比較結(jié)果。從表4中可以看出。本文算法的MAP值比傳統(tǒng)特征+KSH的MAP值提高了將近20%;與現(xiàn)有的深度卷積網(wǎng)絡(luò)與哈希技術(shù)相結(jié)合的方法相比,本文算法比改進(jìn)CNNH算法的MAP值高了6%左右,比DCNNH算法的MAP值提高了2%左右,主要是因為本文算法同時加入了量化誤差和哈希函數(shù)的獨(dú)立性的約束,得到了表示能力更強(qiáng)的哈希碼。

    圖4~圖6給出了在3個數(shù)據(jù)集上,在其它檢索性能(不同位數(shù)下漢明距離小于2的正確率、P-R曲線、不同位數(shù)下top-k的檢索正確率)上的比較結(jié)果。從這3個圖中可以看出,本文的方法的檢索性能均優(yōu)于現(xiàn)有的其它方法。

    3.3加入獨(dú)立性和量化損失的性能對比

    為了驗證本文提出的框架的有效性,將本文算法與未加入分片層、閾值層和量化損失的算法(即未做任何約束,不考慮哈希函數(shù)間的獨(dú)立性和量化誤差)、以及在本算法的基礎(chǔ)上未加入閾值層和量化損失的算法(即僅考慮哈希函數(shù)間的獨(dú)立性,不考慮量化誤差)分別做比較。不考慮哈希函數(shù)間的獨(dú)立性和量化誤差的算法框架見圖7所示,在給定圖像生成哈希碼時,圖像經(jīng)過該框架僅得到了值域在[-1,1]之間的編碼,需要對得到的編碼進(jìn)行二值化生成二進(jìn)制哈希碼,該算法框架類似于文獻(xiàn)[19]提出的算法。僅包含獨(dú)立性不包含量化損失的算法框架見圖8所示,在該框架中也需要對該框架的輸出編碼也需要進(jìn)行二值化生成二進(jìn)制哈希碼,該算法框架類似于改進(jìn)CNNH[18]的框架,但在改進(jìn)CNNH[18]中采用圖像三元組損失函數(shù),且不考慮量化損失。

    圖4 在數(shù)據(jù)集MNIST上結(jié)果對比

    圖5 在數(shù)據(jù)集CIFAR10上結(jié)果對比

    圖6 在數(shù)據(jù)集NUS-W IDE上結(jié)果對比

    圖7 未加入分片層、閾值層和量化損失的算法框架

    圖8 僅增加哈希函數(shù)間的獨(dú)立性,未加入量化損失的算法框架

    表5~表7給出了3種算法在3個數(shù)據(jù)集上的MAP對比結(jié)果。從這3個表可以看出:僅加入獨(dú)立性的算法比未做任何約束的算法的檢索MAP值提高了1%~2%;而本文算法包括獨(dú)立性和量化損失約束,比僅有獨(dú)立性約束的算法的MAP值又提高了1%左右。在數(shù)據(jù)集MNIST上,雖然本文算法僅比未閾值化算法的MAP提高0.5%左右,但本文算法24位的哈希碼的檢索MAP值高于未做任何約束算法的48位的哈希碼檢索MAP值,從而在大規(guī)模圖像檢索中可以用更短的哈希碼來表示圖像但能達(dá)到與較長哈希碼相當(dāng)?shù)臋z索精度。在數(shù)據(jù)集CIFAR-10上,本文算法24位的哈希碼的檢索精度已經(jīng)超過了未做任何約束算法的48位哈希碼;在數(shù)據(jù)集NUS-W IDE上,本文算法12位的哈希碼的檢索精度也高于了未做任何約束算法的48位哈希碼。從以上對比中可以看出,利用本文算法可以用較短的哈希碼表示圖像,且達(dá)到其他算法用較長的哈希碼的檢索精度。用較短的哈希碼表示圖像,使得在大規(guī)模圖像檢索中圖像集占用的存儲空間更少,距離計算速度更快,提高了圖像檢索在時間、空間上的性能,但同時保持了相應(yīng)的檢索精度。

    表5 數(shù)據(jù)集MNIST上按漢明距離排序的MAP值對比

    表6 數(shù)據(jù)集CIFAR-10上按漢明距離排序的M AP值對比

    表7 數(shù)據(jù)集NUS-W IDE上top-5000近鄰域的MAP值對比

    4 結(jié)束語

    本文提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)二進(jìn)制哈希的方法,適用于大規(guī)模圖像檢索。在本文提出的框架中,采用類別信息作為監(jiān)督信息,而不使用三元圖像組作為監(jiān)督信息,大大降低了人工標(biāo)記量。另外,在整個框架模型中加入哈希函數(shù)獨(dú)立性的限制,并考慮量化誤差的影響,將連續(xù)值閾值化為哈希碼時產(chǎn)生的誤差加入到損失函數(shù)中,從而構(gòu)造出了更好的哈希函數(shù),得到了更具有圖像表達(dá)能力的哈希碼。與其他現(xiàn)有方法相比,本文算法的檢索精度最優(yōu)。

    [1]LOWE D G.Distinctive image features from scale-invariant keypoints[J].In ternational Journal ofCom puter V ision,2004,60(2):91-110.

    [2]DALAL N and TRIGGSB.Histogram s of oriented gradients for human detection[C].Com puter Vision and Pattern Recognition,San Diego,CA,USA,2005:886-893.

    [3]KRIZHEVSKY A,SUTSKEVER I,and H INTON G E. ImageNet classification w ith deep convolutional neural networks[C].Advances in Neural Information Processing System s,South Lake Tahoe,Nevada,US,2012:1097-1105.

    [4]DATAR M,IMMORLICA N,INDYK P,et al.Locality sensitive hashing schem e based on p-stable distribu tions[C]. Proceedings of the ACM Sym posium on Com putational Geometry,New York,USA,2004:253-262.

    [5]ZHANG Lei,ZHANG Yongdong,ZHANG Dongm ing,et al. Distribution-aware locality sensitive hashing[C].19th International Conference on Multimedia Modeling,Huangshan,China,2013:395-406.

    [6]KONG W eihao and LI W ujun.Isotrop ic hash ing[C]. Advances in Neural Information Processing System s,South Lake Tahoe,Nevada,US,2012:1646-1654.

    [7]WEISS Y,TORRALBA A,and FERGUS R.Spectral hashing[C].Advances in Neural Information Processing System s,Vancouver,Canada,2009:1753-1760.

    [8]GONG Yunchao,LAZEBN IK S,GORDO A,et al.Iterative quantization:a p rocrustean approach to learning binary codes for large-scale image retrieval[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,35(12): 2916-2929.

    [9]WANG Jun,KUM AR S,and CHANG Sh ih fu. Sem i-Supervised hashing for large scale search[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(12):2393-2406.

    [10]KULIS B and DARRELL T.Learning to hash w ith binary reconstructive embeddings[C].Advances in Neural Inform ation Processing System s,Vancouver,Canada,2009: 1042-1052.

    [11]LIUWei,WANG Jun,JIRongrong,etal.Supervised hashing w ith kernels[C].Com puter Vision and Pattern Recognition,Providence,RI,2012:2074-2081.

    [12]GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate ob ject detection and semantic segm entation[C].Com puter Vision and Pattern Recogn ition,Ohio,Columbus,2014:580-587.

    [13]OQUAB M,BOTTOU L,LAPTEV I,et al.Learning and transferring m id-level image representations using convolutional neural networks[C].Com puter Vision and Pattern Recogn ition,Ohio,Colum bus,2014:1717-1724.

    [14]RAZAVIAN A,AZIZPOUR H,SULLIVAN J,et al.CNN features off-the-shelf:an astounding baseline for recognition[C].Com puter Vision and Pattern Recognition,Ohio,Colum bus,2014:806-813.

    [15]LIN M in,CHEN Qiang,and YAN Shuicheng.Network in network[OL].http://arxiv.org/abs/1312.4400,2013.

    [16]SIMONYAN K and ZISSERMAN A.Very deep convolutionalnetworks for large-scale image recognition[OL]. http://arxiv.org/abs/1409.1556,2014.

    [17]XIA Rongkai,PAN Yan,LAI Hanjiang,et al.Supervised hashing for image retrieval via image representation learning[C].Proceedings of the AAAI Con ference on Artificial Intelligence,Québec,Canada,2014:2156-2162.

    [18]LAIHanjiang,PAN Yan,LIU Ye,et al.Simultaneous feature learning and hash cod ing w ith deep neural networks[C]. Com puter Vision and Pattern Recognition,Boston,MA,USA,2015:3270-3278.

    [19]LIN K,YANG H F,HSIAO J H,et al.Deep learning of binary hash codes for fast im age retrieval[C].Proceed ings of the IEEE Conference on Computer Vision and Pattern Recognition,Boston,MA,USA,2015:27-35.

    [20]GIONIS A,INDYK P,and MOTWANIR.Sim ilarity search in high dimensions via hashing[C].Proceedings of the International Con ference on Very Large Data Bases,Edinburgh,Scotland,UK,1999:518-529.

    [21]LECUN Y,CORTES C,and BURGES CJC.The MNIST database of handw ritten digits[OL].http://yann.lecun. com/exdb/mn ist,2012.

    [22]KRIZHEVSKY A and H INTON G.Learning mu ltip le layers of features from tiny images[R].Technical Report,University of Toronto,2009.

    [23]CHUA TatSeng,TANG Jinhui,HONG Richang,et al. NUS-W IDE:A real-world W eb im age database from national university of singapore[C].Proceedings of the ACM International Conference on Image and Video Retrieval,Greece,2009:48.

    [24]LIU W ei,WANG Jun,Kumar San jiv,et al.Hashing w ith graphs[C].Proceedings of the 28th International Con ference on Machine Learning,Bellevue,Washington,USA,2011:1-8.

    彭天強(qiáng):男,1978年生,博士,副教授,主要研究方向為多媒體信息處理及模式識別.

    栗芳:女,1986年生,碩士,研究方向為圖像檢索與分類.

    Image Retrieval Based on Deep Convolutional Neural Networks and Binary Hashing Learning

    PENG Tianqiang①LIFang②①(Departm ent ofComputer Science and Engineering,Henan Institute ofEngineering,Zhengzhou 451191,China)
    ②(Henan Image Recognition Engineering Center,Zhengzhou 450001,China)

    W ith the increasing am ount of im age data,the im age retrievalm ethods have several d raw backs,such as the low exp ression ability of visual feature,high dimension of feature,low p recision of image retrievaland so on.To solve these prob lem s,a learningmethod ofbinary hashing based on deep convolutional neuralnetworks isp roposed,which can be used for large-scale image retrieval.The basic idea is to add a hash layer into the deep learning framework and to learn simu ltaneously image features and hash functions should satisfy independence and quantization errorm inim ized.First,convolutional neuralnetwork is emp loyed to learn the intrinsic im plications of training images so as to imp rove the distinguish ability and exp ression ability of visual feature.Second,the visual feature is putted into the hash layer,in which hash functions are learned.And the learned hash functions shou ld satisfy the classification error and quantization errorm inim ized and the independence constraint.Finally,an input image is given,hash codes are generated by the output of the hash layer of the p roposed framework and large scale im age retrieval can be accom p lished in low-dim ensional hamm ing space.Experim ental resu lts on the th ree benchmark datasets show that the binary hash codes generated by the p roposed m ethod has superior perform ance gains over other state-of-the-art hashing methods.

    Image retrieval;Deep convolutional neural networks;Binary hashing;Quantization error;Independence

    1 引言

    隨著大數(shù)據(jù)時代的到來,互聯(lián)網(wǎng)圖像資源迅猛增長,如何對大規(guī)模圖像資源進(jìn)行快速有效的檢索以滿足用戶需求亟待解決。圖像檢索技術(shù)由早期的基于文本的圖像檢索(Text-Based Im age Retrieval,TBIR)逐漸發(fā)展為基于內(nèi)容的圖像檢索(Content-Based Im age Retrieval,CBIR),CBIR通過提取圖像視覺底層特征來實現(xiàn)圖像內(nèi)容表達(dá)。視覺底層特征包括基于梯度的圖像局部特征描述子,如SIFT[1](Scale-Invariant Feature Transform),HOG[2](Histogram of Orientated G radients)等。與人工設(shè)計的特征相比,深度卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNNs)更能夠獲得圖像的內(nèi)在特征,且在目標(biāo)檢測、圖像分類和圖像分割等方面都表現(xiàn)出了良好的性能。利用深度CNNs學(xué)習(xí)圖像特征,文獻(xiàn)[3]首先提出了一個提取圖像特征的框架,且在ImageNet數(shù)據(jù)集上取得了不錯的效果。

    The National Natural Science Foundation of China(61301232)

    TP391.4

    A

    1009-5896(2016)08-2068-08

    10.11999/JEIT 151346

    2015-12-01;改回日期:2016-04-29;網(wǎng)絡(luò)出版:2016-06-24

    彭天強(qiáng)p tq_drum boy@163.com

    國家自然科學(xué)基金(61301232)

    猜你喜歡
    二進(jìn)制哈希檢索
    用二進(jìn)制解一道高中數(shù)學(xué)聯(lián)賽數(shù)論題
    有趣的進(jìn)度
    二進(jìn)制在競賽題中的應(yīng)用
    2019年第4-6期便捷檢索目錄
    專利檢索中“語義”的表現(xiàn)
    專利代理(2016年1期)2016-05-17 06:14:36
    基于OpenCV與均值哈希算法的人臉相似識別系統(tǒng)
    基于維度分解的哈希多維快速流分類算法
    基于同態(tài)哈希函數(shù)的云數(shù)據(jù)完整性驗證算法
    一種基于Bigram二級哈希的中文索引結(jié)構(gòu)
    一個生成組合的新算法
    香蕉国产在线看| 飞空精品影院首页| 久久精品国产综合久久久| www.精华液| tocl精华| 99国产精品一区二区蜜桃av | 五月开心婷婷网| 色在线成人网| 亚洲欧美日韩另类电影网站| 热re99久久国产66热| 多毛熟女@视频| 精品熟女少妇八av免费久了| 狠狠狠狠99中文字幕| 亚洲av美国av| 午夜福利视频在线观看免费| 在线观看www视频免费| 国产精品久久久久成人av| 国产aⅴ精品一区二区三区波| 操美女的视频在线观看| 国产成人影院久久av| 人人妻人人澡人人爽人人夜夜| 两个人免费观看高清视频| 午夜精品国产一区二区电影| 精品福利观看| 9191精品国产免费久久| 久久久久精品国产欧美久久久| 免费不卡黄色视频| 国产精品偷伦视频观看了| 91av网站免费观看| 老汉色av国产亚洲站长工具| 啦啦啦免费观看视频1| 午夜精品国产一区二区电影| 麻豆乱淫一区二区| 欧美人与性动交α欧美软件| 脱女人内裤的视频| 高清在线国产一区| 亚洲成a人片在线一区二区| 大香蕉久久成人网| 男女下面插进去视频免费观看| 19禁男女啪啪无遮挡网站| 宅男免费午夜| 国产在线观看jvid| 丝瓜视频免费看黄片| 中文亚洲av片在线观看爽 | 一个人免费在线观看的高清视频| 午夜福利乱码中文字幕| videos熟女内射| 999精品在线视频| 国产精品98久久久久久宅男小说| 韩国av一区二区三区四区| 91老司机精品| 熟女少妇亚洲综合色aaa.| 极品人妻少妇av视频| 在线观看免费日韩欧美大片| 在线看a的网站| 亚洲中文av在线| 国产免费av片在线观看野外av| 无遮挡黄片免费观看| 久久久久久久国产电影| 天堂俺去俺来也www色官网| 超碰成人久久| 国产激情欧美一区二区| 色综合婷婷激情| 一区二区三区国产精品乱码| 高清在线国产一区| 精品久久蜜臀av无| 国产精品秋霞免费鲁丝片| 高清毛片免费观看视频网站 | 丁香欧美五月| 大型黄色视频在线免费观看| 亚洲欧美激情在线| 岛国在线观看网站| av不卡在线播放| 中文字幕av电影在线播放| xxx96com| 校园春色视频在线观看| aaaaa片日本免费| 国产熟女午夜一区二区三区| 色精品久久人妻99蜜桃| 男女免费视频国产| 久久中文字幕人妻熟女| 亚洲av电影在线进入| 亚洲久久久国产精品| 精品国产美女av久久久久小说| 国产成人系列免费观看| 精品亚洲成国产av| 91字幕亚洲| 婷婷成人精品国产| 少妇 在线观看| 老司机在亚洲福利影院| 国产免费男女视频| 亚洲国产欧美网| 中文字幕高清在线视频| 久久青草综合色| 黑人欧美特级aaaaaa片| 久久久久精品国产欧美久久久| 亚洲精品粉嫩美女一区| 91麻豆精品激情在线观看国产 | 亚洲精品中文字幕在线视频| 777久久人妻少妇嫩草av网站| 国产免费男女视频| 国产成人精品久久二区二区免费| 久久久久久久久免费视频了| √禁漫天堂资源中文www| 中出人妻视频一区二区| 女人被狂操c到高潮| aaaaa片日本免费| 老司机午夜十八禁免费视频| 一级作爱视频免费观看| 午夜精品在线福利| 高清毛片免费观看视频网站 | 天天影视国产精品| 国产精品久久久av美女十八| 新久久久久国产一级毛片| 色在线成人网| 日韩 欧美 亚洲 中文字幕| 一区二区日韩欧美中文字幕| 国产精品国产av在线观看| 18禁国产床啪视频网站| 亚洲,欧美精品.| 99精品欧美一区二区三区四区| 啦啦啦 在线观看视频| 久久精品人人爽人人爽视色| 久久中文字幕人妻熟女| 亚洲av日韩在线播放| cao死你这个sao货| 视频在线观看一区二区三区| 成人手机av| 99热国产这里只有精品6| 国产麻豆69| 18禁裸乳无遮挡动漫免费视频| 久久久国产成人精品二区 | 国产精品 欧美亚洲| 久久人妻av系列| 91老司机精品| 精品高清国产在线一区| 看黄色毛片网站| 精品国内亚洲2022精品成人 | 亚洲成国产人片在线观看| 精品熟女少妇八av免费久了| 1024视频免费在线观看| 亚洲av第一区精品v没综合| 国产免费现黄频在线看| 亚洲熟妇熟女久久| 国产亚洲av高清不卡| 香蕉久久夜色| 91精品国产国语对白视频| 久久午夜综合久久蜜桃| 大码成人一级视频| 操美女的视频在线观看| 国产精品美女特级片免费视频播放器 | 桃红色精品国产亚洲av| 男女下面插进去视频免费观看| 黄色视频,在线免费观看| 丰满的人妻完整版| 亚洲第一av免费看| 搡老熟女国产l中国老女人| 在线观看免费日韩欧美大片| 黄色视频,在线免费观看| 亚洲,欧美精品.| 欧美黑人精品巨大| 亚洲国产精品sss在线观看 | 很黄的视频免费| 亚洲欧美一区二区三区黑人| 国产亚洲欧美在线一区二区| 日本精品一区二区三区蜜桃| 欧美午夜高清在线| 国产av一区二区精品久久| 亚洲国产欧美日韩在线播放| 午夜福利影视在线免费观看| 一级毛片精品| 亚洲色图综合在线观看| 9色porny在线观看| 久久久久精品国产欧美久久久| 人妻久久中文字幕网| 老司机午夜福利在线观看视频| 国产麻豆69| 久久久国产成人免费| 99riav亚洲国产免费| 色精品久久人妻99蜜桃| 久久久久久久精品吃奶| 51午夜福利影视在线观看| 老汉色av国产亚洲站长工具| 天堂√8在线中文| 国产蜜桃级精品一区二区三区 | 交换朋友夫妻互换小说| 久久中文字幕人妻熟女| 天天添夜夜摸| 国产精品自产拍在线观看55亚洲 | 亚洲精品乱久久久久久| 日本wwww免费看| 免费在线观看亚洲国产| 无人区码免费观看不卡| 日本一区二区免费在线视频| 成年人黄色毛片网站| 丝袜人妻中文字幕| 国产精品久久视频播放| 在线天堂中文资源库| 亚洲精品美女久久久久99蜜臀| 亚洲,欧美精品.| 99热只有精品国产| 99re6热这里在线精品视频| 天堂动漫精品| 久久久久精品人妻al黑| 99热只有精品国产| 亚洲第一青青草原| 99热只有精品国产| 高清视频免费观看一区二区| 天堂动漫精品| 亚洲精品国产精品久久久不卡| 亚洲中文av在线| 亚洲久久久国产精品| 啦啦啦 在线观看视频| 19禁男女啪啪无遮挡网站| 女性生殖器流出的白浆| 1024香蕉在线观看| 黄片小视频在线播放| 亚洲久久久国产精品| 久久狼人影院| 久久精品熟女亚洲av麻豆精品| 十八禁高潮呻吟视频| 天堂俺去俺来也www色官网| 天堂中文最新版在线下载| 男女免费视频国产| 一进一出抽搐动态| 国产成人欧美在线观看 | 九色亚洲精品在线播放| www日本在线高清视频| 国产乱人伦免费视频| 在线观看66精品国产| 亚洲熟女毛片儿| 悠悠久久av| 大型黄色视频在线免费观看| 成人国产一区最新在线观看| 韩国精品一区二区三区| 男女午夜视频在线观看| 午夜福利视频在线观看免费| 欧美av亚洲av综合av国产av| 国产xxxxx性猛交| 天天影视国产精品| 男女午夜视频在线观看| 国产一区有黄有色的免费视频| 欧美在线黄色| 十八禁网站免费在线| 亚洲av日韩精品久久久久久密| 免费观看人在逋| 免费观看人在逋| 麻豆av在线久日| 十八禁人妻一区二区| 亚洲一区二区三区欧美精品| 亚洲五月婷婷丁香| 99精品久久久久人妻精品| 国产精品美女特级片免费视频播放器 | 后天国语完整版免费观看| 欧美日韩福利视频一区二区| 国产成人免费观看mmmm| 狂野欧美激情性xxxx| √禁漫天堂资源中文www| www.熟女人妻精品国产| 精品久久久久久久久久免费视频 | 久久久久久久午夜电影 | 欧美日韩黄片免| 美女视频免费永久观看网站| 老熟女久久久| 飞空精品影院首页| 精品人妻1区二区| 天天躁夜夜躁狠狠躁躁| av线在线观看网站| 久久狼人影院| 欧美老熟妇乱子伦牲交| 亚洲精品粉嫩美女一区| 国产精品av久久久久免费| 亚洲一码二码三码区别大吗| 国产成人影院久久av| 亚洲精品一卡2卡三卡4卡5卡| 在线观看免费视频日本深夜| 亚洲欧美激情在线| 18禁观看日本| 精品国产一区二区三区四区第35| 精品乱码久久久久久99久播| 90打野战视频偷拍视频| 久久久久久久精品吃奶| 国产成人影院久久av| 欧美日韩福利视频一区二区| 女人精品久久久久毛片| 老司机午夜福利在线观看视频| 搡老乐熟女国产| 在线观看免费高清a一片| 欧美激情久久久久久爽电影 | 欧美中文综合在线视频| 精品国产乱子伦一区二区三区| 好看av亚洲va欧美ⅴa在| 变态另类成人亚洲欧美熟女 | 成人国产一区最新在线观看| 日韩成人在线观看一区二区三区| 国产欧美日韩一区二区三| 欧美激情 高清一区二区三区| 欧美日本中文国产一区发布| 国产一区二区三区综合在线观看| 亚洲人成77777在线视频| 中文字幕另类日韩欧美亚洲嫩草| 中文字幕人妻丝袜制服| 免费人成视频x8x8入口观看| 亚洲色图 男人天堂 中文字幕| 久久香蕉激情| 久久久精品国产亚洲av高清涩受| 久久草成人影院| 黑人猛操日本美女一级片| 黄片播放在线免费| 少妇猛男粗大的猛烈进出视频| 中文字幕精品免费在线观看视频| 水蜜桃什么品种好| 亚洲精品在线美女| 老熟女久久久| 啦啦啦免费观看视频1| 91麻豆精品激情在线观看国产 | a级毛片在线看网站| 在线观看午夜福利视频| 一区在线观看完整版| x7x7x7水蜜桃| 自拍欧美九色日韩亚洲蝌蚪91| 亚洲欧洲精品一区二区精品久久久| 成人18禁高潮啪啪吃奶动态图| 亚洲精品久久午夜乱码| 日日摸夜夜添夜夜添小说| 一边摸一边抽搐一进一出视频| 黑人巨大精品欧美一区二区mp4| 下体分泌物呈黄色| 怎么达到女性高潮| 日日摸夜夜添夜夜添小说| 超碰成人久久| 国产视频一区二区在线看| 午夜精品国产一区二区电影| 涩涩av久久男人的天堂| 久久久久久免费高清国产稀缺| 嫩草影视91久久| 欧美激情 高清一区二区三区| 视频区欧美日本亚洲| 久久精品亚洲av国产电影网| 国产精品秋霞免费鲁丝片| 校园春色视频在线观看| 最近最新中文字幕大全电影3 | 麻豆av在线久日| 嫁个100分男人电影在线观看| 日本一区二区免费在线视频| 黄色片一级片一级黄色片| 成年女人毛片免费观看观看9 | 欧美人与性动交α欧美精品济南到| 很黄的视频免费| √禁漫天堂资源中文www| 免费观看精品视频网站| 亚洲中文日韩欧美视频| 久久精品亚洲熟妇少妇任你| 999精品在线视频| 国产野战对白在线观看| av欧美777| 女人久久www免费人成看片| 极品教师在线免费播放| 香蕉国产在线看| 亚洲精品国产一区二区精华液| 精品国产国语对白av| 热re99久久精品国产66热6| 丁香欧美五月| 国产午夜精品久久久久久| 十八禁人妻一区二区| 99久久国产精品久久久| av一本久久久久| 国产在视频线精品| 777久久人妻少妇嫩草av网站| 亚洲伊人色综图| 一本一本久久a久久精品综合妖精| 精品免费久久久久久久清纯 | 午夜福利免费观看在线| 日韩大码丰满熟妇| 老司机福利观看| 搡老熟女国产l中国老女人| 久久久久久免费高清国产稀缺| avwww免费| 亚洲av日韩在线播放| 免费不卡黄色视频| 啦啦啦视频在线资源免费观看| 在线观看www视频免费| 久久狼人影院| 中文字幕人妻丝袜制服| 人人妻人人澡人人看| 9色porny在线观看| 少妇 在线观看| 久久久久久人人人人人| 国产精品二区激情视频| 电影成人av| 精品欧美一区二区三区在线| 亚洲欧美一区二区三区久久| 美女视频免费永久观看网站| 欧美老熟妇乱子伦牲交| 中亚洲国语对白在线视频| 可以免费在线观看a视频的电影网站| 真人做人爱边吃奶动态| 亚洲国产欧美日韩在线播放| 黄片小视频在线播放| 亚洲精品中文字幕一二三四区| 视频区图区小说| 中文字幕最新亚洲高清| 免费日韩欧美在线观看| 超碰97精品在线观看| 精品国产美女av久久久久小说| 交换朋友夫妻互换小说| 亚洲成国产人片在线观看| 啦啦啦视频在线资源免费观看| 麻豆乱淫一区二区| 久久精品国产亚洲av香蕉五月 | 很黄的视频免费| 怎么达到女性高潮| 下体分泌物呈黄色| 欧美精品高潮呻吟av久久| 亚洲人成77777在线视频| 男人操女人黄网站| xxx96com| 国产精品98久久久久久宅男小说| 天天影视国产精品| 黄色视频,在线免费观看| 别揉我奶头~嗯~啊~动态视频| 91老司机精品| 日韩中文字幕欧美一区二区| 国产av一区二区精品久久| 交换朋友夫妻互换小说| 精品欧美一区二区三区在线| 国产在视频线精品| 亚洲五月色婷婷综合| 国产av一区二区精品久久| 亚洲五月天丁香| 久久精品国产99精品国产亚洲性色 | 少妇被粗大的猛进出69影院| 男女之事视频高清在线观看| 色婷婷av一区二区三区视频| 国产成人精品久久二区二区免费| 下体分泌物呈黄色| 91精品三级在线观看| 久9热在线精品视频| 色综合婷婷激情| 国产精品99久久99久久久不卡| 久久狼人影院| 国产成人精品无人区| 国产成人欧美在线观看 | 在线观看www视频免费| 亚洲精品一二三| 久久天躁狠狠躁夜夜2o2o| 两个人看的免费小视频| 国产无遮挡羞羞视频在线观看| 老汉色av国产亚洲站长工具| 一边摸一边抽搐一进一小说 | 黄色丝袜av网址大全| 国产精品免费视频内射| 久久精品熟女亚洲av麻豆精品| 亚洲av日韩在线播放| 女人被狂操c到高潮| 国产在线精品亚洲第一网站| 建设人人有责人人尽责人人享有的| av视频免费观看在线观看| 欧美在线一区亚洲| 欧美中文综合在线视频| 欧美日韩av久久| av欧美777| cao死你这个sao货| 国产男女内射视频| 精品国内亚洲2022精品成人 | 久久久久久亚洲精品国产蜜桃av| 9色porny在线观看| 亚洲精品国产区一区二| 在线天堂中文资源库| 国产国语露脸激情在线看| 亚洲av成人一区二区三| 精品乱码久久久久久99久播| 大码成人一级视频| 成人国产一区最新在线观看| 十八禁人妻一区二区| 欧美性长视频在线观看| 国产91精品成人一区二区三区| 操美女的视频在线观看| 欧美亚洲日本最大视频资源| 亚洲国产欧美一区二区综合| 女人爽到高潮嗷嗷叫在线视频| 亚洲男人天堂网一区| 69精品国产乱码久久久| 久久国产亚洲av麻豆专区| 日韩欧美国产一区二区入口| 成在线人永久免费视频| 久9热在线精品视频| 成人精品一区二区免费| 丝瓜视频免费看黄片| 极品教师在线免费播放| 女人精品久久久久毛片| 国产精品久久久久成人av| 一级a爱片免费观看的视频| 大型av网站在线播放| 男女高潮啪啪啪动态图| 麻豆乱淫一区二区| 久久久久精品人妻al黑| 中文字幕人妻熟女乱码| 国产亚洲精品一区二区www | av在线播放免费不卡| 久久精品国产亚洲av高清一级| 欧美一级毛片孕妇| 97人妻天天添夜夜摸| a级片在线免费高清观看视频| 男女下面插进去视频免费观看| www.熟女人妻精品国产| 国产精品久久久久久精品古装| 中文字幕人妻丝袜一区二区| 99香蕉大伊视频| 精品久久久精品久久久| 国产又爽黄色视频| 亚洲黑人精品在线| 熟女少妇亚洲综合色aaa.| 久久久精品区二区三区| 国产成人精品在线电影| 免费不卡黄色视频| 欧美乱码精品一区二区三区| 亚洲片人在线观看| 国产熟女午夜一区二区三区| 国产成+人综合+亚洲专区| 国产91精品成人一区二区三区| 免费在线观看黄色视频的| av不卡在线播放| avwww免费| 嫁个100分男人电影在线观看| 啦啦啦视频在线资源免费观看| 丁香欧美五月| a在线观看视频网站| 看黄色毛片网站| 一区福利在线观看| 久久九九热精品免费| 国产亚洲精品一区二区www | 国产成人精品在线电影| 一级片'在线观看视频| 动漫黄色视频在线观看| 国产精品一区二区在线观看99| 色综合欧美亚洲国产小说| 久久久精品区二区三区| 国产一区二区三区在线臀色熟女 | 婷婷成人精品国产| 俄罗斯特黄特色一大片| 多毛熟女@视频| ponron亚洲| 高清黄色对白视频在线免费看| e午夜精品久久久久久久| 成年版毛片免费区| 捣出白浆h1v1| 可以免费在线观看a视频的电影网站| 九色亚洲精品在线播放| 欧美激情极品国产一区二区三区| 欧美黄色淫秽网站| 变态另类成人亚洲欧美熟女 | 亚洲成人免费电影在线观看| 91成年电影在线观看| 黄色丝袜av网址大全| 好男人电影高清在线观看| 亚洲欧美一区二区三区黑人| 国产在线精品亚洲第一网站| 老熟女久久久| 一边摸一边抽搐一进一小说 | 亚洲熟女毛片儿| 亚洲七黄色美女视频| 国产单亲对白刺激| 欧美成人午夜精品| 久久中文字幕人妻熟女| 亚洲精品国产一区二区精华液| 欧美精品亚洲一区二区| 18禁国产床啪视频网站| 如日韩欧美国产精品一区二区三区| 午夜福利影视在线免费观看| 日韩欧美一区视频在线观看| 欧美日韩一级在线毛片| 午夜激情av网站| 成年人免费黄色播放视频| 精品熟女少妇八av免费久了| av电影中文网址| 精品国产美女av久久久久小说| 国产麻豆69| 一级a爱视频在线免费观看| 他把我摸到了高潮在线观看| 国产精品美女特级片免费视频播放器 | 欧美日韩精品网址| 一级,二级,三级黄色视频| 女同久久另类99精品国产91| 黄片大片在线免费观看| 女同久久另类99精品国产91| 18禁裸乳无遮挡免费网站照片 | 久久亚洲精品不卡| 激情在线观看视频在线高清 | 美女高潮到喷水免费观看| 香蕉丝袜av| 一级,二级,三级黄色视频| 女警被强在线播放| 人妻久久中文字幕网| 欧美人与性动交α欧美软件| 欧美+亚洲+日韩+国产| 亚洲成国产人片在线观看| 熟女少妇亚洲综合色aaa.| 亚洲色图综合在线观看| 成人特级黄色片久久久久久久| 男女午夜视频在线观看| 国产一区有黄有色的免费视频| 精品久久久久久久毛片微露脸| av超薄肉色丝袜交足视频| 97人妻天天添夜夜摸| 一级,二级,三级黄色视频| 不卡av一区二区三区| 十八禁网站免费在线| 亚洲第一欧美日韩一区二区三区| 亚洲成人免费av在线播放| 国产区一区二久久| 欧美在线黄色| 色婷婷av一区二区三区视频| 天天躁狠狠躁夜夜躁狠狠躁| 国产成人一区二区三区免费视频网站|