• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向小樣本學(xué)習(xí)的雙重度量孿生神經(jīng)網(wǎng)絡(luò)

    2023-10-18 00:46:12孫統(tǒng)風(fēng)王康郝徐
    關(guān)鍵詞:特征提取

    孫統(tǒng)風(fēng) 王康 郝徐

    摘 要:為了解決孿生神經(jīng)網(wǎng)絡(luò)因使用圖像級特征度量,存在對位置、復(fù)雜背景及類內(nèi)差異比較敏感的問題,提出了一種雙重度量孿生神經(jīng)網(wǎng)絡(luò)(DM-SiameseNet)。具體來說,DM-SiameseNet使用圖像級的特征和局部特征(局部描述符)共同表示每幅圖像,然后根據(jù)兩種不同級別的相似度度量學(xué)習(xí)特征映射,最后使用自適應(yīng)融合策略,自適應(yīng)整合兩種不同級別特征表示的度量結(jié)果。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后模型的準(zhǔn)確率分別提高了5.04%和9.66%,并且在miniImageNet、TieredImageNet、Stanford Dogs、Stanford Cars和CUB-200數(shù)據(jù)集上高于只使用圖像級的特征表示或者局部描述符表示的度量方法。實(shí)驗(yàn)結(jié)果證明所提出的模型不僅考慮了圖像的全局特征,還可以捕獲圖像中更多有效的局部特征信息,提高了模型的泛化能力。

    關(guān)鍵詞:小樣本學(xué)習(xí); 孿生網(wǎng)絡(luò); 雙重度量; 特征提取; 局部描述符

    中圖分類號:TP391?? 文獻(xiàn)標(biāo)志碼:A

    文章編號:1001-3695(2023)09-046-2851-05

    doi:10.19734/j.issn.1001-3695.2022.11.0807

    Dual-metric siamese neural network for few-shot learning

    Sun Tongfeng, Wang Kang, Hao Xu

    (School of Computer Science & Technology, China University of Mining & Technology, Xuzhou Jiangsu 221116, China)

    Abstract:In order to solve the problem that the siamese neural network is sensitive to position, complex background and intra-class differences due to the use of image-level feature metrics, this paper proposed a dual metric siamese neural network(DM-SiameseNet). DM-SiameseNet used image-level features and local features (local descriptors) to jointly represent each image, then learned feature maps based on two different levels of similarity measures, and finally used an adaptive fusion strategy to adaptively integrate two different measurement results represented by the level feature. Experimental results show that the accuracy of the improved model is increased by 5.04% and 9.66% respectively, and is higher than the measurement methods that only uses image-level feature representation or local descriptor representation on miniImageNet, TieredImageNet, Stanford Dogs, Stanford Cars and CUB-200 datasets. The experimental results prove that the proposed model not only considers the global features of the image, but also captures more effective local feature information in the image, which improves the generalization ability of the model.

    Key words:few-shot learning; siamese network; double measures; feature extraction; local descriptors

    在大數(shù)據(jù)時(shí)代,隨著科技的發(fā)展,依托強(qiáng)大運(yùn)算能力,深度學(xué)習(xí)模型已經(jīng)在圖像、文本、語音等任務(wù)中取得了巨大成就,但深度學(xué)習(xí)模型的成功,離不開大量的訓(xùn)練數(shù)據(jù)。然而在現(xiàn)實(shí)世界的真實(shí)場景中,經(jīng)常會(huì)遇到樣本過少或者獲取成本過高的情況,如何利用少量樣本進(jìn)行學(xué)習(xí),是深度學(xué)習(xí)模型無法繞開的難題。與此相反,人類只需要通過少量數(shù)據(jù)就能做到快速學(xué)習(xí)。受到人類學(xué)習(xí)特點(diǎn)的啟發(fā)[1],小樣本學(xué)習(xí)[2,3]的概念被提出,旨在讓機(jī)器學(xué)習(xí)更加靠近人類思維,擁有像人類一樣快速學(xué)習(xí)的能力。近年來小樣本學(xué)習(xí)在圖像分類領(lǐng)域提出了許多優(yōu)秀學(xué)習(xí)方法,一般來說,可以大致分為基于元學(xué)習(xí)[4]的和基于度量學(xué)習(xí)[5]的小樣本學(xué)習(xí)方法。元學(xué)習(xí)旨在從大量的先驗(yàn)任務(wù)中學(xué)習(xí)到元知識,利用以往的先驗(yàn)知識來指導(dǎo)模型在新任務(wù)(即小樣本任務(wù))中更快地學(xué)習(xí),在元訓(xùn)練過程包括基礎(chǔ)學(xué)習(xí)器和元學(xué)習(xí)器的兩步優(yōu)化,當(dāng)對元學(xué)習(xí)器優(yōu)化時(shí),一般還需要微調(diào)操作?;诙攘繉W(xué)習(xí)的小樣本學(xué)習(xí)方法通過學(xué)習(xí)樣本與特征之間的映射關(guān)系,將樣本映射到特征空間,然后在空間內(nèi)中使用最近鄰和其他依賴距離或相似性函數(shù)方法實(shí)現(xiàn)分類。由于簡單有效的特點(diǎn),基于度量學(xué)習(xí)的方法在小樣本學(xué)習(xí)中受到了大量關(guān)注,本文提出的模型也屬于此類方法。

    孿生神經(jīng)網(wǎng)絡(luò)(SiameseNet)[6]是被提出用于單樣本學(xué)習(xí)(one-shot learning)的相似性度量模型,在Omniglot數(shù)據(jù)集上準(zhǔn)確度達(dá)到了92%,然而經(jīng)過測試發(fā)現(xiàn),在miniImageNet數(shù)據(jù)集上5-way 1-shot的準(zhǔn)確度只有49.23%。因?yàn)橄啾萇mniglot數(shù)據(jù)集,miniImageNet數(shù)據(jù)集的目標(biāo)物體特征更加豐富,背景也更加復(fù)雜。因此,使用圖像級特征表示的孿生神經(jīng)網(wǎng)絡(luò),在度量時(shí)很難得到出色的效果。本文提出了一種新的雙重度量孿生神經(jīng)網(wǎng)絡(luò)(DM-SiameseNet),使用圖像級特征和局部描述符共同表示圖像,能充分考慮全局特征和局部特征之間的關(guān)系來解決上述問題。本文的主要貢獻(xiàn)有三個(gè):a)不同于傳統(tǒng)的只基于圖像級特征表示或者基于局部描述符表示,本文同時(shí)使用圖像級特征和豐富的局部描述符來共同表示每幅圖像;b)使用了一種自適應(yīng)融合策略來自適應(yīng)地整合兩種級別圖像表示的度量關(guān)系;c)整個(gè)框架可以端到端的方式進(jìn)行訓(xùn)練,不使用微調(diào)和蒸餾等技巧。

    1 相關(guān)工作

    1.1 基于度量的小樣本學(xué)習(xí)方法

    Koch等人在2015年提出了基于度量的小樣本學(xué)習(xí)方法,采用孿生神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)如何區(qū)別不同的圖像特征,并遷移到新的類中。Vinyals等人[7]在2016年提出了一種直接將查詢圖像與支持類進(jìn)行比較的MatchingNets(匹配網(wǎng)絡(luò)),同時(shí)還提出了在小樣本學(xué)習(xí)中廣泛使用的episodic訓(xùn)練策略。Snell等人[8]在2017年提出了ProtoNet(原型網(wǎng)絡(luò)),把類中所有樣本的均值向量作為一個(gè)原型來表示一個(gè)類,然后使用一個(gè)特定的距離度量來執(zhí)行最終的分類。為了避免選擇特定的度量函數(shù),Sung等人[9]在2018年提出了RelationNet(關(guān)系網(wǎng)絡(luò)),試圖通過深度卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)度量來衡量圖像之間的相似性。葉萌等人[10]在2021年提出一種特征聚合網(wǎng)絡(luò),嘗試通過該網(wǎng)絡(luò)將原始特征向更優(yōu)的特征空間中進(jìn)行偏移,最終使得同類樣本之間的特征向量分布更為緊湊,從而提升特征提取的有效性。在2022年,Wang等人[11]提出了一種簡單有效的不可知度量(TSMA)方法,來幫助基于度量的FSL方法取得更好的效果,并可以適用到大多數(shù)基于度量的小樣本方法中。Gao等人[12]考慮了淺層特征,提出了多距離度量網(wǎng)絡(luò)(MDM-Net),通過一個(gè)多輸出嵌入網(wǎng)絡(luò)將樣本映射到不同的特征空間。

    上述方法都是基于圖像級的特征表示,由于小樣本中每個(gè)類別的樣本數(shù)不足,所以每個(gè)類別的分布無法在圖像級特征的空間中進(jìn)行可靠的估計(jì)。在2019年,Li等人提出了CovaMNet[13]和 DN4[14]模型,實(shí)驗(yàn)結(jié)果表明,相比圖像級的特征,豐富的局部特征(即深度局部描述符)可以更好地表示一幅圖像,因?yàn)榫植刻卣骺梢钥醋鍪且环N自然的數(shù)據(jù)增強(qiáng)操作。CovaMNet使用提取的深度局部描述符的二階協(xié)方差矩陣來表示每個(gè)支持類,并設(shè)計(jì)一個(gè)基于協(xié)方差的度量來計(jì)算查詢圖像和支持類之間的相似性。與CovaMNet不同,DN4 認(rèn)為將局部特征池化為緊湊的圖像級表示會(huì)丟失大量的判別信息。因此,DN4 建議直接使用原始局部描述符集來表示查詢圖像和支持類,然后采用余弦相似度來度量圖像之間的相似度。2021年Huang等人[15]提出了基于局部描述符的LMPNet(多原型網(wǎng)絡(luò)),使用局部描述符來表示每幅圖像,為了減少原型在樣本上平均帶來的不確定性,還引入了通道擠壓和空間激勵(lì)(SSE)注意力模塊。韋世紅等人[16]提出了一種多級度量網(wǎng)絡(luò)的小樣本學(xué)習(xí)方法,將圖像—圖像的度量與圖像—類的度量進(jìn)行結(jié)合,從多個(gè)角度考慮圖像的表達(dá)分布以有效挖掘圖像語義信息。

    1.2 孿生神經(jīng)網(wǎng)絡(luò)

    孿生神經(jīng)網(wǎng)絡(luò)實(shí)際是使用同一個(gè)嵌入網(wǎng)絡(luò)提取圖像的圖像級特征,將圖像映射成向量,使用兩個(gè)向量之間絕對差的值,代表了兩幅圖像的相似程度。在訓(xùn)練時(shí)輸入的是一對樣本而不是單個(gè)樣本,如果兩個(gè)輸入圖像來自同一類,標(biāo)簽為1,不同的類標(biāo)簽為0。然后通過交叉熵函數(shù)計(jì)算損失。測試時(shí)將樣本對依次輸入到孿生神經(jīng)網(wǎng)絡(luò)中,得到每對樣本的距離,選取距離最小的測試集標(biāo)簽作為測試樣本的類別,從而完成分類。

    如圖1所示,孿生神經(jīng)網(wǎng)絡(luò)的一對輸入(x1,x2),經(jīng)過同一卷積神經(jīng)網(wǎng)絡(luò)后,最后一個(gè)卷積層中的高維向量被展開為單個(gè)向量,接著是一個(gè)全連接層。然后根據(jù)前一個(gè)全連接層的輸出 (h1,h2) 計(jì)算誘導(dǎo)距離,最后使用sigmoid激活函數(shù)進(jìn)行預(yù)測。孿生神經(jīng)網(wǎng)絡(luò)計(jì)算兩幅圖像相似度距離度量的公式為

    D(x1,x2)=σ(∑jαjhj1-hj2)(1)

    其中:σ代表激活函數(shù),這里使用的是sigmoid; αj是模型在訓(xùn)練時(shí)學(xué)習(xí)到的參數(shù),用于加權(quán)分量距離的重要性。最后一層,在前一層的學(xué)習(xí)特征空間上引入一個(gè)度量,然后經(jīng)過激活函數(shù)得出(x1,x2)全局特征向量的相似度分?jǐn)?shù)。

    受CovaMNet和DN4的啟發(fā),本文提出的DM-SiameseNet在SiameseNet上引入局部描述符,使用圖像級特征和豐富的深度局部描述符共同來表示圖像,解決圖像級特征表示的度量存在的問題。

    2 問題定義和訓(xùn)練方法

    2.1 問題定義

    小樣本學(xué)習(xí)問題通常涉及支持集(support set)、查詢集(query set)和輔助集(auxiliary set)三個(gè)數(shù)據(jù)集,分別表示為S、Q和A。支持集和查詢集共享相同的標(biāo)簽空間。如果支持集S包含N個(gè)類,每個(gè)類包含K個(gè)樣本,則這種少樣本分類任務(wù)稱為N-way K-shot任務(wù)。然而,在支持集S中,每個(gè)類通常只包含幾個(gè)樣本(例如,K=1或5),用這幾個(gè)樣本直接訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)很容易出現(xiàn)過擬合。因此,通常通過從輔助集A學(xué)習(xí)可遷移知識來緩解這個(gè)問題。集合A的類較多,每個(gè)類包含大量的標(biāo)注樣本,但集合A相對于集合S有一個(gè)不相交的類標(biāo)簽空間。

    2.2 Episodic訓(xùn)練策略

    為了訓(xùn)練一個(gè)泛化能力強(qiáng)的分類器,基于度量的小樣本學(xué)習(xí)方法在訓(xùn)練階段通常采用episodic訓(xùn)練策略[7]。具體來說,在每一個(gè)episodic中,從輔助集A中隨機(jī)構(gòu)建一個(gè)查詢集AQ和一個(gè)支持集AS,它們分別類似于S和Q。在每次迭代訓(xùn)練時(shí),采用一個(gè)episodic任務(wù)來訓(xùn)練當(dāng)前模型。訓(xùn)練時(shí)會(huì)構(gòu)建數(shù)萬個(gè)episode來訓(xùn)練分類模型,即episodic training。測試階段,通過支持集S,學(xué)習(xí)到的模型可以直接用于對Q中的圖像進(jìn)行分類。

    3 雙重度量孿生神經(jīng)網(wǎng)絡(luò)模型

    圖2是本文的雙重度量孿生神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu),模型由特征提取模塊、雙重度量模塊和分類器模塊組成。特征提取模塊用于提取輸入圖像的圖像級特征和豐富的局部描述符。

    雙重度量模塊定義了查詢圖像(query image)和支持圖像(support image)之間的圖像級特征度量和局部描述符度量。對于最后一個(gè)模塊,通過可學(xué)習(xí)的權(quán)重向量自適應(yīng)地將局部和全局度量關(guān)系融合在一起,然后采用非參數(shù)最近鄰分類器作為最終分類器。這三個(gè)模塊直接以端到端的方式訓(xùn)練,沒有使用微調(diào)、蒸餾和預(yù)訓(xùn)練等技巧。具體來說,對于一對樣本S和Q,首先經(jīng)過特征提取網(wǎng)絡(luò)提取圖像特征,然后在雙重度量模塊分別得到全局特征度量結(jié)果和局部特征度量結(jié)果,最后經(jīng)過分類器模塊輸出S和Q之間的相似度得分。

    3.1 特征提取模塊

    本文的DM-SiameseNet模型使用Conv64F(用Ψ表示)嵌入網(wǎng)絡(luò)來學(xué)習(xí)查詢圖像和支持集的圖像級特征表示和局部特征表示。Conv64F包含四個(gè)卷積塊,每個(gè)卷積塊由Conv層、BN層、ReLU層和MP層組成,并且最后沒有全連接層,給定一個(gè)圖像X,通過嵌入網(wǎng)絡(luò)后輸出的Ψ(X)是一個(gè)h×w×c維的張量(分別代表高、寬和通道數(shù)),用于接下來雙重度量模塊的圖像級特征度量和局部特征度量。

    3.2 雙重度量模塊

    雙重度量模塊由圖像級特征度量和局部特征度量兩個(gè)分支組成,兩個(gè)分支使用特征提取模塊輸出的h×w×c維的張量分別度量兩個(gè)不同級別的特征。

    3.2.1 圖像級特征度量

    將嵌入網(wǎng)絡(luò)輸出的Ψ(X)(h×w×c的三維張量)進(jìn)行flatten操作后,得到圖像全局特征,然后用于計(jì)算基于圖像級特征表示的度量。對于圖像Q和S的圖像級度量(image-level measure)結(jié)果可以表示為

    DILM(Q,S)=σ(∑jαjhj1-hj2)(2)

    其中:α j是模型在訓(xùn)練時(shí)學(xué)習(xí)到的參數(shù),用于加權(quán)分量距離的重要性;σ代表激活函數(shù),最后得出兩個(gè)全局特征向量的相似度分?jǐn)?shù)。和孿生神經(jīng)網(wǎng)絡(luò)的圖像級特征度量唯一不同的是,此處使用的是tanh激活函數(shù)而不是sigmoid,因?yàn)樵谙旅娴木植刻卣鞫攘恐校褂玫挠嘞蚁嗨贫茸鳛槎攘亢瘮?shù),度量結(jié)果的取值是[-1,1],當(dāng)結(jié)果越趨向于1時(shí),表示相似程度越高,當(dāng)結(jié)果越趨向于-1時(shí),表示相似程度越低。兩種度量的取值范圍要保持一致,所以此處使用tanh激活函數(shù)。

    3.2.2 局部特征度量

    上面的基于圖像級特征的度量可以捕獲圖像之間的圖像級關(guān)系,但沒有考慮到局部關(guān)系。根據(jù)對Li等人提出的DN4模型的深度分析可知,使用的基于局部描述符的表示比基于圖像級特征的表示具有更強(qiáng)的泛化能力。因此,這種基于局部描述符的圖像到類(image-to-class)的度量也被引入到模型中,以捕獲圖像間的局部特征關(guān)系。

    具體來說,圖像Q和S,經(jīng)過特征提取模塊后,得到分別擁有m(m=w×h)個(gè)d維局部描述子組合的Ψ(Q)和Ψ(S)。對于Ψ(Q)中的每一個(gè)局部描述子xi,在Ψ(S)中找到k個(gè)和xi最相似的局部描述子[1,…,k],然后使用余弦相似度分別計(jì)算xi和k個(gè)i的余弦相似度,累加得到局部描述符xi的相似度。用同樣方法分別計(jì)算Ψ(Q)中m個(gè)局部描述符的相似度,最后將m局部描述符的相似度求和后再除(m×k),作為圖像Q和S基于局部描述符度量的相似度。從公式上Q和S的相似度可以表示為

    DI2C(Q,S)=∑mi=1∑kj=1cos(xi,ji)m×k,cos(xi,ji)=xTii‖xi‖·‖i‖(4)

    其中:cos(·)代表余弦相似度;超參數(shù)k在本文中為3,關(guān)于k對最終分類結(jié)果的影響在4.6節(jié)中詳細(xì)闡述。

    3.3 分類器模塊

    雙重度量模塊分別得到了圖像間的全局特征關(guān)系和局部特征關(guān)系,因此在分類器模塊需要設(shè)計(jì)融合策略來整合這兩部分關(guān)系。本文采用和ADM[17]相同的融合策略,使用可學(xué)習(xí)的二維權(quán)重向量W=[w1,w2]來實(shí)現(xiàn)融合,圖像Q和S之間的最終融合相似度可以定義為

    D(Q,S)=w1·DILM(Q,S)+w2·DI2C(Q,S)(5)

    在N-way K-shot情景訓(xùn)練中,雙重度量模塊的圖像級特征度量分支(ILM)和局部特征度量分支(I2C)分別輸出一個(gè)N維相似度向量。接下來,將這兩個(gè)向量連接在一起,得到一個(gè)2N維向量,接著使用一個(gè)批歸一化層,以平衡兩部分相似性的比例,然后使用一個(gè)一維卷積,其中kernel大小為 1×1,dilation值為N。這樣,就通過學(xué)習(xí)一個(gè)二維權(quán)重向量W來獲得一個(gè)加權(quán)的N維相似度向量。最后,執(zhí)行非參數(shù)的最近鄰分類器以獲得最終的分類結(jié)果。例如在5-way 1-shot情景訓(xùn)練中,ILM分支和I2C分支分別輸出一個(gè)5維的相似度向量,將兩個(gè)向量拼接到一起后得到一個(gè)10維的相似度向量,接著使用一個(gè)kernel大小為 1×1,dilation值為5的一維卷積,這樣,就可以通過學(xué)習(xí)2維權(quán)重向量W,得到一個(gè)加權(quán)的5維相似性向量,最后使用非參數(shù)的最近鄰分類器進(jìn)行分類。

    4 實(shí)驗(yàn)

    在本章中使用miniImageNet和tieredImageNet這兩個(gè)小樣本公共數(shù)據(jù)集,以及Stanford Dogs、Stanford Cars、CUB-200-2010這三個(gè)細(xì)粒度基準(zhǔn)數(shù)據(jù)集進(jìn)行了大量的實(shí)驗(yàn),以評估所提出的DM-SiameseNet模型。源代碼可以從https://github.com/wangkang1022/DM-SiameseNet上獲取。

    4.1 數(shù)據(jù)集

    miniImageNet[7]數(shù)據(jù)集是ImageNet[18]的一個(gè)子集,該數(shù)據(jù)集包含100個(gè)類,每個(gè)類有600張圖像。在100個(gè)類中選取64個(gè)用于訓(xùn)練、16個(gè)用于驗(yàn)證,剩下20個(gè)用于測試集;tiered-ImageNet[19]數(shù)據(jù)集是ImageNet的另一個(gè)子集,包含34個(gè)超類別,34個(gè)超類共包含608個(gè)類。將超類別拆分為20、6、8,然后分別產(chǎn)生351、97、160個(gè)類作為訓(xùn)練集、驗(yàn)證集和測試集。

    本文選取了三個(gè)細(xì)粒度數(shù)據(jù)集,即Stanford Dogs、Stanford Cars和CUB-200-2010來進(jìn)行細(xì)粒度的小樣本圖像分類任務(wù)。Stanford Dogs包含120種狗,共20 580張圖像,其中70種用做輔助訓(xùn)練,20種用做驗(yàn)證集,最后30種用做測試集;Stanford Cars數(shù)據(jù)集共有196個(gè)類別,共16 185幅圖像,其中130個(gè)類用做訓(xùn)練集,17個(gè)類用做驗(yàn)證集, 49個(gè)類用做測試集; CUB-200-2010數(shù)據(jù)集包含200種鳥類,共6 033張圖像,其中130個(gè)類用做訓(xùn)練集,20個(gè)類用做驗(yàn)證集,50個(gè)類用做測試集。

    4.2 實(shí)現(xiàn)細(xì)節(jié)

    本文使用5-way 1-shot和5-way 5-shot 分類任務(wù)來評估方法的性能。在訓(xùn)練和測試階段的每個(gè)episodic(任務(wù))中,每個(gè)類使用15個(gè)查詢圖像。采用episodic 訓(xùn)練機(jī)制,并以端到端的方式訓(xùn)練網(wǎng)絡(luò),沒有使用預(yù)訓(xùn)練、蒸餾以及微調(diào)等技巧。在訓(xùn)練階段,使用Adam算法對所有模型進(jìn)行30個(gè)epoch 的訓(xùn)練。在每個(gè)epoch中,隨機(jī)構(gòu)造10 000個(gè)episodic(任務(wù))。此外,5-way 1-shot和5-way 5-shot初始學(xué)習(xí)率都設(shè)置為1×10-4,每10個(gè)epoch按乘0.5速率衰減。測試時(shí)隨機(jī)構(gòu)造1 000個(gè)episodic來計(jì)算準(zhǔn)確度,然后重復(fù)5次求平均值作為最終實(shí)驗(yàn)的結(jié)果。以top-1平均準(zhǔn)確率作為評價(jià)標(biāo)準(zhǔn),同時(shí)還給出了95%置信區(qū)間。

    4.3 對比方法

    本文方法屬于基于度量學(xué)習(xí)的小樣本方法,所以主要和基于度量學(xué)習(xí)的方法進(jìn)行對比,包括ProtoNet、RelationNet、IMP[20]、CovaMNet、DN4、CAN[21]、LMPNet、Proto-TSMA、SiameseNet。同時(shí)還選取了主要的元學(xué)習(xí)方法,包括MAML[22]、Baseline[23]、Baseline++[23]、TAML[24]、MetaOptNet-R[25]、Versa[26]、R2D2[27]、LEO[28]。同時(shí)進(jìn)一步將基于度量學(xué)習(xí)方法根據(jù)圖像表示方式的不同,分為了基于圖像級特征表示的度量和基于局部描述符表示的度量,來與本文提出的雙重度量進(jìn)行比較。

    4.4 在miniImageNet和tieredImageNet上的分類結(jié)果

    表1中展示了在miniImageNet和tieredImageNet數(shù)據(jù)集上各方法的結(jié)果,最高和次高結(jié)果以粗體顯示。第一列指出了方法的名稱,第二列指出方法采用的嵌入模塊,第三列是方法的類型,第四列顯示在5-way 1-shot和5-way 5-shot上具有 95% 置信區(qū)間的分類精度。在對SiameseNet進(jìn)行復(fù)現(xiàn)時(shí),本文采用了episodic 訓(xùn)練機(jī)制進(jìn)行訓(xùn)練,這是與Koch等人的原始訓(xùn)練方法不同的地方。其他方法的復(fù)現(xiàn)結(jié)果和原始論文保持一致。

    本文將所提出的方法與其他小樣本方法做了公平對比,從表1可以看出,在miniImageNet數(shù)據(jù)集上,本文方法相比改進(jìn)前的孿生神經(jīng)網(wǎng)絡(luò)(SiameseNet)在5-way 1-shot和5-way 5-shot上的準(zhǔn)確度分別提高了5.04%和9.66%。經(jīng)過分析可知,結(jié)果的大幅提高是因?yàn)楦倪M(jìn)后的模型可以捕獲圖像中更多豐富的局部特征信息,在一定程度上彌補(bǔ)了圖像級特征表示在度量時(shí)對位置和復(fù)雜背景敏感的不足。此外,miniImageNet數(shù)據(jù)集上,改進(jìn)后的方法在5-way 1-shot和5-way 5-shot上的準(zhǔn)確度均高于其他基于度量和基于元學(xué)習(xí)的小樣本方法。除本文提出的方法外,在1-shot和5-shot上,結(jié)果最好的方法是LEO和DN4,分別為52.15%和71.02%,仍然比本文的DM-SiameseNet低了約2.12%和0.57%。在1-shot分類結(jié)果上,本文方法的優(yōu)勢是非常明顯的。而在tieredImageNet數(shù)據(jù)集上,本文方法依然可以取得良好的結(jié)果,特別是在1-shot情況下。

    表2專門給出了不同級別特征表示的度量方法,以及本文提出的雙重度量在miniImageNet數(shù)據(jù)集上置信區(qū)間為95%的結(jié)果比較,最高和次高結(jié)果以粗體顯示。結(jié)果表明,相比于單一使用圖級特征或者局部描述符來表示圖像的小樣本方法, 本文方法可以取得最好的分類效果。因?yàn)镈M-SiameseNet綜合考慮兩種不同級別的特征,采用圖像級特征和豐富的局部描述符共同表示每一幅圖像,并且使用了自適應(yīng)融合策略來綜合考慮兩種不同級別的度量關(guān)系,可以學(xué)習(xí)到更好的分類效果。

    4.5 在細(xì)粒度數(shù)據(jù)集上的分類結(jié)果

    為了證明本文方法在考慮圖像全局特征的情況下還能提取豐富的局部特征,本文在Stanford Dogs、Stanford Cars和CUB-200-2010這三個(gè)細(xì)粒度數(shù)據(jù)集上進(jìn)行了大量小樣本分類任務(wù)的實(shí)驗(yàn)。表3顯示了不同級別特征表示的度量方法在三個(gè)細(xì)粒度圖像上的分類結(jié)果,其中置信區(qū)間為95%,最高和次高結(jié)果以粗體顯示,DM-SiameseNet是本文方法。相比通常的圖像分類任務(wù),細(xì)粒度圖像分類的難點(diǎn)在于其所屬類別的粒度更加精細(xì),比如“哈士奇”和“愛斯基摩犬”這兩種細(xì)粒度類別,只有耳朵形狀及毛發(fā)等局部特征上有差別,所以大多數(shù)方法嘗試通過捕獲有區(qū)別性的局部特征來實(shí)現(xiàn)分類。從表3中可以看到,本文方法在三個(gè)數(shù)據(jù)集上均取得了出色的表現(xiàn),特別是在1-shot情況下,分別比次高方法提高了1.68%、2.22%、2.92%。實(shí)驗(yàn)結(jié)果證明,相比單一使用基于圖像級特征表示的度量方法或者基于局部描述符表示的度量方法,本文雙重度量方法應(yīng)用在細(xì)粒度圖像上可以取得更好的效果。因?yàn)橛袇^(qū)別性的局部特征雖然重要,但全局特征在分類時(shí)仍然起一定作用。所以能綜合考慮圖像的全局特征和局部信息的DM-SiameseNet,在細(xì)粒度圖像分類上具有一定優(yōu)勢。

    4.6 超參數(shù)k對實(shí)驗(yàn)結(jié)果的影響

    在雙重度量模塊的局部特征度量分支中,本文需要為查詢圖像Q的每個(gè)局部描述符在支持集S中通過余弦相似度找到k個(gè)最相似的局部描述符,那么k的取值會(huì)對最終結(jié)果造成怎樣的影響呢?為此,本文通過改變k(1、3、5、7)的值來測試模型在miniImageNet上5-way 1-shot和5-way 5-shot情況下的分類結(jié)果,訓(xùn)練和測試時(shí)k值保持一致。分類結(jié)果如表4所示??梢钥闯?,k的不同取值在1-shot情況對結(jié)果的影響大致在4%以內(nèi),在5-shot情況對結(jié)果的影響大致在1%以內(nèi)。對于1-shot情況,當(dāng)k取2或3的時(shí)候結(jié)果最優(yōu),因?yàn)榇藭r(shí)支持集中每個(gè)類別只有一個(gè)樣本,當(dāng)k取1時(shí),每個(gè)局部描述符只能在這一個(gè)樣本中匹配一個(gè)和其相似的局部描述符,其度泛化能力弱,無法得到理想結(jié)果,而當(dāng)k>3后,每個(gè)局部描述符匹配多個(gè)(>3)和其相似的局部描述符,度量時(shí)可能對不同局部特征的敏感度下降,無法很好地區(qū)別不同的局部特征;對于5-shot情況,因?yàn)橹С旨忻總€(gè)類別有5個(gè)樣本,分類時(shí)一般不會(huì)出現(xiàn)泛化能力弱的問題,所以k的取值對結(jié)果影響較小。綜合上述原因,本文在實(shí)驗(yàn)中超參數(shù)k都設(shè)置為3。

    5 結(jié)束語

    在本文中,針對孿生神經(jīng)網(wǎng)絡(luò)圖像級特征表示的度量存在的問題,提出了一種雙重度量孿生神經(jīng)網(wǎng)絡(luò)(DM-SiameseNet)模型來解決孿生神經(jīng)網(wǎng)絡(luò)中存在圖像級特征表示的度量對位置、復(fù)雜背景及類內(nèi)差異比較敏感的問題。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的模型在考慮了圖像的全局特征下,還可以捕獲圖像中更多有效的局部信息,通過自適應(yīng)融合策略,能充分考慮雙重度量(基于圖像級特征的度量和基于局部描述符的度量)的關(guān)系,從而達(dá)到更好的分類效果。通過在Stanford Dogs、Stanford Cars和CUB-200-2010這三個(gè)細(xì)粒度圖像的實(shí)例探究表明,雙重度量比單一使用圖像級特征度量或者局部特征度量更具有優(yōu)勢。實(shí)驗(yàn)結(jié)果表明在1-shot情況下,本文方法在多個(gè)數(shù)據(jù)集上的結(jié)果是非常具有競爭性的。而在k-shot(k>1)情況下,本文方法還需要找到一個(gè)更好的特征融合策略來提高分類精度,接下來會(huì)更加關(guān)注在k-shot(k>1)下的研究。

    參考文獻(xiàn):

    [1]李新葉, 龍慎鵬, 朱婧. 基于深度神經(jīng)網(wǎng)絡(luò)的少樣本學(xué)習(xí)綜述[J]. 計(jì)算機(jī)應(yīng)用研究, 2020,37(8): 2241-2247. (Li Xinye, Long Shenpeng, Zhu Jing. A survey of few-shot learning based on deep neural networks[J]. Application Research of Computers, 2020, 37(8): 2241-2247.)

    [2]Jankowski N, Duch W, Grbczewski K. Meta-learning in computational intelligence[M]. Berlin:Springer, 2011: 97-115.

    [3]Lake B M, Salakhutdinov R R, Tenenbaum J. One-shot learning by inverting a compositional causal process[C]//Proc of the 26th International Conference on Neural Information Processing Systems. Red Hook, NY:Curran Associates Inc., 2013:2526-2534.

    [4]Munkhdalai T, Yu Hong . Meta networks[C]//Proc of the 34th International Conference on Machine Learning. New York: ACM Press, 2017: 2554-2563.

    [5]Xing E P, Jordan M I, Russell S, et al. Distance metric learning with application to clustering with side-information[C]//Proc of the 15th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2002: 505-512.

    [6]Koch G, Zemel R, Salakhutdinov R. Siamese neural networks for one-shot image recognition[C]//Proc of the 32nd International Conference on Machine Learning Deep Learning. New York: ACM Press, 2015: 6-36.

    [7]Vinyals O, Blundell C, Lillicrap T, et al. Matching networks for one shot learning[C]//Advances in Neural Information Processing Systems. Cambridge, MA: MIT Press, 2016: 3637-3645.

    [8]Snell J, Swersky K, Zemel R. Prototypical networks for few-shot learning[C]//Advances in Neural Information Processing Systems. Long Beach, USA: NIPS Press, 2017: 4078-4088.

    [9]Sung F, Yang Yongxin, Zhang Li, et al. Learning to compare:relation network for few-shot learning[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2018: 1199-1208.

    [10]葉萌, 楊娟, 汪榮貴, 等. 基于特征聚合網(wǎng)絡(luò)的小樣本學(xué)習(xí)方法[J]. 計(jì)算機(jī)工程, 2021, 47(3): 77-82. (Ye Meng, Yang Juan, Wang Ronggui, et al. Few-shot learning method based on feature aggregation network[J]. Computer Engineering, 2021,47(3):77-82.)

    [11]Wang Heng, Li Yong. Task-specific method-agnostic metric for few-shot learning[J]. Neural Computing and Applications, 2023,35(4): 3115-3124.

    [12]Gao Farong, Cai Lijie, Yang Zhangyi, et al. Multi-distance metric network for few-shot learning[J]. International Journal of Machine Learning and Cybernetics, 2022,13(9): 2495-2506.

    [13]Li Wenbin, Xu Jinglin, Huo Jing, et al. Distribution consistency based covariance metric networks for few-shot learning[C]//Proc of the 33rd AAAI Conference on Artificial Intelligence and the 31st Innovative Applications of Artificial Intelligence Conference and the 9th AAAI Symposium on Educational Advances in Artificial Intelligence. Palo Alto, CA: AAAI Press,2019: 8642-8649.

    [14]Li Wenbin, Wang Lei, Xu Jinglin, et al. Revisiting local descriptor based image-to-class measure for few-shot learning[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2019: 7253-7260.

    [15]Huang Hongwei, Wu Zhangkai, Li Wenbin, et al. Local descriptor-based multi-prototype network for few-shot learning[J]. Pattern Recognition, 2021,116: 107935.

    [16]韋世紅, 劉紅梅, 唐宏, 等. 多級度量網(wǎng)絡(luò)的小樣本學(xué)習(xí)[J]. 計(jì)算機(jī)工程與應(yīng)用, 2023,59(2): 94-101. (Wei Shihong, Liu Hongmei, Tang Hong, et al. Multilevel metric networks for few-shot learning[J]. Computer Engineering and Applications, 2023, 59(2): 94-101.)

    [17]Li Wenbin, Wang Lei, Huo Jing, et al. Asymmetric distribution measure for few-shot learning[EB/OL]. (2020-02-01) . https://arxiv.org/abs/2002.00153.

    [18]Deng Jia, Dong Wei, Socher R, et al. ImageNet: a large-scale hierarchical image database[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2009: 248-255

    [19]Zheng Yan, Wang Ronggui, Yang Juan, et al. Principal characteristic networks for few-shot learning[J]. Journal of Visual Communication and Image Representation, 2019,59: 563-573.

    [20]Allen K, Shelhamer E, Shin H, et al. Infinite mixture prototypes for few-shot learning[C]//Proc of International Conference on Machine Learning. New York: ACM Press, 2019: 232-241.

    [21]Hou Ruibing, Chang Hong, Ma Bingpeng, et al. Cross attention network for few-shot classification[C]//Advances in Neural Information Processing Systems. Cambridge, MA: MIT Press, 2019: 4005-4016.

    [22]Finn C, Abbeel P, Levine S. Model-agnostic meta-learning for fast adaptation of deep networks[C]//Proc of International Conference on Machine Learning. New York: ACM Press, 2017: 1126-1135.

    [23]Chen Weiyu, Liu Yencheng, Kira Z, et al. A closer look at few-shot classification[EB/OL]. (2021-03-21) . https://arxiv.org/abs/1904.04232.

    [24]Jamal M A, Qi Guojun. Task agnostic meta-learning for few-shot learning[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ : IEEE Press, 2019: 10657-10665.

    [25]Lee K, Maji S, Ravichandran A, et al. Meta-learning with differentiable convex optimization[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2019: 10657-10665.

    [26]Gordon J, Bronskill J, Bauer M, et al. Versa:versatile and efficient few-shot learning[C]//Advances in Neural Information Processing Systems. 2018: 1-9.

    [27]Bertinetto L, Henriques J F, Torr P H S, et al. Meta-learning with differentiable closed-form solvers[EB/OL]. (2019-07-24) . https://arxiv.org/abs/1805.08136.

    [28]Rusu A A, Rao D, Sygnowski J, et al. Meta-learning with latent embedding optimization[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2019.

    收稿日期:2022-11-28;修回日期:2023-01-07? 基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(61976217)

    作者簡介:孫統(tǒng)風(fēng)(1976-),男,江蘇徐州人,副教授,碩導(dǎo),博士,主要研究方向?yàn)闄C(jī)器學(xué)習(xí)、小樣本學(xué)習(xí)、圖像視頻感知;王康(1994-),男(通信作者),安徽宿州人,碩士研究生,主要研究方向?yàn)樯疃葘W(xué)習(xí)、小樣本學(xué)習(xí)(8978932003@qq.com);郝徐(1997-),男,江蘇徐州人,碩士研究生,主要研究方向?yàn)槟繕?biāo)檢測.

    猜你喜歡
    特征提取
    基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
    電子制作(2019年15期)2019-08-27 01:12:00
    基于Daubechies(dbN)的飛行器音頻特征提取
    電子制作(2018年19期)2018-11-14 02:37:08
    Bagging RCSP腦電特征提取算法
    一種基于LBP 特征提取和稀疏表示的肝病識別算法
    基于DSP的直線特征提取算法
    基于改進(jìn)WLD的紋理特征提取方法
    噪聲環(huán)境下滾動(dòng)軸承故障特征提取
    淺析零件圖像的特征提取和識別方法
    基于CATIA的橡皮囊成形零件的特征提取
    基于MED和循環(huán)域解調(diào)的多故障特征提取
    性插视频无遮挡在线免费观看| 国产 精品1| 少妇的逼好多水| 日韩强制内射视频| 99九九线精品视频在线观看视频| 我要看日韩黄色一级片| 精品少妇久久久久久888优播| 夫妻午夜视频| 国产视频首页在线观看| 久久6这里有精品| 男人和女人高潮做爰伦理| 干丝袜人妻中文字幕| 天堂网av新在线| 97超碰精品成人国产| 久久鲁丝午夜福利片| 成年版毛片免费区| 亚洲欧美一区二区三区黑人 | 伊人久久精品亚洲午夜| 欧美另类一区| av在线老鸭窝| 久久精品国产a三级三级三级| 美女高潮的动态| 一本久久精品| 纵有疾风起免费观看全集完整版| 日日啪夜夜撸| 亚洲国产精品专区欧美| 18禁在线播放成人免费| 日韩免费高清中文字幕av| 熟女人妻精品中文字幕| 国产久久久一区二区三区| 大又大粗又爽又黄少妇毛片口| av专区在线播放| 三级经典国产精品| 成年版毛片免费区| 高清在线视频一区二区三区| 国产又色又爽无遮挡免| 成人高潮视频无遮挡免费网站| 成人免费观看视频高清| 男女啪啪激烈高潮av片| 亚洲精品乱码久久久久久按摩| 在线天堂最新版资源| 成人午夜精彩视频在线观看| 成人国产av品久久久| 全区人妻精品视频| 国产高清不卡午夜福利| 久久女婷五月综合色啪小说 | 亚洲av.av天堂| 国产精品一及| 亚洲av福利一区| 国产视频首页在线观看| 少妇的逼好多水| 日本猛色少妇xxxxx猛交久久| 噜噜噜噜噜久久久久久91| 国产高清国产精品国产三级 | 国产高清国产精品国产三级 | 欧美一区二区亚洲| 91久久精品国产一区二区三区| 免费大片18禁| 六月丁香七月| 日韩免费高清中文字幕av| 中文乱码字字幕精品一区二区三区| 亚洲成人久久爱视频| 最近的中文字幕免费完整| 99热6这里只有精品| 亚洲欧美一区二区三区国产| 日韩 亚洲 欧美在线| 韩国av在线不卡| 性色av一级| 亚洲av不卡在线观看| 欧美3d第一页| 熟妇人妻不卡中文字幕| 国产在线一区二区三区精| av黄色大香蕉| 老师上课跳d突然被开到最大视频| 蜜桃久久精品国产亚洲av| 久久久久久久大尺度免费视频| 热re99久久精品国产66热6| 中文字幕亚洲精品专区| 久久精品国产鲁丝片午夜精品| tube8黄色片| 精品久久久噜噜| 久久久精品免费免费高清| 欧美97在线视频| 91狼人影院| 亚洲色图av天堂| 在线看a的网站| 大话2 男鬼变身卡| 天天躁夜夜躁狠狠久久av| 91久久精品电影网| 男人狂女人下面高潮的视频| av线在线观看网站| 99久久精品一区二区三区| 久久久久久久久久成人| 少妇高潮的动态图| 我的老师免费观看完整版| 欧美亚洲 丝袜 人妻 在线| 哪个播放器可以免费观看大片| 亚洲欧美成人综合另类久久久| 精品午夜福利在线看| 嫩草影院精品99| 一二三四中文在线观看免费高清| 一本久久精品| 日本欧美国产在线视频| 五月天丁香电影| 国产精品久久久久久久久免| 如何舔出高潮| 国产精品久久久久久久久免| 亚洲天堂国产精品一区在线| av在线老鸭窝| 联通29元200g的流量卡| 国产在线男女| 内射极品少妇av片p| 乱系列少妇在线播放| 好男人视频免费观看在线| 亚洲欧美中文字幕日韩二区| 极品教师在线视频| 欧美 日韩 精品 国产| 青春草国产在线视频| 51国产日韩欧美| 国内精品宾馆在线| 18禁裸乳无遮挡免费网站照片| 在线 av 中文字幕| 国模一区二区三区四区视频| 国精品久久久久久国模美| 精品少妇久久久久久888优播| 91在线精品国自产拍蜜月| 色吧在线观看| 中文欧美无线码| 欧美bdsm另类| 精品久久久久久久久亚洲| 国产精品国产三级专区第一集| 久久久久精品久久久久真实原创| 少妇的逼好多水| 日本wwww免费看| 精品久久久久久久久亚洲| 亚洲伊人久久精品综合| 精品少妇久久久久久888优播| 久久久久久国产a免费观看| 日韩中字成人| 中文精品一卡2卡3卡4更新| 亚洲精品亚洲一区二区| 看免费成人av毛片| 高清视频免费观看一区二区| 黄色配什么色好看| 你懂的网址亚洲精品在线观看| 高清午夜精品一区二区三区| 亚洲成人中文字幕在线播放| 欧美国产精品一级二级三级 | 国产午夜精品久久久久久一区二区三区| 在线天堂最新版资源| 纵有疾风起免费观看全集完整版| 五月伊人婷婷丁香| 亚洲精品色激情综合| 久久99热这里只频精品6学生| 国产亚洲精品久久久com| 欧美丝袜亚洲另类| av在线老鸭窝| 国产白丝娇喘喷水9色精品| 极品少妇高潮喷水抽搐| 大香蕉97超碰在线| 国产精品熟女久久久久浪| 18禁裸乳无遮挡免费网站照片| 最近最新中文字幕免费大全7| 国产永久视频网站| 亚洲精品自拍成人| 一区二区av电影网| 一级毛片电影观看| 日韩成人av中文字幕在线观看| av在线播放精品| 国语对白做爰xxxⅹ性视频网站| 性色av一级| 黄色欧美视频在线观看| 久久久久久久久久成人| 91久久精品电影网| 久久久久久久久大av| 激情 狠狠 欧美| 一二三四中文在线观看免费高清| 国产黄色视频一区二区在线观看| 亚洲不卡免费看| 国产淫语在线视频| 最近中文字幕2019免费版| 午夜福利在线在线| 亚洲精品乱久久久久久| 青春草亚洲视频在线观看| 亚洲人与动物交配视频| 亚洲人成网站高清观看| 国产探花极品一区二区| 神马国产精品三级电影在线观看| 日韩大片免费观看网站| 国产av国产精品国产| 日韩不卡一区二区三区视频在线| 亚洲怡红院男人天堂| 黄色怎么调成土黄色| videossex国产| 久久精品国产鲁丝片午夜精品| 欧美激情久久久久久爽电影| 亚洲自拍偷在线| av一本久久久久| 久久国内精品自在自线图片| 极品教师在线视频| kizo精华| 国产永久视频网站| 中文精品一卡2卡3卡4更新| 好男人视频免费观看在线| 国产精品蜜桃在线观看| 91精品一卡2卡3卡4卡| 亚洲av日韩在线播放| 99热国产这里只有精品6| 深爱激情五月婷婷| 久久久久精品性色| 联通29元200g的流量卡| 网址你懂的国产日韩在线| av免费观看日本| av在线天堂中文字幕| 精品一区二区三区视频在线| 国产成人a区在线观看| 成人亚洲精品一区在线观看 | 国产大屁股一区二区在线视频| 三级经典国产精品| av国产免费在线观看| 成人漫画全彩无遮挡| 日韩一区二区三区影片| 国产综合懂色| 乱系列少妇在线播放| 久久久精品免费免费高清| 国产精品福利在线免费观看| 日本av手机在线免费观看| 国产91av在线免费观看| 成人亚洲欧美一区二区av| eeuss影院久久| 天天一区二区日本电影三级| 三级男女做爰猛烈吃奶摸视频| 亚洲精品日韩av片在线观看| 中国国产av一级| 久久精品国产亚洲网站| 日韩电影二区| 国内精品美女久久久久久| 亚洲国产精品专区欧美| 嫩草影院入口| 亚洲不卡免费看| 成年版毛片免费区| 日本色播在线视频| 精品少妇久久久久久888优播| 国产v大片淫在线免费观看| 内射极品少妇av片p| 久久精品国产自在天天线| 一个人观看的视频www高清免费观看| 一级av片app| 91狼人影院| 亚洲精品日韩av片在线观看| 午夜亚洲福利在线播放| 久热久热在线精品观看| 搞女人的毛片| 精品久久久久久久久亚洲| 亚洲色图综合在线观看| 狠狠精品人妻久久久久久综合| 三级男女做爰猛烈吃奶摸视频| 各种免费的搞黄视频| 丝袜脚勾引网站| 国产精品国产av在线观看| 亚洲精品亚洲一区二区| 在线观看国产h片| 干丝袜人妻中文字幕| 九草在线视频观看| 国产精品av视频在线免费观看| 91久久精品国产一区二区成人| 秋霞在线观看毛片| 亚洲丝袜综合中文字幕| 大话2 男鬼变身卡| 亚洲国产欧美在线一区| 亚洲国产色片| 久久亚洲国产成人精品v| 街头女战士在线观看网站| 69人妻影院| 18禁动态无遮挡网站| 在线a可以看的网站| 2018国产大陆天天弄谢| 丝袜脚勾引网站| 亚洲无线观看免费| 91aial.com中文字幕在线观看| 18禁在线播放成人免费| 极品教师在线视频| 国产精品一区二区三区四区免费观看| 最新中文字幕久久久久| 午夜福利视频精品| 在线观看人妻少妇| 国内少妇人妻偷人精品xxx网站| 国产黄a三级三级三级人| 亚洲成人久久爱视频| 日日摸夜夜添夜夜添av毛片| 国产黄色免费在线视频| 久久99热这里只频精品6学生| 99久久人妻综合| 国产高潮美女av| 日韩av免费高清视频| 国产成人aa在线观看| 人妻 亚洲 视频| 一区二区三区精品91| 久久6这里有精品| 18禁动态无遮挡网站| 国产高清不卡午夜福利| 国产成人精品婷婷| 日韩 亚洲 欧美在线| 国产伦在线观看视频一区| 久久精品国产自在天天线| 美女内射精品一级片tv| 中文在线观看免费www的网站| 两个人的视频大全免费| 欧美国产精品一级二级三级 | 国产免费一级a男人的天堂| 亚洲自偷自拍三级| 搡老乐熟女国产| 欧美3d第一页| 欧美日本视频| 91久久精品电影网| av国产免费在线观看| 亚洲va在线va天堂va国产| 亚洲精品第二区| 色5月婷婷丁香| 精品国产三级普通话版| 能在线免费看毛片的网站| 亚洲av成人精品一区久久| 成人毛片60女人毛片免费| 国产亚洲午夜精品一区二区久久 | 亚洲精品aⅴ在线观看| 国产精品三级大全| 啦啦啦啦在线视频资源| www.av在线官网国产| 国产精品久久久久久精品电影| 午夜爱爱视频在线播放| 国产精品99久久久久久久久| 国产精品秋霞免费鲁丝片| 久久午夜福利片| 夜夜爽夜夜爽视频| 久久精品人妻少妇| 天美传媒精品一区二区| 熟妇人妻不卡中文字幕| 精品国产一区二区三区久久久樱花 | 婷婷色综合www| 黄色欧美视频在线观看| 久久精品人妻少妇| 亚洲av一区综合| 国产爽快片一区二区三区| 国产精品久久久久久久电影| 成人特级av手机在线观看| 欧美丝袜亚洲另类| 国产一区二区三区综合在线观看 | 久久精品国产亚洲av涩爱| 亚洲美女视频黄频| 丝袜脚勾引网站| 日本熟妇午夜| 免费电影在线观看免费观看| 狂野欧美激情性bbbbbb| 一个人看的www免费观看视频| 一级毛片电影观看| 国产欧美日韩一区二区三区在线 | 亚洲怡红院男人天堂| 久久国内精品自在自线图片| 可以在线观看毛片的网站| 一区二区三区精品91| 亚洲高清免费不卡视频| 人妻 亚洲 视频| 又大又黄又爽视频免费| 麻豆成人午夜福利视频| 色综合色国产| 中国三级夫妇交换| 国产精品99久久99久久久不卡 | 香蕉精品网在线| 欧美日韩综合久久久久久| 一边亲一边摸免费视频| 麻豆乱淫一区二区| 人人妻人人澡人人爽人人夜夜| 日本猛色少妇xxxxx猛交久久| 成年av动漫网址| 亚洲欧美精品自产自拍| 青青草视频在线视频观看| 高清在线视频一区二区三区| 两个人的视频大全免费| 色视频在线一区二区三区| 最近最新中文字幕大全电影3| av播播在线观看一区| 亚洲最大成人手机在线| 亚洲精品一二三| 美女主播在线视频| 国语对白做爰xxxⅹ性视频网站| 另类亚洲欧美激情| 亚洲欧洲国产日韩| 下体分泌物呈黄色| 99久久九九国产精品国产免费| 麻豆国产97在线/欧美| 国产久久久一区二区三区| 神马国产精品三级电影在线观看| 性色avwww在线观看| 欧美+日韩+精品| 欧美精品国产亚洲| 欧美3d第一页| 亚洲精品aⅴ在线观看| 97超视频在线观看视频| 国产淫片久久久久久久久| 高清视频免费观看一区二区| 高清日韩中文字幕在线| 久久精品国产亚洲网站| 亚洲成人av在线免费| 听说在线观看完整版免费高清| 亚洲图色成人| 91午夜精品亚洲一区二区三区| 亚洲精品久久午夜乱码| 久久久a久久爽久久v久久| 亚洲真实伦在线观看| 男插女下体视频免费在线播放| 免费av观看视频| 一级毛片 在线播放| 啦啦啦啦在线视频资源| 欧美日韩一区二区视频在线观看视频在线 | 欧美bdsm另类| 水蜜桃什么品种好| 白带黄色成豆腐渣| 亚洲国产欧美人成| 直男gayav资源| 亚洲精品,欧美精品| 春色校园在线视频观看| 久久精品国产亚洲av涩爱| 国产一区二区亚洲精品在线观看| 亚洲成人一二三区av| 我的老师免费观看完整版| 欧美成人一区二区免费高清观看| 久久亚洲国产成人精品v| 五月玫瑰六月丁香| 18禁动态无遮挡网站| 日产精品乱码卡一卡2卡三| 午夜老司机福利剧场| 免费看光身美女| 精品久久久久久久久av| 亚洲美女搞黄在线观看| 亚洲av国产av综合av卡| 99久久精品国产国产毛片| 搞女人的毛片| 日本猛色少妇xxxxx猛交久久| 午夜精品国产一区二区电影 | 久久精品综合一区二区三区| 高清在线视频一区二区三区| 亚洲精品,欧美精品| 婷婷色综合www| 国产一区二区三区综合在线观看 | 男女无遮挡免费网站观看| 99久久精品热视频| 又爽又黄无遮挡网站| 2021天堂中文幕一二区在线观| 午夜爱爱视频在线播放| 国产午夜精品一二区理论片| 久久久久久伊人网av| 亚洲国产成人一精品久久久| 日产精品乱码卡一卡2卡三| 简卡轻食公司| 国产午夜福利久久久久久| 毛片一级片免费看久久久久| 特级一级黄色大片| 国产亚洲最大av| 欧美一级a爱片免费观看看| 久久久久久伊人网av| 高清毛片免费看| 亚洲av成人精品一二三区| 欧美日韩亚洲高清精品| 日韩成人av中文字幕在线观看| 久久久久九九精品影院| 黄色配什么色好看| 噜噜噜噜噜久久久久久91| 精品视频人人做人人爽| 各种免费的搞黄视频| 伊人久久国产一区二区| 深夜a级毛片| 亚洲精品第二区| 男的添女的下面高潮视频| 国产亚洲精品久久久com| 岛国毛片在线播放| 嫩草影院精品99| 国产在线男女| 大片电影免费在线观看免费| 亚洲图色成人| 亚洲成人中文字幕在线播放| 一级黄片播放器| 国产av码专区亚洲av| 精品久久久久久久末码| 久久鲁丝午夜福利片| 久久久久久久精品精品| 尾随美女入室| a级毛片免费高清观看在线播放| 97在线人人人人妻| av免费观看日本| 国产v大片淫在线免费观看| av播播在线观看一区| 国产精品国产三级国产专区5o| 亚洲av日韩在线播放| 99久国产av精品国产电影| 日本免费在线观看一区| 国语对白做爰xxxⅹ性视频网站| 波野结衣二区三区在线| 国产精品女同一区二区软件| 久久久精品免费免费高清| 一级毛片 在线播放| 久久精品国产a三级三级三级| 99热国产这里只有精品6| 蜜桃久久精品国产亚洲av| 久久精品国产自在天天线| 蜜桃亚洲精品一区二区三区| 国产真实伦视频高清在线观看| 在线免费观看不下载黄p国产| 午夜福利高清视频| 国产精品嫩草影院av在线观看| 全区人妻精品视频| 国产免费一区二区三区四区乱码| 亚洲国产日韩一区二区| 超碰av人人做人人爽久久| 尾随美女入室| 搡老乐熟女国产| 人妻 亚洲 视频| 啦啦啦在线观看免费高清www| 亚洲人成网站高清观看| 日本色播在线视频| 国产精品蜜桃在线观看| 国产一区二区在线观看日韩| 中文字幕制服av| 九九久久精品国产亚洲av麻豆| 99久久人妻综合| 亚洲伊人久久精品综合| 亚洲天堂国产精品一区在线| 亚洲一级一片aⅴ在线观看| 99热这里只有是精品50| 日本猛色少妇xxxxx猛交久久| 久久这里有精品视频免费| 丰满乱子伦码专区| 免费av观看视频| 国产精品女同一区二区软件| 十八禁网站网址无遮挡 | 波野结衣二区三区在线| 亚洲婷婷狠狠爱综合网| av福利片在线观看| 欧美日韩国产mv在线观看视频 | 色5月婷婷丁香| 亚洲av电影在线观看一区二区三区 | 插逼视频在线观看| 成人无遮挡网站| 亚洲成人av在线免费| 毛片女人毛片| 在线看a的网站| 下体分泌物呈黄色| 亚洲精品视频女| 国产精品一二三区在线看| 哪个播放器可以免费观看大片| 91精品国产九色| 欧美日韩在线观看h| 如何舔出高潮| 少妇被粗大猛烈的视频| 欧美成人午夜免费资源| 精品久久久久久电影网| 高清在线视频一区二区三区| 99久久中文字幕三级久久日本| 国产乱人偷精品视频| 免费av毛片视频| tube8黄色片| 精品午夜福利在线看| 青春草视频在线免费观看| 国产av不卡久久| 波多野结衣巨乳人妻| 听说在线观看完整版免费高清| 欧美人与善性xxx| 女人十人毛片免费观看3o分钟| 亚洲av二区三区四区| 国产在视频线精品| 欧美xxⅹ黑人| 黄色视频在线播放观看不卡| 神马国产精品三级电影在线观看| 麻豆精品久久久久久蜜桃| 91aial.com中文字幕在线观看| 欧美极品一区二区三区四区| 亚洲美女视频黄频| 国产 一区 欧美 日韩| 国产男人的电影天堂91| 亚洲av中文字字幕乱码综合| 中国国产av一级| 久久久久国产网址| 欧美成人一区二区免费高清观看| 在线天堂最新版资源| 热99国产精品久久久久久7| 亚洲精品aⅴ在线观看| 免费在线观看成人毛片| 成人黄色视频免费在线看| 高清在线视频一区二区三区| 丰满人妻一区二区三区视频av| 男女无遮挡免费网站观看| 激情 狠狠 欧美| 日韩,欧美,国产一区二区三区| 大片免费播放器 马上看| av.在线天堂| 亚洲欧美一区二区三区国产| 亚洲欧美精品专区久久| 午夜精品国产一区二区电影 | 国产成人a∨麻豆精品| 在线天堂最新版资源| 精品人妻熟女av久视频| 自拍偷自拍亚洲精品老妇| 国产91av在线免费观看| 99久久中文字幕三级久久日本| 国产探花在线观看一区二区| 噜噜噜噜噜久久久久久91| 亚洲欧美日韩东京热| 性色avwww在线观看| 久久久久久九九精品二区国产| a级毛色黄片| 精品久久久久久电影网| 国产色婷婷99| 日韩av免费高清视频| 亚洲天堂国产精品一区在线| 久久久成人免费电影| 美女被艹到高潮喷水动态|