• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    SE-CMT語(yǔ)義信息補(bǔ)充的特征提取模型

    2024-03-28 00:00:00杜睿山周長(zhǎng)坤解紅濤李宏杰

    摘 要:在圖像分類中,有益的語(yǔ)義信息補(bǔ)充可以高效捕捉關(guān)鍵區(qū)域,提高分類性能。為了獲得有益的圖像語(yǔ)義信息,提出了一種SE-CMT(SE-Networks CNN Meet Transformer)模型。該模型依據(jù)簡(jiǎn)單的CNN特征提取理論,輸入圖像通過(guò)SE-CMT Stem重標(biāo)定前面提取到的特征,再通過(guò)SE-CMT Block中的深度卷積層來(lái)增強(qiáng)特征。利用SE-CNN(Squeeze-and-Excitation Networks-CNN)提取低級(jí)特征、加強(qiáng)局部性,并結(jié)合Transformer建立長(zhǎng)程依賴關(guān)系,通過(guò)融合SE-CNN和Transformer結(jié)構(gòu),提高特征提取性能。在ImageNet和CIFAR-10數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明:SE-CMT模型的分類準(zhǔn)確率分別達(dá)到了85.47%和87.16%top-1精度,性能優(yōu)于基線模型CMT和Vision Transformer。因此,本文提出的SE-CMT模型是一種有效的圖像特征提取方法。

    關(guān)鍵詞:圖像分類;權(quán)重矩陣;卷積神經(jīng)網(wǎng)絡(luò);Transformer;通道域

    DOI:10.15938/j.jhust.2024.06.007

    中圖分類號(hào): TP391

    文獻(xiàn)標(biāo)志碼: A

    文章編號(hào): 1007-2683(2024)06-0074-08

    Feature Extraction Model of SE-CMT Semantic Information Supplement

    DU Ruishan1,2, ZHOU Changkun1, XIE Hongtao1, LI Hongjie1

    (1.School of Computer and Information Technology, Northeast Petroleum School, Daqing 163318, China;

    2.Key Laboratory of Oil and Gas Reservoir and Underground Gas Storage Integrity Evaluations,

    Northeast Petroleum University, Daqing 163318, China)

    Abstract:In image classification, beneficial semantic information supplementation can efficiently capture key regions and improve classification performance. To obtain beneficial image semantic information, an SE-CMT (SE-Networks CNN Meet Transformer) model is proposed. The model is based on the simple CNN feature extraction theory, where the input image is rescaled by the SE-CMT Stem to the previously extracted features, and then the features are enhanced by the deep convolutional layer in the SE-CMT Block. The model uses SE-CNN (Squeeze-and-Excitation Networks-CNN) to extract low-level features, enhance localization, and combine with Transformer to establish long-range dependencies to improve feature extraction performance by fusing SE-CNN and Transformer structures. The experimental results on ImageNet and CIFAR-10 datasets show that the classification accuracy of the SE-CMT model reaches 85.47% and 87.16% top-1 accuracy, respectively, and the experiments show that the method outperforms the baseline models CMT and Vision Transformer. Therefore, the proposed SE-CMT model in this study is an effective method for image feature extraction.

    Keywords:image classification; weight matrix; convolutional neural network; transformer; channel domain

    收稿日期: 2023-06-29

    基金項(xiàng)目: 國(guó)家重點(diǎn)研發(fā)計(jì)劃(2022YFE0206800);黑龍江省自然科學(xué)基金(LH2021F004).

    作者簡(jiǎn)介:

    周長(zhǎng)坤(1998—),女,碩士研究生;

    解紅濤(1977—),男,碩士,副教授.

    通信作者:

    杜睿山(1977—),男,博士,副教授,E-mail:durs918@163.com.

    0 引 言

    深度學(xué)習(xí)出現(xiàn)后,卷積神經(jīng)網(wǎng)絡(luò)(CNN)已經(jīng)成為圖像分類、目標(biāo)檢測(cè)和語(yǔ)義分割的主導(dǎo)方法[1]。最近,使用各種注意力機(jī)制的Transformer已經(jīng)成為自然語(yǔ)言處理(NLP)任務(wù)的主流。將Transformer應(yīng)用于視覺(jué)領(lǐng)域包括圖像生成[2]、目標(biāo)檢測(cè)[3] 、視頻問(wèn)答[4],以及語(yǔ)義分割[5]在內(nèi)的多個(gè)任務(wù)中顯示出了出色的結(jié)果[6]。除此之外,已有研究將Transformer與CNN融合應(yīng)用于圖像深度估計(jì)中[7]。

    盡管Transformer在遷移到視覺(jué)任務(wù)時(shí)表現(xiàn)出了出色的能力,但它們的性能仍然遠(yuǎn)遠(yuǎn)低于類似大小的卷積神經(jīng)網(wǎng)絡(luò)。本文認(rèn)為造成這種弱點(diǎn)的原因有3個(gè)。第一,在ViT(visual information transformer)、IPT(image processing transformer)和SETR(segmentation transformer with recurrence)等其他基于Transformer的模型中將圖像分割成補(bǔ)丁,并且補(bǔ)丁的序列可以直接輸入到標(biāo)準(zhǔn)的Transformer中,在Transformer中可以很好地捕獲補(bǔ)丁之間的長(zhǎng)程依賴關(guān)系。然而,它忽略了基于序列的NLP任務(wù)和基于圖像的視覺(jué)任務(wù)之間結(jié)構(gòu)和空間局部信息的根本區(qū)別。第二,由于固定的patch大小,Transformer很難顯式地提取低分辨率和多尺度特征,這對(duì)檢測(cè)和分割等密集預(yù)測(cè)任務(wù)提出了很大的挑戰(zhàn)。第三,與基于卷積的CNN的O(NC2)相比,Transformer中自注意力模塊的計(jì)算和內(nèi)存成本是輸入分辨率的二次方(O(N2C))。高分辨率圖像非常普遍和常見(jiàn),用Transformer來(lái)處理這樣的圖像,必然會(huì)造成GPU內(nèi)存不足、計(jì)算效率低下的問(wèn)題。

    本文站在SE-CNN和Transformer的交叉點(diǎn)上,提出了一種新的視覺(jué)識(shí)別SE-CMT架構(gòu)。SE-CMT利用SE-CNN的優(yōu)勢(shì)來(lái)彌補(bǔ)單獨(dú)使用Transformer時(shí)的限制。

    輸入的圖像首先經(jīng)過(guò)卷積進(jìn)行細(xì)粒度特征提取然后將其輸入到SE-CMT塊中進(jìn)行表示學(xué)習(xí)。具體來(lái)說(shuō),引入的SE-CMT塊是Transformer塊的改進(jìn)變體,其局部信息通過(guò)注意力深度卷積得到增強(qiáng)。與ViT相比,SE-CMT第一階段生成的特征可以保持更高的分辨率,即(H/4)×(W/4)相對(duì)于ViT中的(H/16)×(W/16),這對(duì)于其他密集預(yù)測(cè)任務(wù)至關(guān)重要。此外,本文采用類似CNN的分階段架構(gòu)設(shè)計(jì),通過(guò)使用4個(gè)步幅為2的卷積層,逐步降低分辨率(序列長(zhǎng)度)并靈活增加維度。分階段設(shè)計(jì)有助于提取多尺度特征,減輕高分辨率造成的計(jì)算負(fù)擔(dān)。SE-CMT中的局部感知單元(LPU)和倒殘差前饋網(wǎng)絡(luò)(IRFFN)有助于同時(shí)捕捉中間特征內(nèi)部的局部和全局結(jié)構(gòu)信息提升網(wǎng)絡(luò)的表示能力,SE注意力機(jī)制有助于突出每個(gè)特征通道的重要性,使神經(jīng)網(wǎng)絡(luò)重點(diǎn)關(guān)注某些權(quán)重值大的通道。最后,使用平均池化來(lái)替換ViT中的類token,以獲得更好的分類結(jié)果。除此之外,本文還利用CMT中使用的縮放策略來(lái)獲得一個(gè)SE-CMT變體族。在CIFAR-10和ImageNet數(shù)據(jù)集上的廣泛實(shí)驗(yàn)證明SE-CMT的準(zhǔn)確性和計(jì)算復(fù)雜度方面的優(yōu)越性。

    1 相關(guān)工作

    CNN在計(jì)算機(jī)視覺(jué)的各種應(yīng)用中已經(jīng)成為主流。它具有深度神經(jīng)網(wǎng)絡(luò)的形式,其中卷積層以串行或并行的方式堆疊。雖然CNN顯示出了出色的結(jié)果,但由于卷積核的尺寸有限,難以提取全局特征。除此之外,通過(guò)CNN提取特征并沒(méi)有被賦予重要性權(quán)值,這會(huì)使后續(xù)的工作量加大。與CNN相比,基于自注意力和交叉注意力的Transformer[8]在提取全局特征方面表現(xiàn)出優(yōu)勢(shì)。

    1.1 卷積神經(jīng)網(wǎng)絡(luò)

    第一個(gè)標(biāo)準(zhǔn)的CNN是由LeCun等提出的,用于手寫數(shù)字字體的識(shí)別,在過(guò)去幾十年見(jiàn)證了許多強(qiáng)大的CNN網(wǎng)絡(luò)在大規(guī)模圖像分類任務(wù)上取得了前所未有的成功,AlexNet和VGG表明,由卷積層和池化層組成的深度神經(jīng)網(wǎng)絡(luò)可以在識(shí)別中獲得足夠的結(jié)果,GoogleNet和InceptionNet展示了一個(gè)基本塊內(nèi)多條路徑的有效性。一些研究將注意力機(jī)制作為一種操作來(lái)使用模態(tài),提出了在深度殘差網(wǎng)絡(luò)的中間階段之間順序堆疊注意力模塊,SENet和GENet通過(guò)對(duì)通道之間的相互依賴關(guān)系建模,自適應(yīng)地重新校準(zhǔn)通道特征響應(yīng)。NLNet將自注意力機(jī)制整合到神經(jīng)網(wǎng)絡(luò)中,提供所有空間位置的成對(duì)交互以增強(qiáng)遠(yuǎn)程依賴關(guān)系。除了上述架構(gòu)上的進(jìn)步之外,還有一些工作專注于通過(guò)以準(zhǔn)確性換取效率來(lái)改進(jìn)過(guò)度參數(shù)化的神經(jīng)網(wǎng)絡(luò),例如MobileNet和Efficient-Net[9]都利用神經(jīng)網(wǎng)絡(luò)搜索NAS來(lái)設(shè)計(jì)高性能的移動(dòng)設(shè)備網(wǎng)絡(luò),并取得了先進(jìn)的成果。

    1.2 Transformer

    Transformer在自然語(yǔ)言處理(NLP)[10]方面取得顯著成就之后,許多研究致力于將類Transformer結(jié)構(gòu)引入到各種視覺(jué)任務(wù)并且也有很多研究在特征點(diǎn)配準(zhǔn)率、匹配準(zhǔn)確率和運(yùn)行速度上都有所提升[11]。ViT的開創(chuàng)性工作提出了一種方法,把圖像塊考慮為單詞標(biāo)記。ViT使用了一個(gè)大型私有數(shù)據(jù)集JFT-300M來(lái)訓(xùn)練模型。DeiT提出了一種算法,使用ImageNet-1K以數(shù)據(jù)高效的方式訓(xùn)練ViT。在T2T-ViT中,通過(guò)將相鄰的token遞歸聚合為一個(gè)token來(lái)嵌入視覺(jué)token。TNT(transformer in transformer)[12]使用內(nèi)部和外部的Transformer塊來(lái)表示圖像的塊級(jí)和像素級(jí)特征。

    ViT作為一種基于Transformer架構(gòu)的模型,展現(xiàn)出了獨(dú)特的優(yōu)勢(shì)[13]。然而,為了更好地適應(yīng)密集的像素級(jí)預(yù)測(cè)任務(wù),PVT對(duì)ViT進(jìn)行了改進(jìn)。PVT創(chuàng)新性地引入了金字塔結(jié)構(gòu),通過(guò)這種結(jié)構(gòu),模型能夠有效利用多尺度特征圖,為密集的像素級(jí)預(yù)測(cè)任務(wù)提供了更加豐富和全面的特征表達(dá),顯著提升了模型在這類任務(wù)中的性能表現(xiàn)。在CPVT(cross-attention pyramid vision transformer)和CVT(convolutional vision transformer)中,提出了一種使用卷積投影將CNN和Transformer集成到Transformer塊中的算法。CMT[14]通過(guò)研究shortcut函數(shù)和歸一化函數(shù)等,進(jìn)一步擴(kuò)展了CNN和Transformer的集成。

    CNN和Transformer的集成專注于模型設(shè)計(jì),本文獨(dú)立地對(duì)待它們,以有效地融合它們。

    2 SE-CMT的總體架構(gòu)設(shè)計(jì)

    本文利用SE-CNN和Transformer的優(yōu)勢(shì)提出了一種混合網(wǎng)絡(luò)。圖1為SE-CMT實(shí)現(xiàn)圖像分類的總體框架。本文利用步幅為2的3×3卷積和32的輸出通道的Stem架構(gòu)來(lái)減少輸入圖像的大小,然后再使用兩個(gè)步幅為1的3×3卷積來(lái)更好地進(jìn)行局部信息提取。遵循ResNet的設(shè)計(jì),本文提出的模型有4個(gè)階段來(lái)生成不同尺度的特征圖,這些特征圖對(duì)密集預(yù)測(cè)任務(wù)很重要。為了產(chǎn)生分層表示,在每個(gè)階段之前應(yīng)用由卷積層和歸一化(LN)組成的塊嵌入層,以減少中間特征的大小(分辨率的2倍下采樣),并將其投影到更大的維度(維度的2倍放大)。在每個(gè)階段,幾個(gè)SE-CMT塊依次堆疊以進(jìn)行特征轉(zhuǎn)換,同時(shí)保持輸入的相同分辨率。例如,SE-CMT-S的“第三階段”包含16個(gè)CMT塊,如圖1所示。SE-CMT塊能夠捕獲局部和長(zhǎng)程依賴關(guān)系。該模型以一個(gè)全局平均池化層、一個(gè)映射層和一個(gè)帶有softmax的1000路分類層結(jié)束。

    給定一個(gè)輸入圖像,本文可以獲得4個(gè)不同分辨率的分層特征圖,類似于典型的CNN,如ResNet和Efficient-Net。通過(guò)上述,相對(duì)于輸入步長(zhǎng)為4、8、16和32的特征圖,本文的SE-CMT可以獲得輸入圖像的多尺度表示,并可以應(yīng)用于圖像分類等下游任務(wù)。

    本文提出的SE-CMT由SE-CMT Stem和SE-CMT Block組成,SE-CMT Stem是在傳統(tǒng)的CNN模型中加入SE注意力機(jī)制。而SE-CMT Block是由輕量級(jí)多頭自注意力(LMHSA)模塊和反向殘差前饋網(wǎng)絡(luò)(IRFFN)組成,如圖3所示。下面本文將對(duì)以上提到的兩個(gè)部分進(jìn)行描述。

    2.1 SE-CMT Stem

    給定一個(gè)輸入x,其特征通道數(shù)為C1,通過(guò)一系列卷積等一般變換后得到一個(gè)特征通道數(shù)為C2的特征。與傳統(tǒng)的CNN不同的是,通過(guò)3個(gè)操作來(lái)重標(biāo)定前面得到的特征,如圖2所示。首先是Squeeze操作,順著空間維度來(lái)進(jìn)行特征壓縮,將每個(gè)二維的特征通道變成一個(gè)實(shí)數(shù),這個(gè)實(shí)數(shù)某種程度上具有全局的感受野,并且輸出的維度和輸入的特征通道數(shù)相匹配。它表征著在特征通道上響應(yīng)的全局分布,而且使得靠近輸入的層也可以獲得全局的感受野,這一點(diǎn)在很多任務(wù)中都是非常有用的。其次是 Excitation操作,它是一個(gè)類似于循環(huán)神經(jīng)網(wǎng)絡(luò)中門的機(jī)制。通過(guò)參數(shù)w來(lái)為每個(gè)特征通道生成權(quán)重,其中參數(shù)w被學(xué)習(xí)用來(lái)顯式地建模特征通道間的相關(guān)性。最后是一個(gè)Reweight操作,將Excitation 的輸出權(quán)重看作是通過(guò)特征選擇后的每個(gè)特征通道的重要性,然后通過(guò)乘法逐通道加權(quán)到先前的特征上,完成在通道維度上對(duì)原始特征的重標(biāo)定。

    2.2 SE-CMT Block

    SE-CMT Block模塊是由一個(gè)輕量級(jí)多頭自注意力(LMHSA)模塊和一個(gè)反向殘差前饋網(wǎng)絡(luò)(IRFFN)組成,如圖3所示。

    2.2.1 輕量級(jí)多頭自注意力(LMHSA)

    本文還包括了激活層和最后一層之后的批量歸一化層,其中激活層被省略。深度卷積可以提取局部信息,插入的shortcut的目的類似經(jīng)典的殘差網(wǎng)絡(luò),主要來(lái)提高梯度跨層傳播能力。實(shí)驗(yàn)結(jié)果表明,shortcut有助于網(wǎng)絡(luò)取得更好的結(jié)果。結(jié)合上述3個(gè)組成部分,SE-CMT Block模塊可表示為

    Yi=fLPU(Xi-1)(6)

    Zi=fLMHSA(LN(Yi))+Yi(7)

    Xi=fIRFFN(LN(Zi))+Zi(8)

    其中:Yi、Zi分別表示第i個(gè)塊的局部感知單元(LPU)和LMHSA模塊的輸出特征;LN表示層歸一化,在每個(gè)階段堆疊幾個(gè)SE-CMT Block用于特征轉(zhuǎn)換和聚合。

    2.3計(jì)算復(fù)雜度分析

    在本節(jié)中,主要分析了標(biāo)準(zhǔn)的視覺(jué)Transformer模型和本文提出的SE-CMT模型之間的計(jì)算成本。一個(gè)標(biāo)準(zhǔn)的Transformer塊由一個(gè)多頭自注意力模塊(MHSA)和一個(gè)前饋神經(jīng)網(wǎng)絡(luò)組成(FFN)組成。給定大小為n×d的輸入特征,計(jì)算復(fù)雜度(FLOPs)的計(jì)算公式為

    O(MHSA)=2nd(dk+dv)+n2(dk+dv)(9)

    O(FFN)=2nd2r(10)

    式中:r表示FFN的擴(kuò)展率;dk、dv分別表示key和value的維度,ViT設(shè)置d=dk=dv,r=4可以簡(jiǎn)化為

    O(Transformer)=O(MHSA)+O(FFN)=12nd2+2n2d(11)

    在上述設(shè)置下,SE-CMT Block的FLOPs如下:

    O(LPU)=9nd(12)

    O(LMHSA)=2nd2(1+1/k2)+2n2d/k2(13)

    O(IRFFN)=8nd2+36nd(14)

    O(SE-CMTblock)=O(LPU)+O(LMHSA)+O(IRFFN)=

    10nd2(1+0.2/k2)+2n2d/k2+45nd(15)

    其中k≥1為L(zhǎng)MHSA中的還原比。與標(biāo)準(zhǔn)Transformer塊相比,SE-CMT Block計(jì)算成本相對(duì)較低,更容易處理更高分辨率(更大n)下的特征圖。

    2.4 縮放策略

    受CMT模型的啟發(fā),提出了一種適用于基于Transformer的網(wǎng)絡(luò)的復(fù)合縮放策略,該策略使用一個(gè)復(fù)合系數(shù)φ以一種有原則的方式均勻縮放層數(shù)(深度)、維度和輸入分辨率:

    αβ1.5γ2≈2.5,α≥1,β≥1,γ≥1(16)

    其中α、β、γ是由網(wǎng)格搜索確定的常數(shù),用于決定如何將資源分配給網(wǎng)絡(luò)的深度、維度和輸入分辨率;φ為一個(gè)控制模型擴(kuò)展可用資源數(shù)量的系數(shù)。根據(jù)式(16),所提出的SE-CMT塊的浮點(diǎn)運(yùn)算數(shù)(FLOPs)大約與α,β1.5和γ2成比例。因此,限制αβ1.5γ2≈2.5,總的FLOPs近似增加2.5φ。這將在計(jì)算成本增加和性能提高之間取得平衡。在實(shí)驗(yàn)中,本文經(jīng)驗(yàn)性地設(shè)置α=1.2,β=1.3,γ=1.15。

    構(gòu)建的SE-CMT-S與DeiT-S(ViT-S)和EfficientNet-B4具有相似的模型大小和計(jì)算復(fù)雜度,根據(jù)提出的縮放策略還引入了SE-CMT-TI、SE-CMT-XS、SE-CMT-B 3種架構(gòu),所有4種模型的輸入分辨率為1602、1622、2242、2562。詳細(xì)架構(gòu)如表1所示。其中:Hi表示階段i的LMHSA中頭的個(gè)數(shù);Ki為階段i的LMHSA的還原率,C表示每個(gè)Stage的輸出通道數(shù),Ri表示不同特征提取模塊中MLP輸出通道維度的擴(kuò)展倍數(shù)。

    3 實(shí)驗(yàn)

    3.1 數(shù)據(jù)集介紹

    本文用CIFAR10數(shù)據(jù)集和ImageNet數(shù)據(jù)集來(lái)評(píng)估提出的方法。CIFAR10數(shù)據(jù)集共有60 000個(gè)樣本,每個(gè)樣本都是一張32×32像素的RGB圖像(彩色圖像),每個(gè)RGB圖像又必定分為3個(gè)通道。

    ImageNet是一個(gè)廣泛使用的大規(guī)模圖像數(shù)據(jù)集,包含超過(guò)1500萬(wàn)個(gè)帶標(biāo)注的高分辨率圖像,涵蓋了超過(guò)2萬(wàn)個(gè)不同的類別。其中涉及的類別比較廣泛,一些類別具有挑戰(zhàn)性,需要對(duì)物體的特殊外形、紋理、顏色等進(jìn)行識(shí)別和分類。

    3.2 模型性能比較

    3.2.1 在ImageNet數(shù)據(jù)集上模型性能比較

    本文將SE-CMT-S的模型性能在ImageNet數(shù)據(jù)集上與先進(jìn)的模型進(jìn)行對(duì)比,如表2所示。相比其他的神經(jīng)網(wǎng)絡(luò)模型,本文提出的模型以更少的參數(shù)和FLOPs實(shí)現(xiàn)更好的精度。相比基線模型CMT-S提高1.97%,表明SE-CMT-S在捕獲局部和全局特征上的優(yōu)勢(shì);相比Efficient Net-37模型準(zhǔn)確率提高3.87%,計(jì)算成本相對(duì)更低,這證明了本文所提出的混合結(jié)構(gòu)的有效性,并顯示出進(jìn)一步改進(jìn)的強(qiáng)大潛力。

    3.2.2 在CIFAR10數(shù)據(jù)集上模型性能比較

    在CIFAR10 數(shù)據(jù)集上與先進(jìn)的分類模型進(jìn)行對(duì)比,主要是CNN模型、Transformer模型和CNN與Transformer相結(jié)合的模型。通過(guò)圖6可以清晰直觀地看出SE-CMT-S相較于這些網(wǎng)絡(luò)在參數(shù)量及 FLOPs 性能指標(biāo)上都有明顯的優(yōu)勢(shì)。

    在模型規(guī)模較小的情況下, 相比于其他的神經(jīng)網(wǎng)絡(luò)模型,本文提出的模型以更少的參數(shù)和計(jì)算復(fù)雜度在訓(xùn)練集和驗(yàn)證集上達(dá)到更高的準(zhǔn)確率和更低的Loss值。SE-CMT-S在訓(xùn)練集上實(shí)現(xiàn)了87.16%的top-1精度,實(shí)現(xiàn)了99.33%的top-5精度,如圖7所示。比基線模型CMT-S的top-1精度高3.65%,比DeiT-S的top-1精度高7.35%,實(shí)驗(yàn)表明本文所提出的SE-CMT-S模型的有效性。根據(jù)實(shí)驗(yàn)結(jié)果可以看出,SE-CMT-S模型始終優(yōu)于其他模型。本文提出的SE-CMT模型中的SE-CMT Stem模型默認(rèn)使用的是C-S-C-C結(jié)構(gòu)。

    3.3消融實(shí)驗(yàn)

    3.3.1 SE注意力機(jī)制

    本文研究了CNN、Transformer和SE注意力機(jī)制組合的單個(gè)計(jì)算單元對(duì)注意力機(jī)制的重要性。在CIFAR10數(shù)據(jù)集上,本文對(duì)有SE注意力機(jī)制和沒(méi)有SE注意力機(jī)制的兩個(gè)SE-CMT-TI模型進(jìn)行實(shí)驗(yàn),并比較它們的準(zhǔn)確率。從實(shí)驗(yàn)表3中可以看出,有SENet注意力機(jī)制的模型表現(xiàn)出更好的泛化能力和更高的準(zhǔn)確率,這表明SE注意力機(jī)制在視覺(jué)處理任務(wù)中具有重要作用。

    3.3.2 SE注意力機(jī)制的數(shù)量

    本文在SE-CMT Stem中采用了3個(gè)卷積核,針對(duì)SE注意力機(jī)制數(shù)量進(jìn)行了消融實(shí)驗(yàn),如表4所示。主要有兩種情況:C-S-C-C和C-S-C-S-C。通過(guò)在CIFAR10數(shù)據(jù)集上的預(yù)訓(xùn)練實(shí)驗(yàn)可以發(fā)現(xiàn),C-S-C-C這種SE-CMT Stem相對(duì)于基準(zhǔn)模型表現(xiàn)更加優(yōu)異,其top-1準(zhǔn)確率達(dá)到了87.16%。此外實(shí)驗(yàn)還表明,增加SENet注意力機(jī)制的數(shù)量并不能進(jìn)一步提高準(zhǔn)確率。因此,可得出結(jié)論:在SE-CMT Stem中采用3個(gè)卷積核和一定數(shù)量的SENet注意力機(jī)制能夠有效地提高模型的性能。

    4 結(jié) 論

    本文提出了一種新的網(wǎng)絡(luò)結(jié)構(gòu)SE-CMT,它可以用于圖像分類和其他計(jì)算機(jī)視覺(jué)任務(wù),以彌補(bǔ)長(zhǎng)期使用卷積神經(jīng)網(wǎng)絡(luò)和Transformer所帶來(lái)的局限性和弊端。SE-CMT的架構(gòu)利用SE-CNN和Transformer來(lái)捕獲局部和全局信息,使用SE注意力機(jī)制獲得有益的語(yǔ)義信息,進(jìn)一步優(yōu)化特征提取。此外,還采用了一種擴(kuò)展策略,生成了不同資源約束下的SE-CMT變體家族。但SE-CMT模型相對(duì)于一些先進(jìn)模型,計(jì)算復(fù)雜度有一定的增加。該模型在ImageNet和CIFAR10數(shù)據(jù)集上進(jìn)行了廣泛實(shí)驗(yàn),結(jié)果顯示SE-CMT在圖像特征提取研究中具有很好的有效性和優(yōu)越性。

    參 考 文 獻(xiàn):

    [1] MINGXING T, LE Q V E N. Rethinking Model Scaling for Convolutional Neural Networks[J]. ICML,2019,97:6105.

    [2] CARION N, MASSA F,SYNNAEVE G, et al. End-to-end Object Detection with Transformers[C]//Computer Vision-ECCV 2020: 16th European Conference, Glasgow, UK, 2020: 213.

    [3] SANDLER M, HOWARD A, ZHU M, et al.Mobilenetv2: Inverted Residuals and Linear Bottlenecks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Salt Lake City, USA, 2018: 4510.

    [4] 梁麗麗,劉昕雨,孫廣路,等.MSAM:針對(duì)視頻問(wèn)答的多階段注意力模型[J].哈爾濱理工大學(xué)學(xué)報(bào),2022,27(4):107.

    LIANG Lili, LIU Xinyu, SUN Guanglu, et al. MSAM:Video Question Answering Based on Multi-Stage Attention Model[J]. Journal of Harbin University of Science and Technology, 2022,27(4):107.

    [5] ZHENG S, LU J, ZHAO H, et al. Rethinking Semantic Segmentation from a Sequence-to-sequence Perspective with Transformers[C] //Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Nashville, USA, 2021: 3918.

    [6] TOUVRON H, CORD M, DOUZE M, et al. Training Data-efficient Image Transformers amp; Distillation Through Attention[C]//Proceedings of the 34th Conference on Neural Information Processing Systems (NeurIPS), 2021: 10220.

    [7] 張濤,張曉利,任彥.Transformer與CNN融合的單目圖像深度估計(jì)[J].哈爾濱理工大學(xué)學(xué)報(bào),2022,27(6):88.

    ZHANG Tao, ZHANG Xiaoli, REN Yan, et al. Monocular lmage Depth Estimation Based on the Fusion of Transformer and CNN[J]. Journal of Harbin University of Science and Technology, 2022,27(6):88.

    [8] KEONG H C, JIN W K, YAO W, et al.Improved Image Classification with Token Fusion[J]. Journal of Computer Science and Technology,2021,36(3):511.

    [9] HOWARD A G, ZHU M, CHEN B, et al.Mobilenets: Efficient Convolutional Neural Networks for Mobile Vision Applications[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, USA, 2017: 1382.

    [10]VASWANI A,SHAZEER N, PARMAR N, et al. Attention is All You Need[C]//Advances in Neural Information Processing Systems. Long Beach, USA, 2017: 5998.

    [11]劉明珠,陳瑞,陳俊羽,等.B-Spline-ORB特征點(diǎn)提取算法[J].哈爾濱理工大學(xué)學(xué)報(bào),2022,27(3):97.

    LIU Mingzhu, CHEN Rui, CHEN Junyu, et al. B-Spline-ORB Feature Point Extraction Algorithm[J]. Journal of Harbin University of Science and Technology,2022,27(3):97.

    [12]HAN K, XIAO A, WU E, et al. Transformer in Transformer[J]. Advances in Neural Information Processing Systems, 2021, 34: 15908.

    [13]李翔,張濤,張哲,等.Transformer在計(jì)算機(jī)視覺(jué)領(lǐng)域的研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(1):1.

    LI Xiang, ZHANG Tao, ZHANG Zhe, et al.Survey of Transformer Research in Computer Vision[J]. Computer Engineering and Applications,2023,59(1):1.

    [14]GUO J, HAN K, WU H, et al. Cmt: Convolutional Neural Networks Meet Vision Transformers[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022: 12175.

    [15]HUGO Touvron, MATTHIEU Cord, MATTHIJS Douze, et al. Training Data-efficient Image Transformers amp; Distillation Through Attention[C]//Proceedings of the 34th Conference on Neural Information Processing Systems (NeurIPS), 2021: 10220.

    [16]WANG Wenhai, XIE Enze, LI Xiang, et al. Pyra-mid Vision Transformer: A Versatile Backbone for Dense Prediction Without Convolutions[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Nashville, USA, 2021: 2299.

    [17]LIU Ze, LIN Yutong, CAO Yue, et al. Swin Transformer: Hierarchical Vision Transformer Using Shifted Windows[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Nashville, USA, 2021: 10215.

    [18]TAN Mingxing, LE Quoc. Efficientnet: Rethinking Model Scaling for Convolutional Neural Networks[C]//Proceedings of the 36th International Conference on Machine Learning (ICML), Long Beach, USA, 2019: 6105.

    [19]DAI Z, LIU H, LE Q V, et al.Coatnet: Marrying Convolution and Attention for All Data Sizes[J].Advances in Neural Information Processing Systems,2021,34:3965.

    [20]GUO J, HAN K, WU H, et al.Cmt: Convolutional Neural Networks Meet Vision Transformers[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Nashville, USA, 2021: 12960.

    (編輯:溫澤宇)

    亚洲乱码一区二区免费版| 麻豆国产av国片精品| 国产精品九九99| 国产精品av久久久久免费| 国产成人福利小说| 欧美一区二区国产精品久久精品| 变态另类丝袜制服| 偷拍熟女少妇极品色| 啪啪无遮挡十八禁网站| 制服丝袜大香蕉在线| 国产精品 国内视频| 国产精华一区二区三区| 亚洲欧美日韩高清专用| 最近在线观看免费完整版| 麻豆av在线久日| 性色avwww在线观看| 国产精品久久视频播放| 最近最新中文字幕大全免费视频| 麻豆国产97在线/欧美| 欧美日韩黄片免| 精品一区二区三区av网在线观看| 国产在线精品亚洲第一网站| 国产又黄又爽又无遮挡在线| 九色国产91popny在线| 国内精品久久久久精免费| 观看免费一级毛片| 真人做人爱边吃奶动态| 一本综合久久免费| 欧美激情久久久久久爽电影| 麻豆成人av在线观看| 婷婷精品国产亚洲av| 日本成人三级电影网站| 天天躁狠狠躁夜夜躁狠狠躁| 日韩欧美一区二区三区在线观看| 亚洲无线在线观看| 亚洲欧洲精品一区二区精品久久久| 18美女黄网站色大片免费观看| 91av网站免费观看| 亚洲中文字幕日韩| 18禁观看日本| 18禁黄网站禁片免费观看直播| av国产免费在线观看| 中文字幕人妻丝袜一区二区| 少妇裸体淫交视频免费看高清| 桃红色精品国产亚洲av| 桃色一区二区三区在线观看| 欧美黄色淫秽网站| 性色avwww在线观看| 欧美精品啪啪一区二区三区| 欧美乱码精品一区二区三区| 国产午夜精品论理片| 中文字幕av在线有码专区| 精品一区二区三区av网在线观看| 国产高清三级在线| 高潮久久久久久久久久久不卡| 看免费av毛片| 国产欧美日韩精品一区二区| 日韩欧美在线乱码| 国产av麻豆久久久久久久| 看免费av毛片| 怎么达到女性高潮| 天堂影院成人在线观看| 国产精品久久电影中文字幕| 蜜桃久久精品国产亚洲av| 亚洲人成伊人成综合网2020| a在线观看视频网站| 黄片大片在线免费观看| 免费观看的影片在线观看| 精品国产超薄肉色丝袜足j| 久久伊人香网站| 精品99又大又爽又粗少妇毛片 | 国产一区二区三区在线臀色熟女| 欧美一区二区国产精品久久精品| 成人特级av手机在线观看| 69av精品久久久久久| 两性夫妻黄色片| 精品久久蜜臀av无| 国产人伦9x9x在线观看| 最新美女视频免费是黄的| 真实男女啪啪啪动态图| 一级毛片精品| 亚洲无线观看免费| 日本熟妇午夜| 成年版毛片免费区| 一级黄色大片毛片| 黄色 视频免费看| 12—13女人毛片做爰片一| 精品国产超薄肉色丝袜足j| 亚洲 国产 在线| 五月伊人婷婷丁香| 婷婷六月久久综合丁香| 国产高清视频在线观看网站| 久久婷婷人人爽人人干人人爱| www.999成人在线观看| 久久久久久久久久黄片| 国产精品日韩av在线免费观看| 淫秽高清视频在线观看| 狠狠狠狠99中文字幕| 十八禁人妻一区二区| 精品欧美国产一区二区三| 精品无人区乱码1区二区| 99久久综合精品五月天人人| 亚洲天堂国产精品一区在线| 人妻丰满熟妇av一区二区三区| 亚洲av片天天在线观看| 久久精品亚洲精品国产色婷小说| 免费无遮挡裸体视频| 中文字幕最新亚洲高清| 精品国产乱子伦一区二区三区| 99久久精品一区二区三区| 亚洲色图av天堂| 国产精品久久久久久久电影 | 国产 一区 欧美 日韩| 99久久成人亚洲精品观看| 窝窝影院91人妻| 日本熟妇午夜| 999精品在线视频| 午夜影院日韩av| 国产精品久久久人人做人人爽| 亚洲熟妇中文字幕五十中出| 听说在线观看完整版免费高清| 成人午夜高清在线视频| 青草久久国产| 老司机午夜十八禁免费视频| 精品99又大又爽又粗少妇毛片 | www日本在线高清视频| av天堂中文字幕网| 午夜视频精品福利| 美女免费视频网站| 他把我摸到了高潮在线观看| 精华霜和精华液先用哪个| 久久婷婷人人爽人人干人人爱| 国产精品日韩av在线免费观看| 亚洲av熟女| 国产欧美日韩一区二区精品| www.精华液| 一级毛片高清免费大全| 国产免费男女视频| 国产一级毛片七仙女欲春2| 欧美日本亚洲视频在线播放| 1024香蕉在线观看| 久久中文字幕一级| 国产亚洲精品久久久com| 久久草成人影院| 99热精品在线国产| 国产伦一二天堂av在线观看| 中文亚洲av片在线观看爽| 国产精品久久久久久亚洲av鲁大| 久久精品国产亚洲av香蕉五月| 亚洲精品国产精品久久久不卡| 亚洲性夜色夜夜综合| 久久性视频一级片| 国产成人欧美在线观看| 亚洲人成网站高清观看| 在线国产一区二区在线| 久久精品91蜜桃| 亚洲自拍偷在线| 99精品欧美一区二区三区四区| 91在线精品国自产拍蜜月 | 后天国语完整版免费观看| 欧美一级毛片孕妇| 精品国内亚洲2022精品成人| 老熟妇乱子伦视频在线观看| 男人舔奶头视频| 九九久久精品国产亚洲av麻豆 | 18禁黄网站禁片午夜丰满| 精品日产1卡2卡| 国产欧美日韩精品一区二区| 久久久久国产精品人妻aⅴ院| 亚洲av成人不卡在线观看播放网| 午夜a级毛片| 五月玫瑰六月丁香| 亚洲欧美日韩卡通动漫| 欧美日韩福利视频一区二区| 日本在线视频免费播放| 久久精品国产综合久久久| 国产精品久久久久久久电影 | 神马国产精品三级电影在线观看| 国产蜜桃级精品一区二区三区| 女生性感内裤真人,穿戴方法视频| 一个人观看的视频www高清免费观看 | 日韩欧美精品v在线| 丰满人妻一区二区三区视频av | 亚洲中文字幕一区二区三区有码在线看 | 在线免费观看的www视频| 国产精品精品国产色婷婷| 在线观看午夜福利视频| 欧美3d第一页| 成人一区二区视频在线观看| 免费在线观看日本一区| 国产亚洲精品av在线| 三级国产精品欧美在线观看 | 中文字幕精品亚洲无线码一区| 久久久精品大字幕| 黑人巨大精品欧美一区二区mp4| 午夜影院日韩av| 亚洲av成人av| 91久久精品国产一区二区成人 | 99在线人妻在线中文字幕| 男女床上黄色一级片免费看| 99精品欧美一区二区三区四区| 黄片小视频在线播放| 免费搜索国产男女视频| 亚洲欧美激情综合另类| 美女被艹到高潮喷水动态| 亚洲自偷自拍图片 自拍| 午夜福利高清视频| 久久精品国产清高在天天线| 夜夜爽天天搞| xxxwww97欧美| 天堂av国产一区二区熟女人妻| 99国产精品99久久久久| 精品不卡国产一区二区三区| 巨乳人妻的诱惑在线观看| 久久中文字幕人妻熟女| av女优亚洲男人天堂 | 精品国产三级普通话版| 91av网站免费观看| 午夜激情福利司机影院| 国内精品久久久久精免费| 免费在线观看影片大全网站| 1024香蕉在线观看| 99久久无色码亚洲精品果冻| 欧美极品一区二区三区四区| 国产精品亚洲美女久久久| 97碰自拍视频| 国产精品日韩av在线免费观看| 又大又爽又粗| 女人被狂操c到高潮| 亚洲av片天天在线观看| 亚洲 国产 在线| 国产一区二区激情短视频| 毛片女人毛片| 精品99又大又爽又粗少妇毛片 | 欧美中文日本在线观看视频| 欧美zozozo另类| 亚洲成人免费电影在线观看| 女同久久另类99精品国产91| 午夜两性在线视频| 国产激情欧美一区二区| 精品午夜福利视频在线观看一区| 毛片女人毛片| 19禁男女啪啪无遮挡网站| 国产免费男女视频| 国产成人av教育| 亚洲性夜色夜夜综合| 亚洲真实伦在线观看| 亚洲av成人一区二区三| www.www免费av| 熟女人妻精品中文字幕| 亚洲av成人精品一区久久| 夜夜看夜夜爽夜夜摸| 久久精品国产清高在天天线| 国模一区二区三区四区视频 | 午夜福利18| 亚洲av电影在线进入| x7x7x7水蜜桃| 亚洲无线观看免费| 亚洲精品一区av在线观看| 国产av不卡久久| 九九热线精品视视频播放| 男女之事视频高清在线观看| a级毛片在线看网站| 免费在线观看成人毛片| 国产精品一区二区免费欧美| 亚洲欧美日韩东京热| www.自偷自拍.com| 欧美黑人欧美精品刺激| 麻豆av在线久日| 成熟少妇高潮喷水视频| 9191精品国产免费久久| 一进一出抽搐gif免费好疼| 亚洲av免费在线观看| 亚洲五月天丁香| 欧美日韩亚洲国产一区二区在线观看| 波多野结衣巨乳人妻| 日韩成人在线观看一区二区三区| 好男人在线观看高清免费视频| 亚洲最大成人中文| 日韩欧美 国产精品| 欧美黑人巨大hd| 黑人操中国人逼视频| 丰满人妻一区二区三区视频av | 精品久久久久久成人av| 久久欧美精品欧美久久欧美| 午夜精品在线福利| 久久香蕉精品热| 51午夜福利影视在线观看| 日日摸夜夜添夜夜添小说| 在线永久观看黄色视频| 法律面前人人平等表现在哪些方面| 此物有八面人人有两片| 午夜精品久久久久久毛片777| 老司机在亚洲福利影院| 搡老妇女老女人老熟妇| 在线观看舔阴道视频| 五月玫瑰六月丁香| 国产aⅴ精品一区二区三区波| 亚洲国产精品sss在线观看| 一进一出抽搐动态| 悠悠久久av| 国模一区二区三区四区视频 | 男人和女人高潮做爰伦理| 国产精品一区二区精品视频观看| 51午夜福利影视在线观看| 人人妻人人看人人澡| 岛国视频午夜一区免费看| 亚洲第一欧美日韩一区二区三区| 欧美日本亚洲视频在线播放| 国产成人一区二区三区免费视频网站| 每晚都被弄得嗷嗷叫到高潮| 好男人在线观看高清免费视频| 又紧又爽又黄一区二区| 一个人观看的视频www高清免费观看 | 亚洲中文日韩欧美视频| 亚洲国产欧美人成| 免费在线观看日本一区| 色吧在线观看| 日本三级黄在线观看| 精品久久久久久,| 国产成人av教育| 黄色 视频免费看| 丝袜人妻中文字幕| 黄色成人免费大全| 嫩草影院入口| 三级男女做爰猛烈吃奶摸视频| 性色av乱码一区二区三区2| 看片在线看免费视频| 日韩欧美三级三区| 制服人妻中文乱码| 久久天堂一区二区三区四区| 99久久成人亚洲精品观看| 97人妻精品一区二区三区麻豆| 在线免费观看不下载黄p国产 | 亚洲精品456在线播放app | 色综合欧美亚洲国产小说| 久久欧美精品欧美久久欧美| 免费在线观看亚洲国产| 免费看a级黄色片| 熟女人妻精品中文字幕| 亚洲 国产 在线| 精品熟女少妇八av免费久了| 午夜福利高清视频| 成人av在线播放网站| 国产99白浆流出| 高清毛片免费观看视频网站| 一级黄色大片毛片| 久久精品91无色码中文字幕| 黄色日韩在线| 18禁裸乳无遮挡免费网站照片| 欧美不卡视频在线免费观看| 亚洲av熟女| 熟妇人妻久久中文字幕3abv| 制服丝袜大香蕉在线| 色综合婷婷激情| 成人特级av手机在线观看| 看免费av毛片| АⅤ资源中文在线天堂| 可以在线观看毛片的网站| 亚洲,欧美精品.| www.熟女人妻精品国产| 日韩欧美一区二区三区在线观看| 国内久久婷婷六月综合欲色啪| 啦啦啦免费观看视频1| 国产v大片淫在线免费观看| 亚洲精品一区av在线观看| 女警被强在线播放| 午夜福利在线观看免费完整高清在 | 日韩欧美一区二区三区在线观看| 天堂动漫精品| 18美女黄网站色大片免费观看| 男女之事视频高清在线观看| 亚洲欧美日韩高清专用| 好男人在线观看高清免费视频| 日本撒尿小便嘘嘘汇集6| 狂野欧美激情性xxxx| 给我免费播放毛片高清在线观看| 色视频www国产| 欧美不卡视频在线免费观看| 久久久国产精品麻豆| 91老司机精品| 人人妻人人澡欧美一区二区| 欧美xxxx黑人xx丫x性爽| 搡老熟女国产l中国老女人| 日韩 欧美 亚洲 中文字幕| 母亲3免费完整高清在线观看| 男女那种视频在线观看| 999久久久国产精品视频| 成在线人永久免费视频| 首页视频小说图片口味搜索| 不卡av一区二区三区| 国产成年人精品一区二区| 国内精品久久久久久久电影| 久久久久久久久免费视频了| 麻豆成人av在线观看| 听说在线观看完整版免费高清| 久久久色成人| 久久久久久久久中文| 在线永久观看黄色视频| 少妇的丰满在线观看| 一区二区三区高清视频在线| 亚洲国产欧美一区二区综合| 特级一级黄色大片| 国产黄a三级三级三级人| www.熟女人妻精品国产| 国产成人系列免费观看| 三级毛片av免费| 日韩中文字幕欧美一区二区| cao死你这个sao货| netflix在线观看网站| 99精品欧美一区二区三区四区| 精品久久久久久成人av| 无遮挡黄片免费观看| 又大又爽又粗| 国产精品野战在线观看| 日韩 欧美 亚洲 中文字幕| 两性夫妻黄色片| 国产aⅴ精品一区二区三区波| 亚洲精华国产精华精| 人妻丰满熟妇av一区二区三区| 十八禁网站免费在线| 脱女人内裤的视频| 久久久久久大精品| 国产精品99久久久久久久久| 亚洲九九香蕉| h日本视频在线播放| 成人无遮挡网站| 欧美日韩瑟瑟在线播放| 在线观看美女被高潮喷水网站 | 国产伦精品一区二区三区四那| ponron亚洲| 日本免费a在线| 国产精品电影一区二区三区| 国内揄拍国产精品人妻在线| 国产精品亚洲av一区麻豆| 国产精品综合久久久久久久免费| 禁无遮挡网站| 小说图片视频综合网站| 欧美在线一区亚洲| 亚洲av成人一区二区三| 国产亚洲欧美在线一区二区| 亚洲第一电影网av| 一级a爱片免费观看的视频| 亚洲成a人片在线一区二区| 日本免费一区二区三区高清不卡| 欧美成狂野欧美在线观看| 久久香蕉精品热| 老鸭窝网址在线观看| 亚洲中文日韩欧美视频| 欧美黑人欧美精品刺激| 精品日产1卡2卡| 日韩欧美国产一区二区入口| 午夜精品在线福利| 亚洲熟女毛片儿| 最近最新免费中文字幕在线| 亚洲专区字幕在线| 俄罗斯特黄特色一大片| 真人做人爱边吃奶动态| 十八禁网站免费在线| 制服人妻中文乱码| 热99在线观看视频| 特大巨黑吊av在线直播| 免费看a级黄色片| 黄色片一级片一级黄色片| 老汉色∧v一级毛片| 男人的好看免费观看在线视频| h日本视频在线播放| 亚洲欧美日韩卡通动漫| 免费在线观看视频国产中文字幕亚洲| 黄色视频,在线免费观看| 午夜日韩欧美国产| 女生性感内裤真人,穿戴方法视频| 国产av一区在线观看免费| 欧美又色又爽又黄视频| 少妇裸体淫交视频免费看高清| 91九色精品人成在线观看| 精品国产乱码久久久久久男人| 韩国av一区二区三区四区| 国产一区二区三区在线臀色熟女| 美女被艹到高潮喷水动态| 久久亚洲精品不卡| 欧美日韩亚洲国产一区二区在线观看| 久久欧美精品欧美久久欧美| 午夜激情欧美在线| 老熟妇仑乱视频hdxx| 亚洲欧美日韩高清专用| 国产午夜福利久久久久久| 午夜免费激情av| 久久精品91蜜桃| 男人和女人高潮做爰伦理| 精品电影一区二区在线| 午夜免费激情av| 国产99白浆流出| 男人和女人高潮做爰伦理| 国产高清视频在线播放一区| 国产欧美日韩一区二区精品| 全区人妻精品视频| 亚洲精华国产精华精| 国语自产精品视频在线第100页| 老鸭窝网址在线观看| 在线观看免费视频日本深夜| 色播亚洲综合网| 国语自产精品视频在线第100页| 中亚洲国语对白在线视频| 婷婷精品国产亚洲av| av视频在线观看入口| 色综合婷婷激情| 麻豆国产97在线/欧美| 伦理电影免费视频| 91av网一区二区| 老司机午夜十八禁免费视频| 欧美日韩黄片免| 嫁个100分男人电影在线观看| www日本在线高清视频| 国产精品日韩av在线免费观看| 最近最新中文字幕大全电影3| avwww免费| 成人三级做爰电影| 午夜福利在线在线| 国产真实乱freesex| 国产精品亚洲一级av第二区| 高清毛片免费观看视频网站| 中文亚洲av片在线观看爽| 欧美激情在线99| 一个人看视频在线观看www免费 | 天天添夜夜摸| 亚洲一区二区三区不卡视频| 偷拍熟女少妇极品色| 搡老熟女国产l中国老女人| av在线天堂中文字幕| 99国产精品一区二区三区| 一夜夜www| 亚洲午夜精品一区,二区,三区| 欧美黑人巨大hd| 欧美日韩综合久久久久久 | 好男人在线观看高清免费视频| 国产高清视频在线播放一区| 美女 人体艺术 gogo| 亚洲精品在线观看二区| 又爽又黄无遮挡网站| 少妇人妻一区二区三区视频| 亚洲精品456在线播放app | 91在线精品国自产拍蜜月 | 国产一区二区三区视频了| 1024手机看黄色片| h日本视频在线播放| 亚洲国产欧美一区二区综合| 白带黄色成豆腐渣| а√天堂www在线а√下载| 香蕉久久夜色| 露出奶头的视频| 看片在线看免费视频| 亚洲国产欧美人成| 一级毛片精品| 久久精品影院6| 脱女人内裤的视频| 88av欧美| 久久热在线av| 亚洲熟妇熟女久久| 久久久久久久久免费视频了| 香蕉av资源在线| 欧美另类亚洲清纯唯美| 美女大奶头视频| 国产69精品久久久久777片 | a在线观看视频网站| 欧美日韩精品网址| а√天堂www在线а√下载| 熟妇人妻久久中文字幕3abv| 久久久精品欧美日韩精品| 99国产精品99久久久久| 变态另类丝袜制服| 精品国产乱子伦一区二区三区| 男女床上黄色一级片免费看| 日日夜夜操网爽| 噜噜噜噜噜久久久久久91| 国产免费男女视频| 成人无遮挡网站| 国内精品美女久久久久久| 嫁个100分男人电影在线观看| 欧美日韩综合久久久久久 | 国产激情久久老熟女| 久久精品人妻少妇| 久久久国产成人精品二区| 色噜噜av男人的天堂激情| 91老司机精品| 中文字幕熟女人妻在线| 欧美乱色亚洲激情| 色播亚洲综合网| 成人av一区二区三区在线看| 精品无人区乱码1区二区| 无遮挡黄片免费观看| 少妇的丰满在线观看| 日本 av在线| 欧美中文综合在线视频| 国产精品一及| 中文字幕久久专区| 老汉色av国产亚洲站长工具| 国产 一区 欧美 日韩| 久久精品影院6| 中文字幕av在线有码专区| 黄色视频,在线免费观看| 亚洲无线观看免费| 天天添夜夜摸| 波多野结衣巨乳人妻| 天天添夜夜摸| 亚洲av五月六月丁香网| 精品久久久久久久末码| 一级黄色大片毛片| 欧美成狂野欧美在线观看| 18禁观看日本| 欧美色欧美亚洲另类二区| 美女免费视频网站| 国产精品久久电影中文字幕| 日韩欧美三级三区| 国产激情偷乱视频一区二区|