• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類研究進(jìn)展*

    2020-03-03 06:15:50黃呈鋮廖兆琪梁新艷元昌安
    廣西科學(xué) 2020年6期
    關(guān)鍵詞:準(zhǔn)確率卷積神經(jīng)網(wǎng)絡(luò)

    覃 曉,黃呈鋮,施 宇,廖兆琪,梁新艷,元昌安

    (1.南寧師范大學(xué)計(jì)算機(jī)與信息工程學(xué)院,八桂學(xué)者創(chuàng)新團(tuán)隊(duì)實(shí)驗(yàn)室,廣西南寧 530000;2.廣西科學(xué)院,廣西南寧 530007)

    0 引言

    圖像分類是圖像分割、目標(biāo)檢測[1-7]、人臉識別[8-10]、行為識別和姿態(tài)估計(jì)[11-13]等視覺任務(wù)的基礎(chǔ)任務(wù)。近年來,深度學(xué)習(xí)模型已被證明是具有卓越分類能力的機(jī)器學(xué)習(xí)算法。深度學(xué)習(xí)強(qiáng)調(diào)模型結(jié)構(gòu)的深度和特征學(xué)習(xí)的重要性,采用有監(jiān)督或無監(jiān)督的方式對圖像從底層到高級的語義特征進(jìn)行學(xué)習(xí)。典型的深度學(xué)習(xí)模型有深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)[14]、受限玻爾茲曼機(jī)(Restricted Boltzmann Machine,RBM)[15]、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[16,17]等。卷積神經(jīng)網(wǎng)絡(luò)已被證明是解決各種視覺任務(wù)的有效模型[18-21]。

    卷積神經(jīng)網(wǎng)絡(luò)是受到動物視覺神經(jīng)系統(tǒng)啟發(fā)被提出的。加拿大科學(xué)家David H.Hubel[22]和瑞典科學(xué)家Torsten N.Wiesel[23]從1958年開始對貓視覺皮層進(jìn)行研究,他們在V1皮層里發(fā)現(xiàn)兩種細(xì)胞,簡單細(xì)胞(Simple Cells)和復(fù)雜細(xì)胞(Complex Cells),這兩種細(xì)胞的共同特點(diǎn)就是每個細(xì)胞只對特定方向的條形圖樣刺激有反應(yīng),兩者的主要區(qū)別是簡單細(xì)胞對應(yīng)視網(wǎng)膜上的光感受細(xì)胞所在的區(qū)域很小,而復(fù)雜細(xì)胞則對應(yīng)更大的區(qū)域,這個區(qū)域被稱作感受野(Receptive Field)。早在1980年,日本的Kunihiko Fukushima[24]提出的Neocognitron模型,即為模擬這種作用的結(jié)構(gòu)。隨后LeCun等[25]基于Fukushima的研究工作,使用誤差梯度回傳策略設(shè)計(jì)和訓(xùn)練CNN(被稱為LeNet-5),這就是現(xiàn)今計(jì)算機(jī)視覺領(lǐng)域第一個卷積神經(jīng)網(wǎng)絡(luò)。

    基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類方法,可以從海量且有噪聲的圖像中學(xué)習(xí)到目標(biāo)的高層特征,且這種特征對于目標(biāo)某種程度的形變有很好的魯棒性。卷積神經(jīng)網(wǎng)絡(luò)是一種帶有卷積結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò),其將原始圖像輸入網(wǎng)絡(luò),經(jīng)過數(shù)據(jù)預(yù)處理后,網(wǎng)絡(luò)各節(jié)點(diǎn)傳遞圖像數(shù)據(jù)并經(jīng)過逐層的權(quán)重迭代更新和計(jì)算,最終輸出類別標(biāo)簽上的概率分布,圖像的特征由卷積神經(jīng)網(wǎng)絡(luò)自動學(xué)習(xí),不需要手動設(shè)計(jì)。此外,卷積神經(jīng)網(wǎng)絡(luò)卷積層中的網(wǎng)絡(luò)稀疏連接和卷積核權(quán)值共享兩大特性,有利于神經(jīng)網(wǎng)絡(luò)的快速學(xué)習(xí)并避免過度擬合[26],使得網(wǎng)絡(luò)結(jié)構(gòu)變得簡單,適應(yīng)性更強(qiáng),泛化能力提高[27]。

    CIFAR-10[28]、CIFAR-100[28],特別是ImageNet數(shù)據(jù)集[29]是目前深度學(xué)習(xí)圖像領(lǐng)域應(yīng)用最廣泛的數(shù)據(jù)集。2012年舉辦的圖像分類競賽(ImageNet Large Scale Visual Recognition Challenge)中,由Alex Krizhevsky等[30]實(shí)現(xiàn)的深層CNN結(jié)構(gòu)系統(tǒng)獲得冠軍,當(dāng)時取得了最佳分類效果,也是在此后,更多的更深更寬的神經(jīng)網(wǎng)絡(luò)被提出,如VGGNet[31]、GoogleNet[32]、ResNet[33]、DenseNet[34]等。近幾年來,有研究者開始對神經(jīng)網(wǎng)絡(luò)的特征圖通道、空間、卷積核等方面進(jìn)行結(jié)構(gòu)上的改進(jìn),提出SE block[35]、SK block[36]等注意力機(jī)制,它們可以直接放入現(xiàn)有的神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練。也有研究者使用現(xiàn)有的網(wǎng)絡(luò),如ResNet用作基線網(wǎng)絡(luò)進(jìn)行模型改進(jìn)研究,如Res2Net[37]、ResNeSt[38],提出的這些模型在廣泛使用的圖像分類ImageNet數(shù)據(jù)集上,均得到優(yōu)于基線網(wǎng)絡(luò)的準(zhǔn)確率,網(wǎng)絡(luò)性能得到一致的提升。下面本文將對上述卷積神經(jīng)網(wǎng)絡(luò)的研究過程進(jìn)行詳細(xì)介紹。

    1 卷積神經(jīng)網(wǎng)絡(luò)經(jīng)典模型

    1.1 VGGNet網(wǎng)絡(luò)

    VGGNet是由Simonyan等[31]提出的非常經(jīng)典的CNN模型,在2014年的ImageNet挑戰(zhàn)賽中以92.3%的準(zhǔn)確率獲得亞軍。VGGNet整體結(jié)構(gòu)十分簡潔,主體采用多個3×3的小卷積核,每個卷積后都伴有非線性激活函數(shù)。3個3×3的卷積可等價于1個5×5卷積,但小卷積核替代大卷積核,卻能增加網(wǎng)絡(luò)的非線性表達(dá)能力,因而VGGNet在圖像復(fù)雜特征表達(dá)上具有天然的優(yōu)勢。每隔2個或者3個3×3的卷積層就連接一個2×2的最大池化層,將卷積層和最大池化層進(jìn)行反復(fù)堆疊即構(gòu)成VGGNet網(wǎng)絡(luò)主體。部分結(jié)構(gòu)采用1×1的卷積核,后伴有激活函數(shù),在不影響輸入輸出維度的情況下,增加模型的非線性。如果卷積層和全連接層堆疊的層數(shù)總共為16層,那么就稱這個網(wǎng)絡(luò)為VGG16。研究表明,當(dāng)VGG模型的層數(shù)過深時,會因?yàn)閰?shù)的誤差變大導(dǎo)致網(wǎng)絡(luò)的退化,因此一般VGG的模型多數(shù)為16—19效果最佳。因?yàn)榻Y(jié)構(gòu)簡單和性能穩(wěn)定的優(yōu)勢,現(xiàn)在VGGNet仍在圖像處理領(lǐng)域被廣泛研究和應(yīng)用。圖1展示了VGGNet的網(wǎng)絡(luò)架構(gòu)。

    圖1 VGGNet的網(wǎng)絡(luò)架構(gòu)

    從VGGNet提出到現(xiàn)在,仍然有許多研究者將其使用到自然應(yīng)用場景中。孫新立[39]通過構(gòu)建VGG16模型,以顏色和紋理作為煤和矸石圖像的類別特征,結(jié)合遷移學(xué)習(xí)方法,解決了目前人工撿矸法、機(jī)械濕選法操作過程中無法解決的效率問題,其識別準(zhǔn)確率達(dá)到99.18%,能夠有效地識別出煤和矸石。田佳鷺等[40]提出改進(jìn)的VGG16模型來對猴子圖像數(shù)據(jù)進(jìn)行分類,模型的優(yōu)化包括利用Swish作為激活函數(shù),將softmax loss與center loss相結(jié)合作為損失函數(shù)以實(shí)現(xiàn)更好的聚類效果,采用性能完善的Adam優(yōu)化器;同時用訓(xùn)練集訓(xùn)練模型以確定微調(diào)參數(shù)信息,再用測試集檢驗(yàn)?zāi)P蜏?zhǔn)確性;該方法對猴子圖像分類的準(zhǔn)確度可達(dá)到98.875%,分類速度也得到顯著提升。

    1.2 Inception網(wǎng)絡(luò)

    Szegedy等[32]提出的Inception-v1模型使用22層Inception網(wǎng)絡(luò)結(jié)構(gòu)模塊,Inception-v1模型與以往的卷積神經(jīng)網(wǎng)絡(luò)模型相比,其特點(diǎn)在于最后一層使用全局平均池化層代替全連接層,降低空間參數(shù),讓模型更加健壯,抗過擬合效果更佳。該模型在ILSVRC 2015 比賽分類任務(wù)上以93.3%的正確率獲得該屆比賽的冠軍。Inception模塊的主要思路是使用一個密集成分來近似或者代替最優(yōu)的局部稀疏結(jié)構(gòu),使其能夠降低網(wǎng)絡(luò)復(fù)雜度,達(dá)到提高神經(jīng)網(wǎng)絡(luò)的計(jì)算資源利用率,提升其分類準(zhǔn)確率并且減少過擬合的情況。經(jīng)典的Inception模塊如圖2所示。

    圖2 經(jīng)典的Inception模塊

    模塊中包含幾種不同大小的卷積:1×1卷積、3×3卷積、5×5卷積以及一個3×3的池化層,讓網(wǎng)絡(luò)增加了對不同尺寸度的適應(yīng)性,這些卷積層和池化層會把它們得到的特征組融合到一起,輸入給下一層Inception模塊。

    一般而言,提升網(wǎng)絡(luò)性能最直接的方法是增加網(wǎng)絡(luò)的深度和寬度。其中,網(wǎng)絡(luò)的深度指的是網(wǎng)絡(luò)的層數(shù),寬度指的是每層的通道數(shù)。當(dāng)深度和寬度不斷增加時,需要學(xué)習(xí)的參數(shù)也不斷增加,巨大的參數(shù)容易發(fā)生過擬合,并且會導(dǎo)致計(jì)算量加大。Incaption-v1模型通過引入稀疏特性,將全連接層轉(zhuǎn)換成稀疏連接的方法解決上述問題。Incaption-v1模型取得成功之后,研究人員在其基礎(chǔ)上進(jìn)行諸多應(yīng)用和改良。在應(yīng)用方面,Shichijo等[41]構(gòu)建了一種能自行診斷幽門螺桿菌感染的Inception-v1模型,經(jīng)過測試,模型的準(zhǔn)確性為87.7%,診斷時間194 s;Zhuo等[42]提出一種使用卷積神經(jīng)網(wǎng)絡(luò)的車輛分類新方法,先對Inception-v1模型進(jìn)行ILSVRC-2012數(shù)據(jù)集預(yù)訓(xùn)練,分類中汽車共分為公共汽車、汽車、摩托車、小巴、卡車和貨車6類,經(jīng)過試驗(yàn)平均準(zhǔn)確率為98.26%。在改良方面,針對Inception-v1模型收斂速度太慢的問題,Ioffe等[43]將BN層引入Inception-v1模型,提出Inception-v2模型;Szegedy等[44]為提高網(wǎng)絡(luò)學(xué)習(xí)效率,進(jìn)一步引入卷積因子化的思想,把較大的卷積分解成較小的卷積,通過級聯(lián)的方式來減少參數(shù)量,進(jìn)而提出Inception-v3模型。之后Szegedy等[45]又對Inception-v3模型進(jìn)行優(yōu)化,提出Inception-v4和Inception-ResNet模型。

    1.3 ResNet網(wǎng)絡(luò)和DenseNet網(wǎng)絡(luò)

    理論上,網(wǎng)絡(luò)深度越深,模型的非線性表達(dá)能力越好,分類性能應(yīng)該更好。但研究表明,神經(jīng)網(wǎng)絡(luò)因?yàn)榫W(wǎng)絡(luò)層數(shù)太深,會引發(fā)梯度反向傳播中的連乘效應(yīng),從而導(dǎo)致梯度爆炸[46]、梯度消失[47]等問題,研究人員通過在網(wǎng)絡(luò)中加入BN[48]、Dropout[49]的方式,解決上述問題。He等[33]創(chuàng)新性提出的ResNet網(wǎng)絡(luò),從改變網(wǎng)絡(luò)結(jié)構(gòu)的角度解決深層網(wǎng)絡(luò)梯度消失問題,在訓(xùn)練集和驗(yàn)證集上,都證明越深的ResNet網(wǎng)絡(luò)模型,其錯誤率越小。

    ResNet使用的殘差學(xué)習(xí)單元如圖3所示,整個殘差學(xué)習(xí)單元除了正常的權(quán)重層輸出外,還有一個分支把輸入直接相連到輸出上,該輸出和權(quán)重層輸出做相加運(yùn)算得到最終的輸出。若輸入x學(xué)習(xí),最終得到的輸出為H(x),F(xiàn)(x)是權(quán)重層的輸出,則整個殘差學(xué)習(xí)過程中可以表達(dá)為H(x)=F(x)+x。如果權(quán)重層沒有學(xué)習(xí)到特征,即F(x)為0,則H(x)為一個恒等映射(Identity Mapping)。多個殘差學(xué)習(xí)單元產(chǎn)生多個旁路的支線將輸入信息繞道傳到輸出,保護(hù)信息的完整性,確保最終的錯誤率不會因?yàn)樯疃鹊淖兇蠖絹碓讲睢?/p>

    圖3 殘差學(xué)習(xí)單元

    殘差學(xué)習(xí)單元使用恒等映射,把當(dāng)前輸出直接傳輸給下一層網(wǎng)絡(luò),相當(dāng)于一個捷徑連接(Shortcut Connection),也稱為跳躍連接(Skip Connection),同時在后向傳播過程中,將下一層網(wǎng)絡(luò)的梯度直接傳遞給上一層網(wǎng)絡(luò),這樣就解決了深層網(wǎng)絡(luò)的梯度消失問題。捷徑連接并不會產(chǎn)生額外的計(jì)算量。ResNet的殘差學(xué)習(xí)單元解決了深度網(wǎng)絡(luò)的退化問題,可以訓(xùn)練出更深的網(wǎng)絡(luò),是深度網(wǎng)絡(luò)的一個歷史性突破。

    在模型表征方面,雖然ResNet不能更好地表征圖像某一方面的特征,但是其允許逐層深入地表征更多模型,利用網(wǎng)絡(luò)深度去理解圖像更多有意義的語義特征。ResNet的設(shè)計(jì)使得前向傳播和反向傳播算法可以順利進(jìn)行,因此,在極大程度上,ResNet使得優(yōu)化較深層模型更為簡單。此外,ResNet的捷徑連接既不產(chǎn)生額外的參數(shù),也不會增加計(jì)算的復(fù)雜度。捷徑連接通過簡單的執(zhí)行函數(shù)映射,并將它們的輸出添加到疊加層的輸出,再通過反向傳播。所以,整個ResNet網(wǎng)絡(luò)可以被看作是一種端到端的訓(xùn)練模式。

    與ResNet的原理一致,DenseNet[34]也是建立層與層之間的連接來達(dá)到特征重用的目的,不同的是DenseNet層與層之間的連接具有密集連接特性,進(jìn)一步增強(qiáng)了特征重用的效果。DensNet的基本架構(gòu)如圖4所示,深度DenseNet具有3個稠密塊(Dense Blocks)。DensNet與ResNet模型的區(qū)別在于,在網(wǎng)絡(luò)中任何兩層之間都會有直接的連接,也可以理解為網(wǎng)絡(luò)每一層的輸入都是前面所有層輸出的集合。從結(jié)構(gòu)上看,感覺是極大地增加了網(wǎng)絡(luò)的參數(shù)和計(jì)算量,但實(shí)際上DenseNet模型比其他網(wǎng)絡(luò)有著更高的效率。由于每一層都包含之前所有層的輸出信息,通過網(wǎng)絡(luò)每層的特征重復(fù)利用,當(dāng)前層只需要較少的特征圖就可以把DenseNet模型的每一層設(shè)計(jì)得特別窄,從而解決網(wǎng)絡(luò)的冗余現(xiàn)象,降低參數(shù)量。在稠密塊中的每一個單元實(shí)際上都是一個瓶頸層(Bottleneck Layer),其中包括一個1×1卷積核和一個3×3卷積核。相鄰塊之間的層稱為過渡層(Transition Layer),具體包括一個BN層、一個1×1卷積和一個池化層,通過卷積和池化來改變特征圖的大小,同樣能降低冗余。一個塊中有N個特征圖,通過一個0—1的參數(shù)來限制輸出的特征圖數(shù)量。

    圖4 DensNet基本架構(gòu)

    DensNet網(wǎng)絡(luò)通過學(xué)習(xí)比較少的特征圖來降低特征學(xué)習(xí)的冗余,鼓勵特征重用,一定程度上緩解了梯度消失問題。因?yàn)椴恍枰匦聦W(xué)習(xí)冗余特征圖,這種密集連接模式相對于傳統(tǒng)的卷積網(wǎng)絡(luò),大大減少了參數(shù)的數(shù)量,在比ResNet網(wǎng)絡(luò)使用參數(shù)更少的情況下,達(dá)到ResNet網(wǎng)絡(luò)的準(zhǔn)確率。

    2 卷積神經(jīng)網(wǎng)絡(luò)改進(jìn)方法

    盡管卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典模型在視覺大賽中表現(xiàn)出色,但若識別的局部區(qū)域大小多樣化且圖像包含較多的噪聲,則不能充分提取目標(biāo)特征的信息,影響網(wǎng)絡(luò)的分類與識別性能。于是人們開始考慮是否能夠通過改進(jìn)特征圖通道、卷積核等來進(jìn)一步提高網(wǎng)絡(luò)提取特征能力。近3年來,通過引入注意力機(jī)制方法改進(jìn)ResNet網(wǎng)絡(luò),從而提高CNN圖像分類算法性能的研究十分廣泛。其中,注意力機(jī)制模塊的作用是使卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程中更加精準(zhǔn)地判斷輸入圖像的哪個部分需要更加關(guān)注,從而從關(guān)鍵部分進(jìn)行特征提取,得到重要信息,提升網(wǎng)絡(luò)性能。而ResNet由于網(wǎng)絡(luò)殘差塊的特殊效果,對ResNet網(wǎng)絡(luò)的改進(jìn)已經(jīng)成為一個專門的、獨(dú)特的卷積神經(jīng)網(wǎng)絡(luò)研究,以下將對用于圖像分類的ResNet網(wǎng)絡(luò)的改進(jìn)方法進(jìn)行介紹。

    2.1 SENet

    卷積核作為卷積神經(jīng)網(wǎng)絡(luò)的核心部件,其本質(zhì)上只建模圖像的空間信息,并沒有建模通道之間的信息。面對現(xiàn)實(shí)中復(fù)雜的圖像,深層網(wǎng)絡(luò)雖然可以獲取圖像更高層的語義信息,但是增加網(wǎng)絡(luò)層數(shù)難免會讓訓(xùn)練過程出現(xiàn)過擬合現(xiàn)象,效果有時甚至比淺層網(wǎng)絡(luò)更差。因此,Hu等[35]提出一種利用通道信息理解圖像語義的注意力機(jī)制模型SENet,即關(guān)注特征在通道之間的關(guān)系,它是ImageNet 2017收官賽的冠軍模型,在很大程度上減小了之前模型的錯誤率,并且復(fù)雜度低,新增參數(shù)量和計(jì)算量都很小,屬于輕量級模型。

    SE塊的構(gòu)成如圖5所示,SENet模塊主要由擠壓(Squeeze)和激勵(Excitation)兩部分組成。在Squeeze部分中,C個大小為H×W的特征圖通過全局平均池化,特征圖H×W×C被壓縮成一維的1×1×C,即相當(dāng)于一維的參數(shù)獲得了H×W大小的全局信息,具有全局的感受野。在Excitation部分中,將Squeeze得到的1×1×C加入全連接層(Fully Connected),通過參數(shù)W為每個特征通道生成權(quán)重,獲取每個通道的重要性,以此來顯示建模通道之間的相關(guān)性。得到不同通道的重要性大小后,通過乘法主通道加權(quán)到先前的特征,實(shí)現(xiàn)在通道上對原始特征的重新校準(zhǔn)。

    圖5 SENet模塊

    其他新網(wǎng)絡(luò)架構(gòu)的提出需要進(jìn)行大量的調(diào)參工作才能達(dá)到理想效果,SENet模塊則可以根據(jù)實(shí)際研究需求,直接嵌入在其他卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)中(圖6),組成SE-Inception、SE-ResNet等網(wǎng)絡(luò)。

    圖6 SE-Inception (左)和SE-ResNet (右)

    注意力機(jī)制的提出并應(yīng)用于CNN模型結(jié)構(gòu)是近年來改進(jìn)CNN結(jié)構(gòu)的一大亮點(diǎn),已經(jīng)有大量研究受到SENet的啟發(fā),進(jìn)行改進(jìn)并應(yīng)用到圖像識別領(lǐng)域,并取得一定進(jìn)展[50,51]。注意力機(jī)制的核心目標(biāo)是從全局眾多復(fù)雜信息中選擇出對當(dāng)前視覺任務(wù)目標(biāo)更重要的信息。在圖像分類中,當(dāng)神經(jīng)網(wǎng)絡(luò)獲取對目標(biāo)任務(wù)更關(guān)鍵的信息,也就相當(dāng)于找到了對分類目標(biāo)更具有判別性的區(qū)域,從而提高網(wǎng)絡(luò)的分類精度。傳統(tǒng)的圖像分類模型只是單純地利用不同大小的卷積核在空間維度和特征維度提取特征,然后將信息進(jìn)行聚合從而獲取全局信息。這種提取特征的過程容易因?yàn)樵肼暤母蓴_不能準(zhǔn)確定位到目標(biāo)任務(wù)的可區(qū)分區(qū)域,反而容易提取到不相關(guān)的識別區(qū)域。SENet能夠從通道的角度,通過全面捕獲通道依賴性,自動獲取每個特征通道的重要程度,然后依照這個重要程度提升有用的特征并抑制對當(dāng)前任務(wù)用處不大的特征,從而提高網(wǎng)絡(luò)識別性能。

    2.2 SKNet

    Li等[36]提出的SKNet是一種動態(tài)選擇機(jī)制,允許每個神經(jīng)元根據(jù)輸入信息的多個尺度自適應(yīng)地調(diào)整其感受野大小。SKNet在計(jì)算上屬于輕量級,參數(shù)量和計(jì)算成本只是輕微增加。SKNet在ImageNet 2012數(shù)據(jù)集上,相比其他常見的模型,如Inception-v4[45]、SENet-101[35]等均有提升,Top-1錯誤率僅為18.40%。

    SENet是針對特征圖的通道注意力機(jī)制的研究,SKNet則是針對卷積核的注意力機(jī)制的研究,著重突出卷積核的重要性。常見的卷積神經(jīng)網(wǎng)絡(luò)中,對于特定任務(wù)的特定模型,卷積核大小是確定的,而在SKNet模型中,卷積核的大小可以是不確定的,其允許網(wǎng)絡(luò)可以根據(jù)輸入信息的多個尺度自適應(yīng)地調(diào)節(jié)接受域大小,其靈感來自于人的雙眼在看不同尺寸、不同遠(yuǎn)近的物體時,視覺皮層神經(jīng)元接受域大小會根據(jù)外界刺激來進(jìn)行調(diào)節(jié)。

    如圖7所示,SKNet由Split、Fuse和Select 3個運(yùn)算符組成。Split運(yùn)算符使用不同大小的卷積核(3×3和5×5)對輸入圖像進(jìn)行卷積,生成具有各種內(nèi)核大小的多個路徑。Fuse運(yùn)算符聚合來自多個路徑的信息,類似于SENet模塊[35]的擠壓-激勵處理,兩個特征圖相加后,進(jìn)行全局平均池化和全連接操作,輸出兩個矩陣a和b,其中矩陣b為冗余矩陣,b=1-a。Select運(yùn)算符實(shí)際上對應(yīng)于SENet模塊中的Scale運(yùn)算,將兩個權(quán)重矩陣a和b與對應(yīng)經(jīng)過Split運(yùn)算得到的兩個特征圖進(jìn)行加權(quán)操作。圖7僅展現(xiàn)了雙分支的情況,實(shí)際應(yīng)用中可以擴(kuò)展為多分支。

    圖7 SKNet模塊

    與Inception網(wǎng)絡(luò)[44]中的多尺度不同,SKNet是讓網(wǎng)絡(luò)自己選擇合適的尺度。與SENet[35]僅考慮通道之間的權(quán)重不同,SKNet不僅考慮通道之間的權(quán)重,還考慮分支中卷積的權(quán)重,充分利用組卷積和深度帶來的較小理論參數(shù)量和計(jì)算量的優(yōu)勢,使得模塊在增加多路與動態(tài)選擇的設(shè)計(jì)中不會帶來很大的計(jì)算開支??偟膩碚fSKNet相當(dāng)于給網(wǎng)絡(luò)融入軟注意力機(jī)制,是一種泛化能力更好的網(wǎng)絡(luò)結(jié)構(gòu)。雖然Inception網(wǎng)絡(luò)的多尺度設(shè)計(jì)精妙,效果也不錯,但實(shí)際上是通過人工設(shè)計(jì)卷積核的大小進(jìn)行特征提取。SKNet這種為獲取不同特征信息可以自適應(yīng)卷積核大小的結(jié)構(gòu),是卷積神經(jīng)網(wǎng)絡(luò)模型極限的一次重要突破。目前已經(jīng)有相關(guān)研究引入SKNet的思想改進(jìn)網(wǎng)絡(luò)[52,53]。

    SKNet是對特征圖進(jìn)行權(quán)重調(diào)整的網(wǎng)絡(luò)結(jié)構(gòu),它并不會改變特征圖的大小,因此,它可以嵌入到現(xiàn)有網(wǎng)絡(luò)模型中的任意地方來對特征進(jìn)行提取操作,如SK-ResNeXt50、SK-ResNet50等,進(jìn)而提升網(wǎng)絡(luò)的實(shí)驗(yàn)效果。

    2.3 Res2Net

    盡管ResNet有效地解決了網(wǎng)絡(luò)深度加深造成的梯度爆炸和梯度消失的問題,使得特征提取能力更強(qiáng)大,但在ResNet網(wǎng)絡(luò)的殘差塊中,最具有特征提取能力的卷積核只有通用的單個3×3卷積核。然而,自然場景下的物體可能以不同的尺寸出現(xiàn)在一個圖像中,物體的基本上下文信息可能占據(jù)比物體本身大得多的區(qū)域,ResNet的單尺度卷積核獲得的單一尺度感知信息不能很好地理解自然場景下的圖像、對象及其周圍環(huán)境,導(dǎo)致網(wǎng)絡(luò)不能準(zhǔn)確識別目標(biāo)對象。為解決該問題,有研究通過設(shè)計(jì)多尺度特征[54-57]提取模型來提升網(wǎng)絡(luò)性能。Gao等[37]在ResNet的基礎(chǔ)上,提出Res2Net網(wǎng)絡(luò),通過在單一殘差塊中對殘差連接進(jìn)行分級,進(jìn)而可以提取到細(xì)粒度層級的多尺度表征,同時增加每一層的感受野大小,以此方式進(jìn)一步提高網(wǎng)絡(luò)模型的分類與識別性能。圖8左圖給出ResNet的瓶頸塊(Bottleneck Block)和Res2Net模塊的結(jié)構(gòu)對比圖。

    ResNet網(wǎng)絡(luò)中瓶頸塊的結(jié)構(gòu)采用1×1、3×3、1×1三層卷積層結(jié)構(gòu)。Res2Net模塊只是修改了瓶頸塊中的3×3卷積層,在單個殘差塊內(nèi)構(gòu)造類似于分層的殘差連接,并引入一個新的超參數(shù)Scale,它將輸入通道數(shù)平均分成多個特征通道,Scale越大表明多尺度提取能力越強(qiáng)。圖8右圖展示了Scale=4時Res2Net模塊示意圖,即將第一層1×1 卷積層的輸出特征分為4組,為減少參數(shù)量并將特征重利用,第一組無卷積操作,隨后的第二、第三組會將卷積后得到的特征圖輸出的同時傳入下一組,第三、第四組每次卷積操作都會接收到前面每一組特征的信息。如此,網(wǎng)絡(luò)將得到不同數(shù)量以及不同感受野大小的輸出,如Y2得到3×3的感受野,那么Y3得到5×5的感受野,Y4會得到更大尺寸7×7的感受野,最后將這4個輸出進(jìn)行融合并經(jīng)過一個1×1卷積。也就是說,每個3×3卷積核可以接受來自該層前面的所有特征,每次分類特征經(jīng)過3×3的卷積處理后,其輸出的感受野要比輸入更大。這樣的操作,將使每一組卷積最終的輸出信息更加豐富、更具有多尺度特征。相較于ResNet的模塊單一尺度的特征提取,Res2Net的模塊設(shè)計(jì)提升整個網(wǎng)絡(luò)的多尺度特征提取能力,更適應(yīng)于自然場景下的圖像分類與識別。

    Res2Net的通用性和便利性與其他多尺度模型相比要更強(qiáng),可以與現(xiàn)有的最新模塊或網(wǎng)絡(luò)相整合,例如ResNeXt[58]、SE模塊[35]等。

    圖8 ResNet的瓶頸塊(左圖)和Res2Net模塊(右圖)

    2.4 ResNeSt

    ResNet網(wǎng)絡(luò)的設(shè)計(jì)初衷很大程度上緩解了網(wǎng)絡(luò)的退化問題,使得網(wǎng)絡(luò)可以學(xué)習(xí)更深層次的特征,但其感受野大小是固定且單一的,無法融合不同尺度的特征,也未能充分利用跨通道特征之間的相互作用,ResNeSt[38]的設(shè)計(jì)彌補(bǔ)了這些缺點(diǎn)。第一,ResNeSt網(wǎng)絡(luò)借鑒GoogleNet[32]采用多路徑機(jī)制,每個模塊由不同大小的卷積核組成,在網(wǎng)絡(luò)層數(shù)足夠深的情況下可以提取到不同尺度特征同時減小計(jì)算量。第二,為了進(jìn)一步提取多樣性的目標(biāo)特征,ResNeSt網(wǎng)絡(luò)借鑒ResNeXt[58]的設(shè)計(jì)思想,在殘差塊中采用組卷積、多分支的架構(gòu)。不同組之間形成的不同子空間可以讓網(wǎng)絡(luò)學(xué)到更豐富的多樣性特征。第三,設(shè)計(jì)的網(wǎng)絡(luò)架構(gòu)在保證良好的特征多樣性提取能力情況下,讓網(wǎng)絡(luò)聚焦于局部信息,避免噪聲干擾,有助于整個網(wǎng)絡(luò)實(shí)現(xiàn)更精準(zhǔn)的圖像識別任務(wù)。因此,ResNeSt網(wǎng)絡(luò)借鑒SENet[35]和SKNet[36]的思想,將注意力機(jī)制的思想引入分組卷積中,不僅建模通道之間的重要程度,建立通道注意力,同時用非線性方法聚合來自多個卷積核的信息,建立特征圖注意力。最終的ResNeSt網(wǎng)絡(luò)是基于ResNet[33]進(jìn)行修改的,在單個網(wǎng)絡(luò)內(nèi)合并特征圖的拆分注意力,將通道維度的注意力機(jī)制擴(kuò)展到特征圖組表示,形成模塊化。

    圖9展示了ResNeSt模塊,其中包含特征圖組(Feature-map Group)和拆分注意力(Split Attention)操作。特征圖組中,特征圖被分為多個組,每個組內(nèi)又進(jìn)行分組。超參數(shù)K和R分別表示特征圖組的數(shù)量和基數(shù)組內(nèi)的分組數(shù),基數(shù)組內(nèi)的每個分組稱為Splits,總的特征圖分組數(shù)可以表示為G=K×R。在基數(shù)組中的每個Split進(jìn)行1×1和3×3的卷積,得到R個特征圖后進(jìn)行拆分注意力操作。每個基數(shù)組得到的輸出進(jìn)行Concat操作,再與Shortcut路徑中1×1卷積配合。多個ResNeSt模塊堆疊最終組成ResNeSt網(wǎng)絡(luò)。

    圖9 ResNeSt模塊

    ResNeSt網(wǎng)絡(luò)與現(xiàn)有的ResNet變體相比,不需要增加額外的計(jì)算量,且可以作為其他任務(wù)的骨架。ResNeSt在ImageNet圖像分類數(shù)據(jù)集上的準(zhǔn)確率超越了ResNet[33]、ResNeXt[58]、SENet[35]和EfficientNet[59],是當(dāng)前ResNet網(wǎng)絡(luò)的最強(qiáng)改進(jìn)版本。

    3 ImageNet數(shù)據(jù)集上各類網(wǎng)絡(luò)模型性能對比

    本文在前面章節(jié)中介紹并分析了在卷積神經(jīng)網(wǎng)絡(luò)中圖像分類領(lǐng)域網(wǎng)絡(luò)的發(fā)展現(xiàn)狀。以下是在相關(guān)參考文獻(xiàn)的實(shí)驗(yàn)部分使用ImageNet數(shù)據(jù)集進(jìn)行分類得到的Top-1性能對比。表1展示了在ImageNet數(shù)據(jù)集上不同CNN模型的性能對比,僅選取最優(yōu)結(jié)果。GFLOPs表示每秒10億次的浮點(diǎn)運(yùn)算數(shù),Params表示參數(shù)數(shù)量。

    從表1可以看出,第一,網(wǎng)絡(luò)的深度越深,準(zhǔn)確率通常越高,參數(shù)量和計(jì)算量也會相應(yīng)增加。ResNet網(wǎng)絡(luò)從50層增加到152層、ResNeXt從50層增加到101層、DenseNet從121層增加到264層、SENet從50層增加到154層、SKNet從50層增加到101層、ResNeSt從50層增加到101層時,網(wǎng)絡(luò)性能均有所提升,證明增加網(wǎng)絡(luò)的深度是提高分類效果的重要因素,卷積網(wǎng)絡(luò)深度越深,能獲取的信息越多,得到的特征也越豐富,準(zhǔn)確率就越高。但此時不可避免的是網(wǎng)絡(luò)越深,神經(jīng)元的數(shù)量也就越多,必然導(dǎo)致參數(shù)量和運(yùn)算量的增加。第二,當(dāng)網(wǎng)絡(luò)深度到達(dá)一定程度時,網(wǎng)絡(luò)會出現(xiàn)退化的現(xiàn)象,準(zhǔn)確率下降,但增大輸入圖像的大小進(jìn)行訓(xùn)練,在一定程度上可以緩解網(wǎng)絡(luò)的退化,網(wǎng)絡(luò)能識別到的圖像信息越多。ResNet從101層增加到152層時,輸入224×224的圖像進(jìn)行訓(xùn)練時準(zhǔn)確率出現(xiàn)下降。盡管ResNet能夠訓(xùn)練很深的網(wǎng)絡(luò),但也存在一定瓶頸,在網(wǎng)絡(luò)深度更深的情況下,網(wǎng)絡(luò)無法更好收斂。當(dāng)輸入圖像大于224×224時,ResNet網(wǎng)絡(luò)從101層增加到152層時準(zhǔn)確率反而上升,說明增大輸入圖像的大小可以改善網(wǎng)絡(luò)的分類性能。第三,在更深的網(wǎng)絡(luò)模型中,DenseNet具有較強(qiáng)的競爭力,當(dāng)網(wǎng)絡(luò)深度增加到264層時,分類準(zhǔn)確率仍然有所提升。DenseNet脫離加深網(wǎng)絡(luò)層數(shù)和加寬網(wǎng)絡(luò)結(jié)構(gòu)來提升網(wǎng)絡(luò)性能的定式思維,從特征的角度考慮,通過特征重用、旁路(Bypass)設(shè)置以及密集連接的特性很大程度上緩解了過擬合問題的產(chǎn)生,能夠訓(xùn)練比ResNet更深的網(wǎng)絡(luò)且保證準(zhǔn)確率不受深度影響而下降。第四,多尺度和多分支的網(wǎng)絡(luò)相較于同深度的其他網(wǎng)絡(luò)獲得的準(zhǔn)確率更高,如Inception網(wǎng)絡(luò)、SKNet網(wǎng)絡(luò)和ResNeSt網(wǎng)絡(luò),這類網(wǎng)絡(luò)能夠?qū)Σ煌6鹊奶卣鬟M(jìn)行采樣,獲取更加強(qiáng)大的特征表達(dá),從而提高準(zhǔn)確率。第五,在神經(jīng)網(wǎng)絡(luò)中,注意力模塊通常是一個額外的神經(jīng)網(wǎng)絡(luò),能夠給輸入的不同部分分配不同的權(quán)重。引入SE、SK、CBAM等注意力模塊的網(wǎng)絡(luò),相較于基線網(wǎng)絡(luò)的準(zhǔn)確率高,這類網(wǎng)絡(luò)模型能夠忽略無關(guān)信息,不斷聚焦到最具辨別性的區(qū)域,進(jìn)一步提高網(wǎng)絡(luò)的分類準(zhǔn)確率,且增加的參數(shù)量很小。第六,通過將ResNeSt與其他50層和101層配置、類似復(fù)雜度的ResNet變體作比較,ResNeSt的Top-1準(zhǔn)確率達(dá)到最高,且參數(shù)量沒有大幅度增加,性能得到顯著提升,網(wǎng)絡(luò)的泛化能力極強(qiáng)。說明在卷積神經(jīng)網(wǎng)絡(luò)中,分組卷積、多尺度方法、注意力機(jī)制等思想的共同引入可以從卷積、通道、特征圖等方面全面理解圖像信息,進(jìn)一步提升網(wǎng)絡(luò)的分類效果。

    表1 ImageNet數(shù)據(jù)集上各類網(wǎng)絡(luò)模型性能對比

    續(xù)表1

    4 展望

    本文介紹了卷積神經(jīng)網(wǎng)絡(luò)在圖像分類中的優(yōu)點(diǎn)以及發(fā)展趨勢,分析了卷積神經(jīng)網(wǎng)絡(luò)在圖像分類中的經(jīng)典模型、近年來的改進(jìn)方法及其在ImageNet公共數(shù)據(jù)集上的性能表現(xiàn)。盡管卷積神經(jīng)網(wǎng)絡(luò)在圖像分類領(lǐng)域取得豐碩的成果,但在實(shí)際應(yīng)用中仍存在一些具有挑戰(zhàn)性的研究問題:

    (1)在深度學(xué)習(xí)中進(jìn)行的圖像分類研究難免需要針對特定任務(wù)數(shù)量龐大的圖像數(shù)據(jù)集,但這些數(shù)據(jù)集不易獲取和采集,導(dǎo)致目前使用監(jiān)督學(xué)習(xí)方法的圖像分類研究進(jìn)展緩慢,大部分提出的創(chuàng)新性網(wǎng)絡(luò)均在僅有的幾個大型公共數(shù)據(jù)集上進(jìn)行評估,針對特定分類任務(wù)的研究十分零散且數(shù)據(jù)集樣本較少。對于一個新的應(yīng)用領(lǐng)域,在數(shù)據(jù)集較少的情況下,有相關(guān)的研究[61,62]采用遷移學(xué)習(xí)方法處理小樣本數(shù)據(jù)集進(jìn)行圖像分類,該方法使用在ImageNet大型數(shù)據(jù)集上訓(xùn)練得到的模型和參數(shù),通過遷移訓(xùn)練方法進(jìn)一步優(yōu)化使用小樣本目標(biāo)數(shù)據(jù)集訓(xùn)練的模型,從而有效地利用小型數(shù)據(jù)并保證網(wǎng)絡(luò)具有良好的魯棒性和泛化能力。因此遷移學(xué)習(xí)方法應(yīng)用在特定的圖像分類任務(wù)中可以取得較好的分類效果。

    (2)自然場景下的圖像分類具有巨大的挑戰(zhàn)性,這類數(shù)據(jù)集的圖像往往含有較大的噪聲,背景復(fù)雜,導(dǎo)致網(wǎng)絡(luò)無法準(zhǔn)確分辨出目標(biāo)物體的類別,使得分類準(zhǔn)確率較低。此外細(xì)粒度的圖像分類由于子類別間細(xì)微的類間差異以及較大的類內(nèi)差異,在某些類別上甚至連專家都難以區(qū)分,較之普通的圖像分類任務(wù),具有較大難度。自然場景下的圖像分類任務(wù)無疑在現(xiàn)實(shí)世界中更具有意義,且此類數(shù)據(jù)集的收集和處理較容易,有利于切實(shí)推進(jìn)現(xiàn)實(shí)的生產(chǎn)工作。細(xì)粒度圖像分類更是對卷積神經(jīng)網(wǎng)絡(luò)挖掘細(xì)粒度特征發(fā)起的一大挑戰(zhàn),利于圖像分類領(lǐng)域的研究發(fā)展。

    (3)目前有相當(dāng)一部分圖像分類網(wǎng)絡(luò)的深度較深、模型結(jié)構(gòu)設(shè)計(jì)復(fù)雜甚至存在冗余結(jié)構(gòu),其參數(shù)量增大導(dǎo)致計(jì)算成本增加。DenseNet網(wǎng)絡(luò)雖然從特征的角度考慮,通過特征重用加強(qiáng)特征的傳遞,但是網(wǎng)絡(luò)的連接十分冗余,對其進(jìn)行剪枝將成為未來的研究方向。雖然Res2Net的計(jì)算復(fù)雜度與等效的ResNet相似,但它的運(yùn)行速度仍然比對應(yīng)的ResNet慢,不能高效地處理圖像識別任務(wù)。ResNeSt網(wǎng)絡(luò)雖然集合多種優(yōu)秀模型的優(yōu)點(diǎn),在ImageNet數(shù)據(jù)集上的實(shí)驗(yàn)效果也很優(yōu)秀,但是網(wǎng)絡(luò)模型結(jié)構(gòu)太過臃腫,并且訓(xùn)練模型需要大量的調(diào)參技巧,使用多種模型堆疊設(shè)計(jì)的痕跡較重。另外在當(dāng)前移動設(shè)備普及的情況下,這種復(fù)雜度高、深度太深的網(wǎng)絡(luò)并不能在移動端很好地應(yīng)用。因此,未來的研究熱點(diǎn)必將趨向輕量級、高效的網(wǎng)絡(luò)發(fā)展。

    (4)深度學(xué)習(xí)方法在圖像分類中的可解釋性差,不同于傳統(tǒng)圖像分類方法有嚴(yán)謹(jǐn)?shù)臄?shù)學(xué)理論依據(jù)作為支撐,目前使用深度學(xué)習(xí)的方法更偏向于將網(wǎng)絡(luò)進(jìn)行可視化解釋網(wǎng)絡(luò)觀察到所分類圖像的某個位置。如何從更科學(xué)的角度詮釋深度學(xué)習(xí)方法將是未來一個十分重要的研究課題。

    (5)雖然注意力機(jī)制模塊可以一定程度上提升分類模型的性能,但SENet實(shí)際上只是從通道的角度關(guān)注特征圖,沒有從空間、非局部、全局等角度關(guān)注特征圖,未來的研究工作可以將這些角度很好地整合在一起,形成一種關(guān)注能力更強(qiáng)的注意力機(jī)制。SKNet使用時涉及到分組數(shù)量、卷積核大小的選擇問題,在實(shí)際使用中仍需要經(jīng)過大量的實(shí)驗(yàn)調(diào)整參數(shù)才能找到合適的參數(shù)設(shè)置,不能真正做到脫離人工設(shè)定分組數(shù)量和卷積核大小來適用于不同尺度的目標(biāo)對象,使網(wǎng)絡(luò)達(dá)到最優(yōu)。此外,全局池化的使用容易混淆多個物體的尺度信息,使分類精度降低。注意力機(jī)制模塊在網(wǎng)絡(luò)中的放置位置也會影響到神經(jīng)網(wǎng)絡(luò)的整體效果,同樣需要經(jīng)過大量實(shí)驗(yàn)找到適合的添加位置才能達(dá)到最佳的實(shí)驗(yàn)效果,靈活性較低。因此,如何設(shè)計(jì)出能夠真正自動適應(yīng)神經(jīng)網(wǎng)絡(luò)訓(xùn)練的注意力機(jī)制是一個十分有趣的研究方向。

    總的來說,相對于傳統(tǒng)圖像分類方法,基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)在特征表示上具有極大的優(yōu)越性,且應(yīng)用廣泛,性能優(yōu)異。隨著研究的深入、數(shù)據(jù)集數(shù)量的增加和實(shí)際應(yīng)用場景的增多,卷積神經(jīng)網(wǎng)絡(luò)的模型必然更復(fù)雜,更具有挑戰(zhàn)性。因此,在未來的深度學(xué)習(xí)研究中,使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行改進(jìn)和創(chuàng)新依舊是最終實(shí)現(xiàn)人工智能的最佳途徑和方法。

    猜你喜歡
    準(zhǔn)確率卷積神經(jīng)網(wǎng)絡(luò)
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
    健康之家(2021年19期)2021-05-23 11:17:39
    不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
    2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
    神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
    電子制作(2019年19期)2019-11-23 08:42:00
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    高速公路車牌識別標(biāo)識站準(zhǔn)確率驗(yàn)證法
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
    復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
    国产三级黄色录像| 国产欧美日韩一区二区三区在线| 91在线观看av| 精品久久久久久久人妻蜜臀av | 黄色丝袜av网址大全| bbb黄色大片| 国产麻豆69| 黄色片一级片一级黄色片| 99久久国产精品久久久| 国产精品亚洲av一区麻豆| 99久久综合精品五月天人人| 桃色一区二区三区在线观看| 国产精品亚洲av一区麻豆| 国产av一区在线观看免费| 看免费av毛片| 久久精品亚洲精品国产色婷小说| 亚洲精品一卡2卡三卡4卡5卡| 日韩免费av在线播放| av中文乱码字幕在线| avwww免费| 宅男免费午夜| 日韩精品青青久久久久久| 色综合婷婷激情| 一边摸一边抽搐一进一出视频| 99久久99久久久精品蜜桃| 午夜两性在线视频| 国产亚洲精品第一综合不卡| 美女午夜性视频免费| 在线视频色国产色| 日本五十路高清| 亚洲自拍偷在线| 久久婷婷人人爽人人干人人爱 | 精品国产一区二区久久| 十分钟在线观看高清视频www| 日本三级黄在线观看| 最新美女视频免费是黄的| 日日爽夜夜爽网站| 亚洲自偷自拍图片 自拍| 黄色成人免费大全| 日韩免费av在线播放| 亚洲片人在线观看| 国产精品一区二区三区四区久久 | 91成年电影在线观看| а√天堂www在线а√下载| 美女高潮到喷水免费观看| 亚洲无线在线观看| 亚洲aⅴ乱码一区二区在线播放 | 精品一品国产午夜福利视频| 亚洲美女黄片视频| 成人国产综合亚洲| 亚洲中文字幕一区二区三区有码在线看 | 日日干狠狠操夜夜爽| 国产精品久久久久久人妻精品电影| 香蕉国产在线看| 亚洲一区高清亚洲精品| 亚洲第一电影网av| 色综合婷婷激情| 又黄又爽又免费观看的视频| 日韩免费av在线播放| 久久精品aⅴ一区二区三区四区| 男女下面进入的视频免费午夜 | 中文字幕久久专区| 超碰成人久久| 人人澡人人妻人| 狂野欧美激情性xxxx| 国产人伦9x9x在线观看| 脱女人内裤的视频| 欧美绝顶高潮抽搐喷水| 中文亚洲av片在线观看爽| 午夜视频精品福利| 好男人电影高清在线观看| 久久亚洲精品不卡| 99国产精品免费福利视频| 国产精品精品国产色婷婷| 日韩高清综合在线| 性少妇av在线| av天堂久久9| 欧美国产精品va在线观看不卡| 亚洲 国产 在线| 在线观看一区二区三区| 欧美激情 高清一区二区三区| 久久久久久久午夜电影| 亚洲七黄色美女视频| 国内精品久久久久久久电影| 老熟妇乱子伦视频在线观看| 久久中文看片网| 91国产中文字幕| av天堂久久9| 精品一区二区三区视频在线观看免费| 久久久久久久午夜电影| 国产单亲对白刺激| 亚洲中文字幕日韩| 国产精品爽爽va在线观看网站 | 国产熟女午夜一区二区三区| 久久青草综合色| 动漫黄色视频在线观看| АⅤ资源中文在线天堂| 国产成人欧美在线观看| 欧美成人午夜精品| 久久久久久大精品| 成年女人毛片免费观看观看9| 少妇熟女aⅴ在线视频| 日韩 欧美 亚洲 中文字幕| 免费女性裸体啪啪无遮挡网站| 亚洲欧美精品综合久久99| 日韩国内少妇激情av| 欧美黑人精品巨大| 久久香蕉激情| 亚洲国产精品合色在线| 免费高清视频大片| 成人国语在线视频| 亚洲五月色婷婷综合| 免费在线观看完整版高清| 如日韩欧美国产精品一区二区三区| 精品国内亚洲2022精品成人| 搡老岳熟女国产| 母亲3免费完整高清在线观看| 国产片内射在线| 夜夜看夜夜爽夜夜摸| 亚洲视频免费观看视频| 黄色片一级片一级黄色片| 国产成+人综合+亚洲专区| 久久国产精品男人的天堂亚洲| 亚洲精华国产精华精| 亚洲第一电影网av| 麻豆久久精品国产亚洲av| 女性生殖器流出的白浆| 欧美黄色淫秽网站| 99国产精品一区二区三区| 黑人巨大精品欧美一区二区蜜桃| 欧美激情 高清一区二区三区| 久久精品91无色码中文字幕| 色av中文字幕| 久久久久久人人人人人| av在线天堂中文字幕| 成熟少妇高潮喷水视频| 国产亚洲精品久久久久久毛片| 99国产精品免费福利视频| x7x7x7水蜜桃| 久久香蕉精品热| 变态另类丝袜制服| 人妻久久中文字幕网| 亚洲欧美激情在线| 99国产综合亚洲精品| 欧美另类亚洲清纯唯美| 女同久久另类99精品国产91| av欧美777| 亚洲七黄色美女视频| 亚洲熟女毛片儿| 欧美成人一区二区免费高清观看 | 亚洲人成电影观看| 人人妻人人澡人人看| 两个人看的免费小视频| 老司机深夜福利视频在线观看| 大型黄色视频在线免费观看| 91精品三级在线观看| 久久久久久久久久久久大奶| 一个人观看的视频www高清免费观看 | 久久精品影院6| 18美女黄网站色大片免费观看| 午夜免费鲁丝| 黄色成人免费大全| 涩涩av久久男人的天堂| 国产av在哪里看| 欧美黑人欧美精品刺激| 极品教师在线免费播放| 欧美日韩福利视频一区二区| 丰满人妻熟妇乱又伦精品不卡| 两性午夜刺激爽爽歪歪视频在线观看 | av在线天堂中文字幕| 一区在线观看完整版| 午夜久久久久精精品| 亚洲国产欧美网| 午夜福利高清视频| 午夜福利,免费看| 欧美在线一区亚洲| 在线av久久热| 在线国产一区二区在线| 纯流量卡能插随身wifi吗| 国产成年人精品一区二区| 女人被躁到高潮嗷嗷叫费观| 精品国产超薄肉色丝袜足j| 精品国产美女av久久久久小说| 变态另类丝袜制服| 欧美成人性av电影在线观看| 99久久国产精品久久久| 亚洲天堂国产精品一区在线| 手机成人av网站| 久久人人精品亚洲av| 岛国视频午夜一区免费看| 一级片免费观看大全| 自拍欧美九色日韩亚洲蝌蚪91| 黑人欧美特级aaaaaa片| 黄色成人免费大全| 午夜a级毛片| 免费女性裸体啪啪无遮挡网站| 亚洲欧美激情综合另类| 怎么达到女性高潮| 国产蜜桃级精品一区二区三区| 免费在线观看黄色视频的| 一本大道久久a久久精品| 国产av一区二区精品久久| 久久九九热精品免费| 香蕉久久夜色| 亚洲精品美女久久久久99蜜臀| 极品人妻少妇av视频| 丝袜美足系列| 亚洲,欧美精品.| 国产精品秋霞免费鲁丝片| 一边摸一边抽搐一进一出视频| 国产午夜精品久久久久久| 国产精品久久电影中文字幕| 久久人人精品亚洲av| 国产精品久久久久久人妻精品电影| 狂野欧美激情性xxxx| 熟妇人妻久久中文字幕3abv| 一进一出好大好爽视频| aaaaa片日本免费| 99国产精品一区二区三区| 色综合亚洲欧美另类图片| 免费在线观看亚洲国产| 精品国产亚洲在线| 国产精品 国内视频| 99精品在免费线老司机午夜| 国产主播在线观看一区二区| 国产麻豆69| 麻豆成人av在线观看| 露出奶头的视频| 国产精品 欧美亚洲| 嫩草影视91久久| 亚洲精华国产精华精| 亚洲av片天天在线观看| 亚洲精品美女久久久久99蜜臀| 成人亚洲精品av一区二区| 一进一出抽搐gif免费好疼| 久久久久久久久久久久大奶| 欧美性长视频在线观看| 国产精品爽爽va在线观看网站 | 多毛熟女@视频| 好男人电影高清在线观看| 1024视频免费在线观看| 欧美乱码精品一区二区三区| 色综合站精品国产| 久久青草综合色| 精品人妻在线不人妻| 非洲黑人性xxxx精品又粗又长| 亚洲五月色婷婷综合| 日本免费a在线| 免费观看精品视频网站| 他把我摸到了高潮在线观看| 亚洲免费av在线视频| 999久久久精品免费观看国产| 亚洲一码二码三码区别大吗| 精品久久久精品久久久| 久久久久久久午夜电影| 啦啦啦韩国在线观看视频| 男女做爰动态图高潮gif福利片 | 999久久久国产精品视频| 亚洲国产欧美一区二区综合| 亚洲专区字幕在线| 久久精品人人爽人人爽视色| 精品国产乱子伦一区二区三区| 一a级毛片在线观看| 无人区码免费观看不卡| 欧美亚洲日本最大视频资源| 日本 欧美在线| 香蕉久久夜色| 国产精品自产拍在线观看55亚洲| 国产av一区在线观看免费| 每晚都被弄得嗷嗷叫到高潮| 久久亚洲精品不卡| av中文乱码字幕在线| 露出奶头的视频| 国产国语露脸激情在线看| 欧美一级毛片孕妇| 女性被躁到高潮视频| 日韩精品免费视频一区二区三区| 一夜夜www| 亚洲avbb在线观看| 欧美日韩精品网址| 久久精品国产亚洲av香蕉五月| 黄片大片在线免费观看| 我的亚洲天堂| 精品一区二区三区视频在线观看免费| 极品教师在线免费播放| 国产单亲对白刺激| 一边摸一边做爽爽视频免费| 久久久久久久午夜电影| 国产单亲对白刺激| 变态另类成人亚洲欧美熟女 | 老司机午夜十八禁免费视频| 国产精品乱码一区二三区的特点 | 丰满人妻熟妇乱又伦精品不卡| 亚洲 欧美 日韩 在线 免费| 亚洲精品美女久久久久99蜜臀| 久9热在线精品视频| 国产精品 国内视频| 黄色a级毛片大全视频| 国产精品久久久人人做人人爽| 91麻豆av在线| 欧美在线黄色| 亚洲成a人片在线一区二区| ponron亚洲| 两性夫妻黄色片| 一级黄色大片毛片| 视频在线观看一区二区三区| 黄色成人免费大全| 18美女黄网站色大片免费观看| 女性被躁到高潮视频| 久久中文字幕人妻熟女| 波多野结衣巨乳人妻| 国产一区二区三区综合在线观看| 欧美大码av| 久久欧美精品欧美久久欧美| cao死你这个sao货| 成人欧美大片| 中文亚洲av片在线观看爽| 两性午夜刺激爽爽歪歪视频在线观看 | 日韩 欧美 亚洲 中文字幕| 亚洲五月婷婷丁香| 欧美最黄视频在线播放免费| 亚洲美女黄片视频| 亚洲av熟女| 亚洲在线自拍视频| 大型黄色视频在线免费观看| 最近最新中文字幕大全免费视频| 成人18禁高潮啪啪吃奶动态图| 伊人久久大香线蕉亚洲五| 精品久久久久久久毛片微露脸| 91麻豆av在线| 黄色 视频免费看| 亚洲av电影在线进入| 亚洲国产中文字幕在线视频| 每晚都被弄得嗷嗷叫到高潮| 欧美日韩乱码在线| 久久久久精品国产欧美久久久| 悠悠久久av| 男人的好看免费观看在线视频 | 欧美日韩瑟瑟在线播放| 高清黄色对白视频在线免费看| 一本综合久久免费| 男女之事视频高清在线观看| 国产精品亚洲美女久久久| 亚洲无线在线观看| 看黄色毛片网站| 久久久久久久午夜电影| 99久久99久久久精品蜜桃| 久久久国产精品麻豆| 国产激情欧美一区二区| 90打野战视频偷拍视频| 国产亚洲精品一区二区www| 大陆偷拍与自拍| 91在线观看av| 性色av乱码一区二区三区2| 久久精品亚洲精品国产色婷小说| 叶爱在线成人免费视频播放| 亚洲va日本ⅴa欧美va伊人久久| 欧美激情高清一区二区三区| 欧美国产精品va在线观看不卡| 男女之事视频高清在线观看| 老熟妇乱子伦视频在线观看| 一边摸一边抽搐一进一小说| 亚洲欧美激情在线| 好男人在线观看高清免费视频 | 国产精品九九99| 精品国产乱子伦一区二区三区| 91精品三级在线观看| 啦啦啦观看免费观看视频高清 | 好看av亚洲va欧美ⅴa在| 一个人免费在线观看的高清视频| 韩国av一区二区三区四区| 美女高潮到喷水免费观看| 久久 成人 亚洲| 欧美激情极品国产一区二区三区| 精品高清国产在线一区| 久久人妻福利社区极品人妻图片| 脱女人内裤的视频| 亚洲av电影在线进入| 国产亚洲精品av在线| 日韩视频一区二区在线观看| 国产亚洲精品一区二区www| 精品国产乱码久久久久久男人| 无限看片的www在线观看| 日本免费a在线| 亚洲最大成人中文| 久久亚洲真实| 亚洲中文字幕日韩| av福利片在线| 韩国精品一区二区三区| 女人精品久久久久毛片| 在线观看一区二区三区| 制服人妻中文乱码| 19禁男女啪啪无遮挡网站| 丁香六月欧美| 久久久水蜜桃国产精品网| 日日夜夜操网爽| 国产一区二区在线av高清观看| 久久 成人 亚洲| 天天添夜夜摸| 又黄又爽又免费观看的视频| 99riav亚洲国产免费| 国产午夜福利久久久久久| 久久久国产成人免费| 国产欧美日韩一区二区三区在线| 国产亚洲欧美98| 免费少妇av软件| 欧美中文综合在线视频| 亚洲,欧美精品.| 人妻丰满熟妇av一区二区三区| 黄片小视频在线播放| 精品久久久久久久久久免费视频| 19禁男女啪啪无遮挡网站| 看黄色毛片网站| 欧美激情高清一区二区三区| 精品福利观看| 国产亚洲av嫩草精品影院| 老熟妇仑乱视频hdxx| 极品人妻少妇av视频| 亚洲国产精品999在线| 精品午夜福利视频在线观看一区| 国产欧美日韩一区二区三| xxx96com| 午夜福利免费观看在线| 亚洲专区字幕在线| 一级,二级,三级黄色视频| 国产亚洲精品久久久久久毛片| 真人一进一出gif抽搐免费| 亚洲国产欧美日韩在线播放| 免费不卡黄色视频| 午夜福利欧美成人| 91大片在线观看| 在线天堂中文资源库| 黑人操中国人逼视频| 一夜夜www| 亚洲专区国产一区二区| 一边摸一边抽搐一进一小说| 老熟妇仑乱视频hdxx| 99精品久久久久人妻精品| 精品国产超薄肉色丝袜足j| a级毛片在线看网站| 国产免费男女视频| 丝袜美腿诱惑在线| 久久精品国产综合久久久| 99在线人妻在线中文字幕| 高清在线国产一区| 国产高清激情床上av| 热99re8久久精品国产| 一级黄色大片毛片| 国产高清有码在线观看视频 | 欧美激情 高清一区二区三区| 色播亚洲综合网| 免费无遮挡裸体视频| 一边摸一边抽搐一进一小说| 国产精品综合久久久久久久免费 | 国产一区二区三区视频了| 美女 人体艺术 gogo| 搡老岳熟女国产| 亚洲精品国产色婷婷电影| 国产成年人精品一区二区| 亚洲中文日韩欧美视频| 淫妇啪啪啪对白视频| 国产亚洲欧美在线一区二区| 老司机深夜福利视频在线观看| 中亚洲国语对白在线视频| 亚洲精品中文字幕在线视频| 亚洲成a人片在线一区二区| 日韩精品免费视频一区二区三区| 我的亚洲天堂| 久久人妻福利社区极品人妻图片| 一二三四在线观看免费中文在| 久9热在线精品视频| 国产三级在线视频| 多毛熟女@视频| 久久精品影院6| 午夜福利影视在线免费观看| 中文字幕另类日韩欧美亚洲嫩草| 在线观看66精品国产| 大香蕉久久成人网| 国产精品亚洲一级av第二区| 电影成人av| 欧美国产精品va在线观看不卡| 亚洲人成77777在线视频| 欧美最黄视频在线播放免费| 午夜免费观看网址| 午夜成年电影在线免费观看| 国产精品久久久av美女十八| x7x7x7水蜜桃| 自线自在国产av| 制服诱惑二区| 亚洲欧美激情在线| 18美女黄网站色大片免费观看| 超碰成人久久| 制服丝袜大香蕉在线| 国产亚洲精品综合一区在线观看 | 又紧又爽又黄一区二区| 国产精品 国内视频| 777久久人妻少妇嫩草av网站| 99国产精品一区二区蜜桃av| 免费无遮挡裸体视频| av超薄肉色丝袜交足视频| 麻豆成人av在线观看| 久久久久国内视频| 久久国产精品影院| 亚洲精品久久国产高清桃花| 久久香蕉精品热| 丝袜人妻中文字幕| 777久久人妻少妇嫩草av网站| 国产精品久久视频播放| 777久久人妻少妇嫩草av网站| 色精品久久人妻99蜜桃| 欧美日韩黄片免| av片东京热男人的天堂| 国产精品久久久久久精品电影 | 日韩欧美国产一区二区入口| 色尼玛亚洲综合影院| 国产精品日韩av在线免费观看 | 69精品国产乱码久久久| 国产在线观看jvid| 一级毛片女人18水好多| 亚洲av熟女| 99久久久亚洲精品蜜臀av| 91麻豆av在线| 19禁男女啪啪无遮挡网站| 亚洲国产精品合色在线| 在线观看日韩欧美| 无遮挡黄片免费观看| 久久人妻av系列| 免费看美女性在线毛片视频| 亚洲精品在线美女| 国产精品亚洲av一区麻豆| 岛国视频午夜一区免费看| 亚洲专区字幕在线| tocl精华| 涩涩av久久男人的天堂| 两个人看的免费小视频| 叶爱在线成人免费视频播放| 在线观看www视频免费| 欧美黄色淫秽网站| 天堂动漫精品| 又黄又爽又免费观看的视频| 在线观看免费午夜福利视频| 在线观看免费视频网站a站| 麻豆一二三区av精品| 中亚洲国语对白在线视频| 国产精品久久久久久亚洲av鲁大| 国产精品一区二区在线不卡| 黑丝袜美女国产一区| 亚洲成人免费电影在线观看| 夜夜夜夜夜久久久久| 亚洲男人天堂网一区| 免费在线观看视频国产中文字幕亚洲| 久久九九热精品免费| 日本欧美视频一区| 国产精品电影一区二区三区| 国产精品 国内视频| 乱人伦中国视频| 最新美女视频免费是黄的| 极品教师在线免费播放| 久久久久久免费高清国产稀缺| 99久久综合精品五月天人人| 国产精品九九99| 变态另类成人亚洲欧美熟女 | 丰满的人妻完整版| 香蕉久久夜色| 真人一进一出gif抽搐免费| 国产不卡一卡二| 久久国产亚洲av麻豆专区| 国产精品久久视频播放| 村上凉子中文字幕在线| 国产成人av激情在线播放| 99国产精品一区二区蜜桃av| 亚洲av成人不卡在线观看播放网| 天堂影院成人在线观看| 久久人妻福利社区极品人妻图片| 亚洲一区二区三区色噜噜| 亚洲精品国产一区二区精华液| 90打野战视频偷拍视频| 日韩中文字幕欧美一区二区| 91麻豆av在线| 亚洲av日韩精品久久久久久密| 国产视频一区二区在线看| 可以免费在线观看a视频的电影网站| 欧美黄色片欧美黄色片| 日韩精品中文字幕看吧| 99久久国产精品久久久| 久久中文看片网| www日本在线高清视频| 人人妻人人澡人人看| 亚洲,欧美精品.| 又黄又爽又免费观看的视频| 美女 人体艺术 gogo| 亚洲av美国av| 亚洲av五月六月丁香网| 操美女的视频在线观看| 老汉色av国产亚洲站长工具| 亚洲精品一卡2卡三卡4卡5卡| 最新在线观看一区二区三区| 日韩三级视频一区二区三区| 亚洲欧美精品综合一区二区三区| 欧美黄色淫秽网站| 美女高潮到喷水免费观看| 一边摸一边做爽爽视频免费| 自拍欧美九色日韩亚洲蝌蚪91| 90打野战视频偷拍视频| 妹子高潮喷水视频| 欧洲精品卡2卡3卡4卡5卡区| 久久人妻福利社区极品人妻图片| 一区二区三区高清视频在线| 级片在线观看| 一夜夜www| 日韩精品青青久久久久久| 我的亚洲天堂| 1024视频免费在线观看| 一级a爱片免费观看的视频| 亚洲中文日韩欧美视频|