• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于特征空間嵌入的對比知識蒸餾算法

    2023-06-30 08:13:24葉峰陳彪賴乙宗
    關(guān)鍵詞:集上卷積特征

    葉峰 陳彪 賴乙宗

    基于特征空間嵌入的對比知識蒸餾算法

    葉峰 陳彪 賴乙宗

    (華南理工大學(xué) 機(jī)械與汽車工程學(xué)院,廣東 廣州 510640)

    因能有效地壓縮卷積神經(jīng)網(wǎng)絡(luò)模型,知識蒸餾在深度學(xué)習(xí)領(lǐng)域備受關(guān)注。然而,經(jīng)典知識蒸餾算法在進(jìn)行知識遷移時,只利用了單個樣本的信息,忽略了樣本間關(guān)系的重要性,算法性能欠佳。為了提高知識蒸餾算法知識遷移的效率和性能,文中提出了一種基于特征空間嵌入的對比知識蒸餾(FSECD)算法。該算法采用批次內(nèi)構(gòu)建策略,將學(xué)生模型的輸出特征嵌入到教師模型特征空間中,使得每個學(xué)生模型的輸出特征和教師模型輸出的個特征構(gòu)成個對比對。每個對比對中,教師模型的輸出特征是已優(yōu)化、固定的,學(xué)生模型的輸出特征是待優(yōu)化、可調(diào)優(yōu)的。在訓(xùn)練過程中,F(xiàn)SECD縮小正對比對的距離并擴(kuò)大負(fù)對比對的距離,使得學(xué)生模型可感知并學(xué)習(xí)教師模型輸出特征的樣本間關(guān)系,進(jìn)而實(shí)現(xiàn)教師模型知識向?qū)W生模型的遷移。在CIFAR-100和ImageNet數(shù)據(jù)集上對不同師生網(wǎng)絡(luò)架構(gòu)進(jìn)行的實(shí)驗(yàn)結(jié)果表明,與其他主流蒸餾算法相比,F(xiàn)SECD算法在不需要額外的網(wǎng)絡(luò)結(jié)構(gòu)和數(shù)據(jù)的情況下,顯著提升了性能,進(jìn)一步證明了樣本間關(guān)系在知識蒸餾中的重要性。

    圖像分類;知識蒸餾;卷積神經(jīng)網(wǎng)絡(luò);深度學(xué)習(xí);對比學(xué)習(xí)

    近十年,卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺任務(wù)中取得了巨大的成功,并廣泛應(yīng)用于圖像分類[1-6]、圖像檢測[7-8]和圖像分割[9-10]等領(lǐng)域,其中圖像分類被認(rèn)為是其他視覺任務(wù)的基礎(chǔ)。隨著網(wǎng)絡(luò)容量的增加,在有限的硬件資源下部署卷積神經(jīng)網(wǎng)絡(luò)變得越來越困難,獲得準(zhǔn)確率高且輕量級的卷積神經(jīng)網(wǎng)絡(luò),對于實(shí)際應(yīng)用至關(guān)重要。針對這一問題,研究者們提出了網(wǎng)絡(luò)修剪[11]、量化[12]、低秩分解[13]和知識蒸餾[14-19]等技術(shù)。經(jīng)典知識蒸餾(KD)方法最初由Hinton等[14]提出,該方法通過縮小兩個卷積神經(jīng)網(wǎng)絡(luò)預(yù)測概率之間的Kullback-Leibler(KL)散度來實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)之間知識的遷移。知識蒸餾的原理在于,相較于原始的標(biāo)簽,教師模型的預(yù)測概率中隱含了輸入樣本與非目標(biāo)類別之間相似性關(guān)系的信息。通常情況下,教師模型結(jié)構(gòu)復(fù)雜,擁有良好的性能和泛化能力,學(xué)生模型是輕量級的,更適合部署在邊緣設(shè)備,但性能不如教師模型。

    Gou等[20]對主流的知識蒸餾方法做了梳理,從知識類別、訓(xùn)練方案、師生架構(gòu)等角度對知識蒸餾方法進(jìn)行了全面的介紹。根據(jù)文獻(xiàn)[20],可以將知識蒸餾方法中教師模型的知識分為基于響應(yīng)的知識、基于特征的知識以及基于關(guān)系的知識。Hinton等[14]提出的傳統(tǒng)KD方法使用的是基于響應(yīng)的知識。Zhao等[21]將KL散度分解為目標(biāo)類知識蒸餾(TCKD)與非目標(biāo)類知識蒸餾(NCKD)兩部分,以研究目標(biāo)類別的響應(yīng)和非目標(biāo)類別的響應(yīng)對知識蒸餾的影響,結(jié)果發(fā)現(xiàn)NCKD更加重要且TCKD與NCKD是耦合的,并進(jìn)一步提出了解耦知識蒸餾(DKD)用以實(shí)現(xiàn)解耦。

    Romero等[17]通過縮小教師模型和學(xué)生模型中間特征層輸出特征圖的差異來訓(xùn)練學(xué)生模型,使用了基于特征的知識。該方法將教師模型某一隱含層之前的網(wǎng)絡(luò)結(jié)構(gòu)定義為Hint層,將學(xué)生模型某一隱含層之前的網(wǎng)絡(luò)定義為Guided層,并定義教師模型和學(xué)生模型之間的距離為Hint層的輸出特征與回歸器轉(zhuǎn)化后的Guided層輸出特征之間的歐幾里得距離。該方法將卷積神經(jīng)網(wǎng)絡(luò)知識的定義從網(wǎng)絡(luò)的整體輸出拓寬到中間層的隱含表達(dá)上。Zagoruyko等[18]從人類視覺體驗(yàn)中注意力的作用得到啟發(fā),提出了學(xué)生模型通過模仿教師模型的注意力特征圖來提高學(xué)生模型性能的方法。該方法在訓(xùn)練過程中實(shí)時計(jì)算教師模型和學(xué)生模型的多個隱含層以及最終輸出層的注意力特征圖,并縮小教師模型和學(xué)生模型對應(yīng)的注意力特征圖之間的歐幾里得距離。Heo等[19]對教師模型和學(xué)生模型的特征變換及距離函數(shù)的形式進(jìn)行了全面的分析,認(rèn)為對教師模型的特征進(jìn)行變形會導(dǎo)致教師模型知識的缺失,提出了使用pre-ReLU的特征進(jìn)行知識遷移的方法,同時設(shè)計(jì)了一個新的距離函數(shù)以實(shí)現(xiàn)教師模型和學(xué)生模型之間的知識遷移。

    有些學(xué)者則提出要關(guān)注樣本間關(guān)系所包含的豐富的結(jié)構(gòu)信息,即使用基于關(guān)系的知識。Park等[15]提出了將教師模型輸出特征之間的結(jié)構(gòu)化關(guān)系遷移給學(xué)生模型的方法,同時提出了二階的樣本間距離損失和三階的樣本間角度損失,但該方法在計(jì)算距離時,分配給所有樣本的權(quán)重是一樣的,缺乏樣本之間的相互重要性的考慮。Gou等[22]基于網(wǎng)絡(luò)的注意力區(qū)域具有更多信息和使用單層特征圖進(jìn)行知識蒸餾容易過擬合等特點(diǎn),利用來自多個中間層的注意力圖構(gòu)建樣本間關(guān)系,在多種不同類型數(shù)據(jù)集上進(jìn)行了廣泛的實(shí)驗(yàn)并取得了優(yōu)秀的結(jié)果。

    近年來對比學(xué)習(xí)方法廣泛應(yīng)用于無監(jiān)督學(xué)習(xí)[23-24],該方法通過縮小正對比對的距離并擴(kuò)大負(fù)對比對的距離來實(shí)現(xiàn)特征聚類。有學(xué)者[16,25]嘗試將對比學(xué)習(xí)引入知識蒸餾,以實(shí)現(xiàn)學(xué)生模型對教師模型的模仿,取得了一定的成績,這些方法的基本原理是挖掘數(shù)據(jù)中的結(jié)構(gòu)化關(guān)系,使用的也是基于關(guān)系的知識。在對比學(xué)習(xí)中,對比對的構(gòu)建至關(guān)重要,目前主流的方法主要有兩種。第一種方法是將同一圖像進(jìn)行兩種不同的數(shù)據(jù)增強(qiáng)處理,得到該圖像的兩種數(shù)據(jù)增強(qiáng)形式且兩種形式互為正例,并將批次內(nèi)的其他圖像數(shù)據(jù)增強(qiáng)形式作為負(fù)例。Xu等[25]采用了該方法構(gòu)建對比對,提出了自我監(jiān)督知識蒸餾(SSKD)方法,該方法在教師模型和學(xué)生模型分別獨(dú)立進(jìn)行對比學(xué)習(xí),通過提高學(xué)生模型和教師模型的對比矩陣的相似度來實(shí)現(xiàn)知識蒸餾。該方法將批次內(nèi)圖像的數(shù)量擴(kuò)大了兩倍,因而計(jì)算和顯存的消耗也擴(kuò)大了兩倍。第二種方法是將訓(xùn)練集所有圖像在上一個迭代的特征存儲在記憶庫中。在當(dāng)前迭代中,用輸入網(wǎng)絡(luò)的圖像的輸出特征和記憶庫中相同類別的圖像特征構(gòu)建正對比對,并在記憶庫中隨機(jī)用其他圖像的特征構(gòu)建負(fù)對比對。Tian等[16]提出的對比表示知識蒸餾(CRD)算法屬于此類,其優(yōu)化目標(biāo)是最大化教師模型和學(xué)生模型輸出特征之間的互信息。雖然該方法沒有提高計(jì)算上的消耗,但在訓(xùn)練時用內(nèi)存庫存儲每個樣本的特征需要大量額外的顯存。此外,在CRD中還需要額外的網(wǎng)絡(luò)模塊對齊教師模型和學(xué)生模型輸出特征的維度。

    針對以上問題,文中提出了一種基于特征空間嵌入的對比知識蒸餾(FSECD)算法,該算法使用基于關(guān)系的知識和模型全連接層的輸出作為輸入,使得算法在保持高性能的同時,在硬件資源和計(jì)算耗時上的增加幾乎可以忽略不計(jì)。在訓(xùn)練過程中,F(xiàn)SECD算法將對應(yīng)相同輸入圖像的學(xué)生模型輸出特征和教師模型輸出特征組成正對比對,輸入圖像不互相對應(yīng)的特征則視為負(fù)對比對,該操作等價于將任一學(xué)生網(wǎng)絡(luò)輸出特征嵌入到教師模型的特征空間中,在多個教師模型輸出特征的作用下,根據(jù)梯度下降原理,自動靠近匹配度最高的教師模型輸出特征。在此過程中,學(xué)生模型間接學(xué)習(xí)了教師模型的特征空間知識,實(shí)現(xiàn)對學(xué)生模型特征空間的優(yōu)化。文中通過實(shí)驗(yàn)探究正/負(fù)例的兩種選取策略對FSECD算法性能的影響,并在兩個主流的圖像分類數(shù)據(jù)集CIFAR-100和ImageNet上評估了文中所提出的知識蒸餾算法的性能。

    1 基于對比學(xué)習(xí)的知識蒸餾算法

    1.1 對比學(xué)習(xí)損失函數(shù)

    式中:(·;)為卷積神經(jīng)網(wǎng)絡(luò);τ為溫度系數(shù),用以調(diào)節(jié)損失函數(shù)的平滑度。假定卷積神經(jīng)網(wǎng)絡(luò)輸入圖像樣本,并生成特征向量()。為了簡單起見,文中將從()中省略,直接標(biāo)記為,同時繼承樣本的上標(biāo)和下標(biāo)。

    使用該損失函數(shù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(·;)時,相似的輸入圖像的輸出特征也會趨近,反之,則互相遠(yuǎn)離。默認(rèn)情況下,為了保證訓(xùn)練時模型的穩(wěn)定性,需要對特征使用2正則進(jìn)行處理。

    1.2 基于對比學(xué)習(xí)的特征空間嵌入

    相較于學(xué)生模型,教師模型的結(jié)構(gòu)更復(fù)雜,因此往往有強(qiáng)的分辨能力,在相同的訓(xùn)練條件下,教師模型的準(zhǔn)確率也更高。本研究將學(xué)生模型輸出的特征嵌入教師模型的特征空間,以學(xué)習(xí)教師模型輸出的多個特征之間形成的結(jié)構(gòu)化知識,實(shí)現(xiàn)更好的蒸餾效果。在使用FSECD算法訓(xùn)練的過程中,教師模型的參數(shù)被凍結(jié),只優(yōu)化學(xué)生模型的參數(shù)。

    1.3 正/負(fù)例的選取策略

    圖1 正/負(fù)例的選取策略示意圖

    若采用類別級策略,即來自同一類別的圖像互為正例,則標(biāo)簽為狗的樣本,有兩個正例和兩個負(fù)例;若采取實(shí)例級策略,則只將同一圖像的教師模型輸出視為正例,其余為負(fù)例。此外,采用第二種策略時,可以將式(2)簡化為

    此處可以將實(shí)例級別策略視為一個多分類器,該分類器的權(quán)重由教師模型動態(tài)提供,實(shí)現(xiàn)將任一學(xué)生模型特征正確識別為對應(yīng)教師模型特征的功能。無論采用哪種策略,都可以使學(xué)生模型向教師模型學(xué)習(xí)樣本間的關(guān)系。每個學(xué)生模型的輸出特征是獨(dú)立優(yōu)化的,但它們都被嵌入了同一個教師模型的特征空間并學(xué)習(xí)該特征空間的結(jié)構(gòu)化知識,即學(xué)習(xí)和模仿的是同一個對象。在訓(xùn)練過程中,間接優(yōu)化了學(xué)生模型自身的樣本間關(guān)系,最終使得學(xué)生模型和教師模型具有相似的特征空間。

    1.4 總損失函數(shù)

    FSECD算法能夠以模型的任一卷積層經(jīng)全局平均池處理的輸出特征為輸入(需經(jīng)全局平均池處理或展平處理),或者是以模型最終全連接層的輸出特征為輸入,然而后者與前者相比,具有以下兩個優(yōu)點(diǎn):

    圖2 以全連接層輸出特征為輸入的FSECD算法的流程圖

    1)全連接層的輸出特征具有更抽象的語義信息。在圖像分類中,得到全連接層的輸出特征的方法是將最后一層卷積層的特征依次輸入全局平均池化層和全連接層。該操作在數(shù)學(xué)上等價于:先將最后一層的卷積層特征輸入到一個卷積核大小為1的卷積層(且該卷積層輸出通道數(shù)等于待預(yù)測的類別數(shù)),然后進(jìn)行全局平均池化。因此,全連接層的輸出特征可以視為一種特殊的卷積層特征,且該特征處于網(wǎng)絡(luò)的最后一層。由于模型的層度越深,特征的語義越豐富,所以全連接層的輸出特征是具有最高級別的語義的特征,用于知識蒸餾可以使學(xué)生模型學(xué)習(xí)到更好的知識。

    2)不存在特征對齊的問題。無論網(wǎng)絡(luò)結(jié)構(gòu)和容量如何變化,全連接層輸出特征的維數(shù)總是等于數(shù)據(jù)集要預(yù)測的類別數(shù)。采用全連接層的輸出特征甚至可以在不知道教師網(wǎng)絡(luò)結(jié)構(gòu)的情況下進(jìn)行蒸餾,即只需要教師模型的輸出。使用卷積層的輸出特征進(jìn)行知識蒸餾,在教師網(wǎng)絡(luò)和學(xué)生網(wǎng)絡(luò)的特征維數(shù)不同時,存在特征維數(shù)對齊的問題。例如,將ResNet50模型的知識蒸餾給ResNet18模型時,教師模型的特征維數(shù)為2 048,而學(xué)生模型的特征維數(shù)為512,無法直接蒸餾,需要訓(xùn)練額外的模型分支以實(shí)現(xiàn)維度對齊。在網(wǎng)絡(luò)結(jié)構(gòu)不同時,特征維度對齊的情況會變得更加復(fù)雜。

    基于以上原因,本研究采用全連接層的輸出特征進(jìn)行對比蒸餾,故不存在維度對齊問題。圖2是以模型全連接層輸出特征為輸入的FSECD算法的流程圖。

    =CE+FSECD(4)

    式中,是兩種損失函數(shù)的平衡系數(shù)。

    2 實(shí)驗(yàn)及結(jié)果分析

    2.1 數(shù)據(jù)集

    本研究采用圖像分類領(lǐng)域主流的兩個數(shù)據(jù)集(CIFAR-100[26]和ImageNet[27]數(shù)據(jù)集)對網(wǎng)絡(luò)進(jìn)行訓(xùn)練和測試。CIFAR-100數(shù)據(jù)集包含100個類別的圖像,圖像尺寸為32×32;訓(xùn)練集包含5萬幅圖像,每個類別各500幅圖像;測試集包含1萬幅圖像,每個類別各100幅圖像。在使用CIFAR-100數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò)時,對訓(xùn)練集圖像進(jìn)行標(biāo)準(zhǔn)的數(shù)據(jù)增強(qiáng)處理,即在圖像的每邊填充4個像素,再重新將圖像裁剪為32×32的大小,然后以50%的概率進(jìn)行水平翻轉(zhuǎn);而對測試集圖像不進(jìn)行數(shù)據(jù)增強(qiáng)處理。ImageNet數(shù)據(jù)集的訓(xùn)練集包含128萬幅圖像,共1 000個類別,每個類別1 300幅圖像左右;驗(yàn)證集包含5萬幅圖像,每個類別各50幅圖像。在使用ImageNet數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò)時,隨機(jī)裁剪訓(xùn)練集圖像中的一個區(qū)域并將該區(qū)域尺寸拉伸為224×224,然后以50%的概率進(jìn)行水平翻轉(zhuǎn);而對測試集圖像同樣不進(jìn)行數(shù)據(jù)增強(qiáng)處理。

    2.2 實(shí)驗(yàn)配置和評價指標(biāo)

    本研究在Ubuntu環(huán)境下,使用Pytorch深度學(xué)習(xí)框架對不同的知識蒸餾算法的性能進(jìn)行評估。為了覆蓋相同/相異架構(gòu)上的教師-學(xué)生模型,本研究在一系列不同架構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)上進(jìn)行了實(shí)驗(yàn),使用的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)包括:

    (1)WRN--[6],其中為該網(wǎng)絡(luò)架構(gòu)的深度因子,為寬度因子。

    (2)ResNet。在CIFAR-100數(shù)據(jù)集上,ResNet表示具有3個卷積組的Cifar風(fēng)格的ResNet[2],為該網(wǎng)絡(luò)架構(gòu)的深度因子,每個卷積組分別有16、32和64個通道。此外,ResNet8×4和ResNet32×4分別表示深度因子為8和32且具有4倍通道數(shù)的模型。在ImageNet數(shù)據(jù)集上,ResNet表示ImageNet風(fēng)格的ResNet。

    (3)MobileNetV1和MobileNetV2[5,28],本研究使用寬度因子為0.5的MobileNetV2。

    (4)VGG[1],為該網(wǎng)絡(luò)架構(gòu)的深度因子,本研究采用具有Batchnorm層的VGG網(wǎng)絡(luò)。

    (5)ShuffleNet和ShuffleNetV2[3-4],其中ShuffleNet的模型寬度系數(shù)為3,ShuffleNetV2的模型尺寸系數(shù)默認(rèn)為1。

    為了與其他知識蒸餾算法進(jìn)行客觀的對比,所有實(shí)驗(yàn)均采用與文獻(xiàn)[16]相同的實(shí)驗(yàn)設(shè)置。在CIFAR-100數(shù)據(jù)集上,所有網(wǎng)絡(luò)訓(xùn)練240個回合,在第150、180和210個訓(xùn)練回合時學(xué)習(xí)率除以10;重量衰減和動量分別設(shè)置為5×10-4和0.9;所有網(wǎng)絡(luò)的批次大小為128;ShuffleNet系列和MobileNetV2的學(xué)習(xí)率為0.02,其余模型的學(xué)習(xí)率為0.1;對于FSECD算法,溫度系數(shù)設(shè)置為4,對于不同的師生對,損失函數(shù)平衡系數(shù)的取值是不同的,具體見表1。在ImageNet數(shù)據(jù)集上,網(wǎng)絡(luò)訓(xùn)練100個回合,批次大小為512,學(xué)習(xí)率為0.2(學(xué)習(xí)率在第30、60和90個訓(xùn)練回合時除以10),重量衰減和動量分別設(shè)置為1×10-4和0.9,所有師生對的損失函數(shù)平衡系數(shù)都取為1,溫度系數(shù)設(shè)置為8。

    表1 教師+學(xué)生模型師生對的超參數(shù)取值

    Table 1 Values of hyperparameter of teacher + student pairs

    教師+學(xué)生模型師生對λ ResNet56+ResNet204 ResNet110+ResNet328 ResNet5+MobileNetV26 ResNet32×4+ ResNet8x410 ResNet32×4+ShuffleNetV18 ResNet32×4+ShuffleNetV28 WRN-40-2+WRN-40-18 WRN-40-2+WRN-16-212 WRN-40-2+ShuffleNetV18 VGG13+VGG84 VGG13+MobileNetV28

    在CIFAR-100數(shù)據(jù)集上,本研究使用Top-1準(zhǔn)確度cc1作為評價指標(biāo)。設(shè)測試集的圖像數(shù)量為,模型預(yù)測的概率最高的類等于真實(shí)標(biāo)簽的圖像數(shù)量為1,則

    在ImageNet數(shù)據(jù)集上,除了cc1外,還使用了Top-5準(zhǔn)確度cc5作為評價指標(biāo)。設(shè)真實(shí)標(biāo)簽是模型預(yù)測出的概率最高的5個類之一的圖像數(shù)量為2,則

    對同一網(wǎng)絡(luò)模型,所有知識蒸餾算法重復(fù)進(jìn)行3次訓(xùn)練,取3次訓(xùn)練的cc1和cc5作為該知識蒸餾算法的最終得分。CE表示只使用基于硬標(biāo)簽的交叉熵?fù)p失函數(shù)CE訓(xùn)練的算法。

    2.3 正/負(fù)例選取策略對算法性能的影響

    文中通過實(shí)驗(yàn)比較了類別級策略和實(shí)例級策略對FSECD算法性能的影響,并對結(jié)果進(jìn)行分析。兩種策略的核心區(qū)別在于正/負(fù)例選取的標(biāo)準(zhǔn),在批次大小較小時,由于批次內(nèi)屬于相同類別的圖像數(shù)量較少,兩種策略的實(shí)際差異不大;隨著批次大小的增加,在每次迭代中屬于同一類的樣本數(shù)量將增加,兩種策略的實(shí)際差異會不斷擴(kuò)大;使對比實(shí)驗(yàn)的結(jié)果差異更明顯。為了更好地展示對比實(shí)驗(yàn)的結(jié)果,文中采用了3種批次大小,分別為128、512和1 024,選擇WRN-40-2+WRN-40-1和ResNet32×4+ResNet8×4兩對教師-學(xué)生模型師生對在CIFAR-100數(shù)據(jù)集上進(jìn)行對比實(shí)驗(yàn),結(jié)果見表2。從表中可知,當(dāng)批次大小過大時,模型過擬合程度增大,導(dǎo)致網(wǎng)絡(luò)性能下降,但相較于CE算法,采用兩種選取策略的FSECD算法提升了網(wǎng)絡(luò)的性能,并且使用實(shí)例級策略時性能提升的幅度更大。

    表2 在CIFAR-100數(shù)據(jù)集上使用類別級策略和實(shí)例級策略的FSECD算法與CE算法的性能對比

    Table 2 Comparison of performance among CE algorithm and FSECD algorithms with class-level policy and instance-level policy on CIFAR-100 dataset

    算法教師+學(xué)生模型師生對Acc1/% B=128B=512B=1 024 CEWRN-40-2+WRN-40-173.2669.7568.11 ResNet32×4+ResNet8×472.5070.6369.14 類別級策略的FSECDWRN-40-2+WRN-40-173.3771.5270.33 ResNet32×4+ResNet8×475.7472.9471.24 實(shí)例級策略的FSECDWRN-40-2+WRN-40-174.4974.3973.26 ResNet32×4+ResNet8×476.5775.5874.58

    當(dāng)批次大小為512時,對于WRN-40-2+WRN-40-1師生對,相對于CE算法,使用實(shí)例級策略的FSECD算法的網(wǎng)絡(luò)性能提升了4.64個百分點(diǎn),而使用類別級策略的FSECD算法則使網(wǎng)絡(luò)性能提升了1.77個百分點(diǎn)。對于WRN-40-2+WRN-40-1師生對,當(dāng)批次大小分別為128、512、1 024時,采用實(shí)例級策略時網(wǎng)絡(luò)的性能比采用類別級策略時分別多提升了1.12、2.87、2.93個百分點(diǎn)??梢钥吹?,批次大小越大,采用實(shí)例級策略的FSECD算法在性能上超過采用類別級策略的FSECD算法的幅度也相應(yīng)變大。同樣的現(xiàn)象也存在于另一組師生對中。

    采用實(shí)例級策略訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)性能更好的原因在于:采用實(shí)例級策略訓(xùn)練時,訓(xùn)練的細(xì)粒度更高。實(shí)例級策略要求能夠一一區(qū)分每一幅圖像,而不是單純地區(qū)分某一個類別,前者的難度要高于后者。采用實(shí)例級策略訓(xùn)練的模型,可以為每幅圖像生成獨(dú)特的特征,從而與教師圖像生成的特征相對應(yīng),因此網(wǎng)絡(luò)的性能更高。在后續(xù)與其他知識蒸餾算法的對比實(shí)驗(yàn)中,默認(rèn)FSECD算法使用的是實(shí)例級策略。

    2.4 與其他知識蒸餾算法的比較實(shí)驗(yàn)

    在CIFAR-100數(shù)據(jù)集上,采用FSECD算法與其他主流的知識蒸餾算法(包括KD[14]、FitNets[17]、AT[18]、RKD[15]、OFD[19]、CRD[16]和DKD[21])進(jìn)行了對比實(shí)驗(yàn),結(jié)果見表3和表4,分別用粗體和斜體標(biāo)記最優(yōu)和次優(yōu)的結(jié)果。從表3可見,對于實(shí)驗(yàn)的6組教師-學(xué)生模型師生對,使用FSECD算法訓(xùn)練的網(wǎng)絡(luò)的cc1性能取得了4組最優(yōu)和2組次優(yōu),這表明了特征空間嵌入的優(yōu)越性。從表4可見,對于實(shí)驗(yàn)的5組教師-學(xué)生模型師生對,采用FSECD算法訓(xùn)練的網(wǎng)絡(luò)的cc1性能取得了2組最優(yōu)和2組次優(yōu),只有ResNet32×4+ShuffleNetV2師生對的cc1低于OFD和DKD。

    表3 在CIFAR-100數(shù)據(jù)集上使用9種知識蒸餾算法訓(xùn)練的6種相同網(wǎng)絡(luò)架構(gòu)模型的Acc1對比

    Table 3 Comparison of Acc1 among six models with the same network architecture trained by nine knowledge distillation algorithms on CIFAR-100 dataset %

    算法ResNet56+ResNet20ResNet110+ResNet32ResNet32×4+ResNet8×4WRN-40-2+WRN-16-2WRN-40-2+WRN-40-1VGG13+VGG8 CE69.0671.1472.5173.2671.9870.36 KD70.6673.0873.3374.9273.5472.98 FitNet69.2171.0673.5073.5872.2471.02 AT70.5572.3173.4474.0872.7771.43 RKD69.6171.8271.9073.3572.2271.48 OFD70.9873.2374.9575.2474.3373.95 CRD71.1673.4875.5175.4874.1473.94 DKD1)71.3273.7775.9275.3274.1474.41 FSECD71.3973.5176.5775.6274.4974.11

    1)使用作者提供的代碼復(fù)現(xiàn)得到的結(jié)果,下同。

    表4 在CIFAR-100數(shù)據(jù)集上使用9種知識蒸餾算法訓(xùn)練的5種相異網(wǎng)絡(luò)架構(gòu)模型的Acc1對比

    Table 4 Comparison of Acc1 among five models with different network architectures trained by nine knowledge distillation algorithms on CIFAR-100 dataset %

    算法ResNet32×4+ShuffleNetV1WRN-40-2+ShuffleNetV1VGG13+MobileNetV2ResNet50+MobileNetV2ResNet32×4+ShuffleNetV2 CE70.5070.5064.6064.6071.82 KD74.0774.8367.3767.3574.45 FitNet73.5973.7364.1463.1673.54 AT71.7373.3259.4058.5872.73 RKD72.2872.2164.5264.4373.21 OFD75.9875.8569.4869.0476.82 CRD75.1176.0569.7369.1175.65 DKD1)76.4576.6769.2969.9676.70 FSECD76.0176.3269.9770.0676.15

    在ImageNet數(shù)據(jù)集上,采用FSECD算法與其他主流知識蒸餾算法(包括KD[14]、AT[18]、OFD[19]、CRD[16]和DKD[21]),對兩組教師-學(xué)生模型師生對進(jìn)行了對比實(shí)驗(yàn),結(jié)果見表5。表5顯示,對于具有相同網(wǎng)絡(luò)架構(gòu)的師生對ResNet34+ResNet18,DKD算法訓(xùn)練的網(wǎng)絡(luò)的cc1略微超過FSECD算法,但差距非常小,為0.05%,這兩種算法訓(xùn)練的網(wǎng)絡(luò)的cc5幾乎相等。對于具有相異網(wǎng)絡(luò)架構(gòu)的師生對ResNet50+MobileNetV1,使用FSECD算法訓(xùn)練的網(wǎng)絡(luò),其cc1和cc5性能均優(yōu)于其他知識蒸餾算法。

    在CIFAR100和ImageNet數(shù)據(jù)集上,F(xiàn)SECD和DKD算法均取得優(yōu)秀的結(jié)果,然而FSECD算法使用的超參數(shù)少于DKD算法,使得文中FSECD算法的拓展性更好。

    表5 ImageNet數(shù)據(jù)集上使用7種知識蒸餾算法訓(xùn)練的2種網(wǎng)絡(luò)模型的Acc1和Acc5對比

    Table 5 Comparison of Acc1 and Acc5 between two network models trained by seven knowledge distillation algorithms on ImageNet dataset

    算法Acc1/%Acc5/% ResNet34+ResNet18ResNet50+MobileNetvV1ResNet34+ResNet18ResNet50+MobileNetV1 CE69.7568.8789.0788.76 KD71.0370.5090.0589.80 AT70.6969.5690.0189.33 CRD71.1771.3790.1390.41 OFD70.8171.2589.9890.34 DKD1)71.5472.0190.4390.02 FSECD71.4972.1990.4490.98

    3 消融實(shí)驗(yàn)

    3.1 結(jié)構(gòu)化知識對模型性能的影響

    FSECD算法通過在每一個訓(xùn)練迭代內(nèi),學(xué)生模型輸出特征根據(jù)與其他所有教師模型輸出特征的關(guān)系,產(chǎn)生吸引或排斥的效果。文中用式(7)所示的損失函數(shù)替換式(4)中的FSECD,并將修改后的算法命名為FSECD_S。在FSECD_S中,只構(gòu)建正對比對,不構(gòu)建負(fù)對比對,學(xué)生模型只能學(xué)習(xí)到一對一的樣本間關(guān)系的知識,無法學(xué)習(xí)到結(jié)構(gòu)化的知識。

    損失函數(shù)(7)只顯式地最小化正對比對的距離,不考慮負(fù)對比對,無結(jié)構(gòu)化知識的學(xué)習(xí)。文中選擇WRN-40-2+WRN-40-1和ResNet32×4+ResNet8×4兩組教師-學(xué)生模型師生對,在CIFAR-100數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),結(jié)果見表6。從表中可知:兩種損失函數(shù)都可以提高模型的性能;FSECD算法提升學(xué)生模型性能的幅度更大,充分證明了基于特征空間嵌入進(jìn)行結(jié)構(gòu)化知識學(xué)習(xí)的重要性。

    表6 在CIFAR-100數(shù)據(jù)集上結(jié)構(gòu)化知識對模型性能的影響

    Table 6 Influence of structural knowledge on the performance of models on CIFAR-100 dataset %

    算法WRN-40-2+WRN-40-1ResNet32×4+ResNet8×4 CE71.9872.51 FSECD_S73.6674.49 FSECD75.7476.57

    3.2 負(fù)例數(shù)量對模型性能的影響

    為探究充當(dāng)負(fù)例的樣本數(shù)量對FSECD算法的影響,比較了使用不同數(shù)量負(fù)例的學(xué)生模型的cc1得分。在每個訓(xùn)練迭代,對任一學(xué)生模型輸出特征,先根據(jù)負(fù)例與該學(xué)生模型輸出特征的相似度進(jìn)行降序排序,然后只保留降序排列后top-的負(fù)例用于FSECD算法,此處是一個預(yù)先設(shè)置好的超參數(shù)。此外,還比較了只使用一個負(fù)例進(jìn)行訓(xùn)練的學(xué)生模型的性能。在CIFAR100數(shù)據(jù)集上兩組師生對的實(shí)驗(yàn)結(jié)果如表7所示。

    表7 在CIFAR-100數(shù)據(jù)集上負(fù)例樣本數(shù)對模型性能的影響

    Table 7 Influence of the number of negative instances on the performance of models on CIFAR-100 dataset %

    算法ResNet32×4+ResNet8×4ResNet56+ResNet20 CE72.5169.02 FSECD(1個負(fù)例)73.9270.08 FSECD(k=25%)75.8670.96 FSECD(k=50%)76.1471.15 FSECD(k=100%)76.5771.39

    當(dāng)只使用一個負(fù)例時,相對于CE算法,使用FSECD算法訓(xùn)練的ResNet8×4的cc1只提升了1.41個百分點(diǎn),ResNet20的cc1只提升了1.06個百分點(diǎn)。隨著使用負(fù)例的比例增大,學(xué)生模型的性能也不斷提升,當(dāng)=100%時,兩個學(xué)生網(wǎng)絡(luò)的cc1都達(dá)到峰值。該實(shí)驗(yàn)結(jié)果表明了負(fù)例數(shù)量的重要性。隨著負(fù)例個數(shù)的增加,學(xué)生獲取到更多教師特征空間的信息,使得學(xué)生模型的特征空間有更好的泛化能力,獲得了更好的性能。

    3.3 超參數(shù)對模型性能的影響

    3.3.1溫度系數(shù)對模型性能的影響

    溫度系數(shù)取不同值(1、2、4、6、8、10)時對模型性能的影響如圖3所示,過高或過低的溫度系數(shù)都會導(dǎo)致模型性能的下降。溫度系數(shù)的最佳值與數(shù)據(jù)集預(yù)測類別的數(shù)量呈正相關(guān)關(guān)系。數(shù)據(jù)集預(yù)測類別的數(shù)量越多,合適的溫度系數(shù)的數(shù)值就越大,而且它對模型不敏感。CIFAR-100數(shù)據(jù)集的類別數(shù)量為100,所用溫度系數(shù)的數(shù)值在3到5之間;ImageNet數(shù)據(jù)集的類別數(shù)量為1 000,溫度系數(shù)的數(shù)值設(shè)置為8比較合適。

    3.3.2損失函數(shù)平衡系數(shù)對模型性能的影響

    損失函數(shù)平衡系數(shù)取不同值(1、2、4、8、10、15、20)時對模型性能的影響如圖4所示,隨著損失函數(shù)平衡系數(shù)的增加,模型性能先上升后下降。損失函數(shù)平衡系數(shù)的最佳值需要根據(jù)網(wǎng)絡(luò)模型師生對的情況進(jìn)行調(diào)優(yōu),如ResNet32×4+ResNet8×4的損失函數(shù)平衡系數(shù)最佳值是10,而ResNet56-ResNet20的最佳值是4。此外,當(dāng)損失函數(shù)平衡系數(shù)的取值過大導(dǎo)致網(wǎng)絡(luò)性能下降時,不同網(wǎng)絡(luò)性能的下降程度是不同的,如ResNet32×4-ResNet8×4相比其最佳性能下降的幅度不大,而ResNet56-ResNet20相比其最佳性能的下降幅度很大。

    圖4 在CIFAR-100數(shù)據(jù)集上損失函數(shù)平衡系數(shù)對模型性能的影響

    4 可視化實(shí)驗(yàn)

    4.1 基于t-SNE算法的特征可視化

    文中使用t-SNE[29]來可視化ResNet8×4模型倒數(shù)第二層卷積層的特征,t-SNE算法可以在降維的同時,保持特征之間的相互關(guān)系??梢暬窃贑IFAR-100數(shù)據(jù)集的測試集上進(jìn)行的,先對測試集上的每幅圖像進(jìn)行特征提取,然后使用t-SNE算法對高維特征進(jìn)行降維。本研究將每個高維特征降到二維空間,并在二維地圖上以點(diǎn)表示。

    圖5 基于t-SNE算法的特征可視化

    KD和FSECD算法的t-SNE可視化結(jié)果如圖5所示,由于ResNet8×4在測試集上的cc1在70%~80%之間,因此存在一些特征是分散的,而不是靠近其特征中心,在生成的特征分布圖中心形成了一個不太清晰的區(qū)域。由特征分布圖可知,使用FSECD算法得到的模型實(shí)現(xiàn)了更緊密的特征聚集和更高區(qū)分度的類間邊界。

    4.2 可視化教師和學(xué)生模型的差異

    文中通過可視化距離矩陣,對比了采用KD和FSECD算法訓(xùn)練的學(xué)生模型與教師模型的相似程度,采用的網(wǎng)絡(luò)模型師生對為ResNet32×4+ResNet8×4。

    首先,按真實(shí)標(biāo)簽對測試集中的圖像進(jìn)行分類;然后,對于某一類別的所有圖像,統(tǒng)計(jì)模型預(yù)測概率并取均值,對所有類別的圖像進(jìn)行預(yù)測后,可得到類別預(yù)測概率矩陣∈ R100×100,其中P定義為所有真實(shí)標(biāo)簽為的圖像被預(yù)測為類別的平均概率;最后,計(jì)算教師模型類別預(yù)測概率矩陣t和學(xué)生模型類別預(yù)測概率矩陣s之間的距離矩陣,計(jì)算公式為

    為了可視化,對距離矩陣采用全局歸一化:

    可視化結(jié)果如圖6所示,圖中用顏色深淺表示該點(diǎn)距離的大小。學(xué)生模型與教師模型越相似,點(diǎn)的顏色越淺,同時也代表學(xué)生模型的性能越好。從圖中可知,使用FSECD算法訓(xùn)練的學(xué)生模型歐幾里得距離更小,進(jìn)一步證明了FSECD算法遷移教師模型知識的優(yōu)越性。

    圖6 兩種算法的教師和學(xué)生模型的差異

    5 結(jié)論

    本研究提出了一種基于特征空間嵌入的對比知識蒸餾算法FSECD,該算法將教師模型的結(jié)構(gòu)化知識提取到學(xué)生模型。在每個訓(xùn)練迭代,批次內(nèi)的教師模型輸出特征或充當(dāng)正例或充當(dāng)負(fù)例,共同優(yōu)化每個學(xué)生模型的輸出特征。批次內(nèi)的學(xué)生模型輸出特征被嵌入到教師模型的特征空間,學(xué)習(xí)相同的結(jié)構(gòu)化的教師模型的知識,最終學(xué)生模型模仿了教師模型的特征空間,并能夠輸出與教師相似的樣本間關(guān)系,實(shí)現(xiàn)了知識的遷移。文中算法通過在批次內(nèi)進(jìn)行對比學(xué)習(xí)的對比對的構(gòu)建,克服了以往對比學(xué)習(xí)需要額外的計(jì)算或內(nèi)存的缺點(diǎn),是一種高效簡潔的知識蒸餾算法。本研究在CIFAR-100和ImageNet數(shù)據(jù)集上進(jìn)行了大量的對比實(shí)驗(yàn),結(jié)果顯示,在大多數(shù)實(shí)驗(yàn)配置下,文中提出的算法均取得最優(yōu)或次優(yōu)的結(jié)果,充分證明了文中算法的優(yōu)越性,并進(jìn)一步證明了樣本間關(guān)系在知識蒸餾中的重要性。

    [1] SIMONYAN K,ZISSERMAN A.Very deep convolutional networks for large-scale image recognition [EB/OL].(2015-04-10)[2022-10-20].https://arxiv.org/abs/1409.1556v1.

    [2] HE K,ZHANG X,REN S,et al.Deep residual learning for image recognition[C]∥ Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas:IEEE,2016:770-778.

    [3] ZHANG X,ZHOU X,LIN M,et al.ShuffleNet:an extremely efficient convolutional neural network for mobile devices[C]∥ Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:6848-6856.

    [4] MA N,ZHANG X,ZHENG H-T,et al.ShuffleNet V2:practical guidelines for efficient CNN architecture design[C]∥ Proceedings of the 15th European Conference on Computer Vision.Munich:Springer,2018:122-138.

    [5] SANDLER M,HOWARD A,ZHU M,et al.MobileNetV2:inverted residuals and linear bottlenecks [C]∥ Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:4510-4520.

    [6] ZAGORUYKO S,KOMODAKIS N.Wide residual networks[EB/OL].(2017-06-14)[2022-10-20].https://arxiv.org/abs/1605.07146.

    [7] REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:unified,real-time object detection[C]∥ Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas:IEEE,2016:779-788.

    [8] LIU W,ANGUELOV D,ERHAN D,et al.SSD:single shot multibox detector[C]∥ Proceedings of the 14th European Conference on Computer Vision.Amsterdam:Springer,2016:21-37.

    [9] HE K,GKIOXARI G,DOLLáR P,et al.Mask R-CNN[C]∥ Proceedings of 2017 IEEE International Conference on Computer Vision.Venice:IEEE,2017:2961-2969.

    [10] ZHAO H,SHI J,QI X,et al.Pyramid scene parsing network[C]∥ Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition.Honolulu:IEEE,2017:2881-2890.

    [11] LUO J-H,WU J,LIN W.ThiNet:a filter level pruning method for deep neural network compression[C]∥ Proceedings of 2017 IEEE International Conference on Computer Vision.Venice:IEEE,2017:5058-5066.

    [12] JACOB B,KLIGYS S,CHEN B,et al.Quantization and training of neural networks for efficient integer-arithmetic-only inference[C]∥ Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:2704-2713.

    [13] YU X,LIU T,WANG X,et al.On compressing deep models by low rank and sparse decomposition[C]∥ Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition.Honolulu:IEEE,2017:7370-7379.

    [14] HINTON G,VINYALS O,DEAN J.Distilling the knowledge in a neural network[EB/OL].(2015-05-09)[2022-10-20].https://arxiv.org/abs/1503.02531.

    [15] PARK W,KIM D,LU Y,et al.Relational knowledge distillation[C]∥ Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Long Beach:IEEE,2019:3967-3976.

    [16] TIAN Y,KRISHNAN D,ISOLA P.Contrastive representation distillation[C]∥ Proceedings of the 8th International Conference on Learning Representations.Addis Ababa:OpenReview.net,2020:1-19.

    [17] ROMERO A,BALLAS N,KAHOU S E,et al.FitNets:hints for thin deep nets[C]∥ Proceedings of the 3rd International Conference on Learning Representations.San Diego:OpenReview.net,2015:1-13.

    [18] ZAGORUYKO S,KOMODAKIS N.Paying more attention to attention:improving the performance of convolutional neural networks via attention transfer[C]∥ Proceedings of the 5th International Conference on Learning Representations.Toulon:OpenReview.net,2017:1-13.

    [19] HEO B,KIM J,YUN S,et al.A comprehensive overhaul of feature distillation[C]∥ Proceedings of 2019 IEEE/CVF International Conference on Computer Vision.Long Beach:IEEE,2019:1921-1930.

    [20] GOU J,YU B,MAYBANK S J,et al.Knowledge distillation:a survey[J].International Journal of Computer Vision,2021,129(6):1789-1819.

    [21] ZHAO B,CUI Q,SONG R,et al.Decoupled knowledge distillation[C]∥ Proceedings of 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition.New Orleans:IEEE,2022:11953-11962.

    [22] GOU J,SUN L,YU B,et al.Multi-level attention-based sample correlations for knowledge distillation[J].IEEE Transactions on Industrial Informatics,2022,DOI:10.1109/TII.2022.3209672.

    [23] CHEN T,KORNBLITH S,NOROUZI M,et al.A simple framework for contrastive learning of visual representations[C]∥ Proceedings of the Thirty-seventh International Conference on Machine Learning.Vienna:IMLS,2020:1597-1607.

    [24] RADFORD A,KIM J W,HALLACY C,et al.Learning transferable visual models from natural language supervision[C]∥ Proceedings of the 38th International Conference on Machine Learning.Vienna:IMLS,2021:8748-8763.

    [25] XU G,LIU Z,LI X,et al.Knowledge distillation meets self-supervision[C]∥ Proceedings of the 16th European Conference on Computer Vision.Glasgow:Springer,2020:588-604.

    [26] KRIZHEVSKY A.Learning multiple layers of features from tiny images[D].Toronto:University of Toronto,2009.

    [27] DENG J,DONG W,SOCHER R,et al.ImageNet:a large-scale hierarchical image database[C]∥ Proceedings of 2009 IEEE Conference on Computer Vision and Pattern Recognition.Miami:IEEE,2009:248-255.

    [28] HOWARD A G,ZHU M,CHEN B,et al.MobileNets:efficient convolutional neural networks for mobile vision applications[EB/OL].(2017-04-17)[2022-10-20].https://arxiv.org/abs/1704.04861.

    [29] Van der MAATEN L,HINTON G.Visualizing data using t-SNE[J].Journal of Machine Learning Research,2008,9(11):2579-2605.

    Contrastive Knowledge Distillation Method Based on Feature Space Embedding

    (School of Mechanical and Automotive Engineering,South China University of Technology,Guangzhou 510640,Guangdong,China)

    Because of its important role in model compression, knowledge distillation has attracted much attention in the field of deep learning. However, the classical knowledge distillation algorithm only uses the information of a single sample, and neglects the importance of the relationship between samples, leading to its poor performance. To improve the efficiency and performance of knowledge transfer in knowledge distillation algorithm, this paper proposed a feature-space-embedding based contrastive knowledge distillation (FSECD) algorithm. The algorithm adopts efficient batch construction strategy, which embeds the student feature into the teacher feature space so that each student feature buildscontrastive pairs withteacher features. In each pair, the teacher feature is optimized and fixed, while student feature is to be optimized and tunable. In the training process, the distance for positive pairs is narrowed and the distance for negative pairs is expanded, so that student model can perceive and learn the inter-sample relations of teacher model and realize the transfer of knowledge from teacher model to student model. Extensive experiments with different teacher/student architecture settings on CIFAR-100 and ImageNet datasets show that, FSECD algorithm achieves significant performance improvement without additional network structures and data when compared with other cutting-edge distillation methods, which further proves the importance of the inter-sample relations in knowledge distillation.

    image classification;knowledge distillation;convolutional neural network;deep learning;contrastive learning

    Supported by the Key-Area R&D Program of Guangdong Province (2021B0101420003)

    10.12141/j.issn.1000-565X.220684

    2022?10?24

    廣東省重點(diǎn)領(lǐng)域研發(fā)計(jì)劃項(xiàng)目(2021B0101420003)

    葉峰(1972-),男,博士,副教授,主要從事機(jī)器視覺及移動機(jī)器人傳感控制研究。E-mail:mefengye@scut.edu.cn

    TP391

    1000-565X(2023)05-0013-11

    猜你喜歡
    集上卷積特征
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    Cookie-Cutter集上的Gibbs測度
    鏈完備偏序集上廣義向量均衡問題解映射的保序性
    如何表達(dá)“特征”
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    不忠誠的四個特征
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    復(fù)扇形指標(biāo)集上的分布混沌
    抓住特征巧觀察
    一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
    久久久久久久亚洲中文字幕| 精品一区在线观看国产| 我要看黄色一级片免费的| 另类精品久久| 亚洲欧美成人精品一区二区| 母亲3免费完整高清在线观看 | 五月开心婷婷网| 久久99蜜桃精品久久| 丰满乱子伦码专区| a 毛片基地| 亚洲国产毛片av蜜桃av| 肉色欧美久久久久久久蜜桃| 一区二区av电影网| av国产精品久久久久影院| 建设人人有责人人尽责人人享有的| 国产淫语在线视频| 日韩人妻高清精品专区| 男女国产视频网站| 最近的中文字幕免费完整| 久久国产精品男人的天堂亚洲 | 桃花免费在线播放| 最后的刺客免费高清国语| 亚洲av不卡在线观看| 日韩欧美精品免费久久| 熟妇人妻不卡中文字幕| av有码第一页| 母亲3免费完整高清在线观看 | 国产老妇伦熟女老妇高清| 下体分泌物呈黄色| 热re99久久精品国产66热6| 成年av动漫网址| 亚洲av在线观看美女高潮| 国产又色又爽无遮挡免| 久久久亚洲精品成人影院| 免费不卡的大黄色大毛片视频在线观看| av卡一久久| 纯流量卡能插随身wifi吗| 午夜免费男女啪啪视频观看| 91午夜精品亚洲一区二区三区| 国产成人精品婷婷| 午夜激情av网站| 欧美一级a爱片免费观看看| 在线天堂最新版资源| 亚洲综合色惰| 2021少妇久久久久久久久久久| av黄色大香蕉| 成人亚洲精品一区在线观看| 亚洲国产精品专区欧美| av国产久精品久网站免费入址| 18禁观看日本| 免费高清在线观看日韩| 日韩中文字幕视频在线看片| 亚洲欧美中文字幕日韩二区| 99久久精品一区二区三区| 亚洲精品aⅴ在线观看| 自拍欧美九色日韩亚洲蝌蚪91| 亚洲综合精品二区| 青春草视频在线免费观看| 亚洲欧美一区二区三区黑人 | 亚洲欧洲国产日韩| 亚洲欧美日韩卡通动漫| 国产在线一区二区三区精| 日韩熟女老妇一区二区性免费视频| 国产欧美日韩综合在线一区二区| 99九九在线精品视频| 国产在线一区二区三区精| 久久精品国产亚洲av天美| 国产成人freesex在线| 成人黄色视频免费在线看| 午夜免费鲁丝| 自线自在国产av| 女性生殖器流出的白浆| 日本vs欧美在线观看视频| 好男人视频免费观看在线| 亚洲少妇的诱惑av| 大话2 男鬼变身卡| 伦理电影免费视频| 999精品在线视频| 免费看光身美女| 欧美日韩精品成人综合77777| av在线播放精品| 在线亚洲精品国产二区图片欧美 | 色婷婷久久久亚洲欧美| 久久国产精品男人的天堂亚洲 | 一级a做视频免费观看| 国产精品久久久久久精品电影小说| 日韩欧美一区视频在线观看| 91aial.com中文字幕在线观看| 天美传媒精品一区二区| 飞空精品影院首页| 国产精品一区二区在线观看99| 亚洲av.av天堂| 插阴视频在线观看视频| 一级毛片aaaaaa免费看小| 日韩人妻高清精品专区| 国产精品女同一区二区软件| 亚洲av不卡在线观看| 成人亚洲精品一区在线观看| 国产成人免费观看mmmm| 老司机亚洲免费影院| 欧美97在线视频| 中文天堂在线官网| 黑人欧美特级aaaaaa片| 99热这里只有精品一区| 精品熟女少妇av免费看| 一级毛片电影观看| 亚洲国产成人一精品久久久| av.在线天堂| 亚洲综合色网址| 亚洲国产精品成人久久小说| 亚洲精品一二三| 国产精品成人在线| 热re99久久国产66热| 亚洲少妇的诱惑av| 精品人妻偷拍中文字幕| 欧美日韩视频高清一区二区三区二| 青春草国产在线视频| 久久精品国产亚洲av涩爱| 哪个播放器可以免费观看大片| 啦啦啦视频在线资源免费观看| 久久精品国产a三级三级三级| 99国产综合亚洲精品| 精品午夜福利在线看| 水蜜桃什么品种好| 亚洲国产日韩一区二区| www.色视频.com| 我要看黄色一级片免费的| av专区在线播放| 一区二区三区精品91| 啦啦啦中文免费视频观看日本| 久久精品国产a三级三级三级| 天堂中文最新版在线下载| √禁漫天堂资源中文www| 国产乱来视频区| 亚洲精品美女久久av网站| 少妇人妻 视频| 亚洲国产最新在线播放| 另类亚洲欧美激情| av福利片在线| 亚洲四区av| av视频免费观看在线观看| 欧美精品一区二区免费开放| 亚洲综合精品二区| 亚洲精品一二三| 看非洲黑人一级黄片| 午夜91福利影院| 欧美97在线视频| 日产精品乱码卡一卡2卡三| av在线播放精品| 91成人精品电影| a级毛片在线看网站| 人人妻人人添人人爽欧美一区卜| 97在线人人人人妻| 永久免费av网站大全| 国产日韩一区二区三区精品不卡 | 在线观看免费日韩欧美大片 | 伊人亚洲综合成人网| 丰满乱子伦码专区| 下体分泌物呈黄色| 一个人免费看片子| 久久精品国产亚洲av涩爱| 国产精品一区二区三区四区免费观看| 亚洲精品乱久久久久久| 国产精品一二三区在线看| 国产成人精品福利久久| 大片电影免费在线观看免费| 建设人人有责人人尽责人人享有的| 日韩熟女老妇一区二区性免费视频| av又黄又爽大尺度在线免费看| 亚洲精品成人av观看孕妇| 黄色一级大片看看| 国产男女内射视频| 精品99又大又爽又粗少妇毛片| 免费观看在线日韩| 国产亚洲最大av| 免费黄网站久久成人精品| 欧美xxⅹ黑人| 国产精品一区二区在线不卡| 99久久人妻综合| 亚洲精品aⅴ在线观看| 精品少妇久久久久久888优播| videos熟女内射| 日韩av不卡免费在线播放| av国产精品久久久久影院| 久久久久久久亚洲中文字幕| 观看av在线不卡| 亚洲综合精品二区| 久久精品国产亚洲av涩爱| 一本色道久久久久久精品综合| 51国产日韩欧美| 国产精品一区二区三区四区免费观看| 多毛熟女@视频| 特大巨黑吊av在线直播| 天天躁夜夜躁狠狠久久av| 免费观看无遮挡的男女| 国产色婷婷99| 最黄视频免费看| 日本欧美国产在线视频| 少妇高潮的动态图| 久久久精品94久久精品| 日日啪夜夜爽| 汤姆久久久久久久影院中文字幕| 中文字幕精品免费在线观看视频 | 中文欧美无线码| 99九九在线精品视频| 国产又色又爽无遮挡免| 一本色道久久久久久精品综合| 天堂俺去俺来也www色官网| 国产成人精品在线电影| 一级毛片电影观看| 国产精品麻豆人妻色哟哟久久| 超色免费av| 一本久久精品| 亚洲精品美女久久av网站| 在线观看三级黄色| 丝瓜视频免费看黄片| 国产精品 国内视频| 国产精品久久久久久av不卡| 日日摸夜夜添夜夜添av毛片| 自拍欧美九色日韩亚洲蝌蚪91| 香蕉精品网在线| 大话2 男鬼变身卡| 久久韩国三级中文字幕| 尾随美女入室| 夫妻午夜视频| 在线观看一区二区三区激情| 哪个播放器可以免费观看大片| 中文乱码字字幕精品一区二区三区| 欧美日本中文国产一区发布| 国产片内射在线| 极品少妇高潮喷水抽搐| 婷婷色综合大香蕉| 韩国av在线不卡| 国产av码专区亚洲av| 国产日韩一区二区三区精品不卡 | 日韩不卡一区二区三区视频在线| 欧美丝袜亚洲另类| 久久热精品热| 99九九在线精品视频| 久久亚洲国产成人精品v| 18禁裸乳无遮挡动漫免费视频| 嘟嘟电影网在线观看| 国产成人精品无人区| 久久 成人 亚洲| 成人午夜精彩视频在线观看| 成人国产av品久久久| 国产精品国产三级专区第一集| 成人无遮挡网站| 国产精品不卡视频一区二区| 亚洲精品乱久久久久久| 精品亚洲乱码少妇综合久久| av免费观看日本| 亚洲国产色片| 夜夜看夜夜爽夜夜摸| 啦啦啦中文免费视频观看日本| 在线观看免费视频网站a站| 亚洲国产av影院在线观看| 国产视频内射| 亚洲精品aⅴ在线观看| 精品少妇内射三级| 大香蕉久久网| 观看美女的网站| 亚洲三级黄色毛片| 十分钟在线观看高清视频www| 啦啦啦啦在线视频资源| 日产精品乱码卡一卡2卡三| 国内精品宾馆在线| 大陆偷拍与自拍| 久久综合国产亚洲精品| 一区二区日韩欧美中文字幕 | av一本久久久久| 免费黄频网站在线观看国产| 国产一区二区在线观看av| 啦啦啦啦在线视频资源| 欧美日韩成人在线一区二区| 狂野欧美白嫩少妇大欣赏| 在线天堂最新版资源| 亚洲欧美日韩卡通动漫| 在线精品无人区一区二区三| 国产高清国产精品国产三级| 青春草视频在线免费观看| 精品一区二区免费观看| 中文字幕制服av| 亚洲精品久久久久久婷婷小说| 99久久精品国产国产毛片| 国产精品.久久久| 在线观看国产h片| 日本欧美视频一区| 99久久中文字幕三级久久日本| 亚洲av综合色区一区| 欧美精品人与动牲交sv欧美| 国产精品嫩草影院av在线观看| 女人久久www免费人成看片| 欧美性感艳星| 97超碰精品成人国产| 777米奇影视久久| 亚洲av在线观看美女高潮| av免费观看日本| 人妻系列 视频| 欧美精品一区二区大全| 99久国产av精品国产电影| 免费av不卡在线播放| 亚洲精品久久午夜乱码| 午夜免费男女啪啪视频观看| 丰满乱子伦码专区| 赤兔流量卡办理| 国产亚洲欧美精品永久| av黄色大香蕉| av免费在线看不卡| 97在线人人人人妻| 久久久久久久久大av| 中文字幕免费在线视频6| 大香蕉久久成人网| 国产视频内射| 在线观看免费日韩欧美大片 | 国产极品粉嫩免费观看在线 | 天天躁夜夜躁狠狠久久av| 亚洲四区av| 精品国产露脸久久av麻豆| 免费观看无遮挡的男女| 岛国毛片在线播放| 久久韩国三级中文字幕| 成人免费观看视频高清| 国产成人免费无遮挡视频| 国产伦理片在线播放av一区| 黑人欧美特级aaaaaa片| 人人妻人人爽人人添夜夜欢视频| 丰满迷人的少妇在线观看| 久热这里只有精品99| 各种免费的搞黄视频| 高清在线视频一区二区三区| 极品人妻少妇av视频| 久久久久久久大尺度免费视频| 只有这里有精品99| 欧美3d第一页| 91aial.com中文字幕在线观看| 麻豆乱淫一区二区| 蜜臀久久99精品久久宅男| 51国产日韩欧美| 亚洲av欧美aⅴ国产| 热99国产精品久久久久久7| 99视频精品全部免费 在线| 日本av手机在线免费观看| 午夜免费男女啪啪视频观看| 亚洲av电影在线观看一区二区三区| 久久国产精品男人的天堂亚洲 | 日韩亚洲欧美综合| 大话2 男鬼变身卡| 大香蕉97超碰在线| 制服丝袜香蕉在线| 亚洲精品日本国产第一区| 欧美三级亚洲精品| 一本一本综合久久| 夜夜看夜夜爽夜夜摸| 插阴视频在线观看视频| 永久网站在线| 国产精品一区www在线观看| 寂寞人妻少妇视频99o| 插阴视频在线观看视频| 国产免费福利视频在线观看| 欧美日韩av久久| 91久久精品电影网| 欧美精品亚洲一区二区| 2022亚洲国产成人精品| 天堂俺去俺来也www色官网| 超色免费av| 国产视频内射| 日本午夜av视频| 婷婷色av中文字幕| 久久久久精品久久久久真实原创| 亚洲精品一区蜜桃| 日韩三级伦理在线观看| 成年女人在线观看亚洲视频| 精品一区在线观看国产| 亚洲,欧美,日韩| 人人妻人人添人人爽欧美一区卜| 黄色配什么色好看| 精品卡一卡二卡四卡免费| 女人久久www免费人成看片| 国产免费视频播放在线视频| 色网站视频免费| 亚洲综合精品二区| 国产女主播在线喷水免费视频网站| 精品一区二区三区视频在线| 日韩人妻高清精品专区| 性色av一级| 亚洲精品日韩av片在线观看| 中文字幕免费在线视频6| 亚洲欧美成人综合另类久久久| 蜜桃久久精品国产亚洲av| 26uuu在线亚洲综合色| 纯流量卡能插随身wifi吗| 视频区图区小说| 高清毛片免费看| 亚洲美女视频黄频| 又黄又爽又刺激的免费视频.| 大码成人一级视频| 中文字幕久久专区| 激情五月婷婷亚洲| 欧美老熟妇乱子伦牲交| 亚洲色图综合在线观看| .国产精品久久| 丰满少妇做爰视频| 午夜福利在线观看免费完整高清在| 亚洲精品日本国产第一区| 伊人亚洲综合成人网| 97精品久久久久久久久久精品| 视频在线观看一区二区三区| 亚洲精品456在线播放app| 美女主播在线视频| 国产在线一区二区三区精| 中国三级夫妇交换| 国产淫语在线视频| 成人18禁高潮啪啪吃奶动态图 | 激情五月婷婷亚洲| 99re6热这里在线精品视频| 国产av国产精品国产| 久久久国产精品麻豆| 国模一区二区三区四区视频| 国产免费一级a男人的天堂| 国产精品99久久99久久久不卡 | 99久久人妻综合| av免费在线看不卡| 午夜免费观看性视频| 成人18禁高潮啪啪吃奶动态图 | 伦理电影免费视频| 日本黄色日本黄色录像| 一级毛片我不卡| 久久99一区二区三区| 国产精品99久久99久久久不卡 | 91精品伊人久久大香线蕉| 亚洲经典国产精华液单| 免费日韩欧美在线观看| 亚洲一区二区三区欧美精品| 飞空精品影院首页| 亚洲av.av天堂| 欧美97在线视频| 狂野欧美激情性xxxx在线观看| 亚洲在久久综合| 日日摸夜夜添夜夜爱| 精品国产露脸久久av麻豆| av女优亚洲男人天堂| 免费高清在线观看视频在线观看| 中文字幕免费在线视频6| 成人国产av品久久久| 丰满乱子伦码专区| 久久鲁丝午夜福利片| videossex国产| 满18在线观看网站| 在线观看www视频免费| 3wmmmm亚洲av在线观看| 国产高清三级在线| 久久久精品94久久精品| 久久久久国产网址| 婷婷色综合www| 欧美精品人与动牲交sv欧美| 美女视频免费永久观看网站| 国产成人免费观看mmmm| 人人澡人人妻人| 亚洲精华国产精华液的使用体验| 青青草视频在线视频观看| 看十八女毛片水多多多| 大香蕉97超碰在线| 一区二区三区精品91| 熟妇人妻不卡中文字幕| 午夜激情久久久久久久| 亚洲性久久影院| 嫩草影院入口| 22中文网久久字幕| 蜜桃国产av成人99| 女人精品久久久久毛片| av专区在线播放| 校园人妻丝袜中文字幕| 夜夜看夜夜爽夜夜摸| 少妇 在线观看| 哪个播放器可以免费观看大片| 十八禁高潮呻吟视频| 久久人人爽人人爽人人片va| 亚洲在久久综合| 一级毛片我不卡| a级毛片在线看网站| 香蕉精品网在线| 十分钟在线观看高清视频www| 日韩欧美一区视频在线观看| 国精品久久久久久国模美| 国产精品久久久久久久电影| 亚洲精品成人av观看孕妇| 日韩伦理黄色片| 国产色爽女视频免费观看| 男女高潮啪啪啪动态图| 国产白丝娇喘喷水9色精品| 老司机影院成人| 大香蕉久久成人网| av在线app专区| 一级毛片电影观看| 久久久久久久久久久免费av| 久久久久精品性色| 国产 一区精品| 久久久a久久爽久久v久久| 狂野欧美激情性xxxx在线观看| 女人久久www免费人成看片| 久久久久网色| 亚洲熟女精品中文字幕| 亚洲av成人精品一区久久| 欧美性感艳星| 全区人妻精品视频| 国产视频内射| 桃花免费在线播放| 欧美激情 高清一区二区三区| 久久国产亚洲av麻豆专区| 欧美日韩综合久久久久久| 少妇人妻精品综合一区二区| 日韩精品有码人妻一区| h视频一区二区三区| 国产黄片视频在线免费观看| 日本黄大片高清| 丰满饥渴人妻一区二区三| 草草在线视频免费看| 又黄又爽又刺激的免费视频.| 丰满迷人的少妇在线观看| 99精国产麻豆久久婷婷| 麻豆精品久久久久久蜜桃| 精品久久久久久电影网| av视频免费观看在线观看| 91精品伊人久久大香线蕉| 伊人亚洲综合成人网| 在线亚洲精品国产二区图片欧美 | 亚洲久久久国产精品| 婷婷色综合www| 91国产中文字幕| 中文字幕人妻熟人妻熟丝袜美| 中文字幕最新亚洲高清| 99国产综合亚洲精品| 麻豆精品久久久久久蜜桃| av免费在线看不卡| 伦精品一区二区三区| 精品国产国语对白av| 一级,二级,三级黄色视频| av线在线观看网站| 久久ye,这里只有精品| 99精国产麻豆久久婷婷| 韩国高清视频一区二区三区| 爱豆传媒免费全集在线观看| 91精品三级在线观看| 国产精品嫩草影院av在线观看| 一区在线观看完整版| 青春草视频在线免费观看| 亚洲欧美日韩卡通动漫| 日韩人妻高清精品专区| 伊人久久国产一区二区| 丰满迷人的少妇在线观看| 中文字幕人妻丝袜制服| 丰满饥渴人妻一区二区三| 久久久久视频综合| 亚洲精品美女久久av网站| av女优亚洲男人天堂| 日韩伦理黄色片| 午夜视频国产福利| 成人无遮挡网站| 国产精品成人在线| 亚洲第一av免费看| 久久精品久久精品一区二区三区| 91久久精品电影网| 亚洲精品一区蜜桃| 久久人人爽av亚洲精品天堂| 成年美女黄网站色视频大全免费 | 大码成人一级视频| 岛国毛片在线播放| 久久久久国产精品人妻一区二区| 视频区图区小说| 亚洲精华国产精华液的使用体验| 夜夜骑夜夜射夜夜干| 成人黄色视频免费在线看| 亚洲三级黄色毛片| 精品少妇内射三级| 国产精品偷伦视频观看了| 亚洲第一av免费看| 国产免费视频播放在线视频| 久久久午夜欧美精品| 一个人免费看片子| 国产av国产精品国产| 亚洲激情五月婷婷啪啪| av黄色大香蕉| 黄色怎么调成土黄色| 高清黄色对白视频在线免费看| 内地一区二区视频在线| 成人漫画全彩无遮挡| 亚洲av日韩在线播放| 自线自在国产av| 国产日韩一区二区三区精品不卡 | 精品卡一卡二卡四卡免费| 在线观看免费日韩欧美大片 | 黄色怎么调成土黄色| 成人毛片a级毛片在线播放| 久久精品国产a三级三级三级| 美女xxoo啪啪120秒动态图| 成人毛片60女人毛片免费| av线在线观看网站| 在线观看美女被高潮喷水网站| 纵有疾风起免费观看全集完整版| 久久精品国产a三级三级三级| 青青草视频在线视频观看| 欧美精品一区二区大全| 新久久久久国产一级毛片| 久久精品久久精品一区二区三区| 男女啪啪激烈高潮av片| videos熟女内射| 亚洲欧美日韩卡通动漫| 18在线观看网站| 欧美97在线视频| av国产久精品久网站免费入址| 男人操女人黄网站| 少妇的逼水好多| 国内精品宾馆在线| 亚洲美女视频黄频|