• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向深度網(wǎng)絡(luò)的小樣本學(xué)習(xí)綜述

    2023-10-17 11:03:26潘雪玲李國(guó)和鄭藝峰
    計(jì)算機(jī)應(yīng)用研究 2023年10期

    潘雪玲 李國(guó)和 鄭藝峰

    摘 要:深度學(xué)習(xí)以數(shù)據(jù)為驅(qū)動(dòng),被廣泛應(yīng)用于各個(gè)領(lǐng)域,但由于數(shù)據(jù)隱私、標(biāo)記昂貴等導(dǎo)致樣本少、數(shù)據(jù)不完備性等問題,同時(shí)小樣本難于準(zhǔn)確地表示數(shù)據(jù)分布,使得分類模型誤差較大,且泛化能力差。為此,小樣本學(xué)習(xí)被提出,旨在利用較少目標(biāo)數(shù)據(jù)訓(xùn)練模型快速學(xué)習(xí)的能力。系統(tǒng)梳理了近幾年來小樣本學(xué)習(xí)領(lǐng)域的相關(guān)工作,主要整理和總結(jié)了基于數(shù)據(jù)增強(qiáng)、基于元學(xué)習(xí)和基于轉(zhuǎn)導(dǎo)圖小樣本學(xué)習(xí)方法的研究進(jìn)展。首先,從基于監(jiān)督增強(qiáng)和基于無監(jiān)督增強(qiáng)闡述數(shù)據(jù)增強(qiáng)的主要特點(diǎn)。其次,從基于度量學(xué)習(xí)和基于參數(shù)優(yōu)化兩方面對(duì)基于元學(xué)習(xí)的方法進(jìn)行分析。接著,詳細(xì)總結(jié)轉(zhuǎn)導(dǎo)圖小樣本學(xué)習(xí)方法,介紹常用的小樣本數(shù)據(jù)集,并通過實(shí)驗(yàn)闡述分析具有代表性的小樣本學(xué)習(xí)模型。最后總結(jié)現(xiàn)有方法的局限性,并對(duì)小樣本學(xué)習(xí)的未來研究方向進(jìn)行展望。

    關(guān)鍵詞:小樣本學(xué)習(xí); 數(shù)據(jù)增強(qiáng); 元學(xué)習(xí); 度量學(xué)習(xí); 轉(zhuǎn)導(dǎo)圖小樣本學(xué)習(xí)

    中圖分類號(hào):TP181 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1001-3695(2023)10-001-2881-08

    doi:10.19734/j.issn.1001-3695.2023.02.0074

    Survey on few-shot learning for deep network

    Pan Xueling1a,1b, Li Guohe1a,1b, Zheng Yifeng2,3

    (1.a.Beijing Key Lab of Petroleum Data Mining, b.College of Information Science & Engineering, China University of Petroleum, Beijing 102249, China; 2.School of Computer Science, Minnan Normal University, Zhangzhou Fujian 363000, China; 3.Key Laboratory of Data Science & Intelligence Application, Fujian Province University, Zhangzhou Fujian 363000, China)

    Abstract:Deep learning is widely used in various fields, which is data-driven. Data privacy and expensive data labeling or other questions cause samples absent and data incompleteness. Moreover, small samples cannot accurately represent data distribution, reducing classification performance and generalization ability. Therefore, few-shot learning is defined to achieve fast learning by utilizing a small target samples. This paper systematically summarized the current approaches of few-shot learning, introducing models from the three categories: data augmentation-based, meta-learning based, and transduction graph-based. First, it illustrated the data augmentation-based approaches according to supervised and unsupervised augmentations. Then, it analyzed the meta-learning based approaches from metric learning and parameter optimization. Next, it elaborated transduction graph-based approaches. Eventually, it introduced the commonly few-shot datasets, and analyzed representative few-shot learning models through experiments. In addition, this paper summarized the challenges and the future technological development of few-shot learning.

    Key words:few-shot learning; data augmentation; meta-learning; metric learning; transductive graph few-shot learning

    0 引言

    大數(shù)據(jù)時(shí)代,深度學(xué)習(xí)[1]以大量的標(biāo)簽數(shù)據(jù)為驅(qū)動(dòng),已廣泛應(yīng)用于計(jì)算機(jī)視覺[2,3]、自然語言處理[4,5]、動(dòng)物學(xué)[6]和人口統(tǒng)計(jì)學(xué)[7]等領(lǐng)域。然而,標(biāo)注數(shù)據(jù)的收集與獲取需要消耗大量的人力與時(shí)間,并且在某些領(lǐng)域(例如醫(yī)學(xué)、軍事和金融等)中,由于隱私安全等問題無法獲得充足的樣本?,F(xiàn)實(shí)世界中人類僅依靠少量樣本就可快速學(xué)習(xí),受此啟發(fā),研究人員提出小樣本學(xué)習(xí)(few-shot learning)。小樣本學(xué)習(xí)方式更貼近于人類思維,可有效解決上述問題。

    小樣本學(xué)習(xí)分為非深度學(xué)習(xí)和深度學(xué)習(xí)兩個(gè)研究階段。在非深度學(xué)習(xí)階段,主要以構(gòu)造先驗(yàn)概率的生成模型為主[8],該策略通過引入中間潛在變量,將輸入樣本和其類別建立聯(lián)系,以構(gòu)造先驗(yàn)概率,其發(fā)展相對(duì)緩慢。Miller等人[9]于2000年最先提出利用每個(gè)類的單個(gè)樣本來訓(xùn)練分類器,并指出大量數(shù)據(jù)的分類器性能正在趨于穩(wěn)定。單樣本學(xué)習(xí)(one-shot lear-ning)問題將有助于縮小人機(jī)性能差距[10]。隨著深度學(xué)習(xí)技術(shù)的發(fā)展, Koch等人[11]于2015年首次將深度學(xué)習(xí)融入到小樣本學(xué)習(xí)問題中,提出孿生網(wǎng)絡(luò)(siamese neural network) 用以衡量?jī)蓚€(gè)樣本間的相似度,使得模型精度有了很大的提高。小樣本學(xué)習(xí)進(jìn)入深度學(xué)習(xí)階段,其研究重點(diǎn)主要以構(gòu)造后驗(yàn)概率的判別模型為主 [8](基本流程如圖1所示),即通過深度神經(jīng)網(wǎng)絡(luò)f(·|θ)(例如:CNN)對(duì)輸入樣本進(jìn)行特征提取,再通過預(yù)測(cè)層C(·|φ)(例如:softmax)對(duì)提取的特征進(jìn)行標(biāo)簽預(yù)測(cè),其中,θ和φ均為可學(xué)習(xí)的深度網(wǎng)絡(luò)參數(shù)。特征表示和端到端優(yōu)化等深度學(xué)習(xí)技術(shù)使小樣本學(xué)習(xí)得到快速發(fā)展。Wang等人[12]根據(jù)研究人員如何利用先驗(yàn)知識(shí)來解決小樣本學(xué)習(xí)經(jīng)驗(yàn)風(fēng)險(xiǎn)不可靠這一核心問題,將小樣本學(xué)習(xí)方法分為基于數(shù)據(jù)、基于模型、基于算法三個(gè)研究方向。趙凱琳等人[13]根據(jù)所采用方法的不同,將小樣本學(xué)習(xí)分為基于模型微調(diào)、基于數(shù)據(jù)增強(qiáng)和基于遷移學(xué)習(xí)[13]。此外,安勝彪等人[14]從基于有監(jiān)督、基于半監(jiān)督、基于無監(jiān)督的角度進(jìn)行歸納總結(jié)小樣本方法,其中,將基于有監(jiān)督細(xì)分為元學(xué)習(xí)、度量學(xué)習(xí)和數(shù)據(jù)增強(qiáng)進(jìn)行歸納總結(jié);將基于半監(jiān)督細(xì)分為低密度可分假設(shè)和自監(jiān)督學(xué)習(xí)方法進(jìn)行歸納總結(jié);將基于無監(jiān)督細(xì)分為基于無標(biāo)簽數(shù)據(jù)和基于聚類方法進(jìn)行歸納總結(jié)。本文主要從解決小樣本學(xué)習(xí)樣本量少、模型訓(xùn)練容易過擬合問題出發(fā),將小樣本研究方法分為基于數(shù)據(jù)增強(qiáng)、基于元學(xué)習(xí)和基于轉(zhuǎn)導(dǎo)圖小樣本學(xué)習(xí)三個(gè)方面。基于數(shù)據(jù)增強(qiáng)的小樣本學(xué)習(xí)方法的本質(zhì)是通過數(shù)據(jù)合成或特征增強(qiáng)方式解決樣本量少的問題,本文根據(jù)是否需要額外的輔助信息(比如語義屬性[15]或詞向量[16]等)將基于數(shù)據(jù)增強(qiáng)的小樣本學(xué)習(xí)方法進(jìn)一步細(xì)分為監(jiān)督數(shù)據(jù)增強(qiáng)和無監(jiān)督數(shù)據(jù)增強(qiáng)。研究人員從跨任務(wù)學(xué)習(xí)的角度提出基于元學(xué)習(xí)的小樣本學(xué)習(xí)方法來解決模型過擬合問題,本文將其細(xì)分為基于度量學(xué)習(xí)和基于參數(shù)優(yōu)化?;谵D(zhuǎn)導(dǎo)圖小樣本學(xué)習(xí)方法是一種相對(duì)較新的轉(zhuǎn)導(dǎo)推理小樣本學(xué)習(xí)方法,但也取得了先進(jìn)的效果。

    本文首先從基于數(shù)據(jù)增強(qiáng)、基于元學(xué)習(xí)和基于轉(zhuǎn)導(dǎo)圖小樣本學(xué)習(xí)三個(gè)角度介紹小樣本學(xué)習(xí)的研究進(jìn)展,總結(jié)了小樣本圖像分類和識(shí)別任務(wù)中的常用數(shù)據(jù)集以及已有模型在這些數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,最后在結(jié)束語中將針對(duì)小樣本學(xué)習(xí)的主要挑戰(zhàn)展望其未來的發(fā)展趨勢(shì)。

    1 基于數(shù)據(jù)增強(qiáng)的小樣本學(xué)習(xí)

    小樣本學(xué)習(xí)面臨的根本問題是樣本量少、樣本多樣性低,易導(dǎo)致模型過擬合。相比傳統(tǒng)變換規(guī)則(例如平移、旋轉(zhuǎn)、縮放和添加噪聲 [17,18]),基于數(shù)據(jù)增強(qiáng)的方法旨在通過數(shù)據(jù)合成或特征增強(qiáng)的方式提高訓(xùn)練樣本的數(shù)量和特征多樣性[19]。隨著深度學(xué)習(xí)的發(fā)展,研究人員提出了許多相對(duì)復(fù)雜的增強(qiáng)模型、算法和網(wǎng)絡(luò)來進(jìn)行數(shù)據(jù)擴(kuò)充或特征增強(qiáng)。根據(jù)是否需要額外的輔助信息,可將其分為監(jiān)督增強(qiáng)和無監(jiān)督增強(qiáng)。

    1.1 監(jiān)督增強(qiáng)方法

    監(jiān)督增強(qiáng)方法核心思想是利用語義屬性或詞向量等輔助信息對(duì)原有數(shù)據(jù)集進(jìn)行數(shù)據(jù)擴(kuò)充或特征增強(qiáng),防止模型過擬合。

    Chen等人[20,21]提出自編碼網(wǎng)絡(luò)(dual TriNet)以實(shí)現(xiàn)語義空間的數(shù)據(jù)增強(qiáng),與傳統(tǒng)圖像級(jí)別或特征空間中的數(shù)據(jù)擴(kuò)充不同,其核心是將特征映射到語義空間,在語義空間中通過語義高斯或者語義近鄰的方式進(jìn)行語義特征增強(qiáng)。dual TriNet模型(如圖2所示)由 encoder TriNet和decoder TriNet兩部分組成。首先,encoder TriNet將ResNet-8提取的多級(jí)深度特征{fl(Isupporti)}映射到語義空間(該語義空間和標(biāo)簽語義空間對(duì)齊)。然后在此空間中,或者如式(1)所示,將語義高斯引入語義特征,構(gòu)造以語義特征gEnc({fl(Isupporti)})為均值,以σ為方差的高斯分布,并從中隨機(jī)采樣作為擴(kuò)充后的語義特征VGki;或者如式(2)所示,從已訓(xùn)練好的詞向量空間中選取與語義特征向量gEnc({fl(Isupporti)})最接近的向量作為擴(kuò)充后的語義特征VNki。最后,將擴(kuò)充后的語義特征通過decoder TriNet逐級(jí)還原為特征圖(即gDec(VGki)或gDec(VNki)),并通過KNN、SVM或者邏輯回歸等分類器完成分類任務(wù)。

    與dual TriNet不同,Yu等人[22]提出生成屬性的遷移學(xué)習(xí)模型(author topic,AT),其核心是通過為每個(gè)屬性建立一個(gè)生成式的屬性模型來學(xué)習(xí)圖像特征的概率分布,并將不同類別的公共屬性視做屬性先驗(yàn)來學(xué)習(xí)目標(biāo)任務(wù)。該模型所采用的特征包圖像表示法有利于加強(qiáng)空間約束,提高屬性定位的精確度,但會(huì)丟失一些有價(jià)值的空間信息。

    Lu等人[23]則考慮為每個(gè)屬性建立一個(gè)模型,提出一種新的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)(attribute-based synthetic network,ABS-Net)自動(dòng)為缺少圖像標(biāo)注的類合成偽特征表示,以解決類間數(shù)據(jù)不平衡或者類內(nèi)數(shù)據(jù)缺乏等問題。其核心思想是利用輔助數(shù)據(jù)集進(jìn)行屬性學(xué)習(xí),建立屬性特征存儲(chǔ)庫(kù)。當(dāng)給定一個(gè)類的屬性特征描述時(shí),采用概率抽樣策略從特征存儲(chǔ)庫(kù)中抽取一些屬性特征用于向量合成,通過此方式合成偽特征,實(shí)現(xiàn)特征層的數(shù)據(jù)增強(qiáng)。偽特征合成與圖像合成方法相比,前者無須將遷移知識(shí)映射到真實(shí)的圖像領(lǐng)域,有效規(guī)避了域適應(yīng)問題。

    Frederik等人[24]提出利用多模態(tài)信息合成圖像來訓(xùn)練細(xì)粒度小樣本學(xué)習(xí)模型,其在訓(xùn)練時(shí)是多模態(tài)的,而在測(cè)試時(shí)則采用單模態(tài)(即圖像)。此外,還提出文本條件生成對(duì)抗網(wǎng)絡(luò)(text conditional generative adversarial network,tcGAN),在細(xì)粒度文本描述的條件下產(chǎn)生附加圖像,促進(jìn)小樣本學(xué)習(xí)。2022年,潘理虎等人[25]提出多特征融合關(guān)系抽取方法實(shí)現(xiàn)語義增強(qiáng),該方法通過構(gòu)建一個(gè)融合位置、詞性和句法依存等信息的分段卷積神經(jīng)網(wǎng)絡(luò)來最大化表示語義特征,并將其融入詞嵌入以提高模型上下文共性學(xué)習(xí)。此后,呂天根等人[26]提出將視覺特征與文本特征融合再進(jìn)行局部特征選擇的方法,利用文本數(shù)據(jù)增加特征多樣性,提高了模型精度。

    近年來,通過語義增強(qiáng)特征的方法成為新的研究熱點(diǎn)之一,Schwartz等人[27]重點(diǎn)研究額外語義信息的作用,并進(jìn)一步證明通過結(jié)合多種更豐富的語義信息(類別標(biāo)簽、屬性和自然語言描述)可有效提升模型精度。

    1.2 無監(jiān)督增強(qiáng)方法

    無監(jiān)督增強(qiáng)方法進(jìn)行數(shù)據(jù)擴(kuò)充或特征增強(qiáng)無須額外的輔助信息,主要通過提出新的網(wǎng)絡(luò)模型學(xué)習(xí)類內(nèi)變形信息或添加隨機(jī)噪聲進(jìn)行圖像合成。

    Hariharan等人[28]提出新的小樣本學(xué)習(xí)基準(zhǔn)算法,主要包括表征學(xué)習(xí)和小樣本學(xué)習(xí)兩個(gè)階段,通過正則化項(xiàng)來約束兩個(gè)學(xué)習(xí)階段分類器間的差異。表征學(xué)習(xí)階段旨在提高特征提取網(wǎng)絡(luò)的表征能力,小樣本學(xué)習(xí)階段主要側(cè)重于將類內(nèi)不同樣本間的變形信息泛化到其他類別,然后利用多層感知機(jī)合成新樣本,然后利用擴(kuò)充后的數(shù)據(jù)集訓(xùn)練分類模型。

    2018年,Schwartz等人[29]利用類內(nèi)變形擴(kuò)充數(shù)據(jù),提出改進(jìn)的自動(dòng)編碼器(delta-encoder),其核心思想是在編碼階段學(xué)習(xí)同類別中幾個(gè)樣本間的可遷移的類內(nèi)變形,然后在解碼階段,結(jié)合學(xué)得的類內(nèi)變形信息和源樣本生成所屬源樣本類別的新數(shù)據(jù),該模型很好地解決了小樣本學(xué)習(xí)訓(xùn)練樣本少的問題。

    Wang等人[30]提出一種基于生成對(duì)抗網(wǎng)絡(luò)的圖像合成模型(如圖3所示)。該模型主要貢獻(xiàn)有兩點(diǎn):a)樣本空間的擴(kuò)充;b)小樣本分類模型的優(yōu)化。樣本空間的擴(kuò)充即結(jié)合隨機(jī)噪聲和訓(xùn)練樣本通過生成器合成圖像;小樣本分類模型的優(yōu)化即結(jié)合原型網(wǎng)絡(luò)與匹配網(wǎng)絡(luò)的優(yōu)勢(shì)提出PMN(prototype matching network)分類器,因?yàn)槠ヅ渚W(wǎng)絡(luò)利用雙向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)和注意力機(jī)制使得樣本嵌入聚焦于對(duì)分類貢獻(xiàn)度大的特征,但是對(duì)于樣本量少的類別,有用的特征容易被遺忘,容易被常見類別的樣本特征淹沒,這對(duì)樣本量少的類別是一種極大的偏見,而原型網(wǎng)絡(luò)為每個(gè)類別學(xué)習(xí)一個(gè)類原型,可有效緩解這一問題?;谶@一動(dòng)機(jī),PMN提出先借助原型網(wǎng)絡(luò)的思想計(jì)算類原型,再利用雙向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)和注意力機(jī)制學(xué)習(xí)樣本的上下文嵌入,這一改進(jìn)有效提高了模型精度。

    與上述方法不同,Hang等人[31]通過建模樣本的潛在分布進(jìn)行數(shù)據(jù)增強(qiáng),提出保存協(xié)方差的生成對(duì)抗網(wǎng)絡(luò)(covariance preserving adversarial augmentation network,CP-AAN),在給定相關(guān)類別樣本的情況下,對(duì)每個(gè)新類樣本的潛在分布進(jìn)行建模。此外,在生成過程中保存協(xié)方差信息作為相關(guān)類別樣本的變形信息來進(jìn)行數(shù)據(jù)合成。

    2 基于元學(xué)習(xí)的小樣本學(xué)習(xí)

    元學(xué)習(xí)即學(xué)會(huì)學(xué)習(xí),其與小樣本學(xué)習(xí)模擬人類學(xué)習(xí)方式的初衷相契合,旨在從跨任務(wù)學(xué)習(xí)的角度訓(xùn)練一個(gè)可以用于快速學(xué)習(xí)的模型。在元學(xué)習(xí)中,每一個(gè)episode即一個(gè)N-way K-shot分類任務(wù)(其中,N表示每個(gè)任務(wù)的類別數(shù),K表示每個(gè)類別的樣本數(shù)),每個(gè)任務(wù)包括一個(gè)支撐集S(support set,包含N·K個(gè)樣本數(shù))和一個(gè)查詢集Q(query set,包含M個(gè)樣本)。其過程主要包括元訓(xùn)練(meta-training)和元測(cè)試(meta-test)階段[32](如圖4所示)。

    a)元訓(xùn)練(meta-training)階段先通過大量不同的源任務(wù)訓(xùn)練元學(xué)習(xí)器(meta-learner)f(·,·)學(xué)習(xí)先驗(yàn)知識(shí)(如模型的初始參數(shù)、優(yōu)化器和神經(jīng)網(wǎng)絡(luò)的超參數(shù)等[33]),再利用已學(xué)得的先驗(yàn)知識(shí)結(jié)合少量目標(biāo)任務(wù)達(dá)到快速訓(xùn)練基學(xué)習(xí)器(base-learner)m(·,·)的目的,如式(3)所示。需要注意的是在利用損失函數(shù)(如式(4))做反向傳播優(yōu)化元學(xué)習(xí)器(meta-learner)的參數(shù)θ時(shí),必須貫穿整個(gè)小樣本訓(xùn)練過程(包括元學(xué)習(xí)器和基學(xué)習(xí)器兩個(gè)訓(xùn)練過程),而非僅僅優(yōu)化元學(xué)習(xí)器的參數(shù)。

    其中:f(·,·)為元學(xué)習(xí)器;m(·,·)為基學(xué)習(xí)器;L(·,·)為交叉熵?fù)p失函數(shù);θ和φ分別為元學(xué)習(xí)器和基學(xué)習(xí)器可學(xué)習(xí)的參數(shù);S為支撐集;Q為查詢集。

    b)元測(cè)試(meta-test)階段,元學(xué)習(xí)器通常固定不變(即不再優(yōu)化其參數(shù)),僅為新的查詢集任務(wù)生成一個(gè)適合的新的基分類器。

    本章將從基于度量和基于參數(shù)優(yōu)化兩個(gè)方向?qū)谠獙W(xué)習(xí)的小樣本方法進(jìn)行歸納分析。

    2.1 基于度量學(xué)習(xí)方法

    基于度量學(xué)習(xí)方法的基本思想是先通過神經(jīng)網(wǎng)絡(luò)提取圖像特征向量,再采用線性度量方式(比如余弦距離或歐氏距離)或非線性度量方式(神經(jīng)網(wǎng)絡(luò))評(píng)估支撐集與測(cè)試樣本之間的相似程度?,F(xiàn)階段,研究人員也開始考慮引入跨模態(tài)信息訓(xùn)練網(wǎng)絡(luò)以提高模型精度[34,35]。

    Vinyals等人[36]于2016年提出匹配網(wǎng)絡(luò)(matching networks)(如圖5所示),利用注意力機(jī)制和外部記憶結(jié)構(gòu)幫助模型快速學(xué)習(xí)。該網(wǎng)絡(luò)主要有兩個(gè)核心模塊:一是引入雙向長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)學(xué)習(xí)支撐集樣本間的上下文嵌入,通過LSTM各單元間的連接構(gòu)建支撐集樣本間的聯(lián)系;二是引入注意力機(jī)制構(gòu)建支撐集和測(cè)試集樣本間的聯(lián)系。基本流程為:a)利用gθ和fθ兩個(gè)嵌入函數(shù)分別對(duì)支撐集樣本和查詢集樣本xi進(jìn)行特征提??;b)計(jì)算查詢集樣本和支撐集各類別之間的余弦距離cosine(·,·),并輸入注意力機(jī)制a(,xi)(如式(5)所示);c)通過對(duì)預(yù)測(cè)值yi的加權(quán)求和評(píng)估支撐集和測(cè)試集樣本間的匹配程度(如式(6)所示)。該網(wǎng)絡(luò)是小樣本學(xué)習(xí)方法中比較典型的基于線性度量的學(xué)習(xí)策略。

    其中:fθ和gθ表示嵌入函數(shù);表示支撐集樣本;xi表示查詢集樣本;cosine(·,·)表示余弦距離;a(,xi)表示注意力機(jī)制,yi表示預(yù)測(cè)值。

    此后,Snell等人[37]提出原型網(wǎng)絡(luò)(prototypical network,Proto Net),與孿生網(wǎng)絡(luò)相同,其亦通過學(xué)習(xí)度量空間完成小樣本分類。該網(wǎng)絡(luò)主要貢獻(xiàn)是為每個(gè)類別的樣本學(xué)習(xí)一個(gè)類原型,從幾何空間度量查詢集中各樣本點(diǎn)與每個(gè)類原型之間的相似度,進(jìn)而得到各樣本點(diǎn)屬于各類的概率值。類原型的定義為

    2019年,Chen等人[35]在原型網(wǎng)絡(luò)的基礎(chǔ)上,提出基于跨模態(tài)信息增強(qiáng)的度量學(xué)習(xí)方法(adaptive modality mixture mecha-nism,AM3),核心思想是利用跨模態(tài)信息(比如文本語料庫(kù))彌補(bǔ)圖像分類任務(wù)樣本信息的不足,解決由于訓(xùn)練樣本少導(dǎo)致的類原型的求解存在偏差的問題,當(dāng)圖片信息較少時(shí),AM3提出通過語義信息微調(diào)類原型(圖6)。具體流程為:a)AM3利用特征提取網(wǎng)絡(luò)f(·)(ResNet-12)提取圖片特征向量Pc;b)支撐集的類標(biāo)簽語義信息通過詞嵌入模型w(提前在一個(gè)大規(guī)模文本語料庫(kù)中經(jīng)無監(jiān)督訓(xùn)練得到)[38]提取對(duì)應(yīng)的語義特征向量ec,并通過維度變換網(wǎng)絡(luò)g(僅包含一個(gè)隱藏層)將其轉(zhuǎn)換為可以用于融合的詞向量Wc=gθg(ec),融合方式如式(8);c)通過自適應(yīng)混合網(wǎng)絡(luò)h(僅包含一個(gè)隱藏層)控制語義特征求解類原型的參與度λc(如式(9)),將融合后的混合特征Pc作為類原型;d)采用原型網(wǎng)絡(luò)的方式對(duì)查詢集樣本qt進(jìn)行類別預(yù)測(cè)(如式(10))。AM3網(wǎng)絡(luò)首次在特征提取階段引入語義特征信息以補(bǔ)充圖片信息的不足,并采用自適應(yīng)混合網(wǎng)絡(luò)調(diào)整語義特征與圖像特征的融合比例,結(jié)構(gòu)設(shè)計(jì)精簡(jiǎn),使模型精度有了較大提升。2020年,Li等人[39]提出K-tuplet Net,將原型網(wǎng)絡(luò)的NCA損失函數(shù)改為K-tuplet 度量損失,從優(yōu)化損失函數(shù)的角度改進(jìn)原型網(wǎng)絡(luò)。AM3網(wǎng)絡(luò)將語義和圖像視為獨(dú)立的數(shù)據(jù)源學(xué)習(xí)類別原型表示,與之不同,2023年,Yang等人[40]提出語義指導(dǎo)注意力機(jī)制,利用語義先驗(yàn)知識(shí)以自上而下的方式指導(dǎo)視覺類原型表示,即將語義知識(shí)映射到類別特定注意力向量網(wǎng)絡(luò),利用該網(wǎng)絡(luò)進(jìn)行語義特征選擇以增強(qiáng)視覺原型。

    其中:Pc為語義調(diào)節(jié)后的類原型;Pc為初始類原型,由式(7)計(jì)算得到;Wc為維度變換后的詞向量;λc為文本和圖像的混合系數(shù);h為自適應(yīng)混合網(wǎng)絡(luò);f(·)為嵌入函數(shù);d(·,·)為歐氏距離;qt為查詢集樣本。

    此外,Sung等人[41]提出關(guān)系網(wǎng)絡(luò)(relation network),其包含嵌入模塊f(或g)和關(guān)系模塊h兩部分(圖7)。與孿生網(wǎng)絡(luò)、匹配網(wǎng)絡(luò)和原型網(wǎng)絡(luò)不同,關(guān)系網(wǎng)絡(luò)是一種非線性度量方式的小樣本學(xué)習(xí)方法,即通過神經(jīng)網(wǎng)絡(luò)自學(xué)習(xí)xi和xj兩個(gè)樣本間的匹配程度r(xi,xj),如式(11)所示。

    其中:h(·)表示可學(xué)習(xí)的CNN;θf=θg;θh表示其參數(shù);C(·,·)表示將特征向量級(jí)聯(lián)。

    2022年,孫流風(fēng)等人[42]提出雙重度量的孿生神經(jīng)網(wǎng)絡(luò),充分考慮了圖像級(jí)特征度量和局部描述符度量的關(guān)系,解決了圖像級(jí)特征度量對(duì)位置、復(fù)雜背景及類內(nèi)差異比較敏感的問題,提高了模型分類準(zhǔn)確率。韋世紅等人[43]于2023年提出出多級(jí)度量網(wǎng)絡(luò)的小樣本學(xué)習(xí),該方法利用第二、第三層卷積得到的特征圖計(jì)算兩個(gè)圖像—類關(guān)系得分,通過全連接層的特征圖與查詢集樣本計(jì)算圖像—圖像從屬概率,最后將圖像—類的關(guān)系得分和圖像—圖像的從屬概率進(jìn)行加權(quán)融合作為最終的預(yù)測(cè)結(jié)果,該方法通過利用不同卷積層的圖像語義信息提高模型分類效果。綜上,可看出基于度量的小樣本學(xué)習(xí)從最初的孿生網(wǎng)絡(luò)至今已有較大發(fā)展,單純利用線性度量的方式(傳統(tǒng)距離函數(shù))已很難對(duì)模型精度再有較大提升,非線性度量方式的提出以及跨模態(tài)信息的引入拓展新的研究思路。

    2.2 基于參數(shù)優(yōu)化方法

    深度學(xué)習(xí)得益于大量模型參數(shù),然而小樣本學(xué)習(xí)極易導(dǎo)致模型過擬合,采用元學(xué)習(xí)方法優(yōu)化模型參數(shù)有效改善模型的泛化能力?;趨?shù)優(yōu)化方法一般先通過支撐集訓(xùn)練元學(xué)習(xí)器學(xué)得不同任務(wù)的共同特征(即先驗(yàn)知識(shí)),再將所得元知識(shí)運(yùn)用于查詢集精調(diào)基學(xué)習(xí)器(如圖8所示)。基于上述思想,2017年,F(xiàn)inn等人[44]提出未知模型的元學(xué)習(xí)方法(model agnostic meta learning,MAML),旨在通過跨任務(wù)訓(xùn)練策略為基學(xué)習(xí)器學(xué)得最優(yōu)初始化參數(shù),在面對(duì)新任務(wù)時(shí)僅需少量樣本通過幾步訓(xùn)練即可取得較好的分類效果,總體流程如下:

    假設(shè)分類模型為fθ(·),θ為模型參數(shù),P(T)為任務(wù)分布,首先隨機(jī)初始化模型參數(shù)θ。再?gòu)腜(T)中隨機(jī)抽取一批任務(wù)Ti,即Ti~P(T)。假設(shè)隨機(jī)抽取五個(gè)任務(wù)T={T1,T2,T3,T4,T5},那么對(duì)于每個(gè)任務(wù)Ti,可隨機(jī)抽取K個(gè)數(shù)據(jù)點(diǎn)訓(xùn)練模型,隨后計(jì)算損失LTi(fθ),并通過梯度下降法最小化損失,在此過程中利用式(12)為每個(gè)任務(wù)學(xué)得一個(gè)最優(yōu)參數(shù),即θ^={θ^1,θ^2,θ^3,θ^4,θ^5}。在對(duì)下一批任務(wù)進(jìn)行抽樣之前,先執(zhí)行元優(yōu)化來更新隨機(jī)初始化的模型參數(shù)θ(如式(13))。從而使得隨機(jī)初始化的參數(shù)θ移動(dòng)到一個(gè)最優(yōu)的位置,在訓(xùn)練下一批任務(wù)時(shí),僅需少量樣本通過幾步訓(xùn)練即可獲得較好的模型效果。

    MAML將學(xué)習(xí)率設(shè)置為一個(gè)較小的標(biāo)量數(shù)值,隨著時(shí)間的推移而衰減,并沿著梯度的方向更新。與之不同,Meta-SGD(meta stochastic gradient de-scent)通過學(xué)習(xí)的方式獲得最優(yōu)學(xué)習(xí)率和梯度更新方向[45]。Meta-SGD也需要通過梯度下降最小化損失來為每個(gè)任務(wù)尋找最優(yōu)參數(shù)(如公式θ^i=θ-αΔθLTi(fθ)),但其α不是標(biāo)量而是向量,α被隨機(jī)初始化為和θ同樣形狀的值,并隨著θ一起被學(xué)習(xí)和更新。αΔθLTi(fθ)表示更新方向,長(zhǎng)度表示學(xué)習(xí)率。此外,Meta-SGD模型沿著αΔθLTi(fθ)的方向而非梯度方向更新參數(shù)。θ和α的更新如式(13)和(14)所示。

    在Meta-SGD基礎(chǔ)之上,Zhou等人[46]提出深度元學(xué)習(xí)(deep meta learning,DEML),將深度學(xué)習(xí)的表征能力集成到元學(xué)習(xí)中以提高元學(xué)習(xí)的表征能力。其核心是在概念空間而非復(fù)雜的樣本空間學(xué)會(huì)學(xué)習(xí)。為了實(shí)現(xiàn)在概念空間中學(xué)習(xí),DEML為元學(xué)習(xí)器配備一個(gè)概念生成器(例如深度殘差網(wǎng)絡(luò)),旨在為每個(gè)樣本學(xué)習(xí)一個(gè)特征表示,捕捉樣本的高級(jí)概念,同時(shí)使用一個(gè)概念鑒別器來增強(qiáng)概念生成器,并以端到端方式聯(lián)合訓(xùn)練概念生成器、元學(xué)習(xí)器和概念識(shí)別器三個(gè)模塊。借助概念空間,深度元學(xué)習(xí)模型實(shí)現(xiàn)了對(duì)本身較少的訓(xùn)練數(shù)據(jù)的最大化利用。文獻(xiàn)[47]提出條件類感知元學(xué)習(xí)(conditional class-aware meta data learning,CAML),其核心是利用度量空間中結(jié)構(gòu)化的類信息輔助調(diào)制基學(xué)習(xí)器當(dāng)前任務(wù)的表示。具體地,設(shè)計(jì)一個(gè)參數(shù)條件變換模塊來實(shí)現(xiàn)表示調(diào)制,并將該模塊與基礎(chǔ)學(xué)習(xí)器相結(jié)合作為CAML的元學(xué)習(xí)器。CAML采用和MAML相同的漸進(jìn)學(xué)習(xí)策略進(jìn)行元學(xué)習(xí),相比MAML, 模型精度有了很大程度的提升。

    2019年,Jannal等人[48]為了防止元學(xué)習(xí)器在訓(xùn)練數(shù)據(jù)極少時(shí)過度學(xué)習(xí)學(xué)得有偏知識(shí),提出一種任務(wù)不可知的元學(xué)習(xí)(task agnostic meta learning,TAML)算法,該算法提出基于熵減最大化和基于不等式最小化兩種方法解決模型泛化能力差的問題?;陟販p最大化的方法旨在通過最大化元學(xué)習(xí)器預(yù)測(cè)的標(biāo)簽的熵防止其在某些任務(wù)上表現(xiàn)過度,但該方法局限于具有離散輸出的分類任務(wù)。為解決這一問題,在經(jīng)濟(jì)學(xué)中不平等度量的啟發(fā)下,提出基于不等式最小化的方法, 該方法旨在通過最小化初始模型在不同任務(wù)上損失不平等的問題,幫助元學(xué)習(xí)器學(xué)得一個(gè)無偏倚的初始化模型參數(shù),以防止模型在某些特定任務(wù)上表現(xiàn)過度。基于不等式最小化的方法可以采用任何形式的損失函數(shù),不局限于離散輸出,可用于解決連續(xù)性輸出的任務(wù),適應(yīng)于更普遍場(chǎng)景。2022年,Huang等人[49]結(jié)合MAML參數(shù)更新思想提出模型不可知的聯(lián)邦小樣本學(xué)習(xí),但公共數(shù)據(jù)與私有數(shù)據(jù)存在標(biāo)簽不一致和鄰域偏差的問題,該方法通過共享公共數(shù)據(jù)集上的模型預(yù)測(cè)結(jié)果實(shí)現(xiàn)公私通信,并通過對(duì)抗性學(xué)習(xí)解決領(lǐng)域偏差問題。結(jié)合聯(lián)邦學(xué)習(xí)策略的小樣本學(xué)習(xí)不共享私有數(shù)據(jù),有效保護(hù)了數(shù)據(jù)隱私和安全,具有極其重要的研究意義,但目前該方面的研究相對(duì)較少。

    基于參數(shù)優(yōu)化的學(xué)習(xí)策略主要以元學(xué)習(xí)的思想解決小樣本學(xué)習(xí)模型訓(xùn)練問題,目前主要以MAML算法為代表進(jìn)行擴(kuò)展研究,核心思想是如何設(shè)計(jì)元學(xué)習(xí)器在源任務(wù)間尋找可推廣的先驗(yàn)知識(shí),在新的目標(biāo)任務(wù)中僅需少量樣本通過幾步訓(xùn)練即可快速訓(xùn)練基學(xué)習(xí)器。3 轉(zhuǎn)導(dǎo)圖小樣本學(xué)習(xí)方法

    傳統(tǒng)歸納學(xué)習(xí)旨在從大量訓(xùn)練樣本中歸納學(xué)得通用模型用于預(yù)測(cè)未知數(shù)據(jù)。然而,小樣本學(xué)習(xí)本身樣本少,其樣本量不足以歸納出具有良好泛化能力的全局模型。為此,研究人員提出轉(zhuǎn)導(dǎo)學(xué)習(xí)方法,試圖通過局部有標(biāo)簽的訓(xùn)練樣本預(yù)測(cè)無標(biāo)簽的數(shù)據(jù)。在訓(xùn)練樣本不足時(shí),可利用無標(biāo)簽數(shù)據(jù)補(bǔ)充標(biāo)簽數(shù)據(jù)信息的不足。轉(zhuǎn)導(dǎo)圖小樣本學(xué)習(xí)將支撐集和查詢集的樣本視為圖節(jié)點(diǎn),并利用支持集和查詢集節(jié)點(diǎn)間的近鄰關(guān)系進(jìn)行聯(lián)合預(yù)測(cè),可通過無標(biāo)簽數(shù)據(jù)補(bǔ)充標(biāo)簽信息的不足(如圖9所示)[50,51]。而歸納圖小樣本方法只根據(jù)支持集之間的關(guān)系學(xué)習(xí)通用模型來對(duì)每個(gè)查詢集樣本進(jìn)行單獨(dú)分類。

    2019年,Liu等人[52]提出轉(zhuǎn)導(dǎo)傳播網(wǎng)絡(luò)(transductive pro-pagation network,TPN),模型主要包含特征嵌入、圖構(gòu)造、標(biāo)簽傳播和損失計(jì)算四個(gè)模塊(如圖10所示)。其中,圖構(gòu)造是一個(gè)關(guān)鍵步驟,其利用流形結(jié)構(gòu)為每個(gè)樣本以端到端的方式聯(lián)合學(xué)習(xí)一個(gè)自適應(yīng)的高斯核σ參數(shù)。具體流程為:a)利用深度神經(jīng)網(wǎng)絡(luò)CONV-4提取樣本的特征向量;b)利用支撐集和查詢集的并集構(gòu)造圖結(jié)構(gòu),并通過高斯核函數(shù)度量樣本間的相似度作為近鄰圖的邊權(quán)值wij,如式(15)所示;c)通過標(biāo)簽傳播算法將標(biāo)簽從支撐集傳播到查詢集,如式(16)所示,該模型利用轉(zhuǎn)導(dǎo)推理的元學(xué)習(xí)框架一次性對(duì)整個(gè)測(cè)試集進(jìn)行分類,有效緩解了低數(shù)據(jù)量問題,但每當(dāng)有新的測(cè)試樣本加入時(shí)必須重新運(yùn)行模型,時(shí)間成本相對(duì)較高。此后,汪航等人[53]于2022年提出基于多尺度的標(biāo)簽傳播網(wǎng)絡(luò),其核心思想是利用關(guān)系度量模塊度量不同尺度特征下的樣本相似度,并通過聚合不同尺度的相似性得分進(jìn)行標(biāo)簽傳播獲得分類結(jié)果。

    其中:fθ(·)為嵌入函數(shù);σ為高斯核參數(shù),通過構(gòu)造的圖網(wǎng)絡(luò)學(xué)習(xí);d(·,·)為歐氏距離。

    其中:S=D-1/2WD-1/2表示歸一化的拉普拉斯矩陣, D=diag(dii=∑N×K+Mj=1wij)表示對(duì)角矩陣, W=[wij](N×K+M)×(N×K+M);α∈(0,1)為預(yù)先設(shè)定的權(quán)重系數(shù);F為最終的預(yù)測(cè)標(biāo)簽;Y為初始標(biāo)簽集。

    與TPN不同,Ma等人[54]提出了轉(zhuǎn)導(dǎo)關(guān)系傳播圖神經(jīng)網(wǎng)絡(luò)(transductive relation propagation network,TRPN),其采用圖神經(jīng)網(wǎng)絡(luò)(graph neural network,GNN)構(gòu)圖,旨在學(xué)習(xí)支撐—查詢樣本對(duì)間的關(guān)系信息,將樣本對(duì)間的關(guān)系視為圖節(jié)點(diǎn)(命名為關(guān)系節(jié)點(diǎn)),并利用已知的支撐集樣本間的關(guān)系(包括類內(nèi)共性和類間唯一性)來估計(jì)不同支撐—查詢對(duì)之間的鄰接關(guān)系,并為支撐—查詢樣本對(duì)生成判別關(guān)系。此外,進(jìn)一步將支撐—查詢對(duì)的偽關(guān)系引入輔助關(guān)系傳播,并設(shè)計(jì)了一種快速有效的轉(zhuǎn)導(dǎo)學(xué)習(xí)策略來充分利用不同查詢樣本間的關(guān)系信息。 Zhang等人[55]于2022年提出基于圖的轉(zhuǎn)換特征傳播和最優(yōu)類分配小樣本學(xué)習(xí)模型,為了解決嵌入網(wǎng)絡(luò)和圖神經(jīng)網(wǎng)絡(luò)優(yōu)化方式(前者多類預(yù)訓(xùn)練,后者情景元訓(xùn)練)不同導(dǎo)致的特征分布不匹配的問題,提出將圖像特征向量轉(zhuǎn)換為近似高斯分布,并且利用支撐集和查詢集間的樣本關(guān)系計(jì)算最優(yōu)類分配矩陣來估計(jì)類中心以解決類分配不準(zhǔn)確的問題。

    為充分利用不同任務(wù)的共享先驗(yàn)知識(shí)輔助識(shí)別未見過的類別,Liu等人[56]提出一種基于類原型分類的門控傳播網(wǎng)絡(luò)(gated propagation network,GPN),核心是學(xué)習(xí)如何在圖上的節(jié)點(diǎn)(即類原型)之間傳遞信息,以實(shí)現(xiàn)知識(shí)共享。具體為:給定圖結(jié)構(gòu),每個(gè)類將該類原型作為消息發(fā)送給其近鄰,并會(huì)通過一個(gè)門模塊過濾來自不同發(fā)送者的信息,接收到多條消息的類需要結(jié)合不同的權(quán)重(通過多頭點(diǎn)積注意力機(jī)制學(xué)習(xí)得到)并進(jìn)行聚合操作,再用于更新相應(yīng)的類原型。由于注意力機(jī)制和門模塊都是跨任務(wù)共享的,且具有很好的泛化能力,可將其推廣到整個(gè)圖和未見過的任務(wù)。

    上述方法綜合考慮樣本的圖像級(jí)關(guān)系,學(xué)習(xí)將類標(biāo)簽從支持集傳播到查詢集。2021年,Chen等人[57]提出一種顯式類級(jí)知識(shí)傳播網(wǎng)絡(luò)(explicit class knowledge propagation network,ECKPN),核心思想是通過學(xué)習(xí)跨模態(tài)知識(shí)表示,將類級(jí)上下文知識(shí)可視化為圖節(jié)點(diǎn)輔助圖像數(shù)據(jù)完成查詢樣本的推理預(yù)測(cè)。該網(wǎng)絡(luò)主要包括比較、擠壓和校準(zhǔn)三個(gè)模塊。具體為:a)可通過比較模塊探索樣本對(duì)間的關(guān)系,以學(xué)習(xí)樣本級(jí)圖中豐富的樣本表示;b)通過對(duì)樣本級(jí)圖中具有類似特征的樣本進(jìn)行聚類擠壓,以生成類級(jí)圖;c)采用校準(zhǔn)模塊對(duì)類間關(guān)系進(jìn)行顯式刻畫,以獲得更具判別性的類級(jí)知識(shí)表示;d)將類級(jí)圖與樣本級(jí)圖相結(jié)合,指導(dǎo)查詢樣本完成預(yù)測(cè)。

    上述模型主要集中于賦予圖節(jié)點(diǎn)不同的表示以傳播不同的信息輔助預(yù)測(cè)無標(biāo)簽數(shù)據(jù)。小樣本學(xué)習(xí)本身樣本少,轉(zhuǎn)導(dǎo)圖小樣本無須學(xué)習(xí)通用模型,一定程度上緩解了樣本不足的壓力,但是研究人員發(fā)現(xiàn)現(xiàn)實(shí)生活中文本信息相比圖片樣本比較容易獲得,于是將文本信息引入圖結(jié)構(gòu)輔助訓(xùn)練取得不錯(cuò)的效果,可以思考如何利用跨模態(tài)信息提高轉(zhuǎn)導(dǎo)圖小樣本的模型精度。

    4 實(shí)驗(yàn)分析

    在小樣本圖像識(shí)別與分類任務(wù)中,廣泛使用的標(biāo)準(zhǔn)數(shù)據(jù)集是Omniglot[58]、miniImageNet[59]和tieredImageNet[60]。除此之外還有CUB[61]、CIFAR-100、Stanford Dogs和Stanford Cars數(shù)據(jù)集。接下來主要介紹Omniglot[58]、miniImageNet[59]和tiered-ImageNet[60]三個(gè)常用數(shù)據(jù)集、相關(guān)信息詳見表1。

    miniImageNet是ImageNet[62]數(shù)據(jù)集的子集,包含100個(gè)類別,共有60 000個(gè)圖像。其中,每個(gè)類別有600個(gè)圖像,每個(gè)圖像的像素大小均被調(diào)整為84×84,訓(xùn)練集、驗(yàn)證集和測(cè)試集的類別數(shù)分別為64、16和20。

    tieredImageNet是ImageNet[62]數(shù)據(jù)集更具有挑戰(zhàn)性的子集,共有608個(gè)類別,大約是miniImageNet數(shù)據(jù)集類別種類的6倍。每個(gè)圖像的像素大小均被調(diào)整為84×84,訓(xùn)練集、驗(yàn)證集和測(cè)試集的類別數(shù)分別為351、97和160。

    Omniglot由50個(gè)不同字母中的1 623個(gè)手寫字符組成,每個(gè)字符都是由20個(gè)不同的人通過亞馬遜的Mechanical Turk[63]在線手工繪制,共有32 460個(gè)手寫字符圖像。每個(gè)圖像的像素大小均被調(diào)整為28×28,并且每個(gè)圖像均通過90°旋轉(zhuǎn)進(jìn)行數(shù)據(jù)增強(qiáng),其中訓(xùn)練集有1 200個(gè)字符,測(cè)試集有 423個(gè)字符。

    為了更好地分析小樣本學(xué)習(xí)模型的有效性,本文選取較為經(jīng)典的小樣本學(xué)習(xí)模型在miniImageNet和tieredImageNet數(shù)據(jù)集上進(jìn)行對(duì)比總結(jié),結(jié)果如表2所示。所有對(duì)比算法均選取5-way 5-shot(即隨機(jī)選取五個(gè)類別,每個(gè)類別隨機(jī)選取五個(gè)樣本組成一個(gè)支撐集)和5-way 1-shot(即隨機(jī)選取五個(gè)類別,每個(gè)類別隨機(jī)選取一個(gè)樣本組成一個(gè)支撐集)的實(shí)驗(yàn)表現(xiàn)進(jìn)行對(duì)比分析。所有小樣本學(xué)習(xí)模型中,比較常用的嵌入函數(shù)有CONV-4、VGG、RestNet和WRN-28-10[64,65]。

    分析表2實(shí)驗(yàn)數(shù)據(jù)可以發(fā)現(xiàn):

    a)對(duì)于采用不同嵌入函數(shù)的同一模型(比如表中TPN、TRPN、ECKPN、EPNET和DPGN模型),采用RestNet和WRN-28-10的模型精度優(yōu)于采用CONV-4的模型。這說明嵌入函數(shù)的選擇會(huì)影響最終的模型精度,為了保證實(shí)驗(yàn)對(duì)比的公平性和可信性,研究人員在進(jìn)行對(duì)比實(shí)驗(yàn)時(shí)應(yīng)盡量保證所對(duì)比的模型均采用相同嵌入函數(shù)。

    b)對(duì)于小樣本模型,由于tieredImageNet數(shù)據(jù)集比mini-ImageNet數(shù)據(jù)集類別更多,數(shù)據(jù)量更大(表1),無論是5-way 5-shot還是5-way 1-shot,tieredImageNet數(shù)據(jù)集上的模型精度都比miniImageNet數(shù)據(jù)集上的高(對(duì)比表2中模型精度可以得出),這說明數(shù)據(jù)集的選擇對(duì)于模型訓(xùn)練也有很大的影響。

    c)對(duì)于miniImageNet和tieredImageNet數(shù)據(jù)集,從表2可看到,5-shot的模型精度比1-shot的模型精度高,這說明支撐集數(shù)據(jù)量的設(shè)置對(duì)于模型訓(xùn)練也有一定的影響,通常適當(dāng)增加數(shù)據(jù)量可以幫助模型學(xué)得更多的特征從而提高模型分類效果。

    d)基于度量學(xué)習(xí)的小樣本學(xué)習(xí)方法中,從表2可看到,Relation Net相比Matching Nets和Proto-Nets模型精度有一定的提升(特別是在1-shot情況下),說明采用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)樣本間的匹配程度相比線性度量方式有一定優(yōu)勢(shì),特別是對(duì)于樣本量更少的小樣本分類問題。

    e)基于參數(shù)優(yōu)化的小樣本學(xué)習(xí)方法中,從表2可以看到,MAML的改進(jìn)算法(Meta-SGD、TAML和CAML)相比MAML均取得相對(duì)不錯(cuò)效果,這說明通過研究?jī)?yōu)化模型訓(xùn)練過程中存在的問題,針對(duì)影響模型精度的不確定因素進(jìn)行改進(jìn),有助提高模型穩(wěn)定性。

    f)基于轉(zhuǎn)導(dǎo)圖的小樣本學(xué)習(xí)憑借圖結(jié)構(gòu)的直觀表現(xiàn)力等優(yōu)勢(shì)得到快速發(fā)展,相比另外兩個(gè)研究方向,無論1-shot還是5-shot在兩個(gè)數(shù)據(jù)集上的表現(xiàn)均最優(yōu),提高幅度最高均在30%左右(1-shot或5-shot情況下各自最優(yōu)模型效果與最次模型效果的差距),說明基于轉(zhuǎn)導(dǎo)圖的方法是解決小樣本學(xué)習(xí)問題比較有效的研究方向之一。

    g)dual TriNet、AM3和ECKPN方法均引入跨模態(tài)信息輔助訓(xùn)練,使模型精度有了較大程度的提升,其中ECKPN模型在表中所有模型中表現(xiàn)最優(yōu)。這說明引入跨模態(tài)信息輔助訓(xùn)練模型有助于提高小樣本學(xué)習(xí)模型精度,也是未來不錯(cuò)的研究方向之一。

    5 結(jié)束語

    隨著深度學(xué)習(xí)的發(fā)展,小樣本學(xué)習(xí)方法研究得到廣泛研究,但仍面臨一些挑戰(zhàn)(核心思想見表3)。

    基于數(shù)據(jù)增強(qiáng)的小樣本學(xué)習(xí)方法旨在通過增強(qiáng)模型、算法或網(wǎng)絡(luò)來對(duì)數(shù)據(jù)集進(jìn)行數(shù)據(jù)擴(kuò)充或特征增強(qiáng),本文根據(jù)是否需要額外的輔助信息將其分為監(jiān)督增強(qiáng)和無監(jiān)督增強(qiáng)兩個(gè)角度來介紹,該方向是公認(rèn)的解決小樣本學(xué)習(xí)問題的比較簡(jiǎn)單和直接的方法,但在數(shù)據(jù)擴(kuò)充或特征增強(qiáng)的過程中難免會(huì)產(chǎn)生噪聲數(shù)據(jù)從而對(duì)模型訓(xùn)練產(chǎn)生負(fù)面影響。基于元學(xué)習(xí)的小樣本學(xué)習(xí)方法很好地解決由于訓(xùn)練樣本少而導(dǎo)致的模型過擬合問題。本文從基于度量學(xué)習(xí)和基于參數(shù)優(yōu)化兩個(gè)角度介紹該部分,基于度量學(xué)習(xí)的小樣本方法旨在通過線性或非線性度量方式度量樣本間的相似程度,但對(duì)于小樣本學(xué)習(xí)訓(xùn)練樣本較少的情況僅簡(jiǎn)單通過距離評(píng)估樣本匹配程度會(huì)影響模型精度?;趨?shù)優(yōu)化的小樣本學(xué)習(xí)旨在通過元學(xué)習(xí)器學(xué)習(xí)跨任務(wù)通用的模型參數(shù),使得基學(xué)習(xí)器在面對(duì)新任務(wù)時(shí)僅需少量樣本通過幾步訓(xùn)練即可獲得最優(yōu)模型。但其難點(diǎn)在于學(xué)習(xí)器的設(shè)計(jì),應(yīng)提高對(duì)先驗(yàn)知識(shí)的利用,避免選擇性遺忘已學(xué)得的和任務(wù)相關(guān)的知識(shí)?;谵D(zhuǎn)導(dǎo)圖小樣本的學(xué)習(xí)方法旨在通過圖節(jié)點(diǎn)傳遞信息輔助預(yù)測(cè),該方法無須構(gòu)建分類模型,但每次引入新數(shù)據(jù)點(diǎn)時(shí),必須重新運(yùn)行所有圖結(jié)構(gòu),導(dǎo)致時(shí)間復(fù)雜度較高。

    通過梳理當(dāng)前小樣本學(xué)習(xí)的研究進(jìn)展,展望未來小樣本學(xué)習(xí)的幾個(gè)發(fā)展方向:

    a)基于數(shù)據(jù)增強(qiáng)的小樣本學(xué)習(xí)是比較簡(jiǎn)單且直接的解決訓(xùn)練樣本少的方法。監(jiān)督增強(qiáng)一般采用額外的詞向量或語義信息進(jìn)行數(shù)據(jù)增強(qiáng),而無監(jiān)督增強(qiáng)更多是通過學(xué)習(xí)類內(nèi)變形信息進(jìn)行數(shù)據(jù)增強(qiáng),利用輔助信息進(jìn)行數(shù)據(jù)增強(qiáng)使得生成的數(shù)據(jù)更易遷移到其他數(shù)據(jù)集。相比于圖像合成,特征增強(qiáng)生成的數(shù)據(jù)維度大大降低比生成圖像更容易,特征增強(qiáng)可以生成大量數(shù)據(jù)以增加數(shù)據(jù)多樣性,并且增強(qiáng)的特征具有可判別性和穩(wěn)定性。因此,未來方向可以更多考慮基于監(jiān)督的特征增強(qiáng)。并且現(xiàn)實(shí)世界中存在大量無標(biāo)注數(shù)據(jù)和跨模態(tài)信息(比如文本信息),其蘊(yùn)涵大量可遷移的知識(shí),較圖片數(shù)據(jù)更易獲得,因此,利用無標(biāo)注數(shù)據(jù)或跨模態(tài)信息輔助特征增強(qiáng)是比較有潛力的研究方向之一。此外,目前已有研究將數(shù)據(jù)增強(qiáng)作為數(shù)據(jù)預(yù)處理然后結(jié)合小樣本度量學(xué)習(xí)模型進(jìn)行訓(xùn)練[30],盡管取得很好的效果,但還不成熟,未來可以嘗試結(jié)合數(shù)據(jù)增強(qiáng)和小樣本分類模型優(yōu)化兩個(gè)方面來提高模型精度。

    b)對(duì)于元學(xué)習(xí)而言,基于度量學(xué)習(xí)的小樣本學(xué)習(xí)發(fā)展相對(duì)較早,經(jīng)典的度量學(xué)習(xí)方法比如原型網(wǎng)絡(luò)、匹配網(wǎng)絡(luò)等多采用固定度量方式,但該方面的研究已相當(dāng)成熟,未來應(yīng)設(shè)計(jì)性能更好的非線性度量方式讓模型自己學(xué)會(huì)度量。而基于參數(shù)優(yōu)化的小樣本學(xué)習(xí)未來應(yīng)更好地設(shè)計(jì)元學(xué)習(xí)器,使其學(xué)習(xí)到更多或更有效的元知識(shí)來輔助訓(xùn)練基學(xué)習(xí)器以提高模型訓(xùn)練速度。

    c)基于轉(zhuǎn)導(dǎo)圖的小樣本學(xué)習(xí)方法近幾年研究比較火熱。圖作為計(jì)算機(jī)的一種數(shù)據(jù)結(jié)構(gòu),具有較強(qiáng)的可解釋性,比較直觀,未來可以考慮如何設(shè)計(jì)圖的網(wǎng)絡(luò)結(jié)構(gòu)、如何進(jìn)行標(biāo)簽傳播或節(jié)點(diǎn)間的信息傳遞。

    深度學(xué)習(xí)的發(fā)展對(duì)小樣本學(xué)習(xí)有一定的推動(dòng)作用,然而深度學(xué)習(xí)更像是一個(gè)黑盒具有不可解釋性,未來應(yīng)考慮如何利用外部先驗(yàn)知識(shí)和內(nèi)部數(shù)據(jù)知識(shí)增強(qiáng)小樣本學(xué)習(xí)模型的可解釋性。此外,跨模態(tài)信息不僅用于數(shù)據(jù)增強(qiáng),目前其在小樣本學(xué)習(xí)的各個(gè)研究領(lǐng)域均有應(yīng)用,并且取得了不錯(cuò)的效果,未來也可考慮如何利用跨模態(tài)信息輔助訓(xùn)練小樣本模型。

    參考文獻(xiàn):

    [1]LeCun Y, Bengio Y, Hinton G. Deep learning[J].Nature,2015,521(7553):436-444.

    [2]Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[C]//Proc of International Confe-rence on Neural Information Processing Systems.2012:1106-1114.

    [3]He Kaiming, Zhang Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition[C]//Proc of IEEE International Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:770-778.

    [4]Mikolov T, Tarafiát M, Burge L, et al. Recurrent neural network based language model[C]//Proc of Conference of International Speech Communication Association.2010.

    [5]Sutskever I, Vinyals O, Le Q V. Sequence to sequence learning with neural networks[C]//Proc of International Conference on Neural Information Processing Systems.2014:3104-3112.

    [6]Norouzzadeh m S, Nguyen A, Kosmala M, et al. Automatically identifying, counting, and describing wild animals in camera-trap images with deep learning[J].Proc of the National Academy of Sciences,2018,115(25):5716-5725.

    [7]Gebru T, Krause J, Wang Yichun, et al. Using deep learning and google street view to estimate the demographic makeup of neighborhoods across the united states[J].Proc of the National Academy of Sciences,2017,114(50):13108-13113.

    [8]Lu Jiang, Gong Pinghua, Ye Jieping, et al. Learning from very few samples:a survey[EB/OL].(2020).[2021-10-12].https://arxiv.org/abs/2009.02653.

    [9]Miller E G, Matsakis N E, Viola P A. Learning from one example through shared densities on transforms[C]//Proc of IEEE International Conference on Computer Vision and Pattern Recognition.Pisca-taway,NJ:IEEE Press,2000:464-471.

    [10]Li Feifei, Robert F, Pietro P. A Bayesian approach to unsupervised one-shot learning of object categories[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2003:1134-1141.

    [11]Koch G, Zemel R, Salakhutdinov R. Siamese neural networks for one-shot image recognition[C]//Proc of International Conference on Machine Learning.2015.

    [12]Wang Yaqing, Yaoquanming. Few-shot learning: a survey[EB/OL].(2019).[2021-10-12].http://arxiv.org/abs/1904.05046v1.

    [13]趙凱琳,靳小龍,王元卓.小樣本學(xué)習(xí)研究綜述[J].軟件學(xué)報(bào),2021,32(2):349-369.(Zhao Kailin, Jin Xiaolong, Wang Yuanzhuo. Survey on few-shot learning[J].Journal of Software,2021,32(2):349-369.)

    [14]安勝彪,郭昱岐,白宇,等.小樣本圖像分類研究綜述[J].計(jì)算機(jī)科學(xué)與探索,2023,17(3):511-532. (An Shengbiao, Guo Yuqi, Bai Yu, et al. Survey of few-shot image classification research[J].Journal of Frontiers of Computer Science and Technology,2023,17(3):511-532.)

    [15]Lampert C H, Nickisch H, Harmeling S. Attribute-based classification for zero-shot visual object categorization[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2013,36(3):453-465.

    [16]Mikolov T, Sutskever I, Chen K, et al. Distributed representations of words and phrases and their compositionality[C]//Proc of International Conference on Neural Information Processing Systems.2013:3111-3119.

    [17]Chatfield K, Simonyan K, Vedaldi A, et al. Return of the devil in the details: delving deep into convolutional nets[C]//Proc of International Conference on British Machine Vision Conference.2014.

    [18]Zeiler M D, Fergus R. Visualizing and understanding convolutional networks[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2014:818-833.

    [19]Shen Xiaoyong, Hertzmann A, Jia Jiaya, et al. Automatic portrait segmentation for image stylization[J].Computer Graphics Forum,2016,35(2):93-102.

    [20]Chen Zitian, Fu Yanwei, Zhang Yinda, et al. Semantic feature augmentation in few-shot learning[C]//Proc of European Conference on Computer Vision,2018.

    [21]Chen Zitian, Fu Yanwei, Zhang Yinda, et al. Multi-level semantic feature augmentation for one-shot learning[J].IEEE Trans on Image Processing,2019,28(9):4594-4605.

    [22]Yu Xiaodong, Aloimonos Y. Attribute-based transfer learning for object categorization with zero/one training example[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2010:127-140.

    [23]Lu Jiang, Li Jin, Yan Ziang, et al. Attribute-based synthetic network (ABS-Net):learning more from pseudo feature representations[J].Pattern Recognition,2018,80:129-142.

    [24]Frederik P, Patrick J, Tassilo K, et al. Cross-modal hallucination for few-shot fine-grained recognition[EB/OL].(2018).[2021-10-12].http://arxiv.org/pdf/1806.05147.pdf.

    [25]潘理虎,劉云,謝斌紅,等.基于語義增強(qiáng)的多特征融合小樣本關(guān)系抽?。跩].計(jì)算機(jī)應(yīng)用研究,2022,39(6):1663-1667.(Pan Lihu, Liu Yun, Xie Binhong, et al. Multi-feature fusion and few-shot relation extraction based on semantic enhancement[J].Application Research of Computers,2022,39(6):1663-1667.)

    [26]呂天根,洪日昌,何軍,等.多模態(tài)引導(dǎo)的局部特征選擇小樣本學(xué)習(xí)方法[J].軟件學(xué)報(bào),2023,34(5):2068-2082.(Lyu Tiangen, Hong Richang, He Jun, et al. Multimodal-guided local feature selection for few-shot learning[J].Journal of Software,2023,34(5):2068-2082.)

    [27]Schwartz E, Karlinsky L, Feris R, et al. Baby steps towards few-shot learning with multiple semantics[J].Pattern Recognition Letters,2022,160:142-147.

    [28]Hariharan B, Girshick R. Low-shot visual recognition by shrinking and hallucinating features[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2017:3018-3027.

    [29]Schwartz E, Karlinsky L, Shtok J, et al. Delta-encoder: an effective sample synthesis method for few-shot object recognition[C]//Proc of International Conference on Neural Information Processing Systems.2018:2845-2855.

    [30]Wang Yuxiong, Girshick R, Hebert M, et al. Low-shot learning from imaginary data[C]//Proc of IEEE International Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:7278-7286.

    [31]Hang Gao, Zheng Shou, Zareian A, et al. Low shot learning via covariance-preserving adversarial augmentation networks[C]//Proc of International Conference on Neural Information Processing Systems.2018:975-985.

    [32]Tsendsuren M, Yu Hong. Meta networks[C]//Proc of International Conference on Machine Learning.2017:2554-2563.

    [33]Vilalta R, Drissi Y. A perspective view and survey of meta-learning[J].Artificial Intelligence Review,2002,18(2):77-95.

    [34]Oreshkin B, López P R, Lacoste A. TADAM: task dependent adaptive metric for improved few-shot learning[C]//Proc of International Conference on Neural Information Processing Systems.2018:721-731.

    [35]Chen Xing, Rostamzadeh N, Oreshkin B, et al. Adaptive cross-modal few-shot learning[C]//Proc of International Conference on Neural Information Processing Systems.2019:4848-4858.

    [36]Vinyals O, Blundell C, Lillicrap T, et al. Matching networks for one shot learning[C]//Proc of International Conference on Neural Information Processing Systems.2016:3630-3638.

    [37]Snell J, Swersky K, Zemel R. Prototypical networks for few-shot learning[C]//Proc of International Conference on Neural Information Processing Systems.2017:4077-4087.

    [38]Pennington J, Socher R, Manning C D. GloVe:global vectors for word representation[C]//Proc of International Conference on Empirical Methods in Natural Language Processing.2014:1532-1543.

    [39]Li Xiaomeng, Yu Lequan, Fu Chiwing, et al. Revisiting metric learning for few-shot image classification[EB/OL].(2019-07-06).https://arxiv.org/abs/1907.03123.

    [40]Yang Fengyuan, Wang Ruiping, Chen Xilin. SEGA: semantic guided attention on visual prototype for few-shot learning[C]//Proc of IEEE/CVF Winter Conference on Applications of Computer Vision.2022:1586-1596.

    [41]Sung F, Yang Yongxin, Zhang Li, et al. Learning to compare: relation network for few shot learning[C]//Proc of IEEE International Confe-rence on Computer Vision & Pattern Recognition.2018:1199-1208.

    [42]孫統(tǒng)風(fēng),王康,郝徐.面向小樣本學(xué)習(xí)的雙重度量孿生神經(jīng)網(wǎng)絡(luò)[J].計(jì)算機(jī)應(yīng)用研究,2023,40(9):2851-2855.(Sun Tongfeng,Wang Kang, Hao Xu. Dual-metric siamese neural network for few-shot learning[J].Application Research of Computers,2023,40(9):2851-2855.)

    [43]韋世紅,劉紅梅,唐宏,等.多級(jí)度量網(wǎng)絡(luò)的小樣本學(xué)習(xí)[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(2):94-101.(Wei Shihong, Liu Hongmei, Tang Hong, et al. Multilevel metric networks for few-shot learning[J].Computer Engineering and Applications,2023,59(2):94-101.)

    [44]Finn C, Abbeel P, Levine S. Model-agnostic meta-learning for fast adaptation of deep networks[C]//Proc of International Conference on Machine Learning.2017:1126-1135.

    [45]Li Zhenguo, Zhou Fengwei, Chen Fei, et al. Meta-SGD:learning to learn quickly for few shot learning[EB/OL].(2017).[2021-10-12].http://arxiv.org/abs/1707.09835.

    [46]Zhou Fengwei, Wu Bin, Li Zhenguo. Deep meta-learning: learning to learn in the concept space[EB/OL].(2018).[2021-10-12].http://arxiv.org/pdf/1802.03596.

    [47]Jiang Xiang, Havaei M, Varno F, et al. Learning to learn with conditional class dependencies[C]//Proc of International Conference on Learning Representations.2019.

    [48]Jamal M A, Qi Guojun. Task agnostic meta-learning for few-shot learning[C]//Proc of IEEE International Conference on Computer Vision & Pattern Recognition.Piscataway,NJ:IEEE Press,2019:11719-11727.

    [49]Huang Wenke, Ye Mang, Du Bo, et al. Few-shot model agnostic federated learning[C]//Proc of the 30th ACM International Confe-rence on Multimedia.New York:ACM Press,2022:7309-7316.

    [50]Rodríguez P, Laradji I, Prouin A, et al. Embedding propagation: smoother manifold for few-shot classification[C]//Proc of European Conference on Computer Vision.2020:121-138.

    [51]Qiao Limeng, Shi Yemin, Li Jia, et al. Transductive episodic-wise adaptive metric for few-shot learning[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2019:3602-3611.

    [52]Liu Yanbin, Lee J, Park M, et al. Learning to propagate labels: transductive propagation network for few-shot learning[C]//Proc of International Conference on Learning Representations.2019.

    [53]汪航,田晟兆,唐青,等.基于多尺度標(biāo)簽傳播的小樣本圖像分類[J].計(jì)算機(jī)研究與發(fā)展,2022,59(7):1486-1495.(Wang Hang, Tian Shengzhao, Tang Qing, et al. Few-shot image classification based on multi-scale label propagation[J].Journal of Computer Research and Development,2022,59(7):1486-1495.)

    [54]Ma Yuqing, Bai Shihao, An Shan, et al. Transductive relation-pro-pagation network for few-shot learning[C]//Proc of International Joint Conference on Artificial Intelligence.2020:804-810.

    [55]Zhang Ruiheng, Yang Shuo, Zhang Qi, et al. Graph-based few-shot learning with transformed feature propagation and optimal class allocation[J].Neurocomputing,2022,470:247-256.

    [56]Liu Lu, Zhou Tianyi, Long Guodong, et al. Learning to propagate for graph meta-learning[C]//Proc of International Conference on Neural Information Processing Systems.2019:1037-1048.

    [57]Chen Chaofan, Yang Xiaoshan, Xu Changsheng, et al. ECKPN: explicit class knowledge propagation network for transductive few-shot learning[C]//Proc of IEEE International Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:6596-6605.

    [58]Fort S. Gaussian prototypical networks for few-shot learning on Omniglot[EB/OL].(2017).[2021-10-12].http://arxiv.org/pdf/1708.02735.

    [59]Malalur P, Jaakkola T. Alignment based matching networks for one-shot classification and open-set recognition[EB/OL].(2019).[2021-10-12].http://arxiv.org/pdf/1903.06538.

    [60]Ren Mengye, Triantafillou E, Ravi S, et al. Meta-learning for semi-supervised few-shot classification[EB/OL].(2018).[2021-10-12].http://arxiv.org/abs/1803.00676.

    [61]Yin Cui, Feng Zhou, Lin Yuanqing, et al. Fine-grained categorization and dataset bootstrapping using deep metric learning with humans in the loop[C]//Proc of IEEE Conference on Computer Vision & Pattern Recognition. Piscataway,NJ:IEEE Press,2016:1153-1162.

    [62]Deng Jia, Dong Wei, Socher R, et al. ImageNet: a large-scale hierarchical image database[C]//Proc of the IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2009:248-255.

    [63]Michael B, Tracy K, Samuel D. Amazons mechanical turk[J].Perspectives on Psychological Science,2011,6(1):3-5.

    [64]Rusu A A, Rao D, Sygnowski J, et al. Meta-learning with latent embedding optimization[C]//Proc of International Conference on Lear-ning Representations.2018.

    [65]Sun Q, Liu Yaoyao, Chua T S, et al. Meta-transfer learning for few-shot learning[C]//Proc of IEEE International Conference on Compu-ter Vision & Pattern Recognition.Piscataway,NJ:IEEE Press,2019:403-412.

    [66]Yang Ling, Li Liangliang, Zhang Zilun, et al. DPGN: distribution propagation graph network for few-shot learning[C]//Proc of IEEE Conference on Computer Vision & Pattern Recognition.Piscataway,NJ:IEEE Press,2020:13387-13396.

    收稿日期:2023-02-25;修回日期:2023-04-10

    基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(62376114);克拉瑪依科技發(fā)展計(jì)劃項(xiàng)目(2020CGZH0009);福建省自然科學(xué)基金資助項(xiàng)目(2021J011004,2021J011002);教育部產(chǎn)學(xué)研創(chuàng)新計(jì)劃資助項(xiàng)目(2021LDA09003)

    作者簡(jiǎn)介:潘雪玲(1992-),女,山東聊城人,博士研究生,CCF會(huì)員,主要研究方向?yàn)闄C(jī)器學(xué)習(xí)、小樣本學(xué)習(xí);李國(guó)和(1965-),男,福建平和人,教授,博導(dǎo),博士,主要研究方向?yàn)槿斯ぶ悄?、機(jī)器學(xué)習(xí)、知識(shí)發(fā)現(xiàn)等;鄭藝峰(1980-),男(通信作者),福建漳州人,講師,碩導(dǎo),博士,主要研究方向?yàn)閿?shù)據(jù)挖掘、特征工程、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等(zyf@mnnu.edu.cn).

    晚上一个人看的免费电影| 伦理电影大哥的女人| 日本91视频免费播放| 午夜老司机福利剧场| 色哟哟·www| videosex国产| 日韩一区二区三区影片| 狂野欧美激情性xxxx在线观看| 亚洲精品乱码久久久久久按摩| 国产成人午夜福利电影在线观看| 最近的中文字幕免费完整| 中国国产av一级| 午夜av观看不卡| 欧美日本中文国产一区发布| 在线观看www视频免费| 精品第一国产精品| 亚洲色图 男人天堂 中文字幕 | 久久鲁丝午夜福利片| 亚洲精品国产av蜜桃| 午夜91福利影院| 在线观看三级黄色| 亚洲精品久久久久久婷婷小说| 亚洲精品美女久久av网站| 精品人妻一区二区三区麻豆| 老司机影院成人| 免费大片18禁| 一本—道久久a久久精品蜜桃钙片| 91午夜精品亚洲一区二区三区| 人人妻人人爽人人添夜夜欢视频| 免费黄网站久久成人精品| 精品卡一卡二卡四卡免费| 亚洲精品色激情综合| 亚洲精品aⅴ在线观看| 国产不卡av网站在线观看| 久久99热6这里只有精品| 多毛熟女@视频| 国产精品成人在线| 久久久久国产网址| 午夜福利视频在线观看免费| 一二三四在线观看免费中文在 | 好男人视频免费观看在线| 啦啦啦在线观看免费高清www| 天天躁夜夜躁狠狠久久av| 在线精品无人区一区二区三| 亚洲国产毛片av蜜桃av| 青春草国产在线视频| 丰满少妇做爰视频| 亚洲精品国产色婷婷电影| 26uuu在线亚洲综合色| 国产男女超爽视频在线观看| 久久久久久久亚洲中文字幕| 51国产日韩欧美| 天美传媒精品一区二区| 人人妻人人澡人人看| 日本黄大片高清| kizo精华| 精品亚洲乱码少妇综合久久| 性色av一级| 大香蕉97超碰在线| 亚洲 欧美一区二区三区| 最近最新中文字幕免费大全7| 婷婷色麻豆天堂久久| 国产白丝娇喘喷水9色精品| 巨乳人妻的诱惑在线观看| 建设人人有责人人尽责人人享有的| 亚洲精品av麻豆狂野| 少妇的丰满在线观看| 视频在线观看一区二区三区| 国产白丝娇喘喷水9色精品| 日本欧美视频一区| 黄网站色视频无遮挡免费观看| 国产亚洲精品久久久com| 人人澡人人妻人| 五月玫瑰六月丁香| 最黄视频免费看| a级毛片在线看网站| 久久久国产精品麻豆| 亚洲第一av免费看| 欧美3d第一页| 国产在视频线精品| 黑人猛操日本美女一级片| 国产熟女午夜一区二区三区| 全区人妻精品视频| 日韩在线高清观看一区二区三区| 亚洲图色成人| 免费黄色在线免费观看| 精品国产国语对白av| 国产精品女同一区二区软件| 国产国拍精品亚洲av在线观看| 久久久久精品久久久久真实原创| 中文字幕av电影在线播放| 国产麻豆69| freevideosex欧美| 国产高清不卡午夜福利| 久久毛片免费看一区二区三区| 午夜精品国产一区二区电影| 中文乱码字字幕精品一区二区三区| 国语对白做爰xxxⅹ性视频网站| 黄片播放在线免费| 精品久久国产蜜桃| 国产精品人妻久久久影院| 成人国产麻豆网| 18在线观看网站| 大话2 男鬼变身卡| 久久精品人人爽人人爽视色| 国产毛片在线视频| 成年女人在线观看亚洲视频| 韩国精品一区二区三区 | videosex国产| 日韩成人伦理影院| 日韩一区二区视频免费看| videos熟女内射| 久久久久久久国产电影| 亚洲精品成人av观看孕妇| 最近手机中文字幕大全| 在线观看美女被高潮喷水网站| 少妇的丰满在线观看| 日本av免费视频播放| 天天操日日干夜夜撸| 亚洲成人av在线免费| 国产又色又爽无遮挡免| 国产日韩欧美在线精品| 十八禁高潮呻吟视频| 中文字幕制服av| 女人被躁到高潮嗷嗷叫费观| 天堂俺去俺来也www色官网| 亚洲欧美一区二区三区国产| 热99国产精品久久久久久7| 国产1区2区3区精品| 青春草亚洲视频在线观看| 亚洲综合色网址| 极品人妻少妇av视频| 久久99精品国语久久久| 永久免费av网站大全| 美女脱内裤让男人舔精品视频| 久久鲁丝午夜福利片| 久久这里有精品视频免费| 欧美精品亚洲一区二区| 亚洲综合精品二区| 亚洲精品久久午夜乱码| 最新中文字幕久久久久| 日本-黄色视频高清免费观看| 伦精品一区二区三区| 日韩精品免费视频一区二区三区 | 亚洲精品美女久久av网站| 国产不卡av网站在线观看| 国产色婷婷99| 高清毛片免费看| 天堂俺去俺来也www色官网| 亚洲国产精品成人久久小说| 最近手机中文字幕大全| 成人无遮挡网站| 大片免费播放器 马上看| 在线观看免费高清a一片| 91精品国产国语对白视频| 亚洲精品av麻豆狂野| 日日摸夜夜添夜夜爱| 久久97久久精品| 日本爱情动作片www.在线观看| 久久久久人妻精品一区果冻| 一边亲一边摸免费视频| 久久久久久伊人网av| 欧美日韩精品成人综合77777| 在线观看免费日韩欧美大片| 男女边摸边吃奶| 亚洲精品乱码久久久久久按摩| 22中文网久久字幕| 日韩一本色道免费dvd| 亚洲av欧美aⅴ国产| 亚洲天堂av无毛| 久久99一区二区三区| 在线看a的网站| 中文天堂在线官网| 亚洲一区二区三区欧美精品| 伊人亚洲综合成人网| 天天躁夜夜躁狠狠久久av| 日产精品乱码卡一卡2卡三| 久久99蜜桃精品久久| 免费播放大片免费观看视频在线观看| 国产麻豆69| 一级毛片 在线播放| 少妇的丰满在线观看| 2022亚洲国产成人精品| 国产免费一级a男人的天堂| 日本免费在线观看一区| 欧美日韩综合久久久久久| 性高湖久久久久久久久免费观看| 五月开心婷婷网| 人人妻人人澡人人爽人人夜夜| 国产男女超爽视频在线观看| 一级毛片黄色毛片免费观看视频| 亚洲第一区二区三区不卡| 在线看a的网站| 日韩人妻精品一区2区三区| 22中文网久久字幕| 男女啪啪激烈高潮av片| 高清黄色对白视频在线免费看| 国产av码专区亚洲av| 在线天堂最新版资源| 肉色欧美久久久久久久蜜桃| 狠狠婷婷综合久久久久久88av| 亚洲国产精品一区二区三区在线| 欧美精品人与动牲交sv欧美| 2022亚洲国产成人精品| 亚洲精品,欧美精品| 亚洲天堂av无毛| 日韩中字成人| 亚洲欧洲国产日韩| 亚洲美女视频黄频| 日韩中文字幕视频在线看片| 久久ye,这里只有精品| 看免费av毛片| 美女内射精品一级片tv| 2021少妇久久久久久久久久久| 2021少妇久久久久久久久久久| 五月天丁香电影| 亚洲欧美中文字幕日韩二区| 国产精品熟女久久久久浪| 国产片特级美女逼逼视频| 在线免费观看不下载黄p国产| 啦啦啦啦在线视频资源| 欧美成人午夜免费资源| 老女人水多毛片| 内地一区二区视频在线| 纯流量卡能插随身wifi吗| 国产成人精品一,二区| 国产精品国产av在线观看| 久久精品国产亚洲av涩爱| 国产一区二区激情短视频 | 2018国产大陆天天弄谢| 亚洲情色 制服丝袜| 成人无遮挡网站| 午夜激情av网站| 中文字幕制服av| 精品视频人人做人人爽| 18禁国产床啪视频网站| 国产探花极品一区二区| 女人久久www免费人成看片| 中文字幕另类日韩欧美亚洲嫩草| av网站免费在线观看视频| 91aial.com中文字幕在线观看| 极品人妻少妇av视频| √禁漫天堂资源中文www| 亚洲 欧美一区二区三区| 99久国产av精品国产电影| 久久99热6这里只有精品| 亚洲美女搞黄在线观看| 国产色婷婷99| 亚洲国产精品999| 日韩熟女老妇一区二区性免费视频| 免费高清在线观看日韩| 亚洲精品aⅴ在线观看| 中文欧美无线码| 女人精品久久久久毛片| 制服人妻中文乱码| 人妻人人澡人人爽人人| 麻豆乱淫一区二区| 午夜福利视频在线观看免费| 中国美白少妇内射xxxbb| 精品国产一区二区三区久久久樱花| 亚洲精品aⅴ在线观看| 国产精品成人在线| 久久久久久伊人网av| 欧美少妇被猛烈插入视频| 少妇猛男粗大的猛烈进出视频| 曰老女人黄片| 免费黄网站久久成人精品| 精品人妻在线不人妻| 亚洲经典国产精华液单| 久久久亚洲精品成人影院| 久久精品国产自在天天线| 国产欧美另类精品又又久久亚洲欧美| 欧美另类一区| 亚洲成人手机| 亚洲欧美日韩另类电影网站| 国产乱人偷精品视频| 97超碰精品成人国产| 国产熟女欧美一区二区| 丝袜人妻中文字幕| av免费在线看不卡| 两个人看的免费小视频| 精品少妇内射三级| 亚洲欧美一区二区三区国产| 成年av动漫网址| 少妇的逼水好多| 99视频精品全部免费 在线| 久久99蜜桃精品久久| 中文精品一卡2卡3卡4更新| 大香蕉久久网| 男女边摸边吃奶| 99热网站在线观看| 黄片播放在线免费| 大香蕉97超碰在线| 三上悠亚av全集在线观看| 18+在线观看网站| 亚洲人成77777在线视频| 亚洲精品自拍成人| 99久久中文字幕三级久久日本| 午夜av观看不卡| 日韩av免费高清视频| 美女福利国产在线| 丰满饥渴人妻一区二区三| 亚洲国产看品久久| 黑丝袜美女国产一区| 成人手机av| 免费久久久久久久精品成人欧美视频 | 美女大奶头黄色视频| 99香蕉大伊视频| 国产精品免费大片| 好男人视频免费观看在线| 蜜桃国产av成人99| 免费在线观看完整版高清| 亚洲激情五月婷婷啪啪| 高清av免费在线| 国产精品熟女久久久久浪| 自线自在国产av| 欧美老熟妇乱子伦牲交| 午夜日本视频在线| 亚洲综合色网址| 春色校园在线视频观看| 欧美亚洲日本最大视频资源| 久久久精品免费免费高清| 日本免费在线观看一区| 99国产综合亚洲精品| 一区在线观看完整版| 欧美另类一区| 国产精品嫩草影院av在线观看| 男女午夜视频在线观看 | 一级片'在线观看视频| 性色avwww在线观看| 精品99又大又爽又粗少妇毛片| 国产精品人妻久久久久久| 久久久久久久久久久久大奶| 女人精品久久久久毛片| 午夜福利视频精品| 国产精品久久久久久久久免| 亚洲,欧美,日韩| 超色免费av| 搡老乐熟女国产| 国产精品99久久99久久久不卡 | 肉色欧美久久久久久久蜜桃| 草草在线视频免费看| 久久韩国三级中文字幕| 女的被弄到高潮叫床怎么办| 亚洲久久久国产精品| 这个男人来自地球电影免费观看 | 人妻系列 视频| 两个人免费观看高清视频| 精品福利永久在线观看| 大片电影免费在线观看免费| 老司机影院成人| 日本欧美视频一区| 日本免费在线观看一区| 我的女老师完整版在线观看| 男男h啪啪无遮挡| 国产成人欧美| kizo精华| 男女啪啪激烈高潮av片| 久久人人爽人人爽人人片va| 日韩免费高清中文字幕av| av黄色大香蕉| 少妇高潮的动态图| 少妇被粗大猛烈的视频| 最近中文字幕高清免费大全6| 久久精品久久久久久久性| 国产av一区二区精品久久| 国产免费一级a男人的天堂| 黑人高潮一二区| 色婷婷久久久亚洲欧美| 国产色婷婷99| 交换朋友夫妻互换小说| 精品午夜福利在线看| 夜夜骑夜夜射夜夜干| 97在线人人人人妻| 国产精品.久久久| 少妇人妻久久综合中文| 老司机亚洲免费影院| 国产精品麻豆人妻色哟哟久久| 久久久亚洲精品成人影院| 中国国产av一级| 国产成人欧美| 成人免费观看视频高清| 亚洲国产av影院在线观看| 美国免费a级毛片| 日韩视频在线欧美| 日韩一本色道免费dvd| 成人18禁高潮啪啪吃奶动态图| 亚洲成人一二三区av| 亚洲欧美精品自产自拍| 亚洲,一卡二卡三卡| 老女人水多毛片| 在线天堂最新版资源| 777米奇影视久久| 9热在线视频观看99| 亚洲人成网站在线观看播放| 丝袜人妻中文字幕| 久久午夜综合久久蜜桃| a级毛色黄片| 欧美激情 高清一区二区三区| 国产精品国产三级专区第一集| 亚洲国产精品一区三区| 蜜桃国产av成人99| 黄色配什么色好看| 亚洲国产av新网站| 欧美人与性动交α欧美软件 | 少妇被粗大猛烈的视频| av在线播放精品| 久久久久久久大尺度免费视频| 伦理电影大哥的女人| 亚洲国产精品专区欧美| 热99国产精品久久久久久7| 亚洲人成网站在线观看播放| 成人手机av| 少妇猛男粗大的猛烈进出视频| 极品少妇高潮喷水抽搐| 大话2 男鬼变身卡| 久久久精品94久久精品| 国产乱来视频区| 欧美激情国产日韩精品一区| 欧美bdsm另类| 最后的刺客免费高清国语| 日本欧美视频一区| 亚洲av中文av极速乱| 久久久久久久精品精品| 高清在线视频一区二区三区| 寂寞人妻少妇视频99o| √禁漫天堂资源中文www| 少妇熟女欧美另类| 久久久久久久久久成人| 视频区图区小说| 高清欧美精品videossex| 亚洲精品久久成人aⅴ小说| 成人手机av| 精品国产国语对白av| 成人综合一区亚洲| 亚洲精品视频女| 人人妻人人添人人爽欧美一区卜| 在线观看www视频免费| 国产精品.久久久| 国产欧美另类精品又又久久亚洲欧美| 国产黄色视频一区二区在线观看| 欧美激情国产日韩精品一区| 草草在线视频免费看| 亚洲国产精品成人久久小说| 国产毛片在线视频| 极品人妻少妇av视频| 曰老女人黄片| 久久av网站| 少妇人妻 视频| 国产精品久久久久成人av| h视频一区二区三区| 男人操女人黄网站| 午夜91福利影院| 一区二区日韩欧美中文字幕 | 成人国语在线视频| 一二三四在线观看免费中文在 | 精品福利永久在线观看| 亚洲精品国产色婷婷电影| 久久久久久久大尺度免费视频| 精品熟女少妇av免费看| 中国国产av一级| 99久久人妻综合| 高清黄色对白视频在线免费看| 9色porny在线观看| 国产日韩欧美亚洲二区| 18在线观看网站| videossex国产| 另类亚洲欧美激情| 26uuu在线亚洲综合色| 老司机亚洲免费影院| 伦精品一区二区三区| 欧美xxxx性猛交bbbb| 人人妻人人爽人人添夜夜欢视频| www.色视频.com| 免费黄色在线免费观看| 国产免费现黄频在线看| 亚洲国产欧美在线一区| 天堂俺去俺来也www色官网| 欧美日韩综合久久久久久| 国产片内射在线| 亚洲伊人色综图| freevideosex欧美| 国产精品久久久久久av不卡| 亚洲三级黄色毛片| 日本午夜av视频| a级毛片黄视频| 黄色一级大片看看| 色哟哟·www| 18禁观看日本| 天天操日日干夜夜撸| 久久久久久久精品精品| 精品国产一区二区三区四区第35| 一区在线观看完整版| 久久久久网色| 国产欧美亚洲国产| 高清av免费在线| 国产精品久久久久久精品古装| 制服丝袜香蕉在线| 黄色毛片三级朝国网站| 久热这里只有精品99| 亚洲欧洲国产日韩| 久久久久国产精品人妻一区二区| 国产男女超爽视频在线观看| 狂野欧美激情性xxxx在线观看| 亚洲精品一区蜜桃| 亚洲精品,欧美精品| 日本欧美国产在线视频| www.av在线官网国产| 免费av中文字幕在线| 男女午夜视频在线观看 | 亚洲综合精品二区| a级片在线免费高清观看视频| 色婷婷av一区二区三区视频| 国产69精品久久久久777片| 满18在线观看网站| 卡戴珊不雅视频在线播放| 赤兔流量卡办理| 亚洲综合色惰| 妹子高潮喷水视频| 精品福利永久在线观看| 久久精品国产综合久久久 | 中国三级夫妇交换| 国产一级毛片在线| 久久久亚洲精品成人影院| 午夜福利影视在线免费观看| 国产在线视频一区二区| 一级a做视频免费观看| 国产在线一区二区三区精| 欧美精品一区二区免费开放| 男人爽女人下面视频在线观看| 中文字幕人妻丝袜制服| www日本在线高清视频| 精品一品国产午夜福利视频| 日日撸夜夜添| 欧美 日韩 精品 国产| 久久久亚洲精品成人影院| 亚洲综合精品二区| 九草在线视频观看| 亚洲av电影在线观看一区二区三区| 国产成人精品一,二区| 亚洲av成人精品一二三区| 另类精品久久| 成年人午夜在线观看视频| 国产成人精品在线电影| 久久综合国产亚洲精品| 精品人妻在线不人妻| 一本—道久久a久久精品蜜桃钙片| 久久久久久久大尺度免费视频| 2022亚洲国产成人精品| 成年人午夜在线观看视频| 美女脱内裤让男人舔精品视频| 日日爽夜夜爽网站| 人人妻人人爽人人添夜夜欢视频| 精品久久国产蜜桃| 国产日韩欧美在线精品| 精品一区二区免费观看| 纯流量卡能插随身wifi吗| 欧美精品一区二区免费开放| 九色亚洲精品在线播放| 日本-黄色视频高清免费观看| 99九九在线精品视频| 欧美激情极品国产一区二区三区 | 巨乳人妻的诱惑在线观看| 久久久久久伊人网av| 自线自在国产av| 国产一区二区在线观看日韩| 国产亚洲一区二区精品| 日韩av在线免费看完整版不卡| 成年人午夜在线观看视频| 狠狠婷婷综合久久久久久88av| 国产免费一区二区三区四区乱码| 在线天堂中文资源库| 午夜免费鲁丝| 久久av网站| 国产日韩一区二区三区精品不卡| 80岁老熟妇乱子伦牲交| 有码 亚洲区| 青春草视频在线免费观看| xxx大片免费视频| 久久久久久久亚洲中文字幕| 亚洲一级一片aⅴ在线观看| 精品人妻一区二区三区麻豆| 草草在线视频免费看| 久久人人97超碰香蕉20202| 26uuu在线亚洲综合色| 欧美 日韩 精品 国产| 一区在线观看完整版| 999精品在线视频| 国产 一区精品| 欧美亚洲日本最大视频资源| 91aial.com中文字幕在线观看| a级毛色黄片| 在线观看免费日韩欧美大片| 麻豆乱淫一区二区| 18在线观看网站| 国产精品一二三区在线看| 免费高清在线观看视频在线观看| 一边摸一边做爽爽视频免费| 2022亚洲国产成人精品| 国产乱来视频区| 黄片无遮挡物在线观看| 婷婷色av中文字幕| 五月伊人婷婷丁香| 狠狠精品人妻久久久久久综合| 国产极品粉嫩免费观看在线| 国产爽快片一区二区三区| 成人国产麻豆网| 十八禁高潮呻吟视频| 国产一区二区在线观看av| 久久精品国产鲁丝片午夜精品| www.色视频.com| 精品亚洲成国产av| 亚洲精品色激情综合| 男女无遮挡免费网站观看| 午夜久久久在线观看|