靳文兵,郭江宇,陳志華,呂 昊,黃明杰
(北方自動(dòng)控制技術(shù)研究所, 太原 030006)
深度學(xué)習(xí)在近十年快速發(fā)展,通過(guò)不斷加深的網(wǎng)絡(luò)結(jié)構(gòu),快速增長(zhǎng)的模型參數(shù),相關(guān)研究取得了非常豐碩的成果。但追根溯源,深度學(xué)習(xí)的迅猛發(fā)展離不開(kāi)大數(shù)據(jù)的支持,以及計(jì)算機(jī)性能的提升。僅0到9手寫(xiě)數(shù)字識(shí)別就需要60 000幅以上的訓(xùn)練樣本數(shù)據(jù)(以Mnist數(shù)據(jù)集為例),80種人物類(lèi)別的COCO數(shù)據(jù)集存儲(chǔ)容量已超過(guò)40 GB(MS COCO Dataset 2017),即使選配高性能運(yùn)算部件,當(dāng)前許多采用大數(shù)據(jù)集的模型訓(xùn)練已經(jīng)需要按周甚至按月計(jì)算其運(yùn)行時(shí)間,訓(xùn)練耗時(shí)及如何獲得、標(biāo)注大量的數(shù)據(jù)樣本已成為深度學(xué)習(xí)發(fā)展的羈絆。在軍事領(lǐng)域,行業(yè)特殊性造成許多類(lèi)型的數(shù)據(jù)積累困難[1],如同期內(nèi)獲得的某型軍用車(chē)輛顯控終端維修保障數(shù)據(jù)不及同類(lèi)民用車(chē)輛中控臺(tái)的千分之一。另外一些數(shù)據(jù)則難以獲取,如軍事裝備或設(shè)備結(jié)構(gòu)參數(shù)、功能性能指標(biāo)等。如何在數(shù)據(jù)數(shù)量有限的情況下,充分利用深度學(xué)習(xí)領(lǐng)域取得的成就,快速識(shí)別敵方目標(biāo)、準(zhǔn)確判斷設(shè)備故障、高效規(guī)劃航跡路徑等已成為當(dāng)前軍事領(lǐng)域的研究重點(diǎn)[2]。因此,從學(xué)術(shù)領(lǐng)域到軍事應(yīng)用,都迫切需要開(kāi)展面向少量樣本(小樣本)的學(xué)習(xí)研究工作[3-4]。
小樣本是一個(gè)相對(duì)概念。小樣本學(xué)習(xí)(small-sample learning,SSL)是基于前期大量數(shù)據(jù)訓(xùn)練獲得的知識(shí),通過(guò)小樣本糾偏修正,實(shí)現(xiàn)模型算法參數(shù)的更新,從而使模型具有“新生事物”的正確辨識(shí)能力[5-8]。人類(lèi)的學(xué)習(xí)、實(shí)踐和認(rèn)知過(guò)程也是如此。首先要有相關(guān)事物的知識(shí)積累,再通過(guò)邏輯思維(模型算法構(gòu)建),包括個(gè)別試錯(cuò)過(guò)程(小樣本學(xué)習(xí)訓(xùn)練),人類(lèi)才能認(rèn)識(shí)新事物。SSL樣本規(guī)模明顯大于Few-Shot Learning(FSL)和One-Shot Learning研究。但它們識(shí)別事物的原理是相同的,即通過(guò)參數(shù)微調(diào)的遷移學(xué)習(xí),或者模型泛化來(lái)實(shí)現(xiàn)小樣本識(shí)別。因此,如何構(gòu)建前后2種樣本的相關(guān)性模型,在充分利用前期知識(shí)的基礎(chǔ)上,通過(guò)小樣本學(xué)習(xí)實(shí)現(xiàn)對(duì)新事物的認(rèn)知,成為深度學(xué)習(xí)領(lǐng)域研究的熱點(diǎn)[9-11]。
小樣本學(xué)習(xí)領(lǐng)域還有另外一個(gè)分支,即不依靠前期知識(shí)積累的小樣本分類(lèi)研究。文獻(xiàn)[12]提出一種可用于FSL識(shí)別的原型網(wǎng)絡(luò)(P-net),在樣本屬性空間歐幾里得距離一定的前提下,可將不同的樣本映射到特定區(qū)域。但當(dāng)樣本空間距離較小時(shí),Few-Shot映射就成為一種概率事件。P-net更像是人類(lèi)認(rèn)知的一個(gè)特例,即“找樣本之間的不同”,但同時(shí)卻放棄了人類(lèi)通過(guò)學(xué)習(xí)和實(shí)踐過(guò)程實(shí)現(xiàn)的知識(shí)積累。文獻(xiàn)[13]借鑒了外部存儲(chǔ)和記憶力增強(qiáng)網(wǎng)絡(luò)的思想,采用注意力機(jī)制內(nèi)核等,但從根本上仍然屬于樣本間距離度量(求余弦值而非歐幾里得距離)。沒(méi)有知識(shí)積累的小樣本學(xué)習(xí)值得理論探索,但成果泛化性不強(qiáng),沒(méi)有實(shí)用價(jià)值,更不符合人類(lèi)認(rèn)知規(guī)律。
在軍事領(lǐng)域,由于保密性、對(duì)抗性等特殊原因,小樣本學(xué)習(xí)研究進(jìn)展緩慢[14-15]。本文中以解決目標(biāo)數(shù)據(jù)不足引發(fā)的軍事裝備識(shí)別困難為突破口,研究小樣本元學(xué)習(xí)在軍事領(lǐng)域的應(yīng)用。首先基于Darknet深度學(xué)習(xí)框架構(gòu)建神經(jīng)網(wǎng)絡(luò)模型,采用民用數(shù)據(jù)集大樣本訓(xùn)練至收斂。以典型軍事裝備圖片測(cè)試模型,可正確分類(lèi)坦克(tank)、戰(zhàn)機(jī)(fighter)和軍艦(warship),但卻無(wú)法區(qū)分坦克和卡車(chē)(truck)、戰(zhàn)機(jī)和客機(jī)(aeroplane)、軍艦和漁船(boat)。借鑒人類(lèi)學(xué)習(xí)認(rèn)識(shí)新事物的方法(類(lèi)比法),比較軍事裝備與民用車(chē)輛、民航客機(jī)和普通船只的區(qū)別,發(fā)現(xiàn)炮管、槍械、掛載導(dǎo)彈等作戰(zhàn)武器是軍事裝備所特有。而傳統(tǒng)模式識(shí)別算法可以高效完成局部圖像特征匹配。因此,本文中提出一種遞進(jìn)學(xué)習(xí)模型(step-learning model,SLM)。采用SLM模型、內(nèi)嵌SIFT算法,以是否配置武器區(qū)分坦克和卡車(chē)、戰(zhàn)機(jī)和客機(jī)、軍艦和漁船。實(shí)驗(yàn)驗(yàn)證模型算法分類(lèi)性能指標(biāo)滿(mǎn)足使用要求。研究成果可應(yīng)用于無(wú)人車(chē)、無(wú)人機(jī)等無(wú)人裝備目標(biāo)識(shí)別系統(tǒng)。相關(guān)算法模型和思想對(duì)研究數(shù)據(jù)量有限的武器裝備智能檢測(cè)維修、戰(zhàn)場(chǎng)態(tài)勢(shì)智能感知、作戰(zhàn)任務(wù)智能規(guī)劃等均有參考借鑒之處。
基礎(chǔ)CNN深度學(xué)習(xí)模型算法描述如下。
構(gòu)建函數(shù)集:
式中,x∈X,y∈Y,從聯(lián)合分布PX*Y中得出。
存在一種映射關(guān)系:f∈F∶X→Y。
以預(yù)期錯(cuò)誤成本:εex=E(x,y)~PX*YL(f(x),y)最小為目標(biāo)。其中,L(f(x),y)表示x的預(yù)測(cè)值f(x)與其實(shí)際值y之間的損失Loss。
實(shí)際上,聯(lián)合分布PX*Y是未知的,因此需最小化經(jīng)驗(yàn)誤差,即:
εex=E(x,y)~DtL(f(x),y)
(2)
如果學(xué)習(xí)算法函數(shù)f空間F太大,則泛化誤差為:
εex=|εex-εem|
(3)
這時(shí)的泛化誤差會(huì)變得很大,容易出現(xiàn)過(guò)擬合。因此,需要求取函數(shù)f的最小誤差空間,有:
minfεem
s.t.f(xi)=yi, ?(xi,yi)∈Dt
(4)
如果Dt中包含更多受監(jiān)督的樣本,函數(shù)f將會(huì)有更多的約束條件。這意味著函數(shù)f的映射空間將變小,泛化效果會(huì)增強(qiáng)。相反,如果監(jiān)督樣本的數(shù)據(jù)集規(guī)模減少,則會(huì)導(dǎo)致泛化能力降低。本質(zhì)上,監(jiān)督樣本形成的約束可以壓縮函數(shù)f的冗余可選空間,從而減少學(xué)習(xí)算法的泛化誤差。
以上推導(dǎo)也可得出:如果一個(gè)模型的學(xué)習(xí)算法依靠誤差反向傳導(dǎo)來(lái)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)模型,而作為樣本的約束條件又不充足,類(lèi)似FSL訓(xùn)練任務(wù),則模型可能面臨過(guò)擬合問(wèn)題。
從CNN基礎(chǔ)模型算法可見(jiàn),深度學(xué)習(xí)依賴(lài)大量訓(xùn)練樣本約束模型函數(shù)空間,以提高模型泛化能力。直接采用深度學(xué)習(xí)模型算法處理SSL將面臨嚴(yán)重的過(guò)擬合問(wèn)題。因此,本文中首先借助民用領(lǐng)域大數(shù)據(jù)樣本相對(duì)豐富的特點(diǎn),采用COCO公開(kāi)數(shù)據(jù)集訓(xùn)練基礎(chǔ)模型作為知識(shí)積累。在此基礎(chǔ)上,通過(guò)小樣本特征模式匹配,實(shí)現(xiàn)對(duì)軍事裝備的識(shí)別,達(dá)到SSL訓(xùn)練的目的。
樣本屬性差別是影響基礎(chǔ)模型應(yīng)用于小樣本學(xué)習(xí)并取得良好效果的關(guān)鍵因素。圍繞基礎(chǔ)模型的優(yōu)化,改進(jìn)工作包括對(duì)原模型結(jié)構(gòu)、參數(shù)的調(diào)整,以及在原模型基礎(chǔ)上增加新的模型算法。所有優(yōu)化改進(jìn)方法都基于對(duì)前后2種樣本屬性差別的分析。如圖 1所示,前期基礎(chǔ)模型訓(xùn)練用大數(shù)據(jù)量樣本集A與后期小樣本訓(xùn)練集B存在3種確定的屬性關(guān)系,即:不相關(guān)、有交集和包含。對(duì)于第3種情況,B的屬性映射空間包含在A中,則原模型保持有效,無(wú)需改進(jìn)優(yōu)化。第1種情況下,小樣本屬性與前期訓(xùn)練樣本完全不相關(guān),則需調(diào)整大數(shù)據(jù)樣本。最后,A、B樣本屬性有交集的第2種情況是論文研究重點(diǎn),即2種樣本屬性空間既有交集又存在一定差別,可通過(guò)進(jìn)一步的學(xué)習(xí)研究區(qū)分2種樣本。
圖1 2種樣本屬性關(guān)系
坦克、戰(zhàn)機(jī)、軍艦等軍事小樣本(B集合)與卡車(chē)、火車(chē)、飛機(jī)、船舶等大樣本數(shù)據(jù)(A集合)之間具有天然的聯(lián)系。前后2種樣本屬性的相關(guān)性決定了知識(shí)積累的有效性,而通過(guò)小樣本特征屬性識(shí)別可以從大樣本分類(lèi)中剝離出小樣本。在深度學(xué)習(xí)研究中,孿生卷積網(wǎng)絡(luò)(2015年,G.Kochet等人提出)從原理上區(qū)分2種不同的樣本。數(shù)據(jù)增強(qiáng)方法實(shí)現(xiàn)樣本空間映射,不同映射函數(shù)反應(yīng)不同的樣本關(guān)系。度量學(xué)習(xí)則以數(shù)值形式量化樣本之間的差別。但深度學(xué)習(xí)方法區(qū)分A、B集合樣本需要大量訓(xùn)練數(shù)據(jù)支撐,而抓住事物特征比對(duì)的模式識(shí)別算法卻簡(jiǎn)單易行、高效準(zhǔn)確。
在1.1節(jié)和1.2節(jié)研究基礎(chǔ)上,本文中提出遞進(jìn)學(xué)習(xí)模型(step learning model,SLM)。SLM前期通過(guò)大數(shù)據(jù)集訓(xùn)練CNN網(wǎng)絡(luò)模型參數(shù),后期采用小樣本武器特征提取構(gòu)造特征矢量,采用模式匹配算法識(shí)別樣本類(lèi)型。SLM模型算法描述如圖2所示。
圖2 遞進(jìn)學(xué)習(xí)模型
模式識(shí)別算法通過(guò)匹配局部形狀特征實(shí)現(xiàn)樣本分類(lèi)。影響模式識(shí)別精度的因素較多,如光照方向、目標(biāo)角度等。作為軍事裝備,還存在隱蔽性偽裝。因此,模式識(shí)別可同時(shí)采用多種數(shù)據(jù)增強(qiáng)方式,包括采用冪次變換調(diào)整圖像整體亮暗程度、高通濾波實(shí)現(xiàn)圖像銳化。為提高模式識(shí)別準(zhǔn)確性,可以多種算法均值作為置信度。如常用算法LBPH是在LBP(local binary patterns)特征基礎(chǔ)上的統(tǒng)計(jì)直方圖(histograms)。LBPH將LBP特征與圖像的空間信息結(jié)合在一起。LBP對(duì)光照具有很強(qiáng)的魯棒性。
SLM模型中,武器特征提取采用尺度不變特征變換算法(scale-invariant feature transform,SIFT)。SIFT具有尺度不變性,即它對(duì)物體的尺度變化、剛體變換、光照強(qiáng)度和遮擋都具有較好的穩(wěn)定性,可在圖像中檢測(cè)出其特征點(diǎn),構(gòu)造特征矢量。特征點(diǎn)提取主要包括生成高斯差分(difference of Gaussian,DOG)尺度空間、尋找局部極值點(diǎn)、特征點(diǎn)篩選、確定特征點(diǎn)方向。特征點(diǎn)匹配則根據(jù)特征矢量相似性進(jìn)行匹配、匹配對(duì)比值提純、RANSAC方法剔除離群匹配對(duì)。
SIFT算法首先構(gòu)造尺度空間。圖像中某一尺度的空間函數(shù)L(x,y,σ)由可變參數(shù)的高斯函數(shù)G(x,y,σ)和原輸入圖像I(x,y)卷積得到,即:
L(x,y,σ)=G(x,y,σ)*I(x,y)
(6)
式中,σ表示為尺度空間因子。σ越小反映局部點(diǎn)越清晰;反之,σ越大圖像越模糊,越不能反映出圖像細(xì)節(jié)。在不同尺度參數(shù)組數(shù)中,高斯差分圖像是由某一相同尺度層的相鄰圖像作差值得出。然后,將得到的差分圖像與原圖像I(x,y)做卷積得到DOG函數(shù),即:
D(x,y,σ)=[G(x,y,kσ)-G(x,y,σ)]*I(x,y)=
L(x,y,kσ)-L(x,y,σ)
(7)
由式(7)可知,將相鄰2個(gè)高斯空間圖像相減得到DOG響應(yīng)圖像。特征點(diǎn)是由DOG空間局部極值點(diǎn)組成。通過(guò)計(jì)算每個(gè)極值點(diǎn)的梯度為極值點(diǎn)賦予方向。最后,每一個(gè)特征點(diǎn)擁有位置、尺度和方向等信息。為每個(gè)特征點(diǎn)建立一個(gè)描述符,使其不隨各種變化而改變,比如光照變化、視角變化。所有特征點(diǎn)構(gòu)成一個(gè)特征矢量。
特征點(diǎn)匹配是通過(guò)2點(diǎn)集內(nèi)特征點(diǎn)比對(duì)來(lái)實(shí)現(xiàn)的。具有128維的特征點(diǎn)集相似性度量采用歐式距離。匹配采用KD樹(shù)(k-dimension tree)數(shù)據(jù)結(jié)構(gòu)來(lái)完成搜索。搜索內(nèi)容是以目標(biāo)圖像特征點(diǎn)作為基準(zhǔn),搜索與目標(biāo)圖像特征點(diǎn)最鄰近的樣本圖像特征點(diǎn)和次鄰近的原圖像特征點(diǎn)。
基礎(chǔ)模型訓(xùn)練采用MS COCO Dataset 2017公開(kāi)數(shù)據(jù)集。該數(shù)據(jù)集是一個(gè)大型豐富的物體檢測(cè)、分割和字幕數(shù)據(jù)集,提供80個(gè)類(lèi)別、超過(guò)16萬(wàn)張圖片。其中,Train Images[118K/18G],Val Image[5K/1G],Test Images[41K/6GB]。80個(gè)類(lèi)別包括:Person(人),Bicycle(自行車(chē)),Car(汽車(chē)),Motorbike(摩托車(chē)),Aeroplane(飛機(jī)),Bus(公共汽車(chē)),Train(火車(chē)),Truck(卡車(chē)),Boat(船),Traffic Light(信號(hào)燈),Stop Sign(停車(chē)標(biāo)志),Bird(鳥(niǎo)),Cat(貓),Dog(狗),Horse(馬)等等。圖3為部分?jǐn)?shù)據(jù)集圖片。
圖3 MS COCO Dataset 2017數(shù)據(jù)集Fig.3 MS COCO Dataset 2017
小樣本數(shù)據(jù)集選用互聯(lián)網(wǎng)下載坦克、戰(zhàn)機(jī)和軍艦圖片各600張。其中,500張用于武器特征提取,100張用于后期目標(biāo)分類(lèi)測(cè)試。特征提取前先用Photoshop工具截取各種武器并制作為大小統(tǒng)一的圖片(120×40)。部分制作特征樣本如圖4所示,小樣本數(shù)據(jù)集如圖5所示。
圖4 特征樣本數(shù)據(jù)集Fig.4 Feature sample dataset
圖5 小樣本數(shù)據(jù)集Fig.5 Small sample dataset
硬件采用全國(guó)產(chǎn)化高性能服務(wù)器。該機(jī)具有2顆天津飛騰公司生產(chǎn)的S2500處理器,適配國(guó)產(chǎn)128GB內(nèi)存和512GB電子盤(pán),可高效運(yùn)行銀河麒麟服務(wù)器版(V10)操作系統(tǒng)。加裝一塊FPGA加速卡提供GEMM加速運(yùn)算服務(wù)。
深度學(xué)習(xí)框架選用Darknet。該框架是一個(gè)輕量化的、完全基于C與CUDA的開(kāi)源深度學(xué)習(xí)框架。Darknet主要特點(diǎn)是容易安裝,沒(méi)有任何依賴(lài)項(xiàng),移植性非常好,支持CPU與GPU 2種計(jì)算方式。實(shí)驗(yàn)采用FPGA加速。Darknet框架支持多種CNN模型算法,實(shí)驗(yàn)選用Yolov3模型完成COCO數(shù)據(jù)樣本訓(xùn)練。C語(yǔ)言編程實(shí)現(xiàn)SIFT算法,完成對(duì)小樣本特征(導(dǎo)彈、艦炮、機(jī)關(guān)炮等武器)提取和模式匹配。程序調(diào)用OpenCV函數(shù)實(shí)現(xiàn)下采樣、線(xiàn)性插值功能。
基礎(chǔ)模型采用具有75層CNN網(wǎng)絡(luò)的Yolov3模型,加載darknet53.conv.74作為預(yù)訓(xùn)練權(quán)重文件(Backbone)。表1為經(jīng)過(guò)50 200次迭代訓(xùn)練后,隨機(jī)抽取各種網(wǎng)絡(luò)樣本圖片做目標(biāo)檢測(cè)的置信度統(tǒng)計(jì)。
表1 CNN基礎(chǔ)模型典型樣本置信度統(tǒng)計(jì)Table 1 Typical samples statistics of CNN model
由表1可見(jiàn),經(jīng)過(guò)大樣本訓(xùn)練后,模型對(duì)火車(chē)、卡車(chē)和飛機(jī)的識(shí)別正確率非常高(平均98%以上),但對(duì)各種民用船只的識(shí)別率稍低(平均90%左右)。這與船只類(lèi)型眾多、千差萬(wàn)別有關(guān)。在對(duì)3種武器裝備的識(shí)別過(guò)程中,戰(zhàn)機(jī)與飛機(jī)、戰(zhàn)艦與普通船只的識(shí)別率接近,而坦克則被識(shí)別成多種類(lèi)別,包括火車(chē)、卡車(chē)等。由此可見(jiàn),基于大樣本訓(xùn)練的Yolo模型已實(shí)現(xiàn)一定的知識(shí)積累并具有對(duì)武器裝備的識(shí)別能力。下面只需要利用小樣本提供的武器裝備特征,通過(guò)模式識(shí)別進(jìn)一步區(qū)分Tank和Train、Truck,Fighter與Aeroplane,Warship與Boat。
坦克、戰(zhàn)機(jī)、軍艦等武器裝備與火車(chē)、卡車(chē)、客機(jī)、漁船等民用裝備的最大區(qū)別是前者具有槍管、炮筒、外掛彈藥等武器。采用SIFT算法從小樣本圖片中提取武器特征,通過(guò)模式匹配算法可實(shí)現(xiàn)軍用裝備與民用裝備的分類(lèi)識(shí)別。圖6展示了SIFT模式匹配算法效果。左下角的炮身原圖共有43個(gè)SIFT圖像特征點(diǎn),左上角炮身與右圖坦克匹配9對(duì)特征點(diǎn),如圖6中藍(lán)色直線(xiàn)相連部分。圖7為小目標(biāo)識(shí)別情況。
圖6 SIFT模式匹配算法效果Fig.6 SIFT algorithm
圖7 小目標(biāo)匹配Fig.7 Small target matching
SIFT算法可以實(shí)現(xiàn)2幅圖像間的精確匹配,沒(méi)有泛化效果。因此,小樣本特征數(shù)量決定樣本識(shí)別數(shù)量。這與人類(lèi)認(rèn)知相似。用前期測(cè)試CNN模型的小樣本圖片實(shí)驗(yàn)測(cè)試SLM模型。取坦克、戰(zhàn)機(jī)和軍艦各100幅,測(cè)試平均置信度分別為87%、92%和91%,實(shí)驗(yàn)結(jié)果如表2所示。由表2可見(jiàn),SLM模型可以大概率正確識(shí)別3種軍用裝備。
表2 SLM模型樣本測(cè)試置信度統(tǒng)計(jì)Table 2 Statistics of SLM model test
通過(guò)調(diào)整SIFT算法參數(shù)閾值實(shí)現(xiàn)目標(biāo)匹配效果泛化。以2幅圖像特征點(diǎn)的特征向量歐式距離作為相似性判定度量。首先選取圖像1中某個(gè)特征點(diǎn)A,在圖像2中找到與A點(diǎn)歐式距離最近的2個(gè)特征點(diǎn)B和C(距離遞次增加)。如果B與A的距離除以C與A的距離小于某一閾值t,則表示接受A與B的匹配,即目標(biāo)識(shí)別成功。降低閾值t,匹配點(diǎn)數(shù)減少。增大閾值t,匹配點(diǎn)數(shù)增多。圖6中炮身原圖43個(gè)特征點(diǎn),在由小到大調(diào)整參數(shù)t的取值至0.8后,43個(gè)特征點(diǎn)全部匹配成功。繼續(xù)增大t值,出現(xiàn)錯(cuò)誤匹配的特征點(diǎn)。多組樣本測(cè)試確定t為0.75時(shí)匹配正確率最高,同時(shí)目標(biāo)識(shí)別概率相應(yīng)提高。
大數(shù)據(jù)與小樣本特征屬性不同決定后期SSL預(yù)測(cè)精度。小樣本訓(xùn)練試圖彌補(bǔ)兩者的本質(zhì)差距。但無(wú)論是通過(guò)參數(shù)微調(diào)的遷移學(xué)習(xí),還是依靠模型泛化的其他方法,都需要不斷調(diào)整參數(shù),提高或降低泛化能力,以匹配小樣本特性,2種方法均屬于NP問(wèn)題。不依賴(lài)前期知識(shí)積累的小樣本分類(lèi)研究具有理論探索價(jià)值,但成果泛化性不強(qiáng),沒(méi)有實(shí)際應(yīng)用價(jià)值。
本文中探討樣本相關(guān)性,以減少樣本空間距離、提高樣本屬性重合度。構(gòu)建遞進(jìn)學(xué)習(xí)模型,采用深度學(xué)習(xí)訓(xùn)練實(shí)現(xiàn)樣本分類(lèi)。提出深度學(xué)習(xí)與模式識(shí)別相結(jié)合,既充分利用大樣本支撐的深度學(xué)習(xí)理論,實(shí)現(xiàn)知識(shí)積累,又充分利用模式識(shí)別算法成果,實(shí)現(xiàn)高效、精準(zhǔn)、明確的小樣本識(shí)別。提出遞進(jìn)學(xué)習(xí)模型符合人類(lèi)認(rèn)知科學(xué)。以典型軍事裝備數(shù)據(jù)作為小樣本,實(shí)驗(yàn)驗(yàn)證模型效果滿(mǎn)足大型武器裝備目標(biāo)分類(lèi)和識(shí)別需求。