郭曉靜,李 欣,隋昊達(dá)
(1.中國(guó)民航大學(xué) 電子信息與自動(dòng)化學(xué)院,天津 300300;2.中國(guó)民航大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,天津 300300)
起降階段飛機(jī)目標(biāo)的識(shí)別跟蹤,可以輔助塔臺(tái)進(jìn)行起降監(jiān)控決策,更好地監(jiān)控機(jī)場(chǎng)狀態(tài)[1]。傳統(tǒng)的目標(biāo)識(shí)別算法利用決策分類分析飛機(jī)目標(biāo)的特征[2],進(jìn)而實(shí)現(xiàn)飛機(jī)目標(biāo)的識(shí)別,但效果受背景影響較大。
目前基于深度學(xué)習(xí)的目標(biāo)識(shí)別算法識(shí)別效果較好,被廣泛應(yīng)用。如杜聰[3]采用基于不變矩的傅里葉描述子和多邊形近似的方法進(jìn)行特征提取,對(duì)比構(gòu)建的模板特征庫(kù)中的紅外圖像飛機(jī)特征,進(jìn)行識(shí)別跟蹤,但準(zhǔn)確率依賴于選取的模板特征的好壞;黃蓉蓉[4]將SSD[5]算法應(yīng)用于軍用飛機(jī)的識(shí)別檢測(cè)中,但模型缺少泛化性;郭進(jìn)祥等[6]利用YOLOv3[7-9]算法對(duì)機(jī)場(chǎng)場(chǎng)面飛機(jī)進(jìn)行識(shí)別,實(shí)現(xiàn)遮擋情況下的飛機(jī)的識(shí)別,但對(duì)部分飛機(jī)的識(shí)別精度不高;孫振華等[10]提出了多標(biāo)簽卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)對(duì)飛機(jī)的精確識(shí)別,但是增加了網(wǎng)絡(luò)的計(jì)算復(fù)雜度;衣世東[11]采用MobileNet改進(jìn)SSD,與Faster R-CNN[12]結(jié)合實(shí)現(xiàn)對(duì)飛機(jī)的快速精準(zhǔn)識(shí)別,但是模型過(guò)于龐大。
針對(duì)前述方法的不足,尤其是避免特征選取對(duì)識(shí)別精度的影響,本文提出改進(jìn)YOLOv4[13]的飛機(jī)目標(biāo)識(shí)別算法,選擇飛機(jī)以及飛機(jī)垂尾的航空公司標(biāo)志作為識(shí)別對(duì)象,用MobileNetv3[14]改進(jìn)YOLOv4結(jié)構(gòu),通過(guò)深度可分離卷積代替?zhèn)鹘y(tǒng)卷積,減少模型的參數(shù)量,提高模型的檢測(cè)速度。此外,利用基于馬爾科夫鏈蒙特卡洛采樣的K-means++聚類算法[15,16]對(duì)飛機(jī)數(shù)據(jù)集進(jìn)行重新聚類,獲得更加合理的目標(biāo)先驗(yàn)框,提高模型的識(shí)別精度,降低參數(shù)減少造成的精度損失,實(shí)現(xiàn)飛機(jī)目標(biāo)的快速精準(zhǔn)識(shí)別。
YOLOv4(you only look once v4)在目標(biāo)識(shí)別方面具有多尺度檢測(cè)優(yōu)勢(shì)。其算法結(jié)構(gòu)包含特征提取、特征增強(qiáng)以及識(shí)別輸出3部分,如圖1所示。其特征提取網(wǎng)絡(luò)是CSPDarknet-53結(jié)構(gòu),在YOLOv3的基礎(chǔ)上引入了CSPNet結(jié)構(gòu),對(duì)引入的殘差網(wǎng)絡(luò)進(jìn)行融合;通過(guò)SPPNet增大感受野,分離出最顯著的上下文特征;然后利用PANet改進(jìn)特征金字塔的特征提取方式,輸出13×13,26×26,52×52這3個(gè)尺度的特征圖,分別對(duì)應(yīng)識(shí)別圖像的深層、中層、淺層的特征;最后根據(jù)學(xué)習(xí)到的不同層次的特征信息進(jìn)行識(shí)別。
圖1 YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)
YOLOv4算法包含3個(gè)不同尺度的特征圖,每一尺度對(duì)應(yīng)3個(gè)先驗(yàn)框,先驗(yàn)框的尺寸由數(shù)據(jù)集決定,初始的先驗(yàn)框尺寸是通過(guò)K-means聚類算法在COCO數(shù)據(jù)集上進(jìn)行聚類,在13×13,26×26,52×52這3個(gè)尺度上得到9個(gè)不同寬高的先驗(yàn)框,由此可得到輸入圖像中不同尺度上的目標(biāo)特征信息,提高算法對(duì)目標(biāo)對(duì)象的識(shí)別精度。但針對(duì)本文所研究的飛機(jī)目標(biāo)識(shí)別,部分先驗(yàn)框不適用,需要對(duì)聚類中心進(jìn)行重新計(jì)算,獲得與飛機(jī)數(shù)據(jù)集相對(duì)應(yīng)的先驗(yàn)框尺寸。
采用YOLOv4做目標(biāo)特征提取,獲得的信息更加豐富,且可利用數(shù)據(jù)在線增強(qiáng)擴(kuò)充圖像信息,降低數(shù)據(jù)的內(nèi)存占用,使得模型訓(xùn)練更加合理高效。
MobileNet是基于深度可分離卷積的輕量型神經(jīng)網(wǎng)絡(luò)模型。該結(jié)構(gòu)是通過(guò)深度卷積和逐點(diǎn)卷積這兩部分的操作大幅降低模型的計(jì)算量。假設(shè)輸入圖像的特征映射為 (DF,DF,M), 卷積核為 (DK,DK), 輸出的映射為 (DF,DF,N), 即對(duì)應(yīng)的標(biāo)準(zhǔn)卷積計(jì)算量(floating point of operation,F(xiàn)LOPs)如式(1)所示
FLOPs1=DK·DK·M·N·DF·DF
(1)
將標(biāo)準(zhǔn)卷積分解為深度卷積(如圖2所示)和逐點(diǎn)卷積(如圖3所示)。深度卷積為 (DK,DK,1,M), 輸出特征映射尺寸為 (DF,DF,M), 逐點(diǎn)卷積為 (1,1,M,N), 輸出映射尺寸為 (DF,DF,N)。 即對(duì)應(yīng)的計(jì)算量FLOPs2如式(2)所示
FLOPs2=DK·DK·M·DF·DF+
M·N·DF·DF
(2)
圖2 深度卷積
圖3 逐點(diǎn)卷積
(3)
除了采用深度可分離卷積外,MobileNet在損失函數(shù)方面也先后采用了Relu損失函數(shù)和swish損失函數(shù)。Relu函數(shù)在低維空間進(jìn)行運(yùn)算時(shí)會(huì)出現(xiàn)的神經(jīng)元失效,信息損失;swish函數(shù)是介于線性函數(shù)和Relu函數(shù)之間的平滑函數(shù),實(shí)現(xiàn)了精度的提升,降低了信息損失,但也出現(xiàn)了計(jì)算量過(guò)大的問(wèn)題。
本文所采用的MobileNetv3算法基于上述MobileNet特點(diǎn),加入了SEnet網(wǎng)絡(luò),引入注意力機(jī)制來(lái)調(diào)節(jié)每個(gè)通道的權(quán)重,增強(qiáng)通道信息量,同時(shí)改用新的損失函數(shù)h-swish,即采用近似函數(shù)逼近swish,既保留了swish對(duì)精度的提升,也降低了模型的計(jì)算量,有利于模型在嵌入式設(shè)備上的應(yīng)用與實(shí)現(xiàn)。此外,MobileNetv3進(jìn)一步降低了卷積核的數(shù)量,減少了運(yùn)算量,降低了計(jì)算延時(shí),提高了模型的速度。本文采用MobileNetv3-large。
本文研究民航客機(jī)目標(biāo)的檢測(cè)識(shí)別算法,實(shí)現(xiàn)對(duì)視頻圖像中的飛機(jī)目標(biāo)識(shí)別跟蹤,并且根據(jù)尾翼標(biāo)志進(jìn)一步識(shí)別飛機(jī)所屬。此外,改進(jìn)后的算法應(yīng)滿足在光照度較低環(huán)境下的飛機(jī)大目標(biāo)、尾翼圖標(biāo)小目標(biāo)識(shí)別的實(shí)時(shí)性要求。
為此,本文采用MobileNetv3改進(jìn)傳統(tǒng)的YOLOv4模型結(jié)構(gòu),以便使模型輕量化,提升目標(biāo)識(shí)別速度,降低模型部署的硬件要求。改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,該結(jié)構(gòu)保留了YOLOv4的多尺度優(yōu)勢(shì),用MobileNetv3替換原有的CSPDarknet-53結(jié)構(gòu),從中獲得3個(gè)不同尺度的特征輸出,經(jīng)過(guò)逐點(diǎn)卷積變換維度后與預(yù)測(cè)層進(jìn)行連接。具體做法是用MobileNetv3中13×13×160,26×26×112,52×52×40這3個(gè)特征層,替換CSPDarknet-53中的13×13×1024,26×26×512,52×52×256這3個(gè)特征層,將多尺度特征輸入到特征加強(qiáng)網(wǎng)絡(luò)進(jìn)行特征融合。
圖4 YOLOv4-MobileNet框架
YOLOv4結(jié)構(gòu)的卷積運(yùn)算主要在PANet特征加強(qiáng)網(wǎng)絡(luò),包含2個(gè)三次卷積塊和4個(gè)5次卷積塊,利用MobileNetv3的深度可分離卷積優(yōu)勢(shì),將卷積塊中的3×3卷積替換為1×1卷積,繼續(xù)降低模型的參數(shù)。
改進(jìn)后算法在飛機(jī)目標(biāo)識(shí)別跟蹤實(shí)驗(yàn)中呈現(xiàn)明顯的輕量化特點(diǎn)。當(dāng)輸入圖像大小為416×416×3時(shí),模型的參數(shù)量在引入MobileNetv3后降至152.5 M,在PANet中進(jìn)行卷積替換后,模型參數(shù)量降為48.4 M。可見(jiàn),經(jīng)過(guò)特征提取網(wǎng)絡(luò)的改進(jìn)和卷積塊的替換,模型的參數(shù)量大幅下降。
YOLOv4采用K-means聚類方法獲取先驗(yàn)框的信息,見(jiàn)表1。通過(guò)聚類算法實(shí)現(xiàn)先驗(yàn)框的選取,進(jìn)而在預(yù)測(cè)中得到先驗(yàn)框與目標(biāo)框的偏移量,與直接預(yù)測(cè)目標(biāo)框位置相比,降低了目標(biāo)識(shí)別的難度,提高了YOLOv4算法的識(shí)別精度。因此,聚類算法得到的先驗(yàn)框在一定程度上影響YOLOv4算法的檢測(cè)識(shí)別效果,先驗(yàn)框越貼合數(shù)據(jù)集,目標(biāo)識(shí)別的性能就越好。
表1 YOLOv4的先驗(yàn)框尺寸
K-means算法是一種廣泛應(yīng)用的不局限于數(shù)據(jù)假設(shè)的聚類方法,人為設(shè)定聚類中心的個(gè)數(shù),以數(shù)據(jù)之間的距離度量數(shù)據(jù)之間的相似性。通過(guò)隨機(jī)初始化獲得初始的聚類中心點(diǎn),根據(jù)數(shù)據(jù)點(diǎn)與初始中心點(diǎn)的距離來(lái)確定各數(shù)據(jù)點(diǎn)的類別,隨后將各類數(shù)據(jù)進(jìn)行中心點(diǎn)計(jì)算,最終中心點(diǎn)趨于一個(gè)值,這個(gè)值就是最后的聚類中心。初始的聚類中心在一定程度上會(huì)影響最終的聚類效果。
在本文構(gòu)建的飛機(jī)目標(biāo)數(shù)據(jù)集中,飛機(jī)目標(biāo)在圖片中相對(duì)較大,且姿態(tài)各異,而飛機(jī)垂尾標(biāo)志相對(duì)略小,且占據(jù)8類目標(biāo),每一類目標(biāo)的樣本個(gè)數(shù)并不均衡。為了更準(zhǔn)確預(yù)測(cè)目標(biāo)位置,對(duì)數(shù)據(jù)集引入先驗(yàn)分布假設(shè),提高聚類中心選取的合理性,采用基于馬爾科夫鏈蒙特卡羅采樣(Markov chain Monte Carlo sampling,MCMC)的K-means++算法對(duì)標(biāo)注邊界框尺寸信息進(jìn)行聚類分析。
K-means++算法的聚類思想是確保各類初始聚類中心之間的距離盡可能遠(yuǎn)。因此,本文通過(guò)馬爾科夫鏈蒙特卡洛采樣進(jìn)行數(shù)據(jù)的初始化,選取更加合理的候選節(jié)點(diǎn),得到更加準(zhǔn)確的聚類中心。具體流程如下:
假設(shè),邊界框尺寸數(shù)據(jù)集X中共有n個(gè)數(shù)據(jù)點(diǎn),馬爾科夫鏈長(zhǎng)為m,聚類中心為K個(gè)。
(1)隨機(jī)初始化一個(gè)聚類中心點(diǎn),計(jì)算與n-1個(gè)數(shù)據(jù)點(diǎn)的距離dx,如式(4)所示
dx=1-IOU(box,centroid)
(4)
其中,IOU(box,centroid) 表示標(biāo)注的邊界框與先驗(yàn)框的交并比。
(2)MCMC采樣,引入q(x)分布,構(gòu)造一個(gè)長(zhǎng)度為m的馬爾科夫鏈,以p(x)分布進(jìn)行采樣,取最后K-1個(gè)點(diǎn)作為聚類中心。其中q(x)和p(x)分別如式(5)、式(6)所示
(5)
(6)
(3)根據(jù)K個(gè)聚類中心,利用K-means算法對(duì)數(shù)據(jù)集進(jìn)行聚類分析,獲得K個(gè)先驗(yàn)框信息。
使用改進(jìn)后的聚類算法對(duì)飛機(jī)目標(biāo)數(shù)據(jù)集進(jìn)行聚類,設(shè)置聚類中心數(shù)為9,最大迭代次數(shù)為1000,效果如圖5所示,數(shù)據(jù)點(diǎn)的坐標(biāo)為邊界框歸一化后的寬高值,三角形代表聚類中心,可獲得9種不同尺度的先驗(yàn)框,見(jiàn)表2。
圖5 聚類算法效果
表2 改進(jìn)后先驗(yàn)框尺寸
由于數(shù)據(jù)集中的數(shù)據(jù)點(diǎn)不是均勻分布,存在某一類數(shù)據(jù)點(diǎn)較少的現(xiàn)象,使用原K-means聚類算法可能會(huì)導(dǎo)致多個(gè)聚類中心聚在一起,影響聚類中心選取的合理性。聚類算法改進(jìn)后,避免了初始節(jié)點(diǎn)扎堆,同時(shí)也克服了小樣本數(shù)據(jù)在聚類時(shí)無(wú)法成為候選節(jié)點(diǎn)的問(wèn)題,可以全面分析飛機(jī)目標(biāo)的信息,得到更加貼合數(shù)據(jù)集的聚類中心,提高后續(xù)目標(biāo)識(shí)別的準(zhǔn)確性。
本文采用自建數(shù)據(jù)集(圖6),其中含有5000張公開(kāi)的飛機(jī)目標(biāo)圖像,由視頻圖像按幀獲取,目前涉及8家航空公司。圖像用labelImg工具標(biāo)注,其中70%用于訓(xùn)練集,30%用于驗(yàn)證測(cè)試集??紤]到光照等因素影響,在圖像獲取后,利用算法進(jìn)行了數(shù)據(jù)增廣。
圖6 飛機(jī)目標(biāo)數(shù)據(jù)集
本文的實(shí)驗(yàn)環(huán)境采用Ubuntu16.04系統(tǒng),GPU為NVIDIA GeForce RTX 1660,深度學(xué)習(xí)框架選擇Pytorch1.3.0。采用馬賽克數(shù)據(jù)增強(qiáng)方式增強(qiáng)數(shù)據(jù)集,余弦退火調(diào)整學(xué)習(xí)率,標(biāo)簽平滑設(shè)為0.01,防止過(guò)擬合。總訓(xùn)練輪數(shù)為400,前200輪凍結(jié)訓(xùn)練,設(shè)置初始學(xué)習(xí)率0.001,批尺寸(batch size)設(shè)置為16。后200輪解凍訓(xùn)練,設(shè)置學(xué)習(xí)率為0.0001,批尺寸(batch size)設(shè)置為8。
經(jīng)過(guò)訓(xùn)練后,模型的損失曲線如圖7所示,從圖7中可以看出,經(jīng)過(guò)400輪訓(xùn)練后,損失值逐漸趨于穩(wěn)定,模型收斂。
圖7 網(wǎng)絡(luò)訓(xùn)練損失函數(shù)曲線
本文的識(shí)別目標(biāo)類別劃分為9類,飛機(jī)目標(biāo)為第1類,垂尾所屬公司分別為2~9類,進(jìn)行模型訓(xùn)練。為了檢測(cè)改進(jìn)算法的效果與效率,選擇檢測(cè)精度和檢測(cè)速度兩方面指標(biāo)來(lái)衡量模型的性能。檢測(cè)精度用準(zhǔn)確率(precision,P)和召回率(recall,R)衡量,檢測(cè)速度用每秒幀數(shù)(frames per second,F(xiàn)PS)來(lái)衡量,F(xiàn)PS越大,實(shí)時(shí)性越好。
準(zhǔn)確率P是指在所有預(yù)測(cè)為正確的目標(biāo)中,真正正確目標(biāo)所占的比例;召回率R是指在所有真正目標(biāo)中,被正確檢測(cè)出來(lái)的目標(biāo)所占的比例。如式(7)、式(8)所示
(7)
(8)
其中,TP表示被正確檢出的目標(biāo)數(shù),F(xiàn)P表示被錯(cuò)誤檢出的目標(biāo)數(shù),F(xiàn)N表示沒(méi)有被正確檢出的目標(biāo)數(shù)。
根據(jù)訓(xùn)練所得的P-R值可以確定P-R曲線,該曲線以召回率為橫坐標(biāo),準(zhǔn)確率為縱坐標(biāo)繪制,
曲線與坐標(biāo)軸所圍的面積為平均精度(average precision,AP),如式(9)所示
(9)
計(jì)算出每一類目標(biāo)的AP后,可以得到均值平均精度(mean average precision,mAP),mAP值越高,模型的識(shí)別效果越好。
本文的9類目標(biāo)經(jīng)過(guò)模型訓(xùn)練,可以得到全部9類目標(biāo)的準(zhǔn)確率和召回率曲線,訓(xùn)練結(jié)果如圖8所示,設(shè)置IOU即預(yù)測(cè)框與真實(shí)框的交并比閾值為0.5,可以計(jì)算出各類目標(biāo)的精度。
圖8 網(wǎng)絡(luò)訓(xùn)練結(jié)果P-R曲線
經(jīng)過(guò)模型訓(xùn)練,獲得模型對(duì)這9類目標(biāo)的檢測(cè)精度,見(jiàn)表3。經(jīng)過(guò)計(jì)算,模型的mAP達(dá)到94.29%,其中1~8類的識(shí)別精度都在90%以上,第9類的識(shí)別精度在86.74%。按照不同背景顏色進(jìn)行數(shù)據(jù)集的重新劃分,該類目標(biāo)的識(shí)別精度達(dá)98.79%。可見(jiàn),部分類別識(shí)別精度較低的原因,在于飛機(jī)垂尾目標(biāo)圖案顏色差異。如果尾標(biāo)圖案略小,且在標(biāo)志的底色上采用不同的顏色背景,那么在模型訓(xùn)練時(shí),由于數(shù)據(jù)集劃分的隨機(jī)性會(huì)造成圖案的隨機(jī)分布,導(dǎo)致在識(shí)別中產(chǎn)生負(fù)樣本誤判,從而降低識(shí)別精度。
表3 9類目標(biāo)的識(shí)別精度
通過(guò)消融實(shí)驗(yàn)進(jìn)一步驗(yàn)證改進(jìn)策略對(duì)網(wǎng)絡(luò)模型的影響。將YOLOv4算法、引入MobileNetv3的YOLOv4算法(用YOLOv4-M表示),以及本文改進(jìn)聚類算法后的YOLOv4-MobileNetv3算法進(jìn)行相同條件下的實(shí)驗(yàn)。
實(shí)驗(yàn)結(jié)果見(jiàn)表4,YOLOv4-MobileNetv3與YOLOv4-M算法在識(shí)別速度方面明顯優(yōu)于YOLOv4,提高了35FPS,可見(jiàn)MobileNetv3的引入,提高了模型的檢測(cè)速度;在識(shí)別精度方面,YOLOv4-M引入MobileNetv3后,略有下降,而YOLOv4-MobileNetv3與YOLOv4-M相比,模型精度提高了2.23%,同時(shí)檢測(cè)速度沒(méi)有損失,可見(jiàn),本文聚類算法實(shí)現(xiàn)了模型精度的提升,雖然本文算法相比原YOLOv4識(shí)別精度下降2.48%,但仍可以達(dá)到94.29%,能夠滿足目標(biāo)識(shí)別需求。
表4 消融實(shí)驗(yàn)結(jié)果
改進(jìn)后的YOLOv4模型在檢測(cè)速度方面的改進(jìn)效果,由不同算法對(duì)比實(shí)驗(yàn)加以驗(yàn)證。目前國(guó)內(nèi)外針對(duì)可見(jiàn)光飛機(jī)圖像識(shí)別主要采用基于深度學(xué)習(xí)的方法,如SSD、YOLO等,因此通過(guò)使用本文構(gòu)建的飛機(jī)數(shù)據(jù)集,選擇在相同的實(shí)驗(yàn)環(huán)境下,對(duì)改進(jìn)后的YOLOv4模型與YOLOv4、YOLOv3、SSD這4種模型進(jìn)行訓(xùn)練測(cè)試,實(shí)驗(yàn)結(jié)果見(jiàn)表5。
表5 不同算法性能比較
可以看出,本文采用的YOLOv4-MobileNetv3的算法模型大小為56.4 M,是YOLOv4的五分之一,并且與SSD和YOLOv3相比,該模型也是最小的。單幀圖像檢測(cè)時(shí)間提高到67 f/s,與YOLOv4的32 f/s相比,檢測(cè)速度提高了一倍左右。在檢測(cè)精度方面,本文算法與YOLOv4相比下降了2.48%,比SSD精度高0.7%,總體的識(shí)別精度仍然保持在90%以上。識(shí)別精度下降是由于模型參數(shù)減少、模型輕量化后所導(dǎo)致,但由于采用了本文改進(jìn)后的K-means++聚類算法,實(shí)現(xiàn)了在保證精度的前提下對(duì)模型的輕量化和檢測(cè)速度的提升,能夠滿足實(shí)際場(chǎng)景的識(shí)別要求。
為了進(jìn)一步驗(yàn)證模型對(duì)視頻圖像的檢測(cè)效果,將一段飛機(jī)降落的視頻輸入到模型中進(jìn)行實(shí)驗(yàn),比較不同類別飛機(jī)目標(biāo)在本文算法和YOLOv4中的效果。視頻總時(shí)長(zhǎng)為22 s,幀速率為25 幀/秒,每一幀的分辨率為1280×720。圖9(a)、圖9(b)為改進(jìn)后的YOLOv4算法的實(shí)驗(yàn)效果,圖9(c)、圖9(d)為YOLOv4算法的實(shí)驗(yàn)效果,其中圖9(a)、圖9(c)是針對(duì)3U進(jìn)行跟蹤的某一幀效果,圖9(b)、圖9(d)是針對(duì)CZ進(jìn)行跟蹤的某一幀效果??梢?jiàn),在相同條件下,原始的YOLOv4算法FPS只能達(dá)到10 f/s左右,而改進(jìn)后的YOLOv4算法可以達(dá)到29 f/s左右,與單幀圖像識(shí)別效果一致,本文算法在視頻圖像檢測(cè)速度方面仍有優(yōu)勢(shì),檢測(cè)精度能維持在90%以上,效果提升明顯。
圖9 改進(jìn)后 YOLOv4與原YOLOv4檢測(cè)效果對(duì)比
本文算法以YOLOv4算法結(jié)構(gòu)為基礎(chǔ),融合了MobileNetv3算法的輕量型特點(diǎn),改進(jìn)YOLOv4的結(jié)構(gòu),構(gòu)建了起降階段飛機(jī)目標(biāo)識(shí)別跟蹤的模型。從單幀圖像到視頻圖像,利用模型進(jìn)行了識(shí)別效果實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,單幀圖像的識(shí)別速度達(dá)到67 f/s,視頻圖像的識(shí)別速度達(dá)到29 f/s;檢測(cè)精度總體維持在90%以上;模型的大小相比YOLOv4及其它傳統(tǒng)算法大幅降低,實(shí)現(xiàn)了模型輕量化,提高了飛機(jī)目標(biāo)識(shí)別效率。目前識(shí)別的飛機(jī)種類為民航客機(jī),接下來(lái)可以嘗試對(duì)其它種類機(jī)型進(jìn)行識(shí)別,進(jìn)一步提高模型的實(shí)用性。