• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      空基下視多角度紅外目標(biāo)識別*

      2022-07-21 07:28:14劉彤楊德振宋嘉樂傅瑞罡何佳凱
      電子技術(shù)應(yīng)用 2022年7期
      關(guān)鍵詞:紅外損失卷積

      劉彤 ,楊德振,宋嘉樂,傅瑞罡 ,何佳凱

      (1.華北光電技術(shù)研究所 機(jī)載探測中心,北京 100015;2.中國電子科技集團(tuán)公司電子科學(xué)研究院,北京 100015;3.國防科技大學(xué) 電子科學(xué)學(xué)院ATR 重點(diǎn)實(shí)驗(yàn)室,湖南 長沙 410073;4.北京真空電子技術(shù)研究所 微波電真空器件國家重點(diǎn)實(shí)驗(yàn)室,北京 100015)

      0 引言

      采用多個(gè)復(fù)合翼無人機(jī)集群的空基紅外目標(biāo)探測識別系統(tǒng)進(jìn)行協(xié)同態(tài)勢感知是地面遠(yuǎn)程紅外制導(dǎo)的有效輔助手段。其中艦船和車輛目標(biāo)的智能識別算法作為當(dāng)代陸海防務(wù)系統(tǒng)中關(guān)鍵技術(shù),對于保障我國的國防安全具有重要的應(yīng)用價(jià)值。紅外圖像具有對比度高、作用距離遠(yuǎn)、穿透力強(qiáng)等特點(diǎn),熱成像不需要借助外界光源,隱蔽性好,可以全天時(shí)工作。目前多數(shù)車載系統(tǒng)的視角為平視,平視視場受限,而使用機(jī)載系統(tǒng)可以獲得更大的下視視場角,在實(shí)戰(zhàn)中能有效探測和攔截低空突防的威脅目標(biāo)。

      傳統(tǒng)目標(biāo)識別算法難以對下視視場角的圖像進(jìn)行特征提取,作為端到端學(xué)習(xí)的深度學(xué)習(xí),能夠自動(dòng)提取圖像特征,具有較好的目標(biāo)識別能力。北京理工大學(xué)的王旭辰等[1]提出基于深度學(xué)習(xí)的無人機(jī)載多平臺(tái)目標(biāo)檢測算法,使用Darknet-53 網(wǎng)絡(luò)作為檢測器,在公開數(shù)據(jù)集UAV123 和實(shí)測數(shù)據(jù)集中進(jìn)行檢測,驗(yàn)證得到該算法在視角旋轉(zhuǎn)、目標(biāo)尺度變化以及障礙物遮擋下能進(jìn)行穩(wěn)定檢測。但文中僅使用了YOLOv3 目標(biāo)檢測算法,并未對其進(jìn)行改進(jìn),檢測精度沒有得到提高。電子科技大學(xué)的劉瑞[2]針對空中目標(biāo)存在目標(biāo)尺度及疏密程度變化大、存在重疊、遮擋等問題,提出四級復(fù)雜度的航空圖像目標(biāo)檢測算法,采用復(fù)合擴(kuò)張主干網(wǎng)深度和寬度的方法構(gòu)建出四級復(fù)雜度的主干網(wǎng)絡(luò),再將主干網(wǎng)分別與FPN+PAN 網(wǎng)絡(luò)、輸出頭網(wǎng)絡(luò)相結(jié)合,得到空中目標(biāo)檢測算法。在VisDrone-DET2020 訓(xùn)練集下對提出的網(wǎng)絡(luò)進(jìn)行訓(xùn)練,將算法的mAP@[.5:.95]累計(jì)提升了0.65%,mAP@0.75 累計(jì)提升了1.41%。但僅在公開數(shù)據(jù)集上進(jìn)行訓(xùn)練與檢測,該公開數(shù)據(jù)集僅為可見光數(shù)據(jù)集,不具備紅外數(shù)據(jù)集所具備的優(yōu)點(diǎn)。嚴(yán)開忠等[3]針對小型無人機(jī)載平臺(tái)算力受限、檢測速度慢的問題,提出了一種改進(jìn)YOLOv3 的目標(biāo)檢測算法,引入深度可分離卷積對主干網(wǎng)絡(luò)進(jìn)行改進(jìn),降低網(wǎng)絡(luò)的參數(shù)和計(jì)算量,從而提高檢測速度。此外使用K-means 生成先驗(yàn)框的初始聚類中心,在邊界框回歸中使用CIoU 損失,同時(shí)將DIoU 與NMS相結(jié)合,提高算法的檢測精度。在自定義數(shù)據(jù)集中的mAP 為82%,檢測速度從3.4 f/s 提高到16 f/s。但算法的檢測精度和速度仍有待提高。上海交通大學(xué)的朱壬泰等[4]針對目前深度學(xué)習(xí)中多目標(biāo)檢測算法占用資源量大,無法在中小型無人機(jī)平臺(tái)上實(shí)時(shí)運(yùn)行的問題,提出了基于卷積神經(jīng)網(wǎng)絡(luò)計(jì)算優(yōu)化的算法。采用深度可分離卷積對計(jì)算量進(jìn)行優(yōu)化,將主干網(wǎng)Resnet18 中的卷積層替換為深度可分離卷積,對改進(jìn)的算法在公開數(shù)據(jù)集PASCAL VOC 2007 進(jìn)行驗(yàn)證,得到在檢測精度不變的條件下,檢測速度達(dá)到56 f/s。但該算法在航拍數(shù)據(jù)集上的檢測精度由于與公開數(shù)據(jù)集分布的差異有所下降,對航拍目標(biāo)的適應(yīng)性不強(qiáng)。周子衿[5]針對深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,機(jī)載平臺(tái)計(jì)算資源有限,以及航拍視角中小目標(biāo)數(shù)量大,難以對圖像特征進(jìn)行提取,容易出現(xiàn)漏檢和錯(cuò)檢現(xiàn)象,對YOLOv3 網(wǎng)絡(luò)進(jìn)行輕量化處理,在網(wǎng)絡(luò)稀疏化訓(xùn)練后進(jìn)行BN 層的通道剪枝,此外使用K-maens++算法對先驗(yàn)框進(jìn)行重定義,將改進(jìn)后的算法在自定義的DOTA-like 數(shù)據(jù)集上進(jìn)行測試,算法權(quán)重模型大小下將98.7%,使得推理時(shí)間加快了60.5%,檢測速度提高了32.9%,檢測精度提高1.14%。但無人機(jī)的飛行高度較低,局限于超低空域附近,所看到的視場角受限。

      上述文章中均不存在多角度的空基下視紅外目標(biāo),且該類目標(biāo)所在環(huán)境復(fù)雜多樣,為保證較高的精度和實(shí)時(shí)性,提出了一種基于單階段的多角度空基下視紅外目標(biāo)識別算法。主要研究內(nèi)容包括單階段目標(biāo)檢測算法、針對空基下視多角度紅外目標(biāo)所提出的改進(jìn)、多角度下視紅外數(shù)據(jù)集的構(gòu)建以及所提改進(jìn)算法與單階段算法的對比實(shí)驗(yàn)。

      1 單階段算法

      根據(jù)深度學(xué)習(xí)算法是否需要經(jīng)過候選框的步驟,將目標(biāo)檢測算法分為單階段和雙階段兩類。雙階段檢測算法雖然檢測精度較高,但運(yùn)行速度慢,無法滿足多角度空基下視紅外目標(biāo)實(shí)時(shí)識別的需求[6]。常用的單階段算法有SSD[7]、RetinaNet、YOLO 等,SSD 算法檢測精度較低,RetinaNet 算法檢測精度得到了提升,但檢測速度無法達(dá)到實(shí)時(shí)性需求。YOLO 算法在擁有較高檢測精度的同時(shí)兼顧檢測速度。YOLOv3 借助殘差網(wǎng)絡(luò)思想[8],將YOLOv2特征提取網(wǎng)絡(luò)的Darknet-19 改為Darknet-53[9]。主要由1×1 的卷積層和3×3 的卷積層組成該特征提取網(wǎng)絡(luò)。為防止過擬合,在每個(gè)卷積層之后加入一個(gè)批量歸一化層和一個(gè)Leaky ReLU。Darknet-53 中的基本單元DBL 包含卷積層、批量歸一化層和Leaky ReLU 三個(gè)組成部分。Darknet-53中共有53個(gè)DBL基本單元。res unit為殘差單元,輸入通過兩個(gè)DBL,再與原輸入相加。該單元能夠讓網(wǎng)絡(luò)提取到更深層次的特征,并且能避免出現(xiàn)梯度的消失或梯度爆炸。

      為實(shí)現(xiàn)多尺度特征融合的目的,把Darknet-53 的中間層和后面某一層的上采樣進(jìn)行拼接,對張量的維度進(jìn)行擴(kuò)充。從而得到三種不同尺度的輸出Y1、Y2、Y3。Darknet-53 相比于Darknet-19,不再采用最大池化層,而是使用步長為2 的卷積層進(jìn)行下采樣。將BN 層和一個(gè)Leaky ReLU 加在每個(gè)卷積層后,以防止過擬合現(xiàn)象的發(fā)生。同時(shí),為提取到更深層次的特征,引入殘差網(wǎng)絡(luò)的思想,可以同時(shí)避免梯度消失或梯度爆炸。為了能夠進(jìn)行多尺度特征融合,將網(wǎng)絡(luò)中間層和后面某一層的采樣結(jié)果進(jìn)行張量拼接。

      在多尺度預(yù)測方面,YOLOv3 選擇三種不同形狀的Anchors,每種Anchors 擁有三種不同的尺度,得到共計(jì)9種不同大小的Anchors,達(dá)到預(yù)測多尺度目標(biāo)的目的。

      在損失函數(shù)方面,YOLOv3 相比于YOLOv1 的損失函數(shù),其位置損失部分仍使用sum-square error 的損失計(jì)算方法。但對于置信度損失和類別預(yù)測將原來的sumsquare error 計(jì)算方法改為交叉熵?fù)p失計(jì)算方法。

      2 YOLOv3-SF

      2.1 網(wǎng)絡(luò)結(jié)構(gòu)的改進(jìn)

      由于復(fù)合翼無人機(jī)在不同時(shí)刻采集紅外圖像時(shí)所處的高度不同,導(dǎo)致獲得的圖像尺寸有所差異。圖像空間金字塔池化(Spatial Pyramid Pooling,SPP)[10]結(jié)構(gòu)能夠解決因圖像區(qū)域裁剪、縮放一系列操作導(dǎo)致的圖像失真問題,并能解決卷積神經(jīng)網(wǎng)絡(luò)對圖像特征的重復(fù)提取,極大地提升了產(chǎn)生候選框的速度,同時(shí)節(jié)約計(jì)算成本。SPP 模塊結(jié)構(gòu)如圖1 所示。

      圖1 SPP 模塊結(jié)構(gòu)圖

      SPP 模型由kernel size 為5×5、9×9、13×13 的最大池化和一個(gè)跳躍連接四個(gè)并行分支組成。借鑒空間金字塔池化思想,對YOLOv3 網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn)。在原YOLOv3網(wǎng)絡(luò)的第5、6 層卷積之間加入一個(gè)SPP 模塊,不同的池化操作組成該模塊。改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示。

      圖2 改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)圖

      通過檢測頭前的第5 卷積層和第6 卷積層之間集成的SPP 模塊獲取網(wǎng)絡(luò)中的SPP,經(jīng)過SPP 模塊池化后的特征圖重新按通道進(jìn)行拼接傳入到下一層偵測網(wǎng)絡(luò)中。該模塊借鑒了空間金字塔思想,利用SPP 模塊實(shí)現(xiàn)局部特征和全局特征,特征圖經(jīng)局部特征和全局特征融合后,能夠豐富特征圖的表達(dá)能力,有利于提升待檢測圖像中目標(biāo)大小差異較大情況下的檢測精度。使用SPP 模塊優(yōu)化主干網(wǎng)絡(luò)Darknet-53 的算法用YOLOv3-S 表示。

      2.2 損失函數(shù)的改進(jìn)

      在所得的空基下視多角度紅外圖像中,目標(biāo)較背景的占比很小,存在正負(fù)樣本不平衡的現(xiàn)象。在訓(xùn)練密集目標(biāo)檢測器時(shí)出現(xiàn)嚴(yán)重的前景-背景類別不平衡,一步檢測算法精度無法超過兩步網(wǎng)絡(luò)。但RetinaNet 的提出使得一步網(wǎng)絡(luò)的檢測精度能夠首次超越兩步網(wǎng)絡(luò),因此借鑒RetinaNet 的思想對YOLOv3 進(jìn)行改進(jìn),使得改進(jìn)后的算法在擁有較快檢測速度的同時(shí)檢測精度也得到了相應(yīng)的提高。原有交叉熵?fù)p失無法抵抗類別極不平衡,易導(dǎo)致分類器訓(xùn)練失敗,因此使用Focal loss[11]代替YOLOv3 中使用的交叉熵誤差。在正負(fù)樣本匹配方面,針對每一個(gè)Anchor 于事先標(biāo)注好的GT 進(jìn)行匹配,計(jì)算其IOU。若某一個(gè)Anchor 與其GT box 的IOU≥0.5,則將Anchor 標(biāo)記為正樣本;若某一個(gè)Anchor 與所有的GT box的IOU 值都<0.4,則將其標(biāo)記負(fù)樣本;若IOU∈[0.4,0.5),則將其舍棄。對于二分類而言普通的交叉熵?fù)p失(CE)計(jì)算公式如式(1)所示。

      將CE 進(jìn)一步簡化得到式(3)。

      引入針對于正樣本而言的超參數(shù)α∈[0,1]和針對于負(fù)樣本而言的參數(shù)1-α,以此平衡正負(fù)樣本的權(quán)重,CE 的表達(dá)式可改寫為式(4)。

      α 雖可以平衡正負(fù)樣本的權(quán)重,但不能區(qū)分困難的樣本和容易的樣本。因此提出能夠降低簡單樣本的權(quán)重,從而聚焦于一些難分的負(fù)樣本。引入新元素(1-pt)γ,定義Focal loss 如式(5)所示:

      (1-pt)γ能夠降低易分樣本的損失貢獻(xiàn)。加入(1-pt)γ平衡的超參數(shù)αt得到Focal loss 的最終形式如式(6)所示:

      Focal loss 與交叉熵對于難分樣本和易分樣本對比如表1 所示。

      表1 Focal loss 與交叉熵在難分/易分樣本對比

      其中p 為預(yù)測目標(biāo)概率;laebl 為對應(yīng)的真實(shí)標(biāo)簽,1表示正樣本,0 表示負(fù)樣本;CE 為針對二分類的交叉熵?fù)p失;FL 為Focal loss;rate 為采用CE 計(jì)算得到的損失和采用Focal loss 計(jì)算所得到損失的比值。由表1 可知第1,2 行正樣本預(yù)測概率為0.9 和0.968 屬于易分樣本,p=0.9 時(shí),其Focal loss 約為原來的CE 損失的1/400,p=0.968 時(shí),其Focal loss 約為原來的CE 損失的1/3906;第3,4 行負(fù)樣本預(yù)測概率為0.1 和0.032 也屬于易分樣本,p=0.1 時(shí),其Focal loss 約為原來的CE 損失的1/133,p=0.032 時(shí),其Focal loss 約為原來的CE 損失1/1302;第5 行對應(yīng)為正樣本,網(wǎng)絡(luò)預(yù)測概率為0.1,該樣本比較難學(xué)習(xí),其Focal loss 約為原來的CE 損失的1/4.9,第6 行為負(fù)樣本,網(wǎng)絡(luò)預(yù)測概率為0.9,同樣為難分樣本,其Focal loss 約為原來的CE 損失的1/1.4。使用Focal loss后更加專注于訓(xùn)練難分的樣本,而對于易分樣本起到降低損失權(quán)重的作用。

      總損失函數(shù)分為分類損失和回歸損失兩部分,見式(8):

      分類損失針對所有的正負(fù)樣本計(jì)算,回歸損失針對所有的正樣本計(jì)算。其中Lcls為Sigmoid Focal Loss,Lreg為L1損失,NPOS為正樣本個(gè)數(shù),i 為所有的正負(fù)樣本,j 為所有的正樣本。使用Focal loss 優(yōu)化損失函數(shù)的YOLOv3 算法用YOLOv3-F 表示。同時(shí)使用SPP 模塊和Focal loss函數(shù)的算法用YOLOv3-SF 表示。

      3 實(shí)現(xiàn)與結(jié)果分析

      3.1 實(shí)驗(yàn)平臺(tái)環(huán)境

      系統(tǒng)由復(fù)合翼無人機(jī)作為光電探測設(shè)備的空中移動(dòng)平臺(tái),通過圖傳設(shè)備進(jìn)行無線數(shù)據(jù)傳輸,地面配備圖像處理計(jì)算機(jī)[12]。訓(xùn)練網(wǎng)絡(luò)模型使用硬件平臺(tái)為R7-4800H銳龍?zhí)幚砥?,GPU 采用NVIDIA GeForce RTX 2060,采用PyTorch 深度學(xué)習(xí)框架搭建該網(wǎng)絡(luò)。

      3.2 紅外圖像采集及數(shù)據(jù)集構(gòu)建

      使用某型復(fù)合翼無人機(jī)搭載的多波段光電吊艙,采集大量海上艦船和陸地車輛紅外目標(biāo),圖像分辨率為640×512,多尺度無人機(jī)圖像采集系統(tǒng)現(xiàn)場如圖3 所示。

      圖3 多尺度無人機(jī)圖像采集系統(tǒng)現(xiàn)場圖

      復(fù)合翼無人機(jī)分別從低(200 m)、中(300 m)、高(500 m)不同高度對復(fù)雜背景中的車輛(其中車類包含小汽車、卡車、公交車、貨車)、海上的游艇、貨船等多種不同類型的目標(biāo)俯拍,其中包含了大、中、小三種不同尺度的紅外圖像。按8:1:1 的比例對數(shù)據(jù)集進(jìn)行劃分,為測試模型的魯棒性,選取了一些復(fù)雜背景下不同運(yùn)動(dòng)速度的目標(biāo)。

      高度為200 m 的紅外大圖像數(shù)據(jù)集中,車類、游艇和貨船的下視角為12°、16°、20°,訓(xùn)練集、驗(yàn)證集和測試集張數(shù)如表2 所示。

      表2 高度為200 m 紅外圖像數(shù)據(jù)集

      高度為300 m 的紅外中型圖像數(shù)據(jù)集中,車類、游艇和貨船的下視角為24°、28°、32°,訓(xùn)練集、驗(yàn)證集和測試集張數(shù)如表3 所示。

      表3 高度為300 m 紅外圖像數(shù)據(jù)集

      高度為500 m 的紅外小圖像數(shù)據(jù)集中,車類、游艇和貨船的下視角為35°、36°、40°,訓(xùn)練集、驗(yàn)證集和測試集張數(shù)如表4 所示。

      表4 高度為500 m 紅外圖像數(shù)據(jù)集

      綜上自定義紅外數(shù)據(jù)集包括29 853 幅紅外艦船圖像和30 000 幅車輛紅外圖像。數(shù)據(jù)集的部分樣本圖像如圖4 所示。對所采集圖像中的車輛和艦船目標(biāo)使用labellmg 標(biāo)注軟件進(jìn)行標(biāo)注,將標(biāo)注好的帶有車輛和艦船目標(biāo)的紅外圖像送入YOLOv3-SF 網(wǎng)絡(luò)中進(jìn)行聯(lián)合訓(xùn)練。

      圖4 不同高度拍攝的紅外圖像

      3.3 評價(jià)指標(biāo)

      在評價(jià)指標(biāo)方面選取準(zhǔn)確率(Precision)、召回率(Recall)、AP、mAP、FPS 作為該目標(biāo)檢測算法的評價(jià)指標(biāo)[13]。TP、FN、TN、FP 的含義如表5 所示。

      表5 正、負(fù)例含義表

      (1)準(zhǔn)確率(Precision)/查準(zhǔn)率

      識別對了的正例占識別出正例的比例,其中識別出的正例等于識別對的正例加上識別錯(cuò)的正例,公式如下:

      (2)召回率(Recall)/查全率

      識別對了的正例占實(shí)際總正例的比例,其中實(shí)際總正例等于識別對的正例加上識別錯(cuò)的負(fù)例,公式如下:

      (3)AP(Average Precision)

      PR 曲線下的面積,表示召回率0~1 的平均精度。其中PR 曲線下面積越大,表示模型的性能越好。使用插值法計(jì)算PR 曲線下的面積得到AP,公式如下:

      (4)mAP(mean Average Precision)

      所有類別AP 的平均值,能衡量模型在所有類別上平均精度的好壞。該指標(biāo)綜合考慮了準(zhǔn)確率P 和召回率R,能夠解決P 和R 的單點(diǎn)值局限性,試算公式如下:

      3.4 實(shí)驗(yàn)結(jié)果及分析

      設(shè)置初始學(xué)習(xí)率learning_rate=0.001,迭代次數(shù)steps=100,訓(xùn)練過程中batch 設(shè)置為64,輸入該網(wǎng)絡(luò)的圖像尺寸為416×416。在YOLOv3-SF 的訓(xùn)練過程中訓(xùn)練損失(train loss)、驗(yàn)證損失(val loss)的變化曲線如圖5 所示,mAP 在不同模型下的變化曲線如圖6 所示。

      圖5 損失函數(shù)變化曲線

      如圖5 所示損失函數(shù)總體呈下降趨勢,前25 次迭代中訓(xùn)練損失快速下降,最后趨于穩(wěn)定。對于模型的識別精度,以mAP 作為評價(jià)指標(biāo),如圖6 所示YOLOv3-SF算法的mAP 最高,且變化曲線更為穩(wěn)定。

      圖6 mAP 值在不同模型下的變化曲線

      在自定義的紅外圖像測試集上分別選取低、中、高三種不同高度及下視角的艦船目標(biāo)和車輛目標(biāo)對SSD算法、YOLOv3 算法、RetinaNet 算法與YOLOv3-S、YOLOv3-F、YOLOv3-SF 算法進(jìn)行測試,幾種算法對比結(jié)果如圖7~圖10 所示。

      由圖7~圖10 結(jié)果可以看到SSD 和YOLOv3[9]無法識別下視遠(yuǎn)距離小目標(biāo)和被遮擋目標(biāo),且SSD 對于復(fù)雜背景下的紅外目標(biāo)識別漏檢率最高;RetinaNet[14]對下視遠(yuǎn)距離小目標(biāo)的識別有了一定的提升,但對遮擋目標(biāo)的識別較差且存在一定的誤檢率;YOLOv3-SF 結(jié)合了YOLOv3-S 和YOLOv3-F 的優(yōu)勢,識別效果得到較大提升,對遮擋目標(biāo)和小尺寸目標(biāo)的識別效果最好。

      圖7 SSD 識別結(jié)果

      表6、表7 分別給出了紅外艦船目標(biāo)和車輛目標(biāo)在6 種不同算法的輸入圖像尺寸和各類評價(jià)指標(biāo)的檢測結(jié)果。

      在表6、表7 中的AP 為mAP 值;APIoU=0.5為IoU=0.5時(shí)的mAP 值,是voc 的評判標(biāo)準(zhǔn);APIoU=0.75為較為嚴(yán)格的mAP 值,能夠反映算法框的位置精準(zhǔn)程度;FPS 為每秒幀率,即每秒內(nèi)可以處理得到圖片數(shù)量。

      表7 紅外車輛目標(biāo)在不同模型上的檢測結(jié)果

      由各類算法的識別結(jié)果和表6、7、8 可知,在測試3 組低、中、高紅外艦船圖像和紅外車輛圖像時(shí),YOLOv3-SF算法的識別精度最高,識別速度較RetinaNet 得到極大的提升,YOLOv3 算法識別精度較低,SSD 算法識別精度最低。說明YOLOv3-SF 算法相比于原有YOLOv3 算法在識別精度上得到較大提升,可以在提高識別精度的同時(shí)兼顧識別速度,從圖10 第三列可以看出在下視背景復(fù)雜度較高的場景應(yīng)用具有一定優(yōu)勢。

      表6 紅外艦船目標(biāo)在不同模型上的檢測結(jié)果

      圖8 YOLOv3 識別結(jié)果

      圖9 RetinaNet 識別結(jié)果

      圖10 YOLOv3-SF 識別結(jié)果

      此外將改進(jìn)算法應(yīng)用于公開紅外船舶數(shù)據(jù)集Maritime Imagery in the Visible and Infrared Spectrums 也得到較高的識別精度,同時(shí)保證識別速度,滿足實(shí)時(shí)性的要求,識別結(jié)果如圖11 所示。

      圖11 公開數(shù)據(jù)集識別結(jié)果

      在民用目標(biāo)中可以較為簡單地利用無人機(jī)對目標(biāo)進(jìn)行多角度采集,但對于軍用目標(biāo)可能存在使用條件受限,無法獲取多角度圖像的情況。雖然識別速度會(huì)有一定提升,但識別精度會(huì)隨無人機(jī)采集圖像角度數(shù)量的減少有所下降。表9 給出了目標(biāo)圖像采集角度數(shù)量對6 種不同算法mAP 的影響。

      表9 采集角度數(shù)量對不同算法mAP 的影響(%)

      表8 三種尺度目標(biāo)在不同模型上的mAP(%)

      4 結(jié)論

      復(fù)合翼無人機(jī)從低、中、高不同高度向下視角對海上艦船目標(biāo)和復(fù)雜背景中的車輛目標(biāo)俯拍得到紅外圖像。針對沒有開源多角度下視紅外圖像數(shù)據(jù)集的特點(diǎn),構(gòu)建了自定義多角度下視目標(biāo)數(shù)據(jù)集。同時(shí),在原有單步檢測主干網(wǎng)絡(luò)Darknet-53 的基礎(chǔ)上進(jìn)行改進(jìn),提出了一種單階段的多角度下視空基紅外目標(biāo)識別算法。借鑒空間金字塔池化思想,在原有主干網(wǎng)絡(luò)Darknet-53 中增加SPP 模塊。同時(shí)對損失函數(shù)進(jìn)行改進(jìn),將原有的交叉熵?fù)p失改為Focal loss 損失,改進(jìn)后的損失更加專注于訓(xùn)練難分的樣本,對于易分樣本起到降低損失權(quán)重的作用。利用構(gòu)建數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò),對紅外目標(biāo)進(jìn)行特征提取,確定目標(biāo)的檢測框并給出目標(biāo)類型及檢測精度。對SSD、YOLOv3、RetinaNet 與各改進(jìn)算法進(jìn)行對比測試。通過幾種評價(jià)指標(biāo)和識別結(jié)果的對比,提出的算法在提高識別精度的基礎(chǔ)上,同時(shí)保證了識別速度,并且在復(fù)雜背景的目標(biāo)識別方面具有一定的優(yōu)勢,適合于多種類型的紅外目標(biāo)圖像識別。改進(jìn)的算法可移植于機(jī)載目標(biāo)識別系統(tǒng)中,只需向地面融合處理系統(tǒng)傳輸識別后的目標(biāo)信息,在傳輸帶寬一定的條件下提高數(shù)據(jù)傳輸效率和增加無人機(jī)個(gè)數(shù),有效提高了系統(tǒng)穩(wěn)定性,為后續(xù)空基紅外目標(biāo)探測識別系統(tǒng)的多尺度多角度目標(biāo)識別提供理論和實(shí)驗(yàn)依據(jù)。

      猜你喜歡
      紅外損失卷積
      網(wǎng)紅外賣
      少問一句,損失千金
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      胖胖損失了多少元
      閃亮的中國紅外『芯』
      金橋(2021年4期)2021-05-21 08:19:20
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      TS系列紅外傳感器在嵌入式控制系統(tǒng)中的應(yīng)用
      電子制作(2019年7期)2019-04-25 13:17:14
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      基于快速遞推模糊2-劃分熵圖割的紅外圖像分割
      南华县| 达孜县| 石台县| 泸西县| 南漳县| 墨玉县| 同江市| 鹿泉市| 额尔古纳市| 和林格尔县| 鱼台县| 云林县| 报价| 长春市| 凤冈县| 鹤庆县| 龙里县| 勃利县| 运城市| 朔州市| 壤塘县| 尼木县| 山阳县| 方正县| 遂昌县| 沂南县| 墨脱县| 彰化市| 岳阳市| 武山县| 龙陵县| 梁河县| 宣城市| 手游| 东至县| 射阳县| 江津市| 辽宁省| 兰西县| 清涧县| 九寨沟县|