李海軍, 孔繁程,*, 林 云
(1. 海軍航空大學(xué)岸防兵學(xué)院, 山東 煙臺 264001; 2. 煙臺大學(xué)教務(wù)處, 山東 煙臺 264005)
隨著高新技術(shù)的不斷發(fā)展,當(dāng)前信息化戰(zhàn)爭形式不斷演變。提升智能化的全向態(tài)勢感知高精度目標(biāo)識別與精確制導(dǎo)等能力,是提高武器裝備作戰(zhàn)效能的重要途徑。反艦導(dǎo)彈是能否實現(xiàn)精確打擊是當(dāng)前精確制導(dǎo)武器的關(guān)鍵技術(shù)研究重點,紅外成像制導(dǎo)具備抗云霧干擾、隱蔽性強等特點,成為反艦導(dǎo)彈末端探測艦船的主要方式[1]。
艦船檢測的傳統(tǒng)方法一般依賴艦船的灰度、邊緣信息或是模板匹配等條件,這些方法區(qū)域選擇策略的效果以及泛化能力較差,檢測目標(biāo)的特征需要人工設(shè)定,魯棒性較差。隨著人工智能技術(shù)不斷發(fā)展,通過計算機視覺技術(shù)設(shè)計的檢測算法實現(xiàn)有效的目標(biāo)檢測,深度學(xué)習(xí)技術(shù)能夠避免傳統(tǒng)工業(yè)為實現(xiàn)目標(biāo)檢測的復(fù)雜設(shè)計,并且在檢測精度上得到改善,推動了人工智能技術(shù)在艦船目標(biāo)檢測等工程項目上的應(yīng)用。
當(dāng)前檢測算法大致分為3種類型。第一類是基于Transformer的目標(biāo)檢測算法,以基于注意力機制的目標(biāo)檢測(detection transformer, DETR)算法[2]為代表,算法將注意力機制引入到目標(biāo)檢測任務(wù)中,屬于anchor-free算法。Yao[3]等研究了關(guān)于對象查詢和參考點的隨機初始化,提出利用稠密檢測和稀疏集檢測的優(yōu)勢來提升在目標(biāo)擁擠的情況下DETR的魯棒性。第二類是兩階段檢測算法,首先生成可能存在目標(biāo)區(qū)域(區(qū)域選擇),然后加入分類器進(jìn)行回歸分類并修正,是anchor-based算法,代表算法有Mask區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Mask regional convolutional neural network, Mask R-CNN)[4], 快速R-CNN(faster R-CNN,Faster R-CNN)[5-6], 基于區(qū)域的全卷積神經(jīng)網(wǎng)絡(luò)(region-based fully convolutional neural network, R-FCN)[7-8]等。Wang[9]等利用最大穩(wěn)定性極值法替換原閾值決策準(zhǔn)則,提升了檢測率的同時降低了虛警率。第三類是單階段檢測算法,直接對目標(biāo)物體進(jìn)行回歸預(yù)測,代表的有YOLO、單步多框目標(biāo)檢測(single-shot multibox defector,SSD)[10]等,其中YOLO系列[11-14]不斷更新,其目標(biāo)檢測算法識別速度相對而言較快。單階段算法中,Fu[15]等使用注意力機制和圓平滑標(biāo)簽對YOLOv5檢測網(wǎng)絡(luò)進(jìn)行重構(gòu),得到新的旋轉(zhuǎn)檢測網(wǎng)絡(luò),近岸艦船檢測效果得到提升。Song等[16]用可變形卷積網(wǎng)絡(luò)自適應(yīng)提取幾何平移目標(biāo)的形狀不變深度特征,通過對標(biāo)準(zhǔn)卷積的網(wǎng)格學(xué)習(xí)采樣偏移量,可以魯棒地提取形狀變化的目標(biāo)特征,用于SAR艦船檢測。
上述算法雖經(jīng)改進(jìn)能在不同背景下完成目標(biāo)檢測的任務(wù),但針對本文研究背景會有如下問題:① 當(dāng)前anchor-free算法只可通過特征金字塔網(wǎng)絡(luò)(feature pyramid network, FPN)技術(shù)在一定程度上緩解語義模糊性的問題,仍無法完全消除單尺度圖像中兩艘艦船中心點落到同一特征圖的現(xiàn)象,并且反艦導(dǎo)彈打擊過程中一定要保證檢測過程的穩(wěn)定。由于anchor-free算法沒有先驗框的支持,所以不如anchor-based穩(wěn)定。② DETR目標(biāo)檢測算法雖比之前的anchor-free對大目標(biāo)檢測效果有所提升,但對小目標(biāo)檢測效果較差。反艦導(dǎo)彈接近目標(biāo)的過程中艦船圖像角度、尺度不斷變化,需要適應(yīng)在不同環(huán)境不同尺度條件下準(zhǔn)確識別艦船目標(biāo),難以滿足精度要求,并且彈載設(shè)備算力功耗難以滿足其訓(xùn)練階段的硬件條件需求。③ 兩階段算法雖精度高于單階段算法,但檢測速度較慢,不足以實現(xiàn)反艦導(dǎo)彈執(zhí)行突防任務(wù)實時打擊艦船的目標(biāo)。④ 當(dāng)前檢測算法對目標(biāo)背景復(fù)雜的紅外艦船目標(biāo)檢測時,算法的檢測能力較差,誤檢率高。
綜合上述存在的問題,本文針對反艦導(dǎo)彈末制導(dǎo)檢測目標(biāo)的過程,在單階段算法YOLOv5s基礎(chǔ)之上進(jìn)行改進(jìn),主要包含4部分:利用深度可分離卷積替換標(biāo)準(zhǔn)卷積減少模型參數(shù)冗余,降低參數(shù)量特征提取網(wǎng)絡(luò)引入注意力機制提升網(wǎng)絡(luò)對小目標(biāo)關(guān)注度和特征提取能力;改善遠(yuǎn)距離小尺度目標(biāo)檢測的魯棒性;引入自適應(yīng)空間特征融合,加強特征圖通道間的關(guān)聯(lián),提升對多尺度特征的目標(biāo)檢測精度;通過修改損失函數(shù)提高目標(biāo)檢測框的可靠度。
YOLOv5算法[17]是目前新的一階段目標(biāo)檢測算法,其在靈活性和速度上相比于上一代有了很大的提升,其結(jié)構(gòu)如圖1所示。YOLOv5算法是2020年推出的,針對不同情況其共包含4個版本:YOLOv5x、YOLOv5l、YOLOv5 m、YOLOv5s。這之中的YOLOv5s是4個結(jié)構(gòu)中參數(shù)以及計算量最少的版本。本文將選擇 YOLOv5s進(jìn)行訓(xùn)練,其具體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)一般分為4個部分:輸入端,主干網(wǎng)絡(luò),頸部,輸出端。
圖1 YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1 Network structure diagram of YOLOv5s
輸入端主要包括mosaic數(shù)據(jù)增強,簡單提升目標(biāo)的檢測能力。自適應(yīng)錨框。計算初始設(shè)定長寬的錨框,自適應(yīng)。圖片縮放提升推理速度。
主干網(wǎng)絡(luò)使用了切片結(jié)構(gòu)、跨階段部分連接(cross stage partial connections, CSP)模塊。切片結(jié)構(gòu)主要是對圖片進(jìn)行了切片操作,減少了參數(shù)量,提升每秒浮點計算(floating-point operations persecond, FLOPS)速度。CSP模塊將基礎(chǔ)層的特征向兩部分進(jìn)行映射。
頸部采用的是FPN和路徑聚合網(wǎng)絡(luò)(path aggregation network, PAN)進(jìn)行圖像特征的聚合,能夠加強底層特征的傳播。
輸出端使用GIOU_Loss當(dāng)作損失函數(shù),然后通過非極大值抑制后處理。
深度可分離卷積(depth-wise separable convolution, DSC)[18]在MobileNet、ShuffleNet等一些輕量級網(wǎng)絡(luò)中得到應(yīng)用,其能夠極大降低模型參數(shù)數(shù)量以及運算成本,并且在檢測精度基本不改變的情況下,提高檢測速率,實現(xiàn)模型的輕量化。深度可分離卷積原理如圖2所示,將標(biāo)準(zhǔn)卷積分成逐通道卷積和逐點卷積1×1兩步進(jìn)行。首先是輸入數(shù)據(jù)的各通道進(jìn)行深度卷積操作,然后使用點卷積線性連接深度卷積的輸出。
圖2 深度可分離卷積Fig.2 Depth wise convolution
將標(biāo)準(zhǔn)卷積和深度可分離卷積進(jìn)行對比,假設(shè)輸入圖像的大小為M×M×Q,卷積核大小為N×N×R,輸出通道數(shù)為S,無相同填充,步長為1,則使用標(biāo)準(zhǔn)卷積使用的參數(shù)量為
Pn=N×N×Q×R×S
對應(yīng)的深度可分離卷積在相同情況下使用的參數(shù)量為
Pd=N×N×Q+Q×R×S
注意力機制參考人的視覺與神經(jīng)處理信息的方式。人首先一般通過觀察整幅圖片的全景來確定局部需要重點關(guān)注的區(qū)域,來獲取目標(biāo)更多的細(xì)節(jié)信息。注意力機制能夠有效提升模型性能上,因此被廣泛地應(yīng)用在計算機視覺領(lǐng)域當(dāng)中。目前應(yīng)用較為廣泛的有壓縮和激勵網(wǎng)絡(luò)(squeeze and excitation, SE)[19]、基于卷積神經(jīng)網(wǎng)絡(luò)的注意力模塊(convolutional block attention module, CBAM)[20]等,其中SE只考慮內(nèi)部通道信息而忽略了位置信息的重要性;BAM和CBAM是通過對多個通道取最大值和平均值進(jìn)行全局池化,這種加權(quán)只考慮了局部范圍的信息[21]。最新發(fā)表的協(xié)調(diào)注意力(coordinate attention, CA)模塊[22]是通過將位置信息嵌入到通道注意力中,這種方法簡潔高效,能夠?qū)崿F(xiàn)即插即用,使得移動網(wǎng)絡(luò)能夠獲取更廣的區(qū)域的信息且不會造成額外的計算負(fù)載,性能優(yōu)于SE、CBAM等注意力模塊。
CA模塊的整體結(jié)構(gòu)如圖3中所示,輸入特征圖的水平和垂直方向分別進(jìn)行平均池化得到兩個一維向量,在空間上使用Concat和1×1卷積將通道歸一并進(jìn)行信息交互,再通過批量標(biāo)準(zhǔn)化和非線性模塊來進(jìn)行編碼,分別得到水平方向和垂直方向的空間信息,然后利用Split函數(shù)劃分通道,再分別經(jīng)過1×1卷積得到同輸入特征圖一樣的通道數(shù),將空間信息乘以其權(quán)值得到新的通道信息,再通過歸一化操作進(jìn)行融合。這樣就可以考慮到目標(biāo)的通道間的關(guān)系和空間方向與位置敏感信息,進(jìn)一步提升模型對于紅外小目標(biāo)的檢測性能,降低漏檢率。
圖3 CA模塊Fig.3 CA module
如圖4所示,經(jīng)實驗驗證,在 YOLOv5s 主干網(wǎng)絡(luò)的bottleneckCSP模塊前引入CA模塊指導(dǎo)不同權(quán)重的分配,可以使主干網(wǎng)絡(luò)充分利用通道以及空間信息,提高通道中特征感知度,有效關(guān)注紅外小目標(biāo)的相關(guān)特征信息,實現(xiàn)目標(biāo)弱特征和小特征的提取。
圖4 主干網(wǎng)絡(luò)引入CAFig.4 Backbone imported with CA
反艦導(dǎo)彈不斷靠近艦船的過程中,被鎖定的艦船成像在導(dǎo)引頭中,其分辨率會隨距離發(fā)生變化,紅外艦船檢測算法需能夠適應(yīng)不同尺度、不同類型的目標(biāo)。原始YOLOv5s中頸部通過PANet[23]進(jìn)行圖像特征的聚合并輸出。在FPN的自上而下的融合結(jié)構(gòu)之后添加了PAN的自上而下的增強結(jié)構(gòu),這是一種雙向融合,而不是原來的單一融合。圖5是自頂向下和自底向上的融合路徑。
圖5 PAN結(jié)構(gòu)Fig.5 PAN structure
該融合方法只是將特征映射轉(zhuǎn)換成相同大小的特征映射,然后簡單地將他們進(jìn)行線性組合,如加法或者級聯(lián)[24-25]??呻S著降采樣的進(jìn)行不斷深入,模型從淺層特征學(xué)習(xí)階段到深層的語義特征學(xué)習(xí)階段,針對深層的語義特征學(xué)習(xí)雖然有著大的感受野的優(yōu)勢,但是較大的降采樣因子將會有位置信息的偏差,并且深層的語義特征學(xué)習(xí)階段與淺層特征學(xué)習(xí)階段之間相對獨立,難以在深層突出紅外小目標(biāo)特征,無法充分利用不同尺度的目標(biāo)特征,降低了特征融合的有效性。為提升特征融合的效果,本文在此基礎(chǔ)上引入新的空間融合方法:自適應(yīng)空間特征融合(adaptive spatial feature fusion, ASFF)[26]對YOLOv5s的頸部進(jìn)行改進(jìn),其思想是通過自適應(yīng)學(xué)習(xí)得到多尺度特征融合的空間權(quán)重分配方案。ASFF通過很小的計算成本,引入啟發(fā)式特征選擇機制,解決特征融合過程內(nèi)部不一致性。
YOLOv5s中PAN處理后會得到3個不同維度的特征,而后續(xù)相加需要保證3個特征大小以及通道數(shù)相同,因此利用上采樣和下采樣來調(diào)整不同維度的特征。圖6中的輸入特征1、特征2、特征3表示經(jīng)過PANet處理后的3個不同尺度特征圖,以ASFF-1為例,首先利用1×1卷積使特征2、特征3的通道數(shù)和特征1相同,然后將特征2、特征3分別進(jìn)行2倍和4倍的下采樣操作,使其同特征1的分辨率大小相同,并記為特征21、特征31,再通過1×1卷積得到特征21、特征31、特征3的權(quán)重α、β、γ,最后上述3個特征圖分別加 權(quán)得到空間融合特征。由Softmax公式可知,權(quán)重參數(shù)α、β、γ滿足0≤α,β,γ≤1,α+β+γ=1。
圖6 ASFF結(jié)構(gòu)Fig.6 ASFF structure
YOLOv5s將GIOU_Loss[27]作為損失函數(shù),盡管其能夠衡量真實框和預(yù)測框的相交程度并解決交并比(intersection over union, IOU)無法計算梯度的問題,但是仍不能解決廣義IOU(generalised IOU, GIOU)真實框包含預(yù)測框時的位置關(guān)系,這就只能通過不斷迭代來進(jìn)行收斂,使得計算過程變得繁瑣。因此,根據(jù)多角度多尺度變化的數(shù)據(jù)集來設(shè)計損失函數(shù)。損失函數(shù)一般包含預(yù)測框的預(yù)測誤差Lα、預(yù)測框置信度誤差Lb和目標(biāo)類別誤差Lc。在現(xiàn)有的IOU Loss基礎(chǔ)上引入power變換,得到新的損失函數(shù)α-IOU[28]。α-IOU本質(zhì)上是現(xiàn)有的GIOU、距離IOU(distance IOU, DIOU)、完全I(xiàn)OU(complete IOU, CIOU)等的統(tǒng)一冪化,具有一個冪次。α-IOU基礎(chǔ)可定義為
(1)
在式(1)中引入正則化項變?yōu)橐话阈问?
Lα-IOU=1-IOUα1+Pα2(B,Bgt)
(2)
取α1=3,α2=6,并且參考CIOU考慮的目標(biāo)框長寬比帶來的影響引入懲罰項βν。最終,損失函數(shù)的公式為
Lα-IOU=1-IOU3+P3(B,Bgt)+(βν)3
(3)
式中:P為目標(biāo)標(biāo)記框、預(yù)測框中心點歐式距離與包住二者的最小框的對角線長度的比值;β為權(quán)重,β=1-(1-IOU)/(1-IOU+v);ν是衡量兩個框的寬高比的參數(shù)。
由于缺乏高質(zhì)量公開的紅外艦船數(shù)據(jù)集,所以本文主要采用網(wǎng)絡(luò)爬蟲的方式,通過網(wǎng)絡(luò)搜集到包括民用船只以及國外軍用艦船等公開數(shù)據(jù),總共6 145張圖片。由于部分圖像目標(biāo)不全或者角度較差,先對這些圖片逐一進(jìn)行挑選,最終得到包括5 630張艦船的數(shù)據(jù)集,然后按照8∶2的比例將照片劃分成訓(xùn)練集和測試集,并采用Labelimg軟件進(jìn)行了標(biāo)注,對圖片進(jìn)行采樣核查標(biāo)注信息以及數(shù)據(jù)分布。格式為(visual object classes, VOC)數(shù)據(jù)集格式,數(shù)據(jù)集中圖像為原始圖像,不對不同尺度的圖片進(jìn)行任何清晰化等預(yù)處理操作。圖7為選取網(wǎng)絡(luò)公開的民用船只數(shù)據(jù)中部分樣本圖像。
圖7 部分樣本Fig.7 Part of the sample
本文所有涉及到的實驗均是在Ubuntu20.04操作系統(tǒng)進(jìn)行的,CPU是core i9-12900KF,GPU為顯存12G的NVIDIA GeForce RTX 3080ti,python版本為3.7.11,開發(fā)工具是pycharm2020.1,框架使用Pytorch1.9.0。
表1 實驗訓(xùn)練參數(shù)
本文采用目標(biāo)檢測模型常用的精確率P、召回率R、mAP和一秒處理幀數(shù)FPS作為模型評價指標(biāo)[29]。精確率是評價模型檢測目標(biāo)的準(zhǔn)確性的指標(biāo);召回率是評價模型能否全面檢測目標(biāo)的指標(biāo);mAP是全面衡量模型檢測精度的指標(biāo),可理解為PR曲線和坐標(biāo)軸包圍形成的面積值;FPS是衡量目標(biāo)檢測速度的指標(biāo),這里使用AP@0.5[30]即IOU≥0.5時就認(rèn)為檢測到目標(biāo)。
(4)
實驗設(shè)定迭代輪數(shù)為200,圖8中所示的是原始YOLOv5s和改進(jìn)算法在訓(xùn)練過程中Loss隨迭代輪數(shù)變化曲線。
圖8 原始與改進(jìn)算法損失曲線Fig.8 Loss curves of original and improved algorithms
從圖中8得到,兩個算法在前50輪訓(xùn)練中迅速收斂,并且在100輪之后基本保持穩(wěn)定,直到訓(xùn)練結(jié)束,所以兩種模型在本數(shù)據(jù)集達(dá)到較好的訓(xùn)練效果,并也未出現(xiàn)過擬合現(xiàn)象。本文模型在訓(xùn)練初期的損失值較高,迭代輪數(shù)到20后,損失值降到1以內(nèi),之后迭代損失曲線趨于穩(wěn)定;相對于YOLOv5s模型,本文模型總體的損失值較小,收斂較快,檢測精度較高。
圖9選取典型背景公開數(shù)據(jù)的檢測結(jié)果圖,左邊的是YOLOv5s檢測結(jié)果,右邊是本文改進(jìn)算法檢測結(jié)果,圖9(a)中對于大小適中,局部對比度強的艦船圖像都能夠檢出;由圖9(b)中看到,改進(jìn)算法將原始模型漏檢的多尺度目標(biāo)右側(cè)被遮擋的小目標(biāo)檢出;圖9(c)中是島嶼背景干擾的輪渡圖像,兩算法都能避免誤檢,均具備一定的抗干擾能力;通過觀察圖9(d)得知,改進(jìn)算法將原始模型漏檢的遠(yuǎn)距離云霧干擾紅外小目標(biāo)檢出,充分說明改進(jìn)算法具有很強的紅外小目標(biāo)檢測能力;圖9(e)和圖9(f)是夜間艦船檢測結(jié)果,圖中能看到Y(jié)OLOv5s出現(xiàn)不同的漏檢情況,圖9(e)中未檢測出圖像左側(cè)單一目標(biāo),圖9(f)中未檢測出右側(cè)側(cè)舷視角的艦船,而改進(jìn)算法能夠精確檢測到這兩個目標(biāo)。綜上,對于原始YOLOv5s算法漏檢的遠(yuǎn)距離小目標(biāo)、夜間小目標(biāo)和夜間多角度目標(biāo),改進(jìn)算法都能夠準(zhǔn)確識別出,而且在置信度上略微提高,所以,證明改進(jìn)算法在小目標(biāo)以及夜間惡劣環(huán)境場景下魯棒性較強,并且對于多尺度多角度目標(biāo)也能有較好的檢測精度。
圖9 YOLOv5s與本文算法檢測結(jié)果對比Fig.9 Detection results of YOLOv5s compared with that of the proposed algorithm
為驗證深度分離卷積、坐標(biāo)注意力機制等改進(jìn)策略對模型檢測效果提升的有效性,我們進(jìn)行了消融實驗,8組不同結(jié)構(gòu)的網(wǎng)絡(luò)使用相同的實驗設(shè)備以及數(shù)據(jù)進(jìn)行測試,選取參數(shù)量、mAP和FPS作為實驗評價指標(biāo),通過參數(shù)量可以衡量模型復(fù)雜度,實驗結(jié)果對比如表2所示。表2中,“-”表示未采用該方法,“√”表示采用該方法。
表2 消融實驗結(jié)果
表2中對比序號2與原始YOLOv5s可得,引入深度可分離卷積模塊參數(shù)量降低了1.6 M,FPS提升了4.8,所以深度可分離卷積在檢測效率上有著顯著性提升;序號3將坐標(biāo)注意力機制CA引入主干網(wǎng)絡(luò)使mAP提升2.22%,證明該方法的確能夠很好地利用特征信息,關(guān)注通道有用特征,降低漏檢率,FPS下降了2.8,表明在計算量增加以及模型結(jié)構(gòu)變復(fù)雜,一定程度上降低了效率。序號4引入自適應(yīng)空間特征融合mAP提升3.05%,證明引入ASFF通過學(xué)習(xí)得到權(quán)重,抑制無用特征的學(xué)習(xí),有效保證各層次特征融合的針對性,并且增加有限參數(shù)量,檢測效率下降不大,是個有效的改進(jìn)策略。序號5、6、7是各種策略復(fù)合進(jìn)行實驗,對比序號1、2、3可知,多種策略的組合使用結(jié)果優(yōu)于單一策略。序號8是本文提出的改進(jìn)算法,與YOLOv5s相比mAP提升2.79%。從圖10中的損失函數(shù)曲線也能夠看出本文算法性能相對其他算法更優(yōu)。綜上所述,本文所用模型在目標(biāo)檢測準(zhǔn)確率提升至89.35%,檢測速度達(dá)到44.6,滿足實時性要求的同時,在檢測精度上有效提升;改進(jìn)算法參數(shù)量減少0.6 M,能夠滿足彈載設(shè)備配置要求。
圖10 消融實驗損失曲線Fig.10 Loss curve of ablation experiment
為能客觀評價改進(jìn)模型的檢測效果,驗證改進(jìn)算法在精度以及檢測速度上的提升,對比Faster R-CNN、SSD、YOLOX、YOLOv4、Centernet、YOLOv5s等經(jīng)典目標(biāo)檢測算法在相同條件下的檢測效果,本文算法與現(xiàn)有目標(biāo)檢測算法對比實驗結(jié)果如表3和圖11所示。通過各項參數(shù)對比可得,改進(jìn)的算法解決目標(biāo)漏檢問題優(yōu)于上述目標(biāo)檢測算法,證明了算法檢測紅外艦船目標(biāo)的有效性??梢钥吹?anchor-free的算法Centernet和YOLOX在整體精度表現(xiàn)不如anchor-based的YOLOv5s算法。由于本文算法使用了坐標(biāo)注意力機制以及自適應(yīng)空間特征融合,能夠更關(guān)注空間方向與位置敏感信息,充分使用特征圖的信息,實現(xiàn)多尺度特征提取,更加適合檢測紅外小目標(biāo)的任務(wù)要求。本文算法的檢測速度為44.6 FPS,比原始YOLOv5每秒圖像傳輸增加1.3幀,這是因為算法通過在主干網(wǎng)絡(luò)中使用深度可分離卷積降低參數(shù)量,比SSD、YOLOX、YOLOv4等算法運行效率高。引入注意力機制和特征融合方法,融合多尺度的特征信息,使用空間通道信息計算分配權(quán)重,算法的準(zhǔn)確率顯著提升,所以,改進(jìn)算法能夠?qū)崿F(xiàn)高檢測精度的同時不引入額外的計算負(fù)擔(dān)。
表3 主流算法對比結(jié)果
圖11 FPS-AP曲線Fig.11 FPS-AP curve
在當(dāng)前信息化作戰(zhàn)背景下,精確打擊目標(biāo)成為掌握戰(zhàn)場先機的主要手段。針對深度學(xué)習(xí)的目標(biāo)檢測算法檢測紅外艦船小目標(biāo)時存在部分漏檢的問題,本文通過對YOLOv5s算法進(jìn)行改進(jìn)。使用深度可分離卷積搭建主干網(wǎng)絡(luò),簡化卷積模塊,減少冗余計算,提升檢測效率;采用坐標(biāo)注意力機制提升特征感知度,并引入自適應(yīng)空間特征融合方法,進(jìn)而提升檢出率,并且提出使用最新的損失函數(shù)α-IOU,在多尺度的自建數(shù)據(jù)集上進(jìn)行實驗驗證并與原始算法對比,檢測精度由86.47%提升至91.64%,mAP指標(biāo)由85.56%提升到89.35%,尤其在紅外小目標(biāo)檢測以及云霧背景干擾條件下精度顯著提升。