譚顯東,彭 輝
成都信息工程大學(xué) 軟件工程學(xué)院,成都610225
近年來(lái)隨著遙感技術(shù)的深入發(fā)展,基于遙感圖像來(lái)實(shí)現(xiàn)艦船的檢測(cè)已然成為沿海國(guó)家的重要任務(wù)。合成孔徑雷達(dá)(synthetic aperture radar,SAR)是一種可以全天時(shí)全天候主動(dòng)探測(cè)的微波成像傳感器,對(duì)于氣候變幻無(wú)常的海洋進(jìn)行監(jiān)測(cè)具有非常好的適應(yīng)性,在檢測(cè)艦船的任務(wù)中,SAR 不會(huì)受海洋天氣多變的限制,可以對(duì)艦船目標(biāo)進(jìn)行全方位實(shí)時(shí)監(jiān)測(cè)[1]。
針對(duì)SAR圖像的艦船目標(biāo)檢測(cè)研究方法起初大多基于傳統(tǒng)的目標(biāo)檢測(cè)思想,是半自動(dòng)化的。在傳統(tǒng)方法上,國(guó)內(nèi)外的學(xué)者對(duì)SAR 圖像艦船監(jiān)測(cè)也開(kāi)展了大量研究,例如提出了雙參數(shù)恒虛警率(constant false alarm rate,CFAR)算法[2],并在此基礎(chǔ)上提出了基于K 分布的CFAR算法[3],還有提出利用信息論中的熵[4]、小波變換[5]和模板匹配等方法來(lái)進(jìn)行艦船目標(biāo)檢測(cè)[6]。這些傳統(tǒng)方法存在依賴性很強(qiáng),泛化能力和檢測(cè)精度不高,檢測(cè)時(shí)間長(zhǎng)等不足。
隨著人工智能技術(shù)的興起,深度學(xué)習(xí)技術(shù)開(kāi)始在各領(lǐng)域迅速發(fā)展,得益于深度學(xué)習(xí)的特點(diǎn),不需人工耗時(shí)耗力的設(shè)計(jì)特征就可以實(shí)現(xiàn)有效的目標(biāo)檢測(cè),因此推動(dòng)了將計(jì)算機(jī)視覺(jué)領(lǐng)域的目標(biāo)檢測(cè)器在SAR圖像上的應(yīng)用。深度學(xué)習(xí)方法不會(huì)受到場(chǎng)景的限制,其具有優(yōu)秀的特征自學(xué)習(xí)能力,不需要對(duì)SAR圖像進(jìn)行海陸分離,只需要標(biāo)注好的數(shù)據(jù)集進(jìn)行訓(xùn)練便可,其在圖像處理方面具有很強(qiáng)優(yōu)越性。
目前流行的目標(biāo)檢測(cè)算法大致分為兩大類:一類為基于區(qū)域推薦(region proposal)的目標(biāo)檢測(cè)方法,其中典型的代表方法為區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(R-CNN)[7]、Fast R-CNN[8]、Faster R-CNN[9]等系列算法。它的流程是首先需要利用選擇性搜索(selective search)或者是區(qū)域建議網(wǎng)絡(luò)(region proposal network,RPN)來(lái)產(chǎn)生建議的區(qū)域,然后在這些建議的區(qū)域中進(jìn)行回歸分類。另外一類為基于回歸思想的方法,把目標(biāo)檢測(cè)問(wèn)題簡(jiǎn)化為回歸的問(wèn)題,沒(méi)有區(qū)域推薦的階段,只需一個(gè)卷積神經(jīng)網(wǎng)絡(luò)就可直接得到不同目標(biāo)的類別概率和位置坐標(biāo),代表性的算法有YOLO[10]、SSD[11]、Retina-Net[12]等。其中以YOLO 系列為代表的目標(biāo)檢測(cè)算法,識(shí)別速度相對(duì)其他算法普遍較快,尤其在小目標(biāo)檢測(cè)方面具有良好的效果,因此得到了廣泛的應(yīng)用。
近些年已有不少學(xué)者在這方面進(jìn)行了研究?;趨^(qū)域推薦的方法,顧佼佼等[13]對(duì)Faster R-CNN 的錨框個(gè)數(shù)和大小進(jìn)行了重新設(shè)計(jì),改善了目標(biāo)檢測(cè)中重復(fù)檢測(cè)的問(wèn)題?;诨貧w思想的方法,張曉玲等[14]利用YOLO網(wǎng)絡(luò),建立深度分離卷積網(wǎng)絡(luò),并結(jié)合通道和空間注意力機(jī)制[15]來(lái)提高艦船檢測(cè)精度?;趨^(qū)域推薦比基于回歸思想模型更加寬和深,也更加復(fù)雜,計(jì)算程度也更繁瑣,因此綜合考慮,選用基于回歸思想的YOLO系列目標(biāo)檢測(cè)算法。同時(shí),近年來(lái)針對(duì)YOLOv5算法的改進(jìn),也已有不少學(xué)者提出了一些方法。張麒麟等[16]改進(jìn)損失函數(shù)為DIOU[17],通過(guò)考慮預(yù)測(cè)框與真實(shí)框中心點(diǎn)歐氏距離,改善目標(biāo)檢測(cè)效果。馬永康等[18]對(duì)骨干網(wǎng)絡(luò)添加有效通道注意力機(jī)制(efficient channel attention,ECA),增強(qiáng)了特征表達(dá)能力,引入SoftPool 改進(jìn)池化操作[19],保留更多特征信息。
本文以YOLO系列最新的YOLOv5為基礎(chǔ),針對(duì)艦船目標(biāo)檢測(cè)框的特點(diǎn)對(duì)損失函數(shù)進(jìn)行優(yōu)化,并結(jié)合坐標(biāo)注意力機(jī)制(coordinate attention,CA),提升了網(wǎng)絡(luò)提取特征的能力[20],在模型輕量化的同時(shí)實(shí)現(xiàn)對(duì)艦船目標(biāo)檢測(cè)的高速與高精度并存。
YOLOv5是當(dāng)前YOLO系列最新的目標(biāo)檢測(cè)算法,在數(shù)據(jù)輸入端首先對(duì)艦船圖像進(jìn)行自適應(yīng)的縮放,并且通過(guò)遺傳算法對(duì)錨定框進(jìn)行自動(dòng)學(xué)習(xí)調(diào)整,使其能夠更好地預(yù)測(cè)艦船目標(biāo)的所在位置。
YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)大致可分為4個(gè)模塊:輸入端、主干網(wǎng)絡(luò)Backbone、Neck 和預(yù)測(cè)端Prediction。在輸入端采用了Mosaic數(shù)據(jù)增強(qiáng)、自動(dòng)計(jì)算錨框和圖片縮放等方式對(duì)輸入圖像進(jìn)行處理。在主干網(wǎng)絡(luò)的開(kāi)頭增加Focus操作,即特殊的下采樣,采用切片操作把高分辨率的特征圖拆分為多個(gè)低分辨率的特征圖。如圖1所示,將4×4×3 的Tensor 通過(guò)間斷采樣分為4 份,在通道維度上拼接生成2×2×12的Tensor,F(xiàn)ocus層將w-h平面上的信息轉(zhuǎn)換到通道維度,再通過(guò)卷積的方式提取不同特征,采用這種方式可以減少下采樣帶來(lái)的信息損失。
圖1 Focus操作圖Fig.1 Focus action figure
CSPDarknet53[21]作為主干網(wǎng)絡(luò)Backbone,它的作用是對(duì)圖片進(jìn)行特征提取,其中還包含CBL 和SSP 操作。CBL 由三部分組成,即卷積(Convolution)、批量歸一化(batch normalization,BN)和激活函數(shù)(Leaky Relu),SSP即空間金字塔池化層,采用四種不同尺寸的最大池化方式大大增加了感受野。此外,CSP(cross stage partial networks)的思想[22]大致為將梯度的變化從頭到尾地集成到特征圖中,減少網(wǎng)絡(luò)參數(shù)和運(yùn)算量,既保證速度和準(zhǔn)確率,也減少模型尺寸大小。除此外還在Neck(特征聚合)中使用了CSP,加強(qiáng)了網(wǎng)絡(luò)特征融合的能力。
在預(yù)測(cè)端擁有三種不同尺度的特征圖,根據(jù)不同尺度下的特征對(duì)目標(biāo)圖像生成相應(yīng)的預(yù)測(cè)框并對(duì)其進(jìn)行非極大值抑制(non-maximum suppression,NMS)處理,保留局部類別置信度得分最高的預(yù)測(cè)框,抑制掉得分低的預(yù)測(cè)框。
YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。其中損失函數(shù)的計(jì)算是基于Objectness Score、Class Probability Score和Bounding Box Regression Score。首先采用BCELogits和二進(jìn)制交叉熵?fù)p失函數(shù)(BCEloss)計(jì)算Objectness Score和Class Probability Score。如圖3所示,其中實(shí)線框A表示目標(biāo)的定位框,虛線框B表示預(yù)測(cè)框,M為兩個(gè)框之間的交集,N則為并集,IOU就是交集與并集之比,其定義為:
圖2 YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.2 YOLOv5 network structure
圖3 GIOU示意圖Fig.3 GIOU figure
其次,可以計(jì)算出它們的最小凸集(包圍A、B的最小包圍框)C。再計(jì)算閉包區(qū)域中不屬于兩個(gè)框的區(qū)域D占閉包區(qū)域的比重,用IOU減去這個(gè)比重得到GIOU。隨后可得到GIOU的損失函數(shù)GIOU_Loss,其定義為:
GIOU 引入了預(yù)測(cè)框與真實(shí)框的最小外接矩形,改善了真實(shí)框和預(yù)測(cè)框不相交情況下無(wú)法預(yù)測(cè)兩者距離的問(wèn)題。GIOU_Loss作為物體邊界框的損失函數(shù),值越小則代表模型越好,表示預(yù)測(cè)框與真實(shí)框的差距就越小,預(yù)測(cè)效果就越達(dá)到期望效果[23]。
GIOU_Loss作為預(yù)測(cè)框的損失函數(shù),雖然改善了真實(shí)框與預(yù)測(cè)框不相交情況下存在的問(wèn)題,但當(dāng)預(yù)測(cè)框在目標(biāo)的真實(shí)框內(nèi)即A?B=B時(shí),其損失值不會(huì)發(fā)生改變,顯然無(wú)法很好地衡量預(yù)測(cè)框的位置狀態(tài)。此外針對(duì)SAR圖像艦船目標(biāo)具有高長(zhǎng)寬比的特點(diǎn),引入EIOU_Loss將兩框的重疊部分、中心點(diǎn)距離和長(zhǎng)寬比都融合到損失函數(shù)的計(jì)算當(dāng)中[24]。
如圖4所示,由于A?B=B=C,令A(yù)與B的最小外接矩形C的對(duì)角線距離為c,預(yù)測(cè)框B與真實(shí)框A的中心點(diǎn)之間的歐氏距離r,可以求得目標(biāo)框與預(yù)測(cè)框的長(zhǎng)寬之差h和w,Ch和Cw分別是覆蓋預(yù)測(cè)框和目標(biāo)框的最小外接矩形的長(zhǎng)和寬,則EIOU_Loss的定義如下:
圖4 EIOU示意圖Fig.4 EIOU figure
當(dāng)EIOU 值越大時(shí),說(shuō)明預(yù)測(cè)框越接近真實(shí)框的位置,其損失函數(shù)值就越小,但是該損失函數(shù)在訓(xùn)練過(guò)程中梯度不能自適應(yīng)改變,從而影響訓(xùn)練效果。為了解決這個(gè)問(wèn)題,本文對(duì)EIOU_Loss 進(jìn)一步優(yōu)化,設(shè)計(jì)一種新的邊框回歸函數(shù),即IEIOU_Loss,其定義為:
如圖5所示,IEIOU_Loss和EIOU_Loss都隨著EIOU的增大而減小,并且IEIOU_Loss 的梯度絕對(duì)值隨著EIOU 的增大而減小。顯然對(duì)邊框回歸更有利,即當(dāng)預(yù)測(cè)框和真實(shí)目標(biāo)框之間的距離較遠(yuǎn)時(shí),具有更大的梯度絕對(duì)值(即更小的EIOU值)對(duì)訓(xùn)練過(guò)程更有利,IEIOU_Loss比EIOU_Loss的設(shè)計(jì)更加合理。
圖5 EIOU_Loss和IEIOU_Loss示意圖Fig.5 EIOU_Loss and IEIOU_Loss figure
近些年來(lái),注意力機(jī)制模塊被廣泛使用在計(jì)算機(jī)視覺(jué)任務(wù)中,其目的是告訴模型需要更加關(guān)注哪些內(nèi)容與哪些位置,目前已經(jīng)用于深度神經(jīng)網(wǎng)絡(luò)中以便提升模型的性能。然而在輕量級(jí)網(wǎng)絡(luò)中,注意力機(jī)制的應(yīng)用受到了一定的限制,原因是大多數(shù)注意力機(jī)制所帶來(lái)的額外計(jì)算開(kāi)銷是輕量級(jí)網(wǎng)絡(luò)所負(fù)擔(dān)不起的。因此本文引入一種簡(jiǎn)單靈活且?guī)缀醪粠?lái)額外計(jì)算開(kāi)銷的坐標(biāo)注意力機(jī)制(CA)來(lái)提升網(wǎng)絡(luò)的精度。CA 模塊的具體流程如圖6所示。
圖6 坐標(biāo)注意力機(jī)制模塊Fig.6 Coordinate attention model
輸入特征圖X是上一層卷積的輸出,其維度為C×H×W,即通道數(shù)為C,高為H,寬為W。使用尺寸(H,1)和(1,W)的平均池化分別沿著水平坐標(biāo)與垂直坐標(biāo)方向?qū)γ總€(gè)通道進(jìn)行編碼,即高度為h的第c個(gè)通道與寬度為w的第c個(gè)通道的輸出,公式如下:
上式兩個(gè)變換沿著兩個(gè)空間方向進(jìn)行特征聚合,然后級(jí)聯(lián)生成的兩個(gè)特征圖zh、zw,并進(jìn)行卷積核大小為1 的卷積運(yùn)算F1,生成對(duì)空間信息在水平方向和垂直方向的中間特征圖f,公式如下:
沿空間維度將f分成兩個(gè)單張量f h和f w,再利用兩個(gè)卷積核大小為1 的卷積運(yùn)算Fh和Fw將特征圖f h和f w變換為與輸入X同樣的通道數(shù),公式如下:
式中,σ運(yùn)算是Sigmoid激活函數(shù),經(jīng)過(guò)運(yùn)算得到0~1的范圍數(shù)值,即代表重要等級(jí)程度。將gh和gw進(jìn)行拓展,作為注意力權(quán)重,最終輸出公式如下:
至此能夠有效關(guān)注到有效的通道,同時(shí)關(guān)注空間位置坐標(biāo)信息,如圖7所示。本文將該注意力機(jī)制嵌入到Backbone 中的CBL 模塊和BottleneckCSP 中的殘差塊,以幫助模型更能對(duì)感興趣的目標(biāo)進(jìn)行特征提取。例如對(duì)靠近岸邊的艦船目標(biāo)更加關(guān)注,大大增強(qiáng)模型訓(xùn)練的效率。改進(jìn)后的YOLOv5算法框架如圖8所示。
圖7 注意力機(jī)制嵌入示意圖Fig.7 Attention embedded in diagrams
圖8 改進(jìn)YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.8 Improved YOLOv5 network structure
本文實(shí)驗(yàn)基于Pytorch1.9.0框架,在Jupyter Notebook平臺(tái)上進(jìn)行,模型訓(xùn)練通過(guò)GPU 加速,在NVIDIA RTX2060(顯存8 GB)GPU,CUDA10.2 環(huán)境下完成。YOLOv5根據(jù)不同的網(wǎng)絡(luò)深度與寬度,由淺到深可以分為YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x四個(gè)模型。本文實(shí)驗(yàn)采用最輕量的YOLOv5s,在此基礎(chǔ)上進(jìn)行改進(jìn)并與其原始網(wǎng)絡(luò)作對(duì)比,最后再與其他一些改進(jìn)方法進(jìn)行測(cè)試對(duì)比。
本文實(shí)驗(yàn)采用數(shù)據(jù)集為國(guó)內(nèi)公開(kāi)的SSDD(SAR ship detection dataset)數(shù)據(jù)集,該數(shù)據(jù)集共有1 160 張SAR圖像,共含有2 456只艦船目標(biāo),且已被海軍航空大學(xué)李建偉等學(xué)者標(biāo)注[25],具有多種極化模式、多種分辨率、海面上和靠岸等艦船場(chǎng)景,能有效驗(yàn)證模型的魯棒性。本文實(shí)驗(yàn)將SSDD數(shù)據(jù)集按照7∶1∶2的比例隨機(jī)劃分成訓(xùn)練集、驗(yàn)證集、測(cè)試集。在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練YOLOv5s 權(quán)重,使用SGD 優(yōu)化器對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行迭代更新,動(dòng)量參數(shù)設(shè)為0.9,批大小設(shè)為32,訓(xùn)練500個(gè)Epoch,采用周期性學(xué)習(xí)率進(jìn)行調(diào)整和Warm-Up方法預(yù)熱學(xué)習(xí)率,其中初始lr0 設(shè)為0.01,在Warm-Up階段,采用一維線性插值對(duì)每次迭代的學(xué)習(xí)率進(jìn)行更新直至0.1,之后采用余弦退火算法來(lái)更新學(xué)習(xí)率,最終下降至學(xué)習(xí)率lrf為0.002。
本文實(shí)驗(yàn)使用深度學(xué)習(xí)中的評(píng)價(jià)指標(biāo),如召回率(Recall)、精度(Precision)以及平均精度均值(mean average precision,mAP)。
TP(true positives)為正確的艦船檢測(cè)數(shù)目,F(xiàn)N(false negatives)為漏檢的艦船數(shù)目,F(xiàn)P(false positives)為虛警的艦船數(shù)目。
召回率定義為:
精度定義為:
平均精度均值定義為:
其中,P為精度,R為召回率,P(R)為精度和召回率曲線。在本實(shí)驗(yàn)中,設(shè)置的IOU 為0.5,即檢測(cè)閾值,當(dāng)檢測(cè)框與真實(shí)框的重疊區(qū)域超過(guò)50%時(shí),就認(rèn)為該檢測(cè)框是正確的。
為了驗(yàn)證本文改進(jìn)模塊對(duì)SAR艦船目標(biāo)檢測(cè)的影響,對(duì)各模塊進(jìn)行評(píng)估,結(jié)果如表1 所示。其中加粗字體表示最優(yōu)結(jié)果,“√”表示添加相應(yīng)模塊。表中YOLOv5_1、YOLOv5_2 和YOLOv5_3 分別表示添加注意力機(jī)制模塊、EIOU_Loss和改進(jìn)IEIOU_Loss??梢钥闯?,注意力機(jī)制模塊對(duì)SAR 艦船目標(biāo)檢測(cè)有較為顯著的影響,主要是因?yàn)樵妓惴▽?duì)特征的提取不太明確,會(huì)受到陸地的干擾,而且會(huì)將多個(gè)密集艦船目標(biāo)誤檢為一個(gè)目標(biāo),造成漏檢,添加CA后的模型對(duì)艦船目標(biāo)的顯著特征提取更加明確。EIOU 使檢測(cè)結(jié)果更加準(zhǔn)確,因?yàn)樵陬A(yù)測(cè)邊框回歸時(shí),考慮到了兩框的重疊部分、中心點(diǎn)距離和長(zhǎng)寬比,考慮的因素更加綜合全面,而且在損失函數(shù)中進(jìn)行梯度變化的優(yōu)化,對(duì)訓(xùn)練過(guò)程更加有利,使得最終的檢測(cè)精度更高。如圖9 所示,橫坐標(biāo)為Epoch 訓(xùn)練次數(shù),縱坐標(biāo)為預(yù)測(cè)邊框的Loss 損失值,可以看出改進(jìn)后的YOLOv5 邊框損失Loss 值下降曲線收斂性更好。圖10 為mAP 指標(biāo)曲線圖,其中mAP_0.5 表示IOU的閾值為0.5時(shí)對(duì)應(yīng)的mAP。
表1 各模塊精度評(píng)估對(duì)比Table 1 Comparison of mAP among different modules
圖9 Loss值下降曲線Fig.9 Decline curve of Loss value
圖10 mAP曲線圖Fig.10 mAP curve
圖11為改進(jìn)后的算法在測(cè)試集上的艦船目標(biāo)檢測(cè)結(jié)果。其中(a)~(c)是復(fù)雜背景下靠岸艦船檢測(cè)結(jié)果,(d)是深海稀疏分布的小目標(biāo)檢測(cè)結(jié)果。可以看出,對(duì)于岸邊不同尺度的艦船和密集分布的艦船,均能有效定位,對(duì)于稀疏分布,目標(biāo)較小的深海艦船也可以精確地實(shí)現(xiàn)定位,漏檢率低。
圖11 改進(jìn)YOLOv5實(shí)驗(yàn)結(jié)果Fig.11 Improved YOLOv5 experimental results
為了進(jìn)一步驗(yàn)證算法的檢測(cè)性能,將改進(jìn)的方法與原YOLOv5進(jìn)行對(duì)比的同時(shí),與主流的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法YOLOv3、SSD、Faster R-CNN 在精度和速度方面進(jìn)行比較,結(jié)果如表2 所示,其中加粗字體表示各列最優(yōu)結(jié)果。
表2 實(shí)驗(yàn)結(jié)果對(duì)比Table 2 Comparison of experimental results
可以看出,本文方法在SSDD數(shù)據(jù)集上的精確度最高。此外,由于在預(yù)測(cè)邊框損失函數(shù)上做了曲線化計(jì)算操作,增加了部分計(jì)算量,導(dǎo)致算法的檢測(cè)效率有所下降,但是總的來(lái)看,本文方法在速度上仍具有巨大優(yōu)勢(shì),能夠滿足實(shí)時(shí)檢測(cè)的基本需求。
如圖12 所示,本文選擇復(fù)雜樣本對(duì)原YOLOv5、SSD與本文改進(jìn)方法進(jìn)行檢測(cè)實(shí)驗(yàn)對(duì)比??梢钥闯?,三種方法都能有效地檢測(cè)艦船目標(biāo),但是SSD算法對(duì)于密集排列的艦船目標(biāo)的定位精度較差,容易造成漏檢。對(duì)于原始YOLOv5而言,艦船目標(biāo)容易受到海岸陸地的影響,造成較高的虛警率。本文改進(jìn)方法明顯降低了深海區(qū)域艦船小目標(biāo)的漏檢率,同時(shí)也能有效區(qū)分密集排列的艦船目標(biāo),提高了靠岸艦船的檢測(cè)精度。原因在于本文方法對(duì)特征提取進(jìn)行了改進(jìn),使其能提取到更專注的艦船目標(biāo)特征,從而準(zhǔn)確地定位到艦船目標(biāo)。
圖12 改進(jìn)實(shí)驗(yàn)結(jié)果對(duì)比Fig.12 Comparison of improved experimental results
為了進(jìn)一步分析本文所提出的改進(jìn)方法對(duì)YOLOv5算法的影響,將本文改進(jìn)方法與其他一些改進(jìn)方法進(jìn)行檢測(cè)實(shí)驗(yàn)對(duì)比。改進(jìn)1算法使用DIOU計(jì)算預(yù)測(cè)框的損失值[17];改進(jìn)2 算法對(duì)特征提取網(wǎng)絡(luò)添加卷積注意力機(jī)制模塊CBAM[15];改進(jìn)3 算法使用有效通道注意力機(jī)制模塊ECA 替換[18];改進(jìn)4 和改進(jìn)5 算法分別將DIOU 與CBAM、ECA 混合使用,并且固定各注意力機(jī)制模塊的添加位置。這些方法對(duì)YOLOv5 神經(jīng)網(wǎng)絡(luò)的影響效果如表3 所示,其中加粗字體表示各列最優(yōu)結(jié)果,“√”表示使用相應(yīng)方法??梢钥闯觯珼IOU 將計(jì)算預(yù)測(cè)框與真實(shí)框的交并比替換成中心點(diǎn)之間的歐氏距離來(lái)判斷兩框接近的程度,相比于原GIOU而言[23],雖然提高了艦船檢測(cè)的精確度,但依然存在沒(méi)有考慮預(yù)測(cè)邊框的長(zhǎng)寬信息等不足。而本文方法的IEIOU則考慮更加全面,不僅綜合考慮邊框的長(zhǎng)寬信息,而且進(jìn)行了曲線優(yōu)化,對(duì)檢測(cè)精度的提升更為明顯。此外,對(duì)于注意力機(jī)制模塊,CBAM分為兩個(gè)步驟,先通過(guò)通道注意力機(jī)制得到有效通道,然后再利用空間注意力機(jī)制得到這些通道上的重要位置信息。過(guò)程顯得稍微復(fù)雜且進(jìn)行了降維操作,導(dǎo)致特征信息不能全面有效利用。ECA 則通過(guò)使用一維卷積避免了降維操作,但是只考慮到通道信息。CA 模塊明顯比CBAM與ECA提升更大,這是由于CA不僅考慮了通道信息與空間位置信息,還將它們?nèi)诤系揭黄穑蛊涮卣魈崛〉酶雍侠砬腋咝?。如圖13 所示,本文選取混合效果最好的改進(jìn)4和改進(jìn)5算法與本文方法作對(duì)比,雖然改進(jìn)4 和改進(jìn)5 算法對(duì)于靠岸艦船的檢測(cè)效果相比于原方法有所提升,降低了虛警率,但檢測(cè)精度仍然不太理想,并且針對(duì)密集艦船目標(biāo),依然容易出現(xiàn)漏檢。
圖13 不同改進(jìn)方法實(shí)驗(yàn)結(jié)果對(duì)比Fig.13 Comparison of experimental results of different improvement methods
表3 不同改進(jìn)方法對(duì)性能的提升Table 3 Improvement of performance by using different improvement methods
針對(duì)當(dāng)前目標(biāo)檢測(cè)模型復(fù)雜、檢測(cè)效率較慢且效果不夠理想的問(wèn)題,根據(jù)SAR 圖像中艦船目標(biāo)靠岸與深海中稀疏小目標(biāo)的分布特點(diǎn),提出了改進(jìn)的YOLOv5網(wǎng)絡(luò)模型的目標(biāo)檢測(cè)方法。該方法泛化性強(qiáng),對(duì)于靠岸且密集的艦船目標(biāo)的檢測(cè)效果較好,相比其他改進(jìn)方法具有更高的檢測(cè)精度,并且檢測(cè)時(shí)間較短,在實(shí)時(shí)性SAR應(yīng)用領(lǐng)域具有一定的現(xiàn)實(shí)意義,最終得到的模型權(quán)重大小僅13.8 MB,這樣的輕量模型將有助于未來(lái)的硬件移植。
但是本文方法依然存在一定的局限性,目前只針對(duì)SSDD 數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)數(shù)據(jù)量相對(duì)較少,缺少普遍性。此外,不同方位的艦船目標(biāo)對(duì)IOU 取值存在影響。在未來(lái)的工作中,將使用更大的高分辨率SAR 艦船圖像數(shù)據(jù)集訓(xùn)練神經(jīng)網(wǎng)絡(luò),進(jìn)一步優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),提高艦船目標(biāo)檢測(cè)效率。同時(shí)對(duì)目標(biāo)檢測(cè)框進(jìn)行研究,使其能分辨不同方位的艦船目標(biāo),提高檢測(cè)精度。