張 飆,王慧賢,韓 冰
(1.中國(guó)科學(xué)院空天信息創(chuàng)新研究院,北京 100190; 2.中國(guó)科學(xué)院大學(xué)電子電氣與通信工程學(xué)院,北京 100049;3.中國(guó)科學(xué)院空間信息處理與應(yīng)用系統(tǒng)技術(shù)重點(diǎn)實(shí)驗(yàn)室,北京 100190)
隨著時(shí)代的發(fā)展,遙感圖像的分辨率越來(lái)越高,人們也可以更加了解自己居住的地球。高分辨率遙感影像通常被用于地物解譯,如目標(biāo)檢測(cè)。較高的分辨率對(duì)目標(biāo)的檢測(cè)精度會(huì)有所改善,但大幅寬遙感影像具有極其復(fù)雜的背景,同物異譜、同譜異物現(xiàn)象更加明顯,導(dǎo)致利用大幅寬遙感影像做檢測(cè)時(shí)虛警較多、準(zhǔn)確率較低。
復(fù)合目標(biāo)相對(duì)單一目標(biāo)(如:飛機(jī)、艦船等)而言,是一類(lèi)由多個(gè)結(jié)構(gòu)共同組成的目標(biāo),結(jié)構(gòu)之間往往存在一定差異或者拓?fù)潢P(guān)系,單個(gè)結(jié)構(gòu)還存在不同變體。如導(dǎo)彈陣地、籃球場(chǎng)等。復(fù)合目標(biāo)由于其自身存在一定差異性,導(dǎo)致類(lèi)目標(biāo)的背景區(qū)域增加,檢測(cè)效果更加不好。本文針對(duì)該類(lèi)目標(biāo)開(kāi)展研究,選取和運(yùn)動(dòng)健身相關(guān)的籃球場(chǎng)作為檢測(cè)對(duì)象,籃球場(chǎng)只是復(fù)合目標(biāo)中的一個(gè)代表,所提方法同樣可以應(yīng)用于其他的復(fù)合目標(biāo),如復(fù)合軍事目標(biāo):愛(ài)國(guó)者導(dǎo)彈陣地、薩姆導(dǎo)彈陣地、核設(shè)施等。
傳統(tǒng)的目標(biāo)檢測(cè)算法提取的大都為SIFT(Scale-Invariant Feature Transform)[1]、HOG(Histogram of Oriented Gradient)[2]、Haar[3]等目標(biāo)特征,這些特征魯棒性低,用于檢測(cè)的效果往往不理想。
基于深度學(xué)習(xí)的檢測(cè)算法,利用卷積神經(jīng)網(wǎng)絡(luò)來(lái)提取特征,該類(lèi)算法將檢測(cè)效果提升到了一個(gè)很高的層次。在2014年,Ross Girshick基于AlexNet[4]提出了R-CNN(Region with CNN feature)[5]方法,開(kāi)創(chuàng)了深度學(xué)習(xí)目標(biāo)檢測(cè)算法的先河。R-CNN在目標(biāo)檢測(cè)上取得了巨大成就,但仍然存在諸多缺點(diǎn)。R-CNN產(chǎn)生的大量候選框會(huì)占用較多的磁盤(pán)空間,而且對(duì)每個(gè)候選框的卷積計(jì)算會(huì)產(chǎn)生過(guò)多重復(fù)的特征提取。為了彌補(bǔ)R-CNN的上述缺陷,Ross Grishick借鑒SPP(Spatial Pyramid Pooling)[6]的思想提出了Fast R-CNN[7]算法模型,并且將分類(lèi)和回歸均放入網(wǎng)絡(luò)一起訓(xùn)練,但由于候選框仍然需要通過(guò)selective search[8]得到,所以仍具有較大的不足。為了解決生成候選框耗時(shí)長(zhǎng)的問(wèn)題,作者又提出了Faster R-CNN[9]算法模型,該模型引入了RPN(Region Proposal NetWork)網(wǎng)絡(luò),將候選框的生成也放入了網(wǎng)絡(luò)中。
R-CNN系列是將生成候選框和檢測(cè)分為2步的檢測(cè)算法,這種算法耗時(shí)長(zhǎng),時(shí)效性不高。SSD(Single Shot MultiBox Detector)[10]是一類(lèi)單步檢測(cè)算法,采用一組默認(rèn)的候選框替代區(qū)域生成算法得到的候選框,分類(lèi)和回歸的結(jié)果也是基于這組候選框產(chǎn)生,單步檢測(cè)算法極大地提高了目標(biāo)檢測(cè)的速度。另一個(gè)具有代表性的單步檢測(cè)算法是YOLO(You Only Look Once),YOLO算法也是將生成候選框和檢測(cè)合二為一,檢測(cè)速度較快。R-CNN系列、YOLO系列以及SSD算法對(duì)目標(biāo)的檢測(cè)都是基于anchor的,還有一些anchor free算法,像CornerNet[11]、CenterNet[12]、ExtremeNet[13]等。這類(lèi)算法解空間更大更靈活,但檢測(cè)結(jié)果不穩(wěn)定,通常需要設(shè)計(jì)更多的方法來(lái)進(jìn)行re-weight。
迄今為止,有許多學(xué)者利用深度學(xué)習(xí)方法對(duì)目標(biāo)檢測(cè)進(jìn)行研究。文獻(xiàn)[14]中作者改進(jìn)SSD模型,增加額外卷積層,對(duì)尾礦庫(kù)進(jìn)行了檢測(cè),文獻(xiàn)[15]在SSD模型中引入注意力機(jī)制提高了算法的檢測(cè)精度;文獻(xiàn)[16]利用Fast R-CNN和DeepPose[17]相結(jié)合的方法對(duì)多目標(biāo)人體骨骼節(jié)點(diǎn)進(jìn)行了檢測(cè),文獻(xiàn)[18]利用Fast R-CNN對(duì)辦公用品進(jìn)行了檢測(cè);文獻(xiàn)[19]改進(jìn)YOLOv3算法,加入擁有更小感受野的特征圖對(duì)車(chē)輛尾燈進(jìn)行檢測(cè),改善了小目標(biāo)的檢測(cè)效果。
本文基于YOLOv3[20]對(duì)復(fù)合目標(biāo)籃球場(chǎng)進(jìn)行檢測(cè),并在原有算法上進(jìn)行改進(jìn),降低了檢測(cè)虛警率,極大地提高了檢測(cè)精度。
因?yàn)閺?fù)合目標(biāo)相對(duì)單一目標(biāo)來(lái)說(shuō),結(jié)構(gòu)更加復(fù)雜,干擾因素更多,為了提高檢測(cè)率,首先需要對(duì)復(fù)合目標(biāo)進(jìn)行特性分析。本文以籃球場(chǎng)為例開(kāi)展復(fù)合目標(biāo)的檢測(cè),從遙感影像上看,籃球場(chǎng)除了線(xiàn)條以及籃球架以外,剩余部分由多個(gè)純色區(qū)域組成,這些區(qū)域可分為中圈、限制區(qū)以及其他區(qū)域,本文將該3個(gè)區(qū)域分別稱(chēng)之為1區(qū)、2區(qū)和3區(qū),見(jiàn)圖1(a)。檢測(cè)復(fù)合目標(biāo)籃球場(chǎng)的難點(diǎn)主要可分為以下2點(diǎn):
1)籃球場(chǎng)3個(gè)區(qū)域不常規(guī)著色導(dǎo)致與目標(biāo)特征相似的背景區(qū)域增加,致使虛警率升高。
籃球競(jìng)賽規(guī)定,中圈和限制區(qū)的涂漆顏色必須相同,即1、2區(qū)的著色必須相同。與此同時(shí),為了使各個(gè)區(qū)域之間較易區(qū)分,3區(qū)和另外2個(gè)區(qū)著色一般不同。但在實(shí)際生活中,不是所有籃球場(chǎng)的著色都會(huì)嚴(yán)格遵循上述規(guī)定。觀察圖1(a)發(fā)現(xiàn),該籃球場(chǎng)2區(qū)和3區(qū)著色存在明顯差異,在兩者的交界處會(huì)形成明顯邊緣,這是籃球場(chǎng)一個(gè)較為重要的特征。但是,圖1(b)和圖1(g)籃球場(chǎng)2區(qū)、3區(qū)著色相同,不考慮線(xiàn)條,2個(gè)區(qū)域在遙感圖像上顯示為連通狀態(tài),這種情況會(huì)導(dǎo)致邊緣特征被弱化;而圖1(e)更是3個(gè)區(qū)域著色均相同,在遙感圖像上顯示為一純色矩形塊,以上2種不常規(guī)情況均會(huì)導(dǎo)致一些純色方正建筑物被誤檢,從而提高了虛警率,如圖2(a)中實(shí)線(xiàn)框所示。
圖1 不同類(lèi)型的籃球場(chǎng)
圖2 虛警和漏檢情況
2)建筑、樹(shù)木等非目標(biāo)物體遮擋籃球場(chǎng)導(dǎo)致目標(biāo)特征被弱化,背景特征摻入目標(biāo)特征,致使召回率降低,虛警率升高。
遙感圖像背景復(fù)雜,復(fù)合目標(biāo)容易出現(xiàn)被遮擋的情況,遮擋使得復(fù)合目標(biāo)部分結(jié)構(gòu)發(fā)生改變。觀察圖1(c)和圖1(d)發(fā)現(xiàn),某些籃球場(chǎng)被一些建筑物、樹(shù)木遮擋,其中圖1(d)中的籃球場(chǎng)更是被完全遮擋了一個(gè)限制區(qū),這極大弱化了目標(biāo)的可用特征。為了提高檢測(cè)的召回率,在訓(xùn)練集中加入了一些被遮擋的籃球場(chǎng)以此提高模型的泛化能力,但是非目標(biāo)物體的摻入會(huì)導(dǎo)致檢測(cè)時(shí)這些非目標(biāo)物體(如建筑、樹(shù)木等)置信度升高,致使虛警增加,如圖2(b)中實(shí)線(xiàn)框所示。在測(cè)試集中,籃球場(chǎng)被遮擋的情況也會(huì)有所不同,一些遮擋嚴(yán)重的籃球場(chǎng)容易出現(xiàn)漏檢,這會(huì)降低檢測(cè)的召回率,漏檢情況如圖2(c)虛線(xiàn)框所示。
考慮到目標(biāo)檢測(cè)的時(shí)效性,本文基于速度較快的YOLOv3算法對(duì)籃球場(chǎng)的檢測(cè)開(kāi)展研究,YOLOv3的整體算法流程如圖3所示。其中,Conv表示卷積層,這里為簡(jiǎn)寫(xiě)模式;res表示殘差網(wǎng)絡(luò)。
YOLOv3的backbone采用的是網(wǎng)絡(luò)結(jié)構(gòu)Darknet-53,見(jiàn)圖3虛線(xiàn)框①。Darknet-53含有52個(gè)卷積層,它借鑒了殘差網(wǎng)絡(luò)ResNet(Residual Network)[21]的思想,在一些層之間設(shè)置了捷徑連接。隨著網(wǎng)絡(luò)的加深,在loss回傳時(shí)出現(xiàn)梯度爆炸的可能性就越大,而ResNet這種設(shè)計(jì)本質(zhì)上是一種恒等變換,即在網(wǎng)絡(luò)加深的同時(shí),使網(wǎng)絡(luò)能夠?qū)W習(xí)待檢目標(biāo)更豐富的特征,且能有效地緩解梯度爆炸的發(fā)生。
YOLOv3采用了3個(gè)尺度對(duì)目標(biāo)進(jìn)行檢測(cè),這樣做能對(duì)不同尺寸的目標(biāo)進(jìn)行較全面的檢測(cè),見(jiàn)圖3虛線(xiàn)框②。
圖3 YOLOv3算法流程圖
YOLOv3的損失函數(shù)如式(1)所示。
YOLOv3的損失函數(shù)由坐標(biāo)損失、置信度損失、分類(lèi)損失3個(gè)部分組成,具體的損失函數(shù)公式見(jiàn)式(1):
loss=lbox+lobj+lcls
(1)
每部分損失函數(shù)的具體公式見(jiàn)式(2)~式(4):
(2)
(3)
(4)
由于測(cè)試集里是大影像,所以要對(duì)影像進(jìn)行切割,切片的尺寸和訓(xùn)練集一樣取416×416。由于待檢目標(biāo)存在一定面積,所以不能保證所有的目標(biāo)均是完整地存在于單個(gè)切片中,故相鄰切片需要存在重疊距離。同時(shí),該重疊距離不能設(shè)置得太大,否則會(huì)導(dǎo)致檢測(cè)速度變慢并且重復(fù)檢測(cè)區(qū)域的增多會(huì)造成虛警率的上升。對(duì)訓(xùn)練集待檢目標(biāo)的尺寸進(jìn)行統(tǒng)計(jì),發(fā)現(xiàn)最長(zhǎng)的邊大約占110個(gè)像元,所以本文的重疊距離取116個(gè)像元。切片示意圖如圖4所示。
圖4 分塊檢測(cè)示意圖
從樣本中可以看到,部分待檢復(fù)合目標(biāo)被建筑、樹(shù)木遮擋,這種情況會(huì)使得待檢目標(biāo)的特征被弱化,網(wǎng)絡(luò)能夠提取目標(biāo)的特征會(huì)變少;另外,對(duì)于大幅寬遙感圖像來(lái)說(shuō),其背景復(fù)雜,會(huì)存在很多與正確目標(biāo)高度相似的非目標(biāo)區(qū)域,而待檢目標(biāo)特征的弱化更是使得目標(biāo)與非目標(biāo)更加相似,因此需要一種方法能拉開(kāi)兩者之間的差距,而注意力機(jī)制在一定程度上能達(dá)到這種效果。
SENet(Squeeze and Excitation Networks)[22]是一種常見(jiàn)的通道注意力機(jī)制,但該機(jī)制只關(guān)注了通道之間的差異,對(duì)通道進(jìn)行了加權(quán)操作,在位置信息上卻未做區(qū)別對(duì)待。CBAM[23](Convolutional Block Attention Module)雖說(shuō)在通道注意力后增加了空間注意力,但其空間注意力機(jī)制是通過(guò)將通道進(jìn)行壓縮,在位置信息層面進(jìn)行大尺寸2維卷積操作來(lái)實(shí)現(xiàn),卷積操作只能獲取局部相關(guān)性,未能獲取長(zhǎng)程依賴(lài)關(guān)系。Coordinate Attention[24]是一種較新型的注意力機(jī)制,以下簡(jiǎn)稱(chēng)CoorAtt。CoorAtt在通道注意力的基礎(chǔ)上,分別融合了垂直和水平2個(gè)方向上的感知,這樣做使得CoorAtt不僅有了類(lèi)似空間注意力機(jī)制的作用,還能夠獲取垂直和水平2個(gè)方向上的長(zhǎng)程依賴(lài)。CoorAtt的結(jié)構(gòu)如圖5所示。
圖5 Coordinate Attention結(jié)構(gòu)圖
CoorAtt首先將輸入通過(guò)2個(gè)一維全局池化得到2張具有方向感知的特征圖,然后再將這2張圖Concat并編碼,將編碼后的結(jié)果分離得到2張具有垂直和水平2個(gè)方向信息的注意力圖,后經(jīng)Sigmoid變換,將得到的結(jié)果與輸入的特征圖相乘,以此來(lái)提高特征圖的表征能力。
將CoorAtt模塊加入YOLOv3的res模塊中,利用驗(yàn)證集數(shù)據(jù)進(jìn)行實(shí)驗(yàn)。表1列出了不同的添加方式以及對(duì)應(yīng)添加方式得到的平均準(zhǔn)確率(AP),其中res8(1)和res8(2)分別代表YOLOv3中前后2個(gè)res8模塊。從表1可以看出,驗(yàn)證集數(shù)據(jù)實(shí)驗(yàn)下,以方式2添加CoorAtt模塊得到的AP值和召回率均最高,并且以該種方式增加模塊模型的復(fù)雜度也最小,故本文采用方式2來(lái)改進(jìn)YOLOv3結(jié)構(gòu);另外,方式3、5和7相比原YOLOv3得到的AP值還有所降低,從此可以看出,在某些情況下,增加注意力機(jī)制并不是都能改善檢測(cè)效果。改進(jìn)的YOLOv3算法流程如圖6所示。
表1 注意力機(jī)制模塊不同添加方法及其對(duì)應(yīng)AP值
圖6 改進(jìn)的YOLOv3算法流程圖
在YOLOv3的損失函數(shù)中,有懲罰因子可以調(diào)節(jié)正負(fù)樣本之間的不均衡,但卻無(wú)法權(quán)衡易分、難分以及錯(cuò)分的樣本。易分樣本關(guān)注度的提高,對(duì)模型的提升效果非常小,一定程度上模型更應(yīng)該關(guān)注那些難分及錯(cuò)分的樣本,而Focal Loss可以做到這點(diǎn)。二分類(lèi)的Focal Loss公式見(jiàn)式(5)。
(5)
其中,y′表示經(jīng)過(guò)激活函數(shù)的輸出,y表示真實(shí)值。Focal Loss添加了一個(gè)含輸出值且?guī)е笖?shù)γ的調(diào)節(jié)因子,這樣做可以使得難分、錯(cuò)分樣本貢獻(xiàn)的loss在全部loss中的占比變得更大,使模型更偏向于關(guān)注難分、錯(cuò)分的樣本,從而提高檢測(cè)的召回率,降低檢測(cè)的虛警率。
(6)
3.4.1 重復(fù)檢測(cè)區(qū)域預(yù)測(cè)框剔除
由于測(cè)試時(shí)使用的是切片,相鄰切片之間存在重疊距離,所以會(huì)存在一定的重復(fù)檢測(cè)區(qū)域。當(dāng)該區(qū)域存在待檢目標(biāo)時(shí),可能會(huì)導(dǎo)致一個(gè)目標(biāo)得到多個(gè)預(yù)測(cè)框,這會(huì)使得虛警率上升,故本文在得到檢測(cè)結(jié)果后做了進(jìn)一步的后處理工作。
后處理示意圖見(jiàn)圖7。切片的遍歷順序是從左上到右下,所以對(duì)于任意一個(gè)切片A來(lái)說(shuō),其左上、上、右上、左4個(gè)方向的切片已經(jīng)遍歷了,不用再考慮,因此切片A的相鄰切片只剩下右、左下、下、右下4個(gè)方向的切片,方向見(jiàn)圖7標(biāo)注的4個(gè)方向箭頭。若切片A中與其相鄰切片中存在IOU大于閾值T_ol的預(yù)測(cè)框,則需從這些預(yù)測(cè)框里得出一個(gè)唯一的預(yù)測(cè)框,本文T_ol取0.6。為了計(jì)算方便,簡(jiǎn)單地將切片A的預(yù)測(cè)框作為唯一的預(yù)測(cè)框輸出,將其相鄰切片中的重疊預(yù)測(cè)框剔除。
圖7 重復(fù)檢測(cè)區(qū)域預(yù)測(cè)框剔除示意圖
重復(fù)檢測(cè)區(qū)域預(yù)測(cè)框剔除前后結(jié)果對(duì)比見(jiàn)圖8。從圖中可以看出,一個(gè)目標(biāo)僅留下一個(gè)預(yù)測(cè)框。
圖8 重復(fù)檢測(cè)區(qū)域預(yù)測(cè)框被剔除
3.4.2 基于復(fù)合目標(biāo)先驗(yàn)信息降低置信度
觀察驗(yàn)證集的檢測(cè)結(jié)果(見(jiàn)圖9(a))發(fā)現(xiàn),一些中間為白色小塊的區(qū)域會(huì)存在誤檢情況,但是依據(jù)籃球場(chǎng)先驗(yàn)信息而言,其中圈為白色的極少,所以可以利用這一點(diǎn)降低虛警。以預(yù)測(cè)框中心點(diǎn)為中心,截取9×9像素的方形區(qū)域,見(jiàn)圖9(b)。求出該區(qū)域RGB和的平均值,若該值大于某閾值rgb_thres,則將該預(yù)測(cè)框的目標(biāo)置信度乘上一個(gè)值小于1的因子,將乘得的結(jié)果與NMS(Non-Maximum Suppression)算法的置信度閾值比較,若結(jié)果小于該閾值,則剔除該預(yù)測(cè)框。本文rgb_thres取540,β取0.8。
圖9 確定中圈RGB值示意圖
降低置信度檢測(cè)結(jié)果對(duì)比見(jiàn)圖10,圖中實(shí)線(xiàn)框?yàn)闄z測(cè)得到的虛警,從圖中可知,中圈RGB值較高的預(yù)測(cè)框降低置信度后可以有效地消除部分虛警。
圖10 降低置信度檢測(cè)結(jié)果對(duì)比
在Google Earth上下載分辨率為0.3 m的影像,并用LabelImg進(jìn)行標(biāo)注,得到的影像及標(biāo)注文件如圖11所示。最終,528張416×416的切片作為訓(xùn)練集,8張10000×10000的大影像以1∶1的比例分作驗(yàn)證集和測(cè)試集。
圖11 影像以及標(biāo)注文件
本文實(shí)驗(yàn)環(huán)境:操作系統(tǒng)為Ubuntu16.04,CPU為Intel(R) Core(TM) i9-10920X CPU @ 3.5 GHz,內(nèi)存為128 GB,GPU為GeForce RTX 2080Ti,深度學(xué)習(xí)框架為Pytorch1.6,編程語(yǔ)言為Python3.7。
實(shí)驗(yàn)參數(shù):學(xué)習(xí)率lr為0.001,動(dòng)量參數(shù)為0.9,batch size為16,整個(gè)訓(xùn)練過(guò)程為200個(gè)epoch,IOU閾值為0.4,NMS算法置信度閾值為0.6。
1)召回率。
召回率(Recall, R)計(jì)算公式如式(7):
R=TP/(TP+FN)
(7)
其中,TP和FN分別表示正確檢測(cè)出的目標(biāo)數(shù)以及未被檢測(cè)出的目標(biāo)數(shù)。
2)準(zhǔn)確率。
準(zhǔn)確率(Precision, P)計(jì)算公式如式(8):
P=TP/(TP+FP)
(8)
其中,F(xiàn)P表示錯(cuò)誤被檢測(cè)為目標(biāo)的虛警數(shù)。
3)平均準(zhǔn)確率。
平均準(zhǔn)確率(Average Precision, AP)是目標(biāo)檢測(cè)常用的評(píng)價(jià)指標(biāo),其計(jì)算公式如式(9):
(9)
AP綜合考慮了準(zhǔn)確率和召回率的影響,能夠很好地表征網(wǎng)絡(luò)模型的性能。
部分樣例的檢測(cè)結(jié)果對(duì)比情況見(jiàn)圖12。圖12中的圓圈以及圖片右上角小箭頭指向的框表示檢測(cè)正確的目標(biāo),其余框表示虛警。CA表示Coordinate Attention,F(xiàn)L表示Focal Loss,P1表示中圈RGB值較高降低置信度,P2表示重復(fù)檢測(cè)區(qū)域預(yù)測(cè)框剔除,CF表示Coordinate Attention加Focal Loss,本文算法表示YOLOv3增加Cooratt模塊、Focal Loss以及改進(jìn)的后處理算法得到的最終算法。由于遙感圖像背景復(fù)雜,容易存在和真實(shí)目標(biāo)特征類(lèi)似的區(qū)域。從圖12(a)可以看出,直接用YOLOv3算法對(duì)待檢目標(biāo)進(jìn)行檢測(cè),最終的結(jié)果會(huì)出現(xiàn)較多的虛警,而增加Cooratt模塊或采用Focal Loss均會(huì)對(duì)檢測(cè)效果有所改善,見(jiàn)圖12(b)和圖12(c)所示。在上述基礎(chǔ)上再使用改進(jìn)的后處理算法,能進(jìn)一步地降低虛警。
(a) YOLOv3檢測(cè)結(jié)果
(b) YOLOv3+CA檢測(cè)結(jié)果
(c) YOLOv3+FL檢測(cè)結(jié)果
(d) 本文算法檢測(cè)結(jié)果圖12 檢測(cè)結(jié)果對(duì)比
將所有的檢測(cè)結(jié)果進(jìn)行統(tǒng)計(jì),得到表2。從表2可以看出,本文算法召回率提高了10.3個(gè)百分點(diǎn),平均準(zhǔn)確率提高了28.8個(gè)百分點(diǎn),證明了本文算法的有效性。
表2 最終的檢測(cè)結(jié)果統(tǒng)計(jì)對(duì)比
本文首先對(duì)復(fù)合目標(biāo)進(jìn)行特性分析,然后標(biāo)注樣本制作數(shù)據(jù)集。為改善YOLOv3檢測(cè)結(jié)果,進(jìn)行了結(jié)構(gòu)和Loss函數(shù)的改進(jìn)。增加Coordinate Attention注意力機(jī)制模塊讓網(wǎng)絡(luò)學(xué)習(xí)更關(guān)注的特征,引入Focal Loss平衡易分、難分以及錯(cuò)分的樣本;與此同時(shí),本文還增加后處理算法進(jìn)一步降低檢測(cè)虛警。最終實(shí)驗(yàn)表明,改進(jìn)后的算法在平均檢測(cè)準(zhǔn)確率AP指標(biāo)上有28.8個(gè)百分點(diǎn)的提升,證明了該算法的有效性、合理性。該算法對(duì)高分辨率遙感影像中其他復(fù)合目標(biāo)如網(wǎng)球場(chǎng)、導(dǎo)彈陣地等的檢測(cè)研究有著積極的促進(jìn)作用。