熊詠平,丁 勝,鄧春華,方國(guó)康,龔 銳
(1.武漢科技大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,武漢 430065; 2.智能信息處理與實(shí)時(shí)工業(yè)系統(tǒng)湖北省重點(diǎn)實(shí)驗(yàn)室,武漢 430065)(*通信作者電子郵箱dchzx@wust.edu.cn)
遙感圖像中的艦船檢測(cè)問(wèn)題一直是圖像處理和模式識(shí)別領(lǐng)域的熱門(mén)課題,在軍用和民用領(lǐng)域都有廣闊的應(yīng)用前景。由于光學(xué)遙感圖像容易受光照和云霧等影響,目前基于遙感圖像的艦船檢測(cè)主要圍繞著合成孔徑雷達(dá)(Synthetic Aperture Radar, SAR)[1]展開(kāi)。然而,光學(xué)圖像的細(xì)節(jié)特征豐富,隨著光學(xué)遙感衛(wèi)星的分辨率不斷提高,在海域艦船小目標(biāo)檢測(cè)、識(shí)別方面具有SAR圖像不能比擬的優(yōu)勢(shì),同時(shí)可以作為SAR圖像目標(biāo)檢測(cè)的重要補(bǔ)充。
海洋經(jīng)濟(jì)[2]是21世紀(jì)人類(lèi)發(fā)展的主要支撐點(diǎn)之一,由于海洋上作業(yè)的風(fēng)險(xiǎn)巨大,為了保證船只作業(yè)安全,利用衛(wèi)星成像技術(shù)和人工智能技術(shù)對(duì)海上目標(biāo)進(jìn)行快速有效的識(shí)別,是人類(lèi)有效利用海洋資源的一項(xiàng)基本能力,因此,開(kāi)展海上船只目標(biāo)自動(dòng)檢測(cè)的研究具有重要意義。
傳統(tǒng)的目標(biāo)檢測(cè)方法借助機(jī)器學(xué)習(xí)基本理論,首先通過(guò)對(duì)目標(biāo)特征,如梯度方向直方圖(Histogram of Oriented Gradients, HOG)[3]、尺度不變特征轉(zhuǎn)換(Scale Invariant Feature Transform, SIFT)[4]特征等進(jìn)行提取,并將提取到的特征輸入到如支持向量機(jī)(Support Vector Machine, SVM)[5]、迭代器(AdaBoost)[6]等分類(lèi)器進(jìn)行分類(lèi)識(shí)別。這些提取的圖像特征本質(zhì)上是一種手工設(shè)計(jì)的特征,針對(duì)不同的圖像檢測(cè)問(wèn)題,提取到的特征好壞對(duì)檢測(cè)性能有著直接的影響,因此,需要研究人員針對(duì)所要解決的問(wèn)題領(lǐng)域設(shè)計(jì)出適應(yīng)性更好的特征;但由于針對(duì)某個(gè)特定的識(shí)別任務(wù),泛化能力較差,難以在實(shí)際應(yīng)用問(wèn)題中設(shè)計(jì)出具有通用性和魯棒性的特征。此外,傳統(tǒng)機(jī)器學(xué)習(xí)方法從提取圖像底層特征到提取表觀特征流程相對(duì)復(fù)雜,并且嚴(yán)重依賴于人工的特征設(shè)計(jì),因此,基于傳統(tǒng)的機(jī)器學(xué)習(xí)方法的目標(biāo)檢測(cè)遇到瓶頸,期待更有效的方法提取圖像特征。
近年來(lái)深度學(xué)習(xí)在圖像識(shí)別領(lǐng)域取得了很好的效果[7],與傳統(tǒng)的機(jī)器學(xué)習(xí)相比,深度學(xué)習(xí)方法通過(guò)多層網(wǎng)絡(luò)直接對(duì)圖像卷積和池化操作來(lái)提取圖像本質(zhì)特征,在圖像識(shí)別領(lǐng)域優(yōu)勢(shì)明顯,并取得了突破性進(jìn)展;深度學(xué)習(xí)的發(fā)展,特別是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)[8]的出現(xiàn),為圖像特征提取帶來(lái)全新的解決方法。CNN是局部連接網(wǎng)絡(luò),在CNN中,圖像中小塊區(qū)域作為底層輸入數(shù)據(jù),信息通過(guò)前向傳播經(jīng)過(guò)網(wǎng)絡(luò)中各個(gè)層,在每一層中都由過(guò)濾器構(gòu)成,以便能獲得觀測(cè)數(shù)據(jù)的一些顯著特征,其層次間的緊密聯(lián)系和空間信息使其特別適用于圖像處理和理解,并能自動(dòng)從圖像中抽取出豐富的相關(guān)特性,因此通過(guò)CNN能更好地提取圖像特征。
2014 年,Girshick等[9]在CVPR(IEEE conference on Computer Vision and Pattern Recognition)大會(huì)上提出了R-CNN(Region with CNN feature)網(wǎng)絡(luò),該網(wǎng)絡(luò)在全連接層前加了一個(gè)空間金字塔(spatial pyramid pooling)[10]層,使得該網(wǎng)絡(luò)在全連接層輸入不需要?dú)w一化圖像尺寸,從而使得提取的特征有更好的尺度不變性,降低了過(guò)擬合的可能,在 VOC(Visual Object Classes) 2012 數(shù)據(jù)集上,將目標(biāo)檢測(cè)的平均準(zhǔn)確率(mean Average Precision, mAP)提升到53.3%。2015 年Girshick[11]和Ren等[12]又相繼提出了 Fast R-CNN和 Faster R-CNN, 提高了準(zhǔn)確率和檢測(cè)速度; 2016 年Redmon等[13]提出的YOLO (You Only Look Once) v1以 45 FPS(Frames Per Second)真正達(dá)到了可以檢測(cè)視頻的速度,這為快速檢測(cè)視頻運(yùn)動(dòng)目標(biāo)指明了方向; Liu等[14]提出了SSD(Single Shot multibox Detector)物體檢測(cè)模型,在實(shí)時(shí)性和準(zhǔn)確率都高于YOLO v1,在VOC數(shù)據(jù)集測(cè)試,mAP達(dá)到了74.3%,速度達(dá)到了46 FPS;隨后,Redmon等[15]又提出了YOLO v1升級(jí)版YOLO v2,在VOC數(shù)據(jù)集上測(cè)試,將mAP提升至78.6%,并且大幅提高了檢測(cè)速度,達(dá)到了67 FPS的實(shí)時(shí)檢測(cè)的效果;同年,基于區(qū)域的CNN目標(biāo)檢測(cè)[16]和基于耦合CNN的弱監(jiān)督學(xué)習(xí)[17]也被提出來(lái),使得標(biāo)記成本大幅降低,近幾年目標(biāo)檢測(cè)方法在速度和準(zhǔn)確率不斷取得新的突破。本文在深度學(xué)習(xí)模型YOLO v2基礎(chǔ)上,設(shè)計(jì)了自動(dòng)判別惡劣天氣模糊和良好天氣清晰圖像的算法,提出了適合小目標(biāo)檢測(cè)的多尺度算法,并針對(duì)遙感圖像中的艦船特點(diǎn)改進(jìn)YOLO網(wǎng)絡(luò)中的非極大值抑制方法,結(jié)合顯著性和自適應(yīng)分割算法進(jìn)一步提高檢測(cè)精度。實(shí)驗(yàn)表明,設(shè)計(jì)的海上艦船檢測(cè)模型能夠克服YOLO算法小目標(biāo)識(shí)別效果差的缺點(diǎn),有效對(duì)復(fù)雜海情環(huán)境下的不同類(lèi)別和尺度的艦船進(jìn)行檢測(cè)和識(shí)別。
本文采用YOLO v2為基礎(chǔ)的目標(biāo)檢測(cè)模型,首先,通過(guò)卷積和池化自動(dòng)提取目標(biāo)的本質(zhì)特征,在此基礎(chǔ)上,本文對(duì)YOLO v2模型結(jié)構(gòu)進(jìn)行了改進(jìn),通過(guò)增加多尺度檢測(cè)、改進(jìn)非極大值抑制和顯著性檢測(cè)的圖像分割等步驟,提高目標(biāo)檢測(cè)的精度,特別是小目標(biāo)檢測(cè)能力。本文海上船只目標(biāo)檢測(cè)模型的框架,由兩個(gè)階段組成,首先用YOLO v2模型自動(dòng)提取海上船只的本質(zhì)特征,然后利用這些特征進(jìn)行目標(biāo)檢測(cè)。海上船只目標(biāo)檢測(cè)的框架如圖1所示。
圖1 海上船只目標(biāo)檢測(cè)框架Fig. 1 Marine ship target detection framework
使用batch normalization穩(wěn)定模型的訓(xùn)練,最終得到了基礎(chǔ)模型Darknet-19,本文是將Darknet19-448的模型作為初始模型進(jìn)行訓(xùn)練的。檢測(cè)過(guò)程和YOLO類(lèi)似,按照如下操作訓(xùn)練:
1)將待檢測(cè)圖像縮放成416×416的大小,并將圖像分割成13×13的網(wǎng)格;
2)利用CNN進(jìn)行特征提取,然后全連接部分則用來(lái)負(fù)責(zé)預(yù)測(cè);
3)利用非極大值抑制(Non-Maximum Suppression, NMS)過(guò)濾多余的邊框bounding box,保留置信度最高的邊框。
其實(shí)現(xiàn)的基本原理是:一幅圖像被分割成13×13的網(wǎng)格,某個(gè)物體的中心如果落在此網(wǎng)格中那么此網(wǎng)格就負(fù)責(zé)預(yù)測(cè)該物體。最終輸出為一個(gè)13×13×n的張量,每一個(gè)1×1×n的維度就對(duì)應(yīng)原圖13×13個(gè)網(wǎng)格中的一個(gè),1×1×n中包含了類(lèi)別預(yù)測(cè)和bounding box坐標(biāo)預(yù)測(cè)。
實(shí)驗(yàn)采用的數(shù)據(jù)是2017年中國(guó)計(jì)算機(jī)學(xué)會(huì)大數(shù)據(jù)與計(jì)算智能大賽主辦方方一信息科技公司提供的海上船只圖像,分辨率為1 024×1 024,圖像分為清晰和非清晰兩種場(chǎng)景,共有3類(lèi)船只,分別是貨船、游艇、游輪,比賽數(shù)據(jù)庫(kù)一共有17 085張圖片,其中13 668張作為訓(xùn)練樣本,3 417張作為測(cè)試樣本,其圖片主要場(chǎng)景為云、雨、霧和干擾島嶼等,如圖2所示。
為了保證訓(xùn)練模型魯棒性,在訓(xùn)練之前首先需要將圖像篩選為清晰和不清晰兩個(gè)類(lèi)別,然后對(duì)不清晰圖像采用去霧算法得到清晰圖像??紤]到訓(xùn)練圖像數(shù)量大,人工篩選清晰和非清晰圖像工作量巨大,本文設(shè)計(jì)了一個(gè)新的分類(lèi)算法自動(dòng)區(qū)分清晰和非清晰兩個(gè)類(lèi)別的圖像,對(duì)于清晰圖像直接進(jìn)行訓(xùn)練, 而對(duì)于不清晰圖像采用去霧算法后進(jìn)行訓(xùn)練。本文結(jié)合暗通道先驗(yàn)去霧算法[18]的基本物理特征和亮度值差異以及由此產(chǎn)生的顯著性特征,對(duì)清晰和非清晰圖像進(jìn)行分類(lèi),整個(gè)圖像自動(dòng)篩選算法流程如圖3所示?;具^(guò)程如下:
1) 從圖像顯著性角度分析,非清晰圖像背景和目標(biāo)差別不明顯,表現(xiàn)出來(lái)的亮度變化不敏感,因此圖像的顯著性差異較小。從信息論角度分析,信息可分為冗余部分和變化部分,人們的視覺(jué)對(duì)變化部分更敏感,因此本文采用基于譜殘差模型的顯著性區(qū)域檢測(cè)算法[19],由于該算法針對(duì)不同顏色和模式的區(qū)域?qū)?yīng)顯著性值更高,而均勻或模糊區(qū)域的顯著性值更低,因此可以從該圖像的譜殘差模型顯著性特征出發(fā),首先將圖像分塊(本文為16),然后計(jì)算每塊的殘差值作為顯著性特征,并將殘差值作為顯著性特征組合疊加,以對(duì)清晰和非清晰圖像進(jìn)行劃分。
圖2 遙感場(chǎng)景圖Fig. 2 Remote sensing scene images
2)對(duì)于非清晰圖像,亮度值較高,像素區(qū)域中亮度值相差不大,因此,整體上圖像相關(guān)性較高;而清晰圖像,像素區(qū)域亮度值差異更大,其相關(guān)性較低。因此,可以將相關(guān)系數(shù)的值作為分類(lèi)器區(qū)分兩類(lèi)圖像的一個(gè)特征,其過(guò)程是將圖像分為若干塊(本文為16),對(duì)這些塊求其協(xié)方差矩陣,計(jì)算各塊之間的相關(guān)性特征,然后取相關(guān)性最小值作為圖像的相關(guān)系數(shù),作為相關(guān)性特征。
3)根據(jù)暗通道先驗(yàn)理論:非清晰圖像亮度值普遍較高;而清晰圖像某一些像素區(qū)域總會(huì)有至少一個(gè)顏色通道具有很低的值,即存在某些區(qū)域,該區(qū)域的亮度值很小,接近于0。因此通過(guò)計(jì)算估計(jì)的圖像的透射率,作為分類(lèi)器區(qū)分兩類(lèi)圖像的一個(gè)特征,其公式為:
(1)
4)對(duì)于非清晰圖像,其亮度值較高,而清晰圖像亮度值較低,故可以將圖像的亮度值作為篩選的特征。采用RGB圖像對(duì)應(yīng)的YCbCr色彩空間,其中Y為顏色的亮度成分,而Cb和Cr則是藍(lán)色和紅色的濃度偏移量成分。將Y計(jì)算分離出來(lái),由于非清晰的圖像亮度值較大,反映到數(shù)據(jù)上就是Y值偏大,而清晰圖片由于背景是海,所以其亮度值較小,直觀感受就是圖片偏暗,反映到數(shù)據(jù)上就是Y值偏小。因此,可以把圖像在色彩空間YCbCr中的Y提取出來(lái)作為分類(lèi)的特征。
圖3 圖像自動(dòng)篩選算法流程Fig. 3 Flow of automatic image filtering algorithm
YOLO v2在檢測(cè)目標(biāo)時(shí)將原始圖像先劃分為13×13的網(wǎng)格,能實(shí)現(xiàn)大尺寸的目標(biāo)檢測(cè),但是每個(gè)網(wǎng)格有目標(biāo)的兩個(gè)候選框,但在本實(shí)驗(yàn)中即使是劃分了13×13網(wǎng)格也不能保證檢測(cè)完全,因?yàn)閷?shí)驗(yàn)中有很多極小的船只,而原圖分辨率為1 024×1 024,劃分為網(wǎng)格后這些小船只依然很小,容易漏檢。本文采用多尺度對(duì)不同尺大小的船只目標(biāo)檢測(cè),其基本思想是:首先分別通過(guò)不同尺度大小的窗口在遙感圖像滑動(dòng)假設(shè)圖像大小為H×W,尺度大小為S×S,則令窗口步長(zhǎng)為2S/3,記作stride。當(dāng)窗口滑出圖像之外時(shí)將窗口的外邊界與圖像的外邊界重合,以防止圖像信息的漏檢或冗余檢測(cè),如圖4所示。
圖4 窗口滑動(dòng)示意圖Fig. 4 Schematic diagram of window sliding
此時(shí)窗口數(shù)目計(jì)算如下:
(2)
(3)
其中:row為窗口垂直滑動(dòng)的個(gè)數(shù),col為窗口水平滑動(dòng)的個(gè)數(shù)。最終得到的總窗口數(shù)為row×col。
將不同的尺度的所有候選框匯總,按照IOU將概率低的候選框去掉,保留概率最高的候選框。多個(gè)尺度的檢測(cè)信息共享一個(gè)坐標(biāo)系,最后會(huì)去掉大量的無(wú)效框,保證檢測(cè)結(jié)果的準(zhǔn)確性。具體算法如下:
輸入 圖片大小H×W,尺度大小S×S,步長(zhǎng)stride;
輸出 滑窗后所有候選框集合。
1)
初始化dis_ver=0,dis_hor=0,flag_ver=0,flag_hor=0
2)
WHILE 窗口垂直滑動(dòng)距離dis_ver 3) dis_hor=0,flag_hor=0 4) WHILE 窗口水平滑動(dòng)距離dis_hor 5) 將窗口得到的候選框保存 6) IFflag_hor=1 DO 7) BREAK 8) dis_hor=dis_hor+stride 9) IFdis_hor+S≥WDO 10) 將窗口滑動(dòng)到W-S,dis_hor=W-S 11) flag_hor=1 12) IFflag_ver=1 DO 13) BREAK 14) dis_hor=dis_hor+stride 15) IFdis_ver+S>WDO 16) 將窗口滑動(dòng)到W-S,dis_ver=W-S 17) flag_ver=1 18) return 候選框集合 在YOLO v2中默認(rèn)存在多物體交疊的現(xiàn)象,傳統(tǒng)的非極大值抑制(NMS)是針對(duì)一個(gè)類(lèi)別,因此NMS會(huì)對(duì)屬于同一類(lèi)的目標(biāo)進(jìn)行抑制,而屬于不同類(lèi)的目標(biāo)則不抑制;而本文研究對(duì)象是遙感影像中海上船只識(shí)別,船只分布較為稀疏,不存在多條船只交疊現(xiàn)象,一個(gè)檢測(cè)得到的邊框值只對(duì)應(yīng)一個(gè)類(lèi)別,這樣就不會(huì)出現(xiàn)同一個(gè)框檢測(cè)對(duì)應(yīng)兩個(gè)不同類(lèi)別的物體而造成的誤檢。因此,實(shí)驗(yàn)可以對(duì)所有檢測(cè)到的不同類(lèi)別的船只一并進(jìn)行NMS,而無(wú)需對(duì)每個(gè)類(lèi)別分別進(jìn)行非極大值抑制,進(jìn)一步提高海上船只目標(biāo)檢測(cè)的精度。 在對(duì)圖像目標(biāo)檢測(cè)后仍然會(huì)有小的誤差,如圖5所示,該圖是從1 024×1 024圖像上截取的部分區(qū)域。可以看出檢測(cè)結(jié)果和真實(shí)標(biāo)記位置還有一定的誤差,反映到數(shù)據(jù)上就是檢測(cè)區(qū)域和真實(shí)區(qū)域重疊率不高,即IOU偏小。為了使目標(biāo)檢測(cè)區(qū)域更精準(zhǔn),考慮到目標(biāo)區(qū)域和其周邊區(qū)域存在的差異程度較大,表現(xiàn)出目標(biāo)顯著性特征明顯,因此,本文引入圖像顯著性區(qū)域檢測(cè)方法。顧及到圖像目標(biāo)的空間信息,本文采用基于上下文感知顯著性檢測(cè)算法[20]將已檢測(cè)到的目標(biāo)區(qū)域提取對(duì)應(yīng)顯著性特征圖,在此基礎(chǔ)上采用自適應(yīng)閾值的圖像分割方法,可以將目標(biāo)定位得更精準(zhǔn),進(jìn)一步提高準(zhǔn)確率。 圖5 圖像初步檢測(cè)結(jié)果Fig. 5 Preliminary image detection results 本文圖像分割分4步處理: 1)采用視覺(jué)顯著性算法對(duì)目標(biāo)圖像處理,計(jì)算顯著性特征,提取目標(biāo)區(qū)域,得到顯著圖; 2)使用拉普拉斯算子對(duì)顯著圖像進(jìn)行銳化,并對(duì)圖像進(jìn)行閉運(yùn)算,更有利于前景和背景分離,使輪廓更清晰; 3)采用OTSU自適應(yīng)閾值分割算法[21],并將所得圖像二值化; 4)計(jì)算輪廓的邊界,通過(guò)對(duì)像素值的遍歷來(lái)找到能完全包含目標(biāo)的最小矩形,得出的最小矩形即為檢測(cè)圖像修正后的輪廓。 如圖6所示:圖6(a)為目標(biāo)檢測(cè)得到的示意圖,可以看到邊界框過(guò)大;為了提高檢測(cè)精度,需要進(jìn)一步縮小邊界框范圍,圖6(b)是經(jīng)過(guò)顯著性算法處理后得到的結(jié)果,可以看出貨船的大致輪廓可以得到,但是邊界變得模糊不清;這個(gè)對(duì)后續(xù)計(jì)算會(huì)造成一定的誤差,因此在顯著性算法處理的結(jié)果上進(jìn)行拉普拉斯算子銳化處理,然后對(duì)圖像進(jìn)行閉運(yùn)算,得到二值圖像;最后通過(guò)遍歷圖像素得到輪廓的邊界,最終效果如圖6(d)所示,邊界框?yàn)樽罱K目標(biāo)框。 圖6 圖像顯著性處理效果對(duì)比Fig. 6 Effect of image saliency processing 本實(shí)驗(yàn)采用的是64位Ubuntu操作系統(tǒng),硬件配置為 Intel Xeon E5-2620 v2 處理器,GPU型號(hào)為NVIDIA GeForce GTX 960,顯存為6 GB,在darknet平臺(tái)上使用YOLO v2進(jìn)行訓(xùn)練,訓(xùn)練樣本13 668張,測(cè)試樣本3 417張。 實(shí)驗(yàn)首先在訓(xùn)練樣本中采用自動(dòng)篩選算法,得到9 513張清晰圖像和4 155張非清晰圖像,對(duì)非清晰圖像,采用暗通道去霧算法得到清晰圖像,然后對(duì)所有圖片進(jìn)行訓(xùn)練,由于訓(xùn)練的圖片中含有各種氣象和環(huán)境場(chǎng)景的圖片,根據(jù)CNN的特性,光照、海面環(huán)境等重要影響因素會(huì)被模型自動(dòng)學(xué)習(xí),另外,由于本文訓(xùn)練過(guò)程中包含了批量歸一化(Batch Normalization)操作,因此能大幅提高模型的泛化能力,從而有效克服不同光照強(qiáng)度等影響。當(dāng)?shù)螖?shù)為8 500時(shí),模型的平均損失值loss基本穩(wěn)定在0.2附近,圖7顯示的是訓(xùn)練過(guò)程中迭代6 000~8 500次的平均損失曲線圖,實(shí)驗(yàn)發(fā)現(xiàn),訓(xùn)練迭代8 500次后隨著迭代次數(shù)增加,平均損失函數(shù)值基本不變,表明訓(xùn)練過(guò)程收斂。 召回率-準(zhǔn)確率曲線衡量一個(gè)分類(lèi)器的性能指標(biāo),以貨船為例,測(cè)試集圖像總共有貨船K個(gè),而訓(xùn)練好的模型檢測(cè)到的貨船目標(biāo)數(shù)為N個(gè),其中確實(shí)為貨船的有M個(gè),則召回率和準(zhǔn)確率定義如下: 召回率:recall=M/K 準(zhǔn)確率:precision=M/N 圖8~10是普通非極大值和改進(jìn)的非極大值抑制情況下召回率與準(zhǔn)確率的關(guān)系曲線的對(duì)比,其中AP(Average Precision)表示目標(biāo)檢測(cè)的平均準(zhǔn)確率。 圖7 訓(xùn)練6 000~8 500次平均損失曲線Fig. 7 Average loss curve for training from 6 000 to 8 500 times 圖8 貨船召回率-準(zhǔn)確率曲線對(duì)比Fig. 8 Comparison of recall-precision curve of cargo ship 實(shí)驗(yàn)設(shè)定IOU為0.7,采用4個(gè)尺度檢測(cè)船只,分別是300、500、700和1 024。通過(guò)圖8~10比較可以看出,隨著尺度的增加,船只檢測(cè)上準(zhǔn)確率和召回率所圍成的面積是依次提高,反映到數(shù)據(jù)上為AP逐漸提高,當(dāng)采用3個(gè)尺度(500、700和1 024)檢測(cè)時(shí),游輪和貨船的檢測(cè)效果會(huì)逐步提升,這表明在一定范圍內(nèi),隨著尺度的縮小,目標(biāo)檢測(cè)的精度會(huì)進(jìn)一步提高,但并不是越多越好,對(duì)300尺度來(lái)說(shuō),游艇這樣的小目標(biāo)檢測(cè),有更好的效果。對(duì)貨船和游輪而言,由于目標(biāo)本身比較大,因此尺度設(shè)置小對(duì)檢測(cè)效果的提升沒(méi)那么顯著,但對(duì)游艇而言,由于其尺寸相對(duì)較小,因此增加300這樣的小尺度,能檢測(cè)到目標(biāo)較小的游艇,因而游艇檢測(cè)效果提升幅度相對(duì)更高。 從YOLO v2結(jié)構(gòu)上分析,原因是游艇的尺寸較小,而YOLO對(duì)大目標(biāo)的檢測(cè)更為精確,因此大目標(biāo)會(huì)將與之重疊率較高但置信度不高的小游艇抑制掉,這些被抑制掉的游艇大都不是游艇,反映到數(shù)據(jù)上就是準(zhǔn)確率提高了。貨船、游輪和游艇這三類(lèi)目標(biāo)在不同尺度下檢測(cè)的mAP如圖11所示,可以看到,隨著尺度增加,總的平均精度mAP隨著尺度增加均有不同程度的增長(zhǎng),同時(shí)表明,改進(jìn)的非極大值抑制后mAP相對(duì)于原始非極大值抑制精度也有提高。 圖9 游輪召回率-準(zhǔn)確率曲線對(duì)比Fig. 9 Comparision of recall-precision curve of cruise ship 圖10 游艇召回率-準(zhǔn)確率曲線對(duì)比Fig. 10 Comparision of recall-precision curve of yacht 圖11 綜合評(píng)價(jià)曲線mAPFig. 11 Comprehensive evaluation curve of mAP 圖12為3種算法的檢測(cè)效果對(duì)比圖,圖12(b)與圖12(a)相比,雖然多尺度檢測(cè)會(huì)導(dǎo)致重框,但是相比之前的單一尺度檢測(cè),增加了多尺度檢測(cè)后其框的準(zhǔn)確性提高了,圖12(a)中的框只框中了一部分,漏掉了圖像頂部的小目標(biāo),但是在圖12(b)中框被拉長(zhǎng),從而將整只貨船框中,此外圖12(b)比圖12(a)多檢測(cè)出了一只游艇,圖12(c)則消除了多余的重框,并且保證概率大的,即框選更準(zhǔn)確的框得以保留下來(lái)。 圖12 不同算法檢測(cè)效果對(duì)比Fig. 12 Comparison of detection results by different algorithms 如圖13所示為經(jīng)過(guò)顯著性圖像分割后得到的結(jié)果對(duì)比。 圖13 圖像分割前后邊界對(duì)比Fig. 13 Boundary comparison before and after image segmentation 由圖13可以看出,經(jīng)過(guò)顯著性檢測(cè)結(jié)合圖像分割后,其框的準(zhǔn)確性得到了明顯提高。 為了說(shuō)明本文方法的有效性,實(shí)驗(yàn)還與其他一些常用的深度學(xué)習(xí)檢測(cè)算法對(duì)比,在本實(shí)驗(yàn)條件下,約定IOU>0.7為目標(biāo)檢測(cè)正確,結(jié)果如表1所示,采用基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法Fast R-CNN、Faster R-CNN、YOLO v1和YOLO v2作實(shí)驗(yàn)對(duì)比,mAP和FPS作為性能指標(biāo)比較參數(shù)。 表1 不同檢測(cè)算法對(duì)比Tab. 1 Comparison of different detection algorithms 以上實(shí)驗(yàn)中YOLO采用的初始模型均為darknet19模型,F(xiàn)aster R-CNN初始模型為ResNet50。從表1可以看出,用去模糊算法處理圖片后進(jìn)行訓(xùn)練對(duì)YOLO和Faster R-CNN的模型精度均有較大提高,而顯著性對(duì)YOLO算法效果提升相比Faster R-CNN更為明顯,分析原因?yàn)镕aster R-CNN對(duì)目標(biāo)檢測(cè)已經(jīng)較為精準(zhǔn)了,再進(jìn)行修正其結(jié)果提升空間不大,而YOLO v2目標(biāo)框沒(méi)有Faster R-CNN那么精細(xì),因此通過(guò)顯著性修正的提升空間更大。最重要的方法是多尺度檢測(cè),通過(guò)多尺度滑窗可以大幅提高YOLO v2算法檢測(cè)精度,分析原因?yàn)閅OLO v2算法最大的缺陷在于小目標(biāo)檢測(cè)效果較差,而采用多尺度滑窗檢測(cè)則正好彌補(bǔ)了這個(gè)缺陷??傊?,雖然改進(jìn)的檢測(cè)算法速度有所減緩,但是檢測(cè)精度大幅提高,簡(jiǎn)而言之,本算法通過(guò)犧牲了小部分的速度來(lái)大幅提高檢測(cè)的精度,比原始的YOLO v2檢測(cè)算法能夠更加有效地對(duì)復(fù)雜海情環(huán)境下的不同類(lèi)別的船艦進(jìn)行識(shí)別。 本文以YOLO v2網(wǎng)絡(luò)為基礎(chǔ),建立針對(duì)復(fù)雜海情和氣象條件下對(duì)船只檢測(cè)的端到端的快速檢測(cè)網(wǎng)絡(luò),為了提高船只特別是小船只的檢測(cè)精度,本文通過(guò)改進(jìn)的非極大值抑制、多尺度檢測(cè)和圖像分割等方法來(lái)改進(jìn)檢測(cè)效果。實(shí)驗(yàn)結(jié)果表明,在復(fù)雜海情船只檢測(cè)中將mAP從72.7%提高到84.5%,說(shuō)明了本文提出的目標(biāo)檢測(cè)方法有效性;但是由于遙感影像中背景復(fù)雜,類(lèi)別之間差異不明顯,仍然存在部分誤檢現(xiàn)象,今后可在檢測(cè)網(wǎng)絡(luò)的基礎(chǔ)上建立識(shí)別網(wǎng)絡(luò),對(duì)誤檢船只進(jìn)行二次判斷,進(jìn)一步提高目標(biāo)檢測(cè)精度;另外,隨著YOLO版本升級(jí),將繼續(xù)深入研究YOLO v3[22]對(duì)海上船只檢測(cè)。2.3 改進(jìn)的非極大值抑制算法
2.4 結(jié)合顯著性檢測(cè)的圖像分割方法
3 實(shí)驗(yàn)結(jié)果分析
3.1 數(shù)據(jù)訓(xùn)練
3.2 實(shí)驗(yàn)結(jié)果分析
3.3 效果對(duì)比
3.4 不同方法對(duì)比實(shí)驗(yàn)
4 結(jié)語(yǔ)