岳 瞳,楊 宇
(武警工程大學(xué),陜西 西安 710016)
大數(shù)據(jù)時(shí)代,基于海量的數(shù)據(jù)源對(duì)海上艦船目標(biāo)進(jìn)行智能檢測(cè)與識(shí)別是一個(gè)非常重要的任務(wù),無論是在民用還是軍用上,都有著很大的意義。對(duì)海上目標(biāo)進(jìn)行實(shí)時(shí)精準(zhǔn)的檢測(cè)與識(shí)別,在民用上可以輔助港口船舶管理、海上秩序維護(hù),在軍用上可以輔助戰(zhàn)場(chǎng)態(tài)勢(shì)感知、目標(biāo)智能分析。目前,按數(shù)據(jù)源成像技術(shù)來分,主要有基于合成孔徑雷達(dá)(SAR)成像、可見光成像、紅外成像的艦船目標(biāo)檢測(cè)與識(shí)別。其中相比于SAR圖像、紅外圖像而言,可見光圖像噪聲低,不需要復(fù)雜的預(yù)處理;分辨率高,能夠保留更多細(xì)節(jié)特征。傳統(tǒng)的艦船檢測(cè)與識(shí)別方法中的特征表示主要依賴于尺度不變特征變換(SIFT)[1]、加速穩(wěn)定特征(SURF)[2]、方向梯度直方圖(HOG)[3]等人工特征,準(zhǔn)確性和泛化性都不高。而深度卷積神經(jīng)網(wǎng)絡(luò)因其全面、有效的特征表示輸出已逐漸取代早期圖像智能檢測(cè)與識(shí)別中的手工特征提取手段,自從2006年Hinton提出深度學(xué)習(xí)的概念后[4],深度卷積神經(jīng)網(wǎng)絡(luò)呈現(xiàn)井噴式發(fā)展的態(tài)勢(shì),其在目標(biāo)檢測(cè)與分類識(shí)別中取得了優(yōu)異表現(xiàn),受到了學(xué)術(shù)界的廣泛關(guān)注。本文主要對(duì)可見光圖像的艦船目標(biāo)檢測(cè)與識(shí)別中深度學(xué)習(xí)方法的運(yùn)用研究進(jìn)行概述,探討應(yīng)用效果與存在問題,展望未來研究方向。
卷積神經(jīng)網(wǎng)絡(luò)的概念于上個(gè)世紀(jì)就開始出現(xiàn)與發(fā)展,但由于學(xué)習(xí)樣本與計(jì)算能力的受限并未得到廣泛關(guān)注。進(jìn)入21世紀(jì)以后,大數(shù)據(jù)時(shí)代的到來、圖像處理硬件的改進(jìn)與計(jì)算能力的提高使得對(duì)更加復(fù)雜的卷積神經(jīng)網(wǎng)絡(luò)的處理成為可能。以Hinton博士的深度學(xué)習(xí)思想為基礎(chǔ),2012年Alex等人采用線性整流函數(shù)(RELU)構(gòu)造了擁有5層卷積層和3層全連接層的AlexNet[5],創(chuàng)新采用圖形處理單元(GPU)進(jìn)行訓(xùn)練,在ImageNet競(jìng)賽上將識(shí)別錯(cuò)誤率降低到15.3%;2014年牛津大學(xué)的視覺幾何組利用較小的卷積核與較深的網(wǎng)絡(luò)深度構(gòu)筑了19層的VggNet[6],在 2014年的Imagenet大型視覺識(shí)別挑戰(zhàn)(ILSVRC)競(jìng)賽中獲得了優(yōu)異的成績(jī),探討了網(wǎng)絡(luò)深度對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型的影響;同年的ILSVRC競(jìng)賽中,谷歌研究院提出的GoogleNet[7]將物體分類錯(cuò)誤率刷新降低到了6.67%,采用了全新的Inception結(jié)構(gòu),在不增加計(jì)算負(fù)載的情況下,增加了網(wǎng)絡(luò)的寬度和深度,并且以不同的卷積核增強(qiáng)了特征獲取能力。基于網(wǎng)絡(luò)深度對(duì)學(xué)習(xí)表達(dá)能力更強(qiáng)的特征至關(guān)重要的思想,2015年ILSVRC競(jìng)賽中,微軟研究院的He等人提出了深度殘差網(wǎng)絡(luò)ResNet[8],并以3.57%的識(shí)別錯(cuò)誤率一舉奪得冠軍。ResNet中的shortcut模塊在前向過程中幫助網(wǎng)絡(luò)中的特征進(jìn)行恒等映射,在反向過程中幫助傳導(dǎo)梯度,使其152層深的模型得以成功訓(xùn)練。Huang和Liu等人在2017年提出DenseNet[9],采用特征重用思想,建立了不同層間的連接,進(jìn)一步解決了梯度消失問題,相比于ResNet在提升了效果的同時(shí)減少了參數(shù)量,被評(píng)為2017年CVPR最佳論文。
目標(biāo)檢測(cè)任務(wù)要求對(duì)原始圖像進(jìn)行對(duì)象級(jí)區(qū)域定位,而目標(biāo)識(shí)別任務(wù)要求對(duì)對(duì)象級(jí)區(qū)域進(jìn)行分類識(shí)別。針對(duì)這兩個(gè)任務(wù)衍生的深度學(xué)習(xí)框架可分為一階段(One-stage)和二階段(Two-stage)算法。如圖1所示,前者把背景劃分進(jìn)對(duì)象類別中,將檢測(cè)與識(shí)別任務(wù)統(tǒng)一在一步完成,而后者則先完成前景檢測(cè)任務(wù)(二分類),再對(duì)前景區(qū)域映射到原圖中的區(qū)域提取特征訓(xùn)練另外一個(gè)網(wǎng)絡(luò),以獲得更精確的多分類識(shí)別結(jié)果。研究表明,由卷積神經(jīng)網(wǎng)絡(luò)提取出的特征具有強(qiáng)大的泛化能力。在此基礎(chǔ)上,涌現(xiàn)了一批優(yōu)秀的目標(biāo)檢測(cè)與識(shí)別算法模型。
圖1 二階段與一階段算法框架比較
1.2.1 二階段算法
2014年,Girshick等人提出了R-卷積神經(jīng)網(wǎng)絡(luò)(CNN)[10],對(duì)SS算法生成的候選區(qū)域進(jìn)行特征提取,然后用支持向量機(jī)(SVM)進(jìn)行類別的識(shí)別,將平均精確率均值(mAP)提升到 53.3%;2015年,He等人提出空間金字塔池化(SPP)-Net[11],Girshick等人提出Fast R-CNN[12],通過先提取整張?zhí)卣鲌D,再生成候選區(qū)域的方法提升了目標(biāo)檢測(cè)的速度。2017年,何愷明、Girshick等人為改進(jìn)Fast R-CNN,聯(lián)合提出了Faster R-CNN[13],采用區(qū)域建議網(wǎng)絡(luò)(RPN)代替SS進(jìn)行候選區(qū)域生成,將mAP值提升到75.9%。
1.2.2 一階段算法
2015年,Redmon等人提出舍棄區(qū)域生成網(wǎng)絡(luò),僅利用一個(gè)損失函數(shù)的端到端訓(xùn)練模型Yolo[14],極大地提高了檢測(cè)速度,并在此基礎(chǔ)上為改善模型的檢測(cè)準(zhǔn)確率相繼提出了Yolo9000[15]與YoloV3[16],以出色的檢測(cè)效率聞名,為目標(biāo)檢測(cè)的工程運(yùn)用做出了很大貢獻(xiàn)。2016年,Liu等人提出了SSD[17]模型,改進(jìn)目標(biāo)框的預(yù)測(cè)規(guī)則,并利用多尺度的特征圖改善對(duì)小尺度物體的檢測(cè),成功得到了比Yolo更快、同時(shí)也更準(zhǔn)確的檢測(cè)效果。
可見光圖像是指光電探測(cè)傳感器工作波段限于可見光波段范圍間的成像。其成像技術(shù)成熟、平臺(tái)豐富,活躍于各類目標(biāo)檢測(cè)與識(shí)別實(shí)驗(yàn)中。與SAR圖像、紅外圖像中的艦船目標(biāo)相比,可見光圖像中的艦船目標(biāo)分辨率高,在特征提取中有著明顯優(yōu)勢(shì)。在迄今為止的研究中,已涌現(xiàn)了一批較為標(biāo)準(zhǔn)與完善的可見光圖像艦船數(shù)據(jù)集,本節(jié)選取2個(gè)比較適合使用的數(shù)據(jù)集進(jìn)行介紹。
Seaships[18]數(shù)據(jù)集來自可見光高分辨率監(jiān)控圖像,擁有6類共31 455張圖片,且每一類中都包含了不同的場(chǎng)景。每張圖片都進(jìn)行了人工標(biāo)注,同時(shí)包括邊界框與類別標(biāo)簽,以PASCAL VOC2007的格式保存了注釋文件。作者用該數(shù)據(jù)集對(duì)Yolo,SSD,F(xiàn)aster-R-CNN等模型進(jìn)行了試訓(xùn),在實(shí)時(shí)監(jiān)控場(chǎng)景下取得了良好的效果。部分樣本如圖2所示。
圖2 Seaships[18]部分類別圖片
MARVEL[19]是一個(gè)大型船舶數(shù)據(jù)集,主要用于艦船目標(biāo)分類識(shí)別。作者通過對(duì)用戶上傳的海量圖像數(shù)據(jù)進(jìn)行分析,根據(jù)可分性和意義性整理出了26類共1 190 169張圖像。數(shù)據(jù)集圖片質(zhì)量高,數(shù)量大,缺點(diǎn)是各類圖片數(shù)量不均勻。部分樣本如圖3所示。
圖3 Marvel[19]部分類別圖片
艦船目標(biāo)的檢測(cè)與識(shí)別本質(zhì)上是物體檢測(cè)與識(shí)別的一個(gè)子任務(wù)。將艦船作為前景目標(biāo)進(jìn)行檢測(cè)與識(shí)別,與常規(guī)的物體檢測(cè)與識(shí)別一樣面臨著遮擋、復(fù)雜背景、多姿態(tài)的問題,對(duì)一般的模型具有一定的可適用性;然而,由于艦船數(shù)據(jù)集的特殊性、艦船目標(biāo)的結(jié)構(gòu)復(fù)雜性與特征精細(xì)性,為了實(shí)現(xiàn)高效率、高準(zhǔn)確率的艦船目標(biāo)的檢測(cè)與識(shí)別,對(duì)更好的方法也存在著很大需求。因此,研究人員針對(duì)模型遷移、候選區(qū)域生成、特征提取等方面進(jìn)行了針對(duì)性的研究,概覽如圖4所示。
圖4 基于深度學(xué)習(xí)的艦船目標(biāo)檢測(cè)與識(shí)別方法概覽
考慮到深度卷積特征強(qiáng)大的泛化能力,部分研究人員們嘗試直接利用深度學(xué)習(xí)目標(biāo)檢測(cè)與識(shí)別模型進(jìn)行艦船目標(biāo)檢測(cè)與識(shí)別。文獻(xiàn)[20]中,作者用自標(biāo)注的光學(xué)遙感圖像數(shù)據(jù)集對(duì)Faster R-CNN進(jìn)行從頭訓(xùn)練,并與傳統(tǒng)的HOG+SVM,SIFT+SVM等方法進(jìn)行比較,發(fā)現(xiàn)Faster R-CNN具有突出的性能優(yōu)勢(shì);文獻(xiàn)[21]中,作者用20 000張不同艦船的圖像分別對(duì)Faster R-CNN與YOLO進(jìn)行從頭訓(xùn)練,發(fā)現(xiàn)Faster R-CNN的準(zhǔn)確率與召回率高,YOLO的運(yùn)行效率較高。
同時(shí),也有一部分研究人員考慮到自制艦船數(shù)據(jù)集存在數(shù)據(jù)量不夠足、類別分布不夠均勻的問題,將共享參數(shù)的遷移學(xué)習(xí)方法應(yīng)用到艦船目標(biāo)檢測(cè)與分類識(shí)別上。共享參數(shù)的遷移學(xué)習(xí)一般用于深度學(xué)習(xí)。在源數(shù)據(jù)與目標(biāo)數(shù)據(jù)域均有標(biāo)注,且目標(biāo)數(shù)據(jù)集達(dá)不到要求、源數(shù)據(jù)集數(shù)據(jù)量足夠的情況下,利用大數(shù)據(jù)集對(duì)模型進(jìn)行預(yù)訓(xùn)練,得到初始化的參數(shù)后,再用特定目標(biāo)的小數(shù)據(jù)集對(duì)預(yù)訓(xùn)練好的模型進(jìn)行微調(diào)。文獻(xiàn)[22]首先用ImageNet數(shù)據(jù)集預(yù)訓(xùn)練好多個(gè)版本的Inceptionnet和Resnet,再基于MARVEL數(shù)據(jù)集進(jìn)行微調(diào),將檢測(cè)結(jié)果進(jìn)行對(duì)比,在Inception V3上達(dá)到了最高78.73%的分類正確率;文獻(xiàn)[23]中,作者嘗試用在ImageNet上訓(xùn)練好的Faster R-CNN模型對(duì)自制的七類別小型數(shù)據(jù)集進(jìn)行遷移學(xué)習(xí),首先單獨(dú)對(duì)RPN網(wǎng)絡(luò)進(jìn)行微調(diào),得到微調(diào)后的模型后,用其輸出對(duì)后面的全連接分類層進(jìn)行訓(xùn)練,更新整個(gè)網(wǎng)絡(luò)的參數(shù);接著再進(jìn)行整體網(wǎng)絡(luò)微調(diào),凍結(jié)RPN網(wǎng)絡(luò)和共享卷積層,對(duì)全連接分類層進(jìn)行訓(xùn)練;作者還對(duì)在ImageNet上訓(xùn)練好的SSD模型進(jìn)行微調(diào)訓(xùn)練,并對(duì)兩者進(jìn)行了比較,發(fā)現(xiàn)SSD對(duì)小艦船目標(biāo)的檢測(cè)精度較低,但是整體速度較快;FasterR-CNN對(duì)小艦船目標(biāo)檢測(cè)精度較高,但是整體速度偏慢。上述總結(jié)如表1所示。
表1 不同卷積神經(jīng)網(wǎng)絡(luò)在MARVEL數(shù)據(jù)集上的分類實(shí)驗(yàn)結(jié)果[22]
針對(duì)自然常見目標(biāo)的區(qū)域生成方法對(duì)候選框的設(shè)計(jì)思想往往較為簡(jiǎn)單寬泛,多從經(jīng)驗(yàn)角度選擇普適的比例,不具有針對(duì)性。如Yolo、RPN網(wǎng)絡(luò)中的錨點(diǎn)框默認(rèn)均采用整數(shù)的縱橫比。而艦船目標(biāo)特殊的結(jié)構(gòu)意味著:如果不能很好地確定候選框尺寸,不僅會(huì)導(dǎo)致較多的無用背景特征包含進(jìn)特征圖里,而且意味著對(duì)一些二維輪廓信息的丟失,造成識(shí)別準(zhǔn)確率的下降。對(duì)此,一部分學(xué)者重點(diǎn)研究尺寸自適應(yīng)的檢測(cè)框。文獻(xiàn)[24]在SSD網(wǎng)絡(luò)的錨點(diǎn)設(shè)置中采用k-means聚類,將樣本中標(biāo)注框的縱橫比作為輸入,聚類得到相適應(yīng)的比例;文獻(xiàn)[25]對(duì)RPN網(wǎng)絡(luò)提出一種自適應(yīng)的錨點(diǎn)機(jī)制,將標(biāo)注信息的縱橫比歸一化后作為輸入,使用優(yōu)化后的k-means++算法進(jìn)行聚類。k-means++提出在初始化時(shí)指定簇中心,避免了隨機(jī)選擇中心點(diǎn)對(duì)聚類結(jié)果與收斂速度的影響,增強(qiáng)了縱橫比聚類結(jié)果的魯棒性。文獻(xiàn)[26]針對(duì)循環(huán)注意力(RA)-CNN中注意力生成網(wǎng)絡(luò)(APN)提出了多特征(MF)-APN網(wǎng)絡(luò)。該網(wǎng)絡(luò)目標(biāo)是用縱橫比適當(dāng)?shù)木匦蜗闰?yàn)框取代原網(wǎng)絡(luò)中的正方形先驗(yàn)框。作者通過設(shè)計(jì)可導(dǎo)的截取函數(shù),以面積與尺度為約束,計(jì)算出符合要求的矩形框縱橫比。之后按照實(shí)際需求選取合適的先驗(yàn)框個(gè)數(shù),以此來框取船舶排煙口、雷達(dá)天線等特殊區(qū)域,在識(shí)別與定位中得到了更好的魯棒性。
另外,常見目標(biāo)檢測(cè)中的候選框多選擇水平垂直矩形框,但是由于艦船目標(biāo)在圖像中具有方向性強(qiáng)的特點(diǎn),使得此種候選框?qū)Ω劭诖a頭等船舶聚集場(chǎng)景中的個(gè)別定位很不精確,因此對(duì)候選框形狀的設(shè)計(jì)也很重要。同時(shí),合適的候選框形狀也有利于去除冗余背景信息。對(duì)此,一部分研究人員將眼光投向了旋轉(zhuǎn)檢測(cè)框。文獻(xiàn)[27]提出旋轉(zhuǎn)區(qū)域(RR)-CNN,將旋轉(zhuǎn)檢測(cè)框的方法應(yīng)用在密集船舶的定位檢測(cè)上,應(yīng)用了旋轉(zhuǎn)感興趣區(qū)域池化方法、旋轉(zhuǎn)包圍框回歸方法、類間非極大值抑制,在HRSC2016數(shù)據(jù)集上取得了良好的檢測(cè)效果;文獻(xiàn)[28]將Ma等人在文字識(shí)別領(lǐng)域中提出的旋轉(zhuǎn)區(qū)域建議網(wǎng)絡(luò)(RRPN)[29]模型應(yīng)用在光學(xué)遙感圖像中的艦船檢測(cè)中,并針對(duì)其中的旋轉(zhuǎn)感興趣區(qū)域池化做了改進(jìn)。作者考慮到環(huán)境信息不全可能導(dǎo)致特征過于特殊,所以在特征池化時(shí)引入了適當(dāng)?shù)沫h(huán)境信息,提出上下文旋轉(zhuǎn)感興趣區(qū)域池化,同樣在HRSC2016數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),對(duì)比RR-CNN提高了5個(gè)百分點(diǎn)的mAP。文獻(xiàn)[30]在SSD中使用旋轉(zhuǎn)錨點(diǎn),并在此基礎(chǔ)上創(chuàng)新提出了Related-交并比(IOU)方法,在IOU的計(jì)算中引入角度信息,在訓(xùn)練中有效剔除角度相差較大的錨點(diǎn),對(duì)自制數(shù)據(jù)集中多方向與并靠的船舶均做到了較精確的定位。上述一系列研究表明,旋轉(zhuǎn)檢測(cè)框的應(yīng)用對(duì)密集靠泊與方向性強(qiáng)的艦船目標(biāo)有較好的檢測(cè)效果。
如表2所示的比較表明,在海面稀疏、港口稀疏、港口密集、復(fù)雜背景等場(chǎng)景下采用旋轉(zhuǎn)檢測(cè)框的方法進(jìn)行檢測(cè),可以得到較低的漏檢率與精確的定位結(jié)果,展現(xiàn)了此方法的優(yōu)越性。
表2 不同模型在HRSC數(shù)據(jù)集上的檢測(cè)實(shí)驗(yàn)結(jié)果[28]
相比于人工設(shè)計(jì)的船舶特征,深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)艦船圖像提取的特征已具備了更強(qiáng)的泛化性和更抽象的細(xì)節(jié)特征。但是基于艦船自身的復(fù)雜結(jié)構(gòu),在精細(xì)化與復(fù)雜度較高的任務(wù)里,為了得到更高的識(shí)別準(zhǔn)確率,對(duì)特征的進(jìn)一步優(yōu)化仍是必要的。學(xué)者們考慮對(duì)特征提取網(wǎng)絡(luò)進(jìn)行不同形式的擴(kuò)展與改進(jìn),探討增強(qiáng)型深度卷積特征的分類表現(xiàn),通過各種方法研究了特征優(yōu)化的可能途徑。文獻(xiàn)[32]、文獻(xiàn)[33]基于殘差網(wǎng)絡(luò)的思想對(duì)Yolo網(wǎng)絡(luò)進(jìn)行改進(jìn),加入殘差模塊后將低層的特征直接連接到高層,減輕了梯度消失的影響,提取出更完整的船舶特征,對(duì)可見光遙感圖像中的艦船目標(biāo)進(jìn)行檢測(cè),準(zhǔn)確率較改進(jìn)前有顯著提高;文獻(xiàn)[34]基于YoloV3的多尺度思想,將原網(wǎng)絡(luò)中的三尺度特征融合改進(jìn)為四尺度特征融合,對(duì)小目標(biāo)艦船的檢測(cè)效果提升明顯,如表3所示。
表3 不同模型結(jié)合不同特征優(yōu)化方法的檢測(cè)實(shí)驗(yàn)結(jié)果[34]
另外,還有針對(duì)通道與輔助網(wǎng)絡(luò)的特征改進(jìn)方式。文獻(xiàn)[35]提出AugNet算法,使網(wǎng)絡(luò)通過學(xué)習(xí)自分配特征通道的權(quán)重,以達(dá)到強(qiáng)化有效特征、抑制無效特征的效果。作者在GoogleNet上應(yīng)用此算法,對(duì)自構(gòu)建的大規(guī)模艦船數(shù)據(jù)集進(jìn)行分類識(shí)別實(shí)驗(yàn),準(zhǔn)確率比原始的GoogleNet提升了1.5%;文獻(xiàn)[36]基于對(duì)抗生成網(wǎng)絡(luò)(GAN)網(wǎng)絡(luò)的思想,將分類子網(wǎng)絡(luò)作為判別器在其上級(jí)聯(lián)了一個(gè)生成器,交替訓(xùn)練以生成模仿小概率樣本的特征。通過對(duì)小樣本的特征學(xué)習(xí),間接循環(huán)增強(qiáng)了特征表示,達(dá)到了輔助分類的效果,總結(jié)如圖5所示。
圖5 特征增強(qiáng)與優(yōu)化方法
文獻(xiàn)[37]提出一種輕量化模型,將精力集中在提高檢測(cè)與識(shí)別的效率上,為資源受限條件下的艦船檢測(cè)與識(shí)別提供了方案。作者在SSD網(wǎng)絡(luò)原框架的基礎(chǔ)上,采用了可分離卷積方法,大幅減少了卷積核的參數(shù);同時(shí),將輸入特征通道進(jìn)行過隨機(jī)比例切分之后使用不同尺寸的卷積核進(jìn)行卷積操作,從而減少了模型中參數(shù)的使用。該模型大小較ResNet縮小了5倍多,單幀耗時(shí)僅需16.3 ms。文獻(xiàn)[38]提出了多特征堆疊(ME)-CNN,考慮了多源多網(wǎng)絡(luò)的復(fù)合性處理。在對(duì)源圖像進(jìn)行不同形式的預(yù)處理以后,將所得的圖像分別作為不同卷積神經(jīng)網(wǎng)絡(luò)的輸入,提取有不同的深層抽象特征后分別進(jìn)行分類,最后將不同的分類結(jié)果進(jìn)行組合,在VAIS[39]數(shù)據(jù)集上取得的準(zhǔn)確率較單分支網(wǎng)絡(luò)有所提高。文獻(xiàn)[40]提出粗細(xì)級(jí)聯(lián)(CFC)-CNN,考慮對(duì)常規(guī)網(wǎng)絡(luò)進(jìn)行層級(jí)改進(jìn),將基礎(chǔ)網(wǎng)絡(luò)的結(jié)果送進(jìn)第2層進(jìn)行驗(yàn)證,對(duì)沒有達(dá)到假設(shè)預(yù)期值的類別進(jìn)行重訓(xùn)練,嘗試針對(duì)第1層中識(shí)別結(jié)果最差的類別提取更有區(qū)別性的特征,對(duì)比一層網(wǎng)絡(luò)的模型進(jìn)行實(shí)驗(yàn),取得了較好的準(zhǔn)確率。
在人工智能與大數(shù)據(jù)時(shí)代,深度學(xué)習(xí)技術(shù)得到了極大關(guān)注,可見光圖像艦船目標(biāo)檢測(cè)與識(shí)別的應(yīng)用也愈發(fā)廣泛?;趯?duì)檢測(cè)框改進(jìn)、特征優(yōu)化等方法的大量研究,深度學(xué)習(xí)技術(shù)針對(duì)艦船目標(biāo)檢測(cè)的調(diào)整應(yīng)用也愈發(fā)成熟??偟膩碚f,在不斷的實(shí)驗(yàn)探索中,融合深度學(xué)習(xí)方法的可見光艦船目標(biāo)檢測(cè)與識(shí)別在實(shí)時(shí)性、準(zhǔn)確性、精確性上,均有所改進(jìn):
(1) 相比于早期對(duì)模型直接進(jìn)行轉(zhuǎn)移應(yīng)用、從頭訓(xùn)練的方法,遷移學(xué)習(xí)明顯克服了數(shù)據(jù)量不足的問題,利用小數(shù)據(jù)集也能得到較好的準(zhǔn)確率。
(2) 基于改進(jìn)候選框與特征優(yōu)化的方法,經(jīng)實(shí)驗(yàn)證明均能在一定程度上剔除冗余信息,增強(qiáng)細(xì)節(jié)特征,使得針對(duì)艦船的目標(biāo)檢測(cè)與識(shí)別達(dá)到較高的準(zhǔn)確率。
為了達(dá)到精細(xì)度與復(fù)雜度更高的前沿應(yīng)用要求,下一步仍應(yīng)對(duì)3個(gè)方面進(jìn)行拓展研究:
(1) 仍要對(duì)更全面、更精準(zhǔn)的特征表示進(jìn)行研究。探究融合多波段源圖像的精度提升方法。SAR圖像、紅外圖像、可見光圖像在不同環(huán)境下?lián)碛歇?dú)特的優(yōu)勢(shì)。結(jié)合3類圖像進(jìn)行聯(lián)合判別,探索有效的特征融合方法;探究在多網(wǎng)絡(luò)、多層次模型下的創(chuàng)新型特征提取方法,在不斷實(shí)驗(yàn)中嘗試尋找性能更好的組合架構(gòu)。
(2) 為適應(yīng)海上平臺(tái)資源受限的特點(diǎn),應(yīng)重視研究輕量化的艦船檢測(cè)模型,削減網(wǎng)絡(luò)參數(shù),精簡(jiǎn)模型架構(gòu)。在不依賴高算力的情況下,用更少的計(jì)算量達(dá)到預(yù)期的準(zhǔn)確率,同時(shí)提高識(shí)別幀率。
(3) 研究大類識(shí)別基礎(chǔ)上的船舶細(xì)粒度分類。細(xì)粒度分類因?qū)ο箢愰g差異小、類內(nèi)差異大的特點(diǎn),應(yīng)用模型時(shí)效果達(dá)不到預(yù)期標(biāo)準(zhǔn),需要進(jìn)一步創(chuàng)新改進(jìn)網(wǎng)絡(luò)架構(gòu)與模塊功能。在更強(qiáng)的特征表示、更好的分類算法的基礎(chǔ)上,船舶細(xì)粒度分類是船舶目標(biāo)識(shí)別研究的必然趨勢(shì);反之,高要求的任務(wù)也會(huì)對(duì)算法工具的研究起到推動(dòng)效果。