黃致君,桑慶兵
江南大學(xué) 物聯(lián)網(wǎng)工程學(xué)院,江蘇 無錫214122
船舶對(duì)于海上交通運(yùn)輸起著重要作用,有效地監(jiān)測(cè)海上的船舶情況,可以幫助監(jiān)測(cè)人員及時(shí)進(jìn)行預(yù)警、援救等工作,這對(duì)于海洋經(jīng)濟(jì)[1]的發(fā)展有著深遠(yuǎn)影響。目前國(guó)內(nèi)外在船舶識(shí)別方向的研究主要是圍繞合成孔徑雷達(dá)(synthetic aperture radar,SAR)[2]開展研究,其原因在于云霧與光照等自然環(huán)境的因素容易影響到光學(xué)遙感圖像。然而,與SAR 圖像相比,光學(xué)圖像分辨率更高,具有更強(qiáng)的目視判讀能力,更易于解譯等特點(diǎn)。隨著遙感衛(wèi)星技術(shù)的不斷加強(qiáng),其分辨率也會(huì)更高,細(xì)節(jié)部分特征抓取更豐富,因此光學(xué)圖像下的船舶檢測(cè)可以作為基于SAR 圖像研究下的重要補(bǔ)充。
早期主流的船舶識(shí)別都是基于SAR 圖像,并且使用的方法多以傳統(tǒng)方法為主,以機(jī)器學(xué)習(xí)的基本理論開展的傳統(tǒng)的目標(biāo)檢測(cè)方法有很多,能夠概括為兩部分:一是提取船舶目標(biāo)候選區(qū)域;二是鑒別船舶候選區(qū)域。提取候選區(qū)域方面:Yang 等[3]學(xué)者提出的方法能夠快速提取船舶目標(biāo)候選區(qū)域,即灰度直方圖統(tǒng)計(jì)。由于船舶的邊緣信息等特性在光學(xué)圖像中更顯著,Zhu 等[4]在此特性的基礎(chǔ)上,再根據(jù)形狀分析提取特征。鑒別候選區(qū)域方面:張雷等[5]采取的是多向量綜合的方式,Wang 等[6]針對(duì)不同種類的軍艦則采用了貝葉斯網(wǎng)絡(luò)來做分類的工作。此外,支持向量機(jī)(support vector machine,SVM)[7]、迭代器(AdaBoost)[8]等方法[9-15]是分類鑒別過程中采取的主要的傳統(tǒng)方法。然而船舶的目標(biāo)檢測(cè)和其他應(yīng)用場(chǎng)景面臨著同樣的問題,即傳統(tǒng)的目標(biāo)識(shí)別方法泛化能力差,在處理特定的識(shí)別任務(wù)時(shí),無法適應(yīng)通用性及魯棒性等特征。因此在解決實(shí)際問題時(shí),過分依賴人工對(duì)特征進(jìn)行設(shè)計(jì),那么傳統(tǒng)機(jī)器學(xué)習(xí)的方法在目標(biāo)檢測(cè)方面便遇到瓶頸,同時(shí)深度學(xué)習(xí)也在快速發(fā)展中,特別是在圖像領(lǐng)域不斷取得好的效果,更多的研究人員開始采取深度學(xué)習(xí)的方法進(jìn)行圖像處理與目標(biāo)檢測(cè)的工作。
在目標(biāo)檢測(cè)方面,2014 年,Girshick 等人在CVPR(computer vision and pattern recognition)大會(huì)上第一次提出R-CNN(region-convolutional neural networks)[16]網(wǎng)絡(luò),該網(wǎng)絡(luò)將一個(gè)空間金字塔添加在全連接層之前,由于不需要將歸一化的圖像尺寸輸入到全連接層,因此更好的尺度不變性則起到了降低過擬合的作用,而在VOC 2012 數(shù)據(jù)集的表現(xiàn)上,平均準(zhǔn)確率(map)則提升到了53.3%。之后Fast R-CNN[17]和Faster R-CNN[18]在2015 年被相繼提出,檢測(cè)速度與準(zhǔn)確率都有了提高。2016 年,YOLO v1[19]與YOLO v2[20]被Redmon 等人相繼提出,相比于YOLO v1,YOLO v2 將map 值提升到了78.6%,實(shí)時(shí)檢測(cè)速率也達(dá)到了67 frame/s 的效果。之后基于區(qū)域卷積神經(jīng)網(wǎng)絡(luò)[21]以及區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)(regional fully convolutional networks,R-FCN)[22-23]的提出,大幅降低了目標(biāo)標(biāo)記的成本。根據(jù)目標(biāo)識(shí)別的相關(guān)流程,結(jié)合船舶識(shí)別過程中的特性,圖1 為遙感圖像下的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)系統(tǒng)流程,其中Liu 等[24]在CNN(convolutional neural networks)基礎(chǔ)上改進(jìn)的RR-CNN 能夠準(zhǔn)確提取候選區(qū)域特征,Zou 等[25]提出的SVD 網(wǎng)絡(luò)是根據(jù)卷積神經(jīng)網(wǎng)絡(luò)與奇異值分解提出的,Zhang 等提出的S-CNN[26](ship model CNN)模型能夠解決當(dāng)面臨船舶目標(biāo)多類別、多尺度的情況下,檢測(cè)情況差的問題。經(jīng)實(shí)驗(yàn)證實(shí),在多復(fù)雜背景的場(chǎng)景下以及多方式的船舶??康惹闆r下,具備高魯棒性。
Fig.1 Ship detection flow chart based on deep learning圖1 基于深度學(xué)習(xí)的船舶識(shí)別流程圖
本文主要根據(jù)區(qū)域全卷積網(wǎng)絡(luò)(R-FCN)開展研究并根據(jù)船舶識(shí)別的特性進(jìn)行模型的改進(jìn)。實(shí)驗(yàn)表明,本文設(shè)計(jì)的針對(duì)光學(xué)圖像的船舶識(shí)別模型在識(shí)別精度上的表現(xiàn)要優(yōu)于目前主流的目標(biāo)檢測(cè)算法,如Faster R-CNN、YOLO V3、R-FCN 等。
區(qū)域全卷積網(wǎng)絡(luò)R-FCN 的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)適用于通用的目標(biāo)檢測(cè)數(shù)據(jù)集PASCAL VOC[27],該數(shù)據(jù)集中的檢測(cè)目標(biāo)加上背景一共有21 類。R-FCN 的特征提取網(wǎng)絡(luò)所提取的Feature Map 個(gè)數(shù)是由R-FCN 中的位置敏感區(qū)域池化層PSRoIPooling(position-sensitive region of interest pooling layer)所決定的,PSRoIPooling會(huì)根據(jù)檢測(cè)的類別個(gè)數(shù)來決定特征提取網(wǎng)絡(luò)提取的Feature Map 個(gè)數(shù),檢測(cè)類別越多,網(wǎng)絡(luò)提取的Feature Map 個(gè)數(shù)也越多。而本文的船舶目標(biāo)加上背景只有4 類,遠(yuǎn)小于PASCAL VOC 中的類別數(shù),繼續(xù)用原始的R-FCN 會(huì)導(dǎo)致網(wǎng)絡(luò)的畸形。因此,如何對(duì)原始的R-FCN 進(jìn)行改進(jìn)并在船舶識(shí)別上獲得較好的效果是本文的目標(biāo)所在。
圖2 為改進(jìn)后的R-FCN 算法模型示意圖,主要分為兩部分:(1)特征提取網(wǎng)絡(luò);(2)改進(jìn)的區(qū)域全卷積網(wǎng)絡(luò)。在特征提取階段,使用現(xiàn)有的全卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)提取原始圖像的高維空間特征信息;接著使用改進(jìn)后的R-FCN 在特征提取網(wǎng)絡(luò)得到的Feature Map 上回歸出船舶在原始圖像中的位置并進(jìn)行船舶分類,將Feature Map 與ROIs(regions of interest)位置結(jié)合能夠提高特征提取效率,如果和原圖再結(jié)合就會(huì)增加計(jì)算量,提取不必要的特征。
由于船舶識(shí)別類別個(gè)數(shù)遠(yuǎn)小于PASCAL VOC 數(shù)據(jù)集的檢測(cè)類別個(gè)數(shù),會(huì)造成特征提取網(wǎng)絡(luò)提取的Feature Map 個(gè)數(shù)也會(huì)遠(yuǎn)小于在PASCAL VOC 數(shù)據(jù)集上進(jìn)行檢測(cè)的R-FCN,從而使整個(gè)網(wǎng)絡(luò)架構(gòu)處于畸形狀態(tài)。針對(duì)這一問題,本文改進(jìn)位置敏感區(qū)域池化層,將其在船舶識(shí)別上提取的特征Feature Map個(gè)數(shù)和PASCAL VOC 數(shù)據(jù)集檢測(cè)上提取的Feature Map 個(gè)數(shù)保持一致,使得改進(jìn)后的R-FCN 在船舶檢測(cè)上的性能能夠完全發(fā)揮。
在特征提取階段,本文選取在ImageNet 數(shù)據(jù)集上已經(jīng)預(yù)訓(xùn)練過的ResNet50[28]自動(dòng)進(jìn)行提取船舶圖像特征,圖像通道數(shù)定為3,圖像尺寸為600 像素×1 000 像素。將該網(wǎng)絡(luò)最后一層的卷積層得到的特征圖高寬為35×63(約為原圖的1/16)自動(dòng)提供給網(wǎng)絡(luò)的第二部分,用來回歸出船舶的位置并進(jìn)行分類。
Fig.2 Improved R-FCN schematic diagram圖2 改進(jìn)的區(qū)域全卷積網(wǎng)絡(luò)示意圖
由于原始R-FCN 中的位置敏感區(qū)域池化層的特殊性,原始R-FCN 生成的Feature Map 的通道數(shù)根據(jù)檢測(cè)類別數(shù)來確定,在PASCAL VOC 數(shù)據(jù)集中,20 是其目標(biāo)檢測(cè)數(shù),因此在原始R-FCN 中的c+1=21,若用R-FCN 對(duì)船舶進(jìn)行檢測(cè),則c+1=4 會(huì)造成特征Feature Map 的通道數(shù)變?yōu)樵瓉淼?/5,整個(gè)網(wǎng)絡(luò)架構(gòu)相對(duì)于原始的R-FCN 將會(huì)變得非?;?。本文嘗試將c減小,發(fā)現(xiàn)模型失調(diào),并且不能提取足夠的特征用以識(shí)別船舶,無法用于船舶識(shí)別。
因此本文對(duì)位置敏感區(qū)域池化層進(jìn)行了更適合船舶檢測(cè)的優(yōu)化改進(jìn),如圖3 所示,通過RPN(region proposal network)能夠得到ROIs 的位置。此步驟完成后,將Feature Map 與該位置結(jié)合,對(duì)位置敏感區(qū)域池化層進(jìn)行改進(jìn),同時(shí)生成位置敏感分?jǐn)?shù)圖(positionsensitive score maps),通道數(shù)為k2(c+1),且c=20,與原始R-FCN 的c數(shù)量保持一致。再對(duì)位置敏感分?jǐn)?shù)圖做全局最大值池化(Maxpooling),得到長(zhǎng)度為k2(c+1)的Feature Vector。最后對(duì)Feature Vector 做全連接操作后放入SoftMax 中進(jìn)行分類。在這一基礎(chǔ)上,又將原本的ROIPooling 層改為了ROIAlign,該方法取消量化操作,使用雙線性內(nèi)插的方法獲得坐標(biāo)為浮點(diǎn)數(shù)的像素點(diǎn)上的圖像數(shù)值,從而將整個(gè)特征聚集過程轉(zhuǎn)化為一個(gè)連續(xù)的操作。
改進(jìn)后的位置敏感區(qū)域池化層具體操作是:對(duì)于1 個(gè)大小為w×h的ROI,將該ROI 分割成k2個(gè)寬高分別為w/k、h/k的矩形方塊,并使用(i,j)來表示ROI 和位置敏感分?jǐn)?shù)圖的每個(gè)分塊的位置,且(i,j)取值范圍(0 ≤i≤k-1,0 ≤j≤k-1)。具體操作如式(1):
式中,rc(i,j|θ)為位置敏感分?jǐn)?shù)圖第c個(gè)通道中k2個(gè)分塊中的第(i,j)個(gè)分塊,Zi,j,c為Feature Map 中第c通道的Map,且c的取值范圍為0 ≤c≤k2(c+1)。bin(i,j)代表ROI 中k2個(gè)分塊中第(i,j)個(gè)分塊對(duì)應(yīng)在Feature Map 中位置集合,(x0,y0) 表示ROI 的左上角坐標(biāo),(x,y)表示ROI 中以(x0,y0)為原點(diǎn)時(shí)每個(gè)元素的坐標(biāo)值,且(x,y)的取值范圍為i×w/h≤x≤(i+1)×w/h,n表示第(i,j)個(gè)塊里的像素總數(shù),且θ表示網(wǎng)絡(luò)的參數(shù)。
接著對(duì)通道數(shù)為k2(c+1)的位置敏感分?jǐn)?shù)圖做最大值池化操作,如式(2)所示:
式(2)中的Vc(θ)表示Feature Vector。Max 表示每個(gè)位置敏感分?jǐn)?shù)圖中的最大值。然后對(duì)向量做Fully Connect,如式(3)所示:
最后對(duì)特征向量做Softmax 分類操作,如式(4)所示:
在網(wǎng)絡(luò)訓(xùn)練階段,采用梯度下降的訓(xùn)練方法,總的損失函數(shù)為每個(gè)ROI 的交叉熵?fù)p失以及邊界框回歸損失之和,如式(5)所示:
Fig.3 Improved position-sensitive ROI pooling layer圖3 改進(jìn)的位置敏感興趣區(qū)域池化層
上述公式中λ=1,c*表示ROI的類標(biāo)(c*=0 時(shí),表示這個(gè)ROI是背景類),Lreg中的表示真實(shí)的回歸框的參數(shù),由RPN 得到的回歸框的參數(shù)用t=(tx,ty,tw,th)表示,并且t*和t與faster R-CNN 中的邊界回歸框的參數(shù)相同。損失函數(shù)R為SmoothL1(x)如式(6)所示:
相比于L1與L2,SmoothL1在趨近于0時(shí)表現(xiàn)得更平滑,能夠使得模型更加穩(wěn)定。簡(jiǎn)而言之,SmoothL1“光滑”后的L1保留了L1Loss 中梯度穩(wěn)定的特點(diǎn),同時(shí)吸取了L1Loss 中中心點(diǎn)不可求導(dǎo)的缺陷,引入了L2Loss 中的中心點(diǎn)附近的部分作為分段函數(shù),并克服了L2Loss 在數(shù)據(jù)較大時(shí)梯度很大的缺陷,使Loss函數(shù)更具魯棒性。對(duì)比圖如圖4 所示。
Fig.4 Comparison of 3 loss functions圖4 3 種損失函數(shù)對(duì)比
原版的R-FCN 使用的是ROIPooling,類比于ROIPooling,ROIAlign 的反向傳播則進(jìn)行了修改:在ROIAlign 中,由前向傳播計(jì)算后,xi*(r,j)表示的是浮點(diǎn)數(shù)的坐標(biāo)位置(采樣點(diǎn)),在池化前的特征圖中,每一個(gè)與xi*(r,j)橫縱坐標(biāo)均小于1 的點(diǎn)都應(yīng)該接受與此對(duì)應(yīng)的點(diǎn)yij回傳的梯度,故ROIAlign 的反向傳播如式(7)所示:
在傳統(tǒng)的以Faster-RCNN 檢測(cè)框架為基礎(chǔ)的網(wǎng)絡(luò)結(jié)構(gòu)中,由于步長(zhǎng)(Stride)的存在,故使得每次縮放之后的邊長(zhǎng)均有可能出現(xiàn)小數(shù),若此時(shí)使用量化操作,在映射回原圖像時(shí),特征圖上很小的誤差經(jīng)過步長(zhǎng)放大之后會(huì)使得誤差變大,導(dǎo)致與原圖不匹配的情況,故本文使用了雙線性內(nèi)插的方式代替了原有的量化操作,即不對(duì)浮點(diǎn)數(shù)進(jìn)行邊界量化操作,而是直接使用雙線性內(nèi)插對(duì)候選區(qū)域進(jìn)行插值計(jì)算,用以減小縮放導(dǎo)致的誤差。
本實(shí)驗(yàn)選擇的數(shù)據(jù)集是2017 年CCF 大數(shù)據(jù)與計(jì)算智能大賽(big data & computing intelligence,BDCI)主辦方方一信息科技公司提供的海上船舶圖像。分辨率為1 024×1 024,場(chǎng)景分為兩類,清晰和非清晰,船舶共有3 類,游輪、游艇以及貨船。筆者經(jīng)過篩選,提取了其中有標(biāo)簽并可以用于訓(xùn)練與測(cè)試的圖片共5 560 張,4 448 張作為訓(xùn)練樣本,1 112 張作為測(cè)試樣本。圖5 顯示的是該數(shù)據(jù)集部分用于測(cè)試的原圖,可以看到背景復(fù)雜,存在云、霧等元素。
本文實(shí)驗(yàn)是在Windows 10 系統(tǒng)下,使用Visual Studio 2013進(jìn)行的,采用Anaconda+Pycaffe 框架,Python為2.7,GPU是GTX 1080,CPU是Intel Core i7。
本文采用準(zhǔn)確率(Precision)、召回率(Recall)、平均準(zhǔn)確率(average precision,AP)和平均準(zhǔn)確率均值(mean average precision,mAP)等多個(gè)參數(shù)來綜合衡量檢測(cè)算法的效果。式(8)和式(9)分別是準(zhǔn)確率和召回率的計(jì)算公式,其中PR表示準(zhǔn)確率,RR表示召回率,TP表示正確識(shí)別的目標(biāo)數(shù)量,F(xiàn)P表示錯(cuò)誤判斷為目標(biāo)的數(shù)量,F(xiàn)N表示漏檢目標(biāo)數(shù)量。
本文中的召回率與準(zhǔn)確率的計(jì)算方式如下,比如對(duì)參照貨船分析,測(cè)試集圖像共有貨船K個(gè),訓(xùn)練好的模型檢測(cè)的目標(biāo)數(shù)為N個(gè),其中確實(shí)為貨船的有M個(gè),因此召回率和準(zhǔn)確率定義為:召回率Recall=M/K,準(zhǔn)確率Precision=M/N。
Fig.5 Part of original images of test dataset圖5 部分測(cè)試數(shù)據(jù)集原圖
Fig.6 Part of test results images圖6 部分測(cè)試結(jié)果圖
圖6 為本文改進(jìn)的R-FCN 與圖5 中相對(duì)應(yīng)的檢測(cè)結(jié)果,分別用紅色、綠色以及藍(lán)色來區(qū)分三種船舶的類別,紅色代表貨船,綠色代表游輪,藍(lán)色代表游艇,每個(gè)船舶的匹配率也在圖上進(jìn)行了標(biāo)注。
在目標(biāo)檢測(cè)中,主要通過召回率-準(zhǔn)確率(P-R)曲線衡量一個(gè)分類器的性能指標(biāo),橫縱軸分別為Recall和Precision,式(10)中,PR、RR分別表示準(zhǔn)確率和召回率。衡量一個(gè)學(xué)習(xí)器是否比另一個(gè)更優(yōu),則觀察PR圖呈現(xiàn)的效果可以得出結(jié)論,AP越大,即兩個(gè)參數(shù)的曲線和坐標(biāo)軸之間的面積越大,代表檢測(cè)器的檢測(cè)效果越好。若A學(xué)習(xí)器可以完全包住B學(xué)習(xí)器,則A的性能優(yōu)于B。
Fig.7 Cargo ships’P-R image圖7 貨船的P-R 圖
Fig.8 Cruise ships'P-R image圖8 游輪的P-R 圖
Fig.9 Yachts'P-R image圖9 游艇的P-R 圖
為了更直觀地驗(yàn)證目標(biāo)檢測(cè)網(wǎng)絡(luò)的性能,檢測(cè)性能的衡量標(biāo)準(zhǔn)使用PASCAL VOC 競(jìng)賽的衡量標(biāo)準(zhǔn)mAP。圖7~圖9 分別是貨船、游輪以及游艇的P-R圖,圖中實(shí)線代表初始的R-FCN(已做防止過擬合處理);虛線代表第一次改進(jìn)的R-FCN,命名為improved-R-FCN-1,這里c=21,將原版的平均池化層改成了最大池化層;點(diǎn)線代表第二次改進(jìn)的R-FCN,命名為improved-R-FCN-2,這里c=21,在improved-R-FCN-1 的基礎(chǔ)上,將ROIPooling 改成ROIAlign。三個(gè)模型在三種船舶上AP的表現(xiàn)在圖的最上方也進(jìn)行了標(biāo)注。
通過直觀的比對(duì)可以看出,圖7 和圖8 中貨船和游輪的AP的提升幅度較小,但本文中改進(jìn)的兩個(gè)版本基本完全包住了原始的R-FCN,因此本文模型在貨船和游輪的表現(xiàn)上的性能更優(yōu)。圖9 中,improved-R-FCN-1中游艇的AP比原始的R-FCN 提升了4.08個(gè)百分點(diǎn),而improved-R-FCN-2 相比于improved-R-FCN-1又提升了8.78 個(gè)百分點(diǎn),比原版的R-FCN 提升了近13 個(gè)百分點(diǎn),并且本文中兩個(gè)模型的曲線完全包住了原始的R-FCN。由于游艇的體積相比另外兩種船舶體積很小,本文認(rèn)為全局最大值池化以及ROIAlign 這兩個(gè)變化使得本文模型在小目標(biāo)的檢測(cè)表現(xiàn)上更優(yōu)。
Table 1 Experimental results of each target detection method表1 各目標(biāo)檢測(cè)方法實(shí)驗(yàn)效果
本文還與其他目前深度學(xué)習(xí)的目標(biāo)檢測(cè)方法進(jìn)行了對(duì)比。如表1所示,在本實(shí)驗(yàn)條件下,設(shè)定IOU>0.5即目標(biāo)檢測(cè)正確,對(duì)比的算法有YOLO 系列模型、Faster-RCNN,可以看出本文模型在該數(shù)據(jù)集上mAP值的表現(xiàn)要更好,F(xiàn)aster-RCNN 的mAP 為66.7%,YOLO 系列方面,最新的YOLO v3 的mAP 為78.4%。本文模型與原始的R-FCN 相比,mAP 從83.6%提升到了87.2%。本文采用每秒幀數(shù)指標(biāo)來衡量算法的時(shí)效性。從表1 中可以看出,本文模型的檢測(cè)速率與其他方法基本持平,但識(shí)別精度更高。因此,實(shí)驗(yàn)結(jié)果表明,本文模型能夠解決船舶識(shí)別過程中因船舶過小而識(shí)別率過低的問題,并且在較大船舶的識(shí)別上也能完成準(zhǔn)確率的提升以及性能的優(yōu)化。
本文模型在光學(xué)圖像上的船舶識(shí)別表現(xiàn)優(yōu)于其他深度學(xué)習(xí)的算法,在此數(shù)據(jù)的表現(xiàn)上,將mAP 值提高到了87.2%,同時(shí)在測(cè)算速率上也與其他主流方法基本持平,通過分析實(shí)驗(yàn)結(jié)果,總結(jié)以下四點(diǎn)因素使得本文模型在船舶識(shí)別上表現(xiàn)更優(yōu):(1)結(jié)合船舶識(shí)別與R-FCN 的特性,在ROIPooling 之前,使得特征層數(shù)量達(dá)到c+1=21 層,避免了模型在層數(shù)過低的情況下有可能出現(xiàn)的過擬合及模型失調(diào)等情況。(2)將ROIPooling 由全局平均池化改為全局最大值池化,提升了顯著特征的保留數(shù)量,同時(shí)也避免了部分由于卷積層參數(shù)的誤差而導(dǎo)致的均值偏移。(3)ROIAlign對(duì)于原ROIPooling,提出了取消量化操作,使用雙線性內(nèi)插法進(jìn)行特征點(diǎn)的計(jì)算,從而將特征提取過程轉(zhuǎn)化為一個(gè)連續(xù)的特征采樣過程。通過在映射過程取消了取整操作的做法,變相提升了采樣點(diǎn)的數(shù)量。(4)SmoothL1的特性是在x較小時(shí),x梯度很小,避免了等梯度(L1)條件下x極小時(shí)梯度保持不變的缺陷,在x很大時(shí)(otherwise),x梯度上限為1,避免了過大梯度導(dǎo)致的網(wǎng)絡(luò)參數(shù)失調(diào),即有效避免了梯度爆炸(L2),使模型穩(wěn)定性更高。隨著大數(shù)據(jù)與云計(jì)算的不斷發(fā)展,船舶檢測(cè)上的研究也會(huì)不斷深入,監(jiān)測(cè)船舶的效率與準(zhǔn)確度,反饋數(shù)據(jù)的真實(shí)性與實(shí)效性都對(duì)海洋經(jīng)濟(jì)起到積極的作用。