陳 浩,郭欣欣
(1. 南陽(yáng)農(nóng)業(yè)職業(yè)學(xué)院信息工程學(xué)院,南陽(yáng) 473000;2. 重慶大學(xué)網(wǎng)絡(luò)教育學(xué)院,重慶 400044)
人們現(xiàn)在生活在塑料時(shí)代。自20 世紀(jì)40 年代塑料大規(guī)模生產(chǎn)以來(lái),由于其便攜性和耐用性,塑料瓶被廣泛應(yīng)用于商業(yè)、農(nóng)業(yè)、工業(yè)等行業(yè)。數(shù)據(jù)顯示,每分鐘超過(guò)一百萬(wàn)個(gè)塑料瓶銷往世界各地,每年有近1300 萬(wàn)噸塑料垃圾被傾入海洋[1]。塑料瓶使用規(guī)模的迅速擴(kuò)大帶來(lái)了資源枯竭和環(huán)境惡化等問(wèn)題。為了緩解這一問(wèn)題,世界各地都采取了各種措施對(duì)塑料瓶進(jìn)行檢測(cè)和分類。塑料瓶檢測(cè)和分類可以通過(guò)多種方式完成,比如使用一系列手動(dòng)和自動(dòng)方法對(duì)塑料瓶進(jìn)行分類。隨著科學(xué)研究的不斷進(jìn)步,人工對(duì)塑料瓶進(jìn)行分類逐漸淡出人們的視線,深度學(xué)習(xí)中圖像分析技術(shù)的改進(jìn)使得分類效率進(jìn)一步提高。
對(duì)于人類來(lái)說(shuō),識(shí)別和分類復(fù)雜場(chǎng)景中的塑料瓶對(duì)象是一種簡(jiǎn)單行為。然而,對(duì)于機(jī)器人來(lái)說(shuō),順利完成塑料瓶識(shí)別、分類、抓取等一系列動(dòng)作并不是一件容易的事情。深度神經(jīng)網(wǎng)絡(luò)的自調(diào)整能力可以有效地提高機(jī)器人在目標(biāo)檢測(cè)方面的自主性。與語(yǔ)義分割不同,實(shí)例分割主要關(guān)注實(shí)例之間的差異。近年來(lái),實(shí)例分割作為人工智能的一項(xiàng)關(guān)鍵技術(shù),在醫(yī)學(xué)、工程等領(lǐng)域得到了廣泛的應(yīng)用。Xu 等[2]利用卷積神經(jīng)網(wǎng)絡(luò)(mask regions with convolutional neural network features,Mask R-CNN)對(duì)乳腺超聲圖像進(jìn)行分割,用于病灶檢測(cè)和良惡性診斷,為乳腺病灶檢測(cè)提供了一種無(wú)創(chuàng)的方法。另外,為了分析樹(shù)木資源,Xu 等[3]采用實(shí)例分割的方法從城市場(chǎng)景中分割出樹(shù)木,而樹(shù)木語(yǔ)義標(biāo)注的正確率達(dá)到0.9 左右。Brabandere 等[4]提出了一個(gè)包含兩項(xiàng)的損失函數(shù),通過(guò)簇內(nèi)拉力和簇內(nèi)推力來(lái)確定嵌入像素所屬的實(shí)體;該方法利用像素嵌入解決了像素級(jí)的語(yǔ)義實(shí)例分割問(wèn)題,促進(jìn)了自主駕駛技術(shù)的發(fā)展。這些研究工作表明,實(shí)例分割具有為每個(gè)對(duì)象生成高質(zhì)量分割模板的能力。
實(shí)例分割一般包括兩種方法:基于檢測(cè)的方法和基于分割的方法?;跈z測(cè)的方法主要是生成建議區(qū)域和預(yù)測(cè)邊界框,然后對(duì)預(yù)測(cè)邊界框中的目標(biāo)進(jìn)行掩膜。
Min 等[5]提出了一種基于Mask R-CNN 算法的乳腺X線攝影質(zhì)量檢測(cè)系統(tǒng),該系統(tǒng)不需要人工干預(yù),可以有效地檢測(cè)乳腺X 線攝影質(zhì)量。Li等[6]提出了一種全卷積的實(shí)例分割方法,該方法通過(guò)并行執(zhí)行內(nèi)部得分圖和外部得分圖,實(shí)現(xiàn)兩個(gè)子任務(wù)的檢測(cè)和分割。另一種是基于分割的實(shí)例分割方法。與基于檢測(cè)的方法相比,基于分割的方法首先從輸入圖像中獲取像素級(jí)的分割圖,然后根據(jù)得到的分割圖識(shí)別目標(biāo)實(shí)例。Dai等[7]實(shí)現(xiàn)了基于Mask R-CNN 的前列腺及前列腺內(nèi)病變的分割,對(duì)臨床放射科醫(yī)師具有重要的指導(dǎo)意義。Pinheiro 等[8]提出一種稱為Sharp Mask 的方法,首先使用對(duì)象建議方法估計(jì)對(duì)象完全包含在圖像塊中的概率,同時(shí)通過(guò)給出圖像輸入塊來(lái)同時(shí)生成分割掩模和相關(guān)分?jǐn)?shù),然后采用路徑增強(qiáng)的方法來(lái)增強(qiáng)網(wǎng)絡(luò)層之間的信息流,在公共數(shù)據(jù)集上對(duì)改進(jìn)后的方法進(jìn)行了驗(yàn)證,表明實(shí)例分割是一種有效的目標(biāo)檢測(cè)方法,可以極大地提高檢測(cè)精度。
到目前為止,有關(guān)實(shí)例分割的相關(guān)研究還很少發(fā)表,尤其是在塑料瓶檢測(cè)領(lǐng)域。塑料瓶的多樣性對(duì)檢測(cè)過(guò)程提出了挑戰(zhàn),實(shí)現(xiàn)塑料瓶自主檢測(cè)的關(guān)鍵是提高實(shí)例分割方法的泛化能力,如在復(fù)雜場(chǎng)景下檢測(cè)和識(shí)別的魯棒性,以及樣本之間的平衡性。本文提出了一種基于改進(jìn)Mask R-CNN 算法的實(shí)例分割方法,用于檢測(cè)塑料瓶。
圖1 Mask R-CNN模型結(jié)構(gòu)
2017 年,He 等[9]首次提出Mask R-CNN 算法,該算法是Faster R-CNN[10]的擴(kuò)展,采用兩級(jí)檢測(cè)器,使用特征金字塔網(wǎng)絡(luò)(feature pyramid network,F(xiàn)PN)和區(qū)域建議網(wǎng)絡(luò)(region proposal network,RPN)進(jìn)行目標(biāo)檢測(cè)與分割,算法流程如圖1 所示。Mask R-CNN 模型結(jié)構(gòu)由圖像特征提取層、RPN、感興趣區(qū)域?qū)R(region of interest align,RoI Align)層以及輸出層4部分組成。
在Mask R-CNN 中將深度殘差網(wǎng)絡(luò)(deep residual network,ResNet)[11]和特征金字塔網(wǎng)絡(luò)(FPN)[12]這2 個(gè)骨干網(wǎng)絡(luò)作為特征提取器,具有較高的分割精度。為實(shí)現(xiàn)網(wǎng)絡(luò)的輕量化,采用MobileNet[13]優(yōu)化Mask R-CNN 的特征提取網(wǎng)絡(luò),MobileNet 作為輕量級(jí)神經(jīng)網(wǎng)絡(luò)的代表,可以在保證精度的前提下縮小模型,減少參數(shù)數(shù)目,提高模型的檢測(cè)速度。
MobileNet的體系結(jié)構(gòu)(見(jiàn)圖2)基于深度可分離卷積,將標(biāo)準(zhǔn)卷積分解為深度卷積和點(diǎn)卷積。深度卷積對(duì)每個(gè)輸入通道使用單個(gè)卷積內(nèi)核。逐點(diǎn)卷積使用1*1卷積核來(lái)線性組合深度卷積的輸出。每個(gè)深度卷積和逐點(diǎn)卷積后面是一個(gè)批量歸一化層和線性校正單元(ReLU)[14]激活函數(shù)。另外,MobileNet 引入了兩個(gè)超參數(shù):寬度乘子和分辨率乘子。寬度倍增器用于控制輸入和輸出的通道數(shù),分辨率倍增器用于控制輸入的分辨率。這兩個(gè)超參數(shù)的使用大大減少了計(jì)算量,加快了計(jì)算速度。
RPN 將圖像作為輸入并輸出一組矩形建議對(duì)象,每個(gè)建議對(duì)象都有一個(gè)對(duì)象性評(píng)分,確定錨點(diǎn)是前景還是背景,并對(duì)屬于前景的錨點(diǎn)執(zhí)行第一次坐標(biāo)校正。RPN 的結(jié)構(gòu)如圖3 所示。RPN 在共享卷積特征圖上使用滑動(dòng)窗口生成k個(gè)對(duì)象框(本文中k=15),每個(gè)像素具有預(yù)設(shè)的縱橫比和比例,稱為錨盒。錨點(diǎn)位于所討論的滑動(dòng)窗口的中心,并與比例和縱橫比相關(guān)聯(lián)。在Mask R-CNN 中,反饋給RoI Align 的建議區(qū)域數(shù)量非常大,一般在100~300 之間。在這種情況下,需要學(xué)習(xí)的分割圖數(shù)量較大,使得掩模分支中的特征提取困難。為解決這一問(wèn)題,將RPN中的非最大抑制閾值(NMS)從0.5提高到0.7,并將NMS中的聯(lián)合交叉(IoU)閾值固定為0.7。
圖3 RPN結(jié)構(gòu)
感興趣區(qū)域池(region of interest pooling,RoI Pooling)用于從共享卷積層中提取特征,并將特征輸入到完全連通層中進(jìn)行分類。最近鄰插值是一種量化操作,當(dāng)從共享卷積層提取特征時(shí),RoI Pooling 使用最近鄰插值。由于這種量化操作,每個(gè)RoI 對(duì)應(yīng)的特征被轉(zhuǎn)換成固定的維度,并且RoI Pooling 后輸出特征映射的RoI 與輸入圖像的RoI 不匹配。與RoI Pooling 不同,RoI Align采用雙線性插值代替最近鄰插值來(lái)計(jì)算每個(gè)位置的像素值并消除量化操作。該算法首先遍歷區(qū)域方案,將每個(gè)區(qū)域方案劃分為k×k個(gè)單元,不量化每個(gè)單元的邊界。然后,計(jì)算每個(gè)單元的坐標(biāo)值,并通過(guò)雙線性插值計(jì)算位置的像素值,最后執(zhí)行最大池運(yùn)算。由于消除了量化運(yùn)算,對(duì)小目標(biāo)的檢測(cè)精度更為明顯。雙線性插值原理如下:
式中:P為插值節(jié)點(diǎn),M11(x1,y1)、M12(x1,y2)、M21(x2,y1)、M22(x2,y2) 為P點(diǎn)周圍坐標(biāo),N1(x ,y1)、N2(x ,y2)為中間節(jié)點(diǎn)坐標(biāo),f(·)表示各點(diǎn)處像素值。
由于增加了掩膜分支,Mask R-CNN 的多任務(wù)丟失函數(shù)可以表示為
其中:LRPN-cls為RPN 中的分類損失函數(shù),LRPN-bbox為RPN 中的位置回歸損失函數(shù),Lcls為分類損失函數(shù),Lbbox為位置回歸損失函數(shù),Lmask為平均二元交叉熵。對(duì)于每個(gè)RoI輸出維度,新的掩膜分支是k×k×m,其中m×m是掩碼的大小,k表示類的數(shù)量,因此總共生成k個(gè)掩碼。在得到預(yù)測(cè)的掩模后,使用逐像素Sigmoid 函數(shù)對(duì)掩模進(jìn)行分類,并將所得結(jié)果作為L(zhǎng)mask的輸入之一。注意,只有被視為前景的像素才用于計(jì)算Lmask。
實(shí)現(xiàn)塑料瓶實(shí)例分割模型從準(zhǔn)備數(shù)據(jù)集開(kāi)始。Mask R-CNN 模型是使用Python 3、Tensor-Flow、Keras 和OpenCV 庫(kù),通過(guò)改進(jìn)開(kāi)源Mask R-CNN[15]中的代碼而構(gòu)建。將帶標(biāo)注的自定義數(shù)據(jù)集和預(yù)先訓(xùn)練的模型權(quán)重一起送入由多個(gè)階段組成的訓(xùn)練管道。所有實(shí)驗(yàn)均在配備Intel(R)Core(TM)i9-11900H 處理器、32 GB 內(nèi)存和NVIDIA GeForce RTX 3060 顯卡的計(jì)算機(jī)上通過(guò)Pycharm、CUDA 10.0和CUDNN實(shí)現(xiàn)。
數(shù)據(jù)集由從互聯(lián)網(wǎng)上下載的自定義數(shù)據(jù)集組成。盡管有許多最先進(jìn)的數(shù)據(jù)集(如COCO 和PASCAL VOC)具有用于培訓(xùn)和研究目的的通用圖像,但注意到與塑料瓶類別相關(guān)的圖像的可用性是有限的,為了解決這個(gè)問(wèn)題,從互聯(lián)網(wǎng)上下載了一組離散的圖像,共300 幅圖像(744×992 像素)構(gòu)建數(shù)據(jù)集。該數(shù)據(jù)集包含具有不同背景的正常和變形特征的單個(gè)和多個(gè)塑料瓶圖像(見(jiàn)表1)。
表1 遷移學(xué)習(xí)(TL)框架:漸進(jìn)式逐級(jí)微調(diào)
訓(xùn)練深度學(xué)習(xí)模型需要巨大的計(jì)算資源或使用龐大的數(shù)據(jù)集,由于自定義數(shù)據(jù)集塑料瓶數(shù)量相對(duì)較少,在深度卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算過(guò)程中容易出現(xiàn)模型的過(guò)擬合問(wèn)題,且難以收斂。本研究采用遷移學(xué)習(xí)的策略,將COCO 圖像數(shù)據(jù)集中已經(jīng)預(yù)訓(xùn)練好的網(wǎng)絡(luò)參數(shù)遷移到塑料瓶圖像數(shù)據(jù)集的Mask R-CNN 模型上來(lái),這樣模型就具有一定的特征提取能力,方便模型快速收斂。
對(duì)每個(gè)對(duì)象進(jìn)行圖像標(biāo)注是一項(xiàng)耗時(shí)且繁瑣的工作。然而,對(duì)于實(shí)例分割任務(wù)來(lái)說(shuō),這是一個(gè)重要的初始步驟。為了對(duì)目標(biāo)對(duì)象進(jìn)行分割和掩模生成,需要定義目標(biāo)對(duì)象的像素級(jí)真值。與其他對(duì)象檢測(cè)器不同,Mask R-CNN 模型需要像素級(jí)標(biāo)注進(jìn)行訓(xùn)練。有許多公開(kāi)可用的數(shù)據(jù)注釋工具,如VIA-VGG和LabelMe。
對(duì)于這項(xiàng)工作,按照COCO 數(shù)據(jù)集格式,像素級(jí)多邊形標(biāo)注圖像進(jìn)行實(shí)例分割訓(xùn)練。自定義數(shù)據(jù)集圖像的大小和格式各不相同,使用VIA-VGG 標(biāo)注工具進(jìn)行像素多邊形圖形標(biāo)注,該工具對(duì)帶標(biāo)注的圖像生成json格式的輸出。分割的真值掩模表示每個(gè)目標(biāo)對(duì)象的區(qū)域方向空間位置和坐標(biāo)軸。帶標(biāo)注的數(shù)據(jù)集還包括兩個(gè)無(wú)實(shí)例圖像和兩個(gè)部分標(biāo)注圖像。圖像的尺寸被調(diào)整為1024×1024×3,并且為了保持縱橫比,每個(gè)圖像都用零填充以匹配一個(gè)尺寸的訓(xùn)練要求(相同尺寸的正方形格式)。圖像的尺寸范圍從數(shù)據(jù)集中的150×255 到2448×3264 的小圖像。系統(tǒng)中存儲(chǔ)的所有圖像位于兩個(gè)文件夾中,其中一個(gè)文件夾存放訓(xùn)練圖像,另一個(gè)文件夾存放json文件,像素標(biāo)注以及標(biāo)記信息,作為圖像數(shù)組存放在json文件中。
本研究采用基于MS-COCO 訓(xùn)練集上預(yù)訓(xùn)練好的權(quán)重,在此基礎(chǔ)上進(jìn)行遷移學(xué)習(xí)。表示低層特征的初始層中的模型權(quán)重將在目標(biāo)模型中繼續(xù)使用。高層特征更加抽象,在目標(biāo)模型中將對(duì)其進(jìn)行更改和重新訓(xùn)練。在初始階段,利用主干網(wǎng)ResNet-50 和ResNet-101 對(duì)模型進(jìn)行訓(xùn)練,利用隨機(jī)梯度下降和Adam 優(yōu)化算法對(duì)塑料瓶圖像進(jìn)行實(shí)例分割。ResNet-101和隨機(jī)梯度下降的深層網(wǎng)絡(luò)性能相對(duì)較好,可以在自定義數(shù)據(jù)集上進(jìn)行進(jìn)一步的增量訓(xùn)練實(shí)驗(yàn)。遷移學(xué)習(xí)采用預(yù)訓(xùn)練-微調(diào)模型,主要包括以下幾個(gè)階段:
階段1:凍結(jié)ResNet-101 全連接層之前的所有卷積層。
階段2:從最后一個(gè)卷積層開(kāi)始逐層解凍,依次對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。
階段3:尋找準(zhǔn)確率最高的結(jié)果作為最終微調(diào)模型。
COCO 數(shù)據(jù)集-預(yù)訓(xùn)練模型。以ResNet-101為骨干架構(gòu)進(jìn)行微調(diào);SGD 作為優(yōu)化器;步數(shù)為1000;學(xué)習(xí)率為0.001。
表1給出了用于訓(xùn)練塑料瓶分割的遷移學(xué)習(xí)方案及詳細(xì)實(shí)驗(yàn)。階段1:用ResNet101 骨干網(wǎng)初始化頭部層訓(xùn)練,訓(xùn)練30個(gè)周期。階段2:作為模型微調(diào)的一部分,階段2模型使用前一階段模型的學(xué)習(xí)權(quán)重進(jìn)行訓(xùn)練。4+層和ALL 層模型訓(xùn)練了30 個(gè)周期,并選擇數(shù)據(jù)增強(qiáng)。此外,4+層模型L4和L10訓(xùn)練多達(dá)100個(gè)周期。作為階段3的一部分,模型接受了額外訓(xùn)練的20個(gè)周期來(lái)評(píng)估是否提高了性能。在階段3 的所有層訓(xùn)練中,4+層訓(xùn)練的模型L4 和L10 最初調(diào)優(yōu)到30 個(gè)周期,后來(lái)調(diào)優(yōu)到100 個(gè)周期。在階段3 中,對(duì)4+層和所有層的模型分別訓(xùn)練了150 和160 個(gè)周期。利用COCO 評(píng)價(jià)指標(biāo)對(duì)訓(xùn)練后的模型進(jìn)行評(píng)價(jià),并與模型損失進(jìn)行比較。
模型性能與損失指標(biāo)進(jìn)行比較,并使用COCO 評(píng)估指標(biāo)mAP 進(jìn)行評(píng)估[16-17]。圖像分割模型對(duì)于交叉驗(yàn)證方法來(lái)說(shuō)過(guò)于復(fù)雜,Mask R-CNN基于配置參數(shù)進(jìn)行了超參數(shù)調(diào)整。
表2 顯示了調(diào)優(yōu)模型L11 超參數(shù)檢測(cè)最小置信度為0.3(30%)和0.6(60%)。 該調(diào)優(yōu)在mAP_val[0.5:0.05:0.95]上取得了較0.9(90%)檢測(cè)最小置信度提高0.45%和0.17%的邊際改進(jìn)。總的來(lái)說(shuō),從結(jié)果中可以明顯看出,通過(guò)精心規(guī)劃的微調(diào)方法,可以利用模型性能在有限的數(shù)據(jù)集中獲得更好的結(jié)果。
表2 L11微調(diào)最終模型
圖4 密集實(shí)例分割
mAP[0.5:0.95:0.05]:表示閾值變化范圍為0.5~0.95,步長(zhǎng)為0.05的交并比的平均精度均值。
表3 顯示了根據(jù)MS COCO 評(píng)估指標(biāo)AP50、AP75、AP95 和mAP[0.5:0.95:0.5]得出的模型平均精度(mAP)結(jié)果。與使用遷移學(xué)習(xí)框架訓(xùn)練的所有其他模型相比,階段2 模型L11 表現(xiàn)良好,mAP 達(dá)到59.3%。階段2 的4+層增強(qiáng)模型在第100 個(gè)周期的mAP 達(dá)到53.0%,在階段3 調(diào)整20 個(gè)周期后逐漸改善,所有層和4+層的mAP 均達(dá)到54.0%。在階段2,所有層未增強(qiáng)的調(diào)優(yōu)模型表現(xiàn)較好,M3 模型的mAP 達(dá)到55.3%,在階段3,L12 和L14 模型的mAP 分別達(dá)到56.2%和56.4%。AP90從階段1的13.90%提高到階段3微調(diào)的49.20%。
階段2 和階段3 不進(jìn)行數(shù)據(jù)增強(qiáng)訓(xùn)練的模型表現(xiàn)相對(duì)較好。這可能是由于具有微調(diào)特征的模型學(xué)習(xí)與增強(qiáng)在訓(xùn)練數(shù)據(jù)中具有較少的多樣性,因?yàn)樗呀?jīng)在Head 層訓(xùn)練中進(jìn)行了增強(qiáng)訓(xùn)練。在這個(gè)任務(wù)中,只使用了水平左右翻轉(zhuǎn),如果應(yīng)用更多樣化的增強(qiáng),可以在調(diào)優(yōu)的后期顯示出模型性能的改善。
表3 模型的性能度量
此外,需要在每次增量訓(xùn)練中監(jiān)測(cè)模型行為,因?yàn)槌吮徽_地劃分為正例的個(gè)數(shù)外,錯(cuò)誤地被劃分為正例的個(gè)數(shù)可能會(huì)影響輸出的質(zhì)量。在后期調(diào)優(yōu)階段,模型的性能并沒(méi)有得到太大的改善,這可能是由于數(shù)據(jù)集不足。在訓(xùn)練所有層時(shí),重要的是根據(jù)數(shù)據(jù)集決定訓(xùn)練,因?yàn)榇蠖鄶?shù)低級(jí)特征將發(fā)生巨大變化,會(huì)影響擴(kuò)展訓(xùn)練的輸出,導(dǎo)致過(guò)擬合。
模型L11 在階段2 微調(diào)中實(shí)現(xiàn)了mAP 為59.4%和AP50 為74.6%的精度,用于瓶子圖像的實(shí)例分割,包括各種形狀和特征的密集重疊實(shí)例,與使用Faster R-CNN 模型所做的研究相比,WAND[18]的研究顯示沒(méi)有重疊的物體(包括其他類別物體)的檢測(cè)mAP 為60.6%,AP50 為86.4%,旋轉(zhuǎn)RPN 為90.3%。圖4 為瓶子密集團(tuán)塊的實(shí)例分割,模型分割的實(shí)例數(shù)隨著檢測(cè)最小置信水平的降低而增加。
Mask R-CNN 是一種具有開(kāi)創(chuàng)性意義的體系結(jié)構(gòu),其在塑料瓶分割中的應(yīng)用就是一個(gè)很好的例子。通過(guò)采用遷移學(xué)習(xí)方案和數(shù)據(jù)擴(kuò)充技術(shù),解決了諸如無(wú)法獲得綜合數(shù)據(jù)集和訓(xùn)練模型所需資源等挑戰(zhàn)。在不同階段進(jìn)行的實(shí)驗(yàn)表明,在不同的參數(shù)設(shè)置下對(duì)預(yù)訓(xùn)練模型進(jìn)行微調(diào)可以顯著提高性能。模型首先在預(yù)先訓(xùn)練的模型上使用頭層進(jìn)行訓(xùn)練,然后使用選擇層訓(xùn)練進(jìn)行微調(diào)(有增強(qiáng)和無(wú)增強(qiáng))。
在基于Mask R-CNN 的遷移學(xué)習(xí)算法中,將其應(yīng)用于塑料瓶圖像實(shí)例分割,觀察到以ResNet-101 為骨干網(wǎng)絡(luò)的初始頭部層訓(xùn)練,經(jīng)過(guò)增量微調(diào),AP50 達(dá)到了74.6%。另外,以平均精度(mAP)為評(píng)價(jià)指標(biāo),對(duì)IoU閾值范圍[0.5:0.95:0.5]進(jìn)行分割,得到的mAP為59.4%。通過(guò)對(duì)圖像和視頻數(shù)據(jù)的測(cè)試,取得了較好的分割效果。