蘭天翔,向子彧,劉名果,陳 凱
1.河南大學(xué) 物理與電子學(xué)院 開(kāi)封市智能制造工程技術(shù)研究中心,河南 開(kāi)封475000
2.電子科技大學(xué) 格拉斯哥學(xué)院,成都611731
語(yǔ)義分割是一項(xiàng)像素級(jí)精度的分類任務(wù),其將輸入視覺(jué)圖像分為不同的語(yǔ)義類別并對(duì)相應(yīng)像素點(diǎn)作標(biāo)記。早期語(yǔ)義分割主要使用聚類算法,而全卷積語(yǔ)義分割網(wǎng)絡(luò)的出現(xiàn),使得深度學(xué)習(xí)技術(shù)在語(yǔ)義分割領(lǐng)域快速推廣。全卷積語(yǔ)義分割網(wǎng)絡(luò)始于Long等人提出的FCN網(wǎng)絡(luò)(Fully Convolutional Networks)[1],核心思想是使用卷積層替換網(wǎng)絡(luò)中原有的線性層,使得網(wǎng)絡(luò)能夠適應(yīng)任意尺寸的輸入。FCN在網(wǎng)絡(luò)層級(jí)間使用了跳級(jí)結(jié)構(gòu),將低級(jí)特征引入到高級(jí)特征中,在語(yǔ)義分割任務(wù)中取得了不錯(cuò)的效果。其后在FCN網(wǎng)絡(luò)的基礎(chǔ)上,Ronneberger等人提出了U-Net網(wǎng)絡(luò)[2],通過(guò)使用多次跳躍連接,增加低層特征細(xì)節(jié),從而提高網(wǎng)絡(luò)的精度;Noh等人提出了DeconvNet網(wǎng)絡(luò)[3],改善了FCN網(wǎng)絡(luò)感受野固定、上采樣粗糙的問(wèn)題;Badrinarayanan等人參考U-Net及DeconvNet,提出了SegNet網(wǎng)絡(luò)[4],大幅減少了DeconvNet的參數(shù)量,并保證了網(wǎng)絡(luò)分割精度;Google公司提出空洞卷積方式,有效地?cái)U(kuò)大了語(yǔ)義分割網(wǎng)絡(luò)的感受野,使用空間金字塔空洞卷積從多個(gè)尺度提取圖片中的特征,由此發(fā)展出deeplab網(wǎng)絡(luò)系列[5-8];其他還有諸如E-Net、Link-Net、Mask R-CNN、PSPNet等[9-14]基于FCN發(fā)展而來(lái)的網(wǎng)絡(luò)模型,在語(yǔ)義分割和目標(biāo)檢測(cè)方面起到了重要的作用。雖然各種神經(jīng)網(wǎng)絡(luò)在分割精度上不斷提升,但模型對(duì)計(jì)算量的要求也在不斷增加,工業(yè)自動(dòng)化方向的需求并沒(méi)有得到滿足。在工業(yè)自動(dòng)化生產(chǎn)過(guò)程中,如何使用較少的資源,既好又快地完成指定任務(wù)是難點(diǎn)之一。目前對(duì)于輕量化模型的研究并不多見(jiàn),主要的輕量化模型結(jié)構(gòu)有Xception、SqueezeNet、Shufflenet、MobileNet等[15-18],雖能夠有效地降低模型的參數(shù)和計(jì)算量,但仍存在訓(xùn)練過(guò)程復(fù)雜、模型精度不高的缺點(diǎn)。
本文針對(duì)工業(yè)應(yīng)用方向改進(jìn)了U-Net語(yǔ)義分割網(wǎng)絡(luò)。改進(jìn)思想主要參考MobileNet-V2[19]對(duì)深度可分離卷積(depthwise separable convolution)的運(yùn)用,并在其基礎(chǔ)上高效利用深層特征,確保網(wǎng)絡(luò)的準(zhǔn)確率;綜合利用普通卷積及bottleneck模塊的優(yōu)勢(shì),進(jìn)一步降低了網(wǎng)絡(luò)的參數(shù)量和計(jì)算量,針對(duì)工業(yè)生產(chǎn)對(duì)圖像實(shí)時(shí)處理的要求,設(shè)計(jì)了輕量化LU-Net(Light U-Net)網(wǎng)絡(luò)。LU-Net網(wǎng)絡(luò)相比U-Net網(wǎng)絡(luò),在精度更高的同時(shí),運(yùn)行在不同設(shè)備上均能取得更快的速度,在保證分割效果的前提下,滿足實(shí)時(shí)處理的要求。經(jīng)過(guò)實(shí)驗(yàn)驗(yàn)證,LU-Net網(wǎng)絡(luò)在公開(kāi)的DRIVE數(shù)據(jù)集上預(yù)測(cè)圖片平均交并比(mean Intersection over Union,mIoU)達(dá)到了0.77,在CPU上檢測(cè)一張圖片平均延遲為1.0 s,在GPU上運(yùn)行平均延遲為0.080 s;在凹陷符號(hào)數(shù)據(jù)集上預(yù)測(cè)圖片平均mIoU值為0.94,在CPU上檢測(cè)一張360×270大小的圖片平均延遲為0.3 s,在GPU上運(yùn)行平均延遲為0.025 s。LU-Net網(wǎng)絡(luò)同時(shí)兼顧了語(yǔ)義分割的速度與精度,能夠滿足工業(yè)生產(chǎn)對(duì)實(shí)時(shí)處理的需求。
工業(yè)生產(chǎn)中,許多任務(wù)需要準(zhǔn)確地將同類目標(biāo)從背景中剝離,U-Net網(wǎng)絡(luò)架構(gòu)十分適合此類任務(wù)。
然而U-Net網(wǎng)絡(luò)并不是專門(mén)面向工業(yè)生產(chǎn)所提出的網(wǎng)絡(luò)模型,將其直接運(yùn)用在工業(yè)生產(chǎn)領(lǐng)域時(shí)存在著一些問(wèn)題:(1)模型參數(shù)多,占用內(nèi)存大,對(duì)硬件要求高;(2)計(jì)算量大,分割速度慢,不能滿足工業(yè)中實(shí)時(shí)檢測(cè)的需求。因此,須要對(duì)U-Net網(wǎng)絡(luò)進(jìn)行輕量化設(shè)計(jì),以減少參數(shù),提高其運(yùn)行速度。
在輕量化設(shè)計(jì)中,本文將U-Net與bottleneck結(jié)構(gòu)[19]有機(jī)融合,替代傳統(tǒng)卷積操作,在保證分割精度的前提下,利用bottleneck的深度可分離卷積層來(lái)減少網(wǎng)絡(luò)整體的參數(shù)量和計(jì)算量。深度可分離卷積不同于普通卷積,它將普通卷積的通道相關(guān)性與空間相關(guān)性分離,輸入特征張量的每個(gè)通道都對(duì)應(yīng)一個(gè)單獨(dú)卷積核,卷積后輸出特征張量。
假設(shè)輸入特征張量為H×W×Ci(其中H為特征張量高度,W為特征張量寬度,Ci為特征張量通道數(shù)),普通卷積的卷積核為F×F×Ci,共有Co個(gè)卷積核,對(duì)此特征張量進(jìn)行四周填充卷積操作,則輸出特征張量為H×W×Co,普通卷積參數(shù)量為:
計(jì)算量為:
深度可分離卷積參數(shù)量為:
計(jì)算量為:
由公式中可以看出,深度可分離卷積能夠明顯降低卷積操作的參數(shù)量與計(jì)算量。但由于深度可分離卷積在通道間并沒(méi)有信息交流,要配合1×1卷積核的普通卷積共同使用。
圖1中的兩個(gè)結(jié)構(gòu)為不同功能的bottleneck結(jié)構(gòu)。圖中左側(cè)bottleneck作用是替代傳統(tǒng)卷積,將普通卷積分解為兩個(gè)卷積核尺寸為1×1的普通卷積和一個(gè)3×3深度可分離卷積,以保持網(wǎng)絡(luò)精度;右側(cè)結(jié)構(gòu)主要作用是縮小輸入特征向量尺寸,與池化層的作用相似,但可以保留更多特征信息。兩種結(jié)構(gòu)都會(huì)在第一次1×1卷積時(shí)對(duì)輸入通道數(shù)進(jìn)行擴(kuò)張,擴(kuò)張倍數(shù)通常為6倍。因此結(jié)構(gòu)中間的深度可分離卷積層需要同時(shí)并行處理大量的卷積操作,在CPU上運(yùn)行時(shí)會(huì)嚴(yán)重影響網(wǎng)絡(luò)速度。因此,直接使用bottleneck結(jié)構(gòu)替換U-Net卷積操作并不可取。
圖1 MobileNet-V2 bottleneck結(jié)構(gòu)Fig.1 Structure of MobileNet-V2 bottleneck
同時(shí),Bottleneck替換后的U-Net網(wǎng)絡(luò)相比于原U-Net網(wǎng)絡(luò),網(wǎng)絡(luò)參數(shù)量為41×106,多增加10×106,計(jì)算量增加了20%,其中1×1卷積操作參數(shù)量占網(wǎng)絡(luò)整體參數(shù)量的99.2%,計(jì)算量占網(wǎng)絡(luò)整體計(jì)算量的97.5%,仍然有提高改進(jìn)的空間。因此,綜合bottleneck卷積結(jié)構(gòu)和普通卷積的優(yōu)缺點(diǎn),本文提出了LU-Net網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
圖2 LU-Net結(jié)構(gòu)Fig.2 Structure of LU-Net
LU-Net沿用了U-Net的整體架構(gòu),使用編碼器解碼器結(jié)構(gòu)。圖2中模塊1及其左側(cè)網(wǎng)絡(luò)部分為編碼器,模塊3及其右側(cè)部分為解碼器。網(wǎng)絡(luò)使用跳躍連接的方式將低級(jí)特征與高級(jí)特征拼接,使低級(jí)特征與高級(jí)特征進(jìn)行信息交流,加強(qiáng)網(wǎng)絡(luò)對(duì)圖像細(xì)節(jié)的處理能力。相較于U-Net,本網(wǎng)絡(luò)在以下方面進(jìn)行了改進(jìn):
(1)減少了網(wǎng)絡(luò)卷積層數(shù),省去重復(fù)的特征提取步驟。
(2)在模塊1及模塊3位置使用了bottleneck結(jié)構(gòu)。在此位置,張量尺寸縮小為原圖的四分之一,bottleneck結(jié)構(gòu)能夠更好地提取張量特征,且不會(huì)產(chǎn)生過(guò)多并行計(jì)算的負(fù)擔(dān)。
(3)編碼器與解碼器交接位置使用模塊2對(duì)接。模塊2與bottleneck相似,但中間層增加2層深度可分離卷積(如圖2所示),在參數(shù)量與計(jì)算量增加不多的情況下,使用多層深度可分離卷積增強(qiáng)網(wǎng)絡(luò)對(duì)抽象特征的提取能力,提高深層特征的利用效率,增加網(wǎng)絡(luò)精度。
(4)解碼器使用雙線性插值法代替反卷積對(duì)特征圖進(jìn)行上采樣。相較于反卷積上采樣方式,雙線性插值法能夠有效避免反卷積中可能產(chǎn)生的棋盤(pán)效應(yīng)導(dǎo)致的訓(xùn)練困難。
(5)網(wǎng)絡(luò)中的激活函數(shù)均采用leaky-relu激活函數(shù),使網(wǎng)絡(luò)具有非線性的同時(shí),避免因激活函數(shù)導(dǎo)致卷積神經(jīng)元的失活影響網(wǎng)絡(luò)的訓(xùn)練。
經(jīng)過(guò)上述改進(jìn),LU-Net網(wǎng)絡(luò)參數(shù)量縮小至原參數(shù)量的7.4%,計(jì)算量約為原計(jì)算量的42.2%;深度可分離卷積的引入既保證了準(zhǔn)確率,也提升了網(wǎng)絡(luò)處理速度。
網(wǎng)絡(luò)最終輸出張量經(jīng)過(guò)沿通道維的softmax函數(shù)后形成預(yù)測(cè)圖像。
實(shí)驗(yàn)在服務(wù)器中進(jìn)行,使用語(yǔ)言為Python3.7.3,深度學(xué)習(xí)框架為tensorflow1.13,服務(wù)器系統(tǒng)為windows sever 2012,內(nèi)存為32 GB,GPU為T(mén)esla K40,顯存為12 GB。測(cè)試時(shí)使用CPU為Intel Core i7-6700。
實(shí)驗(yàn)在兩個(gè)數(shù)據(jù)集上進(jìn)行,分別使用公開(kāi)的DRIVE數(shù)據(jù)集及石墨板上的凹陷符號(hào)數(shù)據(jù)集。DRIVE數(shù)據(jù)集是一個(gè)醫(yī)療圖像數(shù)據(jù)集,由40張圖片組成,其中20張為訓(xùn)練集,20張為測(cè)試集;圖片尺寸為565×584;每張圖片都有對(duì)應(yīng)的手工標(biāo)記標(biāo)簽。凹陷符號(hào)數(shù)據(jù)集共有30張凹陷字符圖片,每張圖片大小為1 440×1 080,其中20張作為訓(xùn)練集,10張作為測(cè)試集;圖片特征的標(biāo)記均由實(shí)驗(yàn)人員手工完成。由于訓(xùn)練集樣本量小,需要對(duì)訓(xùn)練集進(jìn)行擴(kuò)充處理。實(shí)驗(yàn)中使用對(duì)原始訓(xùn)練圖片隨機(jī)剪裁的方法擴(kuò)充訓(xùn)練集,剪裁圖像大小為200×200。
網(wǎng)絡(luò)的損失函數(shù)選擇softmax交叉熵函數(shù),其公式為:
其中,p(x)代表真實(shí)概率分布,q(x)代表神經(jīng)網(wǎng)絡(luò)函數(shù)輸出的預(yù)測(cè)概率分布,H()p,q即代表了預(yù)測(cè)概率與真實(shí)概率之間的差異。網(wǎng)絡(luò)在訓(xùn)練過(guò)程中,通過(guò)神經(jīng)網(wǎng)絡(luò)優(yōu)化器的不斷優(yōu)化網(wǎng)絡(luò)參數(shù),縮小預(yù)測(cè)結(jié)果與真實(shí)結(jié)果之間的空間距離,優(yōu)化神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果。
實(shí)驗(yàn)評(píng)估標(biāo)準(zhǔn)選擇通用的準(zhǔn)確率(AC)、精確率(precision)、召回率(recall)與平均交并比(mIoU)。其公式如下:
上述公式中TP(True Positives,真正例)為正確分割的物體像素?cái)?shù),TN(True Negatives,真負(fù)例)為正確分割的背景像素?cái)?shù),F(xiàn)P(False Positives,假正例)為錯(cuò)誤分割為物體的背景像素?cái)?shù),F(xiàn)N(False Negatives,假負(fù)例)為錯(cuò)誤分割為背景的物體像素?cái)?shù)。公式(6)表示正確預(yù)測(cè)的像素?cái)?shù)與圖片像素?cái)?shù)的比,即為預(yù)測(cè)準(zhǔn)確率;公式(7)為精確率,表示預(yù)測(cè)為正例的樣本中正確的個(gè)數(shù)比例;公式(8)為召回率,表示實(shí)際的正例樣本中能夠被正確預(yù)測(cè)的比例;公式(9)為平均交并比公式,A為手動(dòng)標(biāo)記圖像,B為網(wǎng)絡(luò)預(yù)測(cè)圖像,為兩張圖像的交并比,mean為求均值。
實(shí)驗(yàn)中,LU-Net-64網(wǎng)絡(luò)普通卷積層的通道數(shù)與原U-Net網(wǎng)絡(luò)對(duì)應(yīng)層通道數(shù)相同,bottleneck結(jié)構(gòu)擴(kuò)張倍數(shù)為3倍,LU-Net-32普通卷積層的通道數(shù)為原U-Net網(wǎng)絡(luò)對(duì)應(yīng)層通道數(shù)的一半,bottleneck結(jié)構(gòu)擴(kuò)張通道倍數(shù)為6倍。訓(xùn)練使用Adam優(yōu)化器對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行優(yōu)化,學(xué)習(xí)率設(shè)置為1E?4,訓(xùn)練輪數(shù)設(shè)置為3 000輪。
首先實(shí)驗(yàn)在凹陷字符數(shù)據(jù)集上進(jìn)行,本實(shí)驗(yàn)將原始圖像縮放至360×270分辨率,再進(jìn)行隨機(jī)剪裁擴(kuò)充處理。
網(wǎng)絡(luò)實(shí)驗(yàn)結(jié)果如圖3所示。從圖3(b)中可以看出,使用傳統(tǒng)閾值分割方法分割出的圖像,雖已經(jīng)過(guò)濾波處理,仍然含有大量的噪點(diǎn),字符圖像有殘缺,圖像分割效果差;神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)圖像清晰完整,能夠清楚地辨認(rèn)圖像中的字符。相較于U-Net網(wǎng)絡(luò),LU-Net-64網(wǎng)絡(luò)預(yù)測(cè)圖像中字符的細(xì)節(jié)部分略差,而對(duì)字符整體的預(yù)測(cè)更優(yōu),圖像分割質(zhì)量與U-Net基本相同。LU-Net-32網(wǎng)絡(luò)預(yù)測(cè)圖像相對(duì)于LU-Net-64網(wǎng)絡(luò),質(zhì)量略為下降,但同樣能夠清晰看到分割出的字符。
圖3 凹陷字體實(shí)驗(yàn)效果對(duì)比圖Fig.3 Result of hollow symbol dataset experiment
實(shí)驗(yàn)的詳細(xì)參數(shù)對(duì)比如表1所示。從表1中可以看出,在CPU上運(yùn)行,U-Net處理圖片需要1.82 s,不能達(dá)到實(shí)時(shí)處理的要求;LU-Net-32處理圖片需要0.30 s,能夠做到實(shí)時(shí)處理。LU-Net-32不論是在串行能力強(qiáng)的CPU還是在并行能力強(qiáng)的GPU上運(yùn)行時(shí)間均為最短。LU-Net網(wǎng)絡(luò)模型平均準(zhǔn)確率與mIoU均優(yōu)于U-Net網(wǎng)絡(luò),LU-Net-32精確率更高,而LU-Net-64召回率更高。LU-Net-64網(wǎng)絡(luò)參數(shù)量為U-Net參數(shù)量的7.4%,運(yùn)算量為原來(lái)的42.2%,運(yùn)行時(shí)間提高了2倍。LU-Net-32網(wǎng)絡(luò)的參數(shù)量、運(yùn)算量及預(yù)測(cè)所需時(shí)間相對(duì)于LU-Net-64網(wǎng)絡(luò)均不及其50%,準(zhǔn)確率雖略為下降,但下降幅度不大,而預(yù)測(cè)所需時(shí)間的縮短、參數(shù)量的減小十分明顯。因此在一些需要實(shí)時(shí)預(yù)測(cè)的任務(wù)中,使用LU-Net-32網(wǎng)絡(luò)比較合適,而在一些更注重標(biāo)注準(zhǔn)確率或召回率的任務(wù)中,LU-Net-64網(wǎng)絡(luò)更加合適。
表1 凹陷字符數(shù)據(jù)集不同網(wǎng)絡(luò)分割測(cè)試結(jié)果Table 1 Segmentation results of models on hollow symbol dataset
實(shí)驗(yàn)驗(yàn)證LU-Net網(wǎng)絡(luò)在公開(kāi)數(shù)據(jù)集DRIVE上的效果,實(shí)驗(yàn)結(jié)果如圖4、圖5所示。
圖5 部分實(shí)驗(yàn)放大圖Fig.5 Local enlarged drawing of experiment
從圖4中能夠看出,LU-Net網(wǎng)絡(luò)分割圖像能夠取得與U-Net網(wǎng)絡(luò)同樣的效果。在CPU上運(yùn)行時(shí),U-Net分割一張圖片需要5.285 s,不能達(dá)到實(shí)時(shí)處理的要求,LU-Net-64需要2.878 s,而LU-Net-32需要1.004 s,將速度提升了5倍。在GPU運(yùn)行條件下U-net網(wǎng)絡(luò)分割一張完整圖片需要0.367 s,LU-Net-64網(wǎng)絡(luò)需要0.197 s,LUNet-32網(wǎng)絡(luò)則只需0.080 s,LU-Net網(wǎng)絡(luò)不但分割效果更優(yōu),且將運(yùn)行速度提升了一倍以上。
圖4 DRIVE實(shí)驗(yàn)效果對(duì)比圖Fig.4 Result of DRIVE dataset experiment
圖5為圖4中部分實(shí)驗(yàn)結(jié)果圖的放大效果,能夠更明顯地看到不同網(wǎng)絡(luò)處理圖像的細(xì)節(jié)。U-Net網(wǎng)絡(luò)分割效果在細(xì)節(jié)部分處理得更好,能夠分割出部分細(xì)小血管,但精確率(precision)低,圖中能夠明顯看出存在較多假正例(FP)標(biāo)注現(xiàn)象;LU-Net-64網(wǎng)絡(luò)對(duì)粗血管分割效果更加貼近于人工標(biāo)記圖像,但相對(duì)的細(xì)小血管部分分割精度下降,手工標(biāo)記中存在的部分細(xì)小血管并沒(méi)有在圖上標(biāo)出。圖片整體的分割準(zhǔn)確率與精確率有所提高,假正例標(biāo)注相對(duì)減少;而LU-Net-32網(wǎng)絡(luò)具有與LU-Net-64基本相同的分割效果,召回率則略低于LU-Net-64網(wǎng)絡(luò)。圖像整體的分割精確率進(jìn)一步提高,網(wǎng)絡(luò)整體的運(yùn)算量更少,速度表現(xiàn)更快。實(shí)驗(yàn)的詳細(xì)結(jié)果參數(shù)如表2所示。
表2 DRIVE數(shù)據(jù)集不同網(wǎng)絡(luò)分割測(cè)試結(jié)果Table 2 Segmentation results of models on DRIVE dataset
從表中能夠看到,在此數(shù)據(jù)集上,LU-Net在兩種計(jì)算設(shè)備上均獲得了預(yù)測(cè)所需時(shí)間的最佳成績(jī)。LU-Net-32網(wǎng)絡(luò)計(jì)算速度提升相對(duì)更加明顯,且在除了召回率的各方面表現(xiàn)均為最優(yōu)。
通過(guò)以上對(duì)比實(shí)驗(yàn)充分證明,LU-Net能夠在保持精度的同時(shí)快速完成語(yǔ)義分割的任務(wù)。LU-Net-64在準(zhǔn)確率與召回率方面略有優(yōu)勢(shì),LU-Net-64則更快,模型更小。在實(shí)際應(yīng)用時(shí)可以從LU-Net-32與LU-Net-64中根據(jù)需求自行選擇,運(yùn)用在工業(yè)生產(chǎn)等需要快速分割的場(chǎng)景中。
神經(jīng)網(wǎng)絡(luò)的輕量化使網(wǎng)絡(luò)更易于應(yīng)用在工業(yè)生產(chǎn)領(lǐng)域。本文針對(duì)工業(yè)生產(chǎn)環(huán)境中深度學(xué)習(xí)網(wǎng)絡(luò)的實(shí)時(shí)性問(wèn)題,基于U-Net網(wǎng)絡(luò)架構(gòu),結(jié)合MobileNet-V2網(wǎng)絡(luò)的思想,綜合利用深度可分離卷積與普通卷積的優(yōu)點(diǎn),設(shè)計(jì)了一種快速語(yǔ)義分割網(wǎng)絡(luò)LU-Net。LU-Net網(wǎng)絡(luò)降低了參數(shù)量,減少了計(jì)算量,不論是在CPU還是在GPU上運(yùn)行,均能夠在保證精確度的同時(shí),提高語(yǔ)義分割的速度。經(jīng)過(guò)實(shí)驗(yàn)驗(yàn)證,LU-Net網(wǎng)絡(luò)處理一張尺寸為360×270的圖片在CPU上平均耗時(shí)為0.30 s,在GPU上平均耗時(shí)為0.025 s;處理一張尺寸為565×584的圖片在CPU上平均耗時(shí)為1.004 s,在GPU上平均耗時(shí)為0.079 7 s。網(wǎng)絡(luò)在DRIVE數(shù)據(jù)集及凹陷字體數(shù)據(jù)集上的準(zhǔn)確率均在0.96以上。相比于U-Net,本文算法在提升準(zhǔn)確率的同時(shí)將網(wǎng)絡(luò)參數(shù)量縮小至0.59×106,為其1.9%;計(jì)算量縮小至57.9 GFlops,為其8.8%。網(wǎng)絡(luò)大幅減少了設(shè)備的計(jì)算負(fù)擔(dān),加快了分割速度,能夠滿足工業(yè)生產(chǎn)實(shí)時(shí)處理的需求。