殷小芳,辛月蘭,蘭 天,何曉明
(青海師范大學(xué) 物理與電子信息工程學(xué)院,青海 西寧 810000)
為了獲得完整的圖像理解,我們不僅應(yīng)專注于對(duì)不同圖像進(jìn)行分類,而且還應(yīng)精確估計(jì)每個(gè)圖像中所包含對(duì)象的概念和位置。目標(biāo)檢測(cè)作為圖像理解和計(jì)算機(jī)視覺的基石,能夠?yàn)閳D像和視頻的語(yǔ)義理解提供有價(jià)值的信息,并且涉及許多應(yīng)用,包括圖像分類[1]、人類行為分析[2]、臉部識(shí)別[3]、醫(yī)療診斷[4]和自動(dòng)駕駛[5,6]等。近年來,目標(biāo)檢測(cè)算法從基于手工特征的傳統(tǒng)算法轉(zhuǎn)向了基于深度學(xué)習(xí)的方法[7]并得到了很大突破[8]?,F(xiàn)有的深度學(xué)習(xí)方法可以分為兩類,一類是兩階段檢測(cè)方法,該方法使用區(qū)域推薦產(chǎn)生候選目標(biāo),隨后使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行處理。目前這類方法主要有區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Region-CNN,R-CNN)[9]、空間金字塔池化網(wǎng)絡(luò)(spatial pyramid pooling net,SPP-net)[10]、快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Fast Region-CNN,F(xiàn)ast R-CNN)[11]和掩膜區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(mask regions with convolution neural network,Mask R-CNN)[12]等。此類算法雖然在平均精度上有所提高,但當(dāng)光照條件不足、目標(biāo)過小、目標(biāo)重疊度高等情況下仍然存在誤檢和漏檢的情況;另一類是一階段檢測(cè)方法,這類方法無(wú)需區(qū)域推薦直接回歸目標(biāo)物體的類別概率和位置坐標(biāo),這類方法主要有YOLO[13]、YOLOv2[14]、YOLOv3[15]、SSD[16]和RetinaNet等,此方法雖然在速度上提高了但檢測(cè)精度較低,完美地完成對(duì)象檢測(cè)仍然存在挑戰(zhàn)。Ren等提出Faster R-CNN算法[17],進(jìn)一步提高了Fast R-CNN的檢測(cè)性能,該算法使用區(qū)域提案網(wǎng)絡(luò)(regional proposal network,RPN),解決了Fast R-CNN的實(shí)時(shí)性檢測(cè)和端到端訓(xùn)練測(cè)試的問題,但是準(zhǔn)確識(shí)別不同姿態(tài)和視角下的對(duì)象仍存在挑戰(zhàn),同一物體不同姿態(tài)視角下仍有誤檢漏檢或檢測(cè)精度較低等情況。考慮到物體外觀會(huì)根據(jù)其基本形狀(例如汽車與馬)以及不同的姿勢(shì)和視角(例如,蹲著的人與站立的人)的不同而直接影響檢測(cè)精度,本文提出一種多通道檢測(cè)算法(multi-channel faster region-CNN,MC Faster R-CNN)來進(jìn)一步優(yōu)化檢測(cè)性能。改進(jìn)算法基于Faster R-CNN體系結(jié)構(gòu),在Resnet-101的網(wǎng)絡(luò)結(jié)構(gòu)上重新進(jìn)行了網(wǎng)絡(luò)訓(xùn)練和參數(shù)的調(diào)整,并在PASCALVOC2007[18]數(shù)據(jù)集、PASCALVOC2012[19]數(shù)據(jù)集、MS COCO[20]數(shù)據(jù)集和自己拍攝的圖像上進(jìn)行了大量實(shí)驗(yàn)驗(yàn)證,實(shí)驗(yàn)結(jié)果表明,本文算法在檢測(cè)精度和速度上都有著很好的表現(xiàn)。
Faster R-CNN的網(wǎng)絡(luò)架構(gòu)如圖1所示[21],F(xiàn)aster R-CNN的結(jié)構(gòu)主要分為3大部分,最左邊的虛線框?yàn)榈谝徊糠值墓蚕淼木矸e層-backbone,中間部分虛線框?yàn)榈诙糠值暮蜻x區(qū)域提案網(wǎng)絡(luò)-RPN,最右邊虛線框是對(duì)候選區(qū)域進(jìn)行分類的網(wǎng)絡(luò)-classifier。從圖1中可以看出,目標(biāo)檢測(cè)所需要的4個(gè)步驟全部在CNN中實(shí)現(xiàn),并且全部運(yùn)行在GPU上,解決了Fast R-CNN端到端訓(xùn)練測(cè)試的問題。
圖1 Faster R-CNN的網(wǎng)絡(luò)架構(gòu)
區(qū)域提案網(wǎng)絡(luò)。其結(jié)構(gòu)如圖2所示[22],該網(wǎng)絡(luò)以任何大小的圖像作為輸入,RPN是全卷積網(wǎng)絡(luò)[23],通過端到端訓(xùn)練可以產(chǎn)生量少質(zhì)優(yōu)的建議區(qū)域,然后通過Fast R-CNN進(jìn)行檢測(cè)。RPN和分類回歸網(wǎng)絡(luò)共享第一部分的特征提取網(wǎng)絡(luò)并與RPN一起訓(xùn)練,降低了網(wǎng)絡(luò)參數(shù)量和訓(xùn)練所用的時(shí)間。在最后共享卷積層輸出的卷積特征圖中使用滑動(dòng)窗口的操作方式生成區(qū)域提案框,滑動(dòng)窗口的中心在原像素空間的映射點(diǎn)成為錨框(anchor boxes)。每個(gè)滑動(dòng)窗口處會(huì)生成K個(gè)大小不同的錨邊框,由于目標(biāo)不可能都為正方形,所以設(shè)置多種不同面積尺寸的anchor,來得到期望的目標(biāo)提案框。
圖2 區(qū)域提案網(wǎng)絡(luò)(RPN)
RPN的損失函數(shù)和邊界框回歸。在訓(xùn)練RPN的時(shí)候,先需要對(duì)得到的W*H*k個(gè)錨框進(jìn)行正負(fù)樣本的劃分,其中與真實(shí)的檢驗(yàn)框(ground truth box,gt box)中具有最大交并比IoU的錨框以及gt box的IoU大于0.7的錨框作為正樣本,與gt box的IoU小于0.3的錨框作為負(fù)樣本,其余錨框均被忽略。對(duì)于每個(gè)錨框,后面會(huì)再接上一個(gè)softmax分類器和邊框(Bounding-Box,bbox)回歸器。softmax分類器用于判斷錨框是否為目標(biāo)概率,bbox回歸器用于調(diào)整錨框的4個(gè)坐標(biāo)值。因此RPN的損失函數(shù)可定義為[22]
(1)
式中:參數(shù)R為smooth函數(shù)[24],表達(dá)式為
由于目標(biāo)檢測(cè)中的物體外觀會(huì)根據(jù)其基本形狀以及不 同的姿勢(shì)和視角的不同而有很大的差異,本文為了優(yōu)化檢測(cè)性能,更準(zhǔn)確識(shí)別20種物體的外觀,提出一種多通道檢測(cè)算法即MC Faster R-CNN,并通過大量的實(shí)驗(yàn)與分析驗(yàn)證了該算法的有效性。
MC Faster R-CNN的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,本文的改進(jìn)如圖中虛線框所示,由于RPN網(wǎng)絡(luò)能夠產(chǎn)生量少質(zhì)優(yōu)的區(qū)域提案框,有高準(zhǔn)確率和召回率且降低了網(wǎng)絡(luò)參數(shù)量和訓(xùn)練所用的時(shí)間,所以該算法延用了Faster R-CNN中的RPN網(wǎng)絡(luò)。Faster R-CNN是由每個(gè)圖像卷積網(wǎng)絡(luò)和每個(gè)RoI網(wǎng)絡(luò)組成,圖像卷積網(wǎng)絡(luò)獲取輸入圖像并計(jì)算每幅圖像的特征圖,并將該圖作為下一個(gè)卷積層的輸出,同時(shí)區(qū)域提案網(wǎng)絡(luò)生成感興趣區(qū)域(RoI)。由于區(qū)域提議網(wǎng)絡(luò)會(huì)生成類似于目標(biāo)的區(qū)域,而不是目標(biāo)實(shí)例,并且不擅長(zhǎng)處理極端比例和不同姿態(tài)與視角情況下的形狀目標(biāo)。所以本文算法在RoI生成方面不再使用單獨(dú)的網(wǎng)絡(luò),而是改為由3個(gè)通道組成的網(wǎng)絡(luò),每個(gè)通道分別處理相應(yīng)的RoI。每個(gè)通道都具有與Faster R-CNN相同的完全連接層且都帶有一個(gè)RoI池化層和一組共享卷積層。通過將圖像RoI的形狀與標(biāo)定的特有的形狀類別之一進(jìn)行匹配,然后進(jìn)行適當(dāng)?shù)耐ǖ婪峙洌疚姆譃樗窖由?H)、正方形(S)、垂直延伸(V)這3類。在測(cè)試中,MC Faster R-CNN從3個(gè)不同的通道輸出3組檢測(cè)結(jié)果,即邊界框及其得分。得分通過精度評(píng)價(jià)式(2)[25]來計(jì)算,IoU值越大精度越高評(píng)分越高,反之,精度越低評(píng)分越低。本文將重疊標(biāo)準(zhǔn)定為0.3,然后通過非極大值抑制來精煉邊界框
IoU=(A∩B)/(A∪B)
(2)
式中:A為候選框,B為原標(biāo)記框,比值為1是最理想的完全重疊狀態(tài)。
圖3 MC Faster R-CNN的網(wǎng)絡(luò)結(jié)構(gòu)
生成RoI后,本文根據(jù)目標(biāo)的形狀類別將每個(gè)RoI分配給相對(duì)應(yīng)的通道。每個(gè)RoI的形狀類別均根據(jù)其縱橫比來分配,其中包括水平伸長(zhǎng)(H)、方形(S)或垂直伸長(zhǎng)(V)3種形狀類別。用θ表示RoI的寬高比并定義為式(3)
θ=W/H
(3)
式中:W和H分別是RoI的寬度和高度。
進(jìn)行訓(xùn)練時(shí)通道分配定義為式(4),根據(jù)此RoI分配標(biāo)準(zhǔn),RoI可以分為多個(gè)類別,比如接近方形的水平拉長(zhǎng)物體既能分到水平拉長(zhǎng)通道又能分到方形通道。這樣做的目的是讓多個(gè)通道負(fù)責(zé)同一RoI,這些RoI可以在不同類別之間共享,同時(shí)增強(qiáng)了RoI訓(xùn)練集,可以獲得更多的前景信息和背景信息及正面和負(fù)面示例,在訓(xùn)練階段提供了更加豐富的信息。在測(cè)試階段為了保證檢測(cè)速度并提高檢測(cè)性能強(qiáng)制將RoI分配給僅1個(gè)通道進(jìn)行測(cè)試,將通道分配標(biāo)準(zhǔn)設(shè)置為具有不重疊的區(qū)域,并定義為式(5)
(4)
(5)
本文通過最小化正則函數(shù)R(W)和3對(duì)損失函數(shù)之和L(W)來優(yōu)化權(quán)重為W的網(wǎng)絡(luò),3對(duì)L(W)分別連接到網(wǎng)絡(luò)中對(duì)應(yīng)的通道上進(jìn)行優(yōu)化。對(duì)于每個(gè)通道c,分別將softmax損失函數(shù)Lsoftmax和smoothL1損失函數(shù)Lsmooth用于對(duì)象分類和邊界框回歸,本文將損失函數(shù)定義為[11]
(6)
為了優(yōu)化3個(gè)通道,本文選擇每次準(zhǔn)備3批迭代,每個(gè)批次均由兩個(gè)圖像構(gòu)成,每個(gè)圖像貢獻(xiàn)了64個(gè)隨機(jī)選擇的RoI。對(duì)于每個(gè)通道,僅選擇與其關(guān)聯(lián)的形狀類別匹配的RoI進(jìn)行訓(xùn)練。根據(jù)RoI和ground truth邊界框之間的重疊標(biāo)準(zhǔn)(IoU),每個(gè)RoI會(huì)被標(biāo)記為正例或負(fù)例,其中IoU等于或大于0.5的RoI被標(biāo)記為正例,IoU在0.1到0.5之間的RoI被標(biāo)記為負(fù)例。對(duì)于每一批,正例和負(fù)例樣品之間的比例固定為1∶3。
通過第2節(jié)中的所有分析,本文使用基于Resnet-101的Faster R-CNN構(gòu)建的MC Faster R-CNN。本文所有實(shí)驗(yàn)均在Windows10 1909系統(tǒng)下進(jìn)行,其中深度學(xué)習(xí)框架為tensorflow1.14,硬件環(huán)境為Intel Corei5-8400 2.81 GHz CPU,NVIDIA GeForce GTX 1080Ti GPU,顯存為11 GB。軟件環(huán)境為Python 3.6,Keras 2.2.5,CUDA 8.0。
為了驗(yàn)證本文算法的有效性,采用PASCALVOC2007、PASCALVOC2012和MS COCO這3個(gè)數(shù)據(jù)集和自己拍攝的圖像進(jìn)行測(cè)試。都是先使用訓(xùn)練集進(jìn)行檢測(cè)算法的網(wǎng)絡(luò)模型訓(xùn)練,然后在測(cè)試集上對(duì)訓(xùn)練好的模型進(jìn)行驗(yàn)證。實(shí)驗(yàn)中對(duì)所有數(shù)據(jù)集采用K折交叉驗(yàn)證法[26],本文將訓(xùn)練集S分成5個(gè)不相交的子集,5個(gè)子集中的一個(gè)作為測(cè)試集,其它4個(gè)作為訓(xùn)練集,并把訓(xùn)練出的模型用來測(cè)試得到相應(yīng)的檢測(cè)精度。最后計(jì)算5次求得的檢測(cè)精度的平均值,作為本文模型真實(shí)檢測(cè)精度。
本文算法實(shí)驗(yàn)結(jié)果與Faster R-CNN和YOLOv3進(jìn)行對(duì)比,實(shí)驗(yàn)中均使用40k次迭代訓(xùn)練所有方法,基本學(xué)習(xí)率設(shè)置為0.001,經(jīng)過30k次迭代后降至0.0001。其次,根據(jù)高斯分布(均值為0和標(biāo)準(zhǔn)偏差為0.01)隨機(jī)選擇它們來初始化分類層權(quán)重。對(duì)于邊界框回歸層,初始化了從高斯分布中隨機(jī)選擇的權(quán)重,均值和標(biāo)準(zhǔn)差分別為0和0.001。
MC Faster R-CNN中的多通道所包含的全連接層數(shù)量比Faster R-CNN多3倍,這帶來了內(nèi)存效率問題。為驗(yàn)證跨層共享對(duì)多個(gè)通道的影響,文中選取均值平均精度(mean average precision,mAP)作為實(shí)驗(yàn)結(jié)果的評(píng)價(jià)指標(biāo),mAP值越高精確度越高,檢測(cè)性能越好。計(jì)算方法為式(7)[27],AP(average precision)即PR曲線下覆蓋的面積,PR曲線是以召回率(Recall,R)作為X軸,精確度(Precise,P)作為Y軸來繪制,對(duì)于連續(xù)PR曲線,式(7)中AP計(jì)算公式為式(8)
(7)
(8)
本文中多個(gè)通道之間的全連接層是共享的,與優(yōu)化卷積層相似,共享全連接層是通過將基本學(xué)習(xí)速率乘以1/3來優(yōu)化的。使用3個(gè)不同的結(jié)構(gòu)變化進(jìn)行檢測(cè)時(shí),當(dāng)多通道算法沒有共享層、共享fc6層和fc6&fc7層的mAP值分別為:73.5%、74.6%、72.9%??梢缘贸?個(gè)通道共享fc6層可以更好地提高檢測(cè)性能并節(jié)省內(nèi)存空間。單通道和多通道的消融對(duì)比結(jié)果見表1,可以看出即使沒有擴(kuò)充訓(xùn)練數(shù)據(jù)集,MC Faster R-CNN的檢測(cè)性能也要優(yōu)于單一通道網(wǎng)絡(luò)。當(dāng)多通道網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)集為PASCALVOC 2007和PASCALVOC2012時(shí)相比擴(kuò)充訓(xùn)練數(shù)據(jù)集后的Faster R-CNN平均檢測(cè)精度分別提高了0.9%和2.4%。
表1 單通道和多通道的消融實(shí)驗(yàn)結(jié)果對(duì)比
為了分析每個(gè)通道的綜合能力,不考慮RoI形狀類別的情況下使用3個(gè)通道中的一個(gè)來得到檢測(cè)結(jié)果。通過實(shí)驗(yàn)得出由3個(gè)獨(dú)立通道的均值平均檢測(cè)精度值,H、S、V這3個(gè)通道均值平均檢測(cè)精度分別為69.1%、75.4%、64.9%??梢钥闯鯯通道明顯優(yōu)于H和V通道,這與擴(kuò)充訓(xùn)練集之后的Faster R-CNN所得到的均值平均檢測(cè)精度76.4%相當(dāng)。由通道分配定義式(4)可知,S通道在訓(xùn)練階段不僅可以發(fā)現(xiàn)方形的對(duì)象,而且能分配到近似于方型的其它兩類形狀目標(biāo),這樣S通道就會(huì)訓(xùn)練更多的形狀類別使得它檢測(cè)另外兩種形狀類別的對(duì)象表現(xiàn)較好。當(dāng)在MC Faster R-CNN的統(tǒng)一網(wǎng)絡(luò)設(shè)置中使用這3個(gè)通道時(shí),均值平均精度可以提高到79.7%(見表1)。
圖4顯示了不同通道檢測(cè)每種物體類別的均值平均檢測(cè)精度。當(dāng)一個(gè)物體類別包含具有特定形狀類別時(shí),負(fù)責(zé)該類別的通道將獲得最佳的檢測(cè)精度。例如,H通道在檢測(cè)火車、公交車和飛機(jī)等水平拉長(zhǎng)物體方面表現(xiàn)最佳,而V通道在大多為垂直拉長(zhǎng)形狀的物體類別中表現(xiàn)最佳,如人、瓶子和馬等。S通道整體檢測(cè)效果較好,因?yàn)榉叫瓮ǖ涝谟?xùn)練階段得到了更豐富信息。整體看來,使用多通道檢測(cè)算法檢測(cè)性能表現(xiàn)較好。
圖4 不同通道檢測(cè)每種物體類別的平均檢測(cè)精度
本文在實(shí)驗(yàn)結(jié)果中選取的數(shù)據(jù)集均為PASCALVOC2012,為了更加直觀展示實(shí)驗(yàn)的效果,將本文算法的實(shí)驗(yàn)結(jié)果與兩階典型算法Faster R-CNN和一階典型算法YOLOv3算法進(jìn)行了對(duì)比,從中選取了部分代表性的結(jié)果如圖5~圖7所示,從圖中可以看出不論是單目標(biāo)圖像還是多目標(biāo)圖像,本文提出的算法比Faster R-CNN和YOLOv3算法更有優(yōu)勢(shì)。具體表現(xiàn)為:①通過多通道算法檢測(cè)可以更好的將不同形狀的目標(biāo)準(zhǔn)確識(shí)別,而且在霧天或者較暗光照的情況下仍然有著很好的表現(xiàn),例如圖6中的飛機(jī)和輪船;②對(duì)Faster R-CNN和YOLOv3未能檢測(cè)的目標(biāo),本文算法可以識(shí)別且精度都比較高,例圖6中的輪船和圖7的企鵝;③對(duì)同樣都能識(shí)別出來的目標(biāo),本文算法的檢測(cè)效果更好得分更高,該得分由式(7)計(jì)算得來,圖5~圖7均有體現(xiàn);④對(duì)重疊度比較高的或者較小目標(biāo)其準(zhǔn)確度更高,修正了Faster R-CNN和YOLOv3算法檢測(cè)時(shí)出現(xiàn)的漏檢問題如圖6中含有多個(gè)目標(biāo)的人;⑤在有遮擋或目標(biāo)重疊的情況下,本文算法可以準(zhǔn)確識(shí)別,例如圖6中的人、圖7中的企鵝和貓。同時(shí),相對(duì)Faster R-CNN算法,本文算法可以更好地識(shí)別不同姿態(tài)下的同一對(duì)象,比如圖5中站著的人和蹲著的人,本文算法都給予很好的修正。
此外,我們將自己拍攝的圖像也用3種方法進(jìn)行了測(cè)試如圖8所示,通過圖8可以看出本文算法在檢測(cè)精度上相比前兩種算法有著很好的表現(xiàn),例如圖8中的人和馬。本文算法在目標(biāo)框的定位上明顯優(yōu)于其它對(duì)比算法且得分較高,對(duì)不同姿態(tài)同一對(duì)象的識(shí)別精度也有所提高,例如圖8中蕩秋千的人和正在行走的人。該算法檢測(cè)的結(jié)果幾乎接近Ground Truth值。對(duì)于包含較小目標(biāo)且有重疊或遮擋時(shí),改進(jìn)算法同樣有著很好的表現(xiàn),例如圖8中的出租車。
圖5 對(duì)單一目標(biāo)的檢測(cè)結(jié)果
圖6 對(duì)多目標(biāo)的檢測(cè)結(jié)果
為了進(jìn)一步分析本文算法的檢測(cè)性能,表2展示了該算法和其它算法在PASCAL VOC2012數(shù)據(jù)集中識(shí)別20類目標(biāo)的平均檢測(cè)精度對(duì)比,F(xiàn)aster R-CNN算法和本文算法都使用ResNet-101網(wǎng)絡(luò),YOLOv3算法使用DarkNet網(wǎng)絡(luò)進(jìn)行檢測(cè)。表2可以看出,本文算法在檢測(cè)bike(自行車)、bus(公交)、person(人)等多個(gè)類別的檢測(cè)精度上優(yōu)于YOLOv3和Faster R-CNN,本文算法的平均精度為78.8%,比YOLOv3提高了2.9%,比同一系列Faster R-CNN算法提高了2.4%。如表3所示,本文算法在MS COCO數(shù)據(jù)集上的檢測(cè)結(jié)果同樣表現(xiàn)優(yōu)越,通過表3可以看出同為ResNet-101的網(wǎng)絡(luò)下,相比Faster R-CNN算法本文的檢測(cè)精度提高了1.2%,比RetinaNet提高1.4%。網(wǎng)絡(luò)結(jié)構(gòu)同為VGG16時(shí),本文算法精度比YoLov2提高了4.3%,比SSD提高了2.5%。綜合看來該算法在精度上具有一定的優(yōu)勢(shì)。
圖7 多種形狀類別的檢測(cè)結(jié)果
圖8 實(shí)地拍攝圖像的檢測(cè)結(jié)果對(duì)比
表2 本文算法和其它算法在PASAL VOC2012 數(shù)據(jù)集上的檢測(cè)結(jié)果
表3 本文算法和其它算法在MSCOCO 數(shù)據(jù)集上的檢測(cè)結(jié)果
為了分析利用“多通道算法”的計(jì)算開銷,本文將MC Faster RCNN的訓(xùn)練、測(cè)試時(shí)間與Faster R-CNN進(jìn)行了比較,如表4所示,F(xiàn)aster R-CNN算法比本文算法的訓(xùn)練時(shí)間少用了3 h,測(cè)試時(shí)間上本文算法與Faster R-CNN算法相差僅為0.006 s。所以盡管MC Faster R-CNN比Faster R-CNN需要更多的時(shí)間進(jìn)行訓(xùn)練,但使用多通道算法進(jìn)行測(cè)試所需時(shí)間與Faster R-CNN算法相當(dāng)。
表4 訓(xùn)練和測(cè)試Faster R-CNN和 MC Faster R-CNN的時(shí)間開銷
本文提出一種多通道檢測(cè)算法并通過大量的實(shí)驗(yàn)驗(yàn)證了它的有效性,解決了其它算法存在的誤檢和漏檢問題,當(dāng)目標(biāo)都能被檢測(cè)出來時(shí)多通道檢測(cè)算法相比其它算法檢測(cè)性能更好。在RoI生成方面的改進(jìn)使得目標(biāo)定位更加準(zhǔn)確得分更高,同時(shí)對(duì)于光照不好和霧天情況下有著很好的邊框修正效果。在PASCALVOC2012數(shù)據(jù)集和MS COCO數(shù)據(jù)集以及自己拍攝的圖像上通過實(shí)驗(yàn)得出無(wú)論是在時(shí)間還是精度上所提算法都較Faster R-CNN算法有所提升的結(jié)論。