蔣 明,陳 雨,周青華,袁 媛,何世瓊
(1.四川大學(xué) 電子信息學(xué)院,成都 610065;2.四川大學(xué) 空天科學(xué)與工程學(xué)院,成都 610065)
隨著人類開發(fā)太空進(jìn)程的加快,大量衛(wèi)星、火箭等航天器被發(fā)射到太空中執(zhí)行各項(xiàng)任務(wù),但由于航天器可能會面臨意外故障、燃料耗盡等問題,導(dǎo)致這些航天器由合作目標(biāo)轉(zhuǎn)化成非合作目標(biāo),威脅著太空安全。因此,回收這些非合作目標(biāo)具有維護(hù)空間安全及節(jié)約資源的現(xiàn)實(shí)意義[1]。研究人員提出在軌服務(wù)技術(shù)[2],利用空間特種機(jī)器人來完成在軌維修、清理空間碎片等高危險性空間任務(wù),其中,非合作目標(biāo)捕獲是在軌服務(wù)技術(shù)的一項(xiàng)關(guān)鍵技術(shù)。在特種機(jī)器人對非合作目標(biāo)實(shí)施在軌抓捕之前,需要對目標(biāo)航天器進(jìn)行識別與定位,為下一步捕獲任務(wù)做準(zhǔn)備。但是在太空環(huán)境中,相機(jī)對太陽光照等外界信息非常不敏感,且機(jī)器人面臨的是未知的非結(jié)構(gòu)化環(huán)境,傳統(tǒng)的目標(biāo)檢測算法需要人為提取特征,泛化能力較差,在非合作目標(biāo)檢測任務(wù)上表現(xiàn)不佳。
自2012 年卷積神經(jīng)網(wǎng)絡(luò)CNN 被應(yīng)用于圖像處理領(lǐng)域并一舉奪得ImageNet 圖像識別比賽冠軍之后[3],基于CNN 的目標(biāo)檢測算法進(jìn)入了快速發(fā)展階段。由于其具有自動提取特征、泛化能力強(qiáng)、穩(wěn)定性好等優(yōu)點(diǎn),因此在非結(jié)構(gòu)化環(huán)境中表現(xiàn)了巨大的優(yōu)勢?;贑NN 的目標(biāo)檢測算法大致可以分成2 大類型:第1 類是以區(qū)域推薦法獲取不同尺寸的二階段網(wǎng)絡(luò),其精度較高,但由于需要產(chǎn)生大量候選框,所以速度慢,實(shí)時性較差,主要代表算法有R-CNN[4]、Fast-RCNN[5]、Mask-RCNN[6]等;第2 類是一階段網(wǎng)絡(luò),直接端到端進(jìn)行預(yù)測,不需要區(qū)域推薦,直接回歸產(chǎn)生物體的類別概率和位置信息,因此速度快,模型較小,但精度相對較低,代表性的算法有YOLO[7]、SSD[8]。
大部分空間非合作目標(biāo)的運(yùn)動規(guī)律是未知的,甚至很大可能是高速運(yùn)動的,且均具有一定的非合作性。受機(jī)載處理器計(jì)算能力的限制,非合作目標(biāo)的復(fù)雜識別算法無法在航天器上獨(dú)立完成[9],圖像處理算法的設(shè)計(jì)和實(shí)現(xiàn)面臨著準(zhǔn)確性、及時性和小型化的矛盾,因此對空間機(jī)器人非合作目標(biāo)抓捕任務(wù)的目標(biāo)檢測算法準(zhǔn)確性和實(shí)時性均提出了較高要求[10]。此外,傳統(tǒng)的2D 目標(biāo)檢測只能得到空間位置,無法估計(jì)物體的姿態(tài),不太適用于機(jī)械臂捕獲操作。針對這些問題,YU 等[11]提出利用檢測目標(biāo)矩形框長寬比進(jìn)行抓取姿態(tài)的粗略估計(jì),但沒有考慮目標(biāo)物體位置對捕獲姿態(tài)的影響,且估算姿態(tài)太過簡單,很多估計(jì)情況不符合現(xiàn)實(shí)場景。
本文基于YOLO 設(shè)計(jì)一種YOLO-GhostECA 網(wǎng)絡(luò),通過GhostBottleneck 網(wǎng)絡(luò)減少特征圖冗余,并利用高效通道注意力模塊ECA 提取核心特征圖,從而在保持檢測精度不下降的同時,提升檢測速度及降低模型大小。此外,提出一種定性估計(jì)非合作目標(biāo)抓取姿態(tài)的方法,以彌補(bǔ)傳統(tǒng)2D 目標(biāo)檢測算法無法估計(jì)抓取姿態(tài)的缺陷。
由于YOLO 網(wǎng)絡(luò)兼顧實(shí)時性和準(zhǔn)確性,因此成為了工業(yè)界落地最好的目標(biāo)檢測網(wǎng)絡(luò)之一,在這之后相繼提出了YOLOv2[12]、YOLOv3[13]、YOLOv4[14]以及各種YOLO 網(wǎng)絡(luò)的變種。GLENN 等[15]開發(fā)出的YOLOv5,成為YOLO 網(wǎng)絡(luò)實(shí)現(xiàn)版本中最優(yōu)秀的網(wǎng)絡(luò)之一。YOLOv5s 網(wǎng)絡(luò)由骨干網(wǎng)絡(luò)、瓶頸層、檢測層3 大模塊組成,如圖1 所示。
圖1 YOLOv5s 網(wǎng)絡(luò)模型結(jié)構(gòu)Fig.1 Network model structure of YOLOv5s
骨干網(wǎng)絡(luò)的主要作用是提取特征,由Focus[16]、CSPDarknet53[14]、SPP[17]組成。其中Focus 為切片操作,能夠替換卷積操作,減少卷積所造成的特征信息損失。CSPDarknet53 主要進(jìn)行網(wǎng)絡(luò)特征提取,該網(wǎng)絡(luò)由跨層局部連接CSP[18]構(gòu)建而成,可以增加網(wǎng)絡(luò)提取特征的能力,降低計(jì)算瓶頸和內(nèi)存成本。SPP是空間特征金字塔池化結(jié)構(gòu),此結(jié)構(gòu)能擴(kuò)大感受野,實(shí)現(xiàn)局部和全局特征融合,豐富特征圖的信息。
瓶頸層用來融合不同尺寸特征圖及提取高層語義特征,由PANet網(wǎng)絡(luò)組成。PANet網(wǎng)絡(luò)可以將特征圖自上而下以及自下而上進(jìn)行特征融合,以減少信息損失[19]。
檢測層將瓶頸層產(chǎn)生的高層語義特征用于分類和回歸出物體的類別和位置,由YOLOv3Head[13]組成。YOLOv3Head 有3 個檢測頭,分別可以檢測大、中、小物體,很好地克服了一階段檢測小物體精度低的缺點(diǎn)。
傳統(tǒng)的深度卷積網(wǎng)絡(luò)模型一般使用大量常規(guī)卷積對圖像進(jìn)行特征提取,但這需要消耗大量的算力。2020 年1 月,華為諾亞方舟實(shí)驗(yàn)室HAN 等[20]在觀測常規(guī)卷積中間特征圖時發(fā)現(xiàn)很多通道的特征圖十分相似,這說明利用常規(guī)卷積提取出來的特征圖在一定程度上是存在冗余的。他們猜想并不需要進(jìn)行完整的卷積運(yùn)算得到需要的特征圖,而只需要用常規(guī)卷積去獲取一部分特征圖即可,因此提出了GhostNet 網(wǎng)絡(luò)。該網(wǎng)絡(luò)可以用更少的參數(shù)來生成更多特征,能夠減少特征圖冗余,從而達(dá)到減少網(wǎng)絡(luò)模型大小和計(jì)算量的目的。GhostNet 網(wǎng)絡(luò)的相關(guān)結(jié)構(gòu)原理如圖2 所示,其中,圖2(b)的GhostBottleneck 由圖2(a)的GhostModule 網(wǎng)絡(luò)構(gòu)成,GhostNet 網(wǎng)絡(luò)由圖2(b)的GhostBottleneck 網(wǎng)絡(luò)構(gòu)成。
圖2 GhostModule 網(wǎng)絡(luò)及GhostBottleneck 網(wǎng)絡(luò)的結(jié)構(gòu)Fig.2 Network structure of GhostModule and GhostBottleneck
GhostModule 網(wǎng)絡(luò)的具體實(shí)現(xiàn)原理如圖2(a)所示,與常規(guī)卷積不同的是它只需要利用常規(guī)卷積運(yùn)算得到半數(shù)通道的特征圖,使用一系列廉價的線性運(yùn)算對這半數(shù)通道的特征圖進(jìn)行處理,并生成幻影特征圖,最后將生成的幻影特征圖與原始卷積得到的半數(shù)通道特征圖合并,構(gòu)成與常規(guī)卷積相同通道數(shù)的特征圖,此特征圖可以近似于原始的完整特征圖,但是計(jì)算量和參數(shù)量卻減少了很多。此外,HAN等利用GhostModule 網(wǎng)絡(luò)設(shè)計(jì)了圖2(b)中2 種GhostBottleneck 網(wǎng)絡(luò)結(jié)構(gòu),其中 stride=1 的GhostBottleneck 網(wǎng)絡(luò)與步長為1 的CSPConv 網(wǎng)絡(luò)效果相同,stride=2 的GhostBottleneck 與步長為2 的CSPConv 網(wǎng)絡(luò)效果相同,因此GhostBottle 網(wǎng)絡(luò)可以替換常規(guī)卷積在網(wǎng)絡(luò)模型中進(jìn)行特征提取。本文利用GhostBottleneck 網(wǎng)絡(luò)替換CSPBottleneck 網(wǎng)絡(luò),并重新構(gòu)建出了GhostDarknet 網(wǎng)絡(luò)作為YOLO-Ghost的主干網(wǎng)絡(luò)。為進(jìn)一步提升精度,本文引入了高效通道注意力(Efficent Channel Attention,ECA)[21]模塊,并將ECA 應(yīng)用于PANet 網(wǎng)絡(luò)中,形成具有注意力機(jī)制的PANet 網(wǎng)絡(luò),即ECA-PANet 結(jié)構(gòu)。該結(jié)構(gòu)能夠加強(qiáng)特征融合,在獲得更多想要的圖像特征的同時,忽略不需要的特征,與其他通道注意力模塊相比,ECA 模塊可以在不引入多余參數(shù)進(jìn)行計(jì)算的情況下,提升模型的精度。
以YOLOv5s 網(wǎng)絡(luò)為基礎(chǔ),結(jié)合上述提出的幾個新型模塊構(gòu)建出了新型輕量級目標(biāo)檢測網(wǎng)絡(luò)YOLO-GhostECA,該網(wǎng)絡(luò)可以利用少量的參數(shù)獲取更多需要的特征圖,其結(jié)構(gòu)如圖3 所示。
圖3 YOLO-GhostECA 網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Network structure of YOLO-GhostECA
原YOLOv5 中IoU 損失函數(shù)使用的是GIoUloss,但其只考慮到了重疊區(qū)域和非重疊區(qū)域,沒有考慮矩形框?qū)oU 的影響。因此YOLO-GhostECA使用Complete-IoU(CIoU)[22]損失函數(shù),該損失函數(shù)同時考慮到了矩形框的長寬比、目標(biāo)與anchor 之間的距離、重疊率、尺度等因素,這可以進(jìn)一步提高模型的性能,加快損失函數(shù)收斂。CIoU 損失函數(shù)如式(1)所示:
其中:α是權(quán)重函數(shù)。
計(jì)算方法如式(2)所示:
其中:υ是度量長寬比的相似性。
υ的計(jì)算公式如式(3)所示:
其中:ρ(b,bgt)代表計(jì)算預(yù)測框中心點(diǎn)b和真實(shí)框中心點(diǎn)bgt的歐氏距離;c表示能夠同時包含預(yù)測框和真實(shí)框的最小閉包區(qū)間的對角線距離。
上述目標(biāo)檢測算法只能獲得非合作目標(biāo)在圖像坐標(biāo)系中的位置,但是機(jī)械臂抓取目標(biāo)需要基于自身基座坐標(biāo)系下的三維點(diǎn)信息。為完成抓取任務(wù),還需建立相機(jī)成像模型,如圖4 所示,其中:OcXcYcZc是相機(jī)坐標(biāo)系;OpXpYp是圖像坐標(biāo)系;OwXwYwZw是世界坐標(biāo)系;P(xw,yw,zw)是物體在世界坐標(biāo)系下的坐標(biāo);P(u,v)是物體在像素坐標(biāo)系下的坐標(biāo)。
圖4 相機(jī)成像模型Fig.4 Camera imaging model
借助相機(jī)成像模型可建立目標(biāo)檢測得到的二維圖像坐標(biāo)和機(jī)械臂抓取的三維世界坐標(biāo)之間的映射關(guān)系,如式(4)所示:
其中:M1是攝像機(jī)內(nèi)部參數(shù)矩陣,用來將像素坐標(biāo)轉(zhuǎn)化到相機(jī)坐標(biāo)系下,是一個由二維轉(zhuǎn)三維的過程,可由相機(jī)標(biāo)定張正友棋盤格標(biāo)定法[23]得到;M2是攝像機(jī)外部參數(shù)矩陣,能夠?qū)⑾鄼C(jī)坐標(biāo)轉(zhuǎn)化到世界坐標(biāo)系下(本文的世界坐標(biāo)系定義在機(jī)械臂的基礎(chǔ)坐標(biāo)系處),一般由手眼標(biāo)定[24]得到;zc是深度值,由Intel Rense D435i 深度相機(jī)根據(jù)結(jié)構(gòu)光與雙目立體視覺融合的混合測距技術(shù)實(shí)時計(jì)算得到。當(dāng)知道以上相關(guān)參數(shù)和目標(biāo)檢測得到的物體像素坐標(biāo)后,即可使用式(4)完成對目標(biāo)物體的空間定位。
空間定位可以得到目標(biāo)物體的三維空間坐標(biāo),但為了合理引導(dǎo)機(jī)器人捕獲目標(biāo)物體,姿態(tài)估計(jì)是一個重要的過程。事實(shí)上,目標(biāo)檢測得到的結(jié)果數(shù)據(jù)中已經(jīng)包含了一些物體的姿態(tài)信息,例如當(dāng)物體呈現(xiàn)不同姿態(tài)時,其檢測得到的矩形框尺寸比例將呈現(xiàn)不同的數(shù)值。為進(jìn)一步利用目標(biāo)檢測的結(jié)果,本文提出一種通過目標(biāo)檢測得到的非合作目標(biāo)信息(u,v,w,h,class)來粗略預(yù)估機(jī)械臂抓取姿態(tài)的新型方法。該方法將抓取姿態(tài)Φ大致分成了6 種,即中正抓姿態(tài)ΦA(chǔ)、中偏抓姿態(tài)ΦB、上抓姿態(tài)ΦC、下抓姿態(tài)ΦD、左抓姿態(tài)ΦE和右抓姿態(tài)ΦF。估算的6種抓取姿態(tài)的姿態(tài)參數(shù)如表1所示。
表1 6 種抓取姿態(tài)的相關(guān)參數(shù)(繞固定軸旋轉(zhuǎn))Table 1 6 parameters related to grasping attitude(rotating around a fixed axis) (°)
目標(biāo)物體的抓取姿態(tài)Φ可以由式(5)和式(6)估計(jì)確定:
式(5)是計(jì)算矩形寬高比例的公式,其中:Ow為矩形框的寬;Oh為矩形框的高。式(6)是計(jì)算目標(biāo)物體抓取姿態(tài)的公式,其中:u、v為目標(biāo)檢測得到的物體像素坐標(biāo);r1、r2為常數(shù),可以根據(jù)實(shí)際物體class 的長寬比例進(jìn)行粗略計(jì)算,多個物體即有多個值;Vs用來確定抓取的上下姿態(tài);Us用來確定抓取的水平方向的姿態(tài),這2 個參數(shù)可以將笛卡爾空間劃分成4 個區(qū)域,根據(jù)目標(biāo)檢測像素點(diǎn)的位置可判定物體處在4 個區(qū)域中的位置,Us、Vs的值取決于相機(jī)與機(jī)械臂末端初始位置的空間幾何關(guān)系,即機(jī)械臂在初始位置時在相機(jī)像素坐標(biāo)系下的映射點(diǎn)坐標(biāo)。
6 種抓取姿態(tài)的估計(jì)示意圖如圖5 所示。
圖5 6 種抓取姿態(tài)的估計(jì)示意圖Fig.5 Schematic diagram of estimation of six grasping postures
本文利用7 自由度機(jī)械臂等設(shè)備搭建了地面仿真實(shí)驗(yàn)平臺。實(shí)驗(yàn)中先將航天器模型用細(xì)繩系緊,懸掛于空中,并將實(shí)驗(yàn)室的燈熄滅,只留1 個補(bǔ)光燈,給非合作目標(biāo)補(bǔ)光,以此來模擬太空環(huán)境暗黑失重環(huán)境。實(shí)驗(yàn)仿真流程如圖6 所示,先使用YOLOGhostECA 進(jìn)行非合作目標(biāo)識別,再根據(jù)目標(biāo)檢測結(jié)果使用第2 節(jié)的方法估計(jì)物體的位姿,最后將估計(jì)的目標(biāo)物體位姿信息(x,y,z,W,P,R)傳送給機(jī)械臂的控制器,機(jī)械臂控制器控制電機(jī)進(jìn)行相應(yīng)驅(qū)動,即可對目標(biāo)物體進(jìn)行捕獲操作。本文所有實(shí)驗(yàn)均在表2 所示實(shí)驗(yàn)條件下進(jìn)行。
圖6 實(shí)驗(yàn)仿真流程Fig.6 Procedure of experimental simulation
表2 實(shí)驗(yàn)參數(shù)Table 2 Experimental parameters
非合作目標(biāo)識別的具體步驟如下:
步驟1數(shù)據(jù)集的制作。由于目前沒有非合作目標(biāo)航天器的公有數(shù)據(jù)集,因此在實(shí)際中對太空環(huán)境黑暗且失重環(huán)境進(jìn)行現(xiàn)實(shí)模擬,采集拍攝387 張多姿態(tài)多場景的航天器模型圖片,并利用采集的圖像數(shù)據(jù)進(jìn)行聯(lián)合訓(xùn)練,部分?jǐn)?shù)據(jù)集如圖7所示。
圖7 非合作目標(biāo)數(shù)據(jù)集示例Fig.7 Examples of non-cooperative target dataset
步驟2訓(xùn)練策略。實(shí)驗(yàn)中使用了多種訓(xùn)練策略來提升網(wǎng)絡(luò)的性能。
1)anchor 大小。利用K-mean 聚類算法找出數(shù)據(jù)集中較好的9 個anchor 尺寸,有助于提高平均精度均值(mean Average Precision,mAP)。
2)超參數(shù)演進(jìn)。利用基因遺傳算法訓(xùn)練200 代,找到較好的超參數(shù)后,利用超參數(shù)演進(jìn)得來的超參數(shù)對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,使網(wǎng)絡(luò)能夠迅速得到全局最優(yōu)解,讓模型達(dá)到較好的效果。
3)學(xué)習(xí)率lr。利用類余弦退火進(jìn)行學(xué)習(xí)率學(xué)習(xí),減少陷入局部最優(yōu)解的情況發(fā)生。
4)數(shù)據(jù)增強(qiáng)操作。在訓(xùn)練過程中對數(shù)據(jù)進(jìn)行隨機(jī)裁剪、放大等操作來增大數(shù)據(jù)集,使每一個epoch訓(xùn)練的圖都不是同一張圖,在數(shù)據(jù)集有限的情況下有效提高模型的泛化能力。
步驟3性能測試。通過上面的策略進(jìn)行模型訓(xùn)練,完成后在模型大小、運(yùn)行速度、模型參數(shù)量(即過程中梯度更新數(shù)量)、模型運(yùn)算復(fù)雜度(即每秒浮點(diǎn)數(shù)運(yùn)算次數(shù))等多方面對網(wǎng)絡(luò)模型性能進(jìn)行分析評估,其結(jié)果如圖8 所示。由圖8(a)可知,YOLOv5-GhostECA 模型大小僅2.9 MB,相較于YOLOv5s 減少了80.4%。圖8(b)顯示YOLO-GhostECA 在GPU上運(yùn)行時間僅2.7 ms,即幀率高達(dá)370 frame/s,GPU運(yùn)行速度相對于YOLOv5s 提升了49.1%。圖8(c)顯示YOLOv5-GhostECA 模型在CPU 上的運(yùn)行時間為320.6 ms,相對于YOLOv5s 的460 ms 來講,運(yùn)行時間減少了30.3%。圖8(d)顯示YOLO-GhostECA 的mAP 為0.896,依然保持在較高值,相對于YOLOv5s的mAP 僅下降了0.2%。由圖8(e)可知YOLOv5s 的模型參數(shù)大小為7.468 MB,而YOLO-Ghost 和YO‐LO-GhostECA 均只有1.313 MB,新提出的YOLOGhost 相較于YOLOv5s 參數(shù)量減少了82.4%,而融合ECA 注意力機(jī)制的YOLO-GhostECA 參數(shù)量相比于YOLO-Ghost 保持不變。圖8(f)所示為模型的運(yùn)算復(fù)雜度,YOLOv5s 為17.5 GFLOPs,YOLO-Ghost 和YOLO-GhostECA 均為3.7 GFLOPs,可以看出YO‐LO-Ghost 相比于YOLOv5s 運(yùn)算復(fù)雜度降低了78.9%,且融合的ECA 模塊并沒有增加運(yùn)算復(fù)雜度。綜上分析,本文提出的YOLO-GhostECA 模型在GhostDarknet 基礎(chǔ)上結(jié)合高效通道注意力模塊ECA的方法在保持精度的同時,使模型的參數(shù)量和運(yùn)算復(fù)雜度均大幅降低,且減小了模型尺寸,提升了運(yùn)行速度。
圖8 不同模型的性能參數(shù)對比Fig.8 Comparison of performance parameters of different models
步驟4模型效果測試。利用訓(xùn)練好的YOLOGhostECA 進(jìn)行非合作目標(biāo)識別實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖9 所示??梢钥闯觯撃P湍軌驕?zhǔn)確地識別和定位出非合作目標(biāo)物體,且在多姿態(tài)多場景下,其預(yù)測準(zhǔn)度分?jǐn)?shù)均保持較高水平。
圖9 本文網(wǎng)絡(luò)模型測試結(jié)果Fig.9 Test results of network model in this paper
先采集-20 張以上不同姿態(tài)的棋盤格圖片,然后利用張正友棋盤格標(biāo)定法[23]在Matlab 的cameracalib中進(jìn)行標(biāo)定得到相機(jī)內(nèi)參。相應(yīng)地采集40 張以上的RGB 圖以及深度圖,利用Tsai 方法[24]進(jìn)行手眼標(biāo)定得到相機(jī)外參。
利用標(biāo)定的結(jié)果和YOLO-GhostECA 檢測網(wǎng)絡(luò),通過第2 節(jié)提出的位姿估計(jì)方法進(jìn)行非合作目標(biāo)位姿估計(jì),其中姿態(tài)估計(jì)公式(6)中的r1、r2通過分析非合作目標(biāo)數(shù)據(jù)集得到,分別為3.0 和1.0,Vs、Us根據(jù)相機(jī)空間幾何位置分別設(shè)定為320 和360。根據(jù)該位姿估計(jì)算法估計(jì)的位姿結(jié)果見表3。
表3 非合作目標(biāo)位姿估計(jì)的結(jié)果Table 3 Results of pose estimation of non-cooperative targets
將上述得到的位姿估計(jì)結(jié)果通過EtherCAT 發(fā)送給織女機(jī)械臂控制器,控制機(jī)械臂進(jìn)行非合作目標(biāo)捕獲,捕獲實(shí)驗(yàn)效果如圖10 所示。
圖10 非合作目標(biāo)捕獲的實(shí)驗(yàn)效果Fig.10 Experimental effect of capturing non-cooperative targets
由圖10 可知,本文提出的位姿估計(jì)算法可以對非合作目標(biāo)進(jìn)行準(zhǔn)確的空間定位和粗略的姿態(tài)估計(jì),其位姿估計(jì)結(jié)果可以合理地引導(dǎo)機(jī)械臂對非合作目標(biāo)進(jìn)行捕獲。
本文設(shè)計(jì)一種適用于非合作目標(biāo)捕獲的輕量級位姿估計(jì)網(wǎng)絡(luò),將深度學(xué)習(xí)YOLOv5 網(wǎng)絡(luò)應(yīng)用于空間非合作目標(biāo)智能識別與捕獲任務(wù)中,并基于GhostNet 網(wǎng)絡(luò)設(shè)計(jì)GhostDarknet 骨干網(wǎng)絡(luò),減少冗余特征圖的提取,在基本保持精度不變的情況下,減少網(wǎng)絡(luò)模型大小,提高模型運(yùn)算速度。此外,提出一種利用YOLO-GhostECA 檢測結(jié)果來估計(jì)物體抓取位姿的方法,并通過深度相機(jī)Intel RealSense D435i、非合作目標(biāo)縮小模型和7 自由度冗余機(jī)械臂搭建地面仿真實(shí)驗(yàn)平臺。實(shí)驗(yàn)結(jié)果表明,該網(wǎng)絡(luò)在非結(jié)構(gòu)化環(huán)境中能很好地完成非合作目標(biāo)捕獲任務(wù)。下一步將通過擴(kuò)充數(shù)據(jù)集提升網(wǎng)絡(luò)的精度,并將訓(xùn)練好的網(wǎng)絡(luò)部署到嵌入式設(shè)備中,對實(shí)時性和準(zhǔn)確度進(jìn)行驗(yàn)證。