中圖分類號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A
GraspNet-based Category-oriented Grasping Method for Object Planar Scenes
SONG Shimiao,GU Feifan,GE Jiashang,YANG Jie
Abstract: To solve the problem class-based grasping in multicategory tiled scenes,this paper adopts different feature fusion methods proposes a joint optimization algorithm MC-GSNet (Multi-Class GraspNet) that fuses category semantics grasping posture an optimization algorithm MT-GSNet (Multi-Task GraspNet) that builds a multitask learning model. The improved methods explicitly incorporate category information, optimize the generation logic grasp poses enhance the algorithm's adaptability success rate in multi-category object planar scenes. Experimental results on the public dataset GraspNet-lBillion demonstrate that the proposed methods significantly improve task adaptability grasping success rates in multi-category planar scenes. MC-GSNet MT-GSNet achieve 32.6% 43.9% average accuracy improvements in grasp detection, respectively; MT-GSNet exhibits superior adaptability to unseen objects due to its integration segmentation features. The experimental results in the simulation environment show that the grasp successful rates (GSR) MC-GSNet MT-GSNet reached 88.3% 95.0% respectively,which can meet the needs actual engineering deployment.
Keywords: grasping detection; category-oriented; feature fusion; GraspNet-lBillion
機(jī)器人抓取技術(shù)在結(jié)構(gòu)化場(chǎng)景中已取得顯著進(jìn)展,但在復(fù)雜平鋪場(chǎng)景,如平面上隨機(jī)的多個(gè)類別物體中仍面臨諸多挑戰(zhàn)[1]。傳統(tǒng)抓取算法依賴幾何特征或單一模態(tài)感知[2-3],難以應(yīng)對(duì)物體密集分布和類別多樣的情況?;谏疃葘W(xué)習(xí)的抓取檢測(cè)方法能夠充分學(xué)習(xí)場(chǎng)景的語(yǔ)義或幾何信息,大多以提升抓取精度為目的[4-8],很少考慮面向目標(biāo)抓取等各種下游任務(wù)的適用性。2020 年大規(guī)模數(shù)據(jù)集GraspNet-1Billon 的發(fā)布提出了一個(gè)抓取檢測(cè)通用框架GraspNet[9],為抓取問(wèn)題提供了一個(gè)通用的基準(zhǔn),越來(lái)越多的研究人員開(kāi)始關(guān)注目標(biāo)導(dǎo)向、任務(wù)導(dǎo)向的抓取問(wèn)題。HGGD(Heatmap-Guided 6-D Grasp Detection)模型[10]創(chuàng)新性引入ResNet架構(gòu)生成熱力圖,指導(dǎo)圖像空間中抓取位置的識(shí)別,并構(gòu)建了多維特征表征體系對(duì)局部特征進(jìn)行處理;基于點(diǎn)云的方法[11-13]通過(guò)逐點(diǎn)特征提取構(gòu)建全局表征然后賦予抓取置信度參數(shù),采用多層感知機(jī)(Multi-Layer Perceptron,MLP)對(duì)提取的全局特征實(shí)施深層編碼獲得更具判別性的特征表達(dá);通過(guò)集成一個(gè)額外的分割分支的方法可以在雜亂場(chǎng)景中抓取特定的目標(biāo)[14-16],方法實(shí)用,但計(jì)算負(fù)載大、魯棒性和泛化能力弱。為此,針對(duì)多類物體平鋪場(chǎng)景下的按類抓取任務(wù),本文在GraspNet的基礎(chǔ)上,采用基于分支結(jié)構(gòu)和特征融合的思想[17-18],提出了兩種類別導(dǎo)向的抓取網(wǎng)絡(luò) MC-GSNet(Multi-class GraspNet)和 MT-GSNet(Multi-taskGraspNet),在物體點(diǎn)云數(shù)據(jù)上直接挖掘并學(xué)習(xí)點(diǎn)云類別特征,能夠利用類別語(yǔ)義信息引導(dǎo)抓取,提高了各類物體在不同的抓取位姿檢測(cè)精度和對(duì)下游類別導(dǎo)向任務(wù)的適應(yīng)性。
1 面向平鋪場(chǎng)景的類別引導(dǎo)抓取優(yōu)化方法
1.1 GraspNet網(wǎng)絡(luò)架構(gòu)
端到端抓取姿態(tài)檢測(cè)網(wǎng)絡(luò)GraspNet的架構(gòu)如圖1,PointNet + 十骨干網(wǎng)絡(luò)提取由 N 個(gè)點(diǎn)坐標(biāo)組成的點(diǎn)云場(chǎng)景的幾何特征得到 M 個(gè) C 維特征的點(diǎn);經(jīng)逼近網(wǎng)絡(luò)預(yù)測(cè)對(duì)應(yīng)點(diǎn)的 V 個(gè)接近向量,輸出結(jié)果的含義如圖2。抓取操作網(wǎng)絡(luò)根據(jù)對(duì)應(yīng)點(diǎn)的接近向量預(yù)測(cè)出平面內(nèi)旋轉(zhuǎn) R 、接近距離 d 、夾爪寬度和抓W取置信度 ,如圖3,輸出一個(gè) K×R×3 的矩陣;容差網(wǎng)絡(luò)通過(guò)學(xué)習(xí)每個(gè)抓取姿態(tài)的擾動(dòng)容忍度,輸出一個(gè) K×R×1 的矩陣,模擬人類選擇容忍誤差較大的抓取姿態(tài)的行為。
GraspNet通過(guò)端到端的抓取位姿預(yù)測(cè)可以獲得較好的泛化性和魯棒性,但未充分結(jié)合場(chǎng)景中物體的類別語(yǔ)義信息,難以針對(duì)不同類別物體生成差異化的抓取策略。主要存在以下局限性:(1)未顯式引人物體類別標(biāo)簽或語(yǔ)義特征,網(wǎng)絡(luò)僅依賴點(diǎn)云幾何特征進(jìn)行抓取位姿預(yù)測(cè)。(2)GraspNet通過(guò)統(tǒng)一候選抓取點(diǎn)生成機(jī)制輸出的抓取位姿未按類別區(qū)分,無(wú)法滿足不同物體對(duì)抓取策略的差異化需求,導(dǎo)致部分抓取位姿在任務(wù)優(yōu)先級(jí)上可能存在沖突。(3)GraspNet缺乏類別感知能力,僅依賴全局抓取置信度排序候選位姿,無(wú)法滿足按類別動(dòng)態(tài)調(diào)整抓取順序的要求。GraspNet框架在復(fù)雜平鋪場(chǎng)景中以任務(wù)導(dǎo)向抓取的核心問(wèn)題在于未能建立物體類別語(yǔ)義與抓取姿態(tài)之間的聯(lián)系。
1.2 類別語(yǔ)義與接近向量的聯(lián)合優(yōu)化
在PointNet++主干網(wǎng)絡(luò)[19]上增加一個(gè)類別感知分支構(gòu)建了雙分支聯(lián)合優(yōu)化抓取框架MC-GSNet(Multi-classGraspNet)網(wǎng)絡(luò)結(jié)構(gòu)如圖4。點(diǎn)編解碼器提取點(diǎn)云的 c 維全局幾何特征,類別感知全連接層將將預(yù)訓(xùn)練的 K 類物體類別標(biāo)簽映射為 K+1 維語(yǔ)義嵌入向量。幾何特征 Fgeo 與語(yǔ)義嵌入向量 Fclass 拼接生成增強(qiáng)特征向量 Fenhanced ,包含了點(diǎn)云坐標(biāo)信息、語(yǔ)義嵌入向量和幾何特征,從而在逼近網(wǎng)絡(luò)中引入類別先驗(yàn)約束。具體而言,幾何特征(維度1024)與語(yǔ)義嵌入向量(維度89)拼接生成維度為1113的增強(qiáng)特征向量。
在逼近網(wǎng)絡(luò)中,基于增強(qiáng)特征預(yù)測(cè)接近向量時(shí),顯式考慮了物體類別信息。對(duì)每個(gè)候選抓取點(diǎn),網(wǎng)絡(luò)預(yù)測(cè)其屬于各物體類別的概率分布 pc∈RK ,并通過(guò)類別概率加權(quán)調(diào)整接近向量的角度預(yù)測(cè)。例如對(duì)需要垂直抓取邊緣的類別(如杯子、碗),其對(duì)應(yīng)的接近向量在垂直方向的置信度會(huì)被顯著強(qiáng)化。類別引導(dǎo)的接近向量預(yù)測(cè)機(jī)制能夠有效提升抓取位姿的類別適應(yīng)性。優(yōu)化目標(biāo)包含幾何抓取損失和類別語(yǔ)義損失,幾何抓取損失 Lgeo 沿用ApproachNet的角度差異損失,剔除了二元交叉熵?fù)p失,表示為
其中, Nreg 為點(diǎn)云的個(gè)數(shù); vij?vij* 分別為預(yù)測(cè)的逼近向量與標(biāo)簽; 表示預(yù)測(cè)的逼近向量與對(duì)應(yīng)的標(biāo)簽之間的角度差異;1表示指示函數(shù); sij,sij* 分別表示預(yù)測(cè)的抓取置信度與其標(biāo)簽;
表示回歸損失。
類別語(yǔ)義損失 采用帶溫度系數(shù)的交叉熵函數(shù)[20],即
其中, N 為點(diǎn)云的個(gè)數(shù); K 分類數(shù); τ 為溫度系數(shù),用于平衡類別分布平滑性的超參數(shù); yi,c 表示第 i 個(gè)點(diǎn)的類別為 c ; ?i,c 與 pi,k 分別表示第 i 個(gè)點(diǎn)預(yù)測(cè)為 Ψc 類和 k 類的概率。
兩類損失加權(quán)融合得到聯(lián)合損失函數(shù),充分學(xué)習(xí)類別語(yǔ)義信息優(yōu)化幾何抓取。聯(lián)合損失函數(shù)為
其中, λ1,λ2 分別為逼近網(wǎng)絡(luò)損失函數(shù)與類別語(yǔ)義損失函數(shù)的權(quán)重,通過(guò)網(wǎng)格搜索[21]確定。
1.3點(diǎn)云分割與GraspNet的多任務(wù)學(xué)習(xí)
采用PointNet+十分割網(wǎng)絡(luò)[19]構(gòu)建了端到端的多任務(wù)學(xué)習(xí)框架MT-GSNet(Multi-taskGraspNet),實(shí)現(xiàn)了點(diǎn)云語(yǔ)義分割與抓取位姿預(yù)測(cè)的同步進(jìn)行,網(wǎng)絡(luò)架構(gòu)如圖5。點(diǎn)編解碼器提取點(diǎn)云的 c 維全局幾何特征。點(diǎn)編碼器提取點(diǎn)云的全局特征,通過(guò)跳躍連接與上采樣再經(jīng)過(guò)分割網(wǎng)絡(luò)的插值操作恢復(fù)點(diǎn)云分辨率,預(yù)測(cè)每個(gè)點(diǎn)的語(yǔ)義標(biāo)簽 ,篩選出M 個(gè)候選點(diǎn),采用交叉熵?fù)p失函數(shù)表達(dá)語(yǔ)義分割損失 Lseg 為。
其中, N 為點(diǎn)云的個(gè)數(shù); K 為分類數(shù); 分別為真實(shí)分割標(biāo)簽和其預(yù)測(cè)。
分割任務(wù)要求網(wǎng)絡(luò)關(guān)注物體的語(yǔ)義邊界,抓取任務(wù)需要提取局部幾何特征,兩者目標(biāo)差異導(dǎo)致特征學(xué)習(xí)時(shí)產(chǎn)生沖突。為避免多任務(wù)間的特征沖突,在訓(xùn)練階段設(shè)計(jì)了動(dòng)態(tài)門(mén)控模塊(Dynamic Gating Module,DGM),根據(jù)分割任務(wù)的置信度自適應(yīng)調(diào)整抓取網(wǎng)絡(luò)的特征權(quán)重[22]。根據(jù)語(yǔ)義特征 的置信度在梯度優(yōu)化階段自適應(yīng)調(diào)整GraspNet中如 c 維幾何特征等參數(shù)的權(quán)重。通過(guò)動(dòng)態(tài)任務(wù)權(quán)重分配機(jī)制,確保分割任務(wù)與抓取任務(wù)在訓(xùn)練過(guò)程中能夠協(xié)同優(yōu)化,避免某一任務(wù)主導(dǎo)訓(xùn)練過(guò)程,數(shù)學(xué)描述為
Ffused=FGraspNet?σ(Fseg)
其中, σ 為Sigmoid 函數(shù); ? 表示逐元素相乘。
2 實(shí)驗(yàn)及評(píng)估
2.1GraspNet-1Billion數(shù)據(jù)集及評(píng)價(jià)指標(biāo)
數(shù)據(jù)集包含97 280張RGB-D圖像,在190個(gè)復(fù)雜場(chǎng)景下用RealSence和 Kinect相機(jī)拍攝,包含 88類物體,每個(gè)場(chǎng)景都密集注釋了物體的6-D位姿和抓取姿態(tài),共有超過(guò)10億個(gè)抓取位姿。通過(guò)式(6)對(duì)RGB-D圖像進(jìn)行數(shù)據(jù)處理為點(diǎn)云的形式參與網(wǎng)絡(luò)的訓(xùn)練,得到像素坐標(biāo) (x,y) 點(diǎn)的深度值 為
其中, (X,Y,Z) 表示點(diǎn)云坐標(biāo); fx,fy 為相機(jī)的焦距; cx,cy 為圖像中心值。
評(píng)估指標(biāo)采用Precision @k 作為預(yù)測(cè)的抓取位姿排名前 k=50 個(gè)的準(zhǔn)確性,即
采用 APμ 為給定摩擦系數(shù) μ 下的平均準(zhǔn)確率,即
mAP表示在 Δμ=0.2 時(shí) APμ 的平均值。此外,采用整體準(zhǔn)確率(Overrall Accuracy,oAcc)評(píng)價(jià) MC-GSNet的類別感知分支的類別感知能力,采用平均交并比(Mean Intersection over Union,MIoU)和oAcc評(píng)估MT-GSNet的分割任務(wù)性能。
2.2訓(xùn)練細(xì)節(jié)及性能對(duì)比
實(shí)驗(yàn)平臺(tái)是Ubuntu20.04,CPU為 Intel Corei5-12400F,16 GB RAM,GPU為 NVIDIA GTX1070Ti8G 。網(wǎng)絡(luò)由PyTorch實(shí)現(xiàn),參數(shù)配置為 M=1 024,V=300,C=256,K=88, 的長(zhǎng)度為88,旋轉(zhuǎn)角度分為12組,接近距離分為[1,2,3,4]4組,主干網(wǎng)絡(luò)有4個(gè)點(diǎn)集抽象層,半徑為[4,10,20,30] cm ,分組大小為[64,32,16,16],分別對(duì)點(diǎn)云下采樣,采樣大小為 [2048,1024,512,256] ,GraspNet中的逼近網(wǎng)絡(luò)、抓取操作網(wǎng)絡(luò)和容差網(wǎng)絡(luò)分別由大小為(256,389,389)、(128,128,36)和(128,64,12)的MLP組成。合理選擇溫度值可調(diào)節(jié)輸出分布,提升模型在復(fù)雜場(chǎng)景下的魯棒性和泛化性。結(jié)合調(diào)參經(jīng)驗(yàn)與抓取任務(wù)的泛化性需求,設(shè)定 τ=3 。訓(xùn)練集為100個(gè)場(chǎng)景,測(cè)試集90個(gè)場(chǎng)景分為有見(jiàn)過(guò)的物體(Seen)、未見(jiàn)過(guò)但相似的物體(Similar)和新物體(Novel)的場(chǎng)景各30個(gè)。訓(xùn)練過(guò)程中從每個(gè)場(chǎng)景中隨機(jī)抽取2萬(wàn)個(gè)點(diǎn),采用Adam優(yōu)化器進(jìn)行訓(xùn)練,初始學(xué)習(xí)率為0.001,批大小為1,50次后學(xué)習(xí)率下降到0.0001,80次后學(xué)習(xí)率下降到0.000 01。
不同網(wǎng)絡(luò)在GraspNet-1Billion數(shù)據(jù)集上的抓取檢測(cè)性能對(duì)比如表1。實(shí)驗(yàn)數(shù)據(jù)表明,MC-GSNet、MT-GSNet算法的抓取檢測(cè)性能均顯著高于原始網(wǎng)絡(luò),平均抓取精度分別提升了 32.6% 和 43.9% ,表明增加的類別特征或語(yǔ)義特征能改進(jìn)基礎(chǔ)抓取檢測(cè)性能。分割網(wǎng)絡(luò)提取場(chǎng)景中物體的類別語(yǔ)義和分割語(yǔ)義,所以,MT-GSNet能更好的引導(dǎo)網(wǎng)絡(luò)抓取未見(jiàn)過(guò)的物體, APNovel 指標(biāo)提升了 48.9% ,性能表現(xiàn)更優(yōu)。
MT-GSNet的點(diǎn)云分割的可視化見(jiàn)圖6。在三維距離信息的基礎(chǔ)上,區(qū)分物體與桌面背景;利用分割的類別語(yǔ)義特征識(shí)別物體,提升在未見(jiàn)物體上的抓取性能。表1實(shí)驗(yàn)結(jié)果表明,2024年提出的FlexLoG集成了場(chǎng)景熱力圖與2D目標(biāo)檢測(cè)框的引導(dǎo)[23],檢測(cè)性能更高,但MC-GSNet和MT-GSNet算法的計(jì)算效率更高,其中MC-GSNet的計(jì)算效率達(dá)最優(yōu)達(dá)到31幀/s。
為避免MC-GSNet網(wǎng)絡(luò)的語(yǔ)義信息與幾何特征的干擾,通過(guò)消融實(shí)驗(yàn)驗(yàn)證不同融合策略的效果,消融實(shí)驗(yàn)結(jié)果如表2。由表2可以看出,MC-GSNet算法的直接拼接在引人類別信息的同時(shí)保留了原始幾何特征的判別性;將幾何特征與類別語(yǔ)義嵌人向量加權(quán)融合因參數(shù)敏感性下降,影響了幾何特征,導(dǎo)致抓取性能下降,且加權(quán)融合使得計(jì)算復(fù)雜度升高,導(dǎo)致模型的計(jì)算效率下降。MC-GSNet 的分類性能和MT-GSNet的分割性能及點(diǎn)分類準(zhǔn)確率見(jiàn)表3,不同網(wǎng)絡(luò)基于GraspNet-1Billion數(shù)據(jù)集的類別/目標(biāo)導(dǎo)向抓取的性能見(jiàn)表4。
實(shí)驗(yàn)數(shù)據(jù)表明,MC-GSNet、MT-GSNet 兩者有良好的分類/分割能力,且類別導(dǎo)向抓取能力相比Grasp-Net有顯著提升。MC-GSNet由于只融合了類別標(biāo)簽,相比于MT-GSNet融合類別語(yǔ)義與分割特征,其提升幅度較小,特別是對(duì)未見(jiàn)過(guò)的物體類別導(dǎo)向能力不強(qiáng)。目前類別導(dǎo)向抓取能力最強(qiáng)的TOGNet是通過(guò)多模態(tài)人類引導(dǎo)實(shí)現(xiàn)的目標(biāo)導(dǎo)向抓取檢測(cè)[25]。按照?qǐng)鼍爸杏?Seen、Similar和 Novel物體,選取了3個(gè)場(chǎng)景的抓取位姿預(yù)測(cè)作為可視化展示,如圖7。在 Seen場(chǎng)景中預(yù)測(cè)非常成功且穩(wěn)定,但在 Similar和Novel場(chǎng)景中有概率出現(xiàn)預(yù)測(cè)不出物體的抓取位姿,說(shuō)明兩個(gè)模型對(duì)已知類別的物體有較強(qiáng)的感知能力,能夠穩(wěn)定地引導(dǎo)按類別抓取,對(duì)未見(jiàn)過(guò)的物體識(shí)別能力還有待提升。
MC-GSNet
MT-GSNet
2.3 仿真實(shí)驗(yàn)
為了驗(yàn)證提出的算法的抓取能力和類別導(dǎo)向的能力,基于機(jī)器人操作系統(tǒng)(RobotOperating System,ROS)配置了仿真實(shí)驗(yàn)環(huán)境,如圖8。兩個(gè)平鋪場(chǎng)景A、B中無(wú)遮擋的放置了6類物體,在兩個(gè)場(chǎng)景下分別用MC-GSNet 和 MT-GSNet 生成抓取位姿,驗(yàn)證算法的性能。采用抓取成功率(Grasp Success Rate,GSR)和平均路徑規(guī)劃時(shí)間(Mean Path Planning Time,MPPT)來(lái)評(píng)價(jià)算法在仿真環(huán)境中的性能,為避免偶然性影響,每個(gè)場(chǎng)景進(jìn)行10 次獨(dú)立實(shí)驗(yàn)GSR 計(jì)算公式如式(9)。
其中, Ns 為成功次數(shù)。路徑規(guī)劃時(shí)間的測(cè)量范圍從算法輸出抓取位姿后開(kāi)始計(jì)時(shí),生成無(wú)碰撞軌跡并返回執(zhí)行結(jié)果為止。
10次獨(dú)立實(shí)驗(yàn)的結(jié)果如表5,性能對(duì)比如表6。
實(shí)驗(yàn)數(shù)據(jù)表明,MT-GSNet的抓取成功率達(dá)到 95.0% ,高于MC-GSNet的 88.3% ,MT-GS-Net的平均路徑規(guī)劃時(shí)間較MC-GSNet縮短21.7% ;場(chǎng)景B中由于碗是倒扣狀態(tài),其尺寸超出了夾爪的最大寬度,導(dǎo)致出現(xiàn)無(wú)法成功抓取,說(shuō)明抓取性能受尺寸特性的影響;兩個(gè)場(chǎng)景中,由于剪刀的厚度問(wèn)題,夾爪末端路徑規(guī)劃誤差增大,導(dǎo)致抓取成功率偏低,但總體上兩個(gè)算法對(duì)日常生活中的常見(jiàn)物體能夠?qū)崿F(xiàn)穩(wěn)健的抓取。兩種算法對(duì)場(chǎng)景A、B的抓取位姿識(shí)別如圖9,抓取動(dòng)作示意如圖10。
3結(jié)論
針對(duì)平鋪場(chǎng)景下類別導(dǎo)向抓取姿態(tài)預(yù)測(cè)的任務(wù),本文提出了基于GraspNet抓取框架的MC-GSNet與MT-GSNet算法,通過(guò)顯式引人類別信息與多任務(wù)協(xié)同優(yōu)化,提升了多類別平鋪場(chǎng)景下的抓取性能。MC-GSNet基于類別概率加權(quán)機(jī)制優(yōu)化抓取位姿生成邏輯,MT-GSNet通過(guò)語(yǔ)義分割與動(dòng)態(tài)門(mén)控單元增強(qiáng)特征融合能力。實(shí)驗(yàn)驗(yàn)證了兩算法在已知類別物體上的有效性,對(duì)相似或新類別物體的抓取存在局限性,MC-GSNet適合計(jì)算資源受限且類別已知的場(chǎng)景,MT-GSNet適用于需高精度與強(qiáng)泛化能力的復(fù)雜場(chǎng)景。仿真結(jié)果表明,在平鋪場(chǎng)景中MC-GSNet與MT-GSNet算法表現(xiàn)良好,驗(yàn)證了其有效性和實(shí)際部署的可行性。下一步的研究將通過(guò)探索多模態(tài)信息,增強(qiáng)對(duì)新物體的泛化能力,優(yōu)化多類別物體有遮擋情況的場(chǎng)景下的任務(wù)導(dǎo)向抓取的能力。
參考文獻(xiàn)
[1]MOHAMMED MQ,CHUNG K L,CHYI C S. Review deep reinforcement learning-based object grasping:Techniques,open challenges, recommendations[J]. IEEE Access,2020,8:178450-178481.
[2]PRATTICHIZZO D,TRINKLE JC. Grasping [M]. Springer hbook robotics.Berlin: Springer, 2008.
[3]JIA P,LIWL,WANG G,et al. Optimal grasp planning foradexterous robotic h using the volume a generalized force ellipsoid duringaccepted flattning[J].International JournalAdvancedRobotic Systems,20l7,14(1):87134.
[4]CHEN L,HUANGP,LIY,etal.Edge-dependent eficient grasprectangle search inrobotic graspdetectionJ].IEEE/ ASME Transactions on Mechatronics,2021,26(6):2922-2931.
[5]DEPIERRE A, DELLANDReA E,CHEN L. Scoring graspability based on grasp regresson for better grasp prediction [C」//IEEE International Conference on Robotics Automation. Xian: IEEE,2021: 437o -4376.
[6]ZHU X P,WANG D,BIZA O,et al. Sample eficient grasp learning using equivariant models[C]/Conference on Robotics Science Systems. New York:Robotics-Science Systems,2022.
[7]王君嬋,洪俐,朱少龍,等.基于深度學(xué)習(xí)的病害識(shí)別方法研究[J].農(nóng)業(yè)展望,2023,19(8):90-99.
[8] 張超,張海峰,張宇,等.深度學(xué)習(xí)在土壤監(jiān)測(cè)中的應(yīng)用及展望[J].農(nóng)業(yè)展望,2023,19(12):81-86.
[9]FANG HS,WANG C,GOU M,et al. Graspnet-1billon:A large-scale benchmark for general object grasping[C]// IEEE/CVF Conference on Computer Vision Pattern Recognition.Seattle: IEEE,2020:11441-11450.
[10]CHEN S,TANG W,XIEP,et al. Eficient heatmap-guided 6-d grasp detection in cluttered scenes[J].IEEE Robotics Automation Letters,2023,8(8):4895-4902.
[11]ZHAO B, ZHANG H,LAN X,et al. Regnet:Region-based grasp network for end-to-end grasp detection in point clouds[C]/IEEE International Conference on Robotics Automation. Xian: IEEE,2021: 13474-13480.
[12]WANGC,F(xiàn)ANG H S,GOU M,et al. Graspnessdiscovery in cluters for fast accurate grasp detection[C]// IEEE/CVF International Conference on Computer Vision. Montreal: IEEE,2021: 15944-15953.
[13]LIU Z X,CHEN Z B,XIE SJ,et al. Transgrasp:A multi-scale hierarchical point transformer for7-d graspdetection[C]//International Conference on Robotics Automation. Philadelphia: IEEE,2O22:1533 -1539.
[14]LIU X, ZHANG Y,CAO H,et al. Joint segmentation grasp pose detection with multi-modal feature fusion network[C]//IEEE International Conference on Robotics Automation. London: IEEE,2023:1751-1756.
[15]LIU Z, WANG Z,HUANG S,et al. Ge-grasp:Eficient target-oriented grasping in dense cluter[C]// IEEE/RSJ International Conference on Intelligent Robots Systems.Kyoto:IEEE,2022:1388-1395.
[16]SUNDERMEYER M, MOUSAVIAN A, TRIEBEL R,et al. Contact-graspnet:Eficient 6-d grasp generation in cluttered scenes[C]/IEEE International Conference on Robotics Automation. Xian: IEEE,2021: 13438 -13444.
[17]張靖賢,楊杰,周萌萌,等.基于分支混合注意力機(jī)制的布局估計(jì)模型[J].青島大學(xué)學(xué)報(bào)(自然科學(xué)版),2024,37 (3):68-75.
[18]郭傳磊,楊杰,周萌萌,等.基于多粒度特征網(wǎng)絡(luò)的無(wú)監(jiān)督換裝行人重識(shí)別算法[J].青島大學(xué)學(xué)報(bào)(自然科學(xué)版), 2024,37(3):60-67,75.
[19]QI CR,YIL,SU H,et al. Pointnet ++ : Deep hierarchical feature learning on point sets in a metric space [C]// The 31st International Conference on Neural Information Processng Systems.Long Beach:Curran Associates Inc.,2017: 5105-5114.
[20]WANG F,LIU H. Understing the behaviour contrastive lossC]/IEEE/CVF Conference on Computer Vision Pattern Recognition. Nashville: IEEE,2021: 2495-2504.
[21]劉小生,章治邦.基于改進(jìn)網(wǎng)格搜索法的 svm參數(shù)優(yōu)化[J].江西理工大學(xué)學(xué)報(bào),2019,40(1):5-9.
[22]孫海峰,穆正陽(yáng),戚琦,等.基于動(dòng)態(tài)門(mén)控特征融合的輕量深度補(bǔ)全算法[J].軟件學(xué)報(bào),2023,34(4):1765-1778.
[23]XIE P,CHEN S,TANG W,et al. Rethinking 6-d grasp detection:A flexible framework for high-quality grasping [DB/OL]. [2025-02-16]. https://arxiv.org/abs/2403.15054.
[24]MA HX,HUANG D. Towards scale balanced 6-d grasp detection in cluttered scenes[C]/th Conference on robot learning.Atlanta:IEEE,2022,205:2004-2013.
[25]XIE P,CHEN S,HUD,et al. Target-orientedobject grasping via multimodal human guidance[DB/OL].[2025-02- 16].https://arxiv.org/abs/2408.11138