摘要:針對工業(yè)機(jī)器人在非結(jié)構(gòu)化環(huán)境中軌跡規(guī)劃效率低、規(guī)劃結(jié)果適應(yīng)性差等問題,提出一種基于生成對抗式神經(jīng)網(wǎng)絡(luò)的視覺檢測機(jī)器人在線軌跡規(guī)劃算法。首先,提出基于機(jī)器人操作系統(tǒng)仿真的點(diǎn)云數(shù)據(jù)集構(gòu)建方法。其次,通過對檢測特征點(diǎn)云數(shù)據(jù)提取和機(jī)器人檢測軌跡的自動標(biāo)注,提出全新的基于編碼?解碼結(jié)構(gòu)的生成對抗式網(wǎng)絡(luò),利用所輸入的檢測特征的點(diǎn)云數(shù)據(jù)端到端地生成機(jī)器人檢測軌跡。同時,通過融合薄板件的點(diǎn)云幾何特征的自注意力機(jī)制模塊,提高了生成軌跡的準(zhǔn)確性。然后,結(jié)合機(jī)器人運(yùn)動學(xué)模型,提出一種多樣性損失函數(shù),提高了生成對抗式網(wǎng)絡(luò)所生成數(shù)據(jù)的多樣性,解決了笛卡爾空間到機(jī)器人關(guān)節(jié)空間映射的不唯一性下的求解難題。最后,通過案例對比分析,驗(yàn)證了算法的有效性。結(jié)果表明:機(jī)器人檢測規(guī)劃時間降低了52.6%,末端軌跡精度提高了67.4%。
關(guān)鍵詞:薄板件檢測;工業(yè)機(jī)器人;軌跡規(guī)劃;生成對抗式網(wǎng)絡(luò)
中圖分類號:TP 15 文獻(xiàn)標(biāo)志碼:A
隨著人工智能、傳感器、網(wǎng)絡(luò)和通信技術(shù)的快速發(fā)展,工業(yè)機(jī)器人智能化程度不斷提升,其發(fā)展方向趨于高度的自主性,具有自學(xué)習(xí)能力的運(yùn)動規(guī)劃方法成為一個重要的研究方向[1]。運(yùn)動規(guī)劃是利用傳感器獲取的外部信息,搜索當(dāng)前位姿到目標(biāo)位姿的無碰撞最優(yōu)路徑。目前運(yùn)動規(guī)劃方法可以分為基于采樣的運(yùn)動規(guī)劃和基于學(xué)習(xí)算法的運(yùn)動規(guī)劃。
基于采樣的運(yùn)動規(guī)劃算法主要由概率圖法(probabilistic roadmap, PRM)[2] 和快速探索隨機(jī)樹法(rapidly exploring random tree, RRT)[3] 構(gòu)成。張振等[4] 提出了基于約束采樣的RRT 算法,通過減少重復(fù)性采樣,提高了全局搜索效率。王懷震等[5]提出基于自適應(yīng)步長的啟發(fā)式RRT*-Connect 算法,引入目標(biāo)偏向策略進(jìn)行橢球子集約束采樣,使得采樣點(diǎn)可以更快地收斂到最優(yōu)值。陳滿意等[6]提出低振蕩人工勢場?自適應(yīng)快速擴(kuò)展樹混合算法,實(shí)現(xiàn)了路徑規(guī)劃中快速逃離局部極小、碰撞等情況。Qureshi 等 [7] 使用智能雙向快速探索樹算法(IB-RRT*) 用于復(fù)雜環(huán)境中的機(jī)器人運(yùn)動規(guī)劃。Gao 等[8] 使用高斯采樣機(jī)制和中點(diǎn)碰撞檢測來實(shí)現(xiàn)狹窄焊縫和密集障礙物場景的高效規(guī)劃。
然而,面對非結(jié)構(gòu)化場景,基于采樣的運(yùn)動規(guī)劃方法不僅難以滿足實(shí)時性需求,而且缺乏先驗(yàn)知識,同時無法利用三維環(huán)境信息,因此國內(nèi)外學(xué)者研究基于學(xué)習(xí)算法的運(yùn)動規(guī)劃方法,利用深度學(xué)習(xí)(deep learning, DL) 算法的神經(jīng)網(wǎng)絡(luò)感知能力從未知環(huán)境狀態(tài)的輸入中提取特征,實(shí)現(xiàn)從環(huán)境信息到規(guī)劃結(jié)果的映射。Fang 等[9] 提出一個端到端的抓取姿態(tài)預(yù)測網(wǎng)絡(luò),以點(diǎn)云數(shù)據(jù)作為網(wǎng)絡(luò)輸入,學(xué)習(xí)其抓取位姿和接近方向。Zhao 等[10]提出一種終身學(xué)習(xí)框架,首先基于生成對抗式網(wǎng)絡(luò)(generative adversarial networks, GAN) 構(gòu)建一個輕量級軌跡規(guī)劃模型,用于映射初始狀態(tài)、最終狀態(tài)和控制行為序列,其次通過將GAN 嵌入到RRT 算法中,解決了目前長距離多階段任務(wù)難以規(guī)劃問題。DeepMind 團(tuán)隊(duì)進(jìn)行融合強(qiáng)化學(xué)習(xí)(reinforcement learning, RL), 提出一種深度強(qiáng)化學(xué)習(xí)(deep reinforcement learning, DRL) 方法[11]。Zhu 等[12] 提出基于Actor-Critic 模型與AI2-THOR框架,提供了一個高質(zhì)量三維場景,解決了DRL難以收斂和缺乏對新目標(biāo)的泛化能力,該框架為端到端訓(xùn)練方式,降低了特征匹配及三維重建過程的不確定性。周瑋杰[13] 提出基于近端策略優(yōu)化的動態(tài)窗口方法,設(shè)計(jì)一種新型深度神經(jīng)網(wǎng)絡(luò),獲取環(huán)境信息與動態(tài)窗口方法中評價函數(shù)的權(quán)重因子相關(guān)聯(lián),在非結(jié)構(gòu)化環(huán)境下,驗(yàn)證了算法對于環(huán)境變化的自適應(yīng)性,賦予了機(jī)器人在動態(tài)環(huán)境下的作業(yè)能力。Qureshi 等[14] 在不以原始點(diǎn)云數(shù)據(jù)和障礙物信息作為輸入的前提下,使用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN) 學(xué)習(xí)對象級語義信息生成的采樣分布,改進(jìn)了未知環(huán)境中的規(guī)劃結(jié)果。Huh 等[15] 借鑒強(qiáng)化學(xué)習(xí)中狀態(tài)?行為值函數(shù)的概念,提出Softmax 節(jié)點(diǎn)選擇方法,加速了RRT 算法的規(guī)劃效率。
綜上所述,為了提高工業(yè)機(jī)器人在非結(jié)構(gòu)化環(huán)境下軌跡規(guī)劃的效率和質(zhì)量,本文提出一種基于生成對抗式神經(jīng)網(wǎng)絡(luò)的機(jī)器人在線檢測軌跡規(guī)劃算法,在充分融合三維環(huán)境信息與運(yùn)動規(guī)劃的前提下,構(gòu)建了一種環(huán)境到運(yùn)動的直接規(guī)劃方法。
1 檢測工藝數(shù)據(jù)集構(gòu)建
目前高效的DL 模型依賴于大量數(shù)據(jù)集,在面對機(jī)器人檢測問題,目前并沒有相關(guān)的數(shù)據(jù)集被提出。為了實(shí)現(xiàn)機(jī)器人在線檢測工藝規(guī)劃,本文構(gòu)建了具有豐富標(biāo)注的孔、槽等待檢測特征的檢測路徑生成數(shù)據(jù)集。基于機(jī)器人操作系統(tǒng) (robotoperation system, ROS) 仿真環(huán)境獲取相關(guān)點(diǎn)云信息,并計(jì)算得到機(jī)器人檢測過程的運(yùn)動信息,最終獲得完整的檢測數(shù)據(jù)集。具體過程如圖1 所示。其中,URDF 模型為統(tǒng)一機(jī)器人描述格式的文本文件。
獲取點(diǎn)云數(shù)據(jù)需要對孔邊界點(diǎn)云及機(jī)器人檢測的運(yùn)動軌跡進(jìn)行標(biāo)注。
1.1 孔邊界點(diǎn)云數(shù)據(jù)標(biāo)注
通過數(shù)據(jù)增強(qiáng)后,共得到1 008 組點(diǎn)云數(shù)據(jù),為每一組點(diǎn)云數(shù)據(jù)注釋孔邊界點(diǎn)云將非常耗費(fèi)人力。因此,本文采用網(wǎng)格劃分法[16] 對每一組點(diǎn)云數(shù)據(jù)進(jìn)行孔邊界點(diǎn)云的提取,獲得孔邊界點(diǎn)云的標(biāo)注結(jié)果,如圖2 所示。
1.2 機(jī)器人運(yùn)動軌跡標(biāo)注
機(jī)器人運(yùn)動軌跡標(biāo)注與常見的視覺任務(wù)標(biāo)注不同,運(yùn)動軌跡分布在一個較大的連續(xù)搜索空間中,這帶來了無限的標(biāo)注,手動注釋每個場景的人工成本非常高。因此,本文針對機(jī)器人檢測問題,提出了一種用于機(jī)器人檢測運(yùn)動軌跡的自動標(biāo)注過程。如圖3 所示。
首先, 利用主成分分析(principal componentanalysis, PCA) 計(jì)算每個孔邊界點(diǎn)云數(shù)據(jù)的特征向量,即點(diǎn)云數(shù)據(jù)的3 個主方向,將Z 軸主方向定義為孔的矢量方向, 最大特征值對應(yīng)的特征向量定義為孔的主方向。其次,查詢Gocator-2450 的用戶手冊可以得知,其最佳掃描距離為545 mm。之后,計(jì)算孔在主方向上距離最遠(yuǎn)的兩個點(diǎn),并分別沿孔的矢量方向延長545 mm,作為機(jī)器人的起點(diǎn)與終點(diǎn),同時Gocator 的坐標(biāo)系Z 軸平行于孔的矢量方向,指向待檢測零件。最后,利用機(jī)器人的逆運(yùn)動學(xué)求解機(jī)器人的各關(guān)節(jié)角度。綜上,得到機(jī)器人運(yùn)動軌跡的標(biāo)注。
2 自主運(yùn)動規(guī)劃網(wǎng)絡(luò)框架
假 設(shè) 待 檢 測 特 征 的 點(diǎn) 云 數(shù) 據(jù) 為 P = fpi =(xi,yi,zi)|1≤i≤n},P∈RNx3,機(jī)器人關(guān)節(jié)空間的真實(shí)值定義為C = [θi1,θi2,…,θi6],本章節(jié)目的是基于 輸入的點(diǎn)云數(shù)據(jù)自主生成機(jī)器人運(yùn)動過程的關(guān)節(jié) 空間信息^C=[^θi1,^θ2,…,^θ6],其中讀示機(jī)器人在 第i時刻的關(guān)節(jié)信息。
2.1 InsGAN 機(jī)器人運(yùn)動軌跡生成框架
GAN通常由兩個相互對立訓(xùn)練的神經(jīng)網(wǎng)絡(luò)構(gòu) 成。這兩個對立訓(xùn)練的模型為:捕獲數(shù)據(jù)分布的 生成模型與估計(jì)樣本的來源是否為真實(shí)數(shù)據(jù)的判 別模型。生成模型以變量z作為輸入量,輸出樣本 G(z),判別模型以樣本x作為輸入量,輸出其為真 實(shí)數(shù)據(jù)概率結(jié)果D(x)。訓(xùn)練的目標(biāo)函數(shù)為
式中:E 為數(shù)據(jù)分布信息,p(x) 為真實(shí)數(shù)據(jù)分布;p(z) 為生成器數(shù)據(jù)分布。
本文提出的InsGAN網(wǎng)絡(luò)如圖4所示。其中, LSTM(long short-term memory)為長短時記憶神經(jīng) 網(wǎng)絡(luò);MLP(multilayer perceptron)為多層感知機(jī)。 與傳統(tǒng)的GAN網(wǎng)絡(luò)相似,該模型由軌跡生成器 G和軌跡判別器D組成。生成器將待檢測特征的 點(diǎn)云數(shù)據(jù)作為輸入量,然后輸出機(jī)器人檢測的運(yùn) 動軌跡。其中,軌跡生成器由5個模塊組成:編 碼器、解碼器、點(diǎn)云數(shù)據(jù)關(guān)系計(jì)算模塊、注意力 模塊A及池化模塊P。在編碼器中,接受待檢測 特征的點(diǎn)云數(shù)據(jù)信息,基于PointNet框架進(jìn)行編 碼,得到隱藏向量H,然后與點(diǎn)云數(shù)據(jù)間關(guān)系一 起輸入注意力模塊中,從而實(shí)現(xiàn)對重點(diǎn)信息特征提取的效率提升。池化模塊P將注意力模塊的輸 出4作為輸入生成池化向量P,學(xué)習(xí)點(diǎn)云數(shù)據(jù)的分 布對機(jī)器人運(yùn)動軌跡的影響。解碼器接受隱藏向 量H與池化向量P作為機(jī)器人運(yùn)動軌跡生成條件以 生成軌跡。D模塊則接受G模塊生成的機(jī)器人運(yùn) 動軌跡己和數(shù)據(jù)集的真實(shí)樣本,對比真實(shí)數(shù)據(jù)與生 成數(shù)據(jù)之間的關(guān)系,提升模型的有效性。
2.2 生成器模塊
為實(shí)現(xiàn)點(diǎn)云數(shù)據(jù) P到機(jī)器人關(guān)節(jié)空間C的映射,將生成器設(shè)計(jì)為編碼器?解碼器的結(jié)構(gòu)。
2.2.1 編碼器
在編碼器中,基于PointNet結(jié)構(gòu)對點(diǎn)云數(shù)據(jù) 的特征進(jìn)行提取,將每個點(diǎn)pi的特征升維至一個 高維特征向量歷,其中Hi∈R1024,具體計(jì)算過程 如下:
Hi = PointNet (pi;W) (2)
式中,W表示編碼器編碼過程的權(quán)重。
2.2.2 注意力機(jī)制
機(jī)器人檢測軌跡不僅與待檢測特征的位置息息相關(guān),也與待檢測特征的形狀緊密相連。為準(zhǔn)確描述形狀對機(jī)器人軌跡的影響,同時也為強(qiáng)化注意力機(jī)制對點(diǎn)云數(shù)據(jù)特征提取的準(zhǔn)確性與針對性,本文考慮了點(diǎn)云數(shù)據(jù)的形狀特征。
首先, 利用K 最鄰近 (K-nearest neighbor,KNN)算法計(jì)算點(diǎn)pi的K 個鄰點(diǎn),構(gòu)建局部領(lǐng)域圖G ,并計(jì)算局部協(xié)方差矩陣M,計(jì)算方法如下:
如圖4 所示,判別器模塊由編碼器、LSTM及MLP 層組成,其目的是對生成的機(jī)器人檢測軌跡可否接受進(jìn)行判別。不同于生成器中的編碼功能,判別器的編碼器由PointNet 與LSTM 組成,PointNet 接受原始點(diǎn)云數(shù)據(jù),LSTM 接受生成器生成的檢測軌跡與真實(shí)檢測軌跡,最后利用MLP 輸出機(jī)器人檢測軌跡的真假標(biāo)簽。
HD =LSTM(PointNet(P;WP) ;LSTMe (C;We) ;WL) (10)
L = MLP(HD;WM) (11)
式中: HD 為判別器內(nèi)部數(shù)據(jù)傳輸?shù)倪^程量;WP 為PointNet 模型參數(shù);L 表示真假標(biāo)簽。
2.4 損失函數(shù)
根據(jù)機(jī)器人運(yùn)動學(xué)可知, 當(dāng)末端位姿相同時,機(jī)器人關(guān)節(jié)空間C對應(yīng)多組解,然而傳統(tǒng)的損失函數(shù)讓網(wǎng)絡(luò)失去了生成多樣性結(jié)果的可能,因此本文提出多樣性損失函數(shù),增加機(jī)器人檢測軌跡的多樣性。利用機(jī)器人運(yùn)動學(xué)知識,將關(guān)節(jié)空間C映射至笛卡爾坐標(biāo)系下,對網(wǎng)絡(luò)的可學(xué)習(xí)參數(shù)進(jìn)行優(yōu)化,最終的損失函數(shù)為
L = LG +λL* (12)
式中:Lg為GAN網(wǎng)絡(luò)的損失函數(shù);λ為平衡因 子;L*為多樣性損失。
式中,Kin表示機(jī)器人正運(yùn)動學(xué)公式。
3 案例分析
利用本文構(gòu)建的檢測數(shù)據(jù)集評估所提出的機(jī)器人軌跡生成網(wǎng)絡(luò)性能。為量化網(wǎng)絡(luò)性能,提出平均關(guān)節(jié)誤差(average joint error, AJE)、平均末端執(zhí)行器位姿誤差(average end effector position error,AEEPE) 及軌跡生成時間(generate time, GT) 作為評價指標(biāo)。同時,使用GraspNet、SGAN 網(wǎng)絡(luò)模型,以及貪心前向樹搜索算法( -greedy forward treesearch, FTS)、RRT算法作為基準(zhǔn)方法進(jìn)行對比驗(yàn)證。
3.1 案例分析
網(wǎng)絡(luò)相關(guān)參數(shù)的設(shè)置方面,生成器與判別器均采用Adam 優(yōu)化器進(jìn)行優(yōu)化,初始學(xué)習(xí)率設(shè)置為0.005,批處理設(shè)置為16,迭代200 輪。生成器中的編碼器模塊最終輸出隱藏向量H的維度為1 024,注意力機(jī)制輸出向量A維度同樣為1 024,KNN 算法中K 取10,平衡因子設(shè)置為0.9。
最終軌跡生成的定量化結(jié)果如表1 所示。可以看出,本文方法InsGAN 在關(guān)于準(zhǔn)確性的兩個指標(biāo)AJE 和AEEPE 中,僅略低于RRT 算法,兩指標(biāo)分別與RRT相差為0.04 及0.12。然而,為實(shí)現(xiàn)機(jī)器人在線檢測工藝規(guī)劃的需求,軌跡規(guī)劃時間至關(guān)重要,從GT 一欄中可以看出,本文算法相較于RRT 算法在規(guī)劃時間上有大于50% 的提升。當(dāng)機(jī)器人始末點(diǎn)距離過大時,RRT 算法將出現(xiàn)明顯的冗余問題,RRT 將機(jī)器人的軌跡離散化,每搜索一次可行路徑都需要機(jī)器人逆運(yùn)動學(xué)的求解,因此導(dǎo)致了規(guī)劃時間的指數(shù)型增長。與傳統(tǒng)算法相比,在不影響檢測質(zhì)量的前提下,本文方法可有效地提高規(guī)劃效率,滿足在線規(guī)劃需求。
與目前主流軌跡在線規(guī)劃方法相比,本文方法在兩種準(zhǔn)確性指標(biāo)AJE 和AEEPE 中,均取得了最優(yōu)結(jié)果, 誤差至多減少了0.89 及1.56, 證明InsGAN 框架的有效性。最后針對指標(biāo)GT,由于生成器中的各模塊參數(shù)較多,對最終軌跡生成時間影響較大,導(dǎo)致軌跡規(guī)劃時間升高了0.07 s。與主流在線規(guī)劃框架相比,InsGAN 在滿足在線規(guī)劃需求的前提下,提高了軌跡生成質(zhì)量,滿足了檢測質(zhì)量要求,該方法有效可行。
綜上所述,本文所提出的機(jī)器人軌跡生成框架可以有效解決機(jī)器人在線檢測軌跡規(guī)劃中的規(guī)劃質(zhì)量低問題,并且在不影響檢測質(zhì)量的前提下,大幅提高規(guī)劃時間。
為更直觀地展示機(jī)器人軌跡規(guī)劃結(jié)果,圖6給出了針對不同位置處待檢測的最終規(guī)劃結(jié)果。
3.2 消融實(shí)驗(yàn)
針對機(jī)器人在線檢測工藝規(guī)劃問題,提出全新的基于GAN 框架的機(jī)器人檢測軌跡生成網(wǎng)絡(luò)。首先通過編碼?解碼結(jié)構(gòu)將點(diǎn)云空間轉(zhuǎn)映射到機(jī)器人關(guān)節(jié)空間內(nèi);其次引入點(diǎn)云幾何結(jié)構(gòu)及自注意力機(jī)制實(shí)現(xiàn)機(jī)器人與環(huán)境之間的交互;最后提出多樣性損失函數(shù),解決了GAN 結(jié)構(gòu)訓(xùn)練易崩潰等問題。采用消融實(shí)驗(yàn)對InsGAN 網(wǎng)絡(luò)模型中的各模塊的效果進(jìn)行評估。
表2 給出了各模塊針對機(jī)器人檢測軌跡生成問題的效果,從表中可以看出,編碼器模塊在軌跡生成過程中起到了主要作用,當(dāng)失去編碼器時,兩類誤差A(yù)JE 和AEEPE 提升至1.48 和2.51。這也驗(yàn)證了編碼器對于點(diǎn)云空間到關(guān)節(jié)空間映射的重要性。可以發(fā)現(xiàn)自注意力機(jī)制是影響軌跡生成速度的主要原因,這不僅是由于自注意力機(jī)制增加了網(wǎng)絡(luò)參數(shù)數(shù)量,也由于在點(diǎn)云形狀特征計(jì)算過程中需要大量的存儲空間,雙重因素下,拖慢了檢測路徑的整體運(yùn)算效率。
表3 給出了不同的池化方法對最終檢測軌跡的影響,選擇最大池化層、平均池化層和共享MLP 層3 類用于對比。如表3 所示,最大池化層取得了最好的結(jié)果,相比于其他兩種方法,兩類誤差相關(guān)的評價指標(biāo)分別降低了0.41 和0.78,這也驗(yàn)證了本文在構(gòu)建InsGAN 網(wǎng)絡(luò)模型時的選擇。
圖7 給出了不同平衡因子對GAN 結(jié)構(gòu)訓(xùn)練穩(wěn)定性的提升。可以看出,當(dāng)λ= 0,即只使用普通對抗損失函數(shù)時,損失函數(shù)難以收斂,當(dāng)融合于多樣性損失之后,平均損失小于未應(yīng)用多樣性損失的網(wǎng)絡(luò)模型,并在大部分情況下趨于收斂,這證明了本文所提出的多樣性損失有效解決了GAN網(wǎng)絡(luò)難以訓(xùn)練的問題。當(dāng) = 0:9時,網(wǎng)絡(luò)損失在訓(xùn)練20 輪后逐漸收斂,同時最終損失取得了最小值。
4 結(jié) 論
針對機(jī)器人在線檢測軌跡規(guī)劃問題,提出基于ROS 仿真環(huán)境下的檢測數(shù)據(jù)集制作方法。通過分析形狀特征對機(jī)器人檢測軌跡規(guī)劃的影響,提出基于自注意力機(jī)制的點(diǎn)云形狀信息提取方法?;跇?gòu)建的生成對抗式網(wǎng)絡(luò)框架,提出了基于待檢測特征點(diǎn)云數(shù)據(jù)的機(jī)器人檢測軌跡在線生成算法。針對機(jī)器人逆運(yùn)動學(xué)求解非唯一問題,提出了多樣性損失函數(shù)的逆運(yùn)動學(xué)高效求解方法。最后,通過搭建的機(jī)器人軌跡規(guī)劃案例,驗(yàn)證了所提方法的有效性與實(shí)時性。
參考文獻(xiàn):
[1] 唐永興,朱戰(zhàn)霞,張紅文,等.機(jī)器人運(yùn)動規(guī)劃方法綜述 J].航空學(xué)報(bào),2023, 44(2): 026495.
[2] KAVRAKI L E, SVESTKA P, LATOMBE J C, et al. Probabilistic roadmaps for path planning in highdimensional configuration spaces[J]. IEEE Transactions on Robotics and Automation, 1996, 12(4): 566-580.
[3] LAVALLE S M, KUFFNER J J. Randomized kinodynamic planning[C]//IEEE International Conference on Robotics and Automation. Detroit: IEEE, 1999: 473-479.
[4] 張振,李新宇,董昊臻,等.基于約束采樣RRT的機(jī)械臂 運(yùn)動規(guī)劃J].計(jì)算機(jī)集成制造系統(tǒng),2022, 28(6): 1616-1626.
[5] 王懷震,高明,王建華,等.基于改進(jìn)RRT*-Connect算法的機(jī)械臂多場景運(yùn)動規(guī)劃J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2022, 53(4): 432-440.
[6] 陳滿意,張橋,張弓,等.多障礙環(huán)境下機(jī)械臂避障路徑 規(guī)劃J].計(jì)算機(jī)集成制造系統(tǒng),2021, 27(4): 990-998.
[7] QURESHI A H, AYAZ Y. Intelligent bidirectional rapidly-exploring random trees for optimal motion planning in complex cluttered environments[J]. Robotics and Autonomous Systems, 2015, 68: 1-11.
[8] GAO W X, TANG Q, YAO J, et al. Automatic motion planning for complex welding problems by considering angular redundancyJ]. Robotics and Computer-Integrated Manufacturing, 2020, 62: 101862.
[9] FANG H S, WANG C X, GOU M H, et al. GraspNet-1billion: a large-scale benchmark for general object grasping[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle: IEEE, 2020: 11441-11450.
[10] ZHAO C, ZHU Y F, DU Y C, et al. A novel direct trajectory planning approach based on generative adversarial networks and rapidly-exploring random tree J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23(10): 17910-17921.
[11] SILVER D, HUANG A, MADDISON C J. et al. Mastering the game of go with deep neural networks and tree searchJ]. Nature, 2016, 529(7587): 484-489.
[12] ZHU Y K, MOTTAGHI R, KOLVE E, et al. Target-driven visual navigation in indoor scenes using deep reinforcement learning[C]//2017 IEEE International Conference on Robotics and Automation (ICRA).Singapore: IEEE, 2017: 3357-3364.
[13] 周瑋杰.基于深度強(qiáng)化學(xué)習(xí)的室內(nèi)服務(wù)機(jī)器人路徑規(guī)劃 方法研究[D].沈陽:沈陽工業(yè)大學(xué),2022.
[14] QURESHI A H, SIMEONOV A, BENCY M J, et al.Motion planning networks[C]//2019 International Conference on Robotics and Automation (ICRA).Montreal: ACM, 2019: 2118-2124.
[15] HUH J, LEE D D. Efficient sampling with Q-learning to guide rapidly exploring random trees[J]. IEEE Robotics and Automation Letters, 2018, 3(4): 3868-3875.
[16] 楊雪嬌.點(diǎn)云的邊界提取及角點(diǎn)檢測算法研究[D].哈爾 濱:哈爾濱工程大學(xué),2010.
[17] 沈露,楊家志,周國清,等.集自注意力與邊卷積的點(diǎn)云 分類分割模型J].計(jì)算機(jī)工程與應(yīng)用,2023, 59(19): 106-113.
(編輯:董偉)
基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(51875362);上海市自然科學(xué)基金資助項(xiàng)目(21ZR1444500);上海市浦江人才計(jì)劃(22PJD048)