• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于感興趣區(qū)域的物體抓取位姿檢測

    2024-11-23 00:00:00孫先濤江汪洋陳文杰陳偉海智亞麗
    關(guān)鍵詞:掩膜深度學(xué)習(xí)

    摘要: 在工業(yè)生產(chǎn)中,待抓取物體往往具有種類眾多、擺放位置雜亂、形狀不規(guī)則等特點(diǎn),使得難以準(zhǔn)確獲取物體抓取位姿。針對以上問題,提出一種基于深度學(xué)習(xí)的兩階段抓取位姿估計方法。第1階段,提出一種基于YOLOv4(you only look once version4)改進(jìn)的輕量級旋轉(zhuǎn)目標(biāo)檢測算法,提高目標(biāo)的檢測速度和檢測精度。首先,使用輕量化網(wǎng)絡(luò)GhostNet和深度可分離卷積對原始網(wǎng)絡(luò)進(jìn)行重構(gòu),降低整個模型參數(shù)。然后,在頸部網(wǎng)絡(luò)中增加自適應(yīng)空間特征融合結(jié)構(gòu)和無參注意力模塊,提高對感興趣區(qū)域的定位精度;最后,使用近似傾斜交并比(skew intersection over union, SkewIoU)損失解決角度的周期性問題。第2階段,制作與原始圖片尺寸一樣的掩膜提取感興趣區(qū)域;同時,提出一種改進(jìn)的DeepLabV3+算法,用以檢測感興趣區(qū)域中物體的抓取位姿。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的YOLOv4網(wǎng)絡(luò)檢測精度達(dá)到92.5%,改進(jìn)的DeepLabV3+算法在Cornell抓取數(shù)據(jù)集上的圖像拆分和對象拆分精度分別達(dá)到94.6%,92.4%,且能準(zhǔn)確檢測出物體的抓取位姿。

    關(guān)鍵詞: 深度學(xué)習(xí); 掩膜; 感興趣區(qū)域; 輕量化網(wǎng)絡(luò); 位姿檢測

    中圖分類號: TP 242

    文獻(xiàn)標(biāo)志碼: A

    DOI:10.12305/j.issn.1001-506X.2024.06.05

    Object grasp pose detection based on the region of interest

    SUN Xiantao1, JIANG Wangyang1, CHEN Wenjie1,*, CHEN Weihai2, ZHI Yali1

    (1. School of Electrical Engineering and Automation, Anhui University, Hefei 230601, China; 2. School of Automation Science and Electrical Engineering, Beihang University, Beijing 100191, China)

    Abstract: In industrial production, the objects to be grasped often have the characteristics of varions types, messy placements, irregular shapes, etc., which make it difficult to accurately obtain the grasping pose of the object. In view of the above problems, this paper proposes a two-stage grasp pose estimation method based on deep learning. In the first stage, a lightweight rotating target detection algorithm based on improved you only look once version4 (YOLOv4) is proposed to enhance the detection speed and improve detection accuracy of targets. Firstly, the lightweight network GhostNet and deep separable convolution are used to reconstruct the original network to reduce the parameters of the entire model. Then, the adaptive spatial feature fusion structure and the non-reference attention module are added to the neck network to improve the positioning accuracy of the region of interest. Finally, the approximate skew intersection over union (SkewIoU) loss is used to solve the periodic problem of the angle. In the second stage, a mask extraction region of interest is made with the same size as the original picture. At the same time, an improved DeepLabV3+algorithm is proposed to detect the grasping pose of objects in the area of interest. Experimental results show that the detection accuracy of the improved YOLOv4 network reaches 92.5%, and the improved DeepLabV3+algorithm achieves 94.6% and 92.4% of the image splitting and object splitting accuracy on the Cornell capture dataset, respectively, and can accurately detect the grasping pose of objects.

    Keywords: deep learning; mask; region of interest; lightweight network; pose detection

    0 引 言

    近些年來,隨著人工成本的節(jié)節(jié)攀升,人工智能技術(shù)被廣泛應(yīng)用在工業(yè)生產(chǎn)的分類、包裝等環(huán)節(jié)中。其中,基于機(jī)器視覺的伺服抓取控制系統(tǒng)一直是研究的熱點(diǎn)領(lǐng)域[1-2。機(jī)械臂與計算機(jī)視覺技術(shù)的結(jié)合,使得機(jī)械臂獲得感知周圍環(huán)境和與外界環(huán)境交互的能力[3。如何在對硬件設(shè)備要求不高、能降低人工成本情況下,實(shí)現(xiàn)對物體抓取位姿的快速準(zhǔn)確檢測,一直是機(jī)械臂抓取的重要研究方向[4。

    目前,深度學(xué)習(xí)在機(jī)械臂抓取領(lǐng)域得到廣泛應(yīng)用,并已經(jīng)取得了不少研究成果。Lenz等[5最先使用深度學(xué)習(xí)的方法提取深度圖像的多模態(tài)特征,對目標(biāo)物體的最優(yōu)抓取位置進(jìn)行檢測,并提出了一種五維抓取表示方法,其中抓取位置以抓取矩形表示。Morrison等[6提出了一種可用于閉環(huán)抓取且與目標(biāo)無關(guān)的抓取綜合方法,使用生成式抓取卷積神經(jīng)網(wǎng)絡(luò)(generative grasping convolutional neural network, GG-CNN)預(yù)測每個像素的抓取置信度、寬度和角度。Liang等[7提出了基于點(diǎn)云的位姿檢測算法,實(shí)現(xiàn)了2D卷積神經(jīng)網(wǎng)絡(luò)對3D點(diǎn)云的直接處理;Zhang等[8為了解決多層卷積神經(jīng)網(wǎng)絡(luò)的過擬合問題,提出一種單目標(biāo)抓取檢測網(wǎng)絡(luò),對抓取角度和位置進(jìn)行擬合,提高模型的檢測精度。

    平面多目標(biāo)抓取位姿檢測大致分為兩類,第1類采用端對端網(wǎng)絡(luò)直接實(shí)現(xiàn)抓取位姿估計。如Chu等[9將抓取檢測轉(zhuǎn)化為抓取位置回歸和角度分類問題,并利用區(qū)域建議網(wǎng)絡(luò)(region proposal network, RPN)網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)多目標(biāo)的檢測,但由于采用角度分類的方法,其預(yù)測的抓取角度存在角度離散的問題。Ainetter等[10提出一種端到端網(wǎng)絡(luò),將抓取檢測和語義分割結(jié)合在一起,實(shí)現(xiàn)了對多目標(biāo)的檢測,但其網(wǎng)絡(luò)模型大,檢測速度慢,并且數(shù)據(jù)標(biāo)注工作量大。第2類采用分階段方法實(shí)現(xiàn)抓取位姿檢測。陳丹等[11提出了級聯(lián)快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(faster region convolutional neural network, Faster RCNN)模型[12,第1級使用水平目標(biāo)檢測對較小物體進(jìn)行定位,第2級在第1級的基礎(chǔ)上尋找該目標(biāo)的最優(yōu)抓取位姿,但第2級無法做到對目標(biāo)最優(yōu)抓取位姿的直接預(yù)測,同時水平框定位可能包含其他物體像素,影響檢測精度。孟月波等[13提出一種兩階段檢測方法,第1階段利用語義分割網(wǎng)絡(luò)獲得待抓物體的掩碼區(qū)域,第2階段,利用主成分分析(principal component analysis, PCA)法對輪廓點(diǎn)坐標(biāo)進(jìn)行降維,獲取物體抓取坐標(biāo)和偏轉(zhuǎn)方向,但獲取的抓取點(diǎn)不一定在物體上,致使抓取時物體發(fā)生移動。安廣琳等[14也是通過兩階段方法獲取多目標(biāo)抓取位姿,先通過旋轉(zhuǎn)目標(biāo)檢測算法獲取物體類別和坐標(biāo),然后直接將物體裁剪下來,最后使用傳統(tǒng)方法對每個裁剪后的物體圖像進(jìn)行二值化處理,求取其質(zhì)心坐標(biāo)作為抓取點(diǎn),但其并沒有考慮到物體在原圖上的質(zhì)心坐標(biāo)和抓取角度。分階段方法相比前者檢測精度更高,且能降低標(biāo)注工作量。但依舊存在背景噪聲干擾和檢測速度慢的問題,且第2階段獲取抓取位姿的方法過于復(fù)雜。

    針對以上問題,本文提出一種兩階段檢測方法,第1階段,使用YOLOv4(you only look once version4)[15改進(jìn)的輕量級旋轉(zhuǎn)目標(biāo)檢測算法實(shí)現(xiàn)多目標(biāo)的快速識別和定位,獲得每個目標(biāo)的類別和坐標(biāo),然后根據(jù)坐標(biāo)確定感興趣區(qū)域(region of interest, ROI),并制作與原圖大小一樣的掩膜將物體提取下來,使物體在原圖中位置信息不變,并將剩余區(qū)域填充為白色,從而將多目標(biāo)檢測問題轉(zhuǎn)化成多個單目標(biāo)檢測問題。第2階段使用改進(jìn)的DeepLabV3+[16算法訓(xùn)練好的權(quán)重對多個單目標(biāo)進(jìn)行檢測,直接獲得每個目標(biāo)的抓取位姿。

    1 旋轉(zhuǎn)目標(biāo)檢測

    1.1 YOLOv4目標(biāo)檢測算法

    YOLOv4算法由主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和檢測頭3個部分組成。相比之前的YOLOv3,其在主干網(wǎng)絡(luò)部分的特征提取網(wǎng)絡(luò)Darknet53中融入跨階段部分連接(cross stage partial connections, CSP)模塊,結(jié)構(gòu)變?yōu)镃SPDarnet53。頸部網(wǎng)絡(luò)部分由空間金字塔池化(spatial pyramid pooling, SPP)結(jié)構(gòu)[17和路徑聚合網(wǎng)絡(luò)(path aggregation network, PANet)[18組成。SPP結(jié)構(gòu)使用池化核大小為5×5、9×9、13×13的最大池化層,分別對輸入特征進(jìn)行處理,用以增大感受野。PANet結(jié)構(gòu)就是在特征金字塔網(wǎng)絡(luò)(feature pyramid network, FPN)結(jié)構(gòu)[19后面添加一條從低層到高層的路徑,將低層的信息傳給高層,增強(qiáng)其定位信息,同時考慮了高低層特征層對預(yù)測結(jié)果的共同影響,相較于原PANet結(jié)構(gòu)中將特征層直接相加,YOLOv4在通道方向進(jìn)行Concat拼接。檢測頭部分使用3×3卷積和1×1卷積,進(jìn)行兩次卷積操作,完成目標(biāo)檢測任務(wù)。

    1.2 輕量級旋轉(zhuǎn)目標(biāo)檢測算法R-YOLOv4

    本文的研究對象為實(shí)驗(yàn)室中的常見工具,在實(shí)際目標(biāo)檢測場景中,可能出現(xiàn)工具過于密集、不同視覺設(shè)備條件下工具的清晰度發(fā)生變化、以及不同個體之間的邊界特征相似等問題。而傳統(tǒng)的YOLOv4算法,在特征提取過程中生成大量的冗余特征圖,導(dǎo)致檢測速度慢,不能很好適應(yīng)不同場景下圖片中物體的變化。考慮到現(xiàn)有算法檢測速度慢以及設(shè)備性能有限的情況,本文提出一種輕量級旋轉(zhuǎn)目標(biāo)檢測算法R-YOLOv4(rotating YOLOv4),其在保持較高的精度的同時,提高了模型的檢測速度。

    為了提高目標(biāo)檢測速度和精度,本文用GhostNet[20網(wǎng)絡(luò)替代原主干網(wǎng)絡(luò),同時使用深度可分離卷積(depthwise separable convolution, DSC)[21代替主干網(wǎng)絡(luò)以外的3×3卷積,輕量化整個模型。輕量化之后的YOLOv4算法如圖1所示。圖中Con2d表示卷積層;BN(batch normalization)為批量歸一化層;ReLU和Leaky為激活函數(shù);Maxpool為最大平均池化層;Upsample表示上采樣;Concat表示特征圖在通道方向上進(jìn)行拼接;G-Bneck為Ghost Bottleneck結(jié)構(gòu)的縮寫。該網(wǎng)絡(luò)的輸入圖片大小為416×416×3,使用GhostNet獲得大小為52×52×40、26×26×112、13×13×160的3種不同尺寸的有效特征層并輸入網(wǎng)絡(luò)中,為了解決輕量化網(wǎng)絡(luò)之后帶來的檢測精度降低的問題,本文分別在頸部網(wǎng)絡(luò)結(jié)構(gòu)中的3個部分添加無參注意力模塊(simple parameter-free attention module, SimAM)[22,同時在PANet結(jié)構(gòu)后引入自適應(yīng)空間特征融合(adaptive spatial feature fusion, ASFF)結(jié)構(gòu)[23,使網(wǎng)絡(luò)充分利用不同尺度的特征,提高模型的檢測精度。然后,使用近似傾斜交并比(skew intersection over union, SkewIoU)損失[24作為損失函數(shù),解決角度的周期性問題。最后,通過檢測頭輸出預(yù)測結(jié)果。

    1.2.1 主干網(wǎng)絡(luò)

    YOLOv4的主干網(wǎng)絡(luò)是由多個殘差結(jié)構(gòu)組成的CSPDarnet53網(wǎng)絡(luò),但其結(jié)構(gòu)復(fù)雜、參數(shù)過多、推理速度慢。為了提高抓取位姿檢測速度,提高抓取效率,本文使用GhostNet代替原主干特征提取網(wǎng)絡(luò)。由于待抓取物體所在工作臺背景單一,導(dǎo)致出現(xiàn)大量的重復(fù)特征圖,生成冗余的特征圖,需要增加模型的計算量,GhostNet網(wǎng)絡(luò)的思想就是使用計算量更低的操作去生成冗余的特征圖。

    Ghost模塊就是GhostNet提出的一種降低計算量、加快模型推理速度的方法。其模塊的主要卷積可以自定義大小,它不是采用逐點(diǎn)卷積或者通道混洗的方法實(shí)現(xiàn)跨通道的特征處理,而是采用標(biāo)準(zhǔn)卷積先生成一些內(nèi)在的特征映射,然后通過線性變換操作增強(qiáng)特征和增加信道,最后將恒等變換和線性變換得到的Ghost特征圖在通道方向上拼接在一起,得到最終的輸出結(jié)果。其具體結(jié)構(gòu)如圖2所示。

    假設(shè)1個恒等變換特征圖有s-1個冗余,那么它的計算量將比標(biāo)準(zhǔn)卷積的計算量削減為原來1/s,具體計算過程如下:

    rs=n·h′·w′·c·k·kns·h′·w′·c·k·k+(s-1)·ns·h′·w′·d·d=

    c·k·k1s·c·k·k+s-1s·d·d≈s·cs+c-1≈s(1)

    式中:h′、w′、n分別表示輸出特征圖的高、寬和通道數(shù);k×k表示卷積核的大小;s表示每個通道產(chǎn)生的總映射;c表示輸入通道數(shù),且一般很大,slt;lt;c;s/n是經(jīng)過普通卷積輸出的內(nèi)在特征映射;d×d為線性操作的平均池化核的大小,且與k×k大小相似。分子為標(biāo)準(zhǔn)卷積的計算量,分母為Ghost模塊計算量。

    GhostNet網(wǎng)絡(luò)由多個Ghost模塊為基礎(chǔ)構(gòu)建的Ghost Bottleneck組成。其與Residual Block很相似,只不過使用Ghost模塊代替?zhèn)鹘y(tǒng)的卷積操作。其中,兩個Ghost模塊將輸入特征層通道數(shù)先增加,后降低,使之與輸入通道相同。步距Stride決定是否對特征層的高、寬進(jìn)行壓縮,值為1時,保持不變,這時的Ghost Bottleneck只增加網(wǎng)絡(luò)深度;值為2時,會將輸入特征圖的高、寬壓縮到原來的一半,完成下采樣操作。步距為1和步距為2時,Ghost Bottleneck的結(jié)構(gòu)如圖3所示。

    1.2.2 SimAM

    利用輕量化的GhostNet替換原來的主干網(wǎng)絡(luò)CSPDarnet53后,網(wǎng)絡(luò)模型的參數(shù)量和計算量有了明顯的減少,但同時也降低了模型的特征提取能力。為了更好地平衡網(wǎng)絡(luò)模型檢測精度和檢測速度,引入SimAM是提高檢測精度的方法之一。其在不引入額外參數(shù)的情況下,能加速注意力權(quán)值的計算,使得加權(quán)之后的特征更關(guān)注重要的目標(biāo)信息。SimAM注意力機(jī)制結(jié)構(gòu)如圖4所示。

    不同于現(xiàn)有的通道或者空間注意力機(jī)制,該注意力機(jī)制是從神經(jīng)科學(xué)理論的角度出發(fā),挖掘神經(jīng)元的重要性。SimAM算法會評估每個神經(jīng)元的重要性,在神經(jīng)科學(xué)中,信息豐富的神經(jīng)元不同于周邊神經(jīng)元,往往表現(xiàn)出不同的放電模式。同時,激活的神經(jīng)元還會抑制周邊的神經(jīng)元,這種現(xiàn)象稱為空間抑制。所有具有空間抑制效應(yīng)的神經(jīng)元,在神經(jīng)網(wǎng)中的重要性需要提高。利用神經(jīng)元之間的線性可分性可以找到這些激活神經(jīng)元。SimAM通過定義能量函數(shù)的方式找到重要神經(jīng)元,能量函數(shù)為

    e*t=4(σ^2+λ)(t-μ^)2+2σ^2+2λ(2)

    式中:t表示目標(biāo)神經(jīng)元;λ為超參數(shù);μ^和σ^2分別為其相鄰神經(jīng)元的均值和方差。最小能量通過式(2)獲得,能量越低,該神經(jīng)元與周邊神經(jīng)元的差異性就越大,重要性也就越高。神經(jīng)元的重要性為1/e*t。最后,利用1/e*t對輸入的特征進(jìn)行加權(quán)處理,具體如下:

    式中:X為輸入特征;X~為經(jīng)過加權(quán)之后特征;⊙為點(diǎn)積運(yùn)算;E為每個通道的能量函數(shù)。

    1.2.3 ASFF模塊

    不同特征尺度之間的不一致性是單階段算法中特征金字塔融合方式的主要缺陷。YOLOv4采用PAN結(jié)構(gòu)進(jìn)行不同尺度的特征融合,其是在FPN結(jié)構(gòu)上改進(jìn)而來,PAN是將不同尺度的特征層在通道方向上進(jìn)行簡單的拼接。但這種方式并不能充分利用不同尺度的特征,而且其他層的無用信息也被融入進(jìn)來。因此,本文使用ASFF模塊來解決這些問題。其核心思想是通過訓(xùn)練和學(xué)習(xí)不同尺度空間中特征融合的權(quán)重,也就是獲得不同特征圖對預(yù)測特征圖的貢獻(xiàn)程度,在空間上過濾其他層次特征,保留有效信息并進(jìn)行組合,從而抑制不一致性,提高特征尺度的不變性。ASFF的結(jié)構(gòu)設(shè)計如圖5所示。

    其在某位置的輸出為

    ylijlij·x1→lijlij·x2→lijlij·x3→lij(4)

    式中:ylij為預(yù)測特征層對應(yīng)位置的輸出;x1→lij、x2→lij、x3→lij分別是來自3種不同層級的特征層level1、level2、level3調(diào)整到l層級尺度大小后,在(i,j)處的特征向量;αlij、βlij、γlij為第1層特征圖學(xué)習(xí)到的權(quán)重。它們是level1~level3調(diào)整尺度后的特征層,先經(jīng)過1×1卷積得到權(quán)重向量α、β、γ,然后在通道方向上拼接獲得權(quán)重融合圖,再經(jīng)過1×1卷積,最后在通道方向使用Softmax函數(shù),進(jìn)行歸一化而得到的,它們的范圍都在[0,1]并且和為1,具體如下:

    αlijlijlij=1(5)

    αlij=eλlαijeλlαij+eλlβij+eλlγij(6)

    1.2.4 五參數(shù)表示法

    旋轉(zhuǎn)矩形框在標(biāo)注時以參數(shù)角度θ來表示矩形框的旋轉(zhuǎn)方向,同時為防止出現(xiàn)二義性問題,對θ也設(shè)置了范圍。本文采用的是長邊定義法,如圖6所示。

    它的表現(xiàn)形式為(x,y,w,h,θ),其中(x,y)為旋轉(zhuǎn)矩形框的中心坐標(biāo),w定義為最長邊,h定義為最短邊,θ表示X軸旋轉(zhuǎn)到長邊w所經(jīng)過的角度范圍,順時針為正,逆時針為負(fù),取值范圍為[-π/2,π/2]。

    1.2.5 近似SkewIoU損失

    R-YOLOv4只需要在YOLOv4的檢測頭部分增加一個對角度預(yù)測的通道,就可實(shí)現(xiàn)旋轉(zhuǎn)角度預(yù)測。

    R-YOLOv4的分類損失采用二分類交叉熵?fù)p失。然而在回歸損失中,由于角度存在邊界,當(dāng)使用傳統(tǒng)的單參數(shù)損失函數(shù)Smooth L1 Loss優(yōu)化角度時,由于θ在越過定義的角度邊界會導(dǎo)致角度的正負(fù)號變化,從而導(dǎo)致?lián)p失值突然增大。為了解決角度的周期性問題帶來的回歸損失突然變大的情況,Yang等[25使用了平滑交并比損失(IOU-Smooth L1 Loss)函數(shù),在傳統(tǒng)的Smooth L1 Loss函數(shù)中引入了SkewIoU常數(shù)因子,當(dāng)遇到邊界時,新的損失函數(shù)接近于0,避免了損失突然變大的情況。R3Det中提出的近似SkewIoU損失,則是在IOU-Smooth L1 Loss的基礎(chǔ)上改進(jìn)而來的,且能有效地改善角度回歸的效果。本文采用該思想,回歸損失為

    L=λcoordN∑Nn=1objnLreg(vpredn,vgtn)|Lreg(vpredn,vgtn)||f(SkewIoU)|(7)

    Lreg(vpred,vgt)=LSmooth-L1(vpredθ,vgtθ)-CIoU(vpred{x,y,w,h},vgt{x,y,w,h})(8)

    vgtθ=gtθ-θa(9)

    θa∈[-π/3,-π/6,0,π/6,π/3,π/2,](10)

    式中:n表示錨框的數(shù)量;objn為二進(jìn)制(objn=0表示背景;objn=1表示前景);vpredθ和vgtθ分別表示預(yù)測角度和真實(shí)角度的偏移量;CIoU為包含重疊面積、中心點(diǎn)距離和長寬比三要素的IoU損失;vpred{x,y,w,h}和vgt{x,y,w,h}分別為預(yù)測框和真實(shí)框的中心、寬和高;λcoord為平衡系數(shù),默認(rèn)為1;SkewIoU為預(yù)測旋轉(zhuǎn)框與真實(shí)旋轉(zhuǎn)框之間的IOU;f(SkewIOU)為SkewIOU有關(guān)的一個函數(shù),負(fù)責(zé)調(diào)整損失值的大小,梯度的反向傳播依舊通過Smooth L1 Loss主導(dǎo)。

    2 抓取位姿檢測

    2.1 五維抓取框

    機(jī)械臂要實(shí)現(xiàn)對目標(biāo)抓取,必須要對抓取目標(biāo)進(jìn)行抓取位姿檢測和抓取點(diǎn)定位。目前,平面抓取最常用的是五維抓取矩形,通過這種抓取矩形來表示平行板夾持器抓取目標(biāo)的抓取點(diǎn)和抓取姿態(tài)。抓取矩形的大小和方向通過五維向量表示,其表達(dá)式為

    G=(xg,yg,wg,hg,β)(11)

    式中:(xg,yg)表示抓取矩形的中心點(diǎn);wg表示平行板夾持器的寬度;hg表示平行板夾持器張開的大小;β表示平行板夾持器與水平方向的夾角。

    實(shí)際可視化效果如圖7所示。首先,通過五維抓取向量可以將抓取目標(biāo)的位姿檢測和深度學(xué)習(xí)緊密結(jié)合在一起。然后,制定相應(yīng)的任務(wù),分別對抓取矩形的中心點(diǎn)、抓取寬度和偏轉(zhuǎn)角度進(jìn)行預(yù)測,選擇置信度最高的抓取矩形作為最優(yōu)抓取位姿。

    2.2 DeepLabV3+算法原理

    DeepLabV3+是谷歌在2018年提出的一種編解碼網(wǎng)絡(luò),編碼器采用的是DeepLabV3網(wǎng)絡(luò),其由深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network, DCNN)和空洞空間卷積池化金字塔(atrous spatial pyramid pooling, ASPP)結(jié)構(gòu)組成,圖片先經(jīng)過DCNN下采樣16倍得到高層特征圖,然后將特征圖輸入到ASPP結(jié)構(gòu),特征圖分別通過1×1卷積層、3個膨脹系數(shù)為6、12、18的膨脹卷積層和一個全局平均池化層,然后在通道方向進(jìn)行拼接,通過ASPP能兼顧不同大小的語義信息,加強(qiáng)網(wǎng)絡(luò)多尺度感知能力,對于語義分割網(wǎng)絡(luò)至關(guān)重要。

    在解碼階段,對于下采樣16倍后的高層語義特征圖,經(jīng)過1×1卷積后,如果直接通過雙線性插值還原成原圖大小,將得不到精細(xì)的語義分割結(jié)果,目標(biāo)的邊界會出現(xiàn)丟失的情況。為了解決這一問題,DeepLabV3+先對Encoder得到的特征圖經(jīng)過1×1卷積進(jìn)行降維,防止高層信息被弱化。在保存邊界信息的情況下,通過雙線性插值上采樣4倍與同樣大小的特征層在通道方向進(jìn)行拼接,拼接后的特征層再經(jīng)過一個3×3的卷積進(jìn)一步融合特征。最后,再上采樣4倍還原成原圖大小。

    2.3 改進(jìn)的DeepLabV3+模型

    2.3.1 實(shí)現(xiàn)原理

    相較于采用RPN提取候選框的方法,改進(jìn)后的DeepLabV3+模型直接在每個像素上生成抓取姿勢。為了實(shí)現(xiàn)在像素級上對每個像素進(jìn)行抓取點(diǎn)和抓取姿態(tài)的檢測,需要對DeepLabV3+模型進(jìn)行改進(jìn),使網(wǎng)絡(luò)輸出抓取置信度Q、抓取角度Angle和抓取寬度Width。

    (1) 抓取置信度指的是圖像上每個像素點(diǎn)(u, v)作為抓取點(diǎn)時抓取的成功率,取值范圍為[0, 1],取值越接近于1,抓取成功的幾率越高。

    (2) 抓取角度是指每個點(diǎn)執(zhí)行抓取任務(wù)時需要偏轉(zhuǎn)的角度,取值范圍為[-π/2, π/2]。

    (3) 抓取寬度是指在每一點(diǎn)執(zhí)行抓取時二指夾持器的寬度,取值范圍在[0,150]像素之內(nèi)。

    改進(jìn)后的模型如圖8所示。將原有的一個3×3卷積刪除,引入4個分支,每個分支有2個3×3卷積核,卷積操作后再上采樣4倍還原成原圖大小。為了方便訓(xùn)練,避免造成訓(xùn)練混亂,本文采用文獻(xiàn)[6]的方法將輸出角度轉(zhuǎn)化成兩個三角函數(shù)sin2Φ和cos2Φ的形式分別輸出,最后通過下式求取輸出角度。

    Φ=12arctansin2Φcos2Φ(12)

    2.3.2 訓(xùn)練損失

    改進(jìn)后的DeepLabV3+模型抓取檢測的損失函數(shù)定義為Lgrasp=LQ+Lsin(2Φ)+Lcos(2Φ)+LWidth,四者的損失都采用均方差(mean square error, MSE)損失,具體如下:

    MSE(y,y′)=∑ni=1(yi-y′i)n(13)

    式中:y表示標(biāo)簽值;y′i表示預(yù)測值。

    3 實(shí)驗(yàn)結(jié)果與分析

    為了驗(yàn)證本文方法在實(shí)際應(yīng)用場景中的檢測效果,本文將搭建如圖9所示的實(shí)驗(yàn)平臺。該抓取平臺由UR5機(jī)械臂、氣動二指抓手夾爪、inter RealSenseD435深度相機(jī)等組成。

    抓取流程如下:

    (1) 首先相機(jī)拍攝大小為640×480的圖片,并通過兩階段位姿估計方法,對圖像分別進(jìn)行處理,獲得物體在像素坐標(biāo)系中的坐標(biāo);

    (2) 然后通過相機(jī)標(biāo)定和手眼標(biāo)定分別獲得像素坐標(biāo)到相機(jī)坐標(biāo)以及相機(jī)坐標(biāo)到機(jī)械臂基坐標(biāo)的旋轉(zhuǎn)平移矩陣,從而將物體抓取位姿從像素坐標(biāo)轉(zhuǎn)換至機(jī)械臂基坐標(biāo)系中;

    (3) 最后通過TCP/IP協(xié)議將抓取位姿輸入機(jī)械臂控制柜中,使機(jī)械臂到達(dá)抓取位置并進(jìn)行抓取。

    從上述流程可以看出,抓取位姿檢測的好壞,直接影響整個抓取系統(tǒng)的成功與否,故本文的研究重點(diǎn)依舊是抓取位姿的檢測問題。本文所提出的位姿估計方法涉及目標(biāo)檢測、圖像的預(yù)處理和多目標(biāo)抓取位姿估計3個部分,兩階段抓取位姿估計流程圖如圖10所示。下面將分別進(jìn)行分析。

    3.1 目標(biāo)檢測

    目標(biāo)檢測采用的是自建的VOC格式數(shù)據(jù)集,共8種物體,分別是錘子、固體膠、計重器、鉗子、螺絲刀、扳手、海綿、雨傘,如圖11所示。分別用labelImg和RolabelImg軟件標(biāo)注,制作水平目標(biāo)數(shù)據(jù)集和旋轉(zhuǎn)目標(biāo)數(shù)據(jù)集。然后,將自建的數(shù)據(jù)集按9∶1的比例隨機(jī)劃分訓(xùn)練集和驗(yàn)證集。將目標(biāo)檢測算法進(jìn)行訓(xùn)練,批次大小設(shè)置為8,初始學(xué)習(xí)率設(shè)置為0.001,衰減系數(shù)為0.1,訓(xùn)練次數(shù)設(shè)置為300輪。使用Pytorch深度學(xué)習(xí)框架進(jìn)行訓(xùn)練,使用Nvidia Tesla V100的圖形處理器(graphics processing unit, GPU)加速模型訓(xùn)練。

    在訓(xùn)練過程中,采用Mosaic圖像增強(qiáng)算法進(jìn)行數(shù)據(jù)增強(qiáng),通過在數(shù)據(jù)集中隨機(jī)選取4張圖片,并對4張圖片進(jìn)行翻轉(zhuǎn)、縮放、色域變化等操作后,進(jìn)行圖片的組合拼接,該方法能夠增加數(shù)據(jù)的多樣性和數(shù)據(jù)目標(biāo)個數(shù),從而提高模型的訓(xùn)練精度。同時,載入在VOC數(shù)據(jù)集上訓(xùn)練好的模型作為預(yù)訓(xùn)練權(quán)重,初始化相應(yīng)的網(wǎng)絡(luò)模型,加快模型收斂。最后,輸入RealSenseD435拍攝的圖片,并使用訓(xùn)練好的模型權(quán)重對圖片上的目標(biāo)進(jìn)行預(yù)測,同時輸出各目標(biāo)類別預(yù)測框的4個頂點(diǎn)坐標(biāo)和偏轉(zhuǎn)角度。

    3.1.1 模型參數(shù)分析

    f(SkewIOU)函數(shù)的選取影響著模型的召回率和模型的訓(xùn)練難度。本文選擇f(SkewIOU)函數(shù)的兩種取值方式,分別為線性函數(shù)f(SkewIOU)=1-SkewIOU和指數(shù)函數(shù)f(SkewIOU)=exp(1-SkewIOU)-1,來驗(yàn)證模型組建后近似SkewIoU損失的有效性。召回率表示檢測正確的正類占全部正類的比例,召回率越高意味著漏檢的情況越少。模型3個輸出端的召回率如圖12所示。從結(jié)果來看,當(dāng)IOU=0.5時,隨著迭代次數(shù)的增加,后者的召回率曲線更容易收斂,說明指數(shù)函數(shù)相較于線性函數(shù)更適合樣本的訓(xùn)練。

    3.1.2 消融實(shí)驗(yàn)

    為了更加全面地驗(yàn)證各種改進(jìn)模塊添加到Y(jié)OLOv4算法中的效果,本實(shí)驗(yàn)在自建的目標(biāo)檢測數(shù)據(jù)集上進(jìn)行消融實(shí)驗(yàn)。實(shí)驗(yàn)指標(biāo)有平均準(zhǔn)確率(mean average precision, mAP)、參數(shù)量、計算量,本文通過這些評價指標(biāo)來評估模型的檢測精度和速度。將上文所提到的改進(jìn)模塊分別加入原YOLOv4模型中,共生成6組對照模型,“√”表示加入相應(yīng)改進(jìn)模塊。具體如表1所示。

    消融實(shí)驗(yàn)結(jié)果如表2所示,引入GhostNet網(wǎng)絡(luò)以及DSC后,模型2相比原始YOLOv4模型,其參數(shù)量和計算量分別降低了51.934 M和53.246 G,但mAP降低了2.95%,說明輕量化模型確實(shí)帶來了檢測精度上的損失。模型3和模型4加入網(wǎng)絡(luò)后,都提升了模型的精度,同時計算量和參數(shù)量增加很少。近似SkewIoU損失加入網(wǎng)絡(luò)后,算法由水平框檢測變?yōu)樾D(zhuǎn)框檢測,此時,模型5的mAP增加了11.5%,精測精度有了明顯的提升,這是因?yàn)橄噜徦娇蛑g的IOU很大,非極大值抑制(non-maximum suppression, NMS)算法會將部分檢測框誤認(rèn)為冗余框刪除,從而造成漏檢的情況,旋轉(zhuǎn)框則不會存在這些問題。在加入所有模塊后,在較少參數(shù)量和計算量的情況下,模型6的mAP提高了12.1%。在保證檢測精度的情況下,實(shí)現(xiàn)了模型的輕量化。

    為了更好體現(xiàn)該算法在可視化效果中的有效性,本文結(jié)合梯度加權(quán)類激活映射(gradient-weighted class activation mapping, Grad-CAM)[26的思想,首先計算模型預(yù)測端中每個特征圖對圖片類別的權(quán)重,然后對每個特征圖進(jìn)行加權(quán)求和,最后以熱力圖的形式將加權(quán)后的特征圖映射在原圖中,以獲得類激活圖,從而便于觀察模型重點(diǎn)關(guān)注的預(yù)測區(qū)域。具體如圖13所示,圖13(a)和圖13(b)分別為兩種不同擺放位置下原YOLOv4和對其改進(jìn)后的R-YOLOV4的類激活圖。圖中區(qū)域顏色越深,表明其被分為正類的概率就越大,即模型對其關(guān)注的程度越高。本算法相較于原始的YOLOv4算法,對目標(biāo)的定位效果更好,對計重器、固體膠和螺絲刀的識別能力得到了加強(qiáng)。

    3.1.3 性能對比

    為了進(jìn)一步驗(yàn)證本文所提出的R-YOLOv4的性能,將本文算法與水平目標(biāo)檢測算法Faster RCNN、YOLOv4,以及旋轉(zhuǎn)目標(biāo)檢測算法R3Det、S2ANet[27和H2RBoX[28這5種主流目標(biāo)檢測算法進(jìn)行對比。實(shí)驗(yàn)指標(biāo)有模型權(quán)重大小、每秒幀數(shù)(frames per second, FPS)和mAP,具體結(jié)果如表3所示。

    從表3可以看出,由于對算法進(jìn)行了輕量化,模型權(quán)重大小僅有48 MB,減小了內(nèi)存的開銷,便于模型的應(yīng)用和部署,平均單張圖片檢測速度也更快,相比于原YOLOv4算法,F(xiàn)PS提高了13.6;與最新的旋轉(zhuǎn)目標(biāo)檢測算法H2RBoX網(wǎng)絡(luò)比較,F(xiàn)PS提高了27.2。同時,在輕量化后,檢測精度并沒有降低,并能很好地平衡模型的檢測速度和精度,滿足工業(yè)級檢測要求。

    3.2 圖像預(yù)處理

    改進(jìn)后的DeepLabV3+算法是將圖片裁剪成300×300大小后,再輸入到網(wǎng)絡(luò)中檢測抓取中心點(diǎn)和抓取框方向,如果直接將目標(biāo)裁剪下來再填充為300×300大小,此時圖像的方向會發(fā)生變化。其次,在搭建抓取系統(tǒng)時,不方便獲取原圖中的抓取位姿。所以,為了解決這些問題,本文通過ROI制作與原始圖片大小相同的掩膜,將ROI以外的圖像區(qū)域全部屏蔽掉。先用制作好的含有ROI的掩膜與原圖相乘,得到ROI圖像;ROI的像素值與原圖保持一致,而區(qū)域外的像素值依舊為0;然后將區(qū)域外的像素值調(diào)整到255,此時物體在圖片中的方向與原圖相同;最后再裁剪出300×300大小的圖片,打包送入改進(jìn)的DeepLabV3+中,分別預(yù)測每個物體的抓取位姿。具體處理過程如圖14所示。

    相較于水平框獲取需要裁剪的ROI,旋轉(zhuǎn)框所覆蓋的像素面積更小,具體如圖15所示。圖15左圖和右圖分別為水平框定位和旋轉(zhuǎn)框定位需要裁剪的ROI。所以,本文選擇旋轉(zhuǎn)框獲取ROI的目的,就是避免在第2階段檢測時,其他物體像素對目標(biāo)物體檢測產(chǎn)生影響,從而提高抓取位姿檢測精度。

    3.3 多目標(biāo)抓取位姿估計

    為了與其他方法進(jìn)行比較,本文位姿估計采用的是開源的Cornell數(shù)據(jù)集,該數(shù)據(jù)集中每張圖片只有一個物體,每個物體都標(biāo)注了多個正抓取框和負(fù)抓取框。位姿估計算法依舊采用目標(biāo)檢測的設(shè)備和框架,按4∶1的比例劃分訓(xùn)練集和驗(yàn)證集,并采用圖像拆分和對象拆分兩種方式劃分?jǐn)?shù)據(jù)集圖片,分別測試網(wǎng)絡(luò)對已知抓取對象新位置、新方向和未知抓取對象的泛化能力。學(xué)習(xí)率大小為0.001,訓(xùn)練次數(shù)為300輪,批次大小為8,并將載入在COCO數(shù)據(jù)集上訓(xùn)練的模型權(quán)重作為預(yù)訓(xùn)練權(quán)重,部分初始化改進(jìn)后的DeepLabV3+算法,加快模型收斂。

    本文利用矩形度量來衡量網(wǎng)絡(luò)模型精度的好壞,其評判標(biāo)準(zhǔn)如下:① 預(yù)測的抓取框gp與真實(shí)抓取框gt之間的角度相差不能超過30°;② 預(yù)測抓取框與真實(shí)抓取框的Jaccard指數(shù)要大于0.25,Jaccard指數(shù)定義如下:

    J(gp,gt)=|gp∩gt||gp∪gt|(14)

    本算法與其他算法在圖像拆分、對象拆分以及檢測時間上的對比效果如表4所示。從表4可知,GhostNet作為主干網(wǎng)絡(luò),雖然檢測速度較快,但檢測精度相比其他算法并沒有明顯優(yōu)勢,而ResNet-50[29作為主干網(wǎng)絡(luò)的圖像拆分和對象拆分精度相比GhostNet分別提高了8.3%和8.9%,F(xiàn)PS降低了10.7,但也滿足機(jī)械臂抓取檢測的實(shí)時性要求??紤]到檢測的精度問題,本文將以ResNet-50作為主干網(wǎng)絡(luò)。

    下面將本文方法與水平框定位方法[30進(jìn)行對比。第2階段都采用改進(jìn)后的DeepLabV3+的算法,并使用上面實(shí)驗(yàn)平臺采集200張圖像數(shù)據(jù),作為抓取位姿檢測的數(shù)據(jù)集。每張圖片包含8種不同形狀和不同位置的物體,并使用訓(xùn)練好的模型權(quán)重在自建多目標(biāo)數(shù)據(jù)集上進(jìn)行檢測。

    第1階段目標(biāo)檢測的部分預(yù)測效果如圖16所示。三列圖像分別為物體在不同的擺放位置下,4種算法的預(yù)測效果。從圖中可以看出,相對于傳統(tǒng)的水平目標(biāo)檢測,旋轉(zhuǎn)目標(biāo)檢測的預(yù)測的ROI覆蓋的像素面積更小。同時,與其他旋轉(zhuǎn)目標(biāo)檢測算法相比,R3Det網(wǎng)絡(luò)對目標(biāo)的檢測效果不是很理想,存在漏檢和預(yù)測框定位不精準(zhǔn)的問題。此外,雖然本文算法比H2RBox算法檢測精度低,但在檢測速度和模型大小方面均具有優(yōu)勢。

    第2階段多目標(biāo)抓取位姿預(yù)測結(jié)果如圖17所示。三列圖像分別為物體在不同的擺放位置下,抓取位姿的預(yù)測結(jié)果。從實(shí)驗(yàn)結(jié)果可以看出,使用旋轉(zhuǎn)框定位裁剪的方法檢測的抓取位姿效果好于水平框定位裁剪的方法。對于水平框定位裁剪的方法,由于其在裁剪后包含其他物體像素,網(wǎng)絡(luò)在預(yù)測抓取位姿時,受其他物體像素的影響,導(dǎo)致檢測效果差,有些甚至沒有預(yù)測到該區(qū)域目標(biāo)物體的抓取位姿,反而預(yù)測的是該區(qū)域內(nèi)包含的其他物體的抓取位姿。

    4 結(jié) 論

    針對現(xiàn)有的分階段方法檢測時存在背景噪聲干擾,且檢測速度慢的問題,本文提出一種基于YOLOv4的輕量級旋轉(zhuǎn)目標(biāo)檢測算法對物體進(jìn)行識別和定位,提高了目標(biāo)算法的檢測速度和精度。相對于傳統(tǒng)的水平目標(biāo)檢測算法,其覆蓋的像素區(qū)域更小,降低了原始圖像物體像素對抓取位姿檢測的影響,同時提出了一種改進(jìn)的DeepLabV3+算法,對物體抓取位姿進(jìn)行直接檢測。與其他網(wǎng)絡(luò)相比,檢測精度有了明顯提升。最后,在自建的多目標(biāo)數(shù)據(jù)集上,對不同形狀的未知物體進(jìn)行檢測,且檢測效果良好,能夠滿足實(shí)際抓取檢測任務(wù)的要求。

    參考文獻(xiàn)

    [1]CAI J H, CEN J, WANG H K, et al. Real-time collision-free grasp pose detection with geometry-aware refinement using high-resolution volume[J]. IEEE Robotics and Automation Letters, 2022, 7(2): 1888-1895.

    [2]CHENG H, WANG Y Y, MENG M Q H. A robot grasping system with single-stage anchor-free deep grasp detector[J]. IEEE Trans.on Instrumentation and Measurement, 2022, 71: 5009712.

    [3]WEN H T, YAN J H, PENG W L, et al. TransGrasp: grasp pose estimation of a category of objects by transferring grasps from only one labeled instance[C]∥Proc.of the 17th European Conference, 2022: 445-461.

    [4]WEI H, PAN S C, MA G, et al. Vision-guided hand-eye coordination for robotic grasping and its application in tangram puzzles[J]. Artificial Intelligence, 2021, 2(2): 209-228.

    [5]LENZ I, LEE H, SAXENA A. Deep learning for detecting robotic grasps[J]. The International Journal of Robotics Research, 2015, 34(4/5): 705-724.

    [6]MORRISON D, CORKE P, LEITNER J. Learning robust, real-time, reactive robotic grasping[J]. The International Journal of Robotics Research, 2020, 39(2/3): 183-201.

    [7]LIANG H Z, MA X J, LI S, et al. Pointnetgpd: detecting grasp configurations from point sets[C]∥Proc.of the International Conference on Robotics and Automation, 2019: 3629-3635.

    [8]ZHANG L Z, WU D M. A single target grasp detection network based on convolutional neural network[J]. Computational Intelligence and Neuroscience, 2021(5): 5512728.

    [9]CHU F J, XU R N, VELA P A. Real-world multi-object, multi-grasp detection[J]. IEEE Robotics and Automation Letters, 2018, 3(4): 3355-3362.

    [10]AINETTER S, FRAUNDORFER F. End-to-end trainable deep neural network for robotic grasp detection and semantic segmentation from RGB[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2021: 13452-13458.

    [11]陳丹, 林清泉. 基于級聯(lián)式Faster RCNN的三維目標(biāo)最優(yōu)抓取方法研究[J]. 儀器儀表學(xué)報, 2019, 40(4): 229-237.

    CHEN D, LIN Q Q. Research on 3D object optimal grasping method based on cascaded Faster RCNN[J]. Chinese Journal of Scientific Instrument, 2019, 40(4): 229-237.

    [12]REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J].Advances in Neural Information Processing Systems, 2015, 28: 91-99.

    [13]孟月波, 黃琪, 韓九強(qiáng), 等. 基于兩階段的機(jī)器人動態(tài)多物品定位抓取方法[J]. 激光與光電子學(xué)進(jìn)展, 2023, 60(6): 288-297.

    MENG Y B, HUANG Q, HAN J Q, et al. Robot dynamic object positioning and grasping method based on two stages[J]. Laser amp; Optoelectronics Progress, 2023, 60(6): 288-297.

    [14]安廣琳, 李宗剛, 杜亞江, 等. 基于深度學(xué)習(xí)的多工件抓取點(diǎn)定位方法[J]. 激光與光電子學(xué)進(jìn)展, 2023, 60(12): 311-321.

    AN G L, LI Z G, DU Y J, et al. Research on multiple workpiece grasping point localization method based on deep learning[J]. Laser amp; Optoelectronics Progress, 2023, 60(12): 311-321.

    [15]BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: optimal speed and accuracy of object detection[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2020.

    [16]CHEN L C, ZHU Y K, PAPANDREOU G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]∥Proc.of the European Conference on Computer Vision, 2018: 801-818.

    [17]HE K M, ZHANG X Y, REN S R, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Trans.on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.

    [18]LIU S, QI L, QIN H F, et al. Path aggregation network for instance segmentation[C]∥Proc.of the IEEE Conference on Computer Cision and Pattern Recognition, 2018: 8759-8768.

    [19]LIN T Y, DOLLáR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 2117-2125.

    [20]HAN K, WANG Y H, TIAN Q, et al. Ghostnet: more features from cheap operations[C]∥Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 1580-1589.

    [21]CHOLLET F. Xception: deep learning with depthwise separable convolutions[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 1251-1258.

    [22]YANG L X, ZHANG R Y, LI L D, et al. Simam: a simple, parameter-free attention module for convolutional neural networks[C]∥Proc.of the International Conference on Machine Learning, 2021: 11863-11874.

    [23]LIU S T, HUANG D, WANG Y H. Learning spatial fusion for single-shot object detection[C]∥Proc.of the International Conference on Computer Vision and Pattern Recognition, 2019.

    [24]YANG X, YAN J C, FENG Z M, et al. R3det: refined single-stage detector with feature refinement for rotating object[C]∥Proc.of the AAAI Conference on Artificial Intelligence, 2021, 35(4): 3163-3171.

    [25]YANG X, YANG J R, YAN J C, et al. SCRDet: towards more robust detection for small, cluttered and rotated objects[C]∥Proc.of the IEEE/CVF International Conference on Computer Vision, 2019: 8232-8241.

    [26]SELVARAJU R R, COGSWELL M, DAS A, et al. Grad-cam: visual explanations from deep networks via gradient-based localization[C]∥Proc.of the IEEE International Conference on Computer Vision, 2017: 618-626.

    [27]HAN J M, DING J, LI J, et al. Align deep features for oriented object detection[J]. IEEE Trans.on Geoscience and Remote Sensing, 2021, 60: 1-11.

    [28]YANG X, ZHANG G F, LI W T, et al. H2RBox: horizontal box annotation is all you need for oriented object detection[C]∥Proc.of the International Conference on Learning Representations, 2023.

    [29]HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.

    [30]李明, 鹿朋, 朱龍, 等. 基于RGB-D融合的密集遮擋抓取檢測[J]. 控制與決策, 2023, 38(10): 2867-2874.

    LI M, LU P, ZHU L, et al. Densely occluded grasping objects detection based on RGB-D fusion[J]. Control and Decision, 2023, 38(10): 2867-2874.

    作者簡介

    孫先濤(1985—),男,副教授,博士,主要研究方向?yàn)闄C(jī)器視覺、欠驅(qū)動機(jī)械手。

    江汪洋(1998—),男,碩士研究生,主要研究方向?yàn)闄C(jī)器視覺、機(jī)器人抓取。

    陳文杰(1964—),男,教授,博士,主要研究方向?yàn)闄C(jī)器視覺、助力外骨骼。

    陳偉海(1955—),男,教授,博士,主要研究方向?yàn)闄C(jī)器人抓取、高精密運(yùn)動機(jī)械設(shè)計與控制。

    智亞麗(1987—),女,講師,博士,主要研究方向?yàn)殚g歇控制、人工智能。

    猜你喜歡
    掩膜深度學(xué)習(xí)
    利用掩膜和單應(yīng)矩陣提高LK光流追蹤效果
    一種結(jié)合圖像分割掩膜邊緣優(yōu)化的B-PointRend網(wǎng)絡(luò)方法
    寬周期掩膜法HVPE側(cè)向外延自支撐GaN的研究
    光纖激光掩膜微細(xì)電解復(fù)合加工裝置研發(fā)
    有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    大陆偷拍与自拍| 一区福利在线观看| 丝袜脚勾引网站| 精品一区二区三区av网在线观看 | 欧美亚洲日本最大视频资源| 91精品国产国语对白视频| 国产男女内射视频| 欧美日韩视频精品一区| 欧美日韩中文字幕国产精品一区二区三区 | 国产高清视频在线播放一区 | 国产av精品麻豆| 国产真人三级小视频在线观看| 动漫黄色视频在线观看| 欧美人与性动交α欧美软件| svipshipincom国产片| 久久久精品国产亚洲av高清涩受| 国产精品 国内视频| 久久女婷五月综合色啪小说| 考比视频在线观看| 日韩欧美国产一区二区入口| 秋霞在线观看毛片| 一区二区三区乱码不卡18| 久久国产精品人妻蜜桃| 桃花免费在线播放| 在线观看免费日韩欧美大片| 成年美女黄网站色视频大全免费| 久久久久精品人妻al黑| 美女午夜性视频免费| www.自偷自拍.com| 亚洲熟女毛片儿| 99热全是精品| 国产1区2区3区精品| svipshipincom国产片| 99久久精品国产亚洲精品| 亚洲人成电影观看| 亚洲国产精品一区二区三区在线| 大香蕉久久网| 久久中文看片网| 国产真人三级小视频在线观看| 在线亚洲精品国产二区图片欧美| 九色亚洲精品在线播放| 一本综合久久免费| 亚洲色图综合在线观看| 搡老乐熟女国产| av网站在线播放免费| 久久精品亚洲熟妇少妇任你| 免费在线观看日本一区| 高清在线国产一区| 一本色道久久久久久精品综合| 欧美人与性动交α欧美精品济南到| 男女边摸边吃奶| 成年美女黄网站色视频大全免费| 美女高潮到喷水免费观看| 宅男免费午夜| 男女无遮挡免费网站观看| 女人高潮潮喷娇喘18禁视频| 欧美 日韩 精品 国产| 秋霞在线观看毛片| 美女国产高潮福利片在线看| 美国免费a级毛片| 久久国产亚洲av麻豆专区| 亚洲国产精品一区三区| 欧美亚洲日本最大视频资源| 国产精品久久久久久精品古装| 一级毛片精品| 久久久久久亚洲精品国产蜜桃av| 亚洲激情五月婷婷啪啪| 日本黄色日本黄色录像| 搡老岳熟女国产| 成人av一区二区三区在线看 | 日本精品一区二区三区蜜桃| 国产精品久久久av美女十八| 动漫黄色视频在线观看| 欧美 亚洲 国产 日韩一| 国产精品1区2区在线观看. | 91九色精品人成在线观看| 可以免费在线观看a视频的电影网站| 母亲3免费完整高清在线观看| 99精品欧美一区二区三区四区| 男女午夜视频在线观看| 亚洲专区国产一区二区| 午夜福利视频精品| www.精华液| 久久香蕉激情| 国产av又大| 亚洲一卡2卡3卡4卡5卡精品中文| 啪啪无遮挡十八禁网站| 免费高清在线观看日韩| 在线精品无人区一区二区三| 日韩欧美一区视频在线观看| 国产日韩欧美亚洲二区| 亚洲专区中文字幕在线| 国产一级毛片在线| 日韩中文字幕欧美一区二区| 97精品久久久久久久久久精品| 下体分泌物呈黄色| 欧美激情久久久久久爽电影 | 亚洲天堂av无毛| 青草久久国产| 黄片大片在线免费观看| 亚洲人成电影观看| 18在线观看网站| 美女大奶头黄色视频| 久久人妻熟女aⅴ| 最近中文字幕2019免费版| 久久女婷五月综合色啪小说| videosex国产| 国产成人精品在线电影| 五月开心婷婷网| 日韩,欧美,国产一区二区三区| 亚洲精品久久成人aⅴ小说| 在线观看一区二区三区激情| 韩国精品一区二区三区| 午夜精品国产一区二区电影| 国产高清视频在线播放一区 | 国产av又大| 亚洲天堂av无毛| 69精品国产乱码久久久| 在线观看免费午夜福利视频| 99热国产这里只有精品6| 99久久国产精品久久久| 亚洲欧美成人综合另类久久久| 国产麻豆69| 久久这里只有精品19| 亚洲伊人久久精品综合| bbb黄色大片| 久久这里只有精品19| 99久久精品国产亚洲精品| 一本—道久久a久久精品蜜桃钙片| 少妇的丰满在线观看| av网站在线播放免费| √禁漫天堂资源中文www| 欧美精品av麻豆av| 精品一区二区三区av网在线观看 | 久久这里只有精品19| 夜夜夜夜夜久久久久| 狂野欧美激情性xxxx| 欧美另类亚洲清纯唯美| 国产激情久久老熟女| 欧美中文综合在线视频| 高清在线国产一区| 青春草亚洲视频在线观看| 两个人看的免费小视频| 久久青草综合色| 黄色视频在线播放观看不卡| 国产成人欧美| 亚洲国产毛片av蜜桃av| 人人妻人人爽人人添夜夜欢视频| 十八禁网站网址无遮挡| 久久毛片免费看一区二区三区| 久久亚洲精品不卡| videos熟女内射| 国产精品1区2区在线观看. | 日韩中文字幕欧美一区二区| 一本综合久久免费| 91精品国产国语对白视频| 男女高潮啪啪啪动态图| 成人三级做爰电影| 别揉我奶头~嗯~啊~动态视频 | 亚洲中文日韩欧美视频| 日本猛色少妇xxxxx猛交久久| 亚洲国产av影院在线观看| 免费观看a级毛片全部| 亚洲五月婷婷丁香| 久久久久国内视频| 天天操日日干夜夜撸| 久久人妻福利社区极品人妻图片| 国产三级黄色录像| 国产一区二区三区综合在线观看| 久久亚洲国产成人精品v| 在线观看免费视频网站a站| 丁香六月天网| 亚洲av成人不卡在线观看播放网 | 汤姆久久久久久久影院中文字幕| 免费高清在线观看视频在线观看| 亚洲精品久久久久久婷婷小说| 波多野结衣一区麻豆| 热99re8久久精品国产| 中文字幕色久视频| 亚洲精品国产色婷婷电影| 精品国内亚洲2022精品成人 | 亚洲国产看品久久| 亚洲精品一二三| 国产精品九九99| 天堂中文最新版在线下载| 视频在线观看一区二区三区| 亚洲一卡2卡3卡4卡5卡精品中文| 国产成人免费观看mmmm| 美女扒开内裤让男人捅视频| 我的亚洲天堂| 一本综合久久免费| 久久国产精品影院| 国产高清视频在线播放一区 | 老司机午夜十八禁免费视频| av又黄又爽大尺度在线免费看| av天堂久久9| 精品卡一卡二卡四卡免费| 亚洲国产精品成人久久小说| 啦啦啦啦在线视频资源| 精品人妻一区二区三区麻豆| 午夜福利乱码中文字幕| 亚洲人成77777在线视频| 满18在线观看网站| 超色免费av| 日本vs欧美在线观看视频| 成人国产av品久久久| 欧美精品一区二区免费开放| 黄色片一级片一级黄色片| 久久久久视频综合| 两个人看的免费小视频| 欧美乱码精品一区二区三区| 国产精品一区二区精品视频观看| 免费在线观看影片大全网站| 国产在线观看jvid| 一本一本久久a久久精品综合妖精| 精品久久久久久久毛片微露脸 | 精品欧美一区二区三区在线| 正在播放国产对白刺激| 国产成人精品久久二区二区免费| 色老头精品视频在线观看| 免费在线观看影片大全网站| 国产淫语在线视频| 在线天堂中文资源库| 成年美女黄网站色视频大全免费| 国产精品偷伦视频观看了| 99热网站在线观看| 亚洲精品国产色婷婷电影| 亚洲av片天天在线观看| 久久国产精品影院| 日本五十路高清| 国产一卡二卡三卡精品| 欧美日韩中文字幕国产精品一区二区三区 | 亚洲欧美一区二区三区黑人| 免费观看a级毛片全部| 精品久久蜜臀av无| 高潮久久久久久久久久久不卡| 亚洲自偷自拍图片 自拍| 国产无遮挡羞羞视频在线观看| 欧美精品高潮呻吟av久久| 91麻豆精品激情在线观看国产 | 交换朋友夫妻互换小说| 免费在线观看黄色视频的| 久久久国产一区二区| 在线观看免费高清a一片| 亚洲精品一卡2卡三卡4卡5卡 | 亚洲精品国产精品久久久不卡| 纵有疾风起免费观看全集完整版| 黑人欧美特级aaaaaa片| 午夜日韩欧美国产| 一级黄色大片毛片| 在线观看人妻少妇| 亚洲久久久国产精品| 国产福利在线免费观看视频| 美女主播在线视频| 午夜成年电影在线免费观看| 亚洲av片天天在线观看| 午夜两性在线视频| 在线观看一区二区三区激情| 国产一区二区三区综合在线观看| 免费观看人在逋| 中文字幕人妻熟女乱码| 国产精品免费大片| 午夜91福利影院| 欧美亚洲日本最大视频资源| av欧美777| 叶爱在线成人免费视频播放| 国产一区二区三区av在线| 免费久久久久久久精品成人欧美视频| 国产1区2区3区精品| 亚洲精品第二区| 国产日韩欧美在线精品| 欧美日韩中文字幕国产精品一区二区三区 | av福利片在线| 成人影院久久| 色老头精品视频在线观看| 亚洲伊人色综图| 99re6热这里在线精品视频| 亚洲黑人精品在线| 老司机午夜十八禁免费视频| 高潮久久久久久久久久久不卡| 欧美精品亚洲一区二区| 丁香六月天网| 国产亚洲欧美在线一区二区| 在线观看免费日韩欧美大片| 国产男女内射视频| 高清欧美精品videossex| 亚洲全国av大片| 亚洲男人天堂网一区| 国产精品 国内视频| 中文字幕色久视频| 亚洲国产欧美网| 另类精品久久| av视频免费观看在线观看| 免费观看人在逋| 亚洲国产av影院在线观看| 精品国内亚洲2022精品成人 | av有码第一页| 欧美精品一区二区免费开放| 男女高潮啪啪啪动态图| 亚洲一区中文字幕在线| 日本91视频免费播放| 亚洲中文av在线| 波多野结衣一区麻豆| 久久热在线av| 久久国产精品影院| 国产精品香港三级国产av潘金莲| 国产亚洲精品久久久久5区| 极品人妻少妇av视频| 真人做人爱边吃奶动态| 成人av一区二区三区在线看 | 中文字幕最新亚洲高清| 午夜激情av网站| 男女无遮挡免费网站观看| 久久精品国产亚洲av高清一级| 三级毛片av免费| 91精品国产国语对白视频| 免费在线观看影片大全网站| 午夜福利,免费看| a在线观看视频网站| 国产高清videossex| 午夜激情av网站| 国产主播在线观看一区二区| 国产成人精品无人区| 精品久久蜜臀av无| 老司机深夜福利视频在线观看 | 热99re8久久精品国产| 国精品久久久久久国模美| 老汉色∧v一级毛片| 亚洲久久久国产精品| 欧美成狂野欧美在线观看| 久久ye,这里只有精品| 97精品久久久久久久久久精品| h视频一区二区三区| 久久久久久久久久久久大奶| 高清av免费在线| 岛国在线观看网站| 啦啦啦免费观看视频1| 少妇裸体淫交视频免费看高清 | 嫩草影视91久久| 午夜福利免费观看在线| 欧美日韩一级在线毛片| 亚洲色图综合在线观看| 欧美日韩亚洲高清精品| 十八禁网站网址无遮挡| 别揉我奶头~嗯~啊~动态视频 | 亚洲一码二码三码区别大吗| 18禁裸乳无遮挡动漫免费视频| 中文字幕精品免费在线观看视频| 精品亚洲成国产av| 少妇裸体淫交视频免费看高清 | 欧美av亚洲av综合av国产av| 免费观看av网站的网址| 777米奇影视久久| 黄色视频在线播放观看不卡| 搡老熟女国产l中国老女人| 久久精品国产亚洲av香蕉五月 | 狂野欧美激情性bbbbbb| 80岁老熟妇乱子伦牲交| 亚洲一区二区三区欧美精品| 久久午夜综合久久蜜桃| 亚洲精品在线美女| 亚洲国产日韩一区二区| 后天国语完整版免费观看| 窝窝影院91人妻| 韩国精品一区二区三区| 大陆偷拍与自拍| 十分钟在线观看高清视频www| 国产精品久久久久成人av| 日本欧美视频一区| 欧美精品人与动牲交sv欧美| 国产人伦9x9x在线观看| 国产无遮挡羞羞视频在线观看| 亚洲精品美女久久av网站| 亚洲欧美成人综合另类久久久| 99九九在线精品视频| 欧美精品高潮呻吟av久久| 欧美在线一区亚洲| 国产人伦9x9x在线观看| 精品国产超薄肉色丝袜足j| 久久久久精品人妻al黑| 国产欧美日韩综合在线一区二区| 亚洲国产欧美网| 国产又爽黄色视频| 久久免费观看电影| 人人澡人人妻人| 欧美+亚洲+日韩+国产| 亚洲九九香蕉| 大片电影免费在线观看免费| 久久久久国产精品人妻一区二区| 久久av网站| 国产极品粉嫩免费观看在线| 搡老熟女国产l中国老女人| 国产xxxxx性猛交| 麻豆av在线久日| 黄色怎么调成土黄色| 亚洲精品一区蜜桃| 久久精品国产亚洲av高清一级| 久久久精品94久久精品| 欧美日韩黄片免| 午夜福利在线免费观看网站| 亚洲第一欧美日韩一区二区三区 | 国产亚洲午夜精品一区二区久久| 建设人人有责人人尽责人人享有的| 男女床上黄色一级片免费看| 99久久国产精品久久久| 两性午夜刺激爽爽歪歪视频在线观看 | 99热网站在线观看| 男人爽女人下面视频在线观看| 亚洲成人国产一区在线观看| 操出白浆在线播放| 免费在线观看视频国产中文字幕亚洲 | 黄色视频,在线免费观看| 欧美一级毛片孕妇| 侵犯人妻中文字幕一二三四区| 十八禁网站免费在线| 女人精品久久久久毛片| 欧美精品亚洲一区二区| 十八禁网站免费在线| 国产97色在线日韩免费| 777久久人妻少妇嫩草av网站| 亚洲国产精品999| 精品久久久久久电影网| 老司机影院成人| 欧美黑人欧美精品刺激| 一进一出抽搐动态| 曰老女人黄片| 欧美日本中文国产一区发布| 国产精品亚洲av一区麻豆| 久久人人爽人人片av| 国产在线免费精品| 成人三级做爰电影| 免费在线观看影片大全网站| 国产亚洲精品久久久久5区| 91大片在线观看| 久久久久久亚洲精品国产蜜桃av| 国产在视频线精品| 亚洲,欧美精品.| 夜夜夜夜夜久久久久| 久久人人爽人人片av| 午夜福利在线免费观看网站| 男女高潮啪啪啪动态图| 久久人人97超碰香蕉20202| 欧美精品一区二区大全| 91大片在线观看| 国产亚洲精品第一综合不卡| 日韩大码丰满熟妇| 一区二区三区乱码不卡18| 亚洲成人国产一区在线观看| 亚洲av男天堂| 天堂俺去俺来也www色官网| 久久人妻福利社区极品人妻图片| 中国国产av一级| 女人高潮潮喷娇喘18禁视频| 免费高清在线观看视频在线观看| 在线观看舔阴道视频| 久久中文看片网| 首页视频小说图片口味搜索| 妹子高潮喷水视频| 男女之事视频高清在线观看| 日本av手机在线免费观看| 欧美在线黄色| 精品国产乱码久久久久久小说| 丝袜脚勾引网站| 亚洲av电影在线进入| 搡老乐熟女国产| 一个人免费看片子| 波多野结衣一区麻豆| 9热在线视频观看99| 亚洲av日韩精品久久久久久密| 欧美另类一区| 亚洲少妇的诱惑av| 久久精品亚洲av国产电影网| 两性午夜刺激爽爽歪歪视频在线观看 | 国产精品一区二区免费欧美 | 老司机靠b影院| 人成视频在线观看免费观看| 精品高清国产在线一区| 欧美午夜高清在线| 久久久久久亚洲精品国产蜜桃av| 亚洲精品国产区一区二| 欧美在线一区亚洲| 亚洲av成人一区二区三| 黄片小视频在线播放| 亚洲综合色网址| 国产深夜福利视频在线观看| 欧美日韩成人在线一区二区| 久久精品亚洲熟妇少妇任你| 欧美日韩中文字幕国产精品一区二区三区 | 精品卡一卡二卡四卡免费| 亚洲av美国av| 亚洲avbb在线观看| 韩国精品一区二区三区| 青草久久国产| 午夜激情av网站| 肉色欧美久久久久久久蜜桃| 中文字幕av电影在线播放| 亚洲精品一二三| 一级片'在线观看视频| 国产在线一区二区三区精| 如日韩欧美国产精品一区二区三区| 欧美激情久久久久久爽电影 | 超碰成人久久| 女性生殖器流出的白浆| 制服人妻中文乱码| 国产一区有黄有色的免费视频| 免费观看a级毛片全部| 老熟妇乱子伦视频在线观看 | 别揉我奶头~嗯~啊~动态视频 | 亚洲欧美精品自产自拍| 脱女人内裤的视频| 久久久精品免费免费高清| 日本wwww免费看| 在线观看www视频免费| 男女下面插进去视频免费观看| 中文字幕精品免费在线观看视频| 国产欧美日韩精品亚洲av| 91麻豆av在线| 欧美亚洲日本最大视频资源| 欧美xxⅹ黑人| 黄色a级毛片大全视频| 国产又爽黄色视频| 国产极品粉嫩免费观看在线| 水蜜桃什么品种好| 久久国产精品大桥未久av| 国产高清国产精品国产三级| 好男人电影高清在线观看| 久久精品成人免费网站| 搡老熟女国产l中国老女人| 99精品欧美一区二区三区四区| 亚洲第一欧美日韩一区二区三区 | 婷婷丁香在线五月| 成人av一区二区三区在线看 | 亚洲成人手机| 国产欧美日韩精品亚洲av| 欧美大码av| av欧美777| 大片电影免费在线观看免费| 十八禁高潮呻吟视频| 欧美日韩一级在线毛片| 久久国产精品影院| 国产一区二区三区av在线| 欧美日韩av久久| 亚洲精品自拍成人| 欧美精品亚洲一区二区| 99国产精品一区二区蜜桃av | 麻豆av在线久日| 9热在线视频观看99| 男女免费视频国产| 99国产精品一区二区三区| 肉色欧美久久久久久久蜜桃| 91九色精品人成在线观看| 亚洲av电影在线进入| 91精品伊人久久大香线蕉| 久久人妻福利社区极品人妻图片| 在线 av 中文字幕| a级毛片在线看网站| 秋霞在线观看毛片| 国产精品久久久久久人妻精品电影 | 十八禁人妻一区二区| 欧美日韩av久久| 成年美女黄网站色视频大全免费| 国产免费一区二区三区四区乱码| 久久久水蜜桃国产精品网| 久久国产精品人妻蜜桃| 两个人免费观看高清视频| 亚洲国产欧美在线一区| 国产亚洲精品第一综合不卡| 国产国语露脸激情在线看| 国产精品久久久久久精品古装| 最新的欧美精品一区二区| 亚洲精品中文字幕在线视频| 一区二区三区精品91| 亚洲五月色婷婷综合| 最近最新免费中文字幕在线| 美女国产高潮福利片在线看| 成年美女黄网站色视频大全免费| 国产亚洲精品一区二区www | 国产1区2区3区精品| 啦啦啦 在线观看视频| 久久青草综合色| 日本黄色日本黄色录像| 高潮久久久久久久久久久不卡| 亚洲男人天堂网一区| 亚洲国产精品一区三区| 蜜桃在线观看..| 国产人伦9x9x在线观看| 国产av一区二区精品久久| 欧美国产精品一级二级三级| 亚洲精品久久成人aⅴ小说| 大片电影免费在线观看免费| 久久国产精品男人的天堂亚洲| 爱豆传媒免费全集在线观看| 丝袜喷水一区| 成年女人毛片免费观看观看9 | 国产免费福利视频在线观看| 超碰成人久久| 最近最新中文字幕大全免费视频| 国产精品熟女久久久久浪| 亚洲精品中文字幕一二三四区 | 丰满少妇做爰视频| 亚洲性夜色夜夜综合| 精品久久久精品久久久| 日韩欧美免费精品| 热99国产精品久久久久久7| 伊人亚洲综合成人网| 亚洲欧美精品综合一区二区三区| 久久久久久久久久久久大奶| 777久久人妻少妇嫩草av网站| 久久久久久久久久久久大奶| 一级a爱视频在线免费观看| 国产黄色免费在线视频| 一边摸一边做爽爽视频免费| 久久精品亚洲av国产电影网| 999精品在线视频| 99精品久久久久人妻精品|