• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    圖像分割引導(dǎo)的散堆工件結(jié)構(gòu)光三維位姿估計(jì)

    2024-01-01 00:00:00鄧君李娜王亞凱高振國

    摘要: 針對(duì)散堆工件場景中點(diǎn)云生成耗時(shí)久、位姿估計(jì)困難、多類工件混合情形難處理等問題,提出圖像分割引導(dǎo)的散堆工件結(jié)構(gòu)光三維位姿估計(jì)方法,并基于JAkA Zu3 6-DoF機(jī)器人開發(fā)散堆工件抓取實(shí)驗(yàn)系統(tǒng)。采用YOLACT模型獲取散堆工件圖像中的工件信息,通過自適應(yīng)閾值篩選待抓取工件,利用雙目結(jié)構(gòu)光生成目標(biāo)工件所在區(qū)域的局部點(diǎn)云,并基于投票匹配算法和迭代最近鄰算法估計(jì)工件位姿。通過搭建的實(shí)驗(yàn)系統(tǒng)對(duì)文中方法進(jìn)行測(cè)試。實(shí)驗(yàn)結(jié)果表明:系統(tǒng)完成目標(biāo)工件位姿估計(jì)時(shí)間約為3.641 s,其中,點(diǎn)云計(jì)算需0.536 s,點(diǎn)云配準(zhǔn)需0.446 s;與其他方法相比,文中方法平均可縮小點(diǎn)云規(guī)模44%,點(diǎn)云生成時(shí)間平均縮減24%,配準(zhǔn)成功率提升至100%。

    關(guān)鍵詞: 雙目結(jié)構(gòu)光; 點(diǎn)云生成; 點(diǎn)云配準(zhǔn); 位姿估計(jì); 圖像分割

    中圖分類號(hào): TP 391文獻(xiàn)標(biāo)志碼: A"" 文章編號(hào): 1000-5013(2024)06-0696-10

    Structured Light-Based 3D Pose Estimation of Piled Workpieces Guided by Image Segmentation

    DENG Jun1,2, LI Na2,3, WANG Yakai1,2, GAO Zhenguo1,2

    (1. College of Computer Science and Technology, Huaqiao University, Xiamen 361021, China;

    2. Key Laboratory of Computer Vision and Machine Learning, Huaqiao University, Xiamen 361021, China;

    3. College of Mechanical and Electrical Engineering, Huaqiao University, Xiamen 361021, China)

    Abstract: Aiming at the problems of point cloud generation time-consuming, pose estimation difficulty, and multi class workpiece mixing difficult handling in the scene of piled workpieces, a" structured light-based 3D pose estimation of piled workpieces guided by image segmentation is proposed, and an experimental system of piled workpiece picking is developed based on the JAkA Zu3 6-DoF robot. The YOLACT model is used to extract workpiece information from the piled workpieces images. The workpiece to be grabbed is filtered through adaptive threshold, the local point clouds in the area where the target workpiece is generated using binocular structured light. The workpiece pose based on the voting matching algorithm and the iterative nearest neighbor algorithm is estimated. The proposed method is tested by the constructed experimental system. The experimental results show that the system takes approximately 3.641 s to complete the target workpiece pose esti-mation. Among them, point cloud computing takes 0.536 s and point cloud registration takes 0.446 s. Compared with other methods, the proposed method can reduce the size of point clouds by an average of 44%, reduce the time of the point clouds generation by an average of 24%, and improve the registration success rate to 100%.

    Keywords:binocular structured light; point cloud generation; point cloud registration; pose estimation; image segmentation

    散堆工件分揀是工業(yè)生產(chǎn)中的常見任務(wù),散堆工件分揀系統(tǒng)需要檢測(cè)工件,對(duì)工件進(jìn)行三維點(diǎn)云生成(三維重建)和位姿估計(jì),再控制機(jī)械臂完成抓取。目標(biāo)工件三維點(diǎn)云生成和位姿估計(jì)是整個(gè)系統(tǒng)至關(guān)重要的部分。

    三維點(diǎn)云生成方法可以分為主動(dòng)式與被動(dòng)式兩種。被動(dòng)式方法不與場景交互,通過相機(jī)采集場景圖片,根據(jù)圖像的紋理分布等信息恢復(fù)深度信息,進(jìn)而生成點(diǎn)云[1-2]。雙目視覺利用左、右相機(jī)對(duì)同一場景拍攝的圖像進(jìn)行特征點(diǎn)匹配,獲得視差,進(jìn)而獲得三維點(diǎn)云。該方法難點(diǎn)在于左、右圖片像素點(diǎn)的匹配,匹配精確度會(huì)直接影響生成點(diǎn)云的效果。主動(dòng)式方法通過傳感器主動(dòng)向場景照射信號(hào),通過解析返回的信號(hào)計(jì)算場景的三維信息[3-4]。主動(dòng)式方法能夠提供高質(zhì)量的三維數(shù)據(jù),但通常需要更多的傳感器[5]。結(jié)構(gòu)光三維點(diǎn)云生成技術(shù)通過主動(dòng)投射編碼圖案,更好地實(shí)現(xiàn)更多像素點(diǎn)的匹配,從而形成高密度三維點(diǎn)云。

    對(duì)于機(jī)器人工件分揀系統(tǒng),不僅需要檢測(cè)工件,還需要估計(jì)工件的位姿。傳統(tǒng)的位姿估計(jì)方法依賴于深度圖或與RGB圖像結(jié)合使用[6-13]。這類方法難于處理散堆工件之間遮擋問題,因此大多數(shù)姿態(tài)估計(jì)方法是基于點(diǎn)云進(jìn)行的。目前,基于點(diǎn)云的目標(biāo)位姿估計(jì)方法主要分為基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的方法和基于特征的方法。CNN在點(diǎn)云領(lǐng)域中已被廣泛應(yīng)用[14-20],基于特征的方法十分依賴于特征點(diǎn),若物體缺乏明顯的特征點(diǎn),使得特征提取不準(zhǔn)確,則位姿估計(jì)會(huì)受影響[21-33]。

    上述方法在處理復(fù)雜場景時(shí)需要重建整個(gè)場景,這不僅會(huì)消耗大量時(shí)間和資源,還會(huì)生成大量冗余點(diǎn),導(dǎo)致后續(xù)計(jì)算效率低、所需存儲(chǔ)空間大等問題。針對(duì)這些問題,本文對(duì)圖像分割引導(dǎo)的散堆工件結(jié)構(gòu)光三維位姿估計(jì)進(jìn)行研究[34-35]。

    1 系統(tǒng)設(shè)計(jì)

    雙目結(jié)構(gòu)光系統(tǒng)中的左、右相機(jī)和投影儀分別通過USB接口和HDMI接口與計(jì)算機(jī)連接,計(jì)算機(jī)通過路由器與機(jī)器人連接。系統(tǒng)硬件模塊,如圖1所示。

    系統(tǒng)架構(gòu)主要由5個(gè)模塊組成:點(diǎn)對(duì)特征庫構(gòu)建模塊、YOLACT訓(xùn)練模塊、雙目結(jié)構(gòu)光局部點(diǎn)云生成模塊、位姿估計(jì)模塊、機(jī)械臂抓取模塊。其中,前兩個(gè)模塊構(gòu)成系統(tǒng)離線準(zhǔn)備部分,后3個(gè)模塊構(gòu)成系統(tǒng)在線運(yùn)行部分。系統(tǒng)架構(gòu),如圖2所示。

    散堆工件圖像庫存儲(chǔ)了1 000幅利用Labelme標(biāo)注的散堆工件圖片,圖片用于訓(xùn)練YOLACT網(wǎng)絡(luò)模型。系統(tǒng)需要操作的各類型工件由預(yù)先準(zhǔn)備的系統(tǒng)工件類型模型決定。工件類型模型為相應(yīng)類型標(biāo)準(zhǔn)工件的三維點(diǎn)云集合,存儲(chǔ)于工件類型模型庫中。為進(jìn)行點(diǎn)云匹配位姿估計(jì),計(jì)算每個(gè)工件類型的模型點(diǎn)云的點(diǎn)對(duì)特征集合,并用該集合作為相應(yīng)類型工件模型的特征模型,存儲(chǔ)于模型點(diǎn)對(duì)特征庫中。

    雙目結(jié)構(gòu)光局部點(diǎn)云生成模塊包含工件篩選、結(jié)構(gòu)光投影、點(diǎn)云計(jì)算3個(gè)環(huán)節(jié)。該模塊通過雙目系統(tǒng)中的左目相機(jī)拍攝散堆工件場景圖像,利用YOLACT模型對(duì)圖像進(jìn)行實(shí)例分割,通過自適應(yīng)閾值篩選出所有適合抓取的工件。在點(diǎn)云生成過程中,雙目結(jié)構(gòu)光系統(tǒng)通過投影儀將編碼圖案投影在散堆工件上,利用雙目相機(jī)捕獲帶有編碼圖案的場景圖像,生成所有適合抓取工件處的局部點(diǎn)云。在位姿估計(jì)模塊,根據(jù)YOLACT輸出的工件類別信息,在模型點(diǎn)對(duì)特征庫中找到對(duì)應(yīng)的模型,先后通過位姿粗配準(zhǔn)與精配準(zhǔn)獲取工件位姿,從而指導(dǎo)機(jī)械臂抓取工件。工件位姿估計(jì)過程,如圖3所示。圖3(d)中:藍(lán)色點(diǎn)云為模型點(diǎn)云。

    2 雙目結(jié)構(gòu)光局部點(diǎn)云

    雙目結(jié)構(gòu)光局部點(diǎn)云生成過程中,通過雙目相機(jī)同步采集投影儀投射編碼圖案后的散堆工件場景圖片。隨后,通過解碼計(jì)算每個(gè)像素點(diǎn)的絕對(duì)相位[36],結(jié)合篩選出適合抓取工件的分割信息計(jì)算目標(biāo)工件區(qū)域視差。為提高重建速度,減小點(diǎn)云規(guī)模,在計(jì)算目標(biāo)工件區(qū)域內(nèi)每行像素點(diǎn)對(duì)應(yīng)的視差時(shí),每隔n個(gè)像素點(diǎn)計(jì)算一次視差,生成視差圖,進(jìn)而轉(zhuǎn)換為點(diǎn)云。雙目結(jié)構(gòu)光局部點(diǎn)云生成過程,如圖4所示。

    YOLACT模型對(duì)散堆工件場景圖像實(shí)例分割時(shí),存在分割被遮擋工件的情況。為從實(shí)例分割結(jié)果中篩選出適合抓取工件的部分,引入了閾值策略。把標(biāo)準(zhǔn)工件水平放置,通過相機(jī)拍攝標(biāo)準(zhǔn)工件獲取其二維圖像,由YOLACT進(jìn)行實(shí)例分割。YOLACT把圖像像素分為工件內(nèi)部、工件邊緣和工件外部3類。需要把工件邊緣像素歸類入工件內(nèi)部和工件外部,為此計(jì)算工件內(nèi)部像素點(diǎn)的平均灰度值F,再計(jì)算對(duì)應(yīng)工件邊緣像素點(diǎn)的灰度值g。若glt;F/2,則將邊緣像素點(diǎn)歸入工件外部像素點(diǎn),反之,歸入工件內(nèi)部像素點(diǎn)。計(jì)算工件內(nèi)部像素?cái)?shù)量,并以此值的70%作為閾值來篩選適合抓取的工件。當(dāng)同類型工件內(nèi)部像素?cái)?shù)量超過該閾值時(shí),認(rèn)為該工件適合抓取,反之,則刪除該工件的信息。散堆工件場景圖像原始分割結(jié)果與篩選結(jié)果,如圖5所示。

    2.1 混合結(jié)構(gòu)光編碼方案

    為減少結(jié)構(gòu)光投影時(shí)間,采用格雷碼與相移碼相結(jié)合的結(jié)構(gòu)光編碼方式,共投射p幅格雷碼圖案,q幅相移碼圖案,以左相機(jī)為例,左相機(jī)采集的結(jié)構(gòu)光投影場景圖片,如圖6所示。

    經(jīng)過格雷碼編解碼,p位格雷碼將整個(gè)圖像劃分為2p個(gè)區(qū)域,每個(gè)區(qū)域內(nèi)像素點(diǎn)的格雷碼值相同。相移圖案是周期性圖案,在一個(gè)周期內(nèi),相位值是連續(xù)且唯一的。把相移碼周期長度和每個(gè)區(qū)域長度設(shè)為相同,通過格雷碼與相移碼混合編碼得到的每個(gè)像素點(diǎn)的絕對(duì)相位ψ為

    ψ=2kπ+φ。(1)

    式(1)中:k為像素位置的格雷碼值;φ為像素位置的相位值。

    通過混合編碼,可進(jìn)一步區(qū)分每個(gè)區(qū)域內(nèi)的像素點(diǎn)。格雷碼解碼時(shí),為避免環(huán)境中陰影區(qū)域解碼的錯(cuò)誤二值化,通過投影正、反格雷碼圖案,計(jì)算帶正、反格雷碼圖案灰度差值的方式,進(jìn)行圖像二值化。設(shè)I(x,y)為投影格雷碼時(shí)圖像中位置(x,y)處的像素灰度值(光強(qiáng)),Ir(x,y)為投影反格雷碼圖案時(shí)圖像中位置(x,y)處的光強(qiáng),若I(x,y)≥Ir(x,y),則認(rèn)為該位置對(duì)應(yīng)格雷碼亮條紋,二值化為1;若I(x,y)lt;Ir(x,y),則認(rèn)為該位置對(duì)應(yīng)格雷碼暗條紋,二值化為0。對(duì)拍攝的所有帶格雷碼圖案的場景圖片進(jìn)行上述解碼過程,就可得到每個(gè)位置的格雷碼值。

    相移碼解碼的目的是從捕獲的帶相移碼的場景圖像計(jì)算每個(gè)像素點(diǎn)的相位值。投射的相移圖案為灰度條紋,光強(qiáng)表達(dá)式為

    I(x,y)=a(x,y)+b(x,y)cos(φ(x,y)+φi)。(2)

    式(2)中:a(x,y)為背景光強(qiáng);b(x,y)為調(diào)制強(qiáng)度;φ(x,y)表示相位值;φi表示相移值。

    以4步相移法為例,在一個(gè)2π周期內(nèi),相位每次移動(dòng)幅度為π/2。第i副圖像的光強(qiáng)為I1(x,y)=a(x,y)+b(x,y)cos(φ(x,y)),I2(x,y)=a(x,y)+b(x,y)cosφ(x,y)+π2,I3(x,y)=a(x,y)+b(x,y)cos(φ(x,y)+π),I4(x,y)=a(x,y)+b(x,y)cosφ(x,y)+3π2。

    每個(gè)像素點(diǎn)的相位為

    φ(x,y)=arctanI4(x,y)-I2(x,y)I1(x,y)-I3(x,y)。(3)

    2.2 縮減像素點(diǎn)匹配搜索范圍

    左、右場景圖案解碼后,為左圖像的像素點(diǎn)在右圖像中尋找匹配點(diǎn)時(shí),可以搜索所有像素點(diǎn),但這樣效率較低。為節(jié)省資源開銷,基于YOLACT輸出的工件分割信息,只對(duì)工件內(nèi)部像素點(diǎn)進(jìn)行匹配,并利用極線約束,將搜索范圍縮小為右圖像對(duì)應(yīng)的極線,再通過延伸工件包絡(luò)框邊界,進(jìn)一步將匹配范圍縮小為對(duì)應(yīng)極線中的一段。

    為簡化極線的計(jì)算,先對(duì)左、右圖片進(jìn)行極線校正。極線校正把兩幅原始圖像轉(zhuǎn)化為兩幅新圖像。這兩幅新圖像中,對(duì)應(yīng)極線均在與橫軸平行的同一直線上,即兩幅圖像中互相匹配的像素點(diǎn)具有相同的縱坐標(biāo)。

    雙目視覺中空間點(diǎn)在左、右圖像的成像位置,如圖7所示。圖7中:P在極線校正后的左、右圖像上的坐標(biāo)分別為(a,b),(m,n);兩個(gè)紅色方框代表極線校正后的左、右圖像平面,以圖像的左邊界為x方向的零起始邊;左圖像中的像素位置(a,b)在x方向上相對(duì)于右圖像中的像素位置(m,n)更靠右,即agt;m,且圖像極線校正后使得b=n,因此,把右目圖像中搜索匹配點(diǎn)的范圍縮減為第b行中[0,a]區(qū)間。右圖工件包絡(luò)框獲取過程,如圖8所示。

    由圖8可知:左圖分割得到的掩膜和包絡(luò)框可以覆蓋右圖對(duì)應(yīng)工件的大部分區(qū)域;通過計(jì)算雙目系統(tǒng)拍攝圖像的最大視差v,在右圖上將包絡(luò)框的左邊界向左延伸(v+c)個(gè)像素點(diǎn),其中,c是為保證匹配的準(zhǔn)確性而額外延伸的像素?cái)?shù)量;延伸后的包絡(luò)框就可包含左圖工件區(qū)域內(nèi)像素點(diǎn)對(duì)應(yīng)的匹配點(diǎn),左圖點(diǎn)(a,b)的匹配范圍縮減為右圖像對(duì)應(yīng)極線中[0,a]區(qū)間。通過延伸包絡(luò)框邊界,進(jìn)一步將匹配點(diǎn)搜索范圍縮減為[h,a]區(qū)間,其中,h為原包絡(luò)框左邊界所在像素點(diǎn)位置向左延伸(v+c)個(gè)像素點(diǎn)后的左邊界位置。

    3 位姿估計(jì)

    3.1 模型數(shù)據(jù)庫

    獲取工件模型點(diǎn)云有兩種方式:一是通過工件的CAD模型轉(zhuǎn)換為點(diǎn)云,將降采樣后的點(diǎn)云作為工件模型點(diǎn)云;二是將雙目結(jié)構(gòu)光生成的工件稀疏點(diǎn)云通過Cloud Compare軟件進(jìn)行去噪和平滑等處理,將處理后的點(diǎn)云作為工件模型點(diǎn)云。

    將工件模型點(diǎn)云轉(zhuǎn)換為PPF特征,并用該特征作為相應(yīng)類型工件模型的特征模型,以工件類型為索引構(gòu)建模型點(diǎn)對(duì)特征庫。每個(gè)模型都包含一個(gè)從PPF特征到具有相似特征的點(diǎn)對(duì)集合的映射,該映射關(guān)系采用哈希表存儲(chǔ)。

    PPF特征是一個(gè)4維向量,用于表示兩個(gè)空間點(diǎn)p1和p2之間的相對(duì)位置和方向關(guān)系,即

    PPF(p1,p2)=[d2,n1,n2,u]。(4)

    式(4)中:d為p1到p2的方向向量;d2為p1和p2之間的歐氏距離;n1和n2分別為p1和p2處的法向量與向量d之間的夾角;u為p1和p2處的兩法向量之間的夾角。

    3.2 基于投票匹配和迭代最近鄰位姿的估計(jì)

    位姿估計(jì)過程,如圖9所示。

    首先,使用直通濾波定義點(diǎn)云的有效范圍,去除離群點(diǎn)云。接著,通過移動(dòng)最小二乘法濾波平滑點(diǎn)云,以減少噪聲影響,提高匹配的穩(wěn)定性。隨后,計(jì)算工件點(diǎn)云的點(diǎn)對(duì)特征集合,并以工件類別信息為索引找到對(duì)應(yīng)模型進(jìn)行配準(zhǔn)。最后,通過投票匹配和ICP算法估計(jì)工件位姿。

    設(shè)M為模型點(diǎn)云的點(diǎn)對(duì)特征,S為環(huán)境點(diǎn)云的點(diǎn)對(duì)特征,模型點(diǎn)云的點(diǎn)對(duì)特征(PPFΘ(pn,pm))和場景點(diǎn)云的點(diǎn)對(duì)特征(PPFΩ(qj,qk))為

    M={PPFΘ(p1,p2),…,PPFΘ(pn,pm)},S={PPFΩ(q1,q2),…,PPFΩ(qj,qk)}。(5)

    根據(jù)YOLACT得到的工件種類信息,可以在模型點(diǎn)對(duì)特征庫中選擇對(duì)應(yīng)的模型,并為每個(gè)場景點(diǎn)建立投票箱。比較模型點(diǎn)對(duì)(pn,pm)和場景點(diǎn)對(duì)(qj,qk)的特征向量,若相似,則為該模型點(diǎn)投票。對(duì)場景點(diǎn)構(gòu)建的所有點(diǎn)對(duì)特征集合完成投票后,將投票數(shù)(f)的最大值作為匹配點(diǎn)的權(quán)值oi,即

    oi=Max(f1,f2,…,fm)。(6)

    為所有場景點(diǎn)獲取匹配結(jié)果后,可以得到多個(gè)位姿,將相似的位姿結(jié)果分配到相同的簇中。計(jì)算簇中所有位姿投票數(shù)的總和作為該簇的總得分(Wn),即

    Wn=∑nuj=1∑nji=1oi。(7)

    式(7)中:nu為簇中的位姿個(gè)數(shù);nj為場景點(diǎn)個(gè)數(shù)。

    選擇總得分最高的簇,并計(jì)算其聚類中心的對(duì)應(yīng)位姿,作為粗配準(zhǔn)位姿結(jié)果。首先,計(jì)算所有位姿的位置向量的平均值來求解位置均值,其次,計(jì)算該簇聚類中心對(duì)應(yīng)的旋轉(zhuǎn)矩陣(A),即

    A=1nu∑nui=1wi(uTi×ui)。(8)

    式(8)中:ui為位姿的旋轉(zhuǎn)矩陣;wi為位姿的權(quán)重。

    通過投票匹配和位姿聚類,得到了模型點(diǎn)云到場景點(diǎn)云的初始變換矩陣。使用ICP算法[33]進(jìn)一步精細(xì)調(diào)整,減少點(diǎn)云對(duì)應(yīng)點(diǎn)匹配的距離誤差。

    4 實(shí)驗(yàn)驗(yàn)證

    4.1 散堆工件抓取實(shí)驗(yàn)系統(tǒng)

    通過測(cè)試系統(tǒng)抓取工件的平均耗時(shí)、平均點(diǎn)云生成時(shí)間、配準(zhǔn)成功率和平均配準(zhǔn)時(shí)間驗(yàn)證方法的整體性能。

    平均耗時(shí)為系統(tǒng)抓取目標(biāo)工件過程中各環(huán)節(jié)單次所耗平均時(shí)間;平均點(diǎn)云生成時(shí)間與平均配準(zhǔn)時(shí)間為獲取單個(gè)工件位姿所需點(diǎn)云生成時(shí)間和配準(zhǔn)時(shí)間;配準(zhǔn)成功率為實(shí)驗(yàn)中位姿估計(jì)成功次數(shù)所占比例。

    搭建的散堆工件抓取實(shí)驗(yàn)系統(tǒng)(圖10)包含標(biāo)準(zhǔn)工業(yè)6-DoF機(jī)器人JAkA Zu3、末端執(zhí)行器、雙目結(jié)構(gòu)光系統(tǒng)、帶高性能圖形處理單元(GPU)的計(jì)算機(jī)。系統(tǒng)采用吸嘴作為末端執(zhí)行器,結(jié)合氣泵、電磁閥和繼電器完成抓取。吸嘴由于其工作原理,需要接觸面平滑,且吸嘴工作時(shí)吸力較小,因此,將抓取點(diǎn)選在工件重心附近。

    4.2 散堆工件抓取流程實(shí)驗(yàn)

    工件搬移過程,如圖11所示。

    抓取全部工件僅需兩次結(jié)構(gòu)光點(diǎn)云生成(圖11(a)):

    1) 系統(tǒng)利用YOLACT對(duì)圖片進(jìn)行實(shí)例分割,并篩選出3個(gè)適合抓取的表層工件;

    2) 利用雙目結(jié)構(gòu)光系統(tǒng)生成3個(gè)目標(biāo)工件區(qū)域的局部點(diǎn)云,并計(jì)算工件的位姿,指導(dǎo)機(jī)械臂搬移工件。完成對(duì)表層3個(gè)工件的抓取后,系統(tǒng)捕獲當(dāng)前場景圖像進(jìn)行實(shí)例分割,篩選出下層的5個(gè)適合抓取的工件。

    隨后,重復(fù)上述過程,完成對(duì)下層5個(gè)工件的搬移。搬移下層5個(gè)工件后,系統(tǒng)再次捕獲場景圖像進(jìn)行實(shí)例分割,發(fā)現(xiàn)無適合抓取的工件,系統(tǒng)結(jié)束抓取任務(wù)。

    點(diǎn)云生成環(huán)節(jié)的工件搬移過程總耗時(shí)(t)為

    t=ts+tj+tr+te+tc。(9)

    式(9)中:ts為工件篩選環(huán)節(jié)耗時(shí);tj為結(jié)構(gòu)光投影環(huán)節(jié)耗時(shí);tr為計(jì)算工件點(diǎn)云環(huán)節(jié)耗時(shí);te為工件位姿估計(jì)環(huán)節(jié)耗時(shí);tc為機(jī)械臂搬移工件環(huán)節(jié)耗時(shí)。

    沒有點(diǎn)云生成環(huán)節(jié)的工件搬移過程中,單次搬移過程總耗時(shí)t為機(jī)械臂搬移過程耗時(shí)。系統(tǒng)搬移工件各環(huán)節(jié)所耗時(shí)間,如表1所示。表1中:n為抓取次數(shù);trc=ts+tj+tr;ta為平均時(shí)間。

    機(jī)械臂搬移工件環(huán)節(jié)平均耗時(shí)為6.024 s,遠(yuǎn)高于估計(jì)單個(gè)工件位姿平均耗時(shí)。為提升散堆工件抓取系統(tǒng)工作效率,令機(jī)械臂搬移工件環(huán)節(jié)與下一個(gè)工件點(diǎn)云的配準(zhǔn)過程并行執(zhí)行。

    4.3 相關(guān)方法對(duì)比測(cè)試

    基于DFP[35](DFPCP)方法、基于PointNet++[15](PCP)方法及基于DGCNN[16](DCP)方法均利用雙目結(jié)構(gòu)光生成點(diǎn)云,使用投票匹配和迭代最近鄰算法[33]估計(jì)工件位姿。所有方法均在相同場景下實(shí)驗(yàn)了50次,4種方法點(diǎn)云生成和位姿估計(jì)結(jié)果對(duì)比,如表2所示。表2中:nr為重建的次數(shù);η為配準(zhǔn)成功率;tps為分割時(shí)間;S為點(diǎn)云規(guī)模。

    由表2可知:DFPCP方法的配準(zhǔn)成功率遠(yuǎn)低于其他方法,這是由于DFPCP方法生成的整個(gè)散堆工件場景點(diǎn)云包含大量無關(guān)點(diǎn),并且DFPCP不能選擇對(duì)應(yīng)模型進(jìn)行配準(zhǔn),而是需要依次和L型、T型工件的點(diǎn)對(duì)特征集合進(jìn)行配準(zhǔn),T型工件的點(diǎn)對(duì)特征與L型工件的點(diǎn)對(duì)特征相似,L型工件模型點(diǎn)云易配準(zhǔn)到場景點(diǎn)云中T型工件區(qū)域,導(dǎo)致配準(zhǔn)成功率低;另外3種方法均是針對(duì)目標(biāo)工件點(diǎn)云進(jìn)行配準(zhǔn),大幅度提升了配準(zhǔn)成功率;PCP方法和DCP方法需要計(jì)算完整場景點(diǎn)云,然后,對(duì)場景點(diǎn)云進(jìn)行分割,以獲取目標(biāo)工件點(diǎn)云,這導(dǎo)致點(diǎn)云生成時(shí)間較長,且在散堆工件之間存在遮擋情況,兩種方法都存在分割被遮擋工件的點(diǎn)云的情況,進(jìn)而導(dǎo)致配準(zhǔn)失??;文中方法結(jié)合YOLACT輸出的目標(biāo)工件的分割信息,只生成待抓取工件的點(diǎn)云,與其他方法相比,文中方法平均可縮小點(diǎn)云規(guī)模約44%,點(diǎn)云生成時(shí)間平均縮短24%,配準(zhǔn)成功率平均提升25%。

    5 結(jié)束語

    提出了一種圖像分割引導(dǎo)的散堆工件結(jié)構(gòu)光三維位姿估計(jì)方法,并基于所搭建的散堆工件抓取實(shí)驗(yàn)系統(tǒng)進(jìn)行了散堆工件抓取實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,該方法能快速生成所有適合抓取工件的局部點(diǎn)云,顯著減少了點(diǎn)云規(guī)模和點(diǎn)云生成時(shí)間,雙目結(jié)構(gòu)光點(diǎn)云生成平均時(shí)間僅為3.195 s。通過以種類為索引找到對(duì)應(yīng)的模型進(jìn)行基于投票匹配和ICP算法的位姿配準(zhǔn),提高了配準(zhǔn)成功率,配準(zhǔn)平均成功率達(dá)100%。相較其他方法,文中方法在減小點(diǎn)云規(guī)模、提高點(diǎn)云生成速度和提高配準(zhǔn)成功率方面表現(xiàn)出色,從而有效提高了抓取效率。文中方法在更復(fù)雜環(huán)境下的工件掩膜分割質(zhì)量方面仍有進(jìn)一步提高的空間。對(duì)于不適合抓取的工件,系統(tǒng)通過機(jī)械臂對(duì)工件進(jìn)行調(diào)整,確定抓取點(diǎn),進(jìn)而完成抓取,將是未來研究的主題。

    參考文獻(xiàn):

    [1] SCHONBERGER J L,F(xiàn)RAHM J M.Structure-from-motion revisited[C]∥IEEE Conference on Computer Vision and Pattern Recognition.Piscataway:IEEE Press,2016:4104-4113.DOI:10.1109/CVPR.2016.445.

    [2] 黃及遠(yuǎn),李敏,謝兵兵,等.雙目視覺關(guān)鍵技術(shù)研究綜述[J].制造業(yè)自動(dòng)化,2023,45(5):166-171.DOI:1009-0134(2023)05-0166-06.

    [3] FOIX S,ALENYA G,TORRAS C.Lock-in time-of-flight (ToF) cameras: A survey[J].IEEE Sensors Journal,2011,11(9):1917-1926.DOI:10.1109/JSEN.2010.2101060.

    [4] 夏晨旭,郝群,張一鳴,等.基于結(jié)構(gòu)光投影三維重建的人臉特征檢測(cè)[J].激光與光電子學(xué)進(jìn)展,2023,60(22):186-192.DOI:10.3788/LOP230620.

    [5] AHARCHI M,AITKBIR M.A review on 3D reconstruction techniques from 2D images[C]∥International Conference on Smart Cities Applications.Berlin:Springer,2020:510-522.DOI:10.1007/978-3-030-37629-1_37.

    [6] MAYER N,ILG E,HAUSSER P,et al.A large dataset to train convolutional networks for disparity, optical flow, and scene flow estimation[C]∥IEEE Conference on Computer Vision and Pattern Recognition.Piscataway:IEEE Press,2016:4040-4048.DOI:10.1109/CVPR.2016.438.

    [7] SUNDERMEYER M,MARTON Z C,DURNER M,et al.Implicit 3D orientation learning for 6D object detection from RGB images[C]∥European Conference on Computer Vision.Cham:Springer,2018:699-715.DOI:10.1007/978-3-030-01231-1_43.

    [8] 牟向偉,孫國奇,陳林濤,等.基于Kinect相機(jī)的多視角RGB-D信息融合的甜椒姿態(tài)估計(jì)研究[J].中國農(nóng)機(jī)化學(xué)報(bào),2023,44(10):159-167.DOI:10.13733/j.jcam.issn.2095-5553.2023.10.023.

    [9] BRACHMANN E,KRULL A,MICHEL F,et al.Learning 6D object pose estimation using 3D object coordinates[C]∥European Conference on Computer Vision.Cham:Springer,2014:536-551.DOI:10.1007/978-3-319-10605-2_35.

    [10] KRULL A,BRACHMANN E,MICHEL F,et al.Learning analysis-by-synthesis for 6D pose estimation in RGB-D images[C]∥IEEE International Conference on Computer Vision.Piscataway:IEEE Press,2015:954-962.DOI:10.1109/ICCV.2015.115.

    [11] CRIVELLARO A,RAD M,VERDIE Y,et al.A novel representation of parts for accurate 3D object detection and tracking in monocular images[C]∥IEEE International Conference on Computer Vision.Piscataway:IEEE Press,2015:4391-4399.DOI:10.1109/ICCV.2015.499.

    [12] HODAN T,HALUZA P,OBDRLEK ,et al.T-LESS: An RGB-D dataset for 6D pose estimation of texture-less objects[C]∥IEEE Winter Conference on Applications of Computer Vision.Piscataway:IEEE Press,2017:880-888.DOI:10.48550/arXiv.1701.05498.

    [13] JAFARI O H,MITZEL D,LEIBE B.Real-time RGB-D based people detection and tracking for mobile robots and head-worn cameras[C]∥IEEE International Conference on Robotics and Automation.Piscataway:IEEE Press,2014:5636-5643.DOI:10.1109/ICRA.2014.6907688.

    [14] QI C R,SU Hao,MO Kaichun,et al.PointNet: Deep learning on point sets for 3D classification and segmentation[C]∥IEEE Conference on Computer Vision and Pattern Recognition.Piscataway:IEEE Press,2017:652-660.DOI:10.1109/CVPR.2017.16.

    [15] QI C R,YI Li, SU Hao,et al.Pointnet++: Deep hierarchical feature learning on point sets in a metric space[C]∥Annual Conference on Neural Information Processing Systems.New York:MIT Press,2017:5099-5108.DOI:10.48550/arXiv.1706.02413.

    [16] WANG Yue,SUN Yongbin,LIU Ziwei,et al.Dynamic graph CNN for learning on point clouds[J].ACM Transactions on Graphics,2019,38(5):1-12.DOI:10.48550/arXiv.1801.07829.

    [17] WANG Chen,XU Danfei,ZHU Yuke,et al.DenseFusion: 6D object pose estimation by iterative dense fusion[C]∥IEEE Conference on Computer Vision and Pattern Recognition.Piscataway:IEEE Press,2019:3343-3352.DOI:10.48550/arXiv.1901.04780.

    [18] GAO Ge,LAURI M,WANG Yulong,et al.6D object pose regression via supervised learning on point clouds[C]∥IEEE International Conference on Robotics and Automation.Piscataway:IEEE Press,2020:3643-3649.DOI:10.1109/ICRA40945.2020.9197461.

    [19] ZHUANG Chuangang,LI Shaofei,DING Han.Instance segmentation based 6D pose estimation of industrial objects using point clouds for robotic bin-picking[J].Robotics and Computer-Integrated Manufacturing,2023,82:102541.DOI:10.1016/j.RCIM.2023.102541.

    [20] ZHUANG Chuangang,WANG Haoyu,DING Han.Attention vote: A coarse-to-fine voting network of anchor-free 6D pose estimation on point cloud for robotic bin-picking application[J].Robotics and Computer-Integrated Manufacturing,2024,86:102671.DOI:10.1016/J.RCIM.2023.102671.

    [21] PAVLAKOS G,ZHOU Xiaowei,CHAN A,et al.6-DoF object pose from semantickeypoints[C]∥IEEE International Conference on Robotics and Automation.Piscataway:IEEE Press,2017:2011-2018.DOI:10.1109/ICRA.2017.7989233.

    [22] ROTHGANGER F,LAZEBNIK S,SCHMID C,et al.3D object modeling and recognition using local affine-invariant image descriptors and multi-view spatial constraints[J].International Journal of Computer Vision,2006,66(3):231-259.DOI:10.1007/s11263-005-3674-1.

    [23] TULSIANI S,MALIK J.Viewpoints and keypoints[C]∥IEEE Conference on Computer Vision and Pattern Recognition.Piscataway:IEEE Press,2015:1510-1519.DOI:10.1109/CVPR.2015.7298758.

    [24] RUBLEE E,RABAUD V,KONOLIGE K,et al.ORB: An efficient alternative to SIFT or SURF[C]∥IEEE International Conference on Computer Vision.Piscataway:IEEE Press,2011:2564-2571.DOI:10.1109/ICCV.2011.6126544.

    [25] BAY H,TUYTELAARS T,VAN GOOL L.Surf: Speeded up robust features[C]∥European Conference on Computer Vision.Berlin:Springer,2006:404-417.DOI:10.1007/11744023_32.

    [26] RUSU R B,BLODOW N,BEETZ M.Fast point feature histograms (FPFH) for 3D registration[C]∥IEEE International Conference on Robotics and Automation.Piscataway:IEEE Press,2009:3212-3217.DOI:10.1109/ROBOT.2009.5152473.

    [27] TOMBARI F,SALT S,DI STEFANO L.Unique signatures of histograms for local surface description[C]∥European Conference on Computer Vision.Berlin:Springer,2010:356-369.DOI:10.1007/978-3-642-15558-1_26.

    [28] VIDAL J,LIN C Y,MART R.6D pose estimation using an improved method based on point pair features[C]∥International Conference on Control, Automation, and Robotics.Piscataway:IEEE Press,2018:405-409.DOI:10.1109/ICCAR.2018.8384709.

    [29] SHARP G C,LEE S W,WEHE D K.ICP registration using invariant features[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(1):90-102.DOI:10.1109/34.982886.

    [30] YANG Jiaolong,LI Hongdong,CAMPBELL D,et al.Go-ICP: A globally optimal solution to 3D ICP point-set registration[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,38(11):2241-2254.DOI:10.1109/TPAMI.2015.2513405.

    [31] 汪霖,郭佳琛,張璞,等.基于改進(jìn)ICP算法的三維點(diǎn)云剛體配準(zhǔn)方法[J].西北大學(xué)學(xué)報(bào)(自然科學(xué)版),2021,51(2):183-190.DOI:10.16152/j.cnki.xdxbzr.2021-02-002.

    [32] 荊路,武斌,方錫祿.基于SIFT特征點(diǎn)結(jié)合ICP的點(diǎn)云配準(zhǔn)方法[J].激光與紅外,2021,51(7):944-950.DOI:10.3969/j.issn.1001-5078.2021.07.019.

    [33] ZHANG Jing,YIN Baoqun,XIAO Xianpeng,et al.3D detection and 6D pose estimation of texture-less objects for robot grasping[C]∥International Conference on Control and Robotics Engineering.Piscataway:IEEE Press,2021:33-38.DOI:10.1109/ICCRE51898.2021.9435702.

    [34] BOLYA D,ZHOU Chong,XIAO Fanyi,et al.YOLACT: Real-time instance segmentation[C]∥IEEE International Conference on Computer Vision.Piscataway:IEEE Press,2019:9157-9166.DOI:10.1109/ICCV.2019.00925.

    [35] LI Beiwen,AN Yatong,CAPPELLERI D,et al.High-accuracy, high-speed 3D structured light imaging techniques and potential applications to intelligent robotics[J].International Journal of Intelligent Robotics and Applications,2017,1(1):86-103.DOI:10.1007/s41315-016-0001-7.

    [36] 熊宗剛.結(jié)構(gòu)光雙目三維成像關(guān)鍵技術(shù)研究[D].成都:電子科技大學(xué),2021.

    (責(zé)任編輯: 陳志賢" 英文審校: 陳婧)

    通信作者: 高振國(1976-),男,教授,博士,主要從事智能制造、機(jī)器視覺及無線自組網(wǎng)絡(luò)等的研究。E-mail:gaohit@sina.com。

    基金項(xiàng)目: 國家自然科學(xué)基金資助項(xiàng)目(62372190, 61972166); 福建省高校產(chǎn)學(xué)合作資助項(xiàng)目(2021H6030)https://hdxb.hqu.edu.cn/

    婷婷色综合www| 亚洲精品中文字幕在线视频| 新久久久久国产一级毛片| 国产淫语在线视频| 久久亚洲国产成人精品v| 免费在线观看完整版高清| 国产一区二区激情短视频 | 欧美成人午夜免费资源| 免费人成在线观看视频色| 国产精品人妻久久久久久| 国产精品.久久久| 人成视频在线观看免费观看| 免费观看a级毛片全部| 日韩三级伦理在线观看| 久久青草综合色| 五月天丁香电影| 九九爱精品视频在线观看| 中国美白少妇内射xxxbb| 少妇高潮的动态图| 一级毛片黄色毛片免费观看视频| 插逼视频在线观看| 三级国产精品片| 欧美丝袜亚洲另类| 欧美丝袜亚洲另类| 久久国内精品自在自线图片| 国产无遮挡羞羞视频在线观看| 日韩欧美精品免费久久| 欧美精品亚洲一区二区| av线在线观看网站| 国产精品久久久av美女十八| 欧美+日韩+精品| 午夜福利网站1000一区二区三区| 九九在线视频观看精品| 久久久久久久久久久久大奶| 最近中文字幕高清免费大全6| av有码第一页| 极品少妇高潮喷水抽搐| 啦啦啦中文免费视频观看日本| 欧美人与性动交α欧美精品济南到 | 蜜桃在线观看..| 亚洲美女搞黄在线观看| 亚洲人与动物交配视频| 咕卡用的链子| 国产精品三级大全| 日本vs欧美在线观看视频| 伊人亚洲综合成人网| 免费大片黄手机在线观看| 亚洲第一av免费看| 午夜精品国产一区二区电影| 水蜜桃什么品种好| 国产免费一区二区三区四区乱码| 一级毛片电影观看| 日日撸夜夜添| 波多野结衣一区麻豆| 中文天堂在线官网| 日本黄色日本黄色录像| 精品视频人人做人人爽| 自线自在国产av| 国产精品麻豆人妻色哟哟久久| 久久人人97超碰香蕉20202| 欧美日韩国产mv在线观看视频| 免费av中文字幕在线| av片东京热男人的天堂| 国产精品无大码| 中文天堂在线官网| 精品国产露脸久久av麻豆| 欧美人与善性xxx| 午夜福利乱码中文字幕| 亚洲少妇的诱惑av| 美女视频免费永久观看网站| a 毛片基地| 一区二区三区乱码不卡18| 天美传媒精品一区二区| 精品久久国产蜜桃| 免费不卡的大黄色大毛片视频在线观看| 欧美人与性动交α欧美精品济南到 | 久久国产亚洲av麻豆专区| 欧美少妇被猛烈插入视频| 十分钟在线观看高清视频www| 美女xxoo啪啪120秒动态图| 中文字幕精品免费在线观看视频 | 久久久久久久精品精品| 欧美国产精品va在线观看不卡| 欧美 日韩 精品 国产| 精品视频人人做人人爽| 国产免费现黄频在线看| 国产黄色免费在线视频| 日本色播在线视频| videosex国产| 插逼视频在线观看| 色吧在线观看| 人妻人人澡人人爽人人| 亚洲少妇的诱惑av| 成人亚洲精品一区在线观看| 久久免费观看电影| 亚洲成国产人片在线观看| 最后的刺客免费高清国语| 老熟女久久久| 两个人免费观看高清视频| 巨乳人妻的诱惑在线观看| 精品少妇黑人巨大在线播放| 国产在线免费精品| 汤姆久久久久久久影院中文字幕| www.熟女人妻精品国产 | 国产精品人妻久久久久久| 插逼视频在线观看| 欧美精品国产亚洲| 天美传媒精品一区二区| 水蜜桃什么品种好| 丁香六月天网| 黄色配什么色好看| 国产极品天堂在线| xxx大片免费视频| 毛片一级片免费看久久久久| 韩国av在线不卡| 国产免费又黄又爽又色| 成人亚洲精品一区在线观看| 91aial.com中文字幕在线观看| 大片电影免费在线观看免费| 精品国产国语对白av| 婷婷成人精品国产| 精品一品国产午夜福利视频| 成年美女黄网站色视频大全免费| 女人精品久久久久毛片| 大片免费播放器 马上看| 久久久久久久大尺度免费视频| 丝瓜视频免费看黄片| 色哟哟·www| 国产男人的电影天堂91| 亚洲精品色激情综合| 国产成人免费观看mmmm| 一级毛片 在线播放| www.色视频.com| 极品人妻少妇av视频| 日韩不卡一区二区三区视频在线| 中文字幕人妻熟女乱码| 一区在线观看完整版| 波多野结衣一区麻豆| 欧美人与性动交α欧美精品济南到 | 黄片播放在线免费| 视频中文字幕在线观看| 观看美女的网站| 啦啦啦中文免费视频观看日本| 高清不卡的av网站| 另类精品久久| 最近中文字幕高清免费大全6| 日韩欧美精品免费久久| 18禁观看日本| 精品一区二区三卡| 日韩熟女老妇一区二区性免费视频| 丰满少妇做爰视频| av在线播放精品| 国精品久久久久久国模美| 男男h啪啪无遮挡| 9191精品国产免费久久| 一区二区三区乱码不卡18| 2021少妇久久久久久久久久久| 欧美 亚洲 国产 日韩一| 国产欧美日韩一区二区三区在线| 久久久国产欧美日韩av| 日日啪夜夜爽| 国产亚洲精品第一综合不卡 | 国产福利在线免费观看视频| 男的添女的下面高潮视频| 国产永久视频网站| 亚洲精品自拍成人| 亚洲精品,欧美精品| 哪个播放器可以免费观看大片| 美女主播在线视频| 日韩制服骚丝袜av| 日韩中文字幕视频在线看片| 18禁国产床啪视频网站| 在线精品无人区一区二区三| 欧美激情极品国产一区二区三区 | 日本爱情动作片www.在线观看| 少妇猛男粗大的猛烈进出视频| videossex国产| www日本在线高清视频| 国产黄色视频一区二区在线观看| 三级国产精品片| 国产成人欧美| 亚洲av福利一区| 亚洲欧美成人综合另类久久久| 免费观看在线日韩| 男女下面插进去视频免费观看 | 老司机亚洲免费影院| a级毛片黄视频| 99热这里只有是精品在线观看| 超碰97精品在线观看| 久久人人97超碰香蕉20202| 国产色爽女视频免费观看| 久久久精品免费免费高清| 中国美白少妇内射xxxbb| 国产成人精品福利久久| 插逼视频在线观看| 免费高清在线观看视频在线观看| 色婷婷av一区二区三区视频| 日韩中文字幕视频在线看片| 亚洲精品国产色婷婷电影| 人人妻人人添人人爽欧美一区卜| 亚洲高清免费不卡视频| 老司机影院成人| 国产亚洲一区二区精品| 国产深夜福利视频在线观看| 九草在线视频观看| 狠狠婷婷综合久久久久久88av| 男的添女的下面高潮视频| 国产精品无大码| 美女国产视频在线观看| √禁漫天堂资源中文www| 日本爱情动作片www.在线观看| 性色avwww在线观看| 曰老女人黄片| 国产无遮挡羞羞视频在线观看| av线在线观看网站| 在线观看免费视频网站a站| 欧美+日韩+精品| 大陆偷拍与自拍| 22中文网久久字幕| 亚洲熟女精品中文字幕| 十分钟在线观看高清视频www| 精品久久国产蜜桃| 国精品久久久久久国模美| 大香蕉97超碰在线| 欧美丝袜亚洲另类| 男女午夜视频在线观看 | 国产欧美另类精品又又久久亚洲欧美| 97在线视频观看| 免费观看无遮挡的男女| www日本在线高清视频| 亚洲成人一二三区av| 乱码一卡2卡4卡精品| 另类亚洲欧美激情| 看十八女毛片水多多多| 永久免费av网站大全| 美女主播在线视频| 啦啦啦在线观看免费高清www| 日本av手机在线免费观看| 亚洲精品国产av成人精品| 韩国高清视频一区二区三区| 丁香六月天网| 高清视频免费观看一区二区| 精品熟女少妇av免费看| 欧美日韩视频精品一区| 黑人高潮一二区| 综合色丁香网| 亚洲av免费高清在线观看| 欧美亚洲日本最大视频资源| 丝袜喷水一区| 十八禁网站网址无遮挡| 午夜福利网站1000一区二区三区| 一区在线观看完整版| 2018国产大陆天天弄谢| 国产免费视频播放在线视频| 男人添女人高潮全过程视频| h视频一区二区三区| 久久久久久久久久久免费av| 一级,二级,三级黄色视频| www.色视频.com| 青青草视频在线视频观看| 国产精品国产三级国产专区5o| 欧美97在线视频| 欧美+日韩+精品| 国产免费一级a男人的天堂| 26uuu在线亚洲综合色| 亚洲欧洲日产国产| 18禁在线无遮挡免费观看视频| 国产黄色视频一区二区在线观看| 国产乱人偷精品视频| 亚洲精品一二三| 国产免费福利视频在线观看| 久久精品国产自在天天线| 有码 亚洲区| 亚洲国产最新在线播放| 成人二区视频| 午夜免费观看性视频| 夫妻性生交免费视频一级片| 国产精品国产三级专区第一集| 精品一区二区三区四区五区乱码 | 国产日韩欧美在线精品| 国产精品久久久av美女十八| 岛国毛片在线播放| 亚洲精品视频女| 国产精品人妻久久久影院| 妹子高潮喷水视频| tube8黄色片| 看免费成人av毛片| 18在线观看网站| 黑人高潮一二区| 少妇猛男粗大的猛烈进出视频| 青春草国产在线视频| 欧美97在线视频| 99精国产麻豆久久婷婷| 欧美人与性动交α欧美精品济南到 | 中文字幕制服av| 亚洲国产精品999| 精品福利永久在线观看| av免费在线看不卡| 啦啦啦视频在线资源免费观看| 免费黄色在线免费观看| 国产高清三级在线| 欧美激情极品国产一区二区三区 | 国产 精品1| 又黄又爽又刺激的免费视频.| 九草在线视频观看| 91国产中文字幕| 伦理电影免费视频| 国产精品嫩草影院av在线观看| 高清毛片免费看| 日韩,欧美,国产一区二区三区| 欧美亚洲 丝袜 人妻 在线| 日韩av免费高清视频| 丰满少妇做爰视频| 只有这里有精品99| 国产精品免费大片| 欧美 亚洲 国产 日韩一| 亚洲av在线观看美女高潮| 免费看光身美女| a级毛片在线看网站| 五月玫瑰六月丁香| 热re99久久国产66热| 久久久久久人人人人人| 熟女av电影| 视频在线观看一区二区三区| 亚洲国产欧美在线一区| 精品久久久精品久久久| 日韩制服丝袜自拍偷拍| 黄色配什么色好看| 男人操女人黄网站| 久久热在线av| 一边摸一边做爽爽视频免费| 精品国产一区二区三区四区第35| 插逼视频在线观看| 99热网站在线观看| 热re99久久国产66热| 狠狠精品人妻久久久久久综合| 欧美激情 高清一区二区三区| 91午夜精品亚洲一区二区三区| 日韩av免费高清视频| 国产老妇伦熟女老妇高清| 欧美精品高潮呻吟av久久| 国产有黄有色有爽视频| 亚洲综合色惰| 99九九在线精品视频| 国产在线一区二区三区精| 久久久国产精品麻豆| 又大又黄又爽视频免费| 久久 成人 亚洲| 中文字幕免费在线视频6| 成年人免费黄色播放视频| 哪个播放器可以免费观看大片| 在线观看美女被高潮喷水网站| 丰满饥渴人妻一区二区三| 免费在线观看完整版高清| av在线观看视频网站免费| 成人漫画全彩无遮挡| 三级国产精品片| 午夜福利,免费看| 亚洲精品久久久久久婷婷小说| 成人影院久久| a级毛色黄片| 亚洲性久久影院| 一区二区三区精品91| 91久久精品国产一区二区三区| 亚洲精品第二区| 熟女av电影| 91aial.com中文字幕在线观看| 综合色丁香网| 女人被躁到高潮嗷嗷叫费观| 精品人妻熟女毛片av久久网站| 两性夫妻黄色片 | 一边摸一边做爽爽视频免费| 亚洲精品一二三| 亚洲美女黄色视频免费看| 人人妻人人添人人爽欧美一区卜| 久热久热在线精品观看| 国产在线免费精品| 国产麻豆69| 一本大道久久a久久精品| 久久国产精品男人的天堂亚洲 | 九色亚洲精品在线播放| 午夜福利乱码中文字幕| 视频在线观看一区二区三区| 青春草亚洲视频在线观看| 亚洲av综合色区一区| 国产成人精品福利久久| 菩萨蛮人人尽说江南好唐韦庄| 精品久久久精品久久久| 国产免费又黄又爽又色| 一级片免费观看大全| 制服人妻中文乱码| 在线观看www视频免费| 捣出白浆h1v1| 精品久久久久久电影网| 中文字幕精品免费在线观看视频 | 久久这里只有精品19| 春色校园在线视频观看| 免费人成在线观看视频色| 精品人妻偷拍中文字幕| 丰满迷人的少妇在线观看| 晚上一个人看的免费电影| 成人亚洲精品一区在线观看| 99久久中文字幕三级久久日本| 亚洲精品日本国产第一区| 午夜免费男女啪啪视频观看| 国产精品一国产av| 嫩草影院入口| 一级爰片在线观看| 久久免费观看电影| 天堂8中文在线网| 国产爽快片一区二区三区| 国产精品久久久久久久电影| 大片电影免费在线观看免费| 一边摸一边做爽爽视频免费| 久久久久精品人妻al黑| 日韩制服骚丝袜av| 中文乱码字字幕精品一区二区三区| 免费看不卡的av| 美女主播在线视频| 一本久久精品| 少妇精品久久久久久久| 亚洲激情五月婷婷啪啪| 最近中文字幕高清免费大全6| 亚洲少妇的诱惑av| 一级片免费观看大全| 最近中文字幕高清免费大全6| 伊人久久国产一区二区| 午夜福利在线观看免费完整高清在| 国国产精品蜜臀av免费| 亚洲av综合色区一区| 成人亚洲欧美一区二区av| 国产男人的电影天堂91| 天堂俺去俺来也www色官网| 人人妻人人澡人人爽人人夜夜| 亚洲精品乱久久久久久| 一边摸一边做爽爽视频免费| 看十八女毛片水多多多| 2018国产大陆天天弄谢| 婷婷成人精品国产| 99精国产麻豆久久婷婷| 精品一区在线观看国产| 欧美成人精品欧美一级黄| 日本免费在线观看一区| 免费av中文字幕在线| 纯流量卡能插随身wifi吗| 寂寞人妻少妇视频99o| 两个人看的免费小视频| 97在线人人人人妻| 亚洲精品日韩在线中文字幕| 久久国产亚洲av麻豆专区| 国产男人的电影天堂91| 麻豆乱淫一区二区| 国产高清不卡午夜福利| 欧美另类一区| 国产爽快片一区二区三区| 天天操日日干夜夜撸| 校园人妻丝袜中文字幕| 在线观看一区二区三区激情| 黄片无遮挡物在线观看| 观看av在线不卡| 国产成人a∨麻豆精品| 亚洲精品久久成人aⅴ小说| 看非洲黑人一级黄片| 中文乱码字字幕精品一区二区三区| 欧美激情国产日韩精品一区| 一本色道久久久久久精品综合| 国产亚洲一区二区精品| 中文字幕另类日韩欧美亚洲嫩草| 制服人妻中文乱码| 精品亚洲成a人片在线观看| 日产精品乱码卡一卡2卡三| 国产精品久久久久久av不卡| 秋霞伦理黄片| 少妇人妻 视频| 亚洲精品成人av观看孕妇| 国产精品一区二区在线观看99| 一级毛片电影观看| 97在线人人人人妻| 中文欧美无线码| 99久国产av精品国产电影| 国产一区二区三区综合在线观看 | av在线app专区| 亚洲美女黄色视频免费看| 欧美国产精品va在线观看不卡| 日韩,欧美,国产一区二区三区| 九色成人免费人妻av| 成年av动漫网址| 日产精品乱码卡一卡2卡三| 婷婷色综合www| 国产一区二区三区综合在线观看 | 久久久久久久亚洲中文字幕| 日本色播在线视频| 人妻少妇偷人精品九色| 亚洲av电影在线进入| 9色porny在线观看| 日韩电影二区| 亚洲国产精品专区欧美| 另类精品久久| 美女大奶头黄色视频| 亚洲婷婷狠狠爱综合网| a级片在线免费高清观看视频| 亚洲精品乱久久久久久| 国产欧美日韩一区二区三区在线| 一级,二级,三级黄色视频| 一本久久精品| 国产一区二区激情短视频 | 精品国产一区二区三区久久久樱花| 成人漫画全彩无遮挡| 精品一区二区三卡| 精品一区二区免费观看| 国产日韩欧美视频二区| 久久99一区二区三区| av卡一久久| 亚洲久久久国产精品| 免费av中文字幕在线| 久久久久久久亚洲中文字幕| 日韩不卡一区二区三区视频在线| 韩国高清视频一区二区三区| 精品福利永久在线观看| 亚洲综合精品二区| 精品酒店卫生间| 人人澡人人妻人| 考比视频在线观看| 亚洲国产欧美在线一区| 国产在线一区二区三区精| 波多野结衣一区麻豆| 国产日韩欧美视频二区| 国产女主播在线喷水免费视频网站| 国产免费一区二区三区四区乱码| 久久精品国产亚洲av涩爱| 国产亚洲午夜精品一区二区久久| av在线老鸭窝| 精品一区二区免费观看| 亚洲国产成人一精品久久久| 日本与韩国留学比较| 最近2019中文字幕mv第一页| 肉色欧美久久久久久久蜜桃| 热re99久久国产66热| 看免费成人av毛片| 天堂8中文在线网| kizo精华| 男女国产视频网站| 精品一品国产午夜福利视频| 国产一区亚洲一区在线观看| 97在线人人人人妻| 一区二区av电影网| 午夜精品国产一区二区电影| 制服诱惑二区| 久久久精品区二区三区| freevideosex欧美| 午夜激情av网站| 纵有疾风起免费观看全集完整版| 一本大道久久a久久精品| 国产男女超爽视频在线观看| 国精品久久久久久国模美| 亚洲,欧美精品.| 91久久精品国产一区二区三区| 成年动漫av网址| 国产国拍精品亚洲av在线观看| 久久久久久久亚洲中文字幕| 色吧在线观看| videos熟女内射| 美女国产视频在线观看| 亚洲伊人色综图| 菩萨蛮人人尽说江南好唐韦庄| 内地一区二区视频在线| 免费在线观看黄色视频的| 亚洲国产欧美日韩在线播放| 国产精品一国产av| 成人二区视频| 哪个播放器可以免费观看大片| 热re99久久精品国产66热6| 久久99精品国语久久久| 日韩一区二区三区影片| 亚洲精品视频女| 麻豆乱淫一区二区| 欧美亚洲 丝袜 人妻 在线| 三级国产精品片| 一区二区三区精品91| 性色av一级| 香蕉国产在线看| 飞空精品影院首页| 久久精品国产自在天天线| 久久久久久久大尺度免费视频| 五月伊人婷婷丁香| 女的被弄到高潮叫床怎么办| 少妇被粗大猛烈的视频| 男人舔女人的私密视频| 搡女人真爽免费视频火全软件| 九九爱精品视频在线观看| 一区二区av电影网| 极品少妇高潮喷水抽搐| 一本色道久久久久久精品综合| 少妇精品久久久久久久| 欧美精品国产亚洲| 在线观看免费视频网站a站| 黑人猛操日本美女一级片| 最近中文字幕高清免费大全6| 高清视频免费观看一区二区| 色视频在线一区二区三区| 国产在线视频一区二区| 久久97久久精品| 国产成人精品在线电影| 一本久久精品| 满18在线观看网站| 欧美精品亚洲一区二区| 汤姆久久久久久久影院中文字幕| 黄网站色视频无遮挡免费观看| 91aial.com中文字幕在线观看| 香蕉精品网在线| 国产麻豆69| 在线观看一区二区三区激情| 一边亲一边摸免费视频| 国产午夜精品一二区理论片| 美女xxoo啪啪120秒动态图|