俞 雋,李瀧杲,李 根,主 逵
(1.南京航空航天大學(xué)機(jī)電學(xué)院,南京210016;2.深圳市勁拓自動(dòng)化設(shè)備有限公司,深圳 5181021)
工業(yè)機(jī)器人以其效率高、環(huán)境適應(yīng)性強(qiáng)以及具有較高穩(wěn)定性等特點(diǎn),配合各種末端執(zhí)行器被廣泛應(yīng)用在裝配定位、自動(dòng)鉆鉚、檢測(cè)探傷、噴涂等飛機(jī)裝配作業(yè)中[1]。對(duì)于機(jī)器人的多數(shù)應(yīng)用場(chǎng)景而言,需要確定目標(biāo)對(duì)象的位姿才能完成相關(guān)作業(yè),傳統(tǒng)的工業(yè)機(jī)器人定位方法是通過離線編程或示教實(shí)現(xiàn),這種方法嚴(yán)格限定了目標(biāo)工件的起始和終止位姿,只能機(jī)械地重復(fù)提前規(guī)劃好的路徑,無法滿足柔性智能裝配系統(tǒng)的要求[2]。特別地,在飛機(jī)裝配領(lǐng)域中,部分曲面復(fù)合材料膠結(jié)件具有弱紋理且無明顯定位特征點(diǎn)等特征都需要新的技術(shù)手段引導(dǎo)機(jī)器人進(jìn)行定位工作。
機(jī)器視覺技術(shù)通過非接觸測(cè)量手段,獲取目標(biāo)特征信息并對(duì)其進(jìn)行處理,能夠?qū)崟r(shí)地對(duì)目標(biāo)或環(huán)境的變化做出響應(yīng),將其與機(jī)器人相集成,提高了機(jī)器人的環(huán)境感知能力和靈活性,減少了機(jī)器人離線編程所占用時(shí)間,成為工業(yè)機(jī)器人智能化發(fā)展中被廣泛研究和應(yīng)用的技術(shù)手段[3]。翟敬梅等[4]在工件上方安置相機(jī),采用二維視覺引導(dǎo)系統(tǒng)的方式實(shí)現(xiàn)工業(yè)機(jī)器人的定位抓取,但只能進(jìn)行水平傳送定位,無法應(yīng)用于三維定位場(chǎng)景;Ulrich[5]采用單目攝像機(jī)對(duì)三維目標(biāo)進(jìn)行識(shí)別定位和姿態(tài)識(shí)別,該方法沒有選用灰度和物體表面紋理作為特征,因此只適合工業(yè)環(huán)境中特定的金屬工件識(shí)別;Ishibashi[6]利用雙目視覺系統(tǒng)進(jìn)行機(jī)器人定位操作,可以實(shí)現(xiàn)目標(biāo)對(duì)象的快速、非接觸三維定位,但雙目視覺對(duì)應(yīng)點(diǎn)難以匹配,僅能應(yīng)用于具有顯著特征的目標(biāo)對(duì)象;Li 等[7]提出了一種基于視覺的抓取系統(tǒng),該系統(tǒng)使用一個(gè)攝像機(jī)從9 個(gè)方向拍攝目標(biāo)信息,實(shí)現(xiàn)了目標(biāo)檢測(cè)和姿態(tài)估計(jì);馮志剛等[8]采用多目相機(jī)構(gòu)成Eye–in–Hand 工業(yè)機(jī)器人視覺系統(tǒng),控制機(jī)器人完成精確定位的作業(yè)任務(wù),但是需要提前在工件上粘貼視覺靶標(biāo)點(diǎn)。
為解決上述問題,本文提出一種基于多線結(jié)構(gòu)光視覺引導(dǎo)的工業(yè)機(jī)器人定位方法。以工業(yè)相機(jī)為主要測(cè)量設(shè)備,增加多線結(jié)構(gòu)光光源,構(gòu)成“Eye–in–Hand”手眼視覺系統(tǒng)。通過將多條規(guī)則的結(jié)構(gòu)光束投射到弱紋理和無明顯定位特征點(diǎn)的工件表面,輔助創(chuàng)造出可提取的定位特征點(diǎn),結(jié)合理論模型數(shù)據(jù),獲取待定位工件在相機(jī)坐標(biāo)系下的三維位姿,再根據(jù)機(jī)器人手眼標(biāo)定與末端標(biāo)定參數(shù),構(gòu)建基于位姿反饋的閉環(huán)定位調(diào)姿系統(tǒng),實(shí)現(xiàn)機(jī)器人對(duì)目標(biāo)對(duì)象的定位。
如圖1 所示,定位系統(tǒng)主要由控制中心、工業(yè)機(jī)器人、末端執(zhí)行器、工業(yè)相機(jī)、多線結(jié)構(gòu)光發(fā)射器和待定位工件組成??刂浦行哪軌颢@取測(cè)量設(shè)備的測(cè)量數(shù)據(jù),進(jìn)行相關(guān)處理計(jì)算并將結(jié)果反饋到執(zhí)行設(shè)備中。工業(yè)相機(jī)和激光器構(gòu)成末端測(cè)量裝置,采集作業(yè)工件上的特征信息并解算相關(guān)位姿信息。執(zhí)行設(shè)備有工業(yè)機(jī)器人和末端執(zhí)行器,由工業(yè)機(jī)器人搭載的末端執(zhí)行器根據(jù)測(cè)量系統(tǒng)的反饋,調(diào)整到一定位姿,完成對(duì)工件的抓取、裝配等操作。
針對(duì)弱紋理和無明顯定位特征點(diǎn)的工件,利用多線結(jié)構(gòu)光的輔助作用,建立圖2 所示的閉環(huán)反饋定位調(diào)姿系統(tǒng),實(shí)現(xiàn)機(jī)器人的定位運(yùn)動(dòng)。視覺測(cè)量過程是由相機(jī)采集結(jié)構(gòu)光投射圖像后,對(duì)定位特征點(diǎn)進(jìn)行提取,利用立體視覺原理[9]進(jìn)行三維重建,獲取定位特征點(diǎn)在相機(jī)坐標(biāo)系下的三維信息。再結(jié)合工件坐標(biāo)系下的理論模型離散點(diǎn)集與機(jī)器人手眼標(biāo)定和末端標(biāo)定參數(shù)[10]解算得到機(jī)器人工具末端和待定位工件之間的實(shí)際位姿參數(shù)。通過實(shí)時(shí)位姿反饋,建立由視覺系統(tǒng)測(cè)量得到的實(shí)際位姿與理論位姿的偏差關(guān)系,將其傳遞給機(jī)器人控制器進(jìn)行補(bǔ)償。由于存在系統(tǒng)誤差,機(jī)器人很難一次完成定位,故需進(jìn)行數(shù)次迭代調(diào)姿以完成定位運(yùn)動(dòng)。
其中,視覺測(cè)量部分所需提取的定位特征點(diǎn)為多線結(jié)構(gòu)光投射在待定位工件上表面的光條與4 條邊界的交點(diǎn),得到定位特征點(diǎn)在相機(jī)坐標(biāo)系下的三維坐標(biāo)后,將其與工件坐標(biāo)系下的理論邊界離散點(diǎn)集進(jìn)行配準(zhǔn),即可得到工件相對(duì)于相機(jī)的位姿關(guān)系。理論邊界點(diǎn)集是通過CATIA 三維軟件在工件理論模型上建立坐標(biāo)系,提取出工件上表面邊界,并將其離散得到,如圖3 所示。同時(shí),由建立的工件坐標(biāo)系可以確定機(jī)器人末端定位時(shí)的理論位姿。
圖1 系統(tǒng)硬件組成Fig.1 System hardware composition
圖2 機(jī)器人閉環(huán)反饋定位系統(tǒng)Fig.2 Robot closed loop feedback positioning system
圖3 理論邊界離散點(diǎn)集Fig.3 Discrete point set of theoretical boundary
由于待定位工件為曲面模擬件,以及多相機(jī)拍攝視角不同的原因,采集到的光條與邊界交點(diǎn)形式有兩種類型(圖4,其中紅色標(biāo)記點(diǎn)為待提取的定位特征點(diǎn))。圖4(a)中的定位特征點(diǎn)為上表面光條在邊界處形成的斷點(diǎn),圖4(b)中定位特征點(diǎn)為上表面光條與工件側(cè)面上光條形成的交點(diǎn)。為此,本文設(shè)計(jì)了針對(duì)多線結(jié)構(gòu)光邊界定位特征點(diǎn)的提取算法,主要步驟包括特征點(diǎn)的粗提取,誤判點(diǎn)的剔除和特征點(diǎn)位置修正。
2.1.1 特征點(diǎn)粗提取
由于采集到的圖像中待提取特征點(diǎn)構(gòu)成形式不唯一,以及在曲面工件上投射的光條不為直線等原因,難以通過直接細(xì)化光條求交點(diǎn)和端點(diǎn)的方法提取,故提出基于角點(diǎn)檢測(cè)的定位特征點(diǎn)提取算法。在圖像處理中,如果某一點(diǎn)在任意方向的一個(gè)微小變動(dòng)都會(huì)引起灰度很大的變化,那么我們就把它稱之為角點(diǎn)[11]。由角點(diǎn)定義可知,待提取的定位特征點(diǎn)屬于角點(diǎn)范疇,所以本文設(shè)計(jì)的特征點(diǎn)粗提取算法基于角點(diǎn)提取,通過創(chuàng)建滑動(dòng)搜索窗口和輔助線,對(duì)角點(diǎn)進(jìn)行分類篩選,實(shí)現(xiàn)特征點(diǎn)的粗提取。具體流程為:
(1)圖像邊緣提?。菏紫葘?duì)圖像進(jìn)行降噪處理,再使用Canny 邊緣檢測(cè)[12],提取圖像邊緣,為角點(diǎn)檢測(cè)提供質(zhì)量穩(wěn)定的邊界信息。
(2)角點(diǎn)提取:本文采用Shi-Tomasi 角點(diǎn)檢測(cè)[13],如圖5 所示經(jīng)過角點(diǎn)檢測(cè)后提取到包含待提取特征點(diǎn)的一系列角點(diǎn),但是仍存在較多雜點(diǎn),需要進(jìn)一步篩選和剔除。
(3)光條與邊界的估計(jì)斜率獲?。豪肏ough 變換[14]檢測(cè)出圖像中所有的線段,并求每條線段的斜率,得到所有的斜率集合{k1,k2,…,kn},遍歷全部斜率,當(dāng)其中兩個(gè)斜率接近時(shí),即:
判定兩個(gè)斜率值屬于同一集合,歸入集合Ki={ki,kj,…,kp,kq},本文中tol 取0.05。統(tǒng)計(jì)判定后各個(gè)集合K中元素個(gè)數(shù),以元素個(gè)數(shù)最多集合中的斜率均值作為光條初始估計(jì)斜率kl:
其中,m為元素最多集合中的元素個(gè)數(shù)。
通過離線編程驅(qū)動(dòng)機(jī)器人運(yùn)動(dòng)至工件上方,在該初始工作位下,激光器發(fā)射出的光條與邊界大致垂直,所以邊界初始估計(jì)斜率kb為:
(4)角點(diǎn)分類篩選:根據(jù)圖像畫幅大小,創(chuàng)建兩條距離為d的平行線作為搜索窗口在圖像上進(jìn)行滑動(dòng)搜索(本文d取50 像素大?。?,如圖6 所示。為提高搜索效率和篩選的準(zhǔn)確性,以邊界估計(jì)斜率創(chuàng)建平行線窗口,但由于無法保證邊界與光條精確垂直,故以kb為中值,Δk為范圍創(chuàng)建搜索窗口,Δk為上一步中所有光條斜率與kl差值中最大值的絕對(duì)值,本文Δk取值0.5。所以初始平行線窗口斜率kw為:
圖4 待提取的定位特征點(diǎn)Fig.4 Positioning feature points to be extracted
圖5 角點(diǎn)檢測(cè)結(jié)果Fig.5 Corner detection result
在平行線滑動(dòng)過程中,兩條平行線方程分別為:
對(duì)于任意角點(diǎn)(xi,yi),如果:
則表示此角點(diǎn)在L2直線左側(cè),同理可判斷角點(diǎn)是否在直線L1右側(cè),若同時(shí)滿足兩個(gè)條件,則表示當(dāng)前角點(diǎn)位于平行窗口中。遍歷所有角點(diǎn),找出位于當(dāng)前滑動(dòng)窗口內(nèi)的角點(diǎn),再利用窗口內(nèi)的角點(diǎn)使用最小二乘法擬合出輔助線用以分類篩選,輔助線方程為:
對(duì)當(dāng)前平行線內(nèi)點(diǎn)按到輔助線距離遠(yuǎn)近分類,利用式(8)
式中,(xi,yi)為平行線內(nèi)的角點(diǎn)坐標(biāo)。根據(jù)理論模型離散的邊界點(diǎn)集設(shè)置距離閾值δ,本文中δ取值3,按點(diǎn)到輔助線的距離將點(diǎn)分為InLineP和OutLineP:
如果當(dāng)前窗口內(nèi)的InLineP的個(gè)數(shù)多于OutLineP的個(gè)數(shù),則保存此窗口下的擬合直線以及與其對(duì)應(yīng)的InLineP。為了防止邊界特征點(diǎn)的提取出現(xiàn)遺漏,當(dāng)前斜率的搜索窗口在圖像上全幅滑動(dòng)結(jié)束后,以0.1 為間隔增加斜率創(chuàng)建新的搜索窗口,重復(fù)以上步驟,直到斜率kw=kb+Δk為止。
(5)特征點(diǎn)粗提取:由于搜索窗口在滑動(dòng)時(shí)會(huì)有重疊,所以需要對(duì)上一步搜索得到的輔助線與對(duì)應(yīng)的InLineP進(jìn)行去重和再篩選。對(duì)于兩條近似相等的輔助線,保留InLineP點(diǎn)個(gè)數(shù)多的直線與對(duì)應(yīng)點(diǎn)。若InLineP點(diǎn)個(gè)數(shù)相同,計(jì)算InLineP中各點(diǎn)到輔助線距離的平均值,保留距離均值較小的輔助線與對(duì)應(yīng)點(diǎn)。
最后篩選出InLineP點(diǎn)個(gè)數(shù)最多的輔助線及對(duì)應(yīng)的InLineP點(diǎn)。為防止遺漏,將與此條直線斜率近似相等的輔助線及其對(duì)應(yīng)特征點(diǎn)一并提出,如圖7 所示。
圖6 平行線窗口滑動(dòng)搜索Fig.6 Parallel line window sliding search
圖7(b)中由于有兩條邊界斜率近似,導(dǎo)致邊界特征點(diǎn)提取出現(xiàn)誤判。為此,提取工件上表面固有特征以確定上邊界,本文以吸盤為固定參照物,采取對(duì)圖像進(jìn)行橢圓檢測(cè)[15]的方法,提取黑色吸盤中心點(diǎn)位置。距離橢圓中心點(diǎn)較近的輔助線對(duì)應(yīng)的InLineP點(diǎn)即為本文需要的邊界點(diǎn),如圖8 所示。
2.1.2 誤判點(diǎn)的剔除
由于投射在背景上的光條也會(huì)在圖像的工件邊界上產(chǎn)生交點(diǎn),所以經(jīng)過上一步粗提取后的角點(diǎn)中會(huì)有誤判點(diǎn)存在,故需對(duì)其進(jìn)行剔除。
利用在特征點(diǎn)粗提取中得到了光條的估計(jì)斜率kw和吸盤橢圓圓心相對(duì)輔助線的位置,以每個(gè)已提取的特征點(diǎn)為頂點(diǎn),根據(jù)圖像畫幅尺寸大小與相鄰光條間距離,按比例創(chuàng)建對(duì)角線為a個(gè)像素長(zhǎng)度的矩形,如圖9 所示。獲取矩形內(nèi)每個(gè)像素點(diǎn)的灰度值,統(tǒng)計(jì)矩形內(nèi)灰度值大于m的像素點(diǎn)個(gè)數(shù),m由圖像預(yù)處理時(shí)獲得的灰度閾值確定。若當(dāng)前角點(diǎn)所在矩形內(nèi)灰度值大于m的像素個(gè)數(shù)小于閾值n的即判定為誤判點(diǎn),并予以剔除,個(gè)數(shù)閾值n為矩形判斷框內(nèi)總像素個(gè)數(shù)的1/6。本文中參數(shù)分別設(shè)置為a=10,m=150,n=15。
2.1.3 特征點(diǎn)的位置修正
為了提高定位特征點(diǎn)的提取精度,需要通過位置修正確保提取出的特征點(diǎn)位于光條中心處。本文采用Hessian 矩陣法,在得到圖像的Hessian 二階矩陣后,利用Hessian 矩陣的最大特征值求出特征向量即為當(dāng)前特征定位點(diǎn)處光條的法線方向?;诠鈼l橫截面的能量分布規(guī)則,利用高斯曲線擬合法[16]擬合光條法向上的像素點(diǎn)集合,記錄曲線峰值點(diǎn)位置即為位置修正后的定位特征點(diǎn)坐標(biāo)。定位特征點(diǎn)的位置修正效果如圖10所示。
圖7 輔助線與對(duì)應(yīng)特征點(diǎn)的提取結(jié)果Fig.7 Extraction result of auxiliary line and corresponding feature points
圖8 橢圓中心提取與輔助線篩選結(jié)果Fig.8 Ellipse center extraction and screening results of auxiliary lines
本系統(tǒng)中利用4 個(gè)相機(jī)構(gòu)成4 個(gè)雙目立體視覺系統(tǒng),在雙目系統(tǒng)中首先需要對(duì)兩個(gè)相機(jī)采集到的特征點(diǎn)進(jìn)行匹配,本文利用極線幾何約束匹配法[17]來確定特征點(diǎn)在兩幅圖像中的對(duì)應(yīng)關(guān)系。在完成特征點(diǎn)匹配后通過三角測(cè)量法來解算特征點(diǎn)的空間坐標(biāo)。
如圖11 所示,兩相機(jī)的相對(duì)位姿變換矩陣為T=(R,T)。重建特征點(diǎn)為Pi,在兩相機(jī)坐標(biāo)系下坐標(biāo)分別為pc1(x1,y1,z1)和pc2(x2,y2,z2),在左圖中有特征點(diǎn)pl(u1,v1),對(duì)應(yīng)的右圖中有特征點(diǎn)pr(u2,v2),設(shè)兩相機(jī)內(nèi)參為K1、K2。
按相機(jī)成像幾何關(guān)系,設(shè)和為兩特征點(diǎn)的歸一化坐標(biāo):
則它們滿足:
圖9 誤判點(diǎn)的剔除Fig.9 Rejecting misjudgment points
圖10 特征點(diǎn)的位置修正Fig.10 Position correction of feature points
其右側(cè)可以看成z2的一個(gè)方程,可以據(jù)此直接求得z2。將z2代入式中,z1也可求出。求得深度后,特征點(diǎn)在相機(jī)坐標(biāo)系下的空間坐標(biāo)便可求出:
通過4 個(gè)相機(jī)之間的相對(duì)位姿關(guān)系,將各雙目系統(tǒng)下特征點(diǎn)的空間三維坐標(biāo)統(tǒng)一到同一個(gè)相機(jī)下。
為了獲取目標(biāo)工件與相機(jī)之間的位姿關(guān)系,在工件理論模型上建立工件坐標(biāo)系,提取工件上表面4 條邊界并將其離散,得到邊界在待定位工件坐標(biāo)系下的點(diǎn)集,將上一步中得到的相機(jī)坐標(biāo)系下的定位特征源點(diǎn)集P與邊界離散目標(biāo)點(diǎn)集Q進(jìn)行配準(zhǔn)。本文采用迭代最近點(diǎn)算法[18](ICP)對(duì)兩點(diǎn)集進(jìn)行配準(zhǔn),如圖12 所示。在進(jìn)行ICP 配準(zhǔn)時(shí),隨著視覺系統(tǒng)測(cè)量得到的源點(diǎn)集數(shù)量越多,配準(zhǔn)結(jié)果趨于穩(wěn)定,但測(cè)量點(diǎn)個(gè)數(shù)受限于多線激光器發(fā)射出的光條個(gè)數(shù)這一固有屬性,而測(cè)量點(diǎn)過少可能導(dǎo)致配準(zhǔn)精度過低,從而影響最終定位位姿精度。綜合考慮,本文選用的多線激光器單個(gè)可投射不少于15條光線,視覺系統(tǒng)由于測(cè)量視場(chǎng)等限制共采集到的測(cè)量點(diǎn)不少于45 個(gè)。
圖11 立體視覺三維重構(gòu)原理Fig.11 Stereoscopic reconstruction principle
圖12 點(diǎn)集配準(zhǔn)結(jié)果Fig.12 Point set registration result
使用ICP 算法將源點(diǎn)集和目標(biāo)點(diǎn)集配準(zhǔn)后即可得到目標(biāo)在相機(jī)坐標(biāo)系下的位姿再結(jié)合機(jī)器人手眼標(biāo)定獲得的相機(jī)與機(jī)器人末端位置關(guān)系末端標(biāo)定獲得的執(zhí)行器工具末端與機(jī)器人末端法蘭的位置關(guān)系,即可解算出目標(biāo)工件相對(duì)于機(jī)器人工具末端的位姿
機(jī)器人工具末端到達(dá)目標(biāo)位置的理論位姿是前期預(yù)設(shè)的參數(shù),記為結(jié)合上面所解算出的機(jī)器人工具末端的實(shí)際位姿便可建立機(jī)器人末端的理論位姿與實(shí)際位姿之間的關(guān)系,進(jìn)一步可求出機(jī)器人需要補(bǔ)償?shù)倪\(yùn)動(dòng)偏差ΔT:
在得到上述偏差矩陣后,將其轉(zhuǎn)換為六參數(shù)矩陣Δx,傳遞給機(jī)器人控制器進(jìn)行補(bǔ)償。因?yàn)橄到y(tǒng)誤差的存在,機(jī)器人無法一次完成定位,故采用迭代調(diào)姿的方法。如圖13 所示,末端初始位姿為T0,通過末端視覺測(cè)量裝置獲取相對(duì)位姿,迭代調(diào)姿2~3 次后末端位姿為T2,偏差值在設(shè)定閾值之內(nèi),完成定位運(yùn)動(dòng)。
搭建圖14 所示的試驗(yàn)平臺(tái),機(jī)器人采用KUKA KR90R3100 extra 工業(yè)機(jī)器人系統(tǒng);工業(yè)相機(jī)采用4 個(gè)像素為2452×2056 的AVT Stingray F–504 相機(jī),搭配8mm 的定焦鏡頭;結(jié)構(gòu)光發(fā)射器采用4 個(gè)Osela 3D 專用多線型激光器,輸出波長(zhǎng)為650nm;待定位工件為曲面模擬件,加工精度為0.02mm。
圖13 末端定位調(diào)姿Fig.13 End positioning and posture adjustment
試驗(yàn)中引入激光跟蹤儀作為測(cè)量基準(zhǔn),本文使用Lecia AT901–MR 型號(hào)的激光跟蹤儀最遠(yuǎn)測(cè)量距離50m,測(cè)量精度為15μm+6μm/m,本次試驗(yàn)的工作距離為2m。分別在目標(biāo)工件和執(zhí)行器末端上設(shè)置激光跟蹤儀測(cè)量靶標(biāo),靶標(biāo)在各自零件自身坐標(biāo)系下的坐標(biāo)預(yù)先標(biāo)定,利用激光跟蹤儀分別測(cè)量目標(biāo)工件上的靶標(biāo)點(diǎn)和執(zhí)行器工具端的靶標(biāo)點(diǎn),可獲得兩者分別相對(duì)于激光跟蹤儀測(cè)量坐標(biāo)系的相對(duì)位姿,聯(lián)立求解即可得到目標(biāo)工件相對(duì)于末端執(zhí)行器的相對(duì)位姿參數(shù)。試驗(yàn)具體步驟如下:
(1)機(jī)器人運(yùn)動(dòng)至待定位工件上方,使得工件處于相機(jī)視場(chǎng)中;
(2)利用本文的結(jié)構(gòu)光視覺定位系統(tǒng),控制機(jī)器人進(jìn)行調(diào)姿,直到視覺測(cè)量位姿與理論位姿偏差小于閾值時(shí)停止運(yùn)動(dòng);
(3)利用激光跟蹤儀測(cè)量當(dāng)前末端與工件的位姿關(guān)系,并與理論位姿進(jìn)行比較;
(4)使機(jī)器人末端處于不同初始姿態(tài),重復(fù)10 次上述操作,統(tǒng)計(jì)每次的定位誤差如表1 所示。
從圖15、16 中可以看出單方向的位置誤差分布在–0.2~0.2mm 之間,單方向的姿態(tài)誤差分布在–0.07°~0.07°之間。就整體而言其平均位置誤差為0.184mm,平均姿態(tài)誤差為0.038°。
本文針對(duì)工業(yè)機(jī)器人對(duì)弱紋理且無明顯定位特征點(diǎn)的目標(biāo)定位問題,研究了基于多線結(jié)構(gòu)光視覺引導(dǎo)的工業(yè)機(jī)器人定位方法,主要貢獻(xiàn)如下:
圖14 試驗(yàn)平臺(tái)Fig.14 Experiment platform
表1 定位誤差測(cè)量值Table 1 Measurement of positioning error
圖15 機(jī)器人定位位置誤差Fig.15 Robot positioning position error
圖16 機(jī)器人定位姿態(tài)誤差Fig.16 Robot positioning posture error
(1)設(shè)計(jì)了基于多線結(jié)構(gòu)光的工業(yè)機(jī)器人視覺定位系統(tǒng),建立了位姿反饋型的機(jī)器人閉環(huán)調(diào)姿模型。
(2)提出了基于角點(diǎn)檢測(cè)的多線結(jié)構(gòu)光定位特征點(diǎn)提取算法,解決了需要在工件表面粘貼視覺靶標(biāo)點(diǎn)的問題;通過特征點(diǎn)提取與立體視覺重建,得到其在相機(jī)坐標(biāo)系下的精確三維信息;利用迭代最近點(diǎn)算法,將相對(duì)位姿解算轉(zhuǎn)化為點(diǎn)集的配準(zhǔn)問題,為閉環(huán)調(diào)姿提供參數(shù)。
(3)搭建試驗(yàn)平臺(tái),此機(jī)器人定位系統(tǒng)的平均位置誤差為0.18mm,姿態(tài)誤差為0.038°,定位精度滿足抓取、裝配等作業(yè)要求,對(duì)提高工業(yè)生產(chǎn)效率和自動(dòng)化水平有重要意義。