曾鵬
提出一種基于單目視覺引導的機器人工件表面缺陷檢測系統(tǒng)。結(jié)合標定后的相機參數(shù)與物體成像以及物體虛擬投影建立的形狀模板初步估計物體的位置姿態(tài),物體的三維點云模型以一定位置姿態(tài)參數(shù)在虛擬空間的投影匹配零件真實位置姿態(tài)提升定位精度。定位完成后獲取待檢測位置的點云坐標及其法線方向經(jīng)過坐標轉(zhuǎn)換后提供給六軸機器人進行路徑規(guī)劃及機器人姿態(tài)控制,從而實現(xiàn)機器人輔助檢測。
【關鍵詞】單目視覺 機器人 視覺檢測 姿態(tài)識別
機器人柔性化系統(tǒng)在現(xiàn)代化生產(chǎn)中起著越來越重要的作用,小批量多品種加工成為未來發(fā)展的趨勢,利用工件三維模型輔助單目視覺實時定位是利用單目視覺的方法實現(xiàn)物體三維空間實時定位。
1 算法原理
1.1 物體定位
在物體定位及檢測過程中涉及物體坐標系Om、世界坐標系Ow、像素坐標系、圖像坐標系、相機坐標系Oc、機器人坐標系Ou,機器人末端坐標系Oe之間的轉(zhuǎn)換。
相機的針孔模型成像涉及像素坐標系、相機坐標系、圖像坐標系、以及世界坐標系,假設(u,v),(XW,YW,ZW)分別是相機成像平面和世界坐標系上的一點,存在著以下轉(zhuǎn)換關系:
式(1)中f為相機焦距,ax,ay分別為圖像成像的水平和垂直方向的尺度因子,u0,v0是圖像坐標系原點在像素坐標系中的坐標, R,t分別為相機坐標系相對于標定坐標系的旋轉(zhuǎn)矩陣和平移向量。
1.2 獲取目標姿態(tài)參數(shù)
在物體實際姿態(tài)與OpenGL渲染模型進行匹配時,首先讀取物體的三維模型數(shù)據(jù),在球坐標系內(nèi)以物體的幾何中心作為物體旋轉(zhuǎn)中心,每次以固定步長的角度在球坐標系中旋轉(zhuǎn)后進行虛擬投影生成渲染圖像。然后提取物體的最外層輪廓作為粗匹配的模板,并提取拍攝圖像的外層輪廓進行伸縮不變性匹配。
獲得物體姿態(tài)參數(shù),從而得到物體坐標系與相機坐標系的轉(zhuǎn)換關系即矩陣。匹配過程中采用Freeman鏈碼對物體的邊緣進行描述,并使用成對集合直方圖(pairwise geometrical histogram)進行邊緣特征的表達,二者直方圖采用直方圖相交的方法進行相似性匹配能夠獲得較好的匹配結(jié)果。Freedman鏈碼原理圖與邊緣的直方圖表示如圖1,直方圖的不同的相似性度量方式包括卡方、相關、直方圖相交以及Bhattacharyya距離,其表達式分別為式2,3,4,由于各個姿態(tài)之間相差較小,需要用較為精確地相似性度量方法,所以使用Bhattacharyya距離的方式,其表達式如式4,根據(jù)得到d值得大小判斷匹配程度,d值為0時完全匹配,d值為1時完全不匹配,取物體的任一位置在訓練好的模板上進行匹配實驗,實驗結(jié)果表明Bhattacharyya距離能獲得較高的識別正確率。
在精確參數(shù)求取時,采用L-M(Levenberg-Marquardt)算法思想,將粗略估計的模板參數(shù)作為初始迭代參數(shù),進行多次非線性迭代,便可得到精確的物體位置與姿態(tài)參數(shù)[10]。
采用3d打印的鼠標及其三維點云模型進行實驗,實驗結(jié)果如表2所示。
2 定位與圖像采集
相機及機器人標定等參數(shù)可以保存到文件中,再次使用時可以重新標定,也可讀取之前標定數(shù)據(jù),視覺定位的數(shù)據(jù)顯示在相應的圖像中,在檢測定位時可以根據(jù)檢測任務輸入檢測位置坐標(物體坐標系中待檢測位置坐標),完成特定檢測任務規(guī)劃。之后可以指定系統(tǒng)進入自動視覺定位與檢測狀態(tài)。
3 結(jié)論
本文設計了基于單目視覺的定位以及機器人輔助檢測系統(tǒng),在零件精確定位的基礎上個性化生產(chǎn)過程的零件表面檢測任務,為生產(chǎn)線零件的實時檢測提供了一個可行的方案。
參考文獻
[1]朱迪.基于特征點和方向向量的快速目標匹配算法研究[D].上海:上海交通大學,2015.
[2]Wang Zhongren,Lu Qingyan,Liu Haisheng. Visual recogIlition and location method of randomly placed parts based 0n CAD model [J]. Infrared and Laser Engineering,2015,44(S):230-235.
作者單位
大連理工大學 遼寧省大連市 116024