龔 飛,謝 明,王夢佳,朱瑩瑩
(南京工業(yè)大學,江蘇 南京 211816)
基于仿人智能控制的無標定視覺伺服
龔 飛,謝 明,王夢佳,朱瑩瑩
(南京工業(yè)大學,江蘇 南京 211816)
設計了無標定視覺伺服的仿人智能控制器,仿真完成了無標定雙目視覺下機械臂的五自由度運動空間定位。選取點特征作為雙目視覺圖像特征,設計了視覺特征模型與多模態(tài)視覺伺服控制器,并在Matlab平臺下設計了五自由度運動空間的視覺定位仿真實驗,驗證了方法的有效性。
無標定;雙目視覺;仿人智能控制;Matlab
自20世紀以來,機器人的誕生是科技領域最重大的成就之一,也是衡量一個國家科技水平的重要標志[1]。作為當前主流的高新技術,機器人是機械設計、控制工程、計算機、人工智能、傳感器多學科交叉產物,并朝著示教/再現(xiàn)、傳感控制到智能控制等研究方向不斷發(fā)展。目前機器人已經被廣泛應用在眾多領域,已有成功應用在餐廳、商場等場合的服務機器人和實現(xiàn)搬運、抓取、電焊等動作的工業(yè)機器人,具有很好的應用前景。比爾·蓋茨甚至預言,機器人將改變世界,成為生活中不可代替的一部分。
目前工業(yè)機器人被廣泛用在搬運、拾取、包裝、切割、焊接等領域,這些都離不開機械臂末端的定位問題,如何快速、準確的定位到目標物體是我們研究的重點[2]。本文以MOTOMAN-MH5S工業(yè)機器人為例,研究了具有視覺定位功能的智能系統(tǒng)[3]。
基于視覺伺服系統(tǒng)的工業(yè)機器人實時跟蹤系統(tǒng)由以下幾部分組成:機器人、上位機、攝像機、圖像處理系統(tǒng)、工作臺、定位系統(tǒng)、目標物體等。通常PC機作為上位控制器,通過攝像機進行數(shù)據(jù)采集,對目標工件進行拍攝,然后圖像處理校正實際位置與期望位置的偏差,并計算出機器人末端執(zhí)行器的運動軌跡,對目標物件進行實時定位。
本實驗室有MOTOMAN-MH5S六自由度的關節(jié)型機器人,由S軸(旋轉)、L軸(下臂)、U軸(上臂)、R軸(手腕旋轉)、B軸(手腕擺動)、T軸(手腕回轉)構成,如圖1所示。
圖1 MOTOMAN-MH5S工業(yè)機器人
2.1 位姿描述
在三維空間中設有一剛體P,通常用該剛體的位置和姿態(tài)信息來描述該剛體的幾何形狀,其中剛體的位置和姿態(tài)信息又被稱為位姿。建立坐標系之后,可以用3×1的位置矢量來確定空間中任意一點的位置。例如建立一個直角坐標系{A},則剛體P的坐標為:
其中AP是位置矢量,用來表示機器人末端在空間中的位置,Px、Py、Pz是 P點三個坐標分量。另外再定義一個直角坐標系{B},將剛體 B固接與坐標系{B},則通常用坐標系{B}的單位矢量來表示剛體B相對于坐標系{A}的方位,即一個3×3的旋轉矩陣:
圖2 空間剛體的位姿
2.2 連桿坐標系
平移和旋轉運動是工業(yè)機器人相鄰連桿之間的最基本的運動,用矩陣的形式來表示關節(jié)的平移和旋轉,即坐標變換。剛體的齊次坐標描述已是空間姿態(tài)描述較為普遍的方法,相鄰連桿之間的關系通常用 Denavit和Hatenberg提出的D-H方法來確定,即用4×4的齊次變換矩陣來描述,可以表示任意數(shù)量的平移和旋轉關節(jié)的各種復雜轉動[4]。對于 6關節(jié)的機械臂而言,可以用 18個參數(shù)來描述機器人結構的固定部分,則只有6個參數(shù)是描述關節(jié)角度變量,是運動學中隨機器人變動的部分。
機械臂運動分析中,通過一個4×4的齊次變換矩陣來描述坐標系之間的位姿關系,公式表示如下:
機器人末端位姿可以通過矩陣T反過來求解出來,即在極坐標系中,末端的坐標為(px,py,pz),得到末端連桿變換矩陣。
3.1 仿人智能控制理論基礎
仿人智能控制理論(HSIC)于 1979年提出,主導思想是研究模擬人的控制行為功能,即定性地推理映射和定量控制映射[5]。其二次映射模型的主要組成環(huán)節(jié)有:特征模型辨識與記憶、多模態(tài)控制與決策、推理與決策機構等??刂破鞑捎玫目刂颇B(tài)根據(jù)不同的特征狀態(tài)做相應的調整,完成控制器的設計[6]。首先根據(jù)反饋誤差信息對特征模型 Φ(φ1,φ2,…,φn)進行辨識,識別出系統(tǒng)動態(tài)特征狀態(tài)φi,然后根據(jù)推理與決策機構Ω來判斷,選擇出系統(tǒng)多控制模態(tài) Ψ(ψ1,ψ2,…,ψn)中對應的控制模態(tài)ψi,最后完成定量地控制器輸出。
3.2 特征模型與視覺伺服控制器
仿人智能控制理論是通過模擬人的智能,弱化了控制器對模型精度的依賴,為了降低模型精度對控制器設計的影響,在控制器的設計中添加了先驗知識,依據(jù)被控對象的特性來劃分特征模型。
本文用仿人智能控制理論來解決無標定視覺伺服的動態(tài)非線性問題,根據(jù)手眼映射關系劃分出了特征模型,設計了多模態(tài)的視覺控制器,保證了在像平面內圖像特征收斂[7]。首先在上訴理論的基礎上劃分出了特征模型集 Φ={φ1,φ2,φ3,φ4},分別對應了不同的控制模態(tài);然后,設計了多模態(tài)控制器,根據(jù)映射模型的異同,將圖像特征的誤差量映射到笛卡爾空間;最后,根據(jù)李雅普諾夫穩(wěn)定性原理來判定系統(tǒng)穩(wěn)定性。
本文假設機械臂末端和目標點在笛卡爾空間中分別是 pe、pt,其對應在像平面的投影是 fe、ft,則圖像特征誤差 ef=fe-ft,笛卡爾空間距離偏差 ep=G(p1-p2),則點特征在像平面的信息誤差表示如下:
特征量 Efp用來表示點特征的偏差量最大的特征元:
然后根據(jù)特征量 Efp劃分出手眼映射關系的特征模型集。
通過設定的閾值來劃分特征狀態(tài),并判斷機械臂末端當前位置與期望位置之間的距離。根據(jù)此特征模型集Φ={φ1,φ2,φ3,φ4}給出了其與之相對應的控制模態(tài) Ψ= {ψ1,ψ2,ψ3,ψ4}。
視覺伺服控制器主要考慮到圖像特征誤差的特征模型,先判斷當前手眼系統(tǒng)的特征狀態(tài)φi,然后選擇對應的控制模態(tài)ψi,最后輸出對應的圖像特征誤差的調整量。其控制策略如下:
不同的控制模態(tài)采用不同的雅克比矩陣來調整機械臂末端的位姿,使機械臂末端能夠快速接近期望位置,其中要考慮到機械臂在空間運動中速度的限制,并且要保證機械臂的空間運動不能過超出像平面空間,還需要設定控制模態(tài)輸出量滿足特定的關系。不同控制模態(tài)所采用的目標函數(shù)如式(8)所示。
這四個公式分別對應四個控制模態(tài)所采用的目標函數(shù),對 F(q)進行泰勒級數(shù)展開,系統(tǒng)采用固定的采樣周期,使得目標函數(shù)最小化,并且對函數(shù)進行一階二階求導,最后整理求得:
為了確定手眼關系控制器的穩(wěn)定性,我們利用李雅普諾夫穩(wěn)定性原理來檢驗,定義了函數(shù):
我們忽略約束條件,為了滿足手眼系統(tǒng)的穩(wěn)定性要求,要使得導數(shù)v.<0,即 K>0,可保證視覺系統(tǒng)在像平面內誤差收斂。
我們用 Matlab 2012a搭建了視覺伺服仿真平臺,采用雙目 eye-to-hand構型,機械臂工具箱采用 Robotics Toolbox Release 9.8,設計了無標定視覺系統(tǒng)的五自由度運動空間的定位仿真圖如圖3所示。
圖3 無標定五自由度運動空間定位
該系統(tǒng)分為手眼系統(tǒng)模塊和控制器模塊設計,設計的五自由度仿人智能控制器的控制模態(tài)參數(shù)如表1所示。
表1 五自由度仿人智能控制模態(tài)參數(shù)
通過仿真得到像平面空間的圖像特征誤差曲線如圖4所示。
圖4 像平面空間圖像特征誤差曲線
由圖4可以看出,機械臂五維運動空間的圖像特征誤差量為逐漸衰減,最后目標圖像特征誤差量趨于0。各個圖像特征誤差量都在1個像素內,實現(xiàn)了基于圖像特征的機械臂視覺定位。
三維笛卡爾空間的機械臂運動軌跡如圖5所示,笛卡爾空間機械臂位置誤差曲線如圖6所示。由圖中可看出,從起始位置到期望位置,機械臂實現(xiàn)了笛卡爾空間運動的末端誤差最小。其中機械臂末端點P1在笛卡爾空間中的誤差為 ep1=[0.0091,-0.0112,-0.0354]T,P2的誤差為 ep2=[0.0031,-0.0102,-0.0254]T,定位誤差在0.01 m內,基本上實現(xiàn)了機械臂末端點在笛卡爾空間中運動誤差趨于零。
Uncalibrated visual servoing based on human simulated intelligent controller
Gong Fei,Xie Ming,Wang Mengjia,Zhu Yingying
(College of Automation and Electrical Engineering,Nanjing University of Technology,Nanjing 211816,China)
In this paper,we design a humanoid intelligent controller with uncalibrated visual servoing,the simulation of the five degree of freedom motion of the robot arm is accomplished with the uncalibrated of the binocular vision.We choose point feature as the feature of the binocular vision image,and design the visual feature model and the multi mode visual servo controller,and the visual simulation experiment of the five degree of freedom motion space is conducted under the Matlab platform,we demonstrate the effectiveness of the method.
uncalibrated;binocular vision;humanoid intelligent control;Matlab
TP391.4
A
10.16157/j.issn.0258-7998.2015.11.004
龔飛,謝明,王夢佳,等.基于仿人智能控制的無標定視覺伺服[J].電子技術應用,2015,41(11):14-16,23.
英文引用格式:Gong Fei,Xie Ming,Wang Mengjia,et al.Uncalibrated visual servoing based on human simulated intelligent controller[J].Application of Electronic Technique,2015,41(11):14-16,23.