劉江濤,陳奕梅
(天津工業(yè)大學 電氣工程與自動化學院,天津 300387)
視覺傳感器相較于其它傳感器視覺傳感器可以獲得更為豐富的環(huán)境信息,隨著圖像處理與計算機視覺技術(shù)的發(fā)展,視覺傳感器越來越多的被應用到機器人運動控制領(lǐng)域,從而進一步加強了機器人的靈活性并擴展了機器人的工作空間[1-5]。文獻[6]對視覺伺服系統(tǒng)的最新研究成果進行了詳細的介紹,其中對于移動機器人上搭載單目攝像機的視覺伺服控制系統(tǒng)的研究,主要集中在提高視覺系統(tǒng)對圖像噪聲、特征誤差匹配等因素的魯棒性和對移動機器人運動控制的實時性、靈活性的進一步改善。文獻[7]中提出了一種基于單應性矩陣的切換控制算法,實現(xiàn)了移動機器人的視覺伺服鎮(zhèn)定。Mezouar等提出基于圖像的輪式移動機器人視覺路徑控制方案,視覺伺服方面采用基于幾何約束的信息反饋:對極幾何或三焦張量[7]。
本文采用的2DTT即二維三焦點張量,2DTT視覺信息采集系統(tǒng)與單應矩陣相比能夠充分利用二維圖像中的信息,從而獲得機器人在視覺場景中的估計值與真實值之間的固定比例關(guān)系,進而可以得到機器人在運動中的唯一的相對位姿關(guān)系。文獻[9]在采用2DTT估計機器人實時位姿的基礎上采用了一種反饋線性化控制器以實現(xiàn)機器人的位置鎮(zhèn)定,但對于2DTT中的未知深度問題并未實現(xiàn)自適應控制。
文獻[10]中采用單應矩陣實現(xiàn)了移動機器人的自適應伺服鎮(zhèn)定,本文在文獻自適應伺服鎮(zhèn)定的基礎上采用了2DTT來進行視覺信息的采集。文獻[11]提出了通過滑模算法使移動機器人的速度趨于期望值而實現(xiàn)軌跡跟蹤??紤]到在機器人視覺伺服控制的過程中存在由于期望速度與機器人實際運動速度差值過大,引起的抖動問題,本文采用將自適應控制鎮(zhèn)定器得到的運動路徑作為虛擬軌跡,采用滑模速度跟蹤控制來使機器人的實際運動速度趨于期望速度,來解決機器人鎮(zhèn)定過程中的抖動問題。
圖1中給出了機器人視覺伺服過程中的坐標關(guān)系描述,如圖Di,Dr,De分別表示機器人的初始位姿,當前位姿,期望位姿坐標(本文中將攝像機坐標系與機器人做重合處理)。坐標De中ze坐標軸為機器人前進方向,xe坐標軸為機器人輪軸方向,ye軸垂直地面向下(對Di,Dr坐標系的描述同上)。β為zi軸與ze軸的夾角,φ為zr軸與ze軸夾角。Pi為特征點中的第i個點。(注:本文中的坐標定義符合右手定則,β,φ取逆時針方向為正)
根據(jù)上述場景描述下可以得出從De到Dr的旋轉(zhuǎn)矩陣為Rre與平移向量tre,從De到Di的旋轉(zhuǎn)矩陣為Rie與平移向量tie
(1)
(2)
其中,sφ、cφ分別為sinφ、cosφ的簡寫,sβ、cβ分別為sinβ、cosβ的簡寫。
以De為參考坐標系得出De,Dr,Di對應的攝像機矩陣分別為Qe,Qr,Qi[8]
(3)
對于特征點Pi在坐標系De,Dr,Di中的真實位置坐標為分別為Pei,Pri,Pii,特征點Pi在坐標系De,Dr,Di中攝像機采集到的圖像上的坐標為分別為pei,pri,pii。
由攝像機的成像原理可以得到,在同一參考坐標系下,特征點的真實坐標Pi與攝像機采集到的圖像坐標pi有如下關(guān)系
(4)
其中,K為攝像機的內(nèi)參數(shù)矩陣,zi為特征點在參考坐標系下前向軸的真實坐標。
則可以得到Pi在參考坐標系下的歸一化坐標
(5)
本文鎮(zhèn)定控制采用機器人極坐標運動學模型
(6)
如圖1所示,式(6)中的運動模型是以De為參考坐標系建立的,用(zer,xer)表示機器人在De下的相對當前位置,θ表示從機器人當前位置到期望位置的向量與ze軸正方向的夾角。α為從機器人當前位置到期望位置的向量與zr軸正方向的夾角,e為從機器人當前位置到期望位置的向量的模。
圖1 機器人視覺伺服過程中的坐標關(guān)系
三角點張量的矩陣為H={T1,T2,T3},其中
(7)
H與攝像機矩陣(3)的關(guān)系如下[8]
Tj=qij(qr4)T-qi4(qrj)T
(8)
其中,取j=1,2,3,qij,qrj分別表示Qi,Qr的第j列,qi4,qr4分別Qi,Qr表示的第4列,整理可得出
(9)
式(9)中給出了本文相關(guān)的兩個運算變量的整理結(jié)果,具體的整理結(jié)果可以參見文獻[12]。
H與Pi在De,Dr,Di下對應的歸一化圖像坐標有如相關(guān)系[12]
(10)
(11)
采用De與Di之間的實際距離L對H進行歸一化有
(12)
(13)
其中,因為估計的位姿信息與實際的位姿信息僅相差一個比例因子,所估計的角度值與實際值相等。
由式(6)、式(13)得出
(14)
根據(jù)式(6)、式(13)可以得出在視覺估計的機器人在極坐標下的開環(huán)運動學誤差模型為
(15)
當es,α,θ趨于0時機器人可以從當前位置到達期望位置,所以本文采用自適應控制器控制式(15)中的誤差量趨于零。
設計自適應控制器為
(16)
由于視覺估計的位置信息與實際的位置之間相差一個未知量k∈R+,所以需要針對這個未知量設計一個更新律
(17)
(18)
(19)
控制器穩(wěn)定性驗證取Lyapunov函數(shù)如下
(20)
對V1求導并將式(16)代入得
(21)
其中
(22)
由式(17)和式(19)可以得出
(23)
由式(18)中限制條件可得
F?≤0
(24)
以De為參考坐標系,如圖1所示移動機器人運動學模型為
(25)
非完整約束條件為
(26)
移動機器人動力學模型為
(27)
將式(25)求導代入式(27)得
(28)
其中,τ=[τrτl]T,τr,τl分別為右輪和左輪的輸出力矩
(29)
m為機器人質(zhì)量,r為驅(qū)動輪半徑輪,驅(qū)動輪軸為2L,I為轉(zhuǎn)動慣量。
取τ1=(τr+τl)/r,τ1=L(τr+τl)/r則可以寫為
(30)
將自適應控制器的輸出速度信號作為期望速度Ve=[vω]T,則對于實際速度Vr速度誤差σ,選擇如下滑膜面實現(xiàn)滑膜控制
(31)
(32)
其中,η=[ηd1ηd2]T為滑模積分常數(shù)且η∈R+。
對式(32)求導并將式(30)、式(31)代入得
(33)
(34)
切換控制器τsw
(35)
其中,ζ1,ζ2>0。
則動力學控制器為
(36)
控制器穩(wěn)定性驗證取Lyapunov函數(shù)如下
(37)
對求導得
(38)
機器人參數(shù)m=33 kg,2L=0.5 m,d=0.4 m,2r=0.19 m。其中,m為機器人質(zhì)量,2L為機器人直徑,d為機器人兩輪軸間距,2r為驅(qū)動輪的直徑。
實驗中參數(shù)設置如下機器人的初始位姿為(-1.05 m,-1.18 m,-0.49 rad),機器人的期望位姿為(0 m,0 m,0 rad),自適應控制器參數(shù)為λ=0.1,l=0.23,H=051,J=0.12,kmin=1.56。
圖2~圖5均為采用滑模速度控制后的實驗曲線圖,圖2為運動軌跡圖。圖3中為位姿誤差收斂曲線,e1為距離誤差,e2為機器人朝向角誤差。圖4為線速度變化曲線,(圖4~圖7中點劃線為自適應控制器得出的期望速度,實線為通過采集機器人輪轉(zhuǎn)速折算出的實際的運動速度),圖5為角速度變化曲線,圖6、圖7給出了未采用滑模速度控制的線速度變化曲線和角速度變化曲線。
圖2 機器人運動軌跡
圖3 位姿誤差收斂曲線
圖4 線速度變化曲線
圖5 角速度變化曲線
圖6 未使用滑??刂凭€速度變化曲線
圖7 未使用滑模控制角速度變化曲線
通過圖2~圖5的收斂曲線可以看出本文提出的伺服系統(tǒng)具有良好的穩(wěn)定性與收斂性能。2DTT可以充分利用二維圖像中的信息,所以可以更為準確得到機器人在移動中的相對位置信息并且不受機器人運動狀態(tài)的干擾,但是由于數(shù)據(jù)處理量較大,在控制機器人運動過程中存在是性較差的問題。由圖6~圖7的速度曲線可以看到在未使用滑??刂七M行速度跟蹤時,由于2DTT的實時性較差,實際的速度曲線與期望速度曲線存在較大的差值且存在一定的抖動。為了改善這一問題,在圖4~圖5的速度曲線中采用了滑??刂七M行速度跟蹤控,可以看出實際的速度曲線與期望的速度曲線間的差值明顯減小且逐漸趨于一致,速度曲線的抖動問題也得到明顯改善。由于實際速度趨于期望速度的過程變快也使機器人的運動速度在一定程度上得到提高,控制機器人到達期望位置的時間縮短,控制效率得到改善。
圖8給出了和圖2同次實驗中特征點在圖像平面上的運動軌跡,其中三角與星形分別為機器人在期望位姿處與初始位姿處對應的圖像特征點。圖9給出了自適應比例因子k的變化曲線。
圖8 特征點在圖像平面上的運動軌跡
圖9 自適應比例因子k
本文首先介紹了2DTT視覺信息估計方法,并在文獻[10]中視覺伺服控制的基礎上,采用比文獻中具有更強視覺魯棒性的2DTT來對機器人的實時位置進行估計。增強了視覺伺服系統(tǒng)的魯棒性。并通過設計滑膜速度跟蹤器,使機器人的實際運動速度趨于自適應控制器得出的期望速度,解決機器人在運動中存在的速度變化時的抖動問題,由于趨于期望速度使機器人的實際運動速度加快,可以加快機器人向期望位姿的收斂。通過實驗分析驗證了本文提出視覺自適應系統(tǒng)的魯棒性和穩(wěn)定性,以及滑膜速度跟蹤的可行性與有效性。