柯天成,李曉麗,董 鑫
(東華大學 信息科學與技術學院,上海 201620)
無人機(unmanned aerial vehicle, UAV)在攝影、軍事、環(huán)境監(jiān)測[1]、農(nóng)業(yè)生產(chǎn)[2]、交通運輸?shù)确矫姘l(fā)揮了較大的作用,并且隨著無人機技術越來越成熟,其應用場景也將逐步增加。但單架無人機起到的作用是有限的,因此執(zhí)行任務的時候需要無人機組的協(xié)同配合。例如,軍事行動中,單靠一架無人機難以完成精準打擊敵方目標的任務[3],通常都需要無人機組編隊支持。生物學家通過研究生物群體行為發(fā)現(xiàn),無序隊形相對于有序隊形來說更加費“時”、費“力”,如何更好更快地達到理想隊形引起了國內外眾多學者的興趣。
編隊控制問題在無人機、多智能體、機器人等領域已有多年的研究。倪利平[4]研究了智能體的角度對其線速度的影響,提出一種基于虛擬結構的分布式隊形控制算法,并從理論上分析了該算法的穩(wěn)定性。朱旭[5]基于行為法對無人機編隊進行了控制。文獻[6]將圖論法和領航跟隨法融合,提出一種有領航者的二階一致性算法。文獻[7]研究了具有切換和定向交互拓撲的無人機組時變編隊跟蹤(time-varying formation tracking, TVFT)的控制問題。這些隊形控制算法為無人機編隊的研究作出了很大的貢獻,但均存在一些缺陷[8]:虛擬結構法很難讓單個個體保持信息的同步;行為法難以用數(shù)學的方法進行穩(wěn)定性分析;領航跟隨法是最早提出也是目前應用最為廣泛的一種編隊控制方法,具有原理簡單、實現(xiàn)過程容易等優(yōu)點,但其穩(wěn)健性較差,一旦前級產(chǎn)生誤差,后級的誤差將會擴大,不利于精確控制。
在實際應用中,上述算法需要依靠各類傳感器、GPS全球定位系統(tǒng)等輔助設備來獲取無人機的狀態(tài)信息。但無人機的負重會影響其續(xù)航時間,因而如何降低無人機重量、延長其續(xù)航時間,同樣是一個重要的課題。魚眼鏡頭具有視野廣、重量小等特點,經(jīng)常被用于無人機的通信組網(wǎng)[9]。本文提出的算法以裝載單目魚眼鏡頭小型無人機的特征為基礎,建立無人機運動學模型,僅依靠魚眼鏡頭提取的視覺信息實現(xiàn)無人機組編隊控制。雖然帶有魚眼鏡頭的相機視角(field of view, FOV)可以超過200°,但依然會存在視覺盲區(qū)。這使得依靠這種通信方式工作的無人機的協(xié)同能力受到嚴重限制[10-12],如何避開盲區(qū)并使通信暢通是本文研究的重點方向之一。
本文提出特定的代價函數(shù)用以設計避盲算法,從而使無人機之間始終保持通信。在避盲算法的基礎上,引入信息一致性的分布式控制策略,以形成并保持期望的隊形,最后通過數(shù)值仿真對所提出的控制方法進行驗證。
大雁是一種常見的候鳥,其遷徙時的獨特隊形引起了不同領域科學家的關注[13-14]。無人機組和大雁群之間存在很多相似之處[15-16],Li等[17]研究發(fā)現(xiàn)無人機飛行與大雁飛行存在共性,并利用線性系統(tǒng)理論給予了證明。這為本文研究無人機的控制方法提供了便利,即利用大雁飛行具有盲區(qū)的視覺特點,將具備這種視覺特點的模型應用于僅裝有魚眼鏡頭的小型無人機組。魚眼鏡頭的廣角很大[18],如同大雁的眼睛一般[17],可以看到至少-30°~210°的事物,如圖1所示,β為大雁的可見視角。
圖1 大雁飛行的可見視角Fig.1 Visible view of flying geese
然而,前方的無人機可能看不到后方的無人機,即本文所述的視覺盲區(qū),如圖2所示。
圖2 無人機視覺盲區(qū)模型Fig.2 The vision blind zone model of UAV
第1步:確定無人機i,其相對無人機j的角度cosγij為
cosγij=f(xi,yi,xj,yj,θj)=
(1)
式中:‖‖表示距離。
第2步:確定無人機i、j之間的距離dij,如式(2)所示。
(2)
第3步:確定無人機的最長通信距離,即魚眼鏡頭的最長測距Rs[19]。
(3)
為便于描述無人機組的數(shù)學模型,采用二階系統(tǒng)的無人機運動學模型[5],如式(4)所示。
(4)
式中:xi、yi分別為第i架無人機x軸和y軸方向的坐標;θi為第i架無人機前進的方向,i=[1, 2, …,n]。
這個模型的優(yōu)點在于簡單易懂,缺點是沒有考慮實際情況下的飛行高度與飛行姿態(tài)。由于本文不需要討論三維空間中無人機組的編隊飛行,因此這個模型還是切合本文需求的。
為描述無人機的運動學問題,采用Denavit和Hartenberg提出的D -H矩陣代數(shù)方法,該方法的幾何意義直觀,能較好地解決動力學、計算機視覺和比例變換問題,其數(shù)學基礎是齊次變換[20]。其中矩陣Ri能夠反映無人機的位姿(位置和姿態(tài)),對其描述如式(5)所示。
(5)
由于本文中每架無人機通過魚眼鏡頭獲取的信息是相對于以己身為原點的坐標系而言的,因此需要將不同無人機的位置信息轉換到世界坐標系下。以無人機i為例,其所在位置為坐標原點,飛行方向為y軸,沿y軸方向順時針旋轉90°為x軸,得到相對坐標系Fi。記F為世界坐標系,F(xiàn)與Fi之間轉換如圖3所示。在坐標系Fi(x′Oy′)下點P的坐標為(s′,t′),坐標系Fi繞點O順時針旋轉θ角度后得到F(xOy),那么點P在坐標系F(xOy)下的坐標為(s,t)。
圖3 坐標系旋轉變換示意圖Fig.3 Schematic of coordinate system rotation transformation
利用三角函數(shù)可以得到旋轉后的坐標系F(xOy)中的坐標點(s,t)為
s=s′cosθ-t′sinθ
(6)
t=t′cosθ+s′sinθ
(7)
同理,可得平移坐標系后的坐標點(s,t)為
s=s′-a
(8)
t=t′-b
(9)
綜上所述,經(jīng)旋轉、平移變化后的新坐標為
(10)
式中:P=[s,t]T,P′=[s′,t′]T。
從第2節(jié)的數(shù)學模型可以看出,基于視覺信息的無人機編隊雖具有一定優(yōu)越性,但無法實現(xiàn)所有編隊的控制,即部分隊形會導致圖像信息缺失,從而無法通過控制器對無人機組進行控制。因此,需設定一些約束條件以避免這種現(xiàn)象的發(fā)生。
由第2節(jié)中對“視覺盲區(qū)”的描述可以得出:
(11)
另外的約束條件為對無人機組隊形的期望,即隊形達到預先設定的期望并保持穩(wěn)定。用相對位置描述無人機的隊形,如式(12)所示。
hi-hj=Pi-Pj
(12)
對于無人機i而言,期望的隊形為
(13)
對于無人機組而言,整體的相對位置為
(14)
當實際位置和期望位置使得式(14)成立時,可以認為整個無人機組的飛行編隊達到期望狀態(tài),即在保持速度和飛行方向相對不變的情況下,無人機組可持續(xù)保持隊形穩(wěn)定。
根據(jù)“視覺盲區(qū)”的物理刻畫來設計代價函數(shù),即對“視覺盲區(qū)”這一概念進行數(shù)學描述。通過代價函數(shù)J規(guī)范邊界值、編隊等信息,如式(15)和(16)所示。
(15)
(16)
式中:E為位置信息函數(shù),當無人機組達到期望相對位置時,E為0。
(17)
設定比值關系函數(shù)Vij表示實際與期望的距離信息,為消除由于符號引起的誤差,其值為非負數(shù)。
(18)
本文所設計的代價函數(shù)包含角度、位置及編隊信息,將多種信息融合在同一個代價函數(shù)中,不僅可以簡化公式,還能使代價函數(shù)成為控制律中的一項。利用梯度下降法尋找最優(yōu)解,最終使無人機達到期望狀態(tài)。
在第2節(jié)對盲區(qū)的刻畫中,已提及最遠視距,表明每架無人機的視線是有范圍的,不可能到達無窮遠處,但超過Rs后代價函數(shù)可能會發(fā)生突變。為使函數(shù)平滑,引入光滑函數(shù)ρ(dij)[17],如式(19)所示。
(19)
設計避盲編隊控制器的目的是使代價函數(shù)降為最小值。當代價函數(shù)降為最小值時,無人機組將達到理想狀態(tài),如果還想要保持穩(wěn)定,各架無人機的速度須保證一致。因此,設計如式(20)和(21)所示的控制器。
(20)
(21)
通過計算、化簡可以得到Jij和Jji,如式(22)和(23)所示。
(22)
(23)
通過獲取無人機局部相對狀態(tài)信息,用代價函數(shù)對“視覺盲區(qū)”進行刻畫,并在代價函數(shù)中加入了位置信息,結合速度一致性理論,最終提出這種可實現(xiàn)自主控制的編隊算法。這種算法適用于裝載了單目魚眼鏡頭、依靠魚眼鏡頭獲取局部相對位置的小型無人機組的編隊飛行。
在實際仿真模擬時,設定3架無人機的初始位置(需3者互在對方的盲區(qū)外),設盲區(qū)角α=30°,通信距離Rs=200 m。通過上述視覺盲區(qū)的代價函數(shù)及速度一致性算法進行數(shù)值仿真計算,設定采集時間為0.01 s。3架無人機的初始狀態(tài)如表1所示。
表1 3架無人機的初始狀態(tài)Table 1 Initial states of the three UAVs
同理,機組期望隊形的設置也要求每架無人機互在彼此的盲區(qū)之外,期望的編隊隊形、航向如表2所示。
表2 3架無人機的期望狀態(tài)Table 2 Expectation states of the three UAVs
基于有限視覺信息編隊控制的仿真結果如圖4所示,圖中3條曲線分別表示3架無人機的運動軌跡。在3架無人機進行編隊飛行時,每架無人機都在其他無人機的盲區(qū)外,同時通過速度一致項的作用,無人機組最終達到期望相對狀態(tài)(如表2所示)。達到期望相對狀態(tài)后,無人機組會根據(jù)預編隊隊形穩(wěn)定飛行。
圖4 基于有限視覺信息編隊控制仿真過程圖Fig.4 Process chart of formation control simulation based on limited visual information
無人機組最終狀態(tài)的數(shù)值仿真結果如表3所示。
表3 3架無人機的最終狀態(tài)Table 3 Final states of the three UAVs
此外,用本文的控制算法對在盲區(qū)外(α=30°)的無人機組進行數(shù)值仿真,結果表明,無人機組漸近收斂到期望的速度和航向,最終形成不同形狀的編隊隊形,如圖5所示。由于每架無人機均位于其他無人機的盲區(qū)外,在形成隊形的過程中無人機之間不會發(fā)生碰撞。
圖5 不同形狀的編隊效果Fig.5 Formation effects in different shapes
為解決動態(tài)環(huán)境中的無人機組編隊控制問題,本文引入代價函數(shù)來處理魚眼鏡頭獲取的視覺信息,并考慮視覺約束與最終位置期望,設計所對應的控制器。利用梯度下降算法將無人機組逐漸控制到穩(wěn)定的預先指定的編隊位置,避免無人機之間發(fā)生碰撞。仿真結果驗證了本文理論研究的有效性。