• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      單目視覺移動機器人導航算法研究現(xiàn)狀及趨勢

      2021-03-09 16:40:56方東君李維剛
      計算機工程與應用 2021年5期
      關鍵詞:單目移動機器人機器人

      蔣 林,方東君,雷 斌,李維剛

      1.武漢科技大學 冶金裝備及其控制教育部重點實驗室,武漢430081

      2.武漢科技大學 機器人與智能系統(tǒng)研究院,武漢430081

      移動機器人在人們生活中的應用愈加廣泛,如家政、救災、安防等方面。為了使機器人能按照人的需求完成任務,需要機器人能擁有自主判斷周遭環(huán)境并進行路徑規(guī)劃的能力。目前,移動導航機器人常用的傳感器按照安裝位置可以分為內(nèi)部與外部傳感器[1]:內(nèi)部傳感器例如激光、雷達、視覺、IMU等,從環(huán)境中提取特征點建立模擬環(huán)境,間接性為機器人提供環(huán)境信息,易受噪聲影響;外部傳感器有GPS、導軌、標志物等,通過預先標定,直接為機器人提供環(huán)境信息,受噪聲影響較小。由于GPS在室內(nèi)失效、標志物繁瑣且各個室內(nèi)環(huán)境布局各不相同,不能布置導軌等因素導致外部傳感器已逐漸不能滿足多樣化的環(huán)境應用,而激光、視覺等內(nèi)部傳感器近年來由于其可跟隨性和較好的魯棒性,在機器人導航領域的研究中占據(jù)了主導市場。

      激光雷達擁有精確、快速、計算量小的特點,在機器人導航中可以較為方便地獲取環(huán)境深度信息,但存在價格昂貴、體積大等問題[2]。視覺傳感器便宜、輕量、信息豐富,且擁有較好的隱蔽性,但計算量大、對環(huán)境假設性強且易受干擾[3]。一系列實驗證明,視覺傳感器受磁場或傳感器相互間干擾影響較小,將視覺應用到機器人上是目前最為接近人類的方式使機器人感知到環(huán)境[4]。在采樣速率上,由于可以使用高速的視頻采集卡,所以視覺傳感器的速率遠高于激光雷達。從前面兩者的外型、應用等方面的比較不難看出,將視覺傳感器融入移動機器人導航技術對智能機器人的發(fā)展有不可估量的作用。

      在視覺導航算法中,有單目、雙目、RGB-D、多目相機作為主流的應用傳感器。雙目系統(tǒng)可以簡便地計算出深度且距離不受限,但隨著精度要求的提高,配置和計算量上負擔也很大,如文獻[5-6]提出的雙目定位、導航系統(tǒng);RGB-D相機雖然有距離限制,但可以主動獲取深度信息且計算簡便,如文獻[7]即是利用該優(yōu)勢提出RGBDSLAM實現(xiàn)了比ORBSLAM更高的定位精度;單目相機相比于前面兩者擁有成本低、距離不受限的優(yōu)勢,而且在機器人應用中的魯棒性和效率上達到了不錯的平衡?,F(xiàn)階段的單目導航算法經(jīng)過學者的努力已實現(xiàn)目標檢測、單目測距、跟蹤等任務,文獻[8-14]是在單目的基礎上實現(xiàn)了導航與定位,取得了不錯的效果,但仍存在尺度不確定性和初始化問題,這兩個問題也是單目算法發(fā)展史上最大的障礙。此外,由于視覺傳感器的使用對環(huán)境的辨識度要求比較高,在多樣化的場景下使用單目視覺導航算法仍面臨著不同的困難,故單目視覺導航算法目前在室內(nèi)應用較多,而更復雜和不確定的室外環(huán)境則是雙目或多目視覺應用居多。綜上可見,對單目視覺的進一步研究攻克環(huán)境的復雜性、不確定性,于機器人導航發(fā)展而言,具有極其重要的意義。

      最初的單目視覺導航算法以檢測固定標識為核心,該類算法首先被應用于工業(yè)搬運(AGV),后來在海岸巡檢中也得到利用[3],最常用的有canny、sobel等邊緣檢測算子作為算法支撐。但此類方法核心在于依靠標記進行位姿估計和路徑規(guī)劃,十分依賴于明顯標志或邊緣痕跡,從而對環(huán)境有限制,當?shù)孛鏇]有標志或痕跡復雜時,上述方法應用效果不佳甚至失效。經(jīng)過一段時間的發(fā)展,有學者從圖像入手,利用單目獲取的圖像中包含的環(huán)境信息作為移動機器人導航的重要決策因素,在這一時期內(nèi),出現(xiàn)了SIFT(Scale Invariant Feature Transform)、SURF(Speeded Up Robust Features)等眾多從圖像中檢測特征點的算子。該類算法較之前的區(qū)別在于機器人可不再依靠固定標志,能從圖像中主動判斷環(huán)境中的障礙信息,其最具代表性的是將特征檢測和濾波結合的改進FAST算法[15],同時具備了快速和精確兩大特性。

      由于單目易受到光照、陰影等因素影響,單一的邊緣或特征檢測算子不足以達到理想的導航效果,后有學者從顏色空間模型入手,使得圖像更為貼切人類的視覺規(guī)律,代表性的有文獻[16]所提出的HSI顏色空間模型,將獲取的圖像特殊處理后再進行檢測。以前者為參考,有學者開始將語義信息與單目視覺融合,提高了環(huán)境信息的利用率與導航魯棒性。與此同時,多傳感器融合憑借互補的優(yōu)勢成為時下的研究熱點,如單目與雷達的結合全面提升了單目導航的精確性,如文獻[4]為了實現(xiàn)檢測速度、位姿估計以及導航魯棒性的全面提升,結合單目、雷達以及語義地圖三者優(yōu)勢提出了融合導航系統(tǒng)。

      除對周圍環(huán)境檢測識別外,移動路徑規(guī)劃也是移動機器人導航算法中極其重要的一部分。主流的路徑規(guī)劃按照范圍主要分為全局路徑規(guī)劃和局部路徑規(guī)劃,單目視覺移動機器人在未知環(huán)境中僅能依靠攝像機在有限的視場范圍內(nèi)獲取有限的局部環(huán)境信息,所以在初次環(huán)境建模中,使用局部路徑規(guī)劃能有更好的效果,若要向指定點前進,則全局與局部結合會產(chǎn)生更好的效果。SLAM(Simultaneous Localization And Mapping)根據(jù)使用傳感器不同分為激光SLAM和視覺SLAM,可使機器人在完全未知的環(huán)境中創(chuàng)建地圖,同時利用地圖進行自主定位和導航。SLAM最初由Davison等[17]實現(xiàn)并建立了應用模型,直到Klein和Murray[18]提出將跟蹤和建圖線程并行運行的方法,基于關鍵幀的SLAM憑借更高的精度有了立足之地?,F(xiàn)在,廣大學者更是從深度學習、語義、多傳感器融合等諸多方面開發(fā)SLAM在導航方面的潛在應用價值。

      根據(jù)實際需要以及已有的單目視覺導航算法,可以將視覺移動機器人導航的主要任務理解為:首先通過機器人自身所配的傳感器對作業(yè)環(huán)境進行檢測以確定位置,然后將所檢測到的距離、特征點等環(huán)境信息傳給控制臺,再由控制臺對環(huán)境進行分析決策出合適的路徑規(guī)劃。

      為了移動機器人在作業(yè)過程中可以實現(xiàn)僅依靠單目攝像頭便能完成測障、路徑規(guī)劃等任務的效果,對室內(nèi)移動機器人的作業(yè)環(huán)境作以下假設[10]:

      (1)移動機器人在初始位置處沒有障礙物;

      (2)移動機器人作業(yè)環(huán)境中整體地面平整;

      (3)在移動機器人作業(yè)上空沒有懸掛障礙物;

      (4)移動機器人視場內(nèi)所檢索到的障礙物與地面的交界線在圖像中可見。

      并將單目視覺導航算法劃分為障礙物檢測、定位和導航三個部分。下面將以時間為線,對單目視覺導航算法各部分的典型算子進行分析、總結。

      1 單目視覺障礙物檢測算法

      利用視覺傳感器提取周圍環(huán)境特征是視覺移動機器人導航的基礎,如角點、邊緣等具有特殊環(huán)境信息的特征。在Nevatia R提出的模板匹配方法首次被應用在障礙檢測算法后,越來越多的人開始在數(shù)學運算和像素上著手突破。同時,以Harris角點檢測算法[17]為代表的基于特征點的描述算子也展現(xiàn)出良好的應用效果。在此基礎上,各式基于環(huán)境特征點信息的視覺算法在障礙檢測領域中得到了廣泛的研究。

      1.1 特征檢測與匹配算子

      無論是在結構化環(huán)境或者是非結構化環(huán)境中,總會存在光照等影響因素,從而導致常規(guī)的特征提取與匹配算法在圖像處理中的應用效果不夠理想,表1總結了近年來最為常用且具代表性的特征匹配算法在檢測速度、精度以及特征提取性能比對。

      表1 特征匹配算子

      SIFT是Lowe提出的尺度不變特征檢測法,該算法的獨特在于使用了歐氏距離比率判斷一定范圍內(nèi)的特征點是否匹配,并佐以閾值進行輔助,相比普通的算法擁有更高的精度。

      SURF由于其計算量小的優(yōu)勢,在速度上比SIFT快了一個數(shù)量級,從而更適用于實時匹配要求高的場景,而SIFT不僅提取量大,計算量也大,故速度上相比表中的幾類算法均要慢許多,但SIFT是基于浮點內(nèi)核計算特征點的,故在精度上的效果比SURF略高,適用于匹配精度較高的場景。

      ORB(ORiented Brief)[19]是BRIEF算法的改進版。原BRIEF的優(yōu)點在于其速度,其缺點是不具備旋轉不變性、對噪聲敏感以及不具備尺度不變性。而ORB即是為了解決BRIEF算法中前兩個缺點而誕生的,穩(wěn)定性更強,且由于有FAST(Features from Accelerated Segment Test)的加持,速度也得到了很大的提升,故在計算機視覺領域內(nèi),ORB算法的綜合性能在各種測評里相比其他特征提取算法幾乎是最好的。有學者對前三種算法進行測驗,得出ORB算法比SIFT算法快100倍,比SURF算法快10倍的結論。

      FAST是專門用來快速檢測興趣點的算子,只需要對比幾個像素,就可以判斷是否為關鍵點[4]。該算法檢測的核心是以某個點為中心作一個圓,根據(jù)圓上的像素值判斷該點是否為關鍵點,這樣可以大幅度地提高檢測效率,并且其判斷的標準不同于前面的檢測算法,是憑圓上所有像素的強度值是否都與圓心的強度值明顯不同來進行認定的,這使得檢測速度非???,因此十分適合需要優(yōu)先考慮速度的應用,如實時視覺跟蹤、目標識別等。

      標準RANSAC算法[20]是一種應用廣泛的誤匹配剔除算法,但該算法隨著匹配點個數(shù)增加,算法迭代次數(shù)會迅速上升,降低了算法的計算速度。一點RANSAC[20]與普通RANSAC相比,前者采用先驗信息,降低了數(shù)據(jù)集的大小,減少了RANSAC迭代次數(shù),從而降低了計算成本,速度也有所提升。

      此外,融合特征匹配法往往能展現(xiàn)出比單一算子更好的效果,如文獻[20]分析了一點RANSAC導航算法匹配失效問題,并用SIFT算子作為輔助匹配,解決了視覺主動匹配失效問題,提升了導航精度;文獻[21]將擴展卡爾曼濾波和一點RANSAC算法結合,在確保計算精度的同時,有效降低了算法迭代次數(shù),使機器人定位與導航的時效性得到了保證。文獻[15]將改進的FAST算法與基于擴展卡爾曼濾波的一點RANSC算法結合,在角點提取過程中剔除了部分邊緣點和局部非極大值點,提高了角點提取的速度與質量,在保證算法魯棒性的同時有效降低了算法迭代次數(shù),提高了算法的實時性,而且在周圍環(huán)境發(fā)生變化時也能夠保持較高的匹配精度和魯棒性。

      還有諸如LBP、Harr等很多的特征檢測算法,大致檢測方法與上類似,只是各自的側重點不同,對于不同的應用環(huán)境應該選用與之相應的算法。

      1.2 基于HSI顏色空間的特征檢測

      在使用視覺對障礙物進行檢測的過程中,光照條件是一個干擾極大的因素。當移動機器人處于未知環(huán)境下時,光照條件也無法預測,而目前使用最多的顏色空間模型多數(shù)是面向硬件的,與人類感知顏色的規(guī)律還是有不小的差距,其中以RGB顏色模型為代表[10]。相關實驗證明,HSI顏色空間模型建立在人類對顏色感知的基礎上,相比RGB更符合人類的視覺規(guī)律。將HSI模型應用在特征檢測領域可以有效降低光照等因素帶來的影響,從而大幅度提高檢測的準確性與魯棒性。

      通過HSI顏色空間進行障礙物邊緣檢測有獨特的優(yōu)勢[8]:

      (1)在HSI模型中色度分量與亮度分量是分開的,圖像的彩色信息和I分量無關,有利于避免光強變化對彩色圖像處理帶來的影響。

      (2)根據(jù)轉換公式可以推得H分量具備以下特征:①對RGB三分量的等比例變化具有不變性;②對RGB三分量的等量偏移具有不變性。轉換公式如下:式中,H為色調(diào),S為飽和度,I為亮度。

      (3)在HSI模型中,色調(diào)H和飽和度S互相獨立并與人的感知緊密相連,使得HSI模型非常適合模擬人的彩色感知視覺特性進行處理分析。

      從以上關系可知,獨立出來的顏色成分受光照變化影響很小,因此在室內(nèi)環(huán)境中能夠有效地避免由于陰影和光照變化給圖像信息處理帶來的影響,保證了從圖像信息中檢測出障礙物準確率。

      文獻[16]提出將HSI顏色空間模型應用于單目視覺機器人障礙物檢測模塊。從提取方式上看,該算法優(yōu)勢在于使用了非極大值抑制、閾值選取,使獲取的圖像邊緣更加細膩且二值化后更明顯,邊緣像素點掃描法為精確提取邊緣也作出了巨大貢獻。此外,從圖像效果上看,該算法將圖像劃分為可行駛區(qū)域和障礙區(qū)域,大幅減小了光照等因素對障礙物檢測造成的影響,提高了障礙物檢測的精度。

      文獻[8]提出一種基于HSI顏色空間模型改進的單目導航算法,與文獻[16]不同的是該算法采用了分量處理和區(qū)域生長分割法,進一步提高了檢測效果,并在對像素操作過程中,采用隸屬度劃分并建立模糊規(guī)則庫,進一步提高了視覺控制系統(tǒng)的魯棒性和輸出命令的可靠性。

      1.3 背景差分法與幀間差分法

      背景差分法是對視頻圖像序列中的當前幀與背景圖像做差分運算,得到的二值圖像中就標注了運動目標的區(qū)域[22]。應用于移動機器人的障礙物檢測時,隨著移動機器人的不斷運動,視頻圖像的背景也在不斷變化,所以需要進行背景圖像的更新,然后再對當前幀和背景圖像做差分運算。而圖像中的運動目標和背景圖像在灰度上存在的差異為區(qū)分是否為運動目標提供了條件,通過閾值處理即可分辨。

      由于背景差分法的的原理比較簡單,檢測運動目標的速度快且易于實現(xiàn),所以被廣泛使用于動態(tài)障礙物檢測過程中。為了應用該法解決單目移動機器人測障問題,參考動態(tài)障礙物考慮靜態(tài)物體。在機器人移動過程中,變換參考系,機器人的移動使得相機捕獲的障礙物圖像成為連續(xù)移動的序列,從而將環(huán)境理解為動態(tài)場景。將背景差分法融入以上模型,需要著重考慮機器人移動中設為背景的單幀更新,為保障檢測精確性可以加入去噪等手段。

      幀間差分法是對視頻序列中的相鄰兩幀圖像做差分運算,當某像素點前后兩幀圖像的灰度差絕對值大于閾值時,標記該位置為運動區(qū)域[22]。該算法通過對圖像中的所有像素點進行灰度值對比得到運動目標的輪廓。

      該算法不同于背景差分法,將前一幀圖像作為背景圖像,然后對當前圖像做差分運算。相比于背景差分法而言,少了背景模型的更新這一步,使得計算過程更加簡單,計算量也相應降低,而且對光線的變化敏感度也墊底。但從提取效果上看,幀間差分算法只能提取出運動目標的邊界,對幀間的時間間隔和閾值的選取有較高的要求,這一點與背景差分法略有不足。如以下兩種情況,當物體運動速度較快而幀間的視覺間隔較大時,物體在前后兩幀圖像中沒有重疊,這種情況下幀間差分法的檢測結果為兩個分開的物體;當物體運動速度較慢而幀間的時間間隔較小時,物體在前后兩幀圖像中幾乎完全重疊,此時該算法會檢測不到物體。

      1.4 基于圖像金字塔改進的光流法

      1.4.1 基于KLT特征點跟蹤的光流計算

      LK(Lucas-Kanade)光流算法是對圖像序列中的相鄰兩幀圖像計算光流信息,該算法的原理有3個假設前提[23]:(1)前后兩幀圖像的亮度恒定不變;(2)前后兩幀圖像的時間連續(xù),且物體的運動速度不大,即“小運動”;(3)空間一致,空間中相鄰區(qū)域的運動情況相似且這些區(qū)域在圖像上的投影也在臨近區(qū)域。其中,假設1是為了保證約束方程的等號成立不受亮度變化的影響,假設2是為了保證該算法能夠找到運動目標點,假設3則是為了保證相鄰圖像同一窗口中所有點的偏移量都相等。此外,光流約束方程中未知量的約束不夠會導致孔徑問題。

      基于KLT(Kanade-Lucas-Tomasi Tracking Method)特征點跟蹤的光流法是在LK的基礎上提出的,最大的優(yōu)勢是利用了LK光流算法的局部約束性,變劣為優(yōu),以LK對足夠小的領域空間內(nèi)光流矢量不變特性來求解光流。在特征點提取上依靠的是Tomasi算法對每幀的特征點進行提取[22]。

      對于KLT算法,主要在于選取以特征點(x,y)為中心的鄰域建立上式所述的LK光流方程,同時對t+r時刻選取的特征點(x,y),都可以由t時刻對應的特征點(x,y)經(jīng)特征變換d=(ox,oy)進行計算得到。從以上可以看出,KLT光流算法的實質即在于對特征點變化量的求解。

      1.4.2 圖像金字塔改進KLT

      在利用基于KLT特征點跟蹤的光流算法對動態(tài)障礙物的檢測過程中,有可能出現(xiàn)相鄰兩幀間特征點匹配檢測到障礙物目標區(qū)域以外的點的情況,即在匹配過程中,產(chǎn)生不穩(wěn)定的匹配特征點。這些不穩(wěn)定的匹配特征點會對動態(tài)障礙物持續(xù)提取和檢測產(chǎn)生較大的影響,容易造成檢測的失準,而該問題主要是由于提取的兩幀圖像之間運動幅度較大所導致的。

      圖像金字塔算法的出現(xiàn)為解決上述問題提供了出路,當像素降低到一定程度時,原本較大的像素間運動就能變小,這就能實現(xiàn)在提取兩幀間較大運動的同時,保證特征點匹配的穩(wěn)定性。如圖1所示,規(guī)定原始圖像為零層,首先對原始圖像進行Tomasi特征點提取,然后對初始提取的圖像進行二次采樣,得到第二層金字塔,依次利用N次采樣結果,使原始相鄰幀間較大的運動逐漸轉化為微小運動,直到滿足幀間KLT特征點跟蹤的約束條件。

      圖1 金字塔光流法

      采用金字塔LK光流法可以檢測出運動速度過快的運動目標,取消了LK光流法中的第2和第3個假設,擴大了算法的適用范圍。但是該算法的計算量很大,對硬件條件的要求較高,而且不能消除光照等外部環(huán)境條件對檢測結果的影響,這就使得該算法存在一定的局限性。

      針對這個問題,文獻[24]提出了一種綜合測障法,先對圖像視頻序列進行幀間差分運算,得到運動目標區(qū)域,再進行金字塔式的光流運算。該算法結合了前面所述幀間差分法與金字塔光流法的特點,既避免了光照環(huán)境對檢測結果的影響(消除了1假設),還可以檢測到運動速度過大的目標(消除了2、3假設)。相比于傳統(tǒng)的金字塔LK光流法,該算法的計算量較低,算法的處理速度較快,因而更加滿足系統(tǒng)對實時性的要求。

      光流估計算法中,除了基于梯度和匹配的方法外,還有許多正處于研究中的方法。基于能量的方法:也稱基于頻率的方法,在使用該類方法的過程中,要獲得均勻流場的準確的速度估計,就必須對輸入的圖像進行時空濾波處理,即對時間和空間的整合,但是這樣會降低光流的時間和空間分辨率?;陬l率的方法往往會涉及大量的計算,另外,要進行可靠性評價也比較困難。

      基于相位的方法:Fleet和Jepson最先提出將相位信息用于光流計算的思想。當計算光流的時候,相比亮度信息,圖像的相位信息更加可靠,所以利用相位信息獲得的光流場具有更好的魯棒性?;谙辔坏墓饬魉惴ǖ膬?yōu)點是:對圖像序列的適用范圍較寬,而且速度估計比較精確,但也存在著一些問題:第一,基于相位的模型有一定的合理性,但是有較高的時間復雜性;第二,基于相位的方法通過兩幀圖像就可以計算出光流,但如果要提高估計精度,就需要花費一定的時間;第三,基于相位的光流計算法對圖像序列的時間混疊是比較敏感的。

      神經(jīng)動力學方法:是利用神經(jīng)網(wǎng)絡建立的視覺運動感知的神經(jīng)動力學模型,它是對生物視覺系統(tǒng)功能與結構比較直接的模擬。盡管光流計算的神經(jīng)動力學方法還很不成熟,然而對它的研究卻具有極其深遠的意義。隨著生物視覺研究的不斷深入,神經(jīng)方法無疑會不斷完善,也許光流計算乃至計算機視覺的根本出路就在于神經(jīng)機制的引入。神經(jīng)網(wǎng)絡方法是光流技術的一個發(fā)展方向。

      2 單目視覺移動機器人定位

      在單目視覺移動機器人作業(yè)過程中,除了要用單目相機對視場內(nèi)障礙物進行檢測外,計算障礙物與本體之間的距離對后面進行路徑規(guī)劃也是相當重要的。雖然雙目和多目視覺測距的精度相比單目較高,但其主要問題在于需要精確的配準和條件約束,耗時的配準過程對實時視覺導航來說具有不可忽略的影響,而且要使基線和攝像機光軸嚴格地處于同一平面上,這對于攝像機的架設及測量平臺穩(wěn)定性的要求極高[25]。單目測距是利用一個攝像機獲得的圖片得出環(huán)境的深度信息,具有操作簡單和成本低等優(yōu)點,但是傳統(tǒng)單目測距方法存在精度較低、需要固定參照物和無法適應遠距離測量場合等缺陷,根據(jù)測量原理可以劃分為基于已知物體和已知運動兩類算法。

      Yamaguti N等[14]提出利用物體的已知運動和前后采集到的兩幅圖像比例的變化,得出障礙物與機器人本體之間距離的算法,該類測量方法需要依靠特征匹配的精度來保證測量精度,易干擾性強,而且需要對多幅圖像進行處理,計算量大。相對的,基于已知物體的測量方法核心是對每一個特征點進行分析計算,測量結果擁有較高的精確度,但也因此有較大的計算量,而且還依賴于特征點提取算法的精度,易受影響。

      小孔成像模型被應用為最初的測距模型,在此基礎上衍生出各類適用特定環(huán)境的測距算法。文獻[10]用攝像機模型幾何關系推導法對圖像坐標和機器人坐標進行換算實現(xiàn)單目測距。該算法根據(jù)小孔成像模型,將單目視覺簡化為攝像機投影模型,需要人工測量相機視場邊緣和地面交線位置以及光軸和地面的交點距離,也即表示該單目測距法僅適用于相機有固定傾斜角度,且光軸與地面相交的環(huán)境。文獻[11]表示通過攝像機標定可以將已知世界坐標某點投射到成像平面上的圖像坐標求出,并提出將物體投影面積區(qū)域的形心代替障礙物的特征點,從而計算障礙物到機器人的距離。該算法對于攝像機而言,若不能保證攝像頭的軸線垂直于被測目標平面,對于這種傾斜用肉眼無法進行修正,故距離目標越遠,誤差越大。

      路標分為自然路標和人工路標,從已有的相關文獻來看,目前基于自然路標的視覺導航受環(huán)境不確定因素影響大,算法復雜。相比于自然路標,人工路標輔助機器人定位技術,具有路標特征穩(wěn)定、定位算法簡單等優(yōu)勢。文獻[26]提出了基于二維碼的人工路標,在物流無人倉庫也有所應用。雖然該路標包含的信息量大,但是二維碼的識別速度慢,難以滿足實時性的要求,而且識別的準確率受機器人與二維碼的距離影響較大。文獻[27]提出了在路面進行車輛測距的方法,路標識別率高達90%,測距誤差不超過10%。該方法實際上也是借助網(wǎng)絡申請獲取到標線、指示牌等標記的真實尺度,從而為解決單目尺度問題奠定了基礎,而且通過毫米波雷達輸出前車距離信息,擁有高精度的優(yōu)勢,且豐富了ADAS系統(tǒng)測距。

      對應點標定法是最早被大范圍應用的深度信息獲取方法,擁有簡便、高效等優(yōu)勢,但是在標定中如果點的世界坐標對應的圖像坐標不夠精確,轉換結果會因此而波動,同時,標定是在攝像機的高度和各角度都已確定的情況下進行,任意一個參數(shù)的變化都將導致重新標定,因此該方法的局限性在于僅適用于攝像機位置固定的情況。文獻[28]使用對應坐標標定法,在機器人運動時,觀測點也隨之進行移動,在實際測量中,變化的量是攝像頭與目標之間的距離以及導航偏角,這些變化在圖像上也是有反應的,因此兩個時刻采集到的圖片也是不同的,反映到圖像上就是目標像素點的大小,以及目標偏移中心位置的距離。

      除了前面所提到的標定點法外,攝像機內(nèi)部參數(shù)的標定效果對測距結果也是有非常巨大的影響。文獻[25]提出了基于B對偶空間幾何學的攝像機內(nèi)參數(shù)計算方法,采用幀間差分與運動模板相融合的方法自動提取目標的輪廓信息,根據(jù)影射幾何能精確地計算距離,但在攝像機俯仰角上更傾向于小俯仰角的應用場景。

      近幾年單目測距技術發(fā)展迅速,除了上述常用方法外,還有如單幀靜態(tài)法、序列圖像法、平移視差法等單目測距算法均是在基于小孔成像的原理上根據(jù)不同應用環(huán)境進行改進,但基本原理不變。光流常用于障礙物的檢測和對象跟蹤,在測距上的應用也是基于前面所述的方法。三維重構技術通過單目相機不僅能夠獲取深度信息,還能根據(jù)需求計算出對象的三維結構,擁有很高的研究價值。

      3 路徑規(guī)劃導航

      路徑規(guī)劃是移動機器人導航最基本的環(huán)節(jié)之一,它是按照任務要求搜索一條從起始狀態(tài)到目標狀態(tài)的最優(yōu)或近似最優(yōu)的無碰撞路徑,主要有全局路徑規(guī)劃和局部路徑規(guī)劃兩類。其中,局部路徑規(guī)劃能幫助機器人判斷周圍環(huán)境有無障礙物并判斷如果避開障礙物,適用于初次環(huán)境建模以及存在動態(tài)障礙物的環(huán)境,而全局路徑規(guī)劃更適用于在地圖已知的情況下為機器人規(guī)劃一條從起點到終點的路徑。表2對比了近年常用的經(jīng)典路徑搜索算法。

      Dijkstra在搜索時不考慮方向,以廣度優(yōu)先,“盲目”式搜索,導致需要經(jīng)過大量的計算才能得出路徑,但是得出的路徑效果很不錯,且一定最短。A*相比Dijkstra增加了有向式搜索,整體搜索方向按照終點坐標位置為準,逐個搜索,減少了其他方向的計算,從而獲得更快的速度,但是該有向式搜索的缺陷在于沒有考慮兩點之間的障礙情況,導致會出現(xiàn)“貼”著障礙物行走的情況,甚至有較大的拐點。JPS是在A*上更進一步的優(yōu)化算法,用跳點搜索的方式取代了逐個鄰居判斷的方式,在時間和路徑平滑上均獲得了極大的提升。

      表2 路徑規(guī)劃算法

      RRT與前面幾種算法的差異在于施加了對狀態(tài)空間中的采樣點進行碰撞檢測,避免了空間建模,從而在速度上有很大優(yōu)勢,但路徑時概率完備且不最優(yōu)。人工勢場和遺傳算法在路徑規(guī)劃中的應用差異主要在于速度上,人工視場的速度快,但在復雜的環(huán)境下會出現(xiàn)局部極小點。

      從上述對比可以看出,目前單一的搜索算法很少能同時具備耗時短、路徑優(yōu)的性質,將多算法的優(yōu)點融合在一起形成新的搜索方法會是未來提升機器人路徑搜索能力的必然方向。

      3.1 經(jīng)典導航方法

      慣性導航系統(tǒng)(Inertial Navigation System,INS)是一種自主式的導航系統(tǒng),其優(yōu)點是可提供連續(xù)的導航信息,短期的定位精度和穩(wěn)定性好,但是INS的誤差會隨時間累積而增大,所以不能長期獨立工作。文獻[29]提出將人工路標和INS組合進行導航的算法。該算法優(yōu)勢在于通過對已知距離的路標拍攝解決了單目相機缺少尺度的問題,并與Kalman濾波進行數(shù)據(jù)融合,有效減小了INS的累計誤差。衛(wèi)星-慣導組合定位系統(tǒng)結合了衛(wèi)星定位導航的高精度、可通訊和慣性導航的獨立性強、可獲取姿態(tài)的特點,能夠為載體提供包括姿態(tài)、位置以及速度等導航信息,實現(xiàn)了優(yōu)勢互補,但該方法不適用于室內(nèi)等不便接收衛(wèi)星信號的環(huán)境。

      采用里程計法的室內(nèi)機器人利用安裝在車輪上的光電編碼器記錄車輪的轉數(shù),進而獲得機器人相對于上一采樣時刻位置和姿態(tài)的改變量,通過這些位移量的累積就可以估計機器人的位置,然而由于存在車輪打滑、地面不平等多種外在因素的影響,以及光電編碼器自身系統(tǒng)誤差隨著位移積累,導致機器器人定位精度下降很快,從而不適宜長距離導航。視覺里程計(VO)通過利用相鄰圖像匹配特征點坐標的變化來估計載體的位姿變化情況。由于VO是通過一系列前后幀的對比來估計相機的運動情況,所以不可避免地會造成誤差的累計。目前VO的研究已經(jīng)能夠實現(xiàn)單目視覺下實時圖像特征提取及相機定位,但在魯棒性、準確性方面尚有很大的改善空間,VO與慣性測量結合能夠更有效應對復雜非結構化環(huán)境,取得良好的導航效果。

      SLAM是在基于幾何方法的研究領域內(nèi)最熱門的一項路徑規(guī)劃技術?;谝曈X的SLAM(VSLAM)技術不僅能實現(xiàn)定位,還能構建周圍的環(huán)境地圖,對自主定位和路徑規(guī)劃起到重要的作用。但是在VSLAM中,除了VO前端,還要進行后端優(yōu)化、回環(huán)檢測以及建圖,計算量相比于VO顯著提高,對數(shù)據(jù)處理終端計算能力有很高的要求,定位與建圖的實時性較差。

      3.2 單目SLAM算法

      單目SLAM近年來發(fā)展迅速,由最初的基于濾波的方法發(fā)展到基于關鍵幀的方法,Klein和Murray[30]提出的PTAM算法作為基于關鍵幀的代表算法,首次將跟蹤定位和構圖作為并行線程處理。單目SLAM體積小、重量輕、實際應用簡單,但由于單目不能直接測距,所以早期的單目SLAM被稱為“只有角度的SLAM”。距離未知導致單目SLAM存在以下問題:需要初始化、尺度不確定、尺度漂移。

      目前,圖像特征匹配是初始化的主流策略,匹配好的特征點可以給出一組2D-2D像素點的對應關系,但由于是單目,沒有距離信息。后續(xù)的相機運動就可以通過3D-2D的點匹配信息來估計(PnP)。在初始化分解本質矩陣時,由于平移和旋轉是乘在一起的,所以初始化時既需要平移也需要旋轉,而且分解的結果顯示,對平移量乘以任意非零常數(shù),仍滿足對極約束,這就導致了單目的尺度不確定性問題。故從應用上來說,單目需要一個帶平移的初始化過程,且存在尺度不確定問題,這是它理論上的障礙。此外,SLAM中會有噪聲影響,改變了單目估計值與真實值之間的比值,再加上比例的不確定性,尺度漂移成了單目SLAM誤差的一主要來源。

      盡管單目SLAM存在以上問題,但由于相機系統(tǒng)比較簡單、裝載方便、價格便宜等優(yōu)勢,依然得到了很大的發(fā)展,其主要研究工作可以分為:基于外觀的方法、基于特征的方法。在基于外觀的方法中,文獻[5]提取攝像頭運動的近似旋轉和平移速度信息的方法在室內(nèi)定位上取得了不錯的效果。但該方法采用提取移動場景中的中心區(qū)域進行模板跟蹤,且僅依靠圖像像素的亮度信息進行配準,這在一定程度上造成了系統(tǒng)的不穩(wěn)定?;谔卣鞯姆椒ㄊ沁x取圖像上面比較明顯的、可重復檢測的特征點和特征線以及語義更加豐富的面信息在連續(xù)的圖像間進行跟蹤,具有較強的魯棒性,但是該方法在特征提取和配準的時候將會增加SLAM制圖的耗時時長,導致計算時長將會大量增加。

      因單目SLAM受到單目視覺原理上的尺度漂移和地標數(shù)量造成的計算量過大兩個難點的限制,在文獻[4]中提出了語義信息與SLAM耦合的新方法,擁有很好的魯棒性和準確性,該算法核心在于用過濾器和加權機制將上下文語義信息添加到特征關聯(lián)和SLAM位姿優(yōu)化中,這種方式可以有效地提高SLAM系統(tǒng)的魯棒性和準確性。

      為了進一步提高單目SLAM建圖和抗噪能力,有學者提出在SLAM里面加入幾何約束,從而提高三維建模的速度和穩(wěn)定性。如文獻[31]將線和面的特征引入單目SLAM的三維地圖構建過程中,并采用分步濾除端點對齊的直線匹配方法搜索法和基于直線匹配增強的平面聚類方法,實驗證明該算法相對于基于點特征的SLAM制圖法在穩(wěn)定性和效率上有明顯的優(yōu)勢,但對環(huán)境要求較高,需在紋理明顯的環(huán)境下使用。

      前面是從算法層面研究如何提高導航精度、穩(wěn)定等性能,而對于尺度、遮擋之類的問題,僅從算法出發(fā)明顯不能實現(xiàn)質的飛躍,此時,多傳感器融合技術成為提升導航性能的突破點,表3比較了近年來常用的多傳感器融合技術的特性。

      表3 多傳感器融合算法

      IMU不僅價格低廉,而且能幫單目確定尺度、測量快速的運動以及在相機被遮擋時提供短時間的位姿估計,文獻[32]提出用單目+IMU做SLAM這個新穎的概念,以IMU彌補單目在尺度和測量上的缺陷,使其構建的地圖更加精確和穩(wěn)定,大幅提升了機器人自主導航的魯棒性;激光雷達精度高、計算小、速度快,便于檢測深度信息,文獻[1]為了在利用環(huán)境顏色信息的同時也提高深度信息的估計,用單目提取的圖像結合激光估計的深度信息,為機器人提供地圖構建和定位信息來源,大幅度提高了導航精度;陀螺儀和編碼器結合的里程計對距離的計算有很高的精度,可以輔助定位,文獻[13]用里程計結合單目攝像頭,提出基于穩(wěn)定性和正確性的數(shù)據(jù)融合策略,使得機器人在導航中對位姿的估計更精確。

      此外,文獻[4]通過從單目視覺中提取的特征在雷達深度地圖中的對應關系以獲得相對于關鍵幀的姿態(tài)數(shù)據(jù),同時通過CNN獲得語義信息使得地圖中每一個點都與特定的語義特征相關聯(lián),進一步提高了機器人導航精度。文獻[33]將ORBSLAM得到的位置信息轉化到慣導系統(tǒng)的地理導航中作為觀測量估計慣導系統(tǒng)的狀態(tài)誤差量,并結合卡爾曼濾波模型估計慣導系統(tǒng)的誤差,以ORBSLAM/INS組合的形式實現(xiàn)了機器人導航。就目前對單目SLAM的尺度、初始化等問題的解決方案中,這一類多傳感器融合策略被認為是一種很不錯的解決方案。

      到目前為止,在單目SLAM中以ORB-SLAM為最經(jīng)典的算法,該算法同時也可應用在雙目與RGB-D相機上,采用關鍵幀配準方法,配合詞袋實現(xiàn)了大幅提高實現(xiàn)特征點的檢索和匹配效率。實驗測試表明:基于ORB-SLAM算法僅利用單目視覺的軌跡與地面真實情況相比存在較大的尺度漂移、平移和旋轉漂移;基于激光雷達深度圖輔助的ORB-SLAM2方法利用深度信息可減小尺度漂移,但是由于存在沒有特征的平面墻和地板以及傳感器誤差,依然存在平移和旋轉漂移。綜上所述,在目前情況下,單一的定位方式很難同時滿足高精度、高實時性、高可靠性的要求,因此多源信息融合已成為當前導航定位的主要研究方向。

      4 總結

      單目視覺導航技術已經(jīng)取得了較為客觀的技術成果,打破了最原始的障礙壁壘,并在提高定位精度、最優(yōu)化等方面不斷突破。

      在障礙物檢測上,目前應用在移動機器人上的識別算法主要側重于某單項性能的提升,如SIFT、SURF、FAST三者的檢測速度和精度近乎成反比例發(fā)展,在獲得高精度的同時失去了速度,在占領速度優(yōu)勢時又失去了精度的保障。針對該方面的問題可從以下幾個方向進行研究:

      (1)多檢測算子融合,以長補短。在此方向下,ORB算法是目前最為典型的應用,結合FAST的速度和BRIFE描述精度,使其在速度和精度上同時獲得了提升。

      (2)結合顏色空間模型。如在HSI模型下,可以類似于人眼對色彩的敏感性對易造成噪聲的色彩進行濾波等處理,在降低噪聲后再采用速度上優(yōu)勢明顯的檢測算子也能得到不錯的效果,魯棒性也會比單一的應用有所提高。

      (3)深度學習。近年來深度學習在人工智能方面聲名大噪,通過強大的數(shù)據(jù)庫提供的先驗信息比對,無論是在速度、精度還是穩(wěn)定性上都有很大的優(yōu)勢,但對數(shù)據(jù)庫的依賴較強。

      在測距定位方面,單目攝像頭不像雙目或多目可直接測出精度,目前在不依靠人為輔助的情況下僅有通過移動構成三角進行計算,但依然存在尺度性問題,針對該問題可從以下方面進行研究:

      (1)融合傳感器技術。在機器人本體上搭載距離傳感器如激光等,可直接彌補單目攝像頭在距離上的短板,還避免了類似多目相機的計算誤差。

      (2)光流測距。光流作為目標跟蹤領域的經(jīng)典,憑借可以較為直觀地獲取目標在成像坐標系上的移動距離服務于測量定位領域。

      (3)三維重構。在進行二維導航時也可參考三維地圖的定位方式進行計算,而在構圖時就對第三根軸的信息進行歸一或其他處理。

      在路徑規(guī)劃以及整體導航結構方面,VSLAM是時下最熱的移動機器人導航理論,無論是單目測障還是空間定位都是作為前端服務于SLAM這個概念,但尺度漂移、導航精度差仍未得到良好的解決,針對該問題可從以下方面進行研究:

      (1)多傳感器融合。有了距離傳感器的加持,可以有效地解決尺度問題,甚至諸如IMU等傳感器還能在空間定位中予以幫助,無論是在建圖還是在導航上比單一的VSLAM都擁有更好的魯棒性。

      (2)語義地圖。相比于點云地圖,語義地圖更符合視覺導航充分利用環(huán)境信息的定義,該地圖在導航上的應用主要是加入地面水平的假設,使環(huán)境中放入地圖的物體都保持在“同一個水平面”上,從而有效地提升了地圖的精度,那機器人定位和導航的精度也就提高了。

      綜上所述,未來單目視覺導航算法應主要從提高環(huán)境信息利用率、增強障礙檢測效果、提高機器人空間定位、構建更精確的地圖等方面提高機器人綜合導航能力,滿足人們對移動機器人實時性、精度、魯棒性等要求。根據(jù)前面對目前單目導航算法存在問題及對應解決方案得知,在可預見的未來,單目視覺導航算法整體應以下面幾種趨勢發(fā)展。

      (1)多傳感器融合。如IMU、激光雷達等傳感器,與相機結合可在充分利用環(huán)境信息的同時也獲取較高的定位精度。此外,傳統(tǒng)的導航方式也并非一無是處,如可以借助INS在短期良好的定位精度和穩(wěn)定性優(yōu)勢為其他算法提供幫助,衛(wèi)星-慣導組合便是這一經(jīng)典融合,若能將其與時下的VSLAM結合,即可在很大程度上解決VSLAM的尺度以及精度等問題。

      (2)深度學習。盡管深度學習更多的是基于數(shù)據(jù)庫的處理,但仍不失為移動機器人導航的良好輔助,通過深度學習可以優(yōu)化地圖,提高定位、導航精度,語義地圖在導航中的應用即可體現(xiàn)諸多由深度學習帶來的優(yōu)勢,不同于僅從傳感器入手,該方法更傾向于先驗信息,從而帶來更好的穩(wěn)定性和魯棒性。

      猜你喜歡
      單目移動機器人機器人
      移動機器人自主動態(tài)避障方法
      一種單目相機/三軸陀螺儀/里程計緊組合導航算法
      單目SLAM直線匹配增強平面發(fā)現(xiàn)方法
      基于Twincat的移動機器人制孔系統(tǒng)
      基于CAD模型的單目六自由度位姿測量
      機器人來幫你
      認識機器人
      機器人來啦
      認識機器人
      基于單目立體視覺的三坐標在線識別技術研究
      枝江市| 克拉玛依市| 涿州市| 卢氏县| 黑河市| 崇仁县| 安多县| 弥勒县| 广宗县| 安溪县| 兴宁市| 石阡县| 山东| 香港| 天等县| 阿克苏市| 肇东市| 沙河市| 巴楚县| 上饶县| 郧西县| 天镇县| 大田县| 沐川县| 吉首市| 孝昌县| 遂昌县| 伊春市| 宽甸| 凯里市| 江永县| 新沂市| 达尔| 黄山市| 河曲县| 淳化县| 东安县| 竹北市| 怀化市| 乡城县| 双城市|