• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    視覺導(dǎo)航技術(shù)的發(fā)展

    2017-04-26 01:34:32吳克強(qiáng)張曉鷗
    導(dǎo)航定位與授時(shí) 2017年2期
    關(guān)鍵詞:單目光流位姿

    張 海,吳克強(qiáng),張曉鷗

    (1.北京航空航天大學(xué)自動化科學(xué)與電氣工程學(xué)院,北京 100191; 2.北京航空航天大學(xué)無人駕駛飛行器設(shè)計(jì)研究所,北京 100191)

    視覺導(dǎo)航技術(shù)的發(fā)展

    張 海1,吳克強(qiáng)1,張曉鷗2

    (1.北京航空航天大學(xué)自動化科學(xué)與電氣工程學(xué)院,北京 100191; 2.北京航空航天大學(xué)無人駕駛飛行器設(shè)計(jì)研究所,北京 100191)

    近20年來視覺導(dǎo)航技術(shù)發(fā)展迅速,在原理方法與技術(shù)實(shí)現(xiàn)上取得了重要突破,規(guī)?;瘧?yīng)用已經(jīng)成為可能。以視覺導(dǎo)航中光流、視覺里程計(jì)、視覺同步定位與地圖構(gòu)建等主流研究方向?yàn)閷ο?對其發(fā)展概況、基本原理、技術(shù)優(yōu)勢與難點(diǎn)等進(jìn)行了簡要介紹與分析,并從近期應(yīng)用推廣及長遠(yuǎn)發(fā)展角度對視覺及視覺組合導(dǎo)航技術(shù)進(jìn)行了展望。

    SFM;視覺里程計(jì);VSLAM;光流;組合導(dǎo)航

    0 引言

    導(dǎo)航伴隨著人類文明的發(fā)展已有數(shù)千年的歷史,20世紀(jì)以來更出現(xiàn)了跨越式的進(jìn)步,以慣性、無線電、天文、地磁、光學(xué)為基礎(chǔ)的導(dǎo)航系統(tǒng)發(fā)展日新月異,在軍事領(lǐng)域取得舉足輕重地位的同時(shí),也正在加速進(jìn)入民用領(lǐng)域。美國國防部高級研究計(jì)劃局(DARPA)2004年開始組織自動駕駛車輛大賽,極大地推動了相關(guān)技術(shù)的發(fā)展,也客觀促成了今天Google、Uber、Tesla、百度等無人駕駛技術(shù)的示范應(yīng)用。亞馬遜公司為提高倉庫工作效率,收購了Kiva system公司,并將Kiva機(jī)器人應(yīng)用于自動化倉庫,實(shí)現(xiàn)了大規(guī)模機(jī)器人全自動商品搬運(yùn),成為自動導(dǎo)引車輛(AGV)應(yīng)用范例。我國洋山港自動化碼頭,在可靠的組合導(dǎo)航系統(tǒng)支持下,已采用130臺AGV實(shí)現(xiàn)集裝箱裝卸、轉(zhuǎn)運(yùn)自動化,能24h工作,車輛定位精度達(dá)到2cm,港區(qū)的工作人員減少了75%,但工作效率卻提升了30%。

    視覺是自然界絕大多數(shù)動物采用的導(dǎo)航手段,因圖像中含有豐富的空間信息,特別是視覺作為一種自主的測量方式,在衛(wèi)星導(dǎo)航(GNSS)受干擾、遮擋而無法工作的情況下仍能有效發(fā)揮作用,相對慣性導(dǎo)航具有良好的誤差累積抑制能力,在導(dǎo)彈武器、火星探測機(jī)器人、無人駕駛汽車、小型無人機(jī)等領(lǐng)域已經(jīng)得到有效的應(yīng)用,并具有進(jìn)一步小型化、低成本化能力,發(fā)展空間十分廣闊。

    20世紀(jì)50年代開始的計(jì)算機(jī)視覺理論研究奠定了視覺導(dǎo)航的基礎(chǔ)[1],70年代后Moravec等學(xué)者就開始了面向?qū)Ш降囊曈X應(yīng)用探究[2],90年代后因計(jì)算機(jī)處理能力的快速進(jìn)步,計(jì)算機(jī)視覺及視覺導(dǎo)航應(yīng)用研究工作得到了快速發(fā)展,Hartley在其研究成果基礎(chǔ)上對視覺解算、幾何解算進(jìn)行了全面總結(jié)[30],特別是2000年后Nistér、Davison、Klein等學(xué)者的創(chuàng)造性研究工作極大地推動了該領(lǐng)域研究的快速發(fā)展,視覺及視覺組合導(dǎo)航已經(jīng)進(jìn)入了一個(gè)全新的階段。下面對視覺導(dǎo)航主要技術(shù)分支及其發(fā)展情況進(jìn)行簡要介紹、分析,并給出視覺及視覺相關(guān)導(dǎo)航技術(shù)的未來發(fā)展趨勢。

    1 視覺導(dǎo)航技術(shù)研究進(jìn)展

    視覺或圖像技術(shù)在導(dǎo)航中的應(yīng)用眾多,如目標(biāo)跟蹤、景象匹配、距離測量等,但不能提供完整導(dǎo)航功能,如不具備僅利用該方法自身實(shí)現(xiàn)攝像機(jī)速度、位置、姿態(tài)等完整導(dǎo)航信息輸出的能力,故未作為視覺導(dǎo)航方法進(jìn)行討論。

    光流的概念在20世紀(jì)50年代由Gibson提出,已被證明是昆蟲、鳥類有效的導(dǎo)航方式。光流利用連續(xù)采集圖像獲得速度、轉(zhuǎn)動估計(jì),是仿生導(dǎo)航重要的研究對象[3]。與視覺里程計(jì)、視覺同時(shí)定位與地圖構(gòu)建不同,它不能僅依據(jù)圖像內(nèi)容的空間幾何關(guān)系進(jìn)行導(dǎo)航計(jì)算,而對相機(jī)相對環(huán)境的瞬時(shí)運(yùn)動具有較好的測量能力,Lucas-Kanade[4]、Horn-Schunk[5]是兩種最為經(jīng)典的計(jì)算方法,Mukauwa[6]針對光流計(jì)算中不連續(xù)性問題進(jìn)行改進(jìn)。光流已被廣泛應(yīng)用于障礙物檢測與著陸[7],Ohnishi等[8]利用光流法實(shí)現(xiàn)場景中支配性平面檢測,進(jìn)而為機(jī)器人提供導(dǎo)航服務(wù)。近年來,馬里蘭大學(xué)研究團(tuán)隊(duì)從仿生角度出發(fā)提出了Wide Field Integration處理模型[9-10],證明了光流法可以滿足6自由度自主導(dǎo)航應(yīng)用。

    SFM (Structure From Motion,運(yùn)動重建結(jié)構(gòu))是利用二維圖像序列恢復(fù)空間三維結(jié)構(gòu)及相機(jī)位姿信息方法的總稱。雖然SFM具有相機(jī)位姿估計(jì)的功能,但其初衷是以環(huán)境的三維重構(gòu)為首要目標(biāo),相機(jī)運(yùn)動甚至可以是已知或可直接測量的。SFM概念形成較早,20世紀(jì)80年代Longuet-Higgins[11]、Harris[12]等的研究工作實(shí)質(zhì)性地推動了SFM的發(fā)展,SFM算法的研究熱點(diǎn)也從借助慣性等輔助測量[13]向純視覺處理方向轉(zhuǎn)變[14],且研究重點(diǎn)逐漸向單目視覺、相機(jī)精確定位、快速處理、稠密重構(gòu)等方向集中。

    VO(Visual Odometry,視覺里程計(jì))是一個(gè)十分活躍的視覺導(dǎo)航研究方向,其功能是對相機(jī)的運(yùn)動速度、軌跡及相機(jī)位姿進(jìn)行準(zhǔn)確估計(jì),因此VO具有完整的導(dǎo)航應(yīng)用功能,并被認(rèn)為是一種特殊的SFM[15]。Nistér在2004年提出了系統(tǒng)的本質(zhì)矩陣五點(diǎn)估計(jì)法[16],進(jìn)而提出了VO的概念[17],并給出了可實(shí)時(shí)處理的單目/雙目VO實(shí)現(xiàn)方案,被認(rèn)為是VO的開創(chuàng)性工作。迄今絕大多數(shù)VO采用特征點(diǎn)匹配的稀疏方案,精度較高。近年來出現(xiàn)了采用圖像亮度而非特征的直接計(jì)算半稠密、稠密VO[18-19],在獲得相機(jī)位姿信息的同時(shí)能夠?qū)Νh(huán)境進(jìn)行大范圍深度感知。目前VO的研究已經(jīng)能夠?qū)崿F(xiàn)單目視覺下實(shí)時(shí)圖像特征提取及相機(jī)定位,但在魯棒性、準(zhǔn)確性方面尚有很大的改善空間,VO與慣性測量結(jié)合能夠更有效應(yīng)對復(fù)雜非結(jié)構(gòu)化環(huán)境,取得良好的導(dǎo)航效果[20]。

    VSLAM(Visual Simultaneous Localization and Mapping,視覺同步定位與地圖構(gòu)建)是在經(jīng)典SLAM算法基礎(chǔ)上發(fā)展起來的視覺導(dǎo)航方案,以視覺取代傳統(tǒng)SLAM中激光雷達(dá)等方式實(shí)現(xiàn)地標(biāo)點(diǎn)測量,因其基于不同時(shí)刻二維圖像進(jìn)行導(dǎo)航定位,故也屬于SFM,研究難點(diǎn)主要集中在如何實(shí)現(xiàn)單目純視覺條件下快速相機(jī)定位與地圖構(gòu)建[21-22]。VSLAM從其估計(jì)精度優(yōu)化方式出發(fā)可以分為濾波、非濾波方法兩大類[15,21],濾波方法通過EKF(Extended Kalman Filter,擴(kuò)展Kalman濾波)、UKF(Uncented Kalman Filter,無跡Kalman濾波)以及PF(Particle Filter,粒子濾波)等濾波解算提高導(dǎo)航精度,非濾波方法則是利用多幅圖像構(gòu)建對相機(jī)及特征點(diǎn)的聯(lián)合幾何約束進(jìn)行導(dǎo)航參數(shù)優(yōu)化。因受到單目視覺原理上的距離尺度模糊、地標(biāo)數(shù)量造成的計(jì)算量過大兩個(gè)共性難點(diǎn)的限制,直至2003年,兩類研究仍然進(jìn)展緩慢。

    在濾波VSLAM方面,Davison在2003年提出的一種單目實(shí)時(shí)VSLAM方案[22]具有開創(chuàng)性,通過濾波模型設(shè)計(jì)及尺度概率估計(jì)方式得到小空間內(nèi)有效的定位結(jié)果。針對單目視覺尺度模糊問題,Nützi[14]在VSLAM姿態(tài)位置估計(jì)結(jié)果基礎(chǔ)上,建立了載體位置、速度、加速度及尺度因子的EKF估計(jì)模型,以VSLAM位置及加速度計(jì)測量為輸入,實(shí)現(xiàn)了運(yùn)動參數(shù)尺度修正估計(jì);Montemerlo等設(shè)計(jì)了基于PF的快速濾波方案,并證明了其濾波穩(wěn)定性[40]。非濾波VSLAM主要采用的優(yōu)化方法有BA(Bundle Adjustment,光束平差法 )、Pose Graph,其中BA應(yīng)用最為普遍[21],因其實(shí)現(xiàn)需要利用一段時(shí)間內(nèi)眾多關(guān)鍵幀建立幾何約束關(guān)系,進(jìn)而對相機(jī)運(yùn)動參數(shù)進(jìn)行最優(yōu)搜索,計(jì)算量巨大,長期以來限制了實(shí)際應(yīng)用。Klein與Murray在2007年公布的PTAM算法通過高效的處理機(jī)制打破了BA研究的僵局[23],使實(shí)時(shí)應(yīng)用成為可能。因PATM是一種框架性的解決方案,目前已經(jīng)成為BA類方法普遍采用模式,DTAM[38]、ORB-SLAM[32]、LSD-SLAM[19]等實(shí)時(shí)性算法都采用PTAM方案。

    VO、VSLAM同屬于SFM方法,從功能上都能完整實(shí)現(xiàn)導(dǎo)航,且在特征提取、精度優(yōu)化等實(shí)現(xiàn)步驟上可采用完全相同的技術(shù),其區(qū)別主要體現(xiàn)在VSLAM針對往復(fù)運(yùn)動區(qū)域,為保證地圖及導(dǎo)航精度需要進(jìn)行地圖閉環(huán)處理(Loop closure或Loop Closing),而VO不考慮閉環(huán)應(yīng)用,在使用過程中僅保存最近的地圖信息。

    VO及VSLAM兩種最為主要的視覺導(dǎo)航方法已具有較好的實(shí)時(shí)處理能力,克服了傳統(tǒng)SFM算法僅能事后離線處理的不足。使用極線幾何或其他亮度信息計(jì)算方法[18-19],能夠?qū)崿F(xiàn)針對圖像中每個(gè)像素或局部區(qū)域每個(gè)像素的稠密、半稠密三維重構(gòu),進(jìn)而可以獲得豐富的場景信息,極大地推動了AR(Augmented Reality,增強(qiáng)現(xiàn)實(shí))領(lǐng)域的發(fā)展,基于PTAM框架的VO、VSLAM已經(jīng)成為AR領(lǐng)域的重要技術(shù)方法。稠密、半稠密地圖可以獲得比特征點(diǎn)更為豐富的形狀、輪廓等深度信息,目前因地圖精度有限、復(fù)雜地圖信息難以利用等原因,半稠密、稠密地圖尚不能對導(dǎo)航精度改善發(fā)揮有效作用,但對未來視覺語義化的導(dǎo)航應(yīng)用有重要意義,在此將基于特征點(diǎn)的稀疏地圖方法作為主要分析對象。

    立體視覺具有距離測量能力,相對單目視覺具有原理上的優(yōu)勢,目前立體視覺導(dǎo)航研究主要集中在應(yīng)用方面,重點(diǎn)解決處理速度與導(dǎo)航精度的問題。單目視覺因不具備距離直接測量能力,在無外界測量輔助或先驗(yàn)知識情況下,不具備距離無尺度模糊恢復(fù)能力。立體視覺因?qū)嶋H應(yīng)用受到基線長度的限制,無法實(shí)現(xiàn)超過一定閾值距離的有效測量,退化為單目視覺。此外立體視覺對攝像機(jī)參數(shù)、基線長度的穩(wěn)定性有很高的要求,也需要更高的處理能力。因此,取得單目視覺在原理、方法上的突破意義重大、更具挑戰(zhàn)性,這也是目前Davison等國內(nèi)外知名學(xué)者專注于單目視覺系統(tǒng)研究的主要原因。

    2 光流法導(dǎo)航的基本原理

    為有效描述動物在運(yùn)動過程中視覺的變化,Gibson定義的光流是因觀測者與環(huán)境間的相對運(yùn)動而在觀測者視覺中明顯表現(xiàn)出來的運(yùn)動模式。

    光流計(jì)算通常是建立在以下假設(shè)基礎(chǔ)之上的:1)亮度一致性假設(shè),給定點(diǎn)在不同的圖像中具有相同的亮度;2)灰度梯度一致性假設(shè),給定點(diǎn)在不同圖像中具有相同灰度梯度;3)平滑性假設(shè),相鄰點(diǎn)位移不會劇烈變化;4)小幅運(yùn)動假設(shè),圖像采集具有足夠幀率,相鄰幀僅存在小幅運(yùn)動。

    I(x,y,t)=I(x+Δx,y+Δy,t+Δt)

    (1)

    IxVx+IyVy+It=0

    (2)

    光流的亮度不變假設(shè)如式(1),其中I為圖像,通過泰勒展開、整理可以得到速度表達(dá)式(2),Ix、Iy為圖像沿x、y向灰度的偏導(dǎo)數(shù),It為圖像對時(shí)間偏導(dǎo)數(shù),Vx、Vy分別為沿x及y方向的速度。下面僅對經(jīng)典的光流計(jì)算原理進(jìn)行簡要說明。

    Lucas-Kanade法[4],假定p點(diǎn)小領(lǐng)域內(nèi)點(diǎn)具有相同的位移,利用相鄰多m點(diǎn)正交方向速度一致性假設(shè),在式(3)基礎(chǔ)上利用最小二乘法獲得速度估計(jì)。該方法對圖像噪聲有抑制作用,無迭代計(jì)算、效率高。在梯度變化不明顯區(qū)域,因計(jì)算原理限制,無法求解,該方法通常是針對圖像特征點(diǎn)進(jìn)行計(jì)算的。

    (3)

    Horn-Schunk法[5],基于圖像相同點(diǎn)亮度一致的假設(shè),認(rèn)為圖像中的光流平滑連續(xù)變化,在亮度一階泰勒展開基礎(chǔ)上,利用式(4)所示誤差罰函數(shù)約束,進(jìn)行迭代求解,獲得全局、稠密運(yùn)動信息。但因一階泰勒展開的作用,要求圖像位移小于1個(gè)像素,實(shí)際應(yīng)用中采用模糊化、下采樣等方式應(yīng)對較大位移影響。

    E= ?[(Ixu+Iyv+It)2+

    (4)

    針對Horn-Schunk類算法因線性化帶來的不足,文獻(xiàn)[24]雖沒有進(jìn)行線性化,但算法復(fù)雜,僅能通過迭代的方式進(jìn)行解算。為獲得局部解算中良好的噪聲抑制能力以及全局稠密光流,文獻(xiàn)[25]提出了局部-全局組合方法(combinedlocal-globalmethods)。Bruhn等[26]提出了可以有效實(shí)現(xiàn)局部、全局光流相結(jié)合組合檢測方案。

    因光流計(jì)算能夠獲得相對運(yùn)動信息,從而實(shí)現(xiàn)障礙物探測、運(yùn)動物體識別、運(yùn)動速度估計(jì)、相對旋轉(zhuǎn)判定等[27-28],可以被廣泛應(yīng)用于機(jī)器人、無人機(jī)導(dǎo)航與自動駕駛系統(tǒng)中,Centeye公司已經(jīng)開發(fā)出低分辨率下可每秒計(jì)算達(dá)數(shù)千次的芯片級光流傳感器[29],并滿足2%對比度、照度1lux下應(yīng)用。

    光流法是基于亮度不變等假設(shè)的,需要高幀頻圖像采集保證相鄰幀滿足計(jì)算要求,在圖像移動較大情況下會失去計(jì)算合理性,不能利用不連續(xù)圖像獲得導(dǎo)航信息,此外光照的實(shí)時(shí)變化會影響計(jì)算精度。絕大多數(shù)光流計(jì)算是建立在單目視覺基礎(chǔ)上的,其速度信息具有尺度模糊性。因此光流法更多應(yīng)用于速度連續(xù)測量、避障等情況,雖然馬里蘭大學(xué)研究團(tuán)隊(duì)提出了較為有效的光流導(dǎo)航方案[9-10],但因僅利用光流不能實(shí)現(xiàn)利用歷史圖像進(jìn)行平差處理,對誤差累積的抑制能力不強(qiáng),在實(shí)現(xiàn)完整視覺導(dǎo)航功能方面相對VO、VSLAM尚有差距。

    3 VO的基本工作原理

    多視圖幾何是VO、VSLAM工作的基本原理,在此對透視幾何基本內(nèi)容進(jìn)行簡要說明。

    3.1 攝像機(jī)透視投影及視覺導(dǎo)航信息

    相機(jī)坐標(biāo)系中坐標(biāo)為Xc(xc,yc,zc)的空間點(diǎn),經(jīng)線性相機(jī)透視后在圖像坐標(biāo)系中投影坐標(biāo)為(u,v),其轉(zhuǎn)換關(guān)系用齊次坐標(biāo)表示如下

    (5)

    其中,λ為比例因子,αx、αy分別是u軸與v軸的尺度因子,r是u軸與v軸的不垂直因子,通常為0,u0、v0為光學(xué)中心。當(dāng)世界坐標(biāo)系與攝像機(jī)坐標(biāo)系間存在旋轉(zhuǎn)R3×3及平移t=(txtytz)T關(guān)系時(shí),世界坐標(biāo)Xw(xw,yw,zw)與攝像機(jī)坐標(biāo)系的轉(zhuǎn)化關(guān)系為

    (6)

    極線約束方程如下

    (7)

    其中,pl、pr為雙目情況下左右攝像機(jī)或單目情況下不同時(shí)刻圖像中匹配的點(diǎn)對,其齊次坐標(biāo)為pl=[ul,vl,1]T,[t]×為平移向量的反對稱陣。則點(diǎn)對空間約束關(guān)系表示如下:

    (8)

    E=[t]×R

    (9)

    可見E包含了轉(zhuǎn)動與平移信息,稱為本質(zhì)矩陣,有5個(gè)自由度,秩為2,有2個(gè)相等不為零奇異值。故僅依據(jù)2幅可匹配的圖像即可獲得攝像機(jī)間的相對運(yùn)動信息,在相機(jī)內(nèi)部參數(shù)K已知情況下可以使用5點(diǎn)法得到R、t,從而獲得相機(jī)的相對運(yùn)動信息。

    3.2VO的通用處理方法

    VO有立體、單目視覺等不同的實(shí)現(xiàn)方法,Scaramuzza等[21]對各類VO的基本計(jì)算過程總結(jié)如圖1所示。

    圖1 VO的處理過程Fig.1 The processing of VO

    穩(wěn)定的圖像特征可以作為圖像中的地標(biāo)點(diǎn),從而可以利用3.1節(jié)中的極限約束關(guān)系得到2幅圖像間的相對運(yùn)動信息,但成功匹配特征眾多且存在誤匹配情況,需要利用RANSAC進(jìn)行誤匹配剔除處理。因VO有基于立體、單目視覺等不同的實(shí)現(xiàn)方式,在相對運(yùn)動估計(jì)中可使用不同計(jì)算方法,Scaramuzza將其歸納為2D-2D、3D-3D以及3D-2D三類。

    2D-2D模式就是利用2幅平面圖像信息進(jìn)行R、t計(jì)算,則式(7)可化為

    (10)

    針對每一匹配點(diǎn)對,式(10)可以進(jìn)行如下變形

    (11)

    其中,E=[e11e12e13e21e22e23e31e32e33]T,依據(jù)Nistér5點(diǎn)法,選擇5對匹配點(diǎn)按照式(11)可構(gòu)成求解關(guān)系,利用SVD法求解得到的本質(zhì)矩陣,進(jìn)而可以依據(jù)E分解得到R、t,具體分解方法可參考文獻(xiàn)[16]。

    3D-3D模式是利用不同時(shí)刻特征點(diǎn)的三維坐標(biāo)測量結(jié)果進(jìn)行本質(zhì)矩陣恢復(fù),進(jìn)而獲得R、t。3D-2D模式則是將之前已經(jīng)獲得特征點(diǎn)三維坐標(biāo)投影到當(dāng)前二維圖像中,然后進(jìn)行的求解。由于3D-2D模式相對3D-3D利用了更多的直接測量結(jié)果,能夠更好地減少計(jì)算誤差,因此即使雙目VO中也是更多采用的3D-2D方案。

    (12)

    5點(diǎn)法計(jì)算得到的相對運(yùn)動信息會含有誤差,必須進(jìn)行誤差抑制,否則會造成嚴(yán)重的誤差累積。誤差抑制的方法有多種,如PoseGraph、RANSAC以及BA,其中BA是目前使用最多的方法。BA利用距當(dāng)前時(shí)刻一段時(shí)間內(nèi)的圖像特征點(diǎn)及相對運(yùn)動結(jié)果進(jìn)行平差,其基本處理思想如式(13)

    (13)

    如前所述,VO、VSLAM同屬于SFM方法,VO與VSLAM在計(jì)算原理上是相同的,因此對VO不同實(shí)現(xiàn)方式的比較在VSLAM中統(tǒng)一進(jìn)行。

    4 VSLAM的基本工作原理

    按照VSLAM的實(shí)現(xiàn)方式,下面分別對濾波、BA、PoseGraph三種方法的基本思想進(jìn)行介紹,并給出比較分析。

    4.1 濾波VSLAM

    濾波模型的有效工作是建立在對被估計(jì)對象變化規(guī)律、測量原理的有效描述之上的,為完成相機(jī)、地標(biāo)點(diǎn)同時(shí)交叉定位的目的,SLAM算法的通用濾波模型可以描述如下:

    狀態(tài)方程描述了相機(jī)運(yùn)動及地標(biāo)點(diǎn)位置的變化規(guī)律,如式(14)

    (14)

    觀測方程利用每個(gè)地標(biāo)點(diǎn)在圖像中的投影構(gòu)建, 是投影坐標(biāo)與相機(jī)位置及地標(biāo)點(diǎn)位置間的函數(shù)關(guān)系。

    (15)

    實(shí)際應(yīng)用中不同方法會對式(14)的狀態(tài)向量有不同的選擇,進(jìn)而也會造成函數(shù)f的變化。Davison[22]針對單目VSLAM首先使用了三維直角坐標(biāo)與四元數(shù)相結(jié)合的七維攝像機(jī)位姿信息狀態(tài),Civera、Davison等對地標(biāo)點(diǎn)采用了直角坐標(biāo)與角度、inverse depth相結(jié)合的六維向量[31],還有其他研究者使用相機(jī)姿態(tài)歐拉角描述方案,但會造成系統(tǒng)模型有較嚴(yán)重非線性。

    SLAM濾波模型是非線性的,通常采用EKF求解,基于PF的FastSLAM也是一種代表性方法,UKF逐漸被研究者采納,但更多地是應(yīng)用于視覺/慣性等組合應(yīng)用中[34]。此外,目前的VSLAM濾波處理更多是各種標(biāo)準(zhǔn)化濾波方法的簡單應(yīng)用,對如何最優(yōu)化使用濾波器的考慮不夠,未能有效發(fā)揮自適應(yīng)濾波等技術(shù)對估計(jì)精度提高的潛力。

    4.2 BA優(yōu)化VSLAM

    VSLAM中的BA算法從原理上與VO中的完全相同,僅是在具體實(shí)現(xiàn)中使用了不同的改進(jìn)設(shè)計(jì),在保證處理效果基礎(chǔ)上提高BA處理速度是此類算法研究的重點(diǎn)。

    1)PTAM

    PTAM算法的核心內(nèi)容是僅利用關(guān)鍵幀進(jìn)行地圖構(gòu)建,并將地圖構(gòu)建與地標(biāo)點(diǎn)跟蹤在計(jì)算上進(jìn)行了分離,采用2個(gè)獨(dú)立的線程進(jìn)行處理。在圖像處理環(huán)節(jié),針對每個(gè)關(guān)鍵幀都進(jìn)行了4層金字塔處理,以便實(shí)現(xiàn)不同尺度下特征的快速搜索,采用FAST特征。在跟蹤階段,當(dāng)新的圖像采集完成后,使用既有相機(jī)位姿預(yù)測新位姿,以大尺度關(guān)鍵圖粗搜索由少量特征匹配計(jì)算獲得的相機(jī)初步位姿,并在此初步位姿基礎(chǔ)上重新進(jìn)行大量特征投影、匹配,進(jìn)而獲得高精度的位姿更新。在地圖創(chuàng)建中,僅針對選定關(guān)鍵幀進(jìn)行,采用了局部BA與全局BA相結(jié)合的方式進(jìn)一步提高處理速度。PTAM在地圖初始化階段,利用雙目視覺完成稠密3D重構(gòu),后續(xù)執(zhí)行過程中可完全使用單目攝像機(jī)工作。PTAM是一種可滿足實(shí)時(shí)應(yīng)用的框架性方案。

    2)ORB-SLAM

    ORB-SLAM[32]是建立在PTAM處理框架之上的改進(jìn)實(shí)時(shí)處理算法。ORB-SLAM針對PTAM的不足進(jìn)行了有針對性的改進(jìn),首先使用了具有尺度、旋轉(zhuǎn)不變性的ORB特征,除滿足跟蹤需求外,具有場景識別能力;場景識別處理可獨(dú)立工作,在跟蹤異常情況下進(jìn)行相機(jī)初步重定位;使用Covisibility Graph、Pose Graph進(jìn)行了地圖閉環(huán)處理。因ORB-SLAM強(qiáng)調(diào)了閉環(huán)處理,并使用了詞袋進(jìn)行場景識別,在KITTI測試集的封閉路段取得很好的導(dǎo)航效果,但在非重復(fù)路段定位效果仍有待提高。

    4.3 Pose Graph優(yōu)化VSLAM

    Pose Graph優(yōu)化也是SLAM研究中重要的一種優(yōu)化方法,通過關(guān)鍵幀之間位姿關(guān)系約束進(jìn)行地圖優(yōu)化[33],其基本原理可用式(16)說明

    (16)

    Ci為第i幀圖像時(shí)攝像機(jī)在世界坐標(biāo)系的位姿矩陣, Ti,j為i,j兩時(shí)刻攝像機(jī)位姿矩陣間的轉(zhuǎn)移矩陣,在得到各時(shí)刻攝像機(jī)位姿信息后,通過式(16)最小化可達(dá)到地圖優(yōu)化的目的,通常也是在最近時(shí)間窗內(nèi)進(jìn)行優(yōu)化的。

    Engle等[19]提出的LSD-SLAM是目前使用PoseGraph較成功的算法,同時(shí)也使用了EKF、關(guān)鍵幀、地圖跟蹤與創(chuàng)建分離等技術(shù),其目的是在獲得相機(jī)位姿的同時(shí)對場景進(jìn)行大規(guī)模三維重構(gòu),所有工作都實(shí)時(shí)完成,該方法能夠直接部署到手機(jī)上作為VO實(shí)時(shí)工作。

    LSD-SLAM建立在一種Semi-denseVO[18]方法之上,其一個(gè)重要特點(diǎn)是直接利用圖像亮度信息進(jìn)行深度計(jì)算,相對圖像特征而言能夠使用更多的圖像信息。其三維重構(gòu)是針對圖像中梯度較大的區(qū)域進(jìn)行,因此是一種半稠密重構(gòu)。深度信息估計(jì)中使用了EKF,通過預(yù)測、校正提高深度圖的準(zhǔn)確性。

    4.4 優(yōu)化方法的分析

    濾波VSLAM是通過濾波計(jì)算提高相機(jī)及特征點(diǎn)的估計(jì)精度,EKF、UKF、PF等算法都是采用連續(xù)遞推方式,具有序列化合理利用圖像特征空間約束的作用,但是解算會存在以下不足:濾波精度受視覺觀測誤差不確定性的影響明顯;EKF的計(jì)算量隨特征點(diǎn)數(shù)量的增加指數(shù)上升;缺乏利用時(shí)間窗口內(nèi)多幅關(guān)鍵幀內(nèi)圖像特征進(jìn)行聯(lián)合約束的處理方式,在濾波器受干擾下誤差的抑制能力不足。BA優(yōu)化VSLAM有效利用了時(shí)間窗內(nèi)觀測及計(jì)算信息進(jìn)行綜合約束,能夠達(dá)到良好的平差效果,但是計(jì)算量過大,需要采用PTAM等快速處理方法才能實(shí)現(xiàn)實(shí)時(shí)處理。PoseGraph優(yōu)化VSLAM在優(yōu)化方式上僅是使用了序列位姿關(guān)系的一致性,相對BA約束條件有所弱化,會導(dǎo)致優(yōu)化結(jié)果最優(yōu)性有所降低。

    Strasdt[21]針對濾波及BA兩種方法,通過對單目、雙目VSLAM的分析及大量仿真,得出了增加特征點(diǎn)數(shù)量而不是關(guān)鍵幀對精度提高最有效的結(jié)論,這種情況下BA的效率要優(yōu)于濾波VSLAM。對于BA與PoseGraph,Mur-Artal[32]在ORB-SLAM、PTAM及LSD-SLAM性能對比試驗(yàn)中發(fā)現(xiàn)從導(dǎo)航精度角度出發(fā),ORB-SLAM略優(yōu)于PTAM,LSD-SLAM精度較差,主要原因是LSD-SLAM采用了PoseGraph優(yōu)化,從側(cè)面反映了BA與PoseGraph的差別。

    5 視覺導(dǎo)航技術(shù)未來發(fā)展

    純視覺導(dǎo)航研究取得了重要的進(jìn)展,并較好地實(shí)現(xiàn)了精度與處理速度的大幅度提高,特別是突破了單目視覺在應(yīng)用中的多種局限性,已經(jīng)初步形成了理論體系并能夠支撐實(shí)際應(yīng)用,但在無先驗(yàn)知識、非往復(fù)運(yùn)動情況下,同樣存在不可避免的導(dǎo)航誤差累積問題,且成像干擾、圖像中斷會導(dǎo)致測量精度迅速下降甚至不可用。視覺導(dǎo)航與衛(wèi)星導(dǎo)航、慣性導(dǎo)航等其他導(dǎo)航方式相比,體現(xiàn)出更多的互補(bǔ)性,因此組合導(dǎo)航仍然是最為有效的解決途徑。在眾多組合模式中,視覺/慣性組合具有良好的互補(bǔ)性、自主性,普及推廣優(yōu)勢明顯,實(shí)踐證明慣性信息的引入,可以大幅度降低算法的復(fù)雜度、提高性能[20,33,35-37]。面向應(yīng)用的視覺/慣性組合有2個(gè)方面的問題亟待解決:1)針對移動平臺具有較高慣性測量精度的組合應(yīng)用,因慣性測量對短時(shí)間內(nèi)運(yùn)動變化的測量精度遠(yuǎn)高于視覺,應(yīng)重點(diǎn)研究可被短時(shí)間內(nèi)視覺測量敏感的慣性誤差表現(xiàn)形式,否則失去組合的必要性;2)針對低成本組合應(yīng)用,重點(diǎn)解決低成本慣性器件高測量誤差下的BA加速、視覺/慣性濾波組合,使緊湊、小型化嵌入式組合系統(tǒng)達(dá)到因時(shí)間造成的累積誤差近似于零的水平,并具備可靠的模塊化應(yīng)用能力。

    VO、VSLAM雖然目前已經(jīng)能夠通過濾波、PTAM實(shí)現(xiàn)實(shí)時(shí)計(jì)算,地圖在向稠密構(gòu)建方向發(fā)展,并已能夠初步實(shí)現(xiàn)空間的稠密實(shí)時(shí)三維重構(gòu)[38],但對于導(dǎo)航應(yīng)用,基于魯棒特征的最簡化稀疏地圖構(gòu)建、BA快速實(shí)現(xiàn)等方面的研究可大幅度提高視覺及其組合導(dǎo)航系統(tǒng)的魯棒性、可實(shí)現(xiàn)性,意義十分重要。此外因地標(biāo)點(diǎn)具有絕對空間位置的不變性,存在僅利用其不變性約束、回避地標(biāo)點(diǎn)具體位置解算的簡化、高精度處理可能,該方向研究的成果可從根本上降低計(jì)算量,使視覺及視覺組合導(dǎo)航應(yīng)用能夠高可靠性地部署到低成本硬件平臺上。

    場景自動識別已經(jīng)成為視覺導(dǎo)航一個(gè)重要研究方向[39],深度學(xué)習(xí)等智能化算法在場景稠密深度圖實(shí)時(shí)構(gòu)造輔助下,使場景深入理解成為可能,從而可以克服目前導(dǎo)航地圖只包含無意義的空間坐標(biāo)信息的不足,賦予場景中全部或主要對象明確的語義,就可以在語義層次上實(shí)現(xiàn)導(dǎo)航,在現(xiàn)有導(dǎo)航系統(tǒng)能力上增加基于環(huán)境理解的宏觀導(dǎo)航精度保障措施,是未來視覺導(dǎo)航技術(shù)的必然發(fā)展方向。

    [1] 張廣軍. 機(jī)器視覺[M]. 北京:科學(xué)出版社,2005.

    [2]MorevecHP.Towardsautomaticvisualobstacleavoidance[C].InternationalJointConferenceonArtificialIntelligence.MorganKaufmannPublishersInc. 1977:584-584.

    [3]FranzMO,MallotHA.Biomimeticrobotnavigation[J].RoboticsandAutonomousSystems, 2000, 30(1): 133-153.

    [4]LucasBD,KanadeT.Aniterativeimageregistrationtechniquewithanapplicationtostereovision[C].InternationalJointConferenceonArtificialIntelligence.MorganKaufmannPublishersInc. 1981:674-679.

    [5]HornBKP,SchunckBG.Determiningopticalflow[J].ArtificialIntelligence, 1980, 17(1-3):185-203.

    [6]MukawaN.Optical-model-basedanalysisofconsecutiveimages[J].ComputerVisionandImageUnderstanding, 1997, 66(1): 25-32.

    [7]IzzoD,WeissN,SeidlT.Constant-optic-flowlunarlanding:Optimalityandguidance[J].JournalofGuidance,Control,andDynamics, 2012, 34(5): 1383-1395.

    [8]OhnishiN,ImiyaA.Dominantplanedetectionfromopticalflowforrobotnavigation[J].PatternRecognitionLetters, 2006, 27(9): 1009-1021.

    [9]HyslopA,HumbertJS.Wide-fieldintegrationmethodsforautonomousnavigationin3-Denvironments[C].AIAAGuidance,NavigationandControlConferenceandExhibit, 2008:1-18.

    [10]HyslopAM,HumbertJS.Autonomousnavigationinthree-dimensionalurbanenvironmentsusingwide-fieldintegrationofopticflow[J].JournalofGuidance,Control,andDynamics, 2010, 33(1): 147-159.

    [11]Longuet-HigginsHC.Acomputeralgorithmforreconstructingascenefromtwoprojections[J].Nature, 1981, 293(5828):133-135.

    [12]HarrisCG,PikeJM. 3Dpositionalintegrationfromimagesequences[J].ImageandVisionComputing, 1988, 6(2): 87-90.

    [13]JungSH,TaylorCJ.Cameratrajectoryestimationusinginertialsensormeasurementsandstructurefrommotionresults[C].Proceedingsofthe2001IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.IEEE, 2001:732-737.

    [14]NütziG,WeissS,ScaramuzzaD,etal.FusionofIMUandvisionforabsolutescaleestimationinmonocularSLAM[J].JournalofIntelligent&RoboticSystems, 2011, 61(1): 287-299.

    [15]ScaramuzzaD,FraundorferF.Tutorial:visualodometry[J].IEEERoboticsandAutomationMagazine, 2011, 18(4): 80-92.

    [16]NistérD.Anefficientsolutiontothefive-pointrelativeposeproblem[J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2004, 26(6): 756-770.

    [17]NistérD,NaroditskyO,BergenJ.Visualodometry[C].Proceedingsofthe2004IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.IEEE, 2004:652-659.

    [18]Sch?psT,EngelJ,CremersD.Semi-densevisualodometryforARonasmartphone[C]. 2014IEEEInternationalSymposiumonMixedandAugmentedReality(ISMAR)-Media,Arts,SocialScience,HumanitiesandDesign.IEEE, 2014: 145-150.

    [19]EngelJ,Sch?psT,CremersD.LSD-SLAM:Large-scaledirectmonocularSLAM[C].EuropeanConferenceonComputerVision.SpringerInternationalPublishing, 2014: 834-849.

    [20]TardifJP,GeorgeM,LaverneM,etal.Anewapproachtovision-aidedinertialnavigation[C]// 2010IEEE/RSJInternationalConferenceonIntelligentRobotsandSystems(IROS).IEEE, 2010: 4161-4168.

    [21]StrasdatH,MontielJMM,DavisonAJ.Real-timemonocularSLAM:Whyfilter?[C]. 2010IEEEInternationalConferenceonRoboticsandAutomation(ICRA).IEEE, 2010: 2657-2664.

    [22]DavisonAJ.Real-timesimultaneouslocalisationandmappingwithasinglecamera[C].ProceedingsoftheIEEEInternationalConferenceonComputerVision.IEEE, 2003:1403-1410.

    [23]KleinG,MurrayD.ParalleltrackingandmappingforsmallARworkspaces[C].IEEEandACMInternationalSymposiumonMixedandAugmentedReality.IEEEComputerSociety, 2007: 225 - 234.

    [24]BroxT,BruhnA,PapenbergN,etal.Highaccuracyopticalflowestimationbasedonatheoryforwarping[C].EuropeanConferenceonComputerVision.SpringerBerlinHeidelberg, 2004: 25-36.

    [25]BroxT,BreglerC,MalikJ.Largedisplacementopticalflow[C].IEEEConferenceonComputerVisionandPatternRecognition.IEEE, 2009: 41-48.

    [26]BruhnA,WeickertJ,Schn?rrC,etal.Lucas/KanademeetsHorn/Schunck:Combininglocalandglobalopticflowmethods[J].InternationalJournalofComputerVision, 2005, 61(3): 211-231.

    [27]ChaoH,GuY,GrossJ,etal.AcomparativestudyofopticalflowandtraditionalsensorsinUAVnavigation[C].AmericanControlConference(ACC).IEEE, 2013: 3858-3863.

    [28]ChaoH,GuY,NapolitanoM.Asurveyofopticalflowtechniquesforroboticsnavigationapplications[J].JournalofIntelligent&RoboticSystems, 2014, 73(1): 361-372.

    [29]http://www.centeye.com/technology/vision-chips/

    [30]HartleyR,ZissermanA.Multipleviewgeometryincomputervision. 2nded[M].CambridgeUniversityPress, 2003.

    [31]CiveraJ,DavisonAJ,MontielJMM.Inversedepthtodepthconversionformonocularslam[C]. 2007IEEEInternationalConferenceonRoboticsandAutomation.IEEE, 2007: 2778-2783.

    [32]Mur-ArtalR,MontielJMM,TardosJD.ORB-SLAM:aversatileandaccuratemonocularSLAMsystem[J].IEEETransactionsonRobotics, 2015, 31(5): 1147-1163.

    [33]TiefenbacherP,SchulzeT,RigollG.Off-the-shelfsensorintegrationformono-SLAMonsmartdevices[C].ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognitionWorkshops.IEEE, 2015: 15-20.

    [34]OlsonE,LeonardJ,TellerS.Fastiterativealignmentofposegraphswithpoorinitialestimates[C].Proceedingsofthe2006IEEEInternationalConferenceonRoboticsandAutomation.IEEE, 2006: 2262-2269.

    [35]ZhouH,NiK,ZhouQ,etal.AnSfMalgorithmwithgoodconvergencethataddressesoutliersforrealizingmono-SLAM[J].IEEETransactionsonIndustrialInformatics, 2016, 12(2): 515-523.

    [36]HuangR,TanP,ChenBM.Monocularvision-basedautonomousnavigationsystemonatoyquadcopterinunknownenvironments[C]. 2015InternationalConferenceonUnmannedAircraftSystems(ICUAS).IEEE, 2015: 1260-1269.

    [37]IndelmanV,GurfilP,RivlinE,etal.Real-timevision-aidedlocalizationandnavigationbasedonthree-viewgeometry[J].IEEETransactionsonAerospaceandElectronicSystems, 2012, 48(3): 2239-2259.

    [38]NewcombeRA,LovegroveSJ,DavisonAJ.DTAM:Densetrackingandmappinginreal-time[C].IEEEInternationalConferenceonComputerVision.IEEEComputerSociety, 2011:2320-2327.

    [39]LowryS,SünderhaufN,NewmanP,etal.Visualplacerecognition:Asurvey[J].IEEETransactionsonRobotics, 2016, 32(1):1-19.

    [40]MichaelM,SebastianT,DaphneK,etal.FastSLAM2.0:Animprovedparticlefilteringalgorithmforsimultaneouslocalizationandmappingthatprovablyconverges[C].Proceedingsofthe16thInternationalJointConferenceonArtificialIntelligence(IJCAI). 2003:1151-1156.

    The Development of Visual Navigation

    ZHANG Hai1, WU Ke-qiang1, ZHANG Xiao-ou2

    (1.School of Automation Science and Electrical Engineering, Beihang University, Beijing 100191, China; 2.Unmanned Aerial Vehicle Research Institute, Beihang University, Beijing 100191, China)

    Along with the fast development of visual navigation in the last two decades, some significant progresses have been achieved and applications in wide fields are ready to come. The developments,theories, advantages and difficulties are introduced according to the main visual navigation algorithms of optical flow, Visual Odometry and VSLAM. Finally, the future researches of coming and long term stages are analyzed in brief.

    SFM; VO; VSLAM;Optical flow; Integrated navigation

    2017-02-07;

    2017-03-08

    國家重點(diǎn)研發(fā)計(jì)劃(2016YFB0502004);國家自然科學(xué)基金國際合作與交流項(xiàng)目(61320106010)

    張海(1970-),男,博士,副教授,主要從事慣性、視覺及組合導(dǎo)航技術(shù)等方面的研究。 E-mail:zhanghai@buaa.edu.cn

    10.19306/j.cnki.2095-8110.2017.02.001

    TP391.4

    A

    2095-8110(2017)02-0001-08

    猜你喜歡
    單目光流位姿
    利用掩膜和單應(yīng)矩陣提高LK光流追蹤效果
    一種單目相機(jī)/三軸陀螺儀/里程計(jì)緊組合導(dǎo)航算法
    基于物理學(xué)的改善粒子圖像測速穩(wěn)健光流方法研究
    單目SLAM直線匹配增強(qiáng)平面發(fā)現(xiàn)方法
    基于共面直線迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
    基于CAD模型的單目六自由度位姿測量
    小型四旋翼飛行器位姿建模及其仿真
    基于單目立體視覺的三坐標(biāo)在線識別技術(shù)研究
    融合光流速度場與背景差分的自適應(yīng)背景更新方法
    基于幾何特征的快速位姿識別算法研究
    韩国av在线不卡| 看免费成人av毛片| 久久久国产欧美日韩av| 国产无遮挡羞羞视频在线观看| 久久精品夜色国产| 国产成人a∨麻豆精品| 中文字幕最新亚洲高清| 国国产精品蜜臀av免费| 2018国产大陆天天弄谢| 在线观看三级黄色| 如日韩欧美国产精品一区二区三区| 狂野欧美激情性bbbbbb| 亚洲美女视频黄频| 亚洲精品自拍成人| 亚洲激情五月婷婷啪啪| 欧美日韩综合久久久久久| 99久国产av精品国产电影| 制服人妻中文乱码| 爱豆传媒免费全集在线观看| 国产福利在线免费观看视频| 国产免费福利视频在线观看| 成年美女黄网站色视频大全免费| 久久女婷五月综合色啪小说| 国产一区二区三区综合在线观看 | 亚洲,欧美,日韩| av视频免费观看在线观看| 极品少妇高潮喷水抽搐| 国产色爽女视频免费观看| 久久精品国产a三级三级三级| 成年av动漫网址| 欧美成人精品欧美一级黄| 老司机亚洲免费影院| 国产欧美另类精品又又久久亚洲欧美| 女人精品久久久久毛片| 视频区图区小说| 日韩精品有码人妻一区| 欧美人与善性xxx| 丝袜喷水一区| 国产69精品久久久久777片| 久久久久网色| 在线观看免费高清a一片| 欧美另类一区| 国产成人91sexporn| 天天操日日干夜夜撸| 亚洲第一区二区三区不卡| 大话2 男鬼变身卡| 久热这里只有精品99| 女的被弄到高潮叫床怎么办| av女优亚洲男人天堂| 久久久久久久精品精品| 男女无遮挡免费网站观看| 精品一区二区三区视频在线| 日韩成人av中文字幕在线观看| 亚洲成国产人片在线观看| 91aial.com中文字幕在线观看| 国产高清不卡午夜福利| kizo精华| 巨乳人妻的诱惑在线观看| 婷婷成人精品国产| 国产精品嫩草影院av在线观看| 久久99热这里只频精品6学生| av又黄又爽大尺度在线免费看| 香蕉国产在线看| 满18在线观看网站| 成人亚洲精品一区在线观看| 国产乱人偷精品视频| 丝瓜视频免费看黄片| 国产深夜福利视频在线观看| 国产乱人偷精品视频| videos熟女内射| 日韩 亚洲 欧美在线| 嫩草影院入口| 夫妻午夜视频| 精品少妇内射三级| 日本欧美国产在线视频| 国产亚洲一区二区精品| 国产无遮挡羞羞视频在线观看| 老司机影院成人| 一区二区三区乱码不卡18| 亚洲精品日本国产第一区| 侵犯人妻中文字幕一二三四区| 午夜激情av网站| 丰满迷人的少妇在线观看| 一本色道久久久久久精品综合| 国产熟女午夜一区二区三区| 国产单亲对白刺激| 搡老乐熟女国产| 久久青草综合色| 免费在线观看日本一区| 久久国产精品影院| 亚洲av成人一区二区三| 啦啦啦在线免费观看视频4| 制服人妻中文乱码| 91精品国产国语对白视频| 国产乱人伦免费视频| 999久久久精品免费观看国产| 婷婷精品国产亚洲av在线 | 捣出白浆h1v1| 国产一区二区三区在线臀色熟女 | 啦啦啦免费观看视频1| 国产av一区二区精品久久| 日韩欧美一区二区三区在线观看 | 黄色视频,在线免费观看| 巨乳人妻的诱惑在线观看| 在线观看一区二区三区激情| 国产主播在线观看一区二区| 黄色视频不卡| 狠狠狠狠99中文字幕| 久久九九热精品免费| 人成视频在线观看免费观看| 少妇裸体淫交视频免费看高清 | 国产成人一区二区三区免费视频网站| 后天国语完整版免费观看| 99riav亚洲国产免费| 欧美精品人与动牲交sv欧美| 中国美女看黄片| 精品无人区乱码1区二区| 人人妻人人澡人人看| 啪啪无遮挡十八禁网站| 久久人妻福利社区极品人妻图片| 捣出白浆h1v1| 美女高潮喷水抽搐中文字幕| 80岁老熟妇乱子伦牲交| 啦啦啦免费观看视频1| 国产日韩欧美亚洲二区| 午夜视频精品福利| 亚洲 国产 在线| 国产成人欧美| 不卡一级毛片| 午夜影院日韩av| 宅男免费午夜| 少妇被粗大的猛进出69影院| 亚洲第一av免费看| 国产男靠女视频免费网站| 午夜免费观看网址| 欧美日韩亚洲综合一区二区三区_| av超薄肉色丝袜交足视频| 国产精品成人在线| 后天国语完整版免费观看| 99久久国产精品久久久| 亚洲综合色网址| 看黄色毛片网站| 两性午夜刺激爽爽歪歪视频在线观看 | 亚洲 欧美一区二区三区| 成年女人毛片免费观看观看9 | 精品少妇久久久久久888优播| 无限看片的www在线观看| 欧美日韩亚洲高清精品| 久久狼人影院| 在线免费观看的www视频| 丝瓜视频免费看黄片| 成人国产一区最新在线观看| 久久精品国产a三级三级三级| 亚洲第一av免费看| 一级a爱片免费观看的视频| 岛国毛片在线播放| av超薄肉色丝袜交足视频| 18禁黄网站禁片午夜丰满| 中出人妻视频一区二区| 国产成人啪精品午夜网站| 王馨瑶露胸无遮挡在线观看| 国产精品久久久久久精品古装| 每晚都被弄得嗷嗷叫到高潮| 国产无遮挡羞羞视频在线观看| 欧美av亚洲av综合av国产av| 91麻豆精品激情在线观看国产 | 国产真人三级小视频在线观看| 老熟妇仑乱视频hdxx| 12—13女人毛片做爰片一| 人妻 亚洲 视频| 亚洲精品国产精品久久久不卡| 99riav亚洲国产免费| 老司机福利观看| 多毛熟女@视频| 91大片在线观看| 国产99久久九九免费精品| 亚洲精品久久午夜乱码| 啦啦啦在线免费观看视频4| 咕卡用的链子| 欧美日韩av久久| 欧美日韩黄片免| 国产熟女午夜一区二区三区| 黑丝袜美女国产一区| 亚洲av欧美aⅴ国产| 国产成人一区二区三区免费视频网站| 国产区一区二久久| 亚洲免费av在线视频| 精品久久蜜臀av无| svipshipincom国产片| 高清av免费在线| 黄色丝袜av网址大全| 中文字幕av电影在线播放| 久久 成人 亚洲| 国产精品一区二区精品视频观看| 免费看a级黄色片| 一二三四社区在线视频社区8| cao死你这个sao货| 亚洲av日韩在线播放| 一边摸一边抽搐一进一小说 | 亚洲一区二区三区不卡视频| 纯流量卡能插随身wifi吗| 国产精品免费一区二区三区在线 | 欧美黄色淫秽网站| 亚洲欧洲精品一区二区精品久久久| 欧美最黄视频在线播放免费 | 国产人伦9x9x在线观看| 女性被躁到高潮视频| 欧美亚洲日本最大视频资源| 国产成人系列免费观看| 国产欧美日韩精品亚洲av| 国产一区二区三区综合在线观看| 女性生殖器流出的白浆| 最近最新中文字幕大全免费视频| 99热国产这里只有精品6| 亚洲精品国产色婷婷电影| 欧美精品啪啪一区二区三区| 亚洲精品在线观看二区| 国产精品久久久人人做人人爽| 日韩欧美三级三区| 91av网站免费观看| 国产色视频综合| 欧美日韩亚洲国产一区二区在线观看 | 无人区码免费观看不卡| 我的亚洲天堂| 一区二区三区激情视频| 在线永久观看黄色视频| 亚洲性夜色夜夜综合| 天天操日日干夜夜撸| 十分钟在线观看高清视频www| 9191精品国产免费久久| 黑人巨大精品欧美一区二区mp4| 久久国产乱子伦精品免费另类| 午夜亚洲福利在线播放| 少妇的丰满在线观看| 香蕉久久夜色| 91成人精品电影| 在线看a的网站| 老司机午夜福利在线观看视频| 热re99久久国产66热| 国产视频一区二区在线看| 每晚都被弄得嗷嗷叫到高潮| 国产精品久久久av美女十八| 久久久久久久午夜电影 | 精品免费久久久久久久清纯 | 亚洲国产欧美日韩在线播放| 日本黄色日本黄色录像| cao死你这个sao货| 久久天躁狠狠躁夜夜2o2o| 无人区码免费观看不卡| 丰满人妻熟妇乱又伦精品不卡| 啦啦啦视频在线资源免费观看| 欧美不卡视频在线免费观看 | 国产成人av教育| 欧美精品av麻豆av| 精品国产国语对白av| 激情视频va一区二区三区| 国产精品免费一区二区三区在线 | 国产国语露脸激情在线看| 欧美一级毛片孕妇| 精品国产乱子伦一区二区三区| 中文字幕精品免费在线观看视频| 建设人人有责人人尽责人人享有的| 亚洲国产毛片av蜜桃av| 国产一卡二卡三卡精品| 欧美精品人与动牲交sv欧美| 欧美另类亚洲清纯唯美| 97人妻天天添夜夜摸| 精品视频人人做人人爽| 亚洲人成77777在线视频| 欧美日韩成人在线一区二区| 国产成人免费观看mmmm| 夜夜躁狠狠躁天天躁| 国产成人欧美| 亚洲精品国产精品久久久不卡| 日本一区二区免费在线视频| 亚洲 欧美一区二区三区| 女人被躁到高潮嗷嗷叫费观| 亚洲精品一二三| 51午夜福利影视在线观看| 欧美成人免费av一区二区三区 | 亚洲美女黄片视频| 免费女性裸体啪啪无遮挡网站| 国产精品免费大片| 建设人人有责人人尽责人人享有的| 成年动漫av网址| 精品国产乱码久久久久久男人| 欧美人与性动交α欧美精品济南到| 校园春色视频在线观看| 成年人午夜在线观看视频| 免费少妇av软件| 精品福利永久在线观看| 久久久久精品国产欧美久久久| 在线观看免费视频日本深夜| 亚洲熟妇熟女久久| 久久香蕉激情| 欧美最黄视频在线播放免费 | 久久草成人影院| 在线观看舔阴道视频| 国产日韩欧美亚洲二区| 国产精品av久久久久免费| 久久久久国产一级毛片高清牌| 欧美 亚洲 国产 日韩一| 国产淫语在线视频| 久久天躁狠狠躁夜夜2o2o| 精品一区二区三区av网在线观看| 天堂俺去俺来也www色官网| 人妻 亚洲 视频| 久久人妻熟女aⅴ| 国产精品永久免费网站| 美女视频免费永久观看网站| 亚洲男人天堂网一区| 久久精品亚洲av国产电影网| 欧美中文综合在线视频| 国产精品久久久久久精品古装| av有码第一页| 精品久久蜜臀av无| 亚洲欧美精品综合一区二区三区| 天堂动漫精品| 三级毛片av免费| 精品高清国产在线一区| 97人妻天天添夜夜摸| 亚洲成人免费av在线播放| 亚洲九九香蕉| 亚洲avbb在线观看| 日韩中文字幕欧美一区二区| 日本精品一区二区三区蜜桃| 很黄的视频免费| 热99国产精品久久久久久7| 99re在线观看精品视频| 亚洲九九香蕉| 日本撒尿小便嘘嘘汇集6| 真人做人爱边吃奶动态| 亚洲国产欧美日韩在线播放| 人妻一区二区av| 久久精品亚洲av国产电影网| av一本久久久久| 欧美精品亚洲一区二区| 亚洲片人在线观看| 国产成人精品无人区| www.精华液| 欧美精品亚洲一区二区| 一二三四社区在线视频社区8| 热99re8久久精品国产| 久久热在线av| 国产精品1区2区在线观看. | 在线免费观看的www视频| 亚洲一区二区三区欧美精品| 欧美另类亚洲清纯唯美| 99国产精品一区二区三区| 新久久久久国产一级毛片| 国产三级黄色录像| 亚洲一卡2卡3卡4卡5卡精品中文| 高潮久久久久久久久久久不卡| 国产精品98久久久久久宅男小说| avwww免费| 91国产中文字幕| 精品国产国语对白av| 亚洲国产看品久久| 国产精华一区二区三区| 亚洲午夜理论影院| 精品一品国产午夜福利视频| 99国产综合亚洲精品| 制服诱惑二区| 日日爽夜夜爽网站| 午夜影院日韩av| 久久精品成人免费网站| 国产成人啪精品午夜网站| 成人特级黄色片久久久久久久| 黄色女人牲交| 亚洲熟女精品中文字幕| 99国产精品一区二区三区| 久久久精品免费免费高清| 午夜精品在线福利| 亚洲一区二区三区不卡视频| 啦啦啦免费观看视频1| 亚洲五月天丁香| 国产高清videossex| 一级黄色大片毛片| 成年人免费黄色播放视频| 国产97色在线日韩免费| 国产精品久久久久久精品古装| 亚洲av电影在线进入| 亚洲成a人片在线一区二区| 国产在视频线精品| 日韩制服丝袜自拍偷拍| 精品久久久久久久毛片微露脸| 亚洲精品乱久久久久久| 一区二区三区国产精品乱码| 天天躁狠狠躁夜夜躁狠狠躁| 欧美亚洲 丝袜 人妻 在线| 久久国产亚洲av麻豆专区| 美女午夜性视频免费| 国产av又大| 天天躁日日躁夜夜躁夜夜| 99re在线观看精品视频| 大型av网站在线播放| 久久久久精品国产欧美久久久| 动漫黄色视频在线观看| 深夜精品福利| 久久久精品国产亚洲av高清涩受| 黄色怎么调成土黄色| 午夜福利欧美成人| bbb黄色大片| 欧美日韩av久久| 视频区欧美日本亚洲| 丰满人妻熟妇乱又伦精品不卡| 中文字幕制服av| 久久中文字幕一级| 国内久久婷婷六月综合欲色啪| 亚洲全国av大片| 久久天躁狠狠躁夜夜2o2o| 精品国产国语对白av| 巨乳人妻的诱惑在线观看| 国产黄色免费在线视频| 亚洲色图综合在线观看| 久久国产精品男人的天堂亚洲| 久9热在线精品视频| 日韩免费高清中文字幕av| 欧美黄色片欧美黄色片| 18禁黄网站禁片午夜丰满| 中文字幕精品免费在线观看视频| 久久久国产欧美日韩av| 亚洲七黄色美女视频| 人妻丰满熟妇av一区二区三区 | 午夜福利一区二区在线看| 中文字幕人妻熟女乱码| 日韩欧美国产一区二区入口| 久久久久久久精品吃奶| 精品第一国产精品| 黑人巨大精品欧美一区二区蜜桃| 国产伦人伦偷精品视频| 国产高清国产精品国产三级| 91字幕亚洲| 亚洲av熟女| 黄色怎么调成土黄色| 亚洲美女黄片视频| 免费看十八禁软件| 看片在线看免费视频| 99re在线观看精品视频| 欧美乱妇无乱码| 午夜精品久久久久久毛片777| 国内久久婷婷六月综合欲色啪| 999久久久精品免费观看国产| 国产免费现黄频在线看| aaaaa片日本免费| 欧美日韩瑟瑟在线播放| 国产91精品成人一区二区三区| 在线观看免费午夜福利视频| 欧美人与性动交α欧美软件| 一进一出好大好爽视频| 欧美日韩福利视频一区二区| 又黄又粗又硬又大视频| 国产91精品成人一区二区三区| 免费在线观看亚洲国产| 色老头精品视频在线观看| 午夜免费观看网址| 欧美成人免费av一区二区三区 | 欧美黄色片欧美黄色片| 亚洲一区高清亚洲精品| 老司机靠b影院| 亚洲国产欧美一区二区综合| 精品国产乱子伦一区二区三区| 欧美av亚洲av综合av国产av| 成人手机av| 欧美精品啪啪一区二区三区| 五月开心婷婷网| 国产在线精品亚洲第一网站| 久久精品aⅴ一区二区三区四区| 成人国语在线视频| 纯流量卡能插随身wifi吗| 最新的欧美精品一区二区| 热99国产精品久久久久久7| 岛国毛片在线播放| 色尼玛亚洲综合影院| 人人妻,人人澡人人爽秒播| 中文欧美无线码| 一级a爱视频在线免费观看| 少妇裸体淫交视频免费看高清 | 国产淫语在线视频| 日本一区二区免费在线视频| 97人妻天天添夜夜摸| 啦啦啦 在线观看视频| 精品欧美一区二区三区在线| 999精品在线视频| 午夜福利在线观看吧| 久久精品亚洲熟妇少妇任你| 欧美激情极品国产一区二区三区| 搡老乐熟女国产| 精品视频人人做人人爽| 亚洲一区高清亚洲精品| av天堂在线播放| 操出白浆在线播放| 亚洲精品国产区一区二| 国产黄色免费在线视频| 一本综合久久免费| 亚洲精品粉嫩美女一区| 亚洲精品国产色婷婷电影| 亚洲欧美色中文字幕在线| 国产精品美女特级片免费视频播放器 | 久久影院123| 精品人妻在线不人妻| 亚洲免费av在线视频| 好男人电影高清在线观看| 一级片免费观看大全| 一本综合久久免费| 视频区欧美日本亚洲| 国产99久久九九免费精品| 啦啦啦 在线观看视频| 日日爽夜夜爽网站| 亚洲精品国产精品久久久不卡| 正在播放国产对白刺激| 国产一区在线观看成人免费| 很黄的视频免费| 国产精品综合久久久久久久免费 | 啦啦啦在线免费观看视频4| 亚洲成av片中文字幕在线观看| av天堂久久9| 18禁国产床啪视频网站| 18禁裸乳无遮挡动漫免费视频| 亚洲专区中文字幕在线| 91国产中文字幕| 国产乱人伦免费视频| 精品久久久久久久毛片微露脸| 日日爽夜夜爽网站| 男女床上黄色一级片免费看| 最近最新中文字幕大全电影3 | 日本五十路高清| 欧美日韩一级在线毛片| 久久久精品区二区三区| 人成视频在线观看免费观看| 美女福利国产在线| 中文字幕人妻丝袜一区二区| 丰满人妻熟妇乱又伦精品不卡| 在线视频色国产色| 亚洲欧美激情综合另类| 少妇粗大呻吟视频| 91国产中文字幕| 国产亚洲av高清不卡| av网站免费在线观看视频| 欧美人与性动交α欧美软件| 免费高清在线观看日韩| 国产1区2区3区精品| 天堂动漫精品| 亚洲情色 制服丝袜| 少妇被粗大的猛进出69影院| 欧洲精品卡2卡3卡4卡5卡区| 精品人妻在线不人妻| 日韩欧美在线二视频 | x7x7x7水蜜桃| 成人av一区二区三区在线看| 99riav亚洲国产免费| 下体分泌物呈黄色| 亚洲av第一区精品v没综合| 亚洲中文日韩欧美视频| 亚洲第一欧美日韩一区二区三区| 999久久久国产精品视频| 黄片大片在线免费观看| av免费在线观看网站| cao死你这个sao货| 欧美精品亚洲一区二区| 久久亚洲真实| 国产精品1区2区在线观看. | 18禁裸乳无遮挡动漫免费视频| 女人高潮潮喷娇喘18禁视频| 国产极品粉嫩免费观看在线| 国产99白浆流出| 免费看十八禁软件| 久热爱精品视频在线9| 久久久久久久久久久久大奶| 一级a爱视频在线免费观看| 99riav亚洲国产免费| 婷婷成人精品国产| 99精品久久久久人妻精品| 999久久久国产精品视频| 久久这里只有精品19| 亚洲av成人不卡在线观看播放网| 黄色片一级片一级黄色片| 亚洲精品中文字幕在线视频| 久久午夜亚洲精品久久| 亚洲精品国产区一区二| 中文字幕人妻熟女乱码| 自线自在国产av| 日本撒尿小便嘘嘘汇集6| 国产在线观看jvid| 99久久综合精品五月天人人| 国产精品香港三级国产av潘金莲| svipshipincom国产片| 久久精品国产亚洲av香蕉五月 | 99国产极品粉嫩在线观看| 国产国语露脸激情在线看| 一进一出抽搐gif免费好疼 | 香蕉国产在线看| 久久久久久久国产电影| 操美女的视频在线观看| 国产一区在线观看成人免费| 夫妻午夜视频| 亚洲,欧美精品.| 窝窝影院91人妻| 俄罗斯特黄特色一大片| 99国产精品一区二区三区| 狠狠婷婷综合久久久久久88av| 又黄又粗又硬又大视频| 男女免费视频国产| 亚洲精品一卡2卡三卡4卡5卡| 久久久久久久久久久久大奶| 国产精品亚洲一级av第二区| 嫁个100分男人电影在线观看| 999久久久精品免费观看国产| 久9热在线精品视频| 三上悠亚av全集在线观看| 极品人妻少妇av视频| 亚洲国产精品sss在线观看 | cao死你这个sao货| 国产视频一区二区在线看| 欧美精品一区二区免费开放|