• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    視覺與慣性傳感器融合的SLAM技術(shù)綜述

    2020-12-28 02:00楊觀賜王霄遠蔣亞汶李楊
    關(guān)鍵詞:移動機器人定位

    楊觀賜 王霄遠 蔣亞汶 李楊

    摘 要:同時定位與建圖(SLAM)是指當(dāng)機器人在未知的環(huán)境中運行時能夠自動繪制環(huán)境地圖,同時確定自身在地圖中的位置。融合視覺和慣性傳感器獲取的數(shù)據(jù)來實現(xiàn)實時的高精度和魯棒的SLAM,是當(dāng)前智能機器人領(lǐng)域的研究熱點。為了全面深入地認識VI-SLAM系統(tǒng),首先,分析了4種典型的VI-SLAM系統(tǒng);其次,綜述了視覺慣性里程計、定位和建圖技術(shù)方面的最新成果;再次,比較分析了VI-SLAM研究平臺;最后,總結(jié)展望了未來的發(fā)展趨勢。

    關(guān)鍵詞:SLAM;視覺慣性里程計;定位;建圖;移動機器人

    中圖分類號:TP181

    文獻標識碼: A

    同時定位和建圖(simultaneous localization and mapping, SLAM)[1-2]是指將移動機器人置于未知環(huán)境中的未知位置時,移動機器人自動逐步構(gòu)建與環(huán)境一致的地圖,并同時使用該地圖確定其自身在地圖中的位置。SLAM系統(tǒng)由前端和后端組成,前端主要負責(zé)執(zhí)行數(shù)據(jù)關(guān)聯(lián),后端主要負責(zé)狀態(tài)推斷。在確保計算效率的同時,如何確保地圖和位姿估計的全局一致性和高精度,如何解決非線性、數(shù)據(jù)關(guān)聯(lián)和界標特性等問題引起了眾多學(xué)者的關(guān)注。

    典型SLAM解決方案[3]主要利用視覺傳感器,雖然取得了不錯的效果,但是當(dāng)移動機器人處于低紋理、光照變化和圖像模糊、以及高速運動時表現(xiàn)欠佳。視覺傳感器低速運行時能夠有較精確地環(huán)境特征跟蹤表現(xiàn),但是隨著速度的增大,特征跟蹤的準確性迅速降低;慣性傳感器(inertial measurement unit,IMU)能夠跟隨運動速度變化,不受運動場景和運動速度的限制而準確測量出角速度和線性加速度,但是當(dāng)其長時間運行時,IMU因其自身偏置而產(chǎn)生估計累計漂移[3-4]。融合使用視覺和慣性傳感器可以提供豐富的運動和環(huán)境結(jié)構(gòu)信息。為了發(fā)揮視覺傳感器和IMU的優(yōu)勢,規(guī)避它們的劣勢,人們研制了視覺傳感器和IMU融合的SLAM(visual-inertial SLAM, VI-SLAM)系統(tǒng)(見圖1)[5],采用基于優(yōu)化或基于濾波的技術(shù)采集物理量,然后運用特定的方法估算這些物理量,從而獲得對自身運動和場景結(jié)構(gòu)的可靠估計[6-7]。

    a)雙目攝像頭-IMU傳感器[31] b)RGB-D-IMU傳感器[95] c)矩陣視覺相機-IMU傳感器[40] d)全局快門相機-IMU傳感器[93]

    當(dāng)前,VI-SLAM已廣泛應(yīng)用于機器人導(dǎo)航[5,12-18],無人機[19-27],增強現(xiàn)實[28-32],虛擬現(xiàn)實[33]以及無人駕駛[34]等領(lǐng)域,而傳感器的校準、系統(tǒng)的初始化、數(shù)據(jù)的處理和融合方法、閉環(huán)檢測的精度和效率等因素都會對VI-SLAM系統(tǒng)產(chǎn)生影響[8]。

    為了更好地把握VI-SLAM領(lǐng)域取得的成果,本文從VI-SLAM系統(tǒng)、視覺慣性里程計、定位和建圖技術(shù)以及VI-SLAM的研究平臺方面進行了綜述,并展望了發(fā)展趨勢。

    1 視覺慣性SLAM系統(tǒng)技術(shù)分類

    圖2是VI-SLAM系統(tǒng)的框架結(jié)構(gòu)圖。系統(tǒng)啟動時,首先校準傳感器;系統(tǒng)運行過程中,不同傳感器分別采集環(huán)境結(jié)構(gòu)信息和機器人運動信息;在預(yù)處理所采集的數(shù)據(jù)后,使用不同的融合策略進行數(shù)據(jù)融合;最后利用融合的數(shù)據(jù)實現(xiàn)定位和建圖。接下來,將綜述基于關(guān)鍵幀的VI-SLAM系統(tǒng)、稠密VI-SLAM系統(tǒng)、緊密耦合的VI-SLAM系統(tǒng)和協(xié)作式的VI-SLAM系統(tǒng)的技術(shù)特點。

    1.1 基于關(guān)鍵幀的VI-SLAM系統(tǒng)

    對于傳感器數(shù)據(jù)的融合,基于過濾的融合策略與非線性優(yōu)化方法相比,后者在魯棒性、精度和計算復(fù)雜度上更具優(yōu)勢。文獻[35]將慣性測量數(shù)據(jù)集成到基于關(guān)鍵幀的視覺SLAM中,將IMU誤差項以全概率的方式與界標重投影誤差集成在一起進行聯(lián)合優(yōu)化非線性成本函數(shù),并利用“關(guān)鍵幀”概念邊緣化過去狀態(tài)部分來維持有限大小的優(yōu)化窗口,從而確保實時性操作。文獻[36]提出了基于關(guān)鍵幀的視覺慣性協(xié)作式同時定位和建圖框架,在建圖和定位高效協(xié)作方面具有優(yōu)勢。文獻[37]提出的基于關(guān)鍵幀的單目和雙目相機視覺慣性融合的SLAM系統(tǒng),能夠獲得更好的局部一致軌跡和地圖估計,并通過局部跟蹤、位姿圖優(yōu)化和閉環(huán)檢測實現(xiàn)VI-SLAM的定位準確性和全局一致性。此外,它能夠根據(jù)先前構(gòu)建的地圖進行重新定位并繼續(xù)執(zhí)行SLAM。文獻[38]提出的實時單目VI-SLAM系統(tǒng)在消除漂移方面性能良好,它通過融合單目視覺慣性里程計特征實現(xiàn)重定位,然后執(zhí)行4-DOF位姿圖優(yōu)化校正漂移。此系統(tǒng)可以通過重用地圖和重新定位相機獲得機器人在已有地圖中的絕對位姿,通過全局位姿圖優(yōu)化將當(dāng)前地圖與先前地圖合并。

    1.2 稠密VI-SLAM系統(tǒng)

    文獻[39]提出的稠密VI-SLAM系統(tǒng),可以同時優(yōu)化相機的位姿、速度、IMU偏置和重力方向,構(gòu)建稠密的環(huán)境3D場景地圖。文獻[40]構(gòu)建了一種基于動態(tài)網(wǎng)格與雙目攝像頭的稠密視覺慣性SLAM系統(tǒng)。該系統(tǒng)將空間劃分為網(wǎng)格,在線重建場景的完全稠密地圖。文獻[41]研究了具有結(jié)構(gòu)約束的稠密平面慣性SLAM框架。它使用手持式RGB-D傳感器和IMU重建大型室內(nèi)環(huán)境的稠密3D模型,通過結(jié)構(gòu)約束減少輸出建圖中的漂移和失真。文獻[42]提出的方法能夠從攝像頭的運動情況和稀疏深度推斷稠密深度信息,從極稀疏的點云中恢復(fù)場景幾何形狀。文獻[10]使用直接法同時優(yōu)化IMU測量和視覺數(shù)據(jù),形成了基于直接法的VI-SLAM,可以用于實時的場景稠密地圖在線重建和跟蹤。而為了平衡精度和計算效率,文獻[43]提出了基于半直接法的VI-SLAM,它集成了特征法的準確性和直接法的快速性,在估計機器人的運動和稀疏場景的結(jié)構(gòu)方面具有優(yōu)勢。

    1.3 緊密耦合的VI-SLAM系統(tǒng)

    移動機器人具有實時定位和地建圖功能才能真正自主地運行。其路徑規(guī)劃和決策依賴于機器人對周圍環(huán)境的及時準確建圖和狀態(tài)估計。對此,文獻[44]提出了基于傳感器時間同步校準的緊密耦合實時VI-SLAM框架,它能夠在動態(tài)的環(huán)境中進行準確、實時的位姿估計和建圖。文獻[45]提出的多合一多傳感器視覺慣性融合SLAM,通過同步和校準多傳感器,實現(xiàn)緊密耦合的視覺慣性跟蹤和并行建圖。此方法能夠與其他傳感器模態(tài)松散耦合。由于視覺慣性系統(tǒng)具有非線性的特點,其性能在很大程度上取決于初始值的準確性,因此,文獻[46]提出了提高初始狀態(tài)估計準確性的方法。即:在已知重力大小的基礎(chǔ)上,通過優(yōu)化其切線空間上的二維誤差狀態(tài)細化估計的重力矢量,然后分別估計加速度計的偏置。此外,它還提出了確定何時初始化成功的自動終止條件,一旦初始狀態(tài)估計收斂,就使用初始估計值啟動非線性緊密耦合的VI-SLAM系統(tǒng)。

    鑒于視覺慣性里程計(visual-inertial odometry, VIO)方法缺乏閉合回路的能力,并且即使傳感器不斷地重新訪問同一位置,軌跡估計也會出現(xiàn)累積漂移,文獻[47]提出了一種新穎的緊密耦合的VI-SLAM系統(tǒng)。該系統(tǒng)可以閉合回路并重用其地圖,能在已建圖的區(qū)域?qū)崿F(xiàn)對傳感器的零漂移定位;其局部建圖線程在插入新的關(guān)鍵幀之后將執(zhí)行局部BA(bundle adjustment),優(yōu)化最后N個關(guān)鍵幀和由這些關(guān)鍵幀所觀察到的所有點特征。為了獲得魯棒的SLAM,文獻[48]提出了可以實時匹配全局最優(yōu)結(jié)果的基于緊密耦合的非線性優(yōu)化單目VI-SLAM。此系統(tǒng)采用多線程、異步自適應(yīng)數(shù)值優(yōu)化求解器,自適應(yīng)地識別SLAM圖的邊界條件并進行同步和異步求解。為了實現(xiàn)移動機器人重啟后快速的實時定位,文獻[49]提出了基于地圖元素與關(guān)鍵幀數(shù)據(jù)庫的離線地圖構(gòu)建方法,并通過序列化方法進行保存與加載,之后,設(shè)計了基于離線地圖的加載重定位方法,并形成了離線地圖與建圖軌跡的可視化方法。此系統(tǒng)能根據(jù)所得離線地圖進行重定位和全局定位跟蹤。

    1.4 協(xié)作式VI-SLAM系統(tǒng)

    近年來,協(xié)作式VI-SLAM系統(tǒng)研究也得到了快速的發(fā)展。針對多個單目攝像頭,文獻[50]研究了兩個智能體間協(xié)作實現(xiàn)VIO的方法;文獻[51]提出了基于交換的視覺慣性數(shù)據(jù)包的分散數(shù)據(jù)共享方法;文獻[52]利用多攝像頭采集的數(shù)據(jù)融合慣性測量數(shù)據(jù)進行在線校準初始化。圍繞同時存在攝像頭-IMU和雙目攝像頭的慣性里程計系統(tǒng),文獻[53]設(shè)計了可以在線估計初始值并同時校準傳感器的方法;文獻[54]通過融合事件相機和慣性測量數(shù)據(jù),提供準確的狀態(tài)估計。文獻[55]將較大室內(nèi)空間內(nèi)多個用戶在不同時刻使用移動設(shè)備收集的視覺和慣性測量數(shù)據(jù)進行融合,從而實現(xiàn)協(xié)作建圖。協(xié)作式VI-SLAM系統(tǒng)能夠最大限度地感知周圍環(huán)境、提供豐富的傳感數(shù)據(jù)供系統(tǒng)使用。雖然在環(huán)境退化的情況下,系統(tǒng)也能表現(xiàn)出高精度和魯棒性,但是協(xié)作式VI-SLAM系統(tǒng)要求較大的計算能力。

    2 視覺慣性里程計

    視覺慣性里程計使用相機與IMU采集的數(shù)據(jù)進行融合以估算機器人狀態(tài)。VIO系統(tǒng)將來自視覺傳感器和IMU的數(shù)據(jù)融合處理,獲得對視覺傳感器運動的更好測量。機器人高速運動時,相機幀之間可能無法進行特征匹配,IMU可以提供信息,使系統(tǒng)仍然保持較準確的位姿估計。同時,視覺圖像信息可以彌補機器人低速運動時IMU存在的漂移問題[56]。在VIO和VI-SLAM系統(tǒng)中,視覺圖像和IMU采集數(shù)據(jù)主要使用基于濾波方法或非線性優(yōu)化方法進行數(shù)據(jù)融合。根據(jù)傳感器融合測量方法不同,VIO系統(tǒng)分為松耦合和緊密耦合的方法。松耦合方法分別對圖像和IMU數(shù)據(jù)進行預(yù)處理,然后進行融合;緊密耦合方法則直接融合相機和IMU的原始測量值找到最佳估計。表1是視覺慣性傳感器數(shù)據(jù)融合方法的比較情況。與松耦合方法相比,緊密耦合方法更準確,更可靠[57]。

    圖3是視覺慣性里程計的結(jié)構(gòu)圖。VIO方法主要分為基于傳統(tǒng)的方法和基于深度學(xué)習(xí)的方法。其中,傳統(tǒng)的方法又細分為5類:基于擴展卡爾曼濾波器(extended Kalman filter,EKF)的VIO,基于點線特征的VIO,基于優(yōu)化的VIO,基于直接方法的VIO和基于事件相機的VIO。值得注意的是,雖然當(dāng)前基于事件相機的VIO方法較少,但是由于事件相機具有擅長捕捉亮度變化、在較暗和強光場景下也能輸出有效數(shù)據(jù)的特點,基于事件相機的VIO方法值得期待,因此對此類方法進行了單獨分析。基于深度學(xué)習(xí)的方法又細分為基于端到端學(xué)習(xí)的方法和基于監(jiān)督學(xué)習(xí)的方法。

    2.1 基于傳統(tǒng)方法的VIO

    2.1.1 基于EKF的VIO

    為充分利用視覺和慣性傳感器采集的信息,文獻[58]提出基于擴展卡爾曼濾波器的半直接VIO方法,該方法幾乎可以在原始傳感器級別上緊密融合視覺傳感器和慣性測量數(shù)據(jù),同時結(jié)合了緊密耦合的視覺慣性擴展卡爾曼濾波器的優(yōu)點以及直接光度法的魯棒性和精度。文獻[59]提出的基于全密集緊密耦合直接濾波的VIO方法同時估計所有像素的深度和機器人狀態(tài),通過向狀態(tài)向量添加深度和強度信息,能夠一步更新所有條目。文獻[60]提出以機器人為中心的基于擴展卡爾曼濾波器的直接VIO框架。該方法以機器人為中心,結(jié)合光度誤差的直接反饋,通過迭代擴展卡爾曼濾波器處理界標跟蹤,可以實現(xiàn)多相機支持,對相機和IMU進行在線校準。文獻[61]直接使用圖像塊的像素強度誤差來實現(xiàn)精確的跟蹤性能,具有良好的魯棒性。

    考慮到濾波器中計算雅可比的標準方法會導(dǎo)致準確性下降,文獻[62]提出的多狀態(tài)約束卡爾曼濾波器算法主要包括3個部分: EKF誤差狀態(tài)轉(zhuǎn)換矩陣的封閉式計算、定向誤差的參數(shù)化、在過濾器中選擇線性化的點。在此基礎(chǔ)上,文獻[63]提出的基于濾波器的雙目VIO方法,在計算效率和魯棒性方面表現(xiàn)更優(yōu)。與此同時,文獻[64]基于文獻[62]的框架,通過構(gòu)建新的初始化方法設(shè)計了一種新的VIO算法,能夠通過分析跟蹤的特征自動檢測靜止場景,并根據(jù)靜態(tài)IMU數(shù)據(jù)初始化濾波器狀態(tài)。文獻[65]提出了一種實時VIO算法。該算法通過確保其線性化系統(tǒng)模型的正確可讀,對相機-IMU校準參數(shù)進行在線估算,從而確保實現(xiàn)一致性的估計。為了確保提供的測量信息足以在線校準相機的固有參數(shù),文獻[66]設(shè)計了視覺慣性系統(tǒng)的非線性可觀測性分析方法,通過在線校準相機固有參數(shù)提高位姿估計的準確性。而文獻[67]提出的基于RGB-D相機和IMU的VIO方法,不僅可以估算相機的運動軌跡,還可以在線校準重力場和相機與IMU之間的相對位姿以提高位姿估計準確性,并通過迭代優(yōu)化減少線性誤差。此外,文獻[68]將IMU測量值與相機提供的視覺特征軌跡的觀察結(jié)果相融合,實時生成高精度狀態(tài)估計值。

    2.1.2 基于點線特征的VIO

    相比于點特征,線特征能夠提供更多的環(huán)境幾何結(jié)構(gòu)信息,在無法可靠檢測或跟蹤點特征的低紋理環(huán)境或照明變化場景中,線特征可以有效提高系統(tǒng)的魯棒性。為了同時使用點和線特征,文獻[69]提出了基于濾波的緊密耦合雙目視覺慣性里程計系統(tǒng)。此系統(tǒng)在滑動窗口上對點和線要素進行處理,并使用閉環(huán)技術(shù)減少累計漂移。為了解決相機軌跡估計的問題并構(gòu)建基于慣性測量和視覺觀察結(jié)構(gòu)的3D地圖,文獻[57]提出了基于點線特征的緊密耦合VIO系統(tǒng)。系統(tǒng)主要包含兩個模塊:前端負責(zé)傳播IMU主體狀態(tài),檢測/匹配點線特征(見圖4),后端用于估計和優(yōu)化自身狀態(tài)。文獻[70]通過構(gòu)建具有幾何信息的環(huán)境特征圖,合并IMU測量數(shù)據(jù)為視覺定位算法提供先驗和比例信息。然后,基于稀疏圖像對準的運動估計獲得初始位姿估計,進一步執(zhí)行特征對準以獲得子像素級特征相關(guān)性。最后,通過最小化局部地圖點和線的重投影誤差,獲得高精度的位姿和3D界標。文獻[71]通過使用平行線的圖像投影相交點消除角度漂移,從而提高了基于特征的VIO精度。文獻[72]簡化了基于融合點和線特征匹配的方法和VIO初始化策略。在VIO初始化過程中,將恒定速度約束應(yīng)用于運動中的機器人,動態(tài)地加快了初始狀態(tài)變量的獲取;通過優(yōu)化滑動窗口模型構(gòu)造點特征和由線特征表征的稀疏圖。

    4 視覺慣性融合研究平臺

    這一節(jié)綜述當(dāng)前用于VI-SLAM研究的平臺:Maplab、VINS-Mono、VINS-RGBD、VersaVINS和OpenVINS。表3是它們的簡要比較統(tǒng)計表。

    Maplab[94]是一個通用的視覺慣性建圖和定位的開放框架。該框架提供多會話建圖工具集合,支撐地圖合并、視覺慣性批處理優(yōu)化和回環(huán)閉合。其在線前端可以創(chuàng)建視覺慣性地圖、跟蹤本地化地圖中的全局無漂移位姿。

    VINS-Mono[11]是一種單目視覺慣性狀態(tài)估計器。系統(tǒng)從測量數(shù)據(jù)預(yù)處理開始,初始化過程提供所有必要的值來引導(dǎo)基于非線性優(yōu)化的VIO;帶有重定位模塊的VIO緊密集成了預(yù)集成的IMU測量值,特征觀察和從閉環(huán)中重新檢測到的特征;最后,位姿圖模塊執(zhí)行4-DOF全局優(yōu)化以消除漂移并實現(xiàn)重用目的,同時系統(tǒng)還可以通過有效的保存和加載地圖來實現(xiàn)地圖的重用。

    VINS-RGBD[95]是基于VINS-Mono提出、用于機器人的軌跡估計和建圖。它擴展了VINS-Mono系統(tǒng),在初始化過程以及VIO階段使用深度數(shù)據(jù)。系統(tǒng)集成了基于二次采樣深度數(shù)據(jù)和八叉樹濾波的建圖系統(tǒng)以支持回環(huán)閉合在內(nèi)的實時建圖。

    VersaVIS[9]是一種開放式多功能多相機視覺慣性傳感器研究平臺,支持各種相機和IMU的傳感器融合,可支持移動機器人部署、集成和擴展應(yīng)用程序。該平臺支持IMU執(zhí)行多臺相機的時間同步,能夠?qū)崿F(xiàn)視覺慣性SLAM、多相機應(yīng)用、多模式建圖、重建和基于對象的建圖。

    OpenVINS[96]集成了塊滑動窗口卡爾曼濾波器,支持相機參數(shù)在線校準和時間偏移校準;具有不同表示形式和一致性的第一雅可比估計的SLAM界標處理功能;提供狀態(tài)管理的模塊化系統(tǒng)、可擴展的視覺慣性系統(tǒng)模擬器以及用于算法評估的工具箱。

    5 未來的發(fā)展趨勢

    在過去的十幾年中,由于傳感器技術(shù)、計算機計算性能和深度學(xué)習(xí)的快速發(fā)展,視覺慣性融合的SLAM技術(shù)領(lǐng)域取得了突破性進展。在工程實際中,由于機器人所處環(huán)境結(jié)構(gòu)的復(fù)雜性、傳感器自身的局限性、初始化精度和傳感器校準以及數(shù)據(jù)融合的處理方式等問題,VI-SLAM仍然面臨諸多挑戰(zhàn),以下幾個方面可能是值得關(guān)注的方向。

    (1)視覺-慣性傳感器在線校準。相機-IMU的空間位置校準和校準參數(shù)在系統(tǒng)長時間的運行過程中經(jīng)常會發(fā)生漂移,從而引起后續(xù)定位和建圖累計誤差。當(dāng)前,雖然已經(jīng)有很多學(xué)者研究了傳感器的校準方法,但是往往僅針對有限的參數(shù)或者特定型號的傳感器進行校準,且實時性表現(xiàn)仍然欠佳。因此,高效的視覺-慣性傳感器在線校準方法是值得深入研究的方面。

    (2)基于深度學(xué)習(xí)的狀態(tài)估計。在實際的運行過程中,高精度可靠的狀態(tài)估計是機器人實現(xiàn)自主功能的重要前提。近年來,深度學(xué)習(xí)方法得到了快速的發(fā)展,在圖像特征提取和匹配方向出現(xiàn)了很多優(yōu)秀的方法,提供了直接處理原始、高維數(shù)據(jù)的能力,而無需使用領(lǐng)域知識通過人工制作的特征提取器[80-81,85]。同時,基于深度學(xué)習(xí)的圖像處理方法在應(yīng)對視覺退化環(huán)境,如快速運動、運動模糊和光照變化等因素具有較強的適應(yīng)性。因此,如何直接利用深度學(xué)習(xí)的方式,從傳感器采集數(shù)據(jù)同本地或者更高級別的數(shù)據(jù)特征、知識圖譜融合學(xué)習(xí),形成智能高效的狀態(tài)估計方法是一個有前景的方面。

    (3)VI-SLAM系統(tǒng)化閉環(huán)檢測。如果機器人能夠進行精準的閉環(huán)檢測,則可以在節(jié)省計算量的同時顯著地減少軌跡估計的累計誤差,從而提高定位精度和建圖效率。雖然文獻[43,97-98]中的方法可以實現(xiàn)閉環(huán)檢測的功能,但也有許多需要提升的方面。突破視覺慣性閉環(huán)檢測的新理論和新方法,對于提高機器人自主探索環(huán)境的能力,提高軌跡估計的精度和效率、定位和建圖的能力具有重要意義。

    (4)VI-SLAM系統(tǒng)自主環(huán)境感知。魯棒的SLAM自主感知要求能夠自主進行高級別的場景理解和自主無人執(zhí)行高級別任務(wù)[99]。如何構(gòu)建可用于指導(dǎo)完成高級別任務(wù)的豐富語義地圖,如何提高VI-SLAM系統(tǒng)感知環(huán)境和數(shù)據(jù)并具備認知能力等是值得深入研究的方面。

    6 結(jié)束語

    視覺慣性傳感器的互補融合使用極大地促進了SLAM技術(shù)的發(fā)展,尤其是在VIO方向;結(jié)合深度學(xué)習(xí)方法也取得了不錯的效果。目前,視覺慣性傳感器互補融合的研究中一部分成果已經(jīng)得到了實際的應(yīng)用。但是,VI-SLAM系統(tǒng)在實際運行時,機器人所處的環(huán)境是復(fù)雜的、外界干擾因素也是多樣的,這讓VI-SLAM的推廣應(yīng)用變得困難。在未來,隨著智能機器人技術(shù)的發(fā)展,機器人所能實現(xiàn)的功能將會越來越復(fù)雜,因此在實現(xiàn)高精度、高效率的定位和建圖方面依然有很多的研究工作要做。只有實現(xiàn)實時的、高精度、魯棒的VI-SLAM系統(tǒng),才能促進VI-SLAM技術(shù)向廣泛實際應(yīng)用轉(zhuǎn)化。

    參考文獻:

    [1]DURRANT-WHYTE H, BAILEYT. Simultaneous localization and mapping: part I[J]. IEEE Robotics & Automation Magazine, 2006, 13(2): 99-110.

    [2]BAILEYT, DURRANT-WHYTE H. Simultaneous localization and mapping (SLAM): part II[J]. IEEE Robotics & Automation Magazine, 2006, 13(3): 108-117.

    [3]CORKE P, LOBO J, DIAS J, et al. An introduction to inertial and visual sensing[J]. The International Journal of Robotics Research, 2007, 26(6): 519-535.

    [4]KELLY J, SUKHATME G S. Visual-inertial sensor fusion: localization, mapping and sensor-to-sensor self-calibration[J]. The International Journal of Robotics Research, 2011, 30(1): 56-79.

    [5]HUANG G Q. Visual-inertial navigation: a concise review[C]//IEEE International Conference on Robotics and Automation(ICRA). Montreal, QC, Canada: IEEE, 2019: 9572-9582.

    [6]MARTINELLI A. Vision and IMU data fusion: closed-form solutions for attitude, speed, absolute scale, and bias determination[J]. IEEE Transactions on Robotics, 2012, 28(1): 44-60.

    [7]DIAS J, VINZCE M, CORKE P, et al. Editorial: special issue: 2nd workshop on integration of vision and inertial sensors[J]. The International Journal of Robotics Research, 2007, 26(6): 515-517.

    [8]LEUTENEGGER S, LYNEN S, BOSSE M, et al. Keyframe-based visual-inertial odometry using nonlinear optimization[J]. The International Journal of Robotics Research, 2015, 34(3): 314-334.

    [9]TSCHOPP F, RINER M, FEHR M, et al. VersaVIS-an open versatile multi-camera visual-inertial sensor suite[J]. Sensors, 2020, 20(5): 1439.

    [10]CONCHA A, LOIANNO G, KUMAR V, et al. Visual-inertial direct SLAM[C]//IEEE International Conference on Robotics and Automation (ICRA). Stockholm, Sweden: IEEE, 2016: 1331-1338.

    [11]QIN T, LI P L, SHEN S J. Vins-mono: a robust and versatile monocular visual-inertial state estimator[J]. IEEE Transactions on Robotics, 2018, 34(4): 1004-1020.

    [12]HEO S J, CHA J, PARK C G, et al. EKF-based visual inertial navigation using sliding window nonlinear optimization[J]. IEEE Transactions on Intelligent Transportation Systems, 2019, 20(7): 2470-2479.

    [13]HUANG G Q, KAESS M, LEONARD J J, et al. Towards consistent visual-inertial navigation[C]//IEEE International Conference on Robotics and Automation (ICRA). Hong Kong, China: IEEE, 2014: 4926-4933.

    [14]HESCH J A, KOTTAS D G, BOWMAN S L, et al. Consistency analysis and improvement of vision-aided inertial navigation[J]. IEEE Transactions on Robotics, 2014, 30(1): 158-176.

    [15]OMARI S, BLOESCH M, GOHL P, et al. Dense visual-inertial navigation system for mobile robots[C]//IEEE International Conference on Robotics and Automation (ICRA). Seattle, WA, USA: IEEE, 2015: 2634-2640.

    [16]KAISER J, MARTINELLI A, FONTANA F, et al. Simultaneous state initialization and gyroscope bias calibration in visual inertial aided navigation[J]. IEEE Robotics and Automation Letters (RA-L), 2017, 2(1): 18-25.

    [28]SARTIPI K, DUTOIT R C, COBAR C B, et al. Decentralized visual-inertial localization and mapping on mobile devices for augmented reality[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Macau, China: IEEE, 2019: 2145-2152.

    [29]PIAO J C, KIM S. Adaptive monocular visual-inertial SLAM for real-time augmented reality applications in mobile devices[J]. Sensors, 2017, 17(11): 2567.

    [30]WILLIEM, IVAN A, SEOK H, et al. Visual-inertial RGB-D SLAM for mobile augmented reality[C]//Pacific Rim Conference on Multimedia (PRCM). Cham, Switzerland: Springer, 2017: 928-938.

    [31]OSKIPER T, SAMARASEKERA S, KUMAR R, et al. CamSLAM: vision aided inertial tracking and mapping framework for large scale ar applications[C]//IEEE International Symposium on Mixed and Augmented Reality (ISMAR-Adjunct). Nantes, France: IEEE, 2017: 216-217.

    [32]PIAO J, KIM S. Real-time visual-inertial SLAM based on adaptive keyframe selection for mobile AR applications[J]. IEEE Transactions on Multimedia, 2019, 21(11): 2827-2836.

    [33]FANG W, ZHENG L Y, DENG H J, et al. Real-time motion tracking for mobile augmented/virtual reality using adaptive visual-inertial fusion[J]. Sensors, 2017, 17(5): 1-22.

    [34]ZHENG F, LIU Y H. SE(2)-constrained visual inertial fusion for ground vehicles[J]. IEEE Sensors Journal, 2018, 18(23): 9699-9707.

    [35]LEUTENEGGER S, FURGALE P, RABAUD V, et al. Keyframe-based visual-inertial SLAM using nonlinear optimization[C]//Robotics: Science and Systems(RSS). Berlin, Germany: IEEE, 2013.

    [36]KARRER M, SCHMUCK P, CHLI M, et al. CVI-SLAM—collaborative visual-inertial SLAM[C]//IEEE International Conference on Robotics and Automation (ICRA). Brisbane, QLD, Australia: IEEE, 2018, 3(4): 2762-2769.

    [37]KASYANOV A, ENGELMANN F, STUCKLER J, et al. Keyframe-based visual-inertial online SLAM with relocalization[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Vancouver, BC, Canada: IEEE, 2017: 6662-6669.

    [38]QIN T, LI P, SHEN S, et al. Relocalization, global optimization and map merging for monocular visual-inertial SLAM[C]//IEEE International Conference on Robotics and Automation (ICRA). Brisbane, QLD, Australia: IEEE, 2018: 1197-1204.

    [39]LAIDLOW T, BLOESCH M, LI W B, et al. Dense RGB-D-inertial SLAM with map deformations[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Vancouver, BC, Canada: IEEE, 2017: 6741-6748.

    [40]MA L, FALQUEZ J M, MCGUIRE S, et al. Large scale dense visual inertial SLAM[C]//Field and Service Robotics (FSR). Cham, Switzerland: Springer, 2016: 141-155.

    [41]HSIAO M, WESTMAN E, KAESS M, et al. Dense planar-inertial SLAM with structural constraints[C]//IEEE International Conference on Robotics and Automation (ICRA). Brisbane, QLD, Australia: IEEE, 2018: 6521-6528.

    [42]WONG A, FEI X, TSUEI S, et al. Unsupervised depth completion from visual inertial odometry[J]. IEEE Robotics and Automation Letters(RA-L), 2020, 5(2): 1899-1906.

    [43]LIU Q P, WANG Z J, WANG H, et al. SD-VIS: a fast and accurate semi-direct monocular visual-inertial simultaneous localization and mapping (SLAM)[J]. Sensors, 2020, 20(5): 1511.

    [44]NIKOLIC J, REHDER J, BURRI M, et al. A synchronized visual-inertial sensor system with FPGA pre-processing for accurate real-time SLAM[C]//IEEE International Conference on Robotics and Automation (ICRA). Hong Kong, China: IEEE, 2014: 431-437.

    [45]ZHANG Z, LIU S S, TSAI G, et al. PIRVS: an advanced visual-inertial SLAM system with flexible sensor fusion and hardware co-design[C]//IEEE International Conference on Robotics and Automation (ICRA). Brisbane, QLD, Australia: IEEE, 2018: 3826-3832.

    [46]MU X F, CHEN J, ZHOU Z X, et al. Accurate initial state estimation in a monocular visual-inertial SLAM system[J]. Sensors, 2018, 18(2): 506.

    [47]MURARTAL R, TARDOS J D. Visual-inertial monocular SLAM with map reuse[J]. IEEE Robotics and Automation Letters (RA-L), 2017, 2(2): 796-803.

    [48]KEIVAN N, SIBLEY G. Asynchronous adaptive conditioning for visual-inertial SLAM[J]. The International Journal of Robotics Research, 2015, 34(13): 1573-1589.

    [49]YANG G C, CHEN Z J, LI Y, et al. Rapid relocation method for mobile robot based on improved ORB-SLAM2 algorithm[J]. Remote Sensing, 2019, 11(2): 149.

    [50]MARTINELLI A. Cooperative visual-inertial odometry: analysis of singularities, degeneracies and minimal cases[C]//IEEE International Conference on Robotics and Automation (ICRA). Paris, France: IEEE, 2020, 5(2): 668-675.

    [51]DUBOIS R, EUDES A, FREMONT V, et al. On data sharing strategy for decentralized collaborative visual-inertial simultaneous localization and mapping[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Macau, China: IEEE, 2019: 2123-2130.

    [52]LIU Y, WANG F, ZHANG W, et al. Online self-calibration initialization for multi-camera visual-inertial SLAM[C]//IEEE International Conference on Robotics and Biomimetics (ROBIO). Kuala Lumpur, Malaysia: IEEE, 2018: 192-199.

    [53]HUANG W B, LIU H, WAN W W, et al. An online initialization and self-calibration method for stereo visual-inertial odometry[J]. IEEE Transactions on Robotics, 2020: 1-18.

    [54]VIDAL A R, REBECQ H, HORSTSCHAEFER T, et al. Ultimate SLAM? combining events, images, and IMU for robust visual SLAM in HDR and high-speed scenarios[J]. IEEE Robotics and Automation Letters (RA-L), 2018, 3(2): 994-1001.

    [55]GUO C X, SARTIPI K, DUTOIT R C, et al. Large-scale cooperative 3D visual-inertial mapping in a Manhattan world[C]//IEEE International Conference on Robotics and Automation (ICRA). Stockholm, Sweden: IEEE, 2016: 1071-1078.

    [56]LIU T J, LIN H, LIN W, et al. InertialNet: toward robust SLAM via visual inertial measurement[C]//IEEE Intelligent Transportation Systems Conference (ITSC). Auckland, New Zealand: IEEE, 2019: 1311-1316.

    [57]HE Y J, ZHAO J, GUO Y, et al. PL-VIO: Tightly-coupled monocular visual-inertial odometry using point and line features[J]. Sensors, 2018, 18(4): 1159.

    [58]TANSKANEN P, NAEGELI T, POLLEFEYS M, et al. Semi-direct EKF-based monocular visual-inertial odometry C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Hamburg, Germany: IEEE, 2015: 6073-6078.

    [59]HARDTSTREMAYR A, WEISS S. Towards fully dense direct filter-based monocular visual-inertial odometry[C]//IEEE International Conference on Robotics and Automation (ICRA). Montreal, QC, Canada: IEEE, 2019: 4710-4716.

    [60]BLOESCH M, BURRI M, OMARI S, et al. Iterated extended Kalman filter based visual-inertial odometry using direct photometric feedback[J]. The International Journal of Robotics Research, 2017, 36(10): 1053-1072.

    [61]BLOESCH M, OMARI S, HUTTER M, et al. Robust visual inertial odometry using a direct EKF-based approach[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Hamburg, Germany: IEEE, 2015: 298-304.

    [62]LI M, MOURIKIS A I. Improving the accuracy of EKF-based visual-inertial odometry[C]//IEEE International Conference on Robotics and Automation (ICRA). Saint Paul, MN, USA: IEEE, 2012: 828-835.

    [63]SUN K, MOHTA K, PFROMMER B, et al. Robust stereo visual inertial odometry for fast autonomous flight[J]. IEEE Robotics and Automation Letters (RA-L), 2018, 3(2): 965-972.

    [64]QIU X C, ZHANG H, FU W X, et al. Monocular visual-inertial odometry with an unbiased linear system model and robust feature tracking front-end[J]. Sensors, 2019, 19(8): 1941.

    [65]LI M, MOURIKIS AI. High-precision, consistent EKF-based visual-inertial odometry[J]. The International Journal of Robotics Research, 2013, 32(6): 690-711.

    [66]TSAO S, JAN S. Observability analysis and performance evaluation of EKF-based visual-inertial odometry with online intrinsic camera parameter calibration[J]. IEEE Sensors Journal, 2019, 19(7): 2695-2703.

    [67]CHU C B, YANG S D. Keyframe-based RGB-D visual-inertial odometry and camera extrinsic calibration using extended kalman filter[J]. IEEE Sensors Journal, 2020, 20(11): 6130-6138.

    [68]LI M, KIM B H, MOURIKIS A I, et al. Real-time motion tracking on a cellphone using inertial sensing and a rolling-shutter camera[C]//IEEE International Conference on Robotics and Automation (ICRA). Karlsruhe, Germany: IEEE, 2013: 4712-4719.

    [69]ZHENG F, TSAI G, ZHANG Z, et al. Trifo-VIO: robust and efficient stereo visual inertial odometry using points and lines[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Madrid, Spain: IEEE, 2018: 3686-3693.

    [70]ZHANG N, ZHAO Y J. Fast and robust monocular visua-inertial odometry using points and lines[J]. Sensors, 2019, 19(20): 4545.

    [71]CAMPOSECO F, POLLEFEYS M. Using vanishing points to improve visual-inertial odometry[C]//IEEE International Conference on Robotics and Automation (ICRA). Seattle, WA, USA: IEEE, 2015: 5219-5225.

    [72]XIA L L, MENG Q Y, CHI D R, et al. An optimized tightly-coupled VIO design on the basis of the fused point and line features for patrol robot navigation[J]. Sensors, 2019, 19(9): 2004.

    [73]FORSTER C, CARLONE L, DELLAERT F, et al. On-manifold preintegration for real-time visual-inertial odometry[J]. IEEE Transactions on Robotics, 2017, 33(1): 1-21.

    [74]MA S J, BAI X H, WANG Y L, et al. Robust stereo visual-inertial odometry using nonlinear optimization[J]. Sensors, 2019, 19(17): 3747.

    [75]USENKO V, ENGEL J, STUCKLERJ, et al. Direct visual-inertial odometry with stereo cameras[C]//IEEE International Conference on Robotics and Automation (ICRA). Stockholm, Sweden: IEEE, 2016: 1885-1892.

    [76]VON STUMBERG L, USENKO V, CREMERS D, et al. Direct sparse visual-inertial odometry using dynamic marginalization[C]//IEEE International Conference on Robotics and Automation (ICRA). Brisbane, QLD, Australia: IEEE, 2018: 2510-2517.

    [77]WEN S H, ZHAO Y F, ZHANG H, et al. Joint optimization based on direct sparse stereo visual-inertial odometry[J]. Autonomous Robots, 2020, 44(99): 791-809.

    [78]ZHU A Z, ATANASOV N, DANIILIDIS K, et al. Event-based visual inertial odometry[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA: IEEE, 2017: 5816-5824.

    [79]REBECQ H, HORSTSCHAEFER T, SCARAMUZZA D, et al. Real-time visual-inertial odometry for event cameras using keyframe-based nonlinear optimization[C]//British Machine Vision Conference (BMVC). London, UK: Springer, 2017: 1-8.

    [80]LI C S, WASLANDER S L. Towards end-to-end learning of visual inertial odometry with an EKF[C]//IEEE 17th Conference on Computer and Robot Vision (CRV). Ottawa, Canada: IEEE, 2020: 190-197.

    [81]CHEN C, ROSA S, MIAO Y, et al. Selective sensor fusion for neural visual-inertial odometry[C]//IEEE/CVF Computer Vision and Pattern Recognition (CVPR). Long Beach, CA, USA: IEEE, 2019: 10542-10551.

    [82]CLARK R, WANG S, WEN H K, et al. VINet: visual inertial odometry as a sequence to sequence learning problem[C]//AAAI Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence (AAAI). San Francisco, California, USA: AAAI, 2017: 3995-4001.

    [83]LINDGREN K, LEUNG S, NOTHWANG W D, et al. BooM-VIO: bootstrapped monocular visual-inertial odometry with absolute trajectory estimation through unsupervised deep learning[C]//IEEE 19th International Conference on Advanced Robotics (ICAR). Belo Horizonte, Brazil: IEEE, 2019: 516-522.

    [84]SHAMWELL E J, LEUNG S, NOTHWANG W D, et al. Vision-aided absolute trajectory estimation using an unsupervised deep network with online error correction[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Madrid, Spain: IEEE, 2018: 2524-2531.

    [85]SHAMWELL E J, LINDGREN K, LEUNG S, et al. Unsupervised deep visual-inertial odometry with online error correction for RGB-D imagery[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(10): 2478-2493 .

    [86]HAN L M, LIN Y M, DU G G, et al. DeepVIO: Self-supervised deep learning of monocular visual inertial odometry using 3D geometric constraints[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Macau, China: IEEE, 2019: 6906-6913.

    [87]OLEYNIKOVA H, BURRI M, LYNEN S, et al. Real-time visual-inertial localization for aerial and ground robots[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Hamburg, Germany: IEEE, 2015: 3079-3085.

    [88]BURRI M, OLEYNIKOVA H, ACHTELIK M, et al. Real-time visual-inertial mapping, re-localization and planning onboard MAVs in unknown environments[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Hamburg, Germany: IEEE, 2015: 1872-1878.

    [89]LYNEN S, SATTLER T, BOSSE M, et al. Get out of my lab: large-scale, real-time visual-inertial localization[C]//Robotics: Science and Systems (RSS). Romo, Italy: IEEE, 2015: 37.

    [90]HUAI Z, HUANG G Q. Robocentric visual-inertial odometry[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Madrid, Spain: IEEE, 2018: 6319-6326.

    [91]USENKO V, DEMMEL N, SCHUBERT D, et al. Visual-inertial mapping with non-linear factor recovery[J]. IEEE Robotics and Automation Letters(RA-L), 2020, 5(2): 422-429.

    [92]YANG Z F, GAO F, SHEN S J. Real-time monocular dense mapping on aerial robots using visual-inertial fusion[C]//IEEE International Conference on Robotics and Automation (ICRA). Singapore: IEEE, 2017: 4552-4559.

    [93]SONG B W, CHEN W D, WANG J C, et al. Long-term visual inertial SLAM based on time series map prediction[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Macau, China: IEEE, 2019: 5364-5369.

    [94]SCHNEIDER T, DYMCZYK M, FEHR M, et al. Maplab: an open framework for research in visual-inertial mapping and localization[J]. IEEE Robotics and Automation Letters (RA-L), 2018, 3(3): 1418-1425.

    [95]SHAN Z Y, LI R J, SCHWERTFEGER S. RGBD-inertial trajectory estimation and mapping for ground robots[J]. Sensors, 2019, 19(10): 2251.

    [96]GENEVA P, ECKENHOFF K, LEE W, et al. OpenVINS: A research platform for visual-inertial estimation[C]//IEEE International Conference on Robotics and Automation (ICRA). Paris, France: IEEE, 2020: 4666-4672.

    [97]LI S P, ZHANG T, GAO X, et al. Semi-direct monocular visual and visual-inertial SLAM with loop closure detection[J]. Robotics and Autonomous Systems, 2019: 201-210.

    [98]JONES E, SOATTO S. Visual-inertial navigation, mapping and localization: A scalable real-time causal approach[J]. The International Journal of Robotics Research, 2011, 30(4): 407-430.

    [99]CADENA C, CARLONE L, CARRILLO H, et al. Past, present, and future of simultaneous localization and mapping: toward the robust-perception age[J]. IEEE Transactions on Robotics, 2016, 32(6): 1309-1332.

    (責(zé)任編輯:曾 晶)

    猜你喜歡
    移動機器人定位
    拉貨機器人
    緊繞目標定位 開發(fā)研學(xué)課程
    移動機器人技術(shù)的應(yīng)用與展望
    難與易
    巧用“余數(shù)定位”,突破周期函數(shù)的計算問題
    基于STM32芯片的移動機器人的避障研究
    移動機器人圖像目標識別
    一種人機交互式室內(nèi)建模方法
    移動機器人高精度定位技術(shù)研究
    理想的定位
    亚洲专区中文字幕在线| 久久精品人妻少妇| 日本一二三区视频观看| 日韩欧美一区二区三区在线观看| 国产黄片美女视频| 久久久久久久亚洲中文字幕 | 亚洲美女黄片视频| 真人做人爱边吃奶动态| 国产亚洲欧美98| 69人妻影院| 国产欧美日韩一区二区三| 欧美区成人在线视频| 精品午夜福利视频在线观看一区| 欧美zozozo另类| 国产成年人精品一区二区| 不卡一级毛片| xxx96com| bbb黄色大片| 最近最新中文字幕大全免费视频| 日韩精品青青久久久久久| 色综合婷婷激情| 色av中文字幕| 最近在线观看免费完整版| 露出奶头的视频| eeuss影院久久| 国产老妇女一区| 国产欧美日韩精品一区二区| 黄色片一级片一级黄色片| 天天添夜夜摸| 久久这里只有精品中国| 三级男女做爰猛烈吃奶摸视频| 亚洲av成人精品一区久久| 在线免费观看不下载黄p国产 | 国内精品久久久久精免费| 97超级碰碰碰精品色视频在线观看| 中国美女看黄片| 国产国拍精品亚洲av在线观看 | 色噜噜av男人的天堂激情| 老熟妇仑乱视频hdxx| 中文字幕av在线有码专区| 欧美另类亚洲清纯唯美| 99精品久久久久人妻精品| av在线天堂中文字幕| 热99在线观看视频| 成人av一区二区三区在线看| 国产熟女xx| 亚洲人成伊人成综合网2020| 天美传媒精品一区二区| 男女下面进入的视频免费午夜| 不卡一级毛片| 91九色精品人成在线观看| 制服人妻中文乱码| 精品无人区乱码1区二区| 一区二区三区免费毛片| 成人特级av手机在线观看| 老司机在亚洲福利影院| 免费观看精品视频网站| 成年免费大片在线观看| 在线观看午夜福利视频| 色噜噜av男人的天堂激情| 757午夜福利合集在线观看| 99在线视频只有这里精品首页| 日本免费a在线| 日本精品一区二区三区蜜桃| 午夜福利18| 日本成人三级电影网站| 精品一区二区三区av网在线观看| 国产成人aa在线观看| 中亚洲国语对白在线视频| 琪琪午夜伦伦电影理论片6080| 黄色视频,在线免费观看| 日韩欧美一区二区三区在线观看| 国产视频一区二区在线看| 亚洲国产日韩欧美精品在线观看 | 欧美+亚洲+日韩+国产| 婷婷精品国产亚洲av| 怎么达到女性高潮| 欧洲精品卡2卡3卡4卡5卡区| 嫩草影院入口| 亚洲内射少妇av| 3wmmmm亚洲av在线观看| 久久人人精品亚洲av| 麻豆成人av在线观看| 欧美日本视频| 最近最新中文字幕大全电影3| 欧美中文综合在线视频| 欧美日韩福利视频一区二区| 亚洲国产精品成人综合色| 欧美日韩中文字幕国产精品一区二区三区| 国产蜜桃级精品一区二区三区| 日韩免费av在线播放| 黄色成人免费大全| 欧美乱色亚洲激情| netflix在线观看网站| 最近最新中文字幕大全电影3| 狂野欧美激情性xxxx| 51国产日韩欧美| 日韩有码中文字幕| 欧美zozozo另类| 听说在线观看完整版免费高清| 国产成年人精品一区二区| 国产免费av片在线观看野外av| 最好的美女福利视频网| 欧美不卡视频在线免费观看| 看免费av毛片| 国产色爽女视频免费观看| 久久久国产成人精品二区| 午夜激情欧美在线| 国产精华一区二区三区| 最后的刺客免费高清国语| 观看美女的网站| 国产黄a三级三级三级人| 亚洲激情在线av| 日本 av在线| 少妇人妻一区二区三区视频| ponron亚洲| 久久精品91蜜桃| 欧美最新免费一区二区三区 | 99在线视频只有这里精品首页| 中亚洲国语对白在线视频| 亚洲黑人精品在线| 无人区码免费观看不卡| 性色avwww在线观看| 亚洲aⅴ乱码一区二区在线播放| 久久久久久久午夜电影| 十八禁网站免费在线| 在线免费观看的www视频| 国产不卡一卡二| 色在线成人网| 99国产极品粉嫩在线观看| 久久久久久人人人人人| av天堂中文字幕网| 欧美乱色亚洲激情| 久久久久免费精品人妻一区二区| 免费一级毛片在线播放高清视频| 日本在线视频免费播放| 亚洲国产色片| 亚洲精品久久国产高清桃花| 91久久精品国产一区二区成人 | 久99久视频精品免费| 国产美女午夜福利| 欧美日韩瑟瑟在线播放| 欧美激情久久久久久爽电影| 国产精品乱码一区二三区的特点| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲国产欧美网| 小蜜桃在线观看免费完整版高清| 中文字幕高清在线视频| 黑人欧美特级aaaaaa片| 国产在视频线在精品| 99久久成人亚洲精品观看| 色尼玛亚洲综合影院| 日韩欧美国产在线观看| 国产高清videossex| svipshipincom国产片| 亚洲第一电影网av| 中文在线观看免费www的网站| 黑人欧美特级aaaaaa片| 最近最新中文字幕大全电影3| 久久久久精品国产欧美久久久| 国产激情欧美一区二区| 中文字幕av在线有码专区| 看黄色毛片网站| 美女被艹到高潮喷水动态| 久久国产精品人妻蜜桃| 亚洲国产精品久久男人天堂| 亚洲国产中文字幕在线视频| 国产久久久一区二区三区| 亚洲avbb在线观看| 非洲黑人性xxxx精品又粗又长| 国产精品美女特级片免费视频播放器| 欧美日韩福利视频一区二区| 免费在线观看亚洲国产| 国产精品久久电影中文字幕| 国产精品 欧美亚洲| 精品人妻一区二区三区麻豆 | 深爱激情五月婷婷| 免费大片18禁| 欧美黑人巨大hd| 啪啪无遮挡十八禁网站| 成人午夜高清在线视频| 亚洲av第一区精品v没综合| 欧美日韩乱码在线| 观看美女的网站| 免费大片18禁| 欧美成人性av电影在线观看| 天天躁日日操中文字幕| 亚洲精品久久国产高清桃花| a在线观看视频网站| a在线观看视频网站| 1024手机看黄色片| 一进一出抽搐动态| 日本黄色片子视频| 老司机午夜福利在线观看视频| 欧美日韩亚洲国产一区二区在线观看| xxx96com| 在线十欧美十亚洲十日本专区| 国产视频一区二区在线看| 国内精品美女久久久久久| 老熟妇仑乱视频hdxx| 国产爱豆传媒在线观看| 国产三级在线视频| 国产高清激情床上av| 国产高清视频在线观看网站| 乱人视频在线观看| 啪啪无遮挡十八禁网站| 真人一进一出gif抽搐免费| 国产日本99.免费观看| 欧美黄色淫秽网站| 男女那种视频在线观看| 国产精品一区二区三区四区免费观看 | 日韩 欧美 亚洲 中文字幕| 日韩欧美一区二区三区在线观看| 99精品欧美一区二区三区四区| 有码 亚洲区| 亚洲欧美日韩卡通动漫| 禁无遮挡网站| av片东京热男人的天堂| 一卡2卡三卡四卡精品乱码亚洲| 黑人欧美特级aaaaaa片| 国产精品99久久久久久久久| 国产精品99久久99久久久不卡| 在线观看66精品国产| 成人国产一区最新在线观看| 在线视频色国产色| 午夜免费观看网址| 亚洲内射少妇av| 日日干狠狠操夜夜爽| 毛片女人毛片| 欧美中文日本在线观看视频| 亚洲久久久久久中文字幕| 国产精品电影一区二区三区| 国产亚洲精品一区二区www| 国产精品1区2区在线观看.| 在线观看av片永久免费下载| 国产真人三级小视频在线观看| 亚洲,欧美精品.| 亚洲av电影在线进入| 色精品久久人妻99蜜桃| 1024手机看黄色片| 蜜桃亚洲精品一区二区三区| 又黄又爽又免费观看的视频| 又黄又粗又硬又大视频| 三级男女做爰猛烈吃奶摸视频| 国产高清视频在线播放一区| 国产真人三级小视频在线观看| 老汉色av国产亚洲站长工具| 搡老妇女老女人老熟妇| 午夜福利视频1000在线观看| 性欧美人与动物交配| 欧美中文综合在线视频| 免费av观看视频| 黄色日韩在线| 亚洲 国产 在线| 精华霜和精华液先用哪个| 欧美黑人欧美精品刺激| 日日干狠狠操夜夜爽| 欧美乱妇无乱码| 蜜桃亚洲精品一区二区三区| 99热这里只有是精品50| 色综合婷婷激情| 亚洲成人久久性| 国产主播在线观看一区二区| 香蕉丝袜av| 少妇的丰满在线观看| 免费在线观看日本一区| 脱女人内裤的视频| 好看av亚洲va欧美ⅴa在| 欧美激情久久久久久爽电影| 成人av一区二区三区在线看| 91av网一区二区| 久久这里只有精品中国| 免费av毛片视频| 久久久精品欧美日韩精品| 成人无遮挡网站| 国产麻豆成人av免费视频| 亚洲不卡免费看| 精品一区二区三区av网在线观看| 老熟妇乱子伦视频在线观看| 日韩人妻高清精品专区| 亚洲激情在线av| 国内毛片毛片毛片毛片毛片| 久久九九热精品免费| 99热这里只有精品一区| 91在线观看av| 国产精品1区2区在线观看.| 日韩欧美 国产精品| 免费av毛片视频| 丰满乱子伦码专区| 久久精品91无色码中文字幕| 亚洲欧美日韩高清专用| 国产v大片淫在线免费观看| 中文字幕av在线有码专区| 欧美区成人在线视频| 亚洲精品成人久久久久久| 国产精品爽爽va在线观看网站| 久久午夜亚洲精品久久| 亚洲第一欧美日韩一区二区三区| 黑人欧美特级aaaaaa片| 特级一级黄色大片| 国内少妇人妻偷人精品xxx网站| 久久精品夜夜夜夜夜久久蜜豆| 丰满乱子伦码专区| 一本一本综合久久| 日韩欧美在线二视频| 欧美绝顶高潮抽搐喷水| 国产午夜福利久久久久久| 美女大奶头视频| 老汉色av国产亚洲站长工具| 99久久无色码亚洲精品果冻| 亚洲人成电影免费在线| 色av中文字幕| 9191精品国产免费久久| 国产高清视频在线播放一区| 久久久成人免费电影| 超碰av人人做人人爽久久 | 久久精品国产99精品国产亚洲性色| 国产精品一区二区免费欧美| 欧美日韩综合久久久久久 | 国产av不卡久久| 俺也久久电影网| 亚洲精品乱码久久久v下载方式 | 精品乱码久久久久久99久播| а√天堂www在线а√下载| 在线免费观看不下载黄p国产 | 搡女人真爽免费视频火全软件 | 国产一级毛片七仙女欲春2| 丰满的人妻完整版| 99久久无色码亚洲精品果冻| 中出人妻视频一区二区| 又黄又粗又硬又大视频| 久久精品人妻少妇| 有码 亚洲区| 黄色片一级片一级黄色片| 一级毛片女人18水好多| 午夜两性在线视频| 少妇的逼好多水| 可以在线观看的亚洲视频| 日本一本二区三区精品| 身体一侧抽搐| 免费电影在线观看免费观看| 黄片大片在线免费观看| 真实男女啪啪啪动态图| 国产乱人伦免费视频| 男女做爰动态图高潮gif福利片| 国产精品女同一区二区软件 | 成年女人看的毛片在线观看| 精品国产美女av久久久久小说| 成人午夜高清在线视频| 中出人妻视频一区二区| 老熟妇乱子伦视频在线观看| 免费人成视频x8x8入口观看| 亚洲av电影不卡..在线观看| 日韩精品中文字幕看吧| 国产不卡一卡二| 69人妻影院| 亚洲国产中文字幕在线视频| 国内精品一区二区在线观看| 国产成人系列免费观看| 午夜福利在线观看吧| xxx96com| 欧美一区二区精品小视频在线| 国产亚洲欧美在线一区二区| 日韩有码中文字幕| 中文字幕久久专区| 伊人久久大香线蕉亚洲五| 久久久精品欧美日韩精品| 亚洲第一欧美日韩一区二区三区| 一本综合久久免费| 日韩欧美一区二区三区在线观看| 真人一进一出gif抽搐免费| 99久久精品一区二区三区| av天堂在线播放| 国内毛片毛片毛片毛片毛片| 首页视频小说图片口味搜索| 老司机深夜福利视频在线观看| 婷婷六月久久综合丁香| 国产淫片久久久久久久久 | 久久久久国内视频| 尤物成人国产欧美一区二区三区| 网址你懂的国产日韩在线| 久久99热这里只有精品18| 男插女下体视频免费在线播放| 人妻丰满熟妇av一区二区三区| 我的老师免费观看完整版| 叶爱在线成人免费视频播放| 一卡2卡三卡四卡精品乱码亚洲| 日本成人三级电影网站| 久久精品影院6| 非洲黑人性xxxx精品又粗又长| 国产午夜精品论理片| av国产免费在线观看| av视频在线观看入口| 亚洲人成网站高清观看| 2021天堂中文幕一二区在线观| а√天堂www在线а√下载| 日韩欧美在线二视频| 我的老师免费观看完整版| 欧美性感艳星| 老司机午夜福利在线观看视频| 国产成+人综合+亚洲专区| 色在线成人网| 国产高清有码在线观看视频| 国产精品 欧美亚洲| 精品一区二区三区视频在线观看免费| 日本精品一区二区三区蜜桃| 一本一本综合久久| 午夜免费男女啪啪视频观看 | 日韩欧美国产一区二区入口| 叶爱在线成人免费视频播放| 老司机午夜福利在线观看视频| 国产精品国产高清国产av| 国产伦精品一区二区三区视频9 | 久久伊人香网站| 成人av一区二区三区在线看| 我要搜黄色片| 天堂影院成人在线观看| 日韩欧美国产一区二区入口| 色播亚洲综合网| 国产精品电影一区二区三区| 亚洲自拍偷在线| 免费看十八禁软件| 亚洲国产日韩欧美精品在线观看 | 欧美另类亚洲清纯唯美| 日本黄大片高清| 欧美性感艳星| 欧美大码av| 日本与韩国留学比较| 男插女下体视频免费在线播放| 18+在线观看网站| 精品国产美女av久久久久小说| 少妇人妻精品综合一区二区 | 午夜福利18| 极品教师在线免费播放| 校园春色视频在线观看| 国产精品久久久久久久电影 | 高潮久久久久久久久久久不卡| 久99久视频精品免费| 欧美最新免费一区二区三区 | 一级a爱片免费观看的视频| 久久天躁狠狠躁夜夜2o2o| 人人妻人人看人人澡| 国产精品久久久人人做人人爽| 免费在线观看亚洲国产| 欧美激情久久久久久爽电影| 国产黄a三级三级三级人| 制服人妻中文乱码| 久久精品国产自在天天线| 亚洲一区高清亚洲精品| 午夜福利高清视频| 亚洲成av人片免费观看| 日韩国内少妇激情av| 国产成年人精品一区二区| 夜夜夜夜夜久久久久| 国产亚洲精品久久久久久毛片| 久久精品综合一区二区三区| 三级毛片av免费| 熟妇人妻久久中文字幕3abv| 亚洲美女视频黄频| 久久久色成人| 成人永久免费在线观看视频| 他把我摸到了高潮在线观看| 日日干狠狠操夜夜爽| 欧美丝袜亚洲另类 | 日韩人妻高清精品专区| 日本 欧美在线| 欧美绝顶高潮抽搐喷水| 精品久久久久久久毛片微露脸| 国产精品亚洲av一区麻豆| 婷婷精品国产亚洲av在线| 一级作爱视频免费观看| 国产一区二区三区视频了| 禁无遮挡网站| 国产视频一区二区在线看| 99久久无色码亚洲精品果冻| 在线观看舔阴道视频| 国产私拍福利视频在线观看| 人妻久久中文字幕网| 日本与韩国留学比较| 中文字幕精品亚洲无线码一区| 日韩欧美 国产精品| 性色avwww在线观看| 国产精品一区二区三区四区免费观看 | 岛国在线观看网站| 90打野战视频偷拍视频| 一级毛片女人18水好多| 日韩欧美一区二区三区在线观看| 老司机福利观看| 国产真实伦视频高清在线观看 | 搡老岳熟女国产| 在线观看免费午夜福利视频| 国产99白浆流出| 高清毛片免费观看视频网站| 欧美日本视频| 国产一区二区激情短视频| 淫妇啪啪啪对白视频| 国产精品免费一区二区三区在线| 欧美另类亚洲清纯唯美| 亚洲精品一区av在线观看| 欧美日韩一级在线毛片| 亚洲欧美日韩东京热| 18禁在线播放成人免费| 欧美乱码精品一区二区三区| 久久香蕉国产精品| 男女那种视频在线观看| 久久久成人免费电影| 一卡2卡三卡四卡精品乱码亚洲| 久久久久亚洲av毛片大全| tocl精华| 国产一区二区三区视频了| 99riav亚洲国产免费| 少妇熟女aⅴ在线视频| 日韩欧美免费精品| av专区在线播放| 五月玫瑰六月丁香| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 亚洲av电影不卡..在线观看| 精品人妻偷拍中文字幕| 男插女下体视频免费在线播放| 老熟妇乱子伦视频在线观看| 极品教师在线免费播放| 真人做人爱边吃奶动态| 88av欧美| 制服人妻中文乱码| 黄色女人牲交| 精品久久久久久成人av| 精华霜和精华液先用哪个| 欧美黄色淫秽网站| 亚洲美女黄片视频| 又爽又黄无遮挡网站| 亚洲一区二区三区色噜噜| 18禁美女被吸乳视频| 天天一区二区日本电影三级| 深夜精品福利| 校园春色视频在线观看| 91av网一区二区| 日本黄色片子视频| 身体一侧抽搐| 男女视频在线观看网站免费| 欧美日韩综合久久久久久 | 欧美日韩福利视频一区二区| 岛国在线观看网站| 日韩欧美免费精品| 国产熟女xx| 中文字幕熟女人妻在线| 国产精品野战在线观看| 老汉色av国产亚洲站长工具| 午夜精品一区二区三区免费看| 久久久久久久久久黄片| 日本一本二区三区精品| 久久久久久久久久黄片| 国产又黄又爽又无遮挡在线| 国产伦精品一区二区三区视频9 | 欧美乱色亚洲激情| 制服丝袜大香蕉在线| netflix在线观看网站| 久久精品综合一区二区三区| 窝窝影院91人妻| 长腿黑丝高跟| 国产色爽女视频免费观看| 99热只有精品国产| 亚洲av成人精品一区久久| 亚洲av免费在线观看| 两个人看的免费小视频| 欧美黄色片欧美黄色片| 亚洲在线自拍视频| 欧美日韩中文字幕国产精品一区二区三区| 天堂av国产一区二区熟女人妻| 叶爱在线成人免费视频播放| 天天一区二区日本电影三级| 欧美在线一区亚洲| 欧美激情久久久久久爽电影| 国产精品 国内视频| 女同久久另类99精品国产91| 男人和女人高潮做爰伦理| 成人国产一区最新在线观看| 狂野欧美激情性xxxx| 日本 av在线| 久久国产精品人妻蜜桃| 床上黄色一级片| 精品久久久久久久人妻蜜臀av| 少妇的逼好多水| 一级毛片高清免费大全| 亚洲av电影在线进入| 99国产精品一区二区三区| 精品久久久久久久末码| 亚洲一区二区三区色噜噜| 老司机午夜十八禁免费视频| 色在线成人网| 老司机午夜福利在线观看视频| 久久精品国产自在天天线| 国产高清videossex| 88av欧美| av专区在线播放| 一个人免费在线观看的高清视频| 国产亚洲精品一区二区www| 免费观看人在逋| 在线十欧美十亚洲十日本专区| 久久久久久久精品吃奶| 波野结衣二区三区在线 | 在线看三级毛片| 国产午夜精品久久久久久一区二区三区 | 国产高清视频在线播放一区| 久久久国产成人免费| 99久久久亚洲精品蜜臀av| 三级毛片av免费| 国产野战对白在线观看| 人妻久久中文字幕网| 国产精品,欧美在线| 亚洲av中文字字幕乱码综合| 欧美日韩乱码在线| h日本视频在线播放| 午夜免费激情av| 嫩草影视91久久| 欧美成人免费av一区二区三区|