• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    神經(jīng)先驗(yàn)增強(qiáng)的抗干擾魯棒自動(dòng)駕駛導(dǎo)航

    2025-03-09 00:00:00穆凡劉哲
    關(guān)鍵詞:自動(dòng)駕駛魯棒性

    摘 要:自動(dòng)駕駛車輛廣泛依賴感知系統(tǒng)來進(jìn)行城市導(dǎo)航和環(huán)境理解,然而現(xiàn)有研究大多局限于良好的城市駕駛環(huán)境,在惡劣天氣以及外部干擾下導(dǎo)致的傳感器故障和感知失靈等嚴(yán)重影響現(xiàn)有自動(dòng)駕駛系統(tǒng)的實(shí)際落地。為此提出了一種基于神經(jīng)先驗(yàn)的自動(dòng)駕駛信息重建算法,通過對大范圍自動(dòng)駕駛場景的隱式建模密集地存儲場景幾何先驗(yàn),并基于注意力機(jī)制結(jié)合隱式神經(jīng)先驗(yàn)進(jìn)行自動(dòng)駕駛感知信息的魯棒重建,最終提出一個(gè)通用的自動(dòng)駕駛導(dǎo)航魯棒性增強(qiáng)框架。在CARLA自動(dòng)駕駛模擬器仿真實(shí)驗(yàn)中,該算法顯著提升了多個(gè)現(xiàn)有自動(dòng)駕駛模型在外部干擾下的導(dǎo)航性能,使自動(dòng)駕駛模型在攻擊和干擾下的性能衰減率從82.74%下降到了8.84%,證明了所提方法的通用性和有效性。

    關(guān)鍵詞:自動(dòng)駕駛;魯棒性;神經(jīng)輻射場

    中圖分類號:TP183"" 文獻(xiàn)標(biāo)志碼:A

    文章編號:1001-3695(2025)01-016-0111-06

    doi: 10.19734/j.issn.1001-3695.2024.06.0185

    Neural prior based reconstruction for robust autonomous navigation against various disturbances

    Abstract:Autonomous vehicles heavily rely on perception systems for urban navigation and environmental understanding. Despite extensive researches about driving in favorable urban conditions, sensor failures and perception impairments under adverse weather and external interferences significantly impact the practical deployment of current autonomous driving systems. This paper proposed a neural prior-based autonomous driving information reconstruction algorithm for robust end-to-end navigation. This algorithm densely stored scene geometry priors through implicit representation of driving scenarios and designed a reconstruction algorithm for perception based on the attention mechanism. In addition, it proposed a general framework to enhance the robustness of self-driving performance. Extensive experiments in the CARLA simulator demonstrate the generality and effectiveness of the proposed method, and the performance degradation rate of current self-driving models under external disturbances is reduced from 82.74% to 8.84%, which largely improves the driving performance of multiple existing self-driving models under external interferences.

    Key words:autonomous driving; robustness; neural radiance field

    0 引言

    自動(dòng)駕駛是指通過車輛內(nèi)部的計(jì)算機(jī)系統(tǒng)和傳感器,以及先進(jìn)的控制系統(tǒng),使汽車能夠在無須人類駕駛員操控的情況下,實(shí)現(xiàn)自主地感知、分析環(huán)境、作出決策,并執(zhí)行相應(yīng)操作的技術(shù)。通??梢苑譃槟K化方法以及端到端方法兩類[1]。模塊化方法將自動(dòng)駕駛功能拆解為傳感器、感知、決策和控制等多個(gè)相對獨(dú)立的模塊;而端到端方法更類似于人類駕駛過程,直接利用感知信息進(jìn)行導(dǎo)航?jīng)Q策,避免了模塊化導(dǎo)致的無效冗余[2]。然而,要將自動(dòng)駕駛技術(shù)成功地應(yīng)用到現(xiàn)實(shí)世界的駕駛場景仍然面臨著許多挑戰(zhàn),駕駛環(huán)境中揚(yáng)沙揚(yáng)塵、雨雪霧等多變天氣和不同路況要求自動(dòng)駕駛系統(tǒng)在傳感器故障、失靈等各種攻擊和干擾下穩(wěn)定運(yùn)行。針對自動(dòng)駕駛過程中的魯棒性挑戰(zhàn),一種顯而易見的做法是通過在深度學(xué)習(xí)訓(xùn)練數(shù)據(jù)集中引入模擬惡劣天氣數(shù)據(jù)或直接在異常天氣下采集數(shù)據(jù)來訓(xùn)練模型[3],然而這種數(shù)據(jù)增強(qiáng)方法產(chǎn)生的數(shù)據(jù)缺乏真實(shí)性,且在實(shí)際惡劣天氣等場景下的真實(shí)數(shù)據(jù)難以采集。更具有普適性的做法則是類似文獻(xiàn)[4,5]等利用相機(jī)、激光雷達(dá)以及毫米波雷達(dá)等多模態(tài)傳感器的不同特性,通過Transformer或注意力機(jī)制等進(jìn)行多模態(tài)融合,從而基于冗余信息提升自動(dòng)駕駛系統(tǒng)對應(yīng)環(huán)境的適應(yīng)能力。這類方法具有較好的泛化性,但是將面臨高昂的多模態(tài)傳感器價(jià)格以及異構(gòu)傳感器間的模態(tài)不平衡問題。此外,還有部分研究利用計(jì)算機(jī)視覺中諸如擴(kuò)散模型或者對抗網(wǎng)絡(luò)等方式先對輸入到自動(dòng)駕駛導(dǎo)航模型中的圖像等數(shù)據(jù)進(jìn)行重建[6,7],以提升在感知受到干擾時(shí)車輛的導(dǎo)航性能,但是這種方法難以處理多視角多類型的干擾。實(shí)際上,人類駕駛者在遇到困難的駕駛環(huán)境時(shí)往往能依據(jù)自己的駕駛經(jīng)驗(yàn)進(jìn)行應(yīng)對,特別是在較為熟悉的地區(qū)或城市中進(jìn)行駕駛時(shí),人們能憑借對城市環(huán)境的記憶提升駕駛表現(xiàn)?;谶@種思想,文獻(xiàn)[8]利用高精度地圖作為場景先驗(yàn)以提升駕駛性能表現(xiàn),地圖中的拓?fù)湫畔⒛茱@著提高模型在一般場景下的最終性能,但由于缺乏場景幾何先驗(yàn),難以應(yīng)對更復(fù)雜的駕駛場景。

    近年來,神經(jīng)輻射場(neural radiance field, NeRF)技術(shù)因其強(qiáng)大的照片級圖像渲染以及隱式表征能力在自動(dòng)駕駛領(lǐng)域受到了廣泛關(guān)注[9]。利用神經(jīng)輻射場對自動(dòng)駕駛場景紋理以及幾何等信息的緊湊隱式表達(dá),可以在不大幅增加環(huán)境信息存儲壓力的前提下,有效改善高精度地圖中場景幾何信息不足的難題,進(jìn)一步加強(qiáng)自動(dòng)駕駛系統(tǒng)對歷史經(jīng)驗(yàn)以及城市環(huán)境的記憶能力。然而,自動(dòng)駕駛場景具有變化光照、存在動(dòng)態(tài)物體以及無邊界場景特性,傳統(tǒng)的NeRF無法滿足室外場景的需求。針對戶外光照變化的問題,Martin-Brualla等人[10]提出的NeRF-W為神經(jīng)輻射場引入額外的光照編碼以學(xué)習(xí)場景亮點(diǎn)光照。文獻(xiàn)[11]則是在其基礎(chǔ)上進(jìn)行大場景分塊來對城市級別的大范圍場景進(jìn)行建模。這些方法都需要人工在整個(gè)場景的大規(guī)模數(shù)據(jù)采集基礎(chǔ)上進(jìn)行手動(dòng)分塊,大大提高了人工成本,并且預(yù)先確定的環(huán)境邊界導(dǎo)致這些方法的拓展性較弱。針對自動(dòng)駕駛過程中存在的感知失靈以及環(huán)境干擾等問題,現(xiàn)有工作不能很好地學(xué)習(xí)和利用駕駛場景中豐富的幾何與紋理等的環(huán)境先驗(yàn)信息,難以在外部干擾的情況下具有穩(wěn)定的駕駛表現(xiàn)。本文充分利用NeRF的隱式場景表征優(yōu)勢,利用通過先前收集的歷史遍歷數(shù)據(jù)自動(dòng)生成靜態(tài)先驗(yàn),無須手動(dòng)注釋工作,最終利用無監(jiān)督且?guī)缀呜S富的先驗(yàn)顯著提升自動(dòng)駕駛模型在干擾和攻擊下的性能表現(xiàn)。具體地,本文貢獻(xiàn)如下:

    a)提出自適應(yīng)的神經(jīng)輻射場構(gòu)建方法,實(shí)現(xiàn)對自動(dòng)駕駛場景的靜態(tài)先驗(yàn)提??;

    b)設(shè)計(jì)基于神經(jīng)先驗(yàn)的自動(dòng)駕駛感知信息重建框架,能夠在線地重建異常感知信息;

    c)通過仿真實(shí)驗(yàn)驗(yàn)證本文算法的信息重建效果,實(shí)驗(yàn)結(jié)果表明,本文方法可以提升自動(dòng)駕駛導(dǎo)航的魯棒性。

    1 大范圍自動(dòng)駕駛神經(jīng)輻射場構(gòu)建

    1.1 神經(jīng)輻射場

    NeRF的核心思想是通過一個(gè)多層感知機(jī)(multi layer perception network, MLP)網(wǎng)絡(luò)來建立包含相機(jī)位姿的5D信息與場景中顏色c以及空間體積密度σ的可微映射關(guān)系,這個(gè)過程對應(yīng)的公式如下:

    c,σ=Φr(x(x,y,z),d(θ,φ))(1)

    其中:x(x,y,z)為空間中點(diǎn)的坐標(biāo);d(θ,φ)代表視線方向。通過從相機(jī)中心o向圖像中像素點(diǎn)沿d方向發(fā)射一條射線r(t)=o+td(t為點(diǎn)到相機(jī)的距離),可以在NeRF中沿光線采樣一系列點(diǎn),并利用如下的經(jīng)典體積渲染方法[11]來獲得該像素點(diǎn)的預(yù)估顏色C(r):

    其中:δi為第i個(gè)采樣點(diǎn)與第i+1個(gè)采樣點(diǎn)間的距離;N代表采樣點(diǎn)個(gè)數(shù)。一般地,可以通過在物體表面附近進(jìn)行密集采樣的方式提升渲染精度[12],最終,整個(gè)神經(jīng)輻射場在訓(xùn)練的過程中最小化預(yù)估顏色與真實(shí)顏色間的差距,進(jìn)行梯度回傳:

    從而實(shí)現(xiàn)對場景的照片級渲染。

    1.2 大范圍自動(dòng)駕駛場景先驗(yàn)構(gòu)建

    受限于單MLP容量以及體渲染過程本身的密集采樣方式,傳統(tǒng)的NeRF場景重建方法無法處理室外無邊界場景以及變化的環(huán)境光照條件,難以直接應(yīng)用于大范圍的自動(dòng)駕駛場景中。同時(shí),現(xiàn)有的大范圍自動(dòng)駕駛場景神經(jīng)輻射場構(gòu)建方法需要預(yù)先對整個(gè)自動(dòng)駕駛場景進(jìn)行手動(dòng)分割處理,不能自動(dòng)根據(jù)采集的數(shù)據(jù)進(jìn)行劃分。針對實(shí)際自動(dòng)駕駛室外環(huán)境中的這些問題,本文設(shè)計(jì)了自動(dòng)分塊的大范圍場景先驗(yàn)構(gòu)建方法以應(yīng)對大范圍自動(dòng)駕駛場景,引入圖像光照編碼來平衡不同時(shí)刻、不同視角的光照差異。受Tancik等人[11]提出的分塊輻射場以及Meuleman等人[13]的漸進(jìn)式優(yōu)化輻射場的啟發(fā),本文在此基礎(chǔ)上提出自適應(yīng)的分塊神經(jīng)輻射場構(gòu)筑方法,針對自動(dòng)駕駛場景的實(shí)際需求,利用數(shù)據(jù)軌跡構(gòu)建自適應(yīng)的分塊神經(jīng)輻射場。

    1.2.1 自適應(yīng)的神經(jīng)輻射場構(gòu)建

    給定自動(dòng)駕駛場景采集的視頻數(shù)據(jù)集、對應(yīng)的相機(jī)位姿P以及采集車輛的自車軌跡信息Tego,如圖1所示。首先根據(jù)自車軌跡和相機(jī)位姿對整個(gè)場景自動(dòng)劃分為M個(gè)神經(jīng)輻射場,記為{Fi},在車輛當(dāng)前位置超出閾值或相機(jī)位姿超出前一個(gè)輻射場的bounding box時(shí)添加新輻射場。首先選取前q幀的相機(jī)位姿{(lán)P1:q}以及車輛軌跡{Tego1:q},計(jì)算能容納對應(yīng)軌跡的最小bounding box大小,并利用{P1:q}訓(xùn)練該子輻射場F0。隨后逐幀處理新相機(jī)位姿及圖像幀,并判斷當(dāng)前位姿Pi及軌跡Tegoi是否在當(dāng)前輻射場中,若當(dāng)前幀的位置超出了現(xiàn)有子輻射場Fj的邊界,則增加新的子輻射場Fj+1,并利用之前幀對輻射場Fj進(jìn)行訓(xùn)練。重復(fù)上述步驟直到最終所有的相機(jī)位姿以及車輛軌跡被所有子輻射場bounding box的并集覆蓋。其對應(yīng)偽代碼如下。

    算法1 自適應(yīng)自動(dòng)駕駛神經(jīng)輻射場構(gòu)建方法

    對于每個(gè)子輻射場Fi,在Instance-NGP的基礎(chǔ)上[14]構(gòu)建天空遠(yuǎn)景與近景分離的靜態(tài)場景表示,以提升每段場景的渲染精細(xì)度。該方法通過多分辨率的哈希網(wǎng)格Euclid Math OneHAp和對應(yīng)的輕量級MLP g對隱式空間特征進(jìn)行編碼,其核心思路為將式(1)中的輸入坐標(biāo)x映射到可訓(xùn)練的多維特征向量中。為了解決戶外環(huán)境光照條件變化的難題,本文進(jìn)一步對每幀輸入引入了光照編碼la以及方向編碼如下:

    (c,σ)=Fi(Euclid Math OneHAp(x),γ(d),la)(5)

    其中:γ(d)表示對方向d通過式(6)進(jìn)行位置編碼,通過不同頻率的正弦函數(shù)幫助模型捕獲方向間的高維位置關(guān)系。

    此外,由于室外場景中天空背景難以定義其深度,本文采用獨(dú)立的預(yù)測網(wǎng)絡(luò)通過編碼后的視圖方向γ(d),得到全局天空背景顏色csky,使其獨(dú)立于子輻射場集合之外,從而進(jìn)一步平衡不同F(xiàn)i間的背景光照,避免亮度差異過大導(dǎo)致的渲染失真問題。具體地,類似于Mip-NeRF 360對無邊界場景進(jìn)行逆球體投影的方法[15],本文針對自動(dòng)駕駛場景采用逆立方體投影,通過自動(dòng)設(shè)定的bounding box對外界點(diǎn)進(jìn)行逆投影處理,設(shè)一界外點(diǎn)坐標(biāo)為x(x,y,z),首先計(jì)算點(diǎn)與原點(diǎn)O的距離r=x∞,則其經(jīng)過投影公式后的坐標(biāo)如下:

    其中:x′=x/r,y′=y/r,z′=z/r。其具體網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,對于每個(gè)子輻射場Fi,其輸入由經(jīng)過哈希編碼的3D坐標(biāo)、位置編碼以及光照編碼組成。

    1.2.2 自動(dòng)駕駛車輛位姿獲取與場景渲染

    與上文提到的傳統(tǒng)神經(jīng)渲染方式相比,本文提出的分層輻射場還需要考慮多個(gè)子輻射場以及天空場的相互關(guān)系,同時(shí)需要解決車輛行駛過程中的位姿獲取問題。具體地,對自動(dòng)駕駛車輛上的相機(jī)傳感器而言,想要得到當(dāng)前位置的圖片渲染結(jié)果,首先要獲取當(dāng)前的準(zhǔn)確位姿pt=(xt,dt)。本文通過車輛位置twv=(xv,yv,zv)以及對應(yīng)的當(dāng)前旋轉(zhuǎn)矩陣Rwv來得到相應(yīng)坐標(biāo),并進(jìn)一步得到車輛坐標(biāo)系到世界坐標(biāo)系的變換矩陣Twv和相機(jī)坐標(biāo)系到車輛坐標(biāo)系的變換矩陣Tvc,如下式所示。

    其中:Rvc和tvc分別代表相機(jī)在車輛安裝位置的旋轉(zhuǎn)矩陣以及相對于車輛的平移向量。最終便可以通過兩者乘積得到當(dāng)前的相機(jī)位姿矩陣Twc=Twv·Tvc,該矩陣展開表示為

    從而得到相對應(yīng)的位姿pt=(xt,dt)。從輻射場Fi中獲取對應(yīng)5D位姿的顏色c以及透過率σ后,在對應(yīng)射線r(t)路徑中采樣K個(gè)樣本點(diǎn),引入天空背景顏色csky后,為了便于描述,這里將式(2)進(jìn)一步改寫如下:

    其中:μi=1-exp(-σiδi);δi為第i個(gè)采樣點(diǎn)與第i+1個(gè)采樣點(diǎn)間的距離。

    2 基于神經(jīng)先驗(yàn)的信息重建

    實(shí)現(xiàn)自動(dòng)駕駛魯棒性的一種想法便是通過重建異常信息來提升自動(dòng)駕駛導(dǎo)航的魯棒性,由第1章得到自動(dòng)駕駛場景的神經(jīng)先驗(yàn)后,本章提出了一種基于神經(jīng)先驗(yàn)和注意力機(jī)制的自動(dòng)駕駛感知信息重建方法。該方法以可能受到干擾的多視角圖像數(shù)據(jù)作為輸入,目標(biāo)為生成對應(yīng)的恢復(fù)數(shù)據(jù),主要的流程包括從自動(dòng)駕駛場景的神經(jīng)先驗(yàn)中提取場景先驗(yàn)信息,通過構(gòu)建變分自編碼器(variational auto encoder,VAE)提取當(dāng)前觀測的空間特征,并通過注意力機(jī)制將場景先驗(yàn)與當(dāng)前觀測進(jìn)行深度融合,最后通過預(yù)訓(xùn)練的VAE解碼器得到恢復(fù)后的圖像。本過程的完整流程如圖3所示。

    2.1 先驗(yàn)信息提取

    利用自動(dòng)駕駛場景采集的數(shù)據(jù)對第1章中提出的大范圍場景NeRF進(jìn)行訓(xùn)練后,參數(shù)迭代完成的神經(jīng)輻射場集合{Fi}以及對應(yīng)的哈希網(wǎng)格集合{Euclid Math OneHApi}中封裝了豐富的非結(jié)構(gòu)化場景信息。然而,NeRF中固有的稠密非結(jié)構(gòu)化信息難以直接用于在線感知模型,因此本節(jié)利用光線步進(jìn)算法(ray matching)識別并存儲體素化hash網(wǎng)格中的占用信息和特征信息。與原始NeRF訓(xùn)練中數(shù)據(jù)處理過程類似,首先從相機(jī)中心向圖像發(fā)射多條射線,在每條射線上步進(jìn)地采樣N個(gè)點(diǎn){xi},將定位累積透射率和不透明度超過閾值的第一個(gè)點(diǎn)作為體素的關(guān)鍵點(diǎn)如式(11)所示。

    其中:Ti、μi分別為式(3)(9)定義的參數(shù)。聚合得到所有視圖的關(guān)鍵點(diǎn)xu以及其在hash網(wǎng)格中對應(yīng)的特征Euclid Math OneHAp(xu)后,通過均值化每個(gè)體素網(wǎng)格中的關(guān)鍵點(diǎn)來進(jìn)行基于體素的下采樣,最終得到結(jié)構(gòu)化的體素網(wǎng)格用于后續(xù)的先驗(yàn)特征提取。

    2.2 多視角圖像特征提取

    對于自動(dòng)駕駛過程中的車輛感知數(shù)據(jù),本文選取了左前-前-右前三個(gè)通用視角的車載相機(jī)圖像集合作為感知輸入,為了后續(xù)討論方便,記為{ofli},{ofi},{ofri},其中i代表整個(gè)駕駛過程中某個(gè)幀的時(shí)間戳。本文使用卷積神經(jīng)網(wǎng)絡(luò)(convolutio-nal neural network, CNN)預(yù)訓(xùn)練多視圖VAE模型,從輸入的干凈圖像中提取緊湊的隱空間特征,學(xué)習(xí)和生成與輸入數(shù)據(jù)相似的新數(shù)據(jù)點(diǎn)[15]。作為一種生成模型,VAE結(jié)合了自編碼器(autoencoder)和變分推斷(variational inference),在深度學(xué)習(xí)和概率圖模型領(lǐng)域中得到了廣泛的應(yīng)用,關(guān)鍵思想是學(xué)習(xí)輸入數(shù)據(jù)的低維潛在編碼,學(xué)習(xí)到的模型將用于初始化后續(xù)特征重建模塊中的編碼。其核心結(jié)構(gòu)如圖4所示。其中,自編碼器是一種無監(jiān)督學(xué)習(xí)模型,由編碼器和解碼器兩部分組成,目標(biāo)是學(xué)習(xí)數(shù)據(jù)的緊湊表示,前者將輸入數(shù)據(jù)映射到低維隱空間,從而得到服從多維高斯分布的均值編碼m以及方差編碼σ,并為標(biāo)準(zhǔn)分布生成的噪聲編碼分配權(quán)重,構(gòu)建變量的近似分布以模擬概率模型,通過變分推斷得到未觀測變量特征,記為ffl:f:fri,最終形成低維空間中的隱編碼并通過解碼器恢復(fù)為近似圖像。對于多視角圖像,本文將每張圖像都通過CNN卷積后生成不同的隱編碼,第t幀多個(gè)視角觀測的高維特征分別記為ffli、ffi、ffri,分別參與變分推斷過程。

    2.3 基于注意力的特征融合

    得到連續(xù)時(shí)刻的隱空間觀測特征ffl:f:frt以及對應(yīng)位置的場景神經(jīng)先驗(yàn)特征fpt后,本文提出了基于注意力機(jī)制的特征融合模塊用于進(jìn)一步聚合先驗(yàn)和當(dāng)前觀測信息,從而得到重建后的融合特征。在Vaswani等人[16]提出Transformer后,因其允許模型動(dòng)態(tài)調(diào)整對于不同輸入的權(quán)重,注意力機(jī)制在深度學(xué)習(xí)領(lǐng)域得到了更廣泛的關(guān)注。本文在該方法的基礎(chǔ)上進(jìn)一步改進(jìn),使其能夠隱式地分辨出異常數(shù)據(jù),并在特征融合過程中動(dòng)態(tài)地降低對于異常數(shù)據(jù)的注意力。如圖5所示,將2.1和2.2節(jié)中獲得的維度相同的觀測特征fvi與先驗(yàn)特征fpi一同輸入到特征融合模塊中,通過N層自注意力層(self-attention layer,SAL)進(jìn)行深度融合,并最終通過MLP網(wǎng)絡(luò)生成聚合后的重建特征freci。通常來說,注意力機(jī)制可以被描述為查詢query與一組鍵值對(key,value)以及輸出之間的映射。設(shè)輸入特征序列為Fin,通過一系列權(quán)重矩陣的線性變換即可獲得當(dāng)前輸入的query、key和value,簡記為K、Q、V,即

    K=FinMK,Q=FinMQ,V=FinMV(12)

    其中:MK、MQ、MV為對應(yīng)的權(quán)重矩陣。在這個(gè)過程中,它們與輸出間的關(guān)系可由式(13)表示。

    其中:dk為鍵K的維度;Q的維度也為dk。隨后通過一個(gè)非線性變換得到最終的輸出結(jié)果如下:

    Fout=MLP(Attention)+Fin(14)

    在基于注意力的特征融合模型訓(xùn)練過程中,查詢Q和鍵K可以隱式地區(qū)分異常信息,并對異常數(shù)據(jù)給予更低的注意力權(quán)重,從而在特征融合過程中保留更多的先驗(yàn)信息。與傳統(tǒng)的語言處理任務(wù)不同,本文直接在特征層對先驗(yàn)特征fpt以及當(dāng)前觀測特征fvt,這些特征同時(shí)輸入到SAL層中,利用先驗(yàn)知識彌補(bǔ)當(dāng)前觀測中的受損信息,并利用注意力機(jī)制對當(dāng)前觀測中的靜態(tài)信息進(jìn)行補(bǔ)全,如此反復(fù)迭代N次后,可以使網(wǎng)絡(luò)充分學(xué)習(xí)到所需信息,最終得到相同維度的輸出,記為fout_vt和fout_pt。在最終融合兩部分信息之前,為了防止未處理前的重要信息在多層注意力層傳遞過程中被損耗,本文額外將原始特征與最終結(jié)果進(jìn)行拼接,最后一起輸入到MLP中進(jìn)行融合,對應(yīng)公式如下:

    最終,得到重建特征后的frec,通過2.2節(jié)中的VAE 解碼器將特征向量恢復(fù)為對應(yīng)的RGB圖像,得到恢復(fù)后的感知圖像oreci。

    3 基于信息重建的端到端導(dǎo)航魯棒性增強(qiáng)算法

    在第2章提出的信息重建算法的基礎(chǔ)上,本章進(jìn)一步提出了基于該算法的導(dǎo)航魯棒性增強(qiáng)框架,可直接用于現(xiàn)有基于視覺的自動(dòng)駕駛導(dǎo)航模型中以提升其在干擾和攻擊下的導(dǎo)航魯棒性。具體地,對于一個(gè)基于視覺的端到端自動(dòng)駕駛導(dǎo)航模型Mnav,其連續(xù)的感知輸入為{oi},則t時(shí)刻對應(yīng)導(dǎo)航指令的推理過程如下式所示。

    ct=Mnav(ot)(16)

    為了提升導(dǎo)航模型Mnav的魯棒性,本文利用第2章提出的信息重建模型R對可能受到干擾的感知信息進(jìn)行恢復(fù),從而利用歷史先驗(yàn)濾除不良信息的干擾,使自動(dòng)駕駛模型在攻擊和干擾下仍具有穩(wěn)定的駕駛表現(xiàn),因此式(16)可以重寫為

    O(WH)的線性復(fù)雜度效率很快地得到編碼結(jié)果;在特征融合部分,注意力融合機(jī)制的時(shí)間復(fù)雜度主要由查詢(queries)、鍵(keys)和值(values)的數(shù)量以及嵌入維度(embedding dimension)決定,為O(n2d)。其中n為序列長度,d為嵌入維度,在本算法中為一定值??梢钥闯?,最終算法的計(jì)算效率主要取決于序列長度,而對于自動(dòng)駕駛導(dǎo)航系統(tǒng),每次僅輸入當(dāng)前觀測,因此序列長度為1,所以本算法計(jì)算效率高,可以在有限的計(jì)算資源下快速運(yùn)行。

    4 實(shí)驗(yàn)結(jié)果與分析

    本文選擇CARLA模擬器進(jìn)行訓(xùn)練數(shù)據(jù)集采集以及仿真實(shí)驗(yàn)[17],該模擬器基于虛幻4引擎,采用OpengDRIVE1.4標(biāo)準(zhǔn)定義道路和城市環(huán)境,并通過Server-Client架構(gòu)使車輛與虛擬世界進(jìn)行交互[18]。對于神經(jīng)先驗(yàn)?zāi)P?,本文在CARLA模擬器的Town05下進(jìn)行數(shù)據(jù)采集,并利用模擬器自帶的專家模型以4 fps的頻率采集訓(xùn)練數(shù)據(jù),這些數(shù)據(jù)包括左前、前、右前視角的400×400圖像以及對應(yīng)位姿信息。對于信息重建模型,首先利用Town01和Town02中采集的數(shù)據(jù)訓(xùn)練VAE模型,隨后在采集自Town05的數(shù)據(jù)集下和訓(xùn)練好的神經(jīng)先驗(yàn)?zāi)P徒Y(jié)合進(jìn)行信息重建模型的訓(xùn)練。需要注意的是,NeRF的訓(xùn)練數(shù)據(jù)集中僅含有靜態(tài)場景,VAE和信息重建模型的訓(xùn)練數(shù)據(jù)集則包含其他車輛等動(dòng)態(tài)成分。最終,本文還利用訓(xùn)練好的信息重建模型測試了其在Town05環(huán)境中對自動(dòng)駕駛導(dǎo)航魯棒性的性能提升表現(xiàn)。

    4.1 自動(dòng)駕駛場景重建性能

    其中:Imax代表原圖中的最大像素值。SSIM則用于評判兩圖像間的結(jié)構(gòu)相似性,用于在圖像重建時(shí)評判兩圖像的相似度,其對應(yīng)公式如下:

    在硬件方面,本次訓(xùn)練采用了2塊RTX 3080用于神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,顯存總?cè)萘繛?4 GB,訓(xùn)練時(shí)的光線batch size設(shè)置為4 096。同時(shí),在訓(xùn)練過程中設(shè)置學(xué)習(xí)率按照迭代次數(shù)進(jìn)行衰減,對應(yīng)情況如圖6所示。在訓(xùn)練初始階段逐步增大學(xué)習(xí)率,到達(dá)設(shè)定的最大值0.01后開始根據(jù)不同的時(shí)間步衰減,在模型收斂的最后階段降低到0.000 1。

    其訓(xùn)練曲線如圖7所示??梢钥闯?,本文模型在5 000次迭代時(shí)已接近收斂,loss和PSNR曲線都達(dá)到較好的程度。為了進(jìn)一步比較本文提出的自動(dòng)駕駛場景下的NeRF模型的性能表現(xiàn),本文還將現(xiàn)有模型的效果與經(jīng)典NeRF[9]以及針對戶外無邊界場景的Mip-NeRF 360[19]進(jìn)行對比,其重建可視化結(jié)果以及對應(yīng)量化結(jié)果如圖8、表1所示。

    從場景重建結(jié)果可以看出,由于原版NeRF僅針對室內(nèi)小場景物體,同時(shí)也沒有考慮到室外場景不同位置光照變化對神經(jīng)輻射場的影響,所以對于戶外大范圍自動(dòng)駕駛場景重建性能極差,并且對路徑無限遠(yuǎn)的天空區(qū)域沒有相應(yīng)的解決方法,難以捕捉到正常顏色變化,基本無法成功重建。從表1中也可看出,其PSNR低于15。而Mip-NeRF 360則是在場景光照編碼的基礎(chǔ)上針對戶外無邊界場景進(jìn)一步優(yōu)化,利用逆球體建模將范圍外的點(diǎn)投影到球體表面,從而實(shí)現(xiàn)對無邊界場景的建模,然而該方法的設(shè)計(jì)初衷仍以小型物體為中心,沒有考慮模型容量對大場景的影響,因此其重建結(jié)果仍較為模糊。本文方法在PSNR以及SSIM兩個(gè)指標(biāo)上都顯著優(yōu)于這些算法,表明該方法對于自動(dòng)駕駛場景的良好適應(yīng)性。

    4.2 信息重建模型性能測試

    為了展示第2章提出的基于神經(jīng)先驗(yàn)的信息重建模塊的有效性,本文首先預(yù)訓(xùn)練VAE編碼器和解碼器,以在后續(xù)模塊中進(jìn)行特征提取和重構(gòu)。如上文所提,在CARLA模擬器中采集Town01和Town02的共計(jì)38 000張圖像作為訓(xùn)練集,8 400張不同路徑下采集的圖像作為測試集,以此訓(xùn)練基于CNN的VAE模型。對于信息重建模型,為了模擬實(shí)際自動(dòng)駕駛過程中存在的干擾,本文選擇了傳感器遮擋、噪聲攻擊、亮度干擾以及感知丟失來作為自動(dòng)駕駛中常見的干擾類型。其中傳感器遮擋通過在輸入圖像進(jìn)行遮蔽來模仿真實(shí)駕駛環(huán)境中可能存在的樹葉等遮蔽傳感器情況;噪聲攻擊則是增加隨機(jī)噪聲以模擬駕駛過程中因電磁干擾等原因?qū)е碌母兄獢?shù)據(jù)噪點(diǎn);亮度干擾通過增強(qiáng)圖像的亮度以及對比度,以此來模擬真實(shí)駕駛過程中車輛駛離隧道或迎著太陽開車時(shí)圖像亮度過強(qiáng)的問題;感知丟失則代表了自動(dòng)駕駛過程中因傳感器損壞或顛簸,導(dǎo)致當(dāng)前時(shí)刻丟失感知信息的情況。在模型訓(xùn)練過程中以3/5的概率在左前、前、右前三個(gè)視角中隨機(jī)攻擊。

    圖9中展示了在干擾條件下與標(biāo)準(zhǔn)VAE編碼結(jié)果相比的干凈和異常數(shù)據(jù)的重構(gòu)圖像,該圖共分為4列,每一列的意義如小標(biāo)題所示,并且每一行從上到下分別為噪聲干擾、遮擋攻擊、亮度干擾以及感知丟失。結(jié)果表明VAE將異常視為正常數(shù)據(jù)并平等地對待所有數(shù)據(jù),在缺失先驗(yàn)信息的前提下VAE重構(gòu)的信息大量丟失,輸入的異常信息直接影響其最終的重構(gòu)性能,對于噪聲、遮擋、亮度干擾以及感知丟失均沒有有效的抵抗能力。相反,通過注意力機(jī)制融合先驗(yàn),本文的信息重建模塊能從先驗(yàn)中學(xué)習(xí)到缺失的幾何信息,從而實(shí)現(xiàn)異常信息的恢復(fù)。此外,對于感知丟失導(dǎo)致當(dāng)前某個(gè)視角整體信息缺失的情況,本文提出的注意力融合模塊能隱含地從當(dāng)前其他未受影響的視角中學(xué)習(xí)到受干擾的視角信息,重建出較好的結(jié)果。

    4.3 導(dǎo)航魯棒性提升對比

    為了測試第3章中所提的自動(dòng)駕駛駕魯棒性增強(qiáng)框架的性能,本文在CARLA模擬器中測試典型的端到端自動(dòng)駕駛導(dǎo)航模型在正常情況以及外部干擾下的導(dǎo)航表現(xiàn)。這里選擇Cilrs[20]、LateFusion[21]以及NEAT[22]作為測試的三個(gè)導(dǎo)航網(wǎng)絡(luò),其中Cilrs為基于模仿學(xué)習(xí)的單視角輸入端到端導(dǎo)航模型;LateFusion則為單視角的相機(jī)雷達(dá)多模態(tài)輸入模型;NEAT是基于神經(jīng)注意場的完全端到端導(dǎo)航方法,將左前、前、右前三個(gè)視角的圖像作為輸入。最終在CARLA的Town05下測試其在未受到干擾、受到干擾以及干擾下信息重建框架的導(dǎo)航性能表現(xiàn),其結(jié)果如表2所示,這里采用自動(dòng)駕駛領(lǐng)域常見的性能指標(biāo)RC和DS來進(jìn)行量化評估。其中RC(route completion)表示路線完成率,可以表示為

    其中:Ri代表第i條路線的完成率,共有N條路線。DS(driving score)則是結(jié)合了碰撞率以及違規(guī)率等的綜合駕駛性能分?jǐn)?shù)。

    其中:Pi用于評估第i條路徑的整體駕駛表現(xiàn),包括碰撞、違規(guī)以及駕駛時(shí)間等信息。RC與DS兩個(gè)值越高則代表性能越好。

    由表2的實(shí)驗(yàn)結(jié)果可知,盡管在現(xiàn)有導(dǎo)航模型在未受攻擊的情況下具有較好的性能表現(xiàn),在真實(shí)駕駛中常見的影響因素下其性能都產(chǎn)生了明顯的衰減。其中原始模型NEAT在外部干擾下性能衰減最為嚴(yán)重,表明如果在真實(shí)駕駛場景中遇到干擾,可能具有較差的表現(xiàn),甚至可能在短距離駕駛中遇到困難,在實(shí)際應(yīng)用過程中將造成災(zāi)難性后果,說明自動(dòng)駕駛導(dǎo)航模型的魯棒性對實(shí)際駕駛的重要意義。相反,LateFusion模型的性能下降幅度明顯小于其他僅采用相機(jī)輸入的模型,證明了多模態(tài)融合對于提升自動(dòng)駕駛導(dǎo)航魯棒性的積極影響。此外,相比未受攻擊時(shí)的導(dǎo)航性能,基于信息重建模塊的模型性能同樣出現(xiàn)了部分衰減,可能的原因是圖9中表明的當(dāng)前基于CNN的VAE解碼器在生成的重建圖像存在模糊和部分信息丟失,從而影響導(dǎo)航模型對圖像細(xì)節(jié)的學(xué)習(xí),后續(xù)使用ResNet 等更有效的VAE骨干網(wǎng)絡(luò)可能會進(jìn)一步提高當(dāng)前模型的駕駛性能和魯棒性。

    5 結(jié)束語

    本文提出了一種基于神經(jīng)先驗(yàn)的自動(dòng)駕駛感知信息重建算法。首先設(shè)計(jì)自適應(yīng)的大范圍自動(dòng)駕駛場景隱式表征方法,對自動(dòng)駕駛導(dǎo)航場景進(jìn)行先驗(yàn)信息采集與提取,從而緊湊地保存整個(gè)場景的幾何先驗(yàn)信息。其次,本文在神經(jīng)先驗(yàn)的基礎(chǔ)上設(shè)計(jì)了對應(yīng)的先驗(yàn)提取、先驗(yàn)信息融合與異常信息重建方法,將非結(jié)構(gòu)化隱式表征轉(zhuǎn)變?yōu)橐子诳焖僭L問的體素化表達(dá),并利用注意力機(jī)制對自動(dòng)駕駛感知數(shù)據(jù)進(jìn)行當(dāng)前觀測與歷史先驗(yàn)的特征融合,實(shí)現(xiàn)對異常數(shù)據(jù)的重建。最后,本文在信息重建模型的基礎(chǔ)上針對現(xiàn)有導(dǎo)航模型對外界攻擊與干擾魯棒性不足的問題進(jìn)一步提出了基于信息重建的自動(dòng)駕駛導(dǎo)航魯棒性增強(qiáng)框架,實(shí)驗(yàn)結(jié)果表明該算法顯著提升了現(xiàn)有模型在干擾環(huán)境下的駕駛表現(xiàn)。

    參考文獻(xiàn):

    [1]Tampuu A, Matiisen T, Semikin M, et al. A survey of end-to-end driving: architectures and training methods [J]. IEEE Trans on Neural Networks and Learning Systems, 2020, 33 (4): 1364-1384.

    [2]劉旖菲, 胡學(xué)敏, 陳國文, 等. 視覺感知的端到端自動(dòng)駕駛運(yùn)動(dòng)規(guī)劃綜述 [J]. 中國圖象圖形學(xué)報(bào), 2021, 26 (1): 49-66. (Liu Yifei, Hu Xuemin, Chen Guowen, et al. Review of end-to-end motion planning for autonomous driving with visual perception[J]. Journal of Image and Graphics, 2021, 26 (1): 49-66.)

    [3]Lee Y, Kim Y, Yu J, et al. Learning to remove bad weather: towards robust visual perception for self-driving [J/OL]. IEEE Robotics and Automation Letters.(2022-02-28). https://doi.org/ 10.1109/LRA.2022.3154830.

    [4]Liu Ze, Cai Yingfeng, Wang Hai, et al. Robust target recognition and tracking of self-driving cars with radar and camera information fusion under severe weather conditions [J]. IEEE Trans on Intelligent Transportation Systems, 2021, 23 (7): 6640-6653.

    [5]Maanp"J, Taher J, Manninen P, et al. Multimodal end-to-end learning for autonomous steering in adverse road and weather conditions [C]// Proc of the 25th International Conference on Pattern Recognition. Piscataway, NJ: IEEE Press, 2021: 699-706.

    [6]Valanarasu J M J,Yasarla R, Patel V M. TransWeather: Transformer-based restoration of images degraded by adverse weather conditions [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2022: 2353-2363.

    [7]Zamir S W, Arora A, Khan S,et al. Multi-stage progressive image restoration [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2021: 14821-14831.

    [8]Xiong Xuan, Liu Yicheng, Yuan Tianyuan, et al. Neural map prior for autonomous driving [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2023: 17535-17544.

    [9]Mildenhall B, Srinivasan P, Tancik M,et al. NeRF: representing scenes as neural radiance fields for view synthesis [C]// Proc of the 16th European Conference on Computer Vision. Berlin: Springer, 2020: 405-421.

    [10]Martin-Brualla R, Radwan N, Sajjadi M S M,et al. NeRF in the wild: neural radiance fields for unconstrained photo collections [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2021: 7210-7219.

    [11]Tancik M, Casser V, Yan Xinchen, et al. Block-NeRF: scalable large scene neural view synthesis [C]// Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2022: 8248-8258.

    [12]Kajiya J T, Von Herzen B P. Ray tracing volume densities [J]. ACM SIGGRAPH Computer Graphics, 1984, 18 (3): 165-174.

    [13]Meuleman A, Liu Yulun, Gao Chen, et al. Progressively optimized local radiance fields for robust view synthesis [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Pisca-taway, NJ: IEEE Press, 2023: 16539-16548.

    [14]Müller T, Evans A, Schied C,et al. Instant neural graphics primitives with a multiresolution hash encoding [J]. ACM Trans on Graphics, 2022, 41 (4): 1-15.

    [15]Kingma D P, Welling M. An introduction to variational autoencoders [J]. Foundations and Trends in Machine Learning, 2019, 12(4): 307-392.

    [16]Vaswani A,Shazeer N, Parmar N, et al. Attention is all you need [C]// Proc of the 31st International Conference on Neural Information Proces-sing Systems. Red Hook, NY: Curran Associates Inc., 2017: 6000- 6010.

    [17]Dosovitskiy A, Ros G, Codevilla F, et al. CARLA: an open urban dri-ving simulator [EB/OL].(2017-11-10). https://arxiv.org/abs/1711.03938.

    [18]戴力源, 楊達(dá), 李凱, 等. 基于圖像與高精定位融合數(shù)據(jù)的封閉場地自動(dòng)駕駛汽車駕駛測試方法 [J]. 計(jì)算機(jī)應(yīng)用研究, 2023, 40 (11): 3333-3340, 3347. (Dai Liyuan, Yang Da, Li Kai, et al. Driving test methods of autonomous vehicles in closed field based on image and high precision positioning fusion data [J]. Application Research of Computers, 2023, 40 (11): 3333-3340, 3347.)

    [19]Barron J T, Mildenhall B,Verbin D, et al. Mip-NeRF 360: unbounded anti-aliased neural radiance fields [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2022: 5470-5479.

    [20]Codevilla F, Santana E, López A M, et al. Exploring the limitations of behavior cloning for autonomous driving [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2019: 9329-9338.

    [21]Sobh I, Amin L, Abdelkarim S,et al. End-to-end multi-modal sensors fusion system for urban automated driving [EB/OL]. (2018-10-10). https://api.semanticscholar.org/CorpusID:53350266.

    [22]Chitta K, Prakash A, Geiger A.NEAT: neural attention fields for end-to-end autonomous driving [C]// Proc of IEEE/CVF International Confe-rence on Computer Vision. Piscataway, NJ: IEEE Press, 2021: 15793-15803.

    [23] Li Ruilong, Gao Hang, Tancik M, et al. NeRFAcc: efficient sampling accelerates NeRFs [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2023: 18537-18546.

    猜你喜歡
    自動(dòng)駕駛魯棒性
    武漢軌道交通重點(diǎn)車站識別及網(wǎng)絡(luò)魯棒性研究
    荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡(luò)增邊優(yōu)化魯棒性分析
    基于確定性指標(biāo)的弦支結(jié)構(gòu)魯棒性評價(jià)
    基于時(shí)差效用的雙目標(biāo)資源約束型魯棒性項(xiàng)目調(diào)度優(yōu)化
    “自動(dòng)駕駛”熱潮背后的擔(dān)心和疑慮
    汽車周刊(2017年5期)2017-06-06 14:02:49
    汽車自動(dòng)駕駛的發(fā)展
    基于自動(dòng)駕駛下的車道規(guī)劃對交通擁堵的改善
    LTE—V車路通信技術(shù)淺析與探討
    特斯拉默默更改了官網(wǎng)上“自動(dòng)駕駛”的說明
    家用汽車(2016年9期)2016-11-04 15:04:44
    特斯拉中國官網(wǎng)不再提“自動(dòng)駕駛”
    在线天堂最新版资源| 乱系列少妇在线播放| 久久精品久久久久久久性| 久久韩国三级中文字幕| 国产69精品久久久久777片| 免费人成在线观看视频色| 国产精品一区二区在线观看99| 亚洲真实伦在线观看| 色哟哟·www| 啦啦啦在线观看免费高清www| 欧美性感艳星| 精品国产国语对白av| 天堂俺去俺来也www色官网| av专区在线播放| 制服丝袜香蕉在线| 亚洲精品色激情综合| 日韩欧美精品免费久久| 老熟女久久久| 欧美区成人在线视频| 亚洲欧美成人综合另类久久久| 国产日韩一区二区三区精品不卡 | 少妇猛男粗大的猛烈进出视频| 欧美丝袜亚洲另类| 免费看光身美女| 亚洲精品,欧美精品| 狂野欧美激情性xxxx在线观看| 丝袜脚勾引网站| 亚洲第一av免费看| av.在线天堂| 草草在线视频免费看| 中国国产av一级| 亚洲人与动物交配视频| 免费人成在线观看视频色| 久久99一区二区三区| 亚洲精品色激情综合| 一本大道久久a久久精品| 国产乱人偷精品视频| 国产白丝娇喘喷水9色精品| 精华霜和精华液先用哪个| 亚洲情色 制服丝袜| 国产 精品1| 精品一区二区三卡| 蜜臀久久99精品久久宅男| 成人特级av手机在线观看| 曰老女人黄片| 成年女人在线观看亚洲视频| 亚洲精品久久久久久婷婷小说| √禁漫天堂资源中文www| 国产精品嫩草影院av在线观看| 蜜桃久久精品国产亚洲av| 久久鲁丝午夜福利片| 少妇人妻一区二区三区视频| 亚洲精品久久午夜乱码| 久久精品国产亚洲av天美| 成人免费观看视频高清| 国产一区二区三区av在线| 久久人人爽av亚洲精品天堂| 久久精品久久久久久久性| 国产伦在线观看视频一区| 街头女战士在线观看网站| 中国国产av一级| 久久99热6这里只有精品| 成人午夜精彩视频在线观看| 最新的欧美精品一区二区| 亚洲精品国产色婷婷电影| 免费黄色在线免费观看| 80岁老熟妇乱子伦牲交| 一区在线观看完整版| 校园人妻丝袜中文字幕| 欧美成人精品欧美一级黄| 亚洲国产日韩一区二区| 精品国产乱码久久久久久小说| 国产高清有码在线观看视频| 极品少妇高潮喷水抽搐| 久久久久久久久久久久大奶| 18禁在线播放成人免费| 久久久久久人妻| h日本视频在线播放| 一区二区av电影网| 丝袜脚勾引网站| av视频免费观看在线观看| 亚洲精品视频女| 亚洲欧洲精品一区二区精品久久久 | 亚洲精品国产色婷婷电影| 99热全是精品| 亚洲欧美日韩东京热| 看非洲黑人一级黄片| 啦啦啦视频在线资源免费观看| 熟妇人妻不卡中文字幕| 亚洲av日韩在线播放| h日本视频在线播放| 少妇人妻 视频| 国产免费一区二区三区四区乱码| 成人综合一区亚洲| 男人舔奶头视频| 我要看日韩黄色一级片| 女性被躁到高潮视频| a级毛色黄片| 亚洲精品456在线播放app| 国产深夜福利视频在线观看| 又黄又爽又刺激的免费视频.| 国产淫语在线视频| 国产黄色免费在线视频| 一区二区三区四区激情视频| 亚洲不卡免费看| 老司机影院毛片| 日韩大片免费观看网站| 水蜜桃什么品种好| 十八禁网站网址无遮挡 | 中文在线观看免费www的网站| 天堂中文最新版在线下载| 国产国拍精品亚洲av在线观看| 国产 精品1| 久久亚洲国产成人精品v| 日韩中字成人| 亚洲四区av| h视频一区二区三区| 国产永久视频网站| av在线播放精品| 亚洲图色成人| av网站免费在线观看视频| 国产视频首页在线观看| 熟妇人妻不卡中文字幕| 成年美女黄网站色视频大全免费 | 亚洲欧美中文字幕日韩二区| 国产成人一区二区在线| 免费播放大片免费观看视频在线观看| 亚洲欧洲精品一区二区精品久久久 | 午夜av观看不卡| 91久久精品国产一区二区成人| 久久久久久久国产电影| 午夜福利网站1000一区二区三区| 日韩成人av中文字幕在线观看| 特大巨黑吊av在线直播| 国产成人精品无人区| 成人影院久久| 三上悠亚av全集在线观看 | 少妇 在线观看| 人人妻人人爽人人添夜夜欢视频 | 丰满饥渴人妻一区二区三| 黄色配什么色好看| 国产国拍精品亚洲av在线观看| 国产精品国产三级国产专区5o| 欧美日本中文国产一区发布| 欧美精品国产亚洲| 亚洲精品中文字幕在线视频 | 人人澡人人妻人| 成年av动漫网址| 一级毛片黄色毛片免费观看视频| 免费av中文字幕在线| 国产乱来视频区| 一个人看视频在线观看www免费| 国产一区二区在线观看av| 久久国内精品自在自线图片| 国产精品不卡视频一区二区| 欧美日韩精品成人综合77777| 少妇猛男粗大的猛烈进出视频| 精品亚洲成a人片在线观看| 国产av码专区亚洲av| 免费不卡的大黄色大毛片视频在线观看| 久久久久精品性色| 久久精品国产亚洲av涩爱| 草草在线视频免费看| 国语对白做爰xxxⅹ性视频网站| 亚洲av不卡在线观看| 青春草视频在线免费观看| 性色avwww在线观看| 午夜精品国产一区二区电影| 国产在线一区二区三区精| 老司机影院毛片| 久久久久久久久大av| 国产免费视频播放在线视频| 91精品国产九色| 丝袜喷水一区| 成人二区视频| 岛国毛片在线播放| 欧美精品人与动牲交sv欧美| 九色成人免费人妻av| 国产 精品1| 丁香六月天网| av福利片在线观看| 91午夜精品亚洲一区二区三区| 国产一区二区在线观看日韩| 久久精品国产自在天天线| 国产日韩一区二区三区精品不卡 | 国产成人91sexporn| 亚洲国产精品一区三区| 最近手机中文字幕大全| 91精品国产九色| 日韩一区二区视频免费看| 最近中文字幕2019免费版| 汤姆久久久久久久影院中文字幕| 成人国产av品久久久| 丰满人妻一区二区三区视频av| 熟女人妻精品中文字幕| 高清午夜精品一区二区三区| 日本爱情动作片www.在线观看| 老女人水多毛片| 亚洲精品aⅴ在线观看| 欧美日韩视频高清一区二区三区二| 精品亚洲乱码少妇综合久久| 亚洲欧美一区二区三区黑人 | 国产又色又爽无遮挡免| 日韩三级伦理在线观看| 欧美3d第一页| 精品熟女少妇av免费看| 亚洲色图综合在线观看| 又黄又爽又刺激的免费视频.| 国产精品成人在线| 我要看黄色一级片免费的| 人人妻人人爽人人添夜夜欢视频 | 成年av动漫网址| 美女大奶头黄色视频| 高清不卡的av网站| 中国美白少妇内射xxxbb| 精品一区二区免费观看| 亚洲av综合色区一区| 欧美日韩一区二区视频在线观看视频在线| 久久6这里有精品| h视频一区二区三区| 视频区图区小说| 久久精品夜色国产| 人妻夜夜爽99麻豆av| av国产精品久久久久影院| 精品一区二区三卡| 亚洲伊人久久精品综合| 一级av片app| 我的老师免费观看完整版| 免费观看无遮挡的男女| 日韩成人伦理影院| 少妇的逼好多水| 久久久久久人妻| 亚洲av中文av极速乱| 午夜老司机福利剧场| a级片在线免费高清观看视频| 国产成人91sexporn| 国产亚洲一区二区精品| 亚洲精品自拍成人| 2021少妇久久久久久久久久久| 国产成人freesex在线| 精品久久久久久久久av| 国产高清三级在线| 亚洲美女视频黄频| 香蕉精品网在线| 在线观看av片永久免费下载| av在线播放精品| 午夜视频国产福利| 菩萨蛮人人尽说江南好唐韦庄| 免费在线观看成人毛片| 纵有疾风起免费观看全集完整版| 一二三四中文在线观看免费高清| av视频免费观看在线观看| 我的女老师完整版在线观看| 男人狂女人下面高潮的视频| 汤姆久久久久久久影院中文字幕| 国产 精品1| 欧美区成人在线视频| 黄色怎么调成土黄色| 免费人成在线观看视频色| 国产精品秋霞免费鲁丝片| 51国产日韩欧美| 国产高清不卡午夜福利| 日日爽夜夜爽网站| 国产伦在线观看视频一区| 在线观看三级黄色| 极品少妇高潮喷水抽搐| 国产伦精品一区二区三区视频9| 日韩一区二区三区影片| 亚洲精品自拍成人| 国产美女午夜福利| 纵有疾风起免费观看全集完整版| 国产精品熟女久久久久浪| 久久久久久久久久久免费av| 精品少妇久久久久久888优播| 亚洲国产毛片av蜜桃av| 国产极品粉嫩免费观看在线 | 美女视频免费永久观看网站| 亚洲精品自拍成人| 国产黄色视频一区二区在线观看| 国产免费一级a男人的天堂| 精品国产国语对白av| 国产一区二区三区综合在线观看 | 97超视频在线观看视频| 又爽又黄a免费视频| 欧美日韩视频精品一区| 建设人人有责人人尽责人人享有的| 午夜福利在线观看免费完整高清在| 国产免费视频播放在线视频| 看免费成人av毛片| 青春草亚洲视频在线观看| 国产淫语在线视频| 日韩av免费高清视频| 亚洲精品一区蜜桃| 免费观看a级毛片全部| 少妇熟女欧美另类| 最新的欧美精品一区二区| 麻豆成人午夜福利视频| 我的女老师完整版在线观看| 国产精品久久久久久精品古装| 亚洲激情五月婷婷啪啪| 国产精品一区www在线观看| 你懂的网址亚洲精品在线观看| 免费观看无遮挡的男女| 黄色一级大片看看| 嫩草影院新地址| 国产又色又爽无遮挡免| 久久ye,这里只有精品| 中文字幕久久专区| 2018国产大陆天天弄谢| 成年女人在线观看亚洲视频| 日韩av免费高清视频| 久久久久久久亚洲中文字幕| 七月丁香在线播放| 高清在线视频一区二区三区| 菩萨蛮人人尽说江南好唐韦庄| 18禁动态无遮挡网站| 国产精品国产三级专区第一集| 曰老女人黄片| 欧美xxⅹ黑人| 五月天丁香电影| 熟女电影av网| 国语对白做爰xxxⅹ性视频网站| 久久久久久久久久久免费av| 99久久综合免费| 日韩,欧美,国产一区二区三区| 国产日韩一区二区三区精品不卡 | 国产在线免费精品| 久久97久久精品| 国产成人一区二区在线| 日韩成人av中文字幕在线观看| 熟女av电影| 国国产精品蜜臀av免费| 国产又色又爽无遮挡免| 青春草亚洲视频在线观看| 少妇的逼水好多| 一边亲一边摸免费视频| 青春草视频在线免费观看| 黑人高潮一二区| 日本91视频免费播放| 一区二区av电影网| av在线app专区| 国产一区二区在线观看av| 内地一区二区视频在线| 人人妻人人澡人人看| 女的被弄到高潮叫床怎么办| 最新中文字幕久久久久| 亚洲av在线观看美女高潮| 看非洲黑人一级黄片| 国产一级毛片在线| 国产一区二区在线观看日韩| 亚洲精品乱码久久久v下载方式| 少妇丰满av| 中文字幕制服av| 婷婷色综合大香蕉| 亚洲精品国产av蜜桃| 3wmmmm亚洲av在线观看| 丝瓜视频免费看黄片| 精品国产乱码久久久久久小说| 如何舔出高潮| 国产真实伦视频高清在线观看| 性色av一级| 日本与韩国留学比较| 国产69精品久久久久777片| 亚洲欧美精品专区久久| 国产精品国产三级国产专区5o| 汤姆久久久久久久影院中文字幕| 啦啦啦啦在线视频资源| 婷婷色综合大香蕉| 久久精品国产a三级三级三级| 日韩精品有码人妻一区| 久久精品国产鲁丝片午夜精品| 国产伦精品一区二区三区视频9| 亚洲精品乱码久久久v下载方式| 亚洲欧洲国产日韩| 精品亚洲成国产av| 五月玫瑰六月丁香| a级一级毛片免费在线观看| 欧美国产精品一级二级三级 | 国产成人免费无遮挡视频| 欧美人与善性xxx| 综合色丁香网| 伦理电影大哥的女人| 精品少妇内射三级| 在线天堂最新版资源| 一本大道久久a久久精品| 天堂中文最新版在线下载| 一本一本综合久久| 男女啪啪激烈高潮av片| 麻豆精品久久久久久蜜桃| 在线观看免费日韩欧美大片 | 99re6热这里在线精品视频| 黄色怎么调成土黄色| 看免费成人av毛片| 欧美日韩国产mv在线观看视频| 美女脱内裤让男人舔精品视频| 中文字幕精品免费在线观看视频 | 女性生殖器流出的白浆| 人妻人人澡人人爽人人| 国产女主播在线喷水免费视频网站| 欧美日韩av久久| 男人舔奶头视频| 建设人人有责人人尽责人人享有的| 国产精品无大码| 久久久久久久大尺度免费视频| 观看av在线不卡| 女的被弄到高潮叫床怎么办| 又大又黄又爽视频免费| 中文在线观看免费www的网站| 亚洲精品色激情综合| 免费人成在线观看视频色| 一级毛片电影观看| 人妻一区二区av| 一级毛片久久久久久久久女| 国产在线免费精品| videossex国产| 免费观看在线日韩| 久久精品夜色国产| 日本色播在线视频| 丝瓜视频免费看黄片| 99久久精品热视频| tube8黄色片| 又粗又硬又长又爽又黄的视频| 成年女人在线观看亚洲视频| 一级二级三级毛片免费看| 麻豆成人av视频| 亚洲欧美日韩卡通动漫| 久久久久久久久久人人人人人人| 2021少妇久久久久久久久久久| 中文天堂在线官网| 天堂俺去俺来也www色官网| 精品久久久久久久久亚洲| 99久久人妻综合| 少妇人妻久久综合中文| 夜夜爽夜夜爽视频| 亚洲av电影在线观看一区二区三区| 国产又色又爽无遮挡免| 亚洲,一卡二卡三卡| 三级经典国产精品| 久久国内精品自在自线图片| a级毛片在线看网站| 国产视频内射| 免费播放大片免费观看视频在线观看| 涩涩av久久男人的天堂| 97在线视频观看| 亚洲人成网站在线观看播放| av在线播放精品| 波野结衣二区三区在线| 亚洲国产色片| 男人舔奶头视频| 嘟嘟电影网在线观看| 亚洲美女视频黄频| 久久国产精品男人的天堂亚洲 | 久久久久久久久大av| 一级爰片在线观看| 国产亚洲最大av| 99国产精品免费福利视频| 国精品久久久久久国模美| 九九在线视频观看精品| 国产精品一区www在线观看| 精品国产一区二区久久| 久久久久久久国产电影| 一本色道久久久久久精品综合| 精品视频人人做人人爽| 亚洲情色 制服丝袜| 久久久国产精品麻豆| 热re99久久国产66热| av.在线天堂| 乱系列少妇在线播放| 国产真实伦视频高清在线观看| 亚洲图色成人| 久久人人爽人人爽人人片va| 久久久久久久久久成人| 欧美日韩国产mv在线观看视频| 天天操日日干夜夜撸| 少妇人妻精品综合一区二区| 日韩伦理黄色片| 日日啪夜夜爽| 免费av中文字幕在线| 99国产精品免费福利视频| 欧美日韩国产mv在线观看视频| 国产精品一区二区性色av| 建设人人有责人人尽责人人享有的| 精品久久久久久久久亚洲| 观看免费一级毛片| 91久久精品国产一区二区三区| 亚洲欧美日韩东京热| 午夜老司机福利剧场| 日韩一本色道免费dvd| 亚洲精品456在线播放app| 美女国产视频在线观看| 精品午夜福利在线看| 91精品一卡2卡3卡4卡| 免费观看无遮挡的男女| 午夜福利网站1000一区二区三区| 欧美丝袜亚洲另类| 一级毛片 在线播放| 免费人成在线观看视频色| 在线观看美女被高潮喷水网站| 亚洲av二区三区四区| a 毛片基地| 国产精品福利在线免费观看| 又爽又黄a免费视频| 丰满乱子伦码专区| 久久久久国产网址| 亚洲av免费高清在线观看| 亚洲av国产av综合av卡| 免费黄网站久久成人精品| 亚洲av福利一区| 人人妻人人爽人人添夜夜欢视频 | 国产精品99久久久久久久久| 好男人视频免费观看在线| 久久久亚洲精品成人影院| 18禁动态无遮挡网站| 免费不卡的大黄色大毛片视频在线观看| 亚洲精华国产精华液的使用体验| 日日爽夜夜爽网站| 成人毛片a级毛片在线播放| 国产精品伦人一区二区| 亚洲精品色激情综合| 亚洲性久久影院| 午夜91福利影院| 天天躁夜夜躁狠狠久久av| 亚洲国产欧美日韩在线播放 | a级片在线免费高清观看视频| 毛片一级片免费看久久久久| 日韩av不卡免费在线播放| 欧美成人精品欧美一级黄| 亚洲怡红院男人天堂| 亚洲丝袜综合中文字幕| 少妇猛男粗大的猛烈进出视频| 人妻夜夜爽99麻豆av| 国产精品蜜桃在线观看| 国产欧美另类精品又又久久亚洲欧美| 国产成人一区二区在线| 丰满少妇做爰视频| 亚洲精品久久久久久婷婷小说| 高清毛片免费看| 大片电影免费在线观看免费| 日韩,欧美,国产一区二区三区| 欧美 亚洲 国产 日韩一| 如日韩欧美国产精品一区二区三区 | 亚洲欧美一区二区三区国产| 国产极品粉嫩免费观看在线 | 免费大片黄手机在线观看| 99久久精品国产国产毛片| 在线观看免费日韩欧美大片 | 欧美区成人在线视频| 一级黄片播放器| 日韩精品有码人妻一区| 少妇的逼水好多| 91精品国产国语对白视频| 亚洲精品aⅴ在线观看| 国产一级毛片在线| 日韩av免费高清视频| 国产成人freesex在线| 精品一区二区三区视频在线| 亚洲天堂av无毛| 男女无遮挡免费网站观看| 人人澡人人妻人| 国产成人精品久久久久久| 日韩一区二区三区影片| 久久久久久伊人网av| 午夜福利,免费看| 婷婷色综合www| 一区在线观看完整版| 国产精品麻豆人妻色哟哟久久| 天堂8中文在线网| 国产av码专区亚洲av| 亚洲成人一二三区av| 国产精品国产三级国产av玫瑰| 久久精品国产亚洲av涩爱| 久久国内精品自在自线图片| 五月伊人婷婷丁香| 男人添女人高潮全过程视频| 国产成人a∨麻豆精品| 久久久久久久久久久久大奶| 久久精品国产鲁丝片午夜精品| 97在线视频观看| 国产av精品麻豆| 麻豆乱淫一区二区| 国产精品国产三级国产av玫瑰| 国产伦理片在线播放av一区| 免费观看的影片在线观看| 国产精品福利在线免费观看| 午夜影院在线不卡| 久久 成人 亚洲| 亚洲精品自拍成人| 新久久久久国产一级毛片| 天美传媒精品一区二区| 国产免费福利视频在线观看| 内地一区二区视频在线| 国产视频首页在线观看| 永久网站在线| 欧美3d第一页| 色哟哟·www| 亚洲经典国产精华液单| 国产精品一二三区在线看| 亚洲伊人久久精品综合| 亚洲久久久国产精品| 欧美 亚洲 国产 日韩一| 国产极品粉嫩免费观看在线 | 久久鲁丝午夜福利片| 亚洲国产色片| 亚洲综合色惰| 国产伦理片在线播放av一区| 亚洲精品日本国产第一区| 看非洲黑人一级黄片| 在线播放无遮挡| 亚洲四区av| 国产精品秋霞免费鲁丝片| 尾随美女入室| 国产老妇伦熟女老妇高清| 亚洲国产精品专区欧美| 国产精品99久久久久久久久| 国产精品99久久99久久久不卡 |