• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度級聯(lián)神經(jīng)網(wǎng)絡(luò)的自動(dòng)駕駛運(yùn)動(dòng)規(guī)劃模型

    2019-11-15 04:49:03白麗贇胡學(xué)敏宋昇童秀遲張若晗
    計(jì)算機(jī)應(yīng)用 2019年10期
    關(guān)鍵詞:自動(dòng)駕駛卷積神經(jīng)網(wǎng)絡(luò)

    白麗贇 胡學(xué)敏 宋昇 童秀遲 張若晗

    摘 要:針對基于規(guī)則的運(yùn)動(dòng)規(guī)劃算法需要預(yù)先定義規(guī)則和基于深度學(xué)習(xí)的方法沒有利用時(shí)間特征的問題,提出一種基于深度級聯(lián)神經(jīng)網(wǎng)絡(luò)的運(yùn)動(dòng)規(guī)劃模型。該模型將卷積神經(jīng)網(wǎng)絡(luò)(CNN)和長短期記憶網(wǎng)絡(luò)(LSTM)這兩種經(jīng)典的深度學(xué)習(xí)模型進(jìn)行融合并構(gòu)成一種新的級聯(lián)神經(jīng)網(wǎng)絡(luò),分別提取輸入圖像的空間和時(shí)間特征,并用以擬合輸入序列圖像與輸出運(yùn)動(dòng)參數(shù)之間的非線性關(guān)系,從而完成從輸入序列圖像到運(yùn)動(dòng)參數(shù)的端到端的規(guī)劃。實(shí)驗(yàn)利用模擬駕駛環(huán)境的數(shù)據(jù)進(jìn)行訓(xùn)練和測試,結(jié)果顯示所提模型在鄉(xiāng)村路、高速路、隧道和山路四種道路中均方根誤差(RMSE)不超過0.017,且預(yù)測結(jié)果的穩(wěn)定度優(yōu)于未使用級聯(lián)網(wǎng)絡(luò)的算法一個(gè)數(shù)量級。結(jié)果表明,所提模型能有效地學(xué)習(xí)人類的駕駛行為,并且能夠克服累積誤差的影響,適應(yīng)多種不同場景下的路況,具有較好的魯棒性。

    關(guān)鍵詞: 自動(dòng)駕駛;運(yùn)動(dòng)規(guī)劃;深度級聯(lián)神經(jīng)網(wǎng)絡(luò);卷積神經(jīng)網(wǎng)絡(luò);長短期記憶模型

    中圖分類號:TP391.4

    文獻(xiàn)標(biāo)志碼:A

    Abstract:? To address the problems that rule-based motion planning algorithmsunder constraints need pre-definition of rulesand temporal features are not considered in deep learning-based methods, a motion planning model based on deep cascading neural networks was proposed. In this model, the two classical deep learning models, Convolutional Neural Network (CNN) and Long Short-Term Memory (LSTM) network, were combined to build a novel cascaded neural network, the spatial and temporal features of the input images were extracted respectively, and the nonlinear relationship between the input sequential images and the output motion parameters were fit to achieve the end-to-end planning from the input sequential images to the output motion parameters. In experiments, the data of simulated environment were used for training and testing. Results show that the Root Mean Squared Error (RMSE) of the proposed model in four scenes including country road, freeway, tunnel and mountain road is less than 0.017, and the stability of the prediction results of the proposed model is better than that of the algorithm without using cascading neural network by an order of magnitude. Experimental results show that the proposed model can effectively learn human driving behaviors, eliminate the effect of cumulative errors and adapt to different scenes of a variety of road conditions with good robustness.

    Key words:? autonomous driving; motion planning; deep cascaded neural network; Convolutional Neural Network (CNN); Long Short-Term Memory (LSTM) model

    0 引言

    隨著社會(huì)經(jīng)濟(jì)的飛速發(fā)展,機(jī)動(dòng)車輛的大量增長給交通環(huán)境帶來了巨大的壓力,造成安全事故頻發(fā)。自動(dòng)駕駛技術(shù)能夠突破駕駛員的限制,為解決駕駛的安全、交通擁擠等問題提供契機(jī)。運(yùn)動(dòng)規(guī)劃作為自動(dòng)駕駛的核心環(huán)節(jié),是連接車輛的環(huán)境感知與操縱控制的基礎(chǔ)和橋梁。其目的是在考慮當(dāng)前狀態(tài)、感知數(shù)據(jù)以及交通規(guī)則等多種約束條件下,為自動(dòng)駕駛車輛提供安全到達(dá)目的地的運(yùn)動(dòng)參數(shù)或可行路徑,其技術(shù)除了可用于無人車以外,還可用于無人機(jī)[1]、移動(dòng)機(jī)器人[2]等自主無人系統(tǒng),因此具有重要的研究意義和商業(yè)價(jià)值。

    目前,自動(dòng)駕駛領(lǐng)域應(yīng)用較為廣泛的傳統(tǒng)運(yùn)動(dòng)規(guī)劃算法包括啟發(fā)式搜索算法[3-5]、快速搜索隨機(jī)樹算法[6]和基于離散優(yōu)化算法[7]?;谝?guī)則的傳統(tǒng)運(yùn)動(dòng)規(guī)劃算法在無人車和智能機(jī)器人等領(lǐng)域取得了成功的應(yīng)用。然而,這類方法需要根據(jù)預(yù)先定義的規(guī)則來建立相關(guān)數(shù)學(xué)模型,在規(guī)劃之內(nèi)的場景能夠取得較好的規(guī)劃效果,而對于規(guī)則之外的場景卻難以適應(yīng)。此外,這類算法不能直接對感知的數(shù)據(jù)進(jìn)行處理,而需要對數(shù)據(jù)進(jìn)行預(yù)處理,并抽象出模型可以接受的環(huán)境表達(dá),而這些預(yù)處理的過程相當(dāng)耗費(fèi)時(shí)間,導(dǎo)致系統(tǒng)規(guī)劃反應(yīng)時(shí)間過長,尤其是在緊急情況下存在較高的安全隱患。

    近年來,深度學(xué)習(xí)的發(fā)展使得機(jī)器學(xué)習(xí)有了革命性的突破,其中應(yīng)用較為廣泛的兩個(gè)模型是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)[8]和長短期記憶(Long Short-Term Memory, LSTM)網(wǎng)絡(luò)[9]。CNN能有效提取輸入圖像的空間特征[10],LSTM可以提取連續(xù)輸入圖像的時(shí)間特征[11]。而運(yùn)動(dòng)規(guī)劃的本質(zhì),是從感知的序列數(shù)據(jù)到運(yùn)動(dòng)參數(shù)的映射。因此,將深度神經(jīng)網(wǎng)絡(luò)引入運(yùn)動(dòng)規(guī)劃領(lǐng)域,能夠?qū)崿F(xiàn)從感知數(shù)據(jù)到運(yùn)動(dòng)參數(shù)的規(guī)劃。目前已有一些基于深度神經(jīng)網(wǎng)絡(luò)的方法取得了較好的成果。NVIDIA公司[12]提出了一種基于CNN的端對端的運(yùn)動(dòng)規(guī)劃算法,將道路線檢測、路徑規(guī)劃和控制等子步驟通過CNN同時(shí)完成。該方法能有效地將駕駛圖像特征映射為方向盤轉(zhuǎn)角,但是沒有考慮前后幀的時(shí)間特征。Chen等[13]在深度神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上提出了13個(gè)可用于自動(dòng)駕駛的場景描述指標(biāo),通過精確地學(xué)習(xí)這些指標(biāo)的值后,可完成轉(zhuǎn)向角的控制。該方法在沒有車輛的道路的數(shù)據(jù)集中取得良好表現(xiàn),但同樣沒有利用連續(xù)幀的信息,在路況復(fù)雜的情況下駕駛行為不穩(wěn)定。Sallab等[14]使用深度強(qiáng)化學(xué)習(xí)提出了一種自動(dòng)駕駛框架,它包含了用于信息集成的遞歸神經(jīng)網(wǎng)絡(luò),使汽車能夠處理部分可觀察的場景。然而該方法需要通過在環(huán)境中試錯(cuò)來訓(xùn)練模型,訓(xùn)練時(shí)間長,且難以將模型遷移到實(shí)際環(huán)境中。此外,這些方法只利用單個(gè)前向攝像機(jī)獲取駕駛信息,沒有考慮周圍的信息,容易造成累積誤差的問題。

    針對基于傳統(tǒng)的運(yùn)動(dòng)規(guī)劃算法存在的需要預(yù)先定義規(guī)則、預(yù)處理復(fù)雜,以及基于深度學(xué)習(xí)方法中沒有利用連續(xù)幀之間的時(shí)間特征、模型訓(xùn)練時(shí)間長、沒考慮累積誤差等問題,本文提出一種基于深度級聯(lián)神經(jīng)網(wǎng)絡(luò)(Deep CNN, DCNN)的自動(dòng)駕駛運(yùn)動(dòng)規(guī)劃模型。該模型利用CNN和LSTM構(gòu)成深度級聯(lián)神經(jīng)網(wǎng)絡(luò),分別提取駕駛場景序列圖像中的空間和時(shí)間特征,并與車輛的方向盤轉(zhuǎn)角建立映射關(guān)系,從而實(shí)現(xiàn)直接從感知圖像到運(yùn)動(dòng)參數(shù)的端到端的運(yùn)動(dòng)規(guī)劃;并且,為了解決累計(jì)誤差的問題,訓(xùn)練時(shí)使用左、中、右三個(gè)攝像機(jī)采集的前向視頻構(gòu)成數(shù)據(jù)集,解決在線測試時(shí)累計(jì)誤差的自動(dòng)修正問題。該模型采用深度學(xué)習(xí)的方法解決自動(dòng)駕駛運(yùn)動(dòng)規(guī)劃的問題,讓規(guī)劃算法具備學(xué)習(xí)能力,能夠應(yīng)對多種復(fù)雜的道路場景,并且不需要預(yù)處理過程,實(shí)現(xiàn)端到端的運(yùn)動(dòng)規(guī)劃。本文方法既解決了自動(dòng)駕駛中復(fù)雜道路場景的時(shí)空特征表達(dá)問題,也為端到端的運(yùn)動(dòng)規(guī)劃提供新的方法。

    1 基于深度級聯(lián)神經(jīng)網(wǎng)絡(luò)的運(yùn)動(dòng)規(guī)劃模型

    本文提出的基于DCNN的運(yùn)動(dòng)規(guī)劃模型如圖1所示,模型輸入為前向車載相機(jī)的序列圖像,經(jīng)過網(wǎng)絡(luò)后輸出為當(dāng)前預(yù)測的方向盤轉(zhuǎn)角。深度級聯(lián)神經(jīng)網(wǎng)絡(luò)由CNN層和LSTM層組成。其中,CNN層對每一幀圖像提取空間特征,然后輸入到LSTM層提取連續(xù)幀圖像的時(shí)間特征,最后模型輸出得到方向盤轉(zhuǎn)向角的預(yù)測結(jié)果。該過程可用式(1)來描述:

    在訓(xùn)練階段,將左、中、右三個(gè)攝像機(jī)采集的序列圖像數(shù)據(jù)集作為輸入,模型預(yù)測輸出方向盤轉(zhuǎn)角。此外,利用輸入圖像對應(yīng)的真實(shí)方向盤轉(zhuǎn)向角,即數(shù)據(jù)標(biāo)簽,與預(yù)測的轉(zhuǎn)向角之間的誤差計(jì)算損失函數(shù),經(jīng)過反向傳播算法對CNN和LSTM網(wǎng)絡(luò)中的權(quán)值進(jìn)行更新。為了消除數(shù)據(jù)采集中的誤差影響,本文對人工采集的真實(shí)方向盤轉(zhuǎn)角進(jìn)行低通濾波處理。在測試階段,僅將中心攝像機(jī)采集的視頻作為輸入,用訓(xùn)練好的模型預(yù)測當(dāng)前輸入下的方向盤轉(zhuǎn)角,實(shí)現(xiàn)從輸入圖像到運(yùn)動(dòng)參數(shù)端到端的運(yùn)動(dòng)規(guī)劃。

    1.1 CNN層網(wǎng)絡(luò)設(shè)計(jì)

    近年來,CNN被廣泛應(yīng)用于大規(guī)模的圖像識(shí)別任務(wù)中。由于其使用了局部連接和權(quán)值共享的方式,在處理二維圖像時(shí),特別是在識(shí)別位移、縮放以及其他形式的扭曲不變性應(yīng)用上有著良好的魯棒性。自動(dòng)駕駛場景復(fù)雜,車載相機(jī)獲取的圖像中目標(biāo)種類較多,有效提取這些圖像特征是一個(gè)較為困難的任務(wù)。

    VGG-Net(Visual Geometry Group Net)[15]是牛津大學(xué)計(jì)算機(jī)視覺組和Google DeepMind公司的研究員在2014年提出的一種CNN,采用ImageNet數(shù)據(jù)集進(jìn)行訓(xùn)練,并廣泛用于目標(biāo)檢測等圖像識(shí)別領(lǐng)域。而自動(dòng)駕駛場景中建筑物、車輛、行人等目標(biāo)已經(jīng)包含在該數(shù)據(jù)集中,因此本文選擇VGG-Net作為CNN的網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ),依據(jù)級聯(lián)網(wǎng)絡(luò)的設(shè)計(jì)進(jìn)行改進(jìn),并利用駕駛場景數(shù)據(jù)集對網(wǎng)絡(luò)權(quán)值進(jìn)行微調(diào),以此減少訓(xùn)練時(shí)間。此外,考慮到運(yùn)動(dòng)規(guī)劃對實(shí)時(shí)性的要求,本文實(shí)驗(yàn)中采用VGG-16作為本文CNN層的基礎(chǔ)模型,并進(jìn)行改進(jìn)。改進(jìn)的VGG網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,將224×224的三通道圖像作為輸入,在經(jīng)過5個(gè)卷積層與5個(gè)池化層之后,通過三個(gè)卷積層輸出得到1×1×4096的特征矢量。其中,所有的卷積層使用3×3的卷積核,同時(shí)使用修正線性單元(Rectified Linear Unit, ReLU)作為激活函數(shù)。前5個(gè)卷積層的滑動(dòng)步長為1個(gè)像素,卷積層的空間填充固定為1個(gè)像素,用來保持卷積后圖像的長寬尺寸與卷積前一致。池化層采用尺寸為2×2最大池化方法,步長為2。

    CNN中,卷積層和池化層一般用于提取圖像特征,而全連接層一般作為分類器用于對目標(biāo)進(jìn)行分類。由于本文提出的深度級聯(lián)網(wǎng)絡(luò)中,CNN的目的是提取駕駛場景圖像的空間特征,不需要進(jìn)行分類,因此本文去掉了原始VGG-16中的最后3個(gè)全連接層,用3個(gè)3×3、滑動(dòng)步長為2的卷積層代替原始VGG-16網(wǎng)絡(luò)中的全連接層。相對于較大的卷積核,較小卷積核需要訓(xùn)練總的參數(shù)數(shù)量更少,更有利于訓(xùn)練時(shí)的收斂,減少訓(xùn)練時(shí)程序占用的計(jì)算資源。

    1.2 LSTM層網(wǎng)絡(luò)設(shè)計(jì)

    LSTM是一種經(jīng)典的循環(huán)神經(jīng)網(wǎng)絡(luò),可以學(xué)習(xí)長期依賴信息。由于其加入了門控和LSTM細(xì)胞狀態(tài)等機(jī)制,其網(wǎng)絡(luò)的權(quán)重可隨時(shí)間尺度動(dòng)態(tài)地改變,因此可以提取長期時(shí)間的序列特征。圖3中虛線矩形框中LSTM單元描述了LSTM單元的內(nèi)部結(jié)構(gòu),其中,其中:Wxi與b分別表示對應(yīng)門控單元的權(quán)值與偏差;xt-r表示LSTM單元的輸入;ht-r與ht-r-1分別表示當(dāng)前LSTM單元的輸出與上一個(gè)單元的輸出;ct-r與 ct-r-1分別表示當(dāng)前細(xì)胞狀態(tài)與上一個(gè)單元的細(xì)胞狀態(tài); ft-r表示遺忘門;it-r表示輸入門;ot-r表示輸出門;mt-r表示輸入調(diào)制門;“⊙”為點(diǎn)乘。在LSTM單元中設(shè)置了四個(gè)控制門,每一個(gè)控制門都是由多層感知機(jī)與激活函數(shù)構(gòu)成的。在LSTM中,首先由遺忘門讀取xr和hr-1,在決定丟棄的信息后輸出fr。下一步?jīng)Q定讓多少信息加入到細(xì)胞狀態(tài),這個(gè)過程分為sigmoid層決定需要更新的信息ir和一個(gè)tanh層生成備選的用來更新的內(nèi)容mr兩部分組成,這兩部分聯(lián)合起來對細(xì)胞狀態(tài)進(jìn)行更新。在更新細(xì)胞狀態(tài)時(shí),把fr與舊狀態(tài)點(diǎn)乘后加上ir⊙mr完成細(xì)胞狀態(tài)更新。最后確定輸出信息,由一個(gè)sigmoid層來確定細(xì)胞狀態(tài)的輸出部分,并把細(xì)胞狀態(tài)通過tanh進(jìn)行處理并將它和sigmoid門的輸出相乘,得到最終輸出的信息。由于運(yùn)動(dòng)規(guī)劃的輸入視頻圖像在時(shí)間上是相關(guān)的,因此LSTM適合于提取視頻中時(shí)間前后幀的關(guān)聯(lián)信息。

    本文中LSTM網(wǎng)絡(luò)設(shè)計(jì)如圖3所示。對于每一幀圖像,CNN網(wǎng)絡(luò)輸出一個(gè)特征向量x,對于連續(xù)n幀圖像輸出n個(gè)特征矢量。本文設(shè)計(jì)的CNN層的輸出為1×1×4096的向量,在這里作為空間特征向量輸入到LSTM單元中,經(jīng)過LSTM層和全連接層后輸出轉(zhuǎn)向角的預(yù)測。對于當(dāng)前時(shí)刻t,其輸出的值由特征向量xt與上一個(gè)LSTM單元的輸出 ht-1和狀態(tài)ct-1決定,在經(jīng)過全連接層與輸出節(jié)點(diǎn),即得到當(dāng)前方向盤轉(zhuǎn)角的預(yù)測值。在LSTM網(wǎng)絡(luò)中,LSTM單元中的權(quán)值是共享的,即對應(yīng)于不同時(shí)刻的駕駛圖像,其對應(yīng)的LSTM單元中的四個(gè)控制門的權(quán)值是一樣的。在如圖3所示的網(wǎng)絡(luò)結(jié)構(gòu)中,LSTM單元是同一個(gè)LSTM單元在復(fù)用,在上一時(shí)刻LSTM單元的輸出值與細(xì)胞狀態(tài)會(huì)傳入下一時(shí)刻的單元中。

    1.3 網(wǎng)絡(luò)輸出與目標(biāo)函數(shù)設(shè)計(jì)

    車輛的方向盤轉(zhuǎn)向角度是一種連續(xù)的變量,因此轉(zhuǎn)向角的預(yù)測問題可以看作是神經(jīng)網(wǎng)絡(luò)的回歸問題。由于本文的預(yù)測的運(yùn)動(dòng)參數(shù)只有轉(zhuǎn)向角,所以設(shè)計(jì)的深度級聯(lián)神經(jīng)網(wǎng)絡(luò)的輸出節(jié)點(diǎn)數(shù)量為1。此外,為設(shè)計(jì)目標(biāo)函數(shù)訓(xùn)練深度級聯(lián)神經(jīng)網(wǎng)絡(luò),本文采用轉(zhuǎn)向角的預(yù)測值與真實(shí)值之間的歐氏距離作為損失函數(shù),如式(8)所示:

    其中:L表示損失函數(shù); pg表示對應(yīng)的方向盤轉(zhuǎn)角真實(shí)值,由人工采集獲取;s為模型的輸入圖像;M為神經(jīng)網(wǎng)絡(luò)模型。為防止網(wǎng)絡(luò)訓(xùn)練的過擬合問題,本文采用L2正則化的方法。因此,本文設(shè)計(jì)的目標(biāo)函數(shù)更新方法如式(9)所示:

    1.4 網(wǎng)絡(luò)的訓(xùn)練與測試

    本文提出的基于DCNN的運(yùn)動(dòng)規(guī)劃方法,利用事先采集的訓(xùn)練樣本進(jìn)行模型訓(xùn)練,然后利用訓(xùn)練好的模型對測試樣本進(jìn)行離線測試。但是由于離線測試中存在累積誤差的問題,如果不加以修正,難以直接用于在線測試。為了解決該問題,在采集訓(xùn)練數(shù)據(jù)時(shí)設(shè)置了3個(gè)攝像機(jī),分別是左攝像機(jī)、中心攝像機(jī)和右攝像機(jī)。中心攝像機(jī)的主光軸與車身豎直方向平行,左、右兩個(gè)攝像機(jī)的主光軸設(shè)置與中心攝像機(jī)有一定的夾角(本文中夾角設(shè)置均為25°)。三個(gè)攝像機(jī)采集的圖像如圖4所示。左、右兩個(gè)攝像機(jī)能夠顯示車輛從當(dāng)前車道中心的不同位移,以及與道路方向的偏航角度。從左、右攝像機(jī)分別獲得兩種不同位移的圖像,通過對最近的攝像機(jī)圖像進(jìn)行視點(diǎn)變換,模擬攝像機(jī)與各偏航角之間的附加位移,并將轉(zhuǎn)換后的圖像樣本的轉(zhuǎn)向角標(biāo)簽作相應(yīng)的角度調(diào)整,作為補(bǔ)充訓(xùn)練數(shù)據(jù)集。左、右攝像機(jī)與中心攝像機(jī)采集的樣本數(shù)據(jù)及標(biāo)簽一起構(gòu)成訓(xùn)練數(shù)據(jù)集。通過補(bǔ)充數(shù)據(jù)集中樣本的訓(xùn)練,自動(dòng)駕駛車輛能夠在航向角偏離正常航線時(shí)及時(shí)自動(dòng)修正方向,不讓誤差形成累積效應(yīng)。

    在訓(xùn)練階段,使用包含多種場景的駕駛數(shù)據(jù)的訓(xùn)練集對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,使用反向傳播算法在每一次迭代中更新網(wǎng)絡(luò)的權(quán)值。本文使用隨機(jī)梯度下降算法來計(jì)算每一次更新的權(quán)值。由于訓(xùn)練集樣本較多,隨著迭代次數(shù)的增加,網(wǎng)絡(luò)參數(shù)逐漸向最優(yōu)參數(shù)逼近。本文中,迭代總次數(shù)設(shè)置為200000,初始學(xué)習(xí)率為0.0015,batchsize的大小為4。

    本文測試分為離線測試和在線測試。離線測試中,測試數(shù)據(jù)采用未經(jīng)訓(xùn)練的路段駕駛視頻流輸入到網(wǎng)絡(luò)中,記錄每幀對應(yīng)的輸出,并與真實(shí)數(shù)據(jù)作對比,從對比的結(jié)果中判斷網(wǎng)絡(luò)輸出的結(jié)果是否能作為準(zhǔn)確的規(guī)劃結(jié)果;在線測試主要是驗(yàn)證累積誤差的修正問題,讓算法在模擬器中運(yùn)行,驗(yàn)證自動(dòng)駕駛車輛是否能安全行駛。

    2 實(shí)驗(yàn)與結(jié)果分析

    為保證測試的安全性,本文實(shí)驗(yàn)在模擬器的環(huán)境下開展。歐洲卡車模擬器2是目前經(jīng)典的一種駕駛模擬器,其逼真的模擬場景、大范圍的地圖和多路況和天氣的模擬,很適合作為自動(dòng)駕駛的模擬器。本文使用Europilot框架進(jìn)行數(shù)據(jù)采集,通過模擬方向盤、油門和剎車踏板采集人工駕駛的方向盤轉(zhuǎn)角數(shù)據(jù)作為訓(xùn)練樣本的標(biāo)注信息。

    在實(shí)驗(yàn)中,人類操作該模擬器以30 幀/秒的幀率進(jìn)行三個(gè)攝像機(jī)的圖像采集,每幀圖像的像素尺寸為1853×1012,輸入網(wǎng)絡(luò)時(shí)將圖像縮小為224×224。為保證駕駛場景的多樣性,實(shí)驗(yàn)采集了約8h的駕駛數(shù)據(jù),包括4種不同的道路,分別是鄉(xiāng)村路、高速路、隧道和山路。由于本文方法沒有考慮交通標(biāo)志信息,因此沒有將城市道路作為實(shí)驗(yàn)路段。實(shí)驗(yàn)中每種道路取一段路作為測試集,其他數(shù)據(jù)均作為訓(xùn)練集,使用訓(xùn)練集中的數(shù)據(jù)對本文提出的DCNN模型進(jìn)行訓(xùn)練,再使用測試集的數(shù)據(jù)對網(wǎng)絡(luò)的輸出進(jìn)行測試。由于模仿學(xué)習(xí)是學(xué)習(xí)人類的駕駛行為,因此評判模型預(yù)測的準(zhǔn)確性就以人類專家的駕駛數(shù)據(jù)作為標(biāo)準(zhǔn)。將測試結(jié)果與人類駕駛的數(shù)據(jù)進(jìn)行對比,采用均方根誤差(Root Mean Squared Error, RMSE)來衡量模型的性能,公式如下所示:

    穩(wěn)定性也是衡量自動(dòng)駕駛模型好壞的一個(gè)重要的指標(biāo),駕駛的穩(wěn)定性影響著舒適度和安全性。由于均方誤差的大小可以是從零到無窮大,只是針對每幀預(yù)測準(zhǔn)確性作評估,無法衡量駕駛的平穩(wěn)性,因此本文使用式(11)作為駕駛穩(wěn)定性的衡量標(biāo)準(zhǔn):

    其中:ST為穩(wěn)定度指標(biāo)。對于弧度不同的彎道,穩(wěn)定度指標(biāo)有著較大的變換范圍,因此該指標(biāo)只能衡量同一場景下不同模型的穩(wěn)定度,而不能對不同場景下的情況作出評判。

    本文實(shí)驗(yàn)的軟件環(huán)境為Ubuntu 16.04,深度神經(jīng)網(wǎng)絡(luò)框架采用Caffe[16],硬件環(huán)境CPU為Core i7-7700K (Quad-core 4.2GHz)、GPU為 NVIDA GTX 1080Ti、內(nèi)存為32GB。實(shí)驗(yàn)同時(shí)測試了未使用LSTM的原始VGG-16和NVIDIA訓(xùn)練的神經(jīng)網(wǎng)絡(luò)[12]作為對比。實(shí)驗(yàn)的結(jié)果如圖5~7,以及表1~2所示。根據(jù)實(shí)驗(yàn)結(jié)果,可得到如下結(jié)論:

    1)深度級聯(lián)網(wǎng)絡(luò)模型中的空間特征提取層基于改進(jìn)的VGG設(shè)計(jì),能夠有效提取不同復(fù)雜場景的圖像特征,因此對于不同的場景能夠作出準(zhǔn)確的預(yù)測。從圖5中可以觀察DCNN的預(yù)測曲線與真實(shí)曲線比較相近,4個(gè)場景的RMSE均不超過0.017,大約為轉(zhuǎn)向角輸出值范圍的1%。圖7為同一時(shí)刻三種方法與真實(shí)數(shù)據(jù)的對比,可以看出相對于原始的VGG網(wǎng)絡(luò)與

    文獻(xiàn)[12]方法所采用的網(wǎng)絡(luò),由于使用了LSTM,改進(jìn)的網(wǎng)絡(luò)預(yù)測更為準(zhǔn)確。從表1可知在四個(gè)場景中原始的VGG和文獻(xiàn)[12]方法的均方根誤差均高于DCNN方法,而且4種場景的均方根誤差都在同一水平。

    2)本文方法預(yù)測的轉(zhuǎn)向角具有較好的穩(wěn)定性。在4個(gè)場景中,預(yù)測轉(zhuǎn)向的穩(wěn)定度與真實(shí)轉(zhuǎn)向的穩(wěn)定度相差不大,而且遠(yuǎn)好于原始的VGG方法與文獻(xiàn)[12]方法。與人類專家的駕駛穩(wěn)定度相比,DCNN的穩(wěn)定度與人類專家相近,而原始的VGG和文獻(xiàn)[12]方法的穩(wěn)定度指標(biāo)高于人類專家一個(gè)數(shù)量級,相差比較大。這是因?yàn)槿斯げ杉臄?shù)據(jù)由于手的抖動(dòng)和輸入設(shè)備等問題,存在一些噪聲。而本文方法中利用了濾波器對輸入數(shù)據(jù)進(jìn)行平滑,且增加了LSTM層,使得網(wǎng)絡(luò)能夠?qū)r(shí)間上前后相鄰的幾幀圖像聯(lián)系在一起,輸出更加平滑的預(yù)測值。

    3)本文方法能有效地修正行駛中的累積誤差。本文在訓(xùn)練網(wǎng)絡(luò)時(shí)除了前向中心攝像機(jī)的圖像,還增加了左、右兩個(gè)攝像機(jī)的采集的圖像作為訓(xùn)練樣本來訓(xùn)練模型,使模型能夠在偏離正確航向時(shí)修正方向,不讓誤差累積起來。圖6為一段連續(xù)在線測試的圖像。從圖6的右后視鏡中可以看出,第1幀中車輛有稍微向右偏離當(dāng)前車道,但是模型能夠自動(dòng)修正誤差,從第8幀開始回到當(dāng)前車道中央。

    4)本文設(shè)計(jì)的深度級聯(lián)神經(jīng)網(wǎng)絡(luò)算法采用了GPU加速,因此在處理速度上相對于傳統(tǒng)的單線程算法具有一定速度上的優(yōu)勢。視頻流從輸入神經(jīng)網(wǎng)絡(luò)到輸出預(yù)測值大約需要0.05s,即每秒鐘約20次規(guī)劃。而人類的反應(yīng)時(shí)間大約為0.2s[17],要遠(yuǎn)大于本文方法預(yù)測的時(shí)間,因此本文方法能夠滿足在自動(dòng)駕駛中運(yùn)動(dòng)規(guī)劃的實(shí)時(shí)性要求。

    3 結(jié)語

    本文提出了一種深度級聯(lián)神經(jīng)網(wǎng)絡(luò),并利用該網(wǎng)絡(luò)實(shí)現(xiàn)從輸入圖像到運(yùn)動(dòng)參數(shù)的端到端的自動(dòng)駕駛運(yùn)動(dòng)規(guī)劃。該方法中,利用前向車載相機(jī)的序列圖像作為輸入,使用提出的深度級聯(lián)神經(jīng)網(wǎng)絡(luò)對自動(dòng)駕駛的運(yùn)動(dòng)參數(shù)做回歸,實(shí)現(xiàn)對方向盤轉(zhuǎn)向角的預(yù)測。深度級聯(lián)網(wǎng)絡(luò)融合了CNN和LSTM兩種經(jīng)典的深度模型,使模型不僅能夠提取駕駛場景的空間特征,還提取了連續(xù)圖像的時(shí)間特征,實(shí)現(xiàn)對輸出結(jié)果的準(zhǔn)確預(yù)測;并且,訓(xùn)練時(shí)額外利用了左、右兩個(gè)攝像機(jī)采集的數(shù)據(jù)作為補(bǔ)充數(shù)據(jù)集,解決了在線測試時(shí)的累計(jì)誤差修正問題。實(shí)驗(yàn)結(jié)果表明,通過大量數(shù)據(jù)的訓(xùn)練,該網(wǎng)絡(luò)能夠有效、實(shí)時(shí)地針對不同場景的駕駛轉(zhuǎn)向角作出預(yù)測,能夠適應(yīng)復(fù)雜的動(dòng)態(tài)場景。由于該方法沒有考慮交通信息以及全局路徑信息,只能從網(wǎng)絡(luò)的輸入得到規(guī)劃的結(jié)果,因此無法應(yīng)用于城市道路。未來的工作將集中在如何將全局路徑信息和交通信息融合于模型,讓模型能夠適應(yīng)更復(fù)雜的城市道路。

    參考文獻(xiàn)(References)

    [1] 余翔, 王新民, 李儼. 無人直升機(jī)路徑規(guī)劃算法研究[J]. 計(jì)算機(jī)應(yīng)用, 2006, 26(2): 494-495. (YU X, WANG X M, LI Y. Study of a path planning algorithm for unmanned helicopter[J]. Journal of Computer Applications, 2006, 26(2): 494-495.)

    [2] 張超超, 房建東. 基于定向加權(quán)A*算法的自主移動(dòng)機(jī)器人路徑規(guī)劃[J]. 計(jì)算機(jī)應(yīng)用, 2017, 37(S2): 77-81. (ZAHNG C C, FANG J D. Path planning of autonomous mobile robot based on directional weighted A* algorithm[J]. Journal of Computer Applications, 2017, 37(S2): 77-81.)

    [3] BRANDES U. A faster algorithm for betweenness centrality[J]. Journal of Mathematical Sociology, 2001, 25(2): 163-177.

    [4] HART P E, NILSSON N J, RAPHAEL B. A formal basis for the heuristic determination of minimum cost paths[J]. IEEE Transactions on Systems Science and Cybernetics, 1968, 4(2): 100-107.

    [5] STENTZ A. Optimal and efficient path planning for partially-known environments[C]// Proceedings of the 1994 IEEE International Conference on Robotics and Automation. Piscataway: IEEE, 1994: 3310-3317.

    [6] KARAMAN S, WALTER M R, PEREZ A, et al. Anytime motion planning using the RRT*[C]// Proceedings of the 2011 IEEE International Conference on Robotics and Automation. Piscataway: IEEE, 2011: 1478-1483.

    [7] HU X, CHEN L, TANG B, et al. Dynamic path planning for autonomous driving on various roads with avoidance of static and moving obstacles[J]. Mechanical Systems and Signal Processing, 2018, 100: 482-500.

    [8] LECUN Y L, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

    [9] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780.

    [10] 胡學(xué)敏, 易重輝, 陳欽, 等. 基于運(yùn)動(dòng)顯著圖的人群異常行為檢測[J]. 計(jì)算機(jī)應(yīng)用, 2018, 38(4): 1164-1169. (HU X M, YI C H, CHEN Q, et al. Abnormal crowd behavior detection based on motion saliency map[J]. Journal of Computer Applications, 2018, 38(4): 1164-1169.)

    [11] WOJNA Z, GORBAN A N, LEE D, et al. Attention-based extraction of structured information from street view imagery[C]// Proceedings of the 14th IAPR International Conference on Document Analysis and Recognition. Piscataway: IEEE, 2017: 844-850.

    [12] BOJARSKI M, del TESTA D, DWORAKOWSKI D, et al. End to end learning for self-driving cars[EB/OL]. (2016-04-25) [2019-02-23]. https://arxiv. org/pdf/1604.07316.pdf.

    [13] CHEN C Y, SEFF A, KORNHASUER A, et al. Deep driving: learning affordance for direct perception in autonomous driving[C]// Proceedings of the IEEE 2015 International Conference on Computer Vision. Piscataway: IEEE, 2015: 2722-2730.

    [14] SALLAB A E L, ABDOU M, PEROT E, et al. Deep reinforcement learning framework for autonomous driving[EB/OL]. [2019-01-10]. https://arxiv.org/abs/1704.02532.

    [15] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [EB/OL]. [2019-01-20]. https://arxiv.org/pdf/1409.1556.pdf.

    [16] JIA Y, SHELHAMER E, DONAHUE J, et al. Caffe: convolutional architecture for fast feature embedding[C]// Proceedings of the 22nd ACM Conference on Multimedia. New York: ACM, 2014: 675-678.

    [17] THORPE S, FIZE D, MARLOT C. Speed of processing in the human visual system[J]. Nature, 1996, 381(6582): 520-522.

    猜你喜歡
    自動(dòng)駕駛卷積神經(jīng)網(wǎng)絡(luò)
    “自動(dòng)駕駛”熱潮背后的擔(dān)心和疑慮
    汽車周刊(2017年5期)2017-06-06 14:02:49
    汽車自動(dòng)駕駛的發(fā)展
    基于自動(dòng)駕駛下的車道規(guī)劃對交通擁堵的改善
    LTE—V車路通信技術(shù)淺析與探討
    基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    特斯拉默默更改了官網(wǎng)上“自動(dòng)駕駛”的說明
    家用汽車(2016年9期)2016-11-04 15:04:44
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    特斯拉中國官網(wǎng)不再提“自動(dòng)駕駛”
    亚洲男人天堂网一区| 亚洲av综合色区一区| 99热全是精品| 免费黄频网站在线观看国产| 成人亚洲精品一区在线观看| 只有这里有精品99| xxx大片免费视频| 亚洲欧美日韩高清在线视频 | 狠狠婷婷综合久久久久久88av| 欧美在线一区亚洲| 可以免费在线观看a视频的电影网站| 午夜久久久在线观看| 一级毛片女人18水好多 | 天天添夜夜摸| 亚洲av国产av综合av卡| 久久精品亚洲熟妇少妇任你| 丝袜在线中文字幕| 亚洲,欧美,日韩| 丝袜人妻中文字幕| 欧美另类一区| 国产精品99久久99久久久不卡| 97在线人人人人妻| 人人妻人人澡人人爽人人夜夜| 视频在线观看一区二区三区| 国产激情久久老熟女| 高清欧美精品videossex| 男人舔女人的私密视频| 国产一卡二卡三卡精品| 日韩人妻精品一区2区三区| 亚洲综合色网址| 国产免费视频播放在线视频| 老汉色∧v一级毛片| 精品人妻在线不人妻| 欧美xxⅹ黑人| 在线av久久热| 国产精品久久久久成人av| 日本五十路高清| www.av在线官网国产| 超色免费av| 色综合欧美亚洲国产小说| 亚洲国产最新在线播放| 国产精品久久久久久精品古装| 免费日韩欧美在线观看| 麻豆乱淫一区二区| 黄网站色视频无遮挡免费观看| 丁香六月天网| 狠狠婷婷综合久久久久久88av| 最黄视频免费看| 91老司机精品| 老汉色∧v一级毛片| www.999成人在线观看| 久久性视频一级片| 久久久久久久精品精品| 每晚都被弄得嗷嗷叫到高潮| 老汉色av国产亚洲站长工具| 成年人黄色毛片网站| 精品第一国产精品| 另类精品久久| 亚洲成av片中文字幕在线观看| 亚洲精品自拍成人| 男女高潮啪啪啪动态图| 又紧又爽又黄一区二区| 国产一卡二卡三卡精品| 亚洲人成电影观看| 亚洲情色 制服丝袜| 丰满饥渴人妻一区二区三| 一本一本久久a久久精品综合妖精| 亚洲欧美一区二区三区黑人| 午夜激情久久久久久久| 女性被躁到高潮视频| 精品国产一区二区三区四区第35| 丝袜美腿诱惑在线| 少妇的丰满在线观看| 老司机深夜福利视频在线观看 | 看免费成人av毛片| 亚洲天堂av无毛| 亚洲 欧美一区二区三区| 老司机靠b影院| 欧美激情极品国产一区二区三区| av福利片在线| 好男人视频免费观看在线| 黑人巨大精品欧美一区二区蜜桃| 亚洲中文av在线| 人人妻人人澡人人看| 王馨瑶露胸无遮挡在线观看| 涩涩av久久男人的天堂| 最近最新中文字幕大全免费视频 | 国产91精品成人一区二区三区 | 少妇裸体淫交视频免费看高清 | 搡老乐熟女国产| 亚洲欧美激情在线| 亚洲精品美女久久久久99蜜臀 | 日本五十路高清| 免费观看av网站的网址| 婷婷丁香在线五月| 一级a爱视频在线免费观看| 亚洲精品久久成人aⅴ小说| 色精品久久人妻99蜜桃| 中文字幕色久视频| 亚洲中文日韩欧美视频| 国产老妇伦熟女老妇高清| 国产视频一区二区在线看| 午夜免费成人在线视频| 成人午夜精彩视频在线观看| 亚洲男人天堂网一区| 欧美xxⅹ黑人| 国产精品国产三级专区第一集| 日本一区二区免费在线视频| 熟女少妇亚洲综合色aaa.| 啦啦啦视频在线资源免费观看| 一级毛片我不卡| 久久久久久免费高清国产稀缺| 亚洲成人免费av在线播放| 精品少妇黑人巨大在线播放| 亚洲欧美精品自产自拍| 最黄视频免费看| av天堂久久9| 国产精品熟女久久久久浪| 好男人电影高清在线观看| a级片在线免费高清观看视频| 久久久久精品人妻al黑| 麻豆国产av国片精品| 国产成人a∨麻豆精品| 乱人伦中国视频| 成年美女黄网站色视频大全免费| 亚洲成国产人片在线观看| av国产精品久久久久影院| 日日夜夜操网爽| 国产伦人伦偷精品视频| 欧美激情高清一区二区三区| 老鸭窝网址在线观看| 99热国产这里只有精品6| bbb黄色大片| www.精华液| 国产精品久久久久成人av| 久久久久久久国产电影| 精品一品国产午夜福利视频| 亚洲人成77777在线视频| 国产精品一国产av| 欧美日韩亚洲国产一区二区在线观看 | 亚洲精品久久久久久婷婷小说| 久久精品国产亚洲av高清一级| 国产黄频视频在线观看| √禁漫天堂资源中文www| 国产黄色视频一区二区在线观看| 嫩草影视91久久| avwww免费| 黄色毛片三级朝国网站| 美国免费a级毛片| 免费在线观看影片大全网站 | 成人午夜精彩视频在线观看| 叶爱在线成人免费视频播放| 大香蕉久久成人网| 精品国产一区二区久久| 少妇人妻久久综合中文| 又粗又硬又长又爽又黄的视频| 一级毛片 在线播放| 欧美大码av| 午夜福利影视在线免费观看| 少妇粗大呻吟视频| 亚洲精品久久成人aⅴ小说| 老司机影院毛片| 观看av在线不卡| 欧美日韩国产mv在线观看视频| 国产日韩欧美亚洲二区| 亚洲精品久久久久久婷婷小说| 亚洲欧美日韩高清在线视频 | 国产成人精品久久二区二区免费| 老汉色∧v一级毛片| 人人妻人人澡人人爽人人夜夜| 日本vs欧美在线观看视频| 欧美性长视频在线观看| 亚洲,欧美,日韩| 女人精品久久久久毛片| 欧美成人午夜精品| 国产精品一区二区在线观看99| 首页视频小说图片口味搜索 | 青草久久国产| 91九色精品人成在线观看| 一区二区日韩欧美中文字幕| 别揉我奶头~嗯~啊~动态视频 | 亚洲国产成人一精品久久久| 成年美女黄网站色视频大全免费| 欧美精品av麻豆av| 伊人久久大香线蕉亚洲五| 欧美在线一区亚洲| 国产免费视频播放在线视频| 两个人免费观看高清视频| 免费在线观看黄色视频的| 超碰成人久久| 一二三四社区在线视频社区8| 精品久久久久久电影网| 精品福利观看| 性高湖久久久久久久久免费观看| 七月丁香在线播放| 亚洲五月色婷婷综合| 免费在线观看完整版高清| 亚洲九九香蕉| 狂野欧美激情性bbbbbb| 亚洲图色成人| 宅男免费午夜| a级毛片在线看网站| 久久久久国产一级毛片高清牌| 色视频在线一区二区三区| 久久久久久免费高清国产稀缺| 日韩 欧美 亚洲 中文字幕| 国产av精品麻豆| 婷婷色综合大香蕉| 五月天丁香电影| 十八禁网站网址无遮挡| 国产男女内射视频| 国产在线一区二区三区精| 又大又爽又粗| 欧美人与性动交α欧美软件| 国产一区二区三区综合在线观看| 极品人妻少妇av视频| 狂野欧美激情性bbbbbb| 色94色欧美一区二区| 桃花免费在线播放| 曰老女人黄片| 精品人妻1区二区| 超碰97精品在线观看| 国产xxxxx性猛交| 人体艺术视频欧美日本| 久久精品成人免费网站| √禁漫天堂资源中文www| 又紧又爽又黄一区二区| 十八禁网站网址无遮挡| 国产精品秋霞免费鲁丝片| 99久久综合免费| 女人高潮潮喷娇喘18禁视频| 精品国产乱码久久久久久男人| 中文欧美无线码| 校园人妻丝袜中文字幕| 免费在线观看影片大全网站 | √禁漫天堂资源中文www| 97精品久久久久久久久久精品| 精品国产一区二区三区四区第35| 免费观看人在逋| 中文字幕色久视频| 老司机深夜福利视频在线观看 | 国产一级毛片在线| 男人添女人高潮全过程视频| 国产免费福利视频在线观看| 亚洲伊人久久精品综合| 热re99久久国产66热| 纯流量卡能插随身wifi吗| 亚洲av电影在线进入| 一本色道久久久久久精品综合| 高清欧美精品videossex| 久久精品国产亚洲av涩爱| 啦啦啦在线观看免费高清www| 老司机靠b影院| 天天躁夜夜躁狠狠久久av| 午夜日韩欧美国产| 黄片小视频在线播放| 最黄视频免费看| 日日夜夜操网爽| 精品人妻在线不人妻| 国产成人一区二区三区免费视频网站 | 欧美乱码精品一区二区三区| 国产又爽黄色视频| 久久国产精品大桥未久av| 午夜免费观看性视频| 国产av精品麻豆| 狂野欧美激情性xxxx| 97人妻天天添夜夜摸| 欧美黄色片欧美黄色片| 麻豆国产av国片精品| av国产久精品久网站免费入址| 黑人巨大精品欧美一区二区蜜桃| 精品久久久久久久毛片微露脸 | 一区福利在线观看| 日韩av不卡免费在线播放| 欧美久久黑人一区二区| 丰满人妻熟妇乱又伦精品不卡| 久久性视频一级片| 熟女少妇亚洲综合色aaa.| 精品国产超薄肉色丝袜足j| 一二三四社区在线视频社区8| 汤姆久久久久久久影院中文字幕| 在线观看国产h片| 国产深夜福利视频在线观看| 国产精品久久久久久人妻精品电影 | 欧美亚洲 丝袜 人妻 在线| 亚洲成人手机| 精品一区二区三卡| 日韩av不卡免费在线播放| 中文字幕最新亚洲高清| 纯流量卡能插随身wifi吗| 大型av网站在线播放| 亚洲欧洲日产国产| 秋霞在线观看毛片| 成人免费观看视频高清| 午夜激情久久久久久久| 亚洲欧美日韩另类电影网站| av有码第一页| 日韩大片免费观看网站| 亚洲精品一卡2卡三卡4卡5卡 | 国产在线一区二区三区精| 亚洲欧美一区二区三区黑人| 国产视频首页在线观看| 国产深夜福利视频在线观看| 美女大奶头黄色视频| 青青草视频在线视频观看| 中文字幕亚洲精品专区| 免费观看av网站的网址| 人人妻人人添人人爽欧美一区卜| 妹子高潮喷水视频| 天堂中文最新版在线下载| 成人影院久久| 日本五十路高清| 在线看a的网站| 色综合欧美亚洲国产小说| 国产视频一区二区在线看| 尾随美女入室| 亚洲av成人精品一二三区| 一边摸一边抽搐一进一出视频| 男人舔女人的私密视频| 国产91精品成人一区二区三区 | 黄色毛片三级朝国网站| 成人手机av| 国产一区亚洲一区在线观看| 大片免费播放器 马上看| 国产精品麻豆人妻色哟哟久久| www.999成人在线观看| 最黄视频免费看| 天天躁日日躁夜夜躁夜夜| 国产主播在线观看一区二区 | 亚洲欧美日韩高清在线视频 | 婷婷成人精品国产| 婷婷色麻豆天堂久久| 欧美国产精品va在线观看不卡| 亚洲,欧美,日韩| 国产日韩一区二区三区精品不卡| 波多野结衣av一区二区av| 精品国产乱码久久久久久小说| 一边摸一边做爽爽视频免费| 欧美在线一区亚洲| 97人妻天天添夜夜摸| 久久精品国产亚洲av高清一级| 国产成人免费无遮挡视频| 蜜桃在线观看..| 自拍欧美九色日韩亚洲蝌蚪91| 国产精品久久久久久精品古装| 亚洲人成77777在线视频| 91精品伊人久久大香线蕉| 91精品三级在线观看| 制服人妻中文乱码| av视频免费观看在线观看| 欧美日韩亚洲国产一区二区在线观看 | 久久人人97超碰香蕉20202| 国产一区二区三区av在线| 国产视频一区二区在线看| 国产女主播在线喷水免费视频网站| 亚洲 欧美一区二区三区| av欧美777| 亚洲成国产人片在线观看| 女人高潮潮喷娇喘18禁视频| 日本wwww免费看| 母亲3免费完整高清在线观看| 精品少妇久久久久久888优播| 欧美在线黄色| 各种免费的搞黄视频| 久久人人97超碰香蕉20202| 久久性视频一级片| 建设人人有责人人尽责人人享有的| 少妇裸体淫交视频免费看高清 | www.av在线官网国产| 国产精品人妻久久久影院| 999久久久国产精品视频| 99热国产这里只有精品6| 国产高清视频在线播放一区 | 精品欧美一区二区三区在线| 无遮挡黄片免费观看| 亚洲国产av新网站| 日韩制服丝袜自拍偷拍| 99精品久久久久人妻精品| 妹子高潮喷水视频| 国产熟女午夜一区二区三区| 婷婷成人精品国产| 国产黄频视频在线观看| 久久久久久久大尺度免费视频| 久久免费观看电影| 亚洲欧美一区二区三区国产| 亚洲一区二区三区欧美精品| 国产黄色视频一区二区在线观看| 一级毛片黄色毛片免费观看视频| 日日夜夜操网爽| 亚洲中文av在线| av国产精品久久久久影院| 人妻一区二区av| 9色porny在线观看| 亚洲久久久国产精品| 国产一区二区 视频在线| 黄片小视频在线播放| 伦理电影免费视频| 亚洲成人国产一区在线观看 | 欧美激情极品国产一区二区三区| 国产精品欧美亚洲77777| 免费少妇av软件| 色综合欧美亚洲国产小说| 美女午夜性视频免费| 婷婷丁香在线五月| 国产精品香港三级国产av潘金莲 | 亚洲成人国产一区在线观看 | 亚洲国产精品999| 亚洲精品国产一区二区精华液| 黑人巨大精品欧美一区二区蜜桃| 免费高清在线观看视频在线观看| 亚洲精品一卡2卡三卡4卡5卡 | 亚洲人成电影观看| 韩国高清视频一区二区三区| 中文欧美无线码| 麻豆乱淫一区二区| 亚洲人成电影免费在线| 丝瓜视频免费看黄片| 黄色片一级片一级黄色片| 亚洲精品一区蜜桃| e午夜精品久久久久久久| 天天影视国产精品| 亚洲综合色网址| 美女午夜性视频免费| 日本猛色少妇xxxxx猛交久久| 男人添女人高潮全过程视频| 一级片'在线观看视频| av在线老鸭窝| 男女高潮啪啪啪动态图| 亚洲,欧美,日韩| 校园人妻丝袜中文字幕| 久久精品人人爽人人爽视色| 亚洲国产最新在线播放| 男女之事视频高清在线观看 | 少妇被粗大的猛进出69影院| 亚洲精品国产色婷婷电影| 国产不卡av网站在线观看| 免费久久久久久久精品成人欧美视频| 亚洲欧美色中文字幕在线| 国产一区亚洲一区在线观看| 精品人妻在线不人妻| 久久综合国产亚洲精品| 黄色视频不卡| 最近手机中文字幕大全| 天天躁夜夜躁狠狠久久av| 麻豆乱淫一区二区| 欧美日韩一级在线毛片| 国产精品麻豆人妻色哟哟久久| 操美女的视频在线观看| 又紧又爽又黄一区二区| 久久免费观看电影| 侵犯人妻中文字幕一二三四区| 欧美日韩综合久久久久久| 我要看黄色一级片免费的| 亚洲欧美精品自产自拍| 黄网站色视频无遮挡免费观看| 亚洲国产精品一区二区三区在线| 在现免费观看毛片| 日韩av在线免费看完整版不卡| 久久久久网色| 又大又爽又粗| www.自偷自拍.com| 精品欧美一区二区三区在线| 国产伦理片在线播放av一区| 国产成人a∨麻豆精品| 欧美xxⅹ黑人| 激情视频va一区二区三区| 欧美日韩福利视频一区二区| 人人妻,人人澡人人爽秒播 | 亚洲精品中文字幕在线视频| 又大又黄又爽视频免费| 精品亚洲成a人片在线观看| av网站在线播放免费| 在线观看一区二区三区激情| 免费高清在线观看日韩| 50天的宝宝边吃奶边哭怎么回事| 国产精品久久久av美女十八| 女人被狂操c到高潮| 午夜福利在线在线| 久久香蕉激情| 999久久久精品免费观看国产| 成人午夜高清在线视频 | 国产精品久久久av美女十八| 操出白浆在线播放| 亚洲中文字幕日韩| 99久久无色码亚洲精品果冻| 久久精品国产综合久久久| 久久久久久国产a免费观看| 两个人看的免费小视频| 少妇被粗大的猛进出69影院| √禁漫天堂资源中文www| 亚洲av美国av| 91在线观看av| 亚洲国产欧美一区二区综合| 日本免费一区二区三区高清不卡| 可以在线观看的亚洲视频| 波多野结衣av一区二区av| 日韩欧美在线二视频| 天堂√8在线中文| 好看av亚洲va欧美ⅴa在| 欧美黑人巨大hd| 久久婷婷成人综合色麻豆| 首页视频小说图片口味搜索| 色综合亚洲欧美另类图片| 窝窝影院91人妻| 最近最新中文字幕大全免费视频| 白带黄色成豆腐渣| 亚洲成av人片免费观看| 亚洲精品在线观看二区| 国产久久久一区二区三区| 19禁男女啪啪无遮挡网站| 欧美绝顶高潮抽搐喷水| 两性夫妻黄色片| 好男人电影高清在线观看| 校园春色视频在线观看| 亚洲av成人av| 国产成人精品久久二区二区免费| 中文字幕人妻丝袜一区二区| 人人澡人人妻人| 天堂动漫精品| 中文字幕久久专区| 日韩中文字幕欧美一区二区| 国产一区二区在线av高清观看| 少妇的丰满在线观看| 日本免费一区二区三区高清不卡| 啦啦啦 在线观看视频| 一级毛片女人18水好多| 哪里可以看免费的av片| 99久久精品国产亚洲精品| 亚洲精品中文字幕一二三四区| 精品无人区乱码1区二区| 12—13女人毛片做爰片一| 国产精华一区二区三区| 国产视频一区二区在线看| 中国美女看黄片| 变态另类成人亚洲欧美熟女| 久久久久九九精品影院| 日韩中文字幕欧美一区二区| 大香蕉久久成人网| 日本成人三级电影网站| 视频在线观看一区二区三区| 黄网站色视频无遮挡免费观看| 亚洲国产精品成人综合色| 欧美日韩精品网址| 免费人成视频x8x8入口观看| 天天躁夜夜躁狠狠躁躁| 国内久久婷婷六月综合欲色啪| 久久久久久久久久黄片| 91在线观看av| 国产亚洲av嫩草精品影院| 91成人精品电影| 国产精品一区二区免费欧美| 日韩欧美免费精品| 女同久久另类99精品国产91| 亚洲人成电影免费在线| 在线观看一区二区三区| 99国产精品99久久久久| 亚洲av熟女| 国内少妇人妻偷人精品xxx网站 | 18禁美女被吸乳视频| 麻豆成人av在线观看| 99久久国产精品久久久| 两个人免费观看高清视频| 丁香六月欧美| 视频在线观看一区二区三区| 99国产极品粉嫩在线观看| 国产人伦9x9x在线观看| 久久中文字幕人妻熟女| 亚洲电影在线观看av| 亚洲成人久久爱视频| 亚洲精品在线观看二区| www国产在线视频色| 午夜a级毛片| 亚洲在线自拍视频| 国产一区二区激情短视频| 激情在线观看视频在线高清| 99热6这里只有精品| 久久天堂一区二区三区四区| 无限看片的www在线观看| 久9热在线精品视频| 99re在线观看精品视频| 一区二区三区国产精品乱码| 视频在线观看一区二区三区| 久久国产乱子伦精品免费另类| 亚洲精品国产一区二区精华液| 啦啦啦 在线观看视频| 欧美日韩精品网址| 亚洲欧美激情综合另类| 日本精品一区二区三区蜜桃| 欧美国产精品va在线观看不卡| 午夜福利视频1000在线观看| 亚洲国产精品999在线| 脱女人内裤的视频| 国产精品久久久久久人妻精品电影| 国产一区二区三区视频了| www国产在线视频色| 美女高潮到喷水免费观看| 欧美精品亚洲一区二区| 国产日本99.免费观看| 亚洲av美国av| 免费无遮挡裸体视频| 精品一区二区三区四区五区乱码| 午夜免费成人在线视频| 日本一本二区三区精品| 国产精品久久久久久人妻精品电影| 国产午夜福利久久久久久| 女人被狂操c到高潮| 国产三级黄色录像| 手机成人av网站| 亚洲人成伊人成综合网2020| 久久精品国产清高在天天线| 日韩国内少妇激情av| 久99久视频精品免费| 亚洲,欧美精品.| 一本大道久久a久久精品| 一进一出抽搐动态|