• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    模擬真實場景的場景流預(yù)測

    2022-07-03 04:23:04梅海藝朱翔昱馬喜波
    圖學(xué)學(xué)報 2022年3期
    關(guān)鍵詞:物理模型

    梅海藝,朱翔昱,雷 震,高 瑞,馬喜波

    模擬真實場景的場景流預(yù)測

    梅海藝1,2,3,朱翔昱2,3,雷 震2,3,高 瑞1,馬喜波2,3

    (1. 山東大學(xué)控制科學(xué)與工程學(xué)院,山東 濟南 250061;2. 中國科學(xué)院自動化研究所,北京 100190;3. 中國科學(xué)院大學(xué)人工智能學(xué)院,北京 100049)

    人工智能發(fā)展至今正逐漸進入認(rèn)知時代,計算機對真實物理世界的認(rèn)知與推理能力亟待提高。有關(guān)物體物理屬性與運動預(yù)測的現(xiàn)有工作多局限于簡單的物體和場景,因此嘗試拓展常識推理至仿真場景下物體場景流的預(yù)測。首先,為了彌補相關(guān)領(lǐng)域數(shù)據(jù)集的短缺,提出了一個基于仿真場景的數(shù)據(jù)集ModernCity,從常識推理的角度出發(fā)還原了現(xiàn)代都市的街邊景象,并提供了包括RGB圖像、深度圖、場景流數(shù)據(jù)和語義分割圖在內(nèi)的多種標(biāo)簽;此外,設(shè)計了一個物體描述子解碼模型(ODD),通過物體屬性輔助預(yù)測場景流。通過消融實驗證明,該模型可以在仿真的場景下通過物體的屬性準(zhǔn)確地預(yù)測物體未來的運動趨勢,通過與其他SOTA模型的對比實驗驗證了該模型的性能及ModernCity數(shù)據(jù)集的可靠性。

    常識推理;場景流;仿真場景;物體物理屬性;運動預(yù)測

    現(xiàn)實世界被物理規(guī)律包圍著,每個物體都有其獨特的物理屬性,不同物體不停移動并相互交互組成了物理世界。人類擁有對世界的基本認(rèn)知能力,通過學(xué)習(xí)和觀察可以估計出物體的一些屬性,并根據(jù)這些屬性預(yù)測出物體將來的運動趨勢,例如行人在過馬路時會通過觀察估計出馬路上車輛的體積、重量、位置、前進方向等,并判斷其未來的運動趨勢。隨著深度學(xué)習(xí)掀起的第三次人工智能浪潮[1],以神經(jīng)網(wǎng)絡(luò)為核心的機器學(xué)習(xí)算法快速發(fā)展,大規(guī)模的數(shù)據(jù)讓越來越多的人工智能任務(wù)成為可能,也有不少研究者將精力投入到常識學(xué)習(xí)中;認(rèn)知與推理是人工智能的一個重要研究領(lǐng)域,推理物理世界中的常識是其中重要的一環(huán);在理解并認(rèn)知物理世界后,機器可以對物體的運動進行預(yù)測,對異常狀況做出判斷,幫助機器人自主移動等,這也是邁向強人工智能所必須解決的問題。

    本文從預(yù)測物體的運動速度出發(fā),使用物體的屬性預(yù)測該物體下一時刻的三維速度,旨在探索人工智能理解物體的物理屬性并預(yù)測物體運動趨勢的可能性,并將其作為推理物理常識的基本問題。物體的屬性被抽象為一個特征向量,且被稱為物體描述子(object descriptor),物體的三維速度由場景流(scene flow)表示。本文將問題聚焦至在仿真場景下進行場景流預(yù)測,現(xiàn)有的研究工作多局限于簡單的物體與物理場景,例如在純色背景下預(yù)測簡單幾何體的運動趨勢,在設(shè)計時少有算法從常識推理的角度出發(fā);本文向真實邁進,在仿真的場景下對復(fù)雜的物體進行場景流預(yù)測。為解決現(xiàn)有數(shù)據(jù)集在該領(lǐng)域的短缺,本文首先提出了一個基于仿真場景的數(shù)據(jù)集ModernCity,提供RGB圖像、深度圖、場景流和語義分割圖等標(biāo)簽;該數(shù)據(jù)集的設(shè)計從常識推理出發(fā),還原了現(xiàn)代都市的街邊景象,場景中的所有物體均遵循嚴(yán)格的物理規(guī)律。此外,還提出了物體描述子解碼模型(object descriptor decoder,ODD),負(fù)責(zé)提取場景中物體的屬性并通過神經(jīng)網(wǎng)絡(luò)將這些屬性解碼為場景流;ODD模型生成的場景流提供給基準(zhǔn)模型作為迭代初始值,填補缺失的局部和全局信息,生成更加準(zhǔn)確的場景流預(yù)測結(jié)果。基準(zhǔn)模型的設(shè)計參考了主流的光流估計模型。通過實驗證明ODD模型可以幫助基準(zhǔn)模型對場景流進行預(yù)測,證明該模型可以在仿真的場景下通過物體的屬性準(zhǔn)確地預(yù)測物體未來的運動趨勢。

    1 相關(guān)研究

    近年來,物理場景理解得到了研究人員的廣泛關(guān)注[2-29],隨著分類[30-38]、定位[39-41]、分割[42-43]等計算機視覺基礎(chǔ)任務(wù)研究的不斷完善,研究者們開始嘗試突破計算機視覺的傳統(tǒng)目標(biāo),其中一個任務(wù)是預(yù)測動態(tài)場景中物體的運動趨勢;該任務(wù)有2種解決方法:①基于像素的方法[13-17],直接從像素中進行特征提取,預(yù)測每個像素未來的情況,由于圖像中靜態(tài)背景的占比往往更大,即圖像中有很多冗余信息,這使得基于像素的算法往往缺乏泛化性;②基于物體屬性的方法[7-8],將圖像中的物體及其屬性進行分解,建立物體間的交互關(guān)系并進行預(yù)測,可以更好地挖掘有效信息,泛化能力更強。

    常識學(xué)習(xí)領(lǐng)域也有一些工作旨在通過物體的屬性對物理場景進行理解[2-5],與從常識推理角度出發(fā)的常識學(xué)習(xí)方法不同的是,其算法是從物理規(guī)律出發(fā)進行設(shè)計的。文獻(xiàn)[2]使用卷積神經(jīng)網(wǎng)絡(luò)(convolution neural network,CNN)學(xué)習(xí)物體的物理屬性,并利用這些屬性解決結(jié)果預(yù)測等任務(wù);文獻(xiàn)[3]使用物體檢測算法生成物體區(qū)域,并使用CNN對區(qū)域內(nèi)的物體進行特征提取,得到一個特征向量來表示該物體的物理狀態(tài),然后將其放入物理引擎中預(yù)測未來的運動;文獻(xiàn)[4]設(shè)計了一種即插即用的模塊Slot Attention,旨在與其他神經(jīng)網(wǎng)絡(luò)進行連接,生成以物體為中心的特征表示,并運用到預(yù)測任務(wù)上;類似的,文獻(xiàn)[5]提出了一個框架,可以提取潛在物體的屬性,并通過這些屬性對動力學(xué)進行預(yù)測。

    上述工作均局限于簡單場景,即在單一的背景(通常是純色)下預(yù)測固定的簡單幾何體的運動,且少有算法在設(shè)計時從常識推理的角度出發(fā)。本文將場景擴展至仿真場景,將物體擴展至現(xiàn)實生活中的實際物體(如人類、動物、車輛等),物體的運動趨勢使用場景流表示,在此基礎(chǔ)上還提出了基于物體描述子的場景流預(yù)測模型(ODD模型),如圖1所示。該模型由2個階段組成:①使用ODD模型先對場景中的物體進行特征提取,得到物體描述子后將其解碼為場景流;②將ODD模型得到的場景流作為初始值代入基準(zhǔn)模型中,預(yù)測得到場景流的預(yù)測結(jié)果。ODD模型使用反卷積神經(jīng)網(wǎng)絡(luò),對物體屬性進行解碼生成場景流;基準(zhǔn)模型的設(shè)計參考了主流的光流估計模型[44-47]。

    圖1 算法模型框架

    2 場景流預(yù)測

    在光源的照射下,連續(xù)運動的物體在成像平面上有一系列投影,根據(jù)運動物體的投影位移和時間差可以計算出該物體在投影平面上每個像素的二維運動速度,即光流(optical flow)。場景流(scene flow)是將物體的運動由二維拓展至三維,在平面二維速度的基礎(chǔ)上增加物體與投影平面間的垂直距離變化,即深度(depth)的變化。

    為方便計算,本文將軸的位移簡化為深度值在某一像素位置的變化,即該點所在像素位置的深度值變化,而非該點在軸方向的位移,簡化后為

    綜上,本文的任務(wù)場景流預(yù)測可以描述為:給定2張連續(xù)RGB-D圖像PP+1,輸出P+1未來的場景流。

    3 數(shù)據(jù)集

    不同于傳統(tǒng)方法,深度學(xué)習(xí)方法需要大量包含真實標(biāo)簽的數(shù)據(jù)作為基礎(chǔ)對模型進行訓(xùn)練,而場景流、光流的真實標(biāo)簽很難獲得,因為現(xiàn)實世界中正確的像素關(guān)聯(lián)無法輕易獲取。表1列舉了現(xiàn)有的數(shù)據(jù)集;現(xiàn)有的數(shù)據(jù)集缺少真實/仿真場景,且物體的運動未嚴(yán)格考慮物理規(guī)律;為彌補其不足,本文從常識推理和物理規(guī)律的角度出發(fā),提出了新的數(shù)據(jù)集ModernCity,以推動向真實的物理場景推理邁進。

    表1 現(xiàn)有的數(shù)據(jù)集與本文提出的ModernCity數(shù)據(jù)集之間的比較

    注:ü表示數(shù)據(jù)集提供了此類型的標(biāo)簽;?表示未提供

    3.1 現(xiàn)有的數(shù)據(jù)集

    (1) MPI Sintel數(shù)據(jù)集[48]源自開源的3D動畫電影,提供了光流的稠密真實標(biāo)簽以及視差圖,訓(xùn)練集中包含25個場景,1 064張圖像。作者花費了大量時間來驗證標(biāo)簽的準(zhǔn)確性,使其具有很高的可信度;但其數(shù)據(jù)量不大,不是真實場景,且物體的運動并未嚴(yán)格遵循物理規(guī)律。

    (2) KITTI數(shù)據(jù)集在2012年被提出[49],并在2015年被擴展[50],其由立體相機在真實的道路場景拍攝組成,光流標(biāo)簽和視差圖是由一個3D激光掃描儀結(jié)合汽車的運動數(shù)據(jù)得到的。然而激光僅能為場景中的靜態(tài)部分提供一定距離和高度的稀疏數(shù)據(jù),運動的物體以及稠密的標(biāo)簽是近似獲得的,且其數(shù)據(jù)量太小。

    (3) Scene Flow數(shù)據(jù)集[51]是迄今最大的光流、場景流數(shù)據(jù)集,其使用Blender生成虛擬數(shù)據(jù),提供真正的場景流標(biāo)簽,包含F(xiàn)lyingThings3D,Monkaa和Driving 3個子數(shù)據(jù)集,訓(xùn)練集中包括34 801對雙目圖像。大規(guī)模的數(shù)據(jù)讓深度學(xué)習(xí)估計光流成為可能,該數(shù)據(jù)集極大地推動了相關(guān)算法的發(fā)展;然而其未遵循物理規(guī)律,物理間的運動是隨機生成的。

    3.2 ModernCity

    如上節(jié)所述,現(xiàn)有的數(shù)據(jù)集在設(shè)計時均專注于光流/場景流估計,而常識推理方面未被顧及。Sintel數(shù)據(jù)集為卡通風(fēng)格的圖像,與真實場景差別很大;KITTI數(shù)據(jù)集雖然取自于真實場景,但其稠密的場景流標(biāo)簽是近似得到的,且數(shù)據(jù)量過??;Scene Flow數(shù)據(jù)集雖然規(guī)模龐大,但與真實場景相差甚遠(yuǎn),且不符合常識推理。

    為解決常識推理在數(shù)據(jù)集方面的短缺,本文提出一個基于仿真場景的數(shù)據(jù)集ModernCity,使用Unreal Engine 4批量生成虛擬數(shù)據(jù),該數(shù)據(jù)集包含有光流的稠密真實標(biāo)簽、深度圖及語義分割信息,圖像分辨率1280×720,訓(xùn)練集中包含14個場景,4 144張RGB-D圖像,其中一個實例如圖2所示。

    圖2 ModernCity數(shù)據(jù)集的一個實例((a)RGB圖像;(b)稠密光流;(c)深度圖像;(d)語義信息)

    場景的設(shè)計從常識推理出發(fā),目標(biāo)是還原現(xiàn)實生活中的場景。本文將范圍縮小至現(xiàn)代都市的街邊景象,包含有人物、寵物、車輛、飛機、鳥類以及雜物等;不同的物體有不同運動方式和運動軌跡,物體間存在物理關(guān)系,被碰撞時會遵循物理規(guī)律進行運動,例如雜物被拋擲時會沿拋物線做落體運動。上述的情況均是為常識推理服務(wù)。基于上述的規(guī)則,本文搭建了一個大型虛擬城市,如圖3所示。不同的場景取自虛擬城市的不同角落,并在視角上盡可能覆蓋了不同的高度與俯仰角,與現(xiàn)實世界城市中不同路段的監(jiān)控攝像頭相似,如圖4所示。場景的布置和鏡頭的擺放等方面本文參考了Sintel數(shù)據(jù)集[48]。測試集與訓(xùn)練集的視角間不存在重疊,并對不同場景中人物、物體的運動軌跡進行單獨設(shè)計,盡量擴大生成內(nèi)容的差異性。

    圖3 虛擬城市示意圖

    圖4 不同場景的視角示意圖

    此外,為保證數(shù)據(jù)的準(zhǔn)確性,在數(shù)據(jù)和真實標(biāo)簽生成參考了UnrealCV[52],光流、深度圖、語義信息的數(shù)值經(jīng)過了嚴(yán)格的驗證。

    4 物體描述子解碼模型ODD

    認(rèn)知與推理物理世界是一個復(fù)雜的過程,以人類認(rèn)識世界的方式為參考,人們往往從物體的角度出發(fā)認(rèn)知世界:①發(fā)現(xiàn)物體,并確定物體在世界中的位置;②分辨物體的種類,并推測其物理屬性,例如質(zhì)量、密度、摩擦力等;③根據(jù)物體的屬性預(yù)測其未來一段時間內(nèi)的狀態(tài)(運動軌跡、形態(tài)變化等)。本文以此為指導(dǎo),設(shè)計了基于物體屬性的模型對場景流進行預(yù)測。

    為了表示物體的屬性,本文將物體屬性抽象為特征向量并由神經(jīng)網(wǎng)絡(luò)進行提取,這些特征向量被稱為物體描述子(object descriptor);此外本文提出了ODD模型(如圖1上半部分所示)對物體描述子進行解碼,為場景中的每個物體進行運動速度的預(yù)測。

    4.1 物體描述子

    每個物體都具有自己的屬性,如物體的質(zhì)量、密度、摩擦力、位置、姿態(tài)、運動情況、物體的種類、是否有生命(決定了是否可以自主移動)等;為表示物體的屬性,本文將物體的屬性抽象為一個維的特征向量,稱為物體描述子,向量中的數(shù)值可以是具有實際物理意義的、顯式的,也可以是抽象的、隱式的。

    物體描述子可以是人工標(biāo)注的(對物體的屬性進行標(biāo)簽標(biāo)注),也可以是通過算法提取得到的特征向量。本文采用CNN作為特征提取算法對物體屬性進行提取。CNN具有很強的特征提取能力[53]:淺層卷積核負(fù)責(zé)提取低級的、具體的特征,例如物體的邊緣信息;中層的卷積核負(fù)責(zé)提取中級特征,例如物體的紋理信息;深層的卷積核負(fù)責(zé)提取高級的、抽象的特征,這些特征往往沒有具體的物理意義,但可以高度概括物體的屬性。神經(jīng)網(wǎng)絡(luò)具有強大的學(xué)習(xí)能力,不同物體間所提取出的特征差異巨大,這些特征可以很好地表征物體的屬性,而且提取出的屬性通常比人工設(shè)計的屬性更加全面,這也是近年來深度學(xué)習(xí)迅猛發(fā)展的重要因素之一[54]。

    4.2 解碼模型

    本文設(shè)計了一種基于物體描述子的解碼模型,主體使用反卷積層構(gòu)建神經(jīng)網(wǎng)絡(luò),將維的物體描述子o解碼為場景流。由于物體描述子是一個特征向量,將其解碼為場景流的過程中需要不斷進行上采樣(upsampling)以推斷其空間信息,不斷豐富物體場景流的細(xì)節(jié)。反卷積(deconvolution)可以對輸入信號進行上采樣,其參數(shù)是由學(xué)習(xí)得到的,相比一些插值的方法(最近鄰插值等),反卷積可以根據(jù)不同物體的特征更好地推斷空間信息,生成更準(zhǔn)確的場景流預(yù)測結(jié)果。

    如圖5所示,解碼模型將物體描述子進行解碼,輸出該物體輪廓范圍內(nèi)的速度信息。該模型可以根據(jù)物體的性質(zhì)做出不同的預(yù)測,例如無生命的物體(紅色線框的箱子)傾向于靜止,而有自主意識的物體(藍(lán)色線框的人類和綠色線框的犬類)則傾向于運動。這說明該解碼模型能一定程度上理解每個物體的屬性,并根據(jù)前后2幀中屬性的變化推測下一幀中每個物體的運動速度。這與人們認(rèn)知中人類對常識的理解近似,可以認(rèn)為ODD模型有一定的常識推理能力。

    圖5 解碼模型的預(yù)測結(jié)果

    4.3 作為基準(zhǔn)模型的初始值

    解碼模型的輸入只有物體描述子,其缺乏圖像中的背景等全局信息,導(dǎo)致在單獨使用該模型時泛化能力較差,如圖6所示。預(yù)測的場景流中的物體輪廓大致正確,但存在明顯的鋸齒,邊緣細(xì)節(jié)較差,運動速度的方向與大小也預(yù)測得并不理想。

    圖6 光流結(jié)果對比((a) ODD模型預(yù)測結(jié)果;(b)真實結(jié)果)

    因此本文在使用ODD模型時,將其輸出作為基準(zhǔn)模型的迭代初始值,如圖1所示。解碼模型負(fù)責(zé)根據(jù)物體屬性輸出的結(jié)果,作為初始值為基準(zhǔn)模型提供一定的局部信息,在基準(zhǔn)模型預(yù)測全局結(jié)果時可以向更加正確的方向進行迭代,且局部信息會在迭代中不斷增強,使得最終的預(yù)測結(jié)果在全局和局部都得到一定的改進。將基準(zhǔn)模型和ODD模型進行結(jié)合后可以增強場景流的準(zhǔn)確度,豐富預(yù)測結(jié)果的細(xì)節(jié),例如人物的腿部、遠(yuǎn)處的人物等。

    4.4 損失函數(shù)

    5 基準(zhǔn)模型

    鑒于場景流與光流之間的相似之處,本文從光流模型出發(fā),對現(xiàn)有的光流估計模型進行修改,以作為場景流預(yù)測基準(zhǔn)模型。經(jīng)過多年的研究,光流估計逐漸由傳統(tǒng)迭代法轉(zhuǎn)變?yōu)樯疃葘W(xué)習(xí)方法,深度學(xué)習(xí)算法從最初的FlowNet[44],F(xiàn)lowNet2[45],發(fā)展為PWC-Net[46],再到如今的RAFT[47](recurrent all-pairs field transforms)。本文參考RAFT模型設(shè)計了預(yù)測場景流基準(zhǔn)模型,該模型的基本結(jié)構(gòu)如圖1下半部分所示,其由3個主要部分構(gòu)成:①特征編碼網(wǎng)絡(luò);②視覺相似度;③迭代更新。RAFT模型巧妙地將特征匹配與迭代更新進行了融合,兼顧了局部特征與全局特征。

    5.1 特征編碼網(wǎng)絡(luò)

    5.2 視覺相似度

    其中

    圖7 計算相似度張量C((a)特征圖M t;(b)特征圖M t+1)

    基于相似度張量,定義一個相似度查詢操作,通過索引的方式提取相似度張量進而建立一個相似度特征圖。具體地,定義p=(,)為M中任意一點,p+1=(′,′)為M+1中的一點,通過p映射得到

    其中,1(,)和2(,)分別為點p的場景流在軸和軸方向的位移,在每個點p+1周圍定義一個領(lǐng)域點集,即

    5.3 迭代更新

    更新步驟的核心組成是一個基于GRU (gated recurrent unit)單元的門控激活單元[55],輸入為相似度特征圖、場景流f-1和上下文特征圖H(P+1),輸出為場景流的更新差值Δ。該算法旨在模擬優(yōu)化算法,通過有界激活函數(shù)鼓勵其收斂至固定點,基于此目標(biāo)對更新步驟進行訓(xùn)練,使序列收斂到固定點ff。計算過程為

    6 實驗與分析

    為驗證本文提出的物體描述子解碼模型ODD的有效性,使用ModernCity數(shù)據(jù)集設(shè)計了若干組實驗。

    6.1 評價指標(biāo)

    EPE的值越小,光流/場景流的準(zhǔn)確度越高。

    6.2 實現(xiàn)細(xì)節(jié)

    6.3 訓(xùn)練細(xì)節(jié)

    為了驗證ODD模型的有效性,在ModernCity數(shù)據(jù)集上進行訓(xùn)練,實現(xiàn)工具為PyTorch[58],模型中所有的參數(shù)都是隨機初始化的。訓(xùn)練時使用AdamW優(yōu)化器[59],學(xué)習(xí)率為1×10-4,最大迭代次數(shù)為1 000 000次,批大小(batch size)為6,梯度裁剪至[-1,1]的范圍。此外在訓(xùn)練RAFT模型時,對于每次迭代f-1+Δ,本文遵循文獻(xiàn)[60]建議,f-1反向傳播的梯度置零,僅將Δ的梯度進行回傳。

    訓(xùn)練策略上,本文采用了分步訓(xùn)練的方式:①訓(xùn)練基準(zhǔn)模型:對基準(zhǔn)模型進行單獨訓(xùn)練,設(shè)基準(zhǔn)模型中場景流的迭代初始值0=0;②聯(lián)合訓(xùn)練:對ODD模型與基準(zhǔn)模型中的GRU單元進行聯(lián)合訓(xùn)練,對訓(xùn)練后的基準(zhǔn)模型中的特征編碼網(wǎng)絡(luò)E和上下文網(wǎng)絡(luò)H進行參數(shù)固定,此時基準(zhǔn)模型中場景流的迭代初始值0由ODD模型提供。

    6.4 消融實驗

    為了驗證提出的ODD模型是否有效,以及物體描述子是否可以幫助常識學(xué)習(xí),本文設(shè)計了表2的消融實驗。表中的第一行是單獨使用基準(zhǔn)模型的情況,其中場景流的迭代初始值0= 0;第二行是使用ODD模型的輸出作為基準(zhǔn)模型的迭代初始值。基準(zhǔn)模型+ODD模型相比基準(zhǔn)模型EPE指標(biāo)提升5%,該結(jié)果從定量的角度出發(fā),對模型的有效性上進行了證明。從圖8可知,基準(zhǔn)模型+ODD模型明顯優(yōu)于基準(zhǔn)模型的預(yù)測結(jié)果,物體輪廓、局部細(xì)節(jié)與場景流的數(shù)值都更加準(zhǔn)確。結(jié)合4.2節(jié)中分析ODD模型能一定程度地理解每個物體的屬性,并根據(jù)前后兩幀中屬性的變化推測出每個物體的運動速度。圖5和圖8從定性的角度出發(fā),證明ODD模型有一定的常識推理能力。

    表2 消融實驗結(jié)果

    圖8 消融實驗對比圖

    上述實驗表明ODD模型可以通過物體屬性幫助物體運動的預(yù)測,說明物體描述子可以一定程度上幫助常識推理,證明本文從人類認(rèn)識世界的方式(從物體的角度認(rèn)識世界)出發(fā)有一定的合理性。

    6.5 對比實驗

    為驗證本文所提出算法的性能及數(shù)據(jù)集的可靠性,表3在ModernCity場景流預(yù)測任務(wù)中使用不同的SOTA模型進行對比,結(jié)果表明本文提出的模型效果最好,可以從常識推理的角度出發(fā),更準(zhǔn)確地預(yù)測場景流。

    表3 對比實驗結(jié)果

    7 結(jié) 論

    本文從使用物理屬性預(yù)測物體的三維運動速度出發(fā),將之前相關(guān)工作擴展至仿真的情景,提出新的數(shù)據(jù)集ModernCity以彌補相關(guān)數(shù)據(jù)集的短缺;設(shè)計了ODD模型,并通過實驗結(jié)果證明ODD模型具有在仿真場景下通過物體屬性預(yù)測運動的能力,為常識學(xué)習(xí)向真實邁進做出了貢獻(xiàn)。

    [1] 唐杰. 淺談人工智能的下一個十年[J]. 智能系統(tǒng)學(xué)報, 2020, 15(1): 187-192.

    TANG J. On the next decade of artificial intelligence[J]. CAAI Transactions on Intelligent Systems, 2020, 15(1): 187-192 (in Chinese).

    [2] WU J J, LIM J J, ZHANG H Y, et al. Physics 101: learning physical object properties from unlabeled videos[C]//The 27th British Machine Vision Conference. New York: BMVA Press, 2016: 1-12.

    [3] WU J J, LU E, KOHLI P, et al. Learning to see physics via visual de-animation[C]//The 31th International Conference on Neural Information Processing Systems. New York: ACM Press, 2017: 153-164.

    [4] LOCATELLO F, WEISSENBORN D, UNTERTHINER T, et al. Object-centric learning with slot attention[EB/OL]. [2021-07-03]. https://arxiv.org/abs/2006.15055.

    [5] ZHENG D, LUO V, WU J J, et al. Unsupervised learning of latent physical properties using perception-prediction networks[EB/OL]. [2021-05-30]. https://arxiv.org/abs/1807. 09244.

    [6] ZHANG R Q, WU J J, ZHANG C K, et al. A comparative evaluation of approximate probabilistic simulation and deep neural networks as accounts of human physical scene understanding[EB/OL]. [2021-08-01]. https://arxiv.org/abs/ 1605.01138.

    [7] CHANG M B, ULLMAN T, TORRALBA A, et al. A compositional object-based approach to learning physical dynamics[EB/OL]. [2021-04-28]. https://arxiv.org/abs/1612. 00341.

    [8] BATTAGLIA P W, PASCANU R, LAI M, et al. Interaction networks for learning about objects, relations and physics[C]// The 30th International Conference on Neural Information Processing Systems. New York: ACM Press, 2016: 4502-4510.

    [9] GUPTA A, EFROS A A, HEBERT M. Blocks world revisited: image understanding using qualitative geometry and mechanics[C]//2010 European Conference on Computer Vision. Cham: Springer International Publishing, 2010: 482-496.

    [10] SHAO T J, MONSZPART A, ZHENG Y Y, et al. Imagining the unseen[J]. ACM Transactions on Graphics, 2014, 33(6): 1-11.

    [11] EHRHARDT S, MONSZPART A, MITRA N J, et al. Learning A physical long-term predictor[EB/OL]. [2021-06-14]. https:// arxiv.org/abs/1703.00247.

    [12] PINTEA S L, VAN GEMERT J C, SMEULDERS A W M. Déjà Vu: motion prediction in static images[C]//The 13th European Conference on Computer Vision. Cham: Springer International Publishing, 2014: 172-187.

    [13] LERER A, GROSS S, FERGUS R. Learning physical intuition of block towers by example[EB/OL]. [2021-05-07]. https:// arxiv.org/abs/1603.01312.

    [14] PINTO L, GANDHI D, HAN Y F, et al. The curious robot: learning visual representations via physical interactions[C]// The 14th European Conference on Computer Vision. Amsterdam: Springer, 2016: 3-18.

    [15] AGRAWAL P, NAIR A, ABBEEL P, et al. Learning to poke by poking: experiential learning of intuitive physics[EB/OL]. [2021-06-19]. https://arxiv.org/abs/1606.07419.

    [16] FRAGKIADAKI K, AGRAWAL P, LEVINE S, et al. Learning visual predictive models of physics for playing billiards[EB/OL]. [2021-08-01]. https://arxiv.org/abs/1511. 07404.

    [17] MOTTAGHI R, RASTEGARI M, GUPTA A, et al. “What happens if ···” learning to predict the effect of forces in images[C]//The 14th European Conference on Computer Vision. Cham: Springer International Publishing, 2016: 269-285.

    [18] HAMRICK J B, BALLARD A J, PASCANU R, et al. Metacontrol for adaptive imagination-based optimization[EB/OL]. [2021-07-15]. https://arxiv.org/abs/1705.02670.

    [19] JIA Z Y, GALLAGHER A C, SAXENA A, et al. 3D reasoning from blocks to stability[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(5): 905-918.

    [20] MOTTAGHI R, BAGHERINEZHAD H, RASTEGARI M, et al. Newtonian image understanding: unfolding the dynamics of objects in static images[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2016: 3521-3529.

    [21] ZHENG B, ZHAO Y B, YU J, et al. Scene understanding by reasoning stability and safety[J]. International Journal of Computer Vision, 2015, 112(2): 221-238.

    [22] BATTAGLIA P W, HAMRICK J B, TENENBAUM J B. Simulation as an engine of physical scene understanding[J]. Proceedings of the National Academy of Sciences of the United States of America, 2013, 110(45): 18327-18332.

    [23] FINN C, GOODFELLOW I, LEVINE S. Unsupervised learning for physical interaction through video prediction[C]// The 30th International Conference on Neural Information Processing Systems. New York: ACM Press, 2016: 64-72.

    [24] WALKER J, GUPTA A, HEBERT M. Dense optical flow prediction from a static image[C]//2015 IEEE International Conference on Computer Vision. New York: IEEE Press, 2015: 2443-2451.

    [25] JI D H, WEI Z, DUNN E, et al. Dynamic visual sequence prediction with motion flow networks[C]//2018 IEEE Winter Conference on Applications of Computer Vision. New York: IEEE Press, 2018: 1038-1046.

    [26] L?WE S, GREFF K, JONSCHKOWSKI R, et al. Learning object-centric video models by contrasting sets[EB/OL]. [2021-06-13]. https://arxiv.org/abs/2011.10287.

    [27] LI Y Z, WU J J, TEDRAKE R, et al. Learning particle dynamics for manipulating rigid bodies, deformable objects, and fluids[EB/OL]. [2021-04-28]. https://arxiv.org/abs/1810. 01566.

    [28] CHAABANE M, TRABELSI A, BLANCHARD N, et al. Looking ahead: anticipating pedestrians crossing with future frames prediction[C]//2020 IEEE Winter Conference on Applications of Computer Vision. New York: IEEE Press, 2020: 2286-2295.

    [29] DING D, HILL F, SANTORO A, et al. Attention over Learned Object Embeddings Enables Complex Visual Reasoning[C]// Advances in Neural Information Processing Systems. New York: Curran Associates, Inc., 2021.

    [30] DENG J, DONG W, SOCHER R, et al. ImageNet: a large-scale hierarchical image database[C]//2009 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2009: 248-255.

    [31] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90.

    [32] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. [2021-05-20]. https://arxiv.org/abs/1409.1556.

    [33] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2016: 770-778.

    [34] SZEGEDY C, LIU W, JIA Y Q, et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2015: 1-9.

    [35] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2018: 7132-7141.

    [36] CARREIRA J, ZISSERMAN A. Quo vadis, action recognition? A new model and the kinetics dataset[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2017: 4724-4733.

    [37] LIU X, YANG X D. Multi-stream with deep convolutional neural networks for human action recognition in videos[C]// The 25th International Conference on Neural Information Processing. Cham: Springer International Publishing, 2018: 251-262.

    [38] WANG L M, XIONG Y J, WANG Z, et al. Temporal segment networks: towards good practices for deep action recognition[EB/OL]. [2021-06-10]. https://arxiv.org/abs/1608. 00859.

    [39] REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

    [40] REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL]. [2021-07-19]. https://arxiv.org/abs/ 1804.02767.

    [41] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot MultiBox detector[EB/OL]. [2021-07-15]. https://arxiv.org/ abs/1512.02325.

    [42] HE K M, GKIOXARI G, DOLLáR P, et al. Mask R-CNN[C]// 2017 IEEE International Conference on Computer Vision. New York: IEEE Press, 2017: 2980-2988.

    [43] RONNEBERGER O, FISCHER P, BROX T. U-net: convolutional networks for biomedical image segmentation[C]// 2015 International Conference on Medical Image Computing and Computer-Assisted Intervention. Munich: Springer, 2015: 234-241.

    [44] DOSOVITSKIY A, FISCHER P, ILG E, et al. FlowNet: learning optical flow with convolutional networks[C]//2015 IEEE International Conference on Computer Vision. New York: IEEE Press, 2015: 2758-2766.

    [45] ILG E, MAYER N, SAIKIA T, et al. FlowNet 2.0: evolution of optical flow estimation with deep networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2017: 1647-1655.

    [46] SUN D Q, YANG X D, LIU M Y, et al. PWC-net: CNNs for optical flow using pyramid, warping, and cost volume[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2018: 8934-8943.

    [47] TEED Z, DENG J. RAFT: recurrent all-pairs field transforms for optical flow[EB/OL]. [2021-08-19]. https://arxiv.org/abs/ 2003.12039.

    [48] BUTLER D J, WULFF J, STANLEY G B, et al. A naturalistic open source movie for optical flow evaluation[C]//2012 European conference on Computer Vision. Heidelberg: Springer, 2012: 611-625.

    [49] GEIGER A, LENZ P, STILLER C, et al. Vision meets robotics: The KITTI dataset[J]. The International Journal of Robotics Research, 2013, 32(11): 1231-1237.

    [50] MENZE M, GEIGER A. Object scene flow for autonomous vehicles[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2015: 3061-3070.

    [51] MAYER N, ILG E, H?USSER P, et al. A large dataset to train convolutional networks for disparity, optical flow, and scene flow estimation[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2016: 4040-4048.

    [52] QIU W C, ZHONG F W, ZHANG Y, et al. UnrealCV: virtual worlds for computer vision[C]//The 25th ACM International Conference on Multimedia. New York: ACM Press, 2017: 1221-1224.

    [53] ZEILER M D, FERGUS R. Visualizing and understanding convolutional networks[C]//2014 European Conference on Computer Vision. Cham: Springer International Publishing, 2014: 818-833.

    [54] O’MAHONY N, CAMPBELL S, CARVALHO A, et al. Deep learning vs. traditional computer vision[C]//2019 Computer Vision Conference. Cham: Springer International Publishing, 2019: 128-144.

    [55] CHO K, VAN MERRIENBOER B, GULCEHRE C, et al. Learning phrase representations using RNN encoder–decoder for statistical machine translation[C]//The 2014 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2014: 1724-1734.

    [56] LIN T Y, DOLLáR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2017: 936-944.

    [57] CHEN X L, FANG H, LIN T Y, et al. Microsoft COCO captions: data collection and evaluation server[EB/OL]. [2021-06-09]. http://de.arxiv.org/pdf/1504.00325.

    [58] PASZKE A, GROSS S, CHINTALA S, et al. Pytorch: an imperative style, high-performance deep learning library[EB/OL]. [2021-07-20]. https://arxiv.org/abs/1912.01703.

    [59] LOSHCHILOV I, HUTTER F. Decoupled weight decay regulariza[2021-06-15]. https://arxiv.org/abs/1711.05101.

    [60] HOFINGER M, BULò S R, PORZI L, et al. Improving optical flow on a pyramid level[M]//The 16th European Conference on Computer Vision. Cham: Springer International Publishing, 2020: 770-786.

    Scene flow prediction with simulated real scenarios

    MEI Hai-yi1,2,3, ZHU Xiang-yu2,3, LEI Zhen2,3, GAO Rui1, MA Xi-bo2,3

    (1.School of Control Science and Engineering, Shandong University, Jinan Shandong 250061, China;2. Institute of Automation, Chinese Academy of Sciences, Beijing 100190, China;3. School of Artificial Intelligence, University of Chinese Academy of Sciences, Beijing 100049, China)

    Artificial intelligence is stepping into the age of cognition, the ability of cognizing and inferring the physical world for machines needs to be improved. Recent works about exploring the physical properties of objects and predicting the motion of objects are mostly constrained by simple objects and scenes. We attempted to predict the scene flow of objects in simulated scenarios to extend common sense cognizing. First, due to the lack of data in the related field, a dataset calledbased on simulated scenarios is proposed, which contains the street scene of modern cities designed from the perspective of cognizing common sense, and provides RGB images, depth maps, scene flow, and semantic segmentations. In addition, we design an object descriptor decoder (ODD) to predict the scene flow through the properties of the objects. The model we proposed is proved to have the ability to predict future motion accurately through the properties of objects in simulated scenarios by experiments. The comparison experiment with other SOTA models demonstrates the performance of the model and the reliability of the ModernCity dataset.

    common sense cognizing; scene flow; simulated scenarios; properties of objects; motion prediction

    TP 391

    10.11996/JG.j.2095-302X.2022030404

    A

    2095-302X(2022)03-0404-10

    2021-09-14;

    2021-12-21

    14 September,2021;

    21 December,2021

    國家重點研究計劃項目(2016YFA0100900,2016YFA0100902);NSFC-山東聯(lián)合基金項目(U1806202);國家自然科學(xué)基金項目(81871442,61876178,61806196,61976229,61872367);中國科學(xué)院青年創(chuàng)新促進會項目(Y201930)

    National Key Research Programs of China (2016YFA0100900, 2016YFA0100902); Natural Science Foundation of China Under Grant (U1806202); Chinese National Natural Science Foundation Projects (81871442, 61876178, 61806196, 61976229, 61872367); Youth Innovation Promotion Association CAS (Y201930)

    梅海藝(1997?),男,碩士研究生。主要研究方向為計算機視覺、計算機圖形學(xué)和深度學(xué)習(xí)等。E-mail:haiyimei@mail.sdu.edu.cn

    MEI Hai-yi (1997?), master student. His main research interests cover computer vision, computer graphics and deep learning, etc. E-mail:haiyimei@mail.sdu.edu.cn

    高 瑞(1975?),男,教授,博士。主要研究方向為混合動力系統(tǒng)、最優(yōu)控制理論、分子生物學(xué)數(shù)學(xué)建模、系統(tǒng)生物學(xué)等。Email:gaorui@sdu.edu.cn

    GAO Rui (1975?), professor, Ph.D. His main research interests cover hybrid power systems, optimal control theory, molecular biology mathematical modeling, systems biology, etc. E-mail:gaorui@sdu.edu.cn

    猜你喜歡
    物理模型
    一半模型
    只因是物理
    井岡教育(2022年2期)2022-10-14 03:11:44
    重要模型『一線三等角』
    如何打造高效物理復(fù)習(xí)課——以“壓強”復(fù)習(xí)課為例
    重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
    處處留心皆物理
    我心中的物理
    三腳插頭上的物理知識
    3D打印中的模型分割與打包
    FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
    色视频www国产| 亚洲人成网站在线播放欧美日韩| 97超碰精品成人国产| 中文字幕制服av| 国产日本99.免费观看| 久久久国产成人免费| 午夜免费激情av| 美女内射精品一级片tv| a级毛片免费高清观看在线播放| 国产精品一区二区三区四区久久| 国产精品,欧美在线| 国产私拍福利视频在线观看| 亚洲精品色激情综合| 男女做爰动态图高潮gif福利片| 哪个播放器可以免费观看大片| 99国产极品粉嫩在线观看| 国产三级中文精品| 寂寞人妻少妇视频99o| 国产精品国产高清国产av| 国产免费男女视频| www.av在线官网国产| 精品少妇黑人巨大在线播放 | 丝袜喷水一区| 精品日产1卡2卡| 免费看av在线观看网站| a级毛色黄片| 亚洲国产精品成人久久小说 | 欧美激情久久久久久爽电影| 尾随美女入室| 小蜜桃在线观看免费完整版高清| 丝袜喷水一区| 国产在视频线在精品| 性欧美人与动物交配| 国产精品久久久久久久久免| 六月丁香七月| eeuss影院久久| 亚洲真实伦在线观看| 12—13女人毛片做爰片一| 免费观看在线日韩| 黄色日韩在线| 亚洲国产精品合色在线| 国产成人一区二区在线| 免费一级毛片在线播放高清视频| 欧美潮喷喷水| 一级毛片aaaaaa免费看小| 99精品在免费线老司机午夜| 99热精品在线国产| 国产综合懂色| 精品人妻一区二区三区麻豆| 别揉我奶头 嗯啊视频| 国产日本99.免费观看| 韩国av在线不卡| 给我免费播放毛片高清在线观看| 日韩亚洲欧美综合| 国内精品宾馆在线| 国产成人aa在线观看| a级毛色黄片| 老司机福利观看| 亚洲美女搞黄在线观看| 免费黄网站久久成人精品| 成人亚洲精品av一区二区| 欧美成人免费av一区二区三区| 亚洲av电影不卡..在线观看| 中文字幕制服av| 晚上一个人看的免费电影| 啦啦啦啦在线视频资源| 能在线免费观看的黄片| 最近2019中文字幕mv第一页| 人妻系列 视频| 青春草国产在线视频 | 久久久a久久爽久久v久久| 美女被艹到高潮喷水动态| 国产伦精品一区二区三区四那| 亚洲av中文字字幕乱码综合| 97超碰精品成人国产| 国产伦理片在线播放av一区 | 大型黄色视频在线免费观看| 边亲边吃奶的免费视频| 国产三级在线视频| 成人国产麻豆网| 亚洲av免费在线观看| 长腿黑丝高跟| 色哟哟·www| 18禁在线播放成人免费| 狂野欧美激情性xxxx在线观看| 亚洲最大成人av| 乱人视频在线观看| 深爱激情五月婷婷| 69av精品久久久久久| 亚洲va在线va天堂va国产| 国产成人精品婷婷| 国产伦精品一区二区三区视频9| 国产黄片视频在线免费观看| 夫妻性生交免费视频一级片| 日韩大尺度精品在线看网址| 久久久a久久爽久久v久久| 99热这里只有是精品50| 欧美高清性xxxxhd video| 久久精品国产鲁丝片午夜精品| 老司机福利观看| 亚洲av不卡在线观看| 老女人水多毛片| av专区在线播放| 久久精品国产亚洲av涩爱 | 少妇裸体淫交视频免费看高清| 狠狠狠狠99中文字幕| 亚洲五月天丁香| av女优亚洲男人天堂| 韩国高清视频一区二区三区| 国产69精品久久久久777片| 久久久久久久久久久丰满| 一级毛片aaaaaa免费看小| 在线观看免费视频网站a站| 亚洲精品久久成人aⅴ小说 | 国产极品天堂在线| 最黄视频免费看| 亚洲av男天堂| 久久人人爽人人爽人人片va| 亚洲国产精品一区三区| 日韩欧美精品免费久久| a 毛片基地| 亚洲国产欧美日韩在线播放| av线在线观看网站| 美女中出高潮动态图| 欧美人与善性xxx| 久久人妻熟女aⅴ| 欧美亚洲 丝袜 人妻 在线| 视频区图区小说| 欧美性感艳星| 国产免费视频播放在线视频| 一本一本综合久久| 成年人午夜在线观看视频| 99热6这里只有精品| 欧美成人午夜免费资源| 中文字幕久久专区| 久久精品国产亚洲av涩爱| 在线天堂最新版资源| 永久免费av网站大全| 18在线观看网站| 亚洲天堂av无毛| 97超视频在线观看视频| 99九九线精品视频在线观看视频| 黄色毛片三级朝国网站| 久久国产亚洲av麻豆专区| 曰老女人黄片| 纯流量卡能插随身wifi吗| 一区二区日韩欧美中文字幕 | 水蜜桃什么品种好| 麻豆乱淫一区二区| 亚洲精品乱码久久久v下载方式| 精品一品国产午夜福利视频| 中国美白少妇内射xxxbb| 亚洲人成77777在线视频| 欧美精品人与动牲交sv欧美| 国产精品一国产av| 人人妻人人澡人人看| 夫妻午夜视频| 亚洲欧美日韩卡通动漫| 国产精品嫩草影院av在线观看| 麻豆精品久久久久久蜜桃| 十八禁高潮呻吟视频| 日韩在线高清观看一区二区三区| 少妇被粗大的猛进出69影院 | 国产69精品久久久久777片| 亚洲美女搞黄在线观看| av专区在线播放| 免费大片黄手机在线观看| 我的老师免费观看完整版| 哪个播放器可以免费观看大片| 亚洲综合色惰| 色哟哟·www| 性色avwww在线观看| 性色av一级| 亚洲av成人精品一区久久| 成人午夜精彩视频在线观看| 极品少妇高潮喷水抽搐| 又黄又爽又刺激的免费视频.| 蜜桃久久精品国产亚洲av| 日日摸夜夜添夜夜添av毛片| 久久国产精品大桥未久av| 亚洲欧美一区二区三区黑人 | 最近2019中文字幕mv第一页| 国产精品蜜桃在线观看| 男人添女人高潮全过程视频| 欧美激情极品国产一区二区三区 | 亚洲精品自拍成人| 成人国产av品久久久| 两个人免费观看高清视频| 最近中文字幕2019免费版| 国产黄频视频在线观看| 亚洲综合色网址| 一本久久精品| 久热久热在线精品观看| 日韩一区二区视频免费看| 精品国产露脸久久av麻豆| 一区在线观看完整版| 97在线视频观看| 好男人视频免费观看在线| 内地一区二区视频在线| 国产毛片在线视频| 夜夜看夜夜爽夜夜摸| av免费观看日本| 在线观看国产h片| 国产精品99久久99久久久不卡 | 国产伦理片在线播放av一区| 一级毛片黄色毛片免费观看视频| 免费高清在线观看视频在线观看| 2018国产大陆天天弄谢| 日本爱情动作片www.在线观看| 熟女人妻精品中文字幕| 精品99又大又爽又粗少妇毛片| 亚洲无线观看免费| 天天操日日干夜夜撸| 大码成人一级视频| 午夜91福利影院| 18禁动态无遮挡网站| 久久久欧美国产精品| 男的添女的下面高潮视频| 美女主播在线视频| 高清av免费在线| av不卡在线播放| 国产深夜福利视频在线观看| 精品视频人人做人人爽| 美女脱内裤让男人舔精品视频| 日本色播在线视频| av一本久久久久| 中文字幕精品免费在线观看视频 | 精品人妻一区二区三区麻豆| 伦精品一区二区三区| 免费高清在线观看视频在线观看| 久久久国产一区二区| 一边亲一边摸免费视频| 美女xxoo啪啪120秒动态图| 精品少妇内射三级| 99热6这里只有精品| 精品久久久噜噜| 大陆偷拍与自拍| 欧美人与性动交α欧美精品济南到 | 男的添女的下面高潮视频| 国产极品粉嫩免费观看在线 | 国产69精品久久久久777片| 少妇的逼水好多| 高清黄色对白视频在线免费看| 亚洲怡红院男人天堂| 久久99热这里只频精品6学生| a 毛片基地| 国产色爽女视频免费观看| 国产成人精品在线电影| 国产精品国产三级专区第一集| 国产精品国产三级国产av玫瑰| 精品国产国语对白av| 久久久久久久大尺度免费视频| 97超碰精品成人国产| 日韩av在线免费看完整版不卡| 2018国产大陆天天弄谢| 一区二区三区乱码不卡18| 老熟女久久久| 日韩熟女老妇一区二区性免费视频| 男人操女人黄网站| 久久人人爽av亚洲精品天堂| 水蜜桃什么品种好| 青春草视频在线免费观看| 精品国产一区二区三区久久久樱花| 国产精品无大码| 久久久久人妻精品一区果冻| 在线 av 中文字幕| 午夜影院在线不卡| 寂寞人妻少妇视频99o| 成人国语在线视频| 大片免费播放器 马上看| 黑人巨大精品欧美一区二区蜜桃 | 国产白丝娇喘喷水9色精品| 国产精品无大码| 日本av手机在线免费观看| 久久久精品区二区三区| 在线播放无遮挡| 只有这里有精品99| 97在线视频观看| 99久国产av精品国产电影| 乱码一卡2卡4卡精品| 天堂中文最新版在线下载| 国产欧美另类精品又又久久亚洲欧美| 免费观看无遮挡的男女| 国产精品久久久久久久久免| 欧美变态另类bdsm刘玥| 日韩人妻高清精品专区| 男女边吃奶边做爰视频| 日韩亚洲欧美综合| 免费人成在线观看视频色| 人成视频在线观看免费观看| 国产欧美另类精品又又久久亚洲欧美| 能在线免费看毛片的网站| 亚洲国产精品国产精品| 精品酒店卫生间| 久久久久精品久久久久真实原创| 久久国产亚洲av麻豆专区| 亚洲人成网站在线播| 99视频精品全部免费 在线| 亚洲综合色网址| 丝袜脚勾引网站| 考比视频在线观看| 超色免费av| xxxhd国产人妻xxx| 欧美日韩亚洲高清精品| 亚洲无线观看免费| 观看av在线不卡| 嫩草影院入口| 国产日韩欧美亚洲二区| 精品熟女少妇av免费看| 自拍欧美九色日韩亚洲蝌蚪91| 一本一本综合久久| 精品一品国产午夜福利视频| 久久免费观看电影| 在线观看国产h片| 特大巨黑吊av在线直播| 成人免费观看视频高清| 极品人妻少妇av视频| 亚洲欧美清纯卡通| 国产淫语在线视频| 免费高清在线观看视频在线观看| 日韩成人av中文字幕在线观看| 蜜桃久久精品国产亚洲av| 日韩熟女老妇一区二区性免费视频| 极品人妻少妇av视频| 亚洲综合精品二区| 亚洲欧美色中文字幕在线| 亚洲激情五月婷婷啪啪| xxxhd国产人妻xxx| 精品亚洲乱码少妇综合久久| 久久国产精品大桥未久av| av又黄又爽大尺度在线免费看| 女性被躁到高潮视频| 久久精品熟女亚洲av麻豆精品| 久久久午夜欧美精品| 久久人人爽av亚洲精品天堂| 久久久久久人妻| 你懂的网址亚洲精品在线观看| 亚洲av福利一区| 人妻系列 视频| 久久精品国产亚洲av涩爱| 久久精品久久久久久噜噜老黄| 嫩草影院入口| 精品一区二区三卡| av在线观看视频网站免费| 18禁在线播放成人免费| 亚洲图色成人| 亚洲欧美一区二区三区黑人 | 国产不卡av网站在线观看| av免费观看日本| 我要看黄色一级片免费的| 国产av一区二区精品久久| 国产熟女午夜一区二区三区 | 国产一区二区三区综合在线观看 | av免费在线看不卡| 99久久综合免费| 日本欧美视频一区| 国产成人免费无遮挡视频| videos熟女内射| 久久热精品热| 亚洲欧洲精品一区二区精品久久久 | 国产精品 国内视频| av一本久久久久| 亚洲精品乱码久久久v下载方式| 欧美xxⅹ黑人| 亚洲av电影在线观看一区二区三区| 欧美日韩亚洲高清精品| 久久人妻熟女aⅴ| 国产日韩一区二区三区精品不卡 | 岛国毛片在线播放| 国产精品人妻久久久影院| 韩国高清视频一区二区三区| 五月开心婷婷网| 国产成人免费观看mmmm| 午夜激情福利司机影院| 麻豆成人av视频| 亚洲美女视频黄频| 国产成人aa在线观看| 久久久久国产网址| 精品久久久久久电影网| 人妻少妇偷人精品九色| 久久久久久久久久成人| 国产伦精品一区二区三区视频9| 亚洲精品日本国产第一区| 在线精品无人区一区二区三| 桃花免费在线播放| 少妇熟女欧美另类| 日本黄色日本黄色录像| 国产欧美另类精品又又久久亚洲欧美| 熟女人妻精品中文字幕| 九草在线视频观看| 精品久久蜜臀av无| 另类精品久久| 国产熟女欧美一区二区| 搡老乐熟女国产| 精品人妻一区二区三区麻豆| 亚洲av中文av极速乱| 国产黄片视频在线免费观看| 亚洲精品一区蜜桃| 这个男人来自地球电影免费观看 | 午夜福利视频精品| 日本欧美视频一区| 在线观看免费日韩欧美大片 | 久久久国产精品麻豆| 国产男人的电影天堂91| 欧美3d第一页| 亚洲人成77777在线视频| 久久ye,这里只有精品| 亚洲精品一区蜜桃| a级毛片在线看网站| av国产精品久久久久影院| 在线观看人妻少妇| 一区二区三区精品91| 国产成人a∨麻豆精品| 又黄又爽又刺激的免费视频.| 成年人免费黄色播放视频| 美女国产视频在线观看| 美女内射精品一级片tv| 亚洲美女搞黄在线观看| 亚洲精品自拍成人| 丝袜美足系列| 国产午夜精品一二区理论片| 视频区图区小说| 人妻少妇偷人精品九色| 女人久久www免费人成看片| 777米奇影视久久| 亚洲av综合色区一区| 制服丝袜香蕉在线| 免费观看性生交大片5| 国产免费又黄又爽又色| 免费观看a级毛片全部| 高清欧美精品videossex| 热99久久久久精品小说推荐| 亚洲av成人精品一二三区| 亚洲人与动物交配视频| 夫妻性生交免费视频一级片| 久久影院123| av在线老鸭窝| 精品久久久久久久久亚洲| 国产精品嫩草影院av在线观看| 热99久久久久精品小说推荐| 精品一区二区免费观看| 国产乱来视频区| 国产免费一级a男人的天堂| 91精品伊人久久大香线蕉| kizo精华| 精品久久蜜臀av无| 18禁观看日本| 超色免费av| 中文乱码字字幕精品一区二区三区| 国产白丝娇喘喷水9色精品| 久久人人爽人人爽人人片va| 97精品久久久久久久久久精品| 99视频精品全部免费 在线| 亚洲av电影在线观看一区二区三区| 高清在线视频一区二区三区| 免费看av在线观看网站| 大又大粗又爽又黄少妇毛片口| 一区在线观看完整版| 久久久久网色| 日韩熟女老妇一区二区性免费视频| a级毛片免费高清观看在线播放| 亚洲国产精品国产精品| 国产精品成人在线| 2021少妇久久久久久久久久久| 亚洲国产日韩一区二区| 国产亚洲午夜精品一区二区久久| 久久精品国产亚洲av天美| 国产 一区精品| 水蜜桃什么品种好| 精品国产露脸久久av麻豆| 啦啦啦中文免费视频观看日本| 精品人妻在线不人妻| 亚洲av男天堂| 嘟嘟电影网在线观看| 亚洲精品乱码久久久久久按摩| 婷婷色综合www| 久久久久久久久久久免费av| 成人18禁高潮啪啪吃奶动态图 | 看免费成人av毛片| 日韩强制内射视频| 在线观看一区二区三区激情| 亚洲国产av新网站| 在线观看www视频免费| 伊人亚洲综合成人网| 一区二区三区乱码不卡18| 久久女婷五月综合色啪小说| 黑人猛操日本美女一级片| 91成人精品电影| 久久人人爽人人爽人人片va| 国产爽快片一区二区三区| 亚洲精品自拍成人| 亚洲四区av| 国产白丝娇喘喷水9色精品| 亚洲情色 制服丝袜| 新久久久久国产一级毛片| 国产 一区精品| 三级国产精品片| 男的添女的下面高潮视频| 美女cb高潮喷水在线观看| 99国产精品免费福利视频| 有码 亚洲区| 一个人免费看片子| 搡女人真爽免费视频火全软件| 欧美3d第一页| 久久久亚洲精品成人影院| 我要看黄色一级片免费的| 亚洲中文av在线| 亚洲一级一片aⅴ在线观看| 成年av动漫网址| 免费观看a级毛片全部| 午夜激情福利司机影院| 欧美xxⅹ黑人| 一区二区三区免费毛片| 欧美激情极品国产一区二区三区 | 亚洲av电影在线观看一区二区三区| 青春草视频在线免费观看| 亚洲av男天堂| 久久久久久久国产电影| 久久免费观看电影| 少妇猛男粗大的猛烈进出视频| 老熟女久久久| 女性生殖器流出的白浆| 欧美日韩精品成人综合77777| 欧美少妇被猛烈插入视频| 国产在视频线精品| 国产精品国产三级国产专区5o| 国产亚洲精品第一综合不卡 | 精品酒店卫生间| 自拍欧美九色日韩亚洲蝌蚪91| 久久久a久久爽久久v久久| 日本wwww免费看| av线在线观看网站| 免费播放大片免费观看视频在线观看| 国产精品蜜桃在线观看| 国产 一区精品| 三级国产精品片| 亚洲av中文av极速乱| 在线免费观看不下载黄p国产| 日韩人妻高清精品专区| 国产精品一区www在线观看| 交换朋友夫妻互换小说| 日本欧美国产在线视频| 成年美女黄网站色视频大全免费 | 久久久久久久久久久免费av| 亚洲精品久久午夜乱码| 伦精品一区二区三区| 日韩成人av中文字幕在线观看| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 久久国内精品自在自线图片| 国产男女超爽视频在线观看| 91久久精品国产一区二区成人| 欧美日本中文国产一区发布| 久久精品久久精品一区二区三区| 国产一区二区三区综合在线观看 | 国产综合精华液| 蜜桃在线观看..| 自拍欧美九色日韩亚洲蝌蚪91| 亚洲精品456在线播放app| 精品人妻偷拍中文字幕| 国产黄色视频一区二区在线观看| 精品酒店卫生间| 亚洲内射少妇av| 热99久久久久精品小说推荐| 日韩强制内射视频| 久久久欧美国产精品| 制服人妻中文乱码| 久久久久久久久久成人| 人人妻人人添人人爽欧美一区卜| 欧美人与善性xxx| 亚洲精品久久午夜乱码| 99re6热这里在线精品视频| 成人影院久久| 亚洲性久久影院| av在线播放精品| 伦理电影大哥的女人| 嫩草影院入口| 色网站视频免费| 国语对白做爰xxxⅹ性视频网站| 夫妻性生交免费视频一级片| 能在线免费看毛片的网站| av.在线天堂| 国产片特级美女逼逼视频| 美女大奶头黄色视频| 免费黄色在线免费观看| 蜜臀久久99精品久久宅男| 美女视频免费永久观看网站| 精品久久久久久久久亚洲| 99久久人妻综合| 精品久久久久久电影网| 又黄又爽又刺激的免费视频.| 精品午夜福利在线看| 一级毛片aaaaaa免费看小| 丰满乱子伦码专区| 日日摸夜夜添夜夜添av毛片| 人人妻人人添人人爽欧美一区卜| 亚洲在久久综合| 美女内射精品一级片tv| 色网站视频免费| 日韩亚洲欧美综合| freevideosex欧美| 久久久久久久大尺度免费视频| 国产伦精品一区二区三区视频9| 一个人免费看片子| 免费av中文字幕在线| 国产探花极品一区二区| 18禁在线无遮挡免费观看视频| 久久人妻熟女aⅴ| 最近的中文字幕免费完整| 超色免费av| 自线自在国产av| 最近最新中文字幕免费大全7| 美女中出高潮动态图| 男女边吃奶边做爰视频| 99re6热这里在线精品视频| 国产精品久久久久久av不卡|