• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于語義一致性約束與局部-全局感知的多模態(tài)3D視覺定位

    2024-08-17 00:00:00羅寒馬浩統(tǒng)劉杰嚴(yán)華雷印杰

    摘 要:3D多模態(tài)數(shù)據(jù)稀缺,使得傳統(tǒng)方法進(jìn)行監(jiān)督訓(xùn)練時文本與視覺特征缺乏語義一致性。同時傳統(tǒng)方法還易忽視局部關(guān)系與全局信息,從而導(dǎo)致性能不佳。針對上述問題,提出了一種基于語義一致性約束與局部-全局感知的多模態(tài)3D視覺定位方法。首先,該方法通過蒸餾2D預(yù)訓(xùn)練視覺語言模型知識,幫助3D模型提取到點(diǎn)云-文本語義一致性特征;其次設(shè)計(jì)了局部-全局感知模塊,不斷補(bǔ)充增強(qiáng)候選目標(biāo)特征,以更精確匹配目標(biāo)。在現(xiàn)有的3D視覺定位數(shù)據(jù)集ScanRefer上進(jìn)行的實(shí)驗(yàn)表明,該方法在Acc@0.25 IoU和Acc@0.5 IoU兩個指標(biāo)上分別達(dá)到了50.53%和37.67%,超越了現(xiàn)有大多數(shù)3D視覺定位算法,證實(shí)了該方法的有效性。

    關(guān)鍵詞:3D視覺定位;多模態(tài);特征一致性約束;局部關(guān)系;全局位置信息

    中圖分類號:TP391 文獻(xiàn)標(biāo)志碼:A 文章編號:1001-3695(2024)07-040-2203-06

    doi: 10.19734/j.issn.1001-3695.2023.09.0515

    Semantic consistency constrain and local-global aware multi-modal 3D visual grounding

    Abstract:The scarcity of 3D multimodal data results in a lack of semantic consistency between text and visual features during supervised training using traditional methods. Meanwhile, traditional methods also overlook local relationships and global information, resulting in poor performance. To address the above issues, this paper proposed a semantic consistency constrain and local-global aware multi-modal 3D visual grounding method. Firstly, the method helped the 3D model extract point cloud-text semantic consistency features by distilling 2D pre-trained visual language model knowledge. Secondly, it designed a local-global aware module to continuously supplement and enhanced candidate target features to match targets more accurately. Experiments conducted on the ScanRefer dataset show that the proposed method achieves 50.53% and 37.67% in terms of Acc@0.25 IoU and Acc@0.5 IoU and exceeds most existing 3D visual grounding methods, confirming the effectiveness of the method.

    Key words:3D visual grounding; multi-modal; feature alignment; local relationship; global location information

    0 引言

    視覺定位(visual grounding,VG)[1]旨在基于與目標(biāo)物體相關(guān)的語言查詢并定位出圖像或視頻中的相應(yīng)區(qū)域,現(xiàn)常應(yīng)用于自動駕駛等領(lǐng)域。目前在二維計(jì)算機(jī)視覺任務(wù)中,VG已取得了較大的進(jìn)展。隨著三維傳感器的飛速發(fā)展,三維視覺數(shù)據(jù)能夠提供比二維數(shù)據(jù)更全面豐富的信息,因此VG也逐漸拓展到了三維領(lǐng)域。3D-VG與2D-VG相比,場景更大、物體數(shù)量更多,同時要求模型具有更強(qiáng)的空間結(jié)構(gòu)信息捕獲能力,這對現(xiàn)有VG方法帶來了更大的挑戰(zhàn)。

    目前已有的3D-VG方法[2, 3]大多分為兩個階段:第一階段的目標(biāo)是訓(xùn)練好一個三維物體檢測器,從三維點(diǎn)云中提取候選目標(biāo)物體特征并回歸出預(yù)測框,同時再訓(xùn)練好語言模型對文本描述信息進(jìn)行編碼;第二階段則關(guān)注點(diǎn)云-語言兩種模態(tài)特征的交互融合,從候選目標(biāo)物體中唯一地選出文本信息所描述的物體。這些方法雖然能正確預(yù)測大多數(shù)目標(biāo),但仍存在以下三點(diǎn)問題:

    a)3D視覺語言數(shù)據(jù)集較為匱乏,導(dǎo)致現(xiàn)有方法由訓(xùn)練得到的模型提取的視覺與語言特征存在語義間隙(semantic gap)。

    b)與圖像相比,3D場景物體數(shù)量多,現(xiàn)有方法在點(diǎn)云-語言交互融合過程中缺乏對局部區(qū)域物體間關(guān)系的關(guān)注,導(dǎo)致模型不易從多個相同語義類別的物體中準(zhǔn)確定位出目標(biāo)。

    c)3D場景大且復(fù)雜,目標(biāo)的全局位置信息對匹配過程十分重要,而傳統(tǒng)算法大多忽略了對目標(biāo)全局位置信息的捕捉,使得模型難以區(qū)分多個在不同位置的同類物體。

    為了解決上述問題,本文提出了基于語義一致性約束與局部-全局感知的多模態(tài)3D視覺定位方法MM-VG。針對問題a),本文將二維視覺語言預(yù)訓(xùn)練模型引入3D-VG任務(wù),通過蒸餾的方式完成二維視覺語言預(yù)訓(xùn)練模型的知識遷移,以及在圖像文本對齊的特征空間中嵌入點(diǎn)云模態(tài)的特征,以此消除點(diǎn)云與語言特征間的語義間隙。針對問題b)c),本文分別設(shè)計(jì)了局部與全局感知模塊。局部感知模塊能從局部區(qū)域捕獲相鄰物體間關(guān)系,用于增強(qiáng)候選目標(biāo)特征。全局感知模塊在融合候選目標(biāo)與語言特征進(jìn)行推理時引入多分辨率場景特征,補(bǔ)充了檢測過程中丟失的全局位置信息。兩模塊結(jié)合能從位置與關(guān)系兩個角度對目標(biāo)特征進(jìn)行補(bǔ)充增強(qiáng),提升復(fù)雜場景下,尤其是有多個相同類別實(shí)例的情況下模型的定位效果。

    與現(xiàn)有大多數(shù)方法相比,MM-VG有以下幾個顯著的優(yōu)勢:

    a)MM-VG通過蒸餾2D大型視覺語言預(yù)訓(xùn)練模型知識,使模型提取的視覺語言特征有更強(qiáng)的語義一致性;

    b)MM-VG利用局部感知模塊,關(guān)注部分區(qū)域中相近物體間關(guān)系,以增強(qiáng)候選目標(biāo)特征;

    c)MM-VG使用了一種新的全局感知模塊,利用點(diǎn)云中多分辨率的全局場景特征,以消除定位結(jié)果的歧義;

    d)與現(xiàn)有大多數(shù)3D-VG算法將2D預(yù)訓(xùn)練特征和3D數(shù)據(jù)融合作為視覺輸入不同,MM-VG使用多模態(tài)對齊,使得訓(xùn)練好的模型在推理階段僅需3D數(shù)據(jù)作為視覺輸入,并在ScanRefer數(shù)據(jù)集上實(shí)驗(yàn),取得了50.53%的Acc@0.25 IoU和37.67%的Acc@0.5 IoU。

    1 相關(guān)工作

    1.1 2D視覺定位

    2D-VG的目的是在圖像中根據(jù)文本描述定位感興趣的區(qū)域,定位結(jié)果由二維邊界框表示。傳統(tǒng)算法主要分為兩階段方法與單階段方法。其中兩階段方法[4~6]的第一階段是使用預(yù)訓(xùn)練的目標(biāo)檢測器生成候選目標(biāo),第二階段則是通過識別感興趣的區(qū)域來匹配最相關(guān)的候選目標(biāo),并根據(jù)這些區(qū)域特征與文本特征的相似度對區(qū)域進(jìn)行排序。而單階段方法[7,8]去除了兩階段框架中的候選目標(biāo)生成階段,并將語言特征密集融合到每個像素點(diǎn)或塊中,以生成多模態(tài)融合特征,用于回歸邊界框。

    2D-VG的方法更多地關(guān)注圖像中目標(biāo)間的關(guān)系,例如:Yang等人[9]使用圖神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)上下文關(guān)系與文本描述之間的一致性;Yu等人[10]提出了MAttNet,利用注意力機(jī)制來捕獲視覺與語言模態(tài)間關(guān)系。此類方法僅能處理信息量較少且規(guī)則的圖像,對于場景更大的3D點(diǎn)云,需要模型擁有更全面的空間理解能力。因此本文提出了全局感知模塊,針對性地捕獲點(diǎn)云中的空間位置關(guān)系。

    1.2 3D視覺定位

    隨著深度學(xué)習(xí)技術(shù)在三維點(diǎn)云上的廣泛應(yīng)用,3D-VG任務(wù)受到更多學(xué)者的關(guān)注。然而2D-VG不能直接應(yīng)用于3D-VG。首先,三維點(diǎn)云點(diǎn)數(shù)遠(yuǎn)超圖像像素點(diǎn)數(shù),因此將每個點(diǎn)作為候選點(diǎn)進(jìn)行計(jì)算開銷太大;其次,由于3D場景規(guī)模大且復(fù)雜,難以全面捕獲所有物體間的關(guān)系;此外,三維點(diǎn)云是無序稀疏的,而2D-VG方法的輸入僅能為規(guī)則矩陣。

    近年來,研究者針對3D-VG提出了許多基于神經(jīng)網(wǎng)絡(luò)的算法。目前,主流的3D-VG方法仍然遵循2D-VG中兩階段的范式,即提出候選目標(biāo)與視覺語言融合匹配。例如, Chen等人[3]提出的ScanRefer依次將提出的候選目標(biāo)點(diǎn)云特征和語言特征直接拼接,從而把3D-VG轉(zhuǎn)換為對候選目標(biāo)物體的二分類任務(wù)。 Huang等人[11]提出了TGNN,首次在3D-VG任務(wù)中引入圖神經(jīng)網(wǎng)絡(luò)建模物體間關(guān)系。He等人[12]提出的Tr441919c798474fb1ca1a776f464a6814ansrefer3D以及Zhao等人[13]提出的3DVG-Transformer進(jìn)一步利用Transformer的注意力機(jī)制,實(shí)現(xiàn)了點(diǎn)云-語言兩種模態(tài)特征的交互式融合。Yuan等人[14]提出的Instancerefer利用預(yù)訓(xùn)練模型已經(jīng)分割好的實(shí)例與語言交互融合,并從屬性、位置和關(guān)系三個方面進(jìn)行綜合篩選。此外,Yang等人[15]提出了SAT,在訓(xùn)練階段將2D模態(tài)與3D模態(tài)特征對齊,推理預(yù)測階段無須2D輸入。Luo等人[16]提出的3D-SPS跳出了傳統(tǒng)二階段的框架,結(jié)合語言進(jìn)行漸進(jìn)式逐點(diǎn)篩選,單階段地定位目標(biāo)。但由于3D數(shù)據(jù)噪聲大、數(shù)據(jù)量相對較少,以上方法在訓(xùn)練時,視覺與語言特征語義上存在較大間隙,且更多關(guān)注物體屬性特征,物體間的關(guān)系提取不準(zhǔn)確,導(dǎo)致定位性能下降。

    1.3 視覺語言預(yù)訓(xùn)練模型

    目前視覺語言預(yù)訓(xùn)練模型[17, 18]已經(jīng)得到了深入的研究。例如CLIP(contrastive language-image pre-training)[19] 使用大規(guī)模數(shù)據(jù)(4億文本-圖像對)進(jìn)行訓(xùn)練,基于海量數(shù)據(jù),CLIP模型學(xué)習(xí)到了更多通用的視覺語義信息。目前在二維領(lǐng)域,語言和圖像理解任務(wù)方法很大程度上得益于大規(guī)模視覺語言數(shù)據(jù)集的預(yù)訓(xùn)練,從而能夠提取有意義的圖像-文本對特征,提升模型預(yù)測性能。例如在圖像分割領(lǐng)域,Ghiasi等人[20]提出了OpenSeg,基于CLIP模型完成圖像的開放詞匯分割。

    相比之下在三維領(lǐng)域,由于數(shù)據(jù)集采集困難,難以訓(xùn)練高性能大模型,所以大多數(shù)3D視覺語言任務(wù)都利用二維視覺語言模型進(jìn)行跨模態(tài)預(yù)訓(xùn)練。例如Huang等人[21]提出的CLIP2Point,通過縮小圖像與點(diǎn)云兩域之間的差距,成功遷移CLIP完成3D點(diǎn)云任務(wù)的預(yù)訓(xùn)練。Zhu等人[22]引入了形狀投影模塊,用于生成圖像深度圖,以此建立圖像到點(diǎn)云的映射。但現(xiàn)有遷移方法大多針對單個三維物體點(diǎn)云,而3D-VG任務(wù)需要模型對整個場景進(jìn)行理解。為此,本文提出了一種場景級的對齊方案用于解決這一問題。

    2 本文方法

    2.1 模型結(jié)構(gòu)

    N為候選目標(biāo)數(shù)量。最后利用檢測器,從候選目標(biāo)特征中回歸出N個候選邊界框。

    為從局部關(guān)系與全局位置角度上區(qū)分同一類物體的不同實(shí)例,在融合點(diǎn)云-語言兩種模態(tài)特征進(jìn)行匹配的階段中,本文首先采用局部感知模塊(local-aware module,LAM)對候選目標(biāo)特征FP進(jìn)行特征增強(qiáng),接著采用全局感知模塊(global-aware module,GAM)將得到的增強(qiáng)候選目標(biāo)特征F′P、場景點(diǎn)特征圖Fs與文本特征Τ三者融合,生成候選邊界框的最終置信度得分O={oi}Ni=1。最后置信度得分最高的邊界框?qū)⒈灰暈槎ㄎ唤Y(jié)果。本文重點(diǎn)研究如何蒸餾2D視覺語言預(yù)訓(xùn)練模型知識,以完成視覺語言特征對齊(2.2節(jié)),以及如何利用局部區(qū)域目標(biāo)間的關(guān)系(2.3節(jié))與全局場景信息(2.4節(jié))區(qū)分候選目標(biāo),以更精確地匹配定位目標(biāo)。

    2.2 多模態(tài)語義一致性約束模塊

    為解決問題a),即消除視覺與語言特征間的語義間隙,使模型提取的3D特征與文本特征在語義上達(dá)成一致性,以提升檢測與文本匹配效果,本文設(shè)計(jì)了多模態(tài)語義一致性約束模塊。 本文的關(guān)鍵思想是通過蒸餾2D預(yù)訓(xùn)練視覺語言模型知識,完成點(diǎn)云、圖像與文本三模態(tài)特征的語義對齊。為了實(shí)現(xiàn)這一目標(biāo),在2.2.1節(jié)中本文先建立3D點(diǎn)與多視角圖像像素之間的關(guān)聯(lián),并使用CLIP視覺編碼器求出像素特征,再根據(jù)關(guān)聯(lián)關(guān)系與像素特征構(gòu)造出虛擬點(diǎn)云特征;在2.2.2節(jié)中,本文將虛擬點(diǎn)云特征作為偽標(biāo)簽來監(jiān)督來訓(xùn)練3D編碼器,使其能提取與CLIP特征空間語義一致的特征。

    2.2.1 多視角圖像特征點(diǎn)云構(gòu)建

    2.2.2 多模態(tài)特征對齊

    如圖3所示,由于提取的圖像特征已通過預(yù)訓(xùn)練,與文本特征在語義上一致,而2.2.1節(jié)中又將圖像特征映射為虛擬點(diǎn)云特征,所以為實(shí)現(xiàn)點(diǎn)云、圖像、文本三模態(tài)特征對齊,只需將虛擬點(diǎn)云特征與點(diǎn)云特征對齊。

    通過最小化上述損失函數(shù),模型能夠?qū)⑷S點(diǎn)云特征提取到與CLIP相同的特征空間中,以完成點(diǎn)云、圖像、文本三模態(tài)特征對齊,最終實(shí)現(xiàn)點(diǎn)云-語言特征的語義一致。

    2.3 局部感知模塊

    在生成候選目標(biāo)階段中,得到的候選目標(biāo)特征更多是包含目標(biāo)屬性特征,而缺少物體間關(guān)系特征??紤]到文本描述的關(guān)系更多是在相近物體間,本文受Swin Transformer[27]啟發(fā),提出了局部感知模塊。在該模塊中,首先將候選目標(biāo)特征分塊,捕獲局部感知目標(biāo)間關(guān)系,從而增強(qiáng)候選目標(biāo)特征,使其能更好地進(jìn)行跨模態(tài)匹配。

    如圖4所示,首先將候選目標(biāo)特征FP分塊,具體地,先計(jì)算場景中所有點(diǎn)坐標(biāo)的均值(即中心點(diǎn)):

    使用子區(qū)域的好處在于:文本描述中所出現(xiàn)的物體關(guān)系以相鄰為主,例如“There is a wooden chair near the table.”。因此整個場景的關(guān)系建立是冗余的,而局部區(qū)域關(guān)系建立更有效率。通過局部感知模塊,本文從點(diǎn)云場景的不同子區(qū)域中捕獲目標(biāo)間關(guān)系,即局部關(guān)系信息。利用此關(guān)系信息,模型能夠在匹配階段排除部分同類干擾物體,極大程度上解決了問題b)。

    2.4 全局感知模塊

    在融合多模態(tài)特征進(jìn)行匹配的階段中,本文基于注意力機(jī)制提出了全局感知模塊,以在常規(guī)的候選目標(biāo)特征與文本特征交互過程中額外引入多分辨率全局特征。引入該特征能夠使模型從不同分辨率的角度挖掘目標(biāo)位OUhqIv3ke6iJvoly56w1yA==置信息,以達(dá)到消除目標(biāo)邊界框與其他相似候選目標(biāo)邊界框間歧義的目的。

    其中:Ffuse為輸出的融合特征。

    本文在具體實(shí)現(xiàn)過程中堆疊了三個全局感知模塊,如圖6所示。三個模塊的不同之處在于輸入的場景點(diǎn)特征圖分別為3D骨干網(wǎng)絡(luò)PointNet++的不同中間層特征,以捕獲不同分辨率大小的全局信息,其特征圖點(diǎn)數(shù)分別為256,512,1 024。最后,將全局感知模塊的輸出Ffuse送入全連接層,并用softmax函數(shù)激活后得到候選邊界框的最終置信度得分O。

    O=softmax(MLP(Ffuse))(10)

    全局感知模塊在候選目標(biāo)特征與文本特征匹配階段額外引入了全局場景信息。通過多個注意力模塊,候選目標(biāo)特征融入了與其對應(yīng)的位置特征,并和文本中對應(yīng)的位置信息相匹配,從位置上減小了同類物體的干擾,很好地解決了問題c)。

    2.5 網(wǎng)絡(luò)訓(xùn)練與推理

    其中:λ為各項(xiàng)損失權(quán)重,根據(jù)經(jīng)驗(yàn)性調(diào)整分別取值為1、0.3、10、1。在訓(xùn)練階段通過最小化上述損失函數(shù),本文模型可以回歸出場景目標(biāo)邊界框,并精確匹配文本描述目標(biāo)。在推理階段,模型無須輸入多視角圖像即可完成視覺定位。

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 實(shí)驗(yàn)數(shù)據(jù)集

    ScanRefer數(shù)據(jù)集是一個包含800個ScanNet[28]場景且具有51 583個描述的3D視覺定位數(shù)據(jù)集。平均每個場景有13.81個對象和64.48個文本描述。根據(jù)ScanNet官方的設(shè)置,本文將數(shù)據(jù)分成訓(xùn)練集與驗(yàn)證集,分別有36 665和9 508個樣本。實(shí)驗(yàn)在訓(xùn)練集上進(jìn)行訓(xùn)練,并在驗(yàn)證集上進(jìn)行結(jié)果分析。

    在數(shù)據(jù)預(yù)處理階段,將點(diǎn)數(shù)采樣到40 000,為減輕過擬合,本實(shí)驗(yàn)中將點(diǎn)云在x、y、z軸上隨機(jī)旋轉(zhuǎn)[-5°,5°],點(diǎn)云尺度隨機(jī)縮放0.9~1.1倍。對于語言支路,首先采用CLIP的文本詞分器將單詞轉(zhuǎn)換為單詞特征向量;接著隨機(jī)掩碼化25%的單詞特征向量以防止過擬合;最后將得到的單詞特征向量作為語言輸入。

    3.2 實(shí)驗(yàn)環(huán)境與實(shí)施細(xì)節(jié)

    本文實(shí)驗(yàn)硬件配置為8卡NVIDIA A10, 24 GB 顯存,AMD EPYC 7282 16-Core, 256 GB RAM。實(shí)驗(yàn)在Ubuntu 20.04.1系統(tǒng)下進(jìn)行,采用深度學(xué)習(xí)框架PyTorch 1.8。

    訓(xùn)練過程中各超參數(shù)設(shè)置如下:采用Adam[29]優(yōu)化器,權(quán)重衰減系數(shù)為0.000 01,采用學(xué)習(xí)率余弦衰減,初始學(xué)習(xí)率為0.002,訓(xùn)練300個epoch, batch size大小為8。

    3.3 評價指標(biāo)

    對于ScanRefer數(shù)據(jù)集,本文采用的評估指標(biāo)是Acc@0.25 IoU和Acc@0.5 IoU,分別代表預(yù)測目標(biāo)邊界框與目標(biāo)邊界框標(biāo)簽的交并比(IoU)大于0.25和0.5的百分比。除總體精度之外,實(shí)驗(yàn)還從unique和multiple兩個子集上進(jìn)行評估。如果目標(biāo)物體是場景中同類物體的唯一實(shí)例,則該目標(biāo)物體被歸類為unique,否則分類為multiple。

    3.4 實(shí)驗(yàn)結(jié)果與分析

    3.4.1 定量實(shí)驗(yàn)結(jié)果分析

    為驗(yàn)證MM-VG方法的有效性,本文在ScanRefer數(shù)據(jù)集上進(jìn)行了定量實(shí)驗(yàn),并與當(dāng)前先進(jìn)方法的定位性能作對比,結(jié)果如表1所示。對比方法包括基于分割的兩階段方法TGNN[11]和InstanceRefer[14],基于檢測的兩階段方法ScanRefer[3]、SAT[15]和3DVG-Transformer[13]以及單階段漸進(jìn)式匹配方法3D-SPS[16]。

    從表中可以看到,MM-VG在總體精度指標(biāo)Acc@0.25與Acc@0.5上均超過了其他六種方法,由此表明本文方法提取的多模態(tài)特征有更好的語義一致性,從而能夠在多模態(tài)交互融合階段提高匹配精度。但是在unique子集實(shí)驗(yàn)結(jié)果中,Acc@0.5低于3D-SPS與InstanceRefer。這是由于unique子集中的實(shí)例都是不同類別的,對多模態(tài)融合匹配階段性能要求低,所以檢測器性能對最終結(jié)果影響大。InstanceRefer依賴于預(yù)訓(xùn)練3D實(shí)例分割模型,因此在邊界框生成階段得到的框的IoU值更高,3D-SPS[16]漸進(jìn)式方法更加關(guān)注物體屬性信息而非全局關(guān)系信息,且在訓(xùn)練階段會訓(xùn)練多個檢測器,回歸的邊界框更為準(zhǔn)確。本文方法更多解決多個相同類別的實(shí)例造成的混淆問題,所以在對同類物體的唯一實(shí)例進(jìn)行推理時,性能略低于上述兩種方法。

    但實(shí)際情況中,同類物體往往具有多個實(shí)例,在multiple子集實(shí)驗(yàn)結(jié)果中,MM-VG在Acc@0.25與Acc@0.5上分別超過3D-SPS 3.26%與2.22%,這是由于本文方法更能挖掘復(fù)雜點(diǎn)云場景的全局信息,建模不同實(shí)例間的關(guān)系,證明了本文方法在3D視覺定位任務(wù)上的有效性。值得說明的是,與3D-SPS等方法在推理階段的輸入中加入2D特征不同,本文方法推理時只需將3D點(diǎn)云作為輸入,仍能取得較好的性能,體現(xiàn)了本文方法的優(yōu)勢。

    3.4.2 定性實(shí)驗(yàn)結(jié)果分析

    圖7展示了本文方法與3DVG-Transformer[13]及ground truth(真值標(biāo)簽)在ScanRefer數(shù)據(jù)集上的可視化結(jié)果對比。從圖7(a)(b)可以發(fā)現(xiàn),3DVG-Transformer將 Sofa與Cart錯誤定位到了Fan與Shelf,而本文方法則精準(zhǔn)定位出了正確結(jié)果,說明了本文方法有更強(qiáng)的多模態(tài)語義一致性;從圖7(c)~(e)中可以發(fā)現(xiàn),在同一場景中有多個類別相同的實(shí)例時,3DVG-Transformer無法較好地區(qū)分它們,而本文方法能夠很好地根據(jù)局部關(guān)系與全局位置信息區(qū)分這些實(shí)例,體現(xiàn)了本文方法的優(yōu)越性。

    3.5 消融實(shí)驗(yàn)

    3.5.1 不同模塊貢獻(xiàn)消融實(shí)驗(yàn)

    本文針對提出的多模態(tài)語義一致性約束模塊(MSCCM)、局部感知模塊(LAM)和全局感知模塊(GAM)三個模塊,以Acc@0.25與Acc@0.5作為評價指標(biāo),在ScanRefer驗(yàn)證集上進(jìn)行了六組消融實(shí)驗(yàn),結(jié)果如表2所示。

    由1、4組和3、6組以及5、7組實(shí)驗(yàn)分析可得,MAM模塊通過將點(diǎn)云、圖像、文本三模態(tài)的語義特征對齊,能顯著提高3D視覺定位的性能。由1、2組和3、5組實(shí)驗(yàn)分析可知,LAM模塊能挖掘局部特征間的關(guān)系,從而增強(qiáng)模型對于局部細(xì)節(jié)特征的捕獲能力,取得更佳的3D視覺定位性能。對比1、3組和4、6組實(shí)驗(yàn)可得,GAM模塊引入全局位置信息,單獨(dú)使用能提升視覺定位效果,但是在與MAM模塊一同使用時,效果提升不明顯,分析原因可能是,用于知識遷移的2D預(yù)訓(xùn)練模型中包含了全局信息,這與GAM模塊引入的全局信息部分重疊。

    3.5.2 特征對齊點(diǎn)數(shù)消融實(shí)驗(yàn)

    在多模態(tài)語義一致性約束模塊中,本文對采用多少點(diǎn)數(shù)進(jìn)行特征對齊(即3D backbone最后一層上采樣到多少個點(diǎn))進(jìn)行了消融實(shí)驗(yàn),具體結(jié)果如表3所示。從表3可以看到,當(dāng)采樣點(diǎn)數(shù)較少時,模型性能隨著用于對齊的點(diǎn)數(shù)的增加而提升。但當(dāng)采樣點(diǎn)數(shù)與原始點(diǎn)云點(diǎn)數(shù)保持一致時效果并未得到提升,分析可能的原因是產(chǎn)生了過擬合現(xiàn)象,且運(yùn)行時間大大增加。根據(jù)實(shí)驗(yàn)效果,本文最終采用2 024作為特征對齊的點(diǎn)數(shù)。

    4 結(jié)束語

    本文提出了一種基于語義一致性約束與局部-全局感知的多模態(tài)3D視覺定位方法MM-VG,通過蒸餾2D預(yù)訓(xùn)練視覺語言模型知識,幫助3D模型進(jìn)行點(diǎn)云場景編碼,相比現(xiàn)有方法,MM-VG提取的特征點(diǎn)云-文本語義一致性更強(qiáng)。除此之外,本文設(shè)計(jì)了局部與全局感知模塊,先從局部增強(qiáng)候選目標(biāo)特征,再融合候選目標(biāo)、場景與語言三者特征,以深度挖掘場景信息,達(dá)到精確匹配物體邊界框的目的。在ScanRefer數(shù)據(jù)集上進(jìn)行對比實(shí)驗(yàn),在Acc@0.25 IoU和Acc@0.5 IoU兩個指標(biāo)上分別達(dá)到了50.53%和37.67%,超越了現(xiàn)有大多數(shù)3D視覺定位算法,證實(shí)了MM-VG的有效性。

    在本文方法中,知識遷移所用的2D預(yù)訓(xùn)練視覺語言模型還可應(yīng)用于零樣本與開放集等各種更具挑戰(zhàn)性的任務(wù)[30,31]中。在未來的研究中,可考慮遷移2D視覺語言預(yù)訓(xùn)練大模型完成零樣本或無須文本(language-free)[32]的3D場景理解任務(wù)。

    參考文獻(xiàn):

    [1]Hu Ronghang,Xu Huazhe,Rohrbach M,et al. Natural language object retrieval[C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2016: 4555-4564.

    [2]Achlioptas P,Abdelreheem A,Xia Fei,et al. ReferIt3D: neural listeners for fine-grained 3D object identification in real-world scenes[C]// Proc of European Conference on Computer Vision. Cham: Springer,2020: 422-440.

    [3]Chen D Z,Chang A X,Niener M. ScanRefer: 3D object localization in RGB-D scans using natural language[C]// Proc of European Conference on Computer Vision. Cham: Springer,2020: 202-221.

    [4]Liu Daqing,Zhang Hanwang,Zha Z J,et al. Learning to assemble neural module tree networks for visual grounding [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2019: 4672-4681.

    [5]Wang Peng,Wu Qi,Cao Jiewei,et al. Neighbourhood watch: referring expression comprehension via language-guided graph attention networks[C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2019: 1960-1968.

    [6]Yang Sibei,Li Guanbin,Yu Yizhou. Cross-modal relationship inference for grounding referring expressions[C]// Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2019: 4140-4149.

    [7]Deng Jiajun,Yang Zhengyuan,Chen Tianlang,et al. TransVG: end-to-end visual grounding with transformers [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2021: 1749-1759.

    [8]Liao Yue,Liu Si,Li Guanbin,et al. A real-time cross-modality correlation filtering method for referring expression comprehension [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Re-cognition. Piscataway,NJ: IEEE Press,2020: 10877-10886.

    [9]Yang Sibei,Li Guanbin,Yu Yizhou. Dynamic graph attention for referring expression comprehension[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2019: 4643-4652.

    [10]Yu Licheng,Lin Zhe,Shen Xiaohui,et al. MAttNet: modular attention network for referring expression comprehension[C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2018: 1307-1315.

    [11]Huang Pinhao,Lee H H,Chen H T,et al. Text-guided graph neural networks for referring 3D instance segmentation[C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press,2021: 1610-1618.

    [12]He Dailan,Zhao Yusheng,Luo Junyu,et al. TransRefer3D: entity-and-relation aware transformer for fine-grained 3D visual grounding[C]// Proc of the 29th ACM International Conference on Multimedia. New York: ACM Press,2021: 2344-2352.

    [13]Zhao Lichen,Cai Daigang,Sheng Lu,et al. 3DVG-Transformer: relation modeling for visual grounding on point clouds[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2021: 2908-2917.

    [14]Yuan Zhihao,Yan Xu,Liao Yinghong,et al. InstanceRefer: cooperative holistic understanding for visual grounding on point clouds through instance multi-level contextual referring[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2021: 1771-1780.

    [15]Yang Zhengyuan,Zhang Songyang,Wang Liwei,et al. SAT: 2D semantics assisted training for 3D visual grounding[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2021: 1836-1846.

    [16]Luo Junyu,F(xiàn)u Jiahui,Kong Xianghao,et al. 3D-SPS: single-stage 3D visual grounding via referred point progressive selection[C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2022: 16433-16442.

    [17]張浩宇,王天保,李孟擇,等. 視覺語言多模態(tài)預(yù)訓(xùn)練綜述[J]. 中國圖象圖形學(xué)報,2022,27(9): 2652-2682.(Zhang Haoyu,Wang Tianbao,Li Mengze,et al. Comprehensive review of visual-language-oriented multimodal pre-training methods[J]. Journal of Image and Graphics,2022,27(9): 2652-2682.)

    [18]吳友政,李浩然,姚霆,等. 多模態(tài)信息處理前沿綜述: 應(yīng)用、融合和預(yù)訓(xùn)練[J]. 中文信息學(xué)報,2022,36(5): 1-20.(Wu Youzheng,Li Haoran,Yao Ting,et al. A survey of multimodal information processing frontiers: application,fusion and pre-training[J]. Journal of Chinese Information Processing,2022,36(5): 1-20.)

    [19]Radford A,Kim J W,Hallacy C,et al. Learning transferable visual models from natural language supervision[C]// Proc of International Conference on Machine Learning. [S.l.]: PMLR,2021: 8748-8763.

    [20]Ghiasi G,Gu Xiuye,Cui Yin,et al. Scaling open-vocabulary image segmentation with image-level labels[C]// Proc of European Confe-rence on Computer Vision. Cham: Springer,2022: 540-557.

    [21]Huang Tianyu,Dong Bowen,Yang Yunhan,et al. Clip2point: transfer clip to point cloud classification with image-depth pre-training[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2023: 22100-22110.

    [22]Zhu Xiangyang,Zhang Renrui,He Bowei,et al. PointCLIP V2: adapting clip for powerful 3D open-world learning[EB/OL].(2022-11-21). https://arxiv.org/abs/2211.11682.

    [23]Qi C R,Yi Li,Su Hao,et al. PointNet++: deep hierarchical feature learning on point sets in a metric space[C]// Proc of the 31st International Conference on Neural Information Processing Systems. Red Hook,NY: Curran Associates Inc.,2017: 5105-5114.

    [24]Qi C R,Litany O,He Kaiming,et al. Deep Hough voting for 3D object detection in point clouds[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2019: 9276-9285.

    [25]Yan Ming,Li Zhongtong,Yu Xinyan,et al. An end-to-end deep lear-ning network for 3D object detection from RGB-D data based on hough voting[J]. IEEE Access,2020,8: 138810-138822.

    [26]Dai A,Niener M. 3DMV: joint 3D-multi-view prediction for 3D semantic scene segmentation[C]// Proc of European Conference on Computer Vision. Cham: Springer,2018: 452-468.

    [27]Liu Ze,Lin Yutong,Cao Yue,et al. Swin Transformer: hierarchical vision transformer using shifted windows[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2021: 9992-10002.

    [28]Dai A,Chang A X,Savva M,et al. ScanNet: richly-annotated 3D reconstructions of indoor scenes [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2017: 2432-2443.

    [29]Kingma D P,Ba J. Adam: a method for stochastic optimization [EB/OL].(2017-01-30). https://arxiv.org/abs/1412.6980.

    [30]Gu Xiuye,Lin T Y,Kuo Weicheng,et al. Open-vocabulary object detection via vision and language knowledge distillation [EB/OL].(2022-05-12). https://arxiv.org/abs/2104.13921.

    [31]白靜,袁濤,范有福. ZS3D-Net: 面向三維模型的零樣本分類網(wǎng)絡(luò)[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報,2022,34(7): 1118-1126.(Bai Jing,Yuan Tao,F(xiàn)an Youfu. ZS3D-Net: zero-shot classification network for 3D models[J]. Journal of Computer-Aided Design & Computer Graphics,2022,34(7): 1118-1126.)

    [32]Wang Zihao,Liu Wei,He Qian,et al. CLIP-GEN: language-free training of a text-to-image generator with clip[EB/OL].(2022-03-01). https://arxiv.org/abs/2203.00386.

    国产精品野战在线观看| 中文亚洲av片在线观看爽| 淫秽高清视频在线观看| 最近最新中文字幕大全电影3| 久久人人精品亚洲av| 亚洲午夜理论影院| 九色成人免费人妻av| www国产在线视频色| 波多野结衣高清无吗| 1024视频免费在线观看| 91九色精品人成在线观看| 日韩欧美一区二区三区在线观看| e午夜精品久久久久久久| 久久久久久人人人人人| 特级一级黄色大片| 欧美在线一区亚洲| 欧美日本视频| 琪琪午夜伦伦电影理论片6080| 国产成人av激情在线播放| 成熟少妇高潮喷水视频| 免费观看人在逋| 亚洲国产看品久久| 精品福利观看| 欧美色欧美亚洲另类二区| 极品教师在线免费播放| 精品久久久久久成人av| 国产精品久久久人人做人人爽| 国产人伦9x9x在线观看| 丰满人妻一区二区三区视频av | 波多野结衣高清作品| 国内久久婷婷六月综合欲色啪| 999久久久国产精品视频| 国产精品98久久久久久宅男小说| 可以在线观看毛片的网站| 又爽又黄无遮挡网站| a级毛片在线看网站| 国产av不卡久久| 色在线成人网| 黄色 视频免费看| 性欧美人与动物交配| 少妇被粗大的猛进出69影院| 日韩大尺度精品在线看网址| 亚洲人成77777在线视频| 午夜视频精品福利| 成人手机av| 国产精品影院久久| 免费看日本二区| 午夜免费观看网址| 男女那种视频在线观看| 国产亚洲欧美在线一区二区| 波多野结衣巨乳人妻| 日本免费a在线| 亚洲欧美精品综合一区二区三区| 亚洲色图 男人天堂 中文字幕| 国产三级中文精品| 精品日产1卡2卡| 日本精品一区二区三区蜜桃| 欧美一级a爱片免费观看看 | 亚洲av电影不卡..在线观看| 久久天堂一区二区三区四区| 啦啦啦观看免费观看视频高清| 90打野战视频偷拍视频| 色老头精品视频在线观看| 国产精品久久久久久人妻精品电影| 亚洲精品一卡2卡三卡4卡5卡| 日韩大码丰满熟妇| 三级国产精品欧美在线观看 | 香蕉av资源在线| 亚洲欧美精品综合久久99| 美女高潮喷水抽搐中文字幕| 黄色a级毛片大全视频| 亚洲精品美女久久久久99蜜臀| 又黄又粗又硬又大视频| 久久午夜亚洲精品久久| www.自偷自拍.com| 99国产精品99久久久久| 久久久国产成人精品二区| 男女视频在线观看网站免费 | 久久久久亚洲av毛片大全| 精品一区二区三区av网在线观看| 久久精品国产亚洲av高清一级| 草草在线视频免费看| 欧美 亚洲 国产 日韩一| 色尼玛亚洲综合影院| 欧美性猛交黑人性爽| 久久精品aⅴ一区二区三区四区| 久久国产精品影院| www.精华液| 人成视频在线观看免费观看| avwww免费| 大型黄色视频在线免费观看| 亚洲av成人精品一区久久| 一级作爱视频免费观看| www.999成人在线观看| 小说图片视频综合网站| 人妻丰满熟妇av一区二区三区| bbb黄色大片| 亚洲无线在线观看| 久久亚洲精品不卡| 国产精品1区2区在线观看.| 91老司机精品| e午夜精品久久久久久久| 最近在线观看免费完整版| 少妇被粗大的猛进出69影院| 此物有八面人人有两片| 亚洲国产看品久久| 久久久久久九九精品二区国产 | 中文字幕人妻丝袜一区二区| 999久久久精品免费观看国产| 国产成人av激情在线播放| 麻豆成人午夜福利视频| а√天堂www在线а√下载| 久久精品国产亚洲av香蕉五月| 波多野结衣高清无吗| 色老头精品视频在线观看| 99热这里只有精品一区 | 在线a可以看的网站| 亚洲第一电影网av| 色av中文字幕| 成人三级做爰电影| 中文字幕高清在线视频| 精品欧美国产一区二区三| 亚洲精品中文字幕一二三四区| 成人三级黄色视频| 免费在线观看影片大全网站| 淫妇啪啪啪对白视频| 免费在线观看成人毛片| 最近在线观看免费完整版| 一本一本综合久久| a级毛片在线看网站| 最近最新免费中文字幕在线| 亚洲精品国产精品久久久不卡| 一a级毛片在线观看| 神马国产精品三级电影在线观看 | 久久中文字幕一级| 两个人免费观看高清视频| 伊人久久大香线蕉亚洲五| 动漫黄色视频在线观看| 激情在线观看视频在线高清| 欧美乱色亚洲激情| 国产精品一区二区免费欧美| bbb黄色大片| 久久这里只有精品19| 国产日本99.免费观看| e午夜精品久久久久久久| 成熟少妇高潮喷水视频| 性欧美人与动物交配| 女警被强在线播放| 女警被强在线播放| x7x7x7水蜜桃| 操出白浆在线播放| 精品一区二区三区四区五区乱码| 最近在线观看免费完整版| 久久九九热精品免费| 亚洲av第一区精品v没综合| 99国产综合亚洲精品| 变态另类丝袜制服| 久久香蕉国产精品| 久久精品影院6| 亚洲欧美一区二区三区黑人| 18禁裸乳无遮挡免费网站照片| 日韩高清综合在线| 国产欧美日韩一区二区精品| 嫁个100分男人电影在线观看| 午夜亚洲福利在线播放| 免费看美女性在线毛片视频| 制服丝袜大香蕉在线| 狠狠狠狠99中文字幕| 69av精品久久久久久| 久久中文字幕人妻熟女| 九九热线精品视视频播放| 久久久国产精品麻豆| 精品久久久久久久毛片微露脸| 五月玫瑰六月丁香| 亚洲精品美女久久av网站| 亚洲国产欧美人成| 日本免费a在线| 岛国在线免费视频观看| 啪啪无遮挡十八禁网站| 性色av乱码一区二区三区2| 亚洲一码二码三码区别大吗| 99久久无色码亚洲精品果冻| 久久性视频一级片| 好男人在线观看高清免费视频| 欧美黄色淫秽网站| 欧美黄色淫秽网站| 熟女少妇亚洲综合色aaa.| 国产激情久久老熟女| 亚洲精品国产一区二区精华液| 久久国产精品人妻蜜桃| 国产在线精品亚洲第一网站| 欧美久久黑人一区二区| 日日夜夜操网爽| 国产成人精品久久二区二区免费| 亚洲国产日韩欧美精品在线观看 | 成人av在线播放网站| 国产成人精品无人区| 天天添夜夜摸| 俄罗斯特黄特色一大片| 麻豆国产97在线/欧美 | 久久中文字幕一级| 国产一区二区激情短视频| 久久婷婷人人爽人人干人人爱| 亚洲男人天堂网一区| 淫秽高清视频在线观看| 90打野战视频偷拍视频| 国产亚洲欧美在线一区二区| 午夜a级毛片| 亚洲片人在线观看| 欧美日本亚洲视频在线播放| 亚洲乱码一区二区免费版| 97人妻精品一区二区三区麻豆| 国产精品久久久av美女十八| 人人妻人人澡欧美一区二区| 国产亚洲精品第一综合不卡| 免费在线观看影片大全网站| 亚洲精品在线美女| 国产男靠女视频免费网站| 一边摸一边做爽爽视频免费| 国产精品综合久久久久久久免费| 亚洲欧美日韩东京热| 欧美人与善性xxx| 国产成人一区二区在线| 久久亚洲国产成人精品v| 久久精品夜色国产| 日韩高清综合在线| 国产国拍精品亚洲av在线观看| 中国国产av一级| or卡值多少钱| 最近视频中文字幕2019在线8| 深夜精品福利| 美女黄网站色视频| 99热网站在线观看| 亚洲av.av天堂| 一夜夜www| 精品欧美国产一区二区三| 欧洲精品卡2卡3卡4卡5卡区| 国产午夜精品论理片| 欧美日韩国产亚洲二区| 婷婷精品国产亚洲av| 寂寞人妻少妇视频99o| 22中文网久久字幕| avwww免费| 成人漫画全彩无遮挡| 国产真实乱freesex| 国产单亲对白刺激| 精品久久久久久久人妻蜜臀av| 久久久久国产网址| 身体一侧抽搐| 菩萨蛮人人尽说江南好唐韦庄 | 日韩精品青青久久久久久| 日韩三级伦理在线观看| 国产精品久久视频播放| 国产久久久一区二区三区| av专区在线播放| 人人妻人人澡人人爽人人夜夜 | 日韩人妻高清精品专区| 国产三级在线视频| 久久久久久久久大av| 亚洲最大成人av| 国产精品久久久久久精品电影小说 | 亚洲美女搞黄在线观看| 亚洲成av人片在线播放无| 九九在线视频观看精品| 国产 一区精品| 国产精品精品国产色婷婷| 麻豆成人午夜福利视频| 欧洲精品卡2卡3卡4卡5卡区| 亚洲精华国产精华液的使用体验 | 日本av手机在线免费观看| 色视频www国产| 亚洲丝袜综合中文字幕| 亚洲第一区二区三区不卡| 国产蜜桃级精品一区二区三区| 亚洲七黄色美女视频| 极品教师在线视频| 人妻制服诱惑在线中文字幕| 中文欧美无线码| av视频在线观看入口| 啦啦啦啦在线视频资源| 小蜜桃在线观看免费完整版高清| 一个人看的www免费观看视频| 国产不卡一卡二| 69av精品久久久久久| 晚上一个人看的免费电影| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲激情五月婷婷啪啪| 国产精品一及| 国产高清有码在线观看视频| 99热全是精品| 国产精品不卡视频一区二区| 亚洲国产精品sss在线观看| 中国国产av一级| 国产美女午夜福利| 日本一本二区三区精品| 亚洲av二区三区四区| 日本成人三级电影网站| 国产在视频线在精品| 美女黄网站色视频| 亚洲欧美日韩高清在线视频| ponron亚洲| 蜜桃亚洲精品一区二区三区| 国内精品宾馆在线| 午夜久久久久精精品| 夫妻性生交免费视频一级片| 久久亚洲精品不卡| 18禁在线无遮挡免费观看视频| 亚洲美女搞黄在线观看| h日本视频在线播放| 日本免费一区二区三区高清不卡| 在线观看一区二区三区| 国产黄片视频在线免费观看| 国产精品蜜桃在线观看 | 日本黄大片高清| 少妇丰满av| 亚洲七黄色美女视频| 女人被狂操c到高潮| 麻豆成人av视频| 午夜a级毛片| 男女视频在线观看网站免费| 久久精品国产99精品国产亚洲性色| 日本在线视频免费播放| 亚洲人成网站在线播放欧美日韩| 99久久精品热视频| 色播亚洲综合网| 男人狂女人下面高潮的视频| 亚洲国产精品合色在线| 免费看a级黄色片| 日本免费a在线| 干丝袜人妻中文字幕| 18+在线观看网站| 欧美精品一区二区大全| 我要看日韩黄色一级片| 国产美女午夜福利| 乱码一卡2卡4卡精品| 国产一级毛片七仙女欲春2| 久久99精品国语久久久| 两个人视频免费观看高清| 又爽又黄a免费视频| 伦理电影大哥的女人| 久久精品国产自在天天线| 偷拍熟女少妇极品色| 亚洲欧美日韩高清专用| 丝袜喷水一区| 在线观看av片永久免费下载| 国产精品三级大全| 久99久视频精品免费| 欧美高清成人免费视频www| 国产精品一区二区性色av| 亚州av有码| 久久人人爽人人片av| 岛国毛片在线播放| 国产一区二区在线观看日韩| 久久综合国产亚洲精品| 中文字幕制服av| 国产熟女欧美一区二区| 丰满乱子伦码专区| 亚洲欧美清纯卡通| 国产探花在线观看一区二区| 日本黄色视频三级网站网址| 丰满人妻一区二区三区视频av| 可以在线观看的亚洲视频| 欧美高清成人免费视频www| av天堂在线播放| 毛片一级片免费看久久久久| 九九爱精品视频在线观看| 日韩欧美 国产精品| 99在线人妻在线中文字幕| 99热6这里只有精品| 中国美白少妇内射xxxbb| 成人国产麻豆网| 简卡轻食公司| 国产伦一二天堂av在线观看| 热99在线观看视频| 日本一二三区视频观看| 一级毛片aaaaaa免费看小| 又粗又爽又猛毛片免费看| 亚洲无线在线观看| 日本在线视频免费播放| 成人毛片60女人毛片免费| 18禁在线播放成人免费| 晚上一个人看的免费电影| 白带黄色成豆腐渣| 亚洲国产欧洲综合997久久,| 亚洲国产色片| 久久久久久久亚洲中文字幕| 蜜臀久久99精品久久宅男| 丝袜美腿在线中文| 亚洲第一电影网av| 国产女主播在线喷水免费视频网站 | 亚洲精品国产av成人精品| 欧美高清成人免费视频www| 欧美日本亚洲视频在线播放| 亚洲va在线va天堂va国产| 成人午夜精彩视频在线观看| 九九久久精品国产亚洲av麻豆| 听说在线观看完整版免费高清| 晚上一个人看的免费电影| av在线蜜桃| 久久久精品94久久精品| 人妻久久中文字幕网| 成人毛片a级毛片在线播放| 卡戴珊不雅视频在线播放| 欧美变态另类bdsm刘玥| 色噜噜av男人的天堂激情| 最近手机中文字幕大全| 国产伦一二天堂av在线观看| 国产精品,欧美在线| 国产中年淑女户外野战色| 国产成人freesex在线| 国产一区亚洲一区在线观看| 久久精品国产99精品国产亚洲性色| 伦理电影大哥的女人| 国产一区二区在线av高清观看| 中文字幕制服av| 两个人的视频大全免费| 亚洲精品国产成人久久av| 久久精品国产鲁丝片午夜精品| 日韩av不卡免费在线播放| 卡戴珊不雅视频在线播放| 国产午夜精品一二区理论片| 热99在线观看视频| 色播亚洲综合网| 可以在线观看毛片的网站| 美女国产视频在线观看| 亚洲一区高清亚洲精品| 精品熟女少妇av免费看| 级片在线观看| 网址你懂的国产日韩在线| 草草在线视频免费看| 毛片一级片免费看久久久久| 美女被艹到高潮喷水动态| 村上凉子中文字幕在线| 一本一本综合久久| 内射极品少妇av片p| 爱豆传媒免费全集在线观看| 欧美丝袜亚洲另类| 亚洲,欧美,日韩| 精品久久久久久久久av| 内地一区二区视频在线| 网址你懂的国产日韩在线| 爱豆传媒免费全集在线观看| 国产69精品久久久久777片| 插逼视频在线观看| 青青草视频在线视频观看| 十八禁国产超污无遮挡网站| 美女大奶头视频| 国产精品美女特级片免费视频播放器| 内射极品少妇av片p| 亚洲欧美成人综合另类久久久 | 欧美zozozo另类| 熟女人妻精品中文字幕| 中文资源天堂在线| 成人国产麻豆网| 久久久久网色| 99久久九九国产精品国产免费| 亚洲欧美日韩高清在线视频| 日韩在线高清观看一区二区三区| 亚洲av.av天堂| 国产精品一二三区在线看| 亚洲一区二区三区色噜噜| 两个人视频免费观看高清| 亚洲人成网站在线观看播放| 久久久久久伊人网av| 女人被狂操c到高潮| 一进一出抽搐gif免费好疼| 久久韩国三级中文字幕| av在线亚洲专区| 少妇的逼好多水| 啦啦啦啦在线视频资源| 欧美精品一区二区大全| 18禁裸乳无遮挡免费网站照片| 亚洲成av人片在线播放无| 亚洲一级一片aⅴ在线观看| 欧美成人精品欧美一级黄| 欧美精品一区二区大全| 成人无遮挡网站| 亚洲精华国产精华液的使用体验 | 国产91av在线免费观看| 国产亚洲5aaaaa淫片| 麻豆成人午夜福利视频| 一个人看视频在线观看www免费| 97在线视频观看| 丝袜喷水一区| 菩萨蛮人人尽说江南好唐韦庄 | 日本免费a在线| 天堂av国产一区二区熟女人妻| 色噜噜av男人的天堂激情| 熟女人妻精品中文字幕| 三级男女做爰猛烈吃奶摸视频| 狂野欧美激情性xxxx在线观看| 亚洲av成人精品一区久久| 久久热精品热| 日韩亚洲欧美综合| 三级经典国产精品| 青青草视频在线视频观看| 国产精品野战在线观看| 日韩欧美三级三区| 日本三级黄在线观看| 亚洲精品日韩在线中文字幕 | 亚洲av二区三区四区| 精品久久久久久久久av| 国产又黄又爽又无遮挡在线| 久久国产乱子免费精品| 久久精品国产亚洲网站| 亚洲电影在线观看av| 久久午夜福利片| 伦精品一区二区三区| 九九热线精品视视频播放| 直男gayav资源| 久久精品久久久久久噜噜老黄 | 亚洲精品国产av成人精品| 天堂网av新在线| 97人妻精品一区二区三区麻豆| 综合色丁香网| 中文字幕人妻熟人妻熟丝袜美| 黄片wwwwww| 91精品国产九色| 日本五十路高清| 麻豆乱淫一区二区| 亚洲精品日韩在线中文字幕 | 一级黄色大片毛片| 亚洲欧美日韩卡通动漫| 成人午夜精彩视频在线观看| 免费电影在线观看免费观看| 可以在线观看的亚洲视频| 国产精品久久久久久久电影| 欧美在线一区亚洲| 亚洲在久久综合| 成人漫画全彩无遮挡| 赤兔流量卡办理| 男女边吃奶边做爰视频| 男女那种视频在线观看| 国产高清激情床上av| 国产91av在线免费观看| www日本黄色视频网| 国产精品一区www在线观看| 精品熟女少妇av免费看| 国产亚洲精品久久久com| 婷婷亚洲欧美| 久久综合国产亚洲精品| 日韩欧美在线乱码| 变态另类丝袜制服| 国产高清三级在线| 黄片wwwwww| 晚上一个人看的免费电影| 亚洲成人中文字幕在线播放| 国产美女午夜福利| 午夜福利在线观看免费完整高清在 | 1024手机看黄色片| 亚洲人成网站在线播放欧美日韩| 日韩欧美精品免费久久| 国产高清不卡午夜福利| av卡一久久| 国语自产精品视频在线第100页| 性插视频无遮挡在线免费观看| 亚洲av二区三区四区| 午夜亚洲福利在线播放| 免费看光身美女| 免费看美女性在线毛片视频| 国产伦一二天堂av在线观看| 亚洲最大成人av| 97超碰精品成人国产| 一级二级三级毛片免费看| 尾随美女入室| 中国国产av一级| 国产成人一区二区在线| 一夜夜www| 大又大粗又爽又黄少妇毛片口| 亚洲一级一片aⅴ在线观看| 观看免费一级毛片| 久久久成人免费电影| 一卡2卡三卡四卡精品乱码亚洲| 精品久久久久久久久亚洲| 成人亚洲精品av一区二区| 国产不卡一卡二| 欧美高清性xxxxhd video| 国产伦精品一区二区三区视频9| 午夜久久久久精精品| 亚州av有码| 啦啦啦韩国在线观看视频| 男女边吃奶边做爰视频| 国产av麻豆久久久久久久| 国产高清视频在线观看网站| 亚洲天堂国产精品一区在线| 免费不卡的大黄色大毛片视频在线观看 | 欧美变态另类bdsm刘玥| 天堂√8在线中文| 国内精品久久久久精免费| 精品久久国产蜜桃| 亚洲人成网站在线观看播放| 综合色av麻豆| 国产在线精品亚洲第一网站| 国产蜜桃级精品一区二区三区| 久久精品国产鲁丝片午夜精品| 国产私拍福利视频在线观看| 精品久久久久久久久久免费视频| 久久人人爽人人爽人人片va| 国产成人午夜福利电影在线观看| 美女xxoo啪啪120秒动态图| 国内精品一区二区在线观看| 国产精品日韩av在线免费观看| 99精品在免费线老司机午夜| a级毛片a级免费在线| 在线国产一区二区在线| 日韩成人av中文字幕在线观看| 欧美不卡视频在线免费观看| 国产黄色小视频在线观看| 欧美日韩国产亚洲二区| 我要搜黄色片| 搞女人的毛片| 日韩av在线大香蕉| 一个人看的www免费观看视频| 亚洲精品影视一区二区三区av| 国产精品一区二区在线观看99 |