• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向三維點云單目標跟蹤的提案聚合網絡

    2022-06-21 06:41:48莊屹趙海濤
    計算機應用 2022年5期
    關鍵詞:體素注意力物體

    莊屹,趙海濤

    (華東理工大學 信息科學與工程學院,上海 200237)(?通信作者電子郵箱haitaozhao@ecust.edu.cn)

    面向三維點云單目標跟蹤的提案聚合網絡

    莊屹,趙海濤*

    (華東理工大學 信息科學與工程學院,上海 200237)(?通信作者電子郵箱haitaozhao@ecust.edu.cn)

    與二維可見光圖像相比,三維點云在空間中保留了物體真實豐富的幾何信息,能夠應對單目標跟蹤問題中存在尺度變換的視覺挑戰(zhàn)。針對三維目標跟蹤精度受到點云數據稀疏性導致的信息缺失影響,以及物體位置變化帶來的形變影響這兩個問題,在端到端的學習模式下提出了由三個模塊構成的提案聚合網絡,通過在最佳提案內定位物體的中心來確定三維邊界框從而實現三維點云中的單目標跟蹤。首先,將模板和搜索區(qū)域的點云數據轉換為鳥瞰偽圖,模塊一通過空間和跨通道注意力機制豐富特征信息;然后,模塊二用基于錨框的深度互相關孿生區(qū)域提案子網給出最佳提案;最后,模塊三先利用最佳提案對搜索區(qū)域的感興趣區(qū)域池化操作來提取目標特征,隨后聚合了目標與模板特征,利用稀疏調制可變形卷積層來解決點云稀疏以及形變的問題并確定了最終三維邊界框。在KITTI跟蹤數據集上把所提方法與最新的三維點云單目標跟蹤方法進行比較的實驗結果表明:在汽車類綜合性實驗中,真實場景中所提方法在成功率上提高了1.7個百分點,精確率上提高了0.2個百分點;在多類別擴展性實驗上,即在汽車、貨車、騎車人以及行人這4類上所提方法的平均成功率提高了0.8個百分點,平均精確率提高了2.8個百分點。可見,所提方法能夠解決三維點云中的單目標跟蹤問題,使得三維目標跟蹤結果更加精確。

    點云;目標跟蹤;孿生網絡;注意力機制;可變形卷積

    0 引言

    單目標跟蹤已成為計算機視覺中的一個研究熱點,被應用在自動駕駛、跟隨機器人和安防系統(tǒng)等場景下[1]?;诳梢姽鈭D像的二維跟蹤方法面臨著遮擋、光照、尺度變化等挑戰(zhàn)。因此,需要在原始圖像上增加額外維度的信息來解決這些問題。為了克服遮擋,深度圖被用以增加可見光-深度(RGB-Depth, RGB-D)信息[2-3]。通過聯合使用紅外圖像,可見光-紅外(RGB-Thermal, RGB-T)信息可以幫助解決光照變化的問題[4-5]。上述兩種方法依然無法解決尺度變化問題,并且在可見光信息弱化時可能導致跟蹤失敗。激光雷達獲取的點云數據保留了物體的幾何信息,在三維空間中給出了接近真實的物體描述,是避免尺度變化的首選表示方法[6]。

    目前,可實現點云三維單目標跟蹤的有基于點級特征跟蹤器以及基于體素級特征跟蹤器這兩大類方法?;邳c級特征跟蹤器有:Giancola等[7]基于正則化三維形狀補全(Shape Completion for 3D, SC3D)的思想,在理想前提下使用卡爾曼濾波器,采用余弦相似度比較候選對象潛層語義信息定位目標;Qi等[8]基于真實場景提出了P2B(Point-to-Box)方法,利用PointNet++[9]增強跟蹤目標關鍵點特征,并基于VoteNet[10]設計網絡用于回歸潛在的目標中心;Fang等[11]基于PointNet++編碼器,采用點級別特征的互相關操作設計3D-SiamRPN(3D-Siamese Region Proposal Network)通過區(qū)域提案網絡確定最終的三維邊界框?;隗w素級特征跟蹤器有:Zarzar等[12]提出了一個二維到三維形狀補全(2D and 3D Shape Completion, 2D-SC3D)孿生跟蹤網絡,將原始點云體素化生成鳥瞰偽圖代替窮舉搜索,理想化選擇候選對象。

    基于點級特征的跟蹤器對點的位置信息直接進行建模,著眼于代表目標部分的關鍵點實現跟蹤,脫離了目標整體信息;基于體素級特征的跟蹤器對原始點云進行體素劃分,能夠利用被跟蹤物體的整體信息,但是會受到點云特征壓縮后細節(jié)信息不突出的影響。以上兩類跟蹤器均受到了點云數據稀疏性導致的信息缺失影響,以及物體位置改變帶來的形變影響。

    針對上述問題,本文提出了體素級的提案聚合網絡(Proposal-based Aggregation Network, PA-Net),在利用被跟蹤物體整體信息實現區(qū)域提案后,進一步在最佳提案的感興趣區(qū)域(Region of Interest,RoI)精細化確定物體的中心。相較于傳統(tǒng)鳥瞰偽圖的生成形式,PA-Net通過將點云數據分割成空間中的柵格體素,并整合每個體素中的各個點生成統(tǒng)一特征表示,包含了更加豐富的幾何信息,更適合于三維目標跟蹤。PA-Net主要由3個模塊構成:1)模塊一設計為一個分離式注意力機制模塊,通過空間和跨通道注意力機制兩部分來增加感受野,豐富了原始點云稀疏的特征;2)模塊二用基于錨框的深度互相關孿生區(qū)域提案子網給出最佳提案,并給出了目標在搜索區(qū)域的整體方位;3)模塊三根據最佳提案提取感興趣區(qū)域目標特征,并提出了稀疏調制可變形卷積層,運用L1范數正則化,使得卷積核在擁有權重和偏移變量的同時受到稀疏矩陣的約束,更適應點云稀疏性的特征并解決了形變問題,在聚合預測結果后確定最終的邊界框中心及偏轉角度。在KITTI數據集上的實驗結果表明,與當前先進的三維點云單目標跟蹤方法相比,PA-Net對于各類物體,在跟蹤成功率和精確率兩個評價指標上都取得了更好的性能,并且對于同類物體,模型具備一定魯棒性。

    本文的主要工作如下:

    1)構建了從整體信息定位到精細化確定物體中心的體素級提案聚合網絡,解決了面向點云的三維單目標跟蹤問題。

    2)設計了稀疏調制可變形卷積層,并聯合分離式注意力機制模塊豐富了提取的特征,減少了由點云稀疏性帶來的負面影響,解決了跟蹤過程中的形變問題。

    3)設計了利用最佳提案聚合感興趣區(qū)域目標特征與模板特征來預測中心,實現了端到端的單階段輸出,避免了多階段網絡產生的計算冗余。

    1 相關工作

    1.1 孿生區(qū)域提案網絡

    基于孿生網絡的方法在可見光圖像跟蹤方面發(fā)展迅速,利用兩個權值共享分支,通過模板與搜索區(qū)域的相關性度量實現跟蹤。文獻[13]中提出了基于錨框定位的區(qū)域建議網絡,通過回歸中心以及邊界框長寬來確定跟蹤結果。改進孿生區(qū)域提案網絡SiamRPN++[14]在上述基礎上提出了一種深度可分離的相關結構,減少了參數量,增強了目標跟蹤的穩(wěn)定性和整體性能。由于二維圖像跟蹤中存在的尺度變換問題,往往利用兩階段的方法:對第一階段的回歸結果建立候選對象,第二階段在候選對象中進行進一步的結果確定。基于圖像的二維卷積網絡體系結構,無法直接應用于三維點云數據,首先需要通過體素特征提取的方式,將原始點云轉換為二維偽圖像。

    1.2 基于柵格的鳥瞰偽圖特征提取

    基于體素提取點云特征的網絡通常都用在三維點云目標檢測問題中。體素網絡VoxelNet[15]作為體素網絡里程碑式的方法,在三維目標檢測上取得了令人滿意的效果。Yan等[16]提出了SECOND(Sparsely Embedded CONvolutional Detection)稀疏卷積方法,利用稀疏卷積網絡提高了VoxelNet的計算效率。這兩種方法的特征提取過程需要用到三維卷積運算,對于時間和計算資源的消耗很大,很難應用于實時性要求強的跟蹤場景。

    Lang等[17]提出了一個名為點柵格PointPillars的檢測器,將原始點云通過柵格化的形式轉換成鳥瞰偽圖,在目標檢測問題的精度和速度上都有優(yōu)勢。PointPillars指出,在點云場景下,鳥瞰的俯視形式避免了前視、側視中帶來的遮擋,能夠盡量多地在二維空間中保留物體的位置信息。文獻[12]中將點云數據直接依照視圖形式轉換成鳥瞰圖像。本文方法的具體操作為:基于點柵格形式將原始點云轉化為二維偽圖像,相較于傳統(tǒng)的鳥瞰圖像擁有更豐富的幾何信息;利用PointPillars思想,通過保留深度范圍,不對該維度進行體素劃分,將方格體素轉變?yōu)闁鸥耋w素,來學習的點云特征;利用全連接網絡可以將深度方向的信息壓縮至單位柵格體素中,將學習到的點云特征編碼為二維偽圖像,在此基礎上可以實現二維卷積網絡體系結構的應用。借助此方法的初步點云特征提取能夠降低網絡計算的時間消耗,使其滿足三維單目標跟蹤的實時性要求。

    1.3 可變形注意力機制結構

    注意力機制的運用能夠幫助獲取所有輸入的全局依賴性以及更加詳細的信息[18]。雙流注意力機制網絡(Dual Attention Networks, DANet)方法[19]采用了雙重注意力模塊,同時考慮了每個空間位置和通道的相關性,成功運用在語義分割領域。Dai等[20]提出了可變形卷積網絡來處理目標檢測中的變形問題,為卷積核的每個點學習一個新的偏移量,有助于匹配對象的實際形狀,使得卷積區(qū)域始終覆蓋在目標周圍。Zhu等[21]在此基礎上進一步給卷積核的點施加額外的調制權重,以此來增加特征處理自由度,增強了網絡的表達能力。Yu等[22]結合了注意力機制和可變形卷積的優(yōu)點,提出了可變形注意力機制網絡(deformable Siamese attention networks,Siamattn),在基于可見光圖像的跟蹤問題中使用了一個可變形的注意力機制模塊,使得目標對干擾和背景具有更強的辨別力。受到上述方法啟發(fā),本文設計了一個新的分離式注意力模塊,對于卷積之前的特征從寬、高兩個維度分別運用注意力機制,以集成更多的空間信息,豐富特征。在卷積之后使用跨通道注意力模塊來融合更多的通道特征。為了更好適應特征稀疏的場景,對于調制可變形卷積的卷積核施加L1正則化約束,使得卷積核在受到偏移量、調制權重的約束下進一步變?yōu)橄∈杈仃嚒O∈枵{制可變形卷積層只在最終輸出層使用,在增強幾何信息的同時平衡時間消耗。

    2 提案聚合網絡模型

    真實場景下的點云三維單目標跟蹤是通過在第一幀給出目標及其位置的條件下,逐幀對搜索區(qū)域內的目標進行定位。提案聚合網絡PA-Net利用整體信息實現區(qū)域提案并聚合RoI的目標特征與模板進一步確定物體的中心。PA-Net由3個主要模塊組成,如圖1所示:1)分離式注意力機制模塊;2)基于錨框的深度互相關孿生區(qū)域提案子網;3)基于目標-模板聚合特征的稀疏調制可變形卷積子網。

    圖1 提案聚合網絡(PA-Net)的整體結構Fig. 1 Overall structure of Proposal-based Aggregation Network (PA-Net)

    2.1 點云特征提取

    原始點云中的每一個點的表達式是一個4維向量,分別由空間坐標位置(x,y,z)以及反射率r構成。首先為模板和搜索區(qū)域設置不同的裁剪區(qū)域范圍(x-y平面不同,z平面相同)保證網格大小相同。設置了范圍和網格大小,即確定了鳥瞰偽圖像的空間大小,詳見3.2.1節(jié)實驗設置。

    模板分支如圖2所示。將這些點按照其位置離散成不同的柵格,并將原始點的維度與柵格中所有點的算術平均值距離和從柵格中心到x-y平面的偏移進行拼接。對于每個柵格,形成維度為的特征向量,由于點云的稀疏性,包含的點的數量是不同的,根據不同的目標,將每根柱子上的最大點數設為45,如果數據量太少,則采用零填充,通過全連接網絡擴展特征后,獲得維度為的柵格特征,并按照柵格的位置索引重新填充至原來的空間位置,最終獲得形狀大小為(C,h,w)的模板鳥瞰偽圖以及形狀大小為(C,H,W)的搜索區(qū)域鳥瞰偽圖。

    圖2 點云柵格化特征提取Fig. 2 Rasterized feature extraction for point cloud

    2.2 分離式注意力機制模塊

    卷積神經網絡使用局部感受野進行特征的提取,沒有綜合考慮各個位置的聯系和相關性。對于通道間的相關性也應著重考慮,使用空間注意力機制能夠使每個位置都融合了其他空間位置信息。

    式中,以寬方向為例,通過卷積層將原始特征通道維度(C)壓縮至來獲取查詢鍵Q和重點鍵K并調整到形為(),通過矩陣乘法和列softmaxcol操作獲得寬自注意力特征AW。

    圖3 空間注意力機制模塊結構Fig. 3 Structure of spatial attention mechanism module

    值特征VW也通過卷積層生成,在調整形狀后與AW相乘并通過殘差連接將標量參數與原始特征相加,最終獲得寬維度自注意力特征FW,如式(2),同時重塑回原始形狀大小。

    同樣的做法下獲得高方向自注意力特征FH,最終通過元素加方式融合FH和FW得到空間自注意力特征XA。

    傳統(tǒng)通道注意力機制中,只考慮了單一的特征圖通道與通道間的關系;而在跟蹤過程中,文獻[22]中提出了一種融合模板與搜索區(qū)域通道注意力機制的方法,使得模板和搜索區(qū)域的每個通道融合了自身其他通道的信息。參照空間注意力機制的做法,能夠分別獲得模板以及搜索區(qū)域的跨通道注意力機制特征,如圖4所示。

    圖4 跨通道注意力機制模塊結構Fig. 4 Structure of cross-channel attention mechanism module

    卷積之前的特征圖,存在通道少但是寬高較大的特點,對于使用空間注意力機制更加有利,每個位置能融合更多位置的信息。而經過多次卷積后的特征圖則恰恰相反,將跨通道注意力機制運用到卷積后的特征圖,能夠融合到更多深層維度信息。因此將這兩部分分離,分別作用于卷積前后。

    2.3 基于錨框的深度互相關孿生區(qū)域提案子網

    模塊二的特征學習采用了自上而下的卷積結構生成多個分辨率生成特征,并使用跨通道注意力模塊融合模板和搜索區(qū)域信息,集成相應特征。在使用卷積神經網絡的方式提取圖像特征時,往往通過加深網絡層數、增加卷積核的大小的方式來換取特征通道數的增加,從而提取到更復雜的特征。這樣的做法不可避免地帶來了空間分辨率下降的缺陷,導致空間信息丟失。為了平衡這一特點的優(yōu)劣,本文采用多分辨率提取方法,在卷積下采樣提取特征的同時,針對產生的不同分辨率特征圖分別進行自注意力機制運算,最后在統(tǒng)一空間分辨率的基礎上,融合不同分辨率下的注意力特征,如圖5所示。

    對于原始特征圖,卷積神經網絡分別進行2倍、4倍以及8倍的下采樣,對于每一次卷積下采樣的特征圖,首先使用跨通道注意力機制模塊得到不同分辨率大小的注意力特征圖,隨后分別進行1倍、2倍以及4倍上采樣,從而能獲得3張高和寬大小為原始特征圖的一半、通道數為原始特征圖的4倍且空間分辨率一致的注意力特征圖。

    與傳統(tǒng)的串聯特征方式不同,參考文獻[14]中利用深度互相關層代替?zhèn)鹘y(tǒng)互相關,本文對于各個分辨率特征先進行互相關,如式(3)所示:

    式中:模板空間注意力特征ZA與搜索區(qū)域空間注意力特征XA在卷積塊嵌入函數的作用后在互相關層進行組合;“*”操作代表以ZA在空域上的特征映射作為卷積核,在XA空域特征映射上進行卷積操作,從而實現在空間區(qū)域搜索模板的操作;bc代表各個位置的偏差值。

    隨后通過分類融合卷積塊以及錨框偏移融合卷積塊,對于得到的前背景分類,從中確定前景置信度最高的最優(yōu)區(qū)域索引,根據該索引在錨框偏移中確定回歸變量從而可以確定最佳提案。設定預定義的錨框,可以使得訓練過程穩(wěn)定快速,詳見3.2.2節(jié)中的實驗設置。深度互相關的做法可以有效降低計算成本和內存使用,圖5中各個卷積塊的具體參數設置在表1中給出。

    2.4 基于目標-模板聚合特征的稀疏調制可變形卷積子網

    PA-Net在模塊二中獲得最佳提案后,在模塊三中利用感興趣區(qū)域池化在搜索區(qū)域注意力特征中確定物體所在位置。為了獲取物體在跟蹤過程中的狀態(tài)變化信息,將池化選擇的目標特征與原始模板特征在通道維度級聯,實現特征聚合來保證信息獲取的完整性。非剛性物體以及剛性物體朝向改變引起目標形變問題,使用傳統(tǒng)卷積中的固定卷積核難以覆蓋目標所在的完全區(qū)域得到詳細的幾何信息。在文獻[23]的啟發(fā)下,本文提出了稀疏調制可變形卷積,如圖6所示。

    圖5 卷積與深度互相關示意圖Fig. 5 Schematic diagram of convolution and deep cross-correlation

    表1 卷積模塊參數設置Tab. 1 Parameter setting of convolution modules

    對于輸入的聚合特征,實現三分支、相同大小預測圖的輸出,分別對應中心位置、中心偏差以及偏轉角度。根據中心位置的最佳預測,相對應地來確定最終邊界框的中心偏差大小以及偏轉角度。與此同時,中心偏差會聚合前一階段最佳提案的預測中心來確定物體最終的中心位置,以此實現精確化的中心定位。

    圖6 稀疏調制可變形卷積結構Fig. 6 Structure of sparse modulated deformable convolution

    2.5 損失函數

    模塊二中的分類損失Lcls參照了焦點損失[24]。首先,根據錨框的設定使用正閾值(positive_threshold)或者負閾值(negative_threshold)來匹配概率pa,如式(5)。在此基礎上設置了一個平滑的標記Ts,以此來增強分類的泛化能力,防止過度擬合。

    式中:Ts設定為0.01;Ia表示錨框與真實框的重合比例IoU(Intersection over Union)。通過Ts對pa的約束,可以改進得到本文使用的帶參數懲罰的焦點損失,如式(6):

    模塊二中的框回歸損失Lreg、模塊三中的中心損失Lctr以及角度損失Lrot,均使用SmoothL1損失函數[25]。模塊二中只對水平方向參數進行回歸來確定提案,如式(7)所示:

    稀疏調制可變形卷積中的L1正則化約束作為Lspa參與損失函數的運算,如式(10),權重wk參照式(4)。

    將上述所有損失匯總為提案聚合網絡的最終損失L,如式(11):

    3 實驗與結果分析

    3.1 實驗環(huán)境

    實驗在硬件環(huán)境為Inter Core i7-8700CPU @3.20 GHz、64 GB內存、Nvidia 1080Ti顯卡,軟件環(huán)境為Ubuntu16.04、Python3.7、Pytorch1.1.0的平臺上進行訓練和測試。

    實驗用的數據集基于KITTI跟蹤數據集[26],僅使用點云數據。利用21個室外場景和4種不同類型的目標物體測試了PA-Net的性能,為了公平比較實驗結果,在數據集分割、跟蹤序列生成和評估度量中均遵循了文獻[8]中的設置。數據集分為以下幾個部分:場景0~16用于訓練,場景17~18用于驗證,場景19~20用于測試。通過在一個場景中連接每一幀來生成跟蹤序列,在序列中跟蹤目標出現并提供真實邊界框(Ground Truth, GT)。在汽車(Car)類別上做了綜合性實驗,在其他的類別如貨車(Van)、騎車人(Cyclist)、行人(Pedestrian)上做了擴展性實驗,消融實驗在汽車類別上進行。評估指標設置為單目標跟蹤的一次評估(One Pass Evaluation, OPE)[27]。成功率被定義為預測框和GT之間的IoU的接受者操作特性(Receiver Operating Characteristic, ROC)曲線下面積(Area Under Curve, AUC)。精確率定義為0~2 m的誤差下中心之間歐氏距離的AUC。

    3.2 實驗設置

    3.2.1 柵格化細節(jié)

    對于汽車以及貨車類的三維空間范圍內的模板裁剪區(qū)域的水平范圍x、y設置為,高度范圍z設置為;搜索區(qū)域的水平范圍設置為,高度設置為;網格大小的水平分辨率為0.16 m。對于騎車人和行人,模板的裁剪區(qū)域水平范圍設置為;搜索區(qū)域的水平范圍設置為,高度范圍不變;相應的網格水平分辨率為0.04 m。

    3.2.2 錨框細節(jié)

    汽車和貨車的錨框的寬度、長度和高度設置為(1.60,3.90,1.56) m,在匹配操作中的正負閾值分別設置為0.60和0.45。對于行人,錨框的寬度、長度和高度為(0.60,0.80,1.73) m,正負閾值分別為0.70和0.35。騎車人的錨框寬度、長度和高度為(0.60,1.76,1.73) m,匹配使用0.50和0.35的正負閾值。

    3.2.3 訓練

    展會期間,多個全球印刷行業(yè)的重要會議及商會、協(xié)會等行業(yè)組織的行業(yè)交流活動會舉辦,展會形成了一個促進全球印刷行業(yè)交流發(fā)展的平臺。

    隨著跟蹤物體軌跡的變化,模板采集到的點云數量也會隨著跟蹤過程增加或減少,更新模板的過程會對跟蹤的實際效果產生影響。對于模板的更新策略,本文采用第一幀GT和上一幀預測框中的點云數據進行合并后采樣的融合更新策略(模板統(tǒng)一采樣點數量為512),如圖7所示,既保留了被跟蹤物體的初始信息,同時也融合進了目標跟蹤過程的狀態(tài)變化信息。為了增加訓練樣本,在上一個GT上添加微小的隨機偏移來擴充數據。

    圖7 模板點云合并采樣的融合結果(汽車)Fig. 7 Fusion result of merged sampling of template point cloud(Car)

    搜索區(qū)域樣本的采樣點數量統(tǒng)一為1 024,根據不同類別將上一幀的預測框的長寬進行固定大小的放大,具體為:汽車和貨車設置為2 m,騎車人設置為0.6 m,行人設置為0.3 m。訓練過程的優(yōu)化器使用Adam優(yōu)化器[28],初始學習率為0.001,經過10個周期后下降80%。批大小設置為16。PA-Net在大約100個周期后可以獲得令人滿意的結果,訓練中損失函數的收斂曲線如圖8所示。

    圖8 訓練與驗證中的損失函數曲線Fig. 8 Curves of loss in training and validation

    3.2.4 測試

    為了逐幀推斷跟蹤序列中的三維邊界框,首先將第一個GT中的點云數據作為模板,將后續(xù)預測結果中的點云與之相合并形成新的模板。與訓練過程相似,在當前幀中,將前一幀的搜索結果擴大了2 m(汽車和貨車)、0.6 m(騎車人)和0.3 m(行人)。

    3.3 綜合性實驗

    實驗選擇汽車類,在相同數據集劃分下將PA-Net與SC3D[7]、2D-SC3D[12]、P2B[8]以及3D-SiamRPN[11]進行比較,結果見表2。搜索區(qū)域分別基于對前一幀預測、前一幀GT或當前幀GT生成?;诋斍皫珿T與前一幀GT是理想化情況,在滿足實際跟蹤要求的前提下,對短期跟蹤性能進行評估。PA-Net在兩種理想情況下的性能都相較其他方法有了較大提高,可以看出PA-Net在短期跟蹤性能上擁有優(yōu)勢。

    重點討論真實跟蹤場景中使用前一幀測試的結果,不依賴于GT。從表2中可以看出,PA-Net無論在成功率還是精確率上都相較其他方法有所提高,分別將指標提高到59.0%、75.2%,相較于后一名的57.3%、75.0%,分別提升了1.7個百分點、0.2個百分點。以下所有實驗都是基于前一幀預測,以符合現實場景。

    3.4 擴展性實驗

    PA-Net在擴展性實驗上同樣取得了較好的效果,將其在汽車、貨車、騎車人和行人類別上同3.3節(jié)中列舉的方法進行了比較,如表3所示。由表3可以看出,PA-Net在所有類別上均優(yōu)于其他方法,4種類別的平均成功率、平均精確率分別為47.5%、67.7%,相較于后一名的46.7%、64.9%,分別提升了0.8個百分點、2.8個百分點。值得注意的是,PA-Net在貨車以及騎車人類上存在顯著優(yōu)勢,意味著PA-Net可以用更少的訓練數據來學習目標的整體并預測實際中心。

    為了測試模型的魯棒性,考慮到貨車與汽車相似,而騎車人類別可能包含行人的潛在信息,因此使用在汽車類上訓練的模型來測試貨車,使用在自行車上訓練的模型來測試行人,貨車的成功率、精確率分別為40.9%、48.3%,行人的成功率、精確率分別為33.0%、65.1%,相較于原始模型性能有一定下降,但也能反映出模型具有一定的魯棒性。

    表2 汽車類上不同方法的綜合性實驗結果Tab. 2 Comprehensive experimental results of different methods on Car

    表3 不同方法的多類別擴展性實驗結果Tab. 3 Extensive experimental results on different categories of different methods

    3.5 消融實驗

    針對PA-Net的特征豐富層以及聚合回歸層進行了5組消融實驗進行對比,結果如表4所示。表4中對特征豐富層的分離式注意力機制模塊進行了消融實驗,在聚合回歸層同為傳統(tǒng)卷積的情況下分別比較了特征豐富層使用無注意力機制的原始特征、將空間注意力機制和跨通道注意力機制并行使用下獲得的注意力特征,以及分離式注意力機制特征下汽車類別上的結果。通過比較可以發(fā)現,注意力機制進一步豐富了特征,為模型也提供了更多有效信息,提高了跟蹤精度。分離式注意力機制依照特征圖的特性而設計,相較單純地并行使用注意力機制性能有了進一步的提升。

    在特征豐富層使用分離式注意力機制的條件下,對聚合回歸層的稀疏調制可變形卷積使用進行消融實驗,見表4,對比了使用傳統(tǒng)卷積、調制可變形卷積以及本文的稀疏調制可變形卷積的最終結果。可以看出,可變形卷積的使用對于性能的提升較大,進一步驗證了物體在跟蹤過程中的形變問題主要反映在邊界框旋轉角度的變化以及非剛性體的運動狀態(tài)變化,通過改變卷積核形狀能夠使得感受野的覆蓋更加全面進而得到更精確的結果。同時,稀疏化權重矩陣所帶來的性能提升也表明,對于存在稀疏性問題的跟蹤任務,稀疏調制可變形卷積起到了改善效果。

    本文在特征豐富層使用分離式注意力機制、在聚合回歸層使用稀疏調制可變性卷積的組合方法取得了最佳的成功率和精確率,進一步驗證了本文方法在點云三維單目標跟蹤中能夠提升精確度。

    表4 PA-Net在汽車類上特征豐富層與聚合回歸層的消融實驗結果 單位:%Tab. 4 Ablation experimental results of PA-Net in feature enriching layer and aggregated regression layer on Car unit:%

    3.6 定性分析

    在圖9中給出了兩種不同場景下,PA-Net與P2B的汽車跟蹤結果。由圖9結果可以看出,無論是在點云密集還是稀疏分布場景下,PA-Net都取得了更好的結果,尤其是在稀疏場景中,PA-Net的預測框更貼近真實框,并且在位置上保持穩(wěn)定。在發(fā)生場景突變的情況下,從密集幀到稀疏幀,PA-Net比P2B更有優(yōu)勢,PA-Net的預測框比P2B的預測框更貼近目標中心。

    對于上述兩種場景,圖10給出了物體的實際跟蹤軌跡。圖10(a)展示了長時間跟蹤狀態(tài)下PA-Net、P2B的跟蹤軌跡與真實軌跡的對比結果,可以看出PA-Net的跟蹤軌跡更加貼近真實結果,且在過程中軌跡相對平滑,沒有發(fā)生突變,驗證了PA-Net跟蹤的穩(wěn)定性。圖10(b)所示為短時間跟蹤場景的軌跡,通過點狀圖更加細節(jié)地展示了物體中心的實際位置,可以看出PA-Net相較P2B能夠更加準確地貼近物體中心實現跟蹤,保持穩(wěn)定。

    圖9 汽車類上PA-Net與P2B的跟蹤結果可視化對比Fig. 9 Visual comparison of PA-Net and P2B tracking results on Car

    圖11給出了消融實驗不同特征豐富層下最終輸出得到的分類熱力圖。經過sigmoid函數約束后的中心位置預測值被約束到0~1,分為前景與背景兩類,越接近1代表是前景,即跟蹤物體中心的概率越大。從圖11(c)可以看出,在使用分離式注意力機制模塊下,目標預測圖中的熱力值范圍更加集中,表明引用注意力特征對于分類圖起到了積極影響,使得前景背景的區(qū)分更加清晰。

    圖10 汽車類上PA-Net與P2B的跟蹤軌跡Fig. 10 Tracking trajectories of PA-Net and P2B on Car

    圖11 不同特征豐富層作用下的分類熱力圖Fig. 11 Classification heat maps with different feature enriching layers

    對擴展性實驗的實際結果進行可視化,在不同輸出層作用下對于物體中心預測的實際結果如圖12所示。對比圖12(a)與圖12(b)可知,可變形卷積的使用使得對于物體中心的預測更加精準。對于點云分布較為稀疏的騎車人與貨車類別,由圖12(c)可知,稀疏調制可變形卷積的使用使得對于物體跟蹤的邊界框回歸成功率以及中心預測精確率都有所提升。

    對應圖12中的結果,表5給出了PA-Net預測的中心位置、中心補償以及偏轉角度,并將其與真實結果進行了對比。對于三維空間中物體的中心,分別預測在三個維度方向上的值來共同確定,通過提案前景最優(yōu)置信度最優(yōu)區(qū)域對應的中心回歸值,以及中心前景最優(yōu)置信度區(qū)域對應的中心補償值相加可以得到PA-Net預測的物體中心,比較真實中心點的位置,三個維度值的偏差均在10%以內。對于偏轉角度,采用弧度制預測,實際的角度偏差在16%。由此可見,PA-Net在對于跟蹤物體的中心預測以及邊界框偏轉角度的預測上可以滿足一定的精度要求。

    3.7 運行速度

    表6給出了汽車類別下不同方法的實際運行速度。所有方法采用相同環(huán)境,在單個Nvidia 1080ti上進行測試。由表6可以看出,在預處理階段3D-SiamRPN的運行最快,僅用時0.5 ms。由于PA-Net在預處理階段進行柵格體素切分生成偽圖,因此需要消耗較多時間,但在模型推理以及后處理模塊相較于其他兩種方法性能更優(yōu),消耗時間只需要5.6 ms以及0.3 ms??傮w上看,與P2B相比,PA-Net在總體運行速度上仍存在進一步提升的空間。

    圖12 不同輸出層作用下的物體邊界框以及中心預測Fig. 12 Prediction of object bounding box and center with different output layers

    表5 中心位置與偏轉角度預測的結果Tab. 5 Results of predicted center position and deflection angle

    表6 不同方法在汽車類上的運行速度Tab. 6 Running speeds of different methods on Car

    4 結語

    本文提出了一種解決點云三維單目標跟蹤問題的提案聚合網絡PA-Net,通過在最佳提案內定位物體的中心來確定三維邊界框實現跟蹤。本文方法利用分離式注意力機制模塊,采用空間和跨通道注意力機制豐富特征信息,并利用稀疏調制可變形卷積層針對模板和搜索區(qū)域深度互相關得到最佳提案預測物體中心,解決了點云稀疏以及形變的問題。所提網絡整體采用了單階段輸出形式,避免了計算冗余。實驗結果表明,PA-Net在不同實驗環(huán)境下都有較大的優(yōu)越性。但體素柵格化的處理方式增加了在預處理階段的耗時,在運行速度上PA-Net仍存在一定的提升空間。下一階段將研究提高預處理階段的運行效率并從點云數據中提取出更豐富和具有代表性的特征,在保證性能的同時,在更具挑戰(zhàn)性的環(huán)境下進行測試。

    [1] SMEULDERS A W M, CHU D M, CUCCHIARA R, et al. Visual tracking: an experimental survey [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(7): 1442-1468.

    [2] SHAO L, SHAH P, DWARACHERLA V, et al. Motion-based object segmentation based on dense RGB-D scene flow [J]. IEEE Robotics and Automation Letters, 2018, 3(4): 3797-3804.

    [3] ZHOU Y, WANG T, HU R H, et al. Multiple Kernelized Correlation Filters (MKCF) for extended object tracking usingX-band marine radar data [J]. IEEE Transactions on Signal Processing, 2019, 67(14): 3676-3688.

    [4] LI C L, ZHU C L, HUANG Y, et al. Cross-modal ranking with soft consistency and noisy labels for robust RGB-T tracking [C]// Proceedings of the 2018 European Conference on Computer Vision, LNCS 11217. Cham: Springer, 2018:831-847.

    [5] ZHU Y B, LI C L, TANG J, et al. Quality-aware feature aggregation network for robust RGBT tracking [J]. IEEE Transactions on Intelligent Vehicles,2021, 6(1): 121-130.

    [6] 王紅艷,鄭伶杰,陳獻娜.簡述激光雷達點云數據的處理應用[J].資源導刊,2015(S2):44-45.(WANG H Y, ZHENG L J, CHEN X N. Brief introduction of the processing application of the point cloud data of lidar [J]. Resources Guide,2015(S2): 44-45.)

    [7] GIANCOLA S, ZARZAR J, GHANEM B. Leveraging shape completion for 3D Siamese tracking [C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019:1359-1368.

    [8] QI H Z, FENG C, CAO Z G, et al. P2B: point-to-box network for 3D object tracking in point clouds [C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2020:6328-6337.

    [9] QI C H, YI L, SU H, et al. PointNet++: deep hierarchical feature learning on point sets in a metric space [C]// Proceedings of the 2017 31st International Conference on Neural Information Processing Systems. Red Hook: Curran Associates Inc., 2017: 5105-5114.

    [10] QI C H, LITANY O, HE K M, et al. Deep Hough voting for 3D object detection in point clouds [C]// Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE, 2019: 9276-9285.

    [11] FANG Z, ZHOU S F, CUI Y B, et al. 3D-SiamRPN: an end-to-end learning method for real-time 3D single object tracking using raw point cloud [J]. IEEE Sensors Journal, 2021, 21(4): 4995-5011.

    [12] ZARZAR J, GIANCOLA S, GHANEM B. Efficient tracking proposals using 2D-3D Siamese networks on LIDAR [EB/OL]. [2021-02-13]. https://arxiv.org/pdf/1903.10168v1.pdf.

    [13] LI B, YAN J J, WU W, et al. High performance visual tracking with Siamese region proposal network [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 8971-8980.

    [14] LI B, WU W, WANG Q, et al. SiamRPN++: evolution of Siamese visual tracking with very deep networks [C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019:4277-4286.

    [15] ZHOU Y, TUZEL O. VoxelNet: end-to-end learning for point cloud based 3D object detection [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018:4490-4499.

    [16] YAN Y, MAO Y X, LI B. SECOND: sparsely embedded convolutional detection [J]. Sensors, 2018, 18(10): Article No.3337.

    [17] LANG A H, VORA S, CAESAR H, et al. PointPillars: fast encoders for object detection from point clouds [C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019:12689-12697.

    [18] NAM H, HA J W, KIM J. Dual attention networks for multimodal reasoning and matching [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017:2156-2164.

    [19] FU J, LIU J, TIAN H J, et al. Dual attention network for scene segmentation [C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE,2019: 3141-3149.

    [20] DAI J F, QI H Z, XIONG Y W, et al. Deformable convolutional networks [C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017:764-773.

    [21] ZHU X Z, HU H, LIN S, et al. Deformable ConvNets v2: more deformable, better results [C]// Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2019:9300-9308.

    [22] YU Y C, XIONG Y L, HUANG W Let al. Deformable Siamese attention networks for visual object tracking [C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE,2020: 6727-6736.

    [23] 尚麗,蘇品剛,周燕.基于改進的快速稀疏編碼的圖像特征提?。跩].計算機應用,2013,33(3):656-659.(SHANG L, SU P G,ZHOU Y. Image feature extraction based on modified fast sparse coding algorithm [J]. Journal of Computer Applications, 2013, 33(3): 656-659.)

    [24] LIN T Y, GOYAL P, GIRSHICK Ret al. Focal loss for dense object detection [C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2017:2999-3007.

    [25] SHAH J, QURESHI I, DENG Y M, et al. Reconstruction of sparse signals and compressively sampled images based on smoothl1-norm approximation [J]. Journal of Signal Processing Systems, 2017, 88(3): 333-344.

    [26] GEIGER A, LENZ P, URTASUN R. Are we ready for autonomous driving? the KITTI vision benchmark suite [C]// Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2012: 3354-3361.

    [27] WU Y, LIM J, YANG M H. Online object tracking: a benchmark [C]// Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2013:2411-2418.

    [28] KINGMA D P, BA J L. Adam: a method for stochastic optimization [EB/OL]. [2021-02-03]. https://arxiv.org/pdf/1412.6980.pdf.

    Proposal-based aggregation network for single object tracking in 3D point cloud

    ZHUANG Yi, ZHAO Haitao*

    (School of Information Science and Engineering,East China University of Science and Technology,Shanghai200237,China)

    Compared with 2D RGB-based images, 3D point clouds retain the real and rich geometric information of objects in space to deal with vision challenge with scale variation in the single object tracking problem. However, the precision of 3D object tracking is affected by the loss of information brought by the sparsity of point cloud data and the deformation caused by the object position changing. To solve the above two problems, a proposal-based aggregation network composed of three modules was proposed in an end-to-end learning pattern. In this network, the 3D bounding box was determined by locating object center in the best proposal to realize the single object tracking in 3D point cloud. Firstly, the point cloud data of both templates and search areas was transferred into bird’s-eye view pseudo images. In the first module, the feature information was enriched through spatial and cross-channel attention mechanisms. Then, in the second module, the best proposal was given by the anchor-based deep cross-correlation Siamese region proposal subnetwork. Finally, in the third module, the object features were extracted through region of interest pooling operation by the best proposal at first, and then,the object and template features were aggregated, the sparse modulated deformable convolution layer was used to deal with the problems of point cloud sparsity and deformation, and the final 3D bounding box was determined. Experimental results of the comparison between the proposed method and the state-of-the-art 3D point cloud single object tracking methods on KITTI dataset show that: in comprehensive experiment of car, the proposed method has improved 1.7 percentage points on success rate and 0.2 percentage points on precision in real scenes; in multi-category extensive experiment of car, van, cyclist and pedestrian, the proposed method has improved the average success rate by 0.8 percentage points, and the average precision by 2.8 percentage points, indicating that the proposed method can solve the single object tracking problem in 3D point cloud and make the 3D object tracking results more accurate.

    point cloud; object tracking; Siamese network; attention mechanism; deformable convolution

    TP399

    A

    1001-9081(2022)05-1407-10

    10.11772/j.issn.1001-9081.2021030533

    2021?04?08;

    2021?06?17;

    2021?06?17。

    莊屹(1996—),男,上海人,碩士研究生,主要研究方向:目標檢測、目標跟蹤; 趙海濤(1974—),男,山東青島人,教授,博士,主要研究方向:模式識別、機器學習。

    ZHUANG Yi, born in 1996,M. S. candidate. His research interests include object detection, object tracking.

    ZHAO Haitao, born in 1974,Ph. D., professor. His research interests include pattern recognition, machine learning.

    猜你喜歡
    體素注意力物體
    基于超體素聚合的流式細胞術自動門控方法
    基于多級細分的彩色模型表面體素化算法
    讓注意力“飛”回來
    運用邊界狀態(tài)約束的表面體素加密細分算法
    深刻理解物體的平衡
    基于體素格尺度不變特征變換的快速點云配準方法
    我們是怎樣看到物體的
    “揚眼”APP:讓注意力“變現”
    傳媒評論(2017年3期)2017-06-13 09:18:10
    A Beautiful Way Of Looking At Things
    為什么同一物體在世界各地重量不一樣?
    禁无遮挡网站| 国产真实乱freesex| 一个人观看的视频www高清免费观看 | 国产99久久九九免费精品| 欧美乱码精品一区二区三区| 一区二区三区高清视频在线| 五月玫瑰六月丁香| 日本一二三区视频观看| 久久午夜综合久久蜜桃| 日本黄色视频三级网站网址| 日韩欧美三级三区| 毛片女人毛片| 国内精品久久久久精免费| 女同久久另类99精品国产91| 国产精品免费一区二区三区在线| 亚洲aⅴ乱码一区二区在线播放 | 日韩欧美一区二区三区在线观看| 一个人免费在线观看的高清视频| 亚洲精品久久国产高清桃花| 久久久久久久久久黄片| 99re在线观看精品视频| 叶爱在线成人免费视频播放| 日韩有码中文字幕| 91大片在线观看| 亚洲va日本ⅴa欧美va伊人久久| 亚洲成a人片在线一区二区| 欧美日韩亚洲综合一区二区三区_| 女人高潮潮喷娇喘18禁视频| 日韩免费av在线播放| 悠悠久久av| 国产一区二区三区视频了| av免费在线观看网站| 国产精品98久久久久久宅男小说| 久久精品亚洲精品国产色婷小说| 日本熟妇午夜| 亚洲一区中文字幕在线| 亚洲欧美精品综合一区二区三区| 亚洲专区字幕在线| 欧美性长视频在线观看| 国产精品免费视频内射| 国产三级中文精品| 欧美一区二区国产精品久久精品 | 在线观看舔阴道视频| 欧美又色又爽又黄视频| 久久人妻福利社区极品人妻图片| 国产97色在线日韩免费| 欧美日韩国产亚洲二区| 少妇人妻一区二区三区视频| 一个人观看的视频www高清免费观看 | 成人手机av| 午夜成年电影在线免费观看| av福利片在线观看| 99久久精品热视频| tocl精华| 精品高清国产在线一区| 女人高潮潮喷娇喘18禁视频| 我要搜黄色片| 免费看日本二区| 熟妇人妻久久中文字幕3abv| 亚洲国产看品久久| 一边摸一边抽搐一进一小说| 午夜精品一区二区三区免费看| 在线观看www视频免费| 免费电影在线观看免费观看| 操出白浆在线播放| 一本综合久久免费| 午夜a级毛片| 99热只有精品国产| 久久久国产精品麻豆| 毛片女人毛片| 国产成人精品久久二区二区免费| 亚洲精品在线观看二区| 日本免费a在线| 久久久国产成人精品二区| 一本综合久久免费| 久久婷婷人人爽人人干人人爱| 99国产精品一区二区蜜桃av| 亚洲国产中文字幕在线视频| 白带黄色成豆腐渣| 村上凉子中文字幕在线| 日本免费a在线| 精品午夜福利视频在线观看一区| 白带黄色成豆腐渣| 亚洲国产精品sss在线观看| 少妇裸体淫交视频免费看高清 | 色哟哟哟哟哟哟| 亚洲av美国av| 亚洲色图 男人天堂 中文字幕| xxx96com| 亚洲成人久久性| 麻豆国产97在线/欧美 | 黑人巨大精品欧美一区二区mp4| 国产精品久久久人人做人人爽| 久久久久国内视频| 淫妇啪啪啪对白视频| 99久久久亚洲精品蜜臀av| 亚洲国产欧洲综合997久久,| 在线看三级毛片| 国产午夜精品论理片| 国产成人系列免费观看| 欧美zozozo另类| 熟女少妇亚洲综合色aaa.| 在线十欧美十亚洲十日本专区| 村上凉子中文字幕在线| 1024视频免费在线观看| 国产精品一区二区免费欧美| 最好的美女福利视频网| 人成视频在线观看免费观看| 黄色a级毛片大全视频| 午夜视频精品福利| 一夜夜www| 欧美另类亚洲清纯唯美| 精品国产超薄肉色丝袜足j| av有码第一页| 精品欧美一区二区三区在线| 不卡一级毛片| 亚洲av日韩精品久久久久久密| 精品熟女少妇八av免费久了| 又黄又粗又硬又大视频| 色噜噜av男人的天堂激情| 久久精品成人免费网站| 夜夜躁狠狠躁天天躁| www.自偷自拍.com| 久久久久久久精品吃奶| 怎么达到女性高潮| 精品久久久久久,| 色播亚洲综合网| 精品第一国产精品| 亚洲精品在线观看二区| 黄频高清免费视频| 91麻豆av在线| 亚洲精品在线美女| 亚洲无线在线观看| 欧美成人免费av一区二区三区| 手机成人av网站| 99热只有精品国产| x7x7x7水蜜桃| 精品不卡国产一区二区三区| 国产欧美日韩精品亚洲av| 久久久精品国产亚洲av高清涩受| 757午夜福利合集在线观看| 国产不卡一卡二| 久久久久久久精品吃奶| 啦啦啦观看免费观看视频高清| 久久精品91蜜桃| 国产一区二区激情短视频| aaaaa片日本免费| 欧美性长视频在线观看| 99在线人妻在线中文字幕| 国产97色在线日韩免费| 亚洲精品一卡2卡三卡4卡5卡| 91麻豆精品激情在线观看国产| 成人av在线播放网站| 韩国av一区二区三区四区| 日韩 欧美 亚洲 中文字幕| 嫁个100分男人电影在线观看| 亚洲 欧美一区二区三区| 精品人妻1区二区| 成人午夜高清在线视频| 国产精品一区二区免费欧美| 国产野战对白在线观看| 青草久久国产| 免费在线观看视频国产中文字幕亚洲| 国产av不卡久久| 亚洲免费av在线视频| 老熟妇乱子伦视频在线观看| 亚洲中文av在线| 性欧美人与动物交配| 国产精品98久久久久久宅男小说| 老汉色av国产亚洲站长工具| 欧美成人免费av一区二区三区| 日本黄色视频三级网站网址| а√天堂www在线а√下载| 最近最新中文字幕大全电影3| 国产爱豆传媒在线观看 | 一区二区三区激情视频| 狠狠狠狠99中文字幕| 高清在线国产一区| 人人妻,人人澡人人爽秒播| 大型av网站在线播放| 淫妇啪啪啪对白视频| 女人高潮潮喷娇喘18禁视频| 后天国语完整版免费观看| 国产亚洲精品综合一区在线观看 | 免费在线观看日本一区| 色在线成人网| 日本一二三区视频观看| 亚洲自偷自拍图片 自拍| 1024香蕉在线观看| 精品欧美一区二区三区在线| 嫩草影视91久久| 色播亚洲综合网| 精品国内亚洲2022精品成人| 亚洲美女视频黄频| 麻豆成人午夜福利视频| 变态另类成人亚洲欧美熟女| 叶爱在线成人免费视频播放| 99精品在免费线老司机午夜| 巨乳人妻的诱惑在线观看| 禁无遮挡网站| 欧美绝顶高潮抽搐喷水| 国产精品日韩av在线免费观看| 欧美成人免费av一区二区三区| 色哟哟哟哟哟哟| 51午夜福利影视在线观看| 91大片在线观看| 国产男靠女视频免费网站| 色精品久久人妻99蜜桃| 中文字幕高清在线视频| 亚洲,欧美精品.| 国产精品亚洲av一区麻豆| 国产视频一区二区在线看| 国产一区二区三区在线臀色熟女| xxx96com| 久久婷婷人人爽人人干人人爱| 母亲3免费完整高清在线观看| 精品久久久久久久久久久久久| 91字幕亚洲| av超薄肉色丝袜交足视频| 99精品在免费线老司机午夜| 宅男免费午夜| 人妻久久中文字幕网| 悠悠久久av| 国产成人精品无人区| 怎么达到女性高潮| 久久精品国产清高在天天线| 欧美成人免费av一区二区三区| 亚洲成人久久性| 天天添夜夜摸| 精品一区二区三区av网在线观看| 国产成人系列免费观看| 久久久久性生活片| 两个人的视频大全免费| 1024视频免费在线观看| 岛国在线观看网站| 国内毛片毛片毛片毛片毛片| 99精品在免费线老司机午夜| 欧美黄色片欧美黄色片| 97超级碰碰碰精品色视频在线观看| 欧美成人午夜精品| 母亲3免费完整高清在线观看| 在线国产一区二区在线| 久久久久久久久久黄片| 丰满人妻熟妇乱又伦精品不卡| 此物有八面人人有两片| 别揉我奶头~嗯~啊~动态视频| 欧美激情久久久久久爽电影| 免费看美女性在线毛片视频| 看黄色毛片网站| 精品国产美女av久久久久小说| 97超级碰碰碰精品色视频在线观看| 动漫黄色视频在线观看| 色播亚洲综合网| 亚洲午夜理论影院| 麻豆国产97在线/欧美 | 亚洲成人精品中文字幕电影| 无人区码免费观看不卡| 三级国产精品欧美在线观看 | 亚洲男人的天堂狠狠| 嫩草影视91久久| 91国产中文字幕| 亚洲一区中文字幕在线| 我要搜黄色片| 韩国av一区二区三区四区| 一二三四社区在线视频社区8| 老司机福利观看| 男人舔女人的私密视频| 最近在线观看免费完整版| 岛国在线观看网站| 51午夜福利影视在线观看| 天堂av国产一区二区熟女人妻 | 欧美日韩亚洲国产一区二区在线观看| 人人妻人人澡欧美一区二区| 国产成人aa在线观看| 在线a可以看的网站| 叶爱在线成人免费视频播放| 亚洲国产欧美网| www.999成人在线观看| 日本三级黄在线观看| 午夜福利18| 亚洲欧美日韩高清专用| 熟女电影av网| 国模一区二区三区四区视频 | 美女免费视频网站| x7x7x7水蜜桃| 嫩草影视91久久| 一本一本综合久久| 国产精品久久久久久久电影 | 久久中文字幕一级| 亚洲国产日韩欧美精品在线观看 | 久久精品国产亚洲av香蕉五月| 日本撒尿小便嘘嘘汇集6| 亚洲中文字幕日韩| www.www免费av| 曰老女人黄片| 日韩av在线大香蕉| 日本熟妇午夜| 狠狠狠狠99中文字幕| 亚洲成av人片在线播放无| 亚洲av成人av| 91老司机精品| 精品国产美女av久久久久小说| 久久久久国产一级毛片高清牌| 欧美又色又爽又黄视频| 麻豆成人午夜福利视频| 成人av一区二区三区在线看| 午夜精品在线福利| 国产午夜福利久久久久久| 1024视频免费在线观看| 一级黄色大片毛片| 欧美成人一区二区免费高清观看 | 男人舔女人下体高潮全视频| 久久久久国产一级毛片高清牌| av天堂在线播放| 欧美人与性动交α欧美精品济南到| 精品不卡国产一区二区三区| 丝袜人妻中文字幕| 又紧又爽又黄一区二区| 18禁裸乳无遮挡免费网站照片| 久久久久国产精品人妻aⅴ院| 99国产综合亚洲精品| 看黄色毛片网站| 国产一区二区在线av高清观看| 日本一本二区三区精品| 亚洲精品色激情综合| 国产精品 欧美亚洲| 日韩 欧美 亚洲 中文字幕| 国产单亲对白刺激| 啦啦啦免费观看视频1| xxxwww97欧美| av天堂在线播放| 免费在线观看黄色视频的| 久久婷婷成人综合色麻豆| 18禁裸乳无遮挡免费网站照片| 国产精品1区2区在线观看.| 亚洲欧美一区二区三区黑人| 亚洲国产精品合色在线| 久久久久久久精品吃奶| 国产精品98久久久久久宅男小说| 18美女黄网站色大片免费观看| 免费无遮挡裸体视频| 亚洲av熟女| 成人永久免费在线观看视频| 性色av乱码一区二区三区2| 香蕉久久夜色| 日本a在线网址| 香蕉久久夜色| 51午夜福利影视在线观看| 国产成+人综合+亚洲专区| 欧美性猛交╳xxx乱大交人| 国产亚洲精品综合一区在线观看 | 白带黄色成豆腐渣| 国产精品久久视频播放| 亚洲成人免费电影在线观看| 青草久久国产| 每晚都被弄得嗷嗷叫到高潮| 成人av在线播放网站| 老司机靠b影院| 91国产中文字幕| 动漫黄色视频在线观看| 一级作爱视频免费观看| 嫩草影视91久久| 热99re8久久精品国产| 老熟妇仑乱视频hdxx| 麻豆国产av国片精品| 久久婷婷成人综合色麻豆| tocl精华| 久久精品人妻少妇| 国产视频内射| av国产免费在线观看| 91麻豆av在线| 国产av一区二区精品久久| svipshipincom国产片| 午夜a级毛片| 法律面前人人平等表现在哪些方面| 日韩精品免费视频一区二区三区| 一卡2卡三卡四卡精品乱码亚洲| 日韩 欧美 亚洲 中文字幕| 国产成人一区二区三区免费视频网站| 国产精品免费视频内射| 免费观看人在逋| 日韩欧美在线二视频| 97碰自拍视频| 十八禁人妻一区二区| 久久精品亚洲精品国产色婷小说| 午夜免费观看网址| 久久这里只有精品19| 搞女人的毛片| 老汉色av国产亚洲站长工具| 日本 欧美在线| 亚洲人成网站高清观看| 日本五十路高清| 亚洲av第一区精品v没综合| 午夜精品一区二区三区免费看| 2021天堂中文幕一二区在线观| 久久天躁狠狠躁夜夜2o2o| 一级毛片精品| 亚洲美女视频黄频| 久久这里只有精品19| 在线观看免费视频日本深夜| 亚洲无线在线观看| 国产久久久一区二区三区| 国产男靠女视频免费网站| 后天国语完整版免费观看| 婷婷精品国产亚洲av| 88av欧美| √禁漫天堂资源中文www| 三级国产精品欧美在线观看 | 又大又爽又粗| 在线十欧美十亚洲十日本专区| 亚洲av成人av| 国产成人啪精品午夜网站| www.自偷自拍.com| 国产精品久久视频播放| 久久久久免费精品人妻一区二区| 1024香蕉在线观看| 少妇的丰满在线观看| 一区二区三区激情视频| 亚洲七黄色美女视频| 日日摸夜夜添夜夜添小说| 在线观看一区二区三区| 在线观看免费午夜福利视频| 国产精品免费视频内射| 午夜福利免费观看在线| 级片在线观看| 精华霜和精华液先用哪个| 欧美日韩福利视频一区二区| 久久久久久久久中文| 99精品欧美一区二区三区四区| 欧美一级毛片孕妇| 少妇人妻一区二区三区视频| 丰满人妻熟妇乱又伦精品不卡| 日韩欧美三级三区| 黄色a级毛片大全视频| 国产主播在线观看一区二区| 欧美黄色淫秽网站| 18禁观看日本| 18禁裸乳无遮挡免费网站照片| 国产一级毛片七仙女欲春2| 国产真实乱freesex| 精品人妻1区二区| 色综合欧美亚洲国产小说| 久久精品aⅴ一区二区三区四区| 亚洲欧洲精品一区二区精品久久久| 波多野结衣高清作品| 真人做人爱边吃奶动态| 男女之事视频高清在线观看| 精品不卡国产一区二区三区| 日韩有码中文字幕| 搡老岳熟女国产| 精品久久久久久久久久久久久| 亚洲精品美女久久久久99蜜臀| 午夜日韩欧美国产| 免费人成视频x8x8入口观看| 欧美三级亚洲精品| 久久久久性生活片| 国产精品av视频在线免费观看| 国产精品一区二区免费欧美| 亚洲人成77777在线视频| 天天一区二区日本电影三级| 18禁美女被吸乳视频| 三级男女做爰猛烈吃奶摸视频| 国产精华一区二区三区| 亚洲 国产 在线| 又爽又黄无遮挡网站| 久久99热这里只有精品18| 啦啦啦观看免费观看视频高清| 色综合站精品国产| 欧美性长视频在线观看| 在线观看免费日韩欧美大片| 亚洲精品在线观看二区| 日本三级黄在线观看| 亚洲精品美女久久久久99蜜臀| 国内精品久久久久精免费| 成在线人永久免费视频| 一二三四在线观看免费中文在| 香蕉国产在线看| 久久久久亚洲av毛片大全| 亚洲avbb在线观看| 老汉色av国产亚洲站长工具| 亚洲自偷自拍图片 自拍| 国模一区二区三区四区视频 | 国产午夜精品久久久久久| 国产成+人综合+亚洲专区| 午夜福利在线观看吧| 久久久久久人人人人人| 欧美中文日本在线观看视频| 美女黄网站色视频| 91在线观看av| 在线观看午夜福利视频| 日韩精品青青久久久久久| 亚洲av电影不卡..在线观看| 一二三四社区在线视频社区8| 国产午夜精品论理片| 中国美女看黄片| 男人舔女人的私密视频| 亚洲国产中文字幕在线视频| 麻豆国产97在线/欧美 | 欧美日韩亚洲综合一区二区三区_| 国产精品1区2区在线观看.| 好男人在线观看高清免费视频| 国产亚洲精品第一综合不卡| 中文在线观看免费www的网站 | 欧美日韩精品网址| 欧美日韩一级在线毛片| 国产精品香港三级国产av潘金莲| 日本在线视频免费播放| 在线永久观看黄色视频| 黑人欧美特级aaaaaa片| 一进一出好大好爽视频| 成人18禁高潮啪啪吃奶动态图| 久久久久久久久久黄片| 黄色a级毛片大全视频| www.999成人在线观看| 国内精品久久久久精免费| 丁香欧美五月| 香蕉丝袜av| 亚洲狠狠婷婷综合久久图片| 特级一级黄色大片| 欧美在线一区亚洲| 小说图片视频综合网站| 欧美色视频一区免费| 久久欧美精品欧美久久欧美| 国产成人欧美在线观看| 久久精品aⅴ一区二区三区四区| 久久久久精品国产欧美久久久| 亚洲男人天堂网一区| 日日爽夜夜爽网站| 视频区欧美日本亚洲| 日韩国内少妇激情av| 色播亚洲综合网| 老司机在亚洲福利影院| 亚洲欧美一区二区三区黑人| 两性午夜刺激爽爽歪歪视频在线观看 | 亚洲七黄色美女视频| 成人高潮视频无遮挡免费网站| 黄频高清免费视频| 欧美精品啪啪一区二区三区| 欧美zozozo另类| 一二三四在线观看免费中文在| 亚洲精品久久国产高清桃花| 精品一区二区三区视频在线观看免费| 成年人黄色毛片网站| 日韩欧美 国产精品| 日本一区二区免费在线视频| 日韩欧美国产一区二区入口| 国产亚洲欧美98| av国产免费在线观看| 蜜桃久久精品国产亚洲av| 欧美午夜高清在线| 国产又黄又爽又无遮挡在线| 波多野结衣高清作品| 真人做人爱边吃奶动态| 亚洲九九香蕉| 色老头精品视频在线观看| 久久天躁狠狠躁夜夜2o2o| 999精品在线视频| 欧美成人免费av一区二区三区| АⅤ资源中文在线天堂| 成年版毛片免费区| bbb黄色大片| 日韩欧美一区二区三区在线观看| 亚洲国产日韩欧美精品在线观看 | 两个人视频免费观看高清| 99久久久亚洲精品蜜臀av| 亚洲男人的天堂狠狠| 露出奶头的视频| 国产亚洲精品久久久久久毛片| 成人国语在线视频| 99在线人妻在线中文字幕| 精品福利观看| 亚洲欧美激情综合另类| 无遮挡黄片免费观看| 制服丝袜大香蕉在线| 天天一区二区日本电影三级| 亚洲国产欧美一区二区综合| 国产精品久久久久久久电影 | 他把我摸到了高潮在线观看| 精品国内亚洲2022精品成人| 丝袜美腿诱惑在线| 曰老女人黄片| 欧美色视频一区免费| 婷婷亚洲欧美| 亚洲九九香蕉| 别揉我奶头~嗯~啊~动态视频| 日韩欧美 国产精品| 久久久久久亚洲精品国产蜜桃av| av天堂在线播放| 欧美极品一区二区三区四区| 美女黄网站色视频| 亚洲中文日韩欧美视频| 香蕉丝袜av| 在线观看66精品国产| a在线观看视频网站| 国产三级中文精品| 国产熟女午夜一区二区三区| 9191精品国产免费久久| 精品国产乱码久久久久久男人| 99久久国产精品久久久| 国产一区二区在线观看日韩 | 男女那种视频在线观看| 欧美黑人欧美精品刺激| 看黄色毛片网站| 天天添夜夜摸| 国产精品野战在线观看| 亚洲av电影在线进入| 日韩精品中文字幕看吧| 午夜福利在线观看吧| 大型黄色视频在线免费观看| 18禁裸乳无遮挡免费网站照片| 午夜两性在线视频| 免费在线观看黄色视频的| 久久国产乱子伦精品免费另类| 欧美成人免费av一区二区三区| 88av欧美|