• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    區(qū)域時間變化學(xué)習(xí)的行為識別

    2024-12-31 00:00:00楊興明徐浩汪智高旭杰吳克偉謝昭
    計算機(jī)應(yīng)用研究 2024年11期
    關(guān)鍵詞:深度學(xué)習(xí)

    摘 要:針對現(xiàn)有的行為識別方法缺少對視頻幀中區(qū)域級特征的學(xué)習(xí),造成識別過程中對相似的行為類別混淆的問題,提出一種區(qū)域級時間變化網(wǎng)絡(luò)。該網(wǎng)絡(luò)包括局部-全局時間特征學(xué)習(xí)模塊、區(qū)域語義學(xué)習(xí)模塊、區(qū)域語義融合模塊。局部-全局時間特征學(xué)習(xí)模塊學(xué)習(xí)局部時間注意力,以增強局部視頻幀的運動特征,并將其聚合為全局時間區(qū)域特征。區(qū)域語義學(xué)習(xí)模塊通過計算區(qū)域中像素之間的相似度來構(gòu)建可變化的區(qū)域語義卷積核,從而學(xué)習(xí)隨時間變化的行為語義特征。區(qū)域語義融合模塊將可變化區(qū)域特征和全局時間區(qū)域特征作為兩個獨立分支,分別學(xué)習(xí)每個分支特征的通道注意力用于特征融合。在Something-Something V1amp;V2與 Kinetics-400數(shù)據(jù)集上的實驗結(jié)果顯示,區(qū)域級時間變化網(wǎng)絡(luò)表現(xiàn)優(yōu)于多數(shù)行為識別方法,證明了該網(wǎng)絡(luò)能夠有效提升行為識別的性能。

    關(guān)鍵詞:行為識別; 區(qū)域級特征; 卷積神經(jīng)網(wǎng)絡(luò); 深度學(xué)習(xí)

    中圖分類號:TP389.1 文獻(xiàn)標(biāo)志碼:A

    文章編號:1001-3695(2024)11-043-3495-07

    doi:10.19734/j.issn.1001-3695.2024.01.0013

    Regional temporal changes learning for action recognition

    Yang Xingming, Xu Hao, Wang Zhiwen, Gao Xujie, Wu Kewei, Xie Zhao?

    (School of Computer Science amp; Information Engineering, Hefei University of Technology, Hefei 230601, China)

    Abstract:To solve the problem that existing action recognition methods lack the learning of regional-aware features in video frames, resulting in the confusion of similar action categories in the recognition process, this paper proposed a regional-aware temporal change network. This network included a local-global temporal feature learning module, a regional semantic lear-ning module, and a regional semantic fusion module. The local-global temporal feature learning module learned local temporal attention to enhance video frame features and aggregated them into global temporal region features. The regional semantic learning module constructed changeable region semantic convolution kernels by computing the similarity between pixels in the region to learn action semantic features over time. The regional semantic fusion module took the changeable regional features and global temporal regional features as two independent branches and learned the channel attention of each branch separately for feature fusion. Experiments on the Something-Something V1amp;V2 and Kinetics-400 datasets show that the regional-aware temporal change network performs better than most action recognition methods, proving that the network can effectively improve the performance of action recognition.

    Key words:action recognition; regional feature; convolutional neural network; deep learning

    0 引言

    行為識別是一項具有挑戰(zhàn)性的任務(wù),需要從視頻幀包含的不同語義的動作原子中識別出視頻中的行為語義,它已被廣泛應(yīng)用在視頻理解[1、視頻推薦和人-物交互2,3等領(lǐng)域。視頻中的動作包含一系列動作原子,動作原子的語義是通過分析動作的時間變化(包括移動的物體或人員)來解釋的,而物體(或人)會不斷改變其動作,導(dǎo)致不同時刻的動作原子語義不同?,F(xiàn)有的行為識別方法大多通過提取整個視頻幀的特征來判定視頻行為類別,卻忽略了學(xué)習(xí)視頻幀中區(qū)域級特征。這些方法主要分為基于卷積的方法和基于Transformer的方法。基于卷積的方法可通過時間分段后聚合[4、時間平移5,6和時間擴(kuò)張卷積7描述時間變化,以解釋視頻的行為語義。時間變化在一定程度上表現(xiàn)為視頻的運動特征[8,許多工作也嘗試學(xué)習(xí)運動特征來提高模型的時間表達(dá)能力。文獻(xiàn)[9, 10]通過設(shè)計時差模塊學(xué)習(xí)運動特征,Wang等人[11利用視頻的相關(guān)性來提取特征。為了選擇與動作相關(guān)的時空區(qū)域,一些方法通過時空補丁選擇12和前景提取13,使模型更多地關(guān)注視頻幀中物體的運動區(qū)域。同時,還有一些工作6,14~18使用不同類型的時間注意力增強運動相關(guān)特征。這些方法大多基于二維卷積,在學(xué)習(xí)長時間視頻幀的特征時仍存在困難?;谌S卷積的方法可以捕捉局部時間間隔內(nèi)多個幀的動作特征,它們通過膨脹二維卷積核[19、多視圖三維卷積20等方式將卷積神經(jīng)網(wǎng)絡(luò)擴(kuò)展至?xí)r間維度。這些方法通過簡單堆疊多層三維卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的局部特征得到全局時間特征,然而特征在多層網(wǎng)絡(luò)傳播過程中會逐層損失,導(dǎo)致它們難以關(guān)注到區(qū)域間細(xì)小的時間變化?;赥ransformer的方法[21~23可以捕捉全局序列中幀與幀之間的時間關(guān)系,但對幀中的所有區(qū)域都計算它們之間的自注意力,在產(chǎn)生巨大計算量的同時,模型更容易關(guān)注冗余的空間區(qū)域,而不是隨時間變化行為語義區(qū)域。此外還有一些方法不同于完全有監(jiān)督訓(xùn)練方式,嘗試以自監(jiān)督[24和弱監(jiān)督25的方式探索行為識別學(xué)習(xí)的新范式。

    上述方法忽略了學(xué)習(xí)視頻幀中的區(qū)域級特征,沒有分析區(qū)域特征在時間上的變化,可能無法關(guān)注到視頻幀中全部的動作原子,從而影響視頻的行為識別。為解決以上問題,本文提出了一個區(qū)域級時間變化網(wǎng)絡(luò)(regional-aware temporal change network,RTCNet),該網(wǎng)絡(luò)首先通過局部時間增強關(guān)注幀之間較小的動作變化,為了學(xué)習(xí)全局時間關(guān)系,使用ConvLSTM[26(convolutional long short term memory)對局部增強特征進(jìn)行聚合,以捕捉全局時間區(qū)域特征。為了分析區(qū)域特征的時間變化,本文通過學(xué)習(xí)區(qū)域像素之間的相似度,構(gòu)建可變化的區(qū)域語義卷積核,用于學(xué)習(xí)區(qū)域語義特征,然后對區(qū)域語義特征和全局時間區(qū)域特征進(jìn)行融合。

    如圖1所示,(a)為行為類別“將某物插入某物,隨后拔出”的一個視頻幀序列,該行為擁有三種動作原子語義,分別是“使某物靠近某物”(藍(lán)色區(qū)域,見電子版,下同)、“將某物插入某物”(綠色區(qū)域)、“將某物拔出”(黃色區(qū)域)。分別使用TSM[5與本文方法對該視頻進(jìn)行識別,在(b)和(c)中分別展示了兩個網(wǎng)絡(luò)識別結(jié)果中得分最高的三個行為類別(Ⅰ為正確類別,Ⅱ、Ⅲ為錯誤類別)和它們對幀序列中不同動作原子語義相關(guān)區(qū)域的關(guān)注度。從圖1(b)中可以看到,TSM只學(xué)習(xí)到了藍(lán)色區(qū)域動作原子對應(yīng)的語義特征,并將其用于解釋視頻的行為語義,導(dǎo)致把動作錯誤地判定為相近行為類別Ⅱ。在圖1(c)中,本文方法通過學(xué)習(xí)全局區(qū)域特征,使得模型關(guān)注區(qū)域覆蓋了整個視頻幀序列,并通過可變時間區(qū)域?qū)W習(xí),加強了對關(guān)鍵動作相關(guān)區(qū)域的關(guān)注,尤其是黃色區(qū)域的動作原子,本文方法成功學(xué)習(xí)到了圖中物體逐漸遠(yuǎn)離的時間變化,從而能夠捕捉到“將某物拔出”這一行為語義,在正確類別上的得分最高,作出了正確的類別判定。

    本文的貢獻(xiàn)可總結(jié)如下:a)提出一種用于行為識別的區(qū)域級時間變化網(wǎng)絡(luò),包括局部-全局時間特征學(xué)習(xí)、區(qū)域語義學(xué)習(xí)、區(qū)域語義融合三個模塊;b)設(shè)計了局部-全局時間特征學(xué)習(xí)模塊,關(guān)注于為區(qū)域特征學(xué)習(xí)提供局部和全局時間描述能力;c)設(shè)計了區(qū)域語義學(xué)習(xí)模塊,關(guān)注于學(xué)習(xí)隨著時間變化的區(qū)域語義卷積核,用于描述隨著時間變化的行為語義特征;d)設(shè)計了區(qū)域語義融合模塊,自適應(yīng)融合可變化的區(qū)域特征和全局時間區(qū)域特征。

    1 方法

    圖2給出了本文提出的區(qū)域級時間變化網(wǎng)絡(luò)(RTCNet),它將局部-全局時間特征學(xué)習(xí)模塊(local-global temporal feature learning module,L-GTFL)、區(qū)域語義學(xué)習(xí)模塊(regional semantic learning module,RSL)、區(qū)域語義融合模塊(regional semantic fusion module,RSF)與ResNet50[27結(jié)合。a)局部-全局時間特征學(xué)習(xí)模塊,包含局部時間增強、全局時間記憶兩部分。局部時間增強操作通過差分注意力的方式,抑制連續(xù)幀之間相似的靜態(tài)外觀特征,來捕獲連續(xù)幀之間的微小變化。全局時間記憶操作使用ConvLSTM[26結(jié)構(gòu)聚合長時間的空間特征,來描述區(qū)域特征的全局時間變化。b)區(qū)域語義學(xué)習(xí)模塊利用連續(xù)兩幀局部區(qū)域中的像素匹配關(guān)系,學(xué)習(xí)在不同區(qū)域上可變的卷積核,來解釋不同區(qū)域具有的不同行為語義。c)區(qū)域語義融合模塊融合區(qū)域可變化特征和區(qū)域全局時間特征權(quán)重,增強區(qū)域中行為語義特征。本文從每個視頻中采樣獲取視頻幀序列,并將整個序列映射為一個時空特征圖X∈?T×C×H×W作為整個網(wǎng)絡(luò)的輸入,其中T、C、H、W分別表示特征圖的幀數(shù)、通道數(shù)、高度和寬度。

    1.1 局部-全局時間特征學(xué)習(xí)

    圖3展示了局部-全局時間特征學(xué)習(xí)模塊的結(jié)構(gòu),包括局部時間增強(local temporal enhancement,LTE)與全局時間記憶(global temporal memory,GTM)兩個模塊。局部時間增強模塊通過關(guān)注相鄰幀中較小變化的區(qū)域,學(xué)習(xí)局部時間注意力,并用于增強時間特征,全局時間記憶模塊通過記憶視頻幀序列中的特征變化學(xué)習(xí)全局時間區(qū)域特征。

    1.1.1 局部時間增強(LTE)

    局部時間特征描述了相鄰幀之間的時間語義變化,它實際更多地關(guān)注基于外觀的特征,并且可能會忽略變化較小的區(qū)域。局部時間增強模塊捕獲兩個連續(xù)幀之間的特征變化,將這種變化描述為物體的運動特征。運動特征是對外觀特征的補充,將其估計為局部時間注意力,能夠進(jìn)一步激活原本時間變化較小的區(qū)域特征。

    對于給定的視頻幀輸入特征序列X∈? T×C×H×W,首先使用幀間差分,將特征在時間維度上偏移一個時間步獲得Xt+1,與原特征序列相減,用于估計兩個連續(xù)幀之間的空間特征變化??臻g特征變化經(jīng)過全局平均池化(global average pooling,GAP)學(xué)習(xí)一個通道級特征向量,可以描述每幀中的通道語義。將所有幀的通道向量匯總表示為通道的特征注意力矩陣A=GAP(Xt+1-X)∈? T×C。為了增強各幀通道向量之間的特征交互,從而更好地學(xué)習(xí)通道注意力,在時間維度T上對通道向量上使用一維卷積加強跨通道學(xué)習(xí)。之后對注意力矩陣使用sigmoid函數(shù),得到A′=2·sigmoid(conv1d(A))-1∈? T×C。特征注意力矩陣通過元素級(element-wise)乘法用于激活特征的每個通道,從而學(xué)習(xí)運動特征。最后使用殘差操作融合原始輸入特征與激活后特征,可以保留基于外觀的特征。具體地,將幀序列其中一幀特征表示為xt∈X,對應(yīng)的特征注意力為a′t∈A′,特征注意力用于激活幀特征,則局部時間增強特征可表示為

    局部時間增強模塊的輸出包含所有幀的特征Xlocal={xlocalt}。

    1.1.2 全局時間記憶(GTM)

    全局時間特征可用于描述視頻幀序列中的長期語義變化,這種變化對動作的解釋可能與相鄰幀之間的時間語義變化不一致,而行為識別更多地需要考慮整個視頻來解釋行為類別。因此,本文提出全局時間記憶模塊,利用學(xué)習(xí)到的局部時間增強特征聚合全局時間區(qū)域特征。為了描述時空特征中的語義變化,全局時間記憶使用ConvLSTM[26的記憶機(jī)制,其中的記憶單元(memory cell)可以選擇每一幀的空間特征區(qū)域,視頻幀序列的局部時空特征可通過記憶機(jī)制進(jìn)行聚合。

    具體地,對局部時間增強特征Xlocal,首先使用1×1卷積壓縮特征通道數(shù)X′local=conv1×1(Xlocal)∈? T×C′×H×W,使用兩個分支來學(xué)習(xí)不同的語義,最大池化分支用于選擇最顯著的時空區(qū)域特征,三維卷積分支用于聚合不同時空位置的區(qū)域特征,合并兩個分支的特征后得到具有不同類型時空特征表示X″local=concat(maxpooling(X′local),conv3×3×3(X′local))。然后,使用ConvLSTM聚合時空特征表示,ConvLSTM中的記憶單元(me-mory cell)使用二維卷積操作,能夠保留特征的空間結(jié)構(gòu),同時將記憶單元中的特征傳遞給整個視頻特征序列,從而學(xué)習(xí)整個幀序列的時空特征。若將全部特征輸入到ConvLSTM中,會導(dǎo)致網(wǎng)絡(luò)模型計算量過大,不利于訓(xùn)練優(yōu)化。為解決這個問題,本文劃分部分特征用于捕獲全局時空特征,劃分比例由參數(shù)α控制。將全局時空特征表示為Xlong=X″local,1:aC,其余特征為X″local,αC′+1:C,每幀的時間特征表示為xlong,t∈Xlong,經(jīng)過Conv-LSTM輸出的全局時間特征可表示為

    然后將劃分的全局時間特征與剩余的特征合并,使用卷積恢復(fù)壓縮的通道,并使用殘差連接保留最初的局部時間增強特征,得到最終的全局時間區(qū)域特征X′global,過程如式(3)所示。

    1.2 區(qū)域語義學(xué)習(xí)

    圖4展示了區(qū)域語義學(xué)習(xí)模塊的結(jié)構(gòu)。區(qū)域語義學(xué)習(xí)模塊(regional semantic learning,RSL)主要關(guān)注學(xué)習(xí)不同區(qū)域的時間變化語義,它從兩個相鄰幀特征中學(xué)習(xí)可變化的區(qū)域語義卷積核,用于捕獲各區(qū)域的時間變化。

    圖5說明了視頻幀中不同區(qū)域具有不同的行為語義。在圖5(a)中,紅色框標(biāo)注了變化的行為語義,區(qū)域中特征存在較明顯的變化(參見電子版)。白色框標(biāo)注了視頻幀的背景區(qū)域,區(qū)域中的特征相對穩(wěn)定。在圖5(b)中,普通卷積不考慮區(qū)域中的特征變化,使用與區(qū)域無關(guān)的固定卷積核。此時,難以全面地描述變化的特征。在圖5(c)中,本文方法考慮區(qū)域中像素的匹配關(guān)系,設(shè)計可變化的卷積核。此時,視頻幀中的不同區(qū)域,由于具有不同的像素匹配關(guān)系,能夠?qū)W習(xí)到不同的卷積核。本文方法能夠更好地響應(yīng)變化區(qū)域的內(nèi)容。在圖5(d)中,給出TSM[5的可視化熱圖。TSM使用普通卷積,造成在第7幀、第8幀時,對語義變化區(qū)域沒有很好的響應(yīng),從而忽略了行為發(fā)生過程的特點,造成行為類別錯誤識別為“將某物插入某物”。在圖5(e)中,給出了本文方法的可視化熱圖。本文方法使用可變卷積,有效捕獲了第7幀、第8幀的行為語義。本文方法可以糾正TSM的錯誤行為識別結(jié)果,成功識別為“將某物插入某物,隨后拔出”。

    為了描述區(qū)域語義,受到Li等人[28在圖像領(lǐng)域研究的啟發(fā),區(qū)域語義學(xué)習(xí)模塊使用局部區(qū)域中像素之間的相似度關(guān)系作為區(qū)域語義卷積核。與固定卷積核不同,區(qū)域語義卷積核隨著視頻幀特征的變化而改變,可以自適應(yīng)地學(xué)習(xí)區(qū)域語義。由于視頻數(shù)據(jù)的復(fù)雜性,一個語義區(qū)域內(nèi)可能包含多個語義,本文將它們表示為多個區(qū)域卷積核。這些區(qū)域卷積核最終用于特征卷積操作,幫助模型更好地捕捉區(qū)域語義變化。

    區(qū)域語義學(xué)習(xí)模塊的輸入為局部-全局時間特征學(xué)習(xí)模塊的輸出。對輸入的全局時間區(qū)域特征x′global,t∈X′global,經(jīng)過分組的3×3卷積調(diào)整空間位置,再與下一幀的特征x′global,t+1∈X′global合并,并使用卷積調(diào)整合并后的通道數(shù),得到同時具有相鄰兩幀區(qū)域特征的xregiont=conv1×1(concat(conv3×3(x′global,t),x′global,t+1))。在區(qū)域特征的k×k的局部區(qū)域內(nèi),通過學(xué)習(xí)局部區(qū)域中心像素與區(qū)域內(nèi)其他像素的關(guān)系,使得中心像素的區(qū)域語義中含有k×k組像素間關(guān)系。針對每個區(qū)域可能包含的多個語義,使用多個區(qū)域卷積核分別代表不同的語義,卷積核數(shù)量為Ch。具體過程為,對經(jīng)過1×1卷積的視頻幀,將其中一個中心像素作為鍵(key)特征,將中心像素對應(yīng)的k×k區(qū)域內(nèi)其他像素作為查詢(query)特征,公式表示如下:

    Euclid ExtraaBp1×C(4)

    其中:Wch表示卷積參數(shù);°表示卷積操作。然后,與文獻(xiàn)[29]類似,利用點乘計算中心像素與區(qū)域內(nèi)每個像素的關(guān)系,使用softmax函數(shù)對點乘進(jìn)行縮放,縮放比例設(shè)置為dr=C。具體地,取第t幀的一個中心像素點(h,w),其中h∈[1,H],w∈[1,W],與其相鄰區(qū)域中的像素點(u,v)∈neighborh,w,像素之間關(guān)系的學(xué)習(xí)過程如下:

    則第t幀中的多個區(qū)域卷積核可表示為

    在得到可變化的區(qū)域語義卷積核后,利用區(qū)域卷積核對全局時間區(qū)域特征進(jìn)行分組卷積,具體做法是先將原始輸入特征經(jīng)過1×1卷積映射為xgroupt=conv1×1(x′global,t),然后將特征分為與卷積核數(shù)量相同的Ch組,用ch表示組序號,則第ch組特征可記為xcht=xgroupt,ch,組序號ch∈[1,…,Ch],每組特征通道數(shù)為C/Ch。xcht通過特征分組序號選擇對應(yīng)的區(qū)域卷積核relationcht進(jìn)行卷積操作,以捕獲特定區(qū)域中的語義,之后將所有特征拼接合并,得到區(qū)域語義特征xsemt,這個過程可表示為

    1.3 區(qū)域語義融合

    圖6展示了區(qū)域語義融合模塊的結(jié)構(gòu)。區(qū)域語義融合模塊將可變區(qū)域特征和全局時間區(qū)域特征作為兩個獨立分支,通過學(xué)習(xí)每個分支特征的通道注意力進(jìn)行區(qū)域特征融合,最終得到區(qū)域增強的語義特征。區(qū)域語義融合模塊的兩個分支輸入分別對應(yīng)圖4中區(qū)域語義學(xué)習(xí)模塊的兩個輸出,即區(qū)域語義特征xsemt與分組3×3卷積后的全局時間區(qū)域特征conv3×3(x′global,t)。首先將兩個分支簡單相加為x′sem,t=xsemt+conv3×3(x′global,t),對結(jié)果使用全局平均池化后經(jīng)過1×1卷積跨通道學(xué)習(xí),得到具有跨通道的語義向量asemt=conv1×1(GAP(x′sem,t))∈? C′×1。然后使用兩個卷積層將通道向量再次劃分為兩個分支進(jìn)行通道選擇,經(jīng)過softmax歸一化后用于特征增強。將卷積層參數(shù)表示為W1、W2,則兩個分支的在通道c上的注意力可分別表示為

    其中:°代表卷積操作。兩種注意力被用來增強該分支上的通道級語義,雙分支注意力用于選擇與行為識別相關(guān)的兩個分支的語義,如式(9)所示。

    最終輸出區(qū)域增強的語義特征為Xsel={xselt,c}。

    1.4 模型實現(xiàn)

    RTCNet使用ResNet50[27作為主干網(wǎng)絡(luò),將局部-全局時間特征學(xué)習(xí)模塊、區(qū)域語義特征學(xué)習(xí)模塊和區(qū)域語義特征融合模塊與ResNet50結(jié)構(gòu)相結(jié)合。在ResNet50的Stage2-5中,RTCNet對其中的每個Bottleneck進(jìn)行改造。在第一個1×1卷積之前,先使用可學(xué)習(xí)的時間平移操作[6,之后添加局部-全局時間特征學(xué)習(xí)模塊,來描述區(qū)域特征的局部-全局時間變化。在兩個1×1卷積之間,添加區(qū)域語義特征學(xué)習(xí)模塊和區(qū)域語義融合模塊,用于捕獲區(qū)域中的行為語義特征。在第二個1×1卷積之后,使用殘差連接,對時間平移操作后的特征和區(qū)域中的行為語義特征求和。在stage5后,使用一個全連接層作為分類器,計算每個視頻幀在不同類別上的得分。最后,RTCNet計算視頻所有幀的平均得分,用于行為類別的判斷。

    區(qū)域級時間變化模塊流程如下:

    輸入:視頻幀特征。

    輸出:區(qū)域增強的語義特征。

    a)使用局部時間增強模塊,得到局部時間增強特征" //式(1)

    b)使用全局時間記憶模塊,得到全局時間區(qū)域特征" //式(2)(3)

    c)使用區(qū)域語義學(xué)習(xí)模塊,得到區(qū)域語義特征" //式(4)~(7)

    d)使用區(qū)域語義融合模塊,得到區(qū)域增強的語義特征" //式(8)(9)

    最后將輸出的區(qū)域增強的語義特征用于后續(xù)的分類。

    2 實驗

    2.1 數(shù)據(jù)集與實驗設(shè)置

    本文在行為識別的三個公開數(shù)據(jù)集上進(jìn)行實驗。Something-Something V1數(shù)據(jù)集[2包含108 499個視頻片段,涵蓋174個動作類別。Something-Something V2數(shù)據(jù)集[2是對Something-Something V1數(shù)據(jù)集的擴(kuò)展,它包含220 847個視頻片段,涵蓋174個動作類別,視頻片段的平均時長為4 s。Something-Something 數(shù)據(jù)集是對不同物體執(zhí)行相同動作收集的,更多地通過學(xué)習(xí)物體的時間特征識別動作類別。Kinetics-400[1包含300k個視頻片段,涵蓋400個動作類別,視頻片段的平均時長為10 s。Kinetics-400數(shù)據(jù)集是從與日常生活相關(guān)的YouTube視頻中收集而來,動作類別與物體和場景特征高度相關(guān)。本文按照文獻(xiàn)[5]的方式對這三個數(shù)據(jù)集劃分訓(xùn)練集和測試集。

    在訓(xùn)練階段,本文使用文獻(xiàn)[4]的稀疏采樣方法,從每個視頻片段中提取T幀(在實驗中,T=8 或T=16)。將視頻幀的較短邊調(diào)整為256,利用中心裁剪和縮放抖動,最終將形狀為 224 ×224 ×3 的裁剪圖片輸入網(wǎng)絡(luò)。對于局部-全局時間特征學(xué)習(xí)模塊中的全局時間記憶模塊,參考文獻(xiàn)[15],設(shè)置壓縮后特征通道數(shù)C′=C/16,將通道比例參數(shù)α設(shè)置為0.5。區(qū)域語義學(xué)習(xí)模塊中,將學(xué)習(xí)的區(qū)域語義卷積核數(shù)量Ch設(shè)為8。網(wǎng)絡(luò)最后分類層的學(xué)習(xí)率和權(quán)重衰減為stage 2~5的5倍。實驗按照文獻(xiàn)[30]設(shè)置超參數(shù),在Something-Something v1和Something-Something v2數(shù)據(jù)集上,將批處理大小、初始學(xué)習(xí)率、權(quán)重衰減和dropout分別設(shè)為64、0.02、5E-4和0.5,在Kinetics-400數(shù)據(jù)集上,這些超參數(shù)分別設(shè)置為64、0.01、1E-4和0.5。在三個數(shù)據(jù)集上均使用小批量隨機(jī)梯度下降作為優(yōu)化器,共訓(xùn)練50個epoch,并在第30、40、45個epoch將學(xué)習(xí)率縮減為原本的1/10。

    在測試推理階段,本文采用兩種推理策略:

    a)策略1(T frames×1 crop×1 clip):從視頻中采樣1個T幀的剪輯,將剪輯中心裁剪為224×224大小。使用該策略可以快速地完成推理。

    b)策略2(T frames×3 crops×10 clips):從視頻中均勻采樣10個(Kinetics-400為10個,其他數(shù)據(jù)集為2個)剪輯,每個剪輯包含T幀,每幀以256×256大小進(jìn)行3次采樣,對所有剪輯的類別分?jǐn)?shù)取平均值最終得到每個視頻的分類得分。使用該策略可以獲得更精準(zhǔn)的分類結(jié)果,但由于進(jìn)行多次采樣,推理速度較慢。

    實驗使用一臺服務(wù)器,服務(wù)器CPU為Intel Core i9-10900X。在訓(xùn)練階段,使用四張NVIDIA GeForce RTX 3090顯卡。在測試推理階段,使用單張NVIDIA GeForce RTX 3090顯卡。實驗使用Ubuntu 18.04操作系統(tǒng),使用PyTorch框架實現(xiàn)網(wǎng)絡(luò)模型。

    2.2 對比實驗

    表1展示了本文方法在Something-Something V1amp;V2數(shù)據(jù)集上與其他現(xiàn)有先進(jìn)方法的對比實驗結(jié)果,比較內(nèi)容包括不同推理策略下模型計算量(FLOPS)、模型參數(shù)量(Param)與top-1和top-5的分類準(zhǔn)確率,—表示該論文未報告此數(shù)據(jù)。SAM-STI[31使用三維時空注意力增強時間特征,ST-Adapter[32與TPS[22為基于Transformer的方法,它們采用自注意力進(jìn)行長序列的時空建模。與本文相似,STDN[33與GSF[34通過改進(jìn)二維卷積神經(jīng)網(wǎng)絡(luò)以增強時空表達(dá)能力,SIFA[18與FMENet[35通過幀間關(guān)系尋求提升識別準(zhǔn)確率。STDN引入了時空混合自適應(yīng)卷積,分別使用通道、時間、空間以及時空聯(lián)合注意力聚合局部和全局特征。GSF通過時空門控機(jī)制分解時空交互的特征后分別對時間和空間建模。它們?nèi)鄙賹r間變化區(qū)域的關(guān)注。SIFA研究相鄰幀之間的差異,從中獲取局部變形區(qū)域內(nèi)的時間注意力,以此估計物體在不同時刻的偏移,實現(xiàn)相鄰幀行為語義的對齊。FMENet通過幀間差分增加對相關(guān)動作區(qū)域的關(guān)注,并使用多層感受野對視頻行為的語義進(jìn)行編碼。但它們?nèi)鄙賹σ曨l幀中全局區(qū)域語義變化的學(xué)習(xí)。本文提出的區(qū)域級時間變化網(wǎng)絡(luò)(RTCNet),使用局部時間注意力增強了局部時間特征,并進(jìn)一步聚合全局時間區(qū)域特征,使用區(qū)域語義學(xué)習(xí)構(gòu)建可變化的卷積核,可變化的卷積核能夠?qū)W習(xí)隨時間變化的行為語義特征,最后融合可變化的區(qū)域特征與全局時間區(qū)域特征進(jìn)行特征增強。從實驗結(jié)果看,本文方法取得了明顯的性能上的增益,與現(xiàn)有的方法相比,實現(xiàn)了對多數(shù)方法在Something-Something V1amp;V2數(shù)據(jù)集上分類準(zhǔn)確率的超越。

    表2展示了在Kinetics-400數(shù)據(jù)集上的對比實驗結(jié)果。在使用8幀輸入的模型時,本文方法優(yōu)于FEXNet、T-STFT[36、GSF等方法。從數(shù)據(jù)集本身的特點來看,Kinetics-400數(shù)據(jù)集以人類為中心,所包含的視頻中,大多是人類相關(guān)的行為,包括日常生活行為與一些常見的活動,如刷牙、抓魚等。該數(shù)據(jù)集中的動作類型與場景高度相關(guān),網(wǎng)絡(luò)模型可能僅從視頻幀空間背景的外觀特征就可以推斷出動作類型,幀序列之間行為語義變化較小。本文方法主要通過關(guān)注視頻幀中的區(qū)域語義變化,從而改進(jìn)模型在行為識別任務(wù)上的性能,因此在Kinetics-400數(shù)據(jù)集上不能完全體現(xiàn)本文方法的優(yōu)勢。但從實驗結(jié)果看,本文方法在Kinetics-400數(shù)據(jù)集上仍然優(yōu)于多數(shù)現(xiàn)有的方法,使用推理策略1時,在top-1準(zhǔn)確率上,相較于表2中對比的最佳方法提升了0.4百分點,具有良好的表現(xiàn)。

    2.3 消融實驗

    本節(jié)中,對本文模型進(jìn)行一系列的消融實驗,驗證模型各個部分的有效性。消融實驗使用Something-Something V1數(shù)據(jù)集,推理策略為策略1(8 frames×1 crop×1 clip),實驗結(jié)果報告的均為top-1準(zhǔn)確率。

    a)本文研究了局部-全局時間特征學(xué)習(xí)模塊(L-GTFL)、區(qū)域語義學(xué)習(xí)模塊(RSL)和區(qū)域語義融合模塊(RSF)的有效性。如表3所示,第一行為本文的基準(zhǔn)模型。首先對局部-全局時間特征學(xué)習(xí)模塊中的兩部分進(jìn)行消融研究,當(dāng)僅進(jìn)行局部時間增強(LTE)時,由于缺少對全局特征的關(guān)注,最終效果增益并不明顯,而從第3、4行可以看出,全局時間記憶(GTM)對分類準(zhǔn)確率的提升十分顯著,這是由于視頻是由一系列幀組成的序列特征,全局建模對于序列特征是非常必要的,忽略全局時間特征會對最終視頻行為類別的判定有很大影響。在添加區(qū)域語義學(xué)習(xí)模塊后,模型能夠從全局時間區(qū)域特征中更加充分地學(xué)習(xí)視頻幀序列中的時間變化,因此準(zhǔn)確率也有較大的提升,最后的區(qū)域語義融合則進(jìn)一步增強了可變區(qū)域特征與全局時間特征。實驗表明,本文提出的各模塊對行為識別的準(zhǔn)確率均有所增益。

    b)表4展示了局部-全局時間特征學(xué)習(xí)模塊中不同通道劃分比例α對模型分類準(zhǔn)確率、計算量和參數(shù)量的影響。α將特征分為兩部分,第一部分輸入到ConvLSTM中用于捕獲長期語義變化,第二部分直接保留局部時間增強特征。α=1的模型將所有特征通道輸入到ConvLSTM,當(dāng)使用α=0.5的模型,計算量降低至37 GFLOPs,分類準(zhǔn)確率與α=1的模型相近,為49.7%。而α=0.25的模型準(zhǔn)確率/計算量降低至49.3%/32 G。該實驗說明全局時間區(qū)域特征對于識別視頻幀序列中的長期語義變化是重要的,當(dāng)輸入的特征比例過少時,網(wǎng)絡(luò)不能充分捕獲長時間視頻幀序列的時間變化區(qū)域,從而影響整個行為類別的識別準(zhǔn)確率,但當(dāng)使用全部特征作為輸入時,模型計算量與參數(shù)量迅速增長,不利于訓(xùn)練優(yōu)化。因此,為權(quán)衡模型的性能與計算量大小,本文設(shè)置α=0.5作為最終的比例參數(shù)。

    c)表5展示了局部-全局時間特征學(xué)習(xí)模塊對區(qū)域時間變化學(xué)習(xí)的影響,將其逐步插入到已添加區(qū)域語義學(xué)習(xí)模塊和區(qū)域語義融合模塊的網(wǎng)絡(luò)模型的stage2~5中,探究該模塊的作用。從表5可知,當(dāng)不插入該模塊時,由于缺乏對局部特征的增強與聚合,區(qū)域語義學(xué)習(xí)和區(qū)域語義融合無法有效地學(xué)習(xí)區(qū)域特征的時間變化,分類準(zhǔn)確率僅為47.8%。而僅在stage 2插入該模塊時,區(qū)域語義學(xué)習(xí)和區(qū)域語義融合可以從全局時間區(qū)域特征中學(xué)習(xí),此時識別準(zhǔn)確率有了明顯提升,當(dāng)將該模塊繼續(xù)插入到其他階段時,識別準(zhǔn)確率逐步提升,最終達(dá)到49.7%的最佳水平。

    2.4 可視化分析

    圖7展示了本文不同模型與其他模型的可視化結(jié)果對比。使用輸入為8幀的模型,以熱圖[37的形式可視化顯著性區(qū)域,用模型stage 5的輸出特征估計熱圖區(qū)域的分?jǐn)?shù)。

    圖7中,從上至下分別為原始視頻幀、TSM[5熱圖、僅使用局部-全局時間特征學(xué)習(xí)模塊(L-GTFL)的模型熱圖、同時使用區(qū)域語義學(xué)習(xí)模塊(RSL)和區(qū)域語義融合模塊(RSF)的模型熱圖以及完整的區(qū)域級時間變化網(wǎng)絡(luò)(RTCNet)的熱圖。從行為類別為“抬起某物的一端,然后讓它掉下來”的視頻集合中選取一個樣例進(jìn)行說明。該行為具有明顯的兩階段,包含了兩種行為語義,分別為“把某物抬起來”和“某物掉落下去”。TSM關(guān)注到“把某物抬起來”這一語義的相關(guān)幀,忽略了“某物掉落下去”,因而將動作誤判為類別“抬起上面有東西的某物”。僅使用L-GTFL的模型在全部的幀序列中感知動作變化,能夠在熱圖中明顯看到含有動作語義“把某物抬起來”的相關(guān)幀熱區(qū)覆蓋范圍進(jìn)一步擴(kuò)大,但仍然未捕獲到“某物掉落下去”的動作,導(dǎo)致將動作誤判為“舉起某物的一端而不讓它下降”。同時使用RSL與RSF的模型通過學(xué)習(xí)相鄰幀之間的區(qū)域語義變化,逐漸開始捕捉動作語義“某物掉落下去”的相關(guān)特征。本文提出的完整模型RTCNet則增強了對最后兩幀的特征學(xué)習(xí),能夠正確地判定行為類別。

    3 結(jié)束語

    本文針對視頻幀序列中的區(qū)域特征學(xué)習(xí),提出了一個區(qū)域級時間變化網(wǎng)絡(luò)。該網(wǎng)絡(luò)通過局部時間增強解決了相鄰幀之間微小運動容易被忽略的問題,并將增強后特征聚合為全局時間特征表示,解決了難以學(xué)習(xí)長序列視頻幀特征的問題,通過引入可變化的區(qū)域語義卷積核,可以在全局范圍內(nèi)學(xué)習(xí)區(qū)域的時間變化,并通過雙分支通道注意力進(jìn)一步融合變化特征與全局時間特征。本文方法在Something-Something V1amp;V2和Kinetics-400數(shù)據(jù)集上分別取得了53.6%、66.1%、75.8%的top-1準(zhǔn)確率,具有良好的性能。

    參考文獻(xiàn):

    [1]Kay W, Carreira J, Simonyan K,et al. The kinetics human action video dataset[EB/OL]. (2017-05-19). https://arxiv.org/abs/1705.06950.

    [2]Goyal R, Ebrahimi K S, Michalski V, et al. The “something something” video database for learning and evaluating visual common sense[C]//Proc of IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2017: 5842-5850.

    [3]廖越, 李智敏, 劉偲. 基于深度學(xué)習(xí)的人—物交互關(guān)系檢測綜述[J]. 中國圖象圖形學(xué)報, 2022, 27(9): 2611-2628. (Liao Yue, Li Zhimin, Liu Si. A review of deep learning based human-object interaction detection[J]. Journal of Image and Graphics, 2022, 27(9): 2611-2628.)

    [4]Wang Limin, Xiong Yuanjun, Wang Zhe, et al. Temporal segment networks: towards good practices for deep action recognition[C]//Proc of European Conference on Computer Vision. Berlin: Springer, 2016: 20-36.

    [5]Lin Ji, Gan Chuang, Han Song. TSM: temporal shift module for efficient video understanding[C]//Proc of IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2019: 7083-7093.

    [6]Liu Zhaoyang, Luo Donghao, Wang Yabiao, et al. TEINet: towards an efficient architecture for video recognition[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020:11669-11676.

    [7]Wang Jinpeng, Lin Yiqi, Zhang Manlin, et al. Multi-level temporal dilated dense prediction for action recognition[J]. IEEE Trans on Multimedia, 2021, 24: 2553-2566.

    [8]梁緒, 李文新, 張航寧. 人體行為識別方法研究綜述[J]. 計算機(jī)應(yīng)用研究, 2022, 39(3): 651-660. (Liang Xu, Li Wenxin, Zhang Hangning. Review of research on human action recognition methods[J]. Application Research of Computers, 2022, 39(3): 651-660.)

    [9]Jiang Boyuan, Wang Mengmeng, Gan Weihao, et al. STM: spatio-temporal and motion encoding for action recognition[C]//Proc of IEEE/CVF International Conference on Computer Vision. Pisca-taway, NJ: IEEE Press, 2019: 2000-2009.

    [10]Wang Limin, Tong Zhan, Ji Bin, et al. TDN: temporal difference networks for efficient action recognition[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2021: 1895-1904.

    [11]Wang Heng, Tran D, Torresani L, et al. Video modeling with correlation networks[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2020: 352-361.

    [12]Wang Yulin, Yue Yang, Lin Yuanze, et al. AdaFocus v2: end-to-end training of spatial dynamic networks for video recognition[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Reco-gnition. Piscataway, NJ: IEEE Press, 2022: 20030-20040.

    [13]Shen Zhongwei, Wu Xiaojun J, Xu Tianyang. FEXNet: foreground extraction network for human action recognition[J]. IEEE Trans on Circuits and Systems for Video Technology, 2022, 32(5): 3141-3151.

    [14]Liu Zhaoyang, Wang Limin, Wu Wayne, et al. TAM: temporal adaptive module for video recognition[C]//Proc of IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2021: 13708-13718.

    [15]Li Yan, Ji Bin, Shi Xintian, et al. TEA: temporal excitation and aggregation for action recognition[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2020: 909-918.

    [16]Wu Mingyu, Jiang Boyuan, Luo Donghao, et al. Learning comprehensive motion representation for action recognition[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2021: 2934-2942.

    [17]Xu Haotian, Jin Xiaobo, Wang Qiufeng, et al. Exploiting attention-consistency loss for spatial-temporal stream action recognition[J]. ACM Trans on Multimedia Computing, Communications, and Applications, 2022, 18(2s): 1-15.

    [18]Long Fuchen, Qiu Zhaofan, Pan Yingwei, et al. Stand-alone inter-frame attention in video models[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2022: 3192-3201.

    [19]Carreira J, Zisserman A. Quo vadis, action recognition? A new model and the kinetics dataset[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2017: 6299-6308.

    [20]Li Xianhang, Wang Yali, Zhou Zhipeng, et al. SmallBigNet: integrating core and contextual views for video classification[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2020: 1092-1101.

    [21]Bertasius G, Wang H, Torresani L. Is space-time attention all you need for video understanding?[EB/OL]. (2021-02-09). https://arxiv.org/abs/2102.05095.

    [22]Xiang Wangmeng, Li Chao, Wang Biao, et al. Spatio-temporal self-attention modeling with temporal patch shift for action recognition[C]//Proc of European Conference on Computer Vision. Berlin: Springer, 2022: 627-644.

    [23]雷永升, 丁錳, 李居昊, 等. 基于改進(jìn)雙流視覺Transformer的行為識別模型[J/OL]. 計算機(jī)科學(xué). (2023-10-11)[2024-01-05]. http://kns.cnki.net/kcms/detail/50.1075.TP.20231010.1104.016.html. (Lei Yongsheng, Ding Meng, Li Juhao, et al. Action re-cognition model based on improved two stream vision transformer[J/OL]. Computer Science. (2023-10-11)[2024-01-05]. http://kns.cnki.net/kcms/detail/50.1075.TP.20231010.1104.016.html.)

    [24]Kumar A, Kumar A, Vineet V, et al. Benchmarking self-supervised video representation learning[EB/OL]. (2023-06-09). https://arxiv.org/abs/2306.06010.

    [25]包震偉, 劉丹, 米金鵬. 弱監(jiān)督與少樣本學(xué)習(xí)場景下視頻行為識別綜述[J]. 計算機(jī)應(yīng)用研究, 2023, 40(6): 1629-1635. (Bao Zhenwei, Liu Dan, Mi Jinpeng. Review of video action recognition under weak supervision and few-shot learning[J]. Application Research of Computers, 2023,40(6): 1629-1635.)

    [26]Shi Xingjian, Chen Zhourong, Wang Hao, et al. Convolutional LSTM network: a machine learning approach for precipitation nowcasting[C]//Proc of the 28th International Conference on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2015: 802-810.

    [27]He Kaiming, Zhang Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2016: 770-778.

    [28]Li Yehao, Yao Ting, Pan Yingwei, et al. Contextual transformer networks for visual recognition[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2022, 45(2): 1489-1500.

    [29]Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Proc of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 6000-6010.

    [30]Xie Zhao, Chen Jiansong, Wu Kewei, et al. Global temporal diffe-rence network for action recognition[J]. IEEE Trans on Multimedia, 2022, 25: 7594-7606.

    [31]Fu Jie, Gao Junyu, Xu Changsheng. Learning semantic-aware spatial-temporal attention for interpretable action recognition[J]. IEEE Trans on Circuits and Systems for Video Technology, 2021, 32(8): 5213-5224.

    [32]Pan Junting, Lin Ziyi, Zhu Xiatian, et al. ST-Adapter: parameter-efficient image-to-video transfer learning[J]. Advances in Neural Information Processing Systems, 2022, 35: 26462-26477.

    [33]Li Wei, Gong Weijun, Qian Yurong, et al. STAM: a spatio-temporal adaptive module for improving static convolutions in action recognition[J/OL]. The Visual Computer.(2023-12-07). https://doi.org/10.1007/s00371-023-03165-6.

    [34]Sudhakaran S, Escalera S, Lanz O. Gate-shift-fuse for video action recognition[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2023, 2023(1): 1-16.

    [35]Gao Xiong, Chang Zhaobin, Li Yande, et al. Fine-gained motion enhancement for action recognition: focusing on action-related regions[J]. Displays, 2023, 80: 102569.

    [36]Kumawat S, Verma M, Nakashima Y, et al. Depthwise spatio-temporal STFT convolutional neural networks for human action recognition[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2021, 44(9): 4839-4851.

    [37]Stergiou A, Kapidis G, Kalliatakis G, et al. Saliency tubes: visual explanations for spatio-temporal convolutions[C]//Proc of IEEE International Conference on Image Processing. Piscataway, NJ: IEEE Press, 2019: 1830-1834.

    猜你喜歡
    深度學(xué)習(xí)
    從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
    面向大數(shù)據(jù)遠(yuǎn)程開放實驗平臺構(gòu)建研究
    基于自動智能分類器的圖書館亂架圖書檢測
    搭建深度學(xué)習(xí)的三級階梯
    有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
    利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
    考試周刊(2016年94期)2016-12-12 12:15:04
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    久热这里只有精品99| 天美传媒精品一区二区| 国产一区二区在线观看av| 免费高清在线观看日韩| 在线观看人妻少妇| 人妻系列 视频| 免费观看性生交大片5| 欧美精品av麻豆av| 日本色播在线视频| videosex国产| 亚洲精华国产精华液的使用体验| 国产成人欧美| 女性被躁到高潮视频| 婷婷色综合www| 男女高潮啪啪啪动态图| 国产一区二区在线观看av| 街头女战士在线观看网站| 22中文网久久字幕| 中国美白少妇内射xxxbb| 国产精品蜜桃在线观看| 97精品久久久久久久久久精品| 丰满少妇做爰视频| 9191精品国产免费久久| 国产亚洲午夜精品一区二区久久| 97在线视频观看| 日韩三级伦理在线观看| 免费播放大片免费观看视频在线观看| 亚洲色图 男人天堂 中文字幕 | 久久久久久久久久久免费av| 精品亚洲成a人片在线观看| 亚洲国产精品成人久久小说| 欧美精品av麻豆av| 99久久中文字幕三级久久日本| 女人精品久久久久毛片| 汤姆久久久久久久影院中文字幕| 夫妻性生交免费视频一级片| 成年女人在线观看亚洲视频| 中文字幕免费在线视频6| 美女国产高潮福利片在线看| 男女边吃奶边做爰视频| 精品一区二区免费观看| 日本wwww免费看| 波多野结衣一区麻豆| 交换朋友夫妻互换小说| 亚洲经典国产精华液单| 免费大片黄手机在线观看| 另类亚洲欧美激情| 免费看不卡的av| 久久精品国产亚洲av天美| 亚洲国产毛片av蜜桃av| 久久久欧美国产精品| 国产精品国产av在线观看| 在线精品无人区一区二区三| 十八禁网站网址无遮挡| 熟女电影av网| 黑丝袜美女国产一区| 亚洲中文av在线| 在线精品无人区一区二区三| 香蕉丝袜av| 熟女电影av网| 看十八女毛片水多多多| 国产av一区二区精品久久| 在线观看一区二区三区激情| 亚洲少妇的诱惑av| 亚洲美女搞黄在线观看| 婷婷成人精品国产| 国产精品嫩草影院av在线观看| 两个人看的免费小视频| 搡女人真爽免费视频火全软件| 欧美亚洲 丝袜 人妻 在线| 免费人妻精品一区二区三区视频| av片东京热男人的天堂| 国产欧美另类精品又又久久亚洲欧美| 久久久久人妻精品一区果冻| 一级a做视频免费观看| 亚洲美女视频黄频| 一级毛片 在线播放| av福利片在线| av.在线天堂| 99国产精品免费福利视频| 在线精品无人区一区二区三| 91成人精品电影| 亚洲国产精品国产精品| 少妇精品久久久久久久| 日韩 亚洲 欧美在线| 亚洲精品国产av成人精品| 久久影院123| 亚洲av电影在线观看一区二区三区| 在线观看免费高清a一片| 国产av国产精品国产| 乱码一卡2卡4卡精品| 久久99热6这里只有精品| 亚洲人与动物交配视频| 麻豆精品久久久久久蜜桃| 国产乱来视频区| 欧美xxxx性猛交bbbb| 久久韩国三级中文字幕| 国产日韩一区二区三区精品不卡| 极品人妻少妇av视频| 日韩av在线免费看完整版不卡| 五月开心婷婷网| 九九在线视频观看精品| 边亲边吃奶的免费视频| 亚洲av电影在线进入| 18+在线观看网站| 少妇被粗大的猛进出69影院 | 国产精品久久久av美女十八| 考比视频在线观看| 99精国产麻豆久久婷婷| 亚洲美女黄色视频免费看| xxx大片免费视频| 毛片一级片免费看久久久久| 国产乱来视频区| 久久狼人影院| 免费av不卡在线播放| 91国产中文字幕| 精品久久国产蜜桃| 99九九在线精品视频| 蜜桃国产av成人99| 久久这里有精品视频免费| av.在线天堂| 色婷婷av一区二区三区视频| 午夜福利影视在线免费观看| 久久久欧美国产精品| 国产一区二区三区av在线| 日日爽夜夜爽网站| 男女无遮挡免费网站观看| 亚洲精品久久久久久婷婷小说| 综合色丁香网| 精品人妻一区二区三区麻豆| 1024视频免费在线观看| 亚洲高清免费不卡视频| 久久精品aⅴ一区二区三区四区 | 各种免费的搞黄视频| 9热在线视频观看99| 色5月婷婷丁香| 免费在线观看黄色视频的| 美国免费a级毛片| 青春草视频在线免费观看| 伊人亚洲综合成人网| 久久热在线av| 亚洲av在线观看美女高潮| 天堂中文最新版在线下载| 国产片内射在线| 国产一级毛片在线| 午夜福利在线观看免费完整高清在| 亚洲国产精品专区欧美| 制服人妻中文乱码| 国内精品宾馆在线| 欧美亚洲日本最大视频资源| 韩国精品一区二区三区 | 爱豆传媒免费全集在线观看| av在线播放精品| 国产成人aa在线观看| 亚洲图色成人| 国产精品国产av在线观看| 满18在线观看网站| 国产一区二区三区av在线| 中文字幕人妻熟女乱码| 欧美少妇被猛烈插入视频| a级毛片黄视频| 精品亚洲成a人片在线观看| 日韩,欧美,国产一区二区三区| 日本免费在线观看一区| 少妇被粗大猛烈的视频| 国产综合精华液| 国产69精品久久久久777片| 美女中出高潮动态图| 熟女电影av网| 精品一区二区三区四区五区乱码 | 丝袜美足系列| videos熟女内射| 欧美日韩一区二区视频在线观看视频在线| 男女下面插进去视频免费观看 | 亚洲图色成人| 亚洲精品美女久久久久99蜜臀 | 啦啦啦在线观看免费高清www| 午夜91福利影院| 欧美日韩亚洲高清精品| 亚洲,欧美,日韩| 18在线观看网站| 久久久精品94久久精品| a级毛片黄视频| 美女中出高潮动态图| 满18在线观看网站| 九色成人免费人妻av| 午夜福利影视在线免费观看| 天天躁夜夜躁狠狠躁躁| 人人妻人人爽人人添夜夜欢视频| 国产成人精品久久久久久| 日韩中字成人| 午夜免费鲁丝| 麻豆精品久久久久久蜜桃| 亚洲精品一二三| 亚洲四区av| 久久久久久久国产电影| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 久久99热这里只频精品6学生| 欧美精品亚洲一区二区| 精品国产一区二区三区四区第35| 日本黄色日本黄色录像| 熟女电影av网| 蜜臀久久99精品久久宅男| 亚洲av男天堂| av天堂久久9| 九色亚洲精品在线播放| 亚洲国产精品国产精品| 国产精品久久久久久久电影| 九色成人免费人妻av| 熟女人妻精品中文字幕| 人妻 亚洲 视频| av在线观看视频网站免费| 黑人猛操日本美女一级片| 久久国内精品自在自线图片| 在线亚洲精品国产二区图片欧美| 国产一区二区三区综合在线观看 | 精品卡一卡二卡四卡免费| 三上悠亚av全集在线观看| 久久久久久久久久久免费av| 国产精品秋霞免费鲁丝片| 夫妻午夜视频| 美女福利国产在线| 在线观看www视频免费| 日韩欧美一区视频在线观看| 成人亚洲精品一区在线观看| 波多野结衣一区麻豆| 色视频在线一区二区三区| 婷婷色av中文字幕| 欧美日本中文国产一区发布| 又大又黄又爽视频免费| 天堂8中文在线网| 久久久久久久国产电影| 久久女婷五月综合色啪小说| 亚洲国产av影院在线观看| 啦啦啦中文免费视频观看日本| 欧美3d第一页| 国产在线视频一区二区| 免费观看a级毛片全部| 亚洲 欧美一区二区三区| 欧美日韩亚洲高清精品| 色94色欧美一区二区| 精品国产一区二区久久| 亚洲欧美日韩卡通动漫| 国产成人欧美| 欧美激情极品国产一区二区三区 | 下体分泌物呈黄色| tube8黄色片| 肉色欧美久久久久久久蜜桃| 亚洲内射少妇av| 亚洲成人一二三区av| 国产有黄有色有爽视频| 国产片内射在线| 如何舔出高潮| 九草在线视频观看| 亚洲国产精品专区欧美| 日韩免费高清中文字幕av| 日韩精品免费视频一区二区三区 | 国产精品欧美亚洲77777| 国产精品一二三区在线看| 久久av网站| 亚洲av国产av综合av卡| 久久久精品94久久精品| 狂野欧美激情性bbbbbb| 深夜精品福利| 一区在线观看完整版| av国产精品久久久久影院| 精品99又大又爽又粗少妇毛片| 日韩成人伦理影院| 日本色播在线视频| 一本久久精品| 丝瓜视频免费看黄片| 欧美最新免费一区二区三区| 久久久久视频综合| 9热在线视频观看99| 国产又爽黄色视频| 国产黄色免费在线视频| av在线播放精品| 男女午夜视频在线观看 | 色视频在线一区二区三区| 亚洲国产精品成人久久小说| 秋霞伦理黄片| 国产精品偷伦视频观看了| 亚洲欧美日韩卡通动漫| 精品亚洲乱码少妇综合久久| 成年美女黄网站色视频大全免费| 激情五月婷婷亚洲| h视频一区二区三区| 精品久久久久久电影网| 婷婷成人精品国产| 久久99蜜桃精品久久| 黄色视频在线播放观看不卡| 永久免费av网站大全| 人妻人人澡人人爽人人| 亚洲av电影在线进入| 日本爱情动作片www.在线观看| 少妇的逼水好多| 自拍欧美九色日韩亚洲蝌蚪91| 中文字幕制服av| 亚洲激情五月婷婷啪啪| 亚洲精品日本国产第一区| 国产精品一区二区在线观看99| 美女xxoo啪啪120秒动态图| 男女无遮挡免费网站观看| 女人精品久久久久毛片| 极品少妇高潮喷水抽搐| 极品人妻少妇av视频| 久热久热在线精品观看| 亚洲色图 男人天堂 中文字幕 | 大话2 男鬼变身卡| 黑人欧美特级aaaaaa片| 老熟女久久久| 视频区图区小说| 久热久热在线精品观看| 69精品国产乱码久久久| 欧美 日韩 精品 国产| 日产精品乱码卡一卡2卡三| a级毛片黄视频| 国产一级毛片在线| 国产精品成人在线| 妹子高潮喷水视频| 两性夫妻黄色片 | 国产在线免费精品| 精品第一国产精品| 尾随美女入室| 久久人人爽av亚洲精品天堂| 18禁国产床啪视频网站| √禁漫天堂资源中文www| 亚洲伊人色综图| 五月伊人婷婷丁香| 亚洲精品第二区| 国产永久视频网站| 亚洲精品第二区| 国产精品 国内视频| 国产片特级美女逼逼视频| 中文字幕人妻丝袜制服| 亚洲四区av| 黑丝袜美女国产一区| 毛片一级片免费看久久久久| 大香蕉久久网| 亚洲成人手机| 日韩人妻精品一区2区三区| 色婷婷久久久亚洲欧美| 人成视频在线观看免费观看| 久久久久精品性色| 中文字幕人妻丝袜制服| 一本久久精品| 男女免费视频国产| 国产精品一区www在线观看| 纵有疾风起免费观看全集完整版| 熟女人妻精品中文字幕| 亚洲av中文av极速乱| 9热在线视频观看99| 边亲边吃奶的免费视频| 亚洲人与动物交配视频| 超色免费av| 在线免费观看不下载黄p国产| 亚洲av日韩在线播放| 日本欧美国产在线视频| 亚洲av欧美aⅴ国产| 曰老女人黄片| 欧美日韩一区二区视频在线观看视频在线| 欧美国产精品va在线观看不卡| 狠狠婷婷综合久久久久久88av| 亚洲欧美清纯卡通| 国产免费一级a男人的天堂| 国产精品嫩草影院av在线观看| 永久网站在线| 久久久久精品性色| 国产黄色免费在线视频| 妹子高潮喷水视频| 日韩伦理黄色片| 纯流量卡能插随身wifi吗| 哪个播放器可以免费观看大片| 亚洲精品中文字幕在线视频| 久久精品国产自在天天线| 三上悠亚av全集在线观看| 99热国产这里只有精品6| 欧美成人精品欧美一级黄| 少妇被粗大猛烈的视频| 日日啪夜夜爽| 欧美精品一区二区免费开放| 国产精品欧美亚洲77777| 九九爱精品视频在线观看| 欧美bdsm另类| 伊人久久国产一区二区| 五月玫瑰六月丁香| 成年动漫av网址| 欧美国产精品一级二级三级| 免费在线观看完整版高清| 久久综合国产亚洲精品| 十八禁网站网址无遮挡| 丝袜美足系列| 午夜福利在线观看免费完整高清在| 亚洲av免费高清在线观看| 亚洲av日韩在线播放| 亚洲欧美中文字幕日韩二区| 亚洲精品日韩在线中文字幕| 婷婷成人精品国产| 日韩伦理黄色片| 欧美成人午夜免费资源| 各种免费的搞黄视频| 精品国产一区二区三区四区第35| 91久久精品国产一区二区三区| 国产又色又爽无遮挡免| 日本av手机在线免费观看| 国产成人精品福利久久| 久久国产亚洲av麻豆专区| 免费看光身美女| 又粗又硬又长又爽又黄的视频| 乱码一卡2卡4卡精品| 精品一区二区免费观看| 免费少妇av软件| 精品久久国产蜜桃| 人人妻人人爽人人添夜夜欢视频| 国产成人免费无遮挡视频| 免费高清在线观看日韩| 老司机影院成人| 纵有疾风起免费观看全集完整版| 国产日韩欧美视频二区| 波多野结衣一区麻豆| 18禁观看日本| 日韩中文字幕视频在线看片| 两个人免费观看高清视频| 精品一区在线观看国产| 国产精品久久久av美女十八| 国产男人的电影天堂91| 久久毛片免费看一区二区三区| 久久人人爽av亚洲精品天堂| 精品酒店卫生间| 青青草视频在线视频观看| 国产成人一区二区在线| 美女福利国产在线| 男女免费视频国产| 麻豆精品久久久久久蜜桃| 国产熟女午夜一区二区三区| 午夜精品国产一区二区电影| 各种免费的搞黄视频| 秋霞伦理黄片| 视频中文字幕在线观看| 亚洲成人av在线免费| 我要看黄色一级片免费的| 欧美精品人与动牲交sv欧美| 成人二区视频| 少妇人妻久久综合中文| 精品一区二区三卡| 成人漫画全彩无遮挡| 捣出白浆h1v1| 国产女主播在线喷水免费视频网站| 欧美国产精品va在线观看不卡| 精品人妻偷拍中文字幕| 欧美丝袜亚洲另类| 亚洲伊人久久精品综合| 秋霞伦理黄片| 免费观看性生交大片5| 久久毛片免费看一区二区三区| 国国产精品蜜臀av免费| 91精品三级在线观看| 99久久综合免费| 亚洲国产精品一区二区三区在线| 99热这里只有是精品在线观看| 亚洲少妇的诱惑av| av又黄又爽大尺度在线免费看| 人妻 亚洲 视频| 人人妻人人添人人爽欧美一区卜| 免费av不卡在线播放| 成年人午夜在线观看视频| 国产极品天堂在线| 日韩制服丝袜自拍偷拍| 国产男人的电影天堂91| 亚洲,欧美,日韩| 精品国产国语对白av| 天天操日日干夜夜撸| 人妻系列 视频| 日韩不卡一区二区三区视频在线| 亚洲国产看品久久| 日韩成人av中文字幕在线观看| 色94色欧美一区二区| 在线 av 中文字幕| 国产一区二区三区av在线| 久久精品国产鲁丝片午夜精品| 高清av免费在线| 亚洲成av片中文字幕在线观看 | 亚洲成人av在线免费| 国产老妇伦熟女老妇高清| av在线观看视频网站免费| 自线自在国产av| 啦啦啦在线观看免费高清www| 欧美老熟妇乱子伦牲交| 美女内射精品一级片tv| 天天操日日干夜夜撸| 亚洲精品中文字幕在线视频| 国产精品国产三级国产av玫瑰| 街头女战士在线观看网站| 久久精品国产鲁丝片午夜精品| 少妇的逼好多水| 久久精品国产亚洲av涩爱| 亚洲综合精品二区| 久久99精品国语久久久| 新久久久久国产一级毛片| 夫妻午夜视频| 日韩熟女老妇一区二区性免费视频| 老司机影院成人| 国产精品无大码| 91成人精品电影| 搡老乐熟女国产| 国产精品一区二区在线观看99| 欧美日韩av久久| 波多野结衣一区麻豆| 又黄又爽又刺激的免费视频.| 成人影院久久| 免费高清在线观看日韩| 一级黄片播放器| 成人国产麻豆网| 精品一品国产午夜福利视频| 高清不卡的av网站| 永久免费av网站大全| 国产成人欧美| 又粗又硬又长又爽又黄的视频| 宅男免费午夜| 午夜福利影视在线免费观看| 久久久久久久久久久久大奶| 麻豆乱淫一区二区| 国产 一区精品| 成人二区视频| 最近最新中文字幕免费大全7| 日本91视频免费播放| 七月丁香在线播放| 日韩视频在线欧美| 9色porny在线观看| 日本-黄色视频高清免费观看| 欧美3d第一页| xxx大片免费视频| 久久97久久精品| 男女下面插进去视频免费观看 | 亚洲一级一片aⅴ在线观看| 欧美老熟妇乱子伦牲交| 午夜福利影视在线免费观看| 街头女战士在线观看网站| 一个人免费看片子| 黄片播放在线免费| 亚洲欧美精品自产自拍| 飞空精品影院首页| 国产精品免费大片| 黄色配什么色好看| a级毛片黄视频| 久久精品久久久久久噜噜老黄| 秋霞伦理黄片| 精品卡一卡二卡四卡免费| 亚洲精品乱码久久久久久按摩| 丝瓜视频免费看黄片| 精品一区在线观看国产| 99国产综合亚洲精品| 三级国产精品片| 亚洲综合色惰| 美女中出高潮动态图| 五月玫瑰六月丁香| 男女无遮挡免费网站观看| 中国国产av一级| 国产av精品麻豆| 久久精品久久久久久久性| 日韩三级伦理在线观看| 久久鲁丝午夜福利片| 国产 精品1| 精品久久久久久电影网| 色5月婷婷丁香| 99久国产av精品国产电影| 日本色播在线视频| h视频一区二区三区| 丝袜美足系列| 亚洲精品,欧美精品| 又黄又爽又刺激的免费视频.| 精品少妇久久久久久888优播| 成人毛片60女人毛片免费| 免费黄网站久久成人精品| 午夜久久久在线观看| 欧美最新免费一区二区三区| 丰满饥渴人妻一区二区三| 国产男人的电影天堂91| 看十八女毛片水多多多| 麻豆乱淫一区二区| 精品久久蜜臀av无| 国产成人精品福利久久| 99热6这里只有精品| 女人精品久久久久毛片| 捣出白浆h1v1| 最近的中文字幕免费完整| av免费在线看不卡| 99re6热这里在线精品视频| 久久久久精品性色| 亚洲综合色惰| 亚洲精品一二三| 热99国产精品久久久久久7| 又大又黄又爽视频免费| kizo精华| 亚洲欧美清纯卡通| 国产黄频视频在线观看| 久久狼人影院| 午夜91福利影院| 成人黄色视频免费在线看| 午夜福利乱码中文字幕| 卡戴珊不雅视频在线播放| 国产黄色免费在线视频| 国产日韩欧美在线精品| 热re99久久国产66热| 黄片无遮挡物在线观看| 日韩一区二区视频免费看| 午夜老司机福利剧场| 制服诱惑二区| 成人综合一区亚洲| 大片免费播放器 马上看| 91aial.com中文字幕在线观看| 久久这里有精品视频免费| 国产免费视频播放在线视频| 亚洲精品视频女| 国产精品麻豆人妻色哟哟久久|