• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    一種時序邊界注意力循環(huán)暴力行為檢測神經(jīng)網(wǎng)絡(luò)

    2023-04-29 15:26:33劉邦義周激流張衛(wèi)華
    關(guān)鍵詞:特征信息模型

    劉邦義 周激流 張衛(wèi)華

    暴力行為檢測是行為識別的一個重要研究方向,在網(wǎng)絡(luò)信息審查和智能安全領(lǐng)域具有廣闊的應(yīng)用前景.針對目前的時序模型在復(fù)雜背景下不能有效提取人體運動特征和常規(guī)循環(huán)神經(jīng)網(wǎng)絡(luò)無法聯(lián)系輸入上下文的問題,本文提出一種時序邊界注意力循環(huán)神經(jīng)網(wǎng)絡(luò)TEAR-Net.首先,以本文提出的一種全新的運動特征提取模塊MOE為基礎(chǔ),在保留輸入視頻段序列背景信息的前提下加強運動邊界區(qū)域.運動邊界對于動作識別的作用要遠大于圖像其他區(qū)域,因此運動邊界加強能夠有效提高動作特征的提取效率,從而提升后續(xù)網(wǎng)絡(luò)的識別精度.其次,引入了一種全新的結(jié)合上下文語境和注意力機制的循環(huán)卷積門單元(CSA-ConvGRU),提取連續(xù)幀之間的流特征以及不同幀的獨立特征,并關(guān)注關(guān)鍵幀,能夠極大提升動作識別的效率,以少量參數(shù)和較低計算量的代價掌握視頻流的全局信息,從而有效提高識別準(zhǔn)確率.本文提出的模型在目前最新的公開數(shù)據(jù)集RWF-2000和RLVS上進行了多種實驗.實驗結(jié)果表明,本文提出的網(wǎng)絡(luò)在模型規(guī)模和檢測精度上均優(yōu)于目前主流的暴力行為識別算法.

    暴力行為; 時序信息; 運動邊界; 注意力機制; 上下文

    TP391A2023.023003

    收稿日期: 2022-01-17

    基金項目: 四川省科技計劃(2022YFQ0047)

    作者簡介: 劉邦義(1998-), 男, 碩士研究生, 主要研究方向為計算機視覺、模式識別等. E-mail: 228980603@qq.com

    通訊作者: 張衛(wèi)華. E-mail: zhangweihua@scu.edu.cn

    Temporal edge attention recurrent neural networkfor violence detection

    LIU Bang-Yi1,? ZHOU Ji-Liu1, ZHANG Wei-Hua2

    (1. College of? Electronic Information Engineering, Sichuan University, Chengdu? 610065, China;

    2. College of Computer Science, Sichuan University, Chengdu? 610065, China)

    Violence detection is one of the most important research topic in behavior recognition,which has great potential applications in network information review and intelligent security.The published works cannot keep their performance in the complexity environments, because they cannot effectively extract movement features and contact consecutive frames. Hence, a novel method is proposed in this paper, which is referred to as temporal edge attention recurrent neural network (TEAR-Net). First, we propose a novel motion object enhancement (MOE) module, which enhances the motion edge while keeping the background information of the video sequences. Because the motion edge has a much greater effect on motion recognition than other areas of the image, the enhancement of motion edge can effectively improve the extraction efficiency of action features, and thus the recognition accuracy is improved. Then we introduce a novel recurrent convolutional gate unit CSA-ConvGRU, which combines context and attention mechanism. It can extract the stream features among consecutive frames and the independent features of each frame. Attention mechanism can help to focus on key frames, which greatly improve the efficiency of action recognition, capture the global information of the video stream with a lower cost, and thus effectively improve recognition accuracy. The proposed model has been tested on the currently lastest public datasets RWF-2000 and RLVS. The experimental results show that the proposed model outperforms the state-of-the-art violence detection algorithms in terms of computational cost and detection accuracy.

    Violence; Temporal information; Motion edge; Attention mechanism; Context

    1 引 言伴隨著城鎮(zhèn)化的規(guī)模不斷擴大和人口的聚集,群眾對公共區(qū)域安全的監(jiān)管需求日益提升,各種監(jiān)控設(shè)備被廣泛部署.如今大部分的公共安全監(jiān)管仍然采取基于人工觀察的方式,因此盡管底層感知設(shè)備布置較為完善,但是仍然具有較高的漏檢率和錯檢率.這導(dǎo)致有時不能及時處理應(yīng)急事件.因此一種基于計算機圖像技術(shù)的異常行為檢測算法是急需的,由于圖像技術(shù)的快速、準(zhǔn)確、輕量化、高拓展性且易于維護等特點,這類方法具有較大的社會價值和應(yīng)用前景[1].

    視頻作為安防監(jiān)控的載體,由連續(xù)的圖像構(gòu)成,具有高度的時空相關(guān)性[2].相較于圖片,視頻往往具有更為豐富的信息,例如幀間的時間語義信息和空間語義信息.然而,視頻具有輸入維度高,時空信息難以解耦提取等難題.因此,如何提出一種針對視頻的實時準(zhǔn)確輕量化的異常行為檢測算法是十分困難的,具有較高的研究價值.

    近年來,行為識別的研究熱度不斷提高,許多算法相繼被提出,根據(jù)特征提取方法的不同,可以被分為基于傳統(tǒng)圖像處理和基于深度學(xué)習(xí)的方法.Wang等[3]提出密集軌跡提取的相關(guān)算法(Dense Trajectories, DT ),通過將三種特征描述子方向梯度直方圖融合編碼后進行分類,最終取得了較好的效果.傳統(tǒng)方法具有不需要訓(xùn)練以及對硬件設(shè)備要求低等優(yōu)點,但是它們在面對背景復(fù)雜等情況下往往難以維持較好的表現(xiàn),因為其提取的特征泛化能力不足.

    神經(jīng)網(wǎng)絡(luò)近年來得到飛速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)作為神經(jīng)網(wǎng)絡(luò)的代表算法在諸多重要圖像任務(wù)如分類[4]和分割[5]上均取得了矚目的成績.深度學(xué)習(xí)能夠獲得樣本深層特征表示,故基于深度學(xué)習(xí)的方法往往具有較強的魯棒性和較高的識別精度.行為識別算法可被分為多流卷積神經(jīng)網(wǎng)絡(luò)(Multi Stream CNN,MSCNN)的模型、時空序列模型和時間序列模型[6].Simonyan等[7]提出雙流CNN模型,該模型分別從單幀RGB圖像和多幀稠密光流圖中提取視頻的時空信息,最后將特征融合進行分類,取得較好的效果.盡管多流CNN模型在提取動作信息特征有一定優(yōu)勢,但是光流信息的提取需要大量算力,增大了計算開銷,難以在邊緣設(shè)備部署.

    時空模型采用三維卷積提取時空特征.Tran等[8]在三維卷積的基礎(chǔ)提出3D卷積模型(Convolutional 3D,C3D),C3D為三維卷積和池化的線性組合,故模型簡單訓(xùn)練速度較快.為了緩解C3D參數(shù)量大的問題,Qiu等[9]提出了偽3D(Pseudo-3D, P3D)模型,Tran等[10]提出了 R(2+1)D模型.兩種模型的都采用將時空域分離進行靈活組合的思路,從而在保證模型參數(shù)量小的同時,能夠提升所提取特征的鑒別性和魯棒性.

    時序模型采用CNN與遞歸神經(jīng)網(wǎng)絡(luò)級聯(lián)的方式提取時序特征.Hochreiter和Schmidhuber[11]提出長短期記憶單元(Long Short Term Memory, LSTM),被認(rèn)為是時序模型最有代表性的方法之一.此后,Donahue等[12]提出了長期循環(huán)卷積網(wǎng)絡(luò)(Long-term Recurrent Convolution Network, LRCN),LRCN將CNN和由LSTM單元組成的遞歸神經(jīng)網(wǎng)絡(luò)級聯(lián),分別提取輸入的空間信息和時間信息.Melis等[13]在自然語言處理領(lǐng)域中發(fā)現(xiàn)隨著模型的復(fù)雜程度的加深,LSTM單元中的輸入與隱藏層之間的相關(guān)性會逐漸消失,進而提出了形變LSTM.Cho等[14]提出循環(huán)門單元(Gated Recurrent Units, GRU),GRU相較于LSTM具有參數(shù)量更少,訓(xùn)練速度更快等優(yōu)點.Shi等[15]提出了ConvLSTM,ConvLSTM通過將LSTM中的全連接層替換為卷積層,使該結(jié)構(gòu)不僅可以建立時序關(guān)系還可以像CNN一樣提取局部空間特征.Lin等[16]在ConvLSTM中增加基于記憶單元的自注意力模塊(Memory-based Self-Attention Module, SAM)預(yù)測記錄全局時空特征,以此來提取輸入中具有代表性的時空特征.

    盡管時序模型取得了較好的識別效果,但該類方法在復(fù)雜背景下不能有效提取人體運動特征.相較于其他任務(wù)的視頻數(shù)據(jù)而言,安防監(jiān)控視頻需對大范圍場景進行監(jiān)控,因此安防監(jiān)控視頻中的運動主體并不突出,目標(biāo)往往較小,同時背景非常復(fù)雜.而時序模型針對具有突出主體的視頻數(shù)據(jù)具有較好的識別效果,而當(dāng)背景復(fù)雜并且運動目標(biāo)較小時,該類方法難以保持其良好的識別性能.其主要原因是冗雜信息占據(jù)視頻的主導(dǎo)地位,直接使用原始視頻訓(xùn)練如LRCN為代表的時序模型時難以取得良好的識別效果.而這些算法為緩解這個問題往往使用幀差法消除背景信息的干擾,但與此同時運動區(qū)域的動作信息也會被一并刪除.

    時序模型的根基是以ConvLSTM為代表的遞歸神經(jīng)網(wǎng)絡(luò).該網(wǎng)絡(luò)深度和視頻長度相關(guān),視頻越長網(wǎng)絡(luò)越深.而遞歸神經(jīng)網(wǎng)絡(luò)中層級之間缺乏聯(lián)系,在深度增加的同時網(wǎng)絡(luò)會傾向關(guān)注近期輸入的信息,而忽視早期信息隨著深度的增加逐漸被忽視.因此,這類模型難以對上下文信息建立有效聯(lián)系.

    為了緩解上述的問題,有效提取出視頻主體運動的時空特征,減少復(fù)雜背景對模型的影響以提高識別準(zhǔn)確率同時克服以往模型中上下文相關(guān)性不足的問題,本文提出了一種時序邊界注意力循環(huán)神經(jīng)網(wǎng)絡(luò)(Temporal Edge Attention Recurrent Neural Network, TEAR-Net).本文主要貢獻可以總結(jié)如下:

    (1) 本文提出一種全新的視頻幀處理模塊(Motion Object Enhancement, MOE),MOE可以基于幀間圖像差異提取出運動邊界,減少背景等因素的干擾,從而有效提高識別精度.

    (2) 本文提出一種基于語境化的自注意力機制循環(huán)單元(Contextualization and Self-Attention ConvGRU, CSA-ConvGRU)對時序信息進行提取.相較于其他結(jié)構(gòu),CSA-ConvGRU在參數(shù)大小、顯存占用和訓(xùn)練速度上更占優(yōu)勢.此外相比于ConvGRU,CSA-ConvGRU對長時中的短時時序特征擁有更強的敏感性,相較于其他方法,本文提出方法在公共數(shù)據(jù)集上取得了令人滿意的效果.

    2 網(wǎng)絡(luò)結(jié)構(gòu)

    為緩解識別率低,參數(shù)量大等問題,本文提出TEAR-Net,整體框架圖如圖1所示,由三個主要部分組成分別為視頻幀預(yù)處理模塊,卷積特征提取網(wǎng)絡(luò)和注意力-長短時特征提取網(wǎng)絡(luò).MOE為視頻幀預(yù)處理模塊的主要成分,MOE對聚合幀塊做一系列的操作提取運動目標(biāo),在有效剔除可能造成干擾背景信息的同時保留主要運動目標(biāo).卷積特征提取網(wǎng)絡(luò)使用殘差網(wǎng)絡(luò) (Residual Network, ResNet)[17]來提取幀圖像中的運動特征.在注意力-長短時特征提取網(wǎng)絡(luò)中,本文提出CSA-ConvGRU,能夠有效獲取時間序列中的關(guān)鍵特征,使之能夠提取更具有鑒別性的時空信息.

    為了避免歧義,本文將對一些基本內(nèi)容進行數(shù)學(xué)定義.其中,輸入為視頻V,其中V的維度是V∈RN×T×C×H×W,N,T,C,H和W分別代表批尺寸,幀序列長度,圖像通道數(shù)以及幀圖像的長寬.V由幀圖像組成,其中幀圖像維度可以被表示為Vt∈RN×C×H×W, t表示視頻中的第t幀.δ代表sigmod激活函數(shù),pool代表平均池化層.

    2.1 運動目標(biāo)檢測模塊

    在行為識別中,背景信息往往不是重要特征并且通常會對結(jié)果造成極大的干擾.因此,為了去除背景信息加強運動區(qū)域,本文提出一種全新的視頻幀處理模塊(Motion Object Enhancement, MOE)對運動區(qū)域進行加強.不同于多流的方法,該方法不需計算額外的光流信息,即可對運動目標(biāo)進行強化,具有快速,運算算力和硬件設(shè)施要求低等優(yōu)點.

    MOE的整體框架圖如圖2所示,共分為4步.首先,計算聚合幀塊中相鄰圖像間不同通道維度的一階導(dǎo)數(shù)的均方根(Root Mean Square, RMS),第t幀圖像的RMS可以被表示為vt,其中vt∈RN×H×W,具體計算過程由式(1)表示.

    vt=∑t+1i=t-1∑Cj=1(Vji+1-Vji)22(1)

    由式(1)求得圖像的RMS后,利用全局平均池化層和激活層對空間信息bt進行進一步提取,其中bt∈RN×1×H×W,計算過程如式(2)所示.通過這種方式,使MOE不僅可以有效提取運動邊界,同時還能對提取的運動邊界進行平滑與膨脹.

    bt=ReLU(pool(vt))(2)

    其次,對得到的bt進行歸一化處理,并將處理的歸一化數(shù)據(jù)進行掩碼提取,從而得到邊界清晰的運動區(qū)域mt.本文采用的歸一化方式是實例歸一化(Instance Normalization, IN)[18],IN可以進一步剔除圖像的全局信息進而凸顯個體差異.具體計算方法如式(3)~(5)所示.

    μti=1HW∑Wl=1∑Hm=1xti,lm(3)

    σ2ti=1HW∑Wl=1∑Hm=1xti,lm-μti2(4)

    yti,jk=xii,jk-μtiσ2ti+ε(5)

    然而在式(2)中提取的運動邊界仍然存在些許瑕疵,即圖像中包含了非主要運動目標(biāo)的噪聲區(qū)域.除此之外,運動目標(biāo)的特征值往往較大,在之后進行處理的過程中會出現(xiàn)亮度失常的情況.因此需要對歸一化后的bt的取值范圍進行約束,去除不必要噪聲并且避免亮度爆炸的問題,這些問題使得在之后對圖像特征進行提取的時候,特征質(zhì)量急劇下降從而導(dǎo)致較低的識別準(zhǔn)確率.因此,為了解決上述問題,本文在歸一化操作之后引入閾值化操作,得到運動目標(biāo)掩碼圖像mt∈RN×1×H×W,i∈RH×W,具體的閾值化過程如式(6)所示.

    mti=0, bti<0

    0.8, bti≥0(6)

    得到掩碼mt后,將mt與Vt點乘并與Vt求和組成殘差結(jié)構(gòu)得到最后的運動目標(biāo)強化輸出Y(t).MOE中之所以采用殘差方式來進行連接,是因為該方式不僅增強動態(tài)變化區(qū)域,還保留了視頻中的場景信息,這使得網(wǎng)絡(luò)被迫發(fā)現(xiàn)和獲取差異化信息的時間特征.具體過程如式(7)所示.

    Yt=Vt+1+mt⊙Vt+1(7)

    其中⊙代表了張量之間的哈瑪達積.

    如圖3所示,模塊輸出Y(t)∈RN×3×H×W將應(yīng)該被予以關(guān)注的運動物體對應(yīng)的圖像區(qū)域進行凸顯.

    2.2 時序特征提取網(wǎng)絡(luò)

    ConvGRU在保持參數(shù)量較少的同時,可以對時序信息進行有效提取,被廣泛用于動作識別任務(wù).然而,隨著網(wǎng)絡(luò)深度的增加,淺層ConvGRU模塊通過幀圖像提取的隱藏層特征會隨著級聯(lián)層數(shù)的增加而逐漸被更新,在此過程中大部分淺層特征信息會丟失,但在動作識別領(lǐng)域中,淺層語義信息往往包含重要的信息,因此僅使用ConvGRU的識別網(wǎng)絡(luò)無法達到令人滿意的效果[16].為了緩解這個問題,本文將自注意力機制與ConvGRU相結(jié)合,提出了SA-ConvGRU模塊.自注意力機制的作用是從信號中學(xué)習(xí)特征的權(quán)重,使得網(wǎng)絡(luò)關(guān)注更重要的特征,從而保障后續(xù)分類的正確率,其早先被應(yīng)用于自然語言處理領(lǐng)域,隨后被廣泛應(yīng)用于圖像識別、圖像合成和視頻預(yù)測等領(lǐng)域,并取得良好效果.在SAM中,如圖4所示,記憶單元Mt能夠保存每一層中的部分特征,通過上一時刻的Mt-1與當(dāng)前時刻的隱藏層輸出Ht進行自相關(guān)操作并配合更新門更新輸出H︿t與Mt,本文引入自注意力機制,使得SA-ConvGRU模塊的輸出H︿t能夠從Mt中獲取到淺層語義特征信息,從而緩解ConvGRU中淺層信息丟失的問題,并進而提升分類精度.

    雖然SA-ConvGRU相較于ConvGRU可以對不同層級的特征進行學(xué)習(xí),選擇對識別任務(wù)影響較大的特征賦予更多的關(guān)注,有效緩解了ConvGRU難以保留淺層語義信息的問題.但是該模塊并沒有建立不同時刻輸入的聯(lián)系,當(dāng)前時刻的輸入和上一時刻的隱藏層狀態(tài)輸出是完全獨立的,忽略了上下文的關(guān)系,而這種關(guān)系對于處理時間步較長的數(shù)據(jù)是大有幫助的[13].為了更好地提取輸入與語境之間的相關(guān)信息,增強模塊對上下文的建模能力,本文將語境化模塊(Contextualization Block, CB)和自注意力機制模塊進行結(jié)合,提出CSA-ConvGRU,其整體結(jié)構(gòu)如圖5所示,包含了三個單元模塊:語境化模塊、ConvGRU和SAM.CSA-ConvGRU的整體更新遞推公式如下所示:

    x^t,h^t-1=CBxt,ht-1(8)

    ht=ConvGRUx^t,h^t-1(9)

    h^t,Mt=SAMht,Mt-1(10)

    在CB中,上下文關(guān)聯(lián)性是通過交互模式來提取的,具體公式如式(11)(12)所示.CB通過引入額外的門控運算,使得兩個輸入之間能進行計算交互,最終使得輸入xt與ht-1之間具有更加豐富的交互表示,從而提高ConvGRU模型的泛化能力與時序建模能力.

    x^t=2×δWh*ht-1⊙xt(11)

    h^t-1=2×δWx*x^t⊙ht-1(12)

    ConvGRU根據(jù)當(dāng)前時刻輸入、上一層的輸出與自身記憶單元中的信息來獲取時序特征,其框架圖如圖5所示,整體更新迭代計算過程如式(13)~(16)所示.張量rt和zt分別為重置門和更新門的輸出,rt控制CB模塊輸出h︿t-1進入更新門后的記憶單元ht中信息的數(shù)量.更新門的輸出zt決定當(dāng)前的輸出狀態(tài)中需要分別包含多少上一時刻的隱藏層收集的信息和當(dāng)前時刻記憶的內(nèi)容.

    z^t=δWz*h^t-1,x^t(13)

    r^t=δWf*h^t-1,x^t(14)

    h~t=tanhWh*rt⊙h^t-1,x^t(15)

    ht=1-zt⊙h^t-1+zt⊙h~t(16)

    SAM通過引入Attention單元,使得輸出的當(dāng)前時刻的隱藏狀態(tài)h︿t包含了當(dāng)前的全局時空信息.整個單元的結(jié)構(gòu)圖如圖4所示,相關(guān)公式如式(17)~(23)所示.使用兩個注意力模塊將兩個輸入分別提取出其中的重要特征后進行拼接得到聚合特征Z.使用門控機制求得更新門門值it與更新值gt,通過這兩個值即能自適應(yīng)的更新記憶單元Mt與最后的輸出h︿t.

    Ah=SoftMaxhTtWThqWThkht(17)

    Am=SoftMaxMTt-1WThqWTmkMt-1(18)

    Z=Wz*Whv*htAh,Wmv*Mt-1Am(19)

    it=δWmi*Z,ht(20)

    gt=tanhWmg*Z,ht(21)

    Mt=1-it⊙Mt-1+it⊙gt(22)

    h^t=δWmo*Z,ht⊙Mt(23)

    3 實驗結(jié)果與分析

    為了驗證本文提出的暴力檢測框架的有效性,本文使用兩個最新的數(shù)據(jù)集RWF-2000[19]和Real Life Violence Situations(RLVS)[20]進行多次實驗.實驗環(huán)境如下所示:Intel Xeon E3-1231 v3 CPU,Nvidia Geforce GTX1080 GPU,Ubuntu 20.04,PyTorch 1.9.0架構(gòu).

    3.1 實驗數(shù)據(jù)集

    RWF-2000數(shù)據(jù)集包含從YouTube收集的2000個經(jīng)過剪輯的監(jiān)控視頻.訓(xùn)練集包括1600個視頻,測試集包括400個視頻.該數(shù)據(jù)集中的視頻片段全部由實際場景中的安防攝像頭獲取,所以視頻具有場景豐富、人數(shù)眾多和光照復(fù)雜等特點,是目前最具挑戰(zhàn)性的暴力行為識別的數(shù)據(jù)集之一.

    RLVS數(shù)據(jù)集由YouTube收集的監(jiān)控視頻和人為拍攝的共計2000個視頻經(jīng)過剪輯組成.訓(xùn)練集包括1600個視頻,測試集包括400個視頻.其中的暴力行為視頻是在監(jiān)獄、街道和學(xué)校等環(huán)境中拍攝的,而非暴力行為視頻是在運動場和競技場等環(huán)境中拍攝的,包括游泳、射箭及打籃球等項目.

    3.2 相關(guān)參數(shù)設(shè)置

    預(yù)處理:首先將數(shù)據(jù)集中的視頻樣本進行逐幀切割,每一個視頻段中包含38幀寸為224×224的幀圖像.對于訓(xùn)練數(shù)據(jù)而言,首先將輸入的視頻幀的尺寸擴展到256×256像素大小,隨后按照50%的概率對圖像進行隨機翻轉(zhuǎn),然后在圖像4個頂角和中心的5個位置上隨機剪裁224×224的像素格.最后使用ImageNet數(shù)據(jù)集中的均值與歸一化系數(shù)進行標(biāo)準(zhǔn)化操作.

    相關(guān)參數(shù)設(shè)置:從預(yù)處理完后的視頻段以等差間隔的方式抽取30個視頻幀作為網(wǎng)絡(luò)輸入.在訓(xùn)練過程中使用在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練的ResNet18模型提取視頻幀圖像特征,使用Adam優(yōu)化器和交叉熵?fù)p失函數(shù)對網(wǎng)絡(luò)進行優(yōu)化,優(yōu)化器中參數(shù)設(shè)置為:第一次估計的指數(shù)衰減率β1=0.5;第二次估計的指數(shù)衰次減率β2=0.99、權(quán)重衰減L2=5×e-4.初始學(xué)習(xí)率被設(shè)置為1×10-4,學(xué)習(xí)率衰減使用余弦退火衰減方法,其中余弦函數(shù)周期Tmax設(shè)置為64,總共迭代輪次被設(shè)置為150.

    3.3 CNN主干網(wǎng)絡(luò)探索實驗

    在RWF-2000數(shù)據(jù)集上,保證網(wǎng)絡(luò)另外兩個模塊不變的情況下使用三種主流神經(jīng)網(wǎng)絡(luò)模型進行測試,分別為AlexNet[21],VGG[22]和ResNet.實驗結(jié)果如表1所示.

    通過實驗結(jié)果不難發(fā)現(xiàn),盡管在視頻幀預(yù)處理網(wǎng)絡(luò)中采用了MOE對運動邊界進行了增強,但是通過分析數(shù)據(jù)集視頻不難得知真實場景下的暴力沖突圖像場景往往十分復(fù)雜.由于AlexNet深度過淺并不能有效地提取出其中的特征信息,導(dǎo)致識別準(zhǔn)確度不高.而Vgg網(wǎng)絡(luò)雖然有著足夠的深度能夠提取出深層抽象特征,但是Vgg16的模型大小已經(jīng)增加到25.45 M,并且模型訓(xùn)練時間較長收斂緩慢.考慮到模型大小和識別精度,本文采用ResNet18來提取幀圖像中的運動特征信息.殘差結(jié)構(gòu)可以有效避免梯度消失,同時在保證模型參數(shù)輕量的情況下?lián)碛凶銐虻木W(wǎng)絡(luò)深度提取出單幀圖像運動特征

    3.4 消融實驗

    為了驗證本文提出的MOE和CSA-ConvGRU 結(jié)構(gòu)在暴力行為檢測中的有效性和泛化性,在相同的實驗條件下,我們在RWF-2000數(shù)據(jù)集上對這兩個模塊的所有組合進行了消融實驗.從顯存占用情況、模型大小和識別準(zhǔn)確率三個方面進行對比,其中顯存占用大小是在batch size為1的條件下檢測,實驗結(jié)果如表2所示,組合模型的訓(xùn)練和測試準(zhǔn)確度的變化情況如圖6a~6c所示.

    一方面,由于MOE使用了連續(xù)三幀的信息并進行了一系列的歸一化和閾值化操作,所以相較于將兩幀之差作為運動特征的幀差法能夠包含更精確和豐富的人體運動信息,從而在不引入額外參數(shù)的情況下有效地提高識別精度.從表2中可以發(fā)現(xiàn)MOE相比于簡單的幀差法在模型大小和顯存占用上并沒有明顯的增加,但是識別準(zhǔn)確上升了2.25%.這也說明本文所提出的MOE能在不增加模型大小以及運算復(fù)雜度的基礎(chǔ)上顯著的提升識別精度.從圖6a和圖6c中可以看出添加了MOE的網(wǎng)絡(luò)在訓(xùn)練過程中收斂速度更快.這也從側(cè)面說明了MOE能夠有效地提取出人體運動邊界從而加快訓(xùn)練速度.

    另一方面,添加了CB模塊和SAM的CSA-ConvGRU結(jié)構(gòu)相比于ConvLSTM結(jié)構(gòu)能夠獲得更多的上下文特征信息,并且更加關(guān)注視頻段中發(fā)生暴力沖突的片段,從而擁有了更多的關(guān)鍵且豐富的特征信息.如表2所示,CSA-ConvGRU模型大小與占用顯存幾乎與ConvLSTM持平,但是識別準(zhǔn)確率大約提升了2.75%.圖6b和圖6c顯示出新的結(jié)構(gòu)在每次測試時均擁有更高的準(zhǔn)確度.二者都說明了CSA-ConvGRU結(jié)構(gòu)的優(yōu)越性與泛化性.

    3.5 與其他主流檢測方法對比

    為了進一步驗證本文提出的模型的性能,我們分別在公開的暴力行為數(shù)據(jù)集RWF-2000和RLVS上進行訓(xùn)練和測試.數(shù)據(jù)集的稀缺極大程度阻礙了暴力檢測的相關(guān)研究.為了全面評估本文提出模型的識別能力,本節(jié)將所對比的方法分為兩類,分別是最新提出的暴力行為檢測方法和近年來提出的先進的通用動作識別方法.其中,暴力行為檢測方法包括Inception-Resnet-V2+DI[23]、Flow Gated[19]、SPIL[24]、X3D XS[25]、ECA-two cascade TSM[26]、SepConvLSTM-M[27]、SAM-GhostNet-ConvLSTM[6]和ViolenceNet OF[28].而通用動作識別方法包含C3D[8]、P3D[9]、TEA[29]、R(2+1)D[10]以及LRCN[12],所有方法的識別準(zhǔn)確率在表3進行展示.

    SAM-GhostNet-ConvLSTM是基于LRCN的改進模型,二者均使用了與本文模型類似的循環(huán)卷積神經(jīng)網(wǎng)絡(luò).LRCN方法在RWF-2000上的效果并不理想,主要原因是該網(wǎng)絡(luò)沒有對各幀圖像進行處理而是直接將其送入網(wǎng)絡(luò)中并僅采用簡單的LSTM提取時序特征,故時空特征中混入了大量的干擾信息,從而導(dǎo)致識別的準(zhǔn)確率較低.SAM-GhostNet-ConvLSTM模型使用普通的幀差法對運動特征進行提取從而去除了無用的背景干擾,緩解LRCN中引入過多背景信息的問題.但是由于幀差法在復(fù)雜背景下的提取效果并不令人滿意,同時ConvLSTM模塊存在淺層語義信息丟失和無法利用上下文信息的問題,導(dǎo)致最后的識別準(zhǔn)確率仍然無法令人滿意.相較于上述兩種方法,本文提出的MOE能夠加強視頻幀的運動特征,使CNN能夠更加有效地對運動主體的特征進行提取,并且CSA-ConvGRU單元可以更加有效地提取全局特征,可以緩解上述兩種方法中存在的問題.從結(jié)果來看,得益于MOE和CSA-ConvGRU單元有效建立不同幀間聯(lián)系并自動化地對不同層級特征進行關(guān)注,所提出的模型得到了顯著的效果提升,在兩個公開的暴力行為檢測數(shù)據(jù)集上均取得了最好的識別效果.

    4 結(jié) 論

    本文提出了一種時序邊界注意力循環(huán)神經(jīng)網(wǎng)絡(luò)(TEAR-Net).該方法可以有效解決運動人體特征提取不足的難題,同時還使用具有語境化和注意力機制的CSA-ConvGRU結(jié)構(gòu)進一步增加模型對于輸入信息的上下文和全局特征的提取.所提出的TEAR-Net在RWF-2000和RLVS兩個基于真實場景下所收集的公開數(shù)據(jù)集上的識別精度可以達到90.50%和97.75%.實驗結(jié)果表明,相比于目前的暴力行為識別方法,TEAR-Net具有更高的識別率,能夠適應(yīng)監(jiān)控場景下的暴力行為檢測任務(wù).

    參考文獻:

    [1] Thys S, Van Ranst W, Goedemé T. Fooling automated surveillance cameras: adversarial patches to attack person detection[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Long Beach, CA, USA: IEEE, 2019.

    [2] Vuran M C, AkanB, Akyildiz I F. Spatio-temporal correlation: theory and applications for wireless sensor networks [J].Comput? Netw, 2004, 45: 245.

    [3] Wang H, Klser A, Schmid C, et al. Dense trajectories and motion boundary descriptors for action recognition [J]. Int J Comput Vis, 2013, 103: 60.

    [4] 池濤, 王洋, 陳明.多層局部感知卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類[J]. 四川大學(xué)學(xué)報: 自然科學(xué)版,2020, 57: 103.

    [5] 李頔, 王艷, 馬宗慶, 等.基于DenseASPP模型的超聲圖像分割[J]. 四川大學(xué)學(xué)報: 自然科學(xué)版,2020, 57: 741.

    [6] Liang Q, Li Y, Yang K, et al. Long-term recurrent convolutional network violent behaviour recognition with attention mechanism [C]//MATEC Web of Conferences. Sanya, China:EDP Sciences, 2021, 336: 05013.

    [7] Simonyan K, Zisserman A. Two-stream convolutional networks for action recognition in videos[J]. Adv? Condens Matter Phys, 2014, 27: 1.

    [8] Tran D, Bourdev L, Fergus R, et al. Learning spatiotemporal features with 3d convolutional networks[C]//Proceedings of the IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015.

    [9] Qiu Z, Yao T, Mei T. Learning spatio-temporal representation with pseudo-3d residual networks[C]//Proceedings of the IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017.

    [10] Tran D,Wang H, Torresani L, et al. A closer look at spatiotemporal convolutions for action recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, Utah, USA: IEEE, 2018.

    [11] Hochreiter S, Schmidhuber J. Long short-term memory [J].Neural Comput, 1997, 9: 1735.

    [12] Donahue J, Anne Hendricks L, Guadarrama S, et al. Long-term recurrent convolutional networks for visual recognition and description [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA, USA: IEEE, 2015.

    [13] Melis G, Koisk T, Blunsom P. Mogrifier LSTM[EB/OL].[2022-01-03].https://arxiv.org/abs/1909.01792.

    [14] Cho K, van Merrinboer B, Gulehre , et al. Learning phrase representations using RNN encoder-decoder for statistical machine translation[C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Doha, Qatar: ACL, 2014.

    [15] Shi X, Chen Z, Wang H, et al. Convolutional LSTM network: A machine learning approach for precipitation nowcasting[C]//Advances In Neural Information Processing Systems. Montréal, CANADA: MIT Press, 2015.

    [16] Lin Z, Li M, Zheng Z, et al. Self-attention convlstm for spatiotemporal prediction[C]//Proceedings of the AAAI Conference on Artificial Intelligence. New York, USA: AAAI, 2020.

    [17] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, Nevada, USA: IEEE, 2016.

    [18] Ulyanov D,Vedaldi A, Lempitsky V. Instance normalization: the missing ingredient for fast stylization[EB/OL].[2022-01-03].https://arxiv.org/abs/1607.08022.

    [19] Cheng M, Cai K, Li M. Rwf-2000: An open large scale video database for violence detection [C]//Proceedings of the 25th International Conference on Pattern Recognition. Milan, Italy: IEEE, 2021.

    [20] Soliman M M, Kamal M H, Nashed MAEM, et al. Violence recognition from videos using deep learning techniques [C]//Proceedings of the 2019 Ninth International Conference on Intelligent Computing and Information Systems. New York, USA: IEEE, 2019.

    [21] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks [J]. Commun ACM, 2017, 60: 84.

    [22] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition [EB/OL].[2022-01-23].https://arxiv.org/abs/1409.1556.

    [23] Jain A, Vishwakarma D K. Deep NeuralNet for violence detection using motion features from dynamic images[C]//Proceedings of the Third International Conference on Smart Systems and Inventive Technology. Tirunelveli, India: IEEE, 2020.

    [24] Su Y, Lin G, Zhu J, et al. Human interaction learning on 3D skeleton point clouds for video violence recognition [C]//Proceedings of the European Conference on Computer Vision. Glasgow, UK: Springer, 2020.

    [25] Santos F, Dures D, Marcondes F S, et al. Efficient violence detection using transfer learning [C]//Proceedings of the Practical Applications of Agents and Multi-Agent Systems. Salamanca, Spain: Spinger, 2021.

    [26] Liang Q, Li Y, Chen B, et al. Violence behavior recognition of two-cascade temporal shift module with attention mechanism [J]. J Electron Imag, 2021, 30: 043009.

    [27] Islam Z, Rukonuzzaman M, Ahmed R, et al. Efficient two-stream network for violence detection using separable convolutional LSTM [C]//International Joint Conference on Neural Networks. Shenzhen, China: IEEE, 2021.

    [28] Rendón-Segador F J, lvarez-García J A, Enríquez F, et al. ViolenceNet: dense multi-head self-attention with bidirectional convolutional LSTM for detecting violence [J].Electronics, 2021, 10: 1601.

    [29] Li Y, Ji B, Shi X, et al. Tea: Temporal excitation and aggregation for action recognition [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, Washington, USA: IEEE, 2020.

    猜你喜歡
    特征信息模型
    一半模型
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
    如何表達“特征”
    不忠誠的四個特征
    抓住特征巧觀察
    訂閱信息
    中華手工(2017年2期)2017-06-06 23:00:31
    3D打印中的模型分割與打包
    展會信息
    中外會展(2014年4期)2014-11-27 07:46:46
    線性代數(shù)的應(yīng)用特征
    河南科技(2014年23期)2014-02-27 14:19:15
    我的亚洲天堂| 亚洲欧洲国产日韩| 日韩在线高清观看一区二区三区| 亚洲精品在线美女| 亚洲 欧美一区二区三区| 最新中文字幕久久久久| 国产成人精品福利久久| 老汉色∧v一级毛片| 免费观看无遮挡的男女| 99久久中文字幕三级久久日本| 寂寞人妻少妇视频99o| 考比视频在线观看| 婷婷色av中文字幕| 免费在线观看视频国产中文字幕亚洲 | 婷婷色综合www| 大码成人一级视频| 国产熟女午夜一区二区三区| 久久国产精品大桥未久av| 亚洲精品久久成人aⅴ小说| 纯流量卡能插随身wifi吗| 麻豆乱淫一区二区| 精品国产国语对白av| 久久影院123| 日韩大片免费观看网站| 国产欧美日韩综合在线一区二区| 男女边摸边吃奶| 人人妻人人澡人人爽人人夜夜| 欧美激情 高清一区二区三区| 波多野结衣av一区二区av| 麻豆乱淫一区二区| 午夜福利影视在线免费观看| 亚洲欧洲精品一区二区精品久久久 | 婷婷色综合www| 国产综合精华液| 久久精品国产自在天天线| 中文字幕人妻熟女乱码| 五月开心婷婷网| 男女无遮挡免费网站观看| 国产xxxxx性猛交| 精品少妇一区二区三区视频日本电影 | 午夜免费男女啪啪视频观看| 中文字幕制服av| 久久久久精品性色| 久久午夜福利片| 国产av国产精品国产| 免费av中文字幕在线| 亚洲国产av新网站| 亚洲色图 男人天堂 中文字幕| 香蕉丝袜av| 99国产综合亚洲精品| 岛国毛片在线播放| 欧美激情 高清一区二区三区| 久久国产精品男人的天堂亚洲| 香蕉精品网在线| 九色亚洲精品在线播放| 久久精品国产综合久久久| 国产av国产精品国产| 国产精品欧美亚洲77777| av免费在线看不卡| 日本色播在线视频| 日韩人妻精品一区2区三区| 欧美日韩综合久久久久久| www.av在线官网国产| 午夜免费男女啪啪视频观看| 久久精品国产a三级三级三级| 黄网站色视频无遮挡免费观看| 下体分泌物呈黄色| 我要看黄色一级片免费的| 日日摸夜夜添夜夜爱| 精品少妇久久久久久888优播| 亚洲久久久国产精品| 国产又爽黄色视频| 天天躁狠狠躁夜夜躁狠狠躁| 国产在线一区二区三区精| 黄色 视频免费看| 少妇熟女欧美另类| 国产老妇伦熟女老妇高清| 亚洲国产欧美网| 国产成人a∨麻豆精品| 国产成人a∨麻豆精品| 久久精品久久精品一区二区三区| 亚洲国产精品一区三区| 有码 亚洲区| 少妇的丰满在线观看| 国产精品秋霞免费鲁丝片| 成年女人毛片免费观看观看9 | www.av在线官网国产| 欧美精品高潮呻吟av久久| 亚洲美女搞黄在线观看| 中文字幕亚洲精品专区| 青春草国产在线视频| 婷婷色综合www| 精品国产国语对白av| 国产精品嫩草影院av在线观看| 欧美精品亚洲一区二区| 中文字幕精品免费在线观看视频| 亚洲欧美清纯卡通| 天天躁日日躁夜夜躁夜夜| 99久久综合免费| 热re99久久国产66热| 久久精品久久精品一区二区三区| 色视频在线一区二区三区| 国产精品三级大全| √禁漫天堂资源中文www| 中文字幕人妻熟女乱码| 老鸭窝网址在线观看| 中文字幕另类日韩欧美亚洲嫩草| 黑丝袜美女国产一区| 少妇被粗大的猛进出69影院| 国产精品麻豆人妻色哟哟久久| 91成人精品电影| 晚上一个人看的免费电影| 日韩一区二区三区影片| 午夜激情av网站| 婷婷色综合www| 一级毛片我不卡| 欧美日韩国产mv在线观看视频| 亚洲综合精品二区| 男男h啪啪无遮挡| 啦啦啦中文免费视频观看日本| 在线观看美女被高潮喷水网站| 国产精品三级大全| 激情五月婷婷亚洲| 国产激情久久老熟女| 免费不卡的大黄色大毛片视频在线观看| 日本vs欧美在线观看视频| 日韩三级伦理在线观看| 美女国产视频在线观看| 国产精品国产三级专区第一集| 国产精品一区二区在线观看99| 99国产综合亚洲精品| 久久久久久久久久人人人人人人| 香蕉丝袜av| 午夜福利网站1000一区二区三区| 日韩一本色道免费dvd| 国产极品天堂在线| 最新的欧美精品一区二区| 少妇被粗大猛烈的视频| 久久久久精品久久久久真实原创| 制服诱惑二区| 最黄视频免费看| 观看av在线不卡| 久久久久精品久久久久真实原创| 各种免费的搞黄视频| 欧美精品国产亚洲| 十分钟在线观看高清视频www| 777米奇影视久久| 一本色道久久久久久精品综合| 男女国产视频网站| 高清不卡的av网站| xxxhd国产人妻xxx| 国产亚洲最大av| 9色porny在线观看| av天堂久久9| 一区二区三区乱码不卡18| av电影中文网址| 9热在线视频观看99| 丝袜脚勾引网站| 老汉色∧v一级毛片| 国产乱人偷精品视频| 女的被弄到高潮叫床怎么办| 精品99又大又爽又粗少妇毛片| 午夜福利乱码中文字幕| 国产成人精品在线电影| 91国产中文字幕| 2018国产大陆天天弄谢| 亚洲国产欧美网| av国产精品久久久久影院| 亚洲色图综合在线观看| 亚洲欧美清纯卡通| 亚洲欧美日韩另类电影网站| 亚洲婷婷狠狠爱综合网| 国产精品久久久久成人av| 侵犯人妻中文字幕一二三四区| 国产无遮挡羞羞视频在线观看| 丁香六月天网| 国产成人午夜福利电影在线观看| 九草在线视频观看| 人体艺术视频欧美日本| 伊人亚洲综合成人网| 亚洲精品,欧美精品| 性少妇av在线| 美女xxoo啪啪120秒动态图| 国产成人av激情在线播放| 在现免费观看毛片| 少妇人妻精品综合一区二区| 最近手机中文字幕大全| 在线 av 中文字幕| 精品99又大又爽又粗少妇毛片| 午夜福利,免费看| 午夜日本视频在线| 一级毛片 在线播放| 免费观看无遮挡的男女| 国产成人aa在线观看| 亚洲少妇的诱惑av| 一区二区三区激情视频| 久久久久精品性色| 美女国产高潮福利片在线看| 嫩草影院入口| 国产精品女同一区二区软件| 啦啦啦在线免费观看视频4| 亚洲综合精品二区| 春色校园在线视频观看| a级毛片黄视频| 青春草国产在线视频| 欧美 日韩 精品 国产| 国产免费又黄又爽又色| 亚洲人成网站在线观看播放| 赤兔流量卡办理| 久久久国产精品麻豆| 日本-黄色视频高清免费观看| 亚洲一码二码三码区别大吗| a级毛片在线看网站| 性少妇av在线| 欧美另类一区| 亚洲国产欧美网| 九色亚洲精品在线播放| 国产乱来视频区| 天天躁夜夜躁狠狠躁躁| 午夜影院在线不卡| 国产淫语在线视频| 在线观看人妻少妇| 男人添女人高潮全过程视频| 久久亚洲国产成人精品v| 看十八女毛片水多多多| freevideosex欧美| 亚洲综合色网址| 国产成人精品婷婷| 色哟哟·www| 亚洲 欧美一区二区三区| 亚洲欧美中文字幕日韩二区| 亚洲精品中文字幕在线视频| 欧美av亚洲av综合av国产av | 中文乱码字字幕精品一区二区三区| 亚洲国产欧美日韩在线播放| 欧美97在线视频| 人成视频在线观看免费观看| 少妇的逼水好多| 亚洲第一av免费看| 成人午夜精彩视频在线观看| 欧美黄色片欧美黄色片| 成人毛片60女人毛片免费| 成人毛片60女人毛片免费| 久久99一区二区三区| 亚洲精品自拍成人| 欧美bdsm另类| 伦理电影免费视频| 亚洲综合精品二区| 999精品在线视频| 99精国产麻豆久久婷婷| 久久精品aⅴ一区二区三区四区 | 国产毛片在线视频| 香蕉丝袜av| 中文欧美无线码| √禁漫天堂资源中文www| 午夜日韩欧美国产| 久久人人爽人人片av| 性色av一级| 亚洲第一av免费看| 亚洲人成网站在线观看播放| 久久精品国产亚洲av高清一级| 国产一区二区三区av在线| av网站免费在线观看视频| 最新的欧美精品一区二区| 成人国语在线视频| 欧美日韩视频高清一区二区三区二| 夜夜骑夜夜射夜夜干| 女的被弄到高潮叫床怎么办| 美女中出高潮动态图| 在线精品无人区一区二区三| 精品国产露脸久久av麻豆| 亚洲精品久久久久久婷婷小说| 国产精品亚洲av一区麻豆 | 99精国产麻豆久久婷婷| 香蕉国产在线看| 亚洲激情五月婷婷啪啪| 精品人妻偷拍中文字幕| 少妇的丰满在线观看| 黄片播放在线免费| 又黄又粗又硬又大视频| 伊人久久大香线蕉亚洲五| 女人高潮潮喷娇喘18禁视频| 免费在线观看完整版高清| 亚洲成人av在线免费| 国产黄色免费在线视频| 久久久久视频综合| 超碰97精品在线观看| 天天躁夜夜躁狠狠躁躁| 国产日韩欧美在线精品| 捣出白浆h1v1| 亚洲av日韩在线播放| 国产精品秋霞免费鲁丝片| 嫩草影院入口| 欧美成人午夜免费资源| 免费看不卡的av| 成人毛片60女人毛片免费| 亚洲av男天堂| 啦啦啦中文免费视频观看日本| 狂野欧美激情性bbbbbb| 久久久国产欧美日韩av| 黄色配什么色好看| 中文欧美无线码| 夫妻午夜视频| 最近手机中文字幕大全| 中文字幕制服av| 亚洲国产精品999| 欧美精品人与动牲交sv欧美| 日日撸夜夜添| 久久99热这里只频精品6学生| a级毛片黄视频| 18禁动态无遮挡网站| 亚洲久久久国产精品| av福利片在线| 一二三四中文在线观看免费高清| 欧美成人精品欧美一级黄| 人人妻人人爽人人添夜夜欢视频| 欧美精品一区二区免费开放| 国产精品欧美亚洲77777| 热99国产精品久久久久久7| 18禁观看日本| 看免费成人av毛片| 日本av免费视频播放| 欧美日韩视频高清一区二区三区二| 人妻少妇偷人精品九色| 欧美97在线视频| 中文字幕另类日韩欧美亚洲嫩草| 国产97色在线日韩免费| 99九九在线精品视频| 久久精品国产亚洲av天美| 日韩精品免费视频一区二区三区| 久久人妻熟女aⅴ| 中文字幕色久视频| 精品久久久精品久久久| 亚洲精品一区蜜桃| 色网站视频免费| 美女国产视频在线观看| 黑人欧美特级aaaaaa片| 亚洲成人一二三区av| 人妻一区二区av| 久久久亚洲精品成人影院| 七月丁香在线播放| 高清不卡的av网站| 妹子高潮喷水视频| 国产午夜精品一二区理论片| 亚洲精品久久久久久婷婷小说| 久久久久久久精品精品| 秋霞在线观看毛片| 午夜福利一区二区在线看| 人人妻人人澡人人爽人人夜夜| 日本av免费视频播放| √禁漫天堂资源中文www| 水蜜桃什么品种好| 亚洲成av片中文字幕在线观看 | 人体艺术视频欧美日本| 大码成人一级视频| 老司机影院成人| 国产欧美亚洲国产| 26uuu在线亚洲综合色| 精品少妇久久久久久888优播| 一区二区三区激情视频| 美女午夜性视频免费| 国产午夜精品一二区理论片| av网站免费在线观看视频| www.熟女人妻精品国产| 欧美亚洲日本最大视频资源| 国产一区有黄有色的免费视频| 国产在线免费精品| 美女主播在线视频| 一区二区三区四区激情视频| av在线app专区| av有码第一页| 久久精品国产自在天天线| 日日摸夜夜添夜夜爱| 一个人免费看片子| 一级,二级,三级黄色视频| 免费观看性生交大片5| videos熟女内射| 亚洲国产精品一区二区三区在线| 国产激情久久老熟女| 在线免费观看不下载黄p国产| 欧美黄色片欧美黄色片| 五月伊人婷婷丁香| 日日爽夜夜爽网站| 男女午夜视频在线观看| 叶爱在线成人免费视频播放| 日韩三级伦理在线观看| 久久久久网色| 久久久欧美国产精品| 波多野结衣一区麻豆| 咕卡用的链子| 在线观看一区二区三区激情| 美女大奶头黄色视频| 精品少妇久久久久久888优播| 国产一区有黄有色的免费视频| 国产有黄有色有爽视频| 亚洲国产欧美在线一区| 国产 精品1| 精品少妇黑人巨大在线播放| 国产国语露脸激情在线看| 99久国产av精品国产电影| 久久亚洲国产成人精品v| 亚洲欧洲国产日韩| 2021少妇久久久久久久久久久| av视频免费观看在线观看| 欧美日韩一级在线毛片| 亚洲欧美一区二区三区久久| 国产日韩欧美在线精品| 欧美亚洲 丝袜 人妻 在线| 观看美女的网站| 亚洲av在线观看美女高潮| 日本-黄色视频高清免费观看| 久久久久人妻精品一区果冻| 国产欧美日韩一区二区三区在线| 国产av码专区亚洲av| 午夜福利,免费看| 国产精品国产三级专区第一集| av国产精品久久久久影院| 丁香六月天网| 精品福利永久在线观看| 国产亚洲午夜精品一区二区久久| 国产亚洲一区二区精品| 久久久久国产网址| 日日撸夜夜添| 国产精品久久久久久精品电影小说| 宅男免费午夜| 久久久久精品久久久久真实原创| 中文字幕精品免费在线观看视频| 精品人妻在线不人妻| av福利片在线| 97精品久久久久久久久久精品| 亚洲第一区二区三区不卡| 在线观看免费高清a一片| 国产伦理片在线播放av一区| 伦理电影免费视频| 国产一级毛片在线| 欧美日韩综合久久久久久| 日本猛色少妇xxxxx猛交久久| 久久精品久久久久久久性| 国产男女超爽视频在线观看| 在线观看三级黄色| 狂野欧美激情性bbbbbb| 国产毛片在线视频| av又黄又爽大尺度在线免费看| 老汉色∧v一级毛片| 精品国产露脸久久av麻豆| 国产片内射在线| 成年av动漫网址| 亚洲av国产av综合av卡| 亚洲国产最新在线播放| 国产伦理片在线播放av一区| 日日撸夜夜添| 丰满饥渴人妻一区二区三| 熟女电影av网| 丰满乱子伦码专区| 中文字幕制服av| 男女啪啪激烈高潮av片| 国产免费一区二区三区四区乱码| 1024香蕉在线观看| 国产成人免费观看mmmm| 黄网站色视频无遮挡免费观看| 黑丝袜美女国产一区| 国产精品免费大片| 亚洲国产成人一精品久久久| 久久99一区二区三区| 国产av国产精品国产| 美女午夜性视频免费| 观看av在线不卡| 国产老妇伦熟女老妇高清| 尾随美女入室| 一级毛片 在线播放| 国产无遮挡羞羞视频在线观看| 久久久精品94久久精品| 国产免费视频播放在线视频| 男女无遮挡免费网站观看| 精品国产一区二区久久| 777久久人妻少妇嫩草av网站| 看免费成人av毛片| 男女边吃奶边做爰视频| 久久久久久人妻| 波多野结衣一区麻豆| 啦啦啦啦在线视频资源| 亚洲人成电影观看| 国产精品免费视频内射| 久久国产精品大桥未久av| 黄片播放在线免费| 在线观看免费视频网站a站| 国产成人91sexporn| 国产精品久久久久久久久免| 亚洲精品aⅴ在线观看| 大片免费播放器 马上看| 在线精品无人区一区二区三| 国产亚洲午夜精品一区二区久久| 男女午夜视频在线观看| 免费在线观看黄色视频的| 欧美成人午夜精品| 精品国产乱码久久久久久男人| 两个人看的免费小视频| 一级爰片在线观看| 国产麻豆69| 亚洲精品一区蜜桃| 美女主播在线视频| 成人二区视频| 亚洲精品久久久久久婷婷小说| 黄色视频在线播放观看不卡| 国产成人精品无人区| av电影中文网址| videosex国产| 久久99热这里只频精品6学生| av视频免费观看在线观看| 七月丁香在线播放| 妹子高潮喷水视频| 只有这里有精品99| 一二三四在线观看免费中文在| 天堂中文最新版在线下载| 午夜日韩欧美国产| 不卡视频在线观看欧美| 在线观看国产h片| 国产色婷婷99| 美女国产视频在线观看| 午夜精品国产一区二区电影| av在线观看视频网站免费| 亚洲精品第二区| 久久99一区二区三区| 9191精品国产免费久久| 捣出白浆h1v1| 人人妻人人添人人爽欧美一区卜| 欧美老熟妇乱子伦牲交| 欧美国产精品一级二级三级| 一级爰片在线观看| 亚洲综合色惰| 亚洲图色成人| 国产极品粉嫩免费观看在线| 久久人人爽人人片av| 交换朋友夫妻互换小说| 人妻人人澡人人爽人人| 国产在线免费精品| 色播在线永久视频| 女性生殖器流出的白浆| 精品少妇久久久久久888优播| 国产又色又爽无遮挡免| 亚洲精品国产一区二区精华液| 一个人免费看片子| 99热网站在线观看| 国产深夜福利视频在线观看| 免费播放大片免费观看视频在线观看| 亚洲成人一二三区av| 男女边摸边吃奶| 午夜激情av网站| 高清黄色对白视频在线免费看| 一级毛片我不卡| 国产白丝娇喘喷水9色精品| 在线观看美女被高潮喷水网站| 少妇被粗大的猛进出69影院| 色哟哟·www| 午夜免费观看性视频| 国产激情久久老熟女| 精品一区二区三卡| 国产亚洲欧美精品永久| 一级爰片在线观看| 久久久精品国产亚洲av高清涩受| 熟妇人妻不卡中文字幕| 看非洲黑人一级黄片| 韩国精品一区二区三区| 亚洲三级黄色毛片| 免费在线观看黄色视频的| 亚洲国产欧美日韩在线播放| 国产精品无大码| 超碰97精品在线观看| av免费观看日本| 欧美成人精品欧美一级黄| 日本午夜av视频| 999精品在线视频| 欧美精品一区二区免费开放| 国产无遮挡羞羞视频在线观看| 欧美亚洲 丝袜 人妻 在线| 欧美成人午夜精品| 只有这里有精品99| 麻豆乱淫一区二区| 国产极品天堂在线| 一区二区三区激情视频| 免费人妻精品一区二区三区视频| 国产无遮挡羞羞视频在线观看| 免费观看a级毛片全部| 飞空精品影院首页| 久久精品久久久久久噜噜老黄| 亚洲图色成人| 亚洲美女视频黄频| 亚洲伊人色综图| 国产成人免费观看mmmm| 精品亚洲成a人片在线观看| 中国三级夫妇交换| 日本欧美视频一区| 又粗又硬又长又爽又黄的视频| 精品国产一区二区三区四区第35| 久久久国产一区二区| 日韩欧美一区视频在线观看| 一级毛片电影观看| a级片在线免费高清观看视频| 青春草亚洲视频在线观看| 国产毛片在线视频| 制服人妻中文乱码| 欧美日本中文国产一区发布| 亚洲,一卡二卡三卡| 午夜福利在线免费观看网站| 一本久久精品| 成年美女黄网站色视频大全免费| 女性被躁到高潮视频| 一级片免费观看大全| 亚洲欧美一区二区三区国产| 欧美亚洲 丝袜 人妻 在线| 热re99久久精品国产66热6| 欧美人与性动交α欧美精品济南到 | 1024视频免费在线观看| 免费黄色在线免费观看| 中文欧美无线码|