• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于雙分支融合和時頻壓縮激勵的魯棒語音關鍵詞識別

    2024-12-30 00:00:00張婷婷邱澤鵬趙臘生毛嘉瑩
    計算機應用研究 2024年12期

    摘 要:

    現(xiàn)實生活中的噪聲會對語音時域和頻域信息產(chǎn)生干擾,導致語音關鍵詞識別模型在噪聲環(huán)境下準確率下降。針對此問題,提出了雙分支融合單元,其中時域分支與頻域分支以并行的方式提取時域特征和頻域特征,降低了串行堆疊時域卷積和頻域卷積所帶來的信息損耗;隨后通過交叉融合的方式加強模型對時頻信息的感知,進一步增強了模型特征表達能力。同時提出了時頻壓縮激勵模塊,通過對時域與頻域中信息的重要性分布建模,可以為模型提供選擇性關注有價值片段的能力,進一步提高了模型魯棒性。在Google Command v2-12數(shù)據(jù)集上,相比于對比模型,所提模型在不同信噪比的測試中取得了更高的識別準確率,且參數(shù)量更低;對于訓練階段未涵蓋的信噪比條件,所提模型在測試中展現(xiàn)出更高的泛化性。實驗結果表明,本文模型在識別準確率和參數(shù)量方面更具優(yōu)勢,具有更好的噪聲魯棒性。

    關鍵詞:關鍵詞識別;雙分支融合;時頻壓縮激勵;魯棒性模型;注意力機制

    中圖分類號:TP391.42"" 文獻標志碼:A""" 文章編號:1001-3695(2024)12-018-3658-06

    doi: 10.19734/j.issn.1001-3695.2024.04.0121

    Robust speech keyword spotting based on dual-branch fusion and time-frequency squeeze and excitation

    Zhang Tingting, Qiu Zepeng, Zhao Lasheng, Mao Jiaying

    (Key Laboratory of Advanced Design amp; Intelligent Computing Ministry of Education, Dalian University, Dalian Liaoning 116622, China)

    Abstract:

    In real-life scenarios, noise interferes with the temporal-frequency information of speech, leading to a decrease in the accuracy of keyword spotting models in noisy environments. To address this issue, this paper proposed a dual-branch fusion unit, which the temporal branch and the frequency branch extracted temporal and frequency features in parallel to reduce the information loss caused by serially stacking temporal and frequency convolutions. Cross-fusion enhanced the model’s perception of temporal and frequency information, thereby it strengthened the model’s feature representation capability. Additionally, this paper proposed a temporal-frequency squeeze and excitation module, which modeled the importance distribution of information in the temporal and frequency domains, enabling the model to selectively focus on valuable segments and further improved its robustness. Experimental results demonstrated that on the Google Command v2-12 dataset, the proposed model achieved higher recognition accuracy in tests with different signal-to-noise ratios compared to contrast models, while having a lower parameter count. Furthermore, the proposed model generalized better during testing for signal-to-noise ratio conditions that were not included during training. Experimental results show that the proposed model has advantages in recognition accuracy and parameter quantity, and has better noise robustness.

    Key words:keyword spotting; dual-branch fusion; time-frequency squeeze amp; excitation; robust model; attention mechanism

    0 引言

    隨著人工智能的不斷發(fā)展,人們可以通過語音實現(xiàn)更為便捷的人機交互,例如可以通過“Hey Siri”等喚醒命令來輕松激活設備,通過類似“開”和“關”的常見命令來控制設備等。這些正是依賴于語音關鍵詞識別(keyword spotting,KWS)模型來實現(xiàn)的,此類任務通常運行于資源有限的邊緣設備中,通過持續(xù)監(jiān)聽特定的關鍵詞以觸發(fā)相應功能。為了獲得良好的用戶體驗,KWS系統(tǒng)應有良好的抗噪聲能力并滿足移動設備中低內(nèi)存占用的要求。

    近年來許多基于深度學習的方法如深度神經(jīng)網(wǎng)絡[1~3]、卷積神經(jīng)網(wǎng)絡(convolutional neural network,CNN)[4~8]和循環(huán)神經(jīng)網(wǎng)絡[9~11]等,在語音任務中表現(xiàn)出良好效果。其中,CNN因在改善模型性能和縮小模型規(guī)模兩方面的優(yōu)勢使得其在輕量化KWS模型中變得越來越流行。相比圖像來說,語音在橫向和縱向空間分別展現(xiàn)出其特有的時域和頻域特征,傳統(tǒng)的卷積方式可能并不適合所有的KWS任務。為了有效挖掘語音中的時域信息,TC-ResNet[12]采用一維時間卷積來對特征進行處理,MatchBoxNet[13]使用深度可分離卷積(depthwise separable convolution,DWS)取代了TC-ResNet中的標準卷積結構以尋求更低的參數(shù)量。雖然相較于二維方法它們有著更低的計算量,但Kim等人[14]考慮到一維卷積運算的平移等方差性質(zhì)在頻域中不保留的問題,提出了廣播殘差網(wǎng)絡BC-ResNet以同時利用一維卷積和二維卷積的優(yōu)點。目前基于卷積的KWS模型在噪聲環(huán)境中性能下降明顯,越來越多的學者開始研究魯棒性模型。Ng等人[15]提出了ConvMixer網(wǎng)絡模型,其在同時使用一維卷積和二維卷積提取特征的基礎上,通過混合層實現(xiàn)了特征交互,并使用課程式學習的訓練策略進一步提升了模型魯棒性。此外,通過多條件訓練的訓練策略[1,16,17]可以提高模型的噪聲魯棒性,其通過使用多種不同噪聲環(huán)境下的音頻數(shù)據(jù)來訓練神經(jīng)網(wǎng)絡模型。但考慮到訓練策略主要作用在于調(diào)優(yōu)模型參數(shù),識別效果仍然受限于模型學習能力的上限,越來越多的學者也從KWS模型本身尋求改進,如使用注意力機制[18]增強模型的特征提取能力。文獻[19~22]使用自注意力機制來獲取長距離上下文信息,有效地建模全局依賴關系,使模型能夠更好地應對復雜的噪聲環(huán)境,但隨之帶來的較大的參數(shù)量和內(nèi)存占用使其難以應用于小型設備中。Kwon[23]設計了輕量級的注意力機制以降低模型的參數(shù)量和計算復雜度,在提供了選擇性聚焦于音頻序列中有價值片段能力的同時降低了對噪聲信息的關注。

    噪聲在語音的時域和頻域中會產(chǎn)生不同的影響,在時域中其通常具有隨機性和不規(guī)則性,而在頻域上,噪聲可能引入額外的頻率成分[24]。目前基于卷積的KWS模型通常將時域卷積與頻域卷積按順序組合在一起[14, 15],形成串行化的處理模式,往往會導致經(jīng)過頻域卷積丟失的時域信息無法參與接下來的時域特征提取,反之亦然。文獻[25]認為這種靜態(tài)單分支結構很難解釋和修改,于是采用雙分支結構融合全局和局部的特征。ASGRU-CNN[26]將并行雙分支結構分為空間特征提取和時序特征提取兩部分,通過聯(lián)合處理模塊融合了三維卷積、二維卷積以及循環(huán)神經(jīng)網(wǎng)絡所提取的特征。目前雙分支結構傾向于不同尺度特征間的融合,且參數(shù)量較大,少有針對語音時域和頻域特性的討論。

    為了解決上述問題,本文構建了輕量級的并行時頻卷積網(wǎng)絡(parallel time-frequency convolution network, PTFNet),提出了雙分支融合單元(dual-branch fusion unit, DBF)和時頻壓縮激勵模塊(time-frequency squeeze and excitation module, TFSE)。針對上述中串行化特征提取所帶來的特征信息損耗問題,DBF的時域分支和頻域分支以并行的方式提取時域和頻域信息以降低串行結構在特征提取時產(chǎn)生的信息損耗,之后分別采用雙向池化并進一步提取時頻信息,以交叉融合的方式進一步加強了模型對時頻信息的感知。針對上述噪聲對語音數(shù)據(jù)的影響使得模型魯棒性下降的問題,TFSE通過在語音的時域與頻域中提取注意力權重向量來實現(xiàn)時域加權和頻域加權,賦予模型選擇性地關注不同頻帶和不同時間幀中有效特征信息的能力,最終使模型更加關注有價值的語音信息,減少對不相關信息的關注,從而增強模型魯棒性。

    1 PTFNet模型

    1.1 整體流程

    本文提出的并行時頻卷積網(wǎng)絡PTFNet整體流程如圖1所示。首先在特征提取中,語音信號會經(jīng)過預加重、分幀和加窗處理,之后每一幀都會通過傅里葉變換得到頻譜圖,頻譜圖會通過一個64維的濾波器組,并沿頻率維度取對數(shù)以獲得FBank特征。本文提出的PTFNet輸入為FBank特征,模型的輸出對應標簽的分類概率,概率中的最大值表示當前語音的預測標簽。

    1.2 模型框架

    PTFNet的整體架構如圖2所示。FBank特征首先進入預卷積塊(pre-block),其由兩個二維深度可分離卷積組成,用來實現(xiàn)對特征的初步提取。中間部分創(chuàng)建了四層殘差塊(residual block,ResBlock),每個殘差塊由雙分支融合單元和時頻壓縮激勵模塊兩部分組成,兩者協(xié)同作用,可以在充分利用時頻信息的同時使模型能夠對不同特征進行重要性調(diào)整,從而提高模型的噪聲魯棒性。最后是后卷積塊(post-block),由三層一維深度可分離卷積組成,在不增加過多參數(shù)量的同時增加特征通道數(shù),通過逐層卷積以增強模型的特征提取能力。最終經(jīng)過最大池化層、線性層以及softmax的處理輸出分類概率。

    1.3 雙分支融合單元

    為了解決只使用一維卷積導致的平移等方差性質(zhì)在頻域中不保留的問題,文獻[15]使用二維頻域卷積子塊和一維時域卷積子塊進行特征提取,本文在DBF模塊設計中借鑒了該方法以增強模型的特征表達能力,但本文考慮到串行化特征提取方式可能導致信息損耗,因此采用了并行處理方式來提取頻域特征和時域特征,詳細架構如圖3所示。為了使操作過程更加直觀,圖3并沒有展示代碼中的轉置操作。

    在雙分支融合單元中,采用了并行方式分離時域和頻域特征的提取流程,時域特征提取和頻域特征提取會對相同的輸入進行不同的處理,時域分支和頻域分支又單獨形成雙分支結構,以便提取更為豐富的時域與頻域信息,并通過交叉融合的方式相互補充。

    1.4 時頻壓縮激勵模塊

    受壓縮激勵模塊[28]在計算機視覺領域中有效性的啟發(fā),本文提出了TFSE,詳細架構如圖4所示。它可以針對噪聲數(shù)據(jù)對不同頻帶以及不同時間幀影響不同的特點,分別在時域方向上和頻域方向上應用注意力機制生成兩個權重向量,引導模型重點關注有價值的時間幀和頻率區(qū)域,再將其與原來的特征圖相乘,為每個分量分配差異化的權重,以便于自適應地調(diào)節(jié)每個時間幀以及每個頻帶的特征在后續(xù)網(wǎng)絡層中的重要性,賦予模型選擇性地關注不同頻帶和不同時間幀中有效特征片段的能力,從而使模型能夠強調(diào)有價值的特征并減少對噪聲信息的關注。

    首先特征圖會在時間和頻率維度上分別經(jīng)過全局平均池化獲得兩個分別包含時域和頻域全局信息的一維特征向量ZT(h)和ZF(k),計算公式如式(9)(10)所示。

    ZT(i)=1h∑hj=1x(i, j)(9)

    ZF(j)=1w∑wi=1x(i, j)(10)

    其中:ZF和ZT分別表示沿著頻域方向和時域方向做平均池化,ZT(i)是ZT的第i個元素,ZF(j)是ZF的第j個元素。之后ZT和ZF通過全連接層的學習生成兩個注意力權重向量即Vt和Vf,Vf代表每個頻帶的重要性系數(shù),Vt代表每個時間幀的重要性系數(shù);然后Vf和Vt會擴展回原來的形狀,并與O進行點乘,完成在頻率以及時間維度上對原始特征的重標定。計算方式如式(11)~(13)所示。

    Vf=σ(FC(λ(FC(ZF(O)))))(11)

    Vt=σ(FC(λ(FC(ZT(O)))))(12)

    Y=O(Ep(Vf)Ep(Vt))(13)

    其中:FC()代表線性層;σ()表示sigmoid激活函數(shù);λ()代表ReLU激活函數(shù);Y表示經(jīng)過TFSE層的輸出結果。

    2 實驗結果與分析

    2.1 實驗環(huán)境及數(shù)據(jù)集

    實驗中使用的處理器為10核20線程的i9-10900F處理器,圖形處理器為RTX-3090,深度學習框架為PyTorch。所有實驗均在相同的硬件條件下進行訓練、驗證和測試。

    本文在Google Speech Commands v2[29]數(shù)據(jù)集上對模型進行評估,該數(shù)據(jù)集包含35個不同命令關鍵詞的105 000個語音片段,數(shù)據(jù)集的采樣頻率為16 000 Hz,每條長度為1 s。本文將其劃分為12類子集,具體來說涵蓋了“up”“down”“l(fā)eft”“right”“yes”“no”“on”“off”“go”“stop”“silence”和“unknown”。其中,“unknown”類別是數(shù)據(jù)集中未歸類到其他命令的語音片段。為了能夠公平方便地進行比較,本實驗遵循官方提供的數(shù)據(jù)分割比例劃分數(shù)據(jù),其中訓練集占80%,驗證集占10%,測試集占10%。并且使用文獻[29, 30]中的常見設置,重新平衡了“silence”和“unknown”兩個類別的樣本數(shù)量。

    此外,本文還引入了來自MUSAN[31]數(shù)據(jù)集的噪聲樣本以模擬復雜的噪聲環(huán)境。它包含了930條數(shù)據(jù)長短不一的各種技術與非技術的噪聲,如汽車喇叭和雷聲等,采用16 000 Hz的采樣率對音頻片段進行了隨機采樣,并將其與原始音頻進行混合,以形成clean、0 dB、-5 dB、-10 dB四種不同的信噪比的語音,所有不同信噪比的語音均一起參與模型訓練過程。在測試過程中,本文在五種不同信噪比中進行了單獨的測試,即[clean,20 dB,0 dB,-5 dB,-10 dB],其中額外引入了在訓練過程中不存在的20 dB信噪比語音進行測試,以體現(xiàn)模型對未見過的信噪比數(shù)據(jù)的泛化性。

    2.2 實現(xiàn)細節(jié)

    本文使用的幀偏移為10 ms、窗口大小為25 ms的64維對數(shù)梅爾濾波器組來提取聲學特征,batchsize設置為128。損失函數(shù)使用二元交叉熵損失。首先對語音數(shù)據(jù)的輸入長度進行處理,不足1 s的用0填充,大于1 s的將被截斷,經(jīng)過這樣處理得到的每個特征圖大小為98×64。在訓練過程中,遵循文獻[30]的數(shù)據(jù)增強設置,時間平移范圍為-100~100 ms,并采用了最大長度為25 ms的時間和頻率掩蔽參數(shù)的頻譜圖掩蔽。使用初始學習率為6E-3的Adam優(yōu)化器,并且設置第五個epoch之后的每四個epochs間隔上乘以0.85的學習率衰減因子。此外,使用早停法來避免網(wǎng)絡發(fā)生過擬合現(xiàn)象,將模型訓練設置為:首先訓練10次,防止模型過早收斂。在10個epochs以后,將早停輪次設置為5,如果連續(xù)5個epochs中的驗證集準確率不高于當前最佳標準時停止訓練,并將加載當前驗證集準確率最高的模型以進入接下來的最終測試階段。

    2.3 對比實驗

    本文從參數(shù)量、計算量和準確率三個方面將所提模型與現(xiàn)有相關模型進行比較。其中,使用準確率作為主要評估指標來反映模型在噪聲環(huán)境下的性能;模型的計算量使用thop庫進行計算,輸入為單個語音樣本。對比模型采用相同的實驗設置,并且使用官方提供的源代碼重新進行訓練,結果如表2所示。從表2可以看出,在任意信噪比條件下的測試中,本文所提出的模型都展現(xiàn)出了更好的識別效果,且參數(shù)量更低。

    MHAtt-RNN[32]采用多頭注意力機制來捕獲輸入序列中的復雜相關性,然而在低信噪比的場景中其表現(xiàn)并不理想,這是因為噪聲可能會阻礙模型有效捕獲關鍵信息的能力,并且采用的注意力機制將明顯地提升參數(shù)量及運算量,使得MHAtt-RNN的參數(shù)量及計算量高于本文方法10倍。

    Matchbox[13]使用了一維DWS建立識別架構以降低參數(shù)量及運算量,與二維卷積相比,一維DWS能夠降低模型的參數(shù)量,限制運算量的增長。盡管Matchbox在堆疊模型時參數(shù)量有所上升,但仍保持著較低的運算量。在不同信噪比下的準確率測試中明顯低于本文模型,說明僅采用一維DWS可能降低模型在噪聲條件下的特征提取能力。

    BC-ResNet[14]認為Matchbox僅使用一維DWS,缺乏頻域維度的信息,提出了同時使用一維卷積和二維卷積的廣播殘差網(wǎng)絡,并且其模型規(guī)??梢愿淖?;在增加其網(wǎng)絡規(guī)模后,網(wǎng)絡的參數(shù)量和模型識別能力都有所提升,說明合理增大規(guī)??梢蕴岣吣P妥R別能力的上限。相比于對比實驗中準確率最高的BC-ResNet-8,本文提出的PTFNet在不同信噪比環(huán)境的測試中均取得了更好的效果,在clean、0 dB、-5 dB、-10 dB的測試中識別準確率分別提升了0.58、1.84、1.4、1.7百分點,且BC-ResNet-8的參數(shù)量及運算量高于PTFNet的四倍。

    QBCResNet[33]提出了四元數(shù)神經(jīng)模型,旨在保持模型識別性能的前提下降低模型的參數(shù)量和運算量,在KWS中可以有效地替代傳統(tǒng)的聲學建模方案。四元數(shù)卷積涉及四元數(shù)濾波器矩陣和四元數(shù)向量的哈密頓積,傳統(tǒng)卷積的計算量是其4倍[33]。QBCResNet明顯降低了運算量,在clean條件下識別準確率與BC-ResNet-6接近,但在噪聲條件下性能略低于BC-ResNet-6,且與PTFNet模型有著一定的差距,說明其在低信噪比時不能很好地適應帶噪語音數(shù)據(jù)。

    ConvMixer[15]通過混合器模塊來計算全局通道特征交互,同時使用了課程式學習的訓練策略提高模型的魯棒性。但其首先使用一維DWS提取時域信息,之后經(jīng)過二維DWS來提取頻域信息,串行的特征提取方式可能導致信息損耗。此外,使用線性層搭建的混合器模塊會帶來較多的參數(shù)量及運算量。

    本文提出的PTFNet采用了雙分支融合單元和時頻壓縮激勵模塊,其中雙分支融合單元通過并行方式對每個分支進行雙向池化來進一步提取并融合時域信息和頻域信息,從而加強模型對時頻信息的感知,使模型能夠在提取更全面的特征信息的同時降低信息損耗。時頻壓縮激勵模塊分別在時域和頻域方向上應用注意力機制賦予模型選擇性地關注不同頻帶和不同時間幀中有效特征片段的能力,從而使模型選擇性地強調(diào)有價值的特征并減少對噪聲信息的關注。實驗證明,本文模型在僅有77 K參數(shù)的情況下實現(xiàn)了更高的模型魯棒性,這進一步證實了所設計模型的有效性。此外,對于訓練過程中沒有的20 dB信噪比數(shù)據(jù),PTFNet模型展現(xiàn)出了更高的泛化性,達到了96.24%的識別精度。

    2.4 消融實驗

    為了進一步驗證改進部分的有效性,本節(jié)將分別評估網(wǎng)絡中所包含的兩個核心組件對模型性能的影響,分別建立了有DBF無TFSE的網(wǎng)絡、有TFSE無DBF的網(wǎng)絡以及同時不包含DBF和TFSE的網(wǎng)絡。因為DBF中采用時頻并行的特征提取方式,所以在去除DBF的實驗中,模型采用串行堆疊頻域卷積和時域卷積的特征提取方式以驗證雙分支的有效性。為了更準確地評估每個模塊對模型性能的影響,本部分將參數(shù)量精確到小數(shù)點后三位,并保持其他實驗設置不變。實驗結果如表3所示。

    從表3中可以發(fā)現(xiàn)單獨去除任何所提出的方法,都會降低模型的準確率。在純凈條件下測試時,分別移除DBF和TFSE時的性能均有下降,隨著信噪比的不斷降低,兩者下降幅度都更加明顯,說明所提出的方法均能提升噪聲條件下的模型魯棒性。特別是在低信噪比下移除DBF比移除TFSE所帶來的性能下降更加明顯,在-5 dB、-10 dB信噪比下去除DBF的下降幅度明顯大于移除TFSE,說明相比于TFSE,DBF更能提升噪聲條件下的模型魯棒性。此外,當同時將這兩個核心組件移除時,模型的識別準確率明顯下降,并且均低于單獨移除某個組件的性能,所提出的兩種方法在僅增加7.64 K參數(shù)的情況下實現(xiàn)了可觀的性能提升,證明了其有效性。

    為了驗證DBF中并行方式和交叉融合的有效性,本文對DBF模塊進行了消融實驗,如表4所示。交叉融合依賴于雙分支結構的特征提取,所以本文首先移除了交叉融合部分以驗證其性能,其次在此基礎上進一步移除了并行方式,采用串行的頻域、時域卷積堆疊方式進行了實驗,以驗證并行雙分支的有效性。

    當移除交叉融合部分時,隨著信噪比的降低,模型識別準確率下降更為明顯,在clean、20 dB、0 dB、-5 dB、-10 dB信噪比條件下的測試中分別下降了0.64、0.88、1.46、1.56、1.68百分點,表明交叉融合部分能夠增強模型對語音信息的感知能力,提高模型在噪聲條件下的識別準確率。在此基礎上移除并行結構,模型識別準確率進一步下降,說明相比于串行單分支結構,時頻并行的雙分支結構能夠改善模型在噪聲條件下的識別性能。

    本文在雙分支融合單元中使用了平均池化來壓縮時域和頻域信息,現(xiàn)將其替換為最大池化進行消融實驗,結果如表5所示。從表5可以發(fā)現(xiàn),使用最大池化的模型精度在各個信噪比下均低于使用平均池化進行降維提取的識別精度,說明在當前任務中,使用平均池化可以保留更多的有用信息,更有利于提升模型識別準確率。

    3 結束語

    本文提出了并行時頻卷積網(wǎng)絡,其中通過使用雙分支融合單元來減少串行化堆疊時域卷積和頻域卷積所產(chǎn)生的特征損耗,并加強模型對時頻信息的感知;通過時頻壓縮激勵模塊,模型可以選擇性地關注不同頻帶和不同時間幀中有價值的信息以進一步提升模型的魯棒性。在包含多種不同信噪比的Google Speech Commands v2-12數(shù)據(jù)集上,本文模型取得了更高的準確率,并且參數(shù)量更低。

    本文研究了加性噪聲對模型的影響,未來將進一步研究混響(乘性噪聲)對模型性能的影響。此外,在未來的研究中將考慮對不同種類的噪聲進行細致的探討,并進行相應的模型設計,使模型能夠應用于更多的噪聲場景。

    參考文獻:

    [1]Prabhavalkar R, Alvarez R, Parada C, et al. Automatic gain control and multi-style training for robust small-footprint keyword spotting with deep neural networks [C]// Proc of the 40th International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press, 2015: 4704-4708.

    [2]Miah M N, Wang Guoping. Keyword spotting with deep neural network on edge devices [C]// Proc of the 12th International Conference on Electronics Information and Emergency Communication. Piscata-way, NJ: IEEE Press, 2022: 98-102.

    [3]Pereira P H, Beccaro W, Ramírez M A. Evaluating robustness to noise and compression of deep neural networks for keyword spotting [J]. IEEE Access, 2023, 11: 53224-53236.

    [4]Sainath T, Parada C. Convolutional neural networks for small-footprint keyword spotting [C]// Proc of the InterSpeech. [S.l.]: International Speech Communication Association, 2015: 1478-1482.

    [5]Li Ximin, Wei Xiaodong, Qin Xiaowei. Small-footprint keyword spotting with multi-scale temporal convolution [C]// Proc of InterSpeech. [S.l.]: International Speech Communication Association, 2020: 1987-1991.

    [6]Rostami A M, Karimi A, Akhaee M A. Keyword spotting in continuous speech using convolutional neural network [J]. Speech Communication, 2022, 142(7): 15-21.

    [7]Tsai T H, Lin Xinhui. Speech densely connected convolutional networks for small-footprint keyword spotting [J]. Multimedia Tools and Applications, 2023, 82(25): 39119-39137.

    [8]孫興偉, 李軍鋒, 顏永紅. 結合卷積神經(jīng)網(wǎng)絡與混響時間注意力機制的混響抑制 [J]. 聲學學報, 2021, 46(6): 1234-1241. (Sun Xingwei, Li Junfeng, Yan Yonghong. Speech dereverberation method with convolutional neural network and reverberation time attention [J]. Acta Acustica, 2021, 46(6): 1234-1241.)

    [9]Arik S O, Kliegl M, Child R, et al. Convolutional recurrent neural networks for small-footprint keyword spotting [C]// Proc of InterSpeech. [S.l.]: International Speech Communication Association, 2017: 1606-1610.

    [10]Liu Zuozhen, Li Ta, Zhang Pengyuan. RNN-T based open-vocabulary keyword spotting in mandarin with multi-level detection [C]// Proc of the 46th International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press, 2021: 5649-5653.

    [11]Zhang Ying, Zhu Shirong, Yu Chao, et al. Small-footprint keyword spotting based on gated channel transformation sandglass residual neural network [J]. International Journal of Pattern Recognition and Artificial Intelligence, 2022, 36(7): 2258003.

    [12]Choi S, Seo S, Shin B, et al. Temporal convolution for real-time keyword spotting on mobile devices [C]// Proc of InterSpeech. [S.l.]: International Speech Communication Association, 2019: 3372-3376.

    [13]Majumdar S, Ginsburg B. MatchboxNet: 1D time-channel separable convolutional neural network architecture for speech commands recognition [C]// Proc of InterSpeech. [S.l.]: International Speech Communication Association, 2020: 3356-3360.

    [14]Kim B, Chang S, Lee J, et al. Broadcasted residual learning for efficient keyword spotting [C]// Proc of InterSpeech. [S.l.]: International Speech Communication Association, 2021: 4538-4542.

    [15]Ng D, Chen Yunqi, Tian Biao, et al. ConvMixer: feature interactive convolution with curriculum learning for small footprint and noisy far-field keyword spotting [C]// Proc of the 47th International Confe-rence on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press, 2022: 3603-3607.

    [16]Wang Yuxuan, Getreuer P, Hughes T, et al. Trainable frontend for robust and far-field keyword spotting [C]// Proc of the 42nd International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press, 2017: 5670-5674.

    [17]López-Espejo I, Tan Zhenghua, Jensen J. A novel loss function and training strategy for noise-robust keyword spotting [J]. IEEE/ACM Trans on Audio, Speech, and Language Processing, 2021, 29: 2254-2266.

    [18]趙澤宇, 張衛(wèi)強, 劉加. 采用注意力機制和多任務訓練的端到端無語音識別關鍵詞檢索系統(tǒng) [J]. 信號處理, 2020, 36(6): 839-851. (Zhao Zeyu, Zhang Weiqiang, Liu Jia. End-to-end keyword search system based on attention mechanism and multitask learning [J]. Journal of Signal Processing, 2020, 36(6):" 839-851.)

    [19]Berg A, O’connor M, Cruz M T. Keyword transformer: a self-attention model for keyword spotting [C]// Proc of InterSpeech. [S.l.]: International Speech Communication Association, 2021: 4249-4253.

    [20]沈逸文, 孫俊. 結合Transformer的輕量化中文語音識別 [J]. 計算機應用研究, 2023, 40(2): 424-429. (Shen Yiwen, Sun Jun. Lightweight Chinese speech recognition with Transformer [J]. Application Research of Computers, 2023, 40(2): 424-429.)

    [21]Gulati A, Qin J, Chiu C C, et al. Conformer: convolution-augmented transformer for speech recognition [C]// Proc of InterSpeech. [S.l.]: International Speech Communication Association, 2020: 5036-5040.

    [22]胡從剛, 申藝翔, 孫永奇, 等. 基于Conformer的端到端語音識別方法 [J]. 計算機應用研究, 2024, 41(7): 2018-2024. (Hu Conggang, Shen Yixiang, Sun Yongqi, et al. End-to-end method based on Conformer for speech recognition [J]. Application Research of Computers, 2024, 41(7): 2018-2024.)

    [23]Kwon S. Att-Net: enhanced emotion recognition system using lightweight self-attention module [J]. Applied Soft Computing, 2021, 102(4): 107101.

    [24]Zhao Boxiang, Wang Shuliang, Chi Lianhua, et al. Hanm: hierarchical additive noise model for many-to-one causality discovery [J]. IEEE Trans on Knowledge and Data Engineering, 2023, 35(12): 12708-12720.

    [25]Peng Yifan, Dalmia S, Lane I, et al. Branchformer: parallel MLP-attention architectures to capture local and global context for speech recognition and understanding [C]// Proc of the 39th International Conference on Machine Learning.[S.l.]: PMLR, 2022: 17627-17643.

    [26]高鵬淇, 黃鶴鳴. 基于ASGRU-CNN時空雙通道的語音情感識別 [J]. 計算機仿真, 2024, 41(4): 180-186.(Gao Pengqi, Huang Heming. Speech emotion recognition based on ASGRU-CNN spatiotemporal dual channel [J]. Computer Simulation, 2024, 41(4): 180-186.)

    [27]Huang Chun, Wei Hefu. Speech-music classification model based on improved neural network and beat spectrum [J]. International Journal of Advanced Computer Science and Applications, 2023, 14(7): 52-64.

    [28]Hu Jie, Li Shen, Sun Gang. Squeeze-and-excitation networks [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2018: 7132-7141.

    [29]Warden P. Speech Commands: a dataset for limited-vocabulary speech recognition [EB/OL]. (2018-04-09). https://arxiv.org/pdf/1804.03209.

    [30]Tang R, Lin J. Deep residual learning for small-footprint keyword spotting [C]// Proc of the 43rd International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press, 2018: 5484-5488.

    [31]Snyder D, Chen Guoguo, Povey D. MUSAN: a music, speech, and noise corpus [EB/OL]. (2015-10-28). https://arxiv.org/pdf/1510.08484.

    [32]Rybakov O, Kononenko N, Subrahmanya N, et al. Streaming keyword spotting on mobile devices [C]// Proc of InterSpeech. [S.l.]: International Speech Communication Association, 2020: 2277-2281.

    [33]Chaudhary A, Abrol V. Towards on-device keyword spotting using low-footprint quaternion neural models [C]// Proc of IEEE Workshop on Applications of Signal Processing to Audio and Acoustics. Pisca-taway, NJ: IEEE Press, 2023: 1-5.

    欧美人与性动交α欧美软件| av欧美777| 亚洲精品一区蜜桃| 久久久精品免费免费高清| 亚洲视频免费观看视频| 成年美女黄网站色视频大全免费| 波多野结衣一区麻豆| 18禁裸乳无遮挡动漫免费视频| 淫妇啪啪啪对白视频 | 色老头精品视频在线观看| 欧美精品啪啪一区二区三区 | 99久久人妻综合| 两个人免费观看高清视频| 日韩三级视频一区二区三区| 两性夫妻黄色片| 少妇的丰满在线观看| 亚洲av电影在线观看一区二区三区| 亚洲精品av麻豆狂野| 97人妻天天添夜夜摸| 成人国产一区最新在线观看| 无遮挡黄片免费观看| 国产亚洲av片在线观看秒播厂| 国产精品久久久人人做人人爽| 国产精品一区二区在线观看99| 欧美日韩成人在线一区二区| 免费在线观看黄色视频的| 成年美女黄网站色视频大全免费| 日日摸夜夜添夜夜添小说| 国产精品欧美亚洲77777| 欧美成狂野欧美在线观看| 高清黄色对白视频在线免费看| 亚洲精品一二三| 亚洲精品久久成人aⅴ小说| 日本欧美视频一区| 一二三四在线观看免费中文在| 亚洲专区字幕在线| 欧美日韩国产mv在线观看视频| 99国产精品99久久久久| 日日摸夜夜添夜夜添小说| 50天的宝宝边吃奶边哭怎么回事| 日日摸夜夜添夜夜添小说| 国产在视频线精品| 老熟妇乱子伦视频在线观看 | 狂野欧美激情性xxxx| 国产日韩一区二区三区精品不卡| a 毛片基地| 亚洲伊人色综图| 99re6热这里在线精品视频| 天堂中文最新版在线下载| 中文欧美无线码| 可以免费在线观看a视频的电影网站| 亚洲 欧美一区二区三区| 一级a爱视频在线免费观看| av在线app专区| www.999成人在线观看| 男女下面插进去视频免费观看| 精品国产一区二区久久| 亚洲精品av麻豆狂野| 亚洲欧美激情在线| 日韩欧美一区二区三区在线观看 | 丁香六月欧美| 亚洲成人免费电影在线观看| av欧美777| 国产有黄有色有爽视频| 在线av久久热| 国产成+人综合+亚洲专区| 欧美 日韩 精品 国产| 少妇被粗大的猛进出69影院| 永久免费av网站大全| 色婷婷av一区二区三区视频| 窝窝影院91人妻| 久久人人爽人人片av| 国产成人系列免费观看| 男女无遮挡免费网站观看| 99精国产麻豆久久婷婷| 十分钟在线观看高清视频www| 操美女的视频在线观看| 亚洲国产欧美网| 丝袜在线中文字幕| 亚洲国产日韩一区二区| tocl精华| 国产亚洲午夜精品一区二区久久| 黄色a级毛片大全视频| 美女国产高潮福利片在线看| 宅男免费午夜| 操出白浆在线播放| 不卡av一区二区三区| 精品一区二区三卡| 这个男人来自地球电影免费观看| av在线播放精品| 999久久久国产精品视频| av有码第一页| 各种免费的搞黄视频| www日本在线高清视频| 精品国产一区二区三区四区第35| 十八禁人妻一区二区| 久久人人爽av亚洲精品天堂| 韩国精品一区二区三区| 国产免费福利视频在线观看| 人妻久久中文字幕网| 91九色精品人成在线观看| 亚洲国产欧美日韩在线播放| 成年人免费黄色播放视频| 国产成人影院久久av| 一级片'在线观看视频| 欧美乱码精品一区二区三区| 12—13女人毛片做爰片一| 欧美黄色片欧美黄色片| 国产熟女午夜一区二区三区| 色综合欧美亚洲国产小说| 久久精品国产综合久久久| 老熟妇仑乱视频hdxx| 午夜福利在线免费观看网站| 国产av精品麻豆| av线在线观看网站| 国产亚洲午夜精品一区二区久久| 这个男人来自地球电影免费观看| 亚洲av欧美aⅴ国产| 日韩大码丰满熟妇| 欧美xxⅹ黑人| 欧美xxⅹ黑人| 国产精品久久久久久人妻精品电影 | 自线自在国产av| 日韩欧美国产一区二区入口| 国产精品一二三区在线看| 老熟妇仑乱视频hdxx| 人人妻,人人澡人人爽秒播| 老熟女久久久| 久久毛片免费看一区二区三区| 成人亚洲精品一区在线观看| 亚洲人成电影免费在线| 99久久99久久久精品蜜桃| 亚洲全国av大片| 18禁国产床啪视频网站| 亚洲欧美色中文字幕在线| 制服人妻中文乱码| 国产精品欧美亚洲77777| 18禁黄网站禁片午夜丰满| 99久久精品国产亚洲精品| 亚洲av男天堂| 黑人猛操日本美女一级片| www.熟女人妻精品国产| 久久久久久久精品精品| 美女福利国产在线| 色婷婷久久久亚洲欧美| 丰满人妻熟妇乱又伦精品不卡| 午夜久久久在线观看| 搡老乐熟女国产| 亚洲欧美一区二区三区久久| 九色亚洲精品在线播放| 亚洲av美国av| 国产极品粉嫩免费观看在线| 日日摸夜夜添夜夜添小说| 久久久久久人人人人人| 亚洲av电影在线进入| 午夜老司机福利片| 国产日韩一区二区三区精品不卡| 国产成人欧美| 女人久久www免费人成看片| 十八禁人妻一区二区| 久久午夜综合久久蜜桃| 每晚都被弄得嗷嗷叫到高潮| 亚洲精品美女久久av网站| 制服诱惑二区| 黄色毛片三级朝国网站| 亚洲成人免费av在线播放| 欧美精品高潮呻吟av久久| 中文字幕另类日韩欧美亚洲嫩草| 老司机午夜福利在线观看视频 | 在线观看免费午夜福利视频| 午夜日韩欧美国产| 亚洲五月色婷婷综合| 亚洲精品美女久久久久99蜜臀| 美女高潮到喷水免费观看| 99精品久久久久人妻精品| 真人做人爱边吃奶动态| 国产精品久久久av美女十八| 精品免费久久久久久久清纯 | 国产精品久久久久久人妻精品电影 | 99热全是精品| 国产三级黄色录像| 亚洲av男天堂| 91精品国产国语对白视频| 天天躁夜夜躁狠狠躁躁| 免费女性裸体啪啪无遮挡网站| 色婷婷av一区二区三区视频| 99国产精品一区二区三区| 免费黄频网站在线观看国产| 亚洲av欧美aⅴ国产| 黑人猛操日本美女一级片| 一区二区三区激情视频| 亚洲精品粉嫩美女一区| 18禁裸乳无遮挡动漫免费视频| 亚洲欧美日韩另类电影网站| 亚洲久久久国产精品| 欧美人与性动交α欧美精品济南到| 精品国产乱子伦一区二区三区 | 久久99一区二区三区| 黑人猛操日本美女一级片| 亚洲欧美激情在线| 国产精品av久久久久免费| 久久久久视频综合| 一边摸一边做爽爽视频免费| 久久精品国产亚洲av香蕉五月 | 在线观看免费视频网站a站| 老鸭窝网址在线观看| 国产成人av教育| 亚洲国产欧美网| 亚洲欧美色中文字幕在线| 亚洲精品美女久久av网站| bbb黄色大片| 最新的欧美精品一区二区| 伦理电影免费视频| 亚洲国产成人一精品久久久| 亚洲九九香蕉| 正在播放国产对白刺激| 18禁观看日本| 大香蕉久久网| 国产男人的电影天堂91| 999久久久精品免费观看国产| 久久久水蜜桃国产精品网| 一级片免费观看大全| av天堂久久9| 国产精品熟女久久久久浪| 又黄又粗又硬又大视频| 99久久精品国产亚洲精品| 久久国产精品人妻蜜桃| 五月天丁香电影| 波多野结衣av一区二区av| 宅男免费午夜| 五月开心婷婷网| 一区在线观看完整版| 久久午夜综合久久蜜桃| 妹子高潮喷水视频| 久久中文看片网| 性高湖久久久久久久久免费观看| 18禁黄网站禁片午夜丰满| 窝窝影院91人妻| 妹子高潮喷水视频| 欧美老熟妇乱子伦牲交| av网站免费在线观看视频| 欧美中文综合在线视频| 欧美性长视频在线观看| 国产在线观看jvid| 日韩视频一区二区在线观看| 超色免费av| 亚洲综合色网址| 亚洲精品国产av成人精品| 麻豆乱淫一区二区| 精品视频人人做人人爽| 午夜福利在线免费观看网站| 午夜老司机福利片| 50天的宝宝边吃奶边哭怎么回事| 久热爱精品视频在线9| 啦啦啦免费观看视频1| 男女床上黄色一级片免费看| a级毛片在线看网站| 中文精品一卡2卡3卡4更新| 久久精品国产综合久久久| 亚洲欧美激情在线| 国产一卡二卡三卡精品| 一区在线观看完整版| 亚洲欧美一区二区三区久久| 亚洲国产欧美在线一区| 无限看片的www在线观看| 极品少妇高潮喷水抽搐| 久久女婷五月综合色啪小说| 青草久久国产| 国精品久久久久久国模美| 性色av一级| 五月开心婷婷网| 精品久久久久久电影网| 9191精品国产免费久久| 精品亚洲乱码少妇综合久久| 蜜桃在线观看..| 国产成人影院久久av| 黑人猛操日本美女一级片| 国产精品1区2区在线观看. | 这个男人来自地球电影免费观看| 成人三级做爰电影| 午夜激情av网站| kizo精华| 嫁个100分男人电影在线观看| 青春草亚洲视频在线观看| 99热全是精品| 在线天堂中文资源库| 一区二区av电影网| 精品卡一卡二卡四卡免费| 欧美黄色片欧美黄色片| 欧美中文综合在线视频| 成年动漫av网址| e午夜精品久久久久久久| 中文字幕制服av| 国产精品成人在线| 黄网站色视频无遮挡免费观看| 欧美精品一区二区大全| 国产精品久久久久成人av| 90打野战视频偷拍视频| 午夜免费鲁丝| 欧美激情 高清一区二区三区| 熟女少妇亚洲综合色aaa.| videos熟女内射| 精品国产乱码久久久久久小说| 性色av一级| 麻豆av在线久日| 欧美激情久久久久久爽电影 | 亚洲综合色网址| 极品少妇高潮喷水抽搐| 操美女的视频在线观看| 男女午夜视频在线观看| 日韩一卡2卡3卡4卡2021年| 欧美亚洲日本最大视频资源| 久久九九热精品免费| 老司机在亚洲福利影院| cao死你这个sao货| av不卡在线播放| 大陆偷拍与自拍| 91精品伊人久久大香线蕉| 十八禁网站网址无遮挡| 一级毛片电影观看| 精品一区二区三卡| 熟女少妇亚洲综合色aaa.| 国产成人系列免费观看| 色综合欧美亚洲国产小说| 午夜福利视频在线观看免费| 最新在线观看一区二区三区| av在线app专区| 一区二区av电影网| 久久精品国产a三级三级三级| 欧美日韩一级在线毛片| 欧美日韩亚洲高清精品| 免费观看a级毛片全部| 久久久精品区二区三区| 一区二区三区精品91| 狂野欧美激情性bbbbbb| av超薄肉色丝袜交足视频| 欧美精品啪啪一区二区三区 | 亚洲成人手机| 久久精品人人爽人人爽视色| 午夜福利视频精品| www.av在线官网国产| 青青草视频在线视频观看| 另类亚洲欧美激情| 男女高潮啪啪啪动态图| 亚洲成人国产一区在线观看| 亚洲情色 制服丝袜| av视频免费观看在线观看| 熟女少妇亚洲综合色aaa.| 国产xxxxx性猛交| 欧美黄色淫秽网站| 亚洲第一av免费看| 亚洲avbb在线观看| 久久精品国产亚洲av香蕉五月 | 国产精品亚洲av一区麻豆| 亚洲 国产 在线| 欧美日韩福利视频一区二区| 午夜免费鲁丝| 91麻豆精品激情在线观看国产 | 国产欧美亚洲国产| 日日爽夜夜爽网站| 午夜福利在线免费观看网站| 一本久久精品| 亚洲欧美精品自产自拍| 老熟妇乱子伦视频在线观看 | 夜夜骑夜夜射夜夜干| 精品国产一区二区三区久久久樱花| 精品国产国语对白av| 精品久久久久久久毛片微露脸 | 捣出白浆h1v1| 国产1区2区3区精品| 国产一区二区三区综合在线观看| 黄色毛片三级朝国网站| 天天添夜夜摸| 热99国产精品久久久久久7| 黄频高清免费视频| 91九色精品人成在线观看| 精品国产一区二区三区久久久樱花| 在线观看舔阴道视频| 国产一区二区三区在线臀色熟女 | 电影成人av| 老熟妇乱子伦视频在线观看 | 免费在线观看视频国产中文字幕亚洲 | 香蕉国产在线看| 天堂俺去俺来也www色官网| 中国美女看黄片| 亚洲欧美日韩另类电影网站| 两性夫妻黄色片| 黄色 视频免费看| 中文字幕人妻熟女乱码| 日韩欧美国产一区二区入口| 性少妇av在线| 国产xxxxx性猛交| 亚洲精品国产一区二区精华液| 午夜福利乱码中文字幕| av天堂久久9| 考比视频在线观看| 我的亚洲天堂| 五月开心婷婷网| 精品国产国语对白av| 精品国产乱码久久久久久男人| 亚洲精品国产av成人精品| 国产伦人伦偷精品视频| 在线 av 中文字幕| 丝袜人妻中文字幕| 韩国高清视频一区二区三区| 嫁个100分男人电影在线观看| 国产无遮挡羞羞视频在线观看| 久久精品亚洲av国产电影网| 999久久久国产精品视频| 久久这里只有精品19| 涩涩av久久男人的天堂| 色综合欧美亚洲国产小说| 精品一品国产午夜福利视频| 欧美另类一区| 亚洲精品美女久久久久99蜜臀| 日日爽夜夜爽网站| 国产有黄有色有爽视频| 欧美日韩av久久| 亚洲精品久久久久久婷婷小说| 久久久久久免费高清国产稀缺| 久久香蕉激情| 国产在线一区二区三区精| 最新在线观看一区二区三区| h视频一区二区三区| 欧美大码av| 在线精品无人区一区二区三| 王馨瑶露胸无遮挡在线观看| 国产成人精品无人区| 国产精品免费视频内射| 麻豆国产av国片精品| 丝瓜视频免费看黄片| 操美女的视频在线观看| 成年动漫av网址| 欧美大码av| 亚洲国产日韩一区二区| 一本综合久久免费| av网站免费在线观看视频| 黄网站色视频无遮挡免费观看| 欧美人与性动交α欧美精品济南到| av线在线观看网站| 女人精品久久久久毛片| 精品人妻在线不人妻| 中文字幕最新亚洲高清| 女人久久www免费人成看片| 一本久久精品| 中国美女看黄片| 国产成人欧美| 久久久久久亚洲精品国产蜜桃av| 精品人妻在线不人妻| 天堂8中文在线网| av有码第一页| 欧美精品啪啪一区二区三区 | 国产老妇伦熟女老妇高清| 亚洲精品日韩在线中文字幕| 日韩大码丰满熟妇| 超色免费av| 秋霞在线观看毛片| 最近最新免费中文字幕在线| 欧美日韩av久久| 色精品久久人妻99蜜桃| 下体分泌物呈黄色| 亚洲激情五月婷婷啪啪| 少妇 在线观看| 麻豆av在线久日| a 毛片基地| 电影成人av| 色老头精品视频在线观看| 成人免费观看视频高清| 黑人操中国人逼视频| 国产精品自产拍在线观看55亚洲 | 啪啪无遮挡十八禁网站| 亚洲午夜精品一区,二区,三区| 天天操日日干夜夜撸| 成年人午夜在线观看视频| 大型av网站在线播放| 成年人午夜在线观看视频| 电影成人av| 亚洲熟女毛片儿| 制服诱惑二区| 欧美亚洲日本最大视频资源| 国产色视频综合| 女人被躁到高潮嗷嗷叫费观| 一级,二级,三级黄色视频| 侵犯人妻中文字幕一二三四区| 午夜福利在线观看吧| 一二三四在线观看免费中文在| 亚洲av日韩在线播放| 在线 av 中文字幕| 啪啪无遮挡十八禁网站| 欧美精品亚洲一区二区| 性色av乱码一区二区三区2| 国产在视频线精品| 国产精品自产拍在线观看55亚洲 | 国产一区二区三区av在线| 国产日韩欧美视频二区| 久久久久久久久久久久大奶| 曰老女人黄片| 狠狠狠狠99中文字幕| 久久精品亚洲熟妇少妇任你| 亚洲欧美精品自产自拍| 黑人操中国人逼视频| 天天添夜夜摸| 男男h啪啪无遮挡| 在线天堂中文资源库| 亚洲欧美日韩高清在线视频 | 成人亚洲精品一区在线观看| 脱女人内裤的视频| 欧美日本中文国产一区发布| 亚洲欧美日韩高清在线视频 | 丝袜美腿诱惑在线| 在线观看舔阴道视频| 丝袜美腿诱惑在线| 又黄又粗又硬又大视频| 国产伦人伦偷精品视频| 亚洲va日本ⅴa欧美va伊人久久 | 免费av中文字幕在线| av视频免费观看在线观看| 欧美少妇被猛烈插入视频| 80岁老熟妇乱子伦牲交| 高清在线国产一区| 久久亚洲国产成人精品v| 大香蕉久久网| 中文字幕av电影在线播放| 成人免费观看视频高清| 午夜激情av网站| 久久精品久久久久久噜噜老黄| 美女午夜性视频免费| 久久99热这里只频精品6学生| 欧美激情高清一区二区三区| 在线观看www视频免费| 在线av久久热| 男女床上黄色一级片免费看| 两性午夜刺激爽爽歪歪视频在线观看 | 久久久久精品国产欧美久久久 | 在线永久观看黄色视频| 99久久99久久久精品蜜桃| 国产黄色免费在线视频| av在线app专区| 黑人猛操日本美女一级片| 国产免费现黄频在线看| 一级黄色大片毛片| av片东京热男人的天堂| 欧美老熟妇乱子伦牲交| 无限看片的www在线观看| 两性夫妻黄色片| 搡老岳熟女国产| 精品国内亚洲2022精品成人 | 久久精品国产亚洲av香蕉五月 | 黄色a级毛片大全视频| 免费观看av网站的网址| 激情视频va一区二区三区| 99久久精品国产亚洲精品| 18禁国产床啪视频网站| 无限看片的www在线观看| 如日韩欧美国产精品一区二区三区| 久久久国产欧美日韩av| 高潮久久久久久久久久久不卡| 男女免费视频国产| 欧美 日韩 精品 国产| 日本猛色少妇xxxxx猛交久久| 国产精品.久久久| 97精品久久久久久久久久精品| 一进一出抽搐动态| 国产免费av片在线观看野外av| 精品少妇内射三级| 亚洲精品自拍成人| 国产野战对白在线观看| 久久人人爽av亚洲精品天堂| 久久99一区二区三区| 三上悠亚av全集在线观看| 亚洲精品国产一区二区精华液| videosex国产| 国产精品国产三级国产专区5o| 欧美黄色淫秽网站| 国产在线视频一区二区| 水蜜桃什么品种好| 亚洲av男天堂| 久久久久精品人妻al黑| 国产精品99久久99久久久不卡| 如日韩欧美国产精品一区二区三区| 欧美+亚洲+日韩+国产| 少妇的丰满在线观看| 日日摸夜夜添夜夜添小说| 在线永久观看黄色视频| 正在播放国产对白刺激| 亚洲视频免费观看视频| 亚洲精品久久午夜乱码| 日本黄色日本黄色录像| 亚洲国产欧美网| 国产福利在线免费观看视频| 亚洲中文字幕日韩| 99香蕉大伊视频| 人人妻,人人澡人人爽秒播| 中文精品一卡2卡3卡4更新| 在线永久观看黄色视频| 一区二区三区四区激情视频| 99国产综合亚洲精品| 曰老女人黄片| 后天国语完整版免费观看| 精品人妻一区二区三区麻豆| 午夜成年电影在线免费观看| 美女高潮喷水抽搐中文字幕| 99国产精品99久久久久| 亚洲七黄色美女视频| 麻豆乱淫一区二区| 久久精品久久久久久噜噜老黄| 亚洲欧美色中文字幕在线| 中文字幕最新亚洲高清| 国产三级黄色录像| 亚洲欧美清纯卡通| 啪啪无遮挡十八禁网站| 中文字幕制服av| 久久午夜综合久久蜜桃| 男女下面插进去视频免费观看| 精品人妻1区二区|