• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多尺度距離矩陣的語(yǔ)音關(guān)鍵詞檢測(cè)與細(xì)粒度定位方法

    2024-12-31 00:00:00李祥瑞毛啟容
    計(jì)算機(jī)應(yīng)用研究 2024年11期
    關(guān)鍵詞:檢測(cè)模型

    摘 要:針對(duì)現(xiàn)有語(yǔ)音關(guān)鍵詞檢測(cè)方法定位精度低的問(wèn)題,提出了一種基于多尺度距離矩陣的語(yǔ)音關(guān)鍵詞檢測(cè)與細(xì)粒度定位方法(spoken term detection and fine-grained localization method based on multi-scale distance matrices,MF-STD)。該方法首先利用殘差卷積網(wǎng)絡(luò)提取特征并構(gòu)建距離矩陣以建模輸入之間的相關(guān)性;其次通過(guò)多尺度分割和解耦頭學(xué)習(xí)不同尺度下的定位信息;最后根據(jù)多尺度加權(quán)定位損失、置信度損失和分類損失優(yōu)化模型,實(shí)現(xiàn)對(duì)關(guān)鍵詞存在性和時(shí)域邊界的細(xì)粒度預(yù)測(cè)。在LibriSpeech數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,MF-STD在集內(nèi)詞的檢測(cè)中,精準(zhǔn)率和交并比分別達(dá)到97.1%和88.6%;在集外詞的檢測(cè)中,精準(zhǔn)率和交并比分別達(dá)到96.7%和88.2%。與現(xiàn)有的語(yǔ)音關(guān)鍵詞檢測(cè)與定位方法相比,MF-STD的檢測(cè)準(zhǔn)確率和定位精度顯著提升,充分證明該方法的先進(jìn)性,也證明了多尺度特征建模與細(xì)粒度定位約束在語(yǔ)音關(guān)鍵詞檢測(cè)任務(wù)中的有效性。

    關(guān)鍵詞:語(yǔ)音關(guān)鍵詞檢測(cè);語(yǔ)音細(xì)粒度定位;多尺度檢測(cè);殘差卷積網(wǎng)絡(luò)

    中圖分類號(hào):TN912.34 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1001-3695(2024)11-024-3370-06

    doi:10.19734/j.issn.1001-3695.2024.03.0097

    Spoken term detection and fine-grained localization method based on multi-scale distance matrices

    Li Xiangrui1, Mao Qirong1,2?

    (1.School of Computer Science and Communication Engineering, Jiangsu University, Zhenjiang Jiangsu 212013, China; 2.Jiangsu Province Big Data Ubiquitous Perception amp; Intelligent Agriculture Application Engineering Research Center, Zhenjiang Jiangsu 212013, China)

    Abstract:Aiming to address the low localization accuracy of existing spoken term detection methods, this paper proposed a spoken term detection and fine-grained localization method based on multi-scale distance matrices (MF-STD). This method firstly employed a residual convolutional network to extract features and construct a distance matrix to model the correlation between inputs. Then, it learnt the localization information at different scales through multi-scale segmentation and decoupling heads. Finally, the model was optimized according to the multi-scale weighted localization loss, confidence loss, and classification loss. This enabled the model to achieve fine-grained prediction of keyword existence and time domain boundaries. Experimental results on the LibriSpeech dataset demonstrate that for in-vocabulary detection, the precision and intersection over union (IoU) reach 97.1% and 88.6%, respectively. In the case of out-of-vocabulary detection, the precision and IoU reach 96.7% and 88.2%, respectively. In comparison to existing methods for spoken term detection and localization, MF-STD significantly improves detection accuracy and localization precision. This fully demonstrates the superiority of the proposed method and the effectiveness of multi-scale feature modeling and fine-grained localization constraints in spoken term detection tasks.

    Key words:spoken term detection; speech fine-grained localization; multi-scale detection; convolutional residual network

    0 引言

    近年來(lái),隨著人工智能技術(shù)的蓬勃發(fā)展,如自動(dòng)駕駛、語(yǔ)音助手、智能客服、智能家居等技術(shù)逐漸從實(shí)驗(yàn)室走入人們的現(xiàn)實(shí)生活。語(yǔ)音是人與智能設(shè)備溝通的重要方式[1,而語(yǔ)音關(guān)鍵詞檢測(cè)能從用戶輸入語(yǔ)音中查找系統(tǒng)感興趣的部分,是實(shí)現(xiàn)語(yǔ)音人機(jī)交互的關(guān)鍵技術(shù)之一2。除此之外,語(yǔ)音關(guān)鍵詞檢測(cè)技術(shù)在語(yǔ)音信息檢索3、音頻分類4等領(lǐng)域中也具有廣泛的應(yīng)用。例如,在語(yǔ)音信息檢索中,通過(guò)檢測(cè)關(guān)鍵詞,可以快速定位到包含目標(biāo)信息的語(yǔ)音片段,大大提高檢索效率;在音頻分類任務(wù)中,關(guān)鍵詞的出現(xiàn)頻率和分布情況可以作為重要的分類依據(jù)[5,有助于提升分類準(zhǔn)確率。因此,語(yǔ)音關(guān)鍵詞檢測(cè)技術(shù)在這些領(lǐng)域中扮演著越來(lái)越重要的角色。

    從任務(wù)目標(biāo)上,語(yǔ)音關(guān)鍵詞檢測(cè)可分為孤立詞檢測(cè)和持續(xù)關(guān)鍵詞檢測(cè)兩類[6?,F(xiàn)有的持續(xù)語(yǔ)音關(guān)鍵詞檢測(cè)中,關(guān)鍵詞的輸入形式主要有兩種:a)以文本形式輸入[7,該類方法屏蔽了同種查詢?cè)~的差異,但難以對(duì)未見關(guān)鍵詞進(jìn)行檢測(cè);b)以語(yǔ)音形式輸入關(guān)鍵詞,也稱為基于樣例查詢的語(yǔ)音關(guān)鍵詞檢測(cè)(query-by-example spoken term detection,QbE-STD),這類方法查詢?cè)~存在類內(nèi)差異,提高了訓(xùn)練難度,但對(duì)未見關(guān)鍵詞具有一定的魯棒性,易于拓展。

    語(yǔ)音關(guān)鍵詞檢測(cè)一般可以分為特征提取和相似度匹配兩個(gè)階段。在特征提取階段,語(yǔ)音被轉(zhuǎn)換為更易區(qū)分和匹配的特征表示,早期主要使用梅爾倒譜系數(shù)等手工設(shè)計(jì)的低維特征。近年來(lái),一些方法引入深度學(xué)習(xí)技術(shù)作為特征提取器,如利用自動(dòng)語(yǔ)音識(shí)別系統(tǒng)、音素分類器或語(yǔ)音特征提取器產(chǎn)生的詞格[8、音素9、嵌入表示10~12等。實(shí)驗(yàn)結(jié)果證明,基于深度學(xué)習(xí)的特征提取方法能夠顯著提高關(guān)鍵詞檢測(cè)的準(zhǔn)確率,逐漸成為該領(lǐng)域的主流技術(shù)。相似度匹配階段旨在計(jì)算待測(cè)語(yǔ)音和查詢?cè)~之間的相似度得分,以判斷查詢?cè)~是否存在于待測(cè)語(yǔ)音中。傳統(tǒng)方法主要基于動(dòng)態(tài)時(shí)間規(guī)整(dynamic time warping, DTW)算法,通過(guò)動(dòng)態(tài)規(guī)劃尋找兩個(gè)語(yǔ)音特征序列之間的最優(yōu)對(duì)齊路徑,進(jìn)而計(jì)算相似度[13, 14。為了克服DTW的計(jì)算復(fù)雜、難以并行的缺陷,劉暢等人[15提出基于特征點(diǎn)界標(biāo)過(guò)濾的時(shí)間序列模式匹配方法,有效降低了計(jì)算復(fù)雜度。Ram等人[16提出根據(jù)特征向量構(gòu)造距離矩陣,并以卷積神經(jīng)網(wǎng)絡(luò)替代DTW,大幅提高了相似度匹配的計(jì)算效率。Yuan等人[17受自然語(yǔ)言處理中詞嵌入的啟發(fā),將語(yǔ)音編碼為固定長(zhǎng)度的詞嵌入向量,然后直接計(jì)算嵌入向量之間的余弦相似度,簡(jiǎn)化了匹配過(guò)程。

    上述研究專注于提升檢測(cè)準(zhǔn)確率、降低時(shí)延和減少模型訓(xùn)練資源要求,而為了給出關(guān)鍵詞的定位信息,需要借助滑動(dòng)窗口對(duì)待測(cè)語(yǔ)音的不同位置多次與查詢?cè)~進(jìn)行匹配,這不僅計(jì)算重復(fù),還無(wú)法確定關(guān)鍵詞在滑動(dòng)窗口內(nèi)部的具體位置,導(dǎo)致定位效率和精度均有不足。為了細(xì)粒度定位目標(biāo)關(guān)鍵詞在待測(cè)語(yǔ)音中出現(xiàn)的位置,一些方法設(shè)計(jì)了基于規(guī)則的搜索算法,但是實(shí)驗(yàn)結(jié)果顯示其定位準(zhǔn)確性較差[18。Li等人[19利用CTC(connectionist temporal classification)損失學(xué)習(xí)音節(jié)與音頻幀之間的對(duì)齊關(guān)系,但該方法需要大量精確標(biāo)注的音節(jié)信息。Segal等人20由圖像領(lǐng)域的目標(biāo)檢測(cè)算法受到啟發(fā),提出一種簡(jiǎn)單高效的端到端模型SpeechYOLO,并首次在語(yǔ)音關(guān)鍵詞檢測(cè)任務(wù)中使用定位損失學(xué)習(xí)關(guān)鍵詞出現(xiàn)的位置。隨后,F(xiàn)uchs等人[21將SpeechYOLO進(jìn)一步改進(jìn)為Embedding Speech YOLO(ESY),增加詞嵌入向量作為查詢?cè)~,從而支持對(duì)集外詞的查詢。Samragh等人[22設(shè)計(jì)了一種基于BCResNet的網(wǎng)絡(luò),BCResNet通過(guò)在殘差塊中引入組卷積和通道混洗操作,在保持準(zhǔn)確率的同時(shí)大幅減少了參數(shù)量和計(jì)算量[23,替換SpeechYOLO中的特征提取網(wǎng)絡(luò)后,模型體積顯著降低。

    現(xiàn)有語(yǔ)音關(guān)鍵詞檢測(cè)方法雖然取得了一定進(jìn)展,但仍然存在以下缺陷:a)特征提取網(wǎng)絡(luò)采用固定大小的感受野,由于關(guān)鍵詞的長(zhǎng)度受說(shuō)話人的語(yǔ)速、停頓等因素影響,固定感受野難以有效處理變長(zhǎng)的關(guān)鍵詞;b)采用同一網(wǎng)絡(luò)結(jié)構(gòu)處理關(guān)鍵詞的檢測(cè)和定位任務(wù),檢測(cè)任務(wù)關(guān)注關(guān)鍵詞的存在性,定位任務(wù)關(guān)注關(guān)鍵詞的具體邊界,兩個(gè)任務(wù)的目標(biāo)和側(cè)重點(diǎn)不同,統(tǒng)一的網(wǎng)絡(luò)結(jié)構(gòu)難以兼顧兩個(gè)任務(wù)的特點(diǎn);c)關(guān)鍵詞檢測(cè)數(shù)據(jù)集中存在大量的負(fù)樣本,但現(xiàn)有方法的損失函數(shù)設(shè)計(jì)并未考慮正負(fù)樣本的不平衡問(wèn)題,這導(dǎo)致模型訓(xùn)練過(guò)程中更側(cè)重于學(xué)習(xí)負(fù)樣本的特征,而忽略了正樣本的邊界信息。

    這些缺陷限制了現(xiàn)有方法在檢測(cè)和定位性能上的進(jìn)一步提升。為了解決上述問(wèn)題,本文提出了一種細(xì)粒度的語(yǔ)音關(guān)鍵詞定位方法,稱為MF-STD:a)通過(guò)構(gòu)建多尺度距離矩陣,建模不同長(zhǎng)度的查詢語(yǔ)音和待測(cè)語(yǔ)音之間的相關(guān)性,從而自適應(yīng)地處理變長(zhǎng)的關(guān)鍵詞,提高了模型魯棒性;b)引入基于距離矩陣和解耦頭的特征融合與目標(biāo)優(yōu)化機(jī)制,將檢測(cè)頭和定位頭解耦,使其分別關(guān)注關(guān)鍵詞的存在性判斷和邊界回歸,更好地應(yīng)對(duì)了兩個(gè)任務(wù)的不同特點(diǎn);c)在損失函數(shù)中引入加權(quán)平衡因子,設(shè)計(jì)出多尺度加權(quán)定位損失和置信度損失,在平衡正負(fù)樣本對(duì)模型訓(xùn)練的影響的同時(shí),多目標(biāo)優(yōu)化模型,促進(jìn)細(xì)粒度定位能力的提升。

    本文提出一種新的端到端語(yǔ)音關(guān)鍵詞檢測(cè)與定位網(wǎng)絡(luò),首次通過(guò)多尺度距離矩陣建模待測(cè)語(yǔ)音和查詢語(yǔ)音的相關(guān)性,提高了模型對(duì)不同長(zhǎng)度輸入的魯棒性;

    首次提出基于距離矩陣和解耦頭的特征融合與目標(biāo)優(yōu)化機(jī)制,在提高參數(shù)復(fù)用的同時(shí),更好地應(yīng)對(duì)檢測(cè)與定位任務(wù)的不同特性;

    首次提出多尺度加權(quán)定位損失,與置信度損失和分類損失形成多任務(wù)優(yōu)化目標(biāo),有效緩解了樣本不均衡問(wèn)題,提升了關(guān)鍵詞的定位精度。該思想亦可用于指導(dǎo)其他不平衡學(xué)習(xí)問(wèn)題的損失函數(shù)設(shè)計(jì)。

    1 細(xì)粒度定位方法

    MF-STD方法包含以下四個(gè)步驟:a)構(gòu)建待測(cè)音頻和語(yǔ)音關(guān)鍵詞的特征向量;b)構(gòu)造兩特征向量之間的距離矩陣;c)通過(guò)定位和分類檢測(cè)頭輸出對(duì)應(yīng)結(jié)果;d)計(jì)算損失函數(shù)值并反向傳播更新模型參數(shù)。

    圖1展示了MF-STD的模型架構(gòu),所有模塊的參數(shù)在訓(xùn)練過(guò)程中同步更新,是一個(gè)端到端模型。

    1.1 構(gòu)建語(yǔ)音特征

    語(yǔ)音信號(hào)本身具有高維度、高冗余等特點(diǎn),直接處理原始語(yǔ)音波形將導(dǎo)致大量的計(jì)算和存儲(chǔ)開銷。因此,在建模待測(cè)語(yǔ)音和查詢語(yǔ)音的相關(guān)性之前,通常需要先對(duì)原始語(yǔ)音進(jìn)行特征提取,將語(yǔ)音波形數(shù)據(jù)映射到一個(gè)維度更低、信息更加緊湊的特征空間中,以減小后續(xù)處理的復(fù)雜度。

    首先提取原始語(yǔ)音波形的梅爾頻譜特征,然后將其輸入到一個(gè)殘差卷積神經(jīng)網(wǎng)絡(luò),其結(jié)構(gòu)如圖2所示,由若干一維卷積層、批歸一化層、激活層、殘差鏈接等構(gòu)成,其中一維卷積后的括號(hào)中三個(gè)值分別表示卷積通道數(shù)、卷積核大小、步長(zhǎng)。由于一維卷積神經(jīng)網(wǎng)絡(luò)相比于循環(huán)神經(jīng)網(wǎng)絡(luò)能并行計(jì)算,效率更高,大量的殘差結(jié)構(gòu)能有效避免訓(xùn)練過(guò)程中的梯度消失問(wèn)題,提高了訓(xùn)練效率。僅使用卷積而不使用全連接層使得該結(jié)構(gòu)在提取更高層次特征的同時(shí),保留了語(yǔ)音信號(hào)中的關(guān)鍵信息順序不變,有助于特征融合后對(duì)關(guān)鍵詞的細(xì)粒度定位。

    1.2 構(gòu)建距離矩陣

    實(shí)現(xiàn)樣例查詢的關(guān)鍵詞檢測(cè)需要構(gòu)建待測(cè)語(yǔ)音特征與查詢語(yǔ)音特征之間的關(guān)系,本文基于余弦距離矩陣來(lái)描述待測(cè)語(yǔ)音特征Fs與查詢語(yǔ)音特征Fq之間的關(guān)系。計(jì)算公式如下:

    M(Fs,F(xiàn)q)=1-FTsFq|Fs||Fq|(1)

    其中:|·|表示取向量模長(zhǎng)。根據(jù)式(1)的定義,mij∈M值越小,則表明待測(cè)語(yǔ)音特征向量的第i幀與查詢語(yǔ)音的第j幀越相似。因此,在理想情況下,若查詢語(yǔ)音為待測(cè)語(yǔ)音的一個(gè)子序列,則M中必然存在一個(gè)由若干連續(xù)的行列依序構(gòu)成子矩陣M′,其主對(duì)角線上各點(diǎn)的值顯著低于主對(duì)角線以外的值,且該主對(duì)角線在行方向上投影的起止位置即為查詢語(yǔ)音特征向量在待測(cè)語(yǔ)音特征向量中出現(xiàn)的起止位置。在更一般的情況下,由于查詢語(yǔ)音并不與待測(cè)語(yǔ)音完全一致,例如查詢語(yǔ)音和待測(cè)語(yǔ)音在發(fā)音、語(yǔ)速等方面存在差異,這將導(dǎo)致M′中值較小的點(diǎn)與主對(duì)角線有一定的偏移,但依然能構(gòu)成一條區(qū)別于其他點(diǎn)的斜線模式。通過(guò)構(gòu)造距離矩陣,關(guān)鍵詞的檢測(cè)與定位問(wèn)題就轉(zhuǎn)換為了從距離矩陣M中找到滿足條件的M′,并確認(rèn)其邊界的問(wèn)題。

    1.3 解耦檢測(cè)頭

    MF-STD中包含3組解耦頭,每組包括1個(gè)分類檢測(cè)頭和1個(gè)定位檢測(cè)頭。判斷關(guān)鍵詞的存在性與預(yù)測(cè)關(guān)鍵詞出現(xiàn)的位置是兩個(gè)不同的任務(wù),具有不同的特點(diǎn)。判斷關(guān)鍵詞存在性是一個(gè)分類任務(wù),需要關(guān)注特征圖的整體信息;而預(yù)測(cè)關(guān)鍵詞位置是一個(gè)回歸任務(wù),需要關(guān)注特征圖中的局部邊界信息。將這兩個(gè)任務(wù)解耦,設(shè)計(jì)獨(dú)立的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行優(yōu)化,有助于針對(duì)不同的任務(wù)特點(diǎn)提取更有效的特征,提高關(guān)鍵詞檢測(cè)和定位的準(zhǔn)確性。

    各檢測(cè)頭的基本結(jié)構(gòu)如圖3所示,即首先將M沿行方向劃分為若干等長(zhǎng)的單元,通過(guò)兩層二維卷積捕獲每個(gè)單元中的斜線模式。然后用一層自適應(yīng)最大池化層將隨尺寸輸入變化的特征圖匯總為固定維度的向量。

    分類檢測(cè)頭輸出維度為C個(gè)二維向量p,以softmax函數(shù)激活,每個(gè)向量的兩個(gè)維度分別表示查詢語(yǔ)音不存在、存在于待測(cè)音頻的概率。定位檢測(cè)頭輸出維度為C×B×3,其中C表示距離矩陣M沿行劃分的單元數(shù),B表示每個(gè)單元的檢測(cè)框數(shù),每個(gè)檢測(cè)頭輸出各單元各檢測(cè)框內(nèi)的查詢語(yǔ)音出現(xiàn)中心位置t、查詢語(yǔ)音長(zhǎng)度與單元長(zhǎng)度的比值w、查詢語(yǔ)音在該檢測(cè)框出現(xiàn)的置信度p。三組檢測(cè)頭的劃分單元數(shù)分別為c、2c、4c,用于應(yīng)對(duì)不同尺度的檢測(cè)目標(biāo),避免單一尺度下M′跨越多個(gè)單元或在一個(gè)單元中占比過(guò)小導(dǎo)致的檢測(cè)錯(cuò)誤。

    1.4 損失函數(shù)設(shè)計(jì)

    為訓(xùn)練MF-STD模型,設(shè)計(jì)損失函數(shù)包含多尺度加權(quán)定位損失、分類損失和置信度損失三部分。

    1.4.1 多尺度加權(quán)定位損失

    定位損失用于直接優(yōu)化模型的定位精度。現(xiàn)有方法往往直接將定位損失定義為模型預(yù)測(cè)的目標(biāo)中心、目標(biāo)寬度與對(duì)應(yīng)真實(shí)值之間的交叉熵?fù)p失,該方法具有以下幾個(gè)缺陷:a)無(wú)法有效利用目標(biāo)中心與寬度值之間的相關(guān)性;b)在不同的尺度劃分下,查詢語(yǔ)音在預(yù)測(cè)單元中的出現(xiàn)位置與標(biāo)簽的交并比(intersection of union,IoU)不一致,對(duì)于模型訓(xùn)練的重要性不同;c)同一尺度下,查詢語(yǔ)音一般僅出現(xiàn)在一個(gè)預(yù)測(cè)單元中,大量的不包含查詢語(yǔ)音的預(yù)測(cè)單元將會(huì)干擾模型訓(xùn)練。因此,提出多尺度加權(quán)定位損失來(lái)解決上述問(wèn)題,其定義如下:

    Lloc=∑Kk=1 ∑Ckj=1 ∑Bi=1ωijk1-IoU+(w-)2+(t-)2U(2)

    其中:K為尺度數(shù);Ck為第k個(gè)尺度下的單元數(shù);B為每個(gè)單元的檢測(cè)框數(shù)量;ωijk為對(duì)應(yīng)權(quán)重;w和分別為一個(gè)檢測(cè)框內(nèi)的查詢語(yǔ)音寬度預(yù)測(cè)值和真實(shí)值;t和分別為一個(gè)檢測(cè)框內(nèi)的查詢語(yǔ)音出現(xiàn)中心位置預(yù)測(cè)值與真實(shí)值。

    在式(2)中,權(quán)重ωijk用于平衡不同尺度下各個(gè)單元與檢測(cè)框在模型訓(xùn)練中的重要性。權(quán)重ωijk定義如下:

    ω=IoU

    IoU∈[δ0,δ1]1IoU∈(δ1,+∞)

    0otherwise(3)

    其中:IoU表示查詢語(yǔ)音與預(yù)測(cè)單元的交并比;δ0和δ1是IoU的有效范圍邊界,即僅當(dāng)查詢語(yǔ)音與預(yù)測(cè)單元的交并比值在該范圍內(nèi),其權(quán)重才有效,否則置權(quán)重為0。

    通過(guò)式(2)所定義的多尺度加權(quán)定位損失,查詢語(yǔ)音目標(biāo)的中心位置與寬度之間的關(guān)系被考慮,而通過(guò)權(quán)重ω的設(shè)置,平衡了預(yù)測(cè)單元內(nèi)及單元之間的重要性。

    1.4.2 分類損失

    分類損失用于優(yōu)化模型對(duì)查詢語(yǔ)音在待測(cè)語(yǔ)音中的存在性預(yù)測(cè),計(jì)算公式如下:

    L cls=∑Kk=1 ∑Ckj=1(pjk-jk2Ck(4)

    其中:pij為對(duì)應(yīng)尺度的單元下模型輸出的二維向量,兩個(gè)維度分別表示查詢語(yǔ)音存在/不存在的概率。

    1.4.3 置信度損失

    置信度損失是對(duì)分類損失的補(bǔ)充,一般情況下,訓(xùn)練QbE-STD時(shí)查詢語(yǔ)音僅在待測(cè)語(yǔ)音中出現(xiàn)一次,因此每個(gè)尺度下僅有一個(gè)預(yù)測(cè)單元包含查詢語(yǔ)音,置信度損失正是用于緩解訓(xùn)練數(shù)據(jù)集中這種正負(fù)樣本不均衡時(shí)的問(wèn)題,其定義如下:

    Lconf=∑Kk=1 ∑Ckj=1 ∑Bi=1Ckωijk(pijk-1)2+1Ck(1-ωijk)p2ijk(5)

    最終損失函數(shù)由上述三個(gè)損失的加權(quán)和表示:

    Ltotal1Lloc2Lcls3Lconf(6)

    其中:λ1、λ2和λ3為模型訓(xùn)練時(shí)的超參數(shù)。

    1.5 模型訓(xùn)練與推理

    每次訓(xùn)練開始前,隨機(jī)初始化網(wǎng)絡(luò)中各層的參數(shù)。從訓(xùn)練數(shù)據(jù)集中按隨機(jī)順序不重復(fù)地抽取若干樣本對(duì)和對(duì)應(yīng)標(biāo)簽構(gòu)成一個(gè)訓(xùn)練批次(batch),其中每個(gè)樣本對(duì)包含一條待測(cè)語(yǔ)音和一條查詢語(yǔ)音。由于模型訓(xùn)練時(shí)的內(nèi)存限制,超過(guò)4 s的待測(cè)語(yǔ)音均被裁剪到4 s,查詢語(yǔ)音則通過(guò)0填充使其與該批次中最長(zhǎng)的查詢語(yǔ)音片段時(shí)長(zhǎng)一致。所有語(yǔ)音數(shù)據(jù)按Speech-YOLO[20一致的方法提取160維對(duì)數(shù)梅爾頻譜特征,作為整個(gè)網(wǎng)絡(luò)的輸入。一個(gè)訓(xùn)練批次的數(shù)據(jù)經(jīng)過(guò)網(wǎng)絡(luò)模型前向計(jì)算后,得到該批次的輸出,隨后按照式(6)計(jì)算該批次的損失函數(shù)值,并通過(guò)反向傳播算法更新整個(gè)網(wǎng)絡(luò)的參數(shù)。當(dāng)訓(xùn)練數(shù)據(jù)集中的所有數(shù)據(jù)均被網(wǎng)絡(luò)計(jì)算一次,則完成一個(gè)周期epoch的訓(xùn)練。要使得模型收斂,可能需要多個(gè)epoch的訓(xùn)練,訓(xùn)練完成后保存網(wǎng)絡(luò)參數(shù),即可在推理時(shí)使用。

    模型推理時(shí)的輸入處理與訓(xùn)練時(shí)一致,查詢語(yǔ)音在待測(cè)語(yǔ)音中的存在性由三個(gè)尺度下檢測(cè)頭的最大輸出值決定。在判斷查詢語(yǔ)音在該檢測(cè)單元內(nèi)的位置時(shí),根據(jù)定位頭輸出的置信度,取該單元內(nèi)置信度最大的檢測(cè)框的定位信息。

    2 實(shí)驗(yàn)

    2.1 實(shí)驗(yàn)數(shù)據(jù)集

    為方便對(duì)比,本文使用了開源的LibriSpeech[24語(yǔ)音數(shù)據(jù)集評(píng)估不同模型的性能。LibriSpeech包含大量高質(zhì)量的英文書本朗讀語(yǔ)音,經(jīng)過(guò)強(qiáng)制對(duì)齊能夠獲得準(zhǔn)確的單詞定位信息。

    選取LibriSpeech的train-clean-360子集作為訓(xùn)練集,dev-clean作為驗(yàn)證集,查詢?cè)~為train-clean中出現(xiàn)的時(shí)長(zhǎng)在0.2~2 s,且出現(xiàn)頻率前1 000的詞,并從test-clean和test-other子集分別分出集內(nèi)詞評(píng)估子集TC-inv、TO-inv和集外詞評(píng)估子集TC-oov、TO-oov,以評(píng)估模型在不同環(huán)境下的性能。此外,為了探究MF-STD的最高性能,使用train-clean-360中出現(xiàn)過(guò)的所有詞作為查詢?cè)~,并分別從test-clean和test-other中劃分集內(nèi)詞和集外詞子集,稱為TC-inv(full)、TO-inv(full)、TC-oov(full)、TO-oov(full)。表1為實(shí)驗(yàn)中使用到的不同子集的具體介紹。

    2.2 評(píng)價(jià)指標(biāo)

    本文使用精準(zhǔn)率(precision, Prec.)作為檢測(cè)指標(biāo),使用交并比(IoU)作為定位指標(biāo)。精準(zhǔn)率的定義式為

    Prec.=TPTP+FP(7)

    其中:TP和FP分別表示模型將正樣本正確分類和錯(cuò)誤分類的數(shù)量。IoU的定義式為

    IoU=IU(8)

    其中:I和U分別為模型預(yù)測(cè)查詢語(yǔ)音出現(xiàn)區(qū)域和真實(shí)區(qū)域之間的交集和并集的長(zhǎng)度。設(shè)在一個(gè)預(yù)測(cè)單元內(nèi),te與ts為模型預(yù)測(cè)的查詢語(yǔ)音出現(xiàn)的結(jié)束和開始位置,es為真實(shí)值,則

    I=min{e,te}-max{s,ts}(9)

    U=max{e,te}-min{s,ts}(10)

    2.3 實(shí)驗(yàn)方法與參數(shù)設(shè)置

    實(shí)驗(yàn)在搭載Ubuntu 20.04.4操作系統(tǒng)的計(jì)算機(jī)中完成,其CPU為Intel? Xeon? Silver 4316,主頻為2.30 GHz,GPU為GeForce RTX 3080Ti,顯存12 GB,內(nèi)存64 GB。

    本文方法及實(shí)驗(yàn)過(guò)程均使用Python 3.11.3實(shí)現(xiàn),其中模型基于PyTorch 2.0.0實(shí)現(xiàn),待測(cè)語(yǔ)音和查詢語(yǔ)音基于torchaudio 2.0.1重采樣到16 000 Hz并提取160維對(duì)數(shù)梅爾頻譜特征。模型結(jié)構(gòu)及損失函數(shù)中的超參數(shù)設(shè)置如表2所示。

    模型使用Adam優(yōu)化器在訓(xùn)練集上訓(xùn)練共200個(gè)epoch,初始學(xué)習(xí)率設(shè)置為10-3,每10個(gè)epoch將學(xué)習(xí)率減半,L2正則化系數(shù)設(shè)為10-4,完成一次訓(xùn)練共計(jì)耗時(shí)約16 h。

    2.4 實(shí)驗(yàn)結(jié)果與分析

    首先對(duì)比了本文方法和現(xiàn)有方法在TC-inv、TC-inv、TC-oov和TO-oov上的檢測(cè)與定位性能。SpeechYOLO[20和文獻(xiàn)[22]由于不支持集外詞的檢測(cè),所以僅對(duì)比TC-inv和TO-inv上的結(jié)果。Embedding Speech YOLO(ESY)[21的查詢?cè)~以文本形式輸入,因此實(shí)驗(yàn)中將查詢語(yǔ)音對(duì)應(yīng)的文本編碼作為查詢?cè)~部分輸入網(wǎng)絡(luò)。QNN[25是語(yǔ)音關(guān)鍵詞檢測(cè)在Google Speech Commands V2上的最先進(jìn)的方法,由于此方法不直接輸出關(guān)鍵詞的定位信息,所以使用窗長(zhǎng)為400 ms的滑動(dòng)窗口以50 ms的步長(zhǎng)從待測(cè)語(yǔ)音片段劃過(guò),并以模型輸出類別概率最高的窗口位置中心作為模型預(yù)測(cè)的查詢?cè)~中心。表3展示了對(duì)比實(shí)驗(yàn)的結(jié)果。

    可以看出,MF-STD在四個(gè)測(cè)試集上的檢測(cè)和定位性能均優(yōu)于其他方法,證明了該方法的有效性。具體而言,相比于SpeechYOLO、QNN及文獻(xiàn)[22],MF-STD通過(guò)距離矩陣建模輸入之間的相似性,避免了對(duì)輸入進(jìn)行分類,從而支持大量的集外詞檢測(cè);相比于ESY方法,MF-STD基于殘差卷積的特征提取器具有更強(qiáng)的表征能力,且能夠充分保留輸入特征的順序信息,從而在精準(zhǔn)度上平均提升了0.174。盡管QNN在孤立詞檢測(cè)任務(wù)中表現(xiàn)出色,但其基于滑動(dòng)窗口獲得定位信息的方法定位效果較差,在兩個(gè)測(cè)試集中,MF-STD在IoU指標(biāo)上平均領(lǐng)先QNN 0.180。相比于文獻(xiàn)[22],通過(guò)引入多尺度加權(quán)損失函數(shù)和解耦檢測(cè)頭,MF-STD在IoU指標(biāo)上平均提升了0.016,精準(zhǔn)率也提高了0.100。

    為比較不同方法的推理效率,對(duì)比了實(shí)驗(yàn)中各方法處理單條輸入和并行處理20條輸入時(shí)的推理耗時(shí),實(shí)驗(yàn)中待測(cè)語(yǔ)音時(shí)長(zhǎng)固定為4 s,計(jì)算1 000次推理的平均耗時(shí),結(jié)果如表4所示。由于文獻(xiàn)[22]的源碼未公開,所以該實(shí)驗(yàn)中不討論其推理耗時(shí)。雖然推理效率并非本文設(shè)計(jì)模型時(shí)考慮的首要因素,但MF-STD依然在處理單個(gè)輸入時(shí)取得了有競(jìng)爭(zhēng)力的結(jié)果,且在并行處理多個(gè)輸入時(shí),推理速度超過(guò)了現(xiàn)有的所有方法。

    接下來(lái),通過(guò)擴(kuò)充訓(xùn)練數(shù)據(jù)量,使用train-clean-360中所有的樣本對(duì)訓(xùn)練MF-STD,并在四個(gè)測(cè)試集上重新進(jìn)行了性能評(píng)估,以探究該方法在LibriSpeech數(shù)據(jù)集上的極限性能,結(jié)果如表5所示。從表5可以看出,MF-STD在訓(xùn)練數(shù)據(jù)增多的情況下,結(jié)果取得了進(jìn)一步優(yōu)化,即便測(cè)試集的詞類別達(dá)到數(shù)萬(wàn)個(gè),也能取得非常優(yōu)秀的檢測(cè)和定位性能。

    最后,為探究所述方法各個(gè)組件對(duì)于最終性能的貢獻(xiàn),設(shè)計(jì)了若干組消融實(shí)驗(yàn)。結(jié)果如表6所示,其中:“最優(yōu)配置”表示模型所有組件和損失函數(shù)均使用時(shí)取得的結(jié)果;“-多尺度”表示去除所有多尺度輸出和損失函數(shù)中對(duì)不同尺度的求和,即將模型變?yōu)閱我怀叨葧r(shí)的結(jié)果;“-距離矩陣”表示將待測(cè)語(yǔ)音特征和查詢語(yǔ)音特征的融合方式由距離矩陣更改為沿著特征維度拼接,且后續(xù)檢測(cè)頭更改為全連接層的結(jié)果;“-解耦頭”表示不再解耦定位頭和檢測(cè)頭,而是使用同一個(gè)卷積神經(jīng)網(wǎng)絡(luò)完成p、w、t和p的輸出;“-Lloc”、“-Lcls”、“-Lconf”分別表示將定位損失、分類損失、置信度損失的權(quán)重置為0時(shí)的結(jié)果。

    從表6可以看出,MF-STD的各個(gè)組件均對(duì)語(yǔ)音關(guān)鍵詞的檢測(cè)與定位具有不同程度的貢獻(xiàn)。具體而言,去除多尺度模塊將會(huì)導(dǎo)致模型的檢測(cè)和定位能力整體降低,且定位性能降低更為嚴(yán)重。特征拼接與距離矩陣兩種不同的特征融合方式也會(huì)對(duì)結(jié)果造成影響,尤其在關(guān)鍵詞定位方面,將距離矩陣替換為特征拼接使得定位精度大幅降低。解耦預(yù)測(cè)頭比距離矩陣更為重要,去掉該模塊導(dǎo)致檢測(cè)和定位性能均下降更多。

    在損失函數(shù)方面,定位損失直接影響模型的定位性能,去掉該損失將導(dǎo)致模型不具備關(guān)鍵詞定位的能力,但因目標(biāo)更簡(jiǎn)單而檢測(cè)準(zhǔn)確率略微提升。分類損失則直接影響檢測(cè)性能,去掉該損失將導(dǎo)致模型無(wú)法準(zhǔn)確判斷關(guān)鍵詞的存在性,且不使用分類損失也無(wú)法帶來(lái)較好的定位效果,證明分類損失對(duì)于模型定位起到有力的輔助作用。而置信度損失對(duì)于模型性能起到一定輔助作用,去除該損失將導(dǎo)致檢測(cè)和定位性能均小幅下降。

    為進(jìn)一步驗(yàn)證本文模型的有效性,對(duì)模型在三個(gè)不同尺度下輸出的距離矩陣進(jìn)行了可視化分析,同時(shí)通過(guò)消融實(shí)驗(yàn)對(duì)比了去除三個(gè)損失函數(shù)對(duì)結(jié)果的影響,結(jié)果如圖4所示。

    圖4中各個(gè)子圖表示不同尺度下每個(gè)預(yù)測(cè)單元內(nèi)的距離矩陣,顏色越深表示特征對(duì)應(yīng)幀之間的距離越?。▍⒁婋娮影妫?。p表示模型預(yù)測(cè)該單元中查詢語(yǔ)音出現(xiàn)的概率,虛線框標(biāo)定了查詢語(yǔ)音出現(xiàn)的真實(shí)位置,實(shí)線框?yàn)槟P皖A(yù)測(cè)的出現(xiàn)位置。由圖4(a)可以看出,當(dāng)查詢語(yǔ)音出現(xiàn)時(shí),距離矩陣中會(huì)存在一段連續(xù)的距離較小的區(qū)域,與1.2節(jié)中的描述一致,且模型預(yù)測(cè)結(jié)果與標(biāo)簽值接近。從圖4(b)可見,去除分類損失會(huì)直接導(dǎo)致模型學(xué)習(xí)到的特征表征能力大幅下降。盡管模型仍然嘗試在每個(gè)預(yù)測(cè)單元中給出可能的定位信息,但由于無(wú)法確定關(guān)鍵詞是否在該單元中出現(xiàn),所以這些定位信息缺乏實(shí)際意義。從圖4(c)可見,去除置信度損失后,在查詢語(yǔ)音出現(xiàn)的預(yù)測(cè)單元內(nèi),模型仍能給出較為可靠的檢測(cè)和定位結(jié)果,但在查詢語(yǔ)音未出現(xiàn)的單元中,模型產(chǎn)生了更多的誤報(bào)。當(dāng)去除定位損失時(shí),從圖4(d)可見,模型仍然可以較準(zhǔn)確地判斷關(guān)鍵詞在預(yù)測(cè)單元內(nèi)是否出現(xiàn),但其定位信息不具備參考價(jià)值。此外,在部分查詢語(yǔ)音未出現(xiàn)的預(yù)測(cè)單元中,距離矩陣也出現(xiàn)了類似的斜線模式,表明該模型存在較高的誤報(bào)風(fēng)險(xiǎn)。綜上所述,本文提出的三個(gè)損失函數(shù)均對(duì)最終的檢測(cè)與定位性能有所貢獻(xiàn)。

    3 結(jié)束語(yǔ)

    本文MF-STD著眼于解決語(yǔ)音關(guān)鍵詞檢測(cè)任務(wù)中,由于關(guān)鍵詞目標(biāo)尺度變化、檢測(cè)網(wǎng)絡(luò)設(shè)計(jì)缺陷、缺乏細(xì)粒度定位約束的損失函數(shù)等,導(dǎo)致定位精度低。該模型以語(yǔ)音對(duì)的形式輸入查詢?cè)~語(yǔ)音和待檢測(cè)語(yǔ)音,通過(guò)殘差卷積神經(jīng)網(wǎng)絡(luò)分別提取兩者的高層語(yǔ)義表征,并通過(guò)距離矩陣建模輸入語(yǔ)音對(duì)之間的相關(guān)性。在此基礎(chǔ)上,通過(guò)對(duì)距離矩陣多尺度分割并傳入解耦檢測(cè)頭與定位頭,完成對(duì)關(guān)鍵詞存在性的預(yù)測(cè)和時(shí)域邊界的回歸,并使用獨(dú)立的分類損失、定位損失和置信度損失聯(lián)合優(yōu)化模型。在公開數(shù)據(jù)集LibriSpeech上的實(shí)驗(yàn)結(jié)果表明,與現(xiàn)有語(yǔ)音關(guān)鍵詞檢測(cè)和定位方法相比,MF-STD在維持較高推理速度的同時(shí),精準(zhǔn)率和交并比兩個(gè)指標(biāo)上顯著提升,尤其在集外詞的檢測(cè)中體現(xiàn)出了良好的泛化能力。此外,消融實(shí)驗(yàn)證實(shí)了模型中多尺度策略、距離矩陣、解耦頭以及三個(gè)損失函數(shù)的有效性和必要性。在未來(lái)的研究中,將考慮引入注意力機(jī)制等技術(shù)來(lái)優(yōu)化特征表征和匹配過(guò)程,并在多語(yǔ)種、口音等因素上擴(kuò)展實(shí)驗(yàn)數(shù)據(jù),進(jìn)一步提高模型的魯棒性。

    參考文獻(xiàn):

    [1]謝旭康, 陳戈, 孫俊, 等. TCN-Transformer-CTC的端到端語(yǔ)音識(shí)別 [J]. 計(jì)算機(jī)應(yīng)用研究, 2022, 39(3): 699-703. (Xie Xukang, Chen Ge, Sun Jun, et al. TCN-Transformer-CTC for end-to-end speech recognition [J]. Application Research of Computers, 2022, 39(3): 699-703.)

    [2]Deekshitha G, Mary L. Multilingual spoken term detection: a review [J]. International Journal of Speech Technology, 2020, 23: 653-667.

    [3]Wazir A S B, Karim H A, Abdullah M H L, et al. Design and implementation of fast spoken foul language recognition with different end-to-end deep neural network architectures [J]. Sensors, 2021, 21(3): 710.

    [4]Dinkel H, Wang Yongqing, Yan Zhiyong, et al. Unified keyword spotting and audio tagging on mobile devices with transformers [C]// Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press, 2023: 1-5.

    [5]Bhavsar S, Khairnar S, Nagarkar P, et al. On time document retrie-val using speech conversation and diverse keyword clustering during presentations [J]. International Journal of Recent Technology and Engineering, 2020, 9(3): 529-535.

    [6]Liu Dong, Mao Qirong, Wang Zhiyong. Keyword retrieving in continu-ous speech using connectionist temporal classification [J/OL]. Journal of Ambient Intelligence and Humanized Computing, (2020). https://doi.org/10.1007/s12652-020-01933-z.

    [7]Zhao Zeyu, Zhang Weiqiang. End-to-end keyword search system based on attention mechanism and energy scorer for low resource languages [J]. Neural Networks, 2021, 139: 326-334.

    [8]Kirandevraj R, Kurmi V K, Namboodiri V P, et al. Generalized keyword spotting using ASR embeddings [C]// Proc of the 23rd Annual Conference of the International Speech Communication Association. [S.l.]:ISCA, 2022: 126-130.

    [9]Reuter P M, Rollwage C, Meyer B T. Multilingual query-by-example keyword spotting with metric learning and phoneme-to-embedding mapping [C]// Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press, 2023: 1-5.

    [10]Huang J, Gharbieh W, Shim H S, et al. Query-by-example keyword spotting system using multi-head attention and soft-triple loss [C]// Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press, 2021: 6858-6862.

    [11]Li Meirong. A lightweight architecture for query-by-example keyword spotting on low-power IoT devices [J]. IEEE Trans on Consumer Electronics, 2022, 69(1): 65-75.

    [12]Tian Ziwei, Yang Shiqing, Xu Minqiang. Fast QBE: towards real-time spoken term detection with separable model [C]// Proc of International Conference on Machine Learning and Intelligent Systems Engineering. Piscataway, NJ: IEEE Press, 2022: 137-141.

    [13]Zhan Junyao, He Qianhua, Su Jianbin, et al. A stage match for query-by-example spoken term detection based on structure information of query [C]// Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press, 2021: 6833-6837.

    [14]Deekshitha G, Mary L. Two-stage spoken term detection system for under resourced languages [J]. IET Signal Processing, 2020, 14(9): 602-613.

    [15]劉暢, 李正欣, 張曉豐, 等. 基于特征點(diǎn)界標(biāo)過(guò)濾的時(shí)間序列模式匹配方法 [J]. 計(jì)算機(jī)應(yīng)用研究, 2022, 39(4): 1008-1012. (Liu Chang, Li Zhengxin, Zhang Xiaofeng, et al. Time series pattern matching method based on feature point landmark filtering [J]. App-lication Research of Computers, 2022, 39(4): 1008-1012.)

    [16]Ram D, Miculicich L, Bourlard H. Neural network based end-to-end query by example spoken term detection [J]. IEEE/ACM Trans on Audio, Speech, and Language Processing, 2020, 28: 1416-1427.

    [17]Yuan Yougen, Leung C C, Xie Lei, et al. Query-by-example speech search using recurrent neural acoustic word embeddings with temporal context [J]. IEEE Access, 2019, 7: 67656-67665.

    [18]Pham V T. Robust spoken term detection using partial search and re-scoring hypothesized detections techniques [D]. Singapore: Nanyang Technological University, 2019.

    [19]Li Shengwei, Zhang Huajun. Keyword spotting based on CTC and similarity matching for Chinese speech [C]// Proc of the 23rd IEEE/ACIS International Conference on Computer and Information Science. Piscataway, NJ: IEEE Press, 2023: 79-84.

    [20]Segal Y, Fuchs T S, Keshet J. SpeechYOLO: detection and localization of speech objects [C]// Proc of the 20th Annual Conference on International Speech Communication Association. [S.l.]: ISCA, 2019: 4210-4214.

    [21]Fuchs T S, Segal Y, Keshet J. CNN-based spoken term detection and localization without dynamic programming [C]// Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press, 2021: 6853-6857.

    [22]Samragh M, Kundu A, Hu T Y, et al. I see what you hear: a vision-inspired method to localize words [C]// Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press,2023: 1-5.

    [23]Kim B, Chang S, Lee J, et al. Broadcasted residual learning for efficient keyword spotting [C]// Proc of the 22nd Annual Conference on International Speech Communication Association. [S.l.]:ISCA, 2021: 4538-4542.

    [24]Panayotov V, Chen G, Povey D, et al. LibriSpeech: an ASR corpus based on public domain audio books [C]// Proc of IEEE Internatio-nal Conference on Acoustics, Speech and Signal Processing. Pisca-taway, NJ: IEEE Press,2015: 5206-5210.

    [25]Chaudhary A, Abrol V. Towards on-device keyword spotting using low footprint quaternion neural models [C]// Proc of IEEE Workshop on Applications of Signal Processing to Audio and Acoustics. Pisca-taway, NJ: IEEE Press, 2023: 1-5.

    猜你喜歡
    檢測(cè)模型
    一半模型
    “不等式”檢測(cè)題
    “一元一次不等式”檢測(cè)題
    “一元一次不等式組”檢測(cè)題
    “幾何圖形”檢測(cè)題
    “角”檢測(cè)題
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    3D打印中的模型分割與打包
    小波變換在PCB缺陷檢測(cè)中的應(yīng)用
    美女内射精品一级片tv| 丝袜美腿在线中文| 人妻系列 视频| 精品久久久噜噜| 波野结衣二区三区在线| 在线观看一区二区三区| 综合色丁香网| 国产精品久久久久久久久免| 久久久久国产网址| 亚洲av成人精品一二三区| 校园人妻丝袜中文字幕| 午夜福利成人在线免费观看| 内射极品少妇av片p| 男人舔奶头视频| 久久人人爽人人爽人人片va| 国产麻豆成人av免费视频| 天堂网av新在线| 精品国产露脸久久av麻豆 | 欧美一区二区亚洲| 99热6这里只有精品| 丝袜喷水一区| ponron亚洲| 天堂√8在线中文| 国产亚洲精品久久久com| 国产乱人偷精品视频| 看十八女毛片水多多多| 亚洲精品日韩av片在线观看| 69av精品久久久久久| 一级av片app| 国产精品99久久久久久久久| 精品人妻视频免费看| 国产精品精品国产色婷婷| 波野结衣二区三区在线| 爱豆传媒免费全集在线观看| 啦啦啦中文免费视频观看日本| 久久久久九九精品影院| 亚洲精品成人av观看孕妇| 小蜜桃在线观看免费完整版高清| 亚洲精品aⅴ在线观看| 亚洲自偷自拍三级| 熟女人妻精品中文字幕| 国产伦理片在线播放av一区| 亚洲欧美日韩无卡精品| 国产黄色小视频在线观看| 99热这里只有是精品在线观看| 80岁老熟妇乱子伦牲交| 日韩欧美精品v在线| 18禁在线播放成人免费| 成人亚洲精品av一区二区| 少妇熟女aⅴ在线视频| 国产真实伦视频高清在线观看| 听说在线观看完整版免费高清| 国产成人aa在线观看| 99久久精品一区二区三区| 成人毛片60女人毛片免费| 精品午夜福利在线看| 禁无遮挡网站| 天堂av国产一区二区熟女人妻| 91久久精品电影网| 精品久久久久久久久av| 亚洲欧美一区二区三区国产| 18+在线观看网站| 久久精品人妻少妇| 国产精品女同一区二区软件| 免费看av在线观看网站| 一个人看的www免费观看视频| 亚洲av成人精品一二三区| 美女内射精品一级片tv| 天堂影院成人在线观看| 波野结衣二区三区在线| 九色成人免费人妻av| av女优亚洲男人天堂| 久久精品熟女亚洲av麻豆精品 | 六月丁香七月| 丝袜喷水一区| 午夜福利网站1000一区二区三区| 综合色av麻豆| 午夜福利成人在线免费观看| 天堂中文最新版在线下载 | 天堂√8在线中文| 最近2019中文字幕mv第一页| 午夜免费男女啪啪视频观看| 午夜福利在线在线| 亚洲aⅴ乱码一区二区在线播放| 99热这里只有精品一区| 欧美xxⅹ黑人| 青春草亚洲视频在线观看| 天堂俺去俺来也www色官网 | 一个人免费在线观看电影| 男人狂女人下面高潮的视频| 三级男女做爰猛烈吃奶摸视频| 精品一区二区免费观看| 国产淫片久久久久久久久| 精品国内亚洲2022精品成人| 亚洲精品,欧美精品| 观看美女的网站| 欧美 日韩 精品 国产| 国产精品一区二区三区四区免费观看| 久久久久久久久久黄片| 99热全是精品| 日韩国内少妇激情av| eeuss影院久久| 毛片一级片免费看久久久久| 国产免费又黄又爽又色| 日产精品乱码卡一卡2卡三| 日本av手机在线免费观看| 特大巨黑吊av在线直播| h日本视频在线播放| 久久久久久伊人网av| 亚洲欧美清纯卡通| 日韩电影二区| 日本色播在线视频| 婷婷色综合www| 大又大粗又爽又黄少妇毛片口| 国产乱人视频| 女人十人毛片免费观看3o分钟| 欧美高清性xxxxhd video| 在线a可以看的网站| 日韩三级伦理在线观看| 久久99热6这里只有精品| 伊人久久精品亚洲午夜| 亚洲av免费在线观看| 熟女人妻精品中文字幕| 三级经典国产精品| 有码 亚洲区| 韩国av在线不卡| 一个人看视频在线观看www免费| 26uuu在线亚洲综合色| 亚洲国产最新在线播放| 成人午夜精彩视频在线观看| 日韩伦理黄色片| 插阴视频在线观看视频| 成人欧美大片| 黄片wwwwww| 午夜福利在线观看吧| 丝袜喷水一区| 欧美日韩在线观看h| 天天躁日日操中文字幕| 老女人水多毛片| 国产女主播在线喷水免费视频网站 | 国产亚洲最大av| 免费看av在线观看网站| 国产一级毛片七仙女欲春2| or卡值多少钱| 精品99又大又爽又粗少妇毛片| 国产白丝娇喘喷水9色精品| 久久热精品热| 免费看美女性在线毛片视频| 一级黄片播放器| 成人欧美大片| 日韩中字成人| 国产片特级美女逼逼视频| 欧美高清成人免费视频www| 97人妻精品一区二区三区麻豆| 丝袜美腿在线中文| 午夜视频国产福利| 久久久成人免费电影| 在线 av 中文字幕| 九草在线视频观看| 有码 亚洲区| 亚洲成人一二三区av| 国产精品1区2区在线观看.| 国产一区亚洲一区在线观看| 99久国产av精品| 欧美日韩一区二区视频在线观看视频在线 | 精品久久久久久久久亚洲| 日韩欧美精品免费久久| 国产伦理片在线播放av一区| 在线免费观看的www视频| 久久精品熟女亚洲av麻豆精品 | 国产人妻一区二区三区在| 伦精品一区二区三区| 久久久久久伊人网av| 国产麻豆成人av免费视频| 岛国毛片在线播放| 国国产精品蜜臀av免费| 色尼玛亚洲综合影院| 国产女主播在线喷水免费视频网站 | 国产综合懂色| 日韩欧美精品v在线| 一区二区三区乱码不卡18| 赤兔流量卡办理| 久久久久精品久久久久真实原创| 国产中年淑女户外野战色| 黄色配什么色好看| 欧美另类一区| 乱码一卡2卡4卡精品| 日韩一本色道免费dvd| 色播亚洲综合网| 成年女人在线观看亚洲视频 | 久久6这里有精品| 国产精品麻豆人妻色哟哟久久 | 丝瓜视频免费看黄片| 免费观看在线日韩| av在线播放精品| 欧美一级a爱片免费观看看| 免费看a级黄色片| 一级毛片我不卡| 欧美高清成人免费视频www| 亚洲怡红院男人天堂| 午夜激情福利司机影院| 国产成人精品久久久久久| 欧美一区二区亚洲| 99久久精品一区二区三区| 日韩精品有码人妻一区| 亚洲欧美中文字幕日韩二区| 亚洲,欧美,日韩| 哪个播放器可以免费观看大片| 久久久久久久久久黄片| 永久免费av网站大全| 国产爱豆传媒在线观看| 久久这里只有精品中国| 国产一区亚洲一区在线观看| 亚洲va在线va天堂va国产| 国产 一区 欧美 日韩| 亚洲国产高清在线一区二区三| 高清av免费在线| 日本一二三区视频观看| 亚洲三级黄色毛片| 熟女电影av网| 日韩欧美三级三区| 婷婷色综合www| 免费观看精品视频网站| 麻豆久久精品国产亚洲av| 久久久国产一区二区| 六月丁香七月| 啦啦啦韩国在线观看视频| 如何舔出高潮| 精品久久久久久成人av| 国产亚洲一区二区精品| 女人被狂操c到高潮| 国产91av在线免费观看| 蜜桃久久精品国产亚洲av| 99久久人妻综合| 国产综合懂色| 国产色婷婷99| 国产成人精品福利久久| 岛国毛片在线播放| 熟女电影av网| 免费观看av网站的网址| 亚洲欧洲日产国产| 免费黄色在线免费观看| 国产亚洲精品av在线| av.在线天堂| 国产极品天堂在线| 免费大片18禁| 一级av片app| 白带黄色成豆腐渣| 少妇被粗大猛烈的视频| av在线播放精品| 成年av动漫网址| 黄色日韩在线| 一级毛片 在线播放| 国产成人a∨麻豆精品| 蜜桃久久精品国产亚洲av| 内射极品少妇av片p| 免费观看a级毛片全部| 我要看日韩黄色一级片| 女人被狂操c到高潮| www.av在线官网国产| 久久久久久久久大av| 禁无遮挡网站| 亚洲人成网站在线观看播放| 国产精品福利在线免费观看| 免费黄色在线免费观看| 22中文网久久字幕| 一本一本综合久久| 久久精品国产亚洲av涩爱| 九色成人免费人妻av| 亚洲国产精品国产精品| av播播在线观看一区| 在线免费十八禁| 老司机影院毛片| 美女xxoo啪啪120秒动态图| 免费观看精品视频网站| 精品午夜福利在线看| 别揉我奶头 嗯啊视频| 深夜a级毛片| 午夜爱爱视频在线播放| 永久免费av网站大全| 亚洲国产最新在线播放| av福利片在线观看| 日日摸夜夜添夜夜爱| 国产在线男女| 一级a做视频免费观看| 天堂影院成人在线观看| 久久99热这里只有精品18| 超碰97精品在线观看| 天天躁夜夜躁狠狠久久av| 美女cb高潮喷水在线观看| 亚洲色图av天堂| 亚洲国产精品sss在线观看| 亚洲精品日本国产第一区| 成人亚洲欧美一区二区av| 亚洲av一区综合| 国产伦精品一区二区三区四那| 日韩三级伦理在线观看| 日本一本二区三区精品| 日韩三级伦理在线观看| 亚洲人成网站高清观看| 久久久久久久久久黄片| 亚洲人成网站高清观看| 爱豆传媒免费全集在线观看| 十八禁国产超污无遮挡网站| 97超视频在线观看视频| 午夜久久久久精精品| 久久精品国产自在天天线| 麻豆av噜噜一区二区三区| 精品人妻偷拍中文字幕| 国产精品久久久久久精品电影小说 | 国产成人a∨麻豆精品| 欧美激情国产日韩精品一区| 国产亚洲最大av| 免费人成在线观看视频色| 丰满人妻一区二区三区视频av| 亚洲国产成人一精品久久久| 精品久久久久久久久亚洲| 成年免费大片在线观看| av在线观看视频网站免费| 亚洲欧美中文字幕日韩二区| 午夜福利高清视频| 亚洲国产精品成人久久小说| 成人毛片60女人毛片免费| 高清欧美精品videossex| .国产精品久久| 国产精品精品国产色婷婷| 午夜视频国产福利| 国产视频首页在线观看| 亚洲人成网站在线观看播放| or卡值多少钱| 尾随美女入室| 成人特级av手机在线观看| 可以在线观看毛片的网站| 亚洲熟妇中文字幕五十中出| 久久精品熟女亚洲av麻豆精品 | av线在线观看网站| 九九久久精品国产亚洲av麻豆| 中文字幕制服av| 国产 一区精品| 久久精品国产亚洲网站| 黄片无遮挡物在线观看| 国产精品一二三区在线看| 男女边摸边吃奶| 亚洲国产色片| 国产永久视频网站| 国产麻豆成人av免费视频| 成人毛片a级毛片在线播放| 久久国内精品自在自线图片| 1000部很黄的大片| 日本欧美国产在线视频| 永久网站在线| 中文乱码字字幕精品一区二区三区 | 两个人视频免费观看高清| 伦精品一区二区三区| 偷拍熟女少妇极品色| 中国美白少妇内射xxxbb| 我要看日韩黄色一级片| 熟妇人妻久久中文字幕3abv| 国产高清有码在线观看视频| 国产精品.久久久| 日日干狠狠操夜夜爽| 国产成人freesex在线| 一夜夜www| 日韩,欧美,国产一区二区三区| 亚洲av一区综合| 久久久久久久久久成人| 久久99热这里只频精品6学生| 熟妇人妻久久中文字幕3abv| 亚洲aⅴ乱码一区二区在线播放| 国产成人精品福利久久| 大片免费播放器 马上看| 一个人看的www免费观看视频| 91精品伊人久久大香线蕉| 看十八女毛片水多多多| 一本久久精品| 1000部很黄的大片| 国产中年淑女户外野战色| 汤姆久久久久久久影院中文字幕 | 国产高潮美女av| 亚洲精品影视一区二区三区av| av在线老鸭窝| 午夜日本视频在线| 好男人视频免费观看在线| 精品久久久久久久人妻蜜臀av| 久久精品综合一区二区三区| av在线亚洲专区| 欧美日韩视频高清一区二区三区二| 日日摸夜夜添夜夜添av毛片| 天美传媒精品一区二区| 精品少妇黑人巨大在线播放| 性插视频无遮挡在线免费观看| 成人亚洲精品一区在线观看 | 亚洲av男天堂| 国产 一区 欧美 日韩| 日韩三级伦理在线观看| 国产伦精品一区二区三区四那| 蜜臀久久99精品久久宅男| 51国产日韩欧美| 亚洲精品日韩在线中文字幕| 日本黄色片子视频| 久久久久精品久久久久真实原创| 老女人水多毛片| 欧美精品国产亚洲| 久久久精品免费免费高清| 精品一区在线观看国产| 日韩国内少妇激情av| 丝袜美腿在线中文| 国产熟女欧美一区二区| 精品一区二区三区视频在线| 男女边摸边吃奶| 色视频www国产| 婷婷色综合大香蕉| 乱码一卡2卡4卡精品| 国产精品一区二区三区四区久久| a级一级毛片免费在线观看| 成人特级av手机在线观看| 中国美白少妇内射xxxbb| 69人妻影院| 国产白丝娇喘喷水9色精品| 能在线免费看毛片的网站| 全区人妻精品视频| 日韩 亚洲 欧美在线| av在线观看视频网站免费| 久热久热在线精品观看| 美女国产视频在线观看| 一级毛片aaaaaa免费看小| 国产视频首页在线观看| www.av在线官网国产| 日韩欧美精品免费久久| 成人毛片a级毛片在线播放| 99热全是精品| 男人舔女人下体高潮全视频| 又黄又爽又刺激的免费视频.| 国产黄a三级三级三级人| 国产精品不卡视频一区二区| 国产高清有码在线观看视频| 国产熟女欧美一区二区| 最近的中文字幕免费完整| 只有这里有精品99| 亚洲美女搞黄在线观看| 久久久久久久久久黄片| 国产成人午夜福利电影在线观看| 亚洲精品久久午夜乱码| 欧美区成人在线视频| 精品欧美国产一区二区三| 亚洲av中文av极速乱| 国产麻豆成人av免费视频| 精品人妻视频免费看| 直男gayav资源| 国产精品一区二区三区四区久久| 国产亚洲精品av在线| 69av精品久久久久久| 精品不卡国产一区二区三区| 国产黄色视频一区二区在线观看| 免费观看a级毛片全部| 日日啪夜夜爽| 97在线视频观看| 内射极品少妇av片p| 美女内射精品一级片tv| 中文天堂在线官网| 91精品国产九色| 99久久精品热视频| 99久久精品一区二区三区| 综合色丁香网| 国产精品久久久久久久电影| 国产黄色视频一区二区在线观看| 少妇人妻一区二区三区视频| 伊人久久国产一区二区| 色哟哟·www| 91狼人影院| 美女内射精品一级片tv| 国产爱豆传媒在线观看| 晚上一个人看的免费电影| 亚洲国产精品专区欧美| 可以在线观看毛片的网站| 综合色丁香网| 日本免费在线观看一区| a级毛色黄片| 国产伦精品一区二区三区视频9| 夜夜爽夜夜爽视频| 一个人免费在线观看电影| 大陆偷拍与自拍| 亚洲av男天堂| 国产日韩欧美在线精品| 18禁在线播放成人免费| 欧美日韩综合久久久久久| 乱系列少妇在线播放| 精品人妻视频免费看| 日韩欧美国产在线观看| 国产视频首页在线观看| 亚洲av二区三区四区| 国产片特级美女逼逼视频| 黄片无遮挡物在线观看| 欧美高清性xxxxhd video| 草草在线视频免费看| 久久久久久久大尺度免费视频| 人人妻人人澡人人爽人人夜夜 | 精品国产三级普通话版| 欧美3d第一页| 日韩欧美精品v在线| 久久草成人影院| 精华霜和精华液先用哪个| 欧美日韩亚洲高清精品| 人人妻人人澡欧美一区二区| 亚洲欧美中文字幕日韩二区| 国产熟女欧美一区二区| 丰满少妇做爰视频| 国产精品一区二区在线观看99 | 女人被狂操c到高潮| 黄片无遮挡物在线观看| 一级av片app| 免费观看a级毛片全部| 蜜桃亚洲精品一区二区三区| 国产精品福利在线免费观看| 干丝袜人妻中文字幕| 中文欧美无线码| 亚洲精品456在线播放app| 亚洲成人中文字幕在线播放| 欧美 日韩 精品 国产| 国产不卡一卡二| 免费黄网站久久成人精品| 免费播放大片免费观看视频在线观看| 亚洲国产成人一精品久久久| 久久久久精品久久久久真实原创| 直男gayav资源| 国产成人免费观看mmmm| 亚洲在线自拍视频| 亚洲一级一片aⅴ在线观看| 欧美一级a爱片免费观看看| 国产国拍精品亚洲av在线观看| 日韩欧美一区视频在线观看 | www.av在线官网国产| 最后的刺客免费高清国语| 国产av码专区亚洲av| 国产 一区精品| 午夜福利在线观看吧| 亚洲成人av在线免费| 嫩草影院入口| .国产精品久久| 国模一区二区三区四区视频| 亚洲欧美精品自产自拍| 51国产日韩欧美| 国产高潮美女av| 简卡轻食公司| 麻豆久久精品国产亚洲av| 亚洲欧美中文字幕日韩二区| 国产女主播在线喷水免费视频网站 | 日本一二三区视频观看| 亚洲成人av在线免费| 成人无遮挡网站| 亚洲国产高清在线一区二区三| 五月天丁香电影| 精品熟女少妇av免费看| 一级毛片我不卡| 免费观看在线日韩| 国产淫片久久久久久久久| 日韩欧美 国产精品| 人妻少妇偷人精品九色| 久久久午夜欧美精品| 干丝袜人妻中文字幕| 少妇丰满av| 在线观看人妻少妇| 亚洲18禁久久av| 精品一区二区三卡| 亚洲最大成人av| 亚洲最大成人中文| videossex国产| 日本-黄色视频高清免费观看| 熟女人妻精品中文字幕| 自拍偷自拍亚洲精品老妇| 欧美极品一区二区三区四区| 男人舔女人下体高潮全视频| 精品人妻一区二区三区麻豆| 亚洲18禁久久av| 国产成人午夜福利电影在线观看| 亚洲精品久久午夜乱码| 国产老妇女一区| 免费观看的影片在线观看| ponron亚洲| 国产亚洲一区二区精品| 日韩中字成人| 亚洲一区高清亚洲精品| 欧美bdsm另类| 国产乱人偷精品视频| 日韩欧美精品v在线| 亚洲国产成人一精品久久久| 亚洲怡红院男人天堂| av在线老鸭窝| 国产视频首页在线观看| 亚洲国产日韩欧美精品在线观看| 在线观看美女被高潮喷水网站| 色综合色国产| 亚洲最大成人手机在线| 国产永久视频网站| 国产精品国产三级国产专区5o| av播播在线观看一区| 精品久久久久久成人av| 亚洲精品乱久久久久久| 欧美变态另类bdsm刘玥| 免费观看性生交大片5| 国产男女超爽视频在线观看| 男人和女人高潮做爰伦理| 2022亚洲国产成人精品| 午夜精品国产一区二区电影 | 神马国产精品三级电影在线观看| 亚洲精品中文字幕在线视频 | 亚洲综合色惰| 精品一区二区三卡| 深爱激情五月婷婷| 色网站视频免费| 亚洲成人一二三区av| 亚洲国产欧美人成| 欧美日韩一区二区视频在线观看视频在线 | 亚洲精品国产av成人精品| 欧美日韩精品成人综合77777|