• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于角度間隔嵌入特征的端到端聲紋識(shí)別模型

    2019-11-15 04:49:03王康董元菲
    計(jì)算機(jī)應(yīng)用 2019年10期
    關(guān)鍵詞:損失函數(shù)聲紋識(shí)別卷積神經(jīng)網(wǎng)絡(luò)

    王康 董元菲

    摘 要: 針對(duì)傳統(tǒng)身份認(rèn)證矢量(i-vector)與概率線性判別分析(PLDA)結(jié)合的聲紋識(shí)別模型步驟繁瑣、泛化能力較弱等問題,構(gòu)建了一個(gè)基于角度間隔嵌入特征的端到端模型。該模型特別設(shè)計(jì)了一個(gè)深度卷積神經(jīng)網(wǎng)絡(luò),從語音數(shù)據(jù)的聲學(xué)特征中提取深度說話人嵌入;選擇基于角度改進(jìn)的A-Softmax作為損失函數(shù),在角度空間中使模型學(xué)習(xí)到的不同類別特征始終存在角度間隔并且同類特征間聚集更緊密。在公開數(shù)據(jù)集VoxCeleb2上進(jìn)行的測(cè)試表明,與i-vector結(jié)合PLDA的方法相比,該模型在說話人辨認(rèn)中的Top-1和Top-5上準(zhǔn)確率分別提高了58.9%和30%;而在說話人確認(rèn)中的最小檢測(cè)代價(jià)和等錯(cuò)誤率上分別減小了47.9%和45.3%。實(shí)驗(yàn)結(jié)果驗(yàn)證了所設(shè)計(jì)的端到端模型更適合在多信道、大規(guī)模的語音數(shù)據(jù)集上學(xué)習(xí)到有類別區(qū)分性的特征。

    關(guān)鍵詞:聲紋識(shí)別;端到端模型;損失函數(shù);卷積神經(jīng)網(wǎng)絡(luò);深度說話人嵌入

    中圖分類號(hào):TN912.34;TP391.42

    文獻(xiàn)標(biāo)志碼:A

    Abstract:? An end-to-end model with angular interval embedding was constructed to solve the problems of complicated multiple steps and weak generalization ability in the traditional voiceprint recognition model based on the combination of identity vector (i-vector) and Probabilistic Linear Discriminant Analysis (PLDA). A deep convolutional neural network was specially designed to extract deep speaker embedding from the acoustic features of voice data. The Angular Softmax (A-Softmax), which is based on angular improvement, was employed as the loss function to keep the angular interval between the different classes of features learned by the model and make the clustering of the similar features closer in the angle space. Compared with the method combining i-vector and PLDA, it shows that the proposed model has the identification accuracy of Top-1 and Top-5 increased by 58.9% and 30% respectively and has the minimum detection cost and equal error rate reduced by 47.9% and 45.3% respectively for speaker verification on the public dataset VoxCeleb2. The results verify that the proposed end-to-end model is more suitable for learning class-discriminating features from multi-channel and large-scale datasets.

    Key words: voiceprint recognition; end-to-end model; loss function; convolutional neural network; deep speaker embedding

    0 引言

    聲紋識(shí)別是一種從語音信息中提取生物特征的識(shí)別技術(shù)[1]。在該技術(shù)發(fā)展的幾十年中,由Dehak等[2]提出的身份認(rèn)證矢量(identity vector, i-vector)方法一度成為聲紋識(shí)別領(lǐng)域的主流研究技術(shù)之一。該方法主要有三個(gè)步驟:1)利用高斯混合模型通用背景模型(Gaussian Mixture Model-Universal Background Model, GMM-UBM)計(jì)算充分統(tǒng)計(jì)量;2)在全因子空間上提取i-vector;3)利用概率線性判別分析(Probabilistic Linear Discriminant Analysis, PLDA)計(jì)算i-vector間的似然比分?jǐn)?shù)并作出判斷[3]。

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)在圖像識(shí)別、機(jī)器翻譯和語音識(shí)別等諸多領(lǐng)域取得了非常矚目的成績,所以聲紋識(shí)別技術(shù)同樣引入了這一思想。利用DNN對(duì)聲紋建模一般有兩種方式:一種是利用DNN取代i-vector框架中GMM-UBM來計(jì)算充分統(tǒng)計(jì)量[4];另一種是從DNN的瓶頸層中提取幀級(jí)別的特征,利用這些特征獲得話音級(jí)別表示[5-6],Variani等[7]將DNN最后一個(gè)隱藏層中提取的特征整體取平均來替代i-vector,是這種思想的典型代表。目前,將DNN和i-vector融合的技術(shù)已經(jīng)較為成熟,并且在部分小規(guī)模的商業(yè)產(chǎn)品上得到了實(shí)現(xiàn)。但利用該方法仍然存在兩大問題:1)提取i-vector作為話音級(jí)別的表示形式后,還需要長度標(biāo)準(zhǔn)化和后續(xù)分類器的步驟[8],比較繁瑣;2)由于加性噪聲的存在,利用i-vector構(gòu)建的模型泛化能力較弱[9]。

    基于上述研究背景,本文構(gòu)建一個(gè)端到端的聲紋識(shí)別模型,利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)和重新設(shè)計(jì)的度量方式,提取到類別區(qū)分能力更強(qiáng)的嵌入表示。這些方法在人臉識(shí)別領(lǐng)域得到了驗(yàn)證,但在聲紋識(shí)別中比較少見。模型用于文本無關(guān)的開集識(shí)別任務(wù),也就是訓(xùn)練和測(cè)試數(shù)據(jù)沒有交集,并通過嵌入之間的余弦距離直接來比較說話人之間的相似性。為使模型學(xué)習(xí)到的深度說話人嵌入有足夠的類別區(qū)分性,損失函數(shù)選擇A-Softmax(Angular Softmax)來替代分類網(wǎng)絡(luò)中最常使用的Softmax。A-Softmax損失函數(shù)能學(xué)習(xí)角度判別特征,將不同類別的特征映射到單位超球面上的不同區(qū)域內(nèi)[10],更適合大規(guī)模數(shù)據(jù)集的訓(xùn)練,得到泛化能力更強(qiáng)的模型。

    1 端到端聲紋模型——深度說話人嵌入開集識(shí)別任務(wù)本質(zhì)上是一種度量學(xué)習(xí)任務(wù),其中的關(guān)鍵是使模型學(xué)習(xí)到類別間隔較大的特征,所形成的特征空間足以概括沒訓(xùn)練過的說話人,所以模型訓(xùn)練過程中的目標(biāo)是在特征空間中不斷縮小同類距離的同時(shí)增大異類之間的距離。

    目前,已有一些研究通過改進(jìn)主干神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來提升模型效果,如文獻(xiàn)[11]利用循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)提取話音級(jí)別特征作為說話人嵌入,文獻(xiàn)[12]則利用NIN(Network In Network)建模。

    CNN最初在圖像領(lǐng)域應(yīng)用廣泛,將其應(yīng)用到語音分析中也能有效地在聲學(xué)特征中減少譜之間的變化并對(duì)譜之間的相關(guān)性進(jìn)行建模[13],故本文選擇CNN從聲學(xué)特征中提取語音數(shù)據(jù)幀級(jí)別的特征。

    從平衡訓(xùn)練時(shí)間和模型深度的角度來看,選取CNN提取特征也要優(yōu)于語音識(shí)別中常用的長短期記憶(Long Short-Term Memory, LSTM)網(wǎng)絡(luò)[3]。

    另一方面,模型的度量方式也可以進(jìn)行改進(jìn),基于這種改進(jìn)思想一般有兩種方式[8]:一種是訓(xùn)練分類網(wǎng)絡(luò)作為深度說話人嵌入的提取器,在損失函數(shù)上加上限制條件約束網(wǎng)絡(luò)學(xué)習(xí)方向,提取輸出層前一層的特征作為深度說話人嵌入;另一種是直接在特征空間中訓(xùn)練,使不同類別說話人之間的歐氏距離有一定的間隔,并將歸一化后的特征作為深度說話人嵌入,這樣特征空間中的歐氏距離與余弦距離意義等價(jià),測(cè)試階段可以直接利用余弦相似性計(jì)算分?jǐn)?shù)。直接度量特征之間距離最具代表性的是三元組損失[14],但三元組的挖掘非常復(fù)雜,導(dǎo)致模型訓(xùn)練非常耗時(shí),且對(duì)性能敏感,所以本文主要研究分類網(wǎng)絡(luò),即輸出層神經(jīng)元的個(gè)數(shù)等于訓(xùn)練的說話人類別數(shù),這種思想的系統(tǒng)流程如圖1所示。

    系統(tǒng)的整體流程分為訓(xùn)練過程和測(cè)試過程兩個(gè)部分。在訓(xùn)練過程中,將從語音數(shù)據(jù)中提取的聲學(xué)特征送入CNN生成幀級(jí)別的特征,幀級(jí)別的特征被激活后送入平均池化層得到話音級(jí)別的特征,再利用仿射層進(jìn)行維度轉(zhuǎn)換,得到固定維度的深度說話人嵌入,輸出層將固定維度的說話人嵌入映射到訓(xùn)練說話人類別數(shù)。損失函數(shù)是構(gòu)建的端到端網(wǎng)絡(luò)訓(xùn)練過程的最后一步,通過不斷減小網(wǎng)絡(luò)預(yù)測(cè)值和實(shí)際標(biāo)簽的差距來提高網(wǎng)絡(luò)性能。在測(cè)試階段,先把語音數(shù)據(jù)送入已經(jīng)訓(xùn)練好的網(wǎng)絡(luò)模型,從仿射層中得到深度說話人嵌入,再計(jì)算每對(duì)嵌入之間的余弦距離,根據(jù)閾值即可判斷該對(duì)語音數(shù)據(jù)是屬于相同說話人還是不同說話人。

    2 具有角度區(qū)分性的深度說話人嵌入

    基于Softmax損失函數(shù)學(xué)習(xí)到的深度說話人嵌入在本質(zhì)上就有一定的角度區(qū)分性[10],這一點(diǎn)在文獻(xiàn)[15]中也得到了證實(shí),但在由Softmax直接映射的角度空間中對(duì)異類說話人嵌入沒有明確的限制條件,這樣同時(shí)優(yōu)化了特征之間的夾角和距離。A-Softmax損失函數(shù)將特征權(quán)值進(jìn)行歸一化,使CNN更集中于優(yōu)化不同特征之間的夾角,學(xué)習(xí)到具有角度區(qū)分性的深度說話人嵌入[10],以提高模型性能。

    2.1 A-Softmax原理

    延用文獻(xiàn)[16]中的定義,將分類網(wǎng)絡(luò)的全連接輸出層,Softmax函數(shù)以及交叉熵?fù)p失函數(shù)三個(gè)步驟聯(lián)合定義為Softmax損失函數(shù),表達(dá)式為:

    其中:xi表示第i個(gè)訓(xùn)練樣本的輸入特征; yi為其對(duì)應(yīng)的類別標(biāo)簽;Wj、Wyi分別是全連接輸出層權(quán)重矩陣W的第j列和第yi列;bj、byi為其對(duì)應(yīng)的偏置。訓(xùn)練數(shù)據(jù)時(shí)一般會(huì)分批處理,N即為每一批次中的訓(xùn)練樣本個(gè)數(shù),K為所有訓(xùn)練樣本中的類別數(shù)。

    將W與xi展開成模長與夾角余弦的乘積,同時(shí)限制‖Wj‖=1和bj=0,即在每次迭代中都將權(quán)重矩陣W每列的模進(jìn)行歸一化,并將偏置設(shè)為0,損失函數(shù)表達(dá)式轉(zhuǎn)化為:

    其中:θj,i(0≤θj,i≤π)為向量Wj與特征xi間的夾角,式(2)表明了訓(xùn)練樣本i被預(yù)測(cè)為類別j的概率僅與θj,i有關(guān)。A-Softmax不僅在角度空間上使不同類別的樣本分離,同時(shí)利用倍角關(guān)系增大了類別之間的角度間隔[10],表達(dá)式為:

    2.2 A-Softmax角度間隔的性質(zhì)

    A-Softmax損失函數(shù)不僅通過角度間隔增加了特征之間的類別區(qū)分能力,同時(shí)能將學(xué)習(xí)到的特征映射到單位超球面上解釋。權(quán)重Wyi與特征xi之間的夾角對(duì)應(yīng)于該單位超球面上的最短弧長,同一類別在超球面上形成一個(gè)類似于超圓的區(qū)域。通過角度間隔參數(shù)m的設(shè)定可以調(diào)節(jié)學(xué)習(xí)任務(wù)的難易程度,m越大,單個(gè)類別形成的超圓區(qū)域也就越小,學(xué)習(xí)任務(wù)也越困難。但m存在一個(gè)最小值mmin使同類特征之間最大角度間隔小于異類特征之間最小角度間隔,文獻(xiàn)[10]中未給出推導(dǎo)過程,本文將在二維空間中定量分析mmin。

    二分類情況下不同類別之間的角度間隔如圖2所示,其中W1、W2分別是類1、類2的權(quán)重向量,W1與W2之間的夾角為θ12,令輸入的特征x屬于類1,則有cos(mθ1)>cos(θ2),即mθ1<θ2。當(dāng)特征x在W1、W2之間時(shí),θ1存在一個(gè)屬于類1的最大角

    θin1_max;當(dāng)特征x在W1、W2之外時(shí),θ1存在一個(gè)屬于類1的最大角θout1_max,θ1的范圍即在θin1_max與θout1_max之間。如圖2(a),當(dāng)x在W1、W2之間時(shí)有:

    選擇滿足期望特征分布的參數(shù)m,理論上可使所有訓(xùn)練特征按標(biāo)準(zhǔn)分布在單位超球面上,不同類別之間始終存在角度間隔,在此基礎(chǔ)上訓(xùn)練盡可能多的類別數(shù),則可以得到類別區(qū)分能力更強(qiáng)的深度說話人嵌入,提高模型的泛化能力。

    2.3 網(wǎng)絡(luò)模型設(shè)計(jì)

    本文設(shè)計(jì)的網(wǎng)絡(luò)模型主要分為三個(gè)部分:首先是語音信號(hào)聲學(xué)特征的提取;其次是主干神經(jīng)網(wǎng)絡(luò)的構(gòu)建;最后,利用A-Softmax損失函數(shù)衡量模型預(yù)測(cè)值,并更新參數(shù)。

    在聲學(xué)特征提取階段,為保留更豐富的原始音頻信息,將語音信號(hào)利用幀長25ms、幀移10ms的滑動(dòng)窗口轉(zhuǎn)化為64維FBank(FilterBank)特征。每個(gè)樣本隨機(jī)截取多個(gè)約0.6s的語音段,生成64×64的特征矩陣,經(jīng)過零均值,單位方差歸一化后,轉(zhuǎn)化為單通道的特征圖送入構(gòu)建好的CNN。

    主干網(wǎng)絡(luò)是基于殘差網(wǎng)絡(luò)設(shè)計(jì)[17],網(wǎng)絡(luò)層細(xì)節(jié)如表1所示。

    每個(gè)殘差塊由兩個(gè)卷積核為3×3、步長為1×1的卷積層構(gòu)成,包含低層輸出到高層輸入的直接連接,每一種殘差塊只有一個(gè)。當(dāng)輸出通道數(shù)增加時(shí),利用一個(gè)卷積核為5×5、步長為2×2的卷積層使頻域的維度保持不變,將經(jīng)過多個(gè)卷積層和殘差塊提取到的幀級(jí)別特征送入時(shí)間平均池化層。時(shí)間平均池化層將特征在時(shí)域上整體取均值,得到話音級(jí)別的特征,使得構(gòu)建的網(wǎng)絡(luò)在時(shí)間位置上具有不變性,再經(jīng)過仿射層將話音級(jí)別的特征映射成512維的深度說話人嵌入。

    A-Softmax損失函數(shù)中的角度間隔參數(shù)m設(shè)為3,利用反向傳播更新模型參數(shù)。測(cè)試數(shù)據(jù)直接從仿射層提取512維深度說話人嵌入,通過L2歸一化后直接計(jì)算余弦相似性,設(shè)置分?jǐn)?shù)閾值評(píng)判一對(duì)嵌入屬于相同說話人還是不同說話人,模型的訓(xùn)練算法和測(cè)試算法分別如算法1和算法2所示。

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 實(shí)驗(yàn)數(shù)據(jù)集

    為得到一個(gè)強(qiáng)魯棒性模型,需要訓(xùn)練一個(gè)多類別、多信道的大規(guī)模數(shù)據(jù)集,本實(shí)驗(yàn)采用VoxCeleb2數(shù)據(jù)集進(jìn)行驗(yàn)證。VoxCeleb是一個(gè)從YouTube網(wǎng)站的采訪視頻中提取的視聽數(shù)據(jù)集,由人類語音的短片段組成,其中VoxCeleb2數(shù)據(jù)集的規(guī)模比目前任何一個(gè)公開的聲紋識(shí)別數(shù)據(jù)集仍大數(shù)倍,包含近6000個(gè)說話人產(chǎn)生的百萬多條語音數(shù)據(jù)[18]。

    VoxCeleb2中的語音數(shù)據(jù)包含不同種族、口音、職業(yè)和年齡的說話人演講,數(shù)據(jù)在無任何約束條件下采集,背景有說話聲、笑聲、重疊的語音等符合實(shí)際環(huán)境的各種噪聲[18],更適合訓(xùn)練端到端的神經(jīng)網(wǎng)絡(luò)模型。同時(shí)該數(shù)據(jù)集提供了幾種不同方法在不同評(píng)價(jià)指標(biāo)下的基礎(chǔ)分?jǐn)?shù),本實(shí)驗(yàn)構(gòu)建自己的網(wǎng)絡(luò)模型與i-vector結(jié)合PLDA的方法進(jìn)行比較。

    3.2 模型訓(xùn)練方法

    模型共訓(xùn)練40輪,每輪每批處理的樣本數(shù)為64個(gè)音頻文件。每個(gè)卷積層后都加入批標(biāo)準(zhǔn)化(Batch Normalization, BN)和激活層,以提高模型訓(xùn)練速度,激活函數(shù)選擇上限值為20的線性整流函數(shù)(Rectified Linear Unit, ReLU)。優(yōu)化器選擇動(dòng)量為0.9的隨機(jī)梯度下降法,權(quán)重衰減設(shè)為0。

    為防止訓(xùn)練過程中損失函數(shù)出現(xiàn)震蕩,利用指數(shù)衰減法控制模型學(xué)習(xí)率,衰減系數(shù)設(shè)為0.98,每隔1000個(gè)批處理步驟當(dāng)前學(xué)習(xí)率乘以衰減系數(shù),模型初始學(xué)習(xí)率為0.001。

    3.3 實(shí)驗(yàn)結(jié)果分析

    訓(xùn)練好的端到端模型可以同時(shí)進(jìn)行說話人辨認(rèn)和說話人確認(rèn)兩個(gè)實(shí)驗(yàn),前者是“多選一”問題,后者是“一對(duì)一判別”問題。VoxCeleb2中的測(cè)試集共有118類,36237條語音,兩個(gè)實(shí)驗(yàn)設(shè)計(jì)的方法均參考文獻(xiàn)[19]。實(shí)驗(yàn)訓(xùn)練了基于Softmax和A-Softmax兩種損失函數(shù)的模型,以驗(yàn)證本文模型的優(yōu)勢(shì)。

    對(duì)于說話人辨認(rèn)實(shí)驗(yàn),在118個(gè)說話人中每人選擇5條語音數(shù)據(jù)構(gòu)建聲紋庫,即聲紋庫中一共包含590條語音。再從每個(gè)說話人中選擇一條不同于聲紋庫的測(cè)試語音與聲紋庫中的所有語音進(jìn)行比對(duì),按相似性分?jǐn)?shù)從大到小排序,計(jì)算相似度最大匹配成功的概率Top-1和前5名匹配成功的概率Top-5,結(jié)果見表2。

    由表2的實(shí)驗(yàn)結(jié)果可知,采用提取深度說話人嵌入的方式,模型性能要明顯優(yōu)于i-vector結(jié)合PLDA的方法。選擇A-Softmax作為損失函數(shù)構(gòu)建的模型與之相比,Top-1和Top-5準(zhǔn)確率分別提高了58.9%和30%。原因在于傳統(tǒng)方法提取的i-vector中既包含說話人信息又包含信道信息,利用信道補(bǔ)償?shù)姆椒▉頊p少信道影響不能充分?jǐn)M合多種信道下采集的訓(xùn)練數(shù)據(jù)集,CNN卻可以很好地?cái)M合這種多種信道樣本和標(biāo)簽之間的關(guān)系。損失函數(shù)選擇A-Softmax與Softmax相比,Top-1和Top-5準(zhǔn)確率分別提高了17.53%和7.41%。原因在于A-Softmax能學(xué)習(xí)到具有角度區(qū)分性的特征,對(duì)于從大規(guī)模的數(shù)據(jù)集訓(xùn)練得到的說話人嵌入在單位超球面上聚集更集中,這使得采用A-Softmax的模型比采用Softmax的模型具有更強(qiáng)的泛化能力。

    在說話人確認(rèn)實(shí)驗(yàn)中,測(cè)試集中共有36237條語音,對(duì)于每條測(cè)試語音組成兩對(duì)與該條語音屬于同種說話人的語音數(shù)據(jù)和兩對(duì)屬于不同說話人的語音數(shù)據(jù),實(shí)驗(yàn)一共組成了144948對(duì)測(cè)試對(duì)。計(jì)算所有測(cè)試對(duì)中錯(cuò)誤接受率(False Acceptance Rate, FAR)和錯(cuò)誤拒絕率(False Rejection Rate, FRR)相等時(shí)等錯(cuò)誤率(Equal Error Rate, EER)的值。同時(shí)該實(shí)驗(yàn)還有一個(gè)評(píng)價(jià)標(biāo)準(zhǔn)為最小檢測(cè)代價(jià)函數(shù)(Minimum Detection Cost Function, minDCF),檢測(cè)代價(jià)函數(shù)DCF的公式為:

    其中:CFR和CFA分別表示錯(cuò)誤拒絕和錯(cuò)誤接受的懲罰代價(jià);Ptarget和1-Ptarget分別為真實(shí)說話測(cè)試和冒認(rèn)測(cè)試的先驗(yàn)概率。實(shí)驗(yàn)設(shè) ,結(jié)果見表3。同時(shí)針對(duì)兩種不同損失函數(shù)所構(gòu)建的模型,繪制了檢測(cè)錯(cuò)誤權(quán)衡(Detection Error Tradeoff, DET)曲線圖,結(jié)果如圖4所示。

    由表3和圖4的實(shí)驗(yàn)結(jié)果可知,采用提取深度說話人嵌入的方式,模型性能受損失函數(shù)的影響非常大。選擇A-Softmax作為損失函數(shù)構(gòu)建的模型與傳統(tǒng)方法相比,minDCF和EER分別減小了47.9%和45.3%。原因是采用A-Softmax損失函數(shù)構(gòu)建的模型增加了角度間隔,學(xué)習(xí)到的深度說話人嵌入有非常好的類別區(qū)分性。但選擇Softmax作為損失函數(shù)構(gòu)建的模型,minDCF反而大于傳統(tǒng)方法,EER的減少程度也不明顯,這也說明了Softmax并不適用于學(xué)習(xí)具有類別區(qū)分性的深度說話人嵌入。

    4 結(jié)語

    本文構(gòu)建了一個(gè)端到端聲紋識(shí)別模型,該模型利用類似于殘差網(wǎng)絡(luò)的卷積神經(jīng)網(wǎng)絡(luò),從聲學(xué)特征中提取深度說話人嵌入,選擇A-Softmax作為損失函數(shù)來學(xué)習(xí)具有角度區(qū)分性的特征。通過對(duì)角度間隔參數(shù)m的分析,推導(dǎo)出滿足期望的特征分布時(shí)m的最小值。本文從實(shí)驗(yàn)中得出,端到端的聲紋模型能訓(xùn)練出結(jié)構(gòu)更簡單、泛化能力更強(qiáng)的模型,該模型在說話人辨認(rèn)實(shí)驗(yàn)上有明顯的優(yōu)勢(shì),但在說話人確認(rèn)實(shí)驗(yàn)中,模型性能受損失函數(shù)的影響較大。對(duì)于更大規(guī)模的數(shù)據(jù)集,本文構(gòu)建的網(wǎng)絡(luò)模型可能達(dá)不到更好的效果,需要構(gòu)建更深的網(wǎng)絡(luò)且減少過擬合對(duì)模型效果的影響,為保持特征在頻域上的維度不變,可以對(duì)每一層的殘差塊個(gè)數(shù)進(jìn)行增加。后續(xù)將會(huì)進(jìn)一步研究在大規(guī)模數(shù)據(jù)集的條件下,所設(shè)計(jì)的模型中殘差塊的個(gè)數(shù)對(duì)聲紋識(shí)別模型性能的影響。

    參考文獻(xiàn)(References)

    [1] KINNUNEN T, LI H. An overview of text-independent speaker recognition: from features to supervectors[J]. Speech Communication, 2010, 52(1): 12-40.

    [2] DEHAK N, KENNY P J, DEHAK R, et al. Front-end factor analysis for speaker verification[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2011, 19(4): 788-798.

    [3] LI C, MA X, JIANG B, et al. Deep speaker: an end-to-end neural speaker embedding system[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1705.02304.pdf.

    [4] LEI Y, SCHEFFER N, FERRER L, et al. A novel scheme for speaker recognition using a phonetically-aware deep neural network[C]// Proceedings of the 2014 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway: IEEE, 2014: 1695-1699.

    [5] FU T, QIAN Y, LIU Y, et al. Tandem deep features for text-dependent speaker verification[EB/OL]. [2019-01-10]. https://www.isca-speech.org/archive/archive_papers/interspeech_2014/i14_1327.pdf.

    [6] TIAN Y, CAI M, HE L, et al. Investigation of bottleneck features and multilingual deep neural networks for speaker verification[EB/OL]. [2019-01-10]. https://www.isca-speech.org/archive/interspeech_2015/papers/i15_1151.pdf.

    [7] VARIANI E, LEI X, McDERMOTT E, et al. Deep neural networks for small footprint text-dependent speaker verification[C]// Proceedings of the 2014 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway: IEEE, 2014: 4052-4056.

    [8] CAI W, CHEN J, LI M. Analysis of length normalization in end-to-end speaker verification system[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1806.03209.pdf.

    [9] 王昕, 張洪冉. 基于DNN處理的魯棒性I-Vector說話人識(shí)別算法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2018, 54(22): 167-172. (WANG X, ZHANG H R. Robust i-vector speaker recognition method based on DNN processing[J]. Computer Engineering and Applications, 2018, 54(22): 167-172.)

    [10] LIU W, WEN Y, YU Z, et al. SphereFace: deep hypersphere embedding for face recognition[C]// Proceedings of the IEEE 2017 Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 6738-6746.

    [11] HEIGOLD G, MORENO I, BENGIO S, et al. End-to-end text-dependent speaker verification[C]// Proceedings of the 2016 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway: IEEE, 2016: 5115-5119.

    [12] SNYDER D, GHAHREMANI P, POVEY D, et al. Deep neural network-based speaker embeddings for end-to-end speaker verification[C]// Proceedings of the 2016 IEEE Spoken Language Technology Workshop. Piscataway: IEEE, 2016: 165-170.

    [13] ZHANG Y, PEZESHKI M, BRAKEL P, et al. Towards end-to-end speech recognition with deep convolutional neural networks[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1701.02720.pdf.

    [14] ZHANG C, KOISHIDA K. End-to-end text-independent speaker verification with triplet loss on short utterances[EB/OL]. [2019-01-10]. https://www.isca-speech.org/archive/Interspeech_2017/pdfs/1608.PDF.

    [15] WEN Y, ZHANG K, LI Z, et al. A discriminative feature learning approach for deep face recognition[C]// Proceedings of the 2016 European Conference on Computer Vision, LNCS 9911. Cham: Springer, 2016: 499-515.

    [16] LIU W, WEN Y, YU Z, et al. Large-margin softmax loss for convolutional neural networks[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1612.02295.pdf.

    [17] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 770-778.

    [18] CHUNG J S, NAGRANI A, ZISSERMAN A. VoxCeleb2: deep speaker recognition[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1806.05622.pdf.

    [19] NAGRANI A, CHUNG J S, ZISSERMAN A. VoxCeleb: a large-scale speaker identification dataset[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1706.08612.pdf.

    猜你喜歡
    損失函數(shù)聲紋識(shí)別卷積神經(jīng)網(wǎng)絡(luò)
    考慮應(yīng)急時(shí)間和未滿足需求量的應(yīng)急物資多階段分配模型
    基于深度學(xué)習(xí)的人臉屬性聯(lián)合估計(jì)
    聲紋識(shí)別中的區(qū)分性訓(xùn)練
    基于福利損失函數(shù)的人民幣匯率制度選擇
    基于福利損失函數(shù)的人民幣匯率制度選擇
    淺談一種基于聲紋識(shí)別的教室上課點(diǎn)名系統(tǒng)
    基于i—vector聲紋識(shí)別上課點(diǎn)名系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    非洲黑人性xxxx精品又粗又长| 高清毛片免费观看视频网站| 91久久精品国产一区二区成人 | 久久亚洲真实| 波多野结衣高清无吗| 欧美区成人在线视频| 人人妻人人看人人澡| 看片在线看免费视频| 美女被艹到高潮喷水动态| 国产成人a区在线观看| 真人做人爱边吃奶动态| 9191精品国产免费久久| 在线国产一区二区在线| 国产伦在线观看视频一区| 欧美最新免费一区二区三区 | 亚洲国产欧美网| 欧美激情久久久久久爽电影| 欧美三级亚洲精品| 嫩草影视91久久| 国产男靠女视频免费网站| 久久这里只有精品中国| 亚洲精品亚洲一区二区| 3wmmmm亚洲av在线观看| 国产精品av视频在线免费观看| 国产精品久久久久久精品电影| 亚洲成人中文字幕在线播放| 亚洲国产精品sss在线观看| 亚洲国产欧洲综合997久久,| 叶爱在线成人免费视频播放| 在线观看午夜福利视频| 给我免费播放毛片高清在线观看| 熟女人妻精品中文字幕| 18禁美女被吸乳视频| 亚洲精品一卡2卡三卡4卡5卡| 又黄又爽又免费观看的视频| 神马国产精品三级电影在线观看| 丰满的人妻完整版| 亚洲欧美精品综合久久99| 中文字幕人妻熟人妻熟丝袜美 | 嫩草影视91久久| 高清日韩中文字幕在线| 亚洲欧美一区二区三区黑人| 亚洲人成电影免费在线| 又黄又粗又硬又大视频| 老司机福利观看| 18禁黄网站禁片午夜丰满| 女同久久另类99精品国产91| 亚洲乱码一区二区免费版| 国产极品精品免费视频能看的| 国产成人系列免费观看| 少妇的逼好多水| 一区二区三区免费毛片| 人妻久久中文字幕网| 国产精品野战在线观看| 亚洲成人免费电影在线观看| 热99在线观看视频| 狠狠狠狠99中文字幕| 两人在一起打扑克的视频| 免费在线观看日本一区| 日韩中文字幕欧美一区二区| 99久久精品热视频| 少妇裸体淫交视频免费看高清| 一区二区三区免费毛片| www国产在线视频色| 成人一区二区视频在线观看| 手机成人av网站| 午夜福利高清视频| 国产高清激情床上av| 天堂影院成人在线观看| 国产v大片淫在线免费观看| 美女免费视频网站| 亚洲片人在线观看| 男女床上黄色一级片免费看| 亚洲片人在线观看| 久久久久久大精品| 18禁美女被吸乳视频| bbb黄色大片| 99热这里只有精品一区| 免费在线观看日本一区| 看黄色毛片网站| 女同久久另类99精品国产91| eeuss影院久久| 男女做爰动态图高潮gif福利片| 亚洲内射少妇av| 久久6这里有精品| 日韩亚洲欧美综合| 精品久久久久久成人av| 午夜免费男女啪啪视频观看 | 国产av麻豆久久久久久久| 国产成人啪精品午夜网站| 婷婷亚洲欧美| 亚洲国产欧洲综合997久久,| 国产97色在线日韩免费| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲精品粉嫩美女一区| 97超级碰碰碰精品色视频在线观看| 久久久久久久久中文| 国产野战对白在线观看| 母亲3免费完整高清在线观看| 老司机福利观看| 网址你懂的国产日韩在线| 久久99热这里只有精品18| 最近最新免费中文字幕在线| 国产色婷婷99| 日韩人妻高清精品专区| 欧美成人性av电影在线观看| 真实男女啪啪啪动态图| 久久久久亚洲av毛片大全| 香蕉丝袜av| 校园春色视频在线观看| www日本在线高清视频| 欧美又色又爽又黄视频| 色吧在线观看| 欧美成人a在线观看| 真实男女啪啪啪动态图| 91久久精品电影网| 国产精品精品国产色婷婷| 国产精品亚洲av一区麻豆| 国产精品99久久久久久久久| 男人舔奶头视频| 免费看美女性在线毛片视频| 色尼玛亚洲综合影院| 九九在线视频观看精品| 国产av不卡久久| 在线观看免费午夜福利视频| 国产精品乱码一区二三区的特点| 黄片小视频在线播放| 国产欧美日韩一区二区精品| 内射极品少妇av片p| 最新中文字幕久久久久| 午夜福利视频1000在线观看| 在线播放无遮挡| 免费看a级黄色片| 天美传媒精品一区二区| bbb黄色大片| 窝窝影院91人妻| 亚洲专区中文字幕在线| 免费高清视频大片| 免费大片18禁| 免费观看的影片在线观看| 精品久久久久久成人av| 香蕉久久夜色| 国产男靠女视频免费网站| 国产高清视频在线观看网站| 51午夜福利影视在线观看| av女优亚洲男人天堂| av黄色大香蕉| 日本成人三级电影网站| 五月伊人婷婷丁香| 舔av片在线| 欧美日韩一级在线毛片| 国产精品 欧美亚洲| 在线播放国产精品三级| 午夜视频国产福利| 欧美日韩黄片免| 精品国产三级普通话版| 亚洲内射少妇av| 亚洲 国产 在线| 国产精品一区二区三区四区久久| 在线观看午夜福利视频| 日本一二三区视频观看| 国产探花在线观看一区二区| 国产一级毛片七仙女欲春2| 91麻豆精品激情在线观看国产| 精品乱码久久久久久99久播| 久9热在线精品视频| 怎么达到女性高潮| 亚洲国产高清在线一区二区三| 一a级毛片在线观看| 一个人免费在线观看电影| 免费在线观看亚洲国产| 国产探花在线观看一区二区| 老熟妇仑乱视频hdxx| 变态另类丝袜制服| 男人的好看免费观看在线视频| 国产在视频线在精品| 亚洲av二区三区四区| 黄片小视频在线播放| 国产成人aa在线观看| 国产熟女xx| 精华霜和精华液先用哪个| 色播亚洲综合网| 国产精品 欧美亚洲| 免费无遮挡裸体视频| 国产av在哪里看| 久久精品综合一区二区三区| 国产亚洲av嫩草精品影院| 亚洲欧美精品综合久久99| 在线观看舔阴道视频| 国产一级毛片七仙女欲春2| 天堂动漫精品| 久99久视频精品免费| 国内精品久久久久精免费| 亚洲中文字幕日韩| 亚洲,欧美精品.| 久久6这里有精品| 日本精品一区二区三区蜜桃| 亚洲精品美女久久久久99蜜臀| 观看美女的网站| 97超级碰碰碰精品色视频在线观看| 伊人久久精品亚洲午夜| 欧美三级亚洲精品| 色吧在线观看| 在线观看午夜福利视频| www.熟女人妻精品国产| 国产精品99久久99久久久不卡| 欧美在线黄色| av视频在线观看入口| 久久草成人影院| 免费av观看视频| 中文字幕av成人在线电影| 亚洲内射少妇av| 18禁黄网站禁片午夜丰满| 欧美不卡视频在线免费观看| 国产精品自产拍在线观看55亚洲| 日韩欧美国产在线观看| 18禁黄网站禁片免费观看直播| 免费观看的影片在线观看| 成人永久免费在线观看视频| 国产国拍精品亚洲av在线观看 | 国产午夜精品论理片| 18禁国产床啪视频网站| 精品99又大又爽又粗少妇毛片 | 国产亚洲欧美98| 啦啦啦观看免费观看视频高清| 国产一级毛片七仙女欲春2| 90打野战视频偷拍视频| 18禁黄网站禁片午夜丰满| 啦啦啦韩国在线观看视频| 伊人久久大香线蕉亚洲五| 亚洲精品国产精品久久久不卡| 国产欧美日韩一区二区精品| 精品国内亚洲2022精品成人| 国产男靠女视频免费网站| 两个人视频免费观看高清| 色av中文字幕| 国产熟女xx| 亚洲精品成人久久久久久| 搡老妇女老女人老熟妇| 99久国产av精品| 免费看十八禁软件| 欧洲精品卡2卡3卡4卡5卡区| 亚洲中文字幕一区二区三区有码在线看| 乱人视频在线观看| 精品日产1卡2卡| 757午夜福利合集在线观看| 日韩欧美在线乱码| 91字幕亚洲| 国产精品精品国产色婷婷| 国产中年淑女户外野战色| 午夜免费男女啪啪视频观看 | 老汉色∧v一级毛片| 午夜免费观看网址| 午夜亚洲福利在线播放| 夜夜夜夜夜久久久久| 亚洲国产精品合色在线| 欧美午夜高清在线| 精品欧美国产一区二区三| 精品日产1卡2卡| 桃红色精品国产亚洲av| x7x7x7水蜜桃| 国产免费男女视频| 日韩欧美精品v在线| 琪琪午夜伦伦电影理论片6080| 国产成人aa在线观看| netflix在线观看网站| 免费看a级黄色片| 色播亚洲综合网| 99热这里只有精品一区| 在线播放无遮挡| 3wmmmm亚洲av在线观看| 日韩高清综合在线| 久久久精品大字幕| 无遮挡黄片免费观看| 国产黄色小视频在线观看| 国产亚洲精品久久久com| 成人亚洲精品av一区二区| 成年版毛片免费区| 九九久久精品国产亚洲av麻豆| 禁无遮挡网站| 一区二区三区国产精品乱码| 3wmmmm亚洲av在线观看| 老汉色av国产亚洲站长工具| 麻豆国产97在线/欧美| 亚洲第一欧美日韩一区二区三区| 欧美成人免费av一区二区三区| 欧美+日韩+精品| 中文字幕av成人在线电影| 极品教师在线免费播放| 黄色丝袜av网址大全| 精品人妻偷拍中文字幕| 日韩欧美免费精品| 成人av在线播放网站| 国产色婷婷99| 人人妻人人澡欧美一区二区| 久久6这里有精品| 日本三级黄在线观看| 国产精品99久久99久久久不卡| 在线观看一区二区三区| 日韩欧美精品免费久久 | 两个人视频免费观看高清| 精品午夜福利视频在线观看一区| 人人妻人人看人人澡| 国产午夜精品久久久久久一区二区三区 | 国产乱人伦免费视频| 久久久久久久久大av| 成年人黄色毛片网站| 夜夜躁狠狠躁天天躁| 久久国产精品影院| 国产精品三级大全| 无人区码免费观看不卡| 香蕉久久夜色| 日韩欧美国产一区二区入口| 欧美日韩乱码在线| 国产av一区在线观看免费| 熟女电影av网| 97超视频在线观看视频| 日本免费a在线| 国产成人啪精品午夜网站| 老司机深夜福利视频在线观看| 久久人人精品亚洲av| 亚洲狠狠婷婷综合久久图片| 精品一区二区三区视频在线 | 国产男靠女视频免费网站| 欧美性猛交╳xxx乱大交人| 99热6这里只有精品| av专区在线播放| 亚洲真实伦在线观看| 69av精品久久久久久| 窝窝影院91人妻| 香蕉av资源在线| 女人被狂操c到高潮| 成年女人看的毛片在线观看| 国模一区二区三区四区视频| 亚洲va日本ⅴa欧美va伊人久久| 国产精品日韩av在线免费观看| www.熟女人妻精品国产| 一a级毛片在线观看| 夜夜夜夜夜久久久久| 国产亚洲精品久久久久久毛片| 亚洲精品粉嫩美女一区| 日韩免费av在线播放| 日韩中文字幕欧美一区二区| 精华霜和精华液先用哪个| 国产亚洲精品久久久com| 国产激情偷乱视频一区二区| 国产不卡一卡二| bbb黄色大片| 欧美最新免费一区二区三区 | 成年女人毛片免费观看观看9| 99久久九九国产精品国产免费| 亚洲av美国av| 国产亚洲av嫩草精品影院| 亚洲人成电影免费在线| 精品久久久久久久久久久久久| 91字幕亚洲| 日韩欧美三级三区| 无人区码免费观看不卡| 18+在线观看网站| 18禁黄网站禁片免费观看直播| 青草久久国产| 在线播放国产精品三级| 变态另类成人亚洲欧美熟女| 精品久久久久久久毛片微露脸| 色av中文字幕| 1000部很黄的大片| 国产一区二区亚洲精品在线观看| www国产在线视频色| 内射极品少妇av片p| 欧美精品啪啪一区二区三区| 最好的美女福利视频网| 亚洲欧美一区二区三区黑人| 又爽又黄无遮挡网站| 在线观看免费视频日本深夜| АⅤ资源中文在线天堂| 精品无人区乱码1区二区| 成人精品一区二区免费| 日韩欧美精品v在线| 51午夜福利影视在线观看| 99久久精品国产亚洲精品| 亚洲无线观看免费| 在线免费观看的www视频| 在线看三级毛片| 黄色成人免费大全| 国产黄a三级三级三级人| 日本撒尿小便嘘嘘汇集6| 在线天堂最新版资源| 精品国产美女av久久久久小说| 啪啪无遮挡十八禁网站| av专区在线播放| 在线观看av片永久免费下载| 九色成人免费人妻av| 18美女黄网站色大片免费观看| 淫妇啪啪啪对白视频| 久久久久久人人人人人| 国产一区二区在线av高清观看| 国产精品久久视频播放| av片东京热男人的天堂| 无限看片的www在线观看| 91麻豆精品激情在线观看国产| 亚洲成a人片在线一区二区| 手机成人av网站| 成年女人永久免费观看视频| 婷婷丁香在线五月| av在线蜜桃| 国产精品久久久久久人妻精品电影| 观看免费一级毛片| 丁香欧美五月| 桃红色精品国产亚洲av| 国产亚洲精品一区二区www| 99精品欧美一区二区三区四区| 中亚洲国语对白在线视频| 久久精品国产综合久久久| 亚洲国产精品999在线| 午夜福利在线观看吧| 成人永久免费在线观看视频| 日韩欧美精品v在线| 操出白浆在线播放| 全区人妻精品视频| 91久久精品国产一区二区成人 | 欧美日韩黄片免| 天天添夜夜摸| 黄色片一级片一级黄色片| 日日摸夜夜添夜夜添小说| 亚洲国产精品sss在线观看| 免费观看的影片在线观看| 内射极品少妇av片p| 中文字幕人妻丝袜一区二区| 久久九九热精品免费| 国产激情欧美一区二区| 亚洲激情在线av| 欧美黄色淫秽网站| 麻豆成人av在线观看| 国产国拍精品亚洲av在线观看 | 国产极品精品免费视频能看的| 欧美成人性av电影在线观看| 亚洲国产欧美网| 久久精品夜夜夜夜夜久久蜜豆| 亚洲人与动物交配视频| 国产乱人伦免费视频| 国产精品爽爽va在线观看网站| 国产精品 欧美亚洲| 亚洲欧美日韩无卡精品| 别揉我奶头~嗯~啊~动态视频| 国产午夜福利久久久久久| 亚洲av第一区精品v没综合| 精品国内亚洲2022精品成人| 色综合亚洲欧美另类图片| 两个人视频免费观看高清| 波多野结衣巨乳人妻| 18禁国产床啪视频网站| 亚洲人成网站在线播| 最好的美女福利视频网| 午夜精品久久久久久毛片777| 国内精品一区二区在线观看| 女生性感内裤真人,穿戴方法视频| 淫妇啪啪啪对白视频| 搡老岳熟女国产| 亚洲人成伊人成综合网2020| 亚洲中文字幕一区二区三区有码在线看| 国产黄色小视频在线观看| 18+在线观看网站| 床上黄色一级片| 99热这里只有精品一区| 丁香欧美五月| 性欧美人与动物交配| 精品久久久久久,| 99精品久久久久人妻精品| 全区人妻精品视频| 18禁裸乳无遮挡免费网站照片| 免费av不卡在线播放| 日日干狠狠操夜夜爽| 精品人妻一区二区三区麻豆 | 18禁国产床啪视频网站| 色综合欧美亚洲国产小说| av天堂在线播放| 国产欧美日韩一区二区精品| 中文亚洲av片在线观看爽| 欧美在线一区亚洲| 亚洲欧美日韩东京热| 国产精品精品国产色婷婷| 窝窝影院91人妻| 国产国拍精品亚洲av在线观看 | 男女那种视频在线观看| 美女大奶头视频| 嫁个100分男人电影在线观看| 国语自产精品视频在线第100页| 我要搜黄色片| 国产激情欧美一区二区| 香蕉av资源在线| 午夜激情欧美在线| 久久久久久九九精品二区国产| 亚洲人成电影免费在线| 日本黄大片高清| 真人一进一出gif抽搐免费| 我的老师免费观看完整版| 久久久国产成人免费| 大型黄色视频在线免费观看| 国产精品嫩草影院av在线观看 | 欧美黑人巨大hd| 看片在线看免费视频| 亚洲精品粉嫩美女一区| xxx96com| 岛国视频午夜一区免费看| 国产精品一区二区免费欧美| 久久久久久久久大av| 久久人妻av系列| 欧美黄色片欧美黄色片| 亚洲av成人精品一区久久| 一二三四社区在线视频社区8| 久久草成人影院| 日韩成人在线观看一区二区三区| 中出人妻视频一区二区| 一级a爱片免费观看的视频| 亚洲一区高清亚洲精品| 亚洲美女黄片视频| 国产v大片淫在线免费观看| 欧美在线黄色| 亚洲天堂国产精品一区在线| 日韩国内少妇激情av| 观看美女的网站| 少妇高潮的动态图| 色播亚洲综合网| 搞女人的毛片| 丝袜美腿在线中文| 欧美日韩精品网址| 欧美黑人巨大hd| 亚洲av二区三区四区| 最近最新中文字幕大全免费视频| 婷婷精品国产亚洲av| 午夜老司机福利剧场| 国产视频一区二区在线看| 久久久久九九精品影院| 一区二区三区激情视频| 在线观看日韩欧美| 国产精品久久久久久亚洲av鲁大| 非洲黑人性xxxx精品又粗又长| 国产午夜精品久久久久久一区二区三区 | 久久精品国产自在天天线| 国产成人啪精品午夜网站| 久久中文看片网| 天堂网av新在线| 五月玫瑰六月丁香| 在线播放国产精品三级| 男人舔女人下体高潮全视频| 美女 人体艺术 gogo| 亚洲精品在线观看二区| xxxwww97欧美| 少妇丰满av| 在线播放国产精品三级| 香蕉av资源在线| 级片在线观看| 久久久久久久久大av| 国产aⅴ精品一区二区三区波| 久久精品国产亚洲av香蕉五月| 欧美另类亚洲清纯唯美| 99国产极品粉嫩在线观看| 国产成人aa在线观看| 91久久精品电影网| 欧美乱妇无乱码| 免费无遮挡裸体视频| 91久久精品国产一区二区成人 | 国产精品一及| 亚洲欧美日韩高清在线视频| 九九久久精品国产亚洲av麻豆| 国产成人啪精品午夜网站| 少妇丰满av| 最近最新中文字幕大全电影3| 亚洲18禁久久av| 国产激情偷乱视频一区二区| 有码 亚洲区| 91在线观看av| 69人妻影院| 国内精品一区二区在线观看| 51午夜福利影视在线观看| 欧美乱色亚洲激情| 精品久久久久久久毛片微露脸| 久久久久久久久中文| 女生性感内裤真人,穿戴方法视频| 在线观看舔阴道视频| 欧美日韩中文字幕国产精品一区二区三区| 中文资源天堂在线| 亚洲av第一区精品v没综合| 在线观看66精品国产| 亚洲av免费高清在线观看| 午夜福利在线观看免费完整高清在 | 老汉色∧v一级毛片| 亚洲人与动物交配视频| 欧美av亚洲av综合av国产av| 日本在线视频免费播放| 亚洲18禁久久av| 亚洲国产日韩欧美精品在线观看 | 日本熟妇午夜| 十八禁人妻一区二区| 在线观看av片永久免费下载| 99久久成人亚洲精品观看| 久久久国产精品麻豆| 久久精品91蜜桃| 老司机福利观看| or卡值多少钱| 精品一区二区三区人妻视频| 法律面前人人平等表现在哪些方面| 午夜福利免费观看在线| 精品一区二区三区视频在线观看免费| 国产精品久久久久久久久免 | 免费人成视频x8x8入口观看| 午夜免费成人在线视频| 日韩大尺度精品在线看网址| 啪啪无遮挡十八禁网站| 欧美日本亚洲视频在线播放| 脱女人内裤的视频| 国产精品久久视频播放| 亚洲精品日韩av片在线观看 | 国产高清视频在线观看网站| 欧美不卡视频在线免费观看|