• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于本征音子說話人子空間的說話人自適應(yīng)算法

    2015-07-12 14:07:52丹張文林
    電子與信息學(xué)報(bào) 2015年6期
    關(guān)鍵詞:本征維數(shù)高斯

    屈 丹張文林

    (信息工程大學(xué)信息系統(tǒng)工程學(xué)院 鄭州 450000)

    基于本征音子說話人子空間的說話人自適應(yīng)算法

    屈 丹*張文林

    (信息工程大學(xué)信息系統(tǒng)工程學(xué)院 鄭州 450000)

    本征音子說話人自適應(yīng)算法在自適應(yīng)數(shù)據(jù)量充足時可以取得很好的自適應(yīng)效果,但在自適應(yīng)數(shù)據(jù)量不足時會出現(xiàn)嚴(yán)重的過擬合現(xiàn)象。為此該文提出一種基于本征音子說話人子空間的說話人自適應(yīng)算法來克服這一問題。首先給出基于隱馬爾可夫模型-高斯混合模型(HMM-GMM)的語音識別系統(tǒng)中本征音子說話人自適應(yīng)的基本原理。其次通過引入說話人子空間對不同說話人的本征音子矩陣間的相關(guān)性信息進(jìn)行建模;然后通過估計(jì)說話人相關(guān)坐標(biāo)矢量得到一種新的本征音子說話人子空間自適應(yīng)算法。最后將本征音子說話人子空間自適應(yīng)算法與傳統(tǒng)說話人子空間自適應(yīng)算法進(jìn)行了對比?;谖④浾Z料庫的漢語連續(xù)語音識別實(shí)驗(yàn)表明,與本征音子說話人自適應(yīng)算法相比,該算法在自適應(yīng)數(shù)據(jù)量極少時能大幅提升性能,較好地克服過擬合現(xiàn)象。與本征音自適應(yīng)算法相比,該算法以較小的性能犧牲代價(jià)獲得了更低的空間復(fù)雜度而更具實(shí)用性。

    語音信號處理;說話人自適應(yīng);本征音子;本征音子說話人子空間;低秩約束;本征音

    1 引言

    連續(xù)語音識別系統(tǒng)中,訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)不匹配會造成系統(tǒng)性能的急劇下降。聲學(xué)模型自適應(yīng)技術(shù)就是根據(jù)少量的測試數(shù)據(jù)對聲學(xué)模型進(jìn)行調(diào)整,增加其與測試數(shù)據(jù)的匹配程度,從而提高系統(tǒng)的識別性能。造成訓(xùn)練與測試數(shù)據(jù)不匹配的因素包括說話人、傳輸信道或說話噪聲環(huán)境的不同,相應(yīng)的自適應(yīng)技術(shù)分別稱為“說話人自適應(yīng)”[1]、“信道自適應(yīng)”[2]或“環(huán)境自適應(yīng)”[3]。說話人自適應(yīng)技術(shù)的方法也可以應(yīng)用于信道自適應(yīng)或環(huán)境自適應(yīng)。說話人自適應(yīng)通常包括特征層自適應(yīng)[4,5]和聲學(xué)模型自適應(yīng),因此,聲學(xué)模型的說話人自適應(yīng)[1]是當(dāng)前語音識別系統(tǒng)一個必不可少的重要組成部分。

    聲學(xué)模型的說話人自適應(yīng)就是利用少量的未知說話人語料(自適應(yīng)語料),在最大似然或最大后驗(yàn)準(zhǔn)則下,將說話人無關(guān)(Speaker-Independent, SI)聲學(xué)模型調(diào)整至說話人相關(guān)(Speaker-Dependent, SD)聲學(xué)模型,使得語音識別系統(tǒng)更具說話人針對性,從而提高系統(tǒng)的識別率。在隱馬爾可夫模型的連續(xù)語音識別系統(tǒng)框架下,主流的說話人自適應(yīng)技術(shù)可分為三大類[1]:基于最大后驗(yàn)概率的方法、基于變換的自適應(yīng)方法和基于說話人子空間的自適應(yīng)方法,分別以最大后驗(yàn)(Maximum A Posteriori, MAP)自適應(yīng)方法、最大似然線性回歸(Maximum Likelihood Linear Regression, MLLR)及本征音(Eigen Voice, EV)方法[6]及其拓展算法為代表。2004年,文獻(xiàn)[7]通過對SD聲學(xué)模型中各高斯混元均值矢量相對于SI聲學(xué)模型的變化量進(jìn)行子空間分析,得到一種新的子空間分析方法。該方法與說話人子空間中的“本征音”相類似,因此稱該子空間的基矢量為“本征音子(Eigen Phone, EP)”,該空間為“音子變化子空間”。但文獻(xiàn)[7]提出的方法是一種“多說話人”聲學(xué)建模技術(shù),只能得到訓(xùn)練集中說話人相關(guān)的聲學(xué)模型,對于測試集中的未知說話人沒有給出其聲學(xué)模型的自適應(yīng)方法。

    2011年,文獻(xiàn)[8]提出了一種基于本征音子的說話人自適應(yīng)方法,克服了文獻(xiàn)[7]本征音子模型的不足,能夠?qū)y試集未知說話人進(jìn)行自適應(yīng)。由于該方法對于每個未知說話人需要估計(jì)一個擴(kuò)展的本征音子矩陣,其參數(shù)較多,在自適應(yīng)數(shù)據(jù)量較少時,極易出現(xiàn)過擬合現(xiàn)象;即使對參數(shù)估計(jì)過程引入各種正則化方法,其自適應(yīng)效果仍達(dá)不到基于說話人子空間的方法[9,10]。對于傳統(tǒng)MLLR說話人自適應(yīng)方法,為了提高其在少量自適應(yīng)數(shù)據(jù)條件下的性能,有學(xué)者提出在訓(xùn)練階段尋找MLLR線性變換矩陣的一組基,在自適應(yīng)階段利用這組基估計(jì)新的變換矩陣的線性組合,從而減少待估參數(shù)數(shù)量。這種方法稱為“本征空間MLLR”自適應(yīng)方法[11?14]。該方法本質(zhì)上是將說話人子空間的思想用于說話人相關(guān)變換矩陣的估計(jì),對變換矩陣建立了一個說話人子空間。

    為此,本文將上述思想引入本征音子說話人自適應(yīng)方法中,提出了基于本征音子說話人子空間的說話人自適應(yīng)算法。新方法充分利用了擴(kuò)展的本征音子矩陣也是說話人相關(guān)的這一特點(diǎn),對本征音子的說話人子空間進(jìn)行建模。與本征音子自適應(yīng)方法相比,該方法在少量自適應(yīng)數(shù)據(jù)量下具有良好的性能,很大程度克服了過擬合現(xiàn)象。與說話人子空間自適應(yīng)方法相比,新方法的子空間基矢量的維數(shù)大大降低,具有更低的空間復(fù)雜度。本文章節(jié)安排如下:第2節(jié)給出了本征音子說話人自適應(yīng)方法;第3節(jié)討論基于本征音子說話人子空間的自適應(yīng)方法的數(shù)學(xué)優(yōu)化算法及與說話人子空間自適應(yīng)方法的比較;第4節(jié)給出了實(shí)驗(yàn)結(jié)果及分析;最后給出了本文的結(jié)論。

    2 本征音子說話人自適應(yīng)算法

    2.1 音子變化子空間及本征音子

    本文僅討論基于隱馬爾可夫模型的連續(xù)語音識別系統(tǒng)的說話人自適應(yīng)。假設(shè)在SI聲學(xué)模型中,共有M個高斯混元,特征矢量維數(shù)為D,訓(xùn)練集合中共有S個說話人。令μm和分別為SI模型和第s個說話人SD模型中第m個高斯混元的均值矢量。定義音子變化矢量為=?μm。在本征音子說話人自適應(yīng)中,對于第s個說話人,假設(shè){}位于一個說話人相關(guān)的N(N<<M)維子空間Π(s)中,稱Π(s)為說話人相關(guān)的“音子變化子空間”。設(shè)Π(s)的原點(diǎn)為,基矢量為{},稱}為第s個說話人的本征音子(Eigen Phone, EP)。令第m個高斯混元對應(yīng)的坐標(biāo)矢量為ym=[ym1ym2… ymN]T,則在音子變化子空間中可以分解為其中,V(s)=[…]和s)=[V(s)]分別為第s個說話人的本征音子矩陣和擴(kuò)展本征音子矩陣,其維數(shù)分別為D×N和D×(N+1);ym和=[1]T為高斯混元坐標(biāo)矢量和擴(kuò)展高斯混元坐標(biāo)矢量,其維數(shù)分別為N和N+1。在訓(xùn)練階段,通過對訓(xùn)練說話人相關(guān)聲學(xué)模型的音子變化超矢量進(jìn)行主分量分析可以得到各高斯混元的坐標(biāo)矢量{ym}[8],即根據(jù)式(1),um可以分解為

    其中,

    在自適應(yīng)階段,假設(shè)未知說話人自適應(yīng)數(shù)據(jù)的特征矢量序列為O={o(t)},根據(jù)最大似然準(zhǔn)則,估計(jì)說話人相關(guān)本征音子矩陣V(s)。采用期望最大化(Expectation Maximization, EM)算法,優(yōu)化的目標(biāo)函數(shù)為

    2.2 本征音子的最大似然估計(jì)

    其中,γm(t )表示第t幀特征矢量屬于SI模型中第m個高斯混元的后驗(yàn)概率,給定自適應(yīng)數(shù)據(jù)的標(biāo)注,則可以通過Baum-Welch前后向算法[15]計(jì)算得到;Σm表示第m個高斯混元的協(xié)方差矩陣。將式(1)代入式(3),并令其對(s)的導(dǎo)數(shù)為0,可以得到(s)的求解公式[8]。然而文獻(xiàn)[8]給出的求解公式中涉及(N+1)D×(N+1)D維矩陣的逆,對于一個典型的連續(xù)語音識別系統(tǒng),當(dāng)音子變化子空間N較大時(≥100)時,存儲及求逆計(jì)算都非常消耗內(nèi)存和計(jì)算時間。但傳統(tǒng)HMM-GMM的聲學(xué)模型中,Σm通常是一個對角陣,令其第d個對角線元素為σm,d,則目標(biāo)函數(shù)式(3)可以簡化為

    其中,od(t )及μm,d分別為特征矢量o(t)及均值矢量μm的第d維元素,ν~(ds)T表示本征音子矩陣V~(s)的第d行。對式(4)進(jìn)行整理可得

    3 基于本征音子說話人子空間的自適應(yīng)方法

    3.1 本征音子說話人子空間

    其中,unvecD,N+1(·)表示矩陣化函數(shù),它將一個D×(N+1)維列矢量的元素依次按列排列成一個D×(N+1)維的矩陣。

    3.2 自適應(yīng)算法具體描述

    進(jìn)一步,定義矩陣Pm=[p1,mp2,m… pK,m],則式(9)等價(jià)為

    假設(shè)自適應(yīng)數(shù)據(jù)的特征矢量序列為O= [o1,o2,…,oT],根據(jù)最大似然準(zhǔn)則,采用期望最大(Expectation Maximization, EM)算法,由式(10),說話人s'坐標(biāo)矢量x(s')的最大似然估計(jì)目標(biāo)函數(shù)可以寫為

    其中,矩陣A和矢量b的定義分別為

    其中,γm與sm分別為屬于第m個高斯混元的特征矢量的零階與一階統(tǒng)計(jì)量。

    3.3 與說話人子空間自適應(yīng)方法的比較

    在基于說話人子空間的自適應(yīng)方法中,其基本假設(shè)是說話人超矢量μ(s)位于一個低維線性子空間ΓK中(K為子空間維數(shù),K<S)。設(shè)ΓK的一組基矢量為{e1,e2,…,eK},其中第k個基矢量ek中第m個高斯混元對應(yīng)的均值矢量為ek,m。設(shè)μ(s)在這組基下的坐標(biāo)矢量為x,稱x為說話人因子;令EK,m=[e1,me2,m… eK,m],則μ可以分解為

    其中,SI模型的均值矢量μm可視為第m個高斯混元所在說話人子空間的原點(diǎn)。根據(jù)訓(xùn)練數(shù)據(jù)得到說話人子空間的基矢量,則在自適應(yīng)階段,只需要根據(jù)自適應(yīng)數(shù)據(jù)估計(jì)未知說話人s'的說話人因子,然后根據(jù)式(15)即可得到自適應(yīng)后各高斯混元的均值矢量。

    不難發(fā)現(xiàn),本征音子說話人子空間的自適應(yīng)方法與說話人子空間的自適應(yīng)方法非常類似。對比式(10)和式(15)可見,Pm相當(dāng)于第m個高斯混元對應(yīng)的本征音矩陣EK,m。在說話人子空間自適應(yīng)方法中,說話人子空間的基由一組說話人超矢量構(gòu)成,其中每一個超矢量的維數(shù)為M×D;而基于本征音子說話人子空間的自適應(yīng)方法中,說話人子空間的基是由若干個擴(kuò)展本征音子矩陣構(gòu)成,其中每一個矩陣的維數(shù)為(N+1)×D。由于N?M,因此本文方法所需要的存儲空間要小得多。對于一個實(shí)際的大詞匯量連續(xù)語音識別系統(tǒng),M通常高達(dá)十萬級,而N往往只需數(shù)百左右,因此存儲空間的節(jié)省是非??捎^的。

    4 實(shí)驗(yàn)結(jié)果及分析

    為了驗(yàn)證本文算法的性能,采用微軟中文語料庫[16]針對HMM-GMM框架下的連續(xù)語音識別系統(tǒng)說話人自適應(yīng)實(shí)驗(yàn)。訓(xùn)練集中包括100個男性說話人,每人大約200句話,每句話時長大約5 s,共有19688句話,總時長為33 h。測試集中共有25個說話人,每人20句話,每句話時長也是大約5 s。

    聲學(xué)特征矢量采用13維的MFCC參數(shù)及其一階、二階差分,總的特征維數(shù)為39維。幀長和幀移分別為25 ms和10 ms。實(shí)驗(yàn)中,借助語音開源工具箱HTK(Hidden Markov Toolkit)(版本3.4.1)[15]訓(xùn)練得到SI基線系統(tǒng)。首先訓(xùn)練單音子聲學(xué)模型,其中每個單音子對應(yīng)一個漢語有調(diào)音節(jié)。根據(jù)發(fā)音字典,對單音子進(jìn)行上下文擴(kuò)展,得到295180個跨詞的三音子有調(diào)音節(jié),其中95534個三音子在訓(xùn)練語料中得到覆蓋。每一個三音子用一個包含3個發(fā)射狀態(tài)的、自左向右無跨越的隱馬爾可夫模型進(jìn)行建模。采用基于決策樹的三音子狀態(tài)聚類后,系統(tǒng)中共有2392個不同的上下文相關(guān)狀態(tài)。最終訓(xùn)練得到的說話人無關(guān)(SI)聲學(xué)模型中每個狀態(tài)含有8個高斯混元,因此聲學(xué)模型中的總的高斯混元數(shù)為19136個。

    在測試階段,使用HTK自帶的HVite工具作為解碼器,使用音節(jié)全連接的解碼網(wǎng)絡(luò),不采用任何語法模型。采用這種解碼網(wǎng)絡(luò)的語音識別系統(tǒng)對聲學(xué)模型的要求最高,可以充分展示聲學(xué)模型的識別性能。在原始測試集上,SI基線系統(tǒng)的平均有調(diào)音節(jié)正確識別率為53.04%(文獻(xiàn)[16]中結(jié)果為51.21%)。

    4.1 擴(kuò)展本征音子超矢量的說話人子空間存在性實(shí)驗(yàn)

    本節(jié)通過對訓(xùn)練說話人的擴(kuò)展本征音子超矢量進(jìn)行主分量分析來驗(yàn)證其說話人子空間的存在性。根據(jù)訓(xùn)練說話人的初始SD聲學(xué)模型,首先得到各高斯混元對應(yīng)的音子變化超矢量um(式(2)),每個音子變化超矢量的維數(shù)為S×D=100×39=3900,對{um}進(jìn)行主分量分析,保留前100個最大的特征值對應(yīng)的特征矢量作為基矢量矩陣V(式(2))的列;根據(jù)基矢量矩陣V及音子變化超矢量的均值矢量u0(式(2)),得到100個訓(xùn)練說話人的擴(kuò)展本征音子超矢量v~(s)(式(7)),每個擴(kuò)展本征音子超矢量的維數(shù)為D×(N+1)=39×(N+1);最后,對{}再次進(jìn)行主分量分析,將其協(xié)方差矩陣的特征值從大到小排序,并計(jì)算各特征值的累積貢獻(xiàn)率。將音子變化子空間的維數(shù)N從25調(diào)整到250,各種參數(shù)設(shè)置下的特征值累積貢獻(xiàn)率變化曲線如圖1所示。率;而當(dāng)N=250時,前31個特征值才能達(dá)到80%的累積貢獻(xiàn)率。

    圖1 擴(kuò)展本征音子超矢量協(xié)方差矩陣的特征值累積貢獻(xiàn)率變化曲線

    4.2 基于本征音子說話人子空間的自適應(yīng)實(shí)驗(yàn)

    為了比較本文算法的性能,實(shí)驗(yàn)中,本文針對以下3種說話人自適應(yīng)算法進(jìn)行對比實(shí)驗(yàn):

    (1)本征音(Eigen Voice, EV):基于主分量分析的本征音說話人自適應(yīng)算法,本征音的個數(shù)K從20調(diào)整到100。

    (2)最大似然本征音子(EigenPhone based on Maximum Likelihood, EP-ML):基于最大似然估計(jì)的本征音子說話人自適應(yīng)算法,在訓(xùn)練階段采用2.2節(jié)給出的主分量分析方法得到各高斯混元的坐標(biāo)矢量{ym},然后在測試階段采用3.3節(jié)最大似然估

    由圖1可見,在各種音子變化子空間維數(shù)(N)下,對訓(xùn)練說話人擴(kuò)的展本征音子超矢量進(jìn)行主分量分析(Principal Component Analysis, PCA)后,前20至50個特征值即具有80%~90%的累積貢獻(xiàn)率,這表明擴(kuò)展本征音子超矢量空間中的確存在一個低維的說話人子空間。此外從圖1還可看出,音子變化子空間維數(shù)(N)越小,說話人子空間越明顯:當(dāng)N=25時,前22個特征值具有80%的累積貢獻(xiàn)計(jì)準(zhǔn)則計(jì)算每個說話人的擴(kuò)展本征音子矩陣;

    (3)本征音子說話人子空間(EigenPhone based on Speaker Subspace, EP-SS):本文提出的基于本征音子說話人子空間自適應(yīng)算法,其中說話人子空間維數(shù)K從20調(diào)整到100。

    其中,(1)為經(jīng)典的說話人子空間自適應(yīng)算法,(2)為原始的本征音子自適應(yīng)算法,(3)為本文提出的基于本征音子說話人子空間的自適應(yīng)算法。在所有的本征音子自適應(yīng)算法實(shí)驗(yàn)中,本征音子的個數(shù)N均取為100。

    在訓(xùn)練階段,對每一個訓(xùn)練說話人,利用其訓(xùn)練語料,采用MLLR+MAP自適應(yīng)方法得到其對應(yīng)的SD聲學(xué)模型及其對應(yīng)的說話人超矢量。利用這100個訓(xùn)練說話人超矢量,采用經(jīng)典的主分量分析方法得到100個本征音超矢量。其中,在MLLR+ MAP自適應(yīng)方法中,將回歸樹中的回歸類數(shù)分別設(shè)置為16, 32和64, MLLR變換矩陣分別設(shè)置為對角矩陣、分塊對角矩陣和滿陣,將MAP自適應(yīng)的先驗(yàn)權(quán)重從10調(diào)整到40。最終發(fā)現(xiàn)在所有自適應(yīng)數(shù)據(jù)量條件下,當(dāng)回歸類數(shù)為32、線性變換矩陣為分塊對角矩陣(每個子矩陣均為13×13維,分別對應(yīng)原始的美爾頻率倒譜系數(shù)(Mel Frequency Cepstral Coefficients, MFCC)及其一階和二階差分參數(shù))、先驗(yàn)權(quán)重為10時,得到最佳的平均正確識別率。

    在測試階段,為了測試各方法在不同數(shù)據(jù)量下的自適應(yīng)性能,對于每一個說話人,從其20句話中隨機(jī)選取1句話、2句話、4句話作為自適應(yīng)語料,從剩下的語料中隨機(jī)選取10句話作為測試語料。為了保證實(shí)驗(yàn)結(jié)果的可靠性,每種自適應(yīng)語料條件下,使用交叉驗(yàn)證的方法對每一個說話人重復(fù)8次實(shí)驗(yàn),統(tǒng)計(jì)所有8詞實(shí)驗(yàn)測試語料上的平均結(jié)果作為系統(tǒng)性能指標(biāo),表1給出了各種說話人自適應(yīng)算法的實(shí)驗(yàn)結(jié)果(為簡潔起見,對于本征音自適應(yīng)算法,表中僅給出了其最佳結(jié)果)。其中黑體字所示為每種自適應(yīng)數(shù)據(jù)量條件下的最好實(shí)驗(yàn)結(jié)果,斜體字所示為相比基線SI系統(tǒng)平均正確識別率(53.04%)下降的實(shí)驗(yàn)結(jié)果。

    由表1中結(jié)果可見,隨著自適應(yīng)語料的增加,為了獲得最佳的自適應(yīng)性能,本征音自適應(yīng)算法中說話人子空間的維數(shù)(K)也要相應(yīng)地增大。

    本文實(shí)驗(yàn)中,由于自適應(yīng)語料相對較少,本征音子的個數(shù)(N=100)相對較大,因此原始的本征音子自適應(yīng)方法(EP-ML)出現(xiàn)嚴(yán)重的過擬合現(xiàn)象,在1句話自適應(yīng)語料條件下其平均正識率(19.45%)甚至遠(yuǎn)低于自適應(yīng)前SI聲學(xué)模型的實(shí)驗(yàn)結(jié)果(53.04%)。

    對本征音子算法引入說話人子空間后,EP-SS算法的自適應(yīng)性能得到明顯提升。在1句話與2句話,與EP-ML算法相比,其最佳平均正識率相對提高了187%與37%。同時,隨著自適應(yīng)數(shù)據(jù)量的增加,為達(dá)到最佳平均正確識別率,說話人子空間的維數(shù)也要相應(yīng)地增大,這一點(diǎn)與本征音自適應(yīng)算法的變化趨勢是一致的。實(shí)際應(yīng)用中應(yīng)根據(jù)實(shí)驗(yàn)確定最佳的說話人子空間維數(shù),或利用數(shù)據(jù)擬合的方法得到說話人子空間維數(shù)隨著自適應(yīng)語料數(shù)據(jù)量變化的經(jīng)驗(yàn)公式。

    表1 各種自適應(yīng)算法的正確識別率(%)

    將本征音子說話人子空間自適應(yīng)算法(EP-SS)與本征音自適應(yīng)算法(EV)進(jìn)行比較,可以看出,在所有自適應(yīng)數(shù)據(jù)量下前者的平均正確識別率略低于后者,但已十分接近。這是由于前者的說話人子空間是針對本征音子超矢量進(jìn)行構(gòu)建的,它只能得到說話人相關(guān)高斯混元均值矢量的一個近似表達(dá);而后者的說話人子空間是針對說話人超矢量構(gòu)建的,它是說話人相關(guān)高斯混元均值的原始表達(dá);因此,在訓(xùn)練本征音子超矢量時,都會對原始高斯混元均值矢量的表示造成一定誤差。

    為了更好地比較兩種算法的性能時,采用NIST公布的開源工具包SCTK1))ftp://jaguar.ncsl.nist.gov/pub/sctk-2.4.0-20091110-0958.tar.bz2進(jìn)行顯著性水平測試(Significance test)以檢驗(yàn)識別結(jié)果之間的差異在統(tǒng)計(jì)上是否顯著。3種顯著性測試(MP測試、SI測試及WI測試)結(jié)果均表明在5%的顯著性水平之下,在1句話與4句話自適應(yīng)語料時,兩種方法的的最佳實(shí)驗(yàn)結(jié)果之間差異是不顯著的;而在2句話自適應(yīng)語料時,本征音自適應(yīng)算法(EV)的MP測試相對更優(yōu)一些,而其它兩種測試顯示其差異也是不顯著的。這就說明兩者的性能從統(tǒng)計(jì)上講幾乎是相同的。

    下面討論本文提出的EP-SS算法的時間復(fù)雜度和空間復(fù)雜度。首先分析一下時間復(fù)雜度,根據(jù)式(10)和式(15),在3.3節(jié)討論了本征音子說話人子空間自適應(yīng)方法和本征音子自適應(yīng)算法的相似性。并且由式(12)可以看出,兩種方法的時間復(fù)雜度只與說話人音子x(s')的維數(shù)K有關(guān),即對于相同的說話人音子維數(shù),兩種方法的時間復(fù)雜度完全相同。即使兩種方法最佳的說話人音子x(s')的維數(shù)K不同,從實(shí)驗(yàn)可知,二者相差不大,因此時間復(fù)雜度也相差不大。例如EP-SS方法當(dāng)K=40時與EV算法當(dāng)K =30進(jìn)行比較,從式(12)可知,由于只是一個K維的矩陣求逆和向量相乘,二者的時間復(fù)雜度差別可忽略。

    然而就空間復(fù)雜度而言,正如3.3節(jié)中的分析所指出,與原始的說話人子空間自適應(yīng)方法相比,在基于本征音子說話人子空間方法中,說話人子空間的基矢量維數(shù)大大壓縮(從M×D維壓縮為N×D維),使得在實(shí)際應(yīng)用中針對大詞匯量連續(xù)語音識別的實(shí)現(xiàn)變得更為簡單與現(xiàn)實(shí)。例如,在原始說話人子空間自適應(yīng)方法中,當(dāng)訓(xùn)練語料達(dá)到百小時數(shù)量級時,高斯混元數(shù)量(M)會達(dá)到十萬級,存儲200個說話人超矢量將耗費(fèi)約幾G內(nèi)存(高斯混元數(shù)×特征維數(shù)×浮點(diǎn)數(shù)精度字節(jié)數(shù)×說話人個數(shù)),耗費(fèi)了大量的內(nèi)存資源;而在基于本征音子的說話人子空間方法中,由于N可以取為100左右即可,存儲200個說話人超矢量只需幾M內(nèi)存,這種對內(nèi)存資源的節(jié)約是非??捎^的。因此,基于本征音子說話人子空間的自適應(yīng)方法在犧牲少許性能的代價(jià)下,換來了說話人子空間自適應(yīng)方法實(shí)用性的大幅提高。

    5 結(jié)束語

    本文提出了一種基于本征音子說話人子空間的說話人自適應(yīng)方法。本文在分析了本征音子說話人自適應(yīng)算法基本原理的基礎(chǔ)上,利用了本征音子矩陣的說話人相關(guān)特性定義了本征音子的說話人子空間,并且通過對訓(xùn)練說話人的擴(kuò)展本征音子超矢量進(jìn)行主分量分析來驗(yàn)證其說話人子空間的存在性。然后詳細(xì)推導(dǎo)了本征音子說話人子空間自適應(yīng)的具體算法,并且將該方法與已有的相關(guān)自適應(yīng)算法進(jìn)行比較。由于對本征音子的說話人相關(guān)性建模,因此與本征音子自適應(yīng)算法相比,當(dāng)自適應(yīng)數(shù)據(jù)量較少(小于4句)時,本征音子說話人子空間的自適應(yīng)算法能夠大幅提高系統(tǒng)的識別性能,較好解決了本征音子自適應(yīng)算法由于自適應(yīng)數(shù)據(jù)不足帶來的過擬合問題。與本征音方法比較可以發(fā)現(xiàn),二者算法非常相似,但前者的說話人子空間是針對本征音子超矢量構(gòu)建的,而后者說話人子空間是針對說話人超矢量構(gòu)建的,前者在犧牲少許性能的代價(jià)下,節(jié)省了大量的存儲空間,具有較小的空間復(fù)雜度而更具實(shí)用性。

    [1] Zhang Wen-lin, Zhang Wei-qiang, Li Bi-cheng, et al.. Bayesian speaker adaptation based on a new hierarchical probabilistic model[J]. IEEE Transactions on Audio, Speech and Language Processing, 2012, 20(7): 2002-2015.

    [2] Solomonoff A, Campbell W M, and Boardman I. Advances in channel compensation for SVM speaker recognition[C]. Proceedings of International Conference on Acoustics, Speech, and Signal Processing (ICASSP), Philadelphia, United States, 2005: 629-632.

    [3] Kumar D S P, Prasad N V, Joshi V, et al.. Modified spliceand its extension to non-stereo data for noise robust speech recognition[C]. Proceedings of IEEE Automatic Speech Recognition and Understanding Workshop(ASRU), Olomouc, Czech Republic, 2013: 174-179.

    [4] Ghalehjegh S H and Rose R C. Two-stage speaker adaptation in subspace Gaussian mixture models[C]. Proceedings of International Conference on Audio, Speech and Signal Processing(ICASSP), Florence, Italy, 2014: 6374-6378.

    [5] Wang Y Q and Gale M J F. Tandem system adaptation using multiple linear feature transforms[C]. Proceedings of International Conference on Audio, Speech and Signal Processing(ICASSP), Vancouver, Canada, 2013: 7932-7936. [6] Kenny P, Boulianne G, and Dumouchel P. Eigenvoice modeling with sparse training data[J]. IEEE Transactions on Speech and Audio Processing, 2005, 13(3): 345-354.

    [7] Kenny P, Boulianne G, Dumouchel P, et al.. Speaker adaptation using an eigenphone basis[J]. IEEE Transaction on Speech and Audio Processing, 2004, 12(6): 579-589.

    [8] Zhang Wen-lin, Zhang Wei-qiang, and Li Bi-cheng. Speaker adaptation based on speaker-dependent eigenphone estimation[C]. Proceedings of IEEE Automatic Speech Recognition and Understanding Workshop(ASRU), Hawaii, United States, 2011: 48-52.

    [9] 張文林, 張連海, 陳琦, 等. 語音識別中基于低秩約束的本征音子說話人自適應(yīng)方法[J]. 電子與信息學(xué)報(bào), 2014, 36(4): 981-987.

    Zhang Wen-lin, Zhang Lian-hai, Chen Qi, et al.. Low-rank constraint eigenphone speaker adaptation method for speech recognition[J]. Journal of Electronics & Information Technology, 2014, 36(4): 981-987.

    [10] Zhang Wen-lin, Qu Dan, and Zhang Wei-qiang. Speaker adaptation based on sparse and low-rank eigenphone matrix estimation[C]. Proceedings of Annual Conference on International Speech Communication Association (INTERSPEECH), Singapore, 2014: 2972-2976.

    [11] Wang N, Lee S, Seide F, et al.. Rapid speaker adaptation using a priori knowledge by eigenspace analysis of MLLR parameters[C]. Proceedings of International Conference on Audio, Speech and Signal Processing(ICASSP), Salt Lake City, United States, 2001: 345-348.

    [12] Povey D and Yao K. A basis representation of constrained MLLR transforms for Robust adaptation[J]. Computer Speech and Language, 2012, 26(1): 35-51.

    [13] Miao Y, Metze F, and Waibel A. Learning discriminative basis coefficients for eigenspace MLLR unsupervised adaptation[C]. Proceedings of International Conference on Audio, Speech and Signal Processing(ICASSP), Vancouver, Canada, 2013: 7927-7931.

    [14] Saz O and Hain T. Using contextual information in joint factor eigenspace MLLR for speech recognition in diverse scenarios[C]. Proceedings of International Conference on Audio, Speech and Signal Processing(ICASSP), Florence, Italy, 2014: 6364-6368.

    [15] Young S, Evermann G, Gales M, et al.. The HTK book (for HTK version 3.4)[OL]. http://htk.eng.cam.ac.uk/docs/docs. shtml. 2009.

    [16] Chang E, Shi Y, Zhou J, et al.. Speech lab in a box: a Mandarin speech toolbox to jumpstart speech related research[C]. Proceedings of 7th European Conference on Speech Communication and Technology(Eurospeech), Aalborg, Denmark, 2001: 2799-2802.

    屈 丹: 女,1974年生,博士,副教授,研究方向?yàn)檎Z音處理與識別、機(jī)器學(xué)習(xí)、自然語言處理.

    張文林: 男,1982年生,博士,講師,研究方向?yàn)檎Z音處理與識別、機(jī)器學(xué)習(xí)、自然語言處理.

    Speaker Adaptation Method Based on Eigenphone Speaker Subspace for Speech Recognition

    Qu Dan Zhang Wen-lin
    (Institute of Information System Engineering, PLA Information Engineering University, Zhengzhou 450000, China)

    The eigenphone speaker adaptation method performs well when the amount of adaptation data is sufficient. However, it suffers from severe over-fitting when insufficient amount of adaptation data is provided. A speaker adaptation method based on eigenphone speaker subspace is proposed to overcome this problem. Firstly, a brief overview of the eigenphone speaker adaptation method is presented in case of Hidden Markov Model-Gaussian Mixture Model (HMM-GMM) based speech recognition system. Secondly, speaker subspace is introduced to model the inter-speaker correlation information among different speakers' eigenphones. Thirdly, a new speaker adaptation method based on eigenphone speaker subspace is derived from estimation of a speaker dependent coordinate vector for each speaker. Finally, a comparison between the new method and traditional speaker subspace based method is discussed in detail. Experimental results on a Mandarin Chinese continuous speech recognition task show that compared with original eigenphone speaker adaptation method, the performance of the eigenphone speaker subspace method can be improved significantly when insufficient amount of adaptation data is provided. Compared with eigenvoice method, eigenphone speaker subspace method can save a great amount of storage space only at the expense of minor performance degradation.

    Speech signal processing; Speaker adaptation; Eigenphone; Eigenphones' speaker subspace; Low-rank constraint; Eigenvoice

    TN912.34

    : A

    :1009-5896(2015)06-1350-07

    10.11999/JEIT141264

    2014-09-30收到,2014-12-29改回

    國家自然科學(xué)基金(61175017, 61302107和61403415)資助課題

    *通信作者:屈丹 qudanqudan@sina.com

    猜你喜歡
    本征維數(shù)高斯
    小高斯的大發(fā)現(xiàn)
    β-變換中一致丟番圖逼近問題的維數(shù)理論
    基于本征正交分解的水平軸風(fēng)力機(jī)非定常尾跡特性分析
    一類齊次Moran集的上盒維數(shù)
    KP和mKP可積系列的平方本征對稱和Miura變換
    天才數(shù)學(xué)家——高斯
    本征平方函數(shù)在變指數(shù)Herz及Herz-Hardy空間上的有界性
    關(guān)于齊次Moran集的packing維數(shù)結(jié)果
    涉及相變問題Julia集的Hausdorff維數(shù)
    有限域上高斯正規(guī)基的一個注記
    日产精品乱码卡一卡2卡三| 麻豆乱淫一区二区| 午夜久久久在线观看| av免费观看日本| 亚洲av国产av综合av卡| 日本黄大片高清| 国产黄频视频在线观看| 狂野欧美激情性xxxx在线观看| 午夜福利视频精品| 熟妇人妻不卡中文字幕| 久久毛片免费看一区二区三区| 亚洲第一区二区三区不卡| 欧美日韩一区二区视频在线观看视频在线| 免费观看在线日韩| 免费高清在线观看视频在线观看| 国产成人精品婷婷| 国产男女内射视频| 欧美日韩视频高清一区二区三区二| 女性被躁到高潮视频| 乱人伦中国视频| 青春草视频在线免费观看| 九九在线视频观看精品| 日本wwww免费看| 久久久久久久精品精品| 免费看日本二区| 免费看不卡的av| 两个人的视频大全免费| 丰满乱子伦码专区| 亚洲电影在线观看av| 免费看av在线观看网站| 在线观看www视频免费| 久久久久久人妻| av在线app专区| 男女无遮挡免费网站观看| 乱码一卡2卡4卡精品| 日韩一区二区视频免费看| 97超碰精品成人国产| 日韩精品免费视频一区二区三区 | 熟妇人妻不卡中文字幕| 精品亚洲乱码少妇综合久久| 超碰97精品在线观看| 欧美日韩亚洲高清精品| 亚洲国产成人一精品久久久| 黑人猛操日本美女一级片| 免费不卡的大黄色大毛片视频在线观看| 黑人高潮一二区| 日韩免费高清中文字幕av| 韩国av在线不卡| 如何舔出高潮| 免费少妇av软件| 欧美激情极品国产一区二区三区 | 大香蕉久久网| 日本vs欧美在线观看视频 | 伦精品一区二区三区| 欧美精品亚洲一区二区| a级一级毛片免费在线观看| 国产精品一区二区性色av| 五月玫瑰六月丁香| 熟女人妻精品中文字幕| 成年女人在线观看亚洲视频| 最新的欧美精品一区二区| 2021少妇久久久久久久久久久| 一级黄片播放器| 男女无遮挡免费网站观看| 在线看a的网站| 大码成人一级视频| 国产精品久久久久久精品电影小说| 精品一区二区三卡| 这个男人来自地球电影免费观看 | 亚洲av免费高清在线观看| 亚洲精品一区蜜桃| 人妻夜夜爽99麻豆av| 2018国产大陆天天弄谢| 中文乱码字字幕精品一区二区三区| 国产亚洲一区二区精品| 热re99久久精品国产66热6| 熟女av电影| 久久久亚洲精品成人影院| 亚洲自偷自拍三级| 日本爱情动作片www.在线观看| 国产中年淑女户外野战色| 国产精品久久久久久久久免| 免费av不卡在线播放| 色婷婷av一区二区三区视频| 欧美另类一区| 亚洲精品国产成人久久av| 国模一区二区三区四区视频| 精品亚洲成国产av| 人人妻人人澡人人爽人人夜夜| 欧美bdsm另类| 亚洲欧美清纯卡通| 男女无遮挡免费网站观看| av网站免费在线观看视频| 精品一区在线观看国产| 晚上一个人看的免费电影| 精品酒店卫生间| 一区二区av电影网| 男人爽女人下面视频在线观看| 一级爰片在线观看| 久久99蜜桃精品久久| 久久久久久久精品精品| 观看免费一级毛片| 天堂中文最新版在线下载| 一级片'在线观看视频| 下体分泌物呈黄色| 国产成人freesex在线| 欧美bdsm另类| 日韩av免费高清视频| 国产黄片视频在线免费观看| 2021少妇久久久久久久久久久| 中文字幕亚洲精品专区| 精品一区二区三卡| 亚洲精品,欧美精品| 国产综合精华液| 天堂俺去俺来也www色官网| 18+在线观看网站| 黄片无遮挡物在线观看| 一级毛片我不卡| 日韩视频在线欧美| 在线观看免费日韩欧美大片 | 嘟嘟电影网在线观看| 亚洲国产日韩一区二区| 亚洲美女视频黄频| 成年人午夜在线观看视频| 国产成人午夜福利电影在线观看| 日韩伦理黄色片| 精品卡一卡二卡四卡免费| 国产精品一二三区在线看| 人人妻人人看人人澡| 哪个播放器可以免费观看大片| 热re99久久国产66热| 精品亚洲成a人片在线观看| 寂寞人妻少妇视频99o| 精品久久国产蜜桃| 嘟嘟电影网在线观看| av天堂中文字幕网| 国产亚洲最大av| 国产精品久久久久久精品古装| 久久久久国产网址| 日本vs欧美在线观看视频 | 午夜av观看不卡| 午夜福利视频精品| 少妇被粗大的猛进出69影院 | 人妻制服诱惑在线中文字幕| av又黄又爽大尺度在线免费看| 一本一本综合久久| 亚洲无线观看免费| 久久久久久久久久久久大奶| 国产精品女同一区二区软件| 新久久久久国产一级毛片| 我的老师免费观看完整版| 噜噜噜噜噜久久久久久91| 丝袜在线中文字幕| 亚洲欧美精品自产自拍| 最近中文字幕高清免费大全6| 丁香六月天网| 国产精品无大码| 黄色毛片三级朝国网站 | 国国产精品蜜臀av免费| 另类精品久久| 99re6热这里在线精品视频| 这个男人来自地球电影免费观看 | 啦啦啦啦在线视频资源| 国产欧美亚洲国产| 久久久久久久久久久久大奶| 亚洲国产av新网站| 久久久精品94久久精品| 建设人人有责人人尽责人人享有的| 免费大片黄手机在线观看| 久久久久久久久大av| 亚洲精品日本国产第一区| 日韩在线高清观看一区二区三区| 一本—道久久a久久精品蜜桃钙片| 国内精品宾馆在线| 91精品一卡2卡3卡4卡| 欧美日韩精品成人综合77777| 国模一区二区三区四区视频| av专区在线播放| 国产av码专区亚洲av| 最黄视频免费看| 色婷婷av一区二区三区视频| 在线观看美女被高潮喷水网站| 国产淫片久久久久久久久| 国产精品久久久久久久久免| 国产男女超爽视频在线观看| 狂野欧美激情性xxxx在线观看| 自线自在国产av| 我的老师免费观看完整版| 亚洲av电影在线观看一区二区三区| 免费av不卡在线播放| 午夜福利网站1000一区二区三区| 国精品久久久久久国模美| 中文字幕人妻熟人妻熟丝袜美| 国产女主播在线喷水免费视频网站| 中国国产av一级| 又爽又黄a免费视频| a级毛片在线看网站| 一级毛片久久久久久久久女| 少妇精品久久久久久久| 日本午夜av视频| 老司机亚洲免费影院| 国产在线男女| 日韩av在线免费看完整版不卡| 国产精品人妻久久久影院| 99久久精品国产国产毛片| av专区在线播放| 最新中文字幕久久久久| 91精品国产国语对白视频| 99九九在线精品视频 | 亚洲伊人久久精品综合| 性色avwww在线观看| 午夜影院在线不卡| 国内揄拍国产精品人妻在线| 免费在线观看成人毛片| 黑丝袜美女国产一区| 亚洲欧美精品专区久久| 色婷婷av一区二区三区视频| 黑人猛操日本美女一级片| 国产亚洲精品久久久com| 少妇精品久久久久久久| 久久久国产精品麻豆| 天天躁夜夜躁狠狠久久av| 亚洲自偷自拍三级| 热99国产精品久久久久久7| 日本欧美视频一区| 亚洲欧洲国产日韩| 建设人人有责人人尽责人人享有的| 国产av精品麻豆| 久久久久久久久大av| 欧美日韩国产mv在线观看视频| 久久毛片免费看一区二区三区| 69精品国产乱码久久久| 国产中年淑女户外野战色| 老司机影院毛片| 十分钟在线观看高清视频www | 建设人人有责人人尽责人人享有的| 久久久久久久久久久丰满| 青春草视频在线免费观看| 永久网站在线| 午夜激情久久久久久久| 大香蕉97超碰在线| 中文在线观看免费www的网站| 边亲边吃奶的免费视频| 亚洲精品久久午夜乱码| 国产精品伦人一区二区| 国产一区有黄有色的免费视频| 国产精品一区二区在线观看99| 亚洲美女视频黄频| 日日爽夜夜爽网站| 国产爽快片一区二区三区| 国产在线视频一区二区| 黄片无遮挡物在线观看| 精品少妇久久久久久888优播| 嘟嘟电影网在线观看| 内射极品少妇av片p| 国产真实伦视频高清在线观看| 免费大片18禁| 极品教师在线视频| 色5月婷婷丁香| 深夜a级毛片| 免费观看的影片在线观看| 99re6热这里在线精品视频| 爱豆传媒免费全集在线观看| 妹子高潮喷水视频| 国产精品99久久久久久久久| 久久久国产一区二区| 亚洲人与动物交配视频| .国产精品久久| 色哟哟·www| 性色av一级| 美女脱内裤让男人舔精品视频| 亚洲内射少妇av| 美女视频免费永久观看网站| 只有这里有精品99| 在线免费观看不下载黄p国产| 插逼视频在线观看| 男男h啪啪无遮挡| 亚洲国产精品999| 亚洲av福利一区| 久久精品国产亚洲av天美| 日韩人妻高清精品专区| 我要看日韩黄色一级片| 水蜜桃什么品种好| 麻豆成人av视频| 日韩中字成人| 久久精品久久精品一区二区三区| 免费黄频网站在线观看国产| 寂寞人妻少妇视频99o| 黑人猛操日本美女一级片| 最近2019中文字幕mv第一页| 久热这里只有精品99| 成人毛片60女人毛片免费| 黄色毛片三级朝国网站 | 我要看日韩黄色一级片| 国产午夜精品一二区理论片| 一级毛片 在线播放| 女的被弄到高潮叫床怎么办| 欧美日韩在线观看h| 曰老女人黄片| 在线看a的网站| 午夜老司机福利剧场| 久久精品国产亚洲av涩爱| 成人特级av手机在线观看| 狠狠精品人妻久久久久久综合| 亚洲真实伦在线观看| 人妻少妇偷人精品九色| 午夜福利网站1000一区二区三区| 日韩亚洲欧美综合| 欧美xxⅹ黑人| 日本欧美国产在线视频| 国产成人精品久久久久久| 亚洲婷婷狠狠爱综合网| 波野结衣二区三区在线| 精品少妇内射三级| h日本视频在线播放| 观看美女的网站| 蜜桃在线观看..| 一级a做视频免费观看| av在线老鸭窝| 成人国产av品久久久| 日韩视频在线欧美| 国产伦精品一区二区三区视频9| 国产精品一区www在线观看| 精品人妻熟女毛片av久久网站| 久久久国产一区二区| 老女人水多毛片| 人人妻人人澡人人看| 欧美 日韩 精品 国产| 亚洲av日韩在线播放| 青青草视频在线视频观看| 99九九线精品视频在线观看视频| 一个人免费看片子| 国产一区亚洲一区在线观看| 成人美女网站在线观看视频| 在线观看三级黄色| 成人综合一区亚洲| 精品久久久久久久久av| 男女无遮挡免费网站观看| 亚洲精品乱久久久久久| 精品亚洲乱码少妇综合久久| 亚洲怡红院男人天堂| 国产精品蜜桃在线观看| 亚洲熟女精品中文字幕| 欧美成人精品欧美一级黄| 国产精品无大码| 久久99热6这里只有精品| 久久久亚洲精品成人影院| 久久久久精品性色| 男的添女的下面高潮视频| 成年人午夜在线观看视频| 亚洲第一区二区三区不卡| 一本久久精品| 中国美白少妇内射xxxbb| av免费在线看不卡| 国产乱人偷精品视频| 亚洲av成人精品一二三区| 91精品伊人久久大香线蕉| 嘟嘟电影网在线观看| 肉色欧美久久久久久久蜜桃| 在线观看三级黄色| 久久精品国产亚洲网站| 国产男女超爽视频在线观看| 精品久久久久久久久av| 十八禁高潮呻吟视频 | 久久久久久久亚洲中文字幕| 又粗又硬又长又爽又黄的视频| 丝袜喷水一区| 久久久国产一区二区| 精品一区二区三卡| 欧美国产精品一级二级三级 | av国产精品久久久久影院| 人人妻人人爽人人添夜夜欢视频 | 久久这里有精品视频免费| 2018国产大陆天天弄谢| 少妇的逼水好多| 国产精品欧美亚洲77777| 人妻 亚洲 视频| 精品久久国产蜜桃| 成人综合一区亚洲| av在线观看视频网站免费| 91精品国产国语对白视频| 亚洲丝袜综合中文字幕| 少妇丰满av| 国产精品熟女久久久久浪| 在线天堂最新版资源| 美女cb高潮喷水在线观看| 中文字幕人妻丝袜制服| 老司机亚洲免费影院| 永久免费av网站大全| 亚洲va在线va天堂va国产| 亚洲经典国产精华液单| 我要看黄色一级片免费的| 亚洲欧美精品自产自拍| 国产成人aa在线观看| 国内少妇人妻偷人精品xxx网站| 麻豆成人午夜福利视频| freevideosex欧美| 久热久热在线精品观看| 国产精品秋霞免费鲁丝片| 丝瓜视频免费看黄片| 日韩制服骚丝袜av| av在线老鸭窝| 欧美国产精品一级二级三级 | 夫妻午夜视频| 丁香六月天网| 亚洲欧洲国产日韩| 观看免费一级毛片| 国产精品免费大片| 亚洲精华国产精华液的使用体验| 青青草视频在线视频观看| 欧美日本中文国产一区发布| 精品卡一卡二卡四卡免费| 国产熟女欧美一区二区| 人妻少妇偷人精品九色| 国产精品成人在线| 亚洲精品国产av蜜桃| 黄片无遮挡物在线观看| 在线 av 中文字幕| 精品人妻熟女毛片av久久网站| 高清av免费在线| 成年av动漫网址| 自拍偷自拍亚洲精品老妇| 国产片特级美女逼逼视频| av福利片在线观看| 久久青草综合色| 18+在线观看网站| 免费大片18禁| 亚洲成色77777| 一区二区三区乱码不卡18| 欧美xxⅹ黑人| 在线免费观看不下载黄p国产| 亚洲国产精品一区二区三区在线| videossex国产| 你懂的网址亚洲精品在线观看| 大香蕉97超碰在线| .国产精品久久| 午夜福利视频精品| 熟女电影av网| 久久午夜福利片| 亚洲av二区三区四区| 日韩欧美精品免费久久| 欧美精品一区二区大全| 青春草国产在线视频| 日本av免费视频播放| 18禁动态无遮挡网站| 草草在线视频免费看| 国产精品麻豆人妻色哟哟久久| 精品久久国产蜜桃| 精品少妇黑人巨大在线播放| 大片免费播放器 马上看| 天堂中文最新版在线下载| 亚洲欧美一区二区三区国产| 午夜av观看不卡| 99久久人妻综合| 各种免费的搞黄视频| 两个人免费观看高清视频 | 中文字幕人妻丝袜制服| 日韩中字成人| 黄色视频在线播放观看不卡| 人体艺术视频欧美日本| 久久99热这里只频精品6学生| 一级爰片在线观看| 色吧在线观看| 午夜精品国产一区二区电影| 亚洲精品视频女| 日韩亚洲欧美综合| 免费观看在线日韩| 一级毛片我不卡| 国产在线视频一区二区| 久久综合国产亚洲精品| 亚洲三级黄色毛片| 国产一区二区在线观看av| 91精品国产九色| 亚洲综合色惰| 大又大粗又爽又黄少妇毛片口| 青春草亚洲视频在线观看| 少妇高潮的动态图| av不卡在线播放| 汤姆久久久久久久影院中文字幕| 精品99又大又爽又粗少妇毛片| av免费在线看不卡| 国产又色又爽无遮挡免| 男女边吃奶边做爰视频| 国产精品国产av在线观看| 啦啦啦中文免费视频观看日本| .国产精品久久| 好男人视频免费观看在线| 人体艺术视频欧美日本| 午夜激情福利司机影院| 亚洲av成人精品一二三区| 欧美97在线视频| 青青草视频在线视频观看| 黑丝袜美女国产一区| 国产美女午夜福利| 日韩精品有码人妻一区| 亚洲国产欧美日韩在线播放 | a 毛片基地| 日本-黄色视频高清免费观看| 国内精品宾馆在线| 插逼视频在线观看| 日本黄大片高清| 精品人妻熟女av久视频| 国产熟女午夜一区二区三区 | 永久网站在线| 亚洲成人一二三区av| av免费在线看不卡| 日韩成人伦理影院| 美女内射精品一级片tv| 美女大奶头黄色视频| 国产精品伦人一区二区| 国产欧美另类精品又又久久亚洲欧美| 国产成人一区二区在线| 人妻人人澡人人爽人人| 久久99精品国语久久久| 高清在线视频一区二区三区| 日韩强制内射视频| 精品国产一区二区三区久久久樱花| 国产 精品1| 精品国产乱码久久久久久小说| 黄色欧美视频在线观看| 亚洲精品久久午夜乱码| 国产精品一区二区性色av| 男人狂女人下面高潮的视频| 亚洲av成人精品一二三区| 97在线人人人人妻| 欧美精品国产亚洲| 国产一区二区三区综合在线观看 | 午夜福利视频精品| 久久久亚洲精品成人影院| 久久久久久人妻| 多毛熟女@视频| 国产成人精品福利久久| 黄色视频在线播放观看不卡| 视频区图区小说| 在线观看免费视频网站a站| 免费观看无遮挡的男女| 夫妻性生交免费视频一级片| 午夜91福利影院| 婷婷色麻豆天堂久久| 九九爱精品视频在线观看| 国国产精品蜜臀av免费| av福利片在线观看| 国产精品国产三级国产专区5o| 九九久久精品国产亚洲av麻豆| 秋霞伦理黄片| 热re99久久国产66热| 男人舔奶头视频| 97在线人人人人妻| 欧美性感艳星| 永久网站在线| 纯流量卡能插随身wifi吗| 又粗又硬又长又爽又黄的视频| 人妻制服诱惑在线中文字幕| 久久久久精品性色| 一区二区av电影网| 日韩在线高清观看一区二区三区| 亚洲欧美清纯卡通| 国产真实伦视频高清在线观看| 成人综合一区亚洲| 国产综合精华液| 国产成人精品福利久久| 男人和女人高潮做爰伦理| 日韩中字成人| 人妻 亚洲 视频| 精品国产国语对白av| 国产精品国产三级专区第一集| 十八禁高潮呻吟视频 | 中国美白少妇内射xxxbb| 91久久精品国产一区二区成人| 天天操日日干夜夜撸| 高清毛片免费看| 噜噜噜噜噜久久久久久91| 日本免费在线观看一区| 丝袜在线中文字幕| √禁漫天堂资源中文www| 国产高清不卡午夜福利| 久久精品国产亚洲网站| 日韩三级伦理在线观看| 九草在线视频观看| 水蜜桃什么品种好| 亚洲av男天堂| 国产探花极品一区二区| av女优亚洲男人天堂| 搡女人真爽免费视频火全软件| 久久久欧美国产精品| 一区二区三区乱码不卡18| 成人黄色视频免费在线看| 男女无遮挡免费网站观看| 毛片一级片免费看久久久久| av在线观看视频网站免费| 夜夜爽夜夜爽视频| 午夜福利视频精品| 只有这里有精品99| 大又大粗又爽又黄少妇毛片口| 热re99久久国产66热| 日本与韩国留学比较| 美女中出高潮动态图| 国产免费一区二区三区四区乱码| 中文欧美无线码| 国产欧美日韩精品一区二区| 日韩欧美精品免费久久| 国产熟女午夜一区二区三区 | 国产黄色免费在线视频| 精品亚洲成国产av| 亚洲,一卡二卡三卡| 亚洲精品乱码久久久久久按摩| 一个人免费看片子| 国产成人免费无遮挡视频| 欧美亚洲 丝袜 人妻 在线| 99热这里只有是精品50| 午夜福利视频精品| 亚洲欧美精品专区久久| 午夜免费观看性视频| 亚洲欧美清纯卡通| 视频区图区小说|