• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于i-vector和深度學(xué)習(xí)的說(shuō)話(huà)人識(shí)別

    2017-06-27 08:14:13林舒都
    關(guān)鍵詞:深度特征模型

    林舒都,邵 曦

    (南京郵電大學(xué) 通信與信息工程學(xué)院,江蘇 南京 210003)

    基于i-vector和深度學(xué)習(xí)的說(shuō)話(huà)人識(shí)別

    林舒都,邵 曦

    (南京郵電大學(xué) 通信與信息工程學(xué)院,江蘇 南京 210003)

    為了提高說(shuō)話(huà)人識(shí)別系統(tǒng)的性能,在研究基礎(chǔ)上提出了一種將深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Nerwork,DNN)模型成果與i-vector模型相結(jié)合的新方案。該方案通過(guò)有效的神經(jīng)網(wǎng)絡(luò)構(gòu)建,準(zhǔn)確地提取了說(shuō)話(huà)人語(yǔ)音里的隱藏信息。盡管DNN模型可以幫助挖掘很多信息,但是i-vector特征并沒(méi)有完全覆蓋住聲紋特征的所有維度。為此,在i-vector特征的基礎(chǔ)上繼續(xù)提取維數(shù)更高的i-supervector特征,有效地避免了信息的不必要損失。為證明提出方案的可行性,采用對(duì)TIMIT等語(yǔ)音數(shù)據(jù)庫(kù)630個(gè)說(shuō)話(huà)人的語(yǔ)音進(jìn)行了訓(xùn)練、驗(yàn)證和測(cè)試。驗(yàn)證實(shí)驗(yàn)結(jié)果表明,在提取i-vector特征的基礎(chǔ)上提取i-supervector特征的說(shuō)話(huà)人識(shí)別同等錯(cuò)誤率有30%的降低,是一種有效的識(shí)別方法。

    說(shuō)話(huà)人識(shí)別;深度神經(jīng)網(wǎng)絡(luò);i-vector;聲紋特征

    1 概 述

    說(shuō)話(huà)人識(shí)別,就是根據(jù)采集的聲音信號(hào),來(lái)鑒定說(shuō)話(huà)人身份的一種生物識(shí)別技術(shù)[1]。目前從語(yǔ)音識(shí)別的角度來(lái)看,說(shuō)話(huà)人識(shí)別是一個(gè)重要分支,有許多的研究都還在不斷的持續(xù)發(fā)展中。對(duì)于一個(gè)文本無(wú)關(guān)的說(shuō)話(huà)人驗(yàn)證,其主要的難題在于如何解決訓(xùn)練集和測(cè)試集之間的不一致性。這種不一致性的來(lái)源,有很大一部分是由于傳輸信道差異引起的。為了解決這個(gè)問(wèn)題,一般的研究機(jī)構(gòu)從兩方面著手去做語(yǔ)音識(shí)別項(xiàng)目:其一,從語(yǔ)音信息獲取的前端去處理,實(shí)現(xiàn)更好的語(yǔ)音信息采集(例如語(yǔ)音特征[2]、時(shí)-頻特性[3]、相位[4]、噪聲干擾[5]);其二,從針對(duì)說(shuō)話(huà)人的后端去處理,設(shè)計(jì)出一個(gè)可以有效建立說(shuō)話(huà)人模型的分類(lèi)器[1]。事實(shí)上,為了研究一個(gè)系統(tǒng)的說(shuō)話(huà)人識(shí)別課題,提供一個(gè)全面可靠的后端系統(tǒng),顯得尤為重要,因此研究關(guān)注點(diǎn)在于后端框架。

    近年來(lái),對(duì)于說(shuō)話(huà)人識(shí)別應(yīng)用,人們一直將高斯混合模型(GMMs)作為主要方法[6]。通過(guò)不斷研究,都使用以GMM為基礎(chǔ)的GMM-UBM框架,努力提高說(shuō)話(huà)人識(shí)別系統(tǒng)的性能。GMM-UBM,又叫高斯混合模型-統(tǒng)一背景模型,是由Reynolds提出,并成功應(yīng)用到說(shuō)話(huà)人驗(yàn)證系統(tǒng)中的典型模型。Kunny[7-8]提出聯(lián)合因子分析(JFA)技術(shù),可以把說(shuō)話(huà)人和信道的差異限制在GMM超矢量高維空間兩個(gè)的子空間中。不過(guò),使用聯(lián)合因子分析技術(shù),信道空間里面仍然還會(huì)包含殘余少量說(shuō)話(huà)人語(yǔ)音信息。

    從目前全世界范圍看,基于i-vector的系統(tǒng)是使用得最多的說(shuō)話(huà)人識(shí)別系統(tǒng)[9]。它在聯(lián)合因子分析技術(shù)的基礎(chǔ)上,提出說(shuō)話(huà)人和會(huì)話(huà)差異可以通過(guò)一個(gè)單獨(dú)的子空間進(jìn)行表征[10]。利用這個(gè)子空間,可以把從一個(gè)語(yǔ)音素材上獲得的數(shù)字矢量,進(jìn)一步轉(zhuǎn)化為低維矢量(就是i-vectors)。使用i-vector有諸多好處,例如i-vector的維數(shù)可以定為一個(gè)固定值,從而頂替了原來(lái)話(huà)音信息的變長(zhǎng)序列。i-vector極大地方便了說(shuō)話(huà)人識(shí)別的建模和測(cè)試過(guò)程,就可以把線(xiàn)性判別分析(LDA)[11]、干擾屬性映射(NAP)[12]、類(lèi)內(nèi)協(xié)方差歸一化(WCCN)[13]和概率線(xiàn)性判別分析(PLDA)[14]等技術(shù)結(jié)合到i-vector系統(tǒng)中。一般情況下,使用PLDA會(huì)獲得比較好的性能。

    另一方面,隨著儀器設(shè)備性能的不斷提升,深度神經(jīng)網(wǎng)絡(luò)(DNN)項(xiàng)目在國(guó)際上逐漸受到推動(dòng)[15]。在語(yǔ)音識(shí)別領(lǐng)域,深度神經(jīng)網(wǎng)絡(luò)在成功應(yīng)用于聲學(xué)建模之后,語(yǔ)音識(shí)別的性能也有了較大進(jìn)步[16-17]。使用深度神經(jīng)網(wǎng)絡(luò)獲得的增益,也在不斷地促進(jìn)語(yǔ)言識(shí)別和說(shuō)話(huà)人識(shí)別與神經(jīng)網(wǎng)絡(luò)的結(jié)合[18]。文獻(xiàn)[19]提出了合理的DNN和i-vector相結(jié)合的模型,在提取充分統(tǒng)計(jì)量的過(guò)程中,把原有的i-vector模型中的UBM替換為基于音素狀態(tài)的DNN模型,從而獲得每個(gè)幀對(duì)應(yīng)每個(gè)類(lèi)別的后驗(yàn)概率。

    為此,考慮使用i-supervector和DNN相結(jié)合的模型,通過(guò)DNN強(qiáng)大的學(xué)習(xí)能力,從聲紋特征中提取出更有利于說(shuō)話(huà)人識(shí)別的特征。該i-supervector是基于i-vector產(chǎn)生的聲紋相關(guān)矢量,是一個(gè)沒(méi)有壓縮的聲紋矢量。相關(guān)研究表明[20],提取i-supervector作為說(shuō)話(huà)人相關(guān)特征比i-vector表現(xiàn)更加良好。

    2 i-vector系統(tǒng)

    2.1 i-vector說(shuō)話(huà)人識(shí)別原理

    數(shù)學(xué)上,說(shuō)話(huà)人的聲紋矢量建模在一個(gè)高斯混合模型的后驗(yàn)概率密度函數(shù)上:

    (1)

    高斯混合模型的參數(shù)表示為:

    (2)

    統(tǒng)一背景模型(UBM)是一個(gè)特殊的高斯混合模型,作為聲紋矢量的通用度量,通過(guò)最大后驗(yàn)概率(MAP)調(diào)整成說(shuō)話(huà)人模型[6]:

    (3)

    同理,UBM模型的參數(shù)表示為:

    (4)

    i-vector曾是很長(zhǎng)一段時(shí)間里最流行的語(yǔ)音識(shí)別和說(shuō)話(huà)人識(shí)別系統(tǒng)。和很多說(shuō)話(huà)人建模方法一樣,i-vector也是基于GMM-UBM的模型。在i-vector中[9],分析一個(gè)高斯混合模型:

    M=μ+Tω

    (5)

    其中,M表示均值超矢量,它與說(shuō)話(huà)人和信道是相關(guān)的;μ表示均值超矢量,它與說(shuō)話(huà)人和信道是無(wú)關(guān)的;T表示一個(gè)變化子空間矩陣;ω表示一個(gè)與說(shuō)話(huà)人和信道相關(guān)的矢量,ω就是包含了說(shuō)話(huà)人信息的i-vector。

    2.2 i-vector特征提取

    梅爾頻率倒譜系數(shù)(MFCC),是一種在語(yǔ)音自動(dòng)識(shí)別和分類(lèi)中應(yīng)用最廣泛的語(yǔ)音參數(shù)。在前端處理時(shí)經(jīng)過(guò)預(yù)處理、分幀、加窗,再通過(guò)梅爾濾波器組,得到MFCC特征。給定1條語(yǔ)音片段:

    y={Yi|i=1,2,…,I}

    (6)

    (7)

    其中,Yi表示一個(gè)F維的特征矢量。

    工程上,MFCC一般會(huì)選擇F={13,20,39}等維數(shù)的特征。提取出MFCC后,先利用期望最大化(EM)算法訓(xùn)練出一個(gè)UBM模型,然后再通過(guò)最大后驗(yàn)概率準(zhǔn)則調(diào)整得到GMM模型。

    從GMM-UBM模型提取i-vector特征的過(guò)程中,需要準(zhǔn)備好UBM模型超矢量的各階統(tǒng)計(jì)量。各階統(tǒng)計(jì)量的估計(jì)已經(jīng)有完善的理論[21],對(duì)一段語(yǔ)音s的特征表示為xs,t,高斯混合模型分量系數(shù)為c。那么,其零階、一階、二階Baum-Welch統(tǒng)計(jì)量(也稱(chēng)充分統(tǒng)計(jì)量)為:

    Nc,s=∑tγc,s,t

    (8)

    Fc,s=∑tγc,s,t(xs,t-μc)

    (9)

    Sc,s=diag{∑tγc,s,t(xs,t-μc)(xs,t-μc)T}

    (10)

    其中,γc,s,t表示第c個(gè)高斯分量的后驗(yàn)概率;μc表示第c個(gè)高斯分量的均值超矢量。

    如果語(yǔ)音特征矢量的維數(shù)為F,采用一個(gè)高斯混合分量總數(shù)為C的高斯混合模型,得到的均值超矢量的維數(shù)為C·F。

    在估計(jì)各階統(tǒng)計(jì)量后,就可以采用EM算法估計(jì)得總體子空間矩陣T。從i-vector的求解過(guò)程分析,可以把估計(jì)子空間矩陣T的步驟總結(jié)[22]為:

    (1)初始化。

    在T中選擇每個(gè)成分的初始值,利用式(8)~(10)求得Baum-Welch統(tǒng)計(jì)量。

    (2)求E階段。

    對(duì)每一個(gè)語(yǔ)音片段,求期望:

    Ls=I+TTΣ-1NsT

    (11)

    E[ωs]=Ls-1TTΣ-1Fs

    (12)

    (13)

    (3)求M階段。

    解方程后更新矩陣T:

    (14)

    (4)迭代或終止。

    如果目標(biāo)函數(shù)收斂,則終止EM步驟;否則,繼續(xù)迭代步驟(2)和步驟(3)。

    2.3 從i-vector到i-supervector

    相比于高斯混合模型的均值超矢量,i-vector可以用一個(gè)維數(shù)固定的低維空間矢量來(lái)表示一個(gè)語(yǔ)音片段。對(duì)于一個(gè)語(yǔ)音觀察序列W,i-vector由其潛在變量ω的期望φ所決定。其中,φ=E{ω|W}。式(5)中,由于T是一個(gè)秩較低的矩陣,所以得到i-vector的維數(shù)D會(huì)遠(yuǎn)小于UBM的均值超向量,即D?C·F。

    通過(guò)把潛在因子空間拓展到均值超向量維數(shù)般大小,就是使D=C·F,可以得到:

    M=μ+Tω

    (15)

    與式(5)相比,i-supervector由潛在變量的期望φ=E{z|W}所決定。和i-vector相比,它們的不同之處在于,對(duì)角矩陣D是一個(gè)C·F×C·F維的對(duì)角矩陣。這樣一來(lái),i-supervector就和高斯混合模型的均值超矢量維數(shù)相同。對(duì)i-supervector的建??梢酝ㄟ^(guò)經(jīng)典的JFA等技術(shù),加上一些改變后就可以方便實(shí)現(xiàn)[20]。對(duì)每個(gè)語(yǔ)音片段,用矩陣D對(duì)每個(gè)說(shuō)話(huà)人的偏差估計(jì),可獲得說(shuō)話(huà)人和會(huì)話(huà)之間的差異。文獻(xiàn)[20]指出,使用i-supervector代替i-vector可以獲得更好的性能。

    3 深度神經(jīng)網(wǎng)絡(luò)

    深度神經(jīng)網(wǎng)絡(luò)是近年來(lái)機(jī)器學(xué)習(xí)研究的一個(gè)熱門(mén)領(lǐng)域,它是前饋型人工神經(jīng)網(wǎng)絡(luò)的一種拓展。Hinton[17]提出,過(guò)去幾年間,在機(jī)器學(xué)習(xí)算法和計(jì)算機(jī)硬件設(shè)施不斷提高情況下,使包含有多個(gè)非線(xiàn)性隱層和大量輸出層的深度神經(jīng)網(wǎng)絡(luò),取得許多有效的方法。

    3.1 DNN處理識(shí)別和分類(lèi)原理

    深度神經(jīng)網(wǎng)絡(luò),是指有一個(gè)以上隱層數(shù)目的前饋人工神經(jīng)網(wǎng)絡(luò)。每個(gè)隱層單元j使用一個(gè)logistic函數(shù),把前一層的xj映射成下一層的yj:

    (16)

    (17)

    其中,bj為第j單元的偏差;ωij為從i單元到j(luò)單元的權(quán)重。

    如果要設(shè)計(jì)一個(gè)分類(lèi)器,輸出單元j需要把輸入xj映射為某一類(lèi)的概率。一般通過(guò)一個(gè)softmax的非線(xiàn)性模塊:

    (18)

    其中,k表示各個(gè)類(lèi)別的索引。

    深度神經(jīng)網(wǎng)絡(luò)用一個(gè)損失函數(shù)[23]衡量目標(biāo)輸出和當(dāng)前輸出之間的差異,其模型可以通過(guò)后向傳播算法來(lái)訓(xùn)練得到。使用softmax輸出函數(shù)時(shí),其自然損失函數(shù)為:

    (19)

    其中,dj為目標(biāo)概率;pj為當(dāng)前概率。

    當(dāng)訓(xùn)練語(yǔ)音數(shù)據(jù)集量非常大時(shí),需要把訓(xùn)練集分割成許多個(gè)小片段,而不是把整體的訓(xùn)練數(shù)據(jù)都用到神經(jīng)網(wǎng)絡(luò)中。在更新梯度權(quán)值比例之前,選取一堆大小隨機(jī)的語(yǔ)音片段作為下一批的訓(xùn)練數(shù)據(jù),并計(jì)算它們之間的差異。這種隨機(jī)梯度下降的方法加一個(gè)α系數(shù)進(jìn)行改進(jìn),使得對(duì)語(yǔ)音片段t梯度計(jì)算更加平滑:

    (20)

    其中,0<α<1。更新單元狀態(tài)持續(xù)為1的權(quán)重。

    深度神經(jīng)網(wǎng)絡(luò)有非常多的隱層,使得最優(yōu)化很難進(jìn)行[24]。使用隨機(jī)初始狀態(tài)時(shí),用后向傳播等算法中各層梯度可能會(huì)有很大差異。好在深度神經(jīng)網(wǎng)絡(luò)有很多隱層,使得它們足夠應(yīng)對(duì)輸入與輸出之間的復(fù)雜、非線(xiàn)性關(guān)系。這一點(diǎn)對(duì)高質(zhì)量的聲學(xué)建模來(lái)說(shuō)非常有用。除了最優(yōu)化問(wèn)題,還要考慮過(guò)擬合問(wèn)題。雖然可以通過(guò)大量的訓(xùn)練數(shù)據(jù)減少過(guò)擬合[25]的影響,與之帶來(lái)的是依賴(lài)高額的計(jì)算處理消耗。因此,需要使用一種更好的方法處理訓(xùn)練數(shù)據(jù),建立一個(gè)多層的非線(xiàn)性特征檢測(cè)網(wǎng)絡(luò)。

    3.2 DNN語(yǔ)音識(shí)別模型訓(xùn)練

    DNN分類(lèi)器可以作為自動(dòng)語(yǔ)音識(shí)別(ASR)的聲紋模型,用來(lái)計(jì)算聲紋觀察序列的子音素單元(稱(chēng)為“senone”)的后驗(yàn)概率。觀察序列在固定采樣頻率時(shí)采用頻譜技術(shù),如濾波分析、MFCC、感知器線(xiàn)性預(yù)測(cè)(PLP)系數(shù)等。

    (1)預(yù)訓(xùn)練。

    在預(yù)訓(xùn)練階段,嘗試尋找合適初始化對(duì)權(quán)值調(diào)優(yōu)更有利,同時(shí)也對(duì)減少過(guò)擬合有意義。定義v是可見(jiàn)層變量,h是不可見(jiàn)層變量,那么它們之間的聯(lián)合概率為:

    (21)

    (22)

    其中,Z表示partition函數(shù);W表示可見(jiàn)變量和不可見(jiàn)變量之間的權(quán)值關(guān)系矩陣。

    (2)構(gòu)造RBMs。

    受限的玻爾茲曼機(jī)(RBMs)是一種兩層結(jié)構(gòu)模型。RBM可見(jiàn)單元和隱藏單元聯(lián)合的能量為:

    (23)

    其中,i表示可見(jiàn)狀態(tài)單元;j表示不可見(jiàn)狀態(tài)單元;vi表示i單元的狀態(tài);hj表示j單元的狀態(tài);ai,bj分別表示它們的偏置;ωij表示單元間的權(quán)重。

    RBM模型的優(yōu)化目標(biāo)是讓邊緣概率最大化:

    (24)

    其求解過(guò)程可以通過(guò)最大似然準(zhǔn)則得到:

    (25)

    Δωij=ε(data-model)

    (26)

    其中,N表示訓(xùn)練數(shù)據(jù)大??;ε表示學(xué)習(xí)率。

    直接求解比較困難,大家一般采用由Hinton[26]提出的對(duì)比散度(Contrastive Divergence-CD)快速算法。

    (3)數(shù)據(jù)建模并將RBMs堆疊為深度置信網(wǎng)絡(luò)。

    語(yǔ)音特征數(shù)據(jù)(如MFCC)通常通過(guò)含高斯噪聲的線(xiàn)性變量建模:

    (27)

    其中,σi表示高斯噪聲的標(biāo)準(zhǔn)差。

    自動(dòng)學(xué)習(xí)標(biāo)準(zhǔn)差比較困難,所以一般需要在預(yù)訓(xùn)練時(shí)把數(shù)據(jù)調(diào)整為標(biāo)準(zhǔn)正態(tài)分布,避免了分析噪聲級(jí)別的問(wèn)題。

    當(dāng)訓(xùn)練完一層數(shù)據(jù)為RBM后,可以用隱層的輸出生成下一層RBM。采用這種逐層的訓(xùn)練方式,可以得到一個(gè)DBN網(wǎng)絡(luò)。DBN網(wǎng)絡(luò)一個(gè)非常大的好處就是可以推測(cè)隱層單元的狀態(tài),這是多層感知器及其他非線(xiàn)性模型沒(méi)有的。最后,可以在頂層加一個(gè)softmax層做分類(lèi)任務(wù)。

    (4)利用DNN與HMM的對(duì)接。

    在預(yù)訓(xùn)練和調(diào)優(yōu)過(guò)后,DNN會(huì)輸出隱馬爾可夫模型(HMM)的后驗(yàn)概率。輸出的標(biāo)注需要依賴(lài)強(qiáng)對(duì)齊技術(shù),與另一個(gè)聲紋建模程序進(jìn)行對(duì)齊。

    4 實(shí) 驗(yàn)

    4.1 實(shí)驗(yàn)設(shè)置

    實(shí)驗(yàn)采用了美國(guó)國(guó)家標(biāo)準(zhǔn)技術(shù)局上的TIMIT語(yǔ)音數(shù)據(jù)庫(kù)(National Institute of Standards and Technology TIMIT Speech Corpus,NIST TIMIT)和實(shí)驗(yàn)室自建的語(yǔ)音數(shù)據(jù)庫(kù)。

    在TIMIT中包含了美國(guó)8個(gè)地區(qū)方言的說(shuō)話(huà)人測(cè)試集,在630人中挑出430人構(gòu)成訓(xùn)練集,剩下200人構(gòu)成驗(yàn)證集和測(cè)試集。其中,訓(xùn)練集每人10句話(huà),一共4 300個(gè)語(yǔ)音素材進(jìn)行訓(xùn)練。驗(yàn)證集和測(cè)試集中,每個(gè)人拿8句話(huà)來(lái)做驗(yàn)證集的訓(xùn)練,剩下2句話(huà)用來(lái)測(cè)試說(shuō)話(huà)人。實(shí)驗(yàn)室自建的語(yǔ)音素材使用方式類(lèi)似。對(duì)測(cè)試集的200人進(jìn)行交叉驗(yàn)證,并求出對(duì)應(yīng)的det曲線(xiàn)。

    對(duì)每一段語(yǔ)音片段,實(shí)驗(yàn)用采樣速率16 kHz提取語(yǔ)音中的基本聲紋特征MFCC。MFCC在幀長(zhǎng)度25 ms、幀移10 ms,并通過(guò)23維漢明窗梅爾濾波器的前端處理得到一組20維(包括第0級(jí)系數(shù))的特征矢量。提取的特征還需要經(jīng)過(guò)語(yǔ)音活動(dòng)檢測(cè)(VAD)。之后,使用經(jīng)特征提取和VAD模塊處理后的聲紋特征分別訓(xùn)練兩個(gè)(背景和說(shuō)話(huà)人)高斯混合模型和一個(gè)深度神經(jīng)網(wǎng)絡(luò)模型。

    實(shí)驗(yàn)訓(xùn)練了一個(gè)包含6個(gè)隱層的神經(jīng)網(wǎng)絡(luò)模型。網(wǎng)絡(luò)模型隱層p-norm的輸入/輸出維數(shù)為3 500/350,使用3 000個(gè)語(yǔ)音素材迭代訓(xùn)練,在經(jīng)過(guò)13次循環(huán)后達(dá)到穩(wěn)定。

    4.2 DNN/i-vector說(shuō)話(huà)人識(shí)別系統(tǒng)

    傳統(tǒng)的i-vector系統(tǒng)是依靠GMM-UBM框架,再使用與聲紋矢量對(duì)齊獲得的充分統(tǒng)計(jì)量。在GMM-UBM中,一個(gè)高斯混合模型混合分量即代表一個(gè)類(lèi)別。而在DNN語(yǔ)音識(shí)別中,DNN替代了GMM-HMM聲學(xué)模型中的高斯混合模型。HMM中不同狀態(tài)的發(fā)射概率可以用DNN的輸出來(lái)標(biāo)注。當(dāng)DNN的輸入為拼接多幀的聲學(xué)矢量,輸出為三因素狀態(tài),由貝葉斯公式,HMM的狀態(tài)概率為:

    (28)

    其中,O表示升學(xué)特征;S表示三因素狀態(tài)。

    這樣,DNN就提供了充分統(tǒng)計(jì)量計(jì)算所需要的標(biāo)注信息。

    圖1展示GMM和DNN在語(yǔ)音識(shí)別處理上差異。

    傳統(tǒng)的基于GMM方法使用相同的聲紋特征標(biāo)注后驗(yàn)概率,而基于DNN的方法使用自動(dòng)語(yǔ)音識(shí)別特征獲得計(jì)算統(tǒng)計(jì)信息。但是使用GMM的混合分量是由無(wú)監(jiān)督聚類(lèi)取得的,所以混合分量表示的類(lèi)別也沒(méi)有明確含義。但是使用DNN是由有監(jiān)督聚類(lèi)得到的信息(受綁定的三因素狀態(tài)),與發(fā)聲語(yǔ)音有比較明確的對(duì)應(yīng)關(guān)系。所以,DNN在處理語(yǔ)音識(shí)別上可以使用DNN模型替代GMM-UBM模型中的GMM進(jìn)行每個(gè)類(lèi)的后驗(yàn)概率計(jì)算。

    圖1 與i-vector技術(shù)的結(jié)合:基于DNN的說(shuō)話(huà)人識(shí)別

    4.3 實(shí)驗(yàn)結(jié)果及分析

    實(shí)驗(yàn)采用同等錯(cuò)誤率(Equal Error Rate,EER)——錯(cuò)誤接收率和錯(cuò)誤拒絕率的同等準(zhǔn)確值指標(biāo)對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行度量。在det曲線(xiàn)畫(huà)出后,計(jì)算最小代價(jià)函數(shù)(minimum Detection Cost Function,minDCF)作為系統(tǒng)性能評(píng)價(jià)指標(biāo)。

    (1)i-vector/DNN基線(xiàn)系統(tǒng)。

    所有系統(tǒng)都使用了語(yǔ)音活動(dòng)檢測(cè),語(yǔ)音訓(xùn)練后生成了高斯混合模型。其中,i-vector系統(tǒng)使用MAP等技術(shù)進(jìn)行了T矩陣估計(jì)。測(cè)試打分階段使用PLDA方法。除了輸入的聲紋特征和各階統(tǒng)計(jì)量之外,i-vector系統(tǒng)自動(dòng)提取了一個(gè)67維高斯分量的GMM-UBM模型和一個(gè)400維的i-vector子空間。

    (2)i-supervector/DNN系統(tǒng)。

    使用i-supervector/DNN系統(tǒng)和i-vector/DNN系統(tǒng)的最明顯差別在于使用的i-vector維數(shù)和子空間矩陣T的維數(shù)。在求i-supervector特征時(shí),估計(jì)子空間矩陣T的高斯分量也需要調(diào)整到合適狀態(tài)。假如高斯混合模型有67維的高斯分量,i-supervector需要使用67*20(特征維數(shù))=1 340維的高斯分量估計(jì)T。

    由于i-vector系統(tǒng)是使用的EM算法進(jìn)行迭代,以相同迭代次數(shù)為例進(jìn)行分析。如表1所示,在迭代次數(shù)相同的情況下,測(cè)試每組模型的EER。

    從表1可以看出,i-vector傳統(tǒng)方法的準(zhǔn)確度較差,i-vector/DNN在i-vector的基礎(chǔ)上有了些許提升,使用i-supervector/DNN的搭配獲得了進(jìn)一步提升。

    表1 同等迭代次數(shù)下的EER %

    為了進(jìn)一步觀察使用i-supervector/DNN的說(shuō)話(huà)人識(shí)別性能,分別對(duì)不同的實(shí)驗(yàn)設(shè)置展開(kāi)測(cè)試,在迭代次數(shù)為10時(shí)查看識(shí)別模型的準(zhǔn)確率。表2展示了考慮所有說(shuō)話(huà)人的識(shí)別方案,表3和表4展示了只考慮男/女性說(shuō)話(huà)人的識(shí)別方案。

    表2 不同系統(tǒng)不考慮區(qū)分性別的差異

    表3 不同系統(tǒng)識(shí)別男聲的差異

    表4 不同系統(tǒng)識(shí)別女聲的差異

    i-supervector說(shuō)話(huà)人識(shí)別的det曲線(xiàn)見(jiàn)圖2。

    圖2 i-supervector說(shuō)話(huà)人識(shí)別的det曲線(xiàn)

    通過(guò)實(shí)驗(yàn)對(duì)比可以看出,在進(jìn)行訓(xùn)練時(shí),使用經(jīng)過(guò)i-supervecor特征提取的神經(jīng)網(wǎng)絡(luò)進(jìn)行聲學(xué)建模,可以更好地處理說(shuō)話(huà)人識(shí)別。

    綜上所述,使用深度神經(jīng)網(wǎng)絡(luò)處理語(yǔ)音識(shí)別,利用了深度網(wǎng)絡(luò)一個(gè)逐層抽象的特點(diǎn),把說(shuō)話(huà)人標(biāo)簽作為網(wǎng)絡(luò)輸出。在神經(jīng)網(wǎng)絡(luò)中結(jié)合傳統(tǒng)的語(yǔ)音識(shí)別方法,可以使聲學(xué)模型更好地表達(dá)說(shuō)話(huà)人的聲紋特征,進(jìn)一步提升語(yǔ)音識(shí)別的準(zhǔn)確率。

    5 結(jié)束語(yǔ)

    針對(duì)說(shuō)話(huà)人聲紋特征,提出了一種基于i-supervector特征和深度神經(jīng)網(wǎng)絡(luò)模型的說(shuō)話(huà)人識(shí)別方法。該方法以深度神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)的特征提取器為基礎(chǔ),從中提取出更有利于說(shuō)話(huà)人區(qū)分性的i-supervertor特征。在相同的參數(shù)下,語(yǔ)音數(shù)據(jù)使用i-supervector特征和DNN的同等錯(cuò)誤率更優(yōu)于傳統(tǒng)的兩種方案,說(shuō)明了該方案識(shí)別準(zhǔn)確率的優(yōu)勢(shì)。實(shí)驗(yàn)結(jié)果表明,利用補(bǔ)足i-vector特征不能完全表征聲紋矢量所有維度的缺點(diǎn),是在深度學(xué)習(xí)中一條提高說(shuō)話(huà)人識(shí)別準(zhǔn)確率的有益途徑。

    [1] Kinnunen T,Li H.An overview of text-independent speaker recognition:from features to supervectors[J].Speech Communication,2010,52(1):12-40.

    [2] Espy-Wilson C Y,Manocha S,Vishnubhotla S.A new set of features for text-independent speaker identification[C]//International conference on interspeech.[s.l.]:[s.n.],2006:1475-1478.

    [3] Kinnunen T,Lee K A,Li H.Dimension reduction of the modulation spectrogram for speaker verification[C]//Proceedings of the speaker and language recognition workshop.Odyssey:[s.n.],2008.

    [4] Nakagawa S,Wang L,Ohtsuka S.Speaker identification and verification by combining MFCC and phase information[J].IEEE Transactions on Audio Speech and Language Processing,2012,20(4):1085-1095.

    [5] Wang L,Minami K,Yamamoto K,et al.Speaker identification by combining MFCC and phase information in noisy environments[C]//Proceeding of international conference on acoustics,speech and signal processing.Dallas,TX,USA:[s.n.],2010:4502-4505.

    [6] Reynolds D A,Quatieri T F,Dunn R B.Speaker verification using adapted Gaussian mixture models[J].Digital Signal Processing,2010,10(1-3):19-41.

    [7] Kenny P,Ouellet P,Dehak N,et al.A study of interspeaker variability in speaker verification[J].IEEE Transactions on Audio Speech and Language Processing,2008,16(5):980-988.

    [8] Kenny P,Boulianne G,Ouellet P,et al.Speaker and session variability in GMM-based speaker verification[J].IEEE Transactions on Audio Speech and Language Processing,2007,15(4):1448-1460.

    [9] Dehak N,Kenny P J,Dehak R,et al.Front-end factor analysis for speaker verification[J].IEEE Transactions on Audio Speech and Language Processing,2011,19(4):788-798.

    [10] 栗志意,張衛(wèi)強(qiáng),何 亮,等.基于總體變化子空間自適應(yīng)的i-vector說(shuō)話(huà)人識(shí)別系統(tǒng)研究[J].自動(dòng)化學(xué)報(bào),2014,40(8):1836-1840.

    [11] Kanagasundaram A,Dean D,Vogt R,et al.Weighted LDA techniques for i-vector based speaker verification[C]//Proceedings of IEEE international conference on acoustics,speech,and signal processing.Kyoto,Japan:IEEE,2012:4781-4794.

    [12] Campbell W M,Sturim D E,Reynolds D A,et al.SVM based speaker verification using a GMM supervector kernel and NAP variability compensation[C]//Proceedings of international conference on acoustics,speech,and signal processing.Philadelphia,USA:IEEE,2005:97-100.

    [13] Hatch A O,Kajarekar S,Stolcke A.Within-class covariance normalization for SVM-based speaker recognition[C]//International conference on interspeech.[s.l.]:[s.n.],2006:1471-1474.

    [14] Machlica L,Zajic Z.An efficient implementation of probabilistic linear discriminant analysis[C]//Proceedings of IEEE international conference on acoustics,speech,and signal processing.Vancouver,Canada:IEEE,2013:7678-7682.

    [15] 戴禮榮,張仕良.深度語(yǔ)音信號(hào)與信息處理:研究進(jìn)展與展望[J].數(shù)據(jù)采集與處理,2014,29(2):171-179.

    [16] Hinton G,Deng L,Dong Y,et al.Deep neural networks for acoustic modeling in speech recognition:the shared views of four research groups[J].IEEE Signal Processing Magazine,2012,29(6):82-97.

    [17] Dahl G E,Yu D,Deng L,et al.Context-dependent pre-trained deep neural networks for large-vocabulary speech recognition[J].IEEE Transactions on Audio,Speech,and Language Processing,2012,20(1):30-42.

    [18] 王山海,景新幸,楊海燕.基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的孤立詞語(yǔ)音識(shí)別的研究[J].計(jì)算機(jī)應(yīng)用研究,2015,32(8):2289-2291.

    [19] Richardson F,Reynolds D,Dehak N.Deep neural network approaches to speaker and language recognition[J].IEEE Signal Processing Letters,2015,22(10):1671-1675.

    [20] Jiang Y,Lee K A,Wang L.PLDA in the i-supervector space for text-independent speaker verification[J].EURASIP Journal on Audio,Speech,and Music Processing,2014(1):1-13.

    [21] Glembek O,Burget L,Matějka P,et al.Simplification and optimization of i-vector extraction[C]//Proceedings of IEEE international conference on acoustics,speech and signal processing.Prague:IEEE,2011:4516-4519.

    [22] Li Zhiyi,He Liang,Zhang Weiqiang,et al.Speaker recognition based on discriminant i-vector local distance preserving projection[J].Journal of Tsinghua University (Science and Technology),2012,52(5):598-601.

    [23] Rumelhart D E,Hinton G E,Williams R J.Learning representations by back-propagating errors[J].Nature,1986,323(6088):533-536.

    [24] Glorot X,Bengio Y.Understanding the difficulty of training deep feedforward neural networks[C]//Proceedings of AISTATS.[s.l.]:[s.n.],2010:249-256.

    [25] Ciresan D C,Meier U,Gambardella L M,et al.Deep,big,simple neural nets for handwritten digit recognition[J].Neural Computation,2010,22(12):3207-3220.

    [26] Hinton G,Osindero S,Teh Y W.A fast learning algorithm for deep belief nets[J].Neural Computation,2006,18(7):1527-1554.

    Speaker Recognition with i-vector and Deep Learning

    LIN Shu-du,SHAO Xi

    (College of Communication and Information Engineering,Nanjing University of Posts and Telecommunications,Nanjing 210003,China)

    To improve the performance of speaker recognition systems,a novel scheme combined DNN (Deep Neural Network) model with the i-vector model has been proposed.Via construction of network,the hidden information in the voice of speakers has been extracted accurately.Although DNN model can help dig a lot of information,the i-vector features have not completely cover all dimensions of voiceprint.Thus i-supervector characteristics of higher dimension have been drawn with the i-vector features,which have effectively avoided the unnecessary loss of information.Experiments on TIMIT and other speech databases which contain 630 the speaker’s voices for training,validation and testing have been conducted to verify the proposed scheme.The results illustrate that the i-supervector features with i-vector features for speaker recognition have achieved 30% reduction of equal error rate that implies effectiveness of the identification method proposed.

    speaker recognition;DNN;i-vector;voiceprint

    2016-07-30

    2016-11-04 網(wǎng)絡(luò)出版時(shí)間:2017-04-28

    國(guó)家自然科學(xué)青年基金項(xiàng)目(61401227);江蘇省高校自然科學(xué)研究面上項(xiàng)目(16KJB520013)。

    林舒都(1991-),男,碩士研究生,研究方向?yàn)槎嗝襟w音樂(lè)信息處理和檢索;邵 曦,博士,副教授,研究生導(dǎo)師,研究方向?yàn)槎嗝襟w信息處理系統(tǒng)、基于內(nèi)容的音樂(lè)信息檢索等。

    http://kns.cnki.net/kcms/detail/61.1450.TP.20170428.1704.086.html

    TP301

    A

    1673-629X(2017)06-0066-06

    10.3969/j.issn.1673-629X.2017.06.014

    猜你喜歡
    深度特征模型
    一半模型
    深度理解一元一次方程
    重要模型『一線(xiàn)三等角』
    重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    如何表達(dá)“特征”
    不忠誠(chéng)的四個(gè)特征
    深度觀察
    深度觀察
    深度觀察
    抓住特征巧觀察
    嫩草影院入口| 欧美又色又爽又黄视频| 内地一区二区视频在线| 亚洲精华国产精华精| 国产91精品成人一区二区三区| 1000部很黄的大片| 最近最新中文字幕大全电影3| 亚洲欧美日韩高清专用| 国产精品爽爽va在线观看网站| 香蕉av资源在线| av在线观看视频网站免费| 欧美激情久久久久久爽电影| 尤物成人国产欧美一区二区三区| 高清毛片免费观看视频网站| 99九九线精品视频在线观看视频| 亚洲美女黄片视频| 国产精品一区二区三区四区免费观看 | 网址你懂的国产日韩在线| 中出人妻视频一区二区| 欧美性感艳星| 身体一侧抽搐| 91精品国产九色| 亚洲va在线va天堂va国产| 琪琪午夜伦伦电影理论片6080| 男女啪啪激烈高潮av片| 伦理电影大哥的女人| 久久久精品大字幕| 国产亚洲欧美98| 色精品久久人妻99蜜桃| 亚洲狠狠婷婷综合久久图片| 午夜福利欧美成人| 人妻夜夜爽99麻豆av| 亚洲国产精品合色在线| 欧美潮喷喷水| 中文字幕高清在线视频| 欧美最黄视频在线播放免费| 欧美另类亚洲清纯唯美| 久久午夜亚洲精品久久| 亚洲欧美日韩东京热| 日日摸夜夜添夜夜添小说| 人妻久久中文字幕网| 亚洲国产色片| 久久亚洲真实| 综合色av麻豆| 国产精品国产三级国产av玫瑰| 男人舔女人下体高潮全视频| 日韩人妻高清精品专区| 日韩,欧美,国产一区二区三区 | 天堂影院成人在线观看| 非洲黑人性xxxx精品又粗又长| 久久亚洲真实| 亚洲性夜色夜夜综合| 丰满的人妻完整版| 波多野结衣高清无吗| 网址你懂的国产日韩在线| 天堂av国产一区二区熟女人妻| 国内久久婷婷六月综合欲色啪| 国产成人av教育| 午夜福利在线观看吧| 狂野欧美激情性xxxx在线观看| 高清日韩中文字幕在线| 亚洲av中文av极速乱 | 少妇裸体淫交视频免费看高清| 美女黄网站色视频| 亚洲精品成人久久久久久| 99久久久亚洲精品蜜臀av| 婷婷亚洲欧美| 在线国产一区二区在线| 窝窝影院91人妻| 亚洲国产精品久久男人天堂| 18禁黄网站禁片午夜丰满| 成人无遮挡网站| 日本免费a在线| 久久人人爽人人爽人人片va| 搡老岳熟女国产| 国产高清视频在线播放一区| 国产精品98久久久久久宅男小说| 老熟妇乱子伦视频在线观看| 日日夜夜操网爽| 亚洲美女搞黄在线观看 | 禁无遮挡网站| 夜夜爽天天搞| 国产精品自产拍在线观看55亚洲| 麻豆国产97在线/欧美| 久久精品国产清高在天天线| 精品久久久久久久久亚洲 | 给我免费播放毛片高清在线观看| 欧美成人性av电影在线观看| 亚洲内射少妇av| 美女高潮喷水抽搐中文字幕| 久久99热这里只有精品18| 精品人妻偷拍中文字幕| 在线观看免费视频日本深夜| 91在线观看av| 在线观看舔阴道视频| 大又大粗又爽又黄少妇毛片口| av黄色大香蕉| 久久精品国产99精品国产亚洲性色| bbb黄色大片| 春色校园在线视频观看| 亚洲欧美日韩卡通动漫| 噜噜噜噜噜久久久久久91| 色哟哟·www| 久久人人爽人人爽人人片va| 黄色女人牲交| 一a级毛片在线观看| 自拍偷自拍亚洲精品老妇| 久久人人精品亚洲av| 亚洲av中文av极速乱 | 午夜福利在线观看吧| 啪啪无遮挡十八禁网站| 中国美女看黄片| 一区二区三区免费毛片| 男插女下体视频免费在线播放| videossex国产| 精品久久久久久久末码| 深爱激情五月婷婷| 免费高清视频大片| 天堂√8在线中文| 免费电影在线观看免费观看| 一a级毛片在线观看| 国产三级在线视频| 亚洲精品一区av在线观看| 搡女人真爽免费视频火全软件 | 在线观看舔阴道视频| 亚洲午夜理论影院| 琪琪午夜伦伦电影理论片6080| 亚洲av日韩精品久久久久久密| 少妇裸体淫交视频免费看高清| 91久久精品国产一区二区成人| 91在线精品国自产拍蜜月| 听说在线观看完整版免费高清| 国产欧美日韩精品亚洲av| 国产国拍精品亚洲av在线观看| 高清日韩中文字幕在线| 国产精品久久久久久精品电影| 国产不卡一卡二| 午夜a级毛片| 最新中文字幕久久久久| 色噜噜av男人的天堂激情| 日韩欧美精品v在线| 亚洲自拍偷在线| 亚洲精品在线观看二区| 午夜福利高清视频| 国产精品综合久久久久久久免费| 全区人妻精品视频| 免费在线观看影片大全网站| 不卡一级毛片| 欧美三级亚洲精品| 一区二区三区激情视频| 亚洲成人免费电影在线观看| 两个人的视频大全免费| 身体一侧抽搐| 国产精品综合久久久久久久免费| 国产爱豆传媒在线观看| 欧美一区二区精品小视频在线| 老熟妇仑乱视频hdxx| 91久久精品电影网| 日韩人妻高清精品专区| 成人国产一区最新在线观看| 精品人妻视频免费看| 国产精品无大码| 99国产极品粉嫩在线观看| 日韩一本色道免费dvd| 欧美一区二区精品小视频在线| 神马国产精品三级电影在线观看| 大型黄色视频在线免费观看| 国产高潮美女av| 日韩人妻高清精品专区| 久久人人精品亚洲av| 九九久久精品国产亚洲av麻豆| 搡女人真爽免费视频火全软件 | av专区在线播放| a级一级毛片免费在线观看| 免费av观看视频| 国产亚洲精品av在线| 一个人看视频在线观看www免费| 国产激情偷乱视频一区二区| 国产伦在线观看视频一区| 欧美最新免费一区二区三区| 亚洲专区国产一区二区| 亚洲专区国产一区二区| 九九在线视频观看精品| 中文亚洲av片在线观看爽| 日本黄色视频三级网站网址| 亚洲一区二区三区色噜噜| 三级国产精品欧美在线观看| 国产视频一区二区在线看| 免费观看在线日韩| 男女啪啪激烈高潮av片| 国产男靠女视频免费网站| 91av网一区二区| 国产伦精品一区二区三区视频9| 国产91精品成人一区二区三区| 国产精品三级大全| 久久久精品欧美日韩精品| 亚洲无线在线观看| 啪啪无遮挡十八禁网站| 成人午夜高清在线视频| 国产精品久久视频播放| 午夜精品在线福利| 很黄的视频免费| 一卡2卡三卡四卡精品乱码亚洲| 久久精品国产鲁丝片午夜精品 | 精品人妻视频免费看| 亚洲国产精品sss在线观看| 欧美一区二区精品小视频在线| 亚洲真实伦在线观看| 少妇丰满av| 日韩欧美三级三区| 深夜精品福利| 一级毛片久久久久久久久女| 亚洲av第一区精品v没综合| 亚洲七黄色美女视频| 国产亚洲av嫩草精品影院| 精品欧美国产一区二区三| 18禁黄网站禁片午夜丰满| 免费看av在线观看网站| 亚洲欧美日韩高清在线视频| 在线播放国产精品三级| 亚洲第一电影网av| 国产探花在线观看一区二区| 国产亚洲精品久久久久久毛片| 日本 av在线| 美女xxoo啪啪120秒动态图| 深爱激情五月婷婷| 亚洲国产精品成人综合色| 久99久视频精品免费| 丰满乱子伦码专区| 一个人免费在线观看电影| 久久精品国产亚洲网站| 色综合婷婷激情| 国产熟女欧美一区二区| 又紧又爽又黄一区二区| 少妇丰满av| 欧美性感艳星| 国产精品爽爽va在线观看网站| 啦啦啦啦在线视频资源| 欧美不卡视频在线免费观看| 久久久久久伊人网av| 亚洲欧美清纯卡通| 国产aⅴ精品一区二区三区波| 1000部很黄的大片| av在线天堂中文字幕| 女的被弄到高潮叫床怎么办 | 久久人人爽人人爽人人片va| 亚洲成a人片在线一区二区| 国产精品99久久久久久久久| 国产三级在线视频| or卡值多少钱| 老司机福利观看| 亚洲精品一卡2卡三卡4卡5卡| 国产精品无大码| 超碰av人人做人人爽久久| 久久草成人影院| 看片在线看免费视频| 中文字幕av在线有码专区| 在线观看午夜福利视频| 成人特级av手机在线观看| 国产欧美日韩一区二区精品| 国产精品永久免费网站| 国产精品1区2区在线观看.| 色吧在线观看| 亚洲四区av| 免费一级毛片在线播放高清视频| 精品人妻1区二区| 97超视频在线观看视频| 国产成人影院久久av| 天堂影院成人在线观看| h日本视频在线播放| 国产精品,欧美在线| 99riav亚洲国产免费| av在线老鸭窝| 在线天堂最新版资源| 久久久久久久久久黄片| 国产人妻一区二区三区在| 亚洲在线自拍视频| 三级国产精品欧美在线观看| 亚洲美女视频黄频| 深夜精品福利| 亚洲av熟女| 18禁黄网站禁片午夜丰满| 亚洲第一电影网av| 欧美日韩国产亚洲二区| 两个人的视频大全免费| 丰满人妻一区二区三区视频av| 我要搜黄色片| 国产美女午夜福利| 欧美一级a爱片免费观看看| 亚洲国产精品合色在线| ponron亚洲| 亚洲成人中文字幕在线播放| 哪里可以看免费的av片| 亚洲精品影视一区二区三区av| 欧美日韩亚洲国产一区二区在线观看| 国产精品一区二区三区四区免费观看 | 熟女人妻精品中文字幕| 人妻丰满熟妇av一区二区三区| 在线a可以看的网站| 91麻豆精品激情在线观看国产| 亚洲最大成人手机在线| 中文字幕久久专区| av天堂在线播放| 日韩欧美免费精品| 精品99又大又爽又粗少妇毛片 | 丝袜美腿在线中文| 黄色丝袜av网址大全| 1000部很黄的大片| 色综合亚洲欧美另类图片| 一个人观看的视频www高清免费观看| 国产视频内射| 久久精品国产亚洲av天美| 日韩,欧美,国产一区二区三区 | 搡老岳熟女国产| 亚洲七黄色美女视频| 99热这里只有精品一区| 国产乱人伦免费视频| 久久婷婷人人爽人人干人人爱| 亚洲va在线va天堂va国产| 日本黄色片子视频| 内地一区二区视频在线| 中文字幕av在线有码专区| 国产精品国产高清国产av| 精品一区二区免费观看| 亚洲最大成人手机在线| 成人精品一区二区免费| 国产男靠女视频免费网站| 国产黄色小视频在线观看| 中文字幕免费在线视频6| 小说图片视频综合网站| 波多野结衣高清作品| 无人区码免费观看不卡| 国产免费男女视频| 日本 av在线| 久久九九热精品免费| 赤兔流量卡办理| 亚洲乱码一区二区免费版| 久久久成人免费电影| 日韩高清综合在线| 国产日本99.免费观看| 啦啦啦韩国在线观看视频| av在线蜜桃| 99九九线精品视频在线观看视频| 色av中文字幕| 久久精品91蜜桃| 美女大奶头视频| www.www免费av| 亚洲久久久久久中文字幕| 久久香蕉精品热| 亚洲精品成人久久久久久| 亚洲国产欧美人成| 狂野欧美白嫩少妇大欣赏| 大又大粗又爽又黄少妇毛片口| 国产女主播在线喷水免费视频网站 | 少妇猛男粗大的猛烈进出视频 | 伦理电影大哥的女人| 香蕉av资源在线| 能在线免费观看的黄片| 亚洲午夜理论影院| 国产主播在线观看一区二区| 久久午夜亚洲精品久久| av在线老鸭窝| 日韩一本色道免费dvd| 国产精品爽爽va在线观看网站| 成年女人毛片免费观看观看9| 免费无遮挡裸体视频| 日本精品一区二区三区蜜桃| 国产成人av教育| 久久久久免费精品人妻一区二区| 三级国产精品欧美在线观看| 国产私拍福利视频在线观看| 美女cb高潮喷水在线观看| 十八禁国产超污无遮挡网站| 一区二区三区高清视频在线| 色综合站精品国产| 51国产日韩欧美| 色5月婷婷丁香| 黄片wwwwww| 男女视频在线观看网站免费| 级片在线观看| 国产午夜福利久久久久久| 亚洲精品色激情综合| 日韩亚洲欧美综合| 真人做人爱边吃奶动态| 精品人妻视频免费看| 色精品久久人妻99蜜桃| 国产伦精品一区二区三区四那| 国产真实伦视频高清在线观看 | 精品欧美国产一区二区三| 精品一区二区三区av网在线观看| 亚洲一区二区三区色噜噜| 亚洲精品粉嫩美女一区| 在现免费观看毛片| 免费人成在线观看视频色| 国产精品久久久久久久电影| 亚洲av成人av| 狂野欧美白嫩少妇大欣赏| 亚洲国产日韩欧美精品在线观看| 亚洲美女黄片视频| 欧美性感艳星| 婷婷丁香在线五月| av天堂中文字幕网| 亚洲18禁久久av| 一进一出抽搐动态| 成人永久免费在线观看视频| 精品久久久久久,| 日本 欧美在线| 日本一本二区三区精品| 久久久久久九九精品二区国产| 亚洲最大成人av| 少妇人妻精品综合一区二区 | 国产精品一及| 在线免费观看不下载黄p国产 | 一个人免费在线观看电影| av黄色大香蕉| 日韩人妻高清精品专区| 亚洲七黄色美女视频| 精品久久久噜噜| 国产 一区精品| 国产精品嫩草影院av在线观看 | 午夜免费成人在线视频| 一边摸一边抽搐一进一小说| 赤兔流量卡办理| 色综合亚洲欧美另类图片| 很黄的视频免费| 久久精品91蜜桃| 一夜夜www| 成人亚洲精品av一区二区| 国产精品98久久久久久宅男小说| 色噜噜av男人的天堂激情| 国产成人影院久久av| 亚洲性久久影院| 欧美黑人欧美精品刺激| 成熟少妇高潮喷水视频| 国产高潮美女av| 嫩草影院入口| 啦啦啦观看免费观看视频高清| 欧美+亚洲+日韩+国产| 欧美zozozo另类| 看黄色毛片网站| 99热只有精品国产| 午夜福利成人在线免费观看| 人妻夜夜爽99麻豆av| 日韩av在线大香蕉| 天堂av国产一区二区熟女人妻| 热99在线观看视频| 日韩欧美精品免费久久| 免费黄网站久久成人精品| av天堂在线播放| a在线观看视频网站| 成人永久免费在线观看视频| 草草在线视频免费看| 最后的刺客免费高清国语| netflix在线观看网站| 少妇人妻一区二区三区视频| 岛国在线免费视频观看| 大又大粗又爽又黄少妇毛片口| 亚洲自拍偷在线| 特大巨黑吊av在线直播| 日韩欧美 国产精品| 毛片一级片免费看久久久久 | 色综合婷婷激情| 亚洲美女视频黄频| 人妻少妇偷人精品九色| 不卡视频在线观看欧美| 波多野结衣高清作品| 蜜桃亚洲精品一区二区三区| 亚洲中文字幕日韩| 国产精品女同一区二区软件 | 国产不卡一卡二| 99精品久久久久人妻精品| 亚洲色图av天堂| 99在线人妻在线中文字幕| 中出人妻视频一区二区| 我的老师免费观看完整版| 亚洲七黄色美女视频| 中文字幕高清在线视频| 美女黄网站色视频| 在线播放国产精品三级| 成人三级黄色视频| 51国产日韩欧美| 亚洲国产高清在线一区二区三| 国产高清有码在线观看视频| 欧美一级a爱片免费观看看| 无遮挡黄片免费观看| 国产亚洲av嫩草精品影院| 久久久久免费精品人妻一区二区| 亚洲自偷自拍三级| 免费黄网站久久成人精品| 日本五十路高清| 热99re8久久精品国产| 精品不卡国产一区二区三区| 国产高清有码在线观看视频| 波多野结衣巨乳人妻| 色在线成人网| 中国美女看黄片| 欧美高清成人免费视频www| 久久久久久久久大av| 桃色一区二区三区在线观看| 国产视频一区二区在线看| 岛国在线免费视频观看| 亚洲成av人片在线播放无| АⅤ资源中文在线天堂| 中文在线观看免费www的网站| ponron亚洲| 国产精品久久久久久av不卡| 免费一级毛片在线播放高清视频| 国内揄拍国产精品人妻在线| 国产视频内射| 国产高潮美女av| 日本一二三区视频观看| 亚洲av五月六月丁香网| 国产高清有码在线观看视频| 日日摸夜夜添夜夜添av毛片 | 国产欧美日韩一区二区精品| 人妻制服诱惑在线中文字幕| 成年女人永久免费观看视频| 欧美极品一区二区三区四区| 嫩草影视91久久| 给我免费播放毛片高清在线观看| 亚洲国产精品合色在线| 女生性感内裤真人,穿戴方法视频| 日韩欧美在线二视频| 人人妻人人澡欧美一区二区| 国产欧美日韩一区二区精品| av天堂中文字幕网| 午夜亚洲福利在线播放| 美女被艹到高潮喷水动态| 91麻豆精品激情在线观看国产| 久久精品国产99精品国产亚洲性色| 在线天堂最新版资源| 69av精品久久久久久| 国产精品不卡视频一区二区| 亚洲av成人av| 尤物成人国产欧美一区二区三区| 美女大奶头视频| 精品无人区乱码1区二区| 欧美日韩黄片免| 成人无遮挡网站| 日本熟妇午夜| 日韩欧美免费精品| 麻豆一二三区av精品| 日本精品一区二区三区蜜桃| 亚洲图色成人| 精品久久久久久久久亚洲 | 动漫黄色视频在线观看| 在线观看美女被高潮喷水网站| 麻豆一二三区av精品| 亚洲国产欧洲综合997久久,| 国产av一区在线观看免费| 亚洲精品成人久久久久久| 别揉我奶头~嗯~啊~动态视频| 中文亚洲av片在线观看爽| 一个人观看的视频www高清免费观看| 两性午夜刺激爽爽歪歪视频在线观看| 综合色av麻豆| av专区在线播放| 哪里可以看免费的av片| 久久久精品大字幕| 天堂√8在线中文| 天堂av国产一区二区熟女人妻| 久久精品综合一区二区三区| 啦啦啦观看免费观看视频高清| 国产精品一区二区三区四区久久| 日本一本二区三区精品| 久久精品影院6| 中文字幕久久专区| 美女黄网站色视频| 男女那种视频在线观看| 国产高清视频在线观看网站| 国产成人a区在线观看| 长腿黑丝高跟| 国产激情偷乱视频一区二区| 国产一区二区亚洲精品在线观看| 免费在线观看日本一区| 免费高清视频大片| 精品久久久噜噜| 国产精品人妻久久久影院| 天堂影院成人在线观看| www.色视频.com| 国产又黄又爽又无遮挡在线| 久久精品国产清高在天天线| 国产综合懂色| 十八禁网站免费在线| 欧美潮喷喷水| 欧美日韩中文字幕国产精品一区二区三区| 成人一区二区视频在线观看| 久久人人爽人人爽人人片va| 国产精品野战在线观看| 成人特级av手机在线观看| netflix在线观看网站| 男女之事视频高清在线观看| 成年版毛片免费区| 69av精品久久久久久| 在线a可以看的网站| 免费观看的影片在线观看| 人妻夜夜爽99麻豆av| av女优亚洲男人天堂| 99久久久亚洲精品蜜臀av| 国产精品一区www在线观看 | 一区二区三区四区激情视频 | 午夜福利在线观看吧| 国产视频一区二区在线看| 午夜精品久久久久久毛片777| 波多野结衣高清无吗| 啦啦啦啦在线视频资源| 久久精品国产自在天天线| 别揉我奶头 嗯啊视频| 他把我摸到了高潮在线观看| 男女那种视频在线观看| 色哟哟·www| 欧美日韩国产亚洲二区| 欧美bdsm另类| 中文字幕人妻熟人妻熟丝袜美| 国产精品久久久久久精品电影|