• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合信息擾動與特征解耦的單樣本語音轉(zhuǎn)換

    2024-10-14 00:00:00王光劉宗澤董浩姜彥吉
    計算機應(yīng)用研究 2024年10期

    摘 要:單樣本語音轉(zhuǎn)換的特性是利用單條目標(biāo)說話人的語音樣本即可實現(xiàn)身份的轉(zhuǎn)換,但由于聲學(xué)特征呈現(xiàn)復(fù)雜的相互作用和動態(tài)變化,現(xiàn)有方法難以充分將單樣本語音中的說話人音色與其他聲學(xué)特征解耦,導(dǎo)致轉(zhuǎn)換音頻在聽覺上仍與源說話人的音色特征相似,存在說話人音色泄露情況。為此提出一種融合信息擾動與特征解耦的單樣本語音轉(zhuǎn)換模型,即IPFD-VC模型。首先,引入信息擾動模塊對語音信號進(jìn)行三次擾動操作,去除輸入內(nèi)容和韻律編碼器中的冗余信息;其次,將處理后的語音信號送入各編碼器,并結(jié)合最小化互信息策略進(jìn)一步解耦聲學(xué)特征,降低不同特征與說話人音色特征的相關(guān)性;最后通過解碼器及聲碼器輸出轉(zhuǎn)換音頻。實驗結(jié)果表明:IPFD-VC模型轉(zhuǎn)換音頻的語音自然度和說話人相似度分別達(dá)到3.72和3.68,與目前先進(jìn)的UUVC模型相比,梅爾倒譜失真降低0.26 dB。該模型能夠有效對聲學(xué)特征進(jìn)行解耦,捕獲目標(biāo)說話人音色特征,同時保持源語言內(nèi)容和韻律變化,降低說話人音色泄露風(fēng)險。

    關(guān)鍵詞:單樣本語音轉(zhuǎn)換; 信息擾動; 特征解耦; 說話人音色泄露

    中圖分類號:TP391 文獻(xiàn)標(biāo)志碼:A

    文章編號:1001-3695(2024)10-028-3081-06

    doi:10.19734/j.issn.1001-3695.2024.02.0034

    One-shot voice conversion integrating informationperturbation and feature decoupling

    Wang Guang1, Liu Zongze1, Dong Hao2, Jiang Yanji1

    (1.College of Software, Liaoning Technical University, Huludao Liaoning 125105, China; 2.Suzhou Automotive Research Institute, Tsinghua University, Suzhou Jiangsu 215134, China)

    Abstract:The characteristic of one-shot voice conversion is the ability to transform identity using only a single speech sample from the target speaker. However, the intricate interactions and dynamic variations of acoustic features pose challenges for existing methods to fully disentangle the speaker’s timbre from other acoustic features, resulting in the leakage of the original speaker’s timbre in the converted audio. To tackle this challenge, this paper proposed the IPFD-VC model to incorporate information perturbation and feature decoupling. The model initiated three perturbation operations to the voice signal through an information perturbation module in order to remove redundant information from input and the prosody encoder. Then it enabled to feed the processed signal into each encoders. The model employed a strategy of minimizing mutual information to further decouple the acoustic features, thereby diminishing their correlation with the speaker’s timbre characteristics. The decoder and vocoder subsequently output the convert audio. The experiments show that the IPFD-VC model achieves scores of 3.72 for voice naturalness and 3.68 for speaker similarity. In comparison to the advanced UUVC model, the model reduced the Mel-cepstral distortion by 0.26 dB. The IPFD-VC model effectively decouples acoustic features, captures the target speaker’s timbre, preserves the source language content and rhythmic variations, and mitigates the risk of speaker timbre leakage.

    Key words:single-sample voice conversion; information perturbation; feature decoupling; speaker voice leakage

    0 引言

    語音轉(zhuǎn)換(voice conversion)是一種在保持語言內(nèi)容和韻律變化的情況下,將源說話人的聲音轉(zhuǎn)換為目標(biāo)說話人的技術(shù)[1],在多媒體娛樂、智能家居、醫(yī)療輔助等多個領(lǐng)域中具有廣泛的應(yīng)用。隨著深度學(xué)習(xí)的發(fā)展,研究方向已從低效的參數(shù)方法[2,3]轉(zhuǎn)向基于神經(jīng)網(wǎng)絡(luò)的語音轉(zhuǎn)換技術(shù)[4,5],語音轉(zhuǎn)換質(zhì)量得到較大提升,但是需要豐富且高質(zhì)量的標(biāo)準(zhǔn)錄音數(shù)據(jù)集進(jìn)行訓(xùn)練。然而在個性化語音交互的實際場景中,目標(biāo)說話人的語音樣本采集難度大、成本高,用于深度學(xué)習(xí)模型訓(xùn)練的樣本數(shù)不足,易導(dǎo)致過擬合。

    因此如何在有限的樣本下進(jìn)行高質(zhì)量語音轉(zhuǎn)換引發(fā)了人們的探索。單樣本語音轉(zhuǎn)換(one-shot voice conversion)又被稱為任意到任意(any-to-any)的語音轉(zhuǎn)換,旨在轉(zhuǎn)換過程中,僅使用來自任意目標(biāo)說話人的單條語音樣本,即可實現(xiàn)從任何源說話人到任意目標(biāo)說話人的身份轉(zhuǎn)換,該技術(shù)對語音樣本數(shù)量要求較低,因此更加適用于實際場景中。為實現(xiàn)單樣本語音轉(zhuǎn)換,較為流行的方法是采用特征解耦,模型需要學(xué)習(xí)源說話人與目標(biāo)說話人語音中所有的潛在聲學(xué)特征,并將說話人音色特征與其他聲學(xué)特征盡可能地分離,解耦是否充分對于實現(xiàn)單樣本語音轉(zhuǎn)換至關(guān)重要。早期特征解耦方法主要采用聯(lián)合說話人編碼器,將說話人音色特征與內(nèi)容特征分離,AutoVC[6]通過結(jié)合生成對抗網(wǎng)絡(luò)(GAN)和條件變分自動編碼器(CVAE),在內(nèi)容編碼器上提取不同維度的瓶頸特征,使內(nèi)容特征與說話人音色特征進(jìn)行分離。Liu等人[7]采用i-vector表示源說話人音色特征,并利用語音后驗圖(PPG)表示與說話人無關(guān)的特征,以實現(xiàn)特征的解耦。AGAIN-VC[8]通過自適應(yīng)實例歸一化,可以較好地分離說話人音色特征和內(nèi)容特征。矢量量化 (VQ)是一種有效的數(shù)據(jù)壓縮技術(shù),可以將連續(xù)數(shù)據(jù)量化為離散數(shù)據(jù)[9]。VQVC[10]僅通過重建損失解開內(nèi)容特征和說話人音色特征。VQVC+[11]通過學(xué)習(xí)矢量量化表示,以及使用U-Net網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)一步改進(jìn)了內(nèi)容特征分離。但由于VQ的離散性,內(nèi)容信息提取完整較為困難。Zhang等人[12]對源說話人音色特征進(jìn)行解耦,并引入目標(biāo)說話人嵌入進(jìn)行對抗性訓(xùn)練,保留了較好的內(nèi)容特征。

    為了提升轉(zhuǎn)換音頻的自然度,科研人員開始嘗試對韻律特征解耦,Helander等人[13]研究發(fā)現(xiàn)韻律在構(gòu)成完整的語音中起著關(guān)鍵作用,與表達(dá)內(nèi)容密切相關(guān),是提高轉(zhuǎn)換音頻自然度的重要因素之一。Wang等人[14]將經(jīng)過目標(biāo)說話人歸一化的音高輪廓輸入解碼器,并進(jìn)行語音重建。SpeechSplit[15]對內(nèi)容、說話人音色和音高進(jìn)行獨立建模,通過分階段地將對應(yīng)特征輸入編碼器,并手動微調(diào)從中提取的瓶頸特征,以實現(xiàn)更為有效的解耦。AutoPST[16]利用基于相似性的重采樣技術(shù),通過自動編碼器對韻律特征進(jìn)行單獨建模。SpeechSplit2.0[17]與SpeechSplit具有相似的結(jié)構(gòu),無須調(diào)整自動編碼器的瓶頸特征。SRDVC[18]利用基于梯度反轉(zhuǎn)層的對抗性互信息學(xué)習(xí),對音高及節(jié)奏進(jìn)行建模。最新的研究UUVC[19]采用級聯(lián)模塊化結(jié)構(gòu),旨在實現(xiàn)音調(diào)和說話人音色的解耦,該系統(tǒng)通過自監(jiān)督學(xué)習(xí)的方法,利用離散語音單元作為語言表示,從而進(jìn)行單樣本語音轉(zhuǎn)換。

    上述方法為高質(zhì)量單樣本語音轉(zhuǎn)換提供良好的開端,但解耦程度難以衡量,同時在訓(xùn)練過程中未對說話人音色、內(nèi)容和韻律之間的相關(guān)性進(jìn)行約束,導(dǎo)致解耦不充分,造成說話人音色泄露的問題[20],即轉(zhuǎn)換音頻呈現(xiàn)源說話人或介于兩者之間的音色,從而導(dǎo)致語音轉(zhuǎn)換性能下降。

    在前人的研究基礎(chǔ)上,結(jié)合對語音聲學(xué)特征的分析,如說話人音色、內(nèi)容和韻律特征,設(shè)計融合信息擾動與特征解耦的單樣本語音轉(zhuǎn)換模型,即IPFD-VC模型,采用端到端結(jié)構(gòu)。IPFD-VC在時域和頻域上對語音信號進(jìn)行三次信息擾動[21],對語音信號中冗余的聲學(xué)特征進(jìn)行調(diào)整,引導(dǎo)編碼器專注于學(xué)習(xí)穩(wěn)定特征,并排除無關(guān)信息,為后續(xù)解耦提供堅實基礎(chǔ);在訓(xùn)練期間,通過最小化互信息的變分對比對數(shù)上界(vCLUB)[22],進(jìn)一步將聲學(xué)特征進(jìn)行解耦,減少不同聲學(xué)嵌入之間的相關(guān)性。

    本文的主要工作如下:a)設(shè)計了一種新穎的單樣本語音轉(zhuǎn)換模型,可在個性化語音數(shù)據(jù)有限的實際場景中,實現(xiàn)任意說話人之間的語音轉(zhuǎn)換;b)提出一種融合信息擾動與結(jié)合最小化互信息策略的特征解耦的方法,能夠?qū)μ崛〉降奶卣鬟M(jìn)行相關(guān)性約束,使編碼器專注于處理對應(yīng)的聲學(xué)特征。實驗結(jié)果表明,IPFD-VC模型轉(zhuǎn)換的音頻擁有更好的語音相似度和語言自然度,可以有效緩解說話人音色泄露問題。

    1 IPFD-VC模型

    本章介紹融合信息擾動與特征解耦的高質(zhì)量單樣本語音轉(zhuǎn)換模型的過程方法。

    單樣本語音轉(zhuǎn)換模型的性能取決于對聲學(xué)特征的解耦程度以及重構(gòu)能力。由于聲學(xué)特征之間解耦不充分,從源說話人語音中提取的內(nèi)容特征與韻律特征仍摻雜源說話人的音色信息,并與目標(biāo)說話人的音色特征一同送入解碼器和聲碼器進(jìn)行語音轉(zhuǎn)換,導(dǎo)致轉(zhuǎn)換后的音頻在聽覺上仍與源說話人的音色特征相似,造成說話人音色泄露。IPFD-VC為消除轉(zhuǎn)換音頻中說話人音色泄露問題,首先采用信息擾動模塊,去除送入內(nèi)容編碼器和韻律編碼器中的冗余信息,使編碼器專注于提取對應(yīng)類別特征;其次使用最小化互信息的變分對數(shù)上界,進(jìn)一步將說話人音色特征與其他聲學(xué)特征進(jìn)行解耦,IPFD-VC模型框架如圖1所示。

    1.1 信息擾動

    語音中融合多種聲學(xué)特征,展現(xiàn)出復(fù)雜的相互作用和動態(tài)變化,Choi等人[23]將未經(jīng)處理的語音梅爾譜圖送入wav2vec內(nèi)容編碼器提取特征,并將其輸入神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,成功實現(xiàn)梅爾譜圖的重構(gòu)。這證實內(nèi)容編碼器不僅捕捉到豐富的內(nèi)容信息,同時摻雜了與音調(diào)和說話人身份相關(guān)的特征[24]。當(dāng)僅使用音高編碼器進(jìn)行特征提取,并嘗試重建梅爾譜圖時,仍然可以觀察到與說話人身份相關(guān)的信息[25],導(dǎo)致說話人音色特征泄露。為了提高模型性能,并確保各編碼器能夠?qū)WW(xué)習(xí)特定目標(biāo),本模型采用信息擾動方法,有針對性地消除源語音中存在的冗余信息,從而避免模型學(xué)習(xí)無關(guān)特征。

    具體而言,內(nèi)容編碼器旨在從源語音中提取與內(nèi)容相關(guān)的特征,而韻律編碼器專注于捕捉與韻律有關(guān)的特征。IPFD-VC模型在訓(xùn)練內(nèi)容編碼器和韻律編碼器之前,設(shè)計了信息擾動模塊,包含三種語音信號擾動函數(shù),確保模型的訓(xùn)練過程更為精準(zhǔn)和高效。通過引入共振峰移位(fs)[26]函數(shù),從均勻分布U(1.2,1.5)中隨機選取共振峰移位的比率,對源語音的共振峰進(jìn)行調(diào)整,從而直接改變說話人的音色特質(zhì)。通過引入?yún)?shù)均衡器(peq)[27]進(jìn)行隨機頻率整形,進(jìn)一步為防止說話人音色泄露到內(nèi)容與音高中,刪除與說話人相關(guān)的特征,隨機頻率整形過程描述如下:

    HPEQ=HLSHHS∏8i=1HPeaki(1)

    其中:HLS是低傾斜濾波器;HPeak代表峰值濾波器;HHS是高傾斜濾波器,每個濾波器都是二階IIR濾波器。HLS和HHS的截止頻率分別固定為60 Hz和10 kHz。HPeaki的中心頻率以均勻分布在傾斜濾波器對數(shù)尺度上。

    音調(diào)是韻律表達(dá)的關(guān)鍵要素之一,通過引入音調(diào)隨機化(pr)[26]技術(shù),從均勻分布U(1.1,1.6)和U(1.1,1.5)中隨機選取基音平移比和基音范圍比,使得源語音擺脫對特定音調(diào)范圍的依賴,消除韻律特征,從而確保語音信號僅保留內(nèi)容信息。

    如圖2所示:給定一段語音X,提取梅爾譜圖X={x1,x2,…,xT},其中T是語音幀的總數(shù),而Xc、Xs和Xr分別表示包含內(nèi)容、說話人音色和韻律信息的梅爾譜圖。Xs~和Xr~分別代表包含使用信息擾動模塊進(jìn)行處理后的說話人音色信息和韻律信息的梅爾譜圖。IPFD-VC模型的信息擾動模塊具體實現(xiàn)過程為:將語音沿時間維度進(jìn)行兩段信息擾動操作,第一階段使用共振峰移位與隨機頻率整形的組合,消除源說話人的音色,而保留其韻律特性;該階段獲取韻律特征Xr的過程描述如下:

    Xr=peq(fs(X))(2)

    其中:Xr不包含源語音中與說話人相關(guān)的信息,隨后將Xr作為韻律特征輸入到韻律編碼器中。

    在第二階段采用音調(diào)隨機化的方法,消除源說話人音高,同時確保內(nèi)容信息得以保留,該階段獲取內(nèi)容特征Xc的過程描述如下:

    Xc=pr(peq(fs(X)))(3)

    其中:輸出的Xc不包含源語音的說話人音色信息及韻律信息。將調(diào)整后的Xc送入內(nèi)容編碼器進(jìn)行特征提取,使得內(nèi)容編碼器能夠?qū)W⒂趯W(xué)習(xí)和捕捉語言內(nèi)容特征。

    1.2 模型架構(gòu)

    在IPFD-VC模型結(jié)構(gòu)中,包含信息擾動模塊、編碼器、解碼器和聲碼器四個核心部分。其中編碼器由內(nèi)容編碼器、韻律編碼器和說話人編碼器組成。

    在SpeechSplit的模型基礎(chǔ)上,內(nèi)容編碼器(Ec)沿用SpeechSplit的架構(gòu)進(jìn)行內(nèi)容特征提取,將經(jīng)過擾動處理的語音(Xc,Xr~,Xs~)參數(shù)化為梅爾譜圖(Xc,Xr~,Xs~),并將其輸入到卷積層進(jìn)行特征提取,隨后送入兩個雙向LSTM層進(jìn)行前后文整合,最后通過下采樣將時間維度減半至T/2,在保留內(nèi)容特征的同時,提高模型的計算效率和性能,提取的內(nèi)容嵌入(Zc)表示如下:

    Zc=Ec(Xc,Xr~,Xs~)(4)

    為了增加轉(zhuǎn)換音頻的自然度,IPFD-VC模型中引入韻律編碼器(Er),對話語級的韻律特征進(jìn)行單獨建模。首先將經(jīng)過擾動處理的語音(Xr,Xs~)參數(shù)化為梅爾譜圖(Xr,Xs~),并將其輸入到韻律編碼器中。該編碼器由三個5×1的卷積層構(gòu)成,采用ReLU激活函數(shù),并在每層之后進(jìn)行組歸一化處理,該方法對小批量或大尺寸數(shù)據(jù)具有優(yōu)勢,可提高訓(xùn)練速度并增強模型泛化能力。經(jīng)過組歸一化后的輸出被送入一個雙向LSTM層,以減少特征維度。韻律編碼器的詳細(xì)設(shè)計如圖2(b)所示,提取的韻律嵌入(Zr)表示如下:

    Zr=Er(Xr,Xs~)(5)

    說話人編碼器由以下四個部分組成:ConvBank層、三個一維卷積與激活函數(shù)的組合、線性層與激活函數(shù)的組合,以及平均池化層。ConvBank層用于從輸入序列中精確提取局部特征和上下文信息,擴大感受野范圍,進(jìn)而增加對長時序信息的捕獲能力,為后續(xù)階段提供更深入和全面的特征表示;一維卷積與ReLU激活函數(shù)組合優(yōu)化特征提取的非線性能力;平均池化層強化對全局信息的關(guān)注,精確捕捉說話人身份特征;線性層與ReLU激活函數(shù)進(jìn)一步提升映射能力,確保說話人編碼器的高效性和準(zhǔn)確性。說話人編碼器的詳細(xì)設(shè)計如圖2(b)所示,提取的說話人嵌入(Zs)表示如下:

    Zs=Es(Xs)(6)

    為確保內(nèi)容、說話人和韻律嵌入具有相同的時間維度,采取以下策略:將內(nèi)容嵌入上采樣至T幀,說話人嵌入被復(fù)制T次,將三種嵌入進(jìn)行連接,并一同送入解碼器。解碼器對隱藏嵌入進(jìn)行沿通道維度連接,隨后將其送入兩個雙向LSTM層、線性層以及Postnet層。線性層用作調(diào)整特征維度,Postnet層通過其卷積操作進(jìn)一步細(xì)化和優(yōu)化解碼器的輸出,解碼器詳細(xì)結(jié)構(gòu)如圖2(c)所示。解碼器Ds重建語音頻譜圖S的表示如下:

    S=Ds(Zc,Zs,Zr)(7)

    在訓(xùn)練過程中,解碼器Ds的輸出旨在學(xué)習(xí)準(zhǔn)確地重構(gòu)輸入的頻譜圖S,為實現(xiàn)這一目標(biāo),解碼器與編碼器聯(lián)合訓(xùn)練,通過最小化重建損失來優(yōu)化模型性能:

    LDs=Euclid Math TwoEAp[‖S-X‖21+‖S-X‖22](8)

    1.3 損失函數(shù)

    互信息(mutual information,MI)描述的是衡量隨機變量相互依賴的程度。兩個不同變量之間依賴關(guān)系的度量可以表述為

    I(X,Y)=∫X∫YP(X,Y)logP(X,Y)P(X)P(Y)(9)

    其中:P(X)和P(Y)分別是X和Y的邊緣分布;P(X,Y)表示X和Y的聯(lián)合分布。通過對比學(xué)習(xí)的策略,利用正樣本和負(fù)樣本之間的條件概率差異,使用變分對比對數(shù)上界(vCLUB)作為計算不相關(guān)信息的互信息上限的估計量?;バ畔⒌膙CLUB無偏估計定義為

    I^(X,Y)=Euclid Math TwoEApp(X,Y)[log qθ(X|Y)]-

    Euclid Math TwoEApp(X)Euclid Math TwoEApp(Y)[log qθ(X|Y)](10)

    其中:X,Y∈{Zc,Zs,Zr},qθ(X|Y)是一個變分分布,用參數(shù)θ來近似p(X|Y)。無偏估計樣本{xi,yi}的vCLUB的無偏估計量表示為

    I^(X,Y)=1N2∑Ni=1∑Nj=1[log qθ(xi|yi)-log qθ(xj|yi)](11)

    其中:xi、yi∈{Zci,Zsi,Zri },通過最小化式(11),可以有效減少不同語音表示之間的相互依賴。

    本模型引入說話人MI損失,在訓(xùn)練過程中,可以通過最小化MI損失來降低內(nèi)容、韻律特征與說話人音色特征之間的相關(guān)性,解決特征之間的信息交叉或泄露問題。將說話人MI損失應(yīng)用于內(nèi)容嵌入(Zc)、說話人嵌入(Zs)、韻律嵌入(Zr),說話人MI損失(LSMI),如式(12)所示。

    LSMI=I^(Zs,Zc)+I^(Zs,Zr)+I^(Zc,Zr)(12)

    在每次迭代的訓(xùn)練中,首先進(jìn)行變分近似網(wǎng)絡(luò)的優(yōu)化,其目標(biāo)是最大化給定條件下的對數(shù)似然函數(shù)log qθ(X|Y),隨后進(jìn)行IPFD-VC模型的優(yōu)化。IPFD-VC模型的總體損失可以計算為

    LALL=LDs+λSMILSMI(13)

    其中:λSMI是來調(diào)節(jié)說話人MI損失以增強解耦的權(quán)重參數(shù)。

    1.4 IPFD-VC模型工作流程

    IPFD-VC模型的工作流程包括訓(xùn)練階段和轉(zhuǎn)換階段。在模型的訓(xùn)練階段,首先對源語音和經(jīng)過擾動處理后的語音進(jìn)行預(yù)處理并提取梅爾譜圖,隨后將梅爾譜圖分別輸入說話人編碼器、韻律編碼器和內(nèi)容編碼器中,以分離和學(xué)習(xí)語音中的不同特征,通過迭代計算損失函數(shù)不斷優(yōu)化模型,最后訓(xùn)練得到能夠精確捕捉和再現(xiàn)語音特征的說話人編碼器Es、韻律編碼器Er、內(nèi)容編碼器Ec和解碼器Ds。

    算法1 IPFD-VC模型的訓(xùn)練算法

    輸入:梅爾譜圖(Xc,Xr~,Xs~)、(Xr,Xs~)、Xs,學(xué)習(xí)率參數(shù)為α和β。

    輸出:訓(xùn)練得到Es、Er、Ec和Ds。

    a)i=1 //設(shè)置迭代次數(shù)

    b)for i≤N do

    c) Zc←f{(Xc,Xr~,Xs~);Ec};Zr←f{(Xr,Xs~);Er};

    Zr←f{Xs;Es};

    d) θX,Y←θX,Y+αθX,YLX,Y,X,Y∈{Zc、Zr、Zs}

    //每次進(jìn)行更新時, 計算對數(shù)似然函數(shù)LX,Y=log qθ(X|Y)

    e) θ←θ-βθLALL,θ∈{Es、Er、Ec、Ds}

    //每次進(jìn)行更新時, 計算模型的整體損失LALL

    f)end for

    g)return Es、Er、Ec、Ds

    在轉(zhuǎn)換階段,將源說話人和目標(biāo)說話人的語音同時輸入進(jìn)IPFD-VC模型中,得到由編碼器重構(gòu)的轉(zhuǎn)換音頻梅爾譜圖,隨后,將重構(gòu)的梅爾譜圖輸入到預(yù)先訓(xùn)練好的神經(jīng)聲碼器中,最終生成轉(zhuǎn)換音頻。

    2 實驗及結(jié)果分析

    2.1 實驗設(shè)置

    實驗選取語音轉(zhuǎn)換研究主流使用的CSTR-VCTK語料庫[28],該數(shù)據(jù)集包括109位英語說話人的語音樣本,每位說話人閱讀約400個句子。隨機選取89位說話人作為訓(xùn)練集,10位說話人作為驗證集,其余10位說話人用于測試集。

    將所有語音下采樣至16 kHz,對音頻進(jìn)行預(yù)加重、分幀,并進(jìn)行加窗操作,采用窗口大小為1 024,滑動大小為256的Hann窗,并進(jìn)行短時傅里葉變換后,隨后采用FFT大小為1 024的短時傅里葉變換,用來計算梅爾譜圖,使用跨度為90 Hz~7.6 kHz的80通道梅爾濾波器組將STFT幅度轉(zhuǎn)換為梅爾標(biāo)度。

    IPFD-VC模型在單個NVIDIA 3060 GPU上進(jìn)行訓(xùn)練,并使用ADAM優(yōu)化器,學(xué)習(xí)率為E-4,β1=0.9,β2=0.98,批量大小為16,設(shè)置λSMI=0.01,并使用預(yù)訓(xùn)練的WaveNet聲碼器[29]將輸出的梅爾譜圖轉(zhuǎn)換回波形。

    在實驗中選取AutoVC[6]、AGAIN-VC[8]、SRDVC[18]和UUVC[19]等先進(jìn)的基線模型進(jìn)行比較,所有基線模型均使用與IPFD-VC相同的訓(xùn)練集、驗證集和測試集。

    2.2 語音轉(zhuǎn)換效果評價

    2.2.1 主觀評價

    實驗采用的主觀評價指標(biāo)為語音自然度平均意見得分(MOS)和說話人相似度平均意見得分(SMOS)。測試人員使用五分制對轉(zhuǎn)換后的語音進(jìn)行評分,評分標(biāo)準(zhǔn)如下:5分代表“優(yōu)秀”,4分表示“良好”,3分為“一般”,2分對應(yīng)“差”,1分表示“很差”。分?jǐn)?shù)越高表明轉(zhuǎn)換方法性能越好,轉(zhuǎn)換音頻聽起來更自然,轉(zhuǎn)換音頻與目標(biāo)說話人的音色更為接近。

    主觀測試共有15名20~30歲的研究生聽眾參與,其中10人(5男5女)具有語音測評經(jīng)驗,另外5人(2男3女)則為隨機選取。在轉(zhuǎn)換場景為Seen-Seen、Seen-Unseen和Unseen-Unseen的測試中,Seen代表說話人出現(xiàn)在訓(xùn)練集中,Unseen表示說話人從未在訓(xùn)練集中出現(xiàn)過,即任意說話人。每個場景分別隨機選取10個語音對,每個語音對包含源音頻、目標(biāo)說話人音頻,以及使用IPFD-VC與基線模型分別對同一條語音進(jìn)行轉(zhuǎn)換后得到的音頻。15名聽眾采用MOS評分與SMOS評分依次進(jìn)行評價。

    在語音自然度測試中,聽眾需聽取每個語音對中,按照隨機順序排列的不同模型轉(zhuǎn)換產(chǎn)生的音頻,對音頻質(zhì)量進(jìn)行打分,并計算MOS評分。在說話人相似度測試中,給出源說話人和目標(biāo)說話人的真實語音,隨后聽眾需要聽取每個語音對中按照隨機順序排列的不同模型轉(zhuǎn)換產(chǎn)生的音頻,與真實語音的音色進(jìn)行對比并打分,計算SMOS評分,實驗采用的置信區(qū)間為95%。語音自然度測試和說話人相似度測試的實驗結(jié)果如表1所示。

    在三種不同的場景中,IPFD-VC的MOS評分分別達(dá)到了3.72、3.67和3.68,評分僅在Seen-Seen場景中低于UUVC模型0.02,其余場景均超越三種基線模型,在Unseen-Unseen場景中,領(lǐng)先UUVC模型0.10,表明IPFD-VC模型在音頻轉(zhuǎn)換質(zhì)量方面具備的顯著優(yōu)勢,將通過擾動處理后的語音送入話語級韻律建模的編碼器,能夠準(zhǔn)確地捕捉源說話人語音的韻律和細(xì)節(jié),使得轉(zhuǎn)換后音頻更加真實和自然。

    IPFD-VC的SMOS評分在Seen-Seen和Seen-Unseen的情境中領(lǐng)先三種基線模型0.03以上;在Unseen-Unseen的情境中,IPFD-VC較UUVC提升0.07,呈現(xiàn)出領(lǐng)先的性能水平。值得注意的是,IPFD-VC在這三種情境中的SMOS評分都非常接近,這表明IPFD-VC能夠有效地分離聲學(xué)特征,并成功將目標(biāo)說話人的音色特征轉(zhuǎn)移至源語音中。這不僅提高了轉(zhuǎn)換音頻的說話人相似度,同時降低說話人音色特征泄露的風(fēng)險。

    2.2.2 客觀評價

    在本實驗中,客觀評價指標(biāo)使用以下三種方法:梅爾倒譜失真(MCD)、單詞錯誤率(WER)和logF0的皮爾森相關(guān)系數(shù)(logF0 PCC)。

    梅爾倒譜失真(MCD): 其是一種衡量語音信號質(zhì)量的指標(biāo),計算公式如下。

    MCD=10ln 10 2∑Nn=1(Cc-Ct)2(14)

    其中:Ct表示目標(biāo)語音的梅爾倒譜系數(shù);Cc表示轉(zhuǎn)換后的語音梅爾倒譜系數(shù)。MCD數(shù)值越低,失真程度越小,代表轉(zhuǎn)換音頻更接近自然語音,同時MCD用于計算轉(zhuǎn)換語音頻譜和真實目標(biāo)語音頻譜之間的距離,也可以代表轉(zhuǎn)換音頻與目標(biāo)說話人的相似程度。

    單詞錯誤率(WER):驗證轉(zhuǎn)換音頻是否能夠保留源語音的語言內(nèi)容,其中WER是由ESPnet2模型中基于Transformer的自動語音識別(ASR)模塊[30]計算得到,該模塊由Librispeech語料庫進(jìn)行訓(xùn)練。

    logF0的皮爾森相關(guān)系數(shù)(logF0 PCC):用于驗證語音信號中基頻(F0)的相關(guān)性,即驗證轉(zhuǎn)換音頻的語調(diào)變化,計算源語音和轉(zhuǎn)換后語音的F0之間的皮爾森相關(guān)系數(shù),并對系數(shù)進(jìn)行對數(shù)轉(zhuǎn)換,將取值控制在[-1,1],其中1表示完全正相關(guān),-1表示完全負(fù)相關(guān),0表示沒有線性關(guān)系。在轉(zhuǎn)換場景為Seen-Seen、Seen-Unseen和Unseen-Unseen的測試中,每個場景分別隨機選取50個語音對,并計算三種客觀指標(biāo)的平均值,實驗結(jié)果如圖3所示。

    在MCD對比實驗中,IPFD-VC模型呈現(xiàn)出最低的MCD值,僅為5.48 dB,相較于性能先進(jìn)的UUVC模型,IPFD-VC的MCD值減少0.26 dB,證明IPFD-VC模型可以提高轉(zhuǎn)換語音的質(zhì)量,提升語音自然度。

    在進(jìn)行WER測試中,IPFD-VC與UUVC相比具有相似的單詞錯誤率,與SRDVC相比,單詞錯誤率降低3.66%,并遠(yuǎn)低于AutoVC和AGAIN-VC模型,進(jìn)一步證明了其在信息擾動和特征解耦過程中,能夠更有效地保留源語音的內(nèi)容信息,保持內(nèi)容相似度。

    在logF0 PCC的對照實驗中,IPFD-VC模型與SRDVC展現(xiàn)出相似的性能,都能有效地轉(zhuǎn)換并保留從源語音到目標(biāo)語音的韻律特性。但SRDVC較IPFD-VC在數(shù)值上提升0.015,因為SRDVC的音高表示直接從給定的音高輪廓中提取的,而未進(jìn)行特征解耦與編碼過程。IPFD-VC仍高于另外三種基線模型,較高的logF0 PCC表明經(jīng)過擾動處理后的音頻可以很好地保持目標(biāo)說話人的韻律特征,從而提升語音的相似度和可理解性。

    2.3 頻譜分析

    圖4顯示了本模型在轉(zhuǎn)換階段生成的梅爾譜圖,其中圖(a)是來自女性源說話人的梅爾譜圖,圖(b)是男性目標(biāo)說話人的梅爾譜圖,圖(c)是轉(zhuǎn)換音頻的梅爾譜圖。橫軸代表時間,縱軸代表頻率。藍(lán)色為音高曲線,黃色為能量曲線。

    如圖所示,可以觀察到源語音的梅爾譜圖峰值間隔相對較短,而經(jīng)過IPFD-VC轉(zhuǎn)換后的梅爾譜圖顯示其峰值間隔更接近于目標(biāo)說話人。在低頻區(qū)域,轉(zhuǎn)換語音的條紋寬度和波動趨勢更加接近目標(biāo)說話人,這表明在特定頻率范圍內(nèi)的聲學(xué)特征得到了有效轉(zhuǎn)換。而在高頻區(qū)域,源說話人的能量曲線呈下降趨勢,而IPFD-VC轉(zhuǎn)換后的語音與目標(biāo)說話人的能量曲線更為相似和飽滿,表明能夠很好地保留目標(biāo)說話人的韻律特征。

    在音調(diào)方面,源說話人的基頻曲線具有明顯的尖銳特點,而經(jīng)過IPFD-VC轉(zhuǎn)換后的語音基頻曲線與目標(biāo)說話人均略微平緩,符合源說話人與目標(biāo)說話人的性別特性。實驗表明IPFD-VC可以進(jìn)一步保持源語言內(nèi)容和韻律變化,增加說話人相似性,減少說話人音色特征泄露問題。

    2.4 消融實驗

    本節(jié)對單樣本語音轉(zhuǎn)換任務(wù)中各模塊的性能影響進(jìn)行深入的分析。消融實驗在Unseen-Unseen情境中進(jìn)行消融實驗,驗證信息擾動模塊和說話人MI損失模塊對模型性能的影響。w/o IP表示去除信息擾動模塊,w/o IP(fs)表示去除信息擾動共振峰移位模塊,w/o IP(pr)表示去除信息擾動音調(diào)隨機化模塊,w/o IP(peq)表示去除信息擾動隨機頻率整形模塊,w/o LSMI表示去除說話人MI損失模塊,結(jié)果如表2所示。

    在MCD得分方面,去除說話人MI損失模塊與去除整體信息擾動模塊相比僅相差0.07 dB,與IPFD-VC相比MCD上升0.74,表明這兩個模塊對保持轉(zhuǎn)換語音頻譜和真實目標(biāo)語音頻譜之間的距離都具有積極意義,能夠進(jìn)一步進(jìn)行特征解耦,并擁有較好的重構(gòu)能力。

    在WER得分方面,去除整體信息擾動模塊與去除共振峰移位+隨機頻率整形模塊的效果相似,與IPFD-VC相比單詞錯誤率上升了9.89%,這一變化相比去除說話人MI損失模塊的影響更為顯著,表明該模塊能夠很好地去除冗余信息,對于保留語音內(nèi)容具有重要作用。

    在logF0 PCC得分方面,去除整體信息擾動模塊和去除音調(diào)隨機化模塊的效果相似,logF0 PCC下降至0.689,表明音調(diào)隨機化模塊能夠很好地去除冗余信息,為后續(xù)模塊進(jìn)一步特征解耦提供了支持。

    3 結(jié)束語

    本研究針對現(xiàn)有單樣本語音轉(zhuǎn)換模型在執(zhí)行轉(zhuǎn)換任務(wù)過程中出現(xiàn)的說話人音色泄露問題,提出了IPFD-VC模型。該模型通過結(jié)合信息擾動和最小化互信息策略,有效減少不同聲學(xué)特征之間的相互依賴,使得編碼器能夠更專注于處理特定的聲學(xué)特征。實驗結(jié)果表明,相較于現(xiàn)有先進(jìn)的基線模型,IPFD-VC模型的轉(zhuǎn)換音頻在主觀評價中,說話人相似度和語言自然度方面均表現(xiàn)出顯著優(yōu)勢,在客觀評價中,MCD僅為5.48 dB,單詞錯誤率降低3.66%,logF0 PCC與基線模型具有相似的性能。在消融實驗中,表明信息擾動模塊與最小化互信息策略能夠提升特征解耦的性能,同時有效地降低了說話人音色特征泄露的潛在風(fēng)險。盡管如此,轉(zhuǎn)換后的語音與真實目標(biāo)語音仍存在一定的差距,在未來的工作中,需要進(jìn)一步提高模型性能,以達(dá)到無限接近真實語音的效果,能夠滿足個性化真實場景的需要。

    參考文獻(xiàn):

    [1]Sisman B, Yamagishi J, King S, et al. An overview of voice conversion and its challenges: from statistical modeling to deep learning[J]. IEEE/ACM Trans on Audio, Speech, and Language Proces-sing, 2020, 29: 132-157.

    [2]Godoy E, Rosec O, Chonavel T. Voice conversion using dynamic frequency warping with amplitude scaling, for parallel or nonparallel corpora[J]. IEEE Trans on Audio, Speech, and Language Processing, 2011, 20(4): 1313-1323.

    [3]Wu Zhizheng, Virtanen T, Chng E S, et al. Exemplar-based sparse representation with residual compensation for voice conversion[J]. IEEE/ACM Trans on Audio, Speech, and Language Proces-sing, 2014, 22(10): 1506-1521.

    [4]Fang Fuming, Yamagishi J, Echizen I, et al. High-quality nonparallel voice conversion based on cycle-consistent adversarial network[C]//Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway,NJ:IEEE Press, 2018: 5279-5283.

    [5]Ding Shaojin, Gutierrez-Osuna R. Group latent embedding for vector quantized variational autoencoder in non-parallel voice conversion[C]//Proc of InterSpeech. 2019: 724-728.

    [6]Qian Kaizhi, Zhang Yang, Chang Shiyu, et al. AutoVC: zero-shot voice style transfer with only autoencoder loss[C]//Proc of International Conference on Machine Learning. 2019: 5210-5219.

    [7]Liu Songxiang, Zhong Jinghua, Sun Lifa, et al. Voice conversion across arbitrary speakers based on a single target-speaker utterance[C]//Proc of InterSpeech. 2018: 496-500.

    [8]Chen Yenhao, Wu Dayi, Wu Tsunghan, et al. AGAIN-VC: a one-shot voice conversion using activation guidance and adaptive instance normalization[C]//Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway,NJ:IEEE Press, 2021: 5954-5958.

    [9]Chorowski J, Weiss R J, Bengio S, et al. Unsupervised speech representation learning using WaveNet autoencoders[J]. IEEE/ACM Trans on Audio, Speech, and Language Processing, 2019, 27(12): 2041-2053.

    [10]Wu Dayi, Lee Hungyi. One-shot voice conversion by vector quantization[C]//Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway,NJ:IEEE Press, 2020: 7734-7738.

    [11]Wu Dayi, Chen Yenhao, Lee H. VQVC+: one-shot voice conversion by vector quantization and U-Net architecture[EB/OL]. (2020-06-07). https://arxiv.org/abs/2006. 04154.

    [12]Zhang Haozhe, Cai Zexin, Qin Xiaoyi, et al. SIG-VC: a speaker information guided zero-shot voice conversion system for both human beings and machines[C]//Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway,NJ:IEEE Press, 2022: 6567-65571.

    [13]Helander E E, Nurminen J. A novel method for prosody prediction in voice conversion[C]//Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway,NJ:IEEE Press, 2007: IV-509-IV-512.

    [14]Wang Disong, Deng Liqun, Yeung Y, et al. VQMIVC: vector quantization and mutual information-based unsupervised speech representation disentanglement for one-shot voice conversion[EB/OL]. (2021-06-18). https://arxiv.org/abs/2106.10132.

    [15]Qian Kaizhi, Zhang Yang, Chang Shiyu, et al. Unsupervised speech decomposition via triple information bottleneck[C]//Proc of International Conference on Machine Learning. 2020: 7836-7846.

    [16]Qian Kaizhi, Zhang Yang, Chang Shiyu, et al. Global prosody style transfer without text transcriptions[C]//Proc of International Confe-rence on Machine Learning. 2021: 8650-8660.

    [17]Chan Chakho, Qian Kaizhi, Zhang Yang, et al. SpeechSplit2.0: unsupervised speech disentanglement for voice conversion without tuning autoencoder bottlenecks[C]//Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway,NJ:IEEE Press, 2022: 6332-6336.

    [18]Yang SiCheng, Tantrawenith M, Zhuang Haolin, et al. Speech representation disentanglement with adversarial mutual information learning for one-shot voice conversion[EB/OL]. (2022-08-18).https://arxiv.org/abs/2208.08757.

    [19]Chen Liwei, Watanabe S, Rudnicky A. A unified one-shot prosody and speaker conversion system with self-supervised discrete speech units[C]//Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway,NJ:IEEE Press, 2023: 1-5.

    [20]Karlapati S, Moinet A, Joly A, et al. Copycat: many-to-many fine-grained prosody transfer for neural text-to-speech[EB/OL]. (2020-04-30).https://arxiv.org/abs/2004.14617.

    [21]Lei Yi, Yang Shan, Zhu Xinfa, et al. Cross-speaker emotion transfer through information perturbation in emotional speech synthesis[J]. IEEE Signal Processing Letters, 2022, 29: 1948-1952.

    [22]Cheng Pengyu, Hao Weituo, Dai Shuyang, et al. Club: a contrastive log-ratio upper bound of mutual information[C]//Proc of Internatio-nal Conference on Machine Learning. 2020: 1779-1788.

    [23]Choi H S, Lee J, Kim W, et al. Neural analysis and synthesis: reconstructing speech from self-supervised representations[J]. Advances in Neural Information Processing Systems, 2021, 34: 16251-16265.

    [24]Li Jingyi, Tu Weiping, Xiao Li. FreeVC: towards high-quality text-free one-shot voice conversion[C]//Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway,NJ:IEEE Press, 2023: 1-5.

    [25]Lian Zheng, Zhong Rongxiu, Wen Zhengqi, et al. Towards fine-grained prosody control for voice conversion[C]//Proc of the 12th International Symposium on Chinese Spoken Language Processing. Piscataway,NJ:IEEE Press,PejjatBluc5NPh46k670lnyP26GxNmGdekdR918gAms= 2021: 1-5.

    [26]Jadoul Y, Thompson B, De Boer B. Introducing Parselmouth: a Python interface to Praat[J]. Journal of Phonetics, 2018, 71: 1-15.

    [27]Zavalishin V. The art of VA filter design[M]. Berlin: Native Instruments, 2012.

    [28]Yamagishi J, Veaux C, MacDonald K. CSTR VCTK corpus: English multi-speaker corpus for CSTR voice cloning toolkit (version 0.92)[D]. Edinburgh: University of Edinburgh, 2019: 271-350.

    [29]Van Den Oord A, Dieleman S, Zen H, et al. WaveNet: a generative model for raw audio[EB/OL]. (2016). https://arxiv.org/abs/1609. 03499.

    [30]Li Chengda, Shi Jing, Zhang Wangyou, et al. ESPnet-SE: end-to-end speech enhancement and separation toolkit designed for ASR integration[C]//Proc of IEEE Spoken Language Technology Workshop. Piscataway,NJ:IEEE Press, 2021: 785-792.

    国产亚洲精品第一综合不卡| 夜夜爽天天搞| 亚洲人成伊人成综合网2020| 国产激情欧美一区二区| 精品少妇一区二区三区视频日本电影| 天天躁狠狠躁夜夜躁狠狠躁| 麻豆国产97在线/欧美 | 国产v大片淫在线免费观看| 麻豆一二三区av精品| 欧美日韩黄片免| 99re在线观看精品视频| 亚洲无线在线观看| 女警被强在线播放| 亚洲在线自拍视频| 小说图片视频综合网站| 久久婷婷人人爽人人干人人爱| а√天堂www在线а√下载| 精品一区二区三区四区五区乱码| 看片在线看免费视频| 欧美日韩黄片免| 国产精品免费一区二区三区在线| 中国美女看黄片| 欧美丝袜亚洲另类 | 国产爱豆传媒在线观看 | 好看av亚洲va欧美ⅴa在| 天天躁夜夜躁狠狠躁躁| 国产亚洲欧美在线一区二区| bbb黄色大片| 国产99久久九九免费精品| 夜夜看夜夜爽夜夜摸| 国产精品久久久人人做人人爽| 欧美成人性av电影在线观看| 欧美成人免费av一区二区三区| 国产伦一二天堂av在线观看| 成人三级黄色视频| 一夜夜www| 夜夜夜夜夜久久久久| 国产探花在线观看一区二区| 两个人的视频大全免费| 变态另类丝袜制服| 18禁裸乳无遮挡免费网站照片| 禁无遮挡网站| 在线播放国产精品三级| xxx96com| 一区二区三区激情视频| 欧美黑人欧美精品刺激| 国产欧美日韩一区二区精品| 啦啦啦观看免费观看视频高清| 精品国产亚洲在线| 一二三四社区在线视频社区8| 亚洲五月婷婷丁香| 欧美久久黑人一区二区| 国产一区二区三区视频了| 亚洲成人国产一区在线观看| 毛片女人毛片| 一级毛片女人18水好多| 国产精品综合久久久久久久免费| 琪琪午夜伦伦电影理论片6080| 亚洲一卡2卡3卡4卡5卡精品中文| 国产激情欧美一区二区| 18禁观看日本| 91成年电影在线观看| 99久久国产精品久久久| 在线观看舔阴道视频| 此物有八面人人有两片| 久久久精品欧美日韩精品| 精品无人区乱码1区二区| 国产亚洲精品av在线| 国产男靠女视频免费网站| 久久中文看片网| 午夜福利在线观看吧| 国产成人啪精品午夜网站| 欧美不卡视频在线免费观看 | 人妻丰满熟妇av一区二区三区| 国产精品免费视频内射| 黄片小视频在线播放| 久久久久九九精品影院| 中文字幕久久专区| 两个人的视频大全免费| 亚洲人成77777在线视频| 亚洲欧美激情综合另类| 国产免费男女视频| 国内揄拍国产精品人妻在线| www.www免费av| 人妻久久中文字幕网| 亚洲一区中文字幕在线| 在线永久观看黄色视频| 两性夫妻黄色片| 高潮久久久久久久久久久不卡| 亚洲成人久久性| 国产三级黄色录像| 国产区一区二久久| 亚洲av五月六月丁香网| 亚洲,欧美精品.| 欧美乱妇无乱码| 国产探花在线观看一区二区| av中文乱码字幕在线| 精品国产乱码久久久久久男人| www国产在线视频色| 少妇熟女aⅴ在线视频| 色噜噜av男人的天堂激情| 久久亚洲真实| 精品久久久久久久久久免费视频| 三级国产精品欧美在线观看 | 操出白浆在线播放| 国产亚洲精品综合一区在线观看 | 国产片内射在线| 一区二区三区激情视频| 亚洲无线在线观看| 色av中文字幕| 亚洲成人免费电影在线观看| 久久香蕉国产精品| 少妇的丰满在线观看| 婷婷亚洲欧美| 国产高清视频在线观看网站| 成人av在线播放网站| 男男h啪啪无遮挡| 日本五十路高清| 18禁美女被吸乳视频| 亚洲av电影不卡..在线观看| 一区二区三区激情视频| 91成年电影在线观看| 久久久国产成人精品二区| 日韩精品中文字幕看吧| 宅男免费午夜| 狂野欧美白嫩少妇大欣赏| 香蕉久久夜色| 久久亚洲精品不卡| 亚洲成av人片免费观看| 9191精品国产免费久久| 中文字幕人成人乱码亚洲影| 一边摸一边抽搐一进一小说| 高潮久久久久久久久久久不卡| 又粗又爽又猛毛片免费看| 丝袜美腿诱惑在线| 色尼玛亚洲综合影院| 中文亚洲av片在线观看爽| 亚洲精品美女久久av网站| 国产成人一区二区三区免费视频网站| 亚洲国产精品合色在线| 深夜精品福利| 成年免费大片在线观看| av福利片在线观看| 欧美一区二区国产精品久久精品 | 久久久久久九九精品二区国产 | 精品不卡国产一区二区三区| 国产精品日韩av在线免费观看| 国产区一区二久久| 一边摸一边做爽爽视频免费| 国产精品日韩av在线免费观看| 国产单亲对白刺激| 一区二区三区激情视频| 国产精品精品国产色婷婷| 欧美成人免费av一区二区三区| 欧美成人午夜精品| 最近视频中文字幕2019在线8| 久久久久国产一级毛片高清牌| 精品少妇一区二区三区视频日本电影| 人人妻人人澡欧美一区二区| 最近最新中文字幕大全免费视频| 99热这里只有是精品50| 久久久国产欧美日韩av| 俺也久久电影网| 国产1区2区3区精品| 色在线成人网| 高清毛片免费观看视频网站| 黑人操中国人逼视频| 午夜a级毛片| 制服诱惑二区| 特级一级黄色大片| 国产高清视频在线观看网站| 成年女人毛片免费观看观看9| 一级黄色大片毛片| 午夜福利免费观看在线| 欧美另类亚洲清纯唯美| 亚洲精品在线美女| 免费观看人在逋| 欧美大码av| 亚洲全国av大片| 最近最新中文字幕大全免费视频| 啦啦啦韩国在线观看视频| 村上凉子中文字幕在线| 桃红色精品国产亚洲av| 好看av亚洲va欧美ⅴa在| 99久久精品热视频| 18禁黄网站禁片午夜丰满| 在线十欧美十亚洲十日本专区| 一进一出好大好爽视频| 在线看三级毛片| 777久久人妻少妇嫩草av网站| 亚洲精品美女久久av网站| 可以免费在线观看a视频的电影网站| 国产亚洲av高清不卡| 久久久国产精品麻豆| 色综合欧美亚洲国产小说| 亚洲 欧美 日韩 在线 免费| 免费看美女性在线毛片视频| 午夜精品一区二区三区免费看| 色在线成人网| 久9热在线精品视频| 欧美乱色亚洲激情| 十八禁网站免费在线| 欧美3d第一页| 动漫黄色视频在线观看| 亚洲九九香蕉| 级片在线观看| 日本五十路高清| 亚洲精品久久国产高清桃花| 九色国产91popny在线| 久久久久亚洲av毛片大全| 男女视频在线观看网站免费 | 国产高清有码在线观看视频 | 久久99热这里只有精品18| 日本一区二区免费在线视频| 一级黄色大片毛片| 一个人免费在线观看电影 | 亚洲一区二区三区色噜噜| 欧美日韩亚洲综合一区二区三区_| 国产片内射在线| 亚洲真实伦在线观看| 又大又爽又粗| 老司机深夜福利视频在线观看| 免费电影在线观看免费观看| 精品欧美一区二区三区在线| 好男人电影高清在线观看| 99久久无色码亚洲精品果冻| 日日摸夜夜添夜夜添小说| 午夜a级毛片| 三级毛片av免费| 在线a可以看的网站| 淫秽高清视频在线观看| www.精华液| 日本免费一区二区三区高清不卡| 久久精品91无色码中文字幕| 亚洲成av人片在线播放无| 免费在线观看完整版高清| 欧美黄色淫秽网站| 悠悠久久av| 夜夜爽天天搞| 老司机深夜福利视频在线观看| 老汉色av国产亚洲站长工具| 成人亚洲精品av一区二区| 国内少妇人妻偷人精品xxx网站 | 精品久久久久久久久久久久久| 免费看a级黄色片| 久久性视频一级片| 国产黄片美女视频| 在线观看美女被高潮喷水网站 | 国产av一区二区精品久久| 美女 人体艺术 gogo| 精品少妇一区二区三区视频日本电影| 两个人视频免费观看高清| 免费一级毛片在线播放高清视频| 99热只有精品国产| 精品久久蜜臀av无| 欧美又色又爽又黄视频| 亚洲色图 男人天堂 中文字幕| www日本在线高清视频| 老汉色av国产亚洲站长工具| 日韩欧美在线二视频| av中文乱码字幕在线| 香蕉国产在线看| 婷婷亚洲欧美| 搡老妇女老女人老熟妇| 丁香六月欧美| 五月玫瑰六月丁香| 亚洲国产精品久久男人天堂| 丁香欧美五月| 最新在线观看一区二区三区| 成人国产一区最新在线观看| 好男人在线观看高清免费视频| 老熟妇乱子伦视频在线观看| 亚洲欧美一区二区三区黑人| 亚洲成av人片在线播放无| 亚洲18禁久久av| 日本三级黄在线观看| 无遮挡黄片免费观看| av福利片在线| 精品国产超薄肉色丝袜足j| 欧美zozozo另类| 亚洲成av人片在线播放无| 老汉色av国产亚洲站长工具| 久久久久久久久免费视频了| 香蕉av资源在线| 成年女人毛片免费观看观看9| 久久精品人妻少妇| 久9热在线精品视频| 三级男女做爰猛烈吃奶摸视频| 午夜亚洲福利在线播放| 韩国av一区二区三区四区| 亚洲精品美女久久av网站| 亚洲天堂国产精品一区在线| 国产野战对白在线观看| 亚洲成av人片免费观看| 欧美精品亚洲一区二区| 久久中文字幕人妻熟女| 久久精品国产综合久久久| 亚洲精品美女久久av网站| 制服人妻中文乱码| 久久精品aⅴ一区二区三区四区| 女人被狂操c到高潮| 国产高清视频在线播放一区| 最近在线观看免费完整版| 黄色成人免费大全| 夜夜爽天天搞| 精品福利观看| 99国产精品一区二区蜜桃av| 日韩精品中文字幕看吧| 亚洲一码二码三码区别大吗| 亚洲最大成人中文| а√天堂www在线а√下载| 亚洲午夜理论影院| 哪里可以看免费的av片| 精品久久久久久久久久免费视频| 日韩欧美三级三区| 黑人欧美特级aaaaaa片| 免费电影在线观看免费观看| 最近最新中文字幕大全电影3| 久久精品aⅴ一区二区三区四区| 欧美一级毛片孕妇| www日本黄色视频网| 成年免费大片在线观看| 午夜福利18| 亚洲人与动物交配视频| 大型黄色视频在线免费观看| 女警被强在线播放| 麻豆久久精品国产亚洲av| 丝袜人妻中文字幕| 精品少妇一区二区三区视频日本电影| 这个男人来自地球电影免费观看| 国产视频一区二区在线看| 国产精品久久久久久人妻精品电影| 国产亚洲精品一区二区www| 视频区欧美日本亚洲| 欧美国产日韩亚洲一区| 男女做爰动态图高潮gif福利片| 久久草成人影院| 人人妻人人澡欧美一区二区| 久久久国产成人精品二区| 神马国产精品三级电影在线观看 | 人人妻,人人澡人人爽秒播| 亚洲欧美日韩高清专用| 久久久久久人人人人人| 国产麻豆成人av免费视频| 国产高清视频在线播放一区| 国产精品美女特级片免费视频播放器 | 国产av麻豆久久久久久久| 亚洲精品美女久久久久99蜜臀| 亚洲天堂国产精品一区在线| 99热只有精品国产| 精品国产乱子伦一区二区三区| 一进一出好大好爽视频| 制服人妻中文乱码| 日韩欧美三级三区| 日韩大尺度精品在线看网址| 日韩三级视频一区二区三区| 真人做人爱边吃奶动态| 淫秽高清视频在线观看| 香蕉久久夜色| 日日干狠狠操夜夜爽| 欧美乱色亚洲激情| av视频在线观看入口| 国内精品一区二区在线观看| 99久久无色码亚洲精品果冻| 又紧又爽又黄一区二区| 一本久久中文字幕| 人妻夜夜爽99麻豆av| 两性夫妻黄色片| 国产一级毛片七仙女欲春2| 嫁个100分男人电影在线观看| 欧美成人午夜精品| 好男人在线观看高清免费视频| av福利片在线观看| 国产精华一区二区三区| 两个人的视频大全免费| 热99re8久久精品国产| 伊人久久大香线蕉亚洲五| 三级毛片av免费| 欧美又色又爽又黄视频| 性欧美人与动物交配| 久久人人精品亚洲av| 日日夜夜操网爽| 天堂√8在线中文| 国产激情欧美一区二区| 亚洲狠狠婷婷综合久久图片| 成人永久免费在线观看视频| 日韩av在线大香蕉| 三级男女做爰猛烈吃奶摸视频| 久久精品成人免费网站| 999久久久精品免费观看国产| 久久性视频一级片| 久久久久久九九精品二区国产 | 午夜福利欧美成人| 国产精品 欧美亚洲| 国产欧美日韩一区二区三| 天堂影院成人在线观看| 天堂动漫精品| 一区二区三区国产精品乱码| 精品国产乱码久久久久久男人| 老司机深夜福利视频在线观看| 日日干狠狠操夜夜爽| 亚洲av五月六月丁香网| 嫁个100分男人电影在线观看| 麻豆成人av在线观看| 久久精品成人免费网站| 999精品在线视频| 精品熟女少妇八av免费久了| 久久欧美精品欧美久久欧美| 成人国语在线视频| av在线播放免费不卡| 国产激情久久老熟女| 久久99热这里只有精品18| 最新美女视频免费是黄的| 国产精品一区二区三区四区久久| 一级毛片精品| 免费观看人在逋| 欧美日韩瑟瑟在线播放| www.www免费av| 亚洲一区二区三区色噜噜| 精品熟女少妇八av免费久了| 2021天堂中文幕一二区在线观| 国产成人欧美在线观看| av欧美777| 午夜久久久久精精品| 深夜精品福利| 在线国产一区二区在线| 国产精品精品国产色婷婷| 在线十欧美十亚洲十日本专区| 男女视频在线观看网站免费 | 99热6这里只有精品| 国产av在哪里看| 国产成人欧美在线观看| 成人av一区二区三区在线看| 日韩有码中文字幕| 国产野战对白在线观看| √禁漫天堂资源中文www| 国产精品一及| 黄色毛片三级朝国网站| 国产亚洲精品久久久久5区| 国内精品一区二区在线观看| 黄片大片在线免费观看| 亚洲全国av大片| 又爽又黄无遮挡网站| 国产主播在线观看一区二区| 午夜精品一区二区三区免费看| 视频区欧美日本亚洲| 亚洲专区字幕在线| 啪啪无遮挡十八禁网站| 少妇熟女aⅴ在线视频| 1024视频免费在线观看| 欧美一区二区精品小视频在线| 国产视频内射| 国产精品av视频在线免费观看| 国产aⅴ精品一区二区三区波| 亚洲国产欧洲综合997久久,| 黑人操中国人逼视频| 国产成人精品久久二区二区91| 三级男女做爰猛烈吃奶摸视频| 精品欧美国产一区二区三| 好男人电影高清在线观看| 女人被狂操c到高潮| 国产av一区二区精品久久| 人妻丰满熟妇av一区二区三区| 九九热线精品视视频播放| 国产伦一二天堂av在线观看| 一边摸一边抽搐一进一小说| 亚洲专区中文字幕在线| 99久久综合精品五月天人人| 免费在线观看完整版高清| 波多野结衣巨乳人妻| 搡老妇女老女人老熟妇| 成人特级黄色片久久久久久久| 18禁黄网站禁片午夜丰满| 成人三级黄色视频| 成人18禁高潮啪啪吃奶动态图| 变态另类丝袜制服| 亚洲va日本ⅴa欧美va伊人久久| 午夜福利在线观看吧| 12—13女人毛片做爰片一| 亚洲免费av在线视频| 国产精品av视频在线免费观看| 人妻丰满熟妇av一区二区三区| 俄罗斯特黄特色一大片| 老司机在亚洲福利影院| 亚洲一卡2卡3卡4卡5卡精品中文| 国产精品久久久av美女十八| 最新美女视频免费是黄的| 久久久国产精品麻豆| 色老头精品视频在线观看| 91国产中文字幕| 99国产极品粉嫩在线观看| 欧美极品一区二区三区四区| 中文字幕人妻丝袜一区二区| 好看av亚洲va欧美ⅴa在| 精品久久久久久久末码| ponron亚洲| 亚洲第一欧美日韩一区二区三区| 精品乱码久久久久久99久播| 日韩欧美在线乱码| 夜夜爽天天搞| 91字幕亚洲| 人妻久久中文字幕网| 五月玫瑰六月丁香| 又黄又粗又硬又大视频| 午夜福利视频1000在线观看| 国产亚洲精品第一综合不卡| 成人18禁高潮啪啪吃奶动态图| 露出奶头的视频| 成年版毛片免费区| 可以在线观看的亚洲视频| 啦啦啦免费观看视频1| 欧美久久黑人一区二区| 精品国产乱码久久久久久男人| 黑人巨大精品欧美一区二区mp4| 国产成人av教育| 日韩精品免费视频一区二区三区| 精品国内亚洲2022精品成人| 男女之事视频高清在线观看| 妹子高潮喷水视频| 亚洲成a人片在线一区二区| 日韩欧美一区二区三区在线观看| 国产成人精品久久二区二区免费| 51午夜福利影视在线观看| 亚洲中文日韩欧美视频| 99国产综合亚洲精品| 三级男女做爰猛烈吃奶摸视频| 精品熟女少妇八av免费久了| 亚洲av成人不卡在线观看播放网| 夜夜夜夜夜久久久久| 亚洲美女视频黄频| 一级毛片高清免费大全| 国产精品 国内视频| 天天躁夜夜躁狠狠躁躁| 99热这里只有精品一区 | 男女之事视频高清在线观看| 国产一区二区三区视频了| 免费看日本二区| 亚洲国产欧洲综合997久久,| 欧美乱色亚洲激情| a在线观看视频网站| 日本五十路高清| 制服人妻中文乱码| 欧美日韩乱码在线| 妹子高潮喷水视频| 精品日产1卡2卡| 久久久久久久久久黄片| 又黄又粗又硬又大视频| 一边摸一边抽搐一进一小说| 人人妻人人澡欧美一区二区| 99热这里只有是精品50| 岛国在线免费视频观看| 每晚都被弄得嗷嗷叫到高潮| 欧美日韩亚洲国产一区二区在线观看| 亚洲国产欧美人成| 日本成人三级电影网站| 久久久久久亚洲精品国产蜜桃av| 日本精品一区二区三区蜜桃| 亚洲欧美日韩东京热| 欧美色视频一区免费| 男人舔女人下体高潮全视频| 成人精品一区二区免费| 久久精品成人免费网站| 久久久国产欧美日韩av| 免费在线观看日本一区| 日韩av在线大香蕉| 久久欧美精品欧美久久欧美| 久久人妻av系列| 一夜夜www| 午夜视频精品福利| 亚洲男人的天堂狠狠| 欧美一区二区国产精品久久精品 | 成在线人永久免费视频| 妹子高潮喷水视频| 欧美日韩亚洲国产一区二区在线观看| 亚洲av日韩精品久久久久久密| 天天一区二区日本电影三级| 亚洲人成电影免费在线| 少妇被粗大的猛进出69影院| 99久久99久久久精品蜜桃| 在线观看免费日韩欧美大片| 国产真人三级小视频在线观看| 国产1区2区3区精品| 又大又爽又粗| 美女免费视频网站| 一级毛片精品| 这个男人来自地球电影免费观看| 久久国产乱子伦精品免费另类| 日韩大尺度精品在线看网址| 老鸭窝网址在线观看| 最好的美女福利视频网| 一级毛片女人18水好多| 中亚洲国语对白在线视频| 日韩精品青青久久久久久| 正在播放国产对白刺激| 男女之事视频高清在线观看| 亚洲全国av大片| 九色国产91popny在线| 成人午夜高清在线视频| 嫩草影视91久久| 一本精品99久久精品77| 国产高清有码在线观看视频 | 后天国语完整版免费观看| 久久亚洲精品不卡| 国产亚洲精品一区二区www| 国产熟女午夜一区二区三区| 国产高清激情床上av| 国产伦在线观看视频一区| 午夜成年电影在线免费观看| 叶爱在线成人免费视频播放| 少妇粗大呻吟视频| 中文字幕最新亚洲高清| 亚洲av第一区精品v没综合| 欧美一区二区精品小视频在线| 一本精品99久久精品77| 我要搜黄色片|