• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多尺度階梯時頻Conformer GAN的語音增強算法

    2023-11-29 12:12:00金玉堂王以松王麗會趙鵬利
    計算機應(yīng)用 2023年11期
    關(guān)鍵詞:時頻振幅頻譜

    金玉堂,王以松*,王麗會,趙鵬利

    基于多尺度階梯時頻Conformer GAN的語音增強算法

    金玉堂1,王以松1*,王麗會1,趙鵬利2

    (1.公共大數(shù)據(jù)國家重點實驗室(貴州大學),貴陽,550025; 2.許昌電氣職業(yè)學院,河南 許昌 461000)( ? 通信作者電子郵箱yswang@gzu.edu.cn)

    針對頻率域語音增強算法中因相位混亂產(chǎn)生人工偽影,導(dǎo)致去噪性能受限、語音質(zhì)量不高的問題,提出一種基于多尺度階梯型時頻Conformer生成對抗網(wǎng)絡(luò)(MSLTF-CMGAN)的語音增強算法。將語音語譜圖的實部、虛部和振幅譜作為輸入,生成器首先在多個尺度上利用時間-頻率Conformer學習時域和頻域的全局及局部特征依賴;其次,利用Mask Decoder分支學習振幅掩碼,而Complex Decoder分支則直接學習干凈的語譜圖,融合這兩個Decoder分支的輸出可得到重建后的語音;最后,利用指標判別器判別語音的評價指標得分,通過極大極小訓練使生成器生成高質(zhì)量的語音。采用主觀評價平均意見得分(MOS)和客觀評價指標在公開數(shù)據(jù)集VoiceBank+Demand上與各類語音增強模型進行對比,結(jié)果顯示,所提算法的MOS信號失真(CSIG)和MOS噪聲失真(CBAK)比目前最先進的方法CMGAN(基于Conformer的指標生成對抗網(wǎng)絡(luò)語音增強模型)分別提高了0.04和0.07,盡管它的MOS整體語音質(zhì)量(COVL)和語音質(zhì)量的感知評估(PESQ)略低于CMGAN,但與其他對比模型相比在多項主客觀語音質(zhì)量評估方面的評分均處于領(lǐng)先水平。

    語音增強;多尺度;Conformer;生成對抗網(wǎng)絡(luò);指標判別器;深度學習

    0 引言

    語音增強是去除環(huán)境噪聲、共振噪聲、電磁噪聲等干擾的重要手段,是語音分析和識別的關(guān)鍵技術(shù)[1],旨在通過去除音頻中的混合噪聲以恢復(fù)高質(zhì)量和高可懂度的語音。

    傳統(tǒng)語音增強方法包括譜減法[2]、維納濾波[3]、基于統(tǒng)計模型的方法[4]和子空間算法[5]等,基本思想是假定加性噪聲和短時平穩(wěn)的語音信號相互獨立的條件下,從帶噪語音中去除噪聲;但這類方法只能處理平穩(wěn)噪聲,在處理非平穩(wěn)噪聲和低信噪比信號時性能大幅降低。隨著深度學習的出現(xiàn),基于數(shù)據(jù)驅(qū)動的語音增強技術(shù)成為主要的研究趨勢。自20世紀80年代起就有將神經(jīng)網(wǎng)絡(luò)用于語音增強的方法[6],隨后也出現(xiàn)了基于深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)和生成對抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)的方法。

    早期基于深度學習的語音增強方法通過短時傅里葉變換(Short Time Fourier Transform, STFT)將一維的語音信號轉(zhuǎn)換為二維的頻率域語譜進行去噪,但由于相位混亂且缺乏時間和結(jié)構(gòu)上的規(guī)律性,會對語音增強帶來巨大干擾,因此許多方法主要關(guān)注重建振幅特征而忽略了相位分量。如Wang等[7-8]最早將深度學習應(yīng)用到語音增強任務(wù),使用DNN學習理想二值掩蔽值(Ideal Binary Mask, IBM),直接將有噪語音信號映射到干凈語音信號,但DNN存在參數(shù)量大、難以提取上下文特征等問題。隨后,Weninger等[9]利用RNN對語音上下文特征信息進行建模,又進一步采用長短期記憶(Long Short-Term Memory, LSTM)神經(jīng)網(wǎng)絡(luò)對語音信號進行去噪重建[10];但RNN存在訓練時間長、網(wǎng)絡(luò)規(guī)模大、難以并行化處理等缺點。Park等[11]提出了基于CNN的編碼-解碼器網(wǎng)絡(luò)RCED,通過輸入前幾幀的帶噪振幅譜預(yù)測當前干凈的振幅譜。與RNN相比,這種基于CNN的模型有更小的參數(shù)量、訓練時間更短,但存在感受野受限、提取上下文特征能力弱等問題。為了緩解傳統(tǒng)CNN的問題,張?zhí)祢U等[12]采用門控機制和擴張卷積神經(jīng)網(wǎng)絡(luò),在擴大感受野的基礎(chǔ)上,門控機制可以較好地提取上下文特征。

    然而越來越多的研究表明,當同時對語譜的振幅和相位分量進行優(yōu)化時,語音的主客觀感知質(zhì)量會大幅提升,尤其是在低信噪比的情況下[13]。為了同時涵蓋振幅和相位信息、避免相位混亂問題,有研究工作將語音的頻率域語譜轉(zhuǎn)換至笛卡爾坐標系得到復(fù)數(shù)域頻譜,對復(fù)數(shù)域特征進行增強的同時也隱含地增強了振幅和相位分量。如Tan等[14]結(jié)合CNN和RNN,提出了一種門機制卷積循環(huán)神經(jīng)網(wǎng)絡(luò)(Gated Convolutional Recurrent Network, GCRN),在增加感受野的同時,門控循環(huán)神經(jīng)網(wǎng)絡(luò)能較好地提取上下文特征信息,重建干凈的復(fù)數(shù)域頻譜。此外也有研究直接對原始一維語音信號進行增強,如Parveen等[15]提出了Wave?U?Net模型,采用一維U?Net架構(gòu)通過有監(jiān)督的方式學習有噪聲頻到干凈語音的映射,利用擴張卷積擴大對語音信號的感受野,同時還能保持少量參數(shù)。為了提高重建語音的真實性和可懂度,有研究利用GAN進行語音增強。如Pascual等[16]提出語音增強生成對抗網(wǎng)絡(luò)(Speech Enhancement Generative Adversarial Network, SEGAN),利用基于CNN的生成器對原始的一維音頻信號進行特征提取,直接映射到干凈的一維語音信號,來自判別器的對抗損失也間接提升了重建語音的質(zhì)量,但由于判別器未學習對應(yīng)語音質(zhì)量判別標準,該方法的效果相較于傳統(tǒng)方法提升不明顯。為了解決這一問題,F(xiàn)u等[17]提出了指標生成對抗網(wǎng)絡(luò)語音增強模型MetricGAN,利用判別器學習評價指標函數(shù),使之能代替評價指標預(yù)測音頻質(zhì)量,解決評價指標不可微分的問題,同時優(yōu)化生成器生成信號的評價指標分數(shù),從而重建出具有更高語音感知質(zhì)量和可懂度的語音。

    近年來,Transformer[18]因可并行、能處理長時間依賴的優(yōu)勢在語音識別、自然語言處理和圖像分割等領(lǐng)域取得了成功,也有研究將它應(yīng)用于語音增強。如Kim等[19]在Transformer模型中引入高斯加權(quán)矩陣,提出了帶有高斯加權(quán)的注意力機制,通過網(wǎng)絡(luò)學習振幅譜的掩碼,將該掩碼與帶噪語音信號振幅譜相乘得到干凈語音振幅的估計,然后結(jié)合原始帶噪語音信號的相位逆短時傅里葉變換(Inverse Short Time Fourier Transform, ISTFT)重構(gòu)干凈語音信號。為了更好地捕獲音頻信號中的局部特征和全局依賴,Gulati等[20]提出了結(jié)合CNN和Transformer的模型Conformer,在語音識別領(lǐng)域取得了顯著的成果。Cao等[21]提出了一種基于Conformer的MetricGAN——CMGAN,用于在振幅譜和復(fù)數(shù)域頻譜上進行語音增強。CMGAN的生成器包含基于時頻的兩級Conformer模塊,能捕獲時間域和頻率域的長距離依賴和局部特征,它采用的指標判別器作用與MetricGAN相同,有助于提高生成語音的質(zhì)量,同時不會對其他指標產(chǎn)生不利影響。

    本文針對頻率域語音增強中因相位混亂產(chǎn)生人工偽影、去噪性能受限、語音質(zhì)量不高的問題,提出一種多尺度階梯型時頻Conformer生成對抗網(wǎng)絡(luò)(Multi-Scale Ladder-type Time-Frequency CMGAN, MSLTF-CMGAN)算法用于單通道語音增強。MSLTF-CMGAN由一個生成器和一個指標判別器組成:生成器采用編碼-解碼器結(jié)構(gòu),包含一個編碼器、一個多尺度階梯型時頻Conformer(MultiScale Ladder-type Time-frequency Conformer, MSLTFC)模塊和兩個解碼器(掩碼解碼器和復(fù)數(shù)解碼器),用于生成增強后的復(fù)數(shù)域頻譜;指標判別器由擴張卷積網(wǎng)絡(luò)組成,用于預(yù)測重建語音的音頻質(zhì)量。

    本文工作包括:

    1)提出一種基于MSLTF-CMGAN的語音增強算法,在頻譜上多尺度地進行局部-全局表示學習,既能學習局部細節(jié)特征,又能捕獲全局長距離依賴;此外,通過在不同尺度的特征圖上學習的方式,在保留特征的同時解決了CMGAN中使用原維度特征圖計算開銷大的問題,加速了模型訓練。

    2)采用指標判別器預(yù)測重建語音的評價指標得分,有助于提升生成器生成語音的質(zhì)量。

    3)在公開數(shù)據(jù)集VoiceBank+Demand[22]上的實驗結(jié)果表明,本文算法取得了可行有效的去噪效果,消融實驗也驗證了本文的多尺度階梯型結(jié)構(gòu)提升了語音增強的效果。

    1 語音增強問題描述

    頻率域的語音增強,首先需要對語音信號進行STFT得到語音的頻譜,即

    2 本文算法

    2.1 語音增強模型原理

    為了充分利用時間域和頻率域信息進行語音增強,本文提出了MSLTF-CMGAN,它由一個基于時頻卷積自注意力的生成器(圖1~3)和一個用于預(yù)測評價指標得分的判別器(圖4)組成,通過兩者的極大極小訓練來提升生成器的去噪能力以重建高質(zhì)量的干凈語音。下面分別對生成器和判別器的具體結(jié)構(gòu)和語音增強的原理進行詳細的介紹。

    2.1.1基于多尺度階梯時頻Conformer的生成器

    生成器網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,它由一個稠密鏈接擴張卷積編碼器Dense Encoder、一個MSLTFC模塊和兩個解碼器組成(分別是掩碼解碼器Mask Decoder和復(fù)數(shù)解碼器Complex Decoder)。

    圖1 生成器網(wǎng)絡(luò)結(jié)構(gòu)

    通過冪律壓縮[23]獲得特征增強后的頻譜:

    其中表示ISTFT。

    從上述去噪過程可以看出,本文提出的MSLTFC模塊可以從全局和細節(jié)上充分提取時域和頻域特征,有效去除持續(xù)性的低頻噪聲和碎片化的高頻噪聲,不同尺度的音頻特征相結(jié)合也可提升語音增強的質(zhì)量,減少人工偽影。模型的兩個解碼器在有效保留語音主體的同時也規(guī)避了相位混亂導(dǎo)致的問題。

    圖3 Conformer模塊的網(wǎng)絡(luò)結(jié)構(gòu)

    2.1.2指標判別器

    在語音增強任務(wù)中,模型的目標函數(shù)往往不能直接表示評價指標,并且一些評價指標函數(shù)是不可微分的,如語音質(zhì)量的感知評估(Perceptual Evaluation of Speech Quality, PESQ)[24]和短時客觀可懂度(Short-Time Objective Intelligibility, STOI)[25]。本文受MetricGAN啟發(fā),提出了一個輕量指標判別器來模擬語音評價指標函數(shù),并將評價得分添加至模型訓練損失以提升語音增強效果。

    如圖4所示,指標判別器包含4個卷積模塊,每個模塊包含二維卷積層、實例標準化層(IN)和參數(shù)化修正線性單元(Parametric Rectified Linear Unit, PReLU)激活函數(shù)。之后是1個最大值池化層和2個線性層,在2個線性層之間引入了PReLU激活函數(shù)和Dropout層以避免梯度消失和過擬合問題。模型最后是Sigmoid函數(shù),將它的輸出限制在[0,1],輸出越小表示語音質(zhì)量越差,相反輸出越大表示語音質(zhì)量越好。

    該指標判別器將有噪聲頻振幅譜和干凈語音振幅譜作為輸入,判別器通過學習能夠準確預(yù)測去噪后語音的PESQ/STOI得分。此外生成器通過對抗訓練會生成PESQ/STOI得分越來越高的語音。

    圖4 指標判別器的網(wǎng)絡(luò)結(jié)構(gòu)

    2.2 損失函數(shù)

    此外,本文還在時間域波形信號間應(yīng)用了L1損失,如式(16)所示:

    2.3 算法框架

    本文算法的步驟如下:

    輸入有噪語音樣本;干凈語音樣本;生成器模型;判別器模型;

    初始化:0;0

    forfrom 1 to

    3 實驗與結(jié)果分析

    本文實驗環(huán)境為Linux Ubuntu18.04操作系統(tǒng),GPU顯卡Tesla V100,顯存32 GB以及CUDA 11.4、PyTorch1.11和Python3.8的軟件平臺。

    3.1 實驗數(shù)據(jù)集

    為了驗證本文算法的有效性,采用公開的經(jīng)典數(shù)據(jù)集VoiceBank[26]+Demand[27]比較本文模型和前沿的基線模型。該數(shù)據(jù)集包含28個用于訓練的人聲和2個用于測試的未知人聲,訓練集包含11 572個有噪-干凈音頻數(shù)據(jù)對,測試集包含824個數(shù)據(jù)對,音頻長度在2~15 s不等。訓練集中的音頻樣本混合了10種噪聲中的任意一種(包括2種人聲噪聲和8種來自Demand數(shù)據(jù)集的環(huán)境噪聲),且按信噪比{0 dB,5 dB,10 dB,15 dB}添加噪聲。測試集使用Demand數(shù)據(jù)集中5種未出現(xiàn)在訓練集的噪聲創(chuàng)建樣本,按信噪比{2.5 dB,7.5 dB,12.5 dB,17.5 dB}添加噪聲。數(shù)據(jù)集中的噪聲類型廣泛,如公共環(huán)境噪聲(餐廳和辦公室)、家庭噪聲(廚房和客廳)以及交通噪聲(地鐵、公交和汽車)等,使該數(shù)據(jù)集具有挑戰(zhàn)性。

    3.2 實驗設(shè)置

    3.3 基線模型

    為了體現(xiàn)本文算法對語音增強的效果,與近年來前沿的模型進行比較,基線模型包括傳統(tǒng)方法維納濾波(Wiener)和其他深度學習模型。其中,SEGAN、HiFiGAN[28]、MetricGAN、MetricGAN+[29]、DVUGAN[31]和CMGAN是基于GAN的模型,它們的生成器用于去除噪聲、提升音頻質(zhì)量,判別器用于區(qū)分干凈音頻和帶噪聲頻。SEGAN是首次使用GAN進行語音增強的方法,它的生成器是一個編碼-解碼的全卷積結(jié)構(gòu)模型,用于在時域上進行語音增強。HiFIGAN包括一個前饋WaveNet生成器網(wǎng)絡(luò)和一個時頻多尺度判別器,利用對抗訓練進行語音增強。MetricGAN基于來自判別器的評價得分損失訓練生成器,生成器將振幅特征圖作為輸入和輸出,通過反傅里葉變換得到增強后的音頻,指標判別器解決了評價指標如PESQ、STOI計算不可微的問題,有效地提升了重建語音的質(zhì)量。MetricGAN的改進版本MetricGAN+優(yōu)化了損失并在模型中添加了可學習的Sigmoid函數(shù),對不同頻率段有更強的適應(yīng)性。PHASEN[30]提出了雙流的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),分別用于處理幅度和相位,有助于頻譜重建。DVUGAN設(shè)計具有變分編碼結(jié)構(gòu)的對抗網(wǎng)絡(luò)模型,采用包含概率瓶頸的變分U-Net,增加未知數(shù)據(jù)分布的先驗知識,還利用信噪比(Signal?to?Noise Ratio, SNR)損失指導(dǎo)判別器,提升了語音增強性能。TSTNN[32]提出了時域兩級Transformer神經(jīng)網(wǎng)絡(luò),能有效提取長距離語音序列的局部和全局上下文信息。DB-AIAT[33]提出了雙分支Transformer結(jié)構(gòu)網(wǎng)絡(luò),包括振幅分支和復(fù)數(shù)域分支,一起重建去噪后的頻譜。DPT?FSNet[34]提出了一種基于Transformer的全頻段結(jié)合子頻段的雙路網(wǎng)絡(luò),用于在頻率域進行語音增強。CMGAN由MetricGAN得到啟發(fā),設(shè)計了兩階段的Conformer模塊提取時間域和頻率域特征,達到了此前最高的PESQ/STOI得分。

    3.4 評價指標

    本文采用多種語音質(zhì)量評價指標,如主觀評價平均意見得分(Mean Opinion Score, MOS)[35],包括MOS信號失真CSIG(MOS prediction of the signal distortion)、MOS噪聲失真CBAK(MOS predictor of intrusiveness of background noise)和MOS整體語音質(zhì)量COVL(MOS prediction of the overall effect),三個評價指標數(shù)值均在[1,5];此外還采用了客觀評價指標PESQ和STOI。PESQ用于語音質(zhì)量的感知評估,數(shù)值在[-0.5,4.5],本文使用的是ITU-TP.862.2建議書提供的寬帶PESQ。STOI用于評價語音可懂度,數(shù)值在[0,1]。對于以上5種評價指標,數(shù)值越高均表示語音質(zhì)量越高。

    3.5 模型對比實驗

    為了評估模型的語音增強性能,在VoiceBank+Demand數(shù)據(jù)集上與維納濾波(Wiener)和前述的基線模型進行對比,結(jié)果如表1所示。

    表1 不同算法在VoiceBank+Demand數(shù)據(jù)集上的性能評估

    此外,還對本文算法在VoiceBank+Demand測試集上的結(jié)果進行了可視化,展示了不同算法增強的音頻信號與頻譜圖,效果如圖5所示。

    圖5 不同算法增強的語音信號的語譜圖可視化

    為了更明顯地展現(xiàn)音頻特征,本文將頻譜轉(zhuǎn)換至dB標度,即對原頻譜取對數(shù),殘差圖中顏色越紅(即越接近色彩標度尺上方顏色)表示差值越大,反之越藍表示差值越?。ㄔ节吔?)、越接近干凈語音。圖5(a)為原始有噪聲頻,可以看出時域波形和頻譜中存在大量噪聲;圖5(b)為對應(yīng)干凈語音,作為對比標簽;圖5(c)為維納濾波增強后的語音,可見濾波后去除了高頻和低頻噪聲,但是中段頻率沒有明顯的去除效果;圖5(d)為SEGAN增強語音,可見去噪效果較維納濾波均有提高,但對低頻噪聲的去除效果較差,仍存在肉眼可見的白噪聲,實際聽感表現(xiàn)為機械化的電流雜音;而MetricGAN的提出解決了這一問題,圖5(e)為MetricGAN增強語音,所有頻段白噪聲明顯減少,語音可懂度較原始有噪聲頻大幅提高;圖5(f)為CMGAN增強語音,在各頻段均有去噪效果,在低頻部分也更加接近干凈語音,同時語音中沒有音素的部分也有效地去除了噪聲;圖5(g)為本文算法增強語音,可見在高頻部分和低頻部分均能很好地去除噪聲,在沒有人聲的時間段能有效去除無關(guān)的音素,整體和放大細節(jié)上均能明顯看出去噪效果,且殘差圖顯示與干凈語音相差分貝小,語音質(zhì)量和可懂度高。通過以上對比可以看出,本文算法在語音增強方面表現(xiàn)更好,在時間域和頻率域都能明顯去除噪聲,以恢復(fù)高質(zhì)量的干凈語音。

    3.6 消融實驗

    為了驗證本文MSLTFC模塊嵌入到網(wǎng)絡(luò)中的提升效果以及模型設(shè)計的合理性,設(shè)計了如下消融實驗:首先研究不同Conformer的組合方式對特征提取的效果,將兩個Conformer分別以并行和串行的方式提取時間域和頻率域特征;其次,研究兩個Decoder的去噪性能,分別僅保留Mask Decoder和Complex Decoder;再次,分別研究不進行降采樣的Conformer結(jié)構(gòu)和采用多尺度時頻Conformer的去噪性能;最后研究有無指標判別器對語音增強效果的影響。

    表2展示了消融實驗的結(jié)果對比,此外對測試樣例繪制了消融實驗結(jié)果圖,如圖6所示。圖6(a)是有噪語音樣例,頻譜中黑框部分表示前部的一段尖銳持續(xù)噪聲;圖6(b)是對應(yīng)的干凈語音。表2中Parallel-Conformer表示兩個Conformer以并行方式連接,分別用于提取時間域和頻率域特征,傳入的特征圖變形以適配各自的維度,經(jīng)過Conformer以后再變形為原始特征圖維度并相加,結(jié)果表明,并行方式的語音增強效果低于順序方式,它的CSIG和PESQ比MSLTF-CMGAN分別低了0.14和0.06,測試效果如圖6(c)所示。

    表2中Mask Decoder表示輸入只使用了振幅譜,除了僅有一個掩碼解碼器以外其余網(wǎng)絡(luò)結(jié)構(gòu)保持不變,輸出的重建振幅譜與原始相位相結(jié)合得到去噪后的頻譜。同樣的,Complex Decoder表示僅有復(fù)數(shù)解碼器且只是用復(fù)數(shù)域頻譜作為輸入,直接輸出重建復(fù)數(shù)頻譜。將兩種方式進行對比,由表2可知,僅采用振幅譜而忽略相位信息導(dǎo)致它的CSIG比MSLTF-CMGAN降低了0.22,同時僅采樣復(fù)數(shù)頻譜時PESQ降低了0.08。圖6(d)、(e)分別為Mask Decoder和Complex Decoder語音增強效果,兩者均去除了尖銳噪聲,但在其他頻段Complex Decoder去噪效果要稍優(yōu)于Mask Decoder,如其中黑框部分所示。該結(jié)果也表明本文提出的掩碼解碼器結(jié)合復(fù)數(shù)解碼器形成了互補的結(jié)構(gòu),在提升語音質(zhì)量和可懂度方面有顯著優(yōu)勢。

    表2中Without Downsample表示不采用多尺度階梯時頻Conformer模塊,取而代之使用三個不改變特征圖維度的時頻Conformer模塊用于提取時頻特征。結(jié)果表明,不采用多尺度階梯時頻Conformer模塊在CSIG、CBAK、COVL上比MSLTF-CMGAN分別降低了0.31、0.33和0.25,此外如圖6(f)所示,在去除無關(guān)音素和高頻噪聲時較本文算法有所不足。這說明本文提出的多尺度階梯時頻Conformer模塊能進一步抓取音頻結(jié)構(gòu)上和細節(jié)上的特征,達到更高的語音增強質(zhì)量。

    最后,本文還驗證了指標判別器對于語音增強模型的提升作用,Without Discriminator表示沒有引入指標判別器進行對抗訓練,由表2可知,這導(dǎo)致了語音增強模型在各項指標均有下降,由圖6(g)可知,雖然去除了高低頻噪聲,但是引入了黑框中條紋形的噪聲,實際聽感表現(xiàn)為電流雜音,降低了語音的質(zhì)量,這反映了只將頻譜之間的閔可夫斯基距離(Minkowski distance,即Lp距離)作為損失函數(shù)并不能得到較高的語音質(zhì)量。此外圖6(h)所示為本文算法增強語音,各頻段去噪效果顯著,相較于圖6(g),黑框部分也表明引入指標判別器顯著提升了重建語音的質(zhì)量。

    表2 消融實驗結(jié)果

    圖6 消融實驗的語譜圖可視化

    4 結(jié)語

    本文提出了多尺度階梯型時頻Conformer生成對抗網(wǎng)絡(luò)(MSLTF-CMGAN),用于去除音頻中的噪聲以恢復(fù)更高的語音質(zhì)量。通過短時傅里葉變換,同時利用振幅譜和復(fù)數(shù)域頻譜在時間域和頻率域進行語音特征提取,有效保留振幅信息的同時規(guī)避了相位結(jié)構(gòu)隨機性的問題。本文提出的多尺度階梯型時頻Conformer(MSLTFC)模塊能在不同尺度分辨率的特征圖中提取細節(jié)和結(jié)構(gòu)化特征,同時引入指標判別器解決了評價指標函數(shù)不可直接微分的問題,對抗訓練也提高了整體語音增強質(zhì)量。在公開數(shù)據(jù)集VoiceBank+Demand數(shù)據(jù)集上的實驗結(jié)果表明,本文算法可行有效,取得了較好的去噪效果,甚至在一些指標上取得了最高得分,如CSIG。此外,消融實驗也驗證了本文模型中每個部分的有效性。本文中振幅譜結(jié)合復(fù)數(shù)譜導(dǎo)致了模型輸入維度的增加,如何在保留振幅和相位信息的同時減小輸入特征維度、提升語音增強效果是未來研究的重點。

    [1] LOIZOU P C. Speech Enhancement: Theory and Practice[M]. Boca Raton, FL: CRC Press, 2007: 1-9.

    [2] BOLL S. Suppression of acoustic noise in speech using spectral subtraction[J]. IEEE Transactions on Acoustics, Speech, and Signal Processing, 1979, 27(2): 113-120.

    [3] ZALEVSKY Z, MENDLOVIC D. Fractional Wiener filter[J]. Applied Optics, 1996, 35(20): 3930-3936.

    [4] EPHRAIM Y. Statistical-model-based speech enhancement systems[J]. Proceedings of the IEEE, 1992, 80(10): 1526-1555.

    [5] EPHRAIM Y, TREES H L VAN. A signal subspace approach for speech enhancement[J]. IEEE Transactions on Speech and Audio Processing, 1995, 3(4): 251-266.

    [6] TAMURA S, WAIBEL A. Noise reduction using connectionist models[C]// Proceedings of the 1988 International Conference on Acoustics, Speech, and Signal Processing — Volume 1. Piscataway: IEEE, 1988: 553-556.

    [7] WANG Y, WANG D. Towards scaling up classification-based speech separation[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2013, 21(7): 1381-1390.

    [8] HEALY E W, YOHO S E, WANG Y, et al. An algorithm to improve speech recognition in noise for hearing-impaired listeners[J]. The Journal of the Acoustical Society of America, 2013, 134(4): 3029-3038.

    [9] WENINGER F, HERSHEY J R, LE ROUX J, et al. Discriminatively trained recurrent neural networks for single-channel speech separation[C]// Proceedings of the 2014 IEEE Global Conference on Signal and Information Processing. Piscataway: IEEE, 2014: 577-581.

    [10] WENINGER F, ERDOGAN H, WATANABE S, et al. Speech enhancement with LSTM recurrent neural networks and its application to noise-robust ASR[C]// Proceedings of the 2015 International Conference on Latent Variable Analysis and Signal Separation, LNCS 9237. Cham: Springer, 2015: 91-99.

    [11] PARK S R, LEE J W. A fully convolutional neural network for speech enhancement[C]// Proceedings of the INTERSPEECH 2017. [S.l.]: International Speech Communication Association, 2017: 1993-1997.

    [12] 張?zhí)祢U,柏浩鈞,葉紹鵬,等. 基于門控殘差卷積編解碼網(wǎng)絡(luò)的單通道語音增強方法[J]. 信號處理, 2021, 37(10):1986-1995.(ZHANG T Q, BAI H J, YE S P, et al. Single-channel speech enhancement method based on gated residual convolution encoder-and-decoder network[J]. Journal of Signal Processing, 2021, 37(10):1986-1995.)

    [13] PALIWAL K, WóJCICKI K, SHANNON B. The importance of phase in speech enhancement[J]. Speech Communication, 2011, 53(4): 465-494.

    [14] TAN K, WANG D. Learning complex spectral mapping with gated convolutional recurrent networks for monaural speech enhancement[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2020, 28: 380-390.

    [15] PARVEEN S, GREEN P. Speech enhancement with missing data techniques using recurrent neural networks[C]// Proceedings of the 2004 IEEE International Conference on Acoustics, Speech, and Signal Processing — Volume 1. Piscataway: IEEE, 2004: 733-736.

    [16] PASCUAL S, BONAFONTE A, SERRà J. SEGAN: speech enhancement generative adversarial network[C]// Proceedings of the INTERSPEECH 2017. [S.l.]: International Speech Communication Association, 2017: 3642-3646.

    [17] FU S W, LIAO C F, TSAO Y, et al. MetricGAN: generative adversarial networks based black-box metric scores optimization for speech enhancement[C]// Proceedings of the 36th International Conference on Machine Learning. New York: JMLR.org, 2019: 2031-2041.

    [18] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 6000-6010.

    [19] KIM J, EL-KHAMY M, LEE J. T-GSA: Transformer with Gaussian-weighted self-attention for speech enhancement[C]// Proceedings of the 2020 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway: IEEE, 2020: 6649-6653.

    [20] GULATI A, QIN J, CHIU C C, et al. Conformer: convolution-augmented Transformer for speech recognition[C]// Proceedings of the INTERSPEECH 2020. [S.l.]: International Speech Communication Association, 2020: 5036-5040.

    [21] CAO R, ABDULATIF S, YANG B. CMGAN: conformer-based metric GAN for speech enhancement[C]// Proceedings of the INTERSPEECH 2022. [S.l.]: International Speech Communication Association, 2022: 936-940.

    [22] VALENTINI-BOTINHAO C, WANG X, TAKAKI S, et al. Investigating RNN-based speech enhancement methods for noise-robust Text-to-Speech[C]// Proceedings of the 9th ISCA Speech Synthesis Workshop. [S.l.]: International Speech Communication Association, 2016: 146-152.

    [23] BRAUN S, TASHEV I. A consolidated view of loss functions for supervised deep learning-based speech enhancement[C]// Proceedings of the 44th International Conference on Telecommunications and Signal Processing. Piscataway: IEEE, 2021: 72-76.

    [24] RIX A W, BEERENDS J G, HOLLIER M P, et al. Perceptual Evaluation of Speech Quality (PESQ) — a new method for speech quality assessment of telephone networks and codecs[C]// Proceedings of the 2001 IEEE International Conference on Acoustics, Speech, and Signal Processing — Volume 2. Piscataway: IEEE, 2001: 749-752.

    [25] TAAL C H, HENDRIKS R C, HEUSDENS R, et al. An algorithm for intelligibility prediction of time-frequency weighted noisy speech[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2011, 19(7): 2125-2136.

    [26] VEAUX C, YAMAGISHI J, KING S. The voice bank corpus: design, collection and data analysis of a large regional accent speech database[C]// Proceedings of the 2013 International Conference of the Oriental COCOSDA held jointly with 2013 Conference on Asian Spoken Language Research and Evaluation. Piscataway: IEEE, 2013: 1-4.

    [27] THIEMANN J, ITO N, VINCENT E. The diverse environments multi-channel acoustic noise database: a database of multichannel environmental noise recordings[J]. The Journal of the Acoustical Society of America, 2013, 133(S5): No.4806631.

    [28] SU J, JIN Z, FINKELSTEIN A. HiFi-GAN: high-fidelity denoising and dereverberation based on speech deep features in adversarial networks[C]// Proceedings of the INTERSPEECH 2020. [S.l.]: International Speech Communication Association, 2020: 4506-4510.

    [29] FU S W, YU C, HSIEH T A, et al. MetricGAN+: an improved version of MetricGAN for speech enhancement[C]// Proceedings of the INTERSPEECH 2021. [S.l.]: International Speech Communication Association, 2021: 201-205.

    [30] YIN D, LUO C, XIONG Z, et al. PHASEN: a phase-and-harmonics-aware speech enhancement network[C]// Proceedings of the 34th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 9458-9465.

    [31] 徐峰,李平. DVUGAN:基于STDCT的DDSP集成變分U-Net的語音增強[J]. 信號處理, 2022, 38(3):582-589.(XU F, LI P. DVUGAN: DDSP integrated variational U-Net speech enhancement based on STDCT[J]. Journal of Signal Processing, 2022, 38(3):582-589.)

    [32] WANG K, HE B, ZHU W P. TSTNN: two-stage transformer based neural network for speech enhancement in the time domain[C]// Proceedings of the 2021 IEEE International Conference on Acoustics, Speech, and Signal Processing. Piscataway: IEEE, 2021: 7098-7102.

    [33] YU G, LI A, ZHENG C, et al. Dual-branch attention-in-attention transformer for single-channel speech enhancement[C]// Proceedings of the 2022 IEEE International Conference on Acoustics, Speech, and Signal Processing. Piscataway: IEEE, 2022: 7847-7851.

    [34] DANG F, CHEN H, ZHANG P. DPT-FSNet: dual-path transformer based full-band and sub-band fusion network for speech enhancement[C]// Proceedings of the 2022 IEEE International Conference on Acoustics, Speech, and Signal Processing. Piscataway: IEEE, 2022: 6857-6861.

    [35] HU Y, LOIZOU P C. Evaluation of objective quality measures for speech enhancement[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2008, 16(1): 229-238.

    Speech enhancement algorithm based on multi-scale ladder-type time-frequency Conformer GAN

    JIN Yutang1, WANG Yisong1*, WANG Lihui1, ZHAO Pengli2

    (1(),550025,;2,461000,)

    Aiming at the problem of artificial artifacts due to phase disorder in frequency-domain speech enhancement algorithms, which limits the denoising performance and decreases the speech quality, a speech enhancement algorithm based on Multi-Scale Ladder-type Time-Frequency Conformer Generative Adversarial Network (MSLTF-CMGAN) was proposed. Taking the real part, imaginary part and magnitude spectrum of the speech spectrogram as input, the generator first learned the local and global feature dependencies between temporal and frequency domains by using time-frequency Conformer at multiple scales. Secondly, the Mask Decoder branch was used to learn the amplitude mask, and the Complex Decoder branch was directly used to learn the clean spectrogram, and the outputs of the two decoder branches were fused to obtain the reconstructed speech. Finally, the metric discriminator was used to judge the scores of speech evaluation metrics, and high-quality speech was generated by the generator through minimax training. Comparison experiments with various types of speech enhancement models were conducted on the public dataset VoiceBank+Demand by subjective evaluation Mean Opinion Score (MOS) and objective evaluation metrics.Experimental results show that compared with current state-of-the-art speech enhancement method CMGAN (Comformer-based MetricGAN), MSLTF-CMGAN improves MOS prediction of the signal distortion (CSIG) and MOS predictor of intrusiveness of background noise (CBAK) by 0.04 and 0.07 respectively, even though its Perceptual Evaluation of Speech Quality (PESQ) and MOS prediction of the overall effect (COVL) are slightly lower than that of CMGAN, it still outperforms other comparison models in several subjective and objective speech evaluation metrics.

    speech enhancement; multi-scale; Conformer; Generative Adversarial Network (GAN); metric discriminator; deep learning

    1001-9081(2023)11-3607-09

    10.11772/j.issn.1001-9081.2022111734

    2022?11?22;

    2023?02?27;

    國家自然科學基金資助項目(U1836205)。

    金玉堂(1999—),男,貴州安順人,碩士研究生,主要研究方向:數(shù)字信號處理、語音增強、信號去噪; 王以松(1975—),男,貴州思南人,教授,博士,CCF會員,主要研究方向:知識表示與推理、回答集程序設(shè)計、人工智能、機器學習; 王麗會(1982—),女,黑龍江哈爾濱人,教授,博士,主要研究方向:深度學習、機器學習、醫(yī)學成像、醫(yī)學圖像處理、計算機視覺; 趙鵬利(1992—),女,河南許昌人,助教,碩士,主要研究方向:數(shù)據(jù)庫、軟件工程。

    TP391.9

    A

    2023?02?28。

    This work is partially supported by National Natural Science Foundation of China (U1836205).

    JIN Yutang, born in 1999, M. S. candidate. His research interests include digital signal processing, speech enhancement, signal denoising.

    WANG Yisong, born in 1975, Ph. D., professor. His research interests include knowledge representation and reasoning, answer set programming design, artificial intelligence, machine learning.

    WANG Lihui, born in 1982, Ph. D., professor. Her research interests include deep learning, machine learning, medical imaging, medical image processing, computer vision.

    ZHAO Pengli, born in 1992, M. S., teaching assistant. Her research interests include database, software engineering.

    猜你喜歡
    時頻振幅頻譜
    一種用于深空探測的Chirp變換頻譜分析儀設(shè)計與實現(xiàn)
    一種基于稀疏度估計的自適應(yīng)壓縮頻譜感知算法
    十大漲跌幅、換手、振幅、資金流向
    十大漲跌幅、換手、振幅、資金流向
    十大漲跌幅、換手、振幅、資金流向
    滬市十大振幅
    認知無線電頻譜感知技術(shù)綜述
    基于時頻分析的逆合成孔徑雷達成像技術(shù)
    對采樣數(shù)據(jù)序列進行時頻分解法的改進
    雙線性時頻分布交叉項提取及損傷識別應(yīng)用
    精品国产乱码久久久久久小说| 一边摸一边做爽爽视频免费| 久久久久久久久免费视频了| 欧美国产精品一级二级三级| 美女国产视频在线观看| 日本wwww免费看| 汤姆久久久久久久影院中文字幕| 天天躁夜夜躁狠狠久久av| 熟女电影av网| 久久久国产精品麻豆| 精品少妇黑人巨大在线播放| 久久久久精品久久久久真实原创| 狠狠婷婷综合久久久久久88av| 90打野战视频偷拍视频| 久久精品人人爽人人爽视色| 在线天堂最新版资源| 国产高清不卡午夜福利| 久久精品国产亚洲av涩爱| 欧美+日韩+精品| 午夜福利乱码中文字幕| 国产野战对白在线观看| 久久精品国产a三级三级三级| 免费看av在线观看网站| 天堂俺去俺来也www色官网| 亚洲欧美日韩另类电影网站| 2021少妇久久久久久久久久久| a 毛片基地| 在线观看www视频免费| 亚洲国产欧美日韩在线播放| 亚洲五月色婷婷综合| 99久久精品国产国产毛片| 国产精品免费视频内射| 热re99久久精品国产66热6| 国产成人欧美| 日日啪夜夜爽| 国产精品麻豆人妻色哟哟久久| 国产日韩欧美在线精品| 欧美av亚洲av综合av国产av | 免费av中文字幕在线| 男女高潮啪啪啪动态图| 日本猛色少妇xxxxx猛交久久| 欧美中文综合在线视频| 国产亚洲最大av| 久久久久久久精品精品| 一区二区三区四区激情视频| 亚洲,一卡二卡三卡| 91精品国产国语对白视频| 欧美人与性动交α欧美软件| 春色校园在线视频观看| www日本在线高清视频| 亚洲国产欧美网| 久久国内精品自在自线图片| 韩国av在线不卡| 丝袜在线中文字幕| 国产深夜福利视频在线观看| 丝袜喷水一区| 久久精品aⅴ一区二区三区四区 | 久久久久国产网址| 精品酒店卫生间| 美女脱内裤让男人舔精品视频| 亚洲欧美精品自产自拍| 国产女主播在线喷水免费视频网站| 亚洲av国产av综合av卡| 免费人妻精品一区二区三区视频| 久久久亚洲精品成人影院| 美女大奶头黄色视频| 久久久亚洲精品成人影院| 超色免费av| 哪个播放器可以免费观看大片| 少妇被粗大猛烈的视频| 日韩中文字幕视频在线看片| 亚洲欧洲日产国产| 精品少妇久久久久久888优播| 性色avwww在线观看| 亚洲国产色片| 国产精品久久久久久久久免| 久久精品国产a三级三级三级| 久久久a久久爽久久v久久| 久久国产精品男人的天堂亚洲| 天天影视国产精品| 80岁老熟妇乱子伦牲交| 午夜免费观看性视频| 欧美黄色片欧美黄色片| 亚洲国产日韩一区二区| 久久女婷五月综合色啪小说| 母亲3免费完整高清在线观看 | 国产日韩一区二区三区精品不卡| 中文字幕av电影在线播放| 超碰成人久久| 国产日韩欧美视频二区| 久久久久久免费高清国产稀缺| 韩国精品一区二区三区| 国产野战对白在线观看| 赤兔流量卡办理| 亚洲精品美女久久久久99蜜臀 | 我要看黄色一级片免费的| 最近2019中文字幕mv第一页| 国产成人欧美| 新久久久久国产一级毛片| 美女午夜性视频免费| 久久亚洲国产成人精品v| 久久精品人人爽人人爽视色| 成人毛片60女人毛片免费| 这个男人来自地球电影免费观看 | 亚洲欧美成人综合另类久久久| 中文字幕色久视频| 成人国产av品久久久| 秋霞伦理黄片| 欧美av亚洲av综合av国产av | 在线观看免费视频网站a站| 日韩欧美一区视频在线观看| 精品一品国产午夜福利视频| 久久亚洲国产成人精品v| 成人亚洲精品一区在线观看| 边亲边吃奶的免费视频| 亚洲美女黄色视频免费看| 美女主播在线视频| 女人精品久久久久毛片| 高清av免费在线| 最近中文字幕高清免费大全6| 春色校园在线视频观看| 久久久精品区二区三区| 久久久久久久国产电影| 少妇精品久久久久久久| 宅男免费午夜| 人妻一区二区av| 捣出白浆h1v1| 大陆偷拍与自拍| 精品福利永久在线观看| 最黄视频免费看| 性少妇av在线| 黑人猛操日本美女一级片| 最新的欧美精品一区二区| 国产极品天堂在线| 日本免费在线观看一区| 欧美精品人与动牲交sv欧美| 汤姆久久久久久久影院中文字幕| 国产欧美日韩综合在线一区二区| 日韩大片免费观看网站| 国产精品一区二区在线不卡| 亚洲 欧美一区二区三区| 免费日韩欧美在线观看| 女的被弄到高潮叫床怎么办| 老女人水多毛片| 中文字幕人妻丝袜一区二区 | 国产成人精品在线电影| 男女下面插进去视频免费观看| 一级,二级,三级黄色视频| 久久精品亚洲av国产电影网| 亚洲天堂av无毛| 菩萨蛮人人尽说江南好唐韦庄| 欧美中文综合在线视频| 大片免费播放器 马上看| 亚洲精品成人av观看孕妇| 天天躁狠狠躁夜夜躁狠狠躁| 人妻一区二区av| 电影成人av| 成人国产麻豆网| 国产人伦9x9x在线观看 | 18+在线观看网站| 老司机影院毛片| 免费人妻精品一区二区三区视频| 成年女人毛片免费观看观看9 | 国产精品秋霞免费鲁丝片| 丰满乱子伦码专区| 一二三四中文在线观看免费高清| 国产综合精华液| 91精品三级在线观看| 国产又爽黄色视频| 亚洲欧洲精品一区二区精品久久久 | 欧美日韩视频高清一区二区三区二| www.精华液| 9191精品国产免费久久| 久久久精品区二区三区| 一区福利在线观看| 美女脱内裤让男人舔精品视频| 五月伊人婷婷丁香| 久久午夜综合久久蜜桃| 日本欧美国产在线视频| 老熟女久久久| 国产在线视频一区二区| 电影成人av| xxx大片免费视频| 少妇猛男粗大的猛烈进出视频| 一区二区三区激情视频| 午夜福利乱码中文字幕| 大陆偷拍与自拍| 日韩伦理黄色片| 国产高清国产精品国产三级| 热99国产精品久久久久久7| 亚洲伊人色综图| 看十八女毛片水多多多| 中文欧美无线码| 欧美另类一区| 美女国产高潮福利片在线看| 久久精品国产a三级三级三级| 亚洲第一青青草原| 午夜福利网站1000一区二区三区| 精品久久久久久电影网| 精品少妇久久久久久888优播| 欧美成人午夜精品| 日韩在线高清观看一区二区三区| 亚洲欧美精品自产自拍| 亚洲av.av天堂| 亚洲成人手机| 亚洲成人一二三区av| 亚洲国产精品一区二区三区在线| 美女国产视频在线观看| 毛片一级片免费看久久久久| 妹子高潮喷水视频| 国产毛片在线视频| 伊人亚洲综合成人网| 久久久国产一区二区| 日韩免费高清中文字幕av| 自线自在国产av| 日韩,欧美,国产一区二区三区| 99精国产麻豆久久婷婷| 国产一区二区在线观看av| 看免费av毛片| 性色av一级| 欧美激情 高清一区二区三区| 日韩av不卡免费在线播放| 精品午夜福利在线看| 一本久久精品| 伊人久久国产一区二区| 亚洲av电影在线进入| 国产欧美日韩综合在线一区二区| 亚洲欧洲精品一区二区精品久久久 | 久久久久久免费高清国产稀缺| 成人午夜精彩视频在线观看| 肉色欧美久久久久久久蜜桃| 亚洲欧洲国产日韩| 欧美国产精品一级二级三级| 久久99热这里只频精品6学生| 黄色毛片三级朝国网站| 超碰97精品在线观看| 欧美成人午夜免费资源| 亚洲国产精品999| 日本-黄色视频高清免费观看| 精品久久久久久电影网| 亚洲成人手机| 丝瓜视频免费看黄片| 成年人免费黄色播放视频| 免费高清在线观看日韩| 亚洲人成电影观看| 亚洲av电影在线观看一区二区三区| 老司机影院成人| 亚洲精品国产av蜜桃| 久久久久久久久久久免费av| 性少妇av在线| 男男h啪啪无遮挡| 伊人久久国产一区二区| 老汉色av国产亚洲站长工具| 成人毛片a级毛片在线播放| 亚洲伊人久久精品综合| 9191精品国产免费久久| 黑人巨大精品欧美一区二区蜜桃| 国产在线免费精品| 99香蕉大伊视频| 国产亚洲午夜精品一区二区久久| 女性被躁到高潮视频| 秋霞伦理黄片| 日产精品乱码卡一卡2卡三| 免费av中文字幕在线| 久久人人爽人人片av| 韩国高清视频一区二区三区| 18禁国产床啪视频网站| 天天躁夜夜躁狠狠久久av| 制服人妻中文乱码| 青春草国产在线视频| 久久精品aⅴ一区二区三区四区 | 久久久久久久久免费视频了| 午夜老司机福利剧场| av在线老鸭窝| 国产成人精品在线电影| 成人国语在线视频| 成年人午夜在线观看视频| 日韩欧美一区视频在线观看| 麻豆av在线久日| 美女xxoo啪啪120秒动态图| 一区二区三区激情视频| 一区二区日韩欧美中文字幕| 交换朋友夫妻互换小说| 国产成人精品婷婷| 国产精品久久久久久精品电影小说| 美女中出高潮动态图| 男女边摸边吃奶| 黑人欧美特级aaaaaa片| 中文字幕制服av| 亚洲人成77777在线视频| 99久久精品国产亚洲精品| 9191精品国产免费久久| 无遮挡黄片免费观看| 亚洲黑人精品在线| 国产日韩一区二区三区精品不卡| 亚洲欧美日韩另类电影网站| 91精品三级在线观看| 如日韩欧美国产精品一区二区三区| 国产aⅴ精品一区二区三区波| 亚洲五月色婷婷综合| 久久中文看片网| 亚洲五月婷婷丁香| 国产99久久九九免费精品| 伊人久久大香线蕉亚洲五| 日韩视频一区二区在线观看| 人妻久久中文字幕网| 亚洲一区中文字幕在线| 国产高清激情床上av| 制服诱惑二区| 看片在线看免费视频| 亚洲伊人色综图| 18禁美女被吸乳视频| 伦理电影免费视频| 老汉色∧v一级毛片| 亚洲人成77777在线视频| 狂野欧美激情性xxxx| 老司机在亚洲福利影院| 国产91精品成人一区二区三区| 波多野结衣一区麻豆| 9191精品国产免费久久| 免费看a级黄色片| cao死你这个sao货| 国产精品 欧美亚洲| a级毛片黄视频| 国产蜜桃级精品一区二区三区| 真人一进一出gif抽搐免费| 亚洲欧美一区二区三区久久| 日韩国内少妇激情av| 亚洲美女黄片视频| av超薄肉色丝袜交足视频| 人人妻人人添人人爽欧美一区卜| 亚洲全国av大片| 免费观看人在逋| svipshipincom国产片| 身体一侧抽搐| 午夜福利免费观看在线| 成人亚洲精品av一区二区 | 大型av网站在线播放| 男女高潮啪啪啪动态图| 国产一区二区三区视频了| 视频区欧美日本亚洲| 精品欧美一区二区三区在线| 国产99白浆流出| 一个人免费在线观看的高清视频| 最新在线观看一区二区三区| av免费在线观看网站| 久久久久久久午夜电影 | 日韩精品青青久久久久久| 亚洲av熟女| xxx96com| 亚洲伊人色综图| av超薄肉色丝袜交足视频| xxxhd国产人妻xxx| 亚洲精品在线观看二区| 老鸭窝网址在线观看| 色综合婷婷激情| 在线观看一区二区三区| 久久香蕉激情| www日本在线高清视频| 亚洲av美国av| 国产亚洲欧美98| 午夜激情av网站| 五月开心婷婷网| 老司机福利观看| 老汉色∧v一级毛片| 欧美日韩乱码在线| 久久人妻av系列| 国产欧美日韩一区二区三区在线| 满18在线观看网站| 免费在线观看日本一区| 久久国产精品男人的天堂亚洲| 在线观看免费日韩欧美大片| 一级毛片精品| 精品一品国产午夜福利视频| 精品熟女少妇八av免费久了| 99国产精品一区二区三区| 人人妻人人爽人人添夜夜欢视频| e午夜精品久久久久久久| 亚洲精品在线美女| 天堂中文最新版在线下载| 国产av一区在线观看免费| 伊人久久大香线蕉亚洲五| 大型av网站在线播放| 人人澡人人妻人| 久久久久亚洲av毛片大全| 这个男人来自地球电影免费观看| 精品国产国语对白av| 男人舔女人下体高潮全视频| 亚洲色图 男人天堂 中文字幕| 欧美乱码精品一区二区三区| 岛国视频午夜一区免费看| 亚洲一区高清亚洲精品| 女同久久另类99精品国产91| 大陆偷拍与自拍| 亚洲情色 制服丝袜| 亚洲成人精品中文字幕电影 | 亚洲一区高清亚洲精品| 精品少妇一区二区三区视频日本电影| 亚洲,欧美精品.| 人人妻人人澡人人看| 国产精品免费视频内射| 一个人免费在线观看的高清视频| 精品欧美一区二区三区在线| 水蜜桃什么品种好| av有码第一页| 性欧美人与动物交配| 色哟哟哟哟哟哟| 51午夜福利影视在线观看| 夜夜躁狠狠躁天天躁| 国产在线观看jvid| 欧美色视频一区免费| 亚洲va日本ⅴa欧美va伊人久久| www.999成人在线观看| 女人被狂操c到高潮| 国产一区二区三区视频了| 满18在线观看网站| 日日摸夜夜添夜夜添小说| 国产三级在线视频| 大香蕉久久成人网| 高清欧美精品videossex| 中文字幕人妻丝袜一区二区| 大码成人一级视频| 老熟妇仑乱视频hdxx| 交换朋友夫妻互换小说| 久久 成人 亚洲| 丰满的人妻完整版| 首页视频小说图片口味搜索| 久久久久久免费高清国产稀缺| 久久99一区二区三区| 热re99久久国产66热| 亚洲精品一二三| 成人国语在线视频| 老司机靠b影院| 一边摸一边抽搐一进一小说| 国产熟女xx| 88av欧美| √禁漫天堂资源中文www| 亚洲自拍偷在线| 欧美日韩福利视频一区二区| av免费在线观看网站| 国产精品日韩av在线免费观看 | 午夜免费激情av| 久久精品亚洲熟妇少妇任你| 女生性感内裤真人,穿戴方法视频| 免费久久久久久久精品成人欧美视频| 国产成人欧美| 日本a在线网址| 91老司机精品| 一a级毛片在线观看| 日本wwww免费看| 妹子高潮喷水视频| 最近最新免费中文字幕在线| 国产成+人综合+亚洲专区| 国产黄a三级三级三级人| 欧美久久黑人一区二区| 久久狼人影院| 国产麻豆69| 欧美日韩亚洲高清精品| www.www免费av| 黄色 视频免费看| 亚洲片人在线观看| 国产97色在线日韩免费| 女人被躁到高潮嗷嗷叫费观| 一级,二级,三级黄色视频| 亚洲一卡2卡3卡4卡5卡精品中文| 欧美国产精品va在线观看不卡| 国产免费现黄频在线看| 国产日韩一区二区三区精品不卡| 一级a爱片免费观看的视频| 制服诱惑二区| 一级a爱视频在线免费观看| 免费女性裸体啪啪无遮挡网站| 欧美最黄视频在线播放免费 | 在线看a的网站| 国产99久久九九免费精品| 精品一区二区三卡| 色婷婷av一区二区三区视频| 国产成人欧美| 桃红色精品国产亚洲av| 一本大道久久a久久精品| 久久精品人人爽人人爽视色| 高潮久久久久久久久久久不卡| 丰满的人妻完整版| 国产精品久久电影中文字幕| 国产男靠女视频免费网站| 国产精品美女特级片免费视频播放器 | 女生性感内裤真人,穿戴方法视频| 亚洲avbb在线观看| 老汉色∧v一级毛片| 一区二区三区精品91| 精品福利观看| 亚洲欧美一区二区三区黑人| 好看av亚洲va欧美ⅴa在| 露出奶头的视频| av国产精品久久久久影院| 午夜福利,免费看| 国产精品永久免费网站| 夜夜看夜夜爽夜夜摸 | √禁漫天堂资源中文www| 亚洲精品一区av在线观看| 国产欧美日韩综合在线一区二区| 亚洲精品中文字幕在线视频| 99riav亚洲国产免费| 757午夜福利合集在线观看| av在线天堂中文字幕 | 精品人妻1区二区| 99久久国产精品久久久| 12—13女人毛片做爰片一| 国产精品偷伦视频观看了| 亚洲人成网站在线播放欧美日韩| 日韩人妻精品一区2区三区| 老司机在亚洲福利影院| 亚洲av熟女| 又黄又粗又硬又大视频| 日韩视频一区二区在线观看| 色综合婷婷激情| 亚洲精品国产精品久久久不卡| 久久人人爽av亚洲精品天堂| 国产真人三级小视频在线观看| 性欧美人与动物交配| 久久久国产欧美日韩av| 夜夜夜夜夜久久久久| 国产男靠女视频免费网站| aaaaa片日本免费| 12—13女人毛片做爰片一| 后天国语完整版免费观看| 国产无遮挡羞羞视频在线观看| 桃红色精品国产亚洲av| 一边摸一边做爽爽视频免费| 一个人观看的视频www高清免费观看 | 亚洲 欧美 日韩 在线 免费| 久久天躁狠狠躁夜夜2o2o| 国产精品免费视频内射| 一级片免费观看大全| 激情在线观看视频在线高清| 国产成人精品久久二区二区91| 欧美精品啪啪一区二区三区| 亚洲av第一区精品v没综合| 女人爽到高潮嗷嗷叫在线视频| 黑丝袜美女国产一区| 看黄色毛片网站| 久久久精品欧美日韩精品| 好看av亚洲va欧美ⅴa在| 叶爱在线成人免费视频播放| 亚洲欧美一区二区三区久久| 亚洲人成77777在线视频| 精品高清国产在线一区| 国产一区二区在线av高清观看| 亚洲色图综合在线观看| 日本精品一区二区三区蜜桃| 50天的宝宝边吃奶边哭怎么回事| 国产精品二区激情视频| 亚洲精品av麻豆狂野| 欧美激情极品国产一区二区三区| 国产激情欧美一区二区| 天堂√8在线中文| 免费一级毛片在线播放高清视频 | 国产一区二区三区综合在线观看| 欧美最黄视频在线播放免费 | 美女 人体艺术 gogo| 人人妻,人人澡人人爽秒播| 国产97色在线日韩免费| 国产精品久久久av美女十八| 亚洲欧美精品综合久久99| 国产不卡一卡二| 法律面前人人平等表现在哪些方面| 一区二区日韩欧美中文字幕| 免费av中文字幕在线| 久久中文看片网| 久久久久久久久免费视频了| 黄色视频不卡| 亚洲欧美一区二区三区久久| 日本黄色日本黄色录像| 一级毛片高清免费大全| 叶爱在线成人免费视频播放| 欧美乱色亚洲激情| 国产成人精品久久二区二区91| 老熟妇乱子伦视频在线观看| 又大又爽又粗| 999久久久精品免费观看国产| 中文字幕人妻熟女乱码| ponron亚洲| 桃色一区二区三区在线观看| 亚洲美女黄片视频| 国产成人啪精品午夜网站| 亚洲欧美日韩无卡精品| 欧美丝袜亚洲另类 | 国产精品香港三级国产av潘金莲| 久久伊人香网站| 99热只有精品国产| 高潮久久久久久久久久久不卡| 美女高潮到喷水免费观看| 亚洲一区二区三区不卡视频| 99国产精品一区二区蜜桃av| 女同久久另类99精品国产91| 成人黄色视频免费在线看| 日韩精品青青久久久久久| 久久草成人影院| 少妇被粗大的猛进出69影院| 黄色怎么调成土黄色| 亚洲av日韩精品久久久久久密| 国产成+人综合+亚洲专区| 电影成人av| 黄色 视频免费看| 国产97色在线日韩免费| av在线播放免费不卡| www.熟女人妻精品国产| 国产精品二区激情视频| 在线国产一区二区在线| 最近最新中文字幕大全免费视频| 亚洲欧美激情在线| 日本一区二区免费在线视频| 最好的美女福利视频网| 国产激情久久老熟女| 欧美黑人欧美精品刺激|