• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    DFSMN-T:結(jié)合強語言模型Transformer的中文語音識別

    2022-05-15 06:35:30胡章芳唐珊珊明子平姜博文
    計算機工程與應用 2022年9期
    關(guān)鍵詞:錯誤率字符聲學

    胡章芳,蹇 芳,唐珊珊,明子平,姜博文

    重慶郵電大學 光電工程學院,重慶400065

    在語音識別發(fā)展領(lǐng)域,研究學者們致力于將語音信息盡量完整準確地轉(zhuǎn)化成文本信息。語音識別的關(guān)鍵在于聲學模型和語言模型兩部分。在深度學習興起應用到語音識別領(lǐng)域之前,聲學模型已經(jīng)有了非常成熟的模型體系,并且也有了被成功應用到實際系統(tǒng)中的案例。比如經(jīng)典的高斯混合模型(Gaussian mixed model,GMM)和隱馬爾可夫模型(hidden Markov model,HMM)[1]等。神經(jīng)網(wǎng)絡(luò)和深度學習興起以后,循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)[2-3]、長短期記憶網(wǎng)絡(luò)(long short-term memory,LSTM)[4]、注意力機制(attention)[5-6]等基于深度學習的聲學模型和語言模型將此前各項基于傳統(tǒng)聲學模型和傳統(tǒng)語言模型的識別案例錯誤率降低了一個級別。近年來,也有很多學者嘗試建立端到端語音識別系統(tǒng),比如百度提出了一種可以識別英語和普通話的端到端的深度學習方法[7],胡章芳等將殘差網(wǎng)絡(luò)與雙向長短時期記憶網(wǎng)絡(luò)相結(jié)合,構(gòu)建端到端語音識別系統(tǒng)[8]。

    在聲學模型領(lǐng)域,Zhang等提出了新一代語音識別模型前饋序列記憶神經(jīng)網(wǎng)絡(luò)(feedforward sequential memory networks,F(xiàn)SMN)[9],緊湊前饋序列記憶神經(jīng)網(wǎng)絡(luò)(compact FSMN,CFSMN)[10]以及深度前饋序列記憶神經(jīng)網(wǎng)絡(luò)(deep FSMN,DFSMN)[11]。其中FSMN 是在標準的隱含層中使用類的內(nèi)存塊前饋神經(jīng)網(wǎng)絡(luò),并在語言建模任務上的實驗結(jié)果表明FSMN 可以有效地學習長期歷史;CFSMN是在FSMN基礎(chǔ)上增加了投影矩陣,在語音識別交換機任務中,所提出的CFSMN 結(jié)構(gòu)可以使模型規(guī)??s小60%,學習速度提高7 倍以上,而在基于框架級交叉熵準則的訓練和基于mini 的序列訓練方面,該模型仍能顯著優(yōu)于目前流行的雙向LSTMs;而DFSMN在CFSMN的基礎(chǔ)上增加了跳躍連接(skip connection),在中文語音識別任務上達到了85%的識別準確率。在語言模型領(lǐng)域中,Ashish等提出了基于注意力機制的新模型Transformer,并在英語數(shù)據(jù)集上進行了驗證,結(jié)果顯示比Attention 模型效果更好[12];Zhou 等研究了將音節(jié)和音素作為Transformer 模型的建模單元,在序列到序列語音識別系統(tǒng)上進行實驗驗證并得出基于音節(jié)的Transformer 模型優(yōu)于基于ci 音素的對應模型,且與基于CTC-attention 的聯(lián)合編解碼網(wǎng)絡(luò)的字符錯誤率不相上下[13]。

    本文以DFSMN作為聲學模型,引入Transformer作為語言模型建立語音識別系統(tǒng)。在該系統(tǒng)中,將采用CNN 來提取80 維的Fbank 特征,并將CTC loss[14]作為DFSMN 模型訓練的損失函數(shù),采用Adam(adaptive moment estimation)優(yōu)化器進行優(yōu)化。在語言模型模塊,將以文獻[15]中的Transformer 模型作為基礎(chǔ)模型,研究Transformer 不同參數(shù)對其模型性能的影響,針對Transformer 計算量大的問題進行改進,訓練出最優(yōu)的Transformer模型與DFSMN模型相結(jié)合進行識別任務。

    1 相關(guān)工作

    語音識別系統(tǒng)包括聲學模型和語言模型,在傳統(tǒng)的語音識別系統(tǒng)中,通常采用DFSMN 作為聲學模型,N-gram作為語言模型。

    1.1 DFSMN模型

    在CFSMN 結(jié)構(gòu)中,因為每個CFSMN 層中包含了較多的子層,一個層中包含了4 個CFSMN 子層,2 個DNN 層的CFSMN 網(wǎng)絡(luò)總共需要12 層結(jié)構(gòu)。若通過直接增加CFSMN 層的方法來設(shè)計更深的CFSMN 網(wǎng)絡(luò),網(wǎng)絡(luò)可能會出現(xiàn)梯度消失的問題。

    基于上述問題,DFSMN 被提了出來。DFSMN 在CFSMN 的記憶模塊之間添加了跳層連接,使低層的記憶可以直接流入高層的記憶模塊中。在反向傳播的過程當中,高層的梯度也會直接流入低層的記憶模塊中。因此即使使用了更深的層數(shù),也避免了梯度消失的情況。在特征提取上,DFSMN 結(jié)合低幀率LFR(low frame rate)[16],使得模型尺寸更小,延遲也更低。實驗結(jié)果表明DFSMN 是用于聲學模型的BLSTM[17]強有力替代方案。DFSMN的結(jié)構(gòu)如圖1所示。

    圖1 DFSMN結(jié)構(gòu)Fig.1 DFSMN structure

    DFSMN的參數(shù)更新公式為:

    1.2 N-gram模型

    N-gram 是傳統(tǒng)語音識別中最常用到的語言模型[18-19]。N-gram指文本中連續(xù)出現(xiàn)的n個語詞。n元語法模型是基于(n-1)階馬爾可夫鏈的一種概率語言模型,通過n個語詞出現(xiàn)的概率來推斷語句的結(jié)構(gòu)。

    當n=1時,一個一元模型(Unigram model)表示為:

    當n=2 時,一個二元模型(Bigram model)表示為:

    當n=3 時,一個三元模型(Trigram model)表示為:

    對于N-gram模型而言,可以表示為:

    其中,C(w1,w2,…,wn)表示N-gram 中w1,w2,…,wn在訓練語料中出現(xiàn)的次數(shù),m是語料庫的總字數(shù)。

    2 引入Transformer的語音識別系統(tǒng)

    已知一段語音信號,處理成聲學特征向量后表示為X=[x1,x2,x3,…],其中xi表示一幀特征向量,可能的文本序列表示為W=[w1,w2,w3,…],其中wi表示一個詞。語音識別的目的就在于求出。P(W|X)表示為:

    其中,P(X|W)稱之為聲學模型(acoustic model),P(W)稱之為語言模型(language model),二者對語音語言現(xiàn)象刻畫得越深刻,識別結(jié)果越準確。所以大多數(shù)研究都把語音識別分為聲學模型和語言模型兩部分,然而在傳統(tǒng)語音識別系統(tǒng)中,往往將注意力集中在聲學模型的改進上,忽略了語言模型N-gram存在詞條語義相似性,參數(shù)n過大導致計算量太大等問題。因此本文引入強語言模型Transformer,結(jié)合DFSMN 構(gòu)建中文語音識別系統(tǒng),系統(tǒng)結(jié)構(gòu)如圖2所示。

    圖2 引入Transformer的中文語音識別系統(tǒng)結(jié)構(gòu)Fig.2 Chinese speech recognition system architecture with Transformer

    Transformer 能學習到輸入序列與輸出序列之間的對應關(guān)系,其結(jié)構(gòu)包括編碼器和解碼器兩個主要模塊,編碼器編碼時間序列,解碼器結(jié)合編碼器輸出和上一時間步長的輸出來生成下一時間步長的輸出,直到生成結(jié)束符為止。Transformer模型結(jié)構(gòu)如圖3所示。

    圖3 Transformer模型結(jié)構(gòu)Fig.3 Transformer model structure

    2.1 編碼器

    在進入編碼器之前,要先進行位置編碼字符向量嵌入和字符位置向量嵌入,將兩向量相加得到相同維度的向量作為輸入,目的在于給輸入添加字符順序信息,讓模型能夠?qū)W習到字符順序關(guān)系。編碼器旨在對原始信息進行編碼表示,編碼表示能夠較完全地體現(xiàn)出該字符序列的語義信息。編碼器由N個編碼單元組成,每個編碼單元具有完全相同的結(jié)構(gòu)。編碼器包括多頭自注意力層(multi-headed attention)、求和與歸一化(add &normalization)、前饋神經(jīng)網(wǎng)絡(luò)(feed-forward)三個基本組件。其中,多頭自注意層利用多個自注意力,從不同的信息維度上來提取字符的向量表示。

    2.1.1 位置編碼

    由于Transformer 不包含遞歸和卷積,為了讓模型利用序列的順序,必須注入一些關(guān)于序列中記號的相對或絕對位置的信息。因此在編碼器和解碼器堆棧底部的輸入嵌入中添加“位置編碼”。位置編碼與嵌入具有相同的模型維數(shù),因此兩者可以相加。位置編碼采用不同頻率的正弦和余弦函數(shù),表示為:

    在上式中,pos是位置,i是維數(shù)。位置編碼的每一維對應一個正弦信號。波長以幾何級數(shù)的形式從2π增長到10 000·2π。

    2.1.2 縮放點積注意力機制

    在注意力函數(shù)的使用中,乘性函數(shù)和加性函數(shù)在理論上復雜度相同,然而實際應用中,乘性函數(shù)得益于高度優(yōu)化的矩陣乘法代碼的計算,使得乘性函數(shù)計算速度更快,更節(jié)省空間。縮放點積注意如圖4所示。

    圖4 縮放點積注意力機制Fig.4 Scaling dot product attention mechanism

    輸入由維度為dk的查詢向量q和鍵向量k以及維度為dv的值v組成。接著計算查詢與所有鍵的點積,再除以,并應用softmax 函數(shù)來獲得這些值的權(quán)重。在實踐中,將同時計算一組查詢的注意力函數(shù),這些查詢被打包到一個矩陣Q中,鍵和值也被打包到矩陣K和V中。計算輸出矩陣表示為:

    對于較大維度的值v,點積的大小也會變大,從而使softmax函數(shù)陷入具有極小梯度的區(qū)域。為了抵消這個影響,故在式(11)中需要除以。

    2.1.3 多頭注意力機制

    多頭注意力機制如圖5所示。在該步驟中,將對每一個投射模塊中的查詢、鍵和值并行執(zhí)行注意力函數(shù),生成dv維的輸出值。它們被連接起來并再次投射,從而得到最終的值。

    圖5 多頭注意力機制Fig.5 Multi-headed attention mechanism

    多頭注意力機制使模型能夠在不同的表示子空間中,在不同的位置共同關(guān)注信息。如果只有一個注意力頭,則會抑制這種情況。多頭注意力機制表示為:

    2.1.4 前饋神經(jīng)網(wǎng)絡(luò)

    在編碼器和解碼器的子層中,還包括前饋神經(jīng)網(wǎng)絡(luò)層。該層包括矩陣線性變化Linear 層和Relu 非線性激活。該層網(wǎng)絡(luò)可表示為:

    2.1.5 殘差連接和歸一化

    每一個子層之后都會接一個殘差連接和歸一化層。其中,殘差連接層避免了梯度消失的問題,而歸一化層通常采用BN(batch normalization)。BN 的思路在于對每一層的每一小批數(shù)據(jù)上進行歸一化,把輸入轉(zhuǎn)化為均值為0 方差為1 的數(shù)據(jù),防止經(jīng)過多層前向計算后數(shù)據(jù)偏差過大,造成梯度問題。

    在多頭自注意力層、求和與歸一化層、前饋神經(jīng)網(wǎng)絡(luò)這三個不同層的結(jié)合下,最終得到編碼器的輸出。

    2.2 解碼器

    解碼器與編碼器的結(jié)構(gòu)類似,但是比編碼器多了一個掩蓋多頭自注意力層。這個層包括了第一層掩蓋多頭自注意力層和第二層多頭自注意力層。第一層使用掩蓋多頭自注意力層的原因是在預測句子的時候,當前時刻是無法獲取到未來時刻信息的。在該層中,q是來自于上一位置Decoder 的輸出,而k和v則來自于編碼器。編碼器可以并行計算,但是解碼器類似于RNN 網(wǎng)絡(luò),需要一步一步去解碼,最終輸出對應位置的輸出詞的概率分布。

    2.3 基于Hadamard矩陣濾波的注意力計算

    針對Transformer計算復雜度高,且在訓練過程中存在過擬合的問題,本文提出一種基于Hadamard 矩陣濾波的注意力權(quán)值計算方法。該方法應用于softmax 層,通過設(shè)置閾值對經(jīng)過softmax歸一化的注意力權(quán)值矩陣進行濾波,低于閾值的權(quán)值,由于對輸出影響較弱,強制置為0,而高于閾值的分數(shù)則不予以改動。在多頭注意力的計算過程中,該方法能夠有效降低后續(xù)計算的參數(shù)量,從而減少模型的訓練時間,增加解碼速度,并且在訓練不同的數(shù)據(jù)時,不同的參數(shù)丟棄后訓練的模型會增加網(wǎng)絡(luò)的泛化能力。Hadamard矩陣濾波位置如圖6所示。

    圖6 Hadamard矩陣濾波位置Fig.6 Hadamard matrix filtering position

    在圖5中,每個單詞創(chuàng)建三個向量,并通過詞嵌入和每個向量對應的權(quán)重矩陣相乘所得。即:

    得到q、k、v的值后,則要拿每個查詢向量q去對每個鍵向量k做注意力,計算上下文對當前字符的注意力初始分數(shù),即:

    增加Hadamard矩陣濾波后,公式表示為:

    公式(11)更新為:

    改進后自注意力計算流程如圖7 所示,在該圖中,矩陣H是由矩陣A經(jīng)過閾值篩選后生成的Hadamard矩陣,矩陣A中值大于等于閾值T則矩陣H中相對應位置處的值為1,而A中值小于閾值T則H中相對應位置處的值為0。

    圖7 改進后自注意力計算流程Fig.7 Improved self-attention calculation process

    3 實驗

    3.1 前期準備

    3.1.1 聲學模型參數(shù)

    聲學模型使用的輸入是具有16 kHz 采樣率的單聲道音頻數(shù)據(jù),結(jié)合低幀率LFR,通過一個固定的10 ms幀位移的25 ms漢明窗口進行分析,并利用80個mel濾波器組提取80 維的log mel fbank 特征。在卷積層中,根據(jù)輸入的音頻數(shù)據(jù)對其進行卷積操作,整個卷積包括1個卷積層和3個CNN層,以作為DFSMN層的輸入。在DFSMN結(jié)構(gòu)中,一共有6層網(wǎng)絡(luò),模型深度為512維,學習率為1E-4,dropout 為0.5。使用CTC 作為損失函數(shù),對于一對輸入輸出(X,Y)來說,CTC的目標是將下式概率最大化:

    在對模型進行預測時,本文采用了Beam search 算法,并將寬度參數(shù)設(shè)置為10,即在每個時間t輸出時,不同于貪婪算法只找概率最高的,而是找最高的10 個概率作為下一次的輸入,依次迭代。對于優(yōu)化器的選擇,本文采用了Adam 優(yōu)化器作為模型優(yōu)化器,Adam 優(yōu)化器本質(zhì)上是帶有動量項的RMSprop(root mean square prop)優(yōu)化器,它利用梯度的一階矩估計和二階矩估計動態(tài)調(diào)整每個參數(shù)的學習率。Adam的優(yōu)點主要在于經(jīng)過偏置校正后,每一次迭代學習率都有個確定范圍,使得參數(shù)比較平穩(wěn)。

    3.1.2 語言模型參數(shù)

    在Transformer 語言模型結(jié)構(gòu)中,將以特征維度為256,批處理大小為40,多頭注意力數(shù)為8,隱藏節(jié)點為512,學習率為1E-3,dropout 為0.3 作為初始參數(shù)設(shè)定。在進行訓練時,采用標簽平滑化處理(label smothing)以防止過擬合,表示為:

    其中,y′為標簽平滑操作后的樣本標簽,ε為平滑因子,u是人為引入的一個固定分布,并且由參數(shù)ε控制相對權(quán)重。

    語言模型的損失函數(shù)則為預測結(jié)果與平滑值的交叉熵。表示為:

    3.1.3 數(shù)據(jù)集

    為了防止模型過擬合,提高模型的泛化能力,對于識別任務,本文采用的數(shù)據(jù)集包括Aishell-1[20]、Aidatatang、Magicdata、Thchs30[21]這四個中文數(shù)據(jù)集,總計1 163 h,包括995 452條語句,其中訓練集863 845條,驗證集50 694 條,測試集80 913 條,訓練集與驗證集及測試集的比例為86∶5∶9。

    Aishell-1 數(shù)據(jù)集是北京希爾貝殼科技有限公司出版的中文語言公開語料庫,由來自中國不同口音地區(qū)的400 人參加錄音,總共178 h。Aidatatang 數(shù)據(jù)集是北京大唐科技有限公司提供的免費中文普通話語料庫,該語料庫包含200 h 的聲學數(shù)據(jù),由來自中國不同口音地區(qū)的600 人參加錄制,數(shù)據(jù)庫分為訓練集、驗證集和測試集,比例為7∶1∶2。Magicdata 數(shù)據(jù)集包含755 h 的語音數(shù)據(jù),其中大多數(shù)是移動記錄的數(shù)據(jù),邀請來自中國不同口音地區(qū)的1 080 名演講者參加錄制,該數(shù)據(jù)庫訓練集、驗證集和測試集的比例為51∶1∶2。Thchs30是清華大學語言技術(shù)中心(CSLT)發(fā)布的開放式中文語音數(shù)據(jù)庫,總時長超過30 h。

    3.2 實驗結(jié)果

    針對本文提出的DFSMN結(jié)合語言模型Transformer的語音識別系統(tǒng),實驗圍繞Transformer的影響因素、改進后的Transformer模型及語音識別系統(tǒng)的驗證三方面展開。在針對Transformer 的實驗中,訓練語料為相應開源語音的抄本及對應中文拼音,CER指的是拼音轉(zhuǎn)漢字結(jié)果的字符錯誤率;在針對語音識別系統(tǒng)的實驗中,CER指的是語音轉(zhuǎn)寫為中文的字符錯誤率。

    3.2.1 Transformer的影響因素

    對于Transformer 模型結(jié)構(gòu)會受到哪些因素的影響,本文首先做了以下工作:以初始參數(shù)化的Transformer結(jié)構(gòu)作為基礎(chǔ)結(jié)構(gòu),分別以學習率lr、批處理大小batch_size、多頭的數(shù)目num_heads以及num_block4 個參數(shù)作為變量進行實驗測試,采用控制變量法對比不同參數(shù)取值對準確率和解碼速度的影響。其中,學習率參數(shù)以L表示,批處理大小batch_size以B表示,多頭的數(shù)目num_heads以H 表示,num_block以K 表示。不同參數(shù)取值的Transformer結(jié)構(gòu)如表1所示。

    表1 不同參數(shù)取值下的Transformer結(jié)構(gòu)Table 1 Transformer structure for different parameter values

    在表1 中,Transformer 表示未經(jīng)改動的初始參數(shù)模型,Transformer_B、Transformer_H、Transformer_K、Transformer_L 表示在初始參數(shù)模型基礎(chǔ)上分別對批處理大小、多頭的數(shù)目、num_block以及學習率進行了改變。對上述幾個不同結(jié)構(gòu)的Transformer進行訓練,并在Aishell-1、Aidatatang、Magicdata、Thchs30 四個中文數(shù)據(jù)集上測試字符錯誤率及解碼時間,實驗結(jié)果如表2所示。

    從表2可以看出,對比初始參數(shù)下的Transformer測試結(jié)果,可以得出以下結(jié)論:

    表2 不同結(jié)構(gòu)下Transformer的測試時間及CERTable 2 Test time and CER for Transformer with different configurations

    (1)減小batch_size會使得測試時間增長,解碼速度變慢,但是字符錯誤率平均降低了1.1%;增加batch_size不僅使測試時間減少,解碼速度變快,并且字符錯誤率也平均降低了2.6%。

    (2)減少多頭的數(shù)目會使測試時間增長,解碼速度變慢,在字符錯誤率上并無明顯變化;增加多頭的數(shù)目會使測試時間增長,解碼速度變慢,但是字符錯誤率平均降低了2%。

    (3)減少num_block會使測試時間減少,解碼速度變快,并且字符錯誤率平均降低了1.8%;增加num_block會使測試時間增長,解碼速度變慢,但是字符錯誤率平均降低了1.1%。

    (4)增加學習率會使測試時間增長,解碼速度變慢,并且字符錯誤率平均提高了2.0%了;減少學習率會使測試時間增長,解碼速度變慢,但是字符錯誤率平均降低了1.4%。

    由上述實驗可知,學習率lr、批處理大小batch_size、多頭的數(shù)目num_heads以及num_block這4 個參數(shù)對Transformer模型的解碼速度及識別準確率都有一定的影響。其中,在模型訓練的過程中,特征維度通常取多頭數(shù)目的立方。

    3.2.2 改進后的Transformer

    基于上述實驗結(jié)果,選取學習率lr=0.000 03,批處理batch_size=60,多頭數(shù)目num_heads=10,num_block=2作為改進前Transformer模型參數(shù)。為了與原始Transformer模型進行區(qū)分,將該模型記為Transformer_BHKL,表示在原始Transformer 模型上對四個參數(shù)都進行了變動。經(jīng)過在4 個數(shù)據(jù)集上大量實驗后,發(fā)現(xiàn)在閾值分別為T1=1E-7,T2=1E-6,T3=1E-5時實驗效果最好。將閾值為T1、T2、T3時的Transformer模型分別記為Transformer_BHKLT1、Transformer_BHKLT2、Transformer_BHKLT3進行實驗對比分析,實驗結(jié)果如表3所示。

    表3 改進后Transformer在數(shù)據(jù)集上的測試時間及CERTable 3 Test time and CER of improved Transformer on dataset

    在表3中,Transformer_BHKL的實驗結(jié)果驗證了上述對Transformer模型的影響因素分析;對比Transformer_BHKL和增加閾值后的Transformer模型實驗結(jié)果,當閾值為1E-6 時,改進后Transformer 模型在各個數(shù)據(jù)集上的識別錯誤率和識別速率都達到了最優(yōu),驗證了對Transformer增加參數(shù)丟棄層后,模型的識別速率及識別錯誤率都有所降低。

    3.2.3 語音識別系統(tǒng)的驗證

    為了驗證改進Transformer 模型在語音識別系統(tǒng)中的性能,將4 個數(shù)據(jù)集分別在DFSMN 結(jié)合初始Transformer 模型,DFSMN 結(jié)合Transformer_BHKLT 模型上進行實驗驗證,測試結(jié)果如圖8所示。

    圖8 4個數(shù)據(jù)集在模型改進前與改進后的結(jié)果Fig.8 Results for 4 datasets before and after model improvement

    由圖8 中4 種不同數(shù)據(jù)集的驗證結(jié)果表明,本文構(gòu)建的Transformer 結(jié)合DFSMN 語音識別系統(tǒng)在不同的數(shù)據(jù)集上都有良好的性能,在改進Transformer模型后,4種不同數(shù)據(jù)集上的字符錯誤率都有所降低,體現(xiàn)了該系統(tǒng)識別結(jié)果中字符錯誤率較低的同時也有較強的泛化能力。

    為了驗證聲學模型DFSMN 結(jié)合改進語言模型Transformer 的語音識別系統(tǒng)的優(yōu)越性,將該系統(tǒng)與BLSTM系統(tǒng)、ResNet-BLSTM-CTC系統(tǒng)、CFSMN-3gram系統(tǒng)、DFSMN-3gram 系統(tǒng)做對比,對比實驗結(jié)果如表4所示。

    表4 不同語音識別系統(tǒng)的CERTable 4 CER of different speech recognition models

    在表4中的數(shù)據(jù)表明,本文提出將聲學模型DFSMN結(jié)合語言模型Transformer構(gòu)建的語音識別系統(tǒng)相較于其他語音識別系統(tǒng),在識別準確率上展現(xiàn)了一定的優(yōu)越性,經(jīng)過改進語言模型Transformer 后構(gòu)建的語音識別系統(tǒng)較未改進前在識別準確率上也有所提高。

    4 結(jié)束語

    本文引入強語言模型Transformer,將其和強聲學模型DFSMN相結(jié)合,建立了CNN-DFSMN-CTC-Transformer新型語音識別系統(tǒng),并針對Transformer計算復雜度高,容易過擬合及泛化能力不足的問題提出了一種基于Hadamard 矩陣濾波的注意力計算方法。實驗結(jié)果表明,新型語音識別系統(tǒng)總體性能優(yōu)于某些現(xiàn)有語音識別系統(tǒng),改進后的Transformer解碼速度有明顯提升。

    猜你喜歡
    錯誤率字符聲學
    限制性隨機試驗中選擇偏倚導致的一類錯誤率膨脹*
    尋找更強的字符映射管理器
    愛的就是這股Hi-Fi味 Davis Acoustics(戴維斯聲學)Balthus 70
    字符代表幾
    一種USB接口字符液晶控制器設(shè)計
    電子制作(2019年19期)2019-11-23 08:41:50
    Acoustical Treatment Primer:Diffusion談談聲學處理中的“擴散”
    Acoustical Treatment Primer:Absorption談談聲學處理中的“吸聲”(二)
    消失的殖民村莊和神秘字符
    Acoustical Treatment Primer:Absorption 談談聲學處理中的“吸聲”
    正視錯誤,尋求策略
    教師·中(2017年3期)2017-04-20 21:49:49
    亚洲成人中文字幕在线播放| 91国产中文字幕| 免费在线观看完整版高清| 日韩欧美在线乱码| 亚洲av成人一区二区三| 亚洲欧美日韩东京热| 亚洲欧美精品综合一区二区三区| 国产亚洲av高清不卡| 精品一区二区三区视频在线观看免费| 国产精品久久久久久久电影 | 日韩av在线大香蕉| 国产精品久久视频播放| 国产真实乱freesex| 日韩欧美在线二视频| 日本熟妇午夜| 国内揄拍国产精品人妻在线| 国产精品久久视频播放| 久久热在线av| 久久国产精品影院| 欧美黄色片欧美黄色片| 午夜精品久久久久久毛片777| xxx96com| 妹子高潮喷水视频| 亚洲熟妇熟女久久| 欧美人与性动交α欧美精品济南到| 久久人妻av系列| 国语自产精品视频在线第100页| 日本五十路高清| 午夜福利免费观看在线| 操出白浆在线播放| 欧美日本视频| www日本黄色视频网| 我要搜黄色片| 欧美中文综合在线视频| 亚洲人成网站在线播放欧美日韩| 国产精品免费一区二区三区在线| 两性夫妻黄色片| 天堂影院成人在线观看| 亚洲 欧美 日韩 在线 免费| 久久久水蜜桃国产精品网| 两性夫妻黄色片| 99热这里只有是精品50| 日本免费一区二区三区高清不卡| 中文字幕熟女人妻在线| 妹子高潮喷水视频| 一二三四社区在线视频社区8| 国产精华一区二区三区| 精品国内亚洲2022精品成人| 亚洲 国产 在线| 国产精品九九99| 久99久视频精品免费| 亚洲精品av麻豆狂野| 人妻夜夜爽99麻豆av| 五月玫瑰六月丁香| 亚洲人与动物交配视频| 香蕉久久夜色| 日韩精品免费视频一区二区三区| 久久精品91无色码中文字幕| 50天的宝宝边吃奶边哭怎么回事| 97碰自拍视频| 日本a在线网址| 色综合欧美亚洲国产小说| 亚洲va日本ⅴa欧美va伊人久久| 色在线成人网| 老鸭窝网址在线观看| 亚洲精品国产一区二区精华液| 又黄又爽又免费观看的视频| 久久婷婷人人爽人人干人人爱| 亚洲国产精品成人综合色| 精品日产1卡2卡| 久久久久国产精品人妻aⅴ院| av国产免费在线观看| 两个人视频免费观看高清| 欧美成人免费av一区二区三区| 曰老女人黄片| 99精品欧美一区二区三区四区| 青草久久国产| 看黄色毛片网站| 午夜免费成人在线视频| 亚洲av第一区精品v没综合| 99久久综合精品五月天人人| 手机成人av网站| 久久99热这里只有精品18| 免费看十八禁软件| 成人欧美大片| 欧美av亚洲av综合av国产av| 午夜福利在线观看吧| 中文字幕最新亚洲高清| 亚洲全国av大片| 国产一区二区三区在线臀色熟女| 老司机福利观看| 免费无遮挡裸体视频| 欧美黑人精品巨大| 1024手机看黄色片| 好看av亚洲va欧美ⅴa在| 国产成人系列免费观看| 这个男人来自地球电影免费观看| 久久 成人 亚洲| 97碰自拍视频| 99久久无色码亚洲精品果冻| 精品久久久久久久久久久久久| 成人特级黄色片久久久久久久| 国产高清视频在线观看网站| 97超级碰碰碰精品色视频在线观看| 一本综合久久免费| 免费av毛片视频| 在线观看免费日韩欧美大片| 色综合婷婷激情| 人人妻人人澡欧美一区二区| 最近最新免费中文字幕在线| 成人一区二区视频在线观看| 国产一区在线观看成人免费| 青草久久国产| 亚洲中文日韩欧美视频| 一a级毛片在线观看| www.www免费av| xxx96com| 日韩成人在线观看一区二区三区| 色精品久久人妻99蜜桃| 国产激情偷乱视频一区二区| 男女午夜视频在线观看| 午夜免费激情av| 看免费av毛片| 亚洲国产精品sss在线观看| 欧美在线一区亚洲| 国产亚洲欧美98| 最近最新中文字幕大全电影3| 黄色丝袜av网址大全| 伦理电影免费视频| 又黄又粗又硬又大视频| 999久久久国产精品视频| 1024香蕉在线观看| 国产高清有码在线观看视频 | 成人一区二区视频在线观看| 精品少妇一区二区三区视频日本电影| 亚洲国产精品999在线| 亚洲av日韩精品久久久久久密| 一本久久中文字幕| 精品久久久久久成人av| 国产成+人综合+亚洲专区| 日韩欧美 国产精品| 久久久久久久午夜电影| 欧美极品一区二区三区四区| 在线a可以看的网站| 久久精品国产清高在天天线| 国产成人aa在线观看| 国产成人精品久久二区二区免费| 午夜两性在线视频| 亚洲精品一区av在线观看| 亚洲熟妇中文字幕五十中出| 国产欧美日韩一区二区精品| 亚洲午夜精品一区,二区,三区| 精品乱码久久久久久99久播| 又爽又黄无遮挡网站| 久久国产精品影院| 欧美日韩亚洲综合一区二区三区_| 色av中文字幕| 我的老师免费观看完整版| 亚洲狠狠婷婷综合久久图片| 人妻久久中文字幕网| 在线观看免费视频日本深夜| 黄色视频,在线免费观看| svipshipincom国产片| 色哟哟哟哟哟哟| 99国产综合亚洲精品| 亚洲精品国产一区二区精华液| 亚洲电影在线观看av| 亚洲av电影在线进入| 亚洲欧美精品综合久久99| 夜夜看夜夜爽夜夜摸| 91成年电影在线观看| 一卡2卡三卡四卡精品乱码亚洲| 亚洲中文字幕日韩| 国产黄色小视频在线观看| 中文字幕最新亚洲高清| 一级a爱片免费观看的视频| 日韩大码丰满熟妇| 国产亚洲精品综合一区在线观看 | 免费观看精品视频网站| 亚洲精品久久成人aⅴ小说| 欧美成狂野欧美在线观看| 国产午夜精品论理片| 久久99热这里只有精品18| a级毛片在线看网站| 可以在线观看毛片的网站| 亚洲国产精品999在线| 黄片大片在线免费观看| 婷婷亚洲欧美| 舔av片在线| 欧洲精品卡2卡3卡4卡5卡区| 97碰自拍视频| 午夜精品在线福利| 欧美不卡视频在线免费观看 | 日韩国内少妇激情av| 精品乱码久久久久久99久播| 欧美另类亚洲清纯唯美| 日本五十路高清| www.www免费av| 亚洲 欧美一区二区三区| 啦啦啦免费观看视频1| 后天国语完整版免费观看| 不卡av一区二区三区| 国产精品免费一区二区三区在线| 成人三级做爰电影| 色哟哟哟哟哟哟| 狠狠狠狠99中文字幕| 午夜精品一区二区三区免费看| 在线视频色国产色| 在线观看免费午夜福利视频| 午夜两性在线视频| 免费搜索国产男女视频| 国产熟女xx| 99热只有精品国产| 99热这里只有精品一区 | 五月伊人婷婷丁香| 很黄的视频免费| 女同久久另类99精品国产91| 精品免费久久久久久久清纯| 99国产精品99久久久久| 黄片小视频在线播放| 97超级碰碰碰精品色视频在线观看| 在线观看免费视频日本深夜| 成人午夜高清在线视频| 午夜日韩欧美国产| 1024香蕉在线观看| 蜜桃久久精品国产亚洲av| 亚洲专区中文字幕在线| 丝袜人妻中文字幕| 激情在线观看视频在线高清| 丝袜美腿诱惑在线| 国产在线精品亚洲第一网站| 久久精品夜夜夜夜夜久久蜜豆 | 亚洲成人免费电影在线观看| 亚洲一码二码三码区别大吗| 国产伦在线观看视频一区| 美女高潮喷水抽搐中文字幕| 丰满人妻熟妇乱又伦精品不卡| 婷婷精品国产亚洲av在线| 高清毛片免费观看视频网站| 国产黄片美女视频| 精品免费久久久久久久清纯| 亚洲国产日韩欧美精品在线观看 | 国产高清激情床上av| 亚洲人与动物交配视频| 麻豆久久精品国产亚洲av| 色播亚洲综合网| 看黄色毛片网站| 99热只有精品国产| 国产人伦9x9x在线观看| 中文字幕人成人乱码亚洲影| 国产区一区二久久| 好男人电影高清在线观看| 久久久久国内视频| 欧美不卡视频在线免费观看 | 久热爱精品视频在线9| 久久久精品欧美日韩精品| 欧美国产日韩亚洲一区| 在线观看一区二区三区| 99热6这里只有精品| 日本黄色视频三级网站网址| 18美女黄网站色大片免费观看| 99国产精品99久久久久| 国产黄a三级三级三级人| 久久久久精品国产欧美久久久| 亚洲自拍偷在线| 真人一进一出gif抽搐免费| 激情在线观看视频在线高清| 日本a在线网址| 久久久久久久久中文| 国产私拍福利视频在线观看| svipshipincom国产片| 亚洲成人精品中文字幕电影| 国产视频内射| 伊人久久大香线蕉亚洲五| 亚洲五月婷婷丁香| av福利片在线观看| 我要搜黄色片| 欧美日韩国产亚洲二区| 欧美性猛交╳xxx乱大交人| 黄色a级毛片大全视频| 丁香欧美五月| 首页视频小说图片口味搜索| 少妇粗大呻吟视频| 久久久国产成人免费| 在线观看免费视频日本深夜| 麻豆av在线久日| 国产精品乱码一区二三区的特点| 国产精品九九99| 成人三级做爰电影| 亚洲国产欧美网| 麻豆国产av国片精品| 黄色丝袜av网址大全| 欧美性长视频在线观看| 国产一区二区在线观看日韩 | 欧美色欧美亚洲另类二区| 亚洲一区中文字幕在线| 色综合亚洲欧美另类图片| 青草久久国产| 欧美高清成人免费视频www| 亚洲成人中文字幕在线播放| 免费看十八禁软件| 窝窝影院91人妻| 午夜免费成人在线视频| 一个人观看的视频www高清免费观看 | 日韩欧美免费精品| 久久精品国产综合久久久| 床上黄色一级片| 国产在线精品亚洲第一网站| 久久精品国产清高在天天线| 天堂影院成人在线观看| 午夜福利成人在线免费观看| 日韩精品青青久久久久久| 1024手机看黄色片| 亚洲成人久久性| 99riav亚洲国产免费| 国产黄片美女视频| 国产成人精品无人区| 国产熟女xx| 90打野战视频偷拍视频| 国产亚洲精品综合一区在线观看 | 757午夜福利合集在线观看| 极品教师在线免费播放| 国产午夜精品论理片| 露出奶头的视频| 精品国内亚洲2022精品成人| 变态另类丝袜制服| 啦啦啦韩国在线观看视频| 欧美黑人欧美精品刺激| 啦啦啦观看免费观看视频高清| 黄片小视频在线播放| 久久久久精品国产欧美久久久| 一区福利在线观看| 亚洲国产中文字幕在线视频| 久久这里只有精品中国| 日本三级黄在线观看| 午夜a级毛片| 精品久久蜜臀av无| 色噜噜av男人的天堂激情| 久久草成人影院| 久久国产精品影院| 午夜福利视频1000在线观看| 日本黄色视频三级网站网址| 后天国语完整版免费观看| 国产午夜福利久久久久久| 这个男人来自地球电影免费观看| 亚洲午夜精品一区,二区,三区| 亚洲精品中文字幕一二三四区| 好看av亚洲va欧美ⅴa在| 嫩草影院精品99| 真人做人爱边吃奶动态| 舔av片在线| 黄色毛片三级朝国网站| 久久精品综合一区二区三区| 男男h啪啪无遮挡| 亚洲熟妇熟女久久| 一区二区三区国产精品乱码| 国产精品爽爽va在线观看网站| 天堂av国产一区二区熟女人妻 | 久久国产精品人妻蜜桃| 88av欧美| 国产精品野战在线观看| 舔av片在线| 中文资源天堂在线| 亚洲精品中文字幕一二三四区| 两性午夜刺激爽爽歪歪视频在线观看 | 黑人欧美特级aaaaaa片| 国产av不卡久久| 日日夜夜操网爽| 亚洲熟妇熟女久久| 亚洲中文日韩欧美视频| 精品国产乱码久久久久久男人| 韩国av一区二区三区四区| 露出奶头的视频| 91在线观看av| 国产精品自产拍在线观看55亚洲| 一本综合久久免费| 大型av网站在线播放| 亚洲av五月六月丁香网| 18美女黄网站色大片免费观看| 女同久久另类99精品国产91| 一本一本综合久久| 大型黄色视频在线免费观看| 成年免费大片在线观看| 亚洲国产看品久久| 黄色丝袜av网址大全| 国产91精品成人一区二区三区| 亚洲天堂国产精品一区在线| 亚洲精品美女久久av网站| 精品国内亚洲2022精品成人| or卡值多少钱| 国产成+人综合+亚洲专区| 18禁美女被吸乳视频| 国产精品一区二区三区四区免费观看 | 男人舔女人下体高潮全视频| 国产av一区在线观看免费| 国产精品一及| 精品国内亚洲2022精品成人| 久久久精品欧美日韩精品| 国产成+人综合+亚洲专区| 国产高清有码在线观看视频 | 国产亚洲精品久久久久5区| 超碰成人久久| 免费搜索国产男女视频| 国产精品久久久久久久电影 | 这个男人来自地球电影免费观看| 日韩中文字幕欧美一区二区| 欧美人与性动交α欧美精品济南到| 天天躁夜夜躁狠狠躁躁| 国产亚洲欧美98| 欧美在线黄色| 亚洲天堂国产精品一区在线| 日韩三级视频一区二区三区| 日韩欧美在线乱码| 最近最新中文字幕大全免费视频| 在线观看66精品国产| 禁无遮挡网站| 久久久久久九九精品二区国产 | 久久精品夜夜夜夜夜久久蜜豆 | 午夜福利18| 国产欧美日韩一区二区精品| 日本黄大片高清| 女警被强在线播放| 国内少妇人妻偷人精品xxx网站 | 国产精品永久免费网站| 中文字幕人妻丝袜一区二区| 波多野结衣巨乳人妻| 一个人免费在线观看的高清视频| 久久国产精品人妻蜜桃| 亚洲美女视频黄频| 97碰自拍视频| 精品久久久久久久毛片微露脸| 亚洲第一电影网av| 免费看a级黄色片| 无人区码免费观看不卡| ponron亚洲| 精品熟女少妇八av免费久了| 久久精品91蜜桃| 欧美成人一区二区免费高清观看 | 男男h啪啪无遮挡| 亚洲精品美女久久久久99蜜臀| 精品国产乱子伦一区二区三区| 久久天堂一区二区三区四区| 国产激情久久老熟女| 巨乳人妻的诱惑在线观看| www国产在线视频色| 日韩成人在线观看一区二区三区| 国产成人av教育| 国语自产精品视频在线第100页| 日韩欧美免费精品| 一级毛片精品| 日本精品一区二区三区蜜桃| 中出人妻视频一区二区| 好男人电影高清在线观看| 91国产中文字幕| 老司机在亚洲福利影院| 免费观看人在逋| 国产精品美女特级片免费视频播放器 | 大型黄色视频在线免费观看| www国产在线视频色| 久久婷婷人人爽人人干人人爱| 久久久精品大字幕| 丝袜美腿诱惑在线| 在线a可以看的网站| 麻豆成人午夜福利视频| 少妇人妻一区二区三区视频| 久久午夜综合久久蜜桃| 90打野战视频偷拍视频| 老司机在亚洲福利影院| 一级作爱视频免费观看| 美女免费视频网站| 久久热在线av| 黄色视频,在线免费观看| 婷婷亚洲欧美| 欧美色视频一区免费| 国产精品影院久久| 日本三级黄在线观看| АⅤ资源中文在线天堂| 成人永久免费在线观看视频| www.www免费av| 久久精品人妻少妇| 精品久久久久久成人av| 国产av不卡久久| 一本大道久久a久久精品| 亚洲国产欧美一区二区综合| 国内少妇人妻偷人精品xxx网站 | 国产黄片美女视频| av福利片在线| 国产又色又爽无遮挡免费看| 夜夜躁狠狠躁天天躁| 久久中文字幕人妻熟女| 国产视频一区二区在线看| 无人区码免费观看不卡| 日本 av在线| 欧美最黄视频在线播放免费| 狠狠狠狠99中文字幕| 精品一区二区三区视频在线观看免费| 精品一区二区三区四区五区乱码| avwww免费| 脱女人内裤的视频| 岛国在线免费视频观看| 身体一侧抽搐| 成年女人毛片免费观看观看9| 国产av一区二区精品久久| 免费在线观看日本一区| 亚洲七黄色美女视频| 精品国产亚洲在线| 国产精品亚洲av一区麻豆| 午夜免费观看网址| 欧美日本视频| 国产成人影院久久av| 欧美又色又爽又黄视频| 法律面前人人平等表现在哪些方面| 哪里可以看免费的av片| 亚洲va日本ⅴa欧美va伊人久久| 国产精华一区二区三区| 色在线成人网| 久久久久久久久免费视频了| 免费看美女性在线毛片视频| 国产精品1区2区在线观看.| 一级作爱视频免费观看| 一a级毛片在线观看| 欧美最黄视频在线播放免费| av视频在线观看入口| 久久婷婷成人综合色麻豆| 可以免费在线观看a视频的电影网站| 国产91精品成人一区二区三区| 99久久99久久久精品蜜桃| 1024视频免费在线观看| 婷婷精品国产亚洲av在线| 级片在线观看| 丝袜美腿诱惑在线| 精品一区二区三区视频在线观看免费| 首页视频小说图片口味搜索| 两个人免费观看高清视频| 中文字幕高清在线视频| 久久亚洲真实| 久久欧美精品欧美久久欧美| 国产精品永久免费网站| 国产精品自产拍在线观看55亚洲| 午夜两性在线视频| 又爽又黄无遮挡网站| 国产高清视频在线观看网站| 老司机深夜福利视频在线观看| 欧美成狂野欧美在线观看| 18禁黄网站禁片免费观看直播| 中文字幕久久专区| 色播亚洲综合网| 又粗又爽又猛毛片免费看| 成人18禁在线播放| 国产精品自产拍在线观看55亚洲| 国产精品久久久久久久电影 | 无人区码免费观看不卡| 国产精品久久久久久精品电影| 91在线观看av| 毛片女人毛片| 国产在线观看jvid| 窝窝影院91人妻| 日本 欧美在线| 精品人妻1区二区| 成人18禁高潮啪啪吃奶动态图| 制服丝袜大香蕉在线| 身体一侧抽搐| www.精华液| a级毛片a级免费在线| 小说图片视频综合网站| 国产97色在线日韩免费| 亚洲av成人av| 老司机在亚洲福利影院| 在线看三级毛片| 久久中文看片网| 日本熟妇午夜| 99久久国产精品久久久| 国产精品,欧美在线| 超碰成人久久| 国产精品美女特级片免费视频播放器 | 亚洲精品美女久久久久99蜜臀| 国产精品国产高清国产av| 三级毛片av免费| 丰满人妻一区二区三区视频av | 国产激情久久老熟女| 一个人免费在线观看的高清视频| 国产精品久久久久久久电影 | 国产亚洲欧美98| www.999成人在线观看| 久久久久国产精品人妻aⅴ院| 99久久国产精品久久久| 日韩欧美三级三区| 757午夜福利合集在线观看| 热99re8久久精品国产| 日韩欧美三级三区| 国产精品一区二区三区四区免费观看 | 露出奶头的视频| 日本黄色视频三级网站网址| 成人三级做爰电影| a级毛片a级免费在线| 亚洲精品在线美女| 人妻久久中文字幕网| 国产一区二区三区在线臀色熟女| 久久久久久免费高清国产稀缺| 精品日产1卡2卡| 久久久精品欧美日韩精品| 身体一侧抽搐| 国内久久婷婷六月综合欲色啪| 久久人妻福利社区极品人妻图片| 三级国产精品欧美在线观看 | 午夜激情av网站| 亚洲成a人片在线一区二区| 国产av不卡久久| 在线观看免费视频日本深夜| 久久久久国产一级毛片高清牌| 亚洲无线在线观看| 动漫黄色视频在线观看| 亚洲男人的天堂狠狠| 欧美日韩亚洲综合一区二区三区_| 一区二区三区高清视频在线|