• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于對(duì)抗訓(xùn)練策略的語(yǔ)言模型數(shù)據(jù)增強(qiáng)技術(shù)

    2018-06-07 16:21:56張一珂張鵬遠(yuǎn)顏永紅
    自動(dòng)化學(xué)報(bào) 2018年5期
    關(guān)鍵詞:性能文本策略

    張一珂 張鵬遠(yuǎn) 顏永紅,3

    語(yǔ)言模型(Language model,LM)是描述詞序列概率分布的數(shù)學(xué)模型,廣泛應(yīng)用于各種自然語(yǔ)言處理(Natural language processing,NLP)領(lǐng)域,例如語(yǔ)音識(shí)別、機(jī)器翻譯、詞性標(biāo)注等.

    N元文法語(yǔ)言模型(N-gram LM)是一種常用的統(tǒng)計(jì)語(yǔ)言模型[1].由于實(shí)際自然語(yǔ)言中詞匯組合的多樣性,利用有限數(shù)據(jù)訓(xùn)練得到的N-gram LM不可避免地存在數(shù)據(jù)稀疏問(wèn)題[2].數(shù)據(jù)增強(qiáng)是一種有效緩解數(shù)據(jù)稀疏問(wèn)題的方法[3?5].就語(yǔ)言模型建模任務(wù)而言,常見(jiàn)的數(shù)據(jù)增強(qiáng)方法包括基于外部數(shù)據(jù)的方法[4?5]和基于遞歸神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型(Recurrent neural network LM,RNN LM)隨機(jī)采樣的方法[6?7].前者按照一定的規(guī)則從其他來(lái)源(例如互聯(lián)網(wǎng))的數(shù)據(jù)中挑選部分?jǐn)?shù)據(jù)擴(kuò)充訓(xùn)練集,后者是利用訓(xùn)練好的RNN LM隨機(jī)生成采樣數(shù)據(jù)以豐富訓(xùn)練集中包含的語(yǔ)言現(xiàn)象.

    在難以獲取領(lǐng)域相關(guān)的外部數(shù)據(jù)的情況下,基于RNN LM隨機(jī)采樣的數(shù)據(jù)增強(qiáng)方法可以有效提升N-gram LM參數(shù)估計(jì)的魯棒性.該方法將RNN LM作為一個(gè)生成模型,隨機(jī)生成詞序列.現(xiàn)有的序列生成模型均采用最大似然估計(jì)(Maximum likelihood estimation,MLE)算法估計(jì)模型參數(shù).然而,MLE方法會(huì)使生成模型在生成采樣過(guò)程中遇到暴露偏差問(wèn)題[8?10].即在生成下一個(gè)詞匯時(shí),如果依賴的歷史序列(即已生成的序列)未在訓(xùn)練數(shù)據(jù)中出現(xiàn),偏差就會(huì)在序列生成過(guò)程中逐漸累積,最終導(dǎo)致生成的序列缺乏長(zhǎng)時(shí)語(yǔ)義信息.

    生成對(duì)抗網(wǎng)絡(luò)(Generative adversarial nets,GAN)[11?12]是一種有效緩解暴露偏差問(wèn)題的訓(xùn)練策略.GAN利用一個(gè)判別模型來(lái)判斷給定的樣例是否來(lái)自真實(shí)的數(shù)據(jù),而生成模型則學(xué)習(xí)如何生成高質(zhì)量的數(shù)據(jù)讓判別模型失去判斷能力.GAN已經(jīng)成功應(yīng)用于圖像生成任務(wù)中,然而將其直接應(yīng)用于NLP領(lǐng)域生成離散序列面臨兩個(gè)主要問(wèn)題:1)當(dāng)生成模型的輸出為離散值時(shí),判別模型的誤差梯度無(wú)法利用反向傳播算法回傳到生成模型.2)判別模型只能對(duì)完整的序列進(jìn)行評(píng)價(jià),無(wú)法對(duì)未生成完的序列進(jìn)行評(píng)價(jià).

    本文將離散序列生成問(wèn)題表示為強(qiáng)化學(xué)習(xí)問(wèn)題[13?15],將生成模型視為隨機(jī)的參數(shù)化策略,利用判別模型的輸出作為獎(jiǎng)勵(lì)對(duì)其進(jìn)行優(yōu)化,避免了判別模型與生成模型間難以進(jìn)行誤差梯度回傳的問(wèn)題,同時(shí)采用蒙特卡洛(Monte Carlo,MC)搜索算法[16?17]對(duì)生成序列的中間狀態(tài)進(jìn)行評(píng)估.

    目前GAN的研究主要集中于特定圖像及本文數(shù)據(jù)集上的生成任務(wù),且對(duì)于生成的文本缺乏客觀的評(píng)價(jià)標(biāo)準(zhǔn).本文針對(duì)語(yǔ)音識(shí)別任務(wù),初步探索了GAN在實(shí)際數(shù)據(jù)上的生成效果,并以識(shí)別率為客觀標(biāo)準(zhǔn)對(duì)生成數(shù)據(jù)的質(zhì)量進(jìn)行了評(píng)價(jià).具體來(lái)說(shuō),首先將GAN生成的數(shù)據(jù)用于增強(qiáng)語(yǔ)言模型,然后利用增強(qiáng)的語(yǔ)言模型對(duì)識(shí)別一遍解碼中保留的多條候選進(jìn)行重估.本文在兩個(gè)低資源新聞識(shí)別數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),結(jié)果表明隨著訓(xùn)練數(shù)據(jù)量的增加,本文提出的數(shù)據(jù)增強(qiáng)方法可以進(jìn)一步降低識(shí)別字錯(cuò)誤率(Character error rate,CER),且始終優(yōu)于基于MLE的數(shù)據(jù)增強(qiáng)方法.當(dāng)訓(xùn)練數(shù)據(jù)達(dá)到6M詞時(shí),本文提出的方法分別使兩個(gè)測(cè)試集的CER相對(duì)基線系統(tǒng)降低5.0%和7.1%.

    1 基于RNN LM的數(shù)據(jù)增強(qiáng)算法

    RNN LM的目標(biāo)是預(yù)測(cè)給定詞序列中每個(gè)詞出現(xiàn)的條件概率.給定一條訓(xùn)練語(yǔ)句w1,w2,···,wT(wt∈V,t=1,2,···,T),V表示詞典空間.RNN LM按照下式將輸入詞序列編碼為隱含層狀態(tài)序列s1,s2,···,sT(st∈Rh,t=1,2,···,T)

    其中,是wt對(duì)應(yīng)的獨(dú)熱碼.是可訓(xùn)練參數(shù),σ表示非線性激活函數(shù).然后利用隱含層狀態(tài)序列得到一系列條件概率分布.

    其中,是可訓(xùn)練參數(shù),yt∈R|V|表示給定歷史序列w1,w2,···,wt條件下,當(dāng)前詞wt+1的概率分布P(wt+1|w≤t),?表示softmax激活函數(shù).通常采用MLE算法對(duì)RNN LM參數(shù)進(jìn)行估計(jì),即最大化給定訓(xùn)練序列的對(duì)數(shù)概率.

    基于RNN LM的數(shù)據(jù)增強(qiáng)算法的基本思路是首先利用RNN對(duì)原始訓(xùn)練語(yǔ)料進(jìn)行建模.雖然訓(xùn)練完成后模型的參數(shù)是確定的,仍然可以從該模型中隨機(jī)采樣生成不同的詞序列.因?yàn)镽NN模型的輸出yt定義了一個(gè)多項(xiàng)分布P(wt+1|w≤t),可以依據(jù)此概率分布從詞典V中隨機(jī)采樣,生成當(dāng)前詞wt+1.然后將wt+1作為下一時(shí)刻的輸入送入RNN模型,得到新的多項(xiàng)分布P(wt+2|w≤t+1),并從該分布中采樣得到wt+2.重復(fù)此過(guò)程直到生成指定長(zhǎng)度的序列或生成句子結(jié)束符號(hào).重復(fù)上述隨機(jī)采樣過(guò)程即可得到若干采樣序列.通常,利用生成的數(shù)據(jù)和原始數(shù)據(jù)(RNN模型的訓(xùn)練數(shù)據(jù))分別訓(xùn)練不同的N-gram LM,然后將兩個(gè)模型進(jìn)行插值,從而提高N-gram LM參數(shù)估計(jì)的魯棒性.

    2 序列生成對(duì)抗網(wǎng)絡(luò)

    2.1 生成對(duì)抗網(wǎng)絡(luò)

    GAN由Goodfellow等于2014年提出[11],是無(wú)監(jiān)督式學(xué)習(xí)的一種方法.它讓兩個(gè)神經(jīng)網(wǎng)絡(luò)通過(guò)相互博弈的方式進(jìn)行學(xué)習(xí).GAN由一個(gè)生成模型G與一個(gè)判別模型D組成.G從隱藏空間中隨機(jī)采樣作為輸入,輸出結(jié)果需要盡量模仿訓(xùn)練集中的真實(shí)樣本.D的輸入為真實(shí)樣本或G的輸出,目標(biāo)是盡可能將G的輸出從真實(shí)樣本中分辨出來(lái).而G則要盡可能欺騙D.兩個(gè)模型相互對(duì)抗,不斷調(diào)整參數(shù),最終目的是使D無(wú)法分辨G的輸出與真實(shí)樣本.具體地,給定一個(gè)先驗(yàn)噪聲分布pz(z),pd(x)表示真實(shí)數(shù)據(jù)的分布,D的優(yōu)化目標(biāo)是最大化

    G的優(yōu)化目標(biāo)則是最小化

    2.2 基于策略梯度的序列生成對(duì)抗網(wǎng)絡(luò)

    序列生成問(wèn)題可以解釋為給定一個(gè)包含若干序列化數(shù)據(jù)的訓(xùn)練集,訓(xùn)練一個(gè)參數(shù)化生成模型Gθ來(lái)生成序列Y1:T=(y1,···,yt,···,yT),yt∈V.V表示詞典空間,包含若干候選詞條.序列生成問(wèn)題也可以表示為強(qiáng)化學(xué)習(xí)問(wèn)題:在t時(shí)刻,狀態(tài)s是當(dāng)前已經(jīng)生成的序列y1,···,yt?1,動(dòng)作a是將要生成的下一個(gè)詞條yt.依據(jù)當(dāng)前狀態(tài)s,如何選擇將要執(zhí)行的動(dòng)作a,由策略Gθ(yt|Y1:t?1)決定.實(shí)際上,策略給出了在當(dāng)前狀態(tài)s下,執(zhí)行動(dòng)作a的概率.

    此外,訓(xùn)練一個(gè)參數(shù)化判別模型Dφ來(lái)指導(dǎo)生成模型Gθ的學(xué)習(xí)過(guò)程.Dφ(Y1:T)表示生成序列Y1:T與真實(shí)數(shù)據(jù)的相似程度,是一個(gè)概率值.如圖1所示,判別模型Dφ的輸入為真實(shí)數(shù)據(jù)或生成模型Gθ產(chǎn)生的數(shù)據(jù).生成模型Gθ通過(guò)策略梯度來(lái)更新參數(shù),獎(jiǎng)勵(lì)信號(hào)來(lái)自判別模型,并通過(guò)MC搜索傳遞到序列的中間狀態(tài).

    當(dāng)不存在中間狀態(tài)的獎(jiǎng)勵(lì)時(shí),生成模型(策略)Gθ(yt|Y1:t?1)的目標(biāo)是使生成序列的期望獎(jiǎng)勵(lì)J(θ)最大.

    其中,s0表示初始狀態(tài),RT表示判別模型Dφ對(duì)生成序列Y1:T的獎(jiǎng)勵(lì).是“動(dòng)作–值”函數(shù),表示從狀態(tài)s開(kāi)始,依據(jù)策略Gθ采取動(dòng)作a的期望獎(jiǎng)勵(lì).“動(dòng)作–值”函數(shù)的功能是估計(jì)當(dāng)前狀態(tài)與預(yù)期目標(biāo)的相符程度,即從當(dāng)前狀態(tài)開(kāi)始最終能否生成類似真實(shí)數(shù)據(jù)的序列.而判別模型Dφ的輸出值恰好是生成序列與真實(shí)數(shù)據(jù)相似程度的概率值.因此,本文采用Dφ(Y1:T)做為作為“動(dòng)作–值”函數(shù),即:

    圖1 序列生成對(duì)抗網(wǎng)絡(luò)訓(xùn)練過(guò)程Fig.1 Training procedure of the sequential generative adversarial network

    然而,判別模型只能對(duì)生成完成的序列進(jìn)行評(píng)價(jià).我們希望獎(jiǎng)勵(lì)信號(hào)不僅考慮已生成的序列是否符合最終目標(biāo),同時(shí)也考慮已生成序列中前綴子序列對(duì)生成后續(xù)詞條的影響.為了評(píng)估生成序列的中間狀態(tài),本文采用MC搜索算法從模擬策略Gβ中采樣尚未生成的最后T?t個(gè)詞條.定義N次MC搜索如下:

    其中,根據(jù)當(dāng)前狀態(tài)從模擬策略Gβ中采樣得到.本文選取的模擬策略Gβ與生成模型Gθ拓?fù)浣Y(jié)構(gòu)相同.實(shí)際上,為了加速訓(xùn)練過(guò)程,可以選取更簡(jiǎn)單的模型作為模擬策略.為了減少方差并獲取更精確的狀態(tài)值,從當(dāng)前狀態(tài)開(kāi)始按照模擬策略Gβ對(duì)尚未生成的子序列進(jìn)行N次采樣,得到N條采樣序列.此時(shí),“狀態(tài)–值”函數(shù)變?yōu)?/p>

    從式(9)可以看出,當(dāng)沒(méi)有中間狀態(tài)獎(jiǎng)勵(lì)時(shí),“狀態(tài)–值”函數(shù)迭代的定義為從狀態(tài)s=Y1:t開(kāi)始下一狀態(tài)的值,直到序列結(jié)束.

    由于判別模型Dφ可以動(dòng)態(tài)地更新,使用Dφ作為獎(jiǎng)勵(lì)函數(shù)可以迭代地提升生成模型Gθ的性能.一旦可以通過(guò)Gθ得到更加真實(shí)的生成序列,按照下式重新訓(xùn)練Dφ.

    每當(dāng)新的判別模型Dφ訓(xùn)練完成,迭代訓(xùn)練了生成模型Gθ,最大化目標(biāo)函數(shù)為

    然后,利用隨機(jī)梯度下降算法更新生成模型Gθ的參數(shù).

    其中,α表示學(xué)習(xí)率,θ(t)表示第t次迭代中生成模型的參數(shù).

    算法1詳細(xì)描述了序列生成網(wǎng)絡(luò)的訓(xùn)練步驟.首先,采用MLE算法對(duì)生成模型Gθ進(jìn)行預(yù)訓(xùn)練,然后利用預(yù)訓(xùn)練得到的Gθ生成采樣數(shù)據(jù)對(duì)判別模型Dφ進(jìn)行預(yù)訓(xùn)練.Goodfellow在文獻(xiàn)[11]中指出,當(dāng)判別模型Dφ在迭代訓(xùn)練過(guò)程中始終保持最優(yōu)時(shí),生成模型Gθ的分布會(huì)逐漸收斂到真實(shí)數(shù)據(jù)的分布.對(duì)Dφ進(jìn)行預(yù)訓(xùn)練可以使其在對(duì)抗訓(xùn)練過(guò)程中迅速收斂到近似最優(yōu)的狀態(tài).在預(yù)訓(xùn)練之后,生成模型與判別模型交替地進(jìn)行訓(xùn)練.在對(duì)生成模型進(jìn)行若干步更新之后,判別模型需要重新訓(xùn)練來(lái)和生成模型保持平衡.在對(duì)判別模型進(jìn)行訓(xùn)練時(shí),從給定的訓(xùn)練集中采樣得到正樣本,而負(fù)樣本則由生成模型產(chǎn)生.為了保持平衡,在判別模型的每次訓(xùn)練中,保持正樣本與負(fù)樣本數(shù)目相同.為了減少估計(jì)的方差,類似Bootstrapping算法[18],在每次迭代中,采用不同的負(fù)樣本對(duì)判別模型進(jìn)行訓(xùn)練.

    算法1.序列對(duì)抗生成網(wǎng)絡(luò)

    輸入.訓(xùn)練集S={X1:T}

    輸出.生成模型(策略)Gθ

    隨機(jī)初始化生成模型(策略)Gθ,判別模型Dφ

    在S上利用MLE算法對(duì)Gθ進(jìn)行預(yù)訓(xùn)練

    初始化模擬策略Gβ←?Gθ

    利用Gθ生成負(fù)樣本,對(duì)Dφ進(jìn)行預(yù)訓(xùn)練

    2.3 模型拓?fù)浣Y(jié)構(gòu)

    2.3.1 生成模型

    本文采用RNN作為序列生成模型.RNN模型的定義見(jiàn)式(1)和式(2).為了緩解梯度消失問(wèn)題與梯度爆炸問(wèn)題[19?20],本文采用長(zhǎng)短時(shí)記憶單元(Long short-term memory units,LSTM units)結(jié)構(gòu)代替式(1)[21?22].實(shí)際上,任何RNN模型的變體,例如門(mén)遞歸單元[23]和注意力機(jī)制[24],都可以作為序列生成模型.本文LSTM 單元的具體實(shí)施如下:

    2.3.2 判別模型

    深度神經(jīng)網(wǎng)絡(luò)[25]、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,CNN)[26]和遞歸卷積網(wǎng)絡(luò)[27]已被成功應(yīng)用于序列分類任務(wù)中.近年來(lái),CNN被廣泛應(yīng)用于文本分類問(wèn)題,并取得了良好的效果[28].因此本文選取CNN作為判別模型.

    首先將給定序列w1,w2,···,wT表示為

    其中,是詞條wt對(duì)應(yīng)的k維詞矢量,通過(guò)對(duì)wt的獨(dú)熱碼進(jìn)行線性變換得到[29].通過(guò)連接操作?,可以得到輸入序列的二維矩陣表示ε1:T∈Rk×T.然后,利用窗長(zhǎng)為l的卷積核r∈Rk×l對(duì)輸入特征ε1:T進(jìn)行卷積操作,得到新的特征圖.

    其中,?表示卷積操作,ρ是非線性函數(shù),b是偏置項(xiàng).采用多組不同窗長(zhǎng)的卷積核即可得到多組不同的特征圖.最后,對(duì)每張?zhí)卣鲌D在時(shí)間維度上進(jìn)行最大值池化操作.

    為了提高分類性能,在池化操作后添加了通道結(jié)構(gòu)[30].

    其中,H,T,C表示對(duì)池化層輸出c進(jìn)行不同的仿射變換后再進(jìn)行非線性變換,通常采取sigmoid函數(shù)作為非線性激活函數(shù).T表示變換門(mén),C表示運(yùn)輸門(mén).為了簡(jiǎn)化計(jì)算,本文令C=1?T.WH,WT,Wc是可訓(xùn)練參數(shù)矩陣.最后,采用sigmoid激活函數(shù)的全連接層輸出分類概率.

    3 實(shí)驗(yàn)

    3.1 實(shí)驗(yàn)設(shè)置

    本文實(shí)驗(yàn)在THCHS30[31]和AISHELL[32]兩個(gè)中文普通話語(yǔ)音識(shí)別數(shù)據(jù)庫(kù)上進(jìn)行.THCHS30是清華大學(xué)開(kāi)發(fā)的語(yǔ)音庫(kù),共30小時(shí),文本取自大量新聞內(nèi)容.AISHELL是北京希爾貝殼科技有限公司發(fā)布的數(shù)據(jù)集,共178小時(shí),包含400位來(lái)自中國(guó)不同口音區(qū)域的發(fā)言人,錄音文本包含財(cái)經(jīng)、科技、體育、娛樂(lè)等領(lǐng)域.

    本文利用THCHS30和AISHELL提供的轉(zhuǎn)錄文本作為原始數(shù)據(jù)訓(xùn)練RNN生成模型,并利用該RNN模型生成采樣數(shù)據(jù).然后利用生成的數(shù)據(jù)訓(xùn)練新的N-gram LM與轉(zhuǎn)錄文本訓(xùn)練的N-gram LM插值.最后用插值后的語(yǔ)言模型對(duì)識(shí)別候選進(jìn)行重估.

    本文利用Kaldi工具[33]搭建基線識(shí)別系統(tǒng),輸入特征是11幀串聯(lián)的MFCC特征.基線語(yǔ)言模型與生成數(shù)據(jù)估計(jì)的語(yǔ)言模型采用Kneser-Ney平滑的三元文法語(yǔ)言模型,由SRILM工具[34]訓(xùn)練得到.序列生成對(duì)抗網(wǎng)絡(luò)中的RNN與CNN模型的訓(xùn)練由TensorFlow工具[35]實(shí)現(xiàn).

    RNN生成模型包含2層隱含層,每層由150個(gè)LSTM單元組成.輸出層節(jié)點(diǎn)數(shù)等于詞典大小,詞典共包含55590個(gè)中文詞.為了防止模型對(duì)訓(xùn)練數(shù)據(jù)過(guò)擬合,訓(xùn)練時(shí)采用了丟棄正則化技術(shù),在預(yù)訓(xùn)練與對(duì)抗訓(xùn)練過(guò)程中初始丟棄率均為0.3.

    CNN判別模型分別采用窗長(zhǎng)為1,2,3,4,5,10的卷積核進(jìn)行卷積操作,每個(gè)窗長(zhǎng)分別使用50個(gè)不同的卷積核.此外,判別模型包含2層通道層,每層150節(jié)點(diǎn).輸出層包含1個(gè)節(jié)點(diǎn),表示輸入序列與真實(shí)數(shù)據(jù)相似程度.在訓(xùn)練過(guò)程中,同樣采取丟棄正則化技術(shù)防止模型過(guò)擬合,丟棄率為0.3.同時(shí)在輸出層采用L2范數(shù)正則化技術(shù),正則項(xiàng)系數(shù)為0.1.

    生成模型和判別模型的訓(xùn)練采用基于Adam算法[36]的批量(Mini-batch)隨機(jī)梯度下降更新參數(shù),輸入序列長(zhǎng)度為20,批量數(shù)目為35.生成模型的初始學(xué)習(xí)率為0.01,衰減速率為0.95.判別模型的學(xué)習(xí)率為0.0001.

    3.2 對(duì)抗訓(xùn)練中超參數(shù)的選取

    在對(duì)抗訓(xùn)練過(guò)程中,超參數(shù)的選取對(duì)最終生成模型的性能至關(guān)重要.對(duì)抗訓(xùn)練中主要的超參數(shù)包括:每次迭代中生成模型的訓(xùn)練步數(shù)g-steps,每次迭代中判別模型的訓(xùn)練步數(shù)d-steps,每次迭代中用于判別模型訓(xùn)練的負(fù)樣本采樣數(shù)samples(以Minibatch為單位).為了分析上述超參數(shù)對(duì)模型性能的影響,本文在THCHS30數(shù)據(jù)集上進(jìn)行了相關(guān)實(shí)驗(yàn),結(jié)果如圖2所示.

    從圖2可以看出,當(dāng)用于判別模型訓(xùn)練的負(fù)樣本采樣數(shù)(samples)增加時(shí),生成模型和判別模型訓(xùn)練誤差的方差減小.同時(shí),增加負(fù)樣本采樣數(shù)會(huì)加快判別模型的收斂,如圖2(b)所示.當(dāng)生成模型訓(xùn)練步數(shù)(g-steps)增加時(shí),生成模型訓(xùn)練誤差迅速減小并保持穩(wěn)定,但是判別模型在大約500次批量更新時(shí)才收斂到最優(yōu).此時(shí)生成模型學(xué)習(xí)到的分布并不是真實(shí)數(shù)據(jù)的分布,因?yàn)榕袆e模型尚未收斂到近似最優(yōu)[11].本文實(shí)驗(yàn)取g-steps=1,d-steps=1,samples=3.

    3.3 基于相對(duì)交叉熵的數(shù)據(jù)擴(kuò)增

    序列生成對(duì)抗網(wǎng)絡(luò)在不同數(shù)據(jù)集上的性能如圖3所示.從圖3(a)可以看出,在THCHS30和AISHELL兩個(gè)數(shù)據(jù)集上,生成模型均迅速收斂.圖3(b)給出了生成模型在驗(yàn)證集上交叉熵的變化.模型在開(kāi)發(fā)集上的交叉熵越高,說(shuō)明模型分布(即生成數(shù)據(jù)的分布)與開(kāi)發(fā)集數(shù)據(jù)分布相差越大.從圖3(b)可以看出,單獨(dú)使用THCHS30或AISHELL數(shù)據(jù)集的轉(zhuǎn)錄文本對(duì)生成模型進(jìn)行訓(xùn)練時(shí),雖然生成模型可以生成高質(zhì)量的采樣數(shù)據(jù),但生成模型對(duì)訓(xùn)練集過(guò)擬合,生成的數(shù)據(jù)泛化性較差.數(shù)據(jù)增強(qiáng)的目的是在保證生成數(shù)據(jù)的分布與原始數(shù)據(jù)分布接近的條件下,生成盡可能多樣化的采樣數(shù)據(jù),以豐富原始數(shù)據(jù)的文法現(xiàn)象.

    為了解決上述問(wèn)題,從網(wǎng)易、搜狐等網(wǎng)站爬取了部分新聞數(shù)據(jù)(約860M詞).然后按照文獻(xiàn)[37]中基于相對(duì)交叉熵的數(shù)據(jù)挑選算法,將THCHS30和AISHELL的轉(zhuǎn)錄文本作為目標(biāo)數(shù)據(jù),從網(wǎng)頁(yè)爬取數(shù)據(jù)中挑選了部分與目標(biāo)數(shù)據(jù)風(fēng)格接近的文本(約6M 詞)擴(kuò)充生成模型的訓(xùn)練集.然后將擴(kuò)充的數(shù)據(jù)集(包含THCHS30和AISHELL的轉(zhuǎn)錄文本以及挑選的網(wǎng)頁(yè)數(shù)據(jù),記為AUGMENT)作為生成模型的訓(xùn)練數(shù)據(jù),生成模型的訓(xùn)練誤差及其在開(kāi)發(fā)集(此處的開(kāi)發(fā)集合并了THCHS30和AISHELL的開(kāi)發(fā)集)上的交叉熵分別在圖3(a)和圖3(b)給出.擴(kuò)充訓(xùn)練集后,雖然生成模型在訓(xùn)練集上收斂較慢且最終誤差較高,但其在開(kāi)發(fā)集上始終保持良好的泛化性能,符合數(shù)據(jù)增強(qiáng)的目的.因此,在后續(xù)的語(yǔ)音識(shí)別多候選重估實(shí)驗(yàn)中,采用擴(kuò)充后的訓(xùn)練集對(duì)生成模型進(jìn)行訓(xùn)練.

    圖2 不同超參數(shù)條件下序列對(duì)抗生成網(wǎng)絡(luò)訓(xùn)練誤差Fig.2 Training errors of sequential generative adversarial networks with different hyper-parameters

    3.4 識(shí)別多候選重估實(shí)驗(yàn)

    在訓(xùn)練得到生成模型之后,按照第1節(jié)的方法生成采樣數(shù)據(jù).為了對(duì)比對(duì)抗訓(xùn)練策略與MLE兩種訓(xùn)練準(zhǔn)則對(duì)生成模型性能的影響,分別從采用兩種訓(xùn)練準(zhǔn)則得到的生成模型中采樣生成1000000條句子.為了保證實(shí)驗(yàn)的公平性,兩個(gè)生成模型采用相同的數(shù)據(jù)集進(jìn)行訓(xùn)練,即第3.3節(jié)中擴(kuò)增后的數(shù)據(jù)集.然后利用采樣數(shù)據(jù)分別訓(xùn)練Kneser-Ney平滑的三元文法語(yǔ)言模型.詞典與訓(xùn)練生成模型的詞典相同,共包含55590個(gè)中文詞.

    圖3 序列生成對(duì)抗網(wǎng)絡(luò)在不同數(shù)據(jù)集上的性能Fig.3 Performance of sequential generative adversarial networks on different datasets

    對(duì)于測(cè)試集中的每條語(yǔ)音,本文保留一遍解碼中得分最高的100條候選.實(shí)際操作時(shí),為了方便遍歷最優(yōu)的插值系數(shù),將新語(yǔ)言模型的得分與基線語(yǔ)言模型的得分進(jìn)行動(dòng)態(tài)的插值.首先用新語(yǔ)言模型計(jì)算每條候選的新語(yǔ)言模型得分.然后,將每條候選的新語(yǔ)言模型得分與基線語(yǔ)言模型得分按如下公式加權(quán)作為該候選最終的語(yǔ)言模模型得分slm.

    其中,snew表示新語(yǔ)言模型得分,sbase表示基線語(yǔ)言模型得分,ω是新語(yǔ)言模型得分的插值權(quán)重.最后計(jì)算該候選的總得分.

    其中,γ是語(yǔ)言模型得分權(quán)重因子,sam表示該候選的聲學(xué)模型得分.得到各條候選新的得分之后,從中選取得分最高的候選作為該測(cè)試語(yǔ)音的重估解碼結(jié)果.表1是對(duì)重估解碼結(jié)果CER的統(tǒng)計(jì).

    表1 不同數(shù)據(jù)增強(qiáng)技術(shù)對(duì)識(shí)別字錯(cuò)誤率的影響(%)Table 1 Character error rates of different methods(%)

    從表1中可以看出,不同的語(yǔ)言模型數(shù)據(jù)增強(qiáng)技術(shù)均可以有效降低CER.相比于基于MLE的語(yǔ)言模型數(shù)據(jù)增強(qiáng)技術(shù),本文提出的基于對(duì)抗訓(xùn)練策略的數(shù)據(jù)增強(qiáng)技術(shù)可以進(jìn)一步降低CER.在兩個(gè)測(cè)試集上,本文提出的方法使CER相對(duì)基線系統(tǒng)分別下降5.0%和7.1%.實(shí)際上,判別模型的輸入特征是不同階數(shù)的N元文法特征,由不同窗長(zhǎng)的卷積核與輸入特征進(jìn)行卷積得到.即判別模型通過(guò)給定文本序列的N元文法特征判斷其與真實(shí)數(shù)據(jù)的相似性.因此生成模型產(chǎn)生的文本序列中的N元文法分布更類似于真實(shí)數(shù)據(jù)中的N元文法分布.而N-gram LM正是通過(guò)訓(xùn)練文本中的N元文法的分布來(lái)估計(jì)給定句子的概率.因此,基于對(duì)抗生成策略的數(shù)據(jù)增強(qiáng)技術(shù)可以有效提升語(yǔ)言模型在語(yǔ)音識(shí)別任務(wù)中的性能.

    為了進(jìn)一步分析本文提出的數(shù)據(jù)增強(qiáng)方法與基于MLE的數(shù)據(jù)增強(qiáng)方法的性能差異,本文在不同規(guī)模的訓(xùn)練數(shù)據(jù)上進(jìn)行了對(duì)比實(shí)驗(yàn).已有的研究結(jié)果[38]表明,RNN模型的性能不僅取決于訓(xùn)練數(shù)據(jù)的規(guī)模,同時(shí)也取決的訓(xùn)練數(shù)據(jù)的質(zhì)量.即只有在增加領(lǐng)域相關(guān)的訓(xùn)練數(shù)據(jù)時(shí),RNN模型的性能才會(huì)提升,否則其性能反而會(huì)下降.由于無(wú)法獲取大量領(lǐng)域相關(guān)的文本數(shù)據(jù),本文中的實(shí)驗(yàn)在訓(xùn)練集的不同子集上進(jìn)行.

    本文首先將訓(xùn)練集 (約 6M 詞)分為A(約0.7M 詞)、B(約 1.5M 詞)、C(約 2.9M 詞)三個(gè)子集,且C子集包含B子集,B子集包含A子集.然后采用上文所述的方法和模型參數(shù)在各個(gè)訓(xùn)練集上分別訓(xùn)練生成模型、生成采樣數(shù)據(jù)、最終利用增強(qiáng)的語(yǔ)言模型進(jìn)行識(shí)別結(jié)果重估,結(jié)果如圖4所示.

    圖4 訓(xùn)練數(shù)據(jù)規(guī)模對(duì)兩種數(shù)據(jù)增強(qiáng)技術(shù)性能的影響Fig.4 The effect of the size of training data on two augmentation approaches

    實(shí)驗(yàn)結(jié)果表明,在各個(gè)子集上,兩種數(shù)據(jù)增強(qiáng)技術(shù)均可以降低CER.在子集A上,由于訓(xùn)練數(shù)據(jù)過(guò)于稀疏,生成模型無(wú)法魯棒地建模訓(xùn)練數(shù)據(jù)的分別,同時(shí)判別模型也無(wú)法學(xué)到真實(shí)數(shù)據(jù)與采樣數(shù)據(jù)之間的差異,本文提出的方法與基于MLE的方法性能基本一致,且對(duì)識(shí)別性能提升較小.在B,C子集和全集上,本文提出的方法相對(duì)基于MLE的方法可以進(jìn)一步降低CER.然而在全集上兩種數(shù)據(jù)增強(qiáng)方法的性能反而略差于在C子集上的性能,可能的原因是第3.3節(jié)中用以擴(kuò)充訓(xùn)練集的網(wǎng)絡(luò)數(shù)據(jù)與原始領(lǐng)域相關(guān)的數(shù)據(jù)(語(yǔ)音轉(zhuǎn)錄文本)存在一定的差異,當(dāng)增加的網(wǎng)絡(luò)數(shù)據(jù)較多時(shí),會(huì)對(duì)模型的性能造成一定的影響.

    從圖4中兩種數(shù)據(jù)增強(qiáng)方法性能隨訓(xùn)練數(shù)據(jù)量變化趨勢(shì)可以看出,兩種方法的性能均隨著訓(xùn)練數(shù)據(jù)增加而提升.文本提出的方法在不同規(guī)模數(shù)據(jù)集上均取得了更低的CER,且相對(duì)基于MLE的方法的性能提升首先隨數(shù)據(jù)量增加而增大,隨后在數(shù)據(jù)量達(dá)到一定規(guī)模后(約1.5M詞)基本保持穩(wěn)定.

    值得注意的是,本文提出的方法是為了緩解有限訓(xùn)練數(shù)據(jù)條件下語(yǔ)言模型參數(shù)估計(jì)魯棒性差的問(wèn)題.相關(guān)研究表明,當(dāng)領(lǐng)域(任務(wù))相關(guān)訓(xùn)練數(shù)據(jù)足夠多時(shí),數(shù)據(jù)增強(qiáng)技術(shù)帶來(lái)的性能提升十分有限.這是因?yàn)樵加?xùn)練數(shù)據(jù)中已包含絕大部分文法現(xiàn)象,數(shù)據(jù)增強(qiáng)技術(shù)僅能提供有限的補(bǔ)充數(shù)據(jù).因此可以推測(cè),隨著訓(xùn)練數(shù)據(jù)量的增加,基線語(yǔ)言模型性能不斷提升,未使用數(shù)據(jù)增強(qiáng)技術(shù)的基線模型、基于MLE方法的數(shù)據(jù)增強(qiáng)方法與本文提出的方法三者之間的性能差異逐漸減小甚至消失.因此,本節(jié)的實(shí)驗(yàn)結(jié)論并不適用于大規(guī)模訓(xùn)練數(shù)據(jù)的情況.

    3.5 生成模型性能分析

    當(dāng)采樣數(shù)據(jù)足夠多時(shí),采樣數(shù)據(jù)的分布可以近似表示生成模型的分布.因此,為了分析生成模型的性能,本文分別利用基于MLE的生成模型和基于對(duì)抗訓(xùn)練策略的生成模型生成50000句文本,同時(shí)從訓(xùn)練數(shù)據(jù)中隨機(jī)抽取50000句文本.然后利用文獻(xiàn)[39]中的算法得到每句文本的分布表示,即將每句話表示為一個(gè)向量.本文實(shí)驗(yàn)采用100維的向量表示一句采樣文本或真實(shí)文本.為了可視化采樣數(shù)據(jù)與真實(shí)數(shù)據(jù)的分布,本文采用t-SNE算法[40]將文本的分布表示映射到二維空間.結(jié)果如圖5所示.從圖5可以看出,基于對(duì)抗訓(xùn)練策略的生成模型的分布與真實(shí)數(shù)據(jù)的分布更接近.

    為了進(jìn)一步分析不同訓(xùn)練準(zhǔn)則對(duì)生成模型性能的影響,從訓(xùn)練數(shù)據(jù)中隨機(jī)挑選若干句文本,將每句文本的前半句作為歷史信息送入生成模型,讓生成模型生成下半句文本.表2是實(shí)驗(yàn)中的部分樣例,逗號(hào)前的文本表示歷史信息,MLE表示基于最大似然估計(jì)的生成模型產(chǎn)生的文本,GAN表示基于對(duì)抗訓(xùn)練策略的生成模型產(chǎn)生的文本.

    首先,與MLE相比,對(duì)抗訓(xùn)練策略產(chǎn)生的文本具有更加明確的語(yǔ)義信息(樣例2,3).其次,對(duì)抗訓(xùn)練策略產(chǎn)生的文本與歷史信息之間的關(guān)系更密切.例如樣例1歷史信息中的“旱情”與生成文本中的“糧食”,樣例3歷史信息中的“銷售額”與生成文本中的“增至”.此外,對(duì)抗訓(xùn)練策略可以在一定程度上緩解暴露偏差問(wèn)題.例如樣例4中,MLE根據(jù)歷史信息產(chǎn)生的文本最終的著重點(diǎn)在“創(chuàng)新”,而對(duì)抗訓(xùn)練策略生成的文本雖然開(kāi)始部分與歷史信息的語(yǔ)義差距較大,但最終生成文本的著重點(diǎn)在“規(guī)劃”,與真實(shí)數(shù)據(jù)一致.說(shuō)明基于對(duì)抗訓(xùn)練策略的生成模型的分布與真實(shí)的數(shù)據(jù)分布更接近,同時(shí)生成文本的長(zhǎng)時(shí)語(yǔ)義信息更加明確.

    圖5 不同采樣數(shù)據(jù)的分布圖Fig.5 Distribution of sentences sampled from different sources

    4 結(jié)論

    本文提出了一種基于對(duì)抗訓(xùn)練策略的語(yǔ)言模型數(shù)據(jù)增強(qiáng)方法,并將GAN產(chǎn)生的數(shù)據(jù)應(yīng)用于語(yǔ)音識(shí)別任務(wù)中.首先利用生成模型產(chǎn)生的采樣文本對(duì)語(yǔ)言模型進(jìn)行數(shù)據(jù)增強(qiáng),然后將增強(qiáng)的語(yǔ)言模型用于語(yǔ)音識(shí)別多候選重估.與傳統(tǒng)生成任務(wù)不同,在語(yǔ)言模型增強(qiáng)任務(wù)中,必須保證生成文本數(shù)據(jù)的多樣性,即使生成模型保持一定的泛化性能.同時(shí)由于實(shí)際數(shù)據(jù)的復(fù)雜性,在對(duì)抗訓(xùn)練中需要對(duì)判別模型進(jìn)行充分優(yōu)化,才能使其性能在整個(gè)對(duì)抗訓(xùn)練過(guò)程中保持近似最優(yōu).識(shí)別多候選重估實(shí)驗(yàn)表明,相比基于MLE的語(yǔ)言模型數(shù)據(jù)增強(qiáng)方法,本文提出的方法可以進(jìn)一步降低識(shí)別錯(cuò)誤率.且相對(duì)基于MLE的數(shù)據(jù)增強(qiáng)方法的性能提升,本文提出的方法首先隨著訓(xùn)練數(shù)據(jù)量的增加而增大,隨后當(dāng)訓(xùn)練數(shù)據(jù)量達(dá)到一定規(guī)模后,相對(duì)性能提升基本保持恒定.此外,本文對(duì)不同生成模型生成的數(shù)據(jù)進(jìn)行了詳細(xì)的分析.實(shí)驗(yàn)表明,利用本文提出的方法生成的數(shù)據(jù)的分布更接近真實(shí)數(shù)據(jù)的分布,且生成的句子具有更加明確的長(zhǎng)時(shí)語(yǔ)義信息.

    表2 相同歷史信息條件下不同生成模型生成的文本對(duì)比Table 2 Sentences generated by different models given the same context

    本文提出的方法主要是為了緩解有限訓(xùn)練數(shù)據(jù)條件下語(yǔ)言模型參數(shù)估計(jì)魯棒性差的問(wèn)題,并不適用于大規(guī)模訓(xùn)練數(shù)據(jù)條件下的語(yǔ)言模型建模和識(shí)別任務(wù).如何利用對(duì)抗訓(xùn)練策略提升大規(guī)模訓(xùn)練數(shù)據(jù)條件下語(yǔ)言模型及識(shí)別系統(tǒng)的性能是后續(xù)研究的一個(gè)方向.

    1 Si Yu-Jing,Xiao Ye-Ming,Xu Ji,Pan Jie-Lin,Yan Yong-Hong.Automatic text corpus generation algorithm towards oral statistical language modeling.Acta Automatica Sinica,2014,40(12):2808?2814(司玉景,肖業(yè)鳴,徐及,潘接林,顏永紅.面向口語(yǔ)統(tǒng)計(jì)語(yǔ)言模型建模的自動(dòng)語(yǔ)料生成算法.自動(dòng)化學(xué)報(bào),2014,40(12):2808?2814)

    2 Allison B,Guthrie D,Guthrie L.Another look at the data sparsity problem.In:Proceedings of the 9th International Conference on Text,Speech,and Dialogue.Brno,Czech Republic:Springer,2006.327?334

    3 Janiszek D,De Mori R,Bechet E.Data augmentation and language model adaptation.In:Proceedings of the 2001 IEEE International Conference on Acoustics,Speech,and Signal Processing.Salt Lake City,UT,USA:IEEE,2001.549?552

    4 Ng T,Ostendorf M,Hwang M Y,Siu M,Bulyko I,Lei X.Web-data augmented language models for mandarin conversational speech recognition.In:Proceedings of the 2001 IEEE International Conference on Acoustics,Speech,and Signal Processing.Philadelphia,USA:IEEE,2005.589?592

    5 Si Y J,Chen M Z,Zhang Q Q,Pan J L,Yan Y H.Block based language model for target domain adaptation towards web corpus.Journal of Computational Information Systems,2013,9(22):9139?9146

    6 Sutskever I,Martens J,Hinton G.Generating text with recurrent neural networks.In:Proceedings of the 28th International Conference on Machine Learning.Bellevue,Washington,USA:IEEE,2011.1017?1024

    7 Bowman S R,Vilnis L,Vinyals O,Dai A M,Jozefowicz R,Bengio S.Generating sentences from a continuous space.arXiv:1511.06349,2015.

    8 Ranzato M,Chopra S,Auli M,Zaremba W.Sequence level training with recurrent neural networks.arXiv:1511.06732,2015.

    9 Norouzi M,Bengio S,Chen Z F,Jaitly N,Schuster M,Wu Y H,et al.Reward augmented maximum likelihood for neural structured prediction.In:Proceedings of the 2016 Advances in Neural Information Processing Systems.Barcelona,Spain:NIPS,2016.1723?1731

    10 Lamb A,Goyal A,Zhang Y,Zhang S Z,Courville A,Bengio Y.Professor forcing:a new algorithm for training recurrent networks.In:Proceedings of the 29th Conference on Neural Information Processing Systems.Barcelona,Spain:NIPS,2016.4601?4609

    11 Goodfellow I J,Pouget-Abadie J,Mirza M,Xu B,Warde-Farley D,Ozair S,et al.Generative adversarial nets.In:Proceedings of the 27th International Conference on Neural Information Processing Systems.Montreal,Canada:NIPS,2014.2672?2680

    12 Wang Kun-Feng,Gou Chao,Duan Yan-Jie,Lin Yi-Lun,Zheng Xin-Hu,Wang Fei-Yue.Generative adversarial networks:the state of the art and beyond.Acta Automatica Sinica,2017,43(3):321?332(王坤峰,茍超,段艷杰,林懿倫,鄭心湖,王飛躍.生成式對(duì)抗網(wǎng)絡(luò)GAN的研究進(jìn)展與展望.自動(dòng)化學(xué)報(bào),2017,43(3):321?332)

    13 Kaelbling L P,Littman M L,Moore A W.Reinforcement learning:a survey.Journal of Arti ficial Intelligence Research,1996,4(1):237?285

    14 Van Otterlo M,Wiering M.Reinforcement learning and Markov decision processes.Reinforcement Learning:Stateof-the-Art.Berlin,Germany:Springer,2012.3?42

    15 Chen Xing-Guo,Yu Yang.Reinforcement learning and its application to the game of go.Acta Automatica Sinica,2016,42(5):685?695(陳興國(guó),俞揚(yáng).強(qiáng)化學(xué)習(xí)及其在電腦圍棋中的應(yīng)用.自動(dòng)化學(xué)報(bào),2016,42(5):685?695)

    16 Chaslot G M J B,Winands M H M,Uiterwijk J W H M,Van Den Herik H J,Bouzy B.Progressive strategies for Monte-Carlo tree search.New Mathematics and Natural Computation,2008,4(3):343?357

    17 Silver D,Huang A J,Maddison C J,Guez A,Sifre L,Van Den Driessche G,et al.Mastering the game of go with deep neural networks and tree search.Nature,2016,529(7587):484?489

    18 Quinlan J R.Bagging,boosting,and C4.5.In:Proceddings of the 13th National Conference on Arti ficial Intelligence and the 8th Innovative Applications of Arti ficial Intelligence Conference.Portland,USA:AAAI,1996.725?730

    19 Pascanu R,Mikolov T,Bengio Y.On the difficulty of training recurrent neural networks.In:Proceedings of the 30th International Conference on Machine Learning.Atlanta,USA:ACM,2013.III-1310?III-1318

    20 Pascanu R,Mikolov T,Bengio Y.Understanding the exploding gradient problem.arXiv:1211.5063,2012.

    21 Hochreiter S,Schmidhuber J.Long short-term memory.Neural Computation,1997,9(8):1735?1780

    22 Sundermeyer M,Schlüter R,Ney H.LSTM neural networks for language modeling.In:Proceedings of the 13th Annual Conference of the International Speech Communication Association.Portland,USA:IEEE,2012.601?608

    23 Cho K,Van Merrienboer B,Gulcehre C,Bahdanau D,Bougares F,Schwenk H,et al.Learning phrase representations using RNN encoder-decoder for statistical machine translation.arXiv:1406.1078,2014.

    24 Bahdanau D,Cho K,Bengio Y.Neural machine translation by jointly learning to align and translate.arXiv:1409.0473,2014.

    25 Vesely K,Ghoshal A,Burget L,Povey D.Sequencediscriminative training of deep neural networks.In:Proceedings of the 14th Annual Conference of the International Speech Communication Association.Lyon,France:IEEE,2013.2345?2349

    26 Kim Y.Convolutional neural networks for sentence classi fication.arXiv:1408.5882,2014.

    27 Lai S W,Xu L H,Liu K,Zhao J.Recurrent convolutional neural networks for text classi fication.In:Proceddings of the 29th AAAI Conference on Arti ficial Intelligence.Austin,USA:AAAI,2015.2267?2273

    28 Zhang X,LeCun Y.Text understanding from scratch.arXiv:1502.01710,2015.

    29 Mikolov T,Chen K,Corrado G,Dean J.Efficient estimation of word representations in vector space.arXiv:1301.3781,2013.

    30 Srivastava R K,Gre ffK,Schmidhuber J.Highway networks.arXiv:1505.00387,2015.

    31 Wang D,Zhang X W.THCHS-30:a free Chinese speech corpus.arXiv:1512.01882,2015.

    32 Bu H,Du J Y,Na X Y,Wu B G,Zheng H.AIShell-1:an open-source mandarin speech corpus and a speech recognition baseline.arXiv:1709.05522,2017.

    33 Povey D,Ghoshal A,Boulianne G,Burget L,Glembek O,Goel N,et al.The Kaldi speech recognition toolkit.In:Proceedings of the 2011 IEEE Workshop on Automatic Speech Recognition and Understanding.Hawaii,USA:IEEE,2011.1?4

    34 Stolcke A.SRILM—an extensible language modeling toolkit.In:Proceedings of the 7th International Conference on Spoken Language Processing.Denver,USA:IEEE,2002.901?904

    35 Abadi M,Agarwal A,Barham P,Brevdo E,Chen Z F,Citro C,et al.Tensor flow:large-scale machine learning on heterogeneous distributed systems.arXiv:1603.04467,2016.

    36 Kingma D P,Ba J.Adam:a method for stochastic optimization.arXiv:1412.6980,2014.

    37 Moore R C,Lewis W.Intelligent selection of language model training data.In:Proceedings of the 2010 ACL Conference Short Papers.Uppsala,Sweden:ACM,2010.220?224

    38 Tüske Z,Irie K,Schlüter R,Ney H.Investigation on loglinear interpolation of multi-domain neural network language model.In:Proceedings of the 2016 IEEE International Conference on Acoustics,Speech,and Signal Processing.Shanghai,China:IEEE,2016.6005?6009

    39 Le Q,Mikolov T.Distributed representations of sentences and documents.In:Proceedings of the 31st International Conference on Machine Learning.Beijing,China:IEEE,2014.1017?1024

    40 Van Der Maaten L.Accelerating t-SNE using tree-based algorithms.The Journal of Machine Learning Research,2014,15(1):3221?3245

    猜你喜歡
    性能文本策略
    例談未知角三角函數(shù)值的求解策略
    在808DA上文本顯示的改善
    我說(shuō)你做講策略
    提供將近80 Gbps的帶寬性能 DisplayPort 2.0正式發(fā)布
    基于doc2vec和TF-IDF的相似文本識(shí)別
    電子制作(2018年18期)2018-11-14 01:48:06
    高中數(shù)學(xué)復(fù)習(xí)的具體策略
    文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
    Al-Se雙元置換的基于LGPS的thio-LISICON的制備與性能表征
    強(qiáng)韌化PBT/PC共混物的制備與性能
    Passage Four
    国产精品一区二区免费欧美| 欧美日韩亚洲综合一区二区三区_| 成人手机av| 成人亚洲精品av一区二区| 色播在线永久视频| 黑人巨大精品欧美一区二区蜜桃| АⅤ资源中文在线天堂| 午夜精品久久久久久毛片777| 国产aⅴ精品一区二区三区波| 757午夜福利合集在线观看| 国产男靠女视频免费网站| 国产精品二区激情视频| 视频在线观看一区二区三区| 欧美大码av| 女性被躁到高潮视频| av天堂在线播放| 国产精品一区二区三区四区久久 | 欧美+亚洲+日韩+国产| 亚洲专区中文字幕在线| 午夜福利高清视频| 好男人电影高清在线观看| av在线播放免费不卡| 日韩精品免费视频一区二区三区| 国产又色又爽无遮挡免费看| 国产欧美日韩一区二区三区在线| 亚洲 欧美 日韩 在线 免费| 99久久久亚洲精品蜜臀av| 黑人巨大精品欧美一区二区蜜桃| 国产在线观看jvid| 国产真人三级小视频在线观看| 18禁国产床啪视频网站| 欧美日本中文国产一区发布| 香蕉丝袜av| 母亲3免费完整高清在线观看| 91国产中文字幕| 美女 人体艺术 gogo| 女人被狂操c到高潮| 人人澡人人妻人| 国产精品亚洲美女久久久| 在线观看免费视频日本深夜| 国产又爽黄色视频| 欧美日本中文国产一区发布| 一级作爱视频免费观看| 丝袜美足系列| 成人三级黄色视频| 电影成人av| 成人亚洲精品av一区二区| 757午夜福利合集在线观看| 巨乳人妻的诱惑在线观看| 久久人妻熟女aⅴ| 久久久久久亚洲精品国产蜜桃av| 亚洲国产精品合色在线| 一进一出好大好爽视频| 在线观看日韩欧美| 精品久久久久久久人妻蜜臀av | 夜夜爽天天搞| 91大片在线观看| 一级黄色大片毛片| 1024香蕉在线观看| 一本久久中文字幕| 一级毛片女人18水好多| 亚洲专区中文字幕在线| 国产伦人伦偷精品视频| 大码成人一级视频| 少妇 在线观看| 黄色女人牲交| 精品欧美国产一区二区三| 国产在线精品亚洲第一网站| 妹子高潮喷水视频| 美女高潮喷水抽搐中文字幕| 黄色片一级片一级黄色片| 看片在线看免费视频| 日本免费一区二区三区高清不卡 | 免费在线观看视频国产中文字幕亚洲| 国产又爽黄色视频| 午夜福利视频1000在线观看 | 国产精品爽爽va在线观看网站 | 国产精品久久电影中文字幕| 亚洲三区欧美一区| 成人亚洲精品一区在线观看| 中出人妻视频一区二区| 女同久久另类99精品国产91| 啦啦啦 在线观看视频| av福利片在线| 欧美乱色亚洲激情| 日本 av在线| 日本 欧美在线| 高清在线国产一区| 亚洲精品国产区一区二| 国产av精品麻豆| 欧美黄色淫秽网站| 亚洲色图av天堂| 久久精品国产亚洲av香蕉五月| 亚洲五月天丁香| 久久国产精品人妻蜜桃| 欧美+亚洲+日韩+国产| 国产av精品麻豆| www国产在线视频色| 757午夜福利合集在线观看| 亚洲精品久久成人aⅴ小说| 亚洲国产欧美一区二区综合| 人妻丰满熟妇av一区二区三区| 亚洲国产欧美日韩在线播放| 日韩欧美免费精品| 伦理电影免费视频| 91字幕亚洲| 亚洲狠狠婷婷综合久久图片| 亚洲avbb在线观看| 999精品在线视频| 久久久久久久午夜电影| 婷婷丁香在线五月| 亚洲中文字幕一区二区三区有码在线看 | 国产高清有码在线观看视频 | 久久久久久久久久久久大奶| xxx96com| 免费看a级黄色片| 搡老妇女老女人老熟妇| 亚洲欧洲精品一区二区精品久久久| 久久精品91蜜桃| 天堂√8在线中文| 热99re8久久精品国产| 熟妇人妻久久中文字幕3abv| 国产精品乱码一区二三区的特点 | 丰满人妻熟妇乱又伦精品不卡| 午夜两性在线视频| 久久久国产精品麻豆| 欧美黄色淫秽网站| 在线观看www视频免费| 国产精品日韩av在线免费观看 | 国产免费av片在线观看野外av| 亚洲人成电影观看| 成人永久免费在线观看视频| 久久精品国产清高在天天线| 精品熟女少妇八av免费久了| 99国产精品一区二区三区| 中文字幕人成人乱码亚洲影| 成人手机av| 波多野结衣巨乳人妻| 女人高潮潮喷娇喘18禁视频| 亚洲精品久久国产高清桃花| 日日爽夜夜爽网站| 一区二区日韩欧美中文字幕| 国产极品粉嫩免费观看在线| 成年版毛片免费区| 90打野战视频偷拍视频| 高清在线国产一区| 日本黄色视频三级网站网址| 日韩欧美免费精品| 高潮久久久久久久久久久不卡| 大型黄色视频在线免费观看| 亚洲一码二码三码区别大吗| 欧美最黄视频在线播放免费| 午夜福利欧美成人| 免费在线观看黄色视频的| 亚洲专区字幕在线| 男女床上黄色一级片免费看| 色综合欧美亚洲国产小说| 亚洲专区国产一区二区| 欧美黄色片欧美黄色片| 亚洲精品久久国产高清桃花| 精品一区二区三区四区五区乱码| 欧美中文综合在线视频| 夜夜躁狠狠躁天天躁| 国产精品98久久久久久宅男小说| 国产精品影院久久| 欧美黑人精品巨大| 成人免费观看视频高清| 国产成人影院久久av| 大码成人一级视频| 精品国产国语对白av| 黄色 视频免费看| 国产精品久久久人人做人人爽| 香蕉丝袜av| aaaaa片日本免费| 免费在线观看日本一区| 一级黄色大片毛片| 男女下面进入的视频免费午夜 | 国产精品久久久久久精品电影 | 久久性视频一级片| 久久青草综合色| 国产精品影院久久| tocl精华| 免费无遮挡裸体视频| 久久精品影院6| 欧美丝袜亚洲另类 | 欧美色视频一区免费| 香蕉久久夜色| 在线天堂中文资源库| 亚洲成国产人片在线观看| 黑人巨大精品欧美一区二区mp4| 女性生殖器流出的白浆| 欧美国产日韩亚洲一区| 午夜视频精品福利| 国产精品久久视频播放| 一本综合久久免费| 19禁男女啪啪无遮挡网站| 婷婷丁香在线五月| 女人被躁到高潮嗷嗷叫费观| 亚洲国产欧美一区二区综合| 一本综合久久免费| 女生性感内裤真人,穿戴方法视频| 亚洲第一欧美日韩一区二区三区| 91字幕亚洲| 夜夜爽天天搞| 欧美乱色亚洲激情| 女性生殖器流出的白浆| 国产在线精品亚洲第一网站| av欧美777| 亚洲一卡2卡3卡4卡5卡精品中文| 侵犯人妻中文字幕一二三四区| 亚洲精品国产精品久久久不卡| 婷婷丁香在线五月| 久久久久亚洲av毛片大全| 亚洲精华国产精华精| 中文字幕高清在线视频| 日韩欧美三级三区| 国产亚洲欧美精品永久| 男人舔女人的私密视频| 国产精华一区二区三区| 亚洲av五月六月丁香网| 国产一区二区激情短视频| 午夜福利成人在线免费观看| 国产精品影院久久| 国产熟女午夜一区二区三区| 老熟妇乱子伦视频在线观看| 极品教师在线免费播放| 免费一级毛片在线播放高清视频 | 国产99久久九九免费精品| 午夜福利欧美成人| 国产97色在线日韩免费| 91字幕亚洲| 中国美女看黄片| 好看av亚洲va欧美ⅴa在| 日韩欧美三级三区| 成人18禁在线播放| 美女大奶头视频| 国产欧美日韩一区二区精品| 亚洲国产精品合色在线| 色综合站精品国产| 中文字幕久久专区| 精品国产美女av久久久久小说| 夜夜夜夜夜久久久久| 激情视频va一区二区三区| 精品免费久久久久久久清纯| 看黄色毛片网站| 亚洲成人国产一区在线观看| 美女扒开内裤让男人捅视频| 成人三级黄色视频| 99久久精品国产亚洲精品| 激情视频va一区二区三区| 两个人视频免费观看高清| 免费一级毛片在线播放高清视频 | 国产1区2区3区精品| 欧美黑人精品巨大| 亚洲第一欧美日韩一区二区三区| 婷婷精品国产亚洲av在线| 禁无遮挡网站| 少妇 在线观看| 免费观看人在逋| 免费观看精品视频网站| 日韩欧美三级三区| 国产高清videossex| 亚洲少妇的诱惑av| 欧美乱妇无乱码| 久久久久国产精品人妻aⅴ院| 国产一区二区在线av高清观看| 国产精品 欧美亚洲| 最好的美女福利视频网| 国产麻豆69| 一区二区三区激情视频| 1024视频免费在线观看| 禁无遮挡网站| 国产精品免费视频内射| av视频在线观看入口| 久久国产亚洲av麻豆专区| 国产欧美日韩一区二区三| 国产区一区二久久| 久久久久亚洲av毛片大全| 午夜精品在线福利| 一边摸一边做爽爽视频免费| 久久天躁狠狠躁夜夜2o2o| 国产亚洲精品一区二区www| 国产精品一区二区三区四区久久 | 怎么达到女性高潮| 人人妻人人爽人人添夜夜欢视频| 日韩欧美国产在线观看| 日韩欧美一区视频在线观看| 自拍欧美九色日韩亚洲蝌蚪91| 成人av一区二区三区在线看| 真人一进一出gif抽搐免费| 国产精品1区2区在线观看.| 免费女性裸体啪啪无遮挡网站| 一区二区三区国产精品乱码| 国产亚洲欧美在线一区二区| 99精品在免费线老司机午夜| 一二三四社区在线视频社区8| 久久久久精品国产欧美久久久| 美女免费视频网站| 亚洲成国产人片在线观看| 大型黄色视频在线免费观看| 久久午夜亚洲精品久久| 欧美成人午夜精品| 1024视频免费在线观看| 国产精品免费视频内射| 亚洲精华国产精华精| 欧美国产精品va在线观看不卡| 一个人免费在线观看的高清视频| 免费一级毛片在线播放高清视频 | 亚洲国产日韩欧美精品在线观看 | av福利片在线| 一进一出抽搐gif免费好疼| 又大又爽又粗| 午夜激情av网站| 男女之事视频高清在线观看| 国产免费男女视频| 搡老妇女老女人老熟妇| 欧美性长视频在线观看| 性色av乱码一区二区三区2| 色播在线永久视频| 国产精品自产拍在线观看55亚洲| 中文字幕高清在线视频| 国产成人精品在线电影| 99久久99久久久精品蜜桃| 亚洲熟妇熟女久久| 人人澡人人妻人| 午夜免费观看网址| 欧美大码av| 少妇被粗大的猛进出69影院| 久久久久精品国产欧美久久久| 国产又色又爽无遮挡免费看| 国产激情久久老熟女| 一级a爱片免费观看的视频| 亚洲免费av在线视频| 神马国产精品三级电影在线观看 | 亚洲五月天丁香| 女性被躁到高潮视频| 制服丝袜大香蕉在线| 久久精品国产综合久久久| 视频区欧美日本亚洲| 99精品在免费线老司机午夜| 亚洲成av片中文字幕在线观看| 制服人妻中文乱码| 国产精品,欧美在线| 高清在线国产一区| 亚洲成人国产一区在线观看| 久久人人爽av亚洲精品天堂| 天堂动漫精品| 啦啦啦韩国在线观看视频| 88av欧美| 免费观看精品视频网站| 美女高潮到喷水免费观看| 国产精品电影一区二区三区| 久久精品影院6| 人妻丰满熟妇av一区二区三区| 欧美黑人欧美精品刺激| 我的亚洲天堂| 久久久水蜜桃国产精品网| 久久久久久久久免费视频了| 亚洲精品美女久久久久99蜜臀| 亚洲天堂国产精品一区在线| 国产成年人精品一区二区| 国产精品一区二区免费欧美| 国产精品一区二区三区四区久久 | 搡老熟女国产l中国老女人| 亚洲av电影在线进入| 久久久久久久久中文| 欧美日韩中文字幕国产精品一区二区三区 | 精品国产乱子伦一区二区三区| 国产真人三级小视频在线观看| 欧美成人一区二区免费高清观看 | 我的亚洲天堂| 亚洲自拍偷在线| 一本久久中文字幕| av电影中文网址| 午夜福利,免费看| www国产在线视频色| 12—13女人毛片做爰片一| 色播亚洲综合网| 久久精品国产综合久久久| 精品乱码久久久久久99久播| 性欧美人与动物交配| 妹子高潮喷水视频| 欧美成人性av电影在线观看| 成人欧美大片| 亚洲片人在线观看| 99久久国产精品久久久| 又紧又爽又黄一区二区| 黑丝袜美女国产一区| 91老司机精品| 啦啦啦免费观看视频1| 18禁黄网站禁片午夜丰满| 国产亚洲精品久久久久久毛片| 免费观看人在逋| 久久久久久久久中文| 午夜免费观看网址| 黑人欧美特级aaaaaa片| 亚洲精品美女久久久久99蜜臀| 免费在线观看日本一区| 一个人免费在线观看的高清视频| 中文字幕精品免费在线观看视频| 免费人成视频x8x8入口观看| 中文亚洲av片在线观看爽| 久久九九热精品免费| 亚洲精品在线美女| 国产麻豆成人av免费视频| 婷婷精品国产亚洲av在线| 十分钟在线观看高清视频www| 亚洲自拍偷在线| 精品欧美一区二区三区在线| 久久婷婷人人爽人人干人人爱 | 亚洲成av片中文字幕在线观看| 人妻丰满熟妇av一区二区三区| 亚洲熟妇熟女久久| 欧美日本视频| 亚洲aⅴ乱码一区二区在线播放 | 天天一区二区日本电影三级 | 少妇粗大呻吟视频| 精品国产一区二区久久| 成人三级黄色视频| 黄色丝袜av网址大全| 午夜福利,免费看| 脱女人内裤的视频| 久久精品人人爽人人爽视色| 亚洲自偷自拍图片 自拍| 人成视频在线观看免费观看| 日本黄色视频三级网站网址| 国产极品粉嫩免费观看在线| 日韩成人在线观看一区二区三区| 久久伊人香网站| 久久天堂一区二区三区四区| 亚洲欧美日韩高清在线视频| 精品久久久久久久毛片微露脸| 亚洲专区字幕在线| 久久精品91无色码中文字幕| 色哟哟哟哟哟哟| 热99re8久久精品国产| 午夜福利18| 婷婷丁香在线五月| 黄片小视频在线播放| 高潮久久久久久久久久久不卡| 成人免费观看视频高清| 99国产精品一区二区三区| 一级片免费观看大全| 久久精品91蜜桃| 亚洲人成电影免费在线| 色在线成人网| 国产高清videossex| 国产欧美日韩精品亚洲av| 级片在线观看| 在线永久观看黄色视频| 精品久久久久久久久久免费视频| 午夜福利免费观看在线| 久久久久国产精品人妻aⅴ院| 这个男人来自地球电影免费观看| 国产精品综合久久久久久久免费 | 夜夜夜夜夜久久久久| 老汉色∧v一级毛片| 久99久视频精品免费| 伊人久久大香线蕉亚洲五| 国产欧美日韩综合在线一区二区| 一区二区三区高清视频在线| 久久久久九九精品影院| 99国产精品一区二区三区| 国产午夜精品久久久久久| 亚洲国产精品久久男人天堂| 一级a爱片免费观看的视频| 性少妇av在线| 精品人妻1区二区| 亚洲欧美激情综合另类| 激情视频va一区二区三区| 18禁裸乳无遮挡免费网站照片 | 黄片播放在线免费| 一进一出好大好爽视频| 久久久久国产一级毛片高清牌| 嫩草影视91久久| 欧美色视频一区免费| 亚洲电影在线观看av| 欧美成人一区二区免费高清观看 | 亚洲片人在线观看| 亚洲欧美精品综合久久99| 波多野结衣av一区二区av| 老司机午夜十八禁免费视频| 伊人久久大香线蕉亚洲五| 中文字幕人妻熟女乱码| 色哟哟哟哟哟哟| 成年人黄色毛片网站| 在线观看www视频免费| 亚洲五月婷婷丁香| 亚洲中文字幕日韩| www.www免费av| 一边摸一边做爽爽视频免费| 久久精品成人免费网站| 一二三四在线观看免费中文在| 久久久久久久精品吃奶| 欧美激情久久久久久爽电影 | 国产精品久久久久久亚洲av鲁大| 国产激情久久老熟女| 免费高清视频大片| 91九色精品人成在线观看| 国产精品 国内视频| 午夜视频精品福利| 老司机福利观看| 国产精品二区激情视频| 又黄又粗又硬又大视频| 国产成人影院久久av| www.自偷自拍.com| 国产精品 欧美亚洲| 国产三级黄色录像| 欧美精品啪啪一区二区三区| 后天国语完整版免费观看| 一区二区三区激情视频| 香蕉国产在线看| 999久久久精品免费观看国产| 两人在一起打扑克的视频| 午夜a级毛片| 亚洲国产精品久久男人天堂| 国产欧美日韩一区二区三| 日日爽夜夜爽网站| 人成视频在线观看免费观看| 欧美一区二区精品小视频在线| 狂野欧美激情性xxxx| 88av欧美| 欧美 亚洲 国产 日韩一| 一本久久中文字幕| 国产野战对白在线观看| 久久国产精品人妻蜜桃| 免费看美女性在线毛片视频| 日本黄色视频三级网站网址| 亚洲一区高清亚洲精品| 久久天堂一区二区三区四区| 91在线观看av| 男人的好看免费观看在线视频 | 少妇粗大呻吟视频| 亚洲av电影不卡..在线观看| 久久香蕉国产精品| 免费无遮挡裸体视频| 国产极品粉嫩免费观看在线| 久热这里只有精品99| 99国产精品99久久久久| 电影成人av| 97碰自拍视频| 国产av一区在线观看免费| 亚洲av电影在线进入| 亚洲五月色婷婷综合| 国产成人一区二区三区免费视频网站| 国产精品久久久人人做人人爽| 亚洲av片天天在线观看| 麻豆av在线久日| 99国产极品粉嫩在线观看| 中文字幕最新亚洲高清| 香蕉丝袜av| 国产99白浆流出| 国产成人欧美在线观看| 国产一区二区三区综合在线观看| 曰老女人黄片| 国产成人av教育| 精品人妻在线不人妻| 色播在线永久视频| 高清毛片免费观看视频网站| 久久国产乱子伦精品免费另类| 两个人看的免费小视频| 搡老妇女老女人老熟妇| 国产高清视频在线播放一区| 欧洲精品卡2卡3卡4卡5卡区| 国产一区二区三区在线臀色熟女| 又紧又爽又黄一区二区| 亚洲一区高清亚洲精品| 亚洲av成人av| 日韩精品中文字幕看吧| 国产成人av教育| 久久精品国产清高在天天线| 一本大道久久a久久精品| 真人一进一出gif抽搐免费| 久久狼人影院| 精品高清国产在线一区| 一本久久中文字幕| 免费少妇av软件| 可以在线观看毛片的网站| 色播亚洲综合网| 婷婷精品国产亚洲av在线| 国产精品一区二区免费欧美| av视频在线观看入口| 成人国产一区最新在线观看| 中文字幕最新亚洲高清| 男女之事视频高清在线观看| 一进一出抽搐gif免费好疼| 欧美国产日韩亚洲一区| 叶爱在线成人免费视频播放| 老汉色∧v一级毛片| 法律面前人人平等表现在哪些方面| 国产成人精品在线电影| 久久精品91蜜桃| 欧美日韩亚洲国产一区二区在线观看| 午夜福利免费观看在线| 精品国产亚洲在线| 熟女少妇亚洲综合色aaa.| 亚洲人成77777在线视频| 精品一区二区三区视频在线观看免费| 一卡2卡三卡四卡精品乱码亚洲| 琪琪午夜伦伦电影理论片6080| 亚洲欧美激情在线| 欧美成人免费av一区二区三区| 亚洲无线在线观看| 精品国产亚洲在线| 国产激情久久老熟女| 俄罗斯特黄特色一大片| 每晚都被弄得嗷嗷叫到高潮| 午夜成年电影在线免费观看| 免费看美女性在线毛片视频| 国产精品综合久久久久久久免费 | 巨乳人妻的诱惑在线观看| 热re99久久国产66热| 欧美成狂野欧美在线观看| 日韩欧美一区视频在线观看| 成人永久免费在线观看视频|