• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于時間遞歸序列模型的短文本語義簡化

    2019-07-29 00:56藺偉斌楊世瀚
    物聯(lián)網(wǎng)技術(shù) 2019年5期

    藺偉斌 楊世瀚

    摘 要:針對傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法無法處理梯度消失和梯度爆炸等問題,基于循環(huán)神經(jīng)網(wǎng)絡(luò)建立LSTM模型和seq2seq模型,提出時間遞歸序列模型TRSM,處理序列中間隔和延遲相對較長的輸入,使用BPTT反向傳播算法對中文微博語料庫進行訓(xùn)練。建立三組不同的實驗作為對比,實驗結(jié)果表明,TRSM模型處理后的微博文本更加簡潔精煉,更適合文本語義的提取,大大減少了計算量,文字縮減率達到60%以上,語義保持率達到1.8,簡化了用戶要處理的大量信息,處理后的結(jié)果能夠更好地用于幾個關(guān)鍵中文語義的處理任務(wù)。

    關(guān)鍵詞:短文本信息;文本簡化;LSTM模型;TRSM模型;BPTT反向傳播算法;循環(huán)神經(jīng)網(wǎng)絡(luò)

    中圖分類號:TP391 文獻標(biāo)識碼:A 文章編號:2095-1302(2019)05-00-06

    0 引 言

    隨著互聯(lián)網(wǎng)的高速發(fā)展,各種互聯(lián)網(wǎng)信息(如語音信息、圖片信息、文本信息等)也呈爆發(fā)式增長。人們每天都能接觸到大量多樣的信息,如來自新聞報導(dǎo)、博客、微博等各個渠道的文本信息。為了對這些海量信息進行快速、高效地分析與處理,使機器準(zhǔn)確理解這些信息,經(jīng)研究發(fā)現(xiàn),基于高語義保持度的文本簡化就是一個可行的方法。所以文本簡化逐漸成為人們的重要需求之一,也是自然語言處理領(lǐng)域的熱點問題。

    目前,文本簡化的研究方法大致可以分為抽取型和生成型兩種類型。自然語言處理領(lǐng)域的研究員用不同的方式從這兩種類型中做文本簡化。文獻[1]采用Hedge Trimmer句子壓縮技術(shù)對英文語句進行壓縮,劃分出原句的語法結(jié)構(gòu),組織成語法樹,再應(yīng)用一定的語法規(guī)則修改語法樹的一些組成部分。由于其主要依賴語法規(guī)則實現(xiàn)語句簡化,可能會忽略原文的某些語義,因此壓縮后的句子可能會丟失原句中的一些重要信息。文獻[2]提出基于句法規(guī)則的新聞稿首句壓縮技術(shù),其目的是實現(xiàn)新聞標(biāo)題的自動生成,采樣文本為新聞稿首句,依照句法規(guī)則進行壓縮,生成更為簡潔的新句子作為新聞標(biāo)題。由于缺少對語義的規(guī)則限制,因此會相對減少壓縮后新句中核心內(nèi)容的保留度。文獻[3]提出帶有LSTM(Long Short-Term Memory)單元的編碼-解碼器,循環(huán)神經(jīng)網(wǎng)絡(luò)模型用于提取新聞內(nèi)容生成標(biāo)題,根據(jù)神經(jīng)網(wǎng)絡(luò)計算關(guān)鍵單詞的權(quán)重,生成摘要時有利于提高核心內(nèi)容在語義上的保留度。文獻[4]提出指針生成網(wǎng)絡(luò)和覆蓋機制處理生成的詞語未出現(xiàn)在詞匯表中以及生成詞的重復(fù)問題,其自動生成文本摘要的方法可提高生成句子的語義流暢度,從而提高了對原文內(nèi)容的語義保留。綜上可知,在文本簡化中提高語義保持度成為了一個非常重要的研究課題。

    本文針對語義保持度,提出時間遞歸序列模型(Time Recursive Sequence Model,TRSM),結(jié)合序列到序列(seq2seq)的框架以及基于循環(huán)神經(jīng)網(wǎng)絡(luò)長短時記憶模型(LSTM)的方法來處理短文本的語義簡化,能夠緩解訓(xùn)練中梯度消失和梯度爆炸的問題,同時又能處理序列中間隔和延遲相對較長的輸入。該方法采用循環(huán)神經(jīng)網(wǎng)絡(luò)中的LSTM,能夠?qū)W習(xí)長期依賴信息,通過刻意設(shè)計來處理長期依賴問題,從而可以更好地處理向量空間中距離過長的時間序列,并能夠?qū)Ω鐣r間位置的信息保留記憶。通過實驗可以發(fā)現(xiàn),采用該模型能更準(zhǔn)確地對文本進行簡化。

    1 相關(guān)工作

    1.1 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的文本簡化

    人工神經(jīng)網(wǎng)絡(luò)[5]技術(shù)起源于20世紀(jì)60年代,當(dāng)時被稱為感知機,包含輸入層、隱含層和輸出層。輸入層輸入的特征向量經(jīng)過隱含層變換到達輸出層,輸出層得到具有特征的分類結(jié)果。卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、深度神經(jīng)網(wǎng)絡(luò)等都屬于人工神經(jīng)網(wǎng)絡(luò)的分支,其中循環(huán)神經(jīng)網(wǎng)絡(luò)與其他神經(jīng)網(wǎng)絡(luò)的主要區(qū)別是輸出不僅取決于這一時刻的輸入,同時還取決于上一時刻的輸出,如圖1所示。

    其中,t表示時刻,xt是輸入層的值,U是輸入xt的權(quán)重,st是隱含層的值,W是上一時刻隱含層的輸出st-1的權(quán)重,V是隱含層的輸出st的權(quán)重,ot是t時刻輸出層的值,可用公式表示為:

    循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語言處理領(lǐng)域中應(yīng)用最廣、效果最好。如建立語言模型、新聞標(biāo)題生成、文本生成、文本簡化等。Tomas Mikolov[6]提出的基于RNN的語言模型主要根據(jù)循環(huán)神經(jīng)網(wǎng)絡(luò)處理上下文時沒有文本長度的限制,通過各層神經(jīng)元的循環(huán)連接,文本信息可在網(wǎng)絡(luò)中傳遞和學(xué)習(xí)更長的時間。李[3]在新聞標(biāo)題生成結(jié)合RNN的LSTM模型中引入注意力(Attention)機制,當(dāng)信息輸入至編碼器(Encoder)后,不再限制編碼器輸出的向量長度。

    1.2 中文語義分析中的文本簡化

    中文語義分析是自然語言處理領(lǐng)域的眾多任務(wù)之一。任何對中文的理解都可以認(rèn)為是屬于中文語義分析的范疇。一段文字通常由單詞、句子和段落組成,可進一步分解為詞匯層面的語義分析、句子層面的語義分析和文本層面的語義分析[7]。語義分析的目的是通過建立有效的語言模型和系統(tǒng)實現(xiàn)每個語言級別(包括詞、句子、章節(jié)等)的自動語義分析,得到并理解整個文本表達的真實語義。

    文本簡化是中文語義分析的技術(shù)之一,用一段短文本作為輸入,經(jīng)過系統(tǒng)處理后,輸出為一小段文本,并且文本語義不變,相對于輸入來說文本更加簡潔精練,這個過程就叫做文本簡化。近年來,文本簡化在神經(jīng)網(wǎng)絡(luò)技術(shù)中的應(yīng)用越來越廣泛,其中使用最多的框架是seq2seq模型。seq2seq是一種編碼器-解碼器(Decoder)架構(gòu),模型如圖2所示。

    seq2seq模型中,編碼器將輸入的文本編碼為語義表達向量(對應(yīng)于圖2中第4個節(jié)點的隱含狀態(tài)),使用解碼器的語義向量輸入序列和表達式來生成目標(biāo)文本序列W-X-Y-Z-〈EOS〉?!碋OS〉表示序列的結(jié)尾(End of Sequence),符號表示輸入序列或輸出序列的結(jié)束[8]。解碼器接收到〈EOS〉符號后開始解碼過程,直到〈EOS〉符號形成標(biāo)記解碼過程結(jié)束。本文使用的編碼器框架是基于循環(huán)神經(jīng)網(wǎng)絡(luò)的LSTM模型,解碼器框架同樣也是LSTM模型。

    序列模型是一個字符在逐一處理序列過程中,逐個編碼器接收一個輸入字符的編碼過程,解碼器輸出在解碼過程中逐個字符地產(chǎn)生。原始模型的訓(xùn)練過程中,解碼器每接收一個答案中的字符序列(如W),就預(yù)測下一個字符輸出(如X)。經(jīng)典的訓(xùn)練目標(biāo)編碼器-解碼器架構(gòu)在編碼器輸入中給出,解碼器的輸出能夠最大化擬合訓(xùn)練集概率模型中的答案,即最大化數(shù)據(jù)似然[9]。

    2 基于RNN的長短時記憶模型

    2.1 把單詞表示成詞向量(word2vec)

    word2vec過程分為三步:數(shù)據(jù)預(yù)處理、分詞及訓(xùn)練詞向量。

    由于計算機無法直接識別自然語言,因此要先把文本中的每個詞轉(zhuǎn)化成計算機可以識別的語言,即把單詞用詞向量表示。采用word2vec構(gòu)建中文詞向量時,word2vec的文本輸入是需要分詞的,故在PyCharm開發(fā)環(huán)境下使用jieba工具對文本進行分詞。

    word2vec中常用的重要模型有CBOW連續(xù)詞袋模型和Skip-Gram模型,前者是已知上下文預(yù)測當(dāng)前時刻的詞,后者是已知當(dāng)前時刻的詞預(yù)測上下文。采用語料庫訓(xùn)練word2vec模型,得到每個詞的詞向量表示并保存。

    2.2 建立RNN模型RNN模型如圖3所示。

    由圖3可知,隱含層s當(dāng)前時刻的輸出經(jīng)過權(quán)重W之后又返回自身作為下一時刻隱含層的輸入。用公式表達為:。其展開模型如圖4所示。

    在計算s0,即第一個單詞的隱含層狀態(tài)時,需要用到上一時刻的隱含狀態(tài)st-1,但是這個狀態(tài)不存在,實現(xiàn)時一般設(shè)為0向量。

    各隱含層單元相連接,網(wǎng)絡(luò)在t時刻的輸出ot用公式表達為:

    對RNN的訓(xùn)練與對傳統(tǒng)ANN訓(xùn)練相同,均使用相同的BP誤差反向傳播算法。而在梯度下降算法中,每個時刻的輸出不僅取決于當(dāng)前網(wǎng)絡(luò),還取決于前幾個時刻的網(wǎng)絡(luò)狀態(tài)。例如,當(dāng)t=4時,還需要向后傳遞3個步驟,接下來的3個步驟需要添加各種梯度,這就是BPTT(Backpropagation Through Time)反向傳播算法。需要指出的是,在RNN訓(xùn)練中,BPTT不能解決長期依賴問題(即當(dāng)前輸出與之前的長序列有關(guān)),一般來說,不要超過10個步驟。當(dāng)然,有很多方法可以解決這個問題,如LSTM模型。因此,將LSTM模型添加到RNN中,以解決訓(xùn)練中出現(xiàn)梯度消失和梯度爆炸[10]的問題。

    2.3 建立LSTM模型

    LSTM模型對傳統(tǒng)RNN中的隱含層做了一些修改,在一個隱含單元中加入遺忘門(Forget Gate)、輸入門(Input Gate)、輸出門(Output Gate)和細(xì)胞狀態(tài)(Cell State),如圖5所示。

    其中,σ是Sigmoid 函數(shù),遺忘門控制上一時刻細(xì)胞狀態(tài)Ct-1傳遞到當(dāng)前時刻細(xì)胞狀態(tài)Ct的信息量,bf是前面所有時刻遺忘門的值,公式表示為:

    輸入門控制當(dāng)前時刻產(chǎn)生的新信息C't加入到細(xì)胞狀態(tài)Ct的信息量,bi是前面所有時刻新信息的值,bC是前面所有時刻細(xì)胞狀態(tài)的值,公式表示為:

    細(xì)胞狀態(tài)根據(jù)遺忘門和輸入門的輸出更新,即上一時刻細(xì)胞狀態(tài)通過遺忘門的輸出與輸入門的輸出(當(dāng)前時刻的新信息)C't相加,公式表示為:

    輸出門控制當(dāng)前時刻已更新的細(xì)胞狀態(tài)傳遞的信息量,并得到當(dāng)前時刻隱含單元的輸出ht,公式表示為:

    LSTM模型主要是增加了遺忘門機制。例如,當(dāng)有序列輸入到模型時,模型可選擇在較長時刻的信息中保留重要信息,選擇遺忘不重要信息,避免模型一直學(xué)習(xí)。

    2.4 建立seq2seq模型

    seq2seq模型主要由編碼器和解碼器組成,編碼器和解碼器都由基于循環(huán)神經(jīng)網(wǎng)絡(luò)的LSTM模型構(gòu)成,其模型如圖6所示。

    圖6中,h1,h2,…,hn是編碼器在每個時刻的隱含層狀態(tài),C是經(jīng)過編碼器編碼之后的原始語料文本向量,s1,s2,…,sn是解碼器在每個時刻的隱含層狀態(tài)。整個過程是把原始語料數(shù)據(jù)輸入到編碼器中進行編碼,得出編碼器中隱含層的狀態(tài)映射,即得出文本向量C,然后輸入到解碼器中進行解碼,經(jīng)過解碼器隱含層狀態(tài)計算后得到序列的輸出結(jié)果。

    3 TRSM模型

    TRSM模型是結(jié)合基于循環(huán)神經(jīng)網(wǎng)絡(luò)建立的LSTM模型和seq2seq模型提出的處理文本簡化的一種時間序列模型。結(jié)合基于LSTM模型的編碼器中細(xì)胞狀態(tài)Ct與基于LSTM模型解碼器中的輸出門ot,訓(xùn)練后得到TRSM模型的輸出。公式表示為:

    建立好各結(jié)構(gòu)所需模型后,將各模型合并起來,建立TRSM模型。

    TRSM模型的建立步驟為:

    (1)得到可用的原始語料數(shù)據(jù),即使用word2vec對原始語料文本進行向量化處理,得到詞向量的結(jié)果;

    (2)將由步驟(1)得到的詞向量作為編碼器的輸入,聯(lián)合LSTM模型構(gòu)成編碼器,在編碼器中輸出隱含層狀態(tài)的映射,得到文本向量;

    (3)采用LSTM模型構(gòu)成解碼器,將由步驟(2)得到的文本向量輸入到解碼器LSTM模型中,經(jīng)過隱含層狀態(tài)計算后得到輸出的文本結(jié)果。合并各模型后的框架如圖7所示。

    TRSM模型的優(yōu)點主要體現(xiàn)在以下幾點:

    (1)輸入。傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)模型框架的輸入只能是固定大小的詞向量輸入,本文提出的TRSM模型突破了固定大小輸入的問題。

    (2)訓(xùn)練。傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)在訓(xùn)練時會出現(xiàn)梯度消失和梯度爆炸等問題,而本文LSTM模型很好地緩解了模型訓(xùn)練中產(chǎn)生的梯度消失和爆炸問題。

    但是使用時聯(lián)合模型也會出現(xiàn)一些不足,如原始數(shù)據(jù)庫的大小對實驗結(jié)果的影響,訓(xùn)練時各參數(shù)的調(diào)試對實驗結(jié)果的影響等。

    構(gòu)建網(wǎng)絡(luò)模型的訓(xùn)練算法是BPTT反向傳播算法,文獻[11-12]給出了該算法的詳細(xì)推導(dǎo)過程,訓(xùn)練的基本思想如下:

    (1)正向計算得出每個神經(jīng)元的輸出值,即6個變量ft,it,C't,ot,ht,Ct。

    (2)反向計算得出每個神經(jīng)元的誤差項值,分為兩個方向:一是網(wǎng)絡(luò)沿時間序列的反向傳播,二是誤差項向上一層傳播[13]。

    前向細(xì)胞輸出:

    后向細(xì)胞輸出:

    (3)根據(jù)得出的相應(yīng)的誤差項值,計算得出每個權(quán)重的梯度。

    在處理全部編碼器與解碼器過程中,使用梯度優(yōu)化算法以及最大似然條件概率對損失函數(shù)loss值進行模型訓(xùn)練與優(yōu)化:

    4 實驗與分析

    4.1 測試訓(xùn)練語料庫

    本文選取NLPIR微博語料庫[14],先抽取大約20萬條數(shù)據(jù)進行訓(xùn)練與實驗,同時抽取大約100萬條數(shù)據(jù)進行橫向?qū)Ρ葘嶒?。對兩組實驗原始語料數(shù)據(jù)作相同預(yù)處理。首先去掉正文插入時間,正文發(fā)布時間,轉(zhuǎn)發(fā)、來源、評論數(shù)目等對實驗無影響的因素,同時去掉無用的符號和停用詞;然后對過濾后的數(shù)據(jù)進行分詞;再把數(shù)據(jù)作為輸入代入word2vec模型中進行訓(xùn)練,得到每個詞的向量表示并輸出文件“vector.bin”,計算兩個詞向量之間的余弦值得出詞向量之間的余弦相似度。以輸入數(shù)據(jù)樣本作為樣例測試詞向量訓(xùn)練結(jié)果,選取余弦相似度值最靠前的2個作為樣本示例,實驗結(jié)果及余弦相似度比較見表1所列。

    4.2 模型參數(shù)設(shè)置

    本文采用PyCharm開發(fā)工具,在PyCharm中搭建并安裝TensorFlow深度學(xué)習(xí)工具以及數(shù)據(jù)處理需要用到的word2vec,jieba分詞等工具,調(diào)試各代碼塊功能。同時給模型中的可調(diào)參數(shù)賦初始值,見表2所列。

    參數(shù)設(shè)置過程偽代碼如下:

    1.batch_size=256#batch大小

    2.num_epochs=200#訓(xùn)練循環(huán)次數(shù)

    3.seq_length=20#訓(xùn)練步長

    4.learning_rate=0.001#學(xué)習(xí)速率

    5.embed_dim=512#embedding layer大小

    4.3 實驗結(jié)果與分析

    抽取訓(xùn)練語料庫(NLPIR微博語料庫)中微博正文長度在50個中文字左右的幾條微博作為樣本進行3組實驗,同時在模型中讀出loss值并打印,取第1條微博樣本作為對比實驗,3組實驗設(shè)置如下:

    (1)原始參數(shù)值;

    (2)訓(xùn)練循環(huán)次數(shù)為200~300,其他參數(shù)值不變;

    (3)學(xué)習(xí)速率為0.001~0.01,其他參數(shù)值不變;

    實驗結(jié)果分別見表3、表4所列。

    通過以上實驗結(jié)果可得:

    (1)第1組實驗中使用原始參數(shù)值,經(jīng)過模型處理后,輸出的語句通順程度一般,loss值大約為1.87。

    (2)第2組實驗把原始參數(shù)值中的訓(xùn)練循環(huán)次數(shù)從200增加至300,經(jīng)過模型處理后,輸出的語句通順程度一般,loss值大約為1.83,相比表1的loss值下降了0.04。

    (3)第3組實驗把原始參數(shù)值中的學(xué)習(xí)速率從0.001增加至0.01,經(jīng)過模型處理后,輸出的語句通順程度一般,loss值大約為1.76,相比表1的loss值下降了0.11。

    (4)在橫向?qū)Ρ葘嶒炛?,?xùn)練數(shù)據(jù)量由20萬增至100萬,經(jīng)過模型處理后,輸出的語句通順程度較為優(yōu)化,調(diào)參后的各組實驗中l(wèi)oss值普遍下降,loss值平均下降0.05左右。

    文字縮減率橫向?qū)Ρ葘嶒灲Y(jié)果如圖8所示,語義保持率橫向?qū)Ρ葘嶒灲Y(jié)果如圖9所示。

    由圖8可知,3組實驗的文字縮減率分別為67.2%,72.5%,62.5%,文字縮減率都在60%以上,說明實驗?zāi)P驮谖谋竞喕男Ч斜容^顯著,文字縮減是實驗的前提,體現(xiàn)樣本簡化的程度,而語義保持是實驗的目的。由圖9可知,3組實驗的語義保持率由模型結(jié)果與正文相比較,大致可用實驗結(jié)果數(shù)據(jù)中的loss值體現(xiàn),即3組樣本的語義保持程度分別為1.87,1.86,1.81,根據(jù)數(shù)據(jù)可以判斷實驗?zāi)P蛯φ暮喕蟮恼Z義保持程度一般,對比每組更改后的參數(shù)值,訓(xùn)練循環(huán)次數(shù)和學(xué)習(xí)速率都能夠提升loss值,其中增加訓(xùn)練循環(huán)次數(shù),對loss值提升4%,增加學(xué)習(xí)速率對loss值提升11%,即增加學(xué)習(xí)速率對loss值的增大效果更為明顯,同時也提高了模型輸出結(jié)果的語義保持率。

    橫向?qū)Ρ葘嶒炛?,擴大訓(xùn)練數(shù)據(jù)的規(guī)模至100萬,模型輸出的語句相比20萬訓(xùn)練數(shù)據(jù)量下的語句較為流暢。擴大訓(xùn)練數(shù)據(jù)規(guī)模的loss值如圖10所示,ID1,ID2,ID3在20萬訓(xùn)練數(shù)據(jù)量下loss值分別為1.87,1.86,1.81,在100萬訓(xùn)練數(shù)據(jù)量下loss值分別為1.81,1.80,1.76。由loss值分析可得,隨著訓(xùn)練數(shù)據(jù)量增加,loss值逐漸下降,3組實驗下loss值平均下降5%左右,從而表明擴大訓(xùn)練數(shù)據(jù)量,模型結(jié)果更加優(yōu)化。

    綜上所述,采用TRSM模型的輸出結(jié)果已經(jīng)出現(xiàn)“結(jié)婚”“辛苦”“迅速”“祝福新人幸福”這樣的詞語和短句,說明該模型在微博正文簡化中是有效的。通過以上3組實驗結(jié)果以及橫向?qū)Ρ葘嶒?,可分析得出:調(diào)試模型參數(shù)值及擴大訓(xùn)練數(shù)據(jù)量能夠影響到模型的輸出結(jié)果;增加訓(xùn)練循環(huán)次數(shù)、增大學(xué)習(xí)速率值可減小loss值;但模型輸出的語句通順程度與loss值的下降程度不算可觀,除參數(shù)值這個影響因素外,還可能存在其他影響因素,如訓(xùn)練語料庫的數(shù)據(jù)量不夠大等。由此可見,TRSM模型在處理文本簡化方面具有可行性與可靠性,對于如何提高可靠性以及實驗結(jié)果,將成為今后需要進行的工作。

    5 結(jié) 語

    本文基于循環(huán)神經(jīng)網(wǎng)絡(luò)的LSTM模型與seq2seq模型的復(fù)合提出時間遞歸序列模型TRSM,緩解了訓(xùn)練中梯度消失與梯度爆炸的問題,同時又能處理序列中間隔與延遲相對較長的輸入。針對實驗所需微博語料數(shù)據(jù),對用戶的微博內(nèi)容進行語義分析與簡化,測試、驗證語料庫的訓(xùn)練,通過對模型參數(shù)的調(diào)試,優(yōu)化訓(xùn)練算法與實驗結(jié)果,得到了文本簡化方面可行且可信的結(jié)果,為方便處理各種中文語義任務(wù)提供了高效的預(yù)處理機制,平均文字縮減率達到60%以上,語義保持度達到1.8左右。

    未來的工作是繼續(xù)擴大訓(xùn)練的語料庫,增至500萬甚至1 000萬級別,并擴展數(shù)據(jù)長度,引入注意力機制等,進一步提高實驗的精度與可信度,并評估其對后續(xù)中文語義處理任務(wù)的優(yōu)化程度。

    參 考 文 獻

    [1]景秀麗.Hedge Trimmer句子壓縮技術(shù)的算法實現(xiàn)及改進[J].沈陽師范大學(xué)學(xué)報(自然科學(xué)版),2012,30(4):519-524.

    [2] DAVID B D,ZAJIC D.Hedge Trimmer: a parse and trim approach to headline generation[J]. Proceedings of the HLT-NAACL,2003(3):1-8.

    [3]李慧,陳紅倩.結(jié)合注意力機制的新聞標(biāo)題生成模型[J].山西大學(xué)學(xué)報(自然科學(xué)版),2017,40(4):670-675.

    [4]龐超.神經(jīng)網(wǎng)絡(luò)在新聞標(biāo)題生成中的研究[D]. 北京:北京交通大學(xué),2018.

    [5]朱大奇.人工神經(jīng)網(wǎng)絡(luò)研究現(xiàn)狀及其展望[J]. 江南大學(xué)學(xué)報(自然科學(xué)版),2004,3(1):103-110.

    [6] MIKOLOV T ,MARTIN KARAFI?T,BURGET L ,et al.Recurrent neural network based language model[C]// Interspeech,Conference of the International Speech Communication Association,Makuhari,Chiba,Japan,September. DBLP,2015.

    [7]神州泰岳.人工智能中的語義分析技術(shù)及其應(yīng)用[J].軟件和集成電路,2017(4):42-47.

    [8] CHENG J P,LAPATA M.Neural summarization by extracting sentences and words[J].Computer science,2016(3):484-494.

    [9] HU B,CHEN Q,ZHU F. LCSTS: a large scale chinese short text summarization dataset[J].Computer science,2015(7):2667-2671.

    [10] PASCANU R,MIKOLOV T,BENGIO Y.On the difficulty of training recurrent neural networks[C]// International Conference on Machine Learning.JMLR.org,2013.

    [11] CHELBA C,MIKOLOV T,SCHUSTER M.One billion word benchmark for measuring progress in statistical language models based on neural networks[J].Computer science,2013(12):34-39.

    [12] BODEN M.A Guide to recurrent neural networks and backpropagation[Z].2002.

    [13] GRAVES A.Supervised sequence labelling with recurrent neural networks[Z].Studies in computational intelligence,2008.

    [14] NLPIR微博語料庫.自然語言處理與信息檢索共享平臺[OL].http://www.nlpir.org.

    婷婷色av中文字幕| 狂野欧美白嫩少妇大欣赏| 人妻夜夜爽99麻豆av| 丝袜喷水一区| 日本一二三区视频观看| 成人国产av品久久久| 青春草视频在线免费观看| av国产久精品久网站免费入址| 免费播放大片免费观看视频在线观看| 亚洲最大成人中文| 国产v大片淫在线免费观看| 亚洲色图综合在线观看| 少妇被粗大猛烈的视频| 国产白丝娇喘喷水9色精品| 丝瓜视频免费看黄片| 97热精品久久久久久| 一级毛片 在线播放| 欧美日韩一区二区视频在线观看视频在线 | 国产久久久一区二区三区| 亚洲国产最新在线播放| 中国三级夫妇交换| 亚洲av日韩在线播放| 成人一区二区视频在线观看| 狂野欧美激情性bbbbbb| 亚洲精品国产色婷婷电影| 一区二区三区精品91| 在线亚洲精品国产二区图片欧美 | 亚洲自偷自拍三级| 日本黄大片高清| 可以在线观看毛片的网站| 久久久久国产精品人妻一区二区| 久久久精品欧美日韩精品| 亚洲欧美成人综合另类久久久| 亚洲精品aⅴ在线观看| 在线播放无遮挡| 日韩欧美一区视频在线观看 | 一区二区三区精品91| 女人久久www免费人成看片| 国产精品麻豆人妻色哟哟久久| 少妇 在线观看| 国精品久久久久久国模美| 各种免费的搞黄视频| 午夜日本视频在线| 精品酒店卫生间| av天堂中文字幕网| 日韩电影二区| 国产精品国产三级国产专区5o| 卡戴珊不雅视频在线播放| av又黄又爽大尺度在线免费看| 2022亚洲国产成人精品| 国产欧美亚洲国产| 在线观看一区二区三区激情| 建设人人有责人人尽责人人享有的 | 亚洲性久久影院| 97在线人人人人妻| 在线 av 中文字幕| 观看美女的网站| 最近最新中文字幕免费大全7| 日韩av在线免费看完整版不卡| 免费大片黄手机在线观看| 亚洲在线观看片| 欧美丝袜亚洲另类| 欧美成人一区二区免费高清观看| 亚洲欧洲日产国产| 国产一区二区在线观看日韩| 色吧在线观看| 麻豆国产97在线/欧美| 国产精品秋霞免费鲁丝片| 97超视频在线观看视频| 在线观看一区二区三区| 身体一侧抽搐| 免费看不卡的av| 亚洲四区av| 欧美国产精品一级二级三级 | 搡女人真爽免费视频火全软件| 亚洲国产高清在线一区二区三| 国产乱人偷精品视频| 亚洲国产精品成人久久小说| 亚洲欧美日韩卡通动漫| 国产av不卡久久| 欧美日韩精品成人综合77777| 欧美精品一区二区大全| 成人亚洲精品一区在线观看 | 大又大粗又爽又黄少妇毛片口| 秋霞伦理黄片| a级一级毛片免费在线观看| 久久久精品免费免费高清| 精品久久久噜噜| 超碰97精品在线观看| 久久99热6这里只有精品| 王馨瑶露胸无遮挡在线观看| 国产成人福利小说| 日本色播在线视频| 天堂中文最新版在线下载 | 亚洲国产高清在线一区二区三| 国产成人午夜福利电影在线观看| 晚上一个人看的免费电影| 日韩免费高清中文字幕av| 男女国产视频网站| 国产精品av视频在线免费观看| 中文天堂在线官网| 大香蕉久久网| 联通29元200g的流量卡| 欧美 日韩 精品 国产| 成年人午夜在线观看视频| 亚洲精品久久午夜乱码| xxx大片免费视频| 久久久久网色| 久久人人爽av亚洲精品天堂 | 少妇人妻一区二区三区视频| 日本免费在线观看一区| 麻豆成人av视频| 国产精品麻豆人妻色哟哟久久| 啦啦啦啦在线视频资源| 春色校园在线视频观看| 舔av片在线| 日韩大片免费观看网站| 久久99精品国语久久久| 熟女电影av网| 十八禁网站网址无遮挡 | 少妇人妻久久综合中文| 一区二区三区精品91| 精品熟女少妇av免费看| 十八禁网站网址无遮挡 | 高清日韩中文字幕在线| 国产精品偷伦视频观看了| 成年女人看的毛片在线观看| 日韩国内少妇激情av| 免费人成在线观看视频色| 亚洲精品国产av蜜桃| 51国产日韩欧美| 久久久久九九精品影院| 视频中文字幕在线观看| 少妇的逼好多水| 精品一区二区免费观看| 国产黄频视频在线观看| 亚洲欧美一区二区三区黑人 | 亚洲欧美日韩东京热| 午夜免费观看性视频| 国产久久久一区二区三区| 国产片特级美女逼逼视频| 日日摸夜夜添夜夜爱| 日韩强制内射视频| 亚洲av免费在线观看| 精品国产乱码久久久久久小说| 亚洲精品亚洲一区二区| 熟女电影av网| 久久久久国产网址| 午夜免费男女啪啪视频观看| 国产高清三级在线| 狠狠精品人妻久久久久久综合| 少妇 在线观看| 99久国产av精品国产电影| av在线播放精品| 狂野欧美激情性xxxx在线观看| 日韩三级伦理在线观看| 亚洲欧美成人综合另类久久久| 久久精品人妻少妇| 成人综合一区亚洲| 国产日韩欧美亚洲二区| 久久久久久久国产电影| 国产69精品久久久久777片| 熟女人妻精品中文字幕| 毛片女人毛片| videossex国产| 亚洲aⅴ乱码一区二区在线播放| 欧美一区二区亚洲| 激情五月婷婷亚洲| 亚洲av免费在线观看| 免费av毛片视频| 又大又黄又爽视频免费| 欧美日韩视频精品一区| 亚洲精品日韩在线中文字幕| 人妻夜夜爽99麻豆av| 你懂的网址亚洲精品在线观看| 国产黄片美女视频| 久久精品国产亚洲av涩爱| 欧美日本视频| 日韩欧美一区视频在线观看 | 中国三级夫妇交换| 国产伦精品一区二区三区视频9| av国产免费在线观看| 国产午夜精品久久久久久一区二区三区| 在线观看av片永久免费下载| 两个人的视频大全免费| 天堂中文最新版在线下载 | eeuss影院久久| 91aial.com中文字幕在线观看| 国产黄色免费在线视频| 欧美精品人与动牲交sv欧美| 欧美xxⅹ黑人| 一级毛片电影观看| 王馨瑶露胸无遮挡在线观看| 18禁在线无遮挡免费观看视频| 丝袜美腿在线中文| 欧美一区二区亚洲| 国产精品女同一区二区软件| 搡老乐熟女国产| 我要看日韩黄色一级片| 国产高清国产精品国产三级 | 我的女老师完整版在线观看| 精品国产三级普通话版| 99热国产这里只有精品6| 久久国产乱子免费精品| 国产精品无大码| 亚洲自拍偷在线| 涩涩av久久男人的天堂| 直男gayav资源| 亚洲精品一区蜜桃| av黄色大香蕉| videos熟女内射| 男女那种视频在线观看| 又黄又爽又刺激的免费视频.| 真实男女啪啪啪动态图| 亚洲天堂国产精品一区在线| 中文在线观看免费www的网站| av黄色大香蕉| 久久久a久久爽久久v久久| 男女那种视频在线观看| 免费少妇av软件| 精品一区二区三卡| 免费人成在线观看视频色| 久久精品熟女亚洲av麻豆精品| 成人欧美大片| 另类亚洲欧美激情| 尾随美女入室| 十八禁网站网址无遮挡 | 深爱激情五月婷婷| 观看美女的网站| 国产av国产精品国产| 男男h啪啪无遮挡| 丰满少妇做爰视频| 久久国内精品自在自线图片| 男人和女人高潮做爰伦理| av女优亚洲男人天堂| 国产美女午夜福利| 国产精品国产三级国产专区5o| 国产亚洲一区二区精品| 极品教师在线视频| 丝瓜视频免费看黄片| 国产大屁股一区二区在线视频| 成人美女网站在线观看视频| 亚洲丝袜综合中文字幕| 久久久欧美国产精品| 人人妻人人爽人人添夜夜欢视频 | 国产精品偷伦视频观看了| 久久久亚洲精品成人影院| 久久99精品国语久久久| 精华霜和精华液先用哪个| 精品久久久久久久久亚洲| 日韩不卡一区二区三区视频在线| 国产精品一及| 国产黄a三级三级三级人| 狂野欧美激情性xxxx在线观看| 少妇裸体淫交视频免费看高清| 欧美激情在线99| av国产久精品久网站免费入址| 毛片女人毛片| 午夜激情福利司机影院| 超碰97精品在线观看| 狠狠精品人妻久久久久久综合| 老女人水多毛片| av专区在线播放| 亚洲,欧美,日韩| .国产精品久久| 麻豆久久精品国产亚洲av| 亚洲精品日韩在线中文字幕| 日本午夜av视频| 高清日韩中文字幕在线| 九色成人免费人妻av| 久久人人爽av亚洲精品天堂 | 色视频在线一区二区三区| 在线观看免费高清a一片| 国产亚洲精品久久久com| 少妇 在线观看| 午夜精品国产一区二区电影 | 久久久久久久久久久免费av| 日本免费在线观看一区| 午夜日本视频在线| 久久精品国产自在天天线| 97超视频在线观看视频| av一本久久久久| 亚洲aⅴ乱码一区二区在线播放| 毛片女人毛片| 国产视频内射| 亚洲精品一区蜜桃| 午夜精品一区二区三区免费看| 在线观看免费高清a一片| 高清欧美精品videossex| 少妇熟女欧美另类| 亚洲精品乱码久久久v下载方式| 欧美一级a爱片免费观看看| 欧美老熟妇乱子伦牲交| 黄色日韩在线| 国产精品无大码| 综合色av麻豆| 观看美女的网站| 欧美高清性xxxxhd video| 久久久久久久久久人人人人人人| av免费在线看不卡| 色婷婷久久久亚洲欧美| 丝袜脚勾引网站| 国产精品99久久99久久久不卡 | 丰满人妻一区二区三区视频av| av一本久久久久| 最后的刺客免费高清国语| 成年免费大片在线观看| 老女人水多毛片| 午夜福利在线观看免费完整高清在| 91久久精品国产一区二区三区| 国内精品宾馆在线| 午夜视频国产福利| 亚洲激情五月婷婷啪啪| 国产精品爽爽va在线观看网站| 97精品久久久久久久久久精品| 秋霞伦理黄片| 欧美亚洲 丝袜 人妻 在线| 国产国拍精品亚洲av在线观看| 精品一区二区三区视频在线| 国产欧美日韩精品一区二区| 在线观看av片永久免费下载| 高清av免费在线| 下体分泌物呈黄色| 日韩一区二区视频免费看| 神马国产精品三级电影在线观看| 国产男女内射视频| 国产精品99久久99久久久不卡 | 国产免费一区二区三区四区乱码| 成年免费大片在线观看| 精品一区二区三卡| 国产男女超爽视频在线观看| 亚洲欧美日韩无卡精品| 久久久久久久午夜电影| 好男人视频免费观看在线| 亚洲精品中文字幕在线视频 | 亚洲成人精品中文字幕电影| 麻豆国产97在线/欧美| 亚洲精品国产av成人精品| 国产欧美日韩一区二区三区在线 | 国产黄片美女视频| 国产精品成人在线| 2018国产大陆天天弄谢| 王馨瑶露胸无遮挡在线观看| 91精品国产九色| 色5月婷婷丁香| 国产成人91sexporn| 亚洲欧美中文字幕日韩二区| 不卡视频在线观看欧美| 免费不卡的大黄色大毛片视频在线观看| 亚洲精品久久午夜乱码| 亚洲欧美日韩另类电影网站 | 亚洲国产色片| 国产日韩欧美亚洲二区| 少妇高潮的动态图| 少妇人妻一区二区三区视频| 搡老乐熟女国产| 国产美女午夜福利| 欧美97在线视频| 国产午夜福利久久久久久| 美女国产视频在线观看| 91在线精品国自产拍蜜月| 国产视频内射| 国产又色又爽无遮挡免| 久久久久久九九精品二区国产| 大码成人一级视频| 春色校园在线视频观看| 又爽又黄a免费视频| 伦理电影大哥的女人| 日韩欧美精品v在线| 亚洲av电影在线观看一区二区三区 | 久久人人爽人人片av| 99久久精品一区二区三区| 人妻夜夜爽99麻豆av| 国产成年人精品一区二区| av国产久精品久网站免费入址| 蜜桃久久精品国产亚洲av| 久久久久国产网址| 国产黄频视频在线观看| 3wmmmm亚洲av在线观看| 国产精品精品国产色婷婷| 人妻少妇偷人精品九色| 观看免费一级毛片| 全区人妻精品视频| av免费在线看不卡| 插阴视频在线观看视频| 老师上课跳d突然被开到最大视频| 三级男女做爰猛烈吃奶摸视频| 国内揄拍国产精品人妻在线| 久久6这里有精品| 亚洲精品国产av蜜桃| 五月开心婷婷网| 精品国产乱码久久久久久小说| 久久6这里有精品| 中文字幕免费在线视频6| 看十八女毛片水多多多| 成人国产麻豆网| 嫩草影院入口| 亚洲国产精品国产精品| 另类亚洲欧美激情| av.在线天堂| 国产男人的电影天堂91| 亚洲av免费高清在线观看| 在线观看一区二区三区激情| 亚洲欧美精品自产自拍| 啦啦啦在线观看免费高清www| 男人爽女人下面视频在线观看| 成人一区二区视频在线观看| 男的添女的下面高潮视频| 国国产精品蜜臀av免费| 国产黄色视频一区二区在线观看| 国产日韩欧美在线精品| 国产高潮美女av| 精品久久国产蜜桃| 秋霞在线观看毛片| 人人妻人人爽人人添夜夜欢视频 | 一个人观看的视频www高清免费观看| 亚洲久久久久久中文字幕| 黄色日韩在线| 高清日韩中文字幕在线| 99久国产av精品国产电影| 国产探花在线观看一区二区| 91午夜精品亚洲一区二区三区| 久久影院123| 国产一级毛片在线| 99久久九九国产精品国产免费| 久久99热这里只有精品18| 男插女下体视频免费在线播放| 亚洲三级黄色毛片| 男女啪啪激烈高潮av片| 超碰av人人做人人爽久久| 中文字幕制服av| 日本黄大片高清| 久久久精品94久久精品| 欧美3d第一页| 国产黄片美女视频| 国产欧美另类精品又又久久亚洲欧美| 国产片特级美女逼逼视频| 久久久欧美国产精品| 国产真实伦视频高清在线观看| 日日摸夜夜添夜夜爱| 国产综合懂色| 日韩人妻高清精品专区| 欧美日韩视频高清一区二区三区二| 午夜精品国产一区二区电影 | 免费av毛片视频| 日本一二三区视频观看| 80岁老熟妇乱子伦牲交| 成人黄色视频免费在线看| 好男人视频免费观看在线| 国产免费又黄又爽又色| 天天躁夜夜躁狠狠久久av| 午夜亚洲福利在线播放| 蜜桃久久精品国产亚洲av| 免费人成在线观看视频色| 白带黄色成豆腐渣| av又黄又爽大尺度在线免费看| 狂野欧美激情性bbbbbb| 一个人看视频在线观看www免费| 九九久久精品国产亚洲av麻豆| 色婷婷久久久亚洲欧美| 亚洲人成网站高清观看| 国产熟女欧美一区二区| 亚洲av福利一区| 久久久久网色| 久久鲁丝午夜福利片| 国产成人福利小说| 嘟嘟电影网在线观看| 国产免费一级a男人的天堂| 成人漫画全彩无遮挡| 夜夜爽夜夜爽视频| 99热网站在线观看| 国产美女午夜福利| 交换朋友夫妻互换小说| 99久国产av精品国产电影| www.av在线官网国产| 在线观看美女被高潮喷水网站| 精品久久久久久久人妻蜜臀av| 我的女老师完整版在线观看| 国产91av在线免费观看| 中文欧美无线码| 亚洲成人久久爱视频| 1000部很黄的大片| 国产亚洲精品久久久com| 最近中文字幕2019免费版| 国产免费视频播放在线视频| 国产精品不卡视频一区二区| 欧美国产精品一级二级三级 | 一区二区av电影网| 男插女下体视频免费在线播放| 男女那种视频在线观看| 制服丝袜香蕉在线| 亚洲国产欧美在线一区| 亚洲国产精品成人久久小说| 日韩一区二区视频免费看| 午夜福利高清视频| 精品一区在线观看国产| 免费在线观看成人毛片| 麻豆成人av视频| 日本午夜av视频| 毛片一级片免费看久久久久| av在线app专区| 国内精品美女久久久久久| 精品久久久久久久久av| 国产黄色视频一区二区在线观看| 97超碰精品成人国产| 黄片无遮挡物在线观看| 女人十人毛片免费观看3o分钟| 亚洲不卡免费看| 欧美三级亚洲精品| 色哟哟·www| 国产亚洲一区二区精品| 国产欧美亚洲国产| 免费观看a级毛片全部| 免费观看无遮挡的男女| 涩涩av久久男人的天堂| 日本黄大片高清| 97在线视频观看| 男人狂女人下面高潮的视频| 不卡视频在线观看欧美| 国产伦精品一区二区三区视频9| 亚洲欧美清纯卡通| 亚洲av中文字字幕乱码综合| 国产精品偷伦视频观看了| 亚洲色图综合在线观看| 新久久久久国产一级毛片| 高清在线视频一区二区三区| 亚洲成人中文字幕在线播放| 97热精品久久久久久| 欧美97在线视频| 午夜日本视频在线| 日韩成人av中文字幕在线观看| 亚洲人成网站高清观看| 亚洲自拍偷在线| 男人爽女人下面视频在线观看| 日本熟妇午夜| 一边亲一边摸免费视频| 成人亚洲精品av一区二区| 成人毛片a级毛片在线播放| 欧美激情在线99| 成人欧美大片| 一区二区av电影网| 亚洲精品第二区| 精品国产一区二区三区久久久樱花 | 久久久色成人| 亚洲成色77777| 国产成人91sexporn| 99热这里只有精品一区| av国产免费在线观看| 久久久久网色| 亚洲欧美日韩东京热| 欧美精品国产亚洲| 嘟嘟电影网在线观看| 免费观看av网站的网址| 97在线视频观看| 极品少妇高潮喷水抽搐| 欧美bdsm另类| 久久精品国产亚洲网站| 人妻夜夜爽99麻豆av| 国产免费一区二区三区四区乱码| 欧美老熟妇乱子伦牲交| 色吧在线观看| 超碰97精品在线观看| 亚洲欧美一区二区三区黑人 | 美女主播在线视频| 精品一区二区三区视频在线| 看免费成人av毛片| 国产一区二区亚洲精品在线观看| 国产91av在线免费观看| 男女边摸边吃奶| 一区二区三区乱码不卡18| 91狼人影院| 亚洲av福利一区| 亚洲美女搞黄在线观看| 男人舔奶头视频| 亚洲欧美清纯卡通| 日本熟妇午夜| 久久久久久国产a免费观看| 国产在线一区二区三区精| 国产亚洲5aaaaa淫片| 亚洲va在线va天堂va国产| 麻豆成人av视频| 一级片'在线观看视频| 高清毛片免费看| 亚洲精品,欧美精品| 在线 av 中文字幕| 人人妻人人澡人人爽人人夜夜| 中国国产av一级| 天堂网av新在线| 九九久久精品国产亚洲av麻豆| 麻豆精品久久久久久蜜桃| 日本黄大片高清| 毛片一级片免费看久久久久| 久久亚洲国产成人精品v| 国产成人精品婷婷| 别揉我奶头 嗯啊视频| 亚洲成人精品中文字幕电影| 久久久色成人| h日本视频在线播放| 美女xxoo啪啪120秒动态图| 大又大粗又爽又黄少妇毛片口| 日本wwww免费看| 国产视频内射| av在线蜜桃| 最后的刺客免费高清国语| 久久鲁丝午夜福利片| 美女xxoo啪啪120秒动态图| 小蜜桃在线观看免费完整版高清| 国产精品爽爽va在线观看网站| 伦精品一区二区三区| 亚洲最大成人av| 午夜免费男女啪啪视频观看| 亚洲精品国产色婷婷电影| 亚洲精华国产精华液的使用体验| 国产精品人妻久久久影院| 亚洲av在线观看美女高潮|