• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于PV-DM模型的多文檔摘要方法

    2016-11-08 08:36:19毛二松
    計算機應用與軟件 2016年10期
    關鍵詞:單調文檔語義

    劉 欣 王 波 毛二松

    (解放軍信息工程大學 河南 鄭州 450002)

    ?

    基于PV-DM模型的多文檔摘要方法

    劉欣王波毛二松

    (解放軍信息工程大學河南 鄭州 450002)

    當前的基于詞向量的多文檔摘要方法沒有考慮句子中詞語的順序,存在異句同向量問題以及在小規(guī)模訓練數(shù)據(jù)上生成的摘要冗余度高的問題。針對這些問題,提出基于PV-DM(Distributed Memory Model of Paragraph Vectors)模型的多文檔摘要方法。該方法首先構建單調亞模(Submodular)目標函數(shù);然后,通過訓練PV-DM模型得到句子向量計算句子間的語義相似度,進而求解單調亞模目標函數(shù);最后,利用優(yōu)化算法抽取句子生成摘要。在標準數(shù)據(jù)集Opinosis上的實驗結果表明該方法優(yōu)于當前主流的多文檔摘要方法。

    語義相似度PV-DM模型句子向量多文檔摘要單調亞模函數(shù)

    0 引 言

    隨著互聯(lián)網(wǎng)的蓬勃發(fā)展和廣泛應用,話題被廣泛傳播,媒體和網(wǎng)民可以對其進行報道、引用、評論和修改,而且話題本身也在不斷演化,造成話題形式多樣,內容豐富,各有側重。信息爆炸的同時也造成了信息利用率降低,對網(wǎng)民全面了解話題帶來困難,如何高效地利用互聯(lián)網(wǎng)信息成為亟待解決的問題。因此,本文研究如何生成一個信息準確且覆蓋面廣的話題概要,提高用戶信息獲取效率。

    近年來,研究者們研究如何對話題的多個文檔進行處理生成一份話題概要,稱之為多文檔摘要技術,其主要方法分為抽取式和摘取式兩類。抽取式摘要的方法是從多文檔中,抽取出最能代表這些文檔的句子,作為多文檔摘要,抽取式摘要具有可讀性強,原文信息保留全面等特點。與抽取式方法相比,摘取式方法需要利用自然語言生成技術來生成摘要。目前,自然語言生成技術并不能生成流暢的句子,影響了摘取式方法所生成摘要的可讀性。因此,抽取式方法仍然是文檔摘要領域的主流方法,本文也采用抽取式方法來生成摘要。

    抽取式摘要方法關鍵是在有限字數(shù)或句子數(shù)的條件下,從文檔中抽取能夠包含話題主要內容的若干句子,同時要求選擇的句子沒有冗余信息。文獻[1-4]均將句子選擇視為最優(yōu)化問題。首先給出約束條件,然后建立目標函數(shù),最后利用優(yōu)化算法求解目標函數(shù)的最優(yōu)解。在上述研究中,Lin[4]等提出的算法取得了目前最好的性能,其利用單調亞模函數(shù)建立目標函數(shù),然后利用貪婪優(yōu)化算法求解最優(yōu)解。然而,Lin等人的研究是利用TF-IDF(Term Frequency-Inverse Document Frequency)方法計算句子的權重來衡量句子間的相似性,這也是目前多數(shù)文檔摘要算法采取的比較通用的方式。該方式依賴詞形相似性度量句子間的相似度,沒有考慮句子中同義詞對句子間相似度的貢獻,無法準確計算句子之間深層的語義相似度,比如“喜歡”和“愛”雖然意思相近,但是計算兩個句子相似度時不會統(tǒng)計這兩個詞,從而不會提高句子之間的相似度。針對這個問題,研究者嘗試引入帶有語義信息的詞向量來提高句子相似度計算的準確性。例如,K?geb?ck等[5]通過訓練Skip-gram[6]模型得到代表詞語語義信息的詞向量,將詞向量相加作為句子向量,通過計算句子向量的余弦相似度衡量句子之間的相似度。然而,將詞向量相加并沒有考慮詞語的順序,例如“我喜歡你”和“你喜歡我”,這兩句話的意思不一樣,但是它們的句子向量卻相同,即異句同向量,導致抽取式摘要的準確性降低。當訓練數(shù)據(jù)規(guī)模較小時,通過該方法得到的句子向量代表句子語義信息的能力低,抽取出的句子比標準摘要句長,含有較多冗余信息,影響用戶閱讀效率。

    針對上述問題,本文在Lin等人研究的基礎上,提出一種基于 PV-DM模型的多文檔摘要方法。該方法通過訓練PV-DM模型產(chǎn)生句子向量來計算句子之間的語義相似度,避免了傳統(tǒng)方法僅利用詞形相似性和基于詞向量的摘要方法沒有考慮詞語順序所帶來的問題。

    1 相關工作

    本文中的PV-DM模型屬于神經(jīng)網(wǎng)絡語言模型,本節(jié)將分別介紹神經(jīng)網(wǎng)絡語言模型和多文檔摘要技術。

    1.1神經(jīng)網(wǎng)絡語言模型

    Bengio等[7]用一個三層(輸入層,隱藏層和輸出層)的前饋神經(jīng)網(wǎng)絡構建語言模型訓練詞向量,輸入語料訓練模型,輸出層中利用softmax算法預測下一個詞語,輸出層中的節(jié)點數(shù)等于輸入語料的單詞數(shù),當訓練大規(guī)模語料時,運算復雜度高,模型訓練緩慢。為了降低運算復雜度,Collobert等[8]將神經(jīng)網(wǎng)絡的輸出層改為1個節(jié)點,縮短了訓練詞向量的時間。Huang等[9]認為Collobert的工作只利用了“局部上下文”,所以提出了一個結合局部信息和全局信息的神經(jīng)網(wǎng)絡語言模型訓練詞向量。為了進一步降低運算復雜度,Mikolov等[10]提出了Skip-gram和 CBOW(Continuous Bag-of-Words Model)模型,這兩個模型只有輸入層、映射層和輸出層,在訓練語料時忽略單詞的順序。在詞向量之外,研究者們也嘗試利用神經(jīng)網(wǎng)絡訓練生成短語向量、句子向量和段落向量。

    Socher[11]和Denil[12]分別提出了訓練短語向量的RvNN(Recursive Neural Network)模型和訓練句子向量的ConvNets(Convolutional neural Networks)模型,但是這兩個模型都需要標注數(shù)據(jù)進行訓練。Mikolov等[7]則利用詞向量的相加代表短語向量或者句子向量,但是該方法沒有考慮句子中單詞的順序。Le等[13]提出用PV-DM模型訓練段落向量(當段落是一句話時為句子向量),該模型利用無標注數(shù)據(jù)訓練,而且在訓練句子向量時考慮了詞語的順序。

    1.2多文檔摘要技術

    Radev等[14]提出聚類中心的概念,首先利用TF-IDF計算句子的權重,然后計算句子權重之間的余弦相似度,從而得到多個聚類,再選出每個聚類的中心句作為整體的文檔摘要。同年,Mihalcea等[15]提出TextRank算法,首先用圖代表整篇文檔,圖中的節(jié)點代表句子,邊的權重信息代表句子間的相似度,然后利用Google的PageRank算法來估計句子的重要程度,最后選取最重要的句子作為文檔摘要。宋銳等[16]通過構建主-述-賓三元組結構的文檔語義圖,利用編輯距離對圖中節(jié)點進行聚類,經(jīng)過進一步優(yōu)化得到多文檔摘要。Chang等[17]利用文檔、主題、句子和詞匯信息構建4層LDA模型,通過計算文本語言模型和句子語言模型的相對熵對句子排序,從而生成摘要。文獻[18-20]則采用有監(jiān)督學習的方法生成多文檔摘要。Bonzanini等[21]提出一種句子移除算法,通過在句子集中反復移除不重要的句子得到文檔摘要。Lin等[4]通過建立單調亞模目標函數(shù),利用TF-IDF計算句子之間的相似度,優(yōu)化目標函數(shù)得到最大值來生成摘要,但是該方法卻不能充分地利用詞語的語義信息。Denil[12]將可視化技術應用到多文檔摘要領域,通過計算文檔每個句子的重要性得分,創(chuàng)建整個文檔顯著圖,而后采用Simoyan[22]的可視化技術得到摘要顯著圖。

    由于上述研究對句子的語義信息利用不足,所以K?geb?ck等[5]引入帶有詞語語義信息的詞向量,將詞向量相加生成句子向量來計算句子間的相似度,但詞向量在相加時沒有考慮詞語的順序,會產(chǎn)生異句同向量的問題,影響摘要的質量。

    2 基于PV-DM模型的多文檔摘要方法

    本節(jié)首先給出基于PV-DM模型的多文檔摘要方法的基本流程,然后對其中的關鍵技術逐一進行闡述。

    2.1基本流程

    本文方法的基本流程如圖1所示,主要包括構建單調亞模目標函數(shù)、訓練句子向量與計算語義相似度、生成摘要三個部分。

    圖1 基于PV-DM模型的多文本摘要方法流程

    (1) 構建單調亞模目標函數(shù)根據(jù)摘要的準確性和多樣性特點分別選取單調亞模函數(shù)L(S)和R(S),然后線性相加得出代表摘要質量的單調亞模目標函數(shù)F(S)。

    (2) 訓練句子向量與計算語義相似度利用PV-DM模型訓練數(shù)據(jù)集中每句話的句子向量,將基于句子向量的語義相似度計算方法應用到L(S)和R(S)的求解中。

    (3) 生成摘要通過優(yōu)化算法計算單調亞模函數(shù)的最大值得到多文檔的摘要句。

    2.2構建單調亞模目標函數(shù)

    (1)

    式中,ci表示句子i的長度,F(xiàn)必須滿足如下性質:

    F(A+v)-F(A)≥F(B+v)-F(B)

    (2)

    其中,A?B?Vv,式可以理解為隨著句子v上下文的增加,添加句子v所引起的增量變小,該性質也稱為增益遞減性。

    一份高質量的文檔摘要具有代表性強和冗余度低的特點,針對這兩個特點分別構建單調亞模函數(shù),然后將單調亞模函數(shù)線性相加來權衡代表性和冗余度,獲得質量盡可能高的多文檔摘要,因此單調亞模目標函數(shù)可以表示為:

    F(S)=L(S)+λR(S)

    (3)

    式中,L(S)的作用是測量S代表V的準確度,R(S)用來衡量S中句子的多樣性,λ是平衡系數(shù)(本文選取λ=6[4]),用來權衡代表性和多樣性。L(S)的定義如下:

    (4)

    (5)

    式中,Pi(i=1,2,…,K)表示V的i個聚類,各聚類中無重疊元素,rj≥0表示j對S的重要程度。構建R(S)的原理為:若S已包含聚類Pi中的句子,下一步選取的摘要句子應為其他聚類中的句子。

    2.3PV-DM模型

    PV-DM模型是一種訓練段落向量的神經(jīng)網(wǎng)絡語言模型,它以三層(輸入層,映射層和輸出層)神經(jīng)網(wǎng)絡作為框架,結構框架如圖2所示。

    圖2 PV-DM模型結構框架

    上述框架圖中,將輸入預料的每個段落都映射為一個向量,作為矩陣D的列向量,每個單詞映射為一個向量,作為矩陣W的列向量。給定一組詞語序列w1,w2,…,wT,所在段落為dw,PV-DM模型的目標為最大化平均對數(shù),表示為:

    (6)

    預測的工作主要通過多元分類器來完成,例如softmax算法,從而得到下式:

    (7)

    式中,yi是詞i非正則化的統(tǒng)一概率,計算方法如下:

    y=b+Uh(wt-k,…,wt+k,dw;W,D)

    (8)

    式中,U和b是softmax的參數(shù),h由W和D中取出的詞向量和段落向量構成。

    2.4訓練句子向量與計算語義相似度

    本文利用PV-DM模型訓練句子向量,然后利用句子向量計算句子之間的語義相似度。

    (1) 訓練句子向量

    (a) 訓練詞向量和模型中的參數(shù)

    獲取詞向量矩陣W,然后使用softmax獲取U、b和已知句子的句子向量矩陣D。

    (b) 預測階段

    從新的句子中獲取句子向量并加入到矩陣D中,W、U和b等參數(shù)不變,同時在矩陣D上使用隨機梯度下降法達到收斂,從而得到最終的句子向量矩陣。

    (2) 計算句子間的語義相似度

    根據(jù)句子向量計算句子間的余弦相似度,并將結果轉換到[0,1]之間,計算式如下:

    (9)

    其中,Sim(i,j)代表句子i和句子j的語義相似度,xi和xj是對應的句子向量。

    2.5生成摘要

    本文通過單調亞模目標函數(shù)優(yōu)化算法求解式來生成摘要,具體算法如下:

    算法單調亞模目標函數(shù)優(yōu)化算法

    輸入:句子集V

    輸出:摘要集S

    1 G←?

    2 U←V

    3 whileU≠Vdo

    5 if∑i∈Gci+ck≤BandF(G∪{k})-F(G)≥0

    6 G←G∪{k}

    7 U←U{k}

    8 end while

    9 v*←argmaxv∈V,cv≤BF({v})

    10 return S=argmaxS∈{{v*},G}F(S)

    算法先定義2個集合G和U,分別賦以空集和句子集V,循環(huán)的向G中添加滿足條件的句子k,直到單調亞模目標函數(shù)F(G)不再增大。同時,計算字數(shù)不超過B的句子的F({v}),返回使F({v})最大的句子v*。最后,再比較F(v*)和F(G)的大小,選擇使目標函數(shù)最大的句子集作為摘要集S。

    3 實驗結果及分析

    3.1實驗數(shù)據(jù)與評價方法

    本文實驗采用多文檔摘要領域的通用數(shù)據(jù)集Opinosis[23]進行實驗,Opinosis標準數(shù)據(jù)集包括51個話題,每個話題是用戶對酒店、汽車和電子產(chǎn)品等的評論,句子數(shù)從50到575個不等,每個話題還包括了人工生成的4到5組標準摘要。

    當前常用評價標準ROUGE(Recall-Oriented Understudy for Gisting Evaluation)對多文檔摘要進行評估,其評價原理就是統(tǒng)計生成摘要和標準摘要中,有多少重復的N元語言模型、文字序列或者文字對,并以此作為文檔摘要的評測指標。在ROUGE評測指標中有多種子指標如ROUGE-N、ROUGE-W和ROUGE-L等,其中每一項評測指標都能產(chǎn)生出3個得分(召回率、準確率和F1值),下面以ROUGE-N為例進行說明。

    N元語言模型的召回率ROUGE-N-R為:

    (10)

    N元語言模型的準確率ROUGE-N-P為:

    (11)

    以上兩者結合計算F1值為:

    (12)

    其中,N是N元語言模型的長度,N-gram∈GT表示在標準摘要中出現(xiàn)的N-gram,N-gram∈CT代表生成摘要中出現(xiàn)的N-gram。Countmatch(N-gram)是在候選文檔摘要中和標準摘要中都出現(xiàn)的N-gram數(shù)量,Count(N-gram)則表示僅出現(xiàn)在標準答案摘要或是生成摘要中的N-gram數(shù)量,因為F1值由召回率和準確率結合計算而來,所以本實驗采用ROUGE-1和ROUGE-2的F1值分析實驗結果。

    3.2實驗設置與結果分析

    實驗選取Lin[4]和基于詞向量的文檔摘要中效果最好的方法作為對比實驗,分別記為SMS和WVS,本文方法記為SVS。

    SMS利用基于TF-IDF的句子相似度計算方法求解單調亞模目標函數(shù),優(yōu)化目標函數(shù)生成摘要。WVS將SMS中句子相似度的計算方法替換為基于詞向量的相似度計算方法。由于每組標準摘要中平均包括兩句話,本實驗在每個話題中抽取兩句話作為各話題摘要。

    (1) WVS和SVS用Opinosis數(shù)據(jù)集作為模型的訓練數(shù)據(jù),然后分別用三種方法為Opinosis數(shù)據(jù)集的51個話題分別生成摘要,評估結果如圖所示。

    圖3 三種方法的評估結果

    從圖3可以看出,本文方法的評估結果均優(yōu)于兩個對比方法,由于SMS中基于TF-IDF的句子相似度計算方法沒有利用詞語的語義信息,使得SMS的評估結果低WVS的評估結果。神經(jīng)網(wǎng)絡語言模型的訓練一般需要充足的訓練數(shù)據(jù),雖然本實驗中SVS和WVS的訓練數(shù)據(jù)稀疏,在一定程度上降低了WVS和SVS中句子向量代表句子的語義信息能力,但是評估結果說明用基于句子向量的語義相似度計算方法代替基于TF-IDF的句子相似度計算方法是有效可行的,其中SVS考慮了句子中詞語的順序,避免了WVS中異句同向量的問題,提高了生成摘要的質量。

    (2) 為了提高本文方法生成摘要的質量,本文將11G的維基百科語料(https://dumps.wikimedia.org)(數(shù)據(jù)提取后得到3 642 397個文檔,總共包含14 753 874篇英文文章)和Opinosis數(shù)據(jù)集拼接作為訓練數(shù)據(jù),再次使用三種方法進行實驗,結果如圖4所示。

    圖4 大規(guī)模數(shù)據(jù)下三種方法的評估結果

    從圖4可以看出,本文的方法仍然比兩個對比方法效果好,而且SVS和WVS的ROUGE-1評估值相較于在Opinosis數(shù)據(jù)集下分別提高了27.50%和18.17%, ROUGE-2評估值分別提高了53.32%和28.44%,這是因為訓練數(shù)據(jù)規(guī)模大,句子向量代表句子語義信息的能力得到了極大的提高,從而使抽取的摘要更加準確。從圖5和圖6可以明顯看出,SVS和WVS在大規(guī)模訓練數(shù)據(jù)的評估結果相較于小規(guī)模訓練數(shù)據(jù)下的評估結果有了顯著提高,說明訓練數(shù)據(jù)規(guī)模的選取對本文方法的性能有重要的影響。

    圖5 訓練數(shù)據(jù)規(guī)模不同時SVS的評估結果對比

    圖6 訓練數(shù)據(jù)規(guī)模不同時WVS的評估結果對比

    (3) 實驗過程中發(fā)現(xiàn),在訓練數(shù)據(jù)規(guī)模小的情況下,WVS方法抽取的句子較長,冗余度高;而SVS方法選取的句子接近標準摘要句子的長度,便于用戶閱讀;這個鮮明的對比表明SVS比WVS更加充分地利用了句子的語義信息。由于篇幅限制,本文只列舉3個話題的結果(如表1所示),在表中SVS對每個話題選取的句子不僅主題準確,而且冗余度低,便于閱讀,對第二個話題選取的一個句子甚至和標準摘要句相同。WVS對每個話題選取的句子比較冗長,其中對第二個話題選取的句子表達的主題與標準摘要句表達的主題不同。

    表1 小規(guī)模訓練數(shù)據(jù)下WVS和SVS生成摘要的對比

    從圖3和表1可以看出,本文提出的SVS在Opinosis數(shù)據(jù)集作為訓練數(shù)據(jù)時,ROUGE評估結果已經(jīng)超過了兩種對比方法,而且此時生成摘要的句子冗余度低。從圖4、圖5和圖6可以看出,訓練數(shù)據(jù)量較大時,SVS和WVS方法生成摘要的ROUGE評估結果都有大幅度的提高,均優(yōu)于SMS的評估結果,且SVS的ROUGE評估值依然最高。

    4 結 語

    本文提出一種基于PV-DM模型的多文檔摘要方法,該方法通過訓練PV-DM模型得到句子向量,將基于句子向量的句子語義相似度計算方法應用到單調亞模目標函數(shù)的求解中,避免了語義信息利用不足和異句同向量問題。實驗結果表明,本文提出的方法在訓練數(shù)據(jù)稀疏時取得比SMS和WVS更高的ROUGE評估值,且抽取的句子冗余度低,便于閱讀;在訓練數(shù)據(jù)充足條件下,本文方法和WVS的評估結果都得到了極大的提高,且本文方法的評估結果依然最優(yōu)。然而,訓練數(shù)據(jù)量較大時訓練句子向量的時間開銷大;訓練數(shù)據(jù)量不足時則會影響句子向量代表句子語義信息的能力,今后將對如何選取合適的訓練數(shù)據(jù)規(guī)模作進一步的研究。

    [1] Takamura H,Okumura M.Text summarization model based on maximum coverage problem and its variant[C]//Proceedings of the 12th Conference of the European Chapter of the Association for Computational Linguistics.Association for Computational Linguistics,2009:781-789.

    [2] Lin H,Bilmes J,Xie S.Graph-based submodular selection for extractive summarization[C]//Automatic Speech Recognition & Understanding,2009.ASRU 2009.IEEE Workshop on.IEEE,2009:381-386.

    [3] Liu F,Liu Y,Weng F.Why is SXSW trending?:exploring multiple text sources for Twitter topic summarization[C]//Proceedings of the Workshop on Languages in Social Media. Association for Computational Linguistics,2011:66-75.

    [4] Lin H,Bilmes J.A class of submodular functions for document summarization[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics:Human Language Technologies-Volume 1.Association for Computational Linguistics,2011:510-520.

    [5] K?geb?ck M,Mogren O,Tahmasebi N,et al.Extractive summarization using continuous vector space models[C]//Proceedings of the 2nd Workshop on Continuous Vector Space Models and their Compositionality (CVSC)@ EACL,2014:31-39.

    [6] Mikolov T,Sutskever I,Chen K,et al.Distributed representations of words and phrases and their compositionality[C]//Advances in Neural Information Processing Systems,2013:3111-3119.

    [7] Bengio Y,Ducharme R,Vincent P,et al.A neural probabilistic language model[J].The Journal of Machine Learning Research,2003,3(2):1137-1155.

    [8] Collobert R,Weston J.A unified architecture for natural language processing:Deep neural networks with multitask learning[C]//Proceedings of the 25th international conference on Machine learning.ACM,2008:160-167.

    [9] Huang E H,Socher R,Manning C D,et al.Improving word representations via global context and multiple word prototypes[C]//Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics:Long Papers-Volume 1.Association for Computational Linguistics,2012:873-882.[10] Mikolov T,Chen K,Corrado G,et al.Efficient estimation of word representations in vector space[J].arXiv preprint arXiv,2013:1301,3781.

    [11] Socher R,Manning C D,Ng A Y.Learning continuous phrase representations and syntactic parsing with recursive neural networks[C]//Proceedings of the NIPS-2010 Deep Learning and Unsupervised Feature Learning Workshop,2010:1-9.

    [12] Denil M,Demiraj A,de Freitas N.Extraction of Salient Sentences from Labelled Documents[J].arXiv preprint arXiv,2014:1412,6815.

    [13] Le Q V,Mikolov T.Distributed representations of sentences and documents[J].arXiv preprint arXiv,2014:1405,4053.

    [14] Radev D R,Jing H,Stys M,et al.Centroid-based summarization of multiple documents[J].Information Processing & Management,2004,40(6):919-938.

    [15] Mihalcea R,Tarau P.TextRank: Bringing order into texts[C].Association for Computational Linguistics,2004:404-411.

    [16] 宋銳,林鴻飛.基于文檔語義圖的中文多文檔摘要生成機制[J].中文信息學報,2009,23(3):110-115.

    [17] Chang Y L,Chien J T.Latent Dirichlet learning for document summarization[C]//Acoustics,Speech and Signal Processing,2009.ICASSP 2009.IEEE International Conference on.IEEE,2009:1689-1692.

    [18] Liu F,Liu F,Liu Y.Automatic keyword extraction for the meeting corpus using supervised approach and bigram expansion[C]//Spoken Language Technology Workshop,2008.SLT 2008.IEEE.IEEE,2008:181-184.

    [19] Wong K F,Wu M,Li W.Extractive summarization using supervised and semi-supervised learning[C]//Proceedings of the 22nd International Conference on Computational Linguistics-Volume 1.Association for Computational Linguistics,2008:985-992.

    [20] Li C,Qian X,Liu Y.Using Supervised Bigram-based ILP for Extractive Summarization[C]//ACL (1),2013:1004-1013.

    [21] Bonzanini M,Martinez-Alvarez M,Roelleke T.Extractive summarisation via sentence removal:Condensing relevant sentences into a short summary[C]//Proceedings of the 36th international ACM SIGIR conference on Research and development in information retrieval.ACM,2013:893-896.

    [22] Simonyan K,Vedaldi A,Zisserman A.Deep inside convolutional networks:Visualising image classification models and saliency maps[J].arXiv preprint arXiv,2013:1312,6034.

    [23] Ganesan K,Zhai C X,Han J.Opinosis:a graph-based approach to abstractive summarization of highly redundant opinions[C]//Proceedings of the 23rd International Conference on Computational Linguistics.Association for Computational Linguistics,2010:340-348.

    PV-DM MODEL-BASED MULTI-DOCUMENT SUMMARISATION

    Liu XinWang BoMao Ersong

    (ThePLAInformationEngineeringUniversity,Zhengzhou450002,Henan,China)

    Currently, the word vector-based multi-document summarisation method does not take the order of words in sentences into consideration, it has the problem of same vector in different sentences and the problem of high redundancy in the summaries generated from small-scale training data. To solve these problems, we propose a method based on PV-DM model-based multi-document summarisation method. First, the method formulates the monotone submodular objective function. Then, by training PV-DM model it obtains sentence vectors to calculate the semantic similarity between sentences, and then calculates the monotone submodular objective function. Finally, it uses the optimised algorithm to extract sentences to form summary. Result of experiment on standard dataset Opinosis show that our method outperforms existing mainstream multi-document summarisation method.

    Semantic similarityPV-DM (Distributed memory model of paragraph vectors) modelSentence vectorMulti-document summaryMonotone submodular function

    2015-07-09。國家社會科學基金項目(14BXW028)。劉欣,碩士生,主研領域:自然語言處理。王波,副教授。毛二松,碩士生。

    TP391

    A

    10.3969/j.issn.1000-386x.2016.10.056

    猜你喜歡
    單調文檔語義
    有人一聲不吭向你扔了個文檔
    數(shù)列的單調性
    數(shù)列的單調性
    語言與語義
    對數(shù)函數(shù)單調性的應用知多少
    基于RI碼計算的Word復制文檔鑒別
    “上”與“下”語義的不對稱性及其認知闡釋
    Persistence of the reproductive toxicity of chlorpiryphos-ethyl in male Wistar rat
    認知范疇模糊與語義模糊
    旋轉擺的周期單調性
    欧美97在线视频| 女人高潮潮喷娇喘18禁视频| 在线 av 中文字幕| 久久国产亚洲av麻豆专区| 免费av中文字幕在线| 欧美日韩亚洲国产一区二区在线观看 | 91国产中文字幕| 一级,二级,三级黄色视频| 欧美日韩亚洲综合一区二区三区_| 99国产综合亚洲精品| 久久久久久久久久久免费av| 亚洲av电影在线进入| 精品国产露脸久久av麻豆| 免费观看av网站的网址| 大话2 男鬼变身卡| 黄频高清免费视频| 成人毛片60女人毛片免费| 美女大奶头黄色视频| 永久免费av网站大全| 欧美精品一区二区大全| 交换朋友夫妻互换小说| 亚洲精品日韩在线中文字幕| av在线观看视频网站免费| 免费高清在线观看视频在线观看| 亚洲精品久久久久久婷婷小说| 亚洲精品日韩在线中文字幕| av网站免费在线观看视频| 日韩一本色道免费dvd| videos熟女内射| 国产成人欧美| 国产日韩一区二区三区精品不卡| 亚洲精品乱久久久久久| 久久鲁丝午夜福利片| 精品一品国产午夜福利视频| 黄片小视频在线播放| 女人久久www免费人成看片| 美女大奶头黄色视频| 亚洲一卡2卡3卡4卡5卡精品中文| 亚洲av男天堂| 中国三级夫妇交换| 美女扒开内裤让男人捅视频| 亚洲欧洲日产国产| 久久99热这里只频精品6学生| 美女福利国产在线| 久久精品亚洲熟妇少妇任你| 最近的中文字幕免费完整| 韩国高清视频一区二区三区| 自线自在国产av| 在线观看一区二区三区激情| 欧美av亚洲av综合av国产av | 汤姆久久久久久久影院中文字幕| 一区二区三区精品91| 亚洲天堂av无毛| 波多野结衣一区麻豆| 桃花免费在线播放| 可以免费在线观看a视频的电影网站 | 91精品国产国语对白视频| 高清不卡的av网站| 一区二区三区四区激情视频| 色播在线永久视频| 一二三四中文在线观看免费高清| 黄片播放在线免费| 在线观看免费高清a一片| 国产精品女同一区二区软件| 日日摸夜夜添夜夜爱| 天天躁日日躁夜夜躁夜夜| 亚洲欧美精品综合一区二区三区| 久热爱精品视频在线9| 日韩制服丝袜自拍偷拍| 日本欧美视频一区| 十八禁网站网址无遮挡| 看十八女毛片水多多多| 人成视频在线观看免费观看| 欧美日韩福利视频一区二区| 免费久久久久久久精品成人欧美视频| 欧美精品av麻豆av| 一级毛片电影观看| 中文字幕av电影在线播放| 婷婷色综合www| 国产乱来视频区| 青春草国产在线视频| 久久久久久人妻| 成年动漫av网址| 国产成人精品福利久久| 欧美xxⅹ黑人| 麻豆av在线久日| 日韩一卡2卡3卡4卡2021年| 日韩精品有码人妻一区| 最新在线观看一区二区三区 | av在线观看视频网站免费| 国产欧美日韩综合在线一区二区| 成年人免费黄色播放视频| 国产免费现黄频在线看| 成人毛片60女人毛片免费| 日韩伦理黄色片| 操美女的视频在线观看| av一本久久久久| av国产久精品久网站免费入址| netflix在线观看网站| 麻豆乱淫一区二区| 国产爽快片一区二区三区| 欧美97在线视频| av有码第一页| 久久免费观看电影| 七月丁香在线播放| 黄色怎么调成土黄色| 王馨瑶露胸无遮挡在线观看| 精品少妇一区二区三区视频日本电影 | 一级a爱视频在线免费观看| 晚上一个人看的免费电影| 国产淫语在线视频| 亚洲国产日韩一区二区| 亚洲,欧美精品.| 香蕉丝袜av| 一区在线观看完整版| 丰满乱子伦码专区| 婷婷色综合www| 国产亚洲一区二区精品| 韩国精品一区二区三区| 少妇被粗大的猛进出69影院| 大香蕉久久网| 久久性视频一级片| 午夜激情久久久久久久| 久久久久久久精品精品| 国产精品嫩草影院av在线观看| 欧美成人精品欧美一级黄| 精品亚洲成国产av| 亚洲av成人不卡在线观看播放网 | 欧美日韩成人在线一区二区| 欧美在线一区亚洲| 久久精品国产亚洲av高清一级| 亚洲精品,欧美精品| 国产一区二区在线观看av| 高清av免费在线| 大片免费播放器 马上看| 国产 精品1| 国产野战对白在线观看| 亚洲,欧美,日韩| 国产成人精品无人区| 亚洲av成人精品一二三区| 大片电影免费在线观看免费| 亚洲成人手机| 国产日韩欧美视频二区| 无遮挡黄片免费观看| 中文字幕人妻丝袜一区二区 | 在线 av 中文字幕| 韩国高清视频一区二区三区| 热99久久久久精品小说推荐| 国产熟女欧美一区二区| 男女边摸边吃奶| 亚洲国产欧美在线一区| 日日摸夜夜添夜夜爱| 国产亚洲av高清不卡| 国产精品香港三级国产av潘金莲 | 亚洲精品美女久久av网站| 美女大奶头黄色视频| 久久久久精品久久久久真实原创| 国产精品欧美亚洲77777| av国产久精品久网站免费入址| 亚洲精品第二区| 十八禁高潮呻吟视频| 亚洲精华国产精华液的使用体验| videosex国产| 亚洲精品,欧美精品| 中文精品一卡2卡3卡4更新| 高清不卡的av网站| 久久人人爽人人片av| 丝袜喷水一区| 日韩欧美一区视频在线观看| 性高湖久久久久久久久免费观看| 久久天躁狠狠躁夜夜2o2o | 性少妇av在线| 欧美另类一区| 日韩免费高清中文字幕av| 另类精品久久| 久久狼人影院| 免费观看人在逋| 日韩一卡2卡3卡4卡2021年| 嫩草影院入口| 国产欧美日韩一区二区三区在线| 亚洲国产日韩一区二区| 亚洲一区二区三区欧美精品| 国产男人的电影天堂91| 日日爽夜夜爽网站| 精品少妇一区二区三区视频日本电影 | 一区二区三区激情视频| 国产xxxxx性猛交| 肉色欧美久久久久久久蜜桃| 制服诱惑二区| 国产成人啪精品午夜网站| 久久精品国产综合久久久| 精品国产超薄肉色丝袜足j| 两个人免费观看高清视频| 免费观看人在逋| 亚洲av男天堂| 卡戴珊不雅视频在线播放| 啦啦啦啦在线视频资源| 久久精品熟女亚洲av麻豆精品| 肉色欧美久久久久久久蜜桃| 69精品国产乱码久久久| 黑人欧美特级aaaaaa片| 久久97久久精品| 无限看片的www在线观看| 成年av动漫网址| 欧美老熟妇乱子伦牲交| 亚洲精品视频女| 国产成人免费观看mmmm| 午夜免费鲁丝| 秋霞在线观看毛片| 午夜免费观看性视频| 亚洲成色77777| 成人黄色视频免费在线看| 中国三级夫妇交换| 王馨瑶露胸无遮挡在线观看| 丝袜在线中文字幕| 国产又色又爽无遮挡免| 欧美xxⅹ黑人| 日韩大片免费观看网站| 天天躁日日躁夜夜躁夜夜| 999久久久国产精品视频| 国产一区二区三区综合在线观看| 日韩一本色道免费dvd| 亚洲国产中文字幕在线视频| 一区二区三区乱码不卡18| 18禁观看日本| 伦理电影大哥的女人| 亚洲熟女精品中文字幕| 国产视频首页在线观看| 久久精品亚洲熟妇少妇任你| 一个人免费看片子| 肉色欧美久久久久久久蜜桃| 日日撸夜夜添| 热re99久久国产66热| 国产精品久久久久久久久免| 捣出白浆h1v1| 日本午夜av视频| 一区二区三区四区激情视频| 老汉色∧v一级毛片| 中文字幕人妻丝袜一区二区 | 丝袜脚勾引网站| 精品国产一区二区三区四区第35| 精品福利永久在线观看| 一级片'在线观看视频| 亚洲一区中文字幕在线| 亚洲第一av免费看| 国产成人精品久久久久久| av又黄又爽大尺度在线免费看| 人妻人人澡人人爽人人| 国产成人系列免费观看| 精品国产乱码久久久久久男人| 别揉我奶头~嗯~啊~动态视频 | 午夜福利在线免费观看网站| 1024视频免费在线观看| 大码成人一级视频| 丝袜脚勾引网站| 另类亚洲欧美激情| 18在线观看网站| 欧美精品av麻豆av| 国产精品一二三区在线看| a级片在线免费高清观看视频| 国产精品偷伦视频观看了| 久久影院123| 日韩中文字幕欧美一区二区 | 国产免费现黄频在线看| bbb黄色大片| 男男h啪啪无遮挡| 伊人久久大香线蕉亚洲五| 国产av精品麻豆| 国产麻豆69| 又黄又粗又硬又大视频| 日日啪夜夜爽| 亚洲第一区二区三区不卡| av网站在线播放免费| 777久久人妻少妇嫩草av网站| 国产伦理片在线播放av一区| 国产精品成人在线| 黑人欧美特级aaaaaa片| 国产亚洲一区二区精品| 亚洲成av片中文字幕在线观看| 两性夫妻黄色片| 精品一区二区三区av网在线观看 | 韩国高清视频一区二区三区| 欧美黑人欧美精品刺激| 人人妻人人澡人人看| 毛片一级片免费看久久久久| 极品少妇高潮喷水抽搐| 大香蕉久久网| 亚洲国产av影院在线观看| 少妇猛男粗大的猛烈进出视频| 自线自在国产av| 黑丝袜美女国产一区| 成人国产av品久久久| 精品第一国产精品| 免费看av在线观看网站| 老汉色av国产亚洲站长工具| 91aial.com中文字幕在线观看| 亚洲情色 制服丝袜| 如何舔出高潮| 国产在线视频一区二区| 日韩伦理黄色片| 老司机影院成人| 国产毛片在线视频| 一本色道久久久久久精品综合| 亚洲精品成人av观看孕妇| 赤兔流量卡办理| 欧美精品人与动牲交sv欧美| 黑人猛操日本美女一级片| 亚洲欧美日韩另类电影网站| 久久天堂一区二区三区四区| 观看av在线不卡| 欧美日韩视频高清一区二区三区二| 99热全是精品| 国产在线视频一区二区| 美女主播在线视频| 99久久综合免费| 美女午夜性视频免费| 国产精品久久久久久人妻精品电影 | 欧美在线一区亚洲| 男女高潮啪啪啪动态图| 国产日韩欧美视频二区| 老汉色av国产亚洲站长工具| 99久久精品国产亚洲精品| 精品国产一区二区久久| 国产一区二区 视频在线| 晚上一个人看的免费电影| 成人免费观看视频高清| 国产成人欧美在线观看 | 日本一区二区免费在线视频| 99久久99久久久精品蜜桃| 少妇精品久久久久久久| 天天躁夜夜躁狠狠久久av| 亚洲精品国产色婷婷电影| 老汉色∧v一级毛片| 制服丝袜香蕉在线| 丰满迷人的少妇在线观看| 国产日韩欧美亚洲二区| 你懂的网址亚洲精品在线观看| av网站在线播放免费| 亚洲三区欧美一区| 国产成人一区二区在线| 街头女战士在线观看网站| 亚洲色图综合在线观看| 国产亚洲精品第一综合不卡| 天堂中文最新版在线下载| 人人妻人人添人人爽欧美一区卜| 乱人伦中国视频| 天天躁夜夜躁狠狠久久av| 亚洲 欧美一区二区三区| 搡老岳熟女国产| av免费观看日本| 丝袜脚勾引网站| 免费高清在线观看日韩| www.熟女人妻精品国产| 婷婷色av中文字幕| 51午夜福利影视在线观看| 日韩成人av中文字幕在线观看| 国产亚洲精品第一综合不卡| av在线观看视频网站免费| 日本爱情动作片www.在线观看| 国产一区有黄有色的免费视频| 亚洲av国产av综合av卡| 毛片一级片免费看久久久久| 精品视频人人做人人爽| 一区二区三区精品91| 一级毛片我不卡| 蜜桃在线观看..| 成人国产麻豆网| 欧美成人午夜精品| 成人免费观看视频高清| 欧美中文综合在线视频| 久久久久久免费高清国产稀缺| 亚洲欧美精品自产自拍| 国产精品女同一区二区软件| 久久久国产欧美日韩av| 国产精品国产三级专区第一集| 亚洲精品国产av成人精品| 国产一区二区三区综合在线观看| 最新在线观看一区二区三区 | 日日爽夜夜爽网站| 一区二区日韩欧美中文字幕| 精品国产一区二区久久| 一边摸一边做爽爽视频免费| 国产av精品麻豆| 国产高清国产精品国产三级| 国产精品蜜桃在线观看| 国产女主播在线喷水免费视频网站| 亚洲色图综合在线观看| 欧美在线黄色| 亚洲美女视频黄频| 国产亚洲av高清不卡| 黄频高清免费视频| 在线观看国产h片| 日韩视频在线欧美| 美女主播在线视频| 亚洲欧美日韩另类电影网站| 人体艺术视频欧美日本| 天堂8中文在线网| 天天影视国产精品| 亚洲一卡2卡3卡4卡5卡精品中文| 2021少妇久久久久久久久久久| 亚洲av日韩精品久久久久久密 | 麻豆av在线久日| 免费日韩欧美在线观看| 性高湖久久久久久久久免费观看| 久久影院123| 在线观看人妻少妇| 中文字幕人妻熟女乱码| 久久久久精品性色| 亚洲av日韩精品久久久久久密 | 在线观看免费日韩欧美大片| 欧美 亚洲 国产 日韩一| 国产毛片在线视频| xxx大片免费视频| 伊人久久大香线蕉亚洲五| 亚洲精品久久久久久婷婷小说| 亚洲欧美清纯卡通| 精品人妻熟女毛片av久久网站| 十分钟在线观看高清视频www| 中文字幕亚洲精品专区| 色精品久久人妻99蜜桃| 欧美乱码精品一区二区三区| 亚洲精品美女久久av网站| 伦理电影免费视频| 天天影视国产精品| 亚洲国产av影院在线观看| 亚洲欧美激情在线| 国产成人精品久久久久久| 精品国产国语对白av| 国产欧美亚洲国产| 欧美国产精品一级二级三级| 亚洲国产毛片av蜜桃av| 99精品久久久久人妻精品| 韩国高清视频一区二区三区| 亚洲欧美一区二区三区黑人| 午夜福利视频精品| 国产又色又爽无遮挡免| 大码成人一级视频| videos熟女内射| 哪个播放器可以免费观看大片| 少妇人妻精品综合一区二区| 欧美日韩一区二区视频在线观看视频在线| 中国国产av一级| 国产免费又黄又爽又色| 操美女的视频在线观看| 成年av动漫网址| 国产 一区精品| 韩国av在线不卡| 久久99一区二区三区| 午夜福利视频精品| 看非洲黑人一级黄片| 国产片内射在线| 国产高清国产精品国产三级| 日日啪夜夜爽| 日本午夜av视频| 麻豆乱淫一区二区| 男女免费视频国产| 啦啦啦视频在线资源免费观看| 国产不卡av网站在线观看| 在线观看三级黄色| 精品人妻一区二区三区麻豆| 国产精品成人在线| 一二三四在线观看免费中文在| 欧美日韩亚洲综合一区二区三区_| 黄色怎么调成土黄色| 亚洲,欧美精品.| 欧美中文综合在线视频| 女人高潮潮喷娇喘18禁视频| 免费观看a级毛片全部| 一区二区三区激情视频| 永久免费av网站大全| 曰老女人黄片| 天堂中文最新版在线下载| 99久久99久久久精品蜜桃| 五月开心婷婷网| 日本爱情动作片www.在线观看| 午夜福利,免费看| 成人三级做爰电影| 精品亚洲成a人片在线观看| 哪个播放器可以免费观看大片| 亚洲五月色婷婷综合| 交换朋友夫妻互换小说| 亚洲四区av| 美女脱内裤让男人舔精品视频| 黄色毛片三级朝国网站| 中文字幕人妻丝袜一区二区 | 免费黄频网站在线观看国产| 亚洲一卡2卡3卡4卡5卡精品中文| 久久精品久久久久久久性| 日韩av在线免费看完整版不卡| 国产精品99久久99久久久不卡 | 国产老妇伦熟女老妇高清| 天天添夜夜摸| 午夜福利视频精品| 亚洲在久久综合| 精品第一国产精品| 另类亚洲欧美激情| 成年女人毛片免费观看观看9 | 日本av免费视频播放| 少妇人妻精品综合一区二区| 成人亚洲精品一区在线观看| 两个人看的免费小视频| 青春草视频在线免费观看| 爱豆传媒免费全集在线观看| 国产爽快片一区二区三区| 亚洲精品自拍成人| 美女国产高潮福利片在线看| 90打野战视频偷拍视频| 亚洲 欧美一区二区三区| 波多野结衣av一区二区av| 国产成人精品久久久久久| 亚洲 欧美一区二区三区| 91成人精品电影| 老鸭窝网址在线观看| 日韩欧美精品免费久久| 亚洲国产日韩一区二区| 欧美久久黑人一区二区| 免费看不卡的av| 亚洲精品国产一区二区精华液| 青春草视频在线免费观看| 亚洲精品国产一区二区精华液| 亚洲国产精品国产精品| 日韩不卡一区二区三区视频在线| 亚洲精品中文字幕在线视频| 亚洲av中文av极速乱| 欧美日韩精品网址| 制服丝袜香蕉在线| www日本在线高清视频| 老司机影院毛片| 美女福利国产在线| 国产探花极品一区二区| 午夜免费鲁丝| 国产一卡二卡三卡精品 | 欧美国产精品va在线观看不卡| av.在线天堂| 夜夜骑夜夜射夜夜干| 国产免费现黄频在线看| 看免费av毛片| 99re6热这里在线精品视频| 亚洲情色 制服丝袜| 国产成人一区二区在线| 欧美国产精品一级二级三级| 国产午夜精品一二区理论片| 男女边吃奶边做爰视频| 日韩精品免费视频一区二区三区| 精品一区二区免费观看| 亚洲美女搞黄在线观看| av福利片在线| 免费看av在线观看网站| 免费人妻精品一区二区三区视频| 少妇 在线观看| 国产精品久久久久久人妻精品电影 | 午夜激情久久久久久久| 欧美成人精品欧美一级黄| 街头女战士在线观看网站| 丰满饥渴人妻一区二区三| 日韩大码丰满熟妇| 97精品久久久久久久久久精品| 免费高清在线观看视频在线观看| 另类精品久久| 午夜老司机福利片| 亚洲国产精品国产精品| 国产成人免费观看mmmm| 一区福利在线观看| 激情五月婷婷亚洲| 欧美人与善性xxx| 日本爱情动作片www.在线观看| 成年人免费黄色播放视频| 嫩草影院入口| 亚洲av日韩在线播放| 亚洲精品成人av观看孕妇| 亚洲天堂av无毛| 国产精品蜜桃在线观看| 亚洲av成人精品一二三区| 老熟女久久久| 国产97色在线日韩免费| 日本91视频免费播放| 国产男女内射视频| 久久天堂一区二区三区四区| 中国国产av一级| 1024香蕉在线观看| 91老司机精品| 国产探花极品一区二区| 看免费av毛片| 女性生殖器流出的白浆| 丰满少妇做爰视频| 天堂中文最新版在线下载| 黄色视频在线播放观看不卡| 精品福利永久在线观看| 少妇人妻精品综合一区二区| 超色免费av| 国产一级毛片在线| 最黄视频免费看| 久久人人97超碰香蕉20202| 亚洲国产av影院在线观看| 高清在线视频一区二区三区| 日韩大片免费观看网站| 韩国精品一区二区三区| 最新在线观看一区二区三区 | 午夜激情av网站| 免费人妻精品一区二区三区视频| 另类精品久久| 在线观看免费午夜福利视频| 久久久久久免费高清国产稀缺| 在线观看免费午夜福利视频| 欧美精品高潮呻吟av久久| 熟女少妇亚洲综合色aaa.| 免费看不卡的av| xxxhd国产人妻xxx| 波野结衣二区三区在线| 99九九在线精品视频| 午夜福利网站1000一区二区三区| 精品少妇一区二区三区视频日本电影 | 亚洲精品久久久久久婷婷小说| 黄色 视频免费看| 国产成人免费观看mmmm|