• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于分層最大邊緣相關(guān)的柬語多文檔抽取式摘要方法

    2020-12-23 11:25:40曾昭霖嚴(yán)馨余兵兵周楓徐廣義
    關(guān)鍵詞:深度學(xué)習(xí)

    曾昭霖 嚴(yán)馨 余兵兵 周楓 徐廣義

    摘 要:為了解決傳統(tǒng)多文檔抽取式摘要方法無法有效利用文檔之間的語義信息、摘要結(jié)果存在過多冗余內(nèi)容的問題,提出了一種基于分層最大邊緣相關(guān)的柬語多文檔抽取式摘要方法。首先,將柬語多文檔文本輸入到訓(xùn)練好的深度學(xué)習(xí)模型中,抽取得到所有的單文檔摘要;然后,依據(jù)類似分層瀑布的方式,迭代合并所有的單文檔摘要,通過改進(jìn)的最大邊緣相關(guān)算法合理地選擇摘要句,得到最終的多文檔摘要。結(jié)果表明,與其他方法相比,通過使用深度學(xué)習(xí)方法并結(jié)合分層最大邊緣相關(guān)算法共同獲得的柬語多文檔摘要,R1,R2,R3和RL值分別提高了4.31%,5.33%,6.45%和4.26%?;诜謱幼畲筮吘壪嚓P(guān)的柬語多文檔抽取式摘要方法在保證摘要句子多樣性和差異性的同時(shí),有效提高了柬語多文檔摘要的質(zhì)量。

    關(guān)鍵詞: 自然語言處理;柬語;抽取式摘要;深度學(xué)習(xí);瀑布法;最大邊緣相關(guān)

    中圖分類號:TP391文獻(xiàn)標(biāo)識碼: A

    doi:10.7535/hbkd.2020yx06005

    Khmer multi-document extractive summarization method

    based on hierarchical maximal marginal relevance

    ZENG Zhaolin1,2, YAN Xin1,2, YU Bingbing1,2, ZHOU Feng1,2, XU Guangyi3

    (1.Faculty of Information Engineering and Automation, Kunming University of Science and Technology, Kunming,Yunnan 650500,China;2.Yunnan Key Laboratory of Artificial Intelligence,Kunming University of Science and Technology,Kunming, Yunnan 650500,China;3. Yunnan Nantian Electronic Information Industry Company Limited, Kunming,Yunnan 650040,China)

    In order to solve the problem of ineffective utilization of the semantic information between documents in the traditional multi-document extractive summarization method and the excessive redundant content in the summary result, a Khmer multi-document extractive summarization method based on hierarchical maximal marginal relevance(MMR)was proposed. Firstly, the Khmer multi-document text was input into the trained deep learning model to extract all the single-document summaries. Then, all single document summaries were iteratively merged according to a similar hierarchical waterfall method, and the improved MMR algorithm was used to reasonably select summary sentences to obtain the final multi-document summary. The experimental results show that the R1, R2, R3, RL values of the Khmer multi-document summary obtained by using the deep learning method combined with the hierarchical MMR algorithm increases by 4.31%, 5.33%, 6.45% and 4.26% respectively compared with other methods. The Khmer multi-document extractive summarization method based on hierarchical MMR can effectively improve the quality of Khmer multi-document summary while ensuring the diversity and difference of the summary sentences.

    Keywords:

    natural language processing;Khmer; extractive summarization;deep learning;waterfall method;maximal marginal relevance(MMR)

    隨著“一帶一路”倡議的實(shí)施,中國和柬埔寨作為重要的雙邊貿(mào)易國家和友好合作伙伴,交流與往來日益增加,有關(guān)柬埔寨語(簡稱柬語,下同)的自然語言處理技術(shù)[1]研究變得尤為重要。隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展、信息的增加以及傳播和交互速度的迅速加快,人們對互聯(lián)網(wǎng)的需求正在發(fā)生變化[2]。如何從大量冗余信息中快速得到主要內(nèi)容已成為當(dāng)前研究的熱點(diǎn)。簡短的摘要可以幫助人們快速獲取信息,加快信息傳播速度。根據(jù)待觀察文檔數(shù)量的多少,可以將文檔摘要的形式分為單文檔摘要[3]和多文檔摘要[4]。前者是對一個(gè)文檔內(nèi)容進(jìn)行提取生成一篇摘要,后者是從一個(gè)話題下的多篇相關(guān)文檔中生成一篇摘要。單文檔摘要技術(shù)主要面向單個(gè)文檔,隨著時(shí)代的發(fā)展,多文檔摘要技術(shù)逐漸得到重視。迄今為止,已經(jīng)有很多方法被應(yīng)用到多文檔摘要技術(shù)中,主要分為基于特征的方法、基于聚類的方法、基于圖模型的方法和基于深度學(xué)習(xí)的方法。

    基于特征的方法即對語料進(jìn)行特征構(gòu)造,轉(zhuǎn)化為句子排序問題,依據(jù)句子的重要性挑選摘要句,組合形成摘要。常用的句子特征如句子位置、句子長度、線索詞等[5]。常用于基于特征的多文檔摘要方法還有基于中心性(Centrality)[6]相關(guān)方法,其是在識別輸入源中心通道的基礎(chǔ)上檢測出最顯著的信息,用于生成通用的摘要;而基于覆蓋率(Coverage)[7]的方法則產(chǎn)生由單詞、主題、時(shí)間驅(qū)動的摘要?;谔卣鞯亩辔臋n摘要方法雖然已得到廣泛研究,但該方法無法理解文檔的上下文信息,僅在句子級別對句子進(jìn)行評分。

    基于聚類的方法即將句子集進(jìn)行歸類。盡管多文檔包含多個(gè)主題且各文檔內(nèi)容通常有所不同,但是通過聚類方法可以提取出在聚類簇中表達(dá)主題信息的句子形成摘要[8]。RADEV等[9]提出了基于質(zhì)心代表文檔集合的邏輯主題的抽取式摘要方法;MCKEOWN等[10]開發(fā)了基于片斷聚類方法的多文檔摘要系統(tǒng)MultiGen,識別出不同文件間的相似之處和不同之處,通過語義相似度提取主題,從主題中抽取交集作為關(guān)鍵詞,生成連貫的摘要。但是,基于聚類的方法需要事先知道聚類的類別數(shù)。

    基于圖模型的方法廣泛用于多文檔摘要任務(wù)中,把諸如句子和段落之類的文本單元集成到基于圖的結(jié)構(gòu)中,使用類似投票機(jī)制提取文本摘要[11]。典型的圖模型為PageRank算法[12], 初始時(shí)為每個(gè)頁面分配相同的重要性評分,根據(jù)算法迭代更新每個(gè)頁面的PageRank評分,直至評分穩(wěn)定。TextRank是在PageRank算法基礎(chǔ)上,對每個(gè)詞節(jié)點(diǎn)附上權(quán)值,構(gòu)建關(guān)于詞的無向帶權(quán)圖,建立圖模型,利用投票機(jī)制對文本的重要成分進(jìn)行排序,生成摘要[13]。YASUNAGA等[14]提出了GCN(graph convolutional network)模型,將句子關(guān)系圖融入到神經(jīng)網(wǎng)絡(luò)模型中,得到句子的重要性,利用依此產(chǎn)生的句子高維表征,通過重要性估計(jì)提取摘要句。

    基于深度學(xué)習(xí)的方法即利用深度學(xué)習(xí)訓(xùn)練出詞、句子等級別具有上下文信息、語義關(guān)系的表征,以便更好地生成摘要[15]。CAO等[16]針對基于查詢的多文檔摘要任務(wù),提出了AttSum模型,采用聯(lián)合學(xué)習(xí)的方法結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和注意力機(jī)制對句子進(jìn)行建模表示,能夠有效學(xué)習(xí)到文檔主旨和摘要句子之間的相關(guān)性;NALLAPATI等[17]提出了基于循環(huán)神經(jīng)網(wǎng)絡(luò)的SummaRuNNer模型,從文本的重要性和新穎性等角度出發(fā),解釋文本摘要的生成過程;NARAYAN等[18]利用基于Encoder-Decoder框架的分層文檔編碼器和基于注意力的解碼器結(jié)構(gòu),結(jié)合附帶信息的關(guān)注來更好地選擇摘要句。但是單純的基于深度學(xué)習(xí)的方法需要大量數(shù)據(jù)對模型進(jìn)行訓(xùn)練。

    目前柬語自然語言處理研究的基礎(chǔ)較為薄弱,且主要集中在命名實(shí)體識別與可比語料方面,關(guān)于多文檔摘要方面的研究十分稀少,領(lǐng)域?qū)<胰斯?biāo)注的代價(jià)十分昂貴,柬語多文檔摘要語料較為匱乏。已有多文檔抽取式摘要方法大多使用的是有監(jiān)督的學(xué)習(xí)方法,不太適用于柬語多文檔摘要。本文利用無監(jiān)督學(xué)習(xí)方法,在不依賴任何標(biāo)注數(shù)據(jù)的情況下,通過對多文檔內(nèi)在特征的挖掘,找到文檔間的關(guān)系,使用類似瀑布分層的方式,結(jié)合改進(jìn)的最大邊緣相關(guān)算法MMR[19],基于句子特征的5種評估方法的綜合得分決定摘要句的重要性,依據(jù)ROUGE-L[20]召回率評估候選摘要句與已選摘要句之間內(nèi)容的冗余關(guān)系,迭代合并通過深度學(xué)習(xí)模型得到的單文檔摘要集,有效提高柬語多文檔摘要的質(zhì)量,保證摘要結(jié)果的多樣性和差異性。

    1 多文檔抽取式摘要的主要內(nèi)容

    在通過訓(xùn)練好的CNN-LSTM-LSTM深度學(xué)習(xí)模型得到柬語單文檔摘要集的基礎(chǔ)上,添加一種分層最大邊緣相關(guān)算法,迭代合并所有單文檔摘要作為最終的多文檔摘要。考慮到多文本摘要任務(wù)中存在較多的冗余內(nèi)容,本文用于抽取單文檔摘要的深度學(xué)習(xí)模型參數(shù)無法識別多文檔文本中較多的冗余內(nèi)容,于是提出了一種基于分層最大邊緣相關(guān)算法的柬語多文檔抽取式摘要方法。該方法分2步完成:第1步,將每個(gè)單文檔文本輸入到已經(jīng)訓(xùn)練好的CNN-LSTM-LSTM深度學(xué)習(xí)模型中,獲取所有的單文檔摘要;第2步,依據(jù)類似瀑布的方式,將按新聞時(shí)序排序的單文檔摘要集通過改進(jìn)的最大邊緣相關(guān)算法,迭代合并所有單文檔摘要,得到最終的多文檔摘要。過程如圖1所示。

    本文中的CNN-LSTM-LSTM深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型的輸入層為已經(jīng)過分詞、詞性標(biāo)注、去噪等預(yù)處理之后的柬語多文檔新聞?wù)Z料。在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型中,先使用卷積神經(jīng)網(wǎng)絡(luò)CNN對輸入文檔D中的n個(gè)句子進(jìn)行編碼,獲得所有句子S的句子表征{S1,S2,…,Sn},將其作為長短期記憶神經(jīng)網(wǎng)絡(luò)LSTM(long short-term memory)[21]的輸入。根據(jù)CNN-LSTM-LSTM網(wǎng)絡(luò)結(jié)構(gòu)可知,文檔編碼器LSTM的隱藏狀態(tài)為{h1,h2,…,hi,…,hn},其中hi表示文檔D中第i個(gè)句子對應(yīng)的文檔編碼器LSTM中的隱藏狀態(tài),通過文檔編碼器LSTM得到該輸入文檔的表征hn,hn為包含文檔D中所有句子信息的最后一個(gè)隱藏狀態(tài)。句子提取器LSTM作為另外一種循環(huán)神經(jīng)網(wǎng)絡(luò),初始的隱藏狀態(tài)的輸入為與其相連的文檔編碼器LSTM中的最后一個(gè)隱藏狀態(tài)hn,也是輸入文檔的表征。句子提取器LSTM中的隱藏狀態(tài)表示為

    t=LSTM(pt-1St-1,t-1) 。

    式中:t表示在第t個(gè)時(shí)間步句子提取器LSTM的隱藏狀態(tài);pt-1表示句子提取器認(rèn)為前一句應(yīng)該被提取的概率;St-1表示前一句的句子表征。

    結(jié)合注意力機(jī)制[22]的句子提取器在處理第t個(gè)時(shí)間步的句子時(shí),通過將其當(dāng)前的隱藏狀態(tài)t與其在文檔編碼器中的隱藏狀態(tài)ht相關(guān)聯(lián),經(jīng)過以下處理得到該句子為摘要句標(biāo)簽的概率:

    P(yL=1|St)=σ(MLP([t;ht]))。

    式中:yL∈{0,1}為文檔D中的句子是否為摘要句的標(biāo)簽,1表示該句為摘要句;MLP是一個(gè)多層神經(jīng)網(wǎng)絡(luò),輸入為[t;ht],“;”表示連接;σ表示Sigmoid激活函數(shù)。CNN-LSTM-LSTM神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)示意圖如圖2所示。

    1.1 從單文檔摘要到多文檔摘要

    通常將包含多個(gè)單文檔文本摘要的集合稱為多文檔摘要,與單文檔摘要相比,多文檔摘要包含眾多的冗余內(nèi)容,同一話題在不同摘要中重復(fù)出現(xiàn)。如何將單文檔摘要集轉(zhuǎn)化為更為高效的多文檔摘要是本文解決的問題。傳統(tǒng)的多文檔摘要方法[23]是將所有單文檔文本連接起來,看成一個(gè)文檔,再使用單文檔摘要方法生成最終的多文檔摘要。當(dāng)單文檔文本數(shù)目較少時(shí),該方法表現(xiàn)出良好的效果,但隨著文檔數(shù)量的逐漸增加,該方法的性能逐漸下降,在識別冗余內(nèi)容時(shí)具有局限性。另外,該方法也忽略了事件發(fā)生的時(shí)間信息。為了克服該方法的局限性,一種可能的策略是先逐個(gè)抽取出單文檔摘要,并將它們有規(guī)則地迭代組合在一起。為了迭代組合單文檔摘要,筆者提出瀑布法,如圖3所示。瀑布法包含2步。首先,將柬語多文檔文本通過CNN-LSTM-LSTM深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型,獲得關(guān)于每篇文檔的單文檔摘要集{S1,S2,…,Sj,…,Sn},Sn假設(shè)為最后一篇單文檔摘要;其次,將第1個(gè)單文檔摘要S1和第2個(gè)單文檔摘要S2連接在一起,合并為一個(gè)輸入摘要,通過改進(jìn)的MMR算法和句子的重要性得分評估對2個(gè)單文檔摘要的句子進(jìn)行排序,挑選前若干個(gè)MMR總得分最高的句子進(jìn)行合并,作為該階段合并后的文檔摘要S1,2,再采取同樣方法,將合并得到的文檔摘要S1,2與第3個(gè)單文檔摘要S3連接合并,得到該階段合并后的文檔摘要S1,2,3。重復(fù)上述方法,直到迭代完成所有抽取出來的單文檔摘要,得到一個(gè)最終的柬語多文檔摘要。

    該方法對輸入文檔摘要的時(shí)間順序較為敏感,在每次迭代過程中,候選摘要都要與已選摘要合并,所以初始文檔的摘要比后面文檔的摘要更有可能被刪除。由于較新的新聞內(nèi)容更符合人們的信息需求,因此本文依據(jù)新聞文檔的時(shí)間順序?qū)挝臋n摘要集進(jìn)行排序后再進(jìn)行合并。通過實(shí)驗(yàn)表明,摘要中包含的句子個(gè)數(shù)為20的時(shí)候,效果最好,因此把20設(shè)為本文摘要包含的句子個(gè)數(shù)參數(shù)。這種方法可以很好地解決每個(gè)文檔內(nèi)與每個(gè)文檔之間的信息冗余問題,在保證多文本摘要多樣性的同時(shí),可以保證多文檔摘要的差異性。

    1.2 分層最大邊緣相關(guān)算法

    最大邊緣相關(guān)算法MMR(maximal marginal relevance),是一種用于實(shí)現(xiàn)文檔摘要的方法。新聞文本中包含許多重復(fù)的背景信息。MMR的主要思想是使所選的摘要句與文檔主旨高度相關(guān),在確保摘要多樣性的同時(shí),使候選摘要句與已選摘要句之間的差異性盡可能大,最終摘要結(jié)果僅有較低冗余信息,達(dá)到平衡摘要句之間多樣性和差異性的目的。

    本文使用改進(jìn)的MMR算法,在句子重要性評估得分上,使用基于句子特征的5種評估方法的綜合得分表示句子和文檔主旨的相似性得分,以便更好地選擇摘要句子;在句子的差異性比較上,利用ROUGE-L召回率進(jìn)行評估,依據(jù)候選摘要句子與已選摘要句子之間的差異性得分,降低多文檔摘要內(nèi)容的冗余。首先,在已按新聞時(shí)序排好的單文檔摘要集D中,利用句子重要性評估方法選擇得分排在最前的摘要句Sj作為初始摘要句子,將其添加到已選摘要句集S中,初選摘要句子Sj是單文檔摘要集D中重要性得分最高的一句,同時(shí)也是當(dāng)前已選摘要句集中內(nèi)容重疊最少的;然后,通過MMR算法計(jì)算剩余摘要句的得分值,決定是否將其添入已選摘要句集S中。不斷迭代計(jì)算單文檔摘要集D中的剩余摘要句子,直至已選摘要句集S達(dá)到摘要長度的限制。改進(jìn)的MMR算法計(jì)算公式表示為

    MMR=arg max[DD(X]Si∈D\S

    [λsim1(Si,D)[TXX}-*2][DD(X] 重要性

    -(1-λ)max[DD(X]Sj∈S sim2(Si,Sj)][TXX}]

    冗余性。

    式中:D為單文檔摘要的結(jié)果文檔集,由所有抽取出來的單文檔摘要按新聞時(shí)序排列組成;S為當(dāng)前已選摘要句集;Si表示候選摘要句;Sj表示已選摘要句集S中的已選摘要句;λ是平衡因子;λsim1(Si,D)表示候選摘要句Si與單文檔摘要集D的相似度,作為該句重要性的評估,其值越大,表明句子Si與文檔主旨的相關(guān)度越緊密,包含重要的文檔主旨信息,適合作為摘要句;(1-λ)max[DD(X]Sj∈S sim2(Si,Sj)表示候選摘要句Si與已選摘要句Sj之間的相似性,作為句子Si的冗余性評估,其值越小,表明該句與已選摘要集S之間的差異性越大,兩者間的冗余內(nèi)容越少。迭代計(jì)算能使重要性和差異性之間平衡最大的候選摘要句加入已選摘要句集S。通過實(shí)驗(yàn)調(diào)整λ值,達(dá)到摘要句多樣性和差異性之間的平衡。 分層最大邊緣相關(guān)算法描述如表1所示。

    1.2.1 句子的重要性評估

    為了評估摘要句子的重要性sim1(Si,D),選取若干關(guān)于句子不同特征的比較方法,通過計(jì)算基于句子不同特征的綜合得分,用來代表摘要句子與文檔之間的重要性得分。本文使用基于句子5種不同特征的得分評估摘要句的重要性,包括基于句子中關(guān)鍵詞的得分、基于句子與多文檔標(biāo)題相似性的得分、基于句子中線索詞的得分、基于句子長度的得分以及基于句子位置的得分。

    1)基于句子中關(guān)鍵詞的得分

    關(guān)鍵詞是反映文章中主題的詞語,句子包含的關(guān)鍵詞越多,其包含文檔主題的信息量就越大,句子就越重要。關(guān)鍵詞的提取,首先要將分詞后的單文檔摘要文本過濾掉無意義的停用詞,然后使用TF-IDF(term frequency-inverse document frequency, 詞頻-逆文本頻率)算法計(jì)算出每個(gè)詞語的權(quán)重,最后根據(jù)詞語的權(quán)重提取出關(guān)鍵詞。詞語TF-IDF權(quán)重的計(jì)算公式為

    Wi,j=tfi,j×logNnj+1。 (1)

    式中:Wi,j表示特征詞的TF-IDF權(quán)重;tfi,j表示詞語wi在當(dāng)前文本dj中出現(xiàn)的頻率;N表示抽取出的單文檔摘要集的文本總數(shù);nj為單文檔摘要集合中包含詞語wi的單文檔摘要文本數(shù)目;nj+1中的+1為拉普拉斯平滑,防止當(dāng)nj為0時(shí)出現(xiàn)分母為0的非法情況。

    計(jì)算得到每個(gè)詞語的權(quán)重是出于關(guān)鍵詞得分對句子重要性的影響考慮,挑選出詞語權(quán)重排在前面的若干實(shí)詞作為關(guān)鍵詞短語(通常為5~10個(gè))。研究發(fā)現(xiàn),抽取出權(quán)重最大的前8個(gè)實(shí)詞作為關(guān)鍵詞較為合適?;陉P(guān)鍵詞的得分計(jì)算公式為

    WX(Si)=∑8k=1W(Si,k)。

    式中:WX(Si)表示句子Si基于關(guān)鍵詞的得分;∑8k=1W(Si,k)表示句子Si包含的關(guān)鍵詞得分之和;Si,k表示句子Si中所包含的關(guān)鍵詞;W(Si,k)表示句子Si中包含的關(guān)鍵詞所對應(yīng)的權(quán)重大小。

    由于柬語句子長度變化較大,為了避免因?yàn)榫渥娱L度差距導(dǎo)致的句子間重要性得分差距過大,在句子包含TF-IDF關(guān)鍵詞權(quán)重的基礎(chǔ)上進(jìn)行歸一化處理,使不同長度的句子基于關(guān)鍵詞權(quán)重值處于同一數(shù)值范圍,計(jì)算公式為

    W1(Si)=(WX(Si)-min WX(S))(max WX(S)-min WX(S))。

    式中:W1(Si)為句子Si歸一化后基于關(guān)鍵詞的句子得分;WX(Si)為句子Si歸一化前基于關(guān)鍵詞的句子得分;max W(S)為所有句子中得分的最大值;min W(S)為所有句子中得分的最小值。

    2)基于句子與標(biāo)題相似度的得分

    新聞文本標(biāo)題通常能反映該文本的主題,對摘要句的重要性評估具有很大影響。通過計(jì)算摘要句和標(biāo)題之間的相似度得分來評估單文檔摘要集中摘要句子的重要性,相似度越大,則該句就越重要,被選中的可能性就越大。在向量空間模型VSM中通過余弦相似度計(jì)算,句子Si和標(biāo)題C以包含關(guān)鍵詞的得分作為特征的向量表示之間的相似度得分,表示摘要句和標(biāo)題的整體相似度得分。本文中Si=(WSi,1,

    WSi,2,…,WSi,8),

    C=(WC1,WC2,…,WC8)。基于句子和標(biāo)題的余弦相似度得分計(jì)算公式為

    W2(Si)=

    ∑8k=1W(Ck)×W(Si,k)

    ∑8k=1W(Ck)2×

    ∑8k=1W(Si,k)2。

    式中:W2(Si)表示句子Si與標(biāo)題C的相似度得分,分值越高,與文本主旨的相關(guān)度越高,句子Si越應(yīng)該被選取;W(Si,k)表示句子Si中所包含的由式(1)得出的第k個(gè)關(guān)鍵詞權(quán)重;Ck表示標(biāo)題C中所包含8個(gè)關(guān)鍵詞中的第k個(gè)關(guān)鍵詞;W(Ck)表示標(biāo)題C中所包含的第k個(gè)關(guān)鍵詞得分。

    3)基于句子中線索詞的得分

    句子中某些詞語并不是關(guān)鍵詞,但是依然可以起到提示性的作用,如“綜上所述”“總而言之”“說明”等具有對文本主旨內(nèi)容牽引的指示詞,會包含更多的信息,應(yīng)該給予較大權(quán)重。句子Si基于是否包含線索詞WC的得分規(guī)則如式(2)所示:

    W3(Si)= 1, WCSi,

    0, WCSi。(2)

    4)基于句子長度的得分

    過短的句子通常沒有實(shí)際意義,并且包含文檔主旨的信息很少;過長的句子雖然包含了更多語義信息,但是內(nèi)容過于繁雜,通常不屬于摘要。因此,摘要句的選擇應(yīng)該選擇長度適中的句子。句子Si基于句子長度LSi的得分規(guī)則如式(3)所示:

    W4(Si)=

    1, 15≤LSi≤25,

    0.5, 5≤LSi<15 or 25

    0, others 。 (3)

    5)基于句子位置的得分

    大部分柬語新聞文本結(jié)構(gòu)的特點(diǎn)會在首段或者首句對該篇新聞報(bào)道的主題核心進(jìn)行說明。通過閱讀大量新聞報(bào)道發(fā)現(xiàn),為了吸引讀者的閱讀興趣以及方便讀者能夠快速了解所報(bào)道的事件,新聞報(bào)道文章往往會在首段的首句引出新聞主題核心,在首段的非首句仍然是對新聞報(bào)道的總結(jié)性描述。因此應(yīng)該給予句子Si位于首段

    Pfirst首句Sf和首段非首句更高的權(quán)重,計(jì)算規(guī)則如式(4)所示:

    W5(Si)=

    1, SiPfirst and Si=Sf,

    0.5, SiPfirst and Si≠Sf,

    0, SiPfirst。[JB)][JY] (4)

    通過計(jì)算上述基于句子5種不同特征重要性得分的組合,對單文檔摘要集中每個(gè)摘要句子的相關(guān)度和重要度進(jìn)行綜合評分?;诰渥泳C合特征的重要性得分計(jì)算式如(5)所示:

    Score(Si)=∑5n=1(γn×Wn(Si)) 。 (5)

    式中: Score(Si)表示句子Si的綜合評估得分;Wn(Si)表示第i個(gè)句子基于第n項(xiàng)句子特征的重要性得分;γn表示關(guān)于上述5項(xiàng)基于句子不同特征得分在綜合得分中的比例因子系數(shù),且∑5n=1

    γn=1,1≤n≤5,且n為整數(shù)。通過計(jì)算Score(Si)得到每個(gè)摘要句Si的sim1(si,D)的重要性得分。

    1.2.2 句子的冗余性評估

    為了評估候選摘要句與已選摘要句之間的差異性得分

    max

    Sj∈S sim2(Si,Sj),Si表示候選摘要句,Sj表示已經(jīng)被選中的摘要句,S表示已選摘要句集,利用ROUGE-L召回率評估,通過計(jì)算候選句子和已選摘要句子之間的最長公共子序列長度,除以已被選中摘要語句的長度,作為候選摘要句子的差異性得分。產(chǎn)生較高ROUGE-L精度的候選語句認(rèn)為與已選摘要有著顯著的內(nèi)容重疊,它將獲得較低的MMR分?jǐn)?shù),因此不太可能作為摘要句,達(dá)到去除多文檔摘要內(nèi)容冗余的目的。計(jì)算式如式(6)所示:

    Rlcs=LCS(X,Y)m 。 (6)

    式中:X表示候選摘要句;Y表示已經(jīng)被選中的摘要句;LCS表示X與Y的最長公共子序列的長度; m表示已被選中的摘要句的長度;Rlcs表示候選摘要句與已選摘要句的內(nèi)容重疊率,即冗余程度。通過計(jì)算ROUGE-L的值,得到max[DD(X]Sj∈S sim2(Si,Sj)得分。

    2 實(shí)驗(yàn)數(shù)據(jù)分析

    2.1 實(shí)驗(yàn)數(shù)據(jù)

    本文中所使用的柬語多文檔實(shí)驗(yàn)語料主要來源于柬埔寨新聞日報(bào)網(wǎng)、Koh Santepheap以及柬埔寨MYTV等網(wǎng)站,通過人工收集和網(wǎng)頁爬取方法獲得相關(guān)主題新聞文檔,再進(jìn)行分詞、詞性標(biāo)注等預(yù)處理,所采集到的語料涵蓋了政治、體育、娛樂和軍事等眾多領(lǐng)域。利用實(shí)驗(yàn)室分詞平臺進(jìn)行分詞預(yù)處理,得到大約700個(gè)新聞標(biāo)題,5 000篇左右的新聞文檔,每個(gè)新聞標(biāo)題下大約包含7篇新聞報(bào)道,每篇文檔中包含30個(gè)左右的句子,每個(gè)新聞標(biāo)題下的所有新聞文本按照新聞時(shí)間順序排列成1份柬語多文檔語料。該多文檔摘要系統(tǒng)的任務(wù)是從包含7篇新聞文檔的單文檔摘要結(jié)果中合并抽取生成1份簡潔、流暢、涵蓋主題內(nèi)容的多文檔摘要。

    2.2 評價(jià)指標(biāo)

    自動文本摘要質(zhì)量的評估是一項(xiàng)比較困難的任務(wù),通常選取1個(gè)或多個(gè)指標(biāo)對生成摘要和參考摘要進(jìn)行內(nèi)部評價(jià),內(nèi)部評價(jià)比較的是摘要內(nèi)容的信息覆蓋率。在本實(shí)驗(yàn)中,對摘要結(jié)果的評價(jià)通過與專家標(biāo)注的參考摘要進(jìn)行對比,實(shí)驗(yàn)數(shù)據(jù)經(jīng)過專業(yè)人員審核,參考摘要通過多個(gè)專家標(biāo)注,準(zhǔn)確性高。目前較為廣泛使用的摘要評價(jià)指標(biāo)為ROUGE指標(biāo),其評測原理采用召回率作為指標(biāo)。ROUGE-N基于摘要中N元詞的共現(xiàn)信息評價(jià)摘要,通過比較生成摘要中包含的基本語義單元數(shù)目在專家標(biāo)注參考摘要數(shù)目的占比衡量摘要質(zhì)量,是一種面向N元詞召回率的評價(jià)方法。ROUGE-L基于抽取出的摘要與參考摘要匹配到的最長公共子序列的占比評價(jià)摘要質(zhì)量,能在一定程度上反映摘要的質(zhì)量,其值越高,表示抽取出來的摘要質(zhì)量越高。本文采用一元召回率(R1)、二元召回率(R2)、三元召回率(R3)和最長公共子序列的召回率(RL)作為摘要評價(jià)指標(biāo)。計(jì)算公式表示為

    ROUGE-N=∑S∈RS∑n-gram∈SCountmatch(n-gram)

    ∑S∈RS∑n-gram∈SCountmatch(n-gram) ,

    式中: RS表示參考摘要;Countmatch(n-gram)表示在生成摘要與標(biāo)準(zhǔn)參考摘要中匹配到的共現(xiàn)n-gram數(shù)量之和;Count(n-gram)表示標(biāo)準(zhǔn)參考摘要中的n-gram數(shù)量。

    2.3 實(shí)驗(yàn)結(jié)果與討論

    2.3.1 最大邊緣相關(guān)算法中λ因子系數(shù)的選擇

    為了選取最佳λ因子系數(shù),保證多文檔摘要句子相關(guān)性和差異性的平衡,進(jìn)行了30組實(shí)驗(yàn)對比。研究發(fā)現(xiàn),當(dāng)選取λ值以小于0.1的級數(shù)增加時(shí),摘要結(jié)果得分變化并不明顯,所以以0.1的倍數(shù)增加選擇了11 組實(shí)驗(yàn)進(jìn)行對比,實(shí)驗(yàn)結(jié)果見表2。

    由表2可知,當(dāng)λ值為0或者為1.0時(shí),在R1,R2,R3,RL上的得分很低,主要是因?yàn)楫?dāng)λ值為0或者為1時(shí),僅僅考慮了摘要句子之間的相關(guān)性或差異性,沒有綜合考慮。隨著λ值的增加,R1,R2,R3,RL的得分也呈現(xiàn)增加的趨勢,當(dāng)λ值為0.5時(shí)得分最高,展現(xiàn)出很好的性能,故將其作為MMR算法的平衡因子系數(shù)值。由表2還可以看出,當(dāng)λ值超過0.5時(shí),ROUGE各項(xiàng)評估得分開始下降,原因是閾值設(shè)置過大,導(dǎo)致許多重要性得分很高的句子不能滿足冗余性約束而無法加入到摘要中。

    2.3.2 摘要中包含句子個(gè)數(shù)參數(shù)的選擇

    為了選取合并摘要中句子個(gè)數(shù)參數(shù)的最優(yōu)值,使用本文方法分別進(jìn)行了30組實(shí)驗(yàn)。研究發(fā)現(xiàn),當(dāng)設(shè)置的摘要中句子個(gè)數(shù)參取值以小于2的級數(shù)增加或者減少時(shí),R1,R2,R3和RL的得分變化不太明顯,所以每次在選取摘要中包含句子個(gè)數(shù)參數(shù)的取值時(shí),選取2的整數(shù)倍值增加或者減少進(jìn)行實(shí)驗(yàn)。初步選取摘要中句子的個(gè)數(shù)為16,在此基礎(chǔ)上進(jìn)行增加或遞減實(shí)驗(yàn)。選取相同的λ=0.5,在相同的語料集下使用瀑布法結(jié)合本文中的MMR算法合并單文檔摘要,挑選了有代表性的8組實(shí)驗(yàn)結(jié)果進(jìn)行對比,實(shí)驗(yàn)結(jié)果如表3所示。

    由表3可知,隨著摘要中包含句子個(gè)數(shù)的增加,在R1,R2,R3,RL上的得分呈現(xiàn)遞增趨勢,體現(xiàn)了自動文本摘要包含信息的多樣性??梢钥闯?,當(dāng)摘要中句子的個(gè)數(shù)值為20時(shí),在R1,R2,R3和RL上的得分最高,效果最好。隨著摘要中包含句子個(gè)數(shù)繼續(xù)增加,R1,R2,R3和RL的值呈現(xiàn)下降趨勢,主要是由于當(dāng)摘要中句子的個(gè)數(shù)值過大時(shí),存在較多的冗余內(nèi)容,無法保證摘要的差異性。所以,本文選取摘要中句子的個(gè)數(shù)值為20,作為最終的多文檔摘要長度。

    2.3.3 改進(jìn)MMR算法的重要性驗(yàn)證

    在句子重要性評估上,使用了基于摘要句5種特征的綜合句子得分表示句子和文檔主旨之間的相關(guān)性,效果理想。采用本文中改進(jìn)的MMR算法與基于單純余弦相似度計(jì)算的MMR算法,在進(jìn)行單文檔摘要合并為多文檔摘要時(shí)進(jìn)行了對比,實(shí)驗(yàn)結(jié)果見表4。

    由表4可知,與基于單純余弦相似度計(jì)算方法的MMR算法相比,本文中使用改進(jìn)的MMR方法合并摘要的效果更好,R1,R2,R3和RL都要比前一種方法要高,證明了本文使用方法的有效性。這主要是由于本文使用的MMR方法可以更好地利用句子的特征信息綜合評估句子的重要性,在保證多文本摘要準(zhǔn)確性的同時(shí)也可以保證多文檔摘要的信息豐富多樣性,提高了柬語多文本摘要的質(zhì)量。

    2.3.4 基于分層最大邊緣相關(guān)方法抽取多文檔摘要的優(yōu)越性驗(yàn)證

    將本文基于分層最大邊緣相關(guān)的多文檔摘要方法與另外3種對多文檔進(jìn)行摘要的無監(jiān)督方法,在使用相同訓(xùn)練集時(shí)進(jìn)行R1,R2,R3和RL結(jié)果的對比。3種對比方法包括:1)基于文檔中詞的TF-IDF特征的方法[24],聯(lián)合句子的長度、位置等表面特征進(jìn)行摘要句的選擇;2)基于圖的排序模型TextRank用于文本處理,構(gòu)建關(guān)于詞的無向帶權(quán)圖,利用投票機(jī)制提取關(guān)鍵詞;3)基于MMR的方法。結(jié)果見表5。

    由表5結(jié)果可知,相比于其他3種對比方法,本文提出的基于分層最大邊緣相關(guān)的多文檔抽取式摘要方法,在R1,R2,R3和RL上取得了最高的得分。利用本文中的改進(jìn)方法抽取出來的多文檔摘要與專家人工標(biāo)注的參考摘要更加吻合,深度挖掘了文本之間的語義關(guān)系,并且有效減少了多文檔摘要中的內(nèi)容冗余,抽取出的柬語多文檔摘要質(zhì)量更高,也進(jìn)一步說明本文所提方法的有效性。

    3 結(jié) 語

    1)提出了一種基于分層最大邊緣相關(guān)的柬語多文檔抽取式摘要方法。首先,將收集來的柬語多文檔語料輸入到已經(jīng)訓(xùn)練好的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型中,獲得單文檔摘要集合;然后,依據(jù)類似瀑布的方式,將單文檔摘要結(jié)果通過改進(jìn)的最大邊緣相關(guān)算法,迭代合并所有單文檔摘要作為最終的多文檔摘要結(jié)果。

    2)與直接對多文檔文本進(jìn)行自動摘要相比,該方法深度挖掘了文本間的語義關(guān)系,在保證摘要句多樣性的同時(shí),也降低了多文檔摘要的內(nèi)容冗余,提高了柬語多文檔摘要的質(zhì)量。

    3)由于柬語多文檔摘要語料較為匱乏,因此本文采用的是無監(jiān)督學(xué)習(xí)方法,導(dǎo)致抽取出來的多文檔摘要不如半監(jiān)督和有監(jiān)督的學(xué)習(xí)方法效果好。下一步工作將嘗試探討使用半監(jiān)督的學(xué)習(xí)方法,解決柬語多文檔摘要標(biāo)注語料匱乏的問題,提高多文檔摘要的流暢性。

    參考文獻(xiàn)/References:

    [1]HIRSCHBERG J, MANNING C D. Advances in natural language processing[J]. Science, 2015, 349(6245): 261-266.

    [2]秦兵,劉挺,李生.多文檔自動文摘綜述[J].中文信息學(xué)報(bào),2005,19(6):13-22.

    QIN Bing,LIU Ting,LI Sheng.Summary of multi-document automatic summarization[J].Journal of Chinese Information Processing, 2005,19(6):13-22.

    [3]ISONUMA M, MORI J, SAKATA I. Unsupervised neural single-document summarization of reviews via learning latent discourse structure and its ranking[C]//Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics.[S.l.]: Association for Computational Linguistics, 2019:2142-2152.

    [4]MOHAMMED D A, KADHIM N J. Extractive multi-document summarization model based on different integrations of double similarity measures[J]. Iraqi Journal of Science, 2020, 61(6):1498-1511.

    [5]程園,吾守爾·斯拉木,買買提依明·哈斯木.基于綜合的句子特征的文本自動摘要[J].計(jì)算機(jī)科學(xué),2015,42(4):226-229.

    CHENG Yuan, WUSHOUER Slam, MAIMAITIYIMING Hasim. Automatic text summarization based on comprehensive sentence features[J].Computer Science,2015,42(4):226-229.

    [6]GUPTA A, KAUR M. Text summarisation using laplacian centrality-based minimum vertex cover[J]. Journal of Information & Knowledge Management, 2019, 18(4):1-20.

    [7]李強(qiáng),王玫,劉爭紅.基于RFID覆蓋掃描的標(biāo)簽定位方法[J].計(jì)算機(jī)工程,2017,34(3):294-298.

    LI Qiang, WANG Mei, LIU Zhenghong. Label positioning method based on RFID overlay scanning[J].Computer Engineering, 2017, 34(3):294-298.

    [8]BLISSETT K, JI H. Cross-lingual NIL entity clustering for low-resource languages[C]//Proceedings of the Second Workshop on Computational Models of Reference, Anaphora and Coreference.[S.l.]: Association for Computational Linguistics, 2019:20-25.

    [9]RADEV D R, JING H. Centroid-based summarization of multiple documents[J]. Information Processing & Management, 2004, 40(6):919-938.

    [10]MCKEOWN K, RADEV D R. Generating summaries of multiple news articles[C]//Proceedings of the 18th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval.[S.l.]: Association for Computational Linguistics,1995:74-82.

    [11]PAUL C, RETTINGER A, MOGADALA A, et al. Efficient graph-based document similarity[C]//European Semantic Web Conference: Springer Cham.[S.l.]:[s.n.],2016:334-349.

    [12]LANGVILLE A N, MEYER C D,F(xiàn)ERNNDEZ P. Google's pagerank and beyond: The science of search engine rankings[J]. The Mathematical Intelligencer, 2008, 30(1):68-69.

    [13]WEN Y, YUAN H, ZHANG P. Research on keyword extraction based on word2vec weighted Textrank[C]//2016 2nd IEEE International Conference on Computer and Communications (ICCC).[S.l.]: IEEE, 2016:2109-2113.

    [14]YASUNAGA M, ZHANG R, MEELU K, et al. Graph-based neural multi-document summarization[C]//Proceedings of the 21st Conference on Computational Natural Language Learning.[S.l.]: Association for Computational Linguistics, 2017:452-462.

    [15]江躍華,丁磊,李嬌娥,等.融合詞匯特征的生成式摘要模型[J].河北科技大學(xué)學(xué)報(bào),2019,40(2):152-158.

    JIANG Yuehua, DING Lei, LI Jiao′e, et al. A generative summary model incorporating lexical features[J]. Journal of Hebei University of Science and Technology,2019,40(2):152-158.

    [16]CAO Z, LI W, LI S, et al. Attsum: Joint learning of focusing and summarization with neural attention[C]// Proceedings of Coling 2016, the 26th International Conference on Computational Linguistics.[S.l.]:Technical Papers, 2016:547-556.

    [17]NALLAPATI R, ZHAI F, ZHOU B. SummaRuNNer: A recurrent neural network based sequence model for extractive summarization of documents[C]//Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence.[S.l.]: AAAI Press, 2017:3075-3081.

    [18]NARAYAN S, PAPASARANTOPOULOS N, COHEN S B, et al. Neural Extractive Summarization with Side Information[EB/OL]. [2017-09-10].https://arxiv.org/abs/1704.04530v2.

    [19]BOUDIN F, TORRES-MORENO J M. A scalable MMR approach to sentence scoring for multi-document update summarization[C]//Companion Volume: Posters and Demonstrations.[S.l.]: [s.n.],2008:23-26.

    [20]SCHLUTER N. The limits of automatic summarisation according to rouge[C]//Conference of the European Chapter of the Association for Computational Linguistics.[S.l.]:Sociation for Computational Linguistics, 2017:41-45.

    [21]RAO G, HUANG W, FENG Z, et al. LSTM with sentence representations for document-level sentiment classification[J]. Neurocomputing, 2018, 308(25):49-57.

    [22]VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]//Proceedings of the 31st International Conference on Neural Information Processing System.[S.l.]: Curran Associates Inc, 2017:6000-6010.

    [23]ZHANG Y, ER M J, ZHAO R, et al. Multiview convolutional neural networks for multidocument extractive summarization[J]. IEEE Transactions on Cybernetics, 2017, 47(10): 3230-3242.

    [24]CHRISTIAN H, AGUS M P, SUHARTONO D. Single document automatic text summarization using term frequency-inverse document frequency (TF-IDF)[J]. ComTech: Computer, Mathematics and Engineering Applications, 2016, 7(4):285-294.

    猜你喜歡
    深度學(xué)習(xí)
    從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
    面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺構(gòu)建研究
    基于自動智能分類器的圖書館亂架圖書檢測
    搭建深度學(xué)習(xí)的三級階梯
    有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
    利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
    考試周刊(2016年94期)2016-12-12 12:15:04
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    51午夜福利影视在线观看| 亚洲精品乱久久久久久| 国产女主播在线喷水免费视频网站| av视频免费观看在线观看| 亚洲国产精品成人久久小说| 99久久精品国产亚洲精品| 国产在线免费精品| 老熟女久久久| 亚洲成人一二三区av| 国产极品天堂在线| 国产精品香港三级国产av潘金莲 | 成人国产麻豆网| 午夜福利免费观看在线| 国产精品麻豆人妻色哟哟久久| 欧美国产精品va在线观看不卡| 丰满乱子伦码专区| 美女主播在线视频| 一级毛片黄色毛片免费观看视频| 亚洲成人国产一区在线观看 | 老汉色∧v一级毛片| 国产视频首页在线观看| 欧美日韩视频精品一区| 欧美老熟妇乱子伦牲交| 久久毛片免费看一区二区三区| 男女无遮挡免费网站观看| 超碰成人久久| 久久久久精品国产欧美久久久 | 亚洲激情五月婷婷啪啪| 国产深夜福利视频在线观看| 亚洲精品av麻豆狂野| 18禁裸乳无遮挡动漫免费视频| 国产成人免费观看mmmm| 亚洲国产av影院在线观看| 亚洲人成电影观看| 国产淫语在线视频| 18禁观看日本| 热re99久久精品国产66热6| 99久久99久久久精品蜜桃| 激情五月婷婷亚洲| 亚洲精品国产一区二区精华液| 久久久久视频综合| 亚洲精品久久久久久婷婷小说| 一级毛片黄色毛片免费观看视频| 欧美日韩综合久久久久久| 国产成人精品福利久久| 夜夜骑夜夜射夜夜干| 日韩成人av中文字幕在线观看| 亚洲美女视频黄频| 日本av免费视频播放| 国产av码专区亚洲av| 午夜福利一区二区在线看| 亚洲熟女毛片儿| 免费日韩欧美在线观看| 高清不卡的av网站| 啦啦啦视频在线资源免费观看| 国产97色在线日韩免费| 久久精品国产亚洲av高清一级| 国产一卡二卡三卡精品 | 精品人妻一区二区三区麻豆| 亚洲精品在线美女| 国产黄色视频一区二区在线观看| 青春草亚洲视频在线观看| 国产片内射在线| 国产成人免费观看mmmm| a级毛片在线看网站| 午夜福利免费观看在线| 另类亚洲欧美激情| 免费观看人在逋| 免费黄频网站在线观看国产| 秋霞在线观看毛片| 啦啦啦视频在线资源免费观看| 99热国产这里只有精品6| 久久久亚洲精品成人影院| 国产男女超爽视频在线观看| 老汉色av国产亚洲站长工具| 久久精品熟女亚洲av麻豆精品| 精品视频人人做人人爽| 人妻 亚洲 视频| 久久毛片免费看一区二区三区| 久久久久久久国产电影| 男女边吃奶边做爰视频| 亚洲美女黄色视频免费看| 亚洲中文av在线| 久久精品人人爽人人爽视色| 黑丝袜美女国产一区| 亚洲精品美女久久久久99蜜臀 | 女人被躁到高潮嗷嗷叫费观| www.自偷自拍.com| 亚洲精品中文字幕在线视频| 99久国产av精品国产电影| 欧美日韩视频高清一区二区三区二| 亚洲av福利一区| 亚洲精品乱久久久久久| 国产成人啪精品午夜网站| 9色porny在线观看| 中文精品一卡2卡3卡4更新| 18在线观看网站| 国产精品久久久久久人妻精品电影 | 亚洲av成人精品一二三区| 最近最新中文字幕免费大全7| 亚洲av中文av极速乱| 伊人亚洲综合成人网| 电影成人av| 男女之事视频高清在线观看 | 欧美亚洲日本最大视频资源| 一二三四在线观看免费中文在| 美女国产高潮福利片在线看| 最近中文字幕高清免费大全6| 男女国产视频网站| 精品一区在线观看国产| 国精品久久久久久国模美| 久久久久国产一级毛片高清牌| av片东京热男人的天堂| 又大又黄又爽视频免费| 男人操女人黄网站| 国产精品无大码| 黄片无遮挡物在线观看| 中文欧美无线码| 只有这里有精品99| 久久性视频一级片| 一级,二级,三级黄色视频| 国产精品av久久久久免费| 女性生殖器流出的白浆| 人妻一区二区av| 国产精品国产av在线观看| 久久国产精品男人的天堂亚洲| 日本91视频免费播放| 男人舔女人的私密视频| 91成人精品电影| 天天影视国产精品| 日韩欧美一区视频在线观看| 国产爽快片一区二区三区| 9热在线视频观看99| 国产精品久久久久成人av| 国精品久久久久久国模美| 综合色丁香网| 人妻人人澡人人爽人人| 五月天丁香电影| 飞空精品影院首页| 国产精品国产三级国产专区5o| 亚洲国产欧美网| 午夜激情av网站| 黄色 视频免费看| 成年av动漫网址| 韩国高清视频一区二区三区| 国产精品99久久99久久久不卡 | 国产深夜福利视频在线观看| 日韩视频在线欧美| 两个人免费观看高清视频| 日韩,欧美,国产一区二区三区| 国产精品久久久人人做人人爽| 十八禁高潮呻吟视频| 亚洲图色成人| 新久久久久国产一级毛片| 黄网站色视频无遮挡免费观看| 国产精品久久久久久久久免| 丁香六月天网| 亚洲欧美成人综合另类久久久| 国产又色又爽无遮挡免| 亚洲,一卡二卡三卡| 亚洲欧洲国产日韩| 国产极品天堂在线| 亚洲av国产av综合av卡| 老鸭窝网址在线观看| 夫妻性生交免费视频一级片| 亚洲成人av在线免费| 国产高清不卡午夜福利| 久久天躁狠狠躁夜夜2o2o | 亚洲专区中文字幕在线 | 免费观看av网站的网址| 久久精品人人爽人人爽视色| 捣出白浆h1v1| 亚洲在久久综合| 久久亚洲国产成人精品v| avwww免费| 成年动漫av网址| 新久久久久国产一级毛片| videos熟女内射| 赤兔流量卡办理| 亚洲精品美女久久av网站| 美女脱内裤让男人舔精品视频| 十八禁网站网址无遮挡| 国产毛片在线视频| 国产成人一区二区在线| 国产男女超爽视频在线观看| 亚洲国产欧美一区二区综合| 国产精品成人在线| 日本色播在线视频| 桃花免费在线播放| 青春草亚洲视频在线观看| 大片免费播放器 马上看| 在现免费观看毛片| 建设人人有责人人尽责人人享有的| 9热在线视频观看99| 亚洲四区av| 亚洲三区欧美一区| 自线自在国产av| 巨乳人妻的诱惑在线观看| 成人午夜精彩视频在线观看| 男女床上黄色一级片免费看| 在线精品无人区一区二区三| 亚洲国产精品999| 成年人免费黄色播放视频| 亚洲av欧美aⅴ国产| 久久精品久久久久久噜噜老黄| 操出白浆在线播放| 亚洲精品国产一区二区精华液| av国产精品久久久久影院| 国产精品熟女久久久久浪| 下体分泌物呈黄色| 国产精品蜜桃在线观看| 欧美av亚洲av综合av国产av | 国产精品久久久久久人妻精品电影 | 午夜福利影视在线免费观看| 人人妻人人添人人爽欧美一区卜| 曰老女人黄片| 妹子高潮喷水视频| 丁香六月天网| h视频一区二区三区| 99国产精品免费福利视频| 久久精品国产亚洲av高清一级| 别揉我奶头~嗯~啊~动态视频 | av国产久精品久网站免费入址| 老司机亚洲免费影院| 一区二区三区激情视频| 天天躁夜夜躁狠狠躁躁| 国产免费又黄又爽又色| 国产一卡二卡三卡精品 | 电影成人av| 少妇被粗大猛烈的视频| 亚洲综合色网址| 免费av中文字幕在线| 亚洲国产精品一区三区| 午夜免费鲁丝| 午夜日韩欧美国产| 国产精品熟女久久久久浪| 一级a爱视频在线免费观看| 国产一区二区激情短视频 | 国产在线免费精品| 国产男女超爽视频在线观看| 国产成人精品久久二区二区91 | 高清av免费在线| 国产精品女同一区二区软件| 男男h啪啪无遮挡| 少妇 在线观看| 人人妻,人人澡人人爽秒播 | 不卡av一区二区三区| 亚洲精品中文字幕在线视频| 考比视频在线观看| 亚洲中文av在线| 国产一区二区激情短视频 | 少妇人妻久久综合中文| www.精华液| 无限看片的www在线观看| 下体分泌物呈黄色| www.自偷自拍.com| 亚洲精品久久成人aⅴ小说| videosex国产| 在线观看免费日韩欧美大片| 国产一区二区在线观看av| 成人18禁高潮啪啪吃奶动态图| 天美传媒精品一区二区| 亚洲综合精品二区| 日韩一区二区三区影片| 日韩电影二区| 亚洲成人av在线免费| 看非洲黑人一级黄片| 午夜久久久在线观看| 一级毛片电影观看| 国产免费视频播放在线视频| 一二三四在线观看免费中文在| 国产精品久久久av美女十八| 亚洲精品美女久久av网站| 精品免费久久久久久久清纯 | 国产无遮挡羞羞视频在线观看| 国产又爽黄色视频| 久久国产精品大桥未久av| 久久99精品国语久久久| 日韩不卡一区二区三区视频在线| 男女国产视频网站| 男人爽女人下面视频在线观看| 日日啪夜夜爽| 国产高清不卡午夜福利| 街头女战士在线观看网站| 大码成人一级视频| 9色porny在线观看| 超碰成人久久| 精品亚洲成国产av| 天天添夜夜摸| 亚洲色图 男人天堂 中文字幕| 国产97色在线日韩免费| 中国国产av一级| av不卡在线播放| 亚洲美女搞黄在线观看| 国产一卡二卡三卡精品 | 国产黄频视频在线观看| 高清av免费在线| 国产av国产精品国产| 国产精品久久久久久精品电影小说| 精品一区二区三卡| 国产高清不卡午夜福利| 国产精品一国产av| 一级片'在线观看视频| 国产1区2区3区精品| 国产精品一二三区在线看| 91成人精品电影| 精品人妻熟女毛片av久久网站| 欧美在线一区亚洲| 久久精品久久久久久噜噜老黄| 亚洲av电影在线观看一区二区三区| 美女福利国产在线| 十八禁高潮呻吟视频| 人人妻人人爽人人添夜夜欢视频| 中文字幕另类日韩欧美亚洲嫩草| 久久性视频一级片| 日本猛色少妇xxxxx猛交久久| 91精品伊人久久大香线蕉| 九色亚洲精品在线播放| 涩涩av久久男人的天堂| 老汉色av国产亚洲站长工具| av在线观看视频网站免费| 亚洲av成人精品一二三区| 亚洲精品av麻豆狂野| 超碰97精品在线观看| 亚洲在久久综合| 亚洲熟女精品中文字幕| 久久人人爽av亚洲精品天堂| 国产片特级美女逼逼视频| 国产乱人偷精品视频| 捣出白浆h1v1| 成人手机av| 9色porny在线观看| 蜜桃国产av成人99| 欧美黑人欧美精品刺激| 天天操日日干夜夜撸| 一级毛片 在线播放| 美国免费a级毛片| 欧美av亚洲av综合av国产av | 激情五月婷婷亚洲| 老司机深夜福利视频在线观看 | 国产男女内射视频| www.熟女人妻精品国产| 亚洲欧美一区二区三区久久| 老司机靠b影院| 亚洲精品一二三| 国产精品久久久久久人妻精品电影 | 少妇精品久久久久久久| 欧美日韩一区二区视频在线观看视频在线| 国产97色在线日韩免费| 亚洲 欧美一区二区三区| 欧美成人精品欧美一级黄| 亚洲精品一区蜜桃| 亚洲在久久综合| 成人亚洲欧美一区二区av| 欧美精品人与动牲交sv欧美| 黑人猛操日本美女一级片| 亚洲欧美中文字幕日韩二区| 久久狼人影院| 亚洲av中文av极速乱| 欧美日韩亚洲国产一区二区在线观看 | 欧美日韩福利视频一区二区| 国产av国产精品国产| 热re99久久精品国产66热6| 欧美变态另类bdsm刘玥| 亚洲七黄色美女视频| 精品国产一区二区久久| 美女福利国产在线| 999久久久国产精品视频| 十八禁网站网址无遮挡| 91aial.com中文字幕在线观看| 中国国产av一级| 九色亚洲精品在线播放| 欧美在线黄色| 亚洲七黄色美女视频| 美女扒开内裤让男人捅视频| 在现免费观看毛片| 波多野结衣av一区二区av| 久久国产精品大桥未久av| 亚洲欧洲国产日韩| 亚洲国产欧美网| 国产精品久久久久久精品古装| 欧美老熟妇乱子伦牲交| 亚洲一区二区三区欧美精品| 免费av中文字幕在线| 国产精品久久久久久精品电影小说| 免费少妇av软件| 男女免费视频国产| 亚洲av福利一区| 超碰成人久久| 日本欧美视频一区| 国产成人精品久久久久久| 精品久久蜜臀av无| 久久精品亚洲熟妇少妇任你| 日韩制服丝袜自拍偷拍| 国产精品.久久久| 黄片无遮挡物在线观看| 在线观看免费高清a一片| 国产亚洲精品第一综合不卡| 国产成人精品无人区| 国产激情久久老熟女| 在线 av 中文字幕| 人妻 亚洲 视频| 91国产中文字幕| 国产免费一区二区三区四区乱码| 精品亚洲乱码少妇综合久久| 黄频高清免费视频| 国产亚洲欧美精品永久| 97人妻天天添夜夜摸| 80岁老熟妇乱子伦牲交| 男人操女人黄网站| 国产精品久久久久成人av| 熟女av电影| 精品一区二区三区四区五区乱码 | 国产成人精品无人区| 777米奇影视久久| 曰老女人黄片| 两个人免费观看高清视频| 欧美日韩一区二区视频在线观看视频在线| 国产精品免费大片| 婷婷成人精品国产| 丝袜美腿诱惑在线| 国产亚洲午夜精品一区二区久久| 亚洲熟女毛片儿| 精品国产一区二区三区久久久樱花| 久久久精品94久久精品| 97在线人人人人妻| 免费观看a级毛片全部| 99久久99久久久精品蜜桃| 丝袜喷水一区| 中文天堂在线官网| 青春草亚洲视频在线观看| 欧美日韩亚洲高清精品| 精品国产露脸久久av麻豆| 国产精品女同一区二区软件| 午夜福利视频在线观看免费| 天天操日日干夜夜撸| av国产精品久久久久影院| 天天躁狠狠躁夜夜躁狠狠躁| 在线观看免费日韩欧美大片| 毛片一级片免费看久久久久| 免费少妇av软件| 亚洲激情五月婷婷啪啪| 黑人欧美特级aaaaaa片| 久久精品国产a三级三级三级| 久久人妻熟女aⅴ| 精品一区在线观看国产| 18禁观看日本| 精品福利永久在线观看| xxxhd国产人妻xxx| 天天影视国产精品| 香蕉国产在线看| 老司机深夜福利视频在线观看 | 哪个播放器可以免费观看大片| 高清不卡的av网站| 男女免费视频国产| 亚洲av成人精品一二三区| 丝袜美足系列| 蜜桃国产av成人99| 亚洲第一区二区三区不卡| bbb黄色大片| 热re99久久国产66热| 欧美在线黄色| 免费人妻精品一区二区三区视频| 爱豆传媒免费全集在线观看| av在线播放精品| 一个人免费看片子| 另类亚洲欧美激情| 日韩人妻精品一区2区三区| 又粗又硬又长又爽又黄的视频| 韩国高清视频一区二区三区| 人妻一区二区av| 菩萨蛮人人尽说江南好唐韦庄| 国产精品熟女久久久久浪| 两个人免费观看高清视频| 别揉我奶头~嗯~啊~动态视频 | 免费黄网站久久成人精品| 亚洲欧美一区二区三区黑人| 久久久久精品国产欧美久久久 | 老汉色av国产亚洲站长工具| 国产精品人妻久久久影院| 18禁动态无遮挡网站| 日韩欧美一区视频在线观看| 街头女战士在线观看网站| 亚洲四区av| 日本黄色日本黄色录像| 高清av免费在线| 国产爽快片一区二区三区| 久久久亚洲精品成人影院| 王馨瑶露胸无遮挡在线观看| kizo精华| 国产97色在线日韩免费| 9热在线视频观看99| 亚洲精品一二三| e午夜精品久久久久久久| 青春草国产在线视频| 中文天堂在线官网| 国语对白做爰xxxⅹ性视频网站| 日韩,欧美,国产一区二区三区| 男女国产视频网站| 精品亚洲成国产av| 观看av在线不卡| 丝袜脚勾引网站| 90打野战视频偷拍视频| 国产精品一区二区在线不卡| 免费黄频网站在线观看国产| 欧美人与性动交α欧美精品济南到| 九色亚洲精品在线播放| 人体艺术视频欧美日本| 国产1区2区3区精品| 黑人巨大精品欧美一区二区蜜桃| 汤姆久久久久久久影院中文字幕| 日日摸夜夜添夜夜爱| 巨乳人妻的诱惑在线观看| 欧美日韩成人在线一区二区| 在线 av 中文字幕| 久久国产精品大桥未久av| 黄色怎么调成土黄色| 日韩一区二区视频免费看| 亚洲伊人久久精品综合| 老汉色∧v一级毛片| 黄频高清免费视频| 丁香六月欧美| 深夜精品福利| 中文字幕最新亚洲高清| 美女中出高潮动态图| 国产成人免费观看mmmm| 国产一级毛片在线| 日韩一本色道免费dvd| 国语对白做爰xxxⅹ性视频网站| 亚洲在久久综合| 丰满乱子伦码专区| 国产精品麻豆人妻色哟哟久久| 看非洲黑人一级黄片| 建设人人有责人人尽责人人享有的| 纵有疾风起免费观看全集完整版| 午夜91福利影院| 国产av码专区亚洲av| 国产日韩一区二区三区精品不卡| 蜜桃国产av成人99| 中文字幕另类日韩欧美亚洲嫩草| 男女国产视频网站| 日韩成人av中文字幕在线观看| av线在线观看网站| 亚洲国产欧美一区二区综合| 如日韩欧美国产精品一区二区三区| 久久久久久久精品精品| 成人午夜精彩视频在线观看| 狠狠婷婷综合久久久久久88av| 国产99久久九九免费精品| 黄网站色视频无遮挡免费观看| 大话2 男鬼变身卡| 久久97久久精品| 亚洲欧美成人精品一区二区| 亚洲色图 男人天堂 中文字幕| 精品久久久精品久久久| 午夜福利一区二区在线看| 亚洲色图 男人天堂 中文字幕| 女人爽到高潮嗷嗷叫在线视频| 男女午夜视频在线观看| 制服诱惑二区| 高清欧美精品videossex| 人妻一区二区av| 久久精品久久久久久噜噜老黄| 黄色毛片三级朝国网站| 久久狼人影院| 国产一区二区在线观看av| 999久久久国产精品视频| 永久免费av网站大全| av在线播放精品| 人妻一区二区av| 中文字幕色久视频| 啦啦啦啦在线视频资源| 亚洲精品久久久久久婷婷小说| av卡一久久| 18禁国产床啪视频网站| 极品人妻少妇av视频| 久久久久久久久久久免费av| 美女扒开内裤让男人捅视频| 欧美精品亚洲一区二区| 国产探花极品一区二区| 国产人伦9x9x在线观看| 日日啪夜夜爽| 日本av免费视频播放| 亚洲av综合色区一区| 亚洲欧美一区二区三区黑人| 久久久久久久精品精品| 久久久久久人妻| 日本黄色日本黄色录像| 国产97色在线日韩免费| 亚洲熟女毛片儿| 久久久久久久久久久免费av| 国产精品女同一区二区软件| 人妻 亚洲 视频| av片东京热男人的天堂| 亚洲av综合色区一区| 欧美精品一区二区免费开放| 中文字幕精品免费在线观看视频| 国产不卡av网站在线观看| 久久久国产一区二区| 亚洲美女搞黄在线观看| 欧美精品一区二区大全| 亚洲av福利一区| 悠悠久久av| 天天操日日干夜夜撸| 91精品伊人久久大香线蕉| 在线观看免费视频网站a站| 亚洲综合色网址| 老汉色∧v一级毛片| av在线观看视频网站免费| 国产亚洲av高清不卡| 最近最新中文字幕大全免费视频 | 51午夜福利影视在线观看| 欧美日韩亚洲国产一区二区在线观看 | 色94色欧美一区二区| 久久久国产一区二区|