• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于關(guān)鍵詞圖表示的文本語義去重算法

    2023-10-21 07:07:08汪錦云向陽
    計算機應用 2023年10期

    汪錦云,向陽

    基于關(guān)鍵詞圖表示的文本語義去重算法

    汪錦云,向陽*

    (同濟大學 電子與信息工程學院,上海 201804)( ? 通信作者電子郵箱epiphany@#edu.cn)

    網(wǎng)絡(luò)中存在大量語義相同或者相似的冗余文本,而文本去重能夠解決冗余文本浪費存儲空間的問題,并能為信息抽取任務(wù)減少不必要的消耗。傳統(tǒng)的文本去重算法依賴文字重合度信息,而沒有較好地利用文本語義信息,同時也無法捕捉長文本中距離較遠句子之間的交互信息,去重效果不理想。針對文本語義去重問題,提出一種基于關(guān)鍵詞圖表示的長文本去重算法。首先,通過抽取文本對中的語義關(guān)鍵詞短語,將文本對表示為以關(guān)鍵詞短語為節(jié)點的圖;其次,通過多種方式對節(jié)點進行編碼,并利用圖注意力網(wǎng)絡(luò)(GAT)學習節(jié)點之間的關(guān)系,從而得到文本對圖的向量表示,并判斷文本對是否語義相似;最后,根據(jù)文本對的語義相似度進行去重處理。與傳統(tǒng)算法相比,所提算法能有效利用文本的語義信息,并能通過圖結(jié)構(gòu)將長文本中距離較遠的句子用關(guān)鍵詞短語的共現(xiàn)關(guān)系連接起來,從而增加不同句子之間的語義交互。實驗結(jié)果表明,所提算法在兩個公開數(shù)據(jù)集CNSE (Chinese News Same Event)和CNSS(Chinese News Same Story)上都取得了比Simhash、BERT (Bidirectional Encoder Representations from Transformers)微調(diào)、概念交互圖(CIG)等傳統(tǒng)算法更好的表現(xiàn)。具體地,所提算法在CNSE數(shù)據(jù)集上的F1值達到84.65%,在CNSS數(shù)據(jù)集上的F1值達到90.76%,說明所提算法可以有效提升文本去重任務(wù)的效果。

    文本語義去重;關(guān)鍵詞抽??;文本匹配;圖表示;圖注意力網(wǎng)絡(luò)

    0 引言

    隨著互聯(lián)網(wǎng)技術(shù)和互聯(lián)網(wǎng)產(chǎn)業(yè)的快速發(fā)展,網(wǎng)絡(luò)成為越來越多信息的載體,信息的獲取和利用也變得容易。文本作為信息最重要的載體之一,在網(wǎng)絡(luò)上具有傳播速度快、傳播范圍廣等特點,在人們的信息獲取過程中起著重要的作用。

    在互聯(lián)網(wǎng)時代,網(wǎng)絡(luò)文本存在被大量轉(zhuǎn)載、簡單修改再發(fā)布等問題,同時也存在對同一新聞事件的不同描述等,導致網(wǎng)絡(luò)文本存在大量冗余問題,為后續(xù)信息抽取、利用增加了復雜性,因此各種文本去重技術(shù)應運而生。文本去重技術(shù)能夠判斷兩篇文本是否屬于語義相同或相似文本,選擇將冗余文本去除,從而節(jié)省存儲空間,同時為后續(xù)利用自然語言處理技術(shù)處理數(shù)據(jù)、抽取所需信息減少數(shù)據(jù)量,提高數(shù)據(jù)處理效率。

    文本去重問題實質(zhì)是通過計算兩篇文本之間的語義相似度判斷兩篇文本是否屬于語義相同或者相似文本,從而決定是否丟棄處理。文本去重算法從構(gòu)建文本特征方法的角度可以分為兩類。一類是以Simhash[1-2]為代表的基于哈希的去重算法,其他的類似算法還有Minhash[3]、局部敏感哈希(Locality Sensitive Hash, LSH)[4]、MurmurHash算法[5]等?;诠K惴ǖ奈谋救ブ胤椒ǖ闹饕硎菍⑽谋巨D(zhuǎn)化為定長的二進制編碼,再通過二進制編碼之間的距離判斷文本是否屬于相似文本,因此這類方法高度依賴文字重復度信息,難以反映文本的語義信息。如圖1所示,文本1與文本2雖然都表達了相似的語義,但文字重復度較低,因此通過Simhash算法得到的海明距離相差較大;而文本3與文本4雖然語義不同,但在字面上有較多文字重復,得到的海明距離相差較小。另一類是基于深度學習模型的語義去重算法,如基于深度網(wǎng)絡(luò)的深度結(jié)構(gòu)語義模型(Deep Structured Semantic Model, DSSM)[6]、卷積潛在語義模型(Convolutional Latent Semantic Model, CLSM)[7]等。目前基于深度學習的中文文本去重算法多聚焦于中文短文本去重問題,而相較于短文本,長文本在結(jié)構(gòu)層次上更為復雜,蘊含更多語義信息。這些結(jié)構(gòu)信息和文本中復雜的語義信息對計算文本相似度進行文本去重至關(guān)重要,應當在算法中被充分利用。此外,多數(shù)深度學習算法獨立地抽取兩篇文本的特征并轉(zhuǎn)化為向量表示[8]計算相似度,丟失了兩篇文本之間的交互信息。

    圖1 Simhash相似度示例

    針對以上問題,本文提出一種基于關(guān)鍵詞圖表示的文本去重算法。首先,通過構(gòu)建語法分析樹與詞性標注確定關(guān)鍵詞短語候選集,引入預訓練語言模型獲取兩篇文本中的關(guān)鍵詞短語的嵌入表示,使得抽取出的關(guān)鍵詞短語可以很好地表示文本的語義信息。其次,將關(guān)鍵詞作為圖的節(jié)點,共現(xiàn)關(guān)系作為圖的邊,將文本對構(gòu)建成圖模型,從而將長文本中距離較遠的句子通過關(guān)鍵詞的共現(xiàn)關(guān)系聯(lián)系起來,增強不同句子之間的語義交互,同時可以使得模型通過后期訓練學習到兩篇文本之間的交互信息。最后,拼接多種方式抽取得到的節(jié)點特征向量,通過圖注意力網(wǎng)絡(luò)(Graph Attention Network, GAT)[9-10]訓練,得到圖的最終向量表示,將文本對圖的向量表示送入分類器中判斷兩篇文本是否相似,進而進行去重處理。

    本文的主要工作總結(jié)如下:

    1)提出一種基于關(guān)鍵詞圖表示的長文本去重算法。該算法以語義關(guān)鍵詞短語為節(jié)點,共現(xiàn)關(guān)系為邊,通過圖表示,更好地增強文本中句子的語義交互;同時引入基于注意力機制的GAT,更好地學習各節(jié)點之間的關(guān)系,從而提升模型的表現(xiàn)。

    2)提出一種引入語法解析樹和預訓練語言模型的關(guān)鍵詞抽取算法。該算法引入預訓練模型獲取關(guān)鍵詞短語的語義表示,相較于傳統(tǒng)關(guān)鍵詞抽取方法,更關(guān)注語義信息的利用和關(guān)鍵詞與文本之間的語義相似度,抽取出的關(guān)鍵詞短語能夠更好地表示文本語義信息。

    3)本文提出的基于關(guān)鍵詞圖表示的長文本去重算法,在CNSE(Chinese News Same Event)和CNSS(Chinese News Same Story)[11]兩個公開數(shù)據(jù)集上展開實驗,所提算法取得超越先前基線算法模型的結(jié)果。

    1 相關(guān)工作

    1.1 文本去重

    以Simhash為代表的傳統(tǒng)文本去重算法通常使用哈希函數(shù)將文本編碼成二進制簽名值,通過簽名值之間的距離判斷文本是否需要去重處理。這類方法可以有效地利用文本字面信息,相較于傳統(tǒng)hash、LSH等算法,不會因為個別文字的差異導致簽名值之間存在較大的差別,可以在一定程度上表征文本內(nèi)容的相似度;并且哈希算法是一種高效的算法,因此Simhash等去重算法被廣泛應用于文本去重、網(wǎng)頁去重等領(lǐng)域。后續(xù)很多學者基于Simhash算法提出了很多改進措施[12-13],并取得了不錯的效果。隨著深度學習的快速發(fā)展,深度學習方法被用于處理文本去重任務(wù),早期使用詞嵌入編碼完成文本匹配計算,但是詞嵌入編碼本身無法解決短語、句子的語義表示問題,也無法解決文本匹配的非對稱性問題,導致去重效果不佳。隨著大型預訓練語言模型的出現(xiàn)和圖表示學習的發(fā)展,文本嵌入表示能夠融入更多語義信息,同時標注數(shù)據(jù)的使用大幅提高了模型的表征能力,提升了文本去重的效果。

    1.2 關(guān)鍵詞抽取方法

    關(guān)鍵詞抽取指為了方便用戶能夠快速地掌握文本的中心內(nèi)容,從文本中抽取一定量的關(guān)鍵詞表示文本的語義信息。關(guān)鍵詞抽取從訓練方法上可以分為無監(jiān)督抽取方法[14]和有監(jiān)督抽取方法[15]兩類。

    無監(jiān)督關(guān)鍵詞抽取方法不需要人工標注訓練集合的過程,因此更加快捷且成本較低,主要分為3類:1)基于統(tǒng)計特征的關(guān)鍵詞抽取,如詞頻(Term Frequency, TF)、詞頻?逆文本頻率(Term Frequency-Inverse Document Frequency, TF-IDF);2)基于詞圖模型的關(guān)鍵詞抽?。?6],如TextRank;3)基于主題模型的關(guān)鍵詞抽?。?7-18],如潛在狄利克雷分布(Latent Dirichlet Allocation, LDA)。

    有監(jiān)督關(guān)鍵詞抽取算法可以將關(guān)鍵詞抽取問題轉(zhuǎn)化為多種自然語言處理任務(wù),主要分為基于序列標注[19]的關(guān)鍵詞抽取算法、基于分類模型的關(guān)鍵詞抽取算法和基于序列生成的關(guān)鍵詞抽取算法。有監(jiān)督關(guān)鍵詞抽取算法可以根據(jù)標注數(shù)據(jù)訓練調(diào)節(jié)多種信息對關(guān)鍵詞抽取的影響程度,取得了相較于無監(jiān)督關(guān)鍵詞抽取算法更優(yōu)的效果。

    1.3 圖表示學習

    DeepWalk是最早實現(xiàn)圖表示學習[20]的工作之一。DeepWalk提出的背景問題是對社交網(wǎng)絡(luò)上的每個成員分類。此后,研究者針對大規(guī)模網(wǎng)絡(luò)計算提出了LINE(Large-scale Information Network Embedding)算法、DeepWalk和LINE算法的升級算法Node2Vec,具有很高的適應性。Kipf等[21]提出融入卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)的圖卷積網(wǎng)絡(luò)(Graph Convolutional Network, GCN)。圖注意力網(wǎng)絡(luò)(GAT)[9-10]是在圖表示學習中引入注意力機制,能夠有效學習節(jié)點與鄰居節(jié)點的關(guān)系,實現(xiàn)對不同鄰居節(jié)點的權(quán)值自適應匹配,提高模型的表征能力。

    目前,圖表示學習被廣泛應用在文本相似度計算和文本匹配問題中。Liu等[11]提出一種概念交互圖(Concept Interaction Graph,CIG)的圖表示學習模型,通過將文本轉(zhuǎn)化為圖,較好地概括文本,并且通過GCN學習節(jié)點特征,大幅提升中文長文本匹配效果。

    2 基于關(guān)鍵詞圖表示的長文本去重算法

    為了充分利用文本的語義信息,增強文本對之間的信息交互,本文提出基于關(guān)鍵詞圖表示的長文本去重算法。該算法整體架構(gòu)如圖2所示。整個算法可以分為4個部分:首先引入預訓練模型抽取出兩篇文本的關(guān)鍵詞;其次根據(jù)抽取出的關(guān)鍵詞構(gòu)建文本對圖表示;再次對圖的節(jié)點編碼并通過GAT模型訓練進行匹配聚合;最后將生成的文本對的向量表示送入分類器中分類,并根據(jù)分類結(jié)果進行去重處理。

    圖2 基于關(guān)鍵詞圖表示的中文長文本去重算法整體結(jié)構(gòu)

    2.1 關(guān)鍵詞抽取

    對關(guān)鍵詞候選集合中的候選短語按照相似度得分排序,選取相似度得分較高詞語作為文本的關(guān)鍵詞。

    2.2 圖構(gòu)建

    當構(gòu)建出以聚合后的關(guān)鍵詞簇為節(jié)點的圖后,需要匹配兩篇文本中的句子與節(jié)點。首先計算每一個句子與每一個節(jié)點之間的余弦相似度,匹配句子與相似度最高的節(jié)點。其次,為了構(gòu)建圖中各節(jié)點之間的邊的初始權(quán)重,將每個節(jié)點匹配的句子拼接為序列表示節(jié)點的特征,按式(5)計算每兩個節(jié)點之間的TF-IDF相似度,確定兩節(jié)點之間的初始權(quán)重。

    2.3 編碼及GAT訓練

    訓練過程中,需要計算每個節(jié)點與它的鄰居節(jié)點的注意力得分(Attention score),再根據(jù)注意力得分融合鄰居節(jié)點的表示得到該節(jié)點的新的表示,使用式(8)計算:

    多頭注意力機制能夠使得特征向量映射到不同的子空間,通過聚合不同子空間的向量能夠得到更好的特征向量表示,GAT訓練過程如圖3所示。

    圖3 多頭注意力GAT訓練過程

    2.4 分類器

    判斷文本對是否語義相同或相似是一個二分類任務(wù),文本對通過基于關(guān)鍵詞的圖表示,將該任務(wù)轉(zhuǎn)化為圖的二分類任務(wù),經(jīng)過編碼和基于多頭注意力機制的GAT訓練后得到文本對的向量表示,再將向量送入分類器中,通過多層感知機(Multi-Layer Perceptron, MLP)對向量分類。

    3 實驗與結(jié)果分析

    3.1 實驗數(shù)據(jù)集

    為了公平且全面地評估基于關(guān)鍵詞圖表示的長文本去重算法,本文選用了兩個公開數(shù)據(jù)集,分別是CNSE和CNSS[11]。這兩個數(shù)據(jù)集經(jīng)過相關(guān)領(lǐng)域?qū)<业臉俗?,并且被廣泛使用于驗證去重匹配算法的有效性。其中CNSE數(shù)據(jù)集中含有29 063對長文本對,被標注是否兩篇文本在描述同一新聞事件;CNSS數(shù)據(jù)集中含有33 503對長文本對,被標注是否兩篇文本在描述同一故事。在這兩個數(shù)據(jù)集中,60%的樣本作為數(shù)據(jù)集,20%作為驗證集,另外的20%作為測試集。兩個數(shù)據(jù)集的信息如表1所示。

    兩個數(shù)據(jù)集中文本的平均詞數(shù)為734,最大的文本詞數(shù)為21 791,并且兩個數(shù)據(jù)集中負樣本的產(chǎn)生均不是隨機產(chǎn)生的,而是選擇包含類似關(guān)鍵字的文本對,并排除TF-IDF相似度低于特定閾值的樣本,增加了分類的難度。

    表1 數(shù)據(jù)集信息

    3.2 對比算法

    為了評估基于關(guān)鍵詞圖表示的長文本去重算法的性能,將本文算法與8種基線算法對比,基線算法主要可以分為以下4類:

    1)基于哈希的去重算法。

    Simhash算法是一種基于局部敏感哈希(locality sensitive hash)的文本去重算法,通過將高維的特征向量映射為低維的特征向量,比較兩個向量的海明距離(Hamming Distance)確定文本是否重復或高度相似。

    2)基于詞匯語義相似度的算法。

    ①BM25算法[25]是一種基于概率檢索模型提出的算法,用以評價文檔之間的相關(guān)性。

    ②LDA模型[26]是一種基于生成式貝葉斯概率模型,通過主題找出文本與文本之間的關(guān)系。

    3)基于深度學習模型的算法。

    ①短文本語義匹配SimNet(SimilarityNet)[27]是一種在深度學習框架下進行端到端建模的有監(jiān)督學習模型。

    ②DSSM[6]主要通過將兩段文本編碼為固定長度的向量,再通過兩個向量間計算相似度計算兩段文本之間的關(guān)系。

    ③C-DSSM[7]是一種通過使用CNN抽取局部信息,再在上層采用最大池化的方式抽取歸納全局信息,判斷文本是否相似的算法。

    ④CIG[11]是一種使用圖結(jié)構(gòu)表示文本,對圖編碼并判斷文本是否匹配的算法。

    4)基于大規(guī)模預訓練語言模型的方法。

    BERT(Bidirectional Encoder Representations from Transformers)微調(diào)[28]是一種基于預訓練模型,對它微調(diào)生成文本向量,判斷文本是否相似的算法。

    3.3 評價指標

    實驗采用通用的二分類評價標準評估算法效果,分別為準確率(Accuracy)和F1值(F1 score),計算公式如下:

    其中:真正例表示將標簽為正樣本預測為正類的數(shù)量;假反例表示將標簽為正樣本預測為正類的數(shù)量;假正例表示將標簽為正樣本預測為正類的數(shù)量;真反例表示將標簽為正樣本預測為正類的數(shù)量;為精確率,代表在所有預測為正的例子中,實際上為正的比例;為召回率,代表在所有實際為正的例子中,預測為正的比例。

    3.4 對比實驗

    表2展示了不同算法在CNSE和CNSS數(shù)據(jù)集上的實驗結(jié)果。本文算法在CNSE和CNSS兩個數(shù)據(jù)集上都取得比基線算法更好的結(jié)果。相較于基于哈希的去重算法,本文算法在CNSE和CNSS數(shù)據(jù)集上F1值分別提高了44.6%和53.3%;相較于基于詞匯語義相似度的去重算法,本文算法在CNSE和CNSS數(shù)據(jù)集上F1值分別提高了27.1%~35.6%和28.9%~31.3%;相較于其他基于深度學習模型的去重算法,本文算法在CNSE和CNSS數(shù)據(jù)集上F1值分別提高了2.3%~74.3%和0.8%~59.9%;相較于基于大規(guī)模預訓練語言模型的去重算法,本文算法在CNSE和CNSS數(shù)據(jù)集上F1值分別提高了6.9%和4.2%。從表2中可以看出,傳統(tǒng)的去重算法相較于深度學習算法在只利用文本字面信息的情況下去重效果不佳,而本文算法利用文本的語義信息并增強文本之間的信息交互,顯著提升去重效果。

    表2 CNSE和CNSS數(shù)據(jù)集上不同算法的實驗結(jié)果 單位:%

    3.5 消融實驗

    為了驗證本文提出的基于關(guān)鍵詞圖表示的中文長文本去重算法各模塊的有效性,本文在CNSS和CNSE兩個數(shù)據(jù)集上進行了消融實驗。表3展示了本文算法的消融實驗結(jié)果。首先,嘗試只使用孿生網(wǎng)絡(luò)或只基于規(guī)則編碼節(jié)點,以驗證不同編碼方式對文本去重效果的影響,可以看出,基于規(guī)則的節(jié)點編碼方式在CNSE及CNSS數(shù)據(jù)集上的F1值分別為82.71%和88.52%,均優(yōu)于孿生網(wǎng)絡(luò)編碼方式的結(jié)果(74.22%和80.80%),取得了更好的文本去重效果。其次,驗證關(guān)鍵詞聚合對文本去重的影響,對節(jié)點進行社區(qū)檢測,即找到網(wǎng)絡(luò)中聯(lián)系緊密的部分,將它們聚合為關(guān)鍵詞短語簇,這些簇內(nèi)部聯(lián)系稠密,簇之間聯(lián)系稀疏,結(jié)果表明對節(jié)點聚合會使F1值降低0.4~1.7個百分點,原因是聚合節(jié)點會忽略聚合節(jié)點之間的關(guān)系。最后,驗證GAT學習對結(jié)果的有效性,結(jié)果顯示,通過GAT訓練能夠使F1值提升1.8~7.7個百分點。

    注:“Siam”表示通過孿生網(wǎng)絡(luò)對節(jié)點的句子編碼,“Sim”表示通過基于特定規(guī)則對節(jié)點編碼,“cd”表示對節(jié)點進行社區(qū)檢測,“GAT”表示使用采用圖注意力網(wǎng)絡(luò)學習節(jié)點特征。

    3.6 實驗結(jié)果分析

    從表2~3中可以看出,本文算法在這兩個數(shù)據(jù)集上達到的結(jié)果優(yōu)于所有8種基線模型,在兩個數(shù)據(jù)集上F1值達到了84.65%和90.76%,充分說明本文提出的基于關(guān)鍵詞圖表示的長文本去重算法可以有效提升文本去重即文本相似匹配任務(wù)中的表現(xiàn)。相較于另一圖表示學習算法CIG,幾乎在各環(huán)節(jié)表現(xiàn)均有所提升。

    分析實驗結(jié)果,可以總結(jié)如下:

    1)在關(guān)鍵詞抽取階段,引入預訓練模型能夠在抽取關(guān)鍵詞的過程中考慮更多詞語的語義信息,從而更好地表示文本整體的語義信息,同時后期采用關(guān)注詞匯的編碼方式能夠更有效地利用關(guān)鍵詞中的信息,從而達到更佳的實驗效果。

    2)相較于其他表示文本的方式,通過圖表示文本對能夠達到更好的效果。將兩篇文本表示為一張圖,避免了獨立對兩篇文本處理,融入了兩篇文本的交互信息。同時引入GAT多頭注意力網(wǎng)絡(luò)顯著提高了模型的效果,這是因為經(jīng)過GAT網(wǎng)絡(luò)學習,考慮了圖的拓撲信息,使得模型捕捉每個節(jié)點與鄰居節(jié)點之間的交互關(guān)系。

    3)當文本長度較大時,傳統(tǒng)的去重方法的效果較差,它們很難獲得合適的上下文向量表示匹配,文本中距離較遠的句子也很難進行信息交互。通過以關(guān)鍵詞為節(jié)點并通過關(guān)鍵詞之間的共現(xiàn)關(guān)系將文本對表示成圖,能夠有效聯(lián)系長文本中距離較遠的句子,從而交互語義信息,克服文本長度帶來的困難,因此能夠取得較好的效果。

    4)本文算法在使用Sim編碼特征時的效果(82.71%和88.52%)優(yōu)于使用Siam編碼特征的效果(74.22%和80.80%),這是因為使用孿生網(wǎng)絡(luò)的優(yōu)點是增強兩段文本之間的信息交互,而本文通過將文本對表示成圖已經(jīng)能夠?qū)ξ谋局械木渥舆M行信息交互,所以收益較小。

    4 結(jié)語

    針對語義去重問題,提出了一種基于關(guān)鍵詞圖表示的語義去重算法,引入預訓練模型抽取出關(guān)鍵詞并構(gòu)建基于關(guān)鍵詞的圖表示,將長文本去重任務(wù)轉(zhuǎn)化為文本對圖分類任務(wù),引入多種方法對節(jié)點的特征編碼,通過圖表示學習的方式學習求解。同時,引入多頭注意力圖神經(jīng)網(wǎng)絡(luò)學習抽取圖節(jié)點特征,注意力機制使得模型能夠捕獲節(jié)點之間的權(quán)重關(guān)系,增強了節(jié)點之間的信息交互。通過在CNSE和CNSS兩個公開數(shù)據(jù)集上進行了實驗,實驗結(jié)果表明本文算法取得了出色的表現(xiàn)。本文提出的基于關(guān)鍵詞圖表示的中文長文本去重算法充分展現(xiàn)了算法的優(yōu)越性與可行性。

    基于關(guān)鍵詞圖表示的語義去重算法在實驗中表現(xiàn)出了較好的性能,但是時間復雜度較高,關(guān)鍵詞抽取階段和圖網(wǎng)絡(luò)訓練階段消耗時間較長;此外,長文本結(jié)構(gòu)信息未能被完全有效地利用。后續(xù)工作中,將考慮如何提升模型效率,降低算法的時間復雜度,同時將其他文本結(jié)構(gòu)信息融合到網(wǎng)絡(luò)表示中,以提升去重算法的效率與表現(xiàn)。

    [1] CHARIKAR M. Similarity estimation techniques from rounding algorithms[C]// Proceedings of the 34th ACM Symposium on Theory of Computing. New York: ACM, 2002:380-388.

    [2] 王誠,王宇成. 基于Simhash的大規(guī)模文檔去重改進算法研究[J]. 計算機技術(shù)與發(fā)展, 2019, 29(2):115-119.(WANG C, WANG Y C. Research on improved large-scale documents deduplication algorithm based on Simhash[J]. Computer Technology and Development, 2019, 29(2):115-119.)

    [3] BRODER A Z. On the Resemblance and containment of documents[C]// Proceedings of the 1997 International Conference on Compression and Complexity of Sequences. Piscataway: IEEE, 1997: 21-29.

    [4] INDYK P, MOTWANI R. Approximate nearest neighbors: towards removing the curse of dimensionality[C]// Proceedings of the 30th ACM Symposium on Theory of Computing. New York: ACM, 1998:604-613.

    [5] APPLEBY A. MurmurHash[EB/OL]. (2011-03-01) [2022-08-22].https://sites.google.com/site/murmurhash.

    [6] HUANG P S, HE X, GAO J, et al. Learning deep structured semantic models for Web search using clickthrough data[C]// Proceedings of the 22nd ACM International Conference on Information and Knowledge Management. New York: ACM, 2013:2333-2338.

    [7] SHEN Y, HE X, GAO J, et al. A latent semantic model with convolutional-pooling structure for information retrieval[C]// Proceedings of the 23rd ACM International Conference on Information and Knowledge Management. New York: ACM, 2014:101-110.

    [8] MIKOLOV T, CHEN K, CORRADO G, et al. Efficient estimation of word representations in vector space[EB/OL]. (2013-09-07) [2022-08-22].https://arxiv.org/pdf/1301.3781.pdf.

    [9] VELI?KOVI? P, CUCURULL G, CASANOVA A, et al. Graph attention networks[EB/OL]. (2018-02-04) [2022-08-22].https://arxiv.org/pdf/1710.10903.pdf.

    [10] ZHANG T, LIU B, NIU D, et al. Multiresolution graph attention networks for relevance matching[C]// Proceedings of the 27th ACM International Conference on Information and Knowledge Management. New York: ACM, 2018:933-942.

    [11] LIU B, NIU D, WEI H, et al. Matching article pairs with graphical decomposition and convolutions[C]// Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 6284-6294.

    [12] 彭雙和,圖爾貢·麥提薩比爾,周巧鳳. 基于Simhash的中文文本去重技術(shù)研究[J]. 計算機技術(shù)與發(fā)展, 2017, 27(11):137-140, 145.(PENG S H, MAITISABIER T, ZHOU Q F. Research on deduplication technique of Chinese text with Simhash[J]. Computer Technology and Development, 2017, 27(11):137-140, 145.)

    [13] 張亞男,陳衛(wèi)衛(wèi),付印金,等. 基于Simhash改進的文本去重算法[J]. 計算機技術(shù)與發(fā)展, 2022, 32(8):26-32.(ZHANG Y N, CHEN W W, FU Y J, et al. Improved text deduplication algorithm based on Simhash[J]. Computer Technology and Development, 2022, 32(8): 26-32.)

    [14] SUN Y, QIU H, ZHENG Y, et al. SIFRank: a new baseline for unsupervised keyphrase extraction based on pre-trained language model[J]. IEEE Access, 2020, 8:10896-10906.

    [15] YE J, GUI T, LUO Y, et al. One2Set: generating diverse keyphrases as a set[C]// Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). Stroudsburg, PA: ACL, 2021:4598-4608.

    [16] BARUNI J S, SATHIASEELAN J G R. Keyphrase extraction from document using RAKE and TextRank algorithms[J]. International Journal of Computer Science and Mobile Computing, 2020, 9(9):83-93.

    [17] CHO T, LEE J H. Latent keyphrase extraction using LDA model[J]. Journal of Korean Institute of Intelligent Systems, 2015, 25(2):180-185.

    [18] 朱澤德,李淼,張健,等. 一種基于LDA模型的關(guān)鍵詞抽取方法[J]. 中南大學學報(自然科學版), 2015, 46(6):2142-2148.(ZHU Z D, LI M, ZHANG J, et al. A LDA-based approach to keyphrase extraction[J]. Journal of Central South University (Science and Technology), 2015, 46(6):2142-2148.)

    [19] DING L, ZHANG Z, LIU H, et al. Automatic keyphrase extraction from scientific Chinese medical abstracts based on character-level sequence labeling[J]. Journal of Data and Information Science, 2021, 6(3):35-57.

    [20] HAMILTON W L, YING R, LESKOVEC J. Representation learning on graphs: methods and applications[J]. Bulletin of the IEEE Computer Society Technical Committee on Data Engineering, 2017, 40(3):52-74.

    [21] KIPF T N, WELLING M. Semi-supervised classification with graph convolutional networks[EB/OL]. (2017-02-22) [2022-08-22].https://arxiv.org/pdf/1609.02907.pdf.

    [22] PETERS M E, NEUMANN M, IYYER M, et al. Deep contextualized word representations[C]// Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers). Stroudsburg, PA: ACL, 2018:2227-2237.

    [23] CHE W, LIU Y, WANG Y, et al. Towards better UD parsing: deep contextualized word embeddings, ensemble, and treebank concatenation[C]// Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies. Stroudsburg, PA: ACL, 2018:55-64.

    [24] ARORA S, LIANG Y, MA T. A simple but tough-to-beat baseline for sentence embeddings[EB/OL] (2022-07-22) [2022-08-22].https://openreview.net/pdf?id=SyK00v5xx.

    [25] 陳樂樂,黃松,孫金磊,等. 基于BM25算法的問題報告質(zhì)量檢測方法[J]. 清華大學學報(自然科學版), 2020, 60(10):829-836.(CHEN L L, HUANG S, SUN J L, et al. Bug report quality detection based on the BM25 algorithm[J]. Journal of Tsinghua University (Science and Technology), 2020, 60(10): 829-836.)

    [26] BLEI D M, NG A Y, JORDAN M I. Latent Dirichlet allocation[J]. Journal of Machine Learning Research, 2003, 3:993-1022.

    [27] ZHENG C, SUN Y, WAN S, et al. RLTM: an efficient neural IR framework for long documents[C]// Proceedings of the 28th International Joint Conference on Artificial Intelligence. California: ijcai.org, 2020:5457-5463.

    [28] DEVLIN J, CHANG W M, LEE K, et al. BERT: pre-training of deep bidirectional Transformers for language understanding[C]// Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). Stroudsburg, PA: ACL, 2019:4171-4186.

    Text semantic de-duplication algorithm based on keyword graph representation

    WANG Jinyun, XIANG Yang*

    (,,201804,)

    There are a large number of redundant texts with the same or similar semantics in the network. Text de-duplication can solve the problem that redundant texts waste storage space and can reduce unnecessary consumption for information extraction tasks. Traditional text de-duplication algorithms rely on literal overlapping information, and do not make use of the semantic information of texts; at the same time, they cannot capture the interaction information between sentences that are far away from each other in long text, so that the de-duplication effect of these methods is not ideal. Aiming at the problem of text semantic de-duplication, a long text de-duplication algorithm based on keyword graph representation was proposed. Firstly, the text pair was represented as a graph with the keyword phrase as the vertex by extracting the semantic keyword phrase from the text pair. Secondly, the nodes were encoded in various ways, and Graph Attention Network (GAT) was used to learn the relationship between nodes to obtain the vector representation of text to the graph, and judge whether the text pairs were semantically similar. Finally, the de-duplication processing was performed according to the text pair’s semantical similarity. Compared with the traditional methods, this method can use the semantic information of texts effectively, and through the graph structure, the method can connect the distant sentences in the long text by the co-occurrence relationship of keyword phrases to increase the semantic interaction between different sentences. Experimental results show that the proposed algorithm performs better than the traditional algorithms, such as Simhash, BERT (Bidirectional Encoder Representations from Transformers) fine-tuning and Concept Interaction Graph (CIG), on both CNSE (Chinese News Same Event) and CNSS (Chinese News Same Story) datasets. Specifically, the F1 score of the proposed algorithm on CNSE dataset is 84.65%, and that on CNSS dataset reaches 90.76%. The above indicates that the proposed algorithm can improve the effect of text de-duplication tasks effectively.

    text semantic de-duplication; keyword extraction; text matching; graph representation; Graph Attention Network (GAT)

    This work is partially supported by National Natural Science Foundation of China (72071145).

    WANG Jinyun, born in 1998, M. S. candidate. His research interests include natural language processing, machine learning, big data.

    XIANG Yang, born in 1962, Ph.D., professor. His research interests include natural language processing, data mining, knowledge graph.

    1001-9081(2023)10-3070-07

    10.11772/j.issn.1001-9081.2022101495

    2022?10?12;

    2022?11?29;

    國家自然科學基金資助項目(72071145)。

    汪錦云(1998—),男,江西上饒人,碩士研究生,主要研究方向:自然語言處理、機器學習、大數(shù)據(jù); 向陽(1962—),男,上海人,教授,博士,CCF高級會員,主要研究方向:自然語言處理、數(shù)據(jù)挖掘、知識圖譜。

    TP391.1

    A

    2022?12?02。

    一级毛片我不卡| 大香蕉97超碰在线| 69人妻影院| 热99国产精品久久久久久7| 少妇熟女欧美另类| 伊人久久国产一区二区| 一级爰片在线观看| 国产亚洲av嫩草精品影院| 亚洲国产欧美在线一区| 嫩草影院精品99| av福利片在线观看| 精品视频人人做人人爽| 久久久久久久久久久免费av| 国产 一区 欧美 日韩| 国产v大片淫在线免费观看| 成人美女网站在线观看视频| 最近最新中文字幕大全电影3| 在线播放无遮挡| 免费黄频网站在线观看国产| 欧美+日韩+精品| 国产熟女欧美一区二区| 免费av不卡在线播放| 日韩,欧美,国产一区二区三区| 国产白丝娇喘喷水9色精品| 久久精品熟女亚洲av麻豆精品| 国产精品一区二区在线观看99| 日本黄大片高清| 99热国产这里只有精品6| 亚洲国产欧美人成| 免费电影在线观看免费观看| 中文天堂在线官网| 欧美bdsm另类| 亚洲最大成人av| 欧美xxxx黑人xx丫x性爽| 最近2019中文字幕mv第一页| 成人亚洲精品av一区二区| 久久这里有精品视频免费| 亚洲人成网站在线观看播放| 精品酒店卫生间| 日本-黄色视频高清免费观看| 最近中文字幕2019免费版| 国产爱豆传媒在线观看| 如何舔出高潮| 下体分泌物呈黄色| 久久久久网色| 色视频www国产| 蜜桃亚洲精品一区二区三区| 久久精品夜色国产| 永久免费av网站大全| 久久久久久久久久人人人人人人| 国产精品一区二区三区四区免费观看| 另类亚洲欧美激情| 中国美白少妇内射xxxbb| 国产精品一区二区三区四区免费观看| 日本黄大片高清| 97人妻精品一区二区三区麻豆| 男人舔奶头视频| 国产精品一区二区三区四区免费观看| 最近最新中文字幕免费大全7| 成人无遮挡网站| 中文字幕亚洲精品专区| av专区在线播放| 午夜免费观看性视频| 成人特级av手机在线观看| 国产亚洲一区二区精品| 美女视频免费永久观看网站| 天堂网av新在线| 特级一级黄色大片| 欧美区成人在线视频| 午夜日本视频在线| 久久久久久伊人网av| 青春草亚洲视频在线观看| 亚洲欧美清纯卡通| 18禁动态无遮挡网站| 在线 av 中文字幕| 一区二区三区免费毛片| 亚洲欧美日韩卡通动漫| 黄色视频在线播放观看不卡| 欧美成人午夜免费资源| 久久久a久久爽久久v久久| 伦精品一区二区三区| 干丝袜人妻中文字幕| 国产成人aa在线观看| 熟妇人妻不卡中文字幕| 国产欧美日韩精品一区二区| 免费大片黄手机在线观看| 欧美精品一区二区大全| 亚洲怡红院男人天堂| 久久影院123| 一本一本综合久久| 国产av国产精品国产| 在线亚洲精品国产二区图片欧美 | 国产亚洲午夜精品一区二区久久 | 国产精品无大码| 视频中文字幕在线观看| videos熟女内射| 免费观看在线日韩| 激情 狠狠 欧美| 美女高潮的动态| 免费看光身美女| 久久精品久久久久久噜噜老黄| 男男h啪啪无遮挡| 尤物成人国产欧美一区二区三区| 人人妻人人爽人人添夜夜欢视频 | 中国国产av一级| 国产精品一及| 91久久精品国产一区二区成人| 乱系列少妇在线播放| 国产人妻一区二区三区在| 亚洲精品中文字幕在线视频 | 日韩一本色道免费dvd| 亚洲av男天堂| 欧美一区二区亚洲| 亚洲精品日本国产第一区| 最近最新中文字幕大全电影3| 国产精品一区二区三区四区免费观看| 久久久午夜欧美精品| 亚洲一级一片aⅴ在线观看| 色播亚洲综合网| 三级国产精品片| 联通29元200g的流量卡| 成人亚洲欧美一区二区av| 亚洲精品日韩av片在线观看| 一级毛片电影观看| 在现免费观看毛片| 99久久人妻综合| 国产精品人妻久久久久久| 免费黄色在线免费观看| 久久影院123| 国产成人a∨麻豆精品| 亚洲成人一二三区av| 国产伦精品一区二区三区四那| 九九在线视频观看精品| 精华霜和精华液先用哪个| 国产亚洲av片在线观看秒播厂| 久久久久国产精品人妻一区二区| 又黄又爽又刺激的免费视频.| 黄色配什么色好看| 亚洲欧美精品专区久久| 丰满乱子伦码专区| 在现免费观看毛片| 搞女人的毛片| 精品一区二区免费观看| 少妇熟女欧美另类| 日本免费在线观看一区| 综合色丁香网| 精品一区二区三卡| 日韩精品有码人妻一区| 亚洲四区av| 亚洲av中文字字幕乱码综合| 亚洲美女视频黄频| 免费观看的影片在线观看| a级一级毛片免费在线观看| 国产 一区精品| 欧美xxxx黑人xx丫x性爽| 日韩视频在线欧美| 欧美bdsm另类| 国产黄色视频一区二区在线观看| 国产成人freesex在线| 99久久中文字幕三级久久日本| 下体分泌物呈黄色| 日本熟妇午夜| 国产精品国产三级国产av玫瑰| 亚洲人与动物交配视频| 熟女电影av网| 我要看日韩黄色一级片| av黄色大香蕉| 一区二区三区精品91| 少妇猛男粗大的猛烈进出视频 | 亚洲美女视频黄频| 日韩一区二区三区影片| 天堂中文最新版在线下载 | 青春草视频在线免费观看| 国产午夜精品久久久久久一区二区三区| 大片免费播放器 马上看| 只有这里有精品99| 久久精品综合一区二区三区| 久久久久久久精品精品| 麻豆久久精品国产亚洲av| 国产永久视频网站| 国产男人的电影天堂91| 性色avwww在线观看| 在线免费观看不下载黄p国产| 欧美另类一区| 欧美性感艳星| 在现免费观看毛片| 亚洲av在线观看美女高潮| 国产白丝娇喘喷水9色精品| 亚洲精品成人久久久久久| 最近中文字幕高清免费大全6| 在线免费观看不下载黄p国产| 国产免费又黄又爽又色| 一个人看的www免费观看视频| 欧美一级a爱片免费观看看| 天天一区二区日本电影三级| 搡女人真爽免费视频火全软件| 男男h啪啪无遮挡| 亚洲精品国产av蜜桃| 黄色一级大片看看| 亚洲天堂av无毛| 观看美女的网站| 91精品国产九色| 日本熟妇午夜| 亚洲成人中文字幕在线播放| 国产综合精华液| 91精品国产九色| 九草在线视频观看| 少妇被粗大猛烈的视频| 亚洲婷婷狠狠爱综合网| 国产欧美日韩精品一区二区| 国产成人免费观看mmmm| 亚洲国产成人一精品久久久| 男人舔奶头视频| 欧美成人一区二区免费高清观看| 日韩欧美一区视频在线观看 | 欧美日韩国产mv在线观看视频 | 成人黄色视频免费在线看| 五月伊人婷婷丁香| 欧美性感艳星| 国产精品久久久久久精品古装| 国产精品不卡视频一区二区| 两个人的视频大全免费| 哪个播放器可以免费观看大片| 午夜日本视频在线| 亚洲av电影在线观看一区二区三区 | 麻豆成人午夜福利视频| 久久这里有精品视频免费| 国产精品国产三级专区第一集| 18禁在线播放成人免费| 国产69精品久久久久777片| 亚洲国产精品国产精品| 纵有疾风起免费观看全集完整版| 精品一区在线观看国产| 亚洲精品456在线播放app| 亚洲国产日韩一区二区| 国产一区亚洲一区在线观看| 欧美xxxx性猛交bbbb| 国产白丝娇喘喷水9色精品| 各种免费的搞黄视频| 99热这里只有是精品在线观看| 十八禁网站网址无遮挡 | 亚洲国产精品999| 黄片wwwwww| 亚洲综合精品二区| 国产一区有黄有色的免费视频| 久久久午夜欧美精品| 美女内射精品一级片tv| 亚洲天堂国产精品一区在线| 日韩一本色道免费dvd| 国产综合精华液| 蜜桃亚洲精品一区二区三区| 三级经典国产精品| 国产成人福利小说| 精品熟女少妇av免费看| 中文欧美无线码| 国产亚洲最大av| 日本黄色片子视频| 三级男女做爰猛烈吃奶摸视频| 2018国产大陆天天弄谢| 亚洲人与动物交配视频| 中国美白少妇内射xxxbb| 亚洲熟女精品中文字幕| 天天躁日日操中文字幕| tube8黄色片| 边亲边吃奶的免费视频| 狂野欧美激情性xxxx在线观看| 国产精品国产三级国产专区5o| 欧美+日韩+精品| 搡女人真爽免费视频火全软件| 美女cb高潮喷水在线观看| av专区在线播放| 亚洲欧美精品专区久久| 三级男女做爰猛烈吃奶摸视频| 亚洲自拍偷在线| 精品久久久久久久末码| 老女人水多毛片| 久久久久久九九精品二区国产| 亚洲精品久久午夜乱码| 亚洲天堂国产精品一区在线| 亚洲精品自拍成人| 观看美女的网站| 国产久久久一区二区三区| av.在线天堂| 亚洲最大成人av| 亚洲精品国产av蜜桃| av天堂中文字幕网| 国产男人的电影天堂91| 少妇 在线观看| 日韩,欧美,国产一区二区三区| 一区二区av电影网| 一本一本综合久久| 国产成人午夜福利电影在线观看| 美女主播在线视频| 一区二区三区免费毛片| 秋霞伦理黄片| 91aial.com中文字幕在线观看| 亚洲国产精品成人综合色| 日本一本二区三区精品| 国产精品国产三级专区第一集| 丝袜美腿在线中文| 丝袜喷水一区| 久久久午夜欧美精品| 男男h啪啪无遮挡| 成人欧美大片| 精品国产乱码久久久久久小说| 久久久久网色| 特级一级黄色大片| 只有这里有精品99| 网址你懂的国产日韩在线| av播播在线观看一区| 亚洲精品久久午夜乱码| 国产亚洲av片在线观看秒播厂| 国产爱豆传媒在线观看| 校园人妻丝袜中文字幕| 亚洲av在线观看美女高潮| 婷婷色麻豆天堂久久| videossex国产| 美女被艹到高潮喷水动态| 国产一区二区在线观看日韩| 国产精品嫩草影院av在线观看| 人妻一区二区av| 菩萨蛮人人尽说江南好唐韦庄| 国产 精品1| 五月开心婷婷网| 自拍欧美九色日韩亚洲蝌蚪91 | 免费观看a级毛片全部| 高清欧美精品videossex| 熟女av电影| 七月丁香在线播放| 三级国产精品片| 国产有黄有色有爽视频| 观看美女的网站| 中文字幕久久专区| 国产精品av视频在线免费观看| 性色av一级| 亚洲精品aⅴ在线观看| 亚洲国产精品成人综合色| 80岁老熟妇乱子伦牲交| 少妇丰满av| 久久精品久久久久久久性| 国产精品国产三级专区第一集| 欧美xxxx性猛交bbbb| 日韩欧美 国产精品| 久久久久网色| 午夜福利高清视频| 最近2019中文字幕mv第一页| 国产精品国产三级专区第一集| 最近的中文字幕免费完整| 两个人的视频大全免费| 精品人妻熟女av久视频| 欧美最新免费一区二区三区| 亚洲精品国产色婷婷电影| 午夜老司机福利剧场| 大片免费播放器 马上看| 观看免费一级毛片| 国产永久视频网站| 久久97久久精品| 日韩欧美一区视频在线观看 | 中文字幕制服av| 国产免费福利视频在线观看| av在线播放精品| 波多野结衣巨乳人妻| 日日撸夜夜添| 麻豆成人午夜福利视频| 国产黄色视频一区二区在线观看| 欧美+日韩+精品| 九色成人免费人妻av| 国产欧美日韩一区二区三区在线 | 国产黄色免费在线视频| 卡戴珊不雅视频在线播放| 成人午夜精彩视频在线观看| 精品国产乱码久久久久久小说| av女优亚洲男人天堂| kizo精华| 99久久中文字幕三级久久日本| av女优亚洲男人天堂| kizo精华| 久久久久久伊人网av| 天堂俺去俺来也www色官网| 你懂的网址亚洲精品在线观看| 美女xxoo啪啪120秒动态图| 免费少妇av软件| 日韩精品有码人妻一区| 久久人人爽人人片av| 国产av码专区亚洲av| 免费观看性生交大片5| 久热这里只有精品99| 亚洲av.av天堂| 国产v大片淫在线免费观看| 成人毛片a级毛片在线播放| 毛片一级片免费看久久久久| 亚洲精华国产精华液的使用体验| www.色视频.com| 99热6这里只有精品| 肉色欧美久久久久久久蜜桃 | 免费播放大片免费观看视频在线观看| 国产老妇伦熟女老妇高清| 波野结衣二区三区在线| 日韩成人av中文字幕在线观看| 美女被艹到高潮喷水动态| 亚洲av免费在线观看| 在线免费观看不下载黄p国产| 国产免费福利视频在线观看| 欧美激情在线99| 日韩一区二区视频免费看| 久久久亚洲精品成人影院| 一级毛片我不卡| 91精品国产九色| 97超碰精品成人国产| 一级毛片aaaaaa免费看小| 五月伊人婷婷丁香| 成人二区视频| 亚洲av中文av极速乱| 成年人午夜在线观看视频| av福利片在线观看| 亚洲精品久久午夜乱码| 中文资源天堂在线| 高清av免费在线| 亚洲天堂国产精品一区在线| 亚洲成人精品中文字幕电影| 在现免费观看毛片| 五月开心婷婷网| 欧美另类一区| 夜夜爽夜夜爽视频| 亚洲怡红院男人天堂| 又爽又黄无遮挡网站| 亚洲精品自拍成人| 一本一本综合久久| 国产精品一区二区在线观看99| 18禁在线播放成人免费| 欧美潮喷喷水| 丰满人妻一区二区三区视频av| 国产爽快片一区二区三区| 国产极品天堂在线| 高清欧美精品videossex| 亚洲成色77777| 久久久久久久精品精品| 国产精品不卡视频一区二区| 2018国产大陆天天弄谢| 乱码一卡2卡4卡精品| 男女下面进入的视频免费午夜| 色视频www国产| 亚洲一区二区三区欧美精品 | 伦理电影大哥的女人| 又粗又硬又长又爽又黄的视频| 中文在线观看免费www的网站| 少妇丰满av| 中文字幕制服av| 欧美日韩在线观看h| 国产成人aa在线观看| 91久久精品电影网| 亚洲人与动物交配视频| 中文天堂在线官网| 男男h啪啪无遮挡| 久久亚洲国产成人精品v| 爱豆传媒免费全集在线观看| 久久久久久久大尺度免费视频| 2021天堂中文幕一二区在线观| 亚洲精品国产av成人精品| 亚洲成色77777| 欧美zozozo另类| 成人高潮视频无遮挡免费网站| 天天一区二区日本电影三级| 亚洲欧美成人综合另类久久久| 超碰97精品在线观看| 永久免费av网站大全| 91久久精品国产一区二区三区| 久久ye,这里只有精品| 免费看日本二区| 欧美日韩视频精品一区| 亚洲欧美日韩卡通动漫| 国产精品国产av在线观看| 成人国产麻豆网| 亚洲久久久久久中文字幕| 国产一区二区三区av在线| a级毛色黄片| 国产精品国产三级专区第一集| 在线免费观看不下载黄p国产| 日韩一本色道免费dvd| 99热全是精品| 国产一区二区三区av在线| 欧美日韩亚洲高清精品| 视频区图区小说| 丝瓜视频免费看黄片| 我的女老师完整版在线观看| 久久久久久久亚洲中文字幕| 18禁裸乳无遮挡动漫免费视频 | 成人毛片a级毛片在线播放| 国产美女午夜福利| 身体一侧抽搐| 亚洲欧美清纯卡通| 熟女电影av网| 亚洲欧美清纯卡通| 国产男女超爽视频在线观看| av卡一久久| 国产黄片美女视频| 欧美成人一区二区免费高清观看| 国产av码专区亚洲av| 99久国产av精品国产电影| 纵有疾风起免费观看全集完整版| 麻豆成人午夜福利视频| 身体一侧抽搐| 国产老妇伦熟女老妇高清| 麻豆久久精品国产亚洲av| 国内精品宾馆在线| 精品熟女少妇av免费看| 免费观看的影片在线观看| 亚洲欧美精品自产自拍| 久久久色成人| 中文天堂在线官网| 99热6这里只有精品| 日韩av不卡免费在线播放| 亚洲人与动物交配视频| 日韩av在线免费看完整版不卡| av女优亚洲男人天堂| 1000部很黄的大片| 国产成人aa在线观看| 中文字幕av成人在线电影| 狂野欧美激情性bbbbbb| 亚洲激情五月婷婷啪啪| 久久精品国产亚洲网站| 美女主播在线视频| 伊人久久国产一区二区| av又黄又爽大尺度在线免费看| 亚洲图色成人| 一区二区av电影网| 国产乱人偷精品视频| 99久久中文字幕三级久久日本| 又黄又爽又刺激的免费视频.| av又黄又爽大尺度在线免费看| 日韩视频在线欧美| 欧美少妇被猛烈插入视频| 欧美高清成人免费视频www| 精品久久久久久久久av| 国产色爽女视频免费观看| 国产亚洲91精品色在线| 99久久精品一区二区三区| 久久ye,这里只有精品| 国产毛片在线视频| 黄色怎么调成土黄色| 亚洲国产日韩一区二区| 91在线精品国自产拍蜜月| 久久久久久久久久成人| av一本久久久久| 亚洲无线观看免费| 欧美zozozo另类| 最近中文字幕2019免费版| 久久久久网色| 2021天堂中文幕一二区在线观| 亚洲av不卡在线观看| 国产成人免费观看mmmm| 涩涩av久久男人的天堂| av免费在线看不卡| 99re6热这里在线精品视频| 久久99热这里只频精品6学生| 免费人成在线观看视频色| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 色视频www国产| av免费观看日本| 女的被弄到高潮叫床怎么办| 色5月婷婷丁香| 中国国产av一级| 高清视频免费观看一区二区| 视频中文字幕在线观看| 久久久久国产网址| av国产精品久久久久影院| 十八禁网站网址无遮挡 | 赤兔流量卡办理| 午夜免费鲁丝| 国产高清不卡午夜福利| 亚洲av免费高清在线观看| 日韩av在线免费看完整版不卡| 美女高潮的动态| 亚洲欧美成人综合另类久久久| 蜜桃久久精品国产亚洲av| 99热国产这里只有精品6| 欧美极品一区二区三区四区| 欧美性猛交╳xxx乱大交人| 亚洲欧美成人精品一区二区| av在线天堂中文字幕| 特级一级黄色大片| 国产高清有码在线观看视频| 成人亚洲欧美一区二区av| 一区二区三区乱码不卡18| 国产白丝娇喘喷水9色精品| av在线天堂中文字幕| 久久鲁丝午夜福利片| 亚洲av一区综合| 国产欧美亚洲国产| 一个人观看的视频www高清免费观看| 欧美激情久久久久久爽电影| 欧美成人一区二区免费高清观看| 亚洲欧美一区二区三区黑人 | 熟女av电影| 免费观看性生交大片5| 三级男女做爰猛烈吃奶摸视频| 99久久精品国产国产毛片| av在线蜜桃| 狂野欧美激情性bbbbbb| 2022亚洲国产成人精品| 欧美日韩亚洲高清精品| 中国三级夫妇交换| 80岁老熟妇乱子伦牲交| 亚洲av一区综合| 三级男女做爰猛烈吃奶摸视频| 久久久久网色| 蜜臀久久99精品久久宅男| 午夜精品国产一区二区电影 | 久久久久网色| 国产黄频视频在线观看| 亚洲图色成人| 国产精品国产三级国产av玫瑰| 午夜视频国产福利| 欧美激情在线99| 你懂的网址亚洲精品在线观看|