• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合詞向量的多特征句子相似度計算方法研究*

    2017-04-17 01:39:17侯加英曾榮仁
    計算機(jī)與生活 2017年4期
    關(guān)鍵詞:計算方法語義準(zhǔn)確率

    李 峰,侯加英,曾榮仁,凌 晨

    1.中國人民解放軍后勤科學(xué)研究所,北京 100166

    2.北京航空航天大學(xué) 計算機(jī)學(xué)院,北京 100191

    3.昆明理工大學(xué) 信息工程與自動化學(xué)院,昆明 650504

    融合詞向量的多特征句子相似度計算方法研究*

    李 峰1,2+,侯加英3,曾榮仁1,凌 晨1

    1.中國人民解放軍后勤科學(xué)研究所,北京 100166

    2.北京航空航天大學(xué) 計算機(jī)學(xué)院,北京 100191

    3.昆明理工大學(xué) 信息工程與自動化學(xué)院,昆明 650504

    在歸納常見的句子相似度計算方法后,基于《人民日報》3.4萬余份文本訓(xùn)練了用于語義相似度計算的詞向量模型,并設(shè)計了一種融合詞向量的多特征句子相似度計算方法。該方法在詞方面,考慮了句子中重疊的詞數(shù)和詞的連續(xù)性,并運(yùn)用詞向量模型測量了非重疊詞間的相似性;在結(jié)構(gòu)方面,考慮了句子中重疊詞的語序和兩個句子的長度一致性。實驗部分設(shè)計實現(xiàn)了4種句子相似度計算方法,并開發(fā)了相應(yīng)的實驗系統(tǒng)。結(jié)果表明:提出的算法能夠取得相對較好的實驗結(jié)果,對句子中詞的語義特征和句子結(jié)構(gòu)特征進(jìn)行組合處理和優(yōu)化,能夠提升句子相似度計算的準(zhǔn)確性。

    詞向量;句子相似度;Word2vec;算法設(shè)計

    1 引言

    句子相似度計算是自然語言處理領(lǐng)域中十分重要而又較為基礎(chǔ)的研究工作。例如:在機(jī)器翻譯研究中,用于查找最為相似的例句[1-2];在問答系統(tǒng)中,用于查找可能的答案[3];在噪音信息過濾中,用于剔除可能的垃圾信息[4];在文本自動摘要研究中,用于計算摘要句的權(quán)重分配[5];在分類或聚類中,用來判定句子或文檔的類別[6],等。目前常見的句子相似度計算方法大體上可分為以下3類:

    (1)基于表層信息的相似度計算。該方法通常計算句子中詞形相似度、詞序相似度和句長相似度等信息[7],分別如式(1)~(3)所示。

    式(1)中,S1和S2代表兩個句子;same(S1,S2)表示兩個句子中重疊詞的個數(shù);L(S1)和L(S2)分別代表兩個句子的詞數(shù)。

    式(2)中,v1n和v2n分別代表由句子S1和S2的N-Gram表示的向量;當(dāng)n值為1時,取詞的tf-idf值;當(dāng)n值大于1時,若句子包含重疊詞,則向量值取1,否則取0。

    式(3)中,L(S1)和L(S2)分別代表兩個句子中詞的個數(shù)。

    (2)基于句子結(jié)構(gòu)的相似度計算。這種方法主要考查兩個句子在結(jié)構(gòu)上的相似性,如基于詞類串結(jié)構(gòu)、本體結(jié)構(gòu)、詞性及詞性依存結(jié)構(gòu)等進(jìn)行句子的相似度計算。這里引用文獻(xiàn)[8]提出的基于詞性及詞性依存的句子結(jié)構(gòu)相似度計算方法來進(jìn)行介紹。該方法認(rèn)為句子主要由主成分和修飾成分組成,主成分由句子中的核心動詞擔(dān)任并作為句子的支配者,修飾成分則作為支配者。同一主成分可以被不同的修飾成分修飾,達(dá)到不同的效果。其中,句子的成分信息可由詞性來反映,詞性依存關(guān)系中各成分之間的修飾關(guān)系能夠體現(xiàn)句子的整體性。因此,可以通過計算詞性及詞性依存信息來把握句子間的相似性。該方法首先通過計算得到句子S1和S2詞性相似度矩陣,如式(4)所示:

    其中,sij表示句子S1中第i個詞性和句子S2中第 j個詞性的相似度,若兩詞性相等,則 sij=1;否則sij=0。然后使用式(5)計算兩個句子的結(jié)構(gòu)相似度:

    其中,c為句子S1和S2中相同詞性的個數(shù);d為相鄰對應(yīng)詞間距;r為句子中詞性對應(yīng)總數(shù);表示兩句中能夠?qū)?yīng)上的詞性權(quán)值均值線性和;為能夠?qū)?yīng)上的詞性前余及后余詞性權(quán)值均值線性和;表示兩句中無法對應(yīng)上的詞性權(quán)值均值線性和。

    最后,在式(4)、(5)計算的基礎(chǔ)上,通過雙向最佳路徑匹配搜索算法得到結(jié)構(gòu)相似度的最大值作為句子S1和S2的結(jié)構(gòu)相似度。

    (3)基于語義資源的相似度計算。該方法主要通過已建成的語義資源來考察詞間的語義關(guān)系,從而計算句子的相似度,具有代表性的主要有基于Word-Net、HowNet或同義詞林等的句子相似度計算方法。主要思路為:首先利用語義資源獲取句子S1和S2中詞語間的相似度s(wk,wn),詞義相似度計算方法請見相應(yīng)的參考文獻(xiàn)[9-11],這里不再贅述。

    其次,利用式(6)計算求得句子S1中詞語和句子S2中詞語的平均最大相似度Q1和Q2:

    其中,m、n分別為兩個句子中詞的個數(shù);s(wk,wn)表示當(dāng)前句子中第k個詞與另一個句子中第n個詞的語義相似度值。

    最后利用式(7)得到雙向平均最大相似度的算術(shù)平均值作為句子S1和句子S2的相似度值:

    上述3種方式能夠從不同的角度計算出兩個句子之間的相似度信息,并得到了較為廣泛的應(yīng)用。也有學(xué)者嘗試將幾種方法融合起來應(yīng)用于句子的相似度計算,也取得了較好的效果[12]。

    本文則在前人研究的基礎(chǔ)上,提出了一種融合詞向量的多特征句子相似度計算方法。該方法綜合考察兩個句子中詞的語義信息和句子的結(jié)構(gòu)信息來測量句子的相似度。其中,在詞義計算過程中,除了考慮兩個句子中重疊詞的個數(shù)、連續(xù)性,還通過引入詞向量特征來刻畫非重疊詞之間的語義相似性;在句子結(jié)構(gòu)相似度計算過程中,則分別計算了重疊詞在句子中出現(xiàn)的詞序和兩個句子的句長相似性兩個因素。本文第2章將基于Word2vec工具使用大規(guī)?!度嗣袢請蟆氛Z料訓(xùn)練詞向量模型,同時測試不同字面詞之間的相關(guān)性;第3章將詳細(xì)描述本文提出的融合詞向量的多特征句子相似度計算方法;第4章將開發(fā)并實現(xiàn)相應(yīng)的實驗系統(tǒng),對多種句子相似度算法進(jìn)行實驗和分析,并給出實驗結(jié)論;第5章對全文進(jìn)行總結(jié)。

    2 詞向量與語義相似度計算

    2.1 詞向量和相關(guān)語言模型

    語言模型的建立與訓(xùn)練是自然語言處理領(lǐng)域十分重要的組成部分,常見的有經(jīng)典的N-Gram模型[13]以及最近得到廣泛討論的深度學(xué)習(xí)模型(deep learning)[14-15]等。詞向量作為深度學(xué)習(xí)模型中一種詞的分布式表達(dá)(distributed representation),能夠較好地解決數(shù)據(jù)稀疏對統(tǒng)計建模的影響,克服維數(shù)災(zāi)難,取得了較好的應(yīng)用效果[16],得到了研究者們廣泛的關(guān)注。采用詞的分布式表達(dá)來表示詞向量最早由Hinton[17]提出,也稱之為Word Representation或Word Embedding。該方法采用一組低維度的實數(shù)向量來刻畫詞的特征,常見形式為[-0.047 339 3,-0.125 004 8, 0.223 884 4,0.051 308 5,…],其優(yōu)點主要表現(xiàn)在兩個方面:一是可以通過計算詞向量之間的距離來測試詞之間的相關(guān)或相似性,例如“西安”、“鄭州”和“中醫(yī)”3個詞中前兩個詞較為相關(guān),則對應(yīng)的詞向量距離就較小,反之亦然;另外通過使用較低維度的特征來刻畫詞,可以大幅降低計算的復(fù)雜度,從而提高方法的實際應(yīng)用價值。

    詞向量的數(shù)值一般是從大量未經(jīng)標(biāo)注的文本數(shù)據(jù)中,通過無監(jiān)督的語言模型訓(xùn)練同步得到。鑒于下文使用的Word2vec工具主要包括CBOW(continuous bag of word)模型和Skip-gram模型[18-19],這里重點介紹這兩個模型。兩個模型均由Mikolov[18]提出,架構(gòu)示意如圖1所示,模型的主要目標(biāo)在于以較小的計算量獲取較好的詞向量表示。

    Fig.1 CBOW model and Skip-gram model圖1CBOW模型與Skip-gram模型示意圖

    Skip-gram模型通過“跳過一定字符”的方式來訓(xùn)練當(dāng)前詞的上下文詞向量,用于刻畫上下文信息,可以簡單地理解為根據(jù)上下文對當(dāng)前詞進(jìn)行分類。該模型訓(xùn)練的目標(biāo)是尋找參數(shù)集合θ來最大化式(9)中Τ的值。其中,w和c均表示一個詞;D為所有單詞w和它的語境中單詞構(gòu)成的組合的集合。

    CBOW模型通過計算當(dāng)前詞的上下文來得到當(dāng)前詞出現(xiàn)的概率,認(rèn)為上下文中所有詞對當(dāng)前詞出現(xiàn)的影響程度是相同的,而不考慮這些詞出現(xiàn)的順序,因此被稱為連續(xù)空間中的詞袋模型。該模型包括輸入、投影和輸出3層,輸入與輸出層表示詞向量,維數(shù)通常在50至100之間。設(shè)投影層維數(shù)為D,輸入層上下文窗口長度為N,訓(xùn)練語料詞典大小為|| V,CBOW模型的訓(xùn)練復(fù)雜度Q為:

    采用同樣的表達(dá)方式,若上下文窗口長度為N,Skip-gram模型的訓(xùn)練復(fù)雜度Q為:

    通過式(8)、(10)可以看出,相同條件下Skipgram模型與CBOW模型相比計算復(fù)雜度要高。研究表明[20-21],兩個模型的差異在于:CBOW模型能夠在訓(xùn)練中獲取更好的語法信息,得到較高的語法測試準(zhǔn)確性,而Skip-gram模型對詞的特征刻畫相對更加準(zhǔn)確,具備更好的語義區(qū)分性,能夠得到相對較高的語義計算精度。

    CBOW模型和Skip-gram模型的共同優(yōu)點在于能夠從數(shù)億級的海量未經(jīng)標(biāo)注的數(shù)據(jù)中得到高質(zhì)量的詞向量訓(xùn)練結(jié)果,能更好地刻畫詞之間的相關(guān)或相似性,能夠描述詞和短語之間的相關(guān)性,對長距離跨度的詞間關(guān)系能夠進(jìn)行有效的表達(dá)。同時訓(xùn)練的結(jié)果模型可以作為自然語言處理應(yīng)用中詞、句子或篇章主題相似或相關(guān)性計算的基礎(chǔ)資源。

    2.2 Word2vec與語義相似度計算

    Word2vec是谷歌2013年發(fā)布的詞向量訓(xùn)練與生成工具,能夠從大規(guī)模未經(jīng)標(biāo)注的語料中高效地生成詞的向量形式,并提供了CBOW模型和Skip-gram模型的實現(xiàn)(https://code.google.com/p/word2vec)。因其簡單易用,獲取詞向量的結(jié)果較好,而受到了廣泛的關(guān)注。目前,Word2vec工具已有多個編程語言實現(xiàn)包,如C、Java、Python等,較為方便研究者學(xué)習(xí)和調(diào)用,也因此成為可利用的基于詞的語義相似度計算工具之一。盡管學(xué)界已經(jīng)推出了Sentence2vec[22-23]、Topic2vec[24]、Doc2vec[25]等句向量、話題向量或篇章向量計算方法,但由于詞一直是自然語言處理研究的基礎(chǔ)之一,加之以詞為統(tǒng)計元素,語料相對更為豐富,計算復(fù)雜度也易為大眾接受,相比較而言Word2vec近幾年應(yīng)用則更為普遍[26-28]。

    本文采用ansj編寫的Java版本的Word2vec作為詞向量的訓(xùn)練工具(https://github.com/ansjsun/Word-2vec_java)。為方便測試,采用《人民日報》2014年6月30日至2015年9月6日共434天的報紙文本作為訓(xùn)練語料,在訓(xùn)練之前剔出圖片類、廣告類新聞、正文句子數(shù)少于兩句的新聞,使用NLPIR2015(http:// ictclas.nlpir.org/downloads)進(jìn)行分詞處理并剔除詞性信息,最后共34 033篇語料參與訓(xùn)練,詞總數(shù)為202 119。由于Word2vec最初開發(fā)時主要針對英文語言的應(yīng)用,而眾所周知,英文和中文之間存在著一定的差異,如中文重語義,更傾向于通過上下文來確定詞的具體使用含義,英文則可通過詞法等結(jié)構(gòu)信息來體現(xiàn)時態(tài)和使用含義。文獻(xiàn)[19]通過研究和大規(guī)模語料實驗表明,Word2vec工具可以較好地適用于中文處理,且采用Skip-gram模型要優(yōu)于采用CBOW模型。同時當(dāng)詞向量維度保持在170至250維之間時,能夠取得相對穩(wěn)定和準(zhǔn)確的效果。在多次訓(xùn)練后,本文設(shè)置上下文窗口長度為5,維度為200,并采用Skip-gram模型進(jìn)行訓(xùn)練。訓(xùn)練結(jié)束后,抽樣了幾種不同類型的詞的前5個相近詞,按向量距離倒序排列,結(jié)果如表1所示。

    不難看出,對于名詞、動詞及形容詞這些內(nèi)容詞而言,使用Word2vec工具能夠取得較好的結(jié)果。在句子相似度計算中,無論以何種方式通常都撇不開詞之間關(guān)系的計算,而詞間關(guān)系的計算往往更側(cè)重于實詞。基于前人的研究和上述實驗結(jié)果(http:// www.kaxiba.com/data2015.zip),可以認(rèn)為:在句子相似度計算過程中,融入詞向量特征強(qiáng)化非重疊實詞間的相似性度量,能夠提升句子相似度計算的準(zhǔn)確性。下文基于該假設(shè)設(shè)計了一種融合詞向量的多特征句子相似度計算方法,并進(jìn)行了實驗分析。

    3 融合詞向量的多特征句子相似度計算方法

    兩個句子之間的相似程度取決于多個因素,如句子中的詞數(shù)、詞義、詞序、句子結(jié)構(gòu)、上下文語境等。限于句子結(jié)構(gòu)及上下文語境等計算資源的獲取或計算實現(xiàn)難度太大,一般傾向于通過句子中詞義間的相關(guān)性和句子的表層信息來計算句子的相似性。本文提出的融合詞向量的多特征句子相似度計算方法主要考察句子中重疊詞的詞數(shù)、重疊詞的連續(xù)性、重疊詞在句子中的順序以及非重疊詞的語義相似性等因素。

    算法主要框架流程如圖2所示,主要包含以下幾個步驟。

    步驟1求取句子間的公共詞塊列表。對于輸入句子S1和S2,如果兩個句子值不為空且長度大于0,分別進(jìn)行分詞處理和詞性標(biāo)注,提取動、名、形3類詞作為內(nèi)容詞后,運(yùn)用動態(tài)規(guī)劃算法求取兩個句子的公共詞塊列表C。該列表中不僅包含詞,而且包含詞塊,但不包含單個字。

    例如,對于兩個句子“習(xí)近平同哈薩克斯坦總統(tǒng)納扎爾巴耶夫會談”和“本報北京8月31日電(記者李偉紅)國家主席習(xí)近平31日在人民大會堂同哈薩克斯坦總統(tǒng)納扎爾巴耶夫舉行會談”,經(jīng)分詞處理及計算后得到的公共詞塊列表C中元素依次為“習(xí)近平”、“哈薩克斯坦總統(tǒng)納扎爾巴耶夫”、“會談”。

    Fig.2 Process flowchart of algorithm圖2 算法處理流程圖

    Table 1 Sampling based on the results of Word2vec training model表1 基于Word2vec訓(xùn)練結(jié)果的抽樣

    步驟2以公共詞列表為基礎(chǔ)計算兩個句子的相似度。以公共詞列表C為基礎(chǔ),從句子S1和S2重疊詞個數(shù)、重疊詞在兩個句子中的連續(xù)性和詞序一致性三方面來計算兩句的相似度。其中重疊詞個數(shù)和詞在句子中的連續(xù)性使用式(11)計算:

    其中,m為C中元素的個數(shù);L(ci)表示C中第i個元素中包含詞的個數(shù);k為連續(xù)詞加權(quán)系數(shù)。當(dāng)ci為獨立單詞時,L(ci)為1,公式起不到加權(quán)的作用,當(dāng)L(ci)大于1時,即由連續(xù)詞構(gòu)成了詞塊,系數(shù)k起到加權(quán)的作用。

    對于句子S1和S2重疊詞在兩個句子中詞序的相似性,計算步驟為:

    (1)以單個詞為單位獲取兩個句子重疊詞列表W。

    (2)順序遍歷S1,標(biāo)記同時屬于S1和W的詞wi在S1中的索引I1,同一詞在句子S1中多次出現(xiàn)時,僅記錄首次索引,最終得到的索引形如I1=[1,2,3,4,5]。

    (3)順序遍歷S2,標(biāo)記同時屬于S2和W的詞wj在S1中的索引I2,同一詞在句子S2中多次出現(xiàn)時,僅記錄首次索引,最終得到的索引形如I2=[4,3,1,2,5]。

    (4)計算I2中索引的次序,對不是正常順序的索引進(jìn)行懲罰,計算公式如式(12):

    其中,當(dāng)I2中第n個索引比第n-1個索引值小時,對詞序相似度進(jìn)行懲罰,其中Q表示索引差值,δ表示懲罰因子,取值范圍為0至1;當(dāng)I2中第n個索引比第n-1個索引值大時,表示該詞在S2中出現(xiàn)的順序與S1中保持一致,記語序相似度值為1。計算完成后,使用式(13)得到句子中詞序相似度的總體值:

    式(13)中C(I2)表示索引列表I2中元素的個數(shù)。

    步驟3使用詞向量模型計算非重疊詞相似度。對于句子S1和S2中非重疊詞部分相似度的計算,采用本文第2章訓(xùn)練的詞向量模型進(jìn)行。

    (1)使用兩個句子重疊詞列表W對句子S1和S2進(jìn)行過濾,得到非重疊詞列表A和B。

    (2)循環(huán)遍歷列表A和B中的詞,兩兩計算詞間的相似度wij,計算時采用Word2vec模型中詞間的向量距離來度量,如式(14):

    其中,n表示W(wǎng)ord2vec模型訓(xùn)練時向量的維數(shù);m為向量vi和vj下標(biāo)值。例如可通過式(14)計算得到“總統(tǒng)”和“國家”、“主席”間的相似度值分別為0.297 951 4和0.522 891 6。在計算完成后,得到詞間的相似度矩陣,如式(15)所示:

    (3)通過動態(tài)規(guī)劃算法求解句子S1和S2非重疊部分最大相似度值之和dsim并返回。

    步驟4融合多特征計算句子整體相似度。在得到句子S1和S2中詞的相似度值、詞序的相似度值之后,本文通過式(3)計算兩個句子的句長相似度lsim,最后采用參數(shù)化線性疊加的方式得到兩個句子的整體相似度值,計算公式如式(16)所示:

    其中,α、β、γ分別為詞義、句長、詞序相似度調(diào)節(jié)因子,三者之和為1;k為連續(xù)詞塊加權(quán)系數(shù);minL(S1,S2)表示兩個句子中最短句包含的實詞個數(shù)。由于式(12)中計算詞序的得分是在句子S1和S2具有公共詞塊基礎(chǔ)上進(jìn)行的,這里對兩者得分相乘。

    4 實驗與分析

    4.1 實驗方法與數(shù)據(jù)

    在實際應(yīng)用中,句子相似度計算主要用于從一個句子集中找到與目標(biāo)句子最為相似的句子,或者計算句子集中兩兩句子的相似度并排序,如自動問答與文本自動摘要等應(yīng)用,但本質(zhì)依然需要計算兩個句子間的相似度。對于新聞文本而言,一般都有標(biāo)題和正文兩個部分,而標(biāo)題作為新聞話題的標(biāo)識,其意義在正文中一般都會通過一個句子或多個句子再次體現(xiàn)。據(jù)此,本文以新聞標(biāo)題為目標(biāo)句,要求算法從正文中計算與標(biāo)題最為相似的句子并返回。最后統(tǒng)計算法計算結(jié)果與人工選擇結(jié)果的差異,來考察算法的準(zhǔn)確性。

    為保證實驗的科學(xué)可靠,避免新聞文本正文中出現(xiàn)雷同句,本文采用《人民日報》2015年9月1日至9月3日的新聞作為實驗源數(shù)據(jù),在刪除圖片類、廣告類以及一句話新聞之后,剔除了標(biāo)題類似“記住那歷史瞬間”以及“報告”、“宣言”類主題意義不明顯的新聞之后,隨機(jī)抽取100篇新聞參與實驗。在實驗進(jìn)行之前,使用正則表達(dá)式結(jié)合標(biāo)點符號進(jìn)行斷句處理,使用NLPIR2015進(jìn)行分詞和詞性標(biāo)注。在詞向量計算部分,采用本文第2章《人民日報》語料訓(xùn)練的Word-2vec模型作為詞向量計算基礎(chǔ)資源。邀請一名漢語語言文學(xué)專業(yè)碩士研究生手動標(biāo)記這100篇新聞?wù)闹信c標(biāo)題最為相似的句子作為參考答案。

    實驗過程中,加上本文提出的句子相似度算法,共有4種算法參與對比分析,分別為:(1)基于字面特征的句子相似度算法;(2)基于多特征融合的句子相似度算法;(3)融合詞向量與字面特征的句子相似度算法;(4)融合詞向量的多特征句子相似度算法。

    為保證實驗的順利進(jìn)行,方便驗證各個算法的實際應(yīng)用效果,本文對參與實驗的算法進(jìn)行了全部的編碼實現(xiàn),并開發(fā)了相應(yīng)的句子相似度計算與實驗系統(tǒng),主界面如圖3所示。

    該實驗系統(tǒng)能夠加載不同的詞向量模型,能夠基于上述4種算法,通過設(shè)置不同的參數(shù),分別從新聞文本中找出與標(biāo)題最為相似的句子,并輸出統(tǒng)計結(jié)果。為提高系統(tǒng)的應(yīng)用價值,該系統(tǒng)采用了開放式設(shè)計,不僅能夠支持中文,而且可以支持其他語種;不僅能夠支持新聞類文本,也可以支持其他類似格式文本,以期為后續(xù)學(xué)者提供一個便捷的句子相似度研究與實驗平臺1))實驗數(shù)據(jù)、實驗結(jié)果、算法源代碼、實驗系統(tǒng)程序及源代碼下載地址為http://www.kaxiba.com/sim2015.zip。。

    Fig.3 Main interface of sentence similarity computing experiment system圖3 句子相似度計算實驗系統(tǒng)主界面

    4.2 實驗結(jié)果分析

    在實驗過程中,本文以10篇、20篇、50篇、100篇分段統(tǒng)計各種算法的準(zhǔn)確率P@10、P@20、P@50和P@100,并統(tǒng)計平均準(zhǔn)確率P@avg,α、β、γ、δ的取值分別為0.5、0.3、0.2、0.8,加權(quán)系數(shù)k為1.5。為方便表示,上述4種算法分別對應(yīng)簡稱為LM、MFM、LM_W2V和MFM_W2V算法。在分析過程中,主要考察多特征的引入對句子相似度計算準(zhǔn)確率的影響,詞向量的引入對句子相似度的影響,以及4種不同的句子相似度計算方法的計算效果。

    (1)多個特征的引入對句子相似度計算的影響?;谧置嫣卣鞯乃惴ê突诙嗵卣魅诤系乃惴ㄔ诒緦嶒炛腥〉玫臏?zhǔn)確率值對比如圖4所示。可以看出,對于僅基于字面重疊的算法而言,當(dāng)引入詞的連續(xù)性特征和句子中重疊詞塊的順序特征后,準(zhǔn)確率得到了改善。在實驗數(shù)據(jù)較少時,統(tǒng)計特征不夠明顯,多特征的改善作用不突出,當(dāng)超過20篇實驗語料后,基于多特征融合的句子相似度計算方法能夠取得約10%準(zhǔn)確率的提升??梢哉J(rèn)為,這兩項特征的融入提高了句子相似度計算的準(zhǔn)確性。

    Fig.4 Accuracy of LM and MFM algorithms圖4LM和MFM兩種算法的準(zhǔn)確率

    (2)詞向量的引入對句子相似度計算的影響。隨后,本文在前述兩種算法的基礎(chǔ)上融入詞向量特征,考察詞向量特征引入能否提高句子相似度計算的準(zhǔn)確率。引入詞向量特征后的對比結(jié)果如圖5和圖6所示。

    Fig.5 Accuracy of LM and LM_W2V algorithms圖5LM和LM_W2V兩種算法的準(zhǔn)確率

    Fig.6 Accuracy of MFM and MFM_W2V algorithms圖6MFM和MFM_W2V兩種算法的準(zhǔn)確率

    從圖5中可以看出,基于字面的句子相似度計算方法在融入詞向量特征后,取不同比率的實驗語料,均能夠得到較為明顯的準(zhǔn)確率提升,平均準(zhǔn)確率提升約9%。同時,兩種算法的準(zhǔn)確率變化趨勢較為一致,可以認(rèn)為,詞向量的引入對于提升基于字面的句子相似度計算方法的準(zhǔn)確率起到了積極的作用。

    圖6顯示了當(dāng)在多個特征的基礎(chǔ)上再融入詞向量特征后句子相似度計算的準(zhǔn)確率情況。不難發(fā)現(xiàn),融合詞向量特征后,當(dāng)取不同比率的實驗數(shù)據(jù)時依然能夠提升句子相似度計算的準(zhǔn)確性,平均提升準(zhǔn)確率約5個百分點。同時,從整體上看,融入詞向量的多特征句子相似度計算方法準(zhǔn)確率趨勢仍然和僅基于多特征計算的方法保持大體一致。

    綜合圖5與圖6可以得出,融合詞向量特征能夠提升句子相似度計算的準(zhǔn)確率,當(dāng)特征較少時作用更為明顯。

    (3)各種相似度算法總體結(jié)果對比。為從總體上觀察實驗中各種方法取得的準(zhǔn)確率,圖7給出了實驗中4種句子相似度計算方法在不同比率實驗數(shù)據(jù)條件下取得的平均準(zhǔn)確率情況。

    Fig.7 Accuracy of 4 sentence similarity calculation methods圖7 4種句子相似度計算方法準(zhǔn)確率

    從圖7中可以觀察到,特征的選取以及選取特征的數(shù)量對句子相似度計算有著明顯的影響。在相同的條件下,詞向量的融入能夠明顯提升句子相似度計算的準(zhǔn)確性。同時本文設(shè)計的融合詞向量的多特征句子相似度計算方法能夠取得相對更好的準(zhǔn)確率。

    4.3 相關(guān)結(jié)論

    在句子相似度計算中,字面重疊和詞向量特征屬于句子中詞義層面的計算,可以視為句子中詞義層面的特征;重疊詞的連續(xù)性、在句子中的語序以及兩句的句長特征則傾向于歸類為句子結(jié)構(gòu)層面的特征。通過上文實驗不難得出如下結(jié)論:

    (1)在句子相似度計算時,通過詞的語義層面或句子結(jié)構(gòu)層面的優(yōu)化,均有利于提升句子相似度計算的準(zhǔn)確性。

    (2)單個層面的優(yōu)化結(jié)果往往不如多個層面融合的結(jié)果更能提升句子相似度計算的準(zhǔn)確性。如圖7所示,融合詞向量與字面特征的句子相似度算法并沒有優(yōu)于沒有融入詞向量的多特征融合的句子相似度算法。

    (3)詞向量的融入能夠提升句子中所包含詞語義層面計算的準(zhǔn)確性,同時結(jié)合句子結(jié)構(gòu)層面的特征,能夠取得相對最好的句子相似度計算準(zhǔn)確率。

    5 結(jié)束語

    句子相似度計算在自然語言處理領(lǐng)域中是一項基礎(chǔ)性研究工作,伴隨著自然語言處理的發(fā)展,相關(guān)方法不斷演進(jìn)。本文對前人的研究進(jìn)行了歸類,總結(jié)了前人的研究成果,并給出了具有代表性方法的計算公式?;谠~向量的語義表示近年來在自然語言處理研究中得到了廣泛的關(guān)注。首先詳細(xì)分析了詞向量與語義相似度計算的關(guān)系,基于《人民日報》語料運(yùn)用Word2vec工具訓(xùn)練了相關(guān)的語義相似度計算模型;隨后詳細(xì)描述了融合詞向量的多特征句子相似度計算方法,包括方法的整體框架流程、實現(xiàn)步驟及相關(guān)的計算公式?;谇叭说难芯颗c本文提出的方法,設(shè)計實現(xiàn)了4種句子相似度計算方法,開發(fā)了相應(yīng)的句子相似度實驗系統(tǒng),并基于《人民日報》語料進(jìn)行了較為詳盡的實驗。最后從多個特征的引入對句子相似度計算的影響、詞向量對句子相似度計算的影響和4種句子相似度計算方法的總體準(zhǔn)確率3個層面分析討論了實驗結(jié)果,表明了本文方法的有效性及可行性,并基于前文的算法與實驗分析,給出了相關(guān)結(jié)論。

    未來的研究將在本文的基礎(chǔ)上,一方面嘗試采用不同的方法在不同體裁的文本上進(jìn)行測試,比如在微博、短信息等短文本上的測試情況;另一方面擬擴(kuò)大語種范圍,測試本文方法在英文、俄文等語言上的模型、參數(shù)選擇和實際應(yīng)用效果等。

    [1]Cranias L,Papageorgiou H,Piperidis S.A matching technique in example-based machine translation[C]//Proceedings of the 15th Conference on Computational Linguistics,Kyoto,Japan,Aug 5-9,1994.Stroudsburg,USA:ACL,1994: 100-104.

    [2]Lin C Y,Och F J.Automatic evaluation of machine translation quality using longest common subsequence and skip-bigram statistics[C]//Proceedings of the 42nd Annual Meeting on Association for Computational Linguistics,Barcelona, Spain,Jul 21-26,2004.Stroudsburg,USA:ACL,2004:605.

    [3]Pradhan N,Gyanchandani M,Wadhvani R.A review on text similarity technique used in IR and its application[J]. International Journal of Computer Applications,2015,120 (9):29-34.

    [4]Adafre S F,Rijke D M.Finding similar sentences across multiple languages in Wikipedia[C]//Proceedings of the 11th Conference of the European Chapter of the Association for Computational Linguistics,Trento,Italy,Apr 3-7,2006. Stroudsburg,USA:ACL,2006:62-69.

    [5]Sarkar K,Saraf K,Ghosh A.Improving graph based multidocument text summarization using an enhanced sentence similarity measure[C]//Proceedings of the 2nd IEEE International Conference on Recent Trends in Information Systems,Kolkata,India,Jul 9-11,2015.Piscataway,USA:IEEE, 2015:359-365.

    [6]Lin Y S,Jiang J Y,Lee S J.A similarity measure for text classification and clustering[J].IEEE Transactions on Knowledge and Data Engineering,2014,26(7):1575-1590.

    [7]Zhang Lin,Hu Jie.Sentence similarity computing for FAQ question answering system[J].Journal of Zhengzhou University:Natural Science Edition,2010,42(1):57-61.

    [8]Lan Yanling,Chen Jianchao.Chinese sentence structures similarity computation based on POS and POS dependency [J].Computer Engineering,2011,37(10):47-49.

    [9]Chen Lisha.The research and implementation on WordNetbased sentence similarity of automatic question answering system[D].Guangzhou:South China University of Technology,2014.

    [10]Xia Tian.Study on Chinese words semantic similarity computation[J].Computer Engineering,2007,33(6):191-194.

    [11]Tian Jiule,Zhao Wei.Words similarity algorithm based on Tongyici cilin in semantic Web adaptive learning system[J]. Journal of Jilin University:Information Science Edition, 2010,28(6):602-608.

    [12]Zhang Peiying.Model for sentence similarity computing based on multi-features combination[J].Computer Engineering andApplications,2010,46(26):136-137.

    [13]Brown P F,Desouza P V,Mercer R L,et al.Class-based ngram models of natural language[J].Computational Linguistics,1992,18(4):467-479.

    [14]Mikolov T,Kombrink S,Burget L,et al.Extensions of recurrent neural network language model[C]//Proceedings of the 2011 IEEE International Conference on Acoustics,Speech and Signal Processing,Prague,Czech,May 22-27,2011. Piscataway,USA:IEEE,2011:5528-5531.

    [15]Devlin J,Zbib R,Huang Z,et al.Fast and robust neural network joint models for statistical machine translation[C]// Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics,Baltimore,USA,Jun 23-25, 2014.Stroudsburg,USA:ACL,2014:1370-1380.

    [16]Zhang Jian,Qu Dan,Li Zhen.Recurrent neural network language model based on word vector features[J].Pattern Recognition andArtificial Intelligence,2015,28(4):299-305.

    [17]Bengio Y.Deep learning of representations:looking forward [C]//LNCS 7978:Proceedings of the 1st International Conference on Statistical Language and Speech Processing,Tarragona,Spain,Jul 29-31,2013.Berlin,Heidelberg:Springer, 2013:1-37.

    [18]Mikolov T,Chen K,Corrado G,et al.Efficient estimation of word representations in vector space[EB/OL].[2015-10-15]. http://arxiv.org/pdf/1301.3781v3.pdf.

    [19]Yu Mo,Dredze M.Improving lexical embeddings with semantic knowledge[C]//Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, Baltimore,USA,Jun 23-25,2014.Stroudsburg,USA:ACL, 2014:545-550.

    [20]Xiong Fulin,Deng Yihao,Tang Xiaosheng.The architecture of Word2vec and its application[J].Journal of Nanjing Normal University:Engineering and Technology Edition,2015, 15(1):43-48.

    [21]Zhang Dongwen,Xu Hua,Su Zengcai,et al.Chinese comments sentiment classification based on Word2vec and SVM [J].Expert Systems withApplications,2015,42(4):1857-1863.

    [22]Iyyer M,Boyd-Graber J,Daumé III H.Generating sentences from semantic vector space representations[C]//Proceedings of the 2014 Conference on Neural Information Processing Systems Workshop on Learning Semantics,Montréal,Canada,Dec 8-13,2014.

    [23]Singh P.Decompositional semantics for document embedding[D].Indian Institute of Technology Kanpur,2015.

    [24]Niu Liqiang,Dai Xinyu.Topic2Vec:learning distributed representations of topics[EB/OL].[2015-10-15].http://arxiv. org/pdf/1506.08422.pdf.

    [25]Matt K,Yu Sun,Nicholas K,et al.From word embeddings to document distances[C]//Proceedings of the 32nd International Conference on Machine Learning,Lille,France,Jul 6-11,2015:957-966.

    [26]Wolf L,Hanani Y,Bar K,et al.Joint Word2vec networks for bilingual semantic representations[J].International Journal of Computational Linguistics and Applications,2014,5 (1):27-44.

    [27]Goldberg Y,Levy O.Word2vec explained:deriving Mikolov et al.'s negative-sampling word-embedding method[EB/OL]. [2015-10-15].http://arxiv.org/pdf/1402.3722.pdf.

    [28]Su Zengcai,Xu Hua,Zhang Dongwen,et al.Chinese sentiment classification using a neural network tool—Word2vec [C]//Proceedings of the 2014 International Conference on Multisensor Fusion and Information Integration for Intelligent Systems,Beijing,Sep 28-29,2014.Piscataway,USA: IEEE,2014:1-6.

    附中文參考文獻(xiàn):

    [7]張琳,胡杰.FAQ問答系統(tǒng)句子相似度計算[J].鄭州大學(xué)學(xué)報:理學(xué)版,2010,42(1):57-61.

    [8]藍(lán)雁玲,陳建超.基于詞性及詞性依存的句子結(jié)構(gòu)相似度計算[J].計算機(jī)工程,2011,37(10):47-49.

    [9]陳麗莎.自動問答系統(tǒng)中基于WordNet的句子相似度計算研究與實現(xiàn)[D].廣州:華南理工大學(xué),2014.

    [10]夏天.漢語詞語語義相似度計算研究[J].計算機(jī)工程, 2007,33(6):191-194.

    [11]田久樂,趙蔚.基于同義詞詞林的詞語相似度計算方法[J].吉林大學(xué)學(xué)報:信息科學(xué)版,2010,28(6):602-608.

    [12]張培穎.多特征融合的語句相似度計算模型[J].計算機(jī)工程與應(yīng)用,2010,46(26):136-137.

    [16]張劍,屈丹,李真.基于詞向量特征的循環(huán)神經(jīng)網(wǎng)絡(luò)語言模型[J].模式識別與人工智能,2015,28(4):299-305.

    [20]熊富林,鄧怡豪,唐曉晟.Word2vec的核心架構(gòu)及其應(yīng)用[J].南京師范大學(xué)學(xué)報:工程技術(shù)版,2015,15(1):43-48.

    LI Feng was born in 1982.He received the Ph.D.degree in computational linguistics from PLA University of Foreign Languages in 2012.His research interests include natural language processing,big data analytics and corpus linguistics,etc.

    李峰(1982—),男,河南固始人,2012年于解放軍外國語學(xué)院計算語言學(xué)專業(yè)獲得博士學(xué)位,主要研究領(lǐng)域為自然語言處理,大數(shù)據(jù)分析,語料庫語言學(xué)等。

    HOU Jiaying was born in 1993.She is an M.S.candidate at Kunming University of Science and Technology.Her research interests include nature language processing and information retrieval,etc.

    侯加英(1993—),女,山東泰安人,昆明理工大學(xué)碩士研究生,主要研究領(lǐng)域為自然語言處理,信息檢索等。

    ZENG Rongren was born in 1973.He received the M.S.degree in computer science and technology from National University of Defense Technology in 1997.His research interests include information system design,artificial intelligence and radio frequency identification,etc.

    曾榮仁(1973—),男,福建莆田人,1997年于國防科技大學(xué)計算機(jī)科學(xué)與技術(shù)專業(yè)獲得碩士學(xué)位,主要研究領(lǐng)域為信息系統(tǒng)設(shè)計,人工智能,射頻識別等。

    LING Chen was born in 1980.He graduated from PLA University of Science and Technology in 2001.His research interests include big data analysis,information system design and artificial intelligence,etc.

    凌晨(1980—),男,山東淄博人,2001年畢業(yè)于解放軍理工大學(xué),主要研究領(lǐng)域為大數(shù)據(jù)分析,信息系統(tǒng)設(shè)計,人工智能等。

    Research on Multi-Feature Sentence Similarity Computing Method with Word Embedding*

    LI Feng1,2+,HOU Jiaying3,ZENG Rongren1,LING Chen1
    1.Logistics Science Research Institute of PLA,Beijing 100166,China
    2.School of Computer Science and Engineering,Beihang University,Beijing 100191,China
    3.School of Information Engineering and Automation,Kunming University of Science and Technology,Kunming 650504,China
    +Corresponding author:E-mail:li_bopr@126.com

    Based on the summarization of sentence similarity computing methods,this paper applies 34 000 pieces of texts of People's Daily to train word vector space model for semantic similarity computing.Then,based on the trained word vector model,this paper designs a multi-feature sentence similarity computing method,which takes both word and sentence structure features into consideration.Firstly,the method takes note of possible effects of the number of overlapping words and word continuity,and then applies word vector model to calculate the semantic similarity of non-overlapping words.Regarding the aspect of sentence structure,the method takes both overlapping word order and sentence length conformity into consideration.Finally,this paper designs and implements four different sentence similarity calculating methods,and further develops an experimental system.The experimental results show that the method proposed in this paper can get satisfactory results and the combination and optimization upon the features of words and sentence structures can improve the accuracy of sentence similarity calculating.

    word embedding;sentence similarity;Word2vec;algorithm design

    10.3778/j.issn.1673-9418.1604029

    A

    TP391

    *The National Natural Science Foundation of China under Grant No.61370126(國家自然科學(xué)基金);the National High Technology Research and Development Program of China under Grant No.2015AA016004(國家高技術(shù)研究發(fā)展計劃(863計劃));the National Social Science Foundation of China under Grant No.15GJ003-154(國家社會科學(xué)基金);the Fund of the State Key Laboratory of Software Development Environment under Grant No.SKLSDE-2015ZX-16(軟件開發(fā)環(huán)境國家重點實驗室探索性自主研究課題基金).

    Received 2016-04,Accepted 2016-06.

    CNKI網(wǎng)絡(luò)優(yōu)先出版:2016-06-23,http://www.cnki.net/kcms/detail/11.5602.TP.20160623.1401.020.html

    LI Feng,HOU Jiaying,ZENG Rongren,et al.Research on multi-feature sentence similarity computing method with word embedding.Journal of Frontiers of Computer Science and Technology,2017,11(4):608-618.

    猜你喜歡
    計算方法語義準(zhǔn)確率
    浮力計算方法匯集
    乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
    健康之家(2021年19期)2021-05-23 11:17:39
    不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
    2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
    語言與語義
    高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
    “上”與“下”語義的不對稱性及其認(rèn)知闡釋
    隨機(jī)振動試驗包絡(luò)計算方法
    不同應(yīng)變率比值計算方法在甲狀腺惡性腫瘤診斷中的應(yīng)用
    認(rèn)知范疇模糊與語義模糊
    波多野结衣高清无吗| 国产欧美日韩一区二区精品| 亚洲自拍偷在线| 一个人看的www免费观看视频| 亚洲天堂国产精品一区在线| 国产真实乱freesex| 噜噜噜噜噜久久久久久91| 草草在线视频免费看| 日本黄色视频三级网站网址| 久久国产精品人妻蜜桃| 老司机午夜十八禁免费视频| 中文字幕熟女人妻在线| 午夜福利18| av福利片在线观看| 真人做人爱边吃奶动态| 午夜精品一区二区三区免费看| 亚洲国产精品久久男人天堂| 麻豆av噜噜一区二区三区| 国产精品美女特级片免费视频播放器| 欧美xxxx黑人xx丫x性爽| 国产黄色小视频在线观看| 国产亚洲精品综合一区在线观看| 在线观看午夜福利视频| 午夜福利免费观看在线| 国产成年人精品一区二区| www.色视频.com| 国产乱人视频| 成人国产综合亚洲| 欧美日韩亚洲国产一区二区在线观看| 日韩 亚洲 欧美在线| 狂野欧美白嫩少妇大欣赏| 国产精品嫩草影院av在线观看 | 看黄色毛片网站| 国产综合懂色| 国产精品永久免费网站| 男人狂女人下面高潮的视频| 欧美丝袜亚洲另类 | 国产淫片久久久久久久久 | 色尼玛亚洲综合影院| 精品日产1卡2卡| 国产精品亚洲av一区麻豆| 一进一出抽搐动态| 99精品久久久久人妻精品| 亚洲国产精品成人综合色| 欧美一区二区国产精品久久精品| 在线免费观看的www视频| 男人舔女人下体高潮全视频| 一进一出抽搐gif免费好疼| 麻豆成人av在线观看| 国产欧美日韩精品一区二区| 精品午夜福利视频在线观看一区| 日韩 亚洲 欧美在线| 亚洲av电影不卡..在线观看| 久久精品国产99精品国产亚洲性色| 精品日产1卡2卡| 啦啦啦韩国在线观看视频| 91在线观看av| 国产激情偷乱视频一区二区| 免费人成在线观看视频色| 午夜精品一区二区三区免费看| 日韩欧美在线乱码| 在线十欧美十亚洲十日本专区| 亚洲成av人片在线播放无| 老司机深夜福利视频在线观看| 一本综合久久免费| 久久久久久久久久成人| 白带黄色成豆腐渣| 在线a可以看的网站| 三级国产精品欧美在线观看| 婷婷精品国产亚洲av在线| 美女大奶头视频| 日韩欧美一区二区三区在线观看| 97超视频在线观看视频| 欧美精品国产亚洲| 亚洲国产欧洲综合997久久,| 日韩欧美免费精品| 免费看美女性在线毛片视频| 一个人观看的视频www高清免费观看| 成人特级av手机在线观看| 国产精品女同一区二区软件 | 变态另类丝袜制服| 欧美性猛交╳xxx乱大交人| 性色av乱码一区二区三区2| 欧美一区二区亚洲| 国产精品久久久久久人妻精品电影| 日韩欧美免费精品| 男女之事视频高清在线观看| 国产黄色小视频在线观看| 男女之事视频高清在线观看| 一边摸一边抽搐一进一小说| 日韩亚洲欧美综合| 久久久色成人| 亚洲欧美日韩卡通动漫| 国产高清有码在线观看视频| 欧美色视频一区免费| 午夜精品在线福利| 亚洲欧美清纯卡通| 亚洲最大成人手机在线| 高清毛片免费观看视频网站| 97热精品久久久久久| 亚洲av免费高清在线观看| 日韩 亚洲 欧美在线| 蜜桃亚洲精品一区二区三区| 精品午夜福利视频在线观看一区| 日本三级黄在线观看| av黄色大香蕉| 欧美成人免费av一区二区三区| 怎么达到女性高潮| 国产伦在线观看视频一区| 亚洲精品一卡2卡三卡4卡5卡| 全区人妻精品视频| 国产极品精品免费视频能看的| 永久网站在线| av天堂在线播放| 午夜福利欧美成人| 美女高潮的动态| www.熟女人妻精品国产| 国产亚洲欧美98| 日本黄色片子视频| 日本三级黄在线观看| 国产探花在线观看一区二区| 中文字幕av在线有码专区| 观看免费一级毛片| 天堂影院成人在线观看| aaaaa片日本免费| 夜夜夜夜夜久久久久| 一卡2卡三卡四卡精品乱码亚洲| 天堂影院成人在线观看| 亚洲无线观看免费| 欧美区成人在线视频| 我的老师免费观看完整版| 18禁黄网站禁片免费观看直播| 亚洲综合色惰| 少妇裸体淫交视频免费看高清| 国产成人影院久久av| 国产精品伦人一区二区| 老女人水多毛片| 亚洲午夜理论影院| 国产精品亚洲一级av第二区| 在线观看av片永久免费下载| 亚洲激情在线av| 女生性感内裤真人,穿戴方法视频| 午夜福利在线观看吧| 国产成人aa在线观看| 国产成人欧美在线观看| 又爽又黄a免费视频| 免费一级毛片在线播放高清视频| 看片在线看免费视频| .国产精品久久| 欧美区成人在线视频| 人人妻,人人澡人人爽秒播| 男人舔女人下体高潮全视频| 国产精品三级大全| 一夜夜www| 午夜免费激情av| 99精品久久久久人妻精品| 尤物成人国产欧美一区二区三区| 高潮久久久久久久久久久不卡| 国产精品不卡视频一区二区 | 久久久久久久午夜电影| 搡老妇女老女人老熟妇| 简卡轻食公司| 国产久久久一区二区三区| 亚洲最大成人中文| 日本免费一区二区三区高清不卡| 午夜福利欧美成人| 亚洲内射少妇av| 性色av乱码一区二区三区2| 欧美乱妇无乱码| 男人狂女人下面高潮的视频| 啦啦啦观看免费观看视频高清| 韩国av一区二区三区四区| 1000部很黄的大片| 12—13女人毛片做爰片一| 亚洲成人中文字幕在线播放| 亚洲18禁久久av| 亚洲欧美日韩卡通动漫| 亚洲av免费高清在线观看| 99久国产av精品| 欧美一级a爱片免费观看看| 免费看光身美女| 国产一区二区三区视频了| 国产精品影院久久| 男人舔女人下体高潮全视频| 在线免费观看的www视频| 免费搜索国产男女视频| 18禁黄网站禁片午夜丰满| 亚洲avbb在线观看| 免费在线观看日本一区| 99久久九九国产精品国产免费| 好男人电影高清在线观看| eeuss影院久久| 女生性感内裤真人,穿戴方法视频| 亚洲av熟女| 国产人妻一区二区三区在| 色尼玛亚洲综合影院| 欧美日本视频| 悠悠久久av| www.色视频.com| 一个人观看的视频www高清免费观看| 成年免费大片在线观看| 直男gayav资源| 国产精品国产高清国产av| 亚洲精品一区av在线观看| 亚洲熟妇中文字幕五十中出| 一本久久中文字幕| 亚洲av电影不卡..在线观看| 免费av观看视频| 国产极品精品免费视频能看的| 亚洲成人中文字幕在线播放| 国产精品一及| 日本黄色视频三级网站网址| 又爽又黄无遮挡网站| 免费观看的影片在线观看| av天堂在线播放| 久久久久久久久久成人| 亚洲三级黄色毛片| 国产在线男女| 中文在线观看免费www的网站| 一级av片app| 老女人水多毛片| 成人国产综合亚洲| 午夜福利高清视频| 婷婷色综合大香蕉| 日本在线视频免费播放| 国产精品野战在线观看| 国产视频一区二区在线看| 99国产极品粉嫩在线观看| 草草在线视频免费看| 噜噜噜噜噜久久久久久91| 男人和女人高潮做爰伦理| 亚洲第一欧美日韩一区二区三区| 脱女人内裤的视频| 又黄又爽又免费观看的视频| 大型黄色视频在线免费观看| 日韩欧美三级三区| 色播亚洲综合网| 国产淫片久久久久久久久 | 欧美潮喷喷水| 黄色日韩在线| 亚洲国产精品999在线| 精品久久久久久久久av| 久久午夜福利片| 欧美国产日韩亚洲一区| 欧美+日韩+精品| 欧美+亚洲+日韩+国产| 日本精品一区二区三区蜜桃| 51午夜福利影视在线观看| 老司机午夜十八禁免费视频| 国产色爽女视频免费观看| 少妇熟女aⅴ在线视频| 国产乱人视频| 男女床上黄色一级片免费看| 两个人视频免费观看高清| 国产精品美女特级片免费视频播放器| 亚洲美女搞黄在线观看 | 搡老妇女老女人老熟妇| 99久久精品国产亚洲精品| av专区在线播放| 免费在线观看影片大全网站| 亚洲综合色惰| 色播亚洲综合网| 熟女人妻精品中文字幕| 又黄又爽又刺激的免费视频.| 伦理电影大哥的女人| 久久精品人妻少妇| 国产91精品成人一区二区三区| 性色av乱码一区二区三区2| 日本撒尿小便嘘嘘汇集6| 亚洲av中文字字幕乱码综合| 久久精品91蜜桃| 一进一出好大好爽视频| 成人午夜高清在线视频| 久久99热6这里只有精品| 精品人妻一区二区三区麻豆 | 老熟妇仑乱视频hdxx| 99久久精品热视频| 岛国在线免费视频观看| 欧美色欧美亚洲另类二区| 美女被艹到高潮喷水动态| av福利片在线观看| 国产一区二区在线观看日韩| 日本a在线网址| 中文字幕精品亚洲无线码一区| 窝窝影院91人妻| 亚洲第一区二区三区不卡| 国产精品av视频在线免费观看| 毛片一级片免费看久久久久 | 性色av乱码一区二区三区2| 日本撒尿小便嘘嘘汇集6| 日韩欧美在线乱码| 日韩人妻高清精品专区| 亚洲,欧美精品.| 亚洲精品久久国产高清桃花| 高清在线国产一区| 成人国产综合亚洲| 国产高清激情床上av| 亚洲av电影在线进入| 亚洲欧美激情综合另类| 午夜日韩欧美国产| 亚洲精品一区av在线观看| 欧美成人性av电影在线观看| 欧美丝袜亚洲另类 | 国产欧美日韩精品一区二区| 三级国产精品欧美在线观看| 国产精品一区二区三区四区久久| 亚洲欧美日韩卡通动漫| 午夜久久久久精精品| 夜夜看夜夜爽夜夜摸| 在线免费观看的www视频| 国产亚洲精品久久久com| 国产 一区 欧美 日韩| 国产极品精品免费视频能看的| 精品乱码久久久久久99久播| 国产亚洲av嫩草精品影院| 亚洲欧美日韩高清在线视频| 国产午夜福利久久久久久| a级毛片免费高清观看在线播放| 中文字幕精品亚洲无线码一区| 在线国产一区二区在线| 亚洲成人精品中文字幕电影| 51午夜福利影视在线观看| 国产精品久久电影中文字幕| 亚洲av五月六月丁香网| 精华霜和精华液先用哪个| 亚洲aⅴ乱码一区二区在线播放| 久久亚洲真实| 国产大屁股一区二区在线视频| 国产一级毛片七仙女欲春2| 变态另类丝袜制服| 99在线视频只有这里精品首页| 窝窝影院91人妻| 国产野战对白在线观看| 在线观看美女被高潮喷水网站 | 91狼人影院| 欧美在线黄色| 亚洲av第一区精品v没综合| 国产成人啪精品午夜网站| 全区人妻精品视频| www.999成人在线观看| 可以在线观看的亚洲视频| 国产欧美日韩精品一区二区| 国内精品一区二区在线观看| 日韩欧美精品v在线| 精品免费久久久久久久清纯| 内地一区二区视频在线| 亚洲成人免费电影在线观看| 在线免费观看的www视频| av女优亚洲男人天堂| 脱女人内裤的视频| 成人av一区二区三区在线看| 欧美黑人欧美精品刺激| 日韩 亚洲 欧美在线| 波多野结衣巨乳人妻| 嫩草影视91久久| 成年女人永久免费观看视频| 欧美色欧美亚洲另类二区| 国产免费男女视频| 亚洲真实伦在线观看| 国产高清有码在线观看视频| 内地一区二区视频在线| .国产精品久久| 他把我摸到了高潮在线观看| 欧美成人一区二区免费高清观看| 99热这里只有精品一区| 亚洲国产高清在线一区二区三| 亚洲国产欧美人成| 美女 人体艺术 gogo| 久久久久久久久久成人| 99久久精品热视频| 国产真实乱freesex| 99久久99久久久精品蜜桃| 久久国产乱子免费精品| 国产高清有码在线观看视频| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 97碰自拍视频| 久久6这里有精品| 中文在线观看免费www的网站| 一进一出抽搐gif免费好疼| 亚洲av电影在线进入| 国产单亲对白刺激| 欧美区成人在线视频| 国产精品爽爽va在线观看网站| 一卡2卡三卡四卡精品乱码亚洲| 一个人看的www免费观看视频| 免费电影在线观看免费观看| 无人区码免费观看不卡| 窝窝影院91人妻| 美女免费视频网站| 毛片一级片免费看久久久久 | 国产亚洲精品久久久com| 天堂av国产一区二区熟女人妻| 久久久成人免费电影| 免费在线观看成人毛片| av福利片在线观看| 国产黄a三级三级三级人| 如何舔出高潮| 国产黄片美女视频| 国产私拍福利视频在线观看| 国内精品久久久久久久电影| 日韩精品中文字幕看吧| 男女床上黄色一级片免费看| 久久99热6这里只有精品| 小说图片视频综合网站| 国产亚洲欧美在线一区二区| 久久精品国产亚洲av天美| 一进一出抽搐gif免费好疼| 日本a在线网址| 国产精品一区二区免费欧美| 丁香欧美五月| 亚洲五月婷婷丁香| 成人精品一区二区免费| 久久久久亚洲av毛片大全| 一区二区三区四区激情视频 | 国产在线男女| eeuss影院久久| 欧美色视频一区免费| 特级一级黄色大片| 少妇丰满av| 狂野欧美白嫩少妇大欣赏| 伦理电影大哥的女人| 国产国拍精品亚洲av在线观看| 午夜免费激情av| 内射极品少妇av片p| 久久精品国产清高在天天线| 99在线视频只有这里精品首页| 白带黄色成豆腐渣| 国产精品爽爽va在线观看网站| 精品久久久久久久久久久久久| 在线观看av片永久免费下载| 欧美成人a在线观看| av专区在线播放| 久久国产乱子伦精品免费另类| 老鸭窝网址在线观看| 久久久精品大字幕| 日韩人妻高清精品专区| 日韩av在线大香蕉| 中文在线观看免费www的网站| 国产高清视频在线播放一区| 中文字幕熟女人妻在线| 香蕉av资源在线| 特大巨黑吊av在线直播| 国产精品综合久久久久久久免费| 国产黄色小视频在线观看| 亚洲在线自拍视频| 在线观看一区二区三区| 久久性视频一级片| 成人国产综合亚洲| 亚洲性夜色夜夜综合| 91麻豆av在线| 波多野结衣高清无吗| 久久久久国内视频| 少妇熟女aⅴ在线视频| a级毛片免费高清观看在线播放| 亚洲第一电影网av| 嫩草影视91久久| 18禁裸乳无遮挡免费网站照片| 中文资源天堂在线| 国产主播在线观看一区二区| 99久久精品国产亚洲精品| 日韩欧美 国产精品| 18美女黄网站色大片免费观看| 亚洲av中文字字幕乱码综合| 国产91精品成人一区二区三区| 老司机午夜福利在线观看视频| 身体一侧抽搐| 色精品久久人妻99蜜桃| 亚洲欧美日韩东京热| 欧美一区二区国产精品久久精品| 天堂网av新在线| 丰满人妻熟妇乱又伦精品不卡| 最好的美女福利视频网| 久久久久九九精品影院| 成人高潮视频无遮挡免费网站| 亚洲国产精品999在线| 美女 人体艺术 gogo| 国产视频一区二区在线看| 制服丝袜大香蕉在线| 中文字幕高清在线视频| 久久中文看片网| 老司机福利观看| 午夜免费成人在线视频| 欧美在线一区亚洲| 午夜免费男女啪啪视频观看 | 禁无遮挡网站| 精品国内亚洲2022精品成人| 91字幕亚洲| 久久性视频一级片| 欧美区成人在线视频| 深爱激情五月婷婷| 免费人成在线观看视频色| 国内揄拍国产精品人妻在线| 51国产日韩欧美| 我的老师免费观看完整版| 一本久久中文字幕| av天堂中文字幕网| 99久久无色码亚洲精品果冻| 亚洲无线观看免费| 丰满乱子伦码专区| 国产综合懂色| 国产一区二区在线观看日韩| 免费在线观看亚洲国产| 91字幕亚洲| 在线免费观看不下载黄p国产 | 亚洲专区国产一区二区| 一区二区三区四区激情视频 | 全区人妻精品视频| 嫩草影院入口| 免费看光身美女| 极品教师在线免费播放| 啦啦啦韩国在线观看视频| 久久久成人免费电影| 一卡2卡三卡四卡精品乱码亚洲| 久久久久亚洲av毛片大全| 18禁黄网站禁片午夜丰满| 国产精品综合久久久久久久免费| 真人一进一出gif抽搐免费| 又黄又爽又免费观看的视频| 波多野结衣高清作品| 欧美国产日韩亚洲一区| 97人妻精品一区二区三区麻豆| 国产精品亚洲av一区麻豆| 自拍偷自拍亚洲精品老妇| 国产亚洲av嫩草精品影院| 日韩精品中文字幕看吧| 最近中文字幕高清免费大全6 | 如何舔出高潮| 国产精品影院久久| 精品无人区乱码1区二区| 成年女人看的毛片在线观看| 一个人免费在线观看电影| 国产亚洲精品综合一区在线观看| 一二三四社区在线视频社区8| 国产在线精品亚洲第一网站| 亚洲,欧美精品.| 亚洲天堂国产精品一区在线| 国产精品av视频在线免费观看| 亚洲欧美精品综合久久99| 18禁黄网站禁片免费观看直播| 亚洲成a人片在线一区二区| 99国产极品粉嫩在线观看| 性色avwww在线观看| 国产精品一区二区三区四区免费观看 | 日韩欧美精品v在线| 国产成人aa在线观看| 精品一区二区三区人妻视频| 欧美在线一区亚洲| 一本综合久久免费| 舔av片在线| 日日摸夜夜添夜夜添av毛片 | 97超视频在线观看视频| 久久伊人香网站| 精品久久久久久,| 99久久精品国产亚洲精品| 12—13女人毛片做爰片一| 午夜精品在线福利| 人妻夜夜爽99麻豆av| 性色avwww在线观看| 网址你懂的国产日韩在线| 国产伦人伦偷精品视频| 国产精品国产高清国产av| 亚洲av二区三区四区| 99国产综合亚洲精品| 两性午夜刺激爽爽歪歪视频在线观看| 色综合站精品国产| 亚洲av成人精品一区久久| 男女做爰动态图高潮gif福利片| 18禁裸乳无遮挡免费网站照片| 国产一区二区在线观看日韩| www日本黄色视频网| 中文字幕人妻熟人妻熟丝袜美| 少妇熟女aⅴ在线视频| 波多野结衣高清无吗| 一级毛片久久久久久久久女| 日本三级黄在线观看| 一个人看的www免费观看视频| 精品国产三级普通话版| 午夜福利视频1000在线观看| 亚洲成av人片在线播放无| 少妇人妻一区二区三区视频| 一区二区三区四区激情视频 | 很黄的视频免费| 国产亚洲精品av在线| 国产精品av视频在线免费观看| 高清毛片免费观看视频网站| 日韩欧美在线乱码| 日韩欧美一区二区三区在线观看| 精品无人区乱码1区二区| 伦理电影大哥的女人| 噜噜噜噜噜久久久久久91| 国产精品久久电影中文字幕| 一区二区三区激情视频| 色综合站精品国产| 成年女人毛片免费观看观看9| 免费av不卡在线播放| 黄色视频,在线免费观看| 直男gayav资源| 午夜影院日韩av| 午夜免费激情av| 欧美日韩瑟瑟在线播放| 亚洲国产欧洲综合997久久,| 亚洲avbb在线观看| 国产精品久久久久久久电影| 精品一区二区免费观看| 97超级碰碰碰精品色视频在线观看| 免费av不卡在线播放| 亚洲狠狠婷婷综合久久图片| 别揉我奶头 嗯啊视频| 午夜福利在线在线| 成年人黄色毛片网站| 91狼人影院| 亚洲精品色激情综合| 91麻豆av在线| 久久精品人妻少妇| 精品熟女少妇八av免费久了|