• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于流形學(xué)習(xí)的句向量優(yōu)化

    2023-10-21 07:05:40吳明月周棟趙文玉屈薇
    計(jì)算機(jī)應(yīng)用 2023年10期
    關(guān)鍵詞:流形池化語義

    吳明月,周棟,趙文玉,屈薇

    基于流形學(xué)習(xí)的句向量優(yōu)化

    吳明月1,2,周棟1*,趙文玉1,2,屈薇1,2

    (1.湖南科技大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,湖南 湘潭 411201; 2.服務(wù)計(jì)算與軟件服務(wù)新技術(shù)湖南省重點(diǎn)實(shí)驗(yàn)室(湖南科技大學(xué)),湖南 湘潭 411201)( ? 通信作者電子郵箱dongzhou1979@hotmail.com)

    句向量是自然語言處理的核心技術(shù)之一,影響著自然語言處理系統(tǒng)的質(zhì)量和性能。然而,已有的方法無法高效推理句與句之間的全局語義關(guān)系,致使句子在歐氏空間中的語義相似性度量仍存在一定問題。為解決該問題,從句子的局部幾何結(jié)構(gòu)入手,提出一種基于流形學(xué)習(xí)的句向量優(yōu)化方法。該方法利用局部線性嵌入(LLE)對句子及其語義相似句子進(jìn)行兩次加權(quán)局部線性組合,這樣不僅保持了句子之間的局部幾何信息,而且有助于推理全局幾何信息,進(jìn)而使句子在歐氏空間中的語義相似性更貼近人類真實(shí)語義。在7個文本語義相似度任務(wù)上的實(shí)驗(yàn)結(jié)果表明,所提方法的斯皮爾曼相關(guān)系數(shù)(SRCC)平均值相較于基于對比學(xué)習(xí)的方法SimCSE(Simple Contrastive learning of Sentence Embeddings)提升了1.21個百分點(diǎn)。此外,將所提方法運(yùn)用于主流預(yù)訓(xùn)練模型上的結(jié)果表明,相較于原始預(yù)訓(xùn)練模型,所提方法優(yōu)化后模型的SRCC平均值提升了3.32~7.70個百分點(diǎn)。

    流形學(xué)習(xí);預(yù)訓(xùn)練模型;對比學(xué)習(xí);句向量;自然語言處理;局部線性嵌入

    0 引言

    在網(wǎng)絡(luò)文本呈指數(shù)增長的互聯(lián)網(wǎng)時代,需要處理大規(guī)模的無標(biāo)簽文本,同時更準(zhǔn)更快地給用戶提供感興趣的相關(guān)內(nèi)容。其中,句向量(sentence embedding)[1]是一個重要的研究方向,挖掘句與句之間的語義關(guān)系(如語義相似度、語義相關(guān)性等)對數(shù)據(jù)挖掘[2-3]、多模態(tài)[4-5]、信息檢索[6-7]等領(lǐng)域意義重大[8]。

    傳統(tǒng)的句向量生成方法[9-12]因存在數(shù)據(jù)稀疏、未考慮上下文語境信息和無法高效處理大數(shù)據(jù)等缺陷[13],已經(jīng)無法滿足目前的應(yīng)用需求。為解決上述問題,研究者們提出了基于預(yù)訓(xùn)練語言模型(Pre-trained Language Model, PLM)。其中,以BERT(Bidirectional Encoder Representation from Transformers)[14]為代表的預(yù)訓(xùn)練研究取得了重大的進(jìn)展,使用BERT模型預(yù)訓(xùn)練的句向量可以處理很多的自然語言工作,如分類、聚類、機(jī)器翻譯等[15]。然而,BERT所生成的句向量仍面臨著以下問題:1)語義信息不充分,指BERT直接?。跜LS]特征值作為句向量,會丟失部分語義信息;2)在文本語義相似度(Semantic Textual Similarity, STS)任務(wù)上性能差,指句向量無法精準(zhǔn)表征句子之間的語義信息[15-19]。

    流形學(xué)習(xí)(manifold learning)[20]旨在獲取非線性數(shù)據(jù)的內(nèi)在本質(zhì)結(jié)構(gòu),是一種從高維數(shù)據(jù)中獲取低維流形的方法,可以從現(xiàn)象中尋找事物的本質(zhì)特性。在圖像領(lǐng)域中,流形學(xué)習(xí)已經(jīng)被證實(shí)能夠觀測圖像數(shù)據(jù)中的內(nèi)在本質(zhì)規(guī)律,有效解決語義鴻溝問題。與圖像數(shù)據(jù)類似,文本數(shù)據(jù)中也存在天然的低維流形結(jié)構(gòu),如果低維流形無法觀測,則句向量不僅難以理解文本中潛在的語義特征,而且難以進(jìn)一步推理句與句之間的全局語義關(guān)系。因此,本文提出了一種基于流形學(xué)習(xí)的句向量優(yōu)化方法,該方法可以通過流形學(xué)習(xí)獲取語義特征在低維流形中的本質(zhì)分布特性,幫助句向量更好地推理句與句之間的全局語義關(guān)系。

    1 相關(guān)工作

    1.1 基于BERT的句向量生成及其優(yōu)化方法

    為解決BERT生成的句向量在文本相似度任務(wù)上性能差這一問題,研究者提出了一系列的句向量生成和優(yōu)化方法。相關(guān)方法大致分為兩類[19]:有監(jiān)督方法和無監(jiān)督方法。

    有監(jiān)督方法旨在利用句子之間更為細(xì)?;年P(guān)系,如蘊(yùn)涵、因果、轉(zhuǎn)折等語義關(guān)系,推理更高層次的語義特征。文獻(xiàn)[17]中提出一種基于孿生網(wǎng)絡(luò)的方法SBERT(Sentence BERT),該方法利用孿生網(wǎng)絡(luò)和三胞胎網(wǎng)絡(luò)的結(jié)構(gòu),設(shè)置相同的兩路模型分別編碼句子,以兩個編碼向量的相似度最小為目標(biāo)進(jìn)一步推理句向量。有監(jiān)督方法,通常只適合特定的任務(wù),并不具備良好的遷移性能。

    無監(jiān)督方法又可分為基于空間映射[15-16]的方法和基于對比學(xué)習(xí)[18-19]的方法等。空間映射的方法旨在建模某種重映射關(guān)系,把原始向量空間映射到一個均勻、光滑的新空間中,提升句向量的性能。常用的重映射方法有高斯變換[15]和線性變換[16]的方法,其中:高斯變換的方法在推理時需耗費(fèi)額外的計(jì)算開銷,導(dǎo)致該方法性能受限;而線性變換的方法雖然在一定程度上解決了時間開銷的問題,卻難以推理句與句之間的全局語義關(guān)系,導(dǎo)致句向量在語義相似性度量上仍存在一定誤差。基于對比學(xué)習(xí)的方法通常以數(shù)據(jù)增強(qiáng)的方式構(gòu)建正樣本,在句向量領(lǐng)域中,較為經(jīng)典的方法主要有兩種:一種是文獻(xiàn)[19]方法,該方法通過模型不同的Dropout,分別對同一句子抽取兩次不同特征,構(gòu)建對比學(xué)習(xí)的正樣本對;另一種是文獻(xiàn)[18]方法,該方法通過在模型的池化層上加以微小擾動的方式,構(gòu)建兩個語義相似的句向量,作為正樣本對。但是,對比學(xué)習(xí)的方法更偏向于建模句與句之間局部的語義關(guān)系,始終無法顯式地建模全局句與句之間語義關(guān)系。

    1.2 流形學(xué)習(xí)在文本領(lǐng)域中的應(yīng)用

    流形學(xué)習(xí)旨在獲取非線性分布數(shù)據(jù)的內(nèi)在結(jié)構(gòu)。在文本領(lǐng)域,向量的高維表示會導(dǎo)致數(shù)據(jù)樣本更復(fù)雜,使得文本向量無法直接觀測數(shù)據(jù)內(nèi)在本質(zhì)的分布。為解決該問題,文獻(xiàn)[20]中提出基于流形的詞向量優(yōu)化方法,并論證流形學(xué)習(xí)是詞向量相似性度量恢復(fù)的有效范式之一。此后,相關(guān)研究基本都以此方法為理論依據(jù),并集中于以下兩個領(lǐng)域:1)在詞向量領(lǐng)域,利用局部線性嵌入(Locally Linear Embedding, LLE)[21-22]、局部切空間對齊[23]等流形學(xué)習(xí)方法建模詞向量空間的重映射,優(yōu)化了詞與詞在歐氏空間中的相似性度量;2)在句向量領(lǐng)域,首先利用句向量(Sent2Vec)模型[24]生成初始的句向量,其次使用局部保持投影(Locality Preserving Projection, LPP)[25]的流形學(xué)習(xí)方法建模句向量空間的重映射,提升了句向量在特定任務(wù)上的性能。

    上述研究主要針對詞與詞級別的語義關(guān)系,而本文擬解決的關(guān)鍵問題是句與句之間的全局語義關(guān)系。為了方便討論,假設(shè)句子間的相似程度可以用數(shù)值衡量,該值為0~1的實(shí)數(shù),值越高表示句子越相似。在極端情況下,值越接近為1,則視為兩者語義基本一致;反之,值越接近0,則視為語義相反。由上述易知,當(dāng)句子1為“orient,be positioned”、句子2為“be opposite”時,兩句之間的真實(shí)語義相似度應(yīng)為0.50左右;然而,通過現(xiàn)有的句向量模型計(jì)算的相似度為0.83,高估了句與句之間的語義相似度。

    針對上述問題,文獻(xiàn)[20]中提出一種基于流形學(xué)習(xí)的詞向量優(yōu)化方法,認(rèn)為在局部上,將詞與詞的歐氏距離作為詞與詞之間的語義相似程度可以真實(shí)反映詞之間的語義相似程度;然而在全局上,直接將詞與詞之間歐氏距離作為詞與詞之間的語義相似程度并不符合人類的真實(shí)評估。受到文獻(xiàn)[20]啟發(fā),本文進(jìn)一步詳細(xì)定義了句與句的語義關(guān)系,認(rèn)為句關(guān)系也可分為兩類:一類是局部關(guān)系,指句與句之間語義信息相近時,直接計(jì)算句之間的距離度量,表征它們的語義相似程度是合理的;另一類是全局關(guān)系,指句與句之間語義信息相反時,則需要通過建立句與句之間的局部鄰接關(guān)系,以精準(zhǔn)推理句與句的全局語義關(guān)系。不同于詞級別的優(yōu)化,句子的語義特征抽取難度更高,句與句之間語義關(guān)系表征也更復(fù)雜多變。因此,文獻(xiàn)[20]方法不能直接應(yīng)用于句與句之間語義關(guān)系,主要存在以下問題:1)特征抽取句時,句向量容易丟失句子語義信息;2)難以挖掘句與句之間的局部關(guān)系,即已知某個句子在歐氏空間的位置時,難以高效地挖掘該句子與它語義相鄰的句子集合;3)在歐氏空間中,已知句子的局部鄰接關(guān)系,較難推理句與句之間的全局關(guān)系,更好地表征句與句之間的語義關(guān)系。為解決上述3個問題,本文提出了一種基于流形學(xué)習(xí)的句向量優(yōu)化方法。

    本文的主要工作為:

    1)利用預(yù)訓(xùn)練模型并結(jié)合池化,按照單詞組成句子的層次結(jié)構(gòu)或利用最先進(jìn)的句向量生成模型對句子編碼,解決句向量丟失部分語義信息的問題。

    2)提出一種基于詞頻信息的句頻采樣方法,該方法可以高效地獲取任意句子的相鄰句子集。

    3)利用局部線性嵌入(LLE)對句子與它語義相似句子進(jìn)行兩次加權(quán)局部線性組合,在保持句子之間的局部關(guān)系的同時,能根據(jù)句子之間的局部鄰接關(guān)系進(jìn)一步推理句與句之間的全局語義關(guān)系。

    2 本文方法

    本文方法共包含編碼層、采樣層和重映射層這3個模塊,結(jié)構(gòu)如圖1所示。編碼層包含一種文本向量化的表示方法。首先,利用已經(jīng)訓(xùn)練好的預(yù)訓(xùn)練模型初步提取上下文相關(guān)的語義特征,獲取上下文相關(guān)的詞表示;其次,結(jié)合池化1融合模型不同層之間的語義特征,生成動態(tài)詞向量;最后,利用池化2挖掘詞與詞之間的互信息,生成上下文相關(guān)的句向量。采樣層包含一種基于詞頻信息的句頻采樣方法。該模塊結(jié)合詞袋假設(shè)的思想,把句頻信息定義為詞頻信息的線性組合,通過句頻信息高效挖掘句與句之間的局部關(guān)系。重映射層包含一種基于局部線性嵌入的語義特征再抽取方法,利用LLE對測試句子與它語義相鄰的句子進(jìn)行兩次加權(quán)局部線性組合,在保持句子局部鄰接關(guān)系的同時,進(jìn)一步推理句與句之間的全局語義關(guān)系。

    圖1 基于流形學(xué)習(xí)的句向量優(yōu)化方法

    2.1 編碼層

    2.1.1詞表示

    文本表示是自然語言處理的基礎(chǔ)工作之一,其中將句表示成固定長度的向量,稱之為句向量,又叫句嵌入。句向量大幅提高了神經(jīng)網(wǎng)絡(luò)處理文本數(shù)據(jù)的能力。以Transformer作為主干的一類預(yù)訓(xùn)練模型不僅能從大規(guī)模的語料數(shù)據(jù)中充分挖掘潛在的語義特征,還可以很容易地遷移到其他任務(wù)上,具有良好的推廣性能。針對句子語義的信息抽取,本文使用了基于Transformer的預(yù)訓(xùn)練模型(如BERT、GPT-2(Generative Pre-trained Transformer 2)等)初步提取的特征,生成上下文相關(guān)的詞表示。

    假設(shè)預(yù)訓(xùn)練模型由層Transformer作為特征提取器。將句子輸入已經(jīng)訓(xùn)練好的模型中,便可推理具有上下文相關(guān)的詞表示,計(jì)算如式(1)所示:

    2.1.2池化

    傳統(tǒng)方法通常直接取預(yù)訓(xùn)練模型的[CLS]標(biāo)記作為句向量,然而該取法在語義表征上仍存在一些問題,導(dǎo)致句向量語義信息表征不充分,而且難以捕捉句與句之間的全局語義關(guān)系,影響了句向量的表征能力,制約了句向量的發(fā)展。為了解決上述問題,本文引入池化提升句向量表征能力,引入池化后,句向量不僅能捕捉詞與詞之間的互信息,還能抽取上下文模型中不同層之間的語義特征[26]。其中,比較具有代表性的池化為平均池化,它能抽取詞向量中每個維度的平均值,使得句向量融合所有詞的互信息,語義特征更突出。

    具體地,池化分為兩步。首先,利用池化1融合模型不同層之間的語義特征,生成動態(tài)詞向量;其次,使用池化2挖掘詞與詞之間的互信息,生成上下文相關(guān)的句向量。兩個步驟分別如式(2)~(3)所示:

    2.1.3句編碼器

    本文的句編碼器如圖2所示。

    圖2 編碼層圖

    首先,利用預(yù)訓(xùn)練模型,生成上下文相關(guān)的詞向量表示;其次,結(jié)合池化1,抽取上下文相關(guān)模型中不同層之間的語義特征,生成動態(tài)詞向量;最后,結(jié)合池化2,按照單詞組成句子的層次結(jié)構(gòu),生成上下文相關(guān)的句向量。算法1為句子編碼的迭代過程。

    算法1 基于預(yù)訓(xùn)練的句編碼器方法。

    輸入 無監(jiān)督語料庫;

    輸出 原始句向量空間。

    Repeat

    預(yù)處理句子

    根據(jù)式(1)計(jì)算詞表示

    根據(jù)式(2)計(jì)算動態(tài)詞向量

    根據(jù)式(3)計(jì)算句向量

    Until無監(jiān)督語料庫中的句子已全部編碼

    2.2 采樣層

    在大規(guī)模語料庫中,精確尋找某個句子以及與它語義相鄰的個近鄰句子非常困難:不僅需要計(jì)算該句子和其他所有句子的語義相似程度,還需要按相似程度排序,才能找出個近鄰句子。以前的方法主要通過隨機(jī)采樣解決這一問題,但隨機(jī)采樣的方法始終無法精準(zhǔn)采集與測試句子語義相鄰的句子集,反而容易采集一些語義信息生僻的句子,引入噪聲,導(dǎo)致流形學(xué)習(xí)難以推理句與句的全局關(guān)系。

    為解決上述問題,本文提出了一種基于詞頻信息的句頻采樣方法,可以實(shí)現(xiàn)在大規(guī)模語料庫中,高效地采集某句子以及與它語義相鄰的句子集合。該方法的主要思想為如果某句子對中兩者都包含同樣的詞,則表示兩者語義相似的程度越高。基于此假設(shè),本文認(rèn)為當(dāng)某句子包含多個高頻詞時,則該句子與其他句子語義相鄰的可能性也會有所提高;此外,本文從詞頻角度出發(fā),設(shè)計(jì)了一個評價指標(biāo),記為句頻信息,該指標(biāo)能在某種程度上反映某句子與其他句子語義相鄰的概率。由上述分析可知,某個句子的句頻信息越高,則該句子與其他句子語義相鄰的可能性越大。

    句頻采樣的主要過程為:首先,計(jì)算語料庫中所有句子的句頻信息,如式(4)所示;其次,利用句頻信息生成降序排列的句向量空間;最后,結(jié)合候選參數(shù),隨機(jī)選取個句子得到采樣空間,作為流形學(xué)習(xí)的局部鄰域候選集。

    2.3 重映射層

    與圖像數(shù)據(jù)類似,文本數(shù)據(jù)在歐氏空間中也存在天然的流形結(jié)構(gòu)。為了更好地挖掘文本數(shù)據(jù)中的低維流形,本文提出一種基于局部線性嵌入的特征抽取方法,在保持文本數(shù)據(jù)局部關(guān)系的基礎(chǔ)上,進(jìn)一步推理句之間的全局語義關(guān)系。

    局部線性嵌入的主要思想為:采集的高維數(shù)據(jù)樣本點(diǎn)都可以利用局部鄰域的點(diǎn)線性表示。在保持局部鄰域權(quán)值不變情況下,可以通過最小化重構(gòu)誤差在低維空間中重新構(gòu)造原來的數(shù)據(jù)點(diǎn)。重映射模塊的主要實(shí)現(xiàn)步驟如下。

    s.t. 式(9)

    其中:tr代表矩陣的跡;代表一個稀疏矩陣。

    綜上所述,利用局部線性嵌入推理句與句之間全局關(guān)系的整個過程可以歸納為:

    2.4 基于流形學(xué)習(xí)的句向量優(yōu)化方法

    本文方法的具體迭代過程如算法2所示。

    算法2 基于流形學(xué)習(xí)的句向量優(yōu)化方法。

    輸入 句向量空間,測試句向量,近鄰參數(shù),采樣參數(shù);

    輸出 流形學(xué)習(xí)后的新向量。

    初始化 詞頻信息表。

    Repeat

    根據(jù)式(5)計(jì)算候選集

    根據(jù)式(6)計(jì)算個近鄰句子

    根據(jù)式(7)保持句子的局部鄰接關(guān)系

    根據(jù)式(8)推理句子的全局關(guān)系

    根據(jù)式(10)計(jì)算重映射后的句向量

    Until任務(wù)中的測試句子已全部重映射

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 數(shù)據(jù)集

    本文在維基百科爬取了新聞、教育和科技等多個領(lǐng)域的文本數(shù)據(jù),共1 100 000條句子,制作了無監(jiān)督語料庫。

    根據(jù)文獻(xiàn)[27],本文選擇了7個國際通用的文本相似度任務(wù)數(shù)據(jù)集用于評估本文方法。這個系列的公開數(shù)據(jù)集是目前語義文本相似度領(lǐng)域最為常用的公開數(shù)據(jù)集。數(shù)據(jù)集中任務(wù)的標(biāo)簽分?jǐn)?shù)是通過眾包技術(shù)所得,最終的標(biāo)簽得分是統(tǒng)計(jì)10個人的平均分?jǐn)?shù)所得,每個人的評分等級為1~5,評分等級越高,表示兩者的語義相似度或語義相關(guān)性越高。任務(wù)樣本標(biāo)簽值,又稱為語義相似度或語義相關(guān)性,是取值為[0,5]的實(shí)數(shù)。具體介紹如下:

    1)SICK-R(Sentences Involving Compositional Knowledge Relevance)。該評測任務(wù)包含了句與句之間更高層次的語義關(guān)系,如蘊(yùn)含、矛盾和中性多種語義關(guān)系,共包含9 927個句子對。

    2)STS-B(Semantic Textual Similarity Benchmark)。該任務(wù)是國際公開數(shù)據(jù)集,也是最新SemEval Task之一,共包含3 210個句子對。提供了跨語言的文本相似度任務(wù)評估,如英語、土耳其語和西班牙語等。

    3)STS12~STS16(Semantic Textual Similarity 2012—2016)。該類評測任務(wù)包含了句與句之間的基本語義關(guān)系,如句與句之間的語義相似關(guān)系。

    3.2 評價指標(biāo)

    3.3 對比基線

    本文的對比基線如下:

    1)句向量生成模型。包括USE_TF(Universal Sentence Encoder for English)[28]、Skip_Thoughts[10]、InferSent_FastText[29]、SBERT(Sentence-BERT)[17]、SimCSE(Simple Contrastive learning of Sentence Embeddings)[19]和ConSERT(Contrastive framework for self-supervised SEntence Representation Transfer)[18]。

    2)句向量優(yōu)化模型。包括Glove_WR(Glove Weighed Removal)[9]、BERT_flow[15]和BERT_whitening[16]。

    本文采用的主流預(yù)訓(xùn)練模型[30]如下:

    GPT-2(版本為gpt2-base),維度為768,是一種單向自回歸的語言模型的預(yù)訓(xùn)練技術(shù)。

    BERT(版本為bert-base-uncased),維度為768,是基于Transformer編碼器的降噪自編碼語言模型,Transformer的編碼器負(fù)責(zé)接收文本作為輸入,不負(fù)責(zé)預(yù)測。

    Roberta(版本為roberta-base),維度為768,是一種精調(diào)的BERT模型。

    XLNET(版本為xlnet-base-cased),維度為768,是一種排列語言模型,主要采用了PLM、雙流自注意力機(jī)制和改進(jìn)的Transformer特征提取器。

    BART(版本為bart-base),維度為768,是一種結(jié)構(gòu)由序列到序列(Sequence to Sequence, Seq2Seq)組成的預(yù)訓(xùn)練模型,Seq2Seq的注意力機(jī)制是建立在編碼器的最后輸出上,獲得更全面完整的全局整合信息。

    T5(Text-to-Text Transfer Transformer)(版本為t5-base),維度為768,是一種探索遷移學(xué)習(xí)邊界的模型,它的核心思想是對自然語言處理任務(wù)建模,將所有預(yù)訓(xùn)練任務(wù)構(gòu)造成異步的Seq2Seq模型。T5多任務(wù)主要有完形填空、去噪自編碼等預(yù)訓(xùn)練任務(wù)。

    3.4 實(shí)驗(yàn)設(shè)置

    本文方法根據(jù)編碼層的設(shè)置不同,大致可分為兩類:

    1)SimMSE。編碼層使用最先進(jìn)的句向量生成模型SimCSE,詳細(xì)實(shí)驗(yàn)設(shè)置參考文獻(xiàn)[19]中的基本設(shè)置。

    2)Model_MFL。Model代表3.3節(jié)中的6個主流預(yù)訓(xùn)練模型,MFL代表本文方法,編號(1)表示該模型使用頂層池化,編號(2)表示該模型使用加權(quán)池化,編號(3)表示該模型使用平均池化。

    采樣層均設(shè)置為句頻采樣,采樣范圍為[1,10 000],隨機(jī)參數(shù)的取值范圍為[2 500,3 500]。重映射層設(shè)置為局部線性嵌入作為流形學(xué)習(xí)的方法,近鄰參數(shù)的范圍為[300,1 024]。

    本文所有的實(shí)驗(yàn)均使用SRCC評估,對比實(shí)驗(yàn)主要分為以下兩個部分:

    1)為了驗(yàn)證本文方法(SimMSE)可以優(yōu)化最新句向量生成模型SimCSE。本文在SimCSE的基礎(chǔ)上生成初始的句向量,再利用局部線性嵌入進(jìn)一步優(yōu)化,并與其他句向量優(yōu)化方法如Glove_WR、BERT_flow和BERT_whitening對比。

    2)為了驗(yàn)證本文方法的可推廣性,本文在其他的主流預(yù)訓(xùn)練模型上進(jìn)行了可推廣性實(shí)驗(yàn)。

    3.5 對比實(shí)驗(yàn)結(jié)果與分析

    表1~2列出了不同方法在7個測試任務(wù)數(shù)據(jù)集上的性能,其中:表1主要對比了句向量生成模型和句向量優(yōu)化模型;表2展示了本文方法在其他主流預(yù)訓(xùn)練模型上的推廣性實(shí)驗(yàn)結(jié)果,并與原始預(yù)訓(xùn)練模型結(jié)合池化的方法進(jìn)行對比。實(shí)驗(yàn)結(jié)果表明,本文方法在保持句與句局部關(guān)系的情況下,可以進(jìn)一步推理句與句之間的全局語義關(guān)系,提升句向量的性能。

    表1 句向量優(yōu)化模型的實(shí)驗(yàn)結(jié)果對比 單位:%

    表2 主流預(yù)訓(xùn)練模型的實(shí)驗(yàn)結(jié)果對比 單位:%

    根據(jù)表1,可以得出以下結(jié)論:

    1)本文的句向量優(yōu)化方法可以優(yōu)化歐氏空間中句與句之間的語義相似關(guān)系。在SICK-R、STS12-16和STS-B任務(wù)上,相較于次優(yōu)的SimCSE,SimMSE的SRCC平均值提升了1.21個百分點(diǎn),表明流形學(xué)習(xí)可以優(yōu)化句與句之間的基本語義關(guān)系,修正句與句之間在歐氏空間中的語義相似度。

    2)本文的句向量優(yōu)化方法無法更高效地捕捉句與句之間更高層次的語義信息,如蘊(yùn)涵、因果、轉(zhuǎn)折等語義關(guān)系。SimMSE在SICK-R任務(wù)上,雖然優(yōu)于Glove_WR、BERT_flow等大部分句向量優(yōu)化模型,但性能比USE_TF、SBERT等4個句向量生成模型差。不同于句與句之間的基本語義關(guān)系,更高層次的語義關(guān)系通常需要結(jié)合監(jiān)督信號才能取得更優(yōu)的性能。

    表2列出了本文方法在主流預(yù)訓(xùn)練模型上的優(yōu)化效果,由表2結(jié)果可以得出以下結(jié)論:

    1)本文方法具有極高的可推廣性。相較于原始的預(yù)訓(xùn)練模型,經(jīng)過本文方法優(yōu)化后的BERT_MFL、Roberta_MFL等方法的性能有顯著提升。

    2)池化和句與句之間語義關(guān)系推理有著密切的關(guān)系,且在不同預(yù)訓(xùn)練模型呈現(xiàn)較大的差異。在大部分預(yù)訓(xùn)練模型上,相較于其他池化,加權(quán)池化取得了良好的性能,如BERT(2)、Roberta(2)等模型;頂層池化只在BART(1)和XLNET(1)上取得了優(yōu)勢,在其他預(yù)訓(xùn)練模型上效果不佳;平均池化則表現(xiàn)得更為均衡,在BERT(3)和Roberta(3)中,性能介于加權(quán)池化和頂層池化。

    3)模型自身的預(yù)訓(xùn)練任務(wù)對句與句之間語義關(guān)系推理有著決定性的作用。經(jīng)過本文方法優(yōu)化后,基于T5優(yōu)化后的句向量模型T5_MFL取得了最優(yōu)的性能;而基于GPT-2優(yōu)化后的句向量模型GPT-2_MFL性能依舊極差。表明相較于其他預(yù)訓(xùn)練任務(wù)而言,基于完形填空和去噪自編碼等預(yù)訓(xùn)練任務(wù)更利于句向量理解句與句之間的語義關(guān)系。

    4)本文方法對預(yù)訓(xùn)練模型的優(yōu)化效果與預(yù)訓(xùn)練任務(wù)有關(guān),且在不同預(yù)訓(xùn)練任務(wù)上呈現(xiàn)較大差異。相較于原始的預(yù)訓(xùn)練模型XLNET,XLNET_MFL的SRCC平均值至少提升了7.01個百分點(diǎn);相較于原始的預(yù)訓(xùn)練模型GPT-2,GPT-2_MFL的SRCC平均值至少提升了7.70個百分點(diǎn);而相較于原始的預(yù)訓(xùn)練模型BART,BART_MFL平均值至少提升了3.32個百分點(diǎn),提升較少。這一現(xiàn)象表明,本文方法對隨機(jī)排列的預(yù)訓(xùn)練任務(wù)所生成的句向量優(yōu)化效果較為顯著,而對BART一類的預(yù)訓(xùn)練模型而言優(yōu)化效果并不明顯。

    3.6 消融實(shí)驗(yàn)

    本文的消融實(shí)驗(yàn)主要分為兩部分:

    1)驗(yàn)證單層的有效性。實(shí)驗(yàn)設(shè)置遵循單一控制變量法,分別驗(yàn)證采樣層和重映射層的有效性。

    2)驗(yàn)證各層部件的組合性能。實(shí)驗(yàn)設(shè)置編碼層固定,采樣層和重映射層可變,分析采樣層和重映射層的組合性能。

    3.6.1采樣層的有效性分析

    本節(jié)實(shí)驗(yàn)設(shè)置如下:編碼層分別使用BERT、Roberta、XLNET、GPT-2、BART和T5等模型編碼;采樣層分別設(shè)置為None(表示不進(jìn)行任何采樣操作)、隨機(jī)采樣、拒絕采樣和句頻采樣;在重映射層,均設(shè)置為局部線性嵌入。評測任務(wù)為STS-B,評價指標(biāo)為SRCC。

    表3列出了不同采樣方法在STS-B測試任務(wù)上的性能結(jié)果。從表3可以看出,相較于其他的采樣方法,本文設(shè)計(jì)的句頻采樣能夠采樣、測試句子語義相鄰的句子集合,并且在多個主流的預(yù)訓(xùn)練模型上都得到了有效的驗(yàn)證。

    表3 不同采樣方法在STS-B測試任務(wù)上的性能對比 單位:%

    采樣層的目標(biāo)是更高效地挖掘句與句之間的局部鄰接關(guān)系,即給定一個測試句子,盡可能在最短的時間內(nèi)找出與它語義相鄰的句子集合。然而,隨機(jī)采樣雖然速度很快,但是難以采集與測試句子語義相近的句子集,反而容易采集一些語義信息生僻的句子,給后續(xù)的重映射層引入了一定的噪聲,增加了模型推理的難度,導(dǎo)致模型性能下降。

    3.6.2重映射的有效性分析

    本節(jié)實(shí)驗(yàn)設(shè)置如下:編碼層分別使用BERT、Roberta、XLNET、GPT-2、BART和T5等模型對無監(jiān)督語料庫編碼,采樣層均設(shè)置為句頻采樣,重映射層包括無重映射層None、等度量映射(Isometric mapping,Isomap)[31]和局部線性嵌入(LLE)。評測任務(wù)為STS-B,評價指標(biāo)為SRCC。

    圖3展示了流形學(xué)習(xí)在STS-B測試任務(wù)上的性能。實(shí)驗(yàn)結(jié)果表明,在多個主流的預(yù)訓(xùn)練模型上,相較于其他流形學(xué)習(xí)方法,LLE建模句向量的重映射都取得了較佳的性能。

    圖3 不同流形學(xué)習(xí)方法在STS-B測試任務(wù)上性能對比

    一方面,由圖3可知,除GPT-2以外,相較于Isomap,LLE的性能更為優(yōu)異;另一方面,從算法的機(jī)理分析可得,在相同樣本數(shù)的前提下,LLE的時間復(fù)雜度遠(yuǎn)低于Isomap,因此LLE更高效。其次,Isomap受近鄰范圍的影響較大,近鄰范圍太寬和太窄,都不利于推理句與句之間的全局關(guān)系;而LLE受近鄰范圍的影響較小,在很多情況下,依舊可以對樣本映射,故LLE適用范圍更廣。

    綜上所述,利用LLE建模句向量的重映射更具優(yōu)勢。

    3.6.3模型部件組合分析

    本節(jié)的實(shí)驗(yàn)設(shè)置如下:

    編碼層設(shè)置BERT模型作為句子編碼器;采樣層分別設(shè)置為None(表示不進(jìn)行任何采樣操作)、隨機(jī)采樣、拒絕采樣和句頻采樣。重映射層分別設(shè)置為None(表示不進(jìn)行流形學(xué)習(xí))、Isomap、LPP和LLE。評測任務(wù)為STS-B、STS2012~STS2016和SICK-R,評價指標(biāo)為SRCC。

    圖4列出了組合方法在7個測試任務(wù)上的SRCC平均值結(jié)果。實(shí)驗(yàn)結(jié)果表明,采樣層設(shè)置為句頻采樣、重映射層設(shè)置為LLE的組合方法效果最佳。

    圖4 采樣層與重映射層的組合性能結(jié)果

    由圖4可以看出:

    1)采樣層和重映射層是相輔相成的,兩者缺一不可。如果不設(shè)置采樣層,而直接進(jìn)行流形學(xué)習(xí)建模句向量的重映射,句向量的性能不但沒有得到優(yōu)化,反而有所下降。

    2)高效采樣方法能提升句向量的優(yōu)化效果。前期使用越高效的采樣方案,后期越有助于流形學(xué)習(xí)推理句與句之間的全局關(guān)系。

    3)流形學(xué)習(xí)方法結(jié)合不同采樣方案的性能差距較明顯。例如,Isomap方法結(jié)合句頻采樣有利于句向量的優(yōu)化,呈現(xiàn)積極作用;而Isomap方法結(jié)合隨機(jī)采樣不利于句向量的優(yōu)化,呈現(xiàn)消極作用。

    綜合以上實(shí)驗(yàn)結(jié)果和分析可以得到如下結(jié)論:

    1)相較于其他預(yù)訓(xùn)練模型,句向量生成模型BART和T5更利于句子在歐氏空間中的語義相似性度量。

    2)利用句頻信息,不僅可以高效地挖掘句子及其語義相鄰的句子集合,還可以幫助后續(xù)的流形學(xué)習(xí),更好地推理句與句之間的全局語義關(guān)系。

    3)采用句頻采樣結(jié)合局部線性嵌入的組合方法得到的句向量優(yōu)化效果最佳。

    4 結(jié)語

    本文主要研究當(dāng)前主流預(yù)訓(xùn)練模型所生成句向量,并提出一種基于流形學(xué)習(xí)的句向量優(yōu)化方法。首先,在預(yù)訓(xùn)練模型基礎(chǔ)上結(jié)合池化,按照單詞組成句子的層次結(jié)構(gòu)編碼句子,形成原始句空間;其次,利用句頻采樣得到語義較豐富的采樣空間;最后,利用局部線性嵌入構(gòu)建原始空間到新空間的重映射,推理句與句在全局上的語義關(guān)系。在7個國際通用的文本語義相似度任務(wù)上的實(shí)驗(yàn)結(jié)果表明,相較于基線方法,本文方法的性能提升明顯;此外,將本文方法運(yùn)用到6種主流的預(yù)訓(xùn)練模型上,也取得了優(yōu)異的性能。

    未來的研究工作中,將從以下3個方面展開:1)設(shè)計(jì)更高效的采樣方案,挖掘更優(yōu)質(zhì)的采樣空間,提升采樣效率;2)研究更高效的流形學(xué)習(xí)方法,建模句與句之間的全局關(guān)系3)嘗試將流形學(xué)習(xí)運(yùn)用于句向量相關(guān)的下游任務(wù),如文本分類、情感分析和文本摘要等任務(wù),提升句向量在下游任務(wù)中的遷移性能。

    [1] 趙京勝,宋夢雪,高祥,等. 自然語言處理中的文本表示研究[J]. 軟件學(xué)報, 2022, 33(1): 102-128.(ZHAO J S, SONG M X, GAO X, et al. Research on text representation in natural language processing[J]. Journal of Software, 2022, 33(1): 102-128.)

    [2] RAJATH S, KUMAR A, AGARWAL M, et al. Data mining tool to help the scientific community develop answers to Covid-19 queries[C]// Proceedings of the 5th International Conference on Intelligent Computing in Data Sciences. Piscataway: IEEE, 2021: 1-5.

    [3] SASTRE J, VAHID A H, McDONAGH C, et al. A text mining approach to discovering COVID-19 relevant factors[C]// Proceedings of the 2020 IEEE International Conference on Bioinformatics and Biomedicine. Piscataway: IEEE, 2020: 486-490.

    [4] BOATENG G. Towards real-time multimodal emotion recognition among couples[C]// Proceedings of the 2020 International Conference on Multimodal Interaction. New York: ACM, 2020: 748-753.

    [5] BOATENG G, KOWATSCH T. Speech emotion recognition among elderly individuals using multimodal fusion and transfer learning[C]// Companion Publication of the 2020 International Conference on Multimodal Interaction. New York: ACM, 2020: 12-16.

    [6] ESTEVA A, KALE A, PAULUS R, et al. COVID-19 information retrieval with deep-learning based semantic search, question answering, and abstractive summarization[J]. npj Digital Medicine, 2021, 4: No.68.

    [7] LIN J. A proposed conceptual framework for a representational approach to information retrieval[J]. ACM SIGIR Forum, 2021, 55(2): No.4.

    [8] LI R, ZHAO X, MOENS M F. A brief overview of universal sentence representation methods: a linguistic view[J]. ACM Computing Surveys, 2023, 55(3): No.56.

    [9] ARORA S, LIANG Y, MA T. A simple but tough-to-beat baseline for sentence embeddings[EB/OL]. (2022-07-22) [2022-07-20].https://openreview.net/pdf?id=SyK00v5xx.

    [10] KIROS R, ZHU Y, SALAKHUTDINOV R, et al. Skip-thought vectors[C]// Proceedings of the 28th International Conference on Neural Information Processing Systems — Volume 2. Cambridge: MIT Press, 2015: 3294-3302.

    [11] WIETING J, BANSAL M, GIMPEL K, et al. Towards universal paraphrastic sentence embeddings[EB/OL]. (2016-03-04) [2022-07-20].https://arxiv.org/pdf/1511.08198.pdf.

    [12] ZHANG M, WU Y, LI W, et al. Learning universal sentence representations with mean-max attention autoencoder[C]// Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2018: 1532-1543.

    [13] LIU Z Y, LIN Y K, SUN M S. Representation Learning for Natural Language Processing[M]. Berlin: Springer, 2020.

    [14] DEVLIN J, CHANG M W, LEE K, et al. BERT: pre-training of deep bidirectional transformers for language understanding[C]// Proceedings of the 16th Annual Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). Stroudsburg, PA: ACL, 2019: 4171-4186.

    [15] LI B, ZHOU H, HE J, et al. On the sentence embeddings from pre-trained language models[C]// Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2020: 9119-9130.

    [16] SU J, CAO J, LIU W, et al. Whitening sentence representations for better semantics and faster retrieval[EB/OL]. (2021-03-29) [2022-05-23].https://arxiv.org/pdf/2103.15316.pdf.

    [17] REIMERS N, GUREVYCH I. Sentence-BERT: sentence embeddings using siamese BERT-networks[C]// Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing. Stroudsburg, PA: ACL, 2019: 3982-3992.

    [18] YAN Y, LI R, WANG S, et al. ConSERT: a contrastive framework for self-supervised sentence representation transfer[C]// Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). Stroudsburg, PA: ACL, 2021: 5065-5075.

    [19] GAO T, YAO X, CHEN D. SimCSE: simple contrastive learning of sentence embeddings[C]// Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2021: 6894-6910.

    [20] HASHIMOTO T B, ALVAREZ-MELIS D, JAAKKOLA T S. Word embeddings as metric recovery in semantic spaces[J]. Transactions of the Association for Computational Linguistics, 2016, 4: 273-286.

    [21] HASAN S, CURRY E. Word re-embedding via manifold dimensionality retention[C]// Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, Stroudsburg, PA: ACL, 2017: 321-326.

    [22] ZHAO D, WANG J, CHU Y, et al. Improving biomedical word representation with locally linear embedding[J]. Neurocomputing, 2021, 447: 172-182.

    [23] ZHAO W, ZHOU D, LI L, et al. Manifold learning-based word representation refinement incorporating global and local information[C]// Proceedings of the 28th International Conference on Computational Linguistics. [S.l.]: International Committee on Computational Linguistics, 2020: 3401-3412.

    [24] NASER MOGHADASI M, ZHUANG Y. Sent2Vec: a new sentence embedding representation with sentimental semantic[C]// Proceedings of the 2020 IEEE International Conference on Big Data. Piscataway: IEEE, 2020: 4672-4680.

    [25] ZHAO D, WANG J, LIN H, et al. Sentence representation with manifold learning for biomedical texts[J]. Knowledge-Based Systems, 2021, 218: No.106869.

    [26] BOMMASANI R, DAVIS K, CARDIE C. Interpreting pretrained contextualized representations via reductions to static embeddings[C]// Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2020: 4758-4781.

    [27] 韓程程,李磊,劉婷婷,等. 語義文本相似度計(jì)算方法[J]. 華東師范大學(xué)學(xué)報(自然科學(xué)版), 2020(5):95-112.(HAN C C, LI L, LIU T T, et al. Approaches for semantic textual similarity[J]. Journal of East China Normal University (Natural Science), 2020(5):95-112.)

    [28] CER D, YANG Y, KONG S Y, et al. Universal sentence encoder for English[C]// Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations. Stroudsburg, PA: ACL, 2018: 169-174.

    [29] CONNEAU A, KIELA D, SCHWENK H, et al. Supervised learning of universal sentence representations from natural language inference data[C]// Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2017: 670-680.

    [30] 岳增營,葉霞,劉睿珩. 基于語言模型的預(yù)訓(xùn)練技術(shù)研究綜述[J]. 中文信息學(xué)報, 2021, 35(9): 15-29.(YUE Z Y, YE X,LIU R H. A survey of language model based pre-training technology[J]. Journal of Chinese Information Processing, 2021, 35(9): 15-29.)

    [31] ROWEIS S T, SAUL L K. Nonlinear dimensionality reduction by locally linear embedding[J]. Science, 2000, 290(5500): 2323-2326.

    Sentence embedding optimization based on manifold learning

    WU Mingyue1,2, ZHOU Dong1*, ZHAO Wenyu1,2, QU Wei1,2

    (1,,411201,;2(),411201,)

    As one of the core technologies of natural language processing, sentence embedding affects the quality and performance of natural language processing system. However, the existing methods are unable to infer the global semantic relationship between sentences efficiently, which leads to the fact that the semantic similarity measurement of sentences in Euclidean space still has some problems. To address the issue, a sentence embedding optimization method based on manifold learning was proposed. In the method, Local Linear Embedding (LLE) was used to perform double weighted local linear combinations to the sentences and their semantically similar sentences, thereby preserving the local geometric information between sentences and providing helps to the inference of the global geometric information. As a result, the semantic similarity of sentences in Euclidean space was closer to the real semantics of humans. Experimental results on seven text semantic similarity tasks show that the proposed method has the average Spearman’s Rank Correlation Coefficient, (SRCC) improved by 1.21 percentage points compared with the contrastive learning-based method SimCSE (Simple Contrastive learning of Sentence Embeddings). In addition, the proposed method was applied to mainstream pre-trained models. The results show that compared to the original pre-trained models, the models optimized by the proposed method have the average SRCC improved by 3.32 to 7.70 percentage points.

    manifold learning; pre-trained model; contrastive learning; sentence embedding; natural language processing; Local Linear Embedding (LLE)

    This work is partially supported by National Natural Science Foundation of China (61876062), Natural Science Foundation of Hunan Province (2022JJ30020), Scientific Research Project of Hunan Provincial Education Department (21A0319).

    WU Mingyue, born in 1999, M. S. candidate. His research interests include natural language processing, deep learning.

    ZHOU Dong, born in 1979, Ph. D., professor. His research interests include information retrieval, natural language processing.

    ZHAO Wenyu, born in 1993, Ph. D. candidate. Her research interests include information retrieval, natural language processing.

    QU Wei, born in 1991, M. S. candidate. Her research interests include source code summarization, natural language processing.

    1001-9081(2023)10-3062-08

    10.11772/j.issn.1001-9081.2022091449

    2022?09?30;

    2023?01?24;

    國家自然科學(xué)基金資助項(xiàng)目(61876062);湖南省自然科學(xué)基金資助項(xiàng)目(2022JJ30020);湖南省教育廳科研項(xiàng)目(21A0319)。

    吳明月(1999—),男,湖南婁底人,碩士研究生,CCF會員,主要研究方向:自然語言處理、深度學(xué)習(xí); 周棟(1979—),男,湖南長沙人,教授,博士,CCF高級會員,主要研究方向:信息檢索、自然語言處理; 趙文玉(1993—),女,湖南衡陽人,博士研究生,CCF會員,主要研究方向:信息檢索、自然語言處理; 屈薇(1991—),女,湖南湘潭人,碩士研究生,CCF會員,主要研究方向:源代碼摘要、自然語言處理。

    TP391.1

    A

    2023?02?01。

    猜你喜歡
    流形池化語義
    基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識別方法研究
    無線電工程(2024年8期)2024-09-16 00:00:00
    基于Sobel算子的池化算法設(shè)計(jì)
    卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
    緊流形上的Schr?dinger算子的譜間隙估計(jì)
    語言與語義
    迷向表示分為6個不可約直和的旗流形上不變愛因斯坦度量
    Nearly Kaehler流形S3×S3上的切觸拉格朗日子流形
    基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識別研究
    “上”與“下”語義的不對稱性及其認(rèn)知闡釋
    基于多故障流形的旋轉(zhuǎn)機(jī)械故障診斷
    大型av网站在线播放| 亚洲黑人精品在线| 搡老妇女老女人老熟妇| 国产一区二区三区在线臀色熟女| 长腿黑丝高跟| 老汉色av国产亚洲站长工具| 嫩草影院精品99| 久久人妻熟女aⅴ| 欧美日韩亚洲综合一区二区三区_| 视频区欧美日本亚洲| 亚洲无线在线观看| 国产av精品麻豆| 日本免费a在线| 国产亚洲欧美在线一区二区| 露出奶头的视频| 欧美日韩亚洲综合一区二区三区_| 大型av网站在线播放| 最近最新免费中文字幕在线| 夜夜爽天天搞| 久久久久国内视频| 一区在线观看完整版| 国产极品粉嫩免费观看在线| 日韩有码中文字幕| 日本撒尿小便嘘嘘汇集6| 可以免费在线观看a视频的电影网站| 99久久综合精品五月天人人| 精品久久久久久成人av| av天堂久久9| 免费在线观看日本一区| 黑人操中国人逼视频| 欧美性长视频在线观看| 一级a爱视频在线免费观看| 午夜两性在线视频| ponron亚洲| 97人妻精品一区二区三区麻豆 | 中文字幕高清在线视频| 欧美乱码精品一区二区三区| 精品福利观看| 少妇粗大呻吟视频| 久久人人精品亚洲av| 午夜a级毛片| 欧美黄色片欧美黄色片| 美女高潮到喷水免费观看| 亚洲av第一区精品v没综合| 日本 欧美在线| 视频在线观看一区二区三区| 午夜精品久久久久久毛片777| 午夜老司机福利片| 狂野欧美激情性xxxx| 在线播放国产精品三级| 夜夜躁狠狠躁天天躁| 男男h啪啪无遮挡| 色老头精品视频在线观看| 少妇 在线观看| 久久婷婷成人综合色麻豆| 波多野结衣高清无吗| 亚洲国产看品久久| 黄片小视频在线播放| 亚洲无线在线观看| 国产精品久久久久久人妻精品电影| 18禁裸乳无遮挡免费网站照片 | 在线天堂中文资源库| 午夜亚洲福利在线播放| 满18在线观看网站| 给我免费播放毛片高清在线观看| 人人妻人人澡人人看| 可以免费在线观看a视频的电影网站| 午夜久久久久精精品| 亚洲国产欧美网| 欧美 亚洲 国产 日韩一| 国产精品98久久久久久宅男小说| 老司机靠b影院| 搡老岳熟女国产| 99热只有精品国产| 国产精品av久久久久免费| 中亚洲国语对白在线视频| 后天国语完整版免费观看| 国产单亲对白刺激| 国产aⅴ精品一区二区三区波| 欧美最黄视频在线播放免费| 两性午夜刺激爽爽歪歪视频在线观看 | 欧美在线黄色| 88av欧美| 日韩欧美免费精品| 大香蕉久久成人网| 久久久久久亚洲精品国产蜜桃av| 国产精品永久免费网站| 久久热在线av| 咕卡用的链子| 一边摸一边做爽爽视频免费| 波多野结衣高清无吗| 两个人免费观看高清视频| 女生性感内裤真人,穿戴方法视频| 久久精品国产亚洲av高清一级| 麻豆国产av国片精品| 国产成人一区二区三区免费视频网站| 少妇的丰满在线观看| 久久伊人香网站| 看片在线看免费视频| 国产精品国产高清国产av| 亚洲中文字幕一区二区三区有码在线看 | 99精品在免费线老司机午夜| 超碰成人久久| 国产高清视频在线播放一区| 一a级毛片在线观看| 国产一区二区在线av高清观看| 亚洲av熟女| 这个男人来自地球电影免费观看| 精品熟女少妇八av免费久了| 午夜久久久在线观看| 在线av久久热| 国产激情久久老熟女| 少妇的丰满在线观看| 法律面前人人平等表现在哪些方面| 窝窝影院91人妻| 曰老女人黄片| 亚洲成人久久性| 免费少妇av软件| 久久久久久久午夜电影| 亚洲精品久久国产高清桃花| 久久久精品国产亚洲av高清涩受| 国内久久婷婷六月综合欲色啪| 男男h啪啪无遮挡| 国产亚洲av高清不卡| 国产野战对白在线观看| 久久中文看片网| 免费观看人在逋| 欧美色视频一区免费| 老司机福利观看| 成人欧美大片| 日韩精品中文字幕看吧| 在线观看免费视频日本深夜| 无遮挡黄片免费观看| 变态另类丝袜制服| 久久精品91无色码中文字幕| 国产亚洲欧美98| 久久青草综合色| 777久久人妻少妇嫩草av网站| 好男人电影高清在线观看| 午夜福利一区二区在线看| 波多野结衣av一区二区av| 国产精品二区激情视频| 亚洲精品美女久久av网站| 免费搜索国产男女视频| 国产成人av教育| 久久影院123| 欧美日韩瑟瑟在线播放| 亚洲国产欧美日韩在线播放| 亚洲精品久久成人aⅴ小说| 日韩视频一区二区在线观看| 亚洲五月婷婷丁香| 校园春色视频在线观看| 久久 成人 亚洲| 国产亚洲精品久久久久久毛片| 欧美绝顶高潮抽搐喷水| 亚洲全国av大片| 午夜免费观看网址| а√天堂www在线а√下载| 国产麻豆成人av免费视频| 亚洲国产精品久久男人天堂| 9191精品国产免费久久| 身体一侧抽搐| 久热这里只有精品99| 日韩欧美免费精品| 18禁黄网站禁片午夜丰满| 亚洲人成电影免费在线| 国产单亲对白刺激| 中出人妻视频一区二区| 国产区一区二久久| 三级毛片av免费| 久久青草综合色| 黑人巨大精品欧美一区二区mp4| 97人妻精品一区二区三区麻豆 | 国产成人系列免费观看| 午夜福利免费观看在线| 好男人在线观看高清免费视频 | 亚洲欧美日韩高清在线视频| 国产精品1区2区在线观看.| 丁香欧美五月| 免费高清在线观看日韩| 18禁黄网站禁片午夜丰满| 我的亚洲天堂| 亚洲人成网站在线播放欧美日韩| 在线观看一区二区三区| 久久久久久久精品吃奶| 久久精品国产99精品国产亚洲性色 | 国产99久久九九免费精品| 午夜两性在线视频| 精品一品国产午夜福利视频| 久久中文字幕一级| 热99re8久久精品国产| 亚洲在线自拍视频| 国产亚洲av高清不卡| av视频免费观看在线观看| 亚洲九九香蕉| 老司机午夜十八禁免费视频| 亚洲 欧美一区二区三区| 久久香蕉精品热| av在线播放免费不卡| 51午夜福利影视在线观看| 精品一区二区三区四区五区乱码| 国产精品电影一区二区三区| 黄色女人牲交| 亚洲人成电影观看| 免费观看精品视频网站| 天天躁夜夜躁狠狠躁躁| 嫩草影院精品99| 可以免费在线观看a视频的电影网站| 色婷婷久久久亚洲欧美| 午夜a级毛片| 十八禁人妻一区二区| 十八禁人妻一区二区| 无人区码免费观看不卡| 日韩大尺度精品在线看网址 | 麻豆av在线久日| 久久伊人香网站| 亚洲色图av天堂| 男人舔女人下体高潮全视频| 久久人妻熟女aⅴ| 夜夜夜夜夜久久久久| 亚洲av片天天在线观看| 欧美+亚洲+日韩+国产| 久久香蕉国产精品| 久久香蕉激情| 精品久久久久久久久久免费视频| 女同久久另类99精品国产91| 久久亚洲精品不卡| 国产高清有码在线观看视频 | 麻豆久久精品国产亚洲av| 亚洲男人天堂网一区| 亚洲人成电影观看| 久久午夜综合久久蜜桃| 亚洲五月色婷婷综合| 一进一出好大好爽视频| 日韩高清综合在线| 国产精品一区二区在线不卡| 激情视频va一区二区三区| 99热只有精品国产| 给我免费播放毛片高清在线观看| 两个人看的免费小视频| 一区二区三区激情视频| 在线永久观看黄色视频| 电影成人av| 亚洲第一电影网av| 黑人巨大精品欧美一区二区mp4| 午夜免费观看网址| 嫁个100分男人电影在线观看| 成人18禁高潮啪啪吃奶动态图| 一本综合久久免费| 色在线成人网| 亚洲欧美一区二区三区黑人| 免费久久久久久久精品成人欧美视频| 9热在线视频观看99| 男女下面进入的视频免费午夜 | 91精品三级在线观看| 国产精华一区二区三区| 九色国产91popny在线| 激情视频va一区二区三区| 十八禁网站免费在线| 亚洲一卡2卡3卡4卡5卡精品中文| 亚洲精品av麻豆狂野| 好男人电影高清在线观看| 亚洲av电影在线进入| 最新在线观看一区二区三区| 精品卡一卡二卡四卡免费| 久久欧美精品欧美久久欧美| 成在线人永久免费视频| 精品日产1卡2卡| 欧美日韩精品网址| 他把我摸到了高潮在线观看| 男人的好看免费观看在线视频 | 国产精品自产拍在线观看55亚洲| av片东京热男人的天堂| 超碰成人久久| avwww免费| 中国美女看黄片| 九色国产91popny在线| 每晚都被弄得嗷嗷叫到高潮| 久久久久久国产a免费观看| 国产成人av教育| 国产伦一二天堂av在线观看| 97人妻精品一区二区三区麻豆 | 欧美黑人欧美精品刺激| 久9热在线精品视频| 在线国产一区二区在线| 国产野战对白在线观看| av网站免费在线观看视频| 国产精品永久免费网站| 999精品在线视频| 国产精品九九99| 欧美色欧美亚洲另类二区 | 性色av乱码一区二区三区2| 色综合欧美亚洲国产小说| 少妇 在线观看| 在线天堂中文资源库| 免费不卡黄色视频| 日韩国内少妇激情av| 久久婷婷人人爽人人干人人爱 | 国产精品1区2区在线观看.| 免费在线观看完整版高清| 香蕉国产在线看| 国产精品野战在线观看| 午夜影院日韩av| 电影成人av| 久久人妻av系列| 欧美亚洲日本最大视频资源| 久久久久久久午夜电影| 在线av久久热| av免费在线观看网站| 人人妻人人爽人人添夜夜欢视频| 在线观看免费午夜福利视频| 咕卡用的链子| 亚洲片人在线观看| 国产成人影院久久av| 日日夜夜操网爽| 亚洲少妇的诱惑av| 久久久国产精品麻豆| 少妇的丰满在线观看| 一二三四在线观看免费中文在| 99精品欧美一区二区三区四区| 国产国语露脸激情在线看| av电影中文网址| av视频免费观看在线观看| 久9热在线精品视频| 国产精品久久久人人做人人爽| 日韩高清综合在线| 久久国产亚洲av麻豆专区| 在线视频色国产色| 中国美女看黄片| 国产亚洲精品av在线| 美女午夜性视频免费| 大香蕉久久成人网| 色综合婷婷激情| 一a级毛片在线观看| 两性夫妻黄色片| 99久久99久久久精品蜜桃| 男人舔女人下体高潮全视频| 久久九九热精品免费| 欧美乱码精品一区二区三区| 两个人免费观看高清视频| 在线观看日韩欧美| www日本在线高清视频| 99热只有精品国产| 非洲黑人性xxxx精品又粗又长| 免费在线观看视频国产中文字幕亚洲| 日韩欧美一区二区三区在线观看| av福利片在线| 欧美精品啪啪一区二区三区| 99热只有精品国产| 日本vs欧美在线观看视频| 午夜激情av网站| 亚洲熟妇熟女久久| 久久久久久亚洲精品国产蜜桃av| 国产精品免费视频内射| 亚洲中文av在线| 国产精品久久电影中文字幕| 久久久久久人人人人人| 亚洲欧美一区二区三区黑人| 91老司机精品| 涩涩av久久男人的天堂| 母亲3免费完整高清在线观看| 人妻丰满熟妇av一区二区三区| 国产亚洲精品第一综合不卡| 香蕉丝袜av| 制服人妻中文乱码| 国产亚洲精品第一综合不卡| 久久精品成人免费网站| 国产精品野战在线观看| 国产xxxxx性猛交| 午夜福利视频1000在线观看 | 国产精品日韩av在线免费观看 | 99re在线观看精品视频| 精品欧美国产一区二区三| 精品久久久精品久久久| 亚洲成人国产一区在线观看| 日本vs欧美在线观看视频| 精品不卡国产一区二区三区| 国产亚洲欧美在线一区二区| 国产成人啪精品午夜网站| ponron亚洲| 色精品久久人妻99蜜桃| 国产成人精品久久二区二区免费| 亚洲第一青青草原| 免费不卡黄色视频| 国产视频一区二区在线看| 91成年电影在线观看| 亚洲色图 男人天堂 中文字幕| 欧美乱码精品一区二区三区| 国产一卡二卡三卡精品| 亚洲欧美激情综合另类| 亚洲欧美日韩另类电影网站| 国产一区二区三区在线臀色熟女| 亚洲精品国产色婷婷电影| 日韩欧美国产一区二区入口| 一级,二级,三级黄色视频| 精品卡一卡二卡四卡免费| 国产免费av片在线观看野外av| 女警被强在线播放| 九色亚洲精品在线播放| 一个人免费在线观看的高清视频| svipshipincom国产片| 此物有八面人人有两片| 国产精品久久视频播放| 亚洲国产日韩欧美精品在线观看 | 侵犯人妻中文字幕一二三四区| 久久久久久大精品| 中文字幕最新亚洲高清| 久久人人精品亚洲av| 午夜精品在线福利| 热re99久久国产66热| 他把我摸到了高潮在线观看| 欧美色欧美亚洲另类二区 | 高清毛片免费观看视频网站| av电影中文网址| 久久精品影院6| 亚洲精品国产一区二区精华液| 此物有八面人人有两片| 亚洲五月婷婷丁香| 又黄又爽又免费观看的视频| 国产午夜精品久久久久久| 高清在线国产一区| 午夜影院日韩av| 久久香蕉激情| 精品不卡国产一区二区三区| 黄频高清免费视频| 丁香六月欧美| 国产一卡二卡三卡精品| 亚洲成国产人片在线观看| 午夜视频精品福利| 久久精品91无色码中文字幕| 成人永久免费在线观看视频| АⅤ资源中文在线天堂| 亚洲avbb在线观看| 亚洲 国产 在线| 嫁个100分男人电影在线观看| 欧美国产精品va在线观看不卡| 国产一区二区三区综合在线观看| 欧洲精品卡2卡3卡4卡5卡区| 女人高潮潮喷娇喘18禁视频| 亚洲色图 男人天堂 中文字幕| 亚洲色图av天堂| 99国产综合亚洲精品| 免费观看精品视频网站| av视频免费观看在线观看| 成人国语在线视频| 亚洲成人久久性| 免费搜索国产男女视频| 国产熟女xx| 欧美日韩中文字幕国产精品一区二区三区 | 亚洲免费av在线视频| 日本免费一区二区三区高清不卡 | 亚洲精品一卡2卡三卡4卡5卡| 午夜亚洲福利在线播放| 一级毛片高清免费大全| 亚洲久久久国产精品| 亚洲国产精品久久男人天堂| 色在线成人网| 国产麻豆成人av免费视频| 一本综合久久免费| 99国产精品免费福利视频| svipshipincom国产片| 国产精品久久久av美女十八| 亚洲一卡2卡3卡4卡5卡精品中文| 精品不卡国产一区二区三区| 亚洲av第一区精品v没综合| 淫妇啪啪啪对白视频| 国产主播在线观看一区二区| 国产精品亚洲av一区麻豆| 韩国精品一区二区三区| 欧美日韩精品网址| av在线天堂中文字幕| 亚洲精品av麻豆狂野| 99热只有精品国产| 黄色丝袜av网址大全| 一a级毛片在线观看| 欧美黄色淫秽网站| 韩国精品一区二区三区| 午夜精品久久久久久毛片777| 国产精品亚洲一级av第二区| 色播亚洲综合网| 一本大道久久a久久精品| 国产一区二区三区在线臀色熟女| 丁香六月欧美| www.999成人在线观看| 淫妇啪啪啪对白视频| 亚洲视频免费观看视频| 法律面前人人平等表现在哪些方面| 国产精品久久久av美女十八| 两人在一起打扑克的视频| 嫩草影视91久久| 日韩有码中文字幕| 亚洲一区二区三区色噜噜| 午夜免费激情av| 侵犯人妻中文字幕一二三四区| 日本 欧美在线| 黑人巨大精品欧美一区二区mp4| 18美女黄网站色大片免费观看| 97人妻天天添夜夜摸| 免费人成视频x8x8入口观看| 一边摸一边抽搐一进一出视频| 久久亚洲真实| 又黄又爽又免费观看的视频| 亚洲七黄色美女视频| 黑人操中国人逼视频| 国产av精品麻豆| 欧美乱色亚洲激情| 满18在线观看网站| 少妇熟女aⅴ在线视频| 国产成人精品久久二区二区91| 不卡av一区二区三区| 狠狠狠狠99中文字幕| 在线十欧美十亚洲十日本专区| 欧美日韩乱码在线| 亚洲一区二区三区不卡视频| 天天添夜夜摸| 欧美乱码精品一区二区三区| 亚洲狠狠婷婷综合久久图片| 热re99久久国产66热| videosex国产| 波多野结衣巨乳人妻| 91成年电影在线观看| 亚洲午夜理论影院| 俄罗斯特黄特色一大片| 韩国av一区二区三区四区| 成在线人永久免费视频| 成人永久免费在线观看视频| а√天堂www在线а√下载| 色婷婷久久久亚洲欧美| 国产成人精品久久二区二区91| 精品福利观看| 这个男人来自地球电影免费观看| 亚洲精品在线美女| 99在线视频只有这里精品首页| 日韩精品青青久久久久久| 日韩一卡2卡3卡4卡2021年| av天堂在线播放| 97超级碰碰碰精品色视频在线观看| 亚洲精品一区av在线观看| 免费不卡黄色视频| 精品久久久久久,| 精品久久蜜臀av无| 亚洲第一av免费看| 国产亚洲欧美精品永久| 国产又色又爽无遮挡免费看| 法律面前人人平等表现在哪些方面| 久久亚洲精品不卡| www.熟女人妻精品国产| 日韩欧美一区二区三区在线观看| 伦理电影免费视频| 天堂动漫精品| 黄色毛片三级朝国网站| 久久久水蜜桃国产精品网| 日日夜夜操网爽| 久久久久久国产a免费观看| 久久 成人 亚洲| 精品久久久久久久毛片微露脸| netflix在线观看网站| 久久人妻熟女aⅴ| 老熟妇乱子伦视频在线观看| 久久亚洲真实| 国产亚洲av高清不卡| 成年人黄色毛片网站| 99久久久亚洲精品蜜臀av| 国产麻豆成人av免费视频| 亚洲av成人不卡在线观看播放网| aaaaa片日本免费| 欧美av亚洲av综合av国产av| 老司机午夜福利在线观看视频| 精品国产一区二区三区四区第35| 一卡2卡三卡四卡精品乱码亚洲| 久久精品aⅴ一区二区三区四区| 黄色丝袜av网址大全| 国产精品,欧美在线| 淫妇啪啪啪对白视频| 琪琪午夜伦伦电影理论片6080| 久久精品国产综合久久久| 日韩欧美免费精品| 岛国在线观看网站| 1024视频免费在线观看| 妹子高潮喷水视频| 日韩有码中文字幕| 免费看a级黄色片| 欧美成人免费av一区二区三区| 久久婷婷人人爽人人干人人爱 | av在线播放免费不卡| 久久影院123| 久久精品影院6| 色播在线永久视频| 黄频高清免费视频| 国产精品一区二区精品视频观看| 亚洲五月婷婷丁香| 午夜视频精品福利| 日本撒尿小便嘘嘘汇集6| 啦啦啦免费观看视频1| 国产高清videossex| 91精品三级在线观看| 色综合婷婷激情| 狠狠狠狠99中文字幕| 一级黄色大片毛片| 亚洲色图 男人天堂 中文字幕| 大型黄色视频在线免费观看| 两人在一起打扑克的视频| 中文字幕人成人乱码亚洲影| 日韩欧美国产在线观看| 欧美激情极品国产一区二区三区| 亚洲av成人一区二区三| 亚洲七黄色美女视频| 欧美绝顶高潮抽搐喷水| 久久精品91无色码中文字幕| 国产成人欧美| 欧美色欧美亚洲另类二区 | 欧美成人免费av一区二区三区| 他把我摸到了高潮在线观看| 免费在线观看日本一区| 亚洲性夜色夜夜综合|