• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    用于方面級情感分析的圖指導(dǎo)的差異化注意力網(wǎng)絡(luò)

    2023-10-24 14:16:22張文軒殷雁君
    中文信息學(xué)報 2023年7期
    關(guān)鍵詞:機(jī)制情感模型

    張文軒,殷雁君

    (內(nèi)蒙古師范大學(xué) 計算機(jī)科學(xué)技術(shù)學(xué)院,內(nèi)蒙古 呼和浩特 010022)

    0 引言

    隨著社交網(wǎng)絡(luò)和電子商務(wù)的發(fā)展,情感分析已經(jīng)成為自然語言處理(Natural Language Processing, NLP)的一個熱門研究課題[1]。方面級情感分析(Aspect-Level Sentiment Analysis, ALSA)是一項面向?qū)嶓w的細(xì)粒度情感分析任務(wù),旨在確定句子中方面項的情感極性,即積極、消極或中性。以語句“Great food but the service was dreadful !”為例,其對于給定的兩個方面項“food”和“service”的情感極性分別為積極和消極。ALSA可以準(zhǔn)確地識別用戶對某個具體方面的態(tài)度,而不是簡單地為一個句子指定情感極性,因而在市場調(diào)研、輿情監(jiān)測等領(lǐng)域具有寶貴的應(yīng)用價值。

    為幫助神經(jīng)網(wǎng)絡(luò)模型聚焦于方面項,過去的研究通常采用注意力機(jī)制(Attention Mechanism)[2]對句子中詞語間的語義關(guān)聯(lián)進(jìn)行建模。但由于文本的復(fù)雜性,單純的注意力機(jī)制往往不能準(zhǔn)確捕獲方面和上下文詞之間的依賴關(guān)系。同時,基于注意力機(jī)制生成的權(quán)重通常分布較為密集,因此不可避免會引入噪聲信息[3-4]。

    近年來,圖卷積網(wǎng)絡(luò)(Graph Convolution Network, GCN)[5]在依存樹上的應(yīng)用在ALSA領(lǐng)域引起了廣泛關(guān)注。這類模型根據(jù)句子的句法結(jié)構(gòu)建立依存樹,并利用GCN操作在基于依存樹生成的圖結(jié)構(gòu)上進(jìn)行表示學(xué)習(xí),使得方面項與距離較遠(yuǎn)的意見項能夠更加高效、準(zhǔn)確地進(jìn)行信息交互。然而,此類方法利用依存樹構(gòu)建的鄰接矩陣中僅采用“1”或“0”兩種情況,表示兩個節(jié)點(diǎn)間是否存在通路,這種簡單、固定的邊權(quán)重?zé)o法為方面項與相應(yīng)的意見項提供相較于其他詞語更多的關(guān)注度。以句子“I think the meatball parm is good”為例,其依存樹及鄰接矩陣如圖1所示,方面項“meatball parm”和意見項“good”具有和“the”等無關(guān)詞相同的邊權(quán)重,這顯然會為ALSA任務(wù)帶來干擾。

    為克服注意力機(jī)制和GCN各自的缺陷,最近的研究嘗試在依存樹生成的圖結(jié)構(gòu)上應(yīng)用注意力機(jī)制[6-8]或建立基于圖結(jié)構(gòu)和注意力機(jī)制的雙通道模型[9-11],幫助模型有針對性地提取對ALSA任務(wù)有益的信息。然而,以上方法存在模型性能高度依賴依存樹解析質(zhì)量的缺陷,當(dāng)句子結(jié)構(gòu)較為復(fù)雜或?qū)φZ法不敏感導(dǎo)致依存樹解析質(zhì)量較差時,模型將難以維持原有性能[12]。

    為解決以上問題,本文提出一種圖指導(dǎo)的差異化注意力網(wǎng)絡(luò)(Graph-Guided Differentiated Attention Network, GGDAN)用于ALSA任務(wù)。針對當(dāng)前結(jié)合注意力機(jī)制與圖結(jié)構(gòu)的模型高度依賴依存樹解析質(zhì)量的問題,提出一種圖指導(dǎo)機(jī)制,利用依存樹生成的圖結(jié)構(gòu)指導(dǎo)注意力權(quán)重矩陣的生成,在幫助模型更為準(zhǔn)確、高效地捕捉詞語間依賴關(guān)系的同時,降低了模型對依存樹的依賴程度。針對注意力權(quán)重分布密集的問題,提出一種注意力差異化,幫助模型學(xué)習(xí)更加離散化的注意力權(quán)重,能夠在一定程度上減少噪聲引入。在3個公開數(shù)據(jù)集上的多方面實驗證明了本文模型的先進(jìn)性和可解釋性。

    1 相關(guān)研究

    與傳統(tǒng)的句子級或文檔級的情感分析任務(wù)不同,方面級情感分析是一種面向?qū)嶓w的細(xì)粒度情感分析任務(wù)。早期的ALSA方法主要基于情感詞典和機(jī)器學(xué)習(xí)[13],這類方法主要依靠手工提取特征,雖然在特定領(lǐng)域有良好表現(xiàn),但需要耗費(fèi)大量人工成本,并且無法對方面項及其上下文之間的依賴關(guān)系進(jìn)行建模。

    神經(jīng)網(wǎng)絡(luò)模型不依靠人工定義特征,能夠進(jìn)行端到端的表示學(xué)習(xí)。近年來,由于注意力機(jī)制在上下文語義建模中的良好表現(xiàn),大量工作嘗試將基于注意力的神經(jīng)網(wǎng)絡(luò)模型應(yīng)用于ALSA任務(wù),其主要目的在于利用注意力機(jī)制捕捉和建立方面項及其意見項之間的聯(lián)系。Wang等[14]提出的ATAE-LSTM將方面詞向量和上下文詞向量組合作為LSTM的輸入,利用注意力機(jī)制為上下文賦予不同的權(quán)重以提取有利于ALSA任務(wù)的語義特征。IAN[15]、MGAN[16]和AOA[17]則分別對方面項和上下文進(jìn)行建模,并利用二者間的交互注意力機(jī)制為上下文分配權(quán)重。盡管上述方法已經(jīng)在ALSA任務(wù)中取得了良好的性能,但由于缺乏對語法知識的利用,當(dāng)句子成分較為復(fù)雜或句中存在多個方面時,將難以對方面項的情感極性做出準(zhǔn)確判斷。同時,注意力機(jī)制存在權(quán)重分布過于密集的現(xiàn)象,導(dǎo)致模型不可避免地受到不相關(guān)詞語的干擾。

    考慮到語法知識在ALSA任務(wù)中的重要性,基于依存樹建立的GCN模型逐漸成為ALSA領(lǐng)域的研究熱點(diǎn)。依存句法分析通過對句子中詞與詞之間的語法關(guān)系進(jìn)行抽取和篩選以構(gòu)建依存樹,能夠有效縮短方面項和觀點(diǎn)詞之間的距離[18]。以句子“The falafel was over cooked and dried but the chicken was fine”為例,其依存樹如圖2所示,其中方面項“chicken”和意見項“fine”之間存在直接相連路徑,表示二者具有語法關(guān)聯(lián),而方面項“falafel”和“fine”間則不存在直接相連的路徑。因此,依存樹在一定程度上能夠規(guī)避無關(guān)上下文信息對ALSA任務(wù)的影響。文獻(xiàn)[19]根據(jù)依存樹建立無向圖,利用GCN學(xué)習(xí)包含語法知識的上下文表示,在ALSA任務(wù)中達(dá)到了當(dāng)時最先進(jìn)的水準(zhǔn)。文獻(xiàn)[20]則分別利用依存樹和詞共現(xiàn)關(guān)系構(gòu)建基于語法圖和詞匯圖的雙通道GCN模型,學(xué)習(xí)同時包含語法和語義關(guān)系的特征表示。然而,GCN模型邊權(quán)重固定的特點(diǎn)導(dǎo)致其信息交互過程缺乏區(qū)分性,為表示學(xué)習(xí)帶來困難。

    最近的研究者采用將依存樹與注意力機(jī)制相結(jié)合的方法解決這一問題,研究思路主要包括:

    (1) 直接在圖結(jié)構(gòu)上應(yīng)用注意力機(jī)制以學(xué)習(xí)具有動態(tài)權(quán)重的圖。例如,Huang等[6]提出的TD-GAT基于依存樹構(gòu)建圖注意力網(wǎng)絡(luò),并采用LSTM單元結(jié)構(gòu)對節(jié)點(diǎn)進(jìn)行更新。Wang等[7]引入依賴關(guān)系類型信息,并以目標(biāo)方面為根節(jié)點(diǎn)對依存樹進(jìn)行修剪,構(gòu)建關(guān)系圖注意力網(wǎng)絡(luò)(Relational Graph Attention Network, R-GAT)。

    (2) 基于圖結(jié)構(gòu)和注意力機(jī)制建立雙通道模型以進(jìn)行不同層面的表示學(xué)習(xí)。例如,Xu等[9]提出的AEGCN采用多頭自注意力和GCN雙通道的方式分別提取特征,并通過通道間的交互注意力機(jī)制使得注意力機(jī)制和GCN相互增強(qiáng)。Tang等[11]提出的依存樹增強(qiáng)的雙Transformer模型(Dependency Graph Enhanced Dual-Transformer, DGEDT)則分別基于多頭自注意力和GCN建立雙通道Transformer模型,并引入一個交互雙仿射模塊以方便通道間的信息交流。此外,Hou等[21]提出基于選擇性注意力的圖卷積網(wǎng)絡(luò)(Selective Attention based Graph Convolutional Networks, SA-GCN),通過對注意力機(jī)制生成的權(quán)重值應(yīng)用Top-k操作,丟棄權(quán)重較低的詞語,以去除不相關(guān)詞語對ALSA任務(wù)的影響。然而,這些方法的模型性能高度取決于依存樹的解析質(zhì)量的缺陷,魯棒性較差。

    基于以上思考,本文提出圖指導(dǎo)的差異化注意力網(wǎng)絡(luò)GGDAN。模型以注意力機(jī)制為基礎(chǔ),通過圖指導(dǎo)機(jī)制利用依存樹包含的語法知識對其進(jìn)行增強(qiáng),以有效結(jié)合二者優(yōu)勢。針對注意力權(quán)重分布過于密集的問題,模型引入注意力差異化操作,幫助模型學(xué)習(xí)更具差異性的注意力權(quán)重,減少噪聲信息引入。在3個公開數(shù)據(jù)集上進(jìn)行廣泛實驗,顯示本文提出的GGDAN網(wǎng)絡(luò)實現(xiàn)了較為先進(jìn)和穩(wěn)定的性能。

    2 圖指導(dǎo)的差異化注意力網(wǎng)絡(luò)

    本節(jié)將詳細(xì)介紹本文提出的用于方面級情感分析的圖指導(dǎo)的差異化注意力網(wǎng)絡(luò)GGDAN,其流程如圖3所示。

    圖3 GGDAN整體流程

    模型由Bi-LSTM編碼層、自注意力模塊、圖卷積層、特征交互模塊和分類層等結(jié)構(gòu)組成。模型以句子方面對(s,a)為輸入,其包含一個長度為n的句子s={w1,w2,…,wτ+1,…,wτ+m,…,wn},以及從該句第τ+1個詞開始的長度為m的方面a={wτ+1,wτ+2,…,wτ+m}。利用Bi-LSTM對句子s經(jīng)嵌入得到的詞向量序列表示進(jìn)行編碼,并將編碼后的隱藏向量與預(yù)處理步驟得到的位置向量和詞性(Part of speech, POS)向量進(jìn)行拼接,輸入自注意力模塊中計算注意力權(quán)重矩陣,同時利用依存樹生成的圖結(jié)構(gòu)對注意力權(quán)重矩陣進(jìn)行指導(dǎo)。隨后將注意力權(quán)重矩陣作為具有邊權(quán)重的圖結(jié)構(gòu),對Bi-LSTM層得到的隱藏向量進(jìn)行圖卷積操作。利用特征交互模塊對圖卷積得到的特征進(jìn)行聚合,生成用于預(yù)測的情感向量。最后將情感向量送入分類器得到情感預(yù)測結(jié)果。

    2.1 預(yù)處理

    預(yù)處理旨在對輸入句子s進(jìn)行依存分析(Dependency Parsing),并根據(jù)依存樹建立鄰接矩陣G∈Rn×n。具體來說,對于圖G中的任意元素gij,若詞wi和詞wj在依存樹中存在語法關(guān)系,則令gij=gji=1,否則令gij=gji=0。同時為G中所有節(jié)點(diǎn)添加自連接,即gii=1。此外, 參考Sun等[22]

    的研究,根據(jù)句中詞語同方面項間的相對位置關(guān)系及依存解析結(jié)果為每個詞語分配位置標(biāo)簽和詞性標(biāo)簽,并基于位置標(biāo)簽和詞性標(biāo)簽對句子進(jìn)行嵌入表示,生成可學(xué)習(xí)的位置向量Xpost∈Rn×dpt和詞性向量XPOS∈Rn×dps,其中,dpt和dps分別表示位置向量和詞性向量的維度。

    2.2 Bi-LSTM編碼層

    對于句子方面對(s,a),利用嵌入矩陣E∈R|V|×de獲取句子s的詞向量表示X={x1,x2,…,xn},其中|V|是詞表大小,de是詞向量維度。將X送入Bi-LSTM進(jìn)行編碼以獲得包含上下文信息的隱藏狀態(tài)向量H={h1,h2,…,hn},其中,hi∈R2dhid是Bi-LSTM在時間步i處的隱藏向量,dhid是隱藏狀態(tài)向量維度。Bi-LSTM編碼層的形式化定義如式(1)~式(3)所示。

    其中,LSTMforward和LSTMbackward分別表示前向和后向LSTM編碼操作,[;]表示拼接操作。

    2.3 自注意力模塊

    自注意力模塊以包含語法知識的鄰接矩陣G為輔助監(jiān)督,基于自注意力機(jī)制生成差異化注意力矩陣A∈Rn×n作為加權(quán)圖。具體來說,首先將經(jīng)過BiLSTM編碼得到的隱藏向量H∈Rn×dhid與位置向量Xpost、詞性向量XPOS進(jìn)行拼接作為輸入特征H′∈Rn×(dhid+dpt+dps),形式上如式(4)所示。

    H′=[H;Xpost;XPOS]

    (4)

    輸入特征H′經(jīng)過線性映射分別生成查詢向量Q∈Rn×dk和鍵向量K∈Rn×dk,并用于計算注意力權(quán)重矩陣A,其中,dk是查詢向量和鍵向量的維度。具體定義如式(5)~式(8)所示。

    其中,WQ∈R2dhid×dk和WK∈R2dhid×dk是可學(xué)習(xí)的權(quán)重矩陣,bQ∈Rdk和bK∈Rdk是可學(xué)習(xí)的偏置,An∈Rn×n表示未經(jīng)歸一化注意力權(quán)重矩陣。

    2.3.1 圖指導(dǎo)機(jī)制

    為充分發(fā)揮注意力機(jī)制與語法知識各自的優(yōu)勢并減輕模型對依存樹的依賴程度,本文提出了圖指導(dǎo)機(jī)制,幫助模型自發(fā)地學(xué)習(xí)接近于圖結(jié)構(gòu)的注意力權(quán)重,而不是直接基于圖結(jié)構(gòu)進(jìn)行表示學(xué)習(xí)。

    (9)

    其中,inf表示無窮大。

    利用maskG(·)對An進(jìn)行過濾得到基于圖G的注意力權(quán)重矩陣AG∈Rn×n,如式(10)所示。

    AG=Softmax(maskG(An))

    (10)

    為防止單純的自注意力機(jī)制引入過多語法上無關(guān)的噪聲信息,本文設(shè)計了對比損失Lcon,利用AG對A進(jìn)行監(jiān)督,如式(11)所示。

    (11)

    直觀上,對比損失Lcon通過計算A和AG間的均方誤差,使得A和AG相互接近,以實現(xiàn)利用圖G包含的語法知識指導(dǎo)注意力權(quán)重的目的,其本質(zhì)在于鼓勵句中詞語更多關(guān)注與自身在語法上直接關(guān)聯(lián)的詞語,反之則給予懲罰。

    2.3.2 注意力差異化操作

    如前文所述,過于密集的注意力權(quán)重分布可能引入大量無關(guān)的上下文信息,為表示學(xué)習(xí)帶來負(fù)面影響。文獻(xiàn)[3-4]表明,更稀疏的注意力權(quán)重能使得每個節(jié)點(diǎn)關(guān)注的信息更具針對性,以減少不相干節(jié)點(diǎn)的干擾。因此,為使得A中注意力權(quán)重值趨于稀疏,即權(quán)重分布趨于離散,本文提出了注意力差異化操作。

    (12)

    差異化損失Ldiff的本質(zhì)在于最大化注意力權(quán)重矩陣的方差,促進(jìn)A中權(quán)重分布的離散程度增大,這使得每個詞語更容易為與其高度相關(guān)的上下文提供較高的權(quán)重,從而減少無關(guān)節(jié)點(diǎn)的干擾。

    2.4 圖卷積層

    與以往基于依存樹的GCN模型[19-20, 22]不同,本文模型的圖卷積層將自注意力模塊生成的注意力權(quán)重矩陣A作為圖結(jié)構(gòu)并用于節(jié)點(diǎn)的表示學(xué)習(xí),其優(yōu)勢在于: 一是注意力權(quán)重矩陣作為全連通圖能夠有效縮短依存樹結(jié)構(gòu)中多跳相關(guān)節(jié)點(diǎn)間的路徑距離,二是可以減輕模型對依存樹的依賴程度。

    參考Kipf和Welling等[5]的研究,本文GCN層的形式化定義如式(13)所示。

    Hl=σ(AHl-1Wl+bl)

    (13)

    其中,Hl∈Rn×dg表示第l個GCN層的輸出,且H0=H,Wl和bl∈Rdg分別表示第l個GCN層中可學(xué)習(xí)的權(quán)重和偏置,且除W1∈R2dhid×dg外,對任意l>1都有Wl∈Rdg×dg,dg為圖卷積層的輸出維度,σ表示ReLU激活函數(shù)。通過堆疊L個GCN層使得節(jié)點(diǎn)間的信息充分交互。

    2.5 特征交互模塊

    特征交互模塊利用低層特征和高層特征之間的交互注意力機(jī)制對方面項和其上下文間的依賴關(guān)系進(jìn)行建模,生成用于情感分類的方面和上下文表示。

    首先,通過平均池化操作對隱藏狀態(tài)向量H中的方面向量進(jìn)行聚合,并通過一個線性層將其映射到與圖卷積層的輸出HL∈Rn×dg相同維度的向量空間,以捕獲低層方面特征h′a∈Rdg,如式(14)、式(15)所示。

    其中,Wa∈R2dhid×dg為可學(xué)習(xí)的權(quán)重。

    其中,h′Ta表示h′a的轉(zhuǎn)置。

    考慮句子“It takes a long time to boot up”和“The battery life is long”,盡管兩個句子具有相同的意見詞“l(fā)ong”,但方面項“boot up”和“battery life”的情感極性完全相反。這表明對于不同的方面項,情感極性的判斷準(zhǔn)則也不盡相同,因此在判斷方面項情感極性的過程中有必要將方面自身信息納入考慮[24]。基于以上考慮,本文通過平均池化操作對HL中的方面向量進(jìn)行聚合,生成高層方面特征ra∈Rdg,如式(19)所示。

    (19)

    最后,將高層上下文特征rc和高層方面特征ra進(jìn)行拼接以獲得用于分類的情感向量r∈R2dg,如式(20)所示。

    r=[rc;ra]

    (20)

    2.6 分類器

    將特征交互模塊得到的情感向量r送入一個線性層,并利用Softmax函數(shù)生成關(guān)于方面項情感極性的概率分布,如式(21)所示。

    (21)

    其中,Wp∈R2dg×c和bp∈Rc分別表示可學(xué)習(xí)的權(quán)重和偏置,c為情感極性類別數(shù)。

    2.7 模型訓(xùn)練

    模型利用交叉熵?fù)p失對情感分類任務(wù)進(jìn)行監(jiān)督,如式(22)所示。

    (22)

    本文模型的最終損失如式(23)所示。

    L=Lsc+λLcon+μLdiff+ε‖θ‖2

    (23)

    其中,λ和μ是調(diào)節(jié)損失平衡性的超參數(shù),ε是正則化系數(shù),θ是本文模型所有參數(shù)的集合。

    3 實驗

    本文在3個公開數(shù)據(jù)集上對提出的GGDAN模型進(jìn)行了一系列實驗,以驗證其在性能上的先進(jìn)性和可解釋性。

    3.1 數(shù)據(jù)集

    本文在3個公開數(shù)據(jù)集上進(jìn)行實驗,包括SemEval-2014任務(wù)[25]的餐廳評論數(shù)據(jù)集Rest14和筆記本電腦評論數(shù)據(jù)集Lap14,以及由Dong等[26]整理的Twitter推文數(shù)據(jù)集。數(shù)據(jù)集中的每條樣本均由真實的評論語句、評論中出現(xiàn)的方面詞和其對應(yīng)的情感類別組成,并且標(biāo)簽只包含積極、消極和中性。數(shù)據(jù)集的統(tǒng)計數(shù)據(jù)如表1所示。

    表1 各數(shù)據(jù)集統(tǒng)計數(shù)據(jù)

    3.2 實驗設(shè)置

    本文使用Stanford解析器(1)https://stanfordnlp.github.io/ CoreNLP/獲取所有文本數(shù)據(jù)的依存句法關(guān)系。使用Pennington等[27]提供的300維GloVe詞向量作為本文模型和全部對比模型的初始化詞嵌入,位置向量維度設(shè)置為30,詞性向量維度設(shè)置為30,BiLSTM輸出的隱藏狀態(tài)維度設(shè)置為50,查詢向量和鍵向量的維度設(shè)置為50,GCN層數(shù)設(shè)置為2且所有GCN層的輸出維度均設(shè)置為50。本文對BiLSTM編碼層的輸入應(yīng)用丟棄率為0.6的Dropout操作,對每個GCN層的輸入應(yīng)用丟棄率為0.5的Dropout操作,對自注意力模塊生成的注意力權(quán)重矩陣A應(yīng)用丟棄率為0.2的Dropout操作。設(shè)置對比損失系數(shù)λ=0.5,差異化損失系數(shù)μ=0.1,正則化系數(shù)ε=10-5。模型訓(xùn)練采用學(xué)習(xí)率為0.001的Adam優(yōu)化器,設(shè)置Batch大小為32,在每個數(shù)據(jù)集上進(jìn)行50輪訓(xùn)練。

    實驗結(jié)果取隨機(jī)初始化5次運(yùn)行的最好結(jié)果的平均值,并采用分類準(zhǔn)確率和Macro-F1值作為評價指標(biāo)。

    3.3 對比模型

    為了全面評估和分析本文提出的GGDAN模型在ALSA任務(wù)上的性能,本文選取了一系列基于不同方法類型的代表性模型與GGDAN進(jìn)行比較,包括:

    ATAE-LSTM[14]: 利用LSTM對句子進(jìn)行建模,基于上下文與方面項的相關(guān)性對上下文進(jìn)行加權(quán)聚合。

    MemNet[28]: 將上下文句子視為外部記憶,在上下文的詞向量表示上應(yīng)用多跳注意力機(jī)制,并將最后一跳的輸出作為方面的最終表示。

    IAN[15]: 使用兩個LSTM分別對方面和上下文進(jìn)行編碼,并利用交互注意力機(jī)制對方面和上下文間的關(guān)系進(jìn)行建模。

    TNet[29]: 將Bi-LSTM編碼后的句子特征表示經(jīng)過連續(xù)的面向方面的上下文編碼和注意力機(jī)制進(jìn)行特征融合與提取,并使用CNN提取最終的特征表示。

    ASGCN[19]: 使用Bi-LSTM獲取句子的特征表示,通過基于依存樹的GCN學(xué)習(xí)特定于方面的上下文表示,并利用注意力機(jī)制聚合上下文表示用于分類。

    CDT[22]: 使用Bi-LSTM獲取句子的特征表示,并通過基于依存樹的GCN學(xué)習(xí)包含情感極性的方面表示。

    BiGCN[20]: 基于依存樹和詞共現(xiàn)關(guān)系構(gòu)建句法圖和詞匯圖,歸納區(qū)分不同類型的語法依賴關(guān)系和詞共現(xiàn)關(guān)系,設(shè)計了雙層次交互式圖卷積網(wǎng)絡(luò)以充分學(xué)習(xí)節(jié)點(diǎn)表示。

    TD-GAT[6]: 提出基于依存樹的圖注意力網(wǎng)絡(luò),并采用LSTM單元逐層更新節(jié)點(diǎn)表示。

    AEGCN[9]: 以雙通道的形式分別利用多頭注意力和引入注意力機(jī)制的基于依賴樹的GCN對文本表示進(jìn)行編碼,并利用通道間的交互注意力進(jìn)一步增強(qiáng)表示。

    kumaGCN[10]: 利用HardKuma分布對句子的語義信息進(jìn)行采樣,歸納生成方面特定的潛在圖結(jié)構(gòu),并引入門控機(jī)制將潛在圖與依存樹相結(jié)合。

    DGEDT[11]: 提出了一種雙通道Transformer結(jié)構(gòu),分別基于多頭自注意力和依存樹上的GCN學(xué)習(xí)句子的平面表示和圖表示,并利用交互雙仿射變換進(jìn)行通道間信息交互。

    3.4 實驗結(jié)果

    本節(jié)在全部3個數(shù)據(jù)集上比較了GGDAN和對比模型的ALSA任務(wù)性能,其中各對比模型的實驗結(jié)果分別來自原文獻(xiàn)。實驗結(jié)果如表2所示,其中字體加粗的表示當(dāng)前指標(biāo)中的最優(yōu)結(jié)果,加下劃線的表示次優(yōu)結(jié)果。

    表2 實驗結(jié)果 (單位: %)

    如表2所示,ASGCN、CDT等基于依存樹的GCN模型在大多數(shù)數(shù)據(jù)集上的性能都明顯優(yōu)于ATAE-LSTM、MemNet等基于注意力機(jī)制的模型,說明相較于注意力機(jī)制,語法知識的引入能幫助模型更為準(zhǔn)確地提取與方面項相關(guān)的上下文信息。同時,除DGEDT外,TD-GAT、AEGCN等將注意力機(jī)制與語法知識相結(jié)合的模型并未表現(xiàn)出明顯優(yōu)于基于依存樹的GCN模型的性能,尤其是在大多數(shù)數(shù)據(jù)集上都沒能達(dá)到與CDT相近的水平,說明當(dāng)前研究中依然缺乏將注意力機(jī)制與語法知識有效結(jié)合的方法。

    從表2還可以看出,本文提出的GGDAN在3個數(shù)據(jù)集上都實現(xiàn)了較為優(yōu)秀的分類性能,證明了本文模型在ALSA任務(wù)中的有效性。GGDAN在Rest14數(shù)據(jù)集上的準(zhǔn)確率和F1值分別取得了次優(yōu)和最優(yōu)結(jié)果,在Lap14數(shù)據(jù)集上的準(zhǔn)確率和F1值均取得了最優(yōu)結(jié)果,在Twitter數(shù)據(jù)集上則取得了準(zhǔn)確率的最優(yōu)結(jié)果。

    同時可以觀察到,大多數(shù)結(jié)合語法知識的模型在Rest14、Lap14數(shù)據(jù)集上性能優(yōu)于基于注意力機(jī)制的模型,而在Twitter數(shù)據(jù)集上的性能則遜于基于注意力機(jī)制的TNet模型。這種現(xiàn)象的可能原因是Twitter數(shù)據(jù)集對語法知識不敏感,依存樹解析質(zhì)量相對較差,因此注意力機(jī)制對于文本間依賴關(guān)系建模的作用更大。本文提出的圖指導(dǎo)機(jī)制通過幫助GGDAN模型自發(fā)地學(xué)習(xí)接近于圖結(jié)構(gòu)的注意力權(quán)重,對依存樹的依賴較小,因此相比其他結(jié)合語法知識的模型,能夠在Twitter數(shù)據(jù)集上保持較為先進(jìn)的情感分類性能,與TNet模型的性能相仿。

    3.5 消融實驗

    為進(jìn)一步驗證GGDAN中各模塊的有效性,本文設(shè)計了7組對比模型,包括:

    (1)Ours-GCN: 移除GGDAN模型中的自注意力模塊,直接利用基于依存樹生成的圖G進(jìn)行圖卷積操作。

    (2)Ours-GAT: 去除自注意力模塊中的對比損失和差異化損失,將經(jīng)過圖結(jié)構(gòu)過濾的注意力權(quán)重矩陣AG作為自注意力模塊的輸出,并應(yīng)用于后續(xù)的GCN層。

    (3)Ours-w/o-con&diff: 去除自注意力模塊中的對比損失Lcon和差異化損失Ldiff,即不使用圖指導(dǎo)機(jī)制和注意力差異化操作。

    (4)Ours-w/o-con: 只去除對比損失Lcon,即不使用圖G對注意力權(quán)重矩陣A進(jìn)行指導(dǎo)。

    (5)Ours-w/o-diff: 只去除差異化損失Ldiff,即不對注意力權(quán)重矩陣A做離散化要求。

    (6)Ours-w/o-rc: 去除了特征交互模塊中對高層方面特征的聚合步驟,只使用高層上下文特征rc進(jìn)行分類。

    (7)Ours-w/o-ra: 去除了特征交互模塊中的交互注意力機(jī)制,只使用高層方面特征ra進(jìn)行分類。

    運(yùn)用以上對比模型在全部3個數(shù)據(jù)集上進(jìn)行消融實驗,實驗結(jié)果如表3所示。

    表3 消融實驗結(jié)果 (單位: %)

    由表3可知,相比使用圖指導(dǎo)機(jī)制的Ours-w/o-diff和完整的GGDAN模型,Ours-GCN、Ours-GAT、Ours-w/o-con&diff和Ours-w/o-con等不使用圖指導(dǎo)機(jī)制的對比模型在Rest14和Lap14數(shù)據(jù)集上均表現(xiàn)出不同程度的性能下降,證明本文提出的圖指導(dǎo)機(jī)制在ALSA任務(wù)中的有效性,即圖指導(dǎo)機(jī)制能夠有效地對方面項及其上下文間的依賴關(guān)系進(jìn)行捕獲與建模。Twitter數(shù)據(jù)集上的最佳準(zhǔn)確率由Ours-w/o-con和Ours-w/o-con&diff取得,這可能是由于Twitter數(shù)據(jù)集對語法不敏感,圖指導(dǎo)機(jī)制可能相比單純的注意力機(jī)制為表示學(xué)習(xí)帶來一定干擾。值得注意的是,完整的GGDAN模型在Twitter數(shù)據(jù)集上依然取得了準(zhǔn)確率和F1值的次優(yōu)結(jié)果,并明顯優(yōu)于Ours-GCN、Ours-GAT等嚴(yán)格依賴于依存樹的模型,表明本文提出的圖指導(dǎo)機(jī)制能夠通過減輕模型對依存樹依賴程度,幫助模型在語料對語法不敏感的情況下保持較為魯棒的性能。

    此外,觀察完全基于自注意力機(jī)制的Ours-w/o-con&diff,其表現(xiàn)依然明顯優(yōu)于具有圖結(jié)構(gòu)的Ours-GCN和Ours-GAT,甚至在Twitter上取得了最高準(zhǔn)確率。這說明相較于語法知識,自注意力機(jī)制為本文模型性能帶來的增益更大,尤其是在語料對語法不敏感的情況下。

    從表3可以看出,在全部3個數(shù)據(jù)集上,完整的GGDAN模型的表現(xiàn)均明顯優(yōu)于Ours-w/o-diff,Ours-w/o-con的表現(xiàn),也都略微優(yōu)于Ours-w/o-con&diff。以上現(xiàn)象表明,通過學(xué)習(xí)分布更為離散的注意力權(quán)重,本文提出的注意力差異化操作能夠有效減少無關(guān)信息對ALSA任務(wù)的影響。

    最后,對比Ours-w/o-rc、Ours-w/o-ra和GGDAN模型的性能可知,特征交互模塊包含的高低層特征間的交互注意力以及將方面和上下文信息相結(jié)合的方法對ALSA任務(wù)是有益的。

    總體上,完整的GGDAN模型實現(xiàn)了最佳的情感分類性能,證明了GGDAN中各模塊的有效性。值得注意的是,GGDAN模型相比Ours-GAT、Ours-w/o-con&diff、Ours-w/o-con和Ours-w/o-diff等對比模型并沒有參數(shù)上的增加,表明本文提出的圖指導(dǎo)機(jī)制和注意力差異化操作能夠在不引入額外參數(shù)的情況下提高模型的表示學(xué)習(xí)能力,具有一定的高效性。

    3.6 參數(shù)研究

    3.6.1 對比損失系數(shù)λ的影響

    為探究對比損失系數(shù)λ對模型性能的影響,固定差異化損失系數(shù)μ=0.1,并設(shè)置不同的λ取值作為對比模型進(jìn)行實驗,結(jié)果如表4所示,其中λ=0.0的情況等價于3.5節(jié)的Ours-w/o-con。

    表4 對比損失系數(shù)λ的影響 (單位: %)

    如表4所示,當(dāng)λ=0.0時,模型完全去除了圖指導(dǎo)機(jī)制,其性能在Rest14和Lap14數(shù)據(jù)集上都明顯弱于其他幾組對比模型,再次證明本文提出的圖指導(dǎo)機(jī)制的有效性。對于Rest14和Lap14數(shù)據(jù)集,當(dāng)λ=0.5時模型取得最佳性能,這表明本文的參數(shù)設(shè)置具有一定合理性。在Twitter數(shù)據(jù)集上,模型在λ=0.0時取得最佳性能,這可能是由于Twitter數(shù)據(jù)集對語法不敏感,依存樹解析質(zhì)量相對較差,單純的注意力機(jī)制更有利于捕捉文本間的依賴關(guān)系。

    3.6.2 差異化損失系數(shù)μ的影響

    為探究差異化損失系數(shù)μ對模型性能的影響,固定對比損失系數(shù)λ=0.5,并設(shè)置不同的μ值作為對比模型,結(jié)果如表5所示,其中μ=0.0的情況等價于3.5節(jié)的Ours-w/o-diff。

    如表5所示,當(dāng)μ=0.0時,模型在3個數(shù)據(jù)集上的分類性能均不同程度弱于μ取0.05或0.1時的性能,證明本文提出的注意力差異化操作的有效性。當(dāng)μ=0.1時,本文模型在3個數(shù)據(jù)集上均取得了最佳性能,說明本文的參數(shù)設(shè)置具有一定合理性。此外,當(dāng)μ>0.1時,隨著μ值的增大,模型性能迅速衰減。本文認(rèn)為這種現(xiàn)象的可能原因: 一是差異化損失過大導(dǎo)致模型難以專注于分類任務(wù),二是過于稀疏的注意力權(quán)重矩陣可能導(dǎo)致重要信息的丟失。

    4 總結(jié)

    本文提出了一種用于ALSA任務(wù)的圖指導(dǎo)的差異化注意力網(wǎng)絡(luò)GGDAN。模型通過圖指導(dǎo)機(jī)制將注意力機(jī)制和語法知識相結(jié)合,利用依存樹生成的圖結(jié)構(gòu)指導(dǎo)注意力權(quán)重矩陣的生成,在幫助模型更為準(zhǔn)確、高效地捕捉詞語間依賴關(guān)系的同時,減輕了模型對依存樹解析質(zhì)量的依賴程度。同時,提出了一種注意力差異化操作,通過幫助模型學(xué)習(xí)分布更加離散的注意力權(quán)重,在一定程度上減少了噪聲信息對任務(wù)的干擾。在3個公開數(shù)據(jù)集上的一系列實驗證明,本文模型在性能上的先進(jìn)性和模型成分的可解釋性。

    未來工作中,我們將從以下方向?qū)Ρ疚难芯窟M(jìn)行擴(kuò)展: 一是本文模型的自注意力模塊需要使用依存分析生成的詞性知識,對解析性能仍然具有較強(qiáng)的依賴性,應(yīng)當(dāng)繼續(xù)尋找更加準(zhǔn)確、高效地對語義關(guān)系和語法關(guān)系進(jìn)行建模的方法。二是探討本文模型在其他情感分析任務(wù)中的有效性,如方面三元組抽取[30]等。

    猜你喜歡
    機(jī)制情感模型
    一半模型
    如何在情感中自我成長,保持獨(dú)立
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
    失落的情感
    北極光(2019年12期)2020-01-18 06:22:10
    情感
    自制力是一種很好的篩選機(jī)制
    文苑(2018年21期)2018-11-09 01:23:06
    如何在情感中自我成長,保持獨(dú)立
    3D打印中的模型分割與打包
    破除舊機(jī)制要分步推進(jìn)
    国产 精品1| 男的添女的下面高潮视频| 免费播放大片免费观看视频在线观看| 国产精品精品国产色婷婷| 国产人妻一区二区三区在| 女的被弄到高潮叫床怎么办| 欧美人与善性xxx| 制服丝袜香蕉在线| 中文欧美无线码| 在线观看av片永久免费下载| 女人十人毛片免费观看3o分钟| 国产一区二区亚洲精品在线观看| 一本色道久久久久久精品综合| 欧美亚洲 丝袜 人妻 在线| 麻豆成人av视频| 可以在线观看毛片的网站| 欧美极品一区二区三区四区| 国产精品一二三区在线看| 亚洲欧美清纯卡通| 亚洲高清免费不卡视频| 亚洲av电影在线观看一区二区三区 | 午夜福利高清视频| 在线观看av片永久免费下载| 国产精品偷伦视频观看了| 在线观看三级黄色| 热99国产精品久久久久久7| 国产乱人偷精品视频| 99久久九九国产精品国产免费| 日本午夜av视频| 欧美性猛交╳xxx乱大交人| 久久精品夜色国产| 人妻一区二区av| 欧美精品一区二区大全| 亚洲精品国产成人久久av| 乱系列少妇在线播放| 男女无遮挡免费网站观看| 亚洲欧美精品自产自拍| 一边亲一边摸免费视频| 97精品久久久久久久久久精品| 成人欧美大片| 只有这里有精品99| av国产精品久久久久影院| 成人二区视频| 久久久久久久久久久免费av| 国产精品人妻久久久影院| 97热精品久久久久久| 免费黄网站久久成人精品| 岛国毛片在线播放| 国产成人免费观看mmmm| 国产淫片久久久久久久久| 在线观看一区二区三区激情| 国产永久视频网站| 99九九线精品视频在线观看视频| 18禁动态无遮挡网站| 一个人看视频在线观看www免费| 国产精品成人在线| 一二三四中文在线观看免费高清| 中文在线观看免费www的网站| 国产老妇女一区| 七月丁香在线播放| 美女cb高潮喷水在线观看| 国产大屁股一区二区在线视频| 99视频精品全部免费 在线| 菩萨蛮人人尽说江南好唐韦庄| 亚洲高清免费不卡视频| 男人添女人高潮全过程视频| 午夜福利高清视频| 国产精品久久久久久精品电影| 男人舔奶头视频| 免费黄色在线免费观看| 2021少妇久久久久久久久久久| 18禁裸乳无遮挡免费网站照片| 亚洲av一区综合| 高清日韩中文字幕在线| 亚洲欧洲国产日韩| 亚洲天堂av无毛| 国产亚洲5aaaaa淫片| 中文字幕av成人在线电影| 国内少妇人妻偷人精品xxx网站| 国产女主播在线喷水免费视频网站| 美女国产视频在线观看| 亚洲精品乱久久久久久| 搡老乐熟女国产| 一个人观看的视频www高清免费观看| 春色校园在线视频观看| 中文字幕久久专区| 国产亚洲5aaaaa淫片| 亚洲av一区综合| 亚洲av不卡在线观看| 日本熟妇午夜| 各种免费的搞黄视频| 五月天丁香电影| 国产伦精品一区二区三区四那| 亚洲精品自拍成人| 亚洲色图综合在线观看| 国产 一区 欧美 日韩| 国产精品一区二区性色av| 一边亲一边摸免费视频| 女人被狂操c到高潮| 久久鲁丝午夜福利片| 26uuu在线亚洲综合色| 性插视频无遮挡在线免费观看| 亚洲国产精品国产精品| 交换朋友夫妻互换小说| 91久久精品国产一区二区三区| 国产乱来视频区| 欧美+日韩+精品| av国产免费在线观看| 丝袜美腿在线中文| 青春草视频在线免费观看| 中文字幕av成人在线电影| 91久久精品国产一区二区三区| 成年免费大片在线观看| 国产老妇女一区| 在线观看三级黄色| 一级av片app| 国产精品.久久久| 亚洲国产精品专区欧美| 亚洲成人久久爱视频| 免费看不卡的av| 91aial.com中文字幕在线观看| av在线播放精品| av线在线观看网站| 国内少妇人妻偷人精品xxx网站| 国产精品精品国产色婷婷| 欧美成人精品欧美一级黄| 看十八女毛片水多多多| 中文精品一卡2卡3卡4更新| 黄色视频在线播放观看不卡| 精品久久久久久久人妻蜜臀av| 国产精品久久久久久久电影| 久久女婷五月综合色啪小说 | 午夜老司机福利剧场| 两个人的视频大全免费| 国产在线男女| 久热久热在线精品观看| 美女视频免费永久观看网站| 超碰97精品在线观看| 97在线人人人人妻| 国产一级毛片在线| 亚洲人成网站高清观看| 久久这里有精品视频免费| 国产精品不卡视频一区二区| 十八禁网站网址无遮挡 | 视频中文字幕在线观看| videossex国产| 亚洲精品国产av蜜桃| 91精品一卡2卡3卡4卡| 亚洲天堂av无毛| 最后的刺客免费高清国语| 精品视频人人做人人爽| 美女主播在线视频| 午夜福利视频1000在线观看| 高清视频免费观看一区二区| 亚洲av.av天堂| 丝袜脚勾引网站| 日韩成人伦理影院| 成人国产av品久久久| 天堂中文最新版在线下载 | 中文在线观看免费www的网站| 在线天堂最新版资源| 男女边吃奶边做爰视频| 特大巨黑吊av在线直播| 亚洲精品aⅴ在线观看| 少妇的逼好多水| 亚洲精品中文字幕在线视频 | 日本一本二区三区精品| 深夜a级毛片| 18禁在线无遮挡免费观看视频| 精品一区二区三卡| av播播在线观看一区| 色播亚洲综合网| 男女那种视频在线观看| 日本色播在线视频| 丝袜脚勾引网站| 免费看光身美女| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 欧美日韩一区二区视频在线观看视频在线 | 麻豆成人午夜福利视频| 看十八女毛片水多多多| 嫩草影院精品99| 99热这里只有精品一区| 亚洲精品自拍成人| 2021少妇久久久久久久久久久| 亚洲无线观看免费| 大码成人一级视频| 在线亚洲精品国产二区图片欧美 | 色视频www国产| 成人亚洲精品一区在线观看 | 一级毛片久久久久久久久女| 黄色欧美视频在线观看| 日本wwww免费看| 简卡轻食公司| 亚洲成人av在线免费| 少妇的逼好多水| 晚上一个人看的免费电影| 天堂中文最新版在线下载 | 欧美变态另类bdsm刘玥| 国产成人免费观看mmmm| 亚洲国产成人一精品久久久| 亚洲av国产av综合av卡| 亚洲天堂国产精品一区在线| 亚洲精品,欧美精品| 一级毛片我不卡| 又黄又爽又刺激的免费视频.| 午夜福利在线在线| 久久午夜福利片| 97超碰精品成人国产| 亚洲自拍偷在线| 我要看日韩黄色一级片| av网站免费在线观看视频| av又黄又爽大尺度在线免费看| 国产免费视频播放在线视频| 成人二区视频| 黄色一级大片看看| 免费看a级黄色片| 青青草视频在线视频观看| 在线亚洲精品国产二区图片欧美 | 亚洲欧美日韩东京热| 五月伊人婷婷丁香| av在线播放精品| 日本三级黄在线观看| 麻豆成人av视频| 国产精品秋霞免费鲁丝片| 一个人观看的视频www高清免费观看| 中文字幕人妻熟人妻熟丝袜美| 亚洲国产日韩一区二区| 少妇被粗大猛烈的视频| 国产视频首页在线观看| 特大巨黑吊av在线直播| 亚洲经典国产精华液单| 免费av毛片视频| 男插女下体视频免费在线播放| 精品久久久噜噜| 波野结衣二区三区在线| 亚洲av成人精品一二三区| 久久久久久国产a免费观看| 美女内射精品一级片tv| 麻豆乱淫一区二区| 天堂网av新在线| 久久精品国产亚洲av涩爱| 精品国产露脸久久av麻豆| 精品久久久久久久久亚洲| 久久久久久久午夜电影| 国产高清有码在线观看视频| 丝袜脚勾引网站| 免费人成在线观看视频色| 成人亚洲欧美一区二区av| 国产毛片在线视频| 亚洲天堂国产精品一区在线| 久热这里只有精品99| 建设人人有责人人尽责人人享有的 | 亚洲无线观看免费| 亚洲av中文字字幕乱码综合| 国产精品一区二区三区四区免费观看| 国产精品99久久久久久久久| 伊人久久精品亚洲午夜| 精品熟女少妇av免费看| 国产精品成人在线| 97在线视频观看| 亚洲欧美中文字幕日韩二区| 国产大屁股一区二区在线视频| 岛国毛片在线播放| av免费观看日本| 国产免费一区二区三区四区乱码| 一级爰片在线观看| 亚洲av男天堂| 99久久人妻综合| av在线观看视频网站免费| 日韩免费高清中文字幕av| 国产欧美亚洲国产| 欧美一区二区亚洲| 亚洲三级黄色毛片| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 91午夜精品亚洲一区二区三区| 成人无遮挡网站| 久久久久久久久久成人| 国产高清国产精品国产三级 | 人妻夜夜爽99麻豆av| 亚洲高清免费不卡视频| 亚洲色图av天堂| 我要看日韩黄色一级片| 国产又色又爽无遮挡免| 2018国产大陆天天弄谢| 国产乱人偷精品视频| 日本午夜av视频| 久久精品国产亚洲网站| 久久久亚洲精品成人影院| 禁无遮挡网站| 99精国产麻豆久久婷婷| 色播亚洲综合网| 在线精品无人区一区二区三 | 一级黄片播放器| 麻豆久久精品国产亚洲av| 大片免费播放器 马上看| 日本熟妇午夜| 久久精品久久精品一区二区三区| 亚洲在久久综合| 国产亚洲午夜精品一区二区久久 | 在线观看国产h片| 天堂网av新在线| 久久久久久伊人网av| 国产欧美日韩一区二区三区在线 | 国产亚洲av片在线观看秒播厂| 国产 一区精品| 久久久久国产精品人妻一区二区| 两个人的视频大全免费| 精品一区二区三区视频在线| 身体一侧抽搐| 国内精品宾馆在线| 亚洲av日韩在线播放| 国产在视频线精品| 国产熟女欧美一区二区| 能在线免费看毛片的网站| 九草在线视频观看| 亚洲欧美日韩卡通动漫| 麻豆国产97在线/欧美| 国产精品精品国产色婷婷| 日韩欧美一区视频在线观看 | 久久精品久久久久久噜噜老黄| 热re99久久精品国产66热6| av在线蜜桃| 午夜老司机福利剧场| 国产黄片美女视频| 亚洲精品影视一区二区三区av| 亚洲无线观看免费| 免费观看a级毛片全部| 一个人观看的视频www高清免费观看| 一个人看视频在线观看www免费| 综合色av麻豆| 欧美日本视频| 在线观看国产h片| 精品久久久久久久人妻蜜臀av| 国产国拍精品亚洲av在线观看| 97在线人人人人妻| 成人国产av品久久久| 各种免费的搞黄视频| 尤物成人国产欧美一区二区三区| 国产成人免费观看mmmm| 伊人久久国产一区二区| 国产伦精品一区二区三区视频9| 免费看日本二区| 黄片无遮挡物在线观看| 蜜桃亚洲精品一区二区三区| 亚洲精品日韩av片在线观看| 国产一级毛片在线| 少妇丰满av| 91精品国产九色| 国产 一区精品| 超碰97精品在线观看| 免费看a级黄色片| 人妻系列 视频| 日韩av不卡免费在线播放| 黄色视频在线播放观看不卡| 亚洲精品自拍成人| 成年免费大片在线观看| av免费观看日本| 一级av片app| 少妇人妻一区二区三区视频| 嘟嘟电影网在线观看| 亚洲天堂av无毛| 国产一级毛片在线| 国内揄拍国产精品人妻在线| 高清在线视频一区二区三区| 一本色道久久久久久精品综合| 尤物成人国产欧美一区二区三区| 亚洲av免费在线观看| 亚洲天堂国产精品一区在线| 精品午夜福利在线看| 午夜精品一区二区三区免费看| 一本色道久久久久久精品综合| 国产高清三级在线| 国产亚洲91精品色在线| 80岁老熟妇乱子伦牲交| 国产精品爽爽va在线观看网站| 日韩在线高清观看一区二区三区| 青春草亚洲视频在线观看| 国产午夜精品一二区理论片| 搡老乐熟女国产| 欧美老熟妇乱子伦牲交| 69人妻影院| 国产探花极品一区二区| 亚洲,一卡二卡三卡| 国产一区二区三区综合在线观看 | 亚洲av.av天堂| 国模一区二区三区四区视频| 精品久久久久久电影网| 久久午夜福利片| 精品久久久久久久人妻蜜臀av| 大香蕉久久网| h日本视频在线播放| eeuss影院久久| 午夜福利视频1000在线观看| 秋霞伦理黄片| 亚洲成人精品中文字幕电影| 嫩草影院入口| 午夜精品国产一区二区电影 | 在线观看av片永久免费下载| 国产免费视频播放在线视频| 亚洲精品一区蜜桃| 午夜福利高清视频| 亚洲欧美日韩卡通动漫| 国产精品麻豆人妻色哟哟久久| 国产高潮美女av| 精品一区在线观看国产| 亚洲人成网站在线播| 午夜福利网站1000一区二区三区| 日本爱情动作片www.在线观看| 欧美人与善性xxx| 免费观看性生交大片5| 久久鲁丝午夜福利片| 一个人观看的视频www高清免费观看| av福利片在线观看| 99久国产av精品国产电影| 交换朋友夫妻互换小说| 国产视频内射| 26uuu在线亚洲综合色| 久久精品国产鲁丝片午夜精品| 日日撸夜夜添| 成人欧美大片| 综合色丁香网| 欧美最新免费一区二区三区| 2021少妇久久久久久久久久久| 男的添女的下面高潮视频| 日韩 亚洲 欧美在线| 只有这里有精品99| 99热这里只有精品一区| 国产一区亚洲一区在线观看| 国产又色又爽无遮挡免| 久久6这里有精品| 国产精品.久久久| 18禁裸乳无遮挡免费网站照片| 身体一侧抽搐| 天堂俺去俺来也www色官网| 日韩中字成人| 国产色爽女视频免费观看| 一边亲一边摸免费视频| 麻豆成人av视频| 一个人观看的视频www高清免费观看| 熟女电影av网| 51国产日韩欧美| 亚洲自拍偷在线| 欧美高清性xxxxhd video| 日韩不卡一区二区三区视频在线| 亚洲av成人精品一区久久| 国产国拍精品亚洲av在线观看| 免费av观看视频| 国产av国产精品国产| 久久女婷五月综合色啪小说 | 黄色日韩在线| 亚洲国产精品成人久久小说| 一区二区三区精品91| 国产爽快片一区二区三区| 91精品伊人久久大香线蕉| 欧美激情久久久久久爽电影| 18禁裸乳无遮挡免费网站照片| 亚洲精品aⅴ在线观看| 国产精品一二三区在线看| 在线观看一区二区三区| 国产日韩欧美在线精品| 亚洲av电影在线观看一区二区三区 | 亚洲精品色激情综合| 日韩欧美一区视频在线观看 | 亚洲精品国产成人久久av| 日本熟妇午夜| 久久国内精品自在自线图片| 亚洲一区二区三区欧美精品 | 亚洲一级一片aⅴ在线观看| 联通29元200g的流量卡| 天美传媒精品一区二区| 国产有黄有色有爽视频| 国产黄色视频一区二区在线观看| 欧美日韩视频精品一区| av在线app专区| 国产国拍精品亚洲av在线观看| 中国美白少妇内射xxxbb| 午夜福利视频精品| 国产高潮美女av| 亚洲成人一二三区av| 亚洲伊人久久精品综合| 赤兔流量卡办理| av国产精品久久久久影院| 国产av码专区亚洲av| 久久精品夜色国产| 亚洲欧美成人综合另类久久久| 在线观看一区二区三区激情| av在线天堂中文字幕| 少妇高潮的动态图| 亚洲欧美清纯卡通| 国产精品不卡视频一区二区| 男男h啪啪无遮挡| 亚洲欧美精品自产自拍| 啦啦啦啦在线视频资源| www.色视频.com| 久久久精品免费免费高清| 嫩草影院新地址| 最近中文字幕2019免费版| 麻豆成人午夜福利视频| 美女主播在线视频| 男人添女人高潮全过程视频| 欧美一区二区亚洲| 一级毛片黄色毛片免费观看视频| 国产视频内射| 我的女老师完整版在线观看| 国产精品国产av在线观看| 国产成人a∨麻豆精品| 边亲边吃奶的免费视频| 欧美日韩亚洲高清精品| 午夜激情久久久久久久| 日韩国内少妇激情av| 亚洲va在线va天堂va国产| 日日啪夜夜撸| 99久久人妻综合| 夫妻午夜视频| 国产毛片a区久久久久| 国产老妇伦熟女老妇高清| 深夜a级毛片| 国产亚洲av片在线观看秒播厂| 狂野欧美激情性xxxx在线观看| 国产毛片a区久久久久| 成年人午夜在线观看视频| 日本色播在线视频| 精品一区二区三卡| 久久6这里有精品| 纵有疾风起免费观看全集完整版| 国产精品久久久久久精品古装| 日日撸夜夜添| 国产毛片在线视频| 国产亚洲精品久久久com| 亚洲成人精品中文字幕电影| 国产成人a区在线观看| 日韩成人av中文字幕在线观看| 大陆偷拍与自拍| 久久久久国产精品人妻一区二区| 菩萨蛮人人尽说江南好唐韦庄| 赤兔流量卡办理| 王馨瑶露胸无遮挡在线观看| 亚洲精品久久久久久婷婷小说| 欧美成人午夜免费资源| 久久精品综合一区二区三区| 国产白丝娇喘喷水9色精品| 日韩 亚洲 欧美在线| 搡女人真爽免费视频火全软件| 欧美潮喷喷水| 性插视频无遮挡在线免费观看| 日本免费在线观看一区| 国产片特级美女逼逼视频| 亚洲av国产av综合av卡| 最近最新中文字幕免费大全7| 国产精品久久久久久av不卡| 日本-黄色视频高清免费观看| 精品一区二区三区视频在线| 中文天堂在线官网| 少妇人妻精品综合一区二区| av播播在线观看一区| 嘟嘟电影网在线观看| 一区二区av电影网| 国产在线一区二区三区精| 丰满人妻一区二区三区视频av| 乱码一卡2卡4卡精品| 亚洲伊人久久精品综合| 男女无遮挡免费网站观看| 18禁在线播放成人免费| 国产欧美亚洲国产| 日韩欧美精品免费久久| 欧美xxⅹ黑人| 最近的中文字幕免费完整| 久久99蜜桃精品久久| 国产欧美日韩一区二区三区在线 | 亚洲精品国产av蜜桃| 九九久久精品国产亚洲av麻豆| 老师上课跳d突然被开到最大视频| 亚洲精品色激情综合| 国产一区二区亚洲精品在线观看| 亚洲天堂国产精品一区在线| 18禁裸乳无遮挡动漫免费视频 | 纵有疾风起免费观看全集完整版| 男人爽女人下面视频在线观看| 欧美精品人与动牲交sv欧美| 亚洲人与动物交配视频| 久久久午夜欧美精品| 少妇熟女欧美另类| 国产精品福利在线免费观看| 99热这里只有精品一区| 黑人高潮一二区| 人妻一区二区av| 一个人观看的视频www高清免费观看| 大陆偷拍与自拍| 亚洲精品日本国产第一区| 2022亚洲国产成人精品| 欧美 日韩 精品 国产| 久久久久久伊人网av| 欧美潮喷喷水| 天美传媒精品一区二区| 精品一区二区三区视频在线| 寂寞人妻少妇视频99o| 在线免费观看不下载黄p国产| 婷婷色综合大香蕉| 99久久人妻综合| 搡老乐熟女国产| 寂寞人妻少妇视频99o| 欧美成人午夜免费资源| 超碰av人人做人人爽久久| 精品熟女少妇av免费看| 蜜桃久久精品国产亚洲av| 一级二级三级毛片免费看| 边亲边吃奶的免费视频| av在线app专区| 一区二区三区四区激情视频| 神马国产精品三级电影在线观看| 在线观看一区二区三区激情| 午夜福利视频精品| 国产精品无大码| a级一级毛片免费在线观看| 午夜福利视频1000在线观看|