• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

    404 Not Found


    nginx
    404 Not Found

    404 Not Found


    nginx
    404 Not Found

    404 Not Found


    nginx
    404 Not Found

    404 Not Found


    nginx
    404 Not Found

    404 Not Found


    nginx
    404 Not Found

    404 Not Found


    nginx

    使用深度長短時記憶模型對于評價詞和評價對象的聯(lián)合抽取

    2018-04-16 07:53:42沈亞田黃萱菁曹均闊
    中文信息學(xué)報 2018年2期
    關(guān)鍵詞:短時記憶向量對象

    沈亞田,黃萱菁,曹均闊

    (1.復(fù)旦大學(xué) 計算機科學(xué)技術(shù)學(xué)院,上海 201203; 2.海南師范大學(xué) 信息科學(xué)技術(shù)學(xué)院,海南 海口 570100)

    0 引言

    細(xì)粒度的意見分析目標(biāo)是發(fā)現(xiàn)句子中的主觀表達(dá)(例如“可愛”)、主觀的強度(例如“十分的”)、包含的情感(例如“正的”)以及識別意見的目標(biāo)對象(也就是關(guān)于什么的意見)[1]。例如,“The phone has a colorful and even amazing screen”的句子中,“screen”是評價對象,“colorful” 和 “amazing”是評價詞。在這個工作中,我們重點關(guān)注了評價詞和評價對象的聯(lián)合抽取。這里的聯(lián)合抽取是相對于過去傳統(tǒng)的串行化抽取方式而言,串行化方式先識別評論詞,然后再根據(jù)評價詞與評價對象的關(guān)系線索識別評價對象。

    細(xì)粒度的評論分析對于許多自然語言處理任務(wù)是很重要的,包括面向意見的問答系統(tǒng)、意見總結(jié)和信息檢索。因此,這個任務(wù)已經(jīng)被自然語言處理社區(qū)研究了多年。

    為了抽取評論對象,許多研究者把評價詞作為強烈的暗示[2-3],以上工作基于這樣的觀察:評價詞一般在評價對象的的周圍,它們之間有很強的相關(guān)性。因此,大多數(shù)以前的方法迭代地抽取評價對象,其主要依賴評價詞和評價對象的關(guān)聯(lián)性,評價詞和評價對象抽取是個相互增強的過程[3-4]。然而,評價詞和評論對象之間的關(guān)聯(lián)性并不能準(zhǔn)確有效地獲得,尤其是長距離的語義關(guān)聯(lián)關(guān)系的情況。因此,如何發(fā)現(xiàn)評價詞和評論對象之間的關(guān)聯(lián)是解決這個問題的關(guān)鍵。

    在解決評價詞和評價對象之間關(guān)聯(lián)的問題上,許多研究者研究了句法信息,例如憑借依存句法樹[3]。這種方法的效果嚴(yán)重依賴句法分析的結(jié)果,而各種評論數(shù)據(jù)經(jīng)常都是不規(guī)范的文本(包括一些文法錯誤、不合適的標(biāo)點等),句法分析過程中會產(chǎn)生許多錯誤,這將導(dǎo)致后續(xù)的抽取任務(wù)發(fā)生連帶錯誤。為了克服以上方法的缺點,評價詞和評價對象抽取已經(jīng)被作為序列標(biāo)注的問題[5],把評價詞和評價對象的抽取過程看成是普通的自然語言處理的序列標(biāo)注問題,從而實現(xiàn)聯(lián)合抽取。該工作把句子作為被標(biāo)注序列,通過使用傳統(tǒng)的BIO標(biāo)注模式:B-OP 表示意見表達(dá)的開始,B-TA 表示意見目標(biāo)的開始,I-OP 和 I-TA 表示意見和意見對象的內(nèi)部,O 表示和意見相關(guān)的外部詞。表1中的句子實例顯示了用BIO方法的標(biāo)注結(jié)果,例如

    B-OP是 “beautiful” ,B-TA是 “quality”。

    表1 一個標(biāo)注的例子

    條件隨機場的許多變種已經(jīng)被成功地應(yīng)用到評價詞和評價對象的聯(lián)合抽取任務(wù)中[5]。然而,條件隨機場和半條件隨機場的方法需要人為手動設(shè)計大量的特征,通常需要句法成分樹和依存樹,手動建立的意見詞表,命名實體的標(biāo)注和其他的一些預(yù)處理的成分。同時,抽取特征的過程非常耗時,而且,手動設(shè)計特征嚴(yán)重依賴于大量的人類先驗知識以及專家和語言學(xué)家的經(jīng)驗等,這是不現(xiàn)實的。

    近年來,以特征學(xué)習(xí)為目標(biāo)的深度學(xué)習(xí)已經(jīng)成為研究的熱點[6],該方法被應(yīng)用到各種自然語言處理的任務(wù)中,例如分詞等序列任務(wù)[7]。把循環(huán)神經(jīng)網(wǎng)絡(luò)用在細(xì)粒度的意見挖掘方面,他們嘗試了RNN的Elman-RNN、Jordan-RNN、LSTM三種模型,把意見挖掘作為序列標(biāo)注的任務(wù)[8]。

    但是,該模型沒有考慮標(biāo)注之間的依賴關(guān)系,標(biāo)注之間的關(guān)系對于序列標(biāo)注的任務(wù)很重要,這在分詞[7]、語音識別方面得到了充分的證明。其次,一些方法[8]沒有在數(shù)據(jù)的標(biāo)簽級別上做到聯(lián)合抽取,僅僅分別抽取評價詞和評價對象,沒有進(jìn)行評價詞和評價對象的聯(lián)合抽取,忽略了這樣的事實:很多評價詞和評價對象有很強的依賴和互增強的關(guān)系[3-4]。為了解決以上的問題,我們使用長短時記憶神經(jīng)網(wǎng)絡(luò)模型進(jìn)行評價詞和評價對象的聯(lián)合抽取,我們考慮了幾種長短時記憶神經(jīng)網(wǎng)絡(luò)模型的變種,把評價詞和評價對象的抽取看成是序列標(biāo)注的任務(wù),同時,長短時記憶神經(jīng)網(wǎng)絡(luò)模型避免了梯度消失和爆炸的問題[9]。

    本文工作的主要貢獻(xiàn)總結(jié)如下:

    (1) 本文在句子級的評價詞和評價對象聯(lián)合抽取任務(wù)上研究了長短時記憶循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用。長短時記憶神經(jīng)網(wǎng)絡(luò)模型能夠獲得文本更多的長距離上下文信息,避免了普通的循環(huán)神經(jīng)網(wǎng)絡(luò)的梯度消失和梯度爆炸的問題。

    (2) 本工作對比了長短時記憶循環(huán)神經(jīng)網(wǎng)絡(luò)模型的幾種變種的性能,實驗結(jié)果表明LSTM-1模型是更加有效的。

    (3) 與傳統(tǒng)的方法相比,我們的實驗結(jié)果顯示:長短時記憶循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)于以前的傳統(tǒng)方法,在評價詞和評價對象的聯(lián)合抽取任務(wù)上達(dá)到了最好的性能。

    1 相關(guān)工作

    早期的評價詞和評價對象的聯(lián)合抽取任務(wù)主要關(guān)注識別主觀的表達(dá)短語[1-2]。有些系統(tǒng)解決這個問題的方法為序列標(biāo)注問題,這種方法在很大程度上超過以前的工作[10]。條件隨機場被應(yīng)用于識別評論者[5],還有些研究者聯(lián)合識別評論表達(dá)的級性和強度[11],重排序的方法也被用來提高序列標(biāo)注任務(wù)的性能[12-13]。

    近年來的工作松弛了條件隨機場的馬爾科夫假設(shè),用來獲得短語級的上下文關(guān)聯(lián),很明顯地高于詞語級的標(biāo)注方法[14]。

    特別地, 一些研究者提出了聯(lián)合抽取評論表達(dá)式、評論者、評論對象以及它們之間的關(guān)系[15]。

    還有研究者將深度循環(huán)神經(jīng)網(wǎng)絡(luò)被應(yīng)用到評論表達(dá)式的抽取任務(wù)中,被用于詞級的序列標(biāo)注任務(wù)[16]。

    在自然語言處理任務(wù)中,循環(huán)神經(jīng)網(wǎng)絡(luò)模型把句子作為詞語序列,已經(jīng)成功地應(yīng)用到語言模型[17]、分詞任務(wù)[7]等任務(wù)中。傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)僅僅包括一些過去的信息(例如上一個詞語),雙向的變種循環(huán)神經(jīng)網(wǎng)絡(luò)已經(jīng)被提出,結(jié)合了過去和未來的兩個方向的信息(下一個字符)[18]。

    系統(tǒng)[19]抽取過程由兩部分構(gòu)成,首先分類評價對象,然后用條件隨機場模型抽取評價對象。

    系統(tǒng)[8]與我們的工作很相似,它把循環(huán)神經(jīng)網(wǎng)絡(luò)用在細(xì)粒度的意見挖掘方面,嘗試了RNN的Elman-RNN、Jordan-RNN、LSTM三種模型,把意見挖掘做為序列標(biāo)注的任務(wù)。

    但是,我們的工作主要在兩個方面不同于他們的。首先,考慮了標(biāo)注之間的關(guān)系,標(biāo)注之間的關(guān)系對于序列標(biāo)注的任務(wù)很重要,這在分詞[7]、語音識別[20]方面得到了充分的證明。其次,我們的工作是把評價詞和評價對象進(jìn)行聯(lián)合抽取。事實上,很多評價詞和評價對象有很強的依賴和互增強的關(guān)系[3-4],利用這種現(xiàn)象采用串行化的方法對評價詞和評價對象進(jìn)行抽取,但是他們沒有考慮聯(lián)合抽取的方式。

    在本研究工作中,我們集中在長短時記憶神經(jīng)網(wǎng)絡(luò)模型的評價詞與評價對象聯(lián)合抽取任務(wù)的應(yīng)用上。

    2 神經(jīng)網(wǎng)絡(luò)用于序列標(biāo)注任務(wù)框架

    評價詞與評價對象聯(lián)合抽取被看作是序列標(biāo)注的問題。近年來,神經(jīng)網(wǎng)絡(luò)已經(jīng)被用于傳統(tǒng)的自然語言處理中的序列標(biāo)注任務(wù),其流程框架如圖 1 所示。在這個框架中,神經(jīng)網(wǎng)絡(luò)模型用三個特殊的層描述:(1)詞語嵌入層,也就是詞向量層;(2)一系列傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)層;(3)標(biāo)注推理層。

    h(t)=g(W1x(t)+b1)

    (1)

    在式(1)中,W1∈RH2×H1,b1∈RH2,h(t)∈RH2,H2是超參數(shù),它表示第二層隱單元數(shù)。假定標(biāo)注集的大小是|T|,相似的線性轉(zhuǎn)換被執(zhí)行如下:

    y(t)=W2h(t)+b2

    (2)

    在式(2)中,W2∈R|Τ|×H2,b2∈R|Τ|,y(t)∈R|Τ|是每一個可能標(biāo)注的打分。在評價詞與評價對象的聯(lián)合抽取任務(wù)中,如圖1中提到那樣,使用BIO標(biāo)注模式的標(biāo)記集。

    圖1 神經(jīng)網(wǎng)絡(luò)作為序列標(biāo)注任務(wù)框架

    為了建模標(biāo)注的依賴關(guān)系,A(ij)引進(jìn)了一個轉(zhuǎn)移打分記錄,表示從標(biāo)注i到標(biāo)注j的跳轉(zhuǎn)概率。盡管這個模型對于序列標(biāo)注的任務(wù)表現(xiàn)很好,但是它僅僅利用了有限的上下文窗口信息,因此,某些長距離信息沒有被充分利用。

    3 長短時記憶神經(jīng)網(wǎng)絡(luò)用于評價詞與評價   對象聯(lián)合抽取

    在這一部分,我們將介紹長短時記憶模型的神經(jīng)網(wǎng)絡(luò)對于評價詞與評價對象的聯(lián)合抽取任務(wù)。

    3.1 詞向量層

    使用神經(jīng)網(wǎng)絡(luò)處理符號數(shù)據(jù)的第一步首先是數(shù)據(jù)表示成分布式向量,也叫作詞語嵌入或者詞向量。形式上,在序列標(biāo)注的任務(wù)上,我們有一個大小是|C|的詞典C。每一個詞c∈C表示成一個實數(shù)值向量(c)∈Rd,d是向量維度。然后詞向量被堆疊成詞向量矩陣M∈Rd×|c|。對于每一個詞語c∈C,對應(yīng)的詞向量(c)∈Rd通過查找表層檢索,查找表層被作為一個簡單的投影層,每一個詞語根據(jù)其索引得到維度是d的詞向量。

    3.2 長短時記憶模型(LSTM)

    長短時記憶模型(LSTM)是循環(huán)神經(jīng)網(wǎng)絡(luò)的擴展(RNN),循環(huán)神經(jīng)網(wǎng)絡(luò)的隱狀態(tài)在每一個時間步都依賴于以前的時間步,其簡單的結(jié)構(gòu)如圖2(a)所示。形式上給予一個序列x(1:n)=(x(1),x(2),…,x(t),…x(n)),循環(huán)更新其隱狀態(tài)h(t),按照下面的公式計算:

    h(t)=g(Uh(t-1)+Wx(t)+b)

    (3)

    式(3)中,g是非線性函數(shù)。雖然循環(huán)神經(jīng)網(wǎng)絡(luò)已經(jīng)取得了很大成功,但是,在訓(xùn)練過程中,獲得文本序列上下文背景的長時序依賴卻是十分困難的,這在很大程度上是由于普通的循環(huán)神經(jīng)網(wǎng)絡(luò)所遭遇的梯度消失和梯度爆炸問題[9],因此,文獻(xiàn)[18]的模型使用LSTM 單元代替普通的非線性單元解決這種問題。

    圖2 循環(huán)神經(jīng)網(wǎng)絡(luò)和長短時記憶單元

    LSTM通過使用記憶單元解決上述的問題,LSTM的記憶單元允許網(wǎng)絡(luò)或者忘記以前的信息,或者當(dāng)新的信息給予的時候更新記憶單元存儲的內(nèi)容。因此,應(yīng)用LSTM單元到序列標(biāo)注的任務(wù)中是很自然的選擇,因為LSTM神經(jīng)網(wǎng)絡(luò)考慮了輸入和對應(yīng)輸出之間的時間滯后性,使得網(wǎng)絡(luò)能夠從數(shù)據(jù)中學(xué)習(xí)出長距離的時序依賴性。

    LSTM模型的核心是記憶單元c,該單元編碼了到現(xiàn)在這個時間步為止所有的可觀察到的輸入信息。記憶單元的行為被三個門,即輸入門i,輸出門o、忘記門f控制,LSTM 的結(jié)構(gòu)如圖2(b)所示。門的操作定義為向量對應(yīng)乘,當(dāng)門是非零向量的時候,門能夠放大輸入值;當(dāng)門是零值的時候,忽略輸入值。相應(yīng)地門的定義,記憶單元的更新和輸出如下:

    在式(4)~(9)里,σ是sigmoid 函數(shù)、tanh是hyperbolic tangent函數(shù)。it、ft、ot、ct分別是時間步t時刻相應(yīng)的輸入門、忘記門、輸出門、 記憶單元,所有的這些門向量的尺寸大小等同于隱藏向量h(t)∈RH2,?表示向量對應(yīng)乘,具有不同下標(biāo)的W都是權(quán)方陣。注意,Wi、Wf、Wo、Wg都是對角矩陣。

    3.3 長短時記憶的循環(huán)神經(jīng)網(wǎng)絡(luò)對于評價詞與評   價對象的聯(lián)合抽取

    為了完全利用LSTM結(jié)構(gòu),我們使用了四個不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來選擇有效的特征,其結(jié)構(gòu)被用在分詞、詞性標(biāo)注等任務(wù)上[7]。圖3表示了被提出的四種LSTM結(jié)構(gòu)的變體,它們被用于評價詞與評價對象的聯(lián)合抽取任務(wù)。

    (1) LSTM-1

    LSTM-1簡單地使用LSTM單元替換掉式(1)中隱藏神經(jīng)元,如圖3(a)所示。

    LSTM單元的輸入來自于詞語的上下文窗口。對于每一個詞語ct(1≤t≤n):

    (10)

    LSTM單元的輸入xt來自于x(t-k1):(t+k2)詞向量的拼接,k1、k2分別表示詞語ct的左右上下文的詞語數(shù)量。LSTM單元的輸出被線性轉(zhuǎn)換后作為最后的標(biāo)注推理。

    (2) LSTM-2

    LSTM-2能夠一層一層堆疊LSTM單元,形成多層結(jié)構(gòu),這里我們僅僅選擇兩層結(jié)構(gòu),也即其中一層的輸出作為下一層的輸入,結(jié)構(gòu)如圖3(b)所示。具體來說,上層LSTM層輸入來自于h(t)底端LSTM層的沒有經(jīng)過任何變換的輸出,第一層的輸入等同于LSTM-1,第二層的輸出等同于LSTM-1模型輸出。

    (3) LSTM-3

    LSTM-3是LSTM-1的擴展,其采用LSTM的局部上下文作為最后一層的輸入,結(jié)構(gòu)如圖3(c)所示。

    對于每一個時間步,我們拼接LSTM層的窗口,輸出成一個向量

    ⊕…⊕ht+m2

    (11)

    (4) LSTM-4

    LSTM-4是LSTM-2和LSTM-3的混合,它有兩個LSTM層構(gòu)成,低端LSTM層的輸出形成上端LSTM層的輸入,最后層采用上端LSTM層的局部上下文作為輸入,如圖3(d)所示。

    圖3 長短時記憶的循環(huán)神經(jīng)網(wǎng)絡(luò)的變種

    3.4 句子級標(biāo)簽推理

    給予感興趣任務(wù)的標(biāo)注集,神經(jīng)網(wǎng)絡(luò)模型輸出一個|T|大小的向量在每一個詞的位置i,向量里面的每一個分量被解釋為標(biāo)注集中每一個標(biāo)注的打分,ci是句子中的每一個詞。

    由于在序列標(biāo)注的任務(wù)中詞的標(biāo)注之間有強烈的依賴關(guān)系,我們引進(jìn)一個轉(zhuǎn)移分?jǐn)?shù)A(ij)表示從i∈|T|到j(luò)∈|T|的轉(zhuǎn)移分?jǐn)?shù),初始考慮句子的結(jié)構(gòu),一個初始的分?jǐn)?shù)A(0i)從第i標(biāo)注開始,我們的目的是拋棄其他無效路徑,尋找一條最優(yōu)的路徑。

    假定給予一個句子c[1:n],網(wǎng)絡(luò)的輸出是一個打分矩陣fθ(c[1:n])。fθ(ti|i)表示在網(wǎng)絡(luò)模型參數(shù)θ下,句子c[1:n]中的第i個詞獲得t標(biāo)注時所給予的預(yù)測打分,這個值是通過神經(jīng)網(wǎng)絡(luò)模型由式(2)計算獲得。因此,一個具有標(biāo)注路徑t[1:n]的句子c[1:n]獲得的標(biāo)簽打分等于標(biāo)簽轉(zhuǎn)移分?jǐn)?shù)和神經(jīng)網(wǎng)絡(luò)輸出標(biāo)注分?jǐn)?shù)的和,如式(12)所示。

    (12)

    為了預(yù)測句子c[1:n]的標(biāo)簽,我們通過最大化句子打分發(fā)現(xiàn)最好的標(biāo)注路徑,如式(13)所示。

    (13)

    隨著句子的長度的增加,式(12)中的路徑數(shù)量會指數(shù)增加,維特比算法[21]被用來標(biāo)注推理,能夠在線性時間內(nèi)計算它。

    4 訓(xùn)練模型

    標(biāo)注路徑的對數(shù)條件概率由式(13)得出。

    (14)

    模型訓(xùn)練在整個數(shù)據(jù)集M上使用最大似然估計的方法,使用隨機梯度下降方法更新參數(shù),如果我們表示θ為所有的訓(xùn)練參數(shù),可得:

    (15)

    式中,c是對應(yīng)的句子,t表示對應(yīng)的標(biāo)注,θ是相關(guān)的參數(shù),在我們的模型中參數(shù)集θ={M,A,Wi,Wf,Wo,Wg,Ui,Uf,Uo,Ug,bi,bf,bo,bg}p(t|c)是神經(jīng)網(wǎng)絡(luò)輸出標(biāo)簽條件概率。

    LSTM網(wǎng)絡(luò)使用BPTT 的方法[21]進(jìn)行梯度計算,假定θj是所有的參數(shù)集更新了j步后的參數(shù),η0是學(xué)習(xí)率,N是最小批大小,θ(j)是代價函數(shù)的梯度,參數(shù)更新如式(16)所示。

    (16)

    5 實驗

    5.1 數(shù)據(jù)集和評估方法

    實驗中,我們選擇COAE2008 dataset2數(shù)據(jù)集來評估我們的方法,它包括四個不同的產(chǎn)品評論數(shù)據(jù),詳細(xì)的信息可以參見表2。在實驗過程中,每一個評論根據(jù)標(biāo)點被分割,由于標(biāo)注數(shù)據(jù)中的句子較長,我們僅僅截取含有評價詞或者評價對象的句子進(jìn)行實驗,然后用StanfordNLP工具進(jìn)行分詞。系統(tǒng)[23]被用來識別名詞短語。我們使用準(zhǔn)確率、召回率和 F值進(jìn)行性能評估。

    表2 COAE2008 dataset2數(shù)據(jù)集

    5.2 超參數(shù)

    對于網(wǎng)絡(luò)的學(xué)習(xí),超參數(shù)的設(shè)置是很重要的,根據(jù)實驗的結(jié)果,我們選擇的超參數(shù)的情況被列舉在表3中。實驗中,我們發(fā)現(xiàn)隱藏單元數(shù)對網(wǎng)絡(luò)模型性能有一定的影響,為了調(diào)和性能和速度之間的矛盾,我們選擇200作為一個最好的折衷。LSTM模型中的權(quán)矩陣全部被隨機初始化在[-0.05,0.05]的范圍內(nèi)。我們使用Google的Word2Vec工具在4GB的Sogou數(shù)據(jù)集上預(yù)訓(xùn)練一個300維詞向量,獲得的詞向量被用來初始化神經(jīng)網(wǎng)絡(luò)模型的查找表層,以代替隨機初始化出現(xiàn)的誤差。整個神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練花費了31個小時。LSTM模型變種、學(xué)習(xí)率及窗口上下文的設(shè)置我們將在下節(jié)詳細(xì)討論。

    表3 模型超參數(shù)的設(shè)置

    5.3 超參數(shù)的影響

    我們也評估了四種LSTM模型的變種,按照表3中超參數(shù)的設(shè)置,窗口上下文被設(shè)置成不同的大小,在數(shù)據(jù)集COAE2008進(jìn)行評估,LSTM隱藏層的尺寸被設(shè)置成200。在COAE2008的數(shù)據(jù)集上,39輪的訓(xùn)練周期內(nèi),LSTM-1模型收斂是最快的,達(dá)到了最好的標(biāo)注結(jié)果。LSTM-2得到較差的結(jié)果,這顯示了網(wǎng)絡(luò)模型的深度未必有利于結(jié)果的提高。LSTM-3和LSTM-4模型在訓(xùn)練過程中很難收斂,很大部分的原因是由于模型過于復(fù)雜,不利于參數(shù)的學(xué)習(xí)。COAE2008數(shù)據(jù)集的結(jié)果被顯示在表4中,從中可看出LSTM-1 模型達(dá)到了最好的性能。因此,后面的實驗分析都基于LSTM-1模型,按照表3中的超參數(shù)進(jìn)行實驗設(shè)置。

    表4表明,LSTM-1模型性能在不同的上下文長度中表現(xiàn)最好。但是,LSTM-1模型用最小的上下文長度節(jié)約了計算資源,使得模型更加有效。同時,LSTM-1模型用(0,2)窗口上下文長度比用(1,2)、(2,2)窗口上下文長度能夠獲得更好的性能。這充分說明了LSTM模型能夠更好地建模以前信息,并且對于窗口上下文大小的變化具有很強的魯棒性。

    表4 各種模型不同上下文窗口實驗結(jié)果對比

    學(xué)習(xí)率是一個重要的超參數(shù),為了使網(wǎng)絡(luò)達(dá)到較好的性能,如何正確地設(shè)置學(xué)習(xí)率顯得尤為重要。圖4顯示學(xué)習(xí)率設(shè)置如何影響測試集上的F值性能。

    在COAE2008數(shù)據(jù)集上,當(dāng)學(xué)習(xí)率設(shè)置成 0.5的時候,學(xué)習(xí)性能變化非常明顯,出現(xiàn)了尖峰,F(xiàn)值達(dá)到了80%,因此我們能得出學(xué)習(xí)率是非常敏感的參數(shù)。

    圖5顯示了隱藏層大小對F值的影響。在COAE2008數(shù)據(jù)集上,LSTM-1取得隱藏層的大小尺寸是200,F(xiàn)值達(dá)到了80%,這是我們得到的最好結(jié)果。毫無疑問,LSTM-1結(jié)構(gòu)隱藏層尺寸 大 小 是重要的超參數(shù),在很大程度上影響LSTM的網(wǎng)絡(luò)性能。

    如同期望一樣,更大的網(wǎng)絡(luò)表現(xiàn)也更好,隨著網(wǎng)絡(luò)尺寸的增加,需要的訓(xùn)練時間也在增加。但是,當(dāng)隱藏層尺寸變得更大的時候,性能將逐漸下降,網(wǎng)絡(luò)趨向過擬合。

    5.4 各種方法的對比

    我們在COAE2008 dataset2數(shù)據(jù)集上對比了幾種常用的評價詞與評價對象的抽取,僅僅使用最簡單LSTM-1的模型,按照表3中超參數(shù)設(shè)置方法與當(dāng)前的常用方法進(jìn)行對比,實驗結(jié)果顯示在表5和表6中,通過表中結(jié)果的分析,我們能夠得到如下的觀察和結(jié)論。

    (1) 對比神經(jīng)網(wǎng)絡(luò)方法LSTM-1和傳統(tǒng)的方法[3-4,15],實驗結(jié)果顯示:在數(shù)據(jù)集上,LSTM-1方法取得優(yōu)于傳統(tǒng)方法的實驗效果,它有效證明了LSTM-1的方法能捕獲文本的語義組合,保存更長的上下文特征信息,并且遭受更少數(shù)據(jù)稀疏問題的困擾。

    表5 COAE2008 dataset2上方法對比

    續(xù)表

    表6 COAE2008 dataset2不同領(lǐng)域數(shù)據(jù)對比

    (2) 在COAE2008 dataset2數(shù)據(jù)集上,通過與以前傳統(tǒng)方法[3-4,15]的對比,我們能看到LSTM-1獲得了較好的結(jié)果,這也表明LSTM-1更準(zhǔn)確地捕獲了評價詞與評價對象之間的語義關(guān)系,也更符合直覺上評價詞與評價對象之間的強烈依賴和修辭關(guān)系。例如,在汽車數(shù)據(jù)中,“強勁”的“動力”、“很大”的“機器噪聲”等。

    我們相信LSTM-1能夠通過LSTM單元選擇更加具有區(qū)分性的特征和捕獲長距離的上下文信息。

    文獻(xiàn)[3]依賴句法樹的性能是不現(xiàn)實的,某些評論數(shù)據(jù)有大量的噪聲,句法分析的準(zhǔn)確性是很難保證的。

    文獻(xiàn)[4]使用機器翻譯的方法發(fā)現(xiàn)評價詞和評價對象之間的關(guān)聯(lián),然后基于圖的模型抽取評價詞,這樣避免了串行方法中錯誤的有效傳播。但是,這種方法很難發(fā)現(xiàn)使用復(fù)合句方式修辭的評價對象。然而,很多評論數(shù)據(jù)中含有整個句子修飾評價對象的現(xiàn)象,一些從句中包含大量的評價詞,直接或者間接修飾評價對象,例如,“入住的套房相當(dāng)舒適,很多住過的客人都十分喜歡它的干凈,整潔”,在這個句子中,由于“干凈,整潔”語義距離“套房”較遠(yuǎn),普通的方法很難發(fā)現(xiàn)它們之間的修辭關(guān)系。

    LSTM-1通過LSTM單元能夠獲得上下文信息,把評價詞和評價對象的聯(lián)合抽取作為序列標(biāo)注任務(wù)。文獻(xiàn)[3-4]的工作對待評價詞和評價對象關(guān)系的抽取使用管道串行的方式,評價對象和評價詞抽取任務(wù)沒有被聯(lián)合建模,前者的抽取錯誤會影響后者的抽取,同時錯誤傳播沒有被考慮。

    文獻(xiàn)[15]聯(lián)合識別和評價詞相關(guān)的實體,包括評論表達(dá)式,評價目標(biāo)和評價持有人以及它們之間相關(guān)的關(guān)系,如IS-ABOUT 和 IS-FROM等,然而,模型[15]不能表達(dá)評價詞和評價對象的長距離依賴關(guān)系。

    文獻(xiàn)[8]使用了Elman-RNN、Jordan-RNN、LSTM三種模型,把意見挖掘作為序列標(biāo)注的任務(wù)。但是,它們忽略了標(biāo)注之間的關(guān)系,并且沒有考慮評價詞和評價對象之間有很強的依賴的事實,在一定程度上損失了抽取的準(zhǔn)確率。

    (3) 我們在COAE2008數(shù)據(jù)集上也對比了被設(shè)計較好的特征,實驗結(jié)果顯示我們的方法超過了文獻(xiàn)[15]的特征集,獲得了一個較好的結(jié)果,相信我們的方法能夠獲得評論句子長距離的依賴模式,并且不需要人工設(shè)計特征,這對于低資源的語言是很有利的。

    6 結(jié)論

    在本文工作中,我們在句子級評價詞和評價對象聯(lián)合抽取任務(wù)上研究了長短時記憶神經(jīng)網(wǎng)絡(luò)模型幾種變種的應(yīng)用。把句子級評價詞和評價對象聯(lián)合抽取看成是一種序列標(biāo)注任務(wù),而長短時記憶神經(jīng)網(wǎng)絡(luò)模型是一種循環(huán)神經(jīng)網(wǎng)絡(luò)模型,該模型使用長短時記憶模型單元作為循環(huán)神經(jīng)網(wǎng)絡(luò)的記憶單元,能夠獲得更多的長距離上下文信息,同時避免了普通的循環(huán)神經(jīng)網(wǎng)絡(luò)的梯度消失和梯度爆炸問題。我們對比了以前的方法,在現(xiàn)有的COAE2008 dataset2數(shù)據(jù)集上,我們提出的長短時記憶循環(huán)神經(jīng)網(wǎng)絡(luò)在評價詞和評價對象的聯(lián)合抽取任務(wù)上達(dá)到了最好的實驗結(jié)果。

    評價詞和評價對象的抽取是自然語言處理中很重要的工作,未來我們將結(jié)合評價詞和評價對象的抽取任務(wù)本身的特點,進(jìn)一步探索更多的深度學(xué)習(xí)模型在這方面的應(yīng)用,例如研究門限循環(huán)單元(GRU)代替長短時記憶單元(LSTM)。另外,能否利用深度學(xué)習(xí)方法有效學(xué)習(xí)評價詞和評價對象之間的關(guān)系也是我們未來的研究方向。

    [1]Janyce Wiebe,Theresa Wilson,Claire Cardie.Annotating expressions of opinions and emotions in language[J].Language resources and evaluation,2005,[1]39(2-3):165-210.

    [2]Minqing Hu,Bing Liu.Mining and summarizing customer reviews[C]//Proceedings of the tenth SIGKDD,ACM,2004:168-177.

    [3]Guang Qiu,Bing Liu,Jiajun Bu,et al.Opinion word expansion and target extraction through double propagation[J].Computational Linguistics,2011.37(1):9-27.

    [4]Kang Liu,Liheng Xu,and Jun Zhao.Opinion target extraction using word-based translation model[C]//Proceedings of EMNLP.Association for Computational Linguistics.2012:1346-1356.

    [5]Yejin Choi,Claire Cardie,Ellen Riloff,et al.Identifying sources of opinions with conditional random fields and extraction patterns[C]//Proceedings of EMNLP,2005:355-362.Association for Computational Linguistics.

    [6]Ronan Collobert,Jason Weston.A unified architecture for natural language processing:Deep neural networks with multitask learning[C]//Proceedings of ICML,2008:160-167.ACM.

    [7]Xinchi Chen,Xipeng Qiu,Chenxi Zhu,et al.Long short-term memory neural networks for Chinese word segmentation[C]//Proceedings of EMNLP.Association for Computational Linguistics,2015.

    [8]Pengfei Liu,Shafiq Joty,Helen Meng.Finegrained opinion mining with recurrent neural networks and word embeddings[C]//Proceedings of EMNLP.Association for Computational Linguistics,2015.

    [9]Sepp Hochreiter.The vanishing gradient problem during learning recurrent neural nets and problem solutions[J].International Journal of Uncertainty,Fuzziness and Knowledge-Based Systems,1998.6(02):107-116.

    [10]Eric Breck,Yejin Choi,Claire Cardie.Identifying expressions of opinion in context[C]//IJCAI,volum 7,2007:2683-2688.

    [11]Yejin Choi,Claire Cardie.Hierarchical sequential learning for extracting opinions and their attributes[C]//Proceedings of the ACL 2010 Conference Short Papers,2010:269-274.Association for Computational Linguistics.

    [12]Richard Johansson,Alessandro Moschitti.Syntactic and semantic structure for opinion expression detection[C]//Proceedings of the Fourteenth Conference on Computational Natural Language Learning,2010:67-76.Association for Computational Linguistics.

    [13]Richard Johansson,Alessandro Moschitti.Extracting opinion expressions and their polarities:exploration of pipelines and joint models[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics:Human Language Technologies:short papers-Volume 2,2011:101-106.Association for Computational Linguistics

    [14]Bishan Yang,Claire Cardie.Extracting opinion expressions with semi-markov conditional random fields[C]//Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning,2012:1335-1345.Association for Computational Linguistics.

    [15]Bishan Yang,Claire Cardie.Joint infence for fine-grained opinion extraction[C]//ACL(1),2013:1640-1649.

    [16]Ozan Irsoy,Claire Cardie.Opinion mining with deep recurrent neural networks[C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing(EMNLP),2014:720-728.

    [17]Tomas Mikolov,Stefan Kombrink,Lukas Burget,et al.Extensions of recurrent neural network language model[C]//Acoustics,Speech and Signal Processing(ICASSP),2011 IEEE International Conference on,2011:5528-5531.IEEE.

    [18]Mike Schuster,Kuldip K Paliwal.Bidirectional recurrent neural networks.Signal Processing,IEEE Transactions on,1997,45(11):2673-2681.

    [19]Zhiqiang Toh,Jian Su.Nlangp at semeval-2016 task 5:Improving aspect based sentiment analysis using neural network features[C]//Proceedings of SemEval,2016:282-288.

    [20]Grégoire Mesnil,Xiaodong He,Li Deng,et al.Investigation of recurent-neural network architectures and learning methods for spoken language understanding[J].INTERSPEECH,2013:3771-3775.

    [21]G David Forney Jr.The viterbi algorithm[C]//Proceedings of the IEEE,1973.61(3):268-278.

    [22]Alex Graves,Schmidhuber.Framewise phoneme classification with bidirectional LSTM and other neural network architectures[J].Neural Networks,2005,18(5):602-610.

    [23]Jingbo Zhu,Huizhen Wang,Benjamin K Tsou,et al.Multi-aspect opinion polling from textual reviews//Proceedings of the 18th ACM Conference on Information and Knowledge Management,2009:1799-1802.ACM.

    沈亞田(1982—),博士,主要研究領(lǐng)域為自然語言處理。E-mail:sy602@126.com

    黃萱菁(1972—),博士,教授,主要研究領(lǐng)域為自然語言處理。E-mail:xjhuang@fudan.edu.cn

    曹均闊(1975—),通信作者,博士,副教授,主要研究領(lǐng)域為自然語言處理。E-mail:jkcao@qq.com

    猜你喜歡
    短時記憶向量對象
    神秘來電
    睿士(2023年2期)2023-03-02 02:01:09
    基于長短時記憶神經(jīng)網(wǎng)絡(luò)的動力電池剩余容量預(yù)測方法
    向量的分解
    聚焦“向量與三角”創(chuàng)新題
    攻略對象的心思好難猜
    意林(2018年3期)2018-03-02 15:17:24
    短時記憶、長時記憶對英語聽力的影響
    基于熵的快速掃描法的FNEA初始對象的生成方法
    向量垂直在解析幾何中的應(yīng)用
    短時記憶理論的影響
    區(qū)間對象族的可鎮(zhèn)定性分析
    404 Not Found

    404 Not Found


    nginx
    404 Not Found

    404 Not Found


    nginx
    404 Not Found

    404 Not Found


    nginx
    404 Not Found

    404 Not Found


    nginx
    404 Not Found

    404 Not Found


    nginx
    老司机影院成人| 欧美日韩一区二区视频在线观看视频在线| 亚洲国产精品国产精品| 在线亚洲精品国产二区图片欧美 | 亚洲精品久久成人aⅴ小说 | 97精品久久久久久久久久精品| 下体分泌物呈黄色| 久久精品夜色国产| 亚洲国产成人一精品久久久| 一个人免费看片子| 十八禁网站网址无遮挡| 成人亚洲精品一区在线观看| 亚洲在久久综合| 80岁老熟妇乱子伦牲交| 中国美白少妇内射xxxbb| videosex国产| 成年av动漫网址| a级毛色黄片| 久久国产精品男人的天堂亚洲 | 三上悠亚av全集在线观看| 国产亚洲最大av| 国产高清有码在线观看视频| 免费观看的影片在线观看| 99九九在线精品视频| 国产亚洲精品久久久com| 黄色视频在线播放观看不卡| 亚洲精品中文字幕在线视频| 亚洲av不卡在线观看| 老女人水多毛片| 亚洲丝袜综合中文字幕| 亚洲欧美色中文字幕在线| 成人午夜精彩视频在线观看| 岛国毛片在线播放| 国产免费福利视频在线观看| 久久99精品国语久久久| 亚洲精品乱久久久久久| 最近中文字幕高清免费大全6| 高清欧美精品videossex| 久久精品夜色国产| 99久久人妻综合| 亚洲精品一二三| 免费观看av网站的网址| av免费观看日本| 久久久久视频综合| 国国产精品蜜臀av免费| 国产精品欧美亚洲77777| 日本爱情动作片www.在线观看| 毛片一级片免费看久久久久| av天堂久久9| 少妇被粗大猛烈的视频| 在线观看免费日韩欧美大片 | 久久久久精品性色| 一本大道久久a久久精品| 婷婷色综合www| 精品人妻熟女av久视频| 极品少妇高潮喷水抽搐| 久久亚洲国产成人精品v| 欧美+日韩+精品| 亚洲经典国产精华液单| 天堂中文最新版在线下载| 日韩熟女老妇一区二区性免费视频| 国产欧美日韩一区二区三区在线 | 精品午夜福利在线看| 中文欧美无线码| 久久热精品热| 菩萨蛮人人尽说江南好唐韦庄| 2022亚洲国产成人精品| 国产精品一区二区在线观看99| 国产伦理片在线播放av一区| 黄色配什么色好看| 午夜免费观看性视频| av视频免费观看在线观看| 午夜免费男女啪啪视频观看| 国产av一区二区精品久久| 嘟嘟电影网在线观看| 久久久久久久大尺度免费视频| 黄色视频在线播放观看不卡| 丝袜脚勾引网站| 国产黄片视频在线免费观看| 久久久久久久久久久久大奶| www.av在线官网国产| 亚洲中文av在线| 色网站视频免费| 满18在线观看网站| 精品国产一区二区三区久久久樱花| 亚洲欧美一区二区三区黑人 | 妹子高潮喷水视频| 国产在线一区二区三区精| 九九爱精品视频在线观看| 大又大粗又爽又黄少妇毛片口| 亚洲第一av免费看| 国产日韩欧美亚洲二区| 狂野欧美激情性bbbbbb| 国产成人a∨麻豆精品| 国产日韩一区二区三区精品不卡 | 一边摸一边做爽爽视频免费| 少妇猛男粗大的猛烈进出视频| 9色porny在线观看| 美女cb高潮喷水在线观看| 欧美 亚洲 国产 日韩一| 狂野欧美激情性bbbbbb| 三级国产精品片| 亚洲av不卡在线观看| 女的被弄到高潮叫床怎么办| 性色av一级| 日本91视频免费播放| 久久久欧美国产精品| 一级毛片aaaaaa免费看小| 久久精品国产亚洲av天美| 美女视频免费永久观看网站| 熟妇人妻不卡中文字幕| 亚洲精品国产av蜜桃| 亚洲欧美日韩另类电影网站| 国产精品一二三区在线看| 欧美性感艳星| 亚洲内射少妇av| 亚洲综合色网址| 欧美日韩成人在线一区二区| 久久久久精品久久久久真实原创| 免费高清在线观看视频在线观看| 欧美bdsm另类| 精品国产乱码久久久久久小说| 自拍欧美九色日韩亚洲蝌蚪91| 免费观看无遮挡的男女| 黑人欧美特级aaaaaa片| 天堂8中文在线网| 嫩草影院入口| 性色avwww在线观看| 能在线免费看毛片的网站| 欧美xxxx性猛交bbbb| 少妇 在线观看| 曰老女人黄片| 午夜激情福利司机影院| 午夜影院在线不卡| 国产免费现黄频在线看| 伦理电影大哥的女人| 免费观看在线日韩| 亚洲激情五月婷婷啪啪| 中文精品一卡2卡3卡4更新| 亚洲欧洲国产日韩| 免费观看av网站的网址| 九九爱精品视频在线观看| 欧美变态另类bdsm刘玥| 人体艺术视频欧美日本| 伦理电影大哥的女人| 中文字幕人妻丝袜制服| 亚洲在久久综合| 尾随美女入室| 国产一区有黄有色的免费视频| 飞空精品影院首页| 亚洲精品日韩在线中文字幕| 国产亚洲欧美精品永久| 久久精品国产自在天天线| 国产免费一级a男人的天堂| 交换朋友夫妻互换小说| 国产精品偷伦视频观看了| 欧美人与性动交α欧美精品济南到 | 最黄视频免费看| 一本—道久久a久久精品蜜桃钙片| √禁漫天堂资源中文www| 久久综合国产亚洲精品| 午夜91福利影院| 欧美xxxx性猛交bbbb| 18禁动态无遮挡网站| 欧美亚洲日本最大视频资源| 一区二区三区免费毛片| 99久国产av精品国产电影| 亚洲四区av| 日韩av免费高清视频| 精品视频人人做人人爽| videos熟女内射| 韩国高清视频一区二区三区| 美女视频免费永久观看网站| 性色av一级| 在线观看www视频免费| 国产日韩欧美亚洲二区| 欧美97在线视频| 午夜福利视频在线观看免费| 久久久精品免费免费高清| 欧美激情国产日韩精品一区| 国产av码专区亚洲av| 大话2 男鬼变身卡| 国产极品天堂在线| 精品国产一区二区久久| 久久人人爽av亚洲精品天堂| 女性被躁到高潮视频| 精品亚洲成国产av| 中文字幕久久专区| 一区二区三区精品91| 久久97久久精品| 涩涩av久久男人的天堂| 一区二区三区精品91| 热re99久久国产66热| 久久精品国产鲁丝片午夜精品| 午夜福利视频在线观看免费| 国产欧美日韩一区二区三区在线 | 国产精品女同一区二区软件| a级毛片免费高清观看在线播放| 精品久久久久久久久av| 自拍欧美九色日韩亚洲蝌蚪91| 中文字幕最新亚洲高清| 久久国产亚洲av麻豆专区| 人妻人人澡人人爽人人| 另类精品久久| 丁香六月天网| 99re6热这里在线精品视频| 国产男女超爽视频在线观看| 制服丝袜香蕉在线| 少妇人妻 视频| 精品久久国产蜜桃| 啦啦啦视频在线资源免费观看| 特大巨黑吊av在线直播| 22中文网久久字幕| 能在线免费看毛片的网站| 在线观看免费视频网站a站| 欧美三级亚洲精品| 色哟哟·www| 热re99久久精品国产66热6| 少妇的逼水好多| 一区二区三区精品91| 午夜老司机福利剧场| 少妇的逼水好多| 亚洲国产av影院在线观看| 久久久久精品性色| 久久女婷五月综合色啪小说| 伦理电影免费视频| 久久久久久久亚洲中文字幕| 欧美日韩视频精品一区| 人人妻人人添人人爽欧美一区卜| 国产精品99久久99久久久不卡 | 欧美一级a爱片免费观看看| 一级毛片黄色毛片免费观看视频| 搡女人真爽免费视频火全软件| 国产精品一区二区在线不卡| 国产日韩欧美视频二区| 国产一区有黄有色的免费视频| 久久久久国产网址| 免费人妻精品一区二区三区视频| 久久久久人妻精品一区果冻| 久久综合国产亚洲精品| 国产高清有码在线观看视频| 久久久精品区二区三区| 久久av网站| 亚洲精品视频女| 亚洲精品色激情综合| 人人澡人人妻人| 一级黄片播放器| 亚洲精品第二区| 国产片内射在线| 91精品伊人久久大香线蕉| 九色亚洲精品在线播放| www.av在线官网国产| 欧美日韩综合久久久久久| 国产欧美日韩综合在线一区二区| 一级毛片电影观看| 亚洲综合精品二区| 日日啪夜夜爽| 伊人久久精品亚洲午夜| 日产精品乱码卡一卡2卡三| 国产男女内射视频| 高清欧美精品videossex| 99久久精品国产国产毛片| 老熟女久久久| 国产黄频视频在线观看| av女优亚洲男人天堂| 精品酒店卫生间| 黑人猛操日本美女一级片| 亚洲不卡免费看| 汤姆久久久久久久影院中文字幕| 亚洲四区av| 日韩熟女老妇一区二区性免费视频| 黑人猛操日本美女一级片| 中文字幕免费在线视频6| 十八禁网站网址无遮挡| 男女免费视频国产| 这个男人来自地球电影免费观看 | 亚洲中文av在线| 看非洲黑人一级黄片| 国产精品久久久久久av不卡| av黄色大香蕉| 亚洲av二区三区四区| 精品国产乱码久久久久久小说| 观看美女的网站| 欧美丝袜亚洲另类| 亚洲,欧美,日韩| 国产精品一国产av| 日韩成人av中文字幕在线观看| 久久精品久久久久久久性| 中国美白少妇内射xxxbb| 91国产中文字幕| 青春草亚洲视频在线观看| 人妻系列 视频| 国产探花极品一区二区| 国产精品无大码| 免费观看性生交大片5| 午夜精品国产一区二区电影| 人人妻人人澡人人爽人人夜夜| 国产极品粉嫩免费观看在线 | 亚洲不卡免费看| 国产有黄有色有爽视频| 又粗又硬又长又爽又黄的视频| 免费观看的影片在线观看| 欧美97在线视频| av网站免费在线观看视频| 久久久久久久久大av| 日日摸夜夜添夜夜爱| 成年av动漫网址| 97超碰精品成人国产| 在线天堂最新版资源| 亚洲情色 制服丝袜| 男人添女人高潮全过程视频| 亚洲av.av天堂| 18禁动态无遮挡网站| 国产精品偷伦视频观看了| 午夜激情av网站| 制服丝袜香蕉在线| 亚洲av免费高清在线观看| 国产男女超爽视频在线观看| 91精品伊人久久大香线蕉| 国产伦理片在线播放av一区| 日韩伦理黄色片| 人妻人人澡人人爽人人| 欧美亚洲日本最大视频资源| 精品一区二区三卡| av.在线天堂| 日本猛色少妇xxxxx猛交久久| 一区二区三区乱码不卡18| av在线app专区| 亚洲经典国产精华液单| 桃花免费在线播放| 日韩欧美精品免费久久| 一个人免费看片子| 欧美xxⅹ黑人| 高清av免费在线| 韩国av在线不卡| a级片在线免费高清观看视频| av免费观看日本| 久久久精品区二区三区| 黄片无遮挡物在线观看| 婷婷成人精品国产| 欧美日韩视频精品一区| 欧美 日韩 精品 国产| 日产精品乱码卡一卡2卡三| 亚洲欧美一区二区三区国产| 成人毛片a级毛片在线播放| 欧美 亚洲 国产 日韩一| 国产高清不卡午夜福利| 一区二区三区免费毛片| 99视频精品全部免费 在线| 精品卡一卡二卡四卡免费| 高清视频免费观看一区二区| 日本vs欧美在线观看视频| 午夜福利影视在线免费观看| 精品人妻一区二区三区麻豆| 丝袜在线中文字幕| 肉色欧美久久久久久久蜜桃| 亚洲国产精品一区三区| 青春草视频在线免费观看| 国产熟女午夜一区二区三区 | 一级毛片aaaaaa免费看小| 最黄视频免费看| 水蜜桃什么品种好| 欧美激情 高清一区二区三区| 一本—道久久a久久精品蜜桃钙片| 狂野欧美白嫩少妇大欣赏| 久久久久久久久久成人| 国产成人精品婷婷| 成年av动漫网址| 男的添女的下面高潮视频| 国产免费视频播放在线视频| 18+在线观看网站| 欧美精品国产亚洲| 国产日韩欧美亚洲二区| 日韩伦理黄色片| 国产69精品久久久久777片| 人妻夜夜爽99麻豆av| 亚洲高清免费不卡视频| 一区二区日韩欧美中文字幕 | 美女大奶头黄色视频| 少妇猛男粗大的猛烈进出视频| 亚洲精品一二三| 观看av在线不卡| 国产亚洲一区二区精品| 人成视频在线观看免费观看| 精品一区在线观看国产| 高清在线视频一区二区三区| 五月伊人婷婷丁香| 一边摸一边做爽爽视频免费| 久久99一区二区三区| 精品少妇内射三级| 国产成人一区二区在线| 亚洲av男天堂| 国产欧美日韩一区二区三区在线 | 日本wwww免费看| 欧美3d第一页| 欧美精品一区二区大全| 99久久精品国产国产毛片| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | av电影中文网址| 欧美日本中文国产一区发布| 国产精品三级大全| 中文字幕制服av| 天天操日日干夜夜撸| 国精品久久久久久国模美| 另类亚洲欧美激情| 国产欧美另类精品又又久久亚洲欧美| 亚洲精品第二区| 国产在线免费精品| xxx大片免费视频| 18禁动态无遮挡网站| 精品熟女少妇av免费看| 久久久久人妻精品一区果冻| 亚洲美女搞黄在线观看| 亚洲精品乱码久久久久久按摩| 久久国内精品自在自线图片| 亚洲精品美女久久av网站| a级毛片免费高清观看在线播放| 精品亚洲成国产av| 日韩中字成人| 国产黄色视频一区二区在线观看| 大陆偷拍与自拍| 天美传媒精品一区二区| 另类亚洲欧美激情| 一本色道久久久久久精品综合| 亚洲国产欧美日韩在线播放| 国产精品无大码| 久热久热在线精品观看| 草草在线视频免费看| 伊人久久国产一区二区| 亚洲国产欧美在线一区| 赤兔流量卡办理| 在线观看美女被高潮喷水网站| 日本黄色日本黄色录像| 一区二区三区乱码不卡18| 永久免费av网站大全| 韩国av在线不卡| 欧美人与性动交α欧美精品济南到 | 亚洲精品日韩av片在线观看| 亚洲av在线观看美女高潮| 色吧在线观看| 考比视频在线观看| 人人妻人人添人人爽欧美一区卜| 国产高清不卡午夜福利| 国产 精品1| 最新的欧美精品一区二区| 欧美3d第一页| 国产成人91sexporn| 成人综合一区亚洲| 中文字幕最新亚洲高清| 免费大片黄手机在线观看| 丰满少妇做爰视频| 国产女主播在线喷水免费视频网站| 亚洲精品成人av观看孕妇| 免费观看a级毛片全部| 内地一区二区视频在线| 一本色道久久久久久精品综合| 国产乱来视频区| 国产永久视频网站| 久久国内精品自在自线图片| 欧美最新免费一区二区三区| 日韩成人av中文字幕在线观看| a级片在线免费高清观看视频| 亚洲av福利一区| 久久久国产欧美日韩av| 极品人妻少妇av视频| 三上悠亚av全集在线观看| 久久久午夜欧美精品| 精品一区二区三区视频在线| 三级国产精品欧美在线观看| 欧美 亚洲 国产 日韩一| 久久国产精品大桥未久av| 久久 成人 亚洲| 高清视频免费观看一区二区| 国产视频首页在线观看| h视频一区二区三区| 免费不卡的大黄色大毛片视频在线观看| 欧美 日韩 精品 国产| 亚洲天堂av无毛| 亚洲精品成人av观看孕妇| 久久久久久久久久久久大奶| 久久国内精品自在自线图片| 欧美日韩综合久久久久久| av卡一久久| 欧美日本中文国产一区发布| 免费大片18禁| 尾随美女入室| 国产日韩一区二区三区精品不卡 | 国产一区二区三区av在线| 免费黄色在线免费观看| 亚洲欧美精品自产自拍| av国产久精品久网站免费入址| 国产成人精品福利久久| xxxhd国产人妻xxx| 精品少妇黑人巨大在线播放| 天堂8中文在线网| 亚洲欧美成人精品一区二区| 国产精品三级大全| 久久久精品免费免费高清| 日韩av免费高清视频| 精品一区二区三卡| 日韩中文字幕视频在线看片| 十八禁高潮呻吟视频| 日本wwww免费看| 亚洲人成网站在线播| 2022亚洲国产成人精品| 欧美xxxx性猛交bbbb| 22中文网久久字幕| 亚洲国产精品成人久久小说| 免费观看av网站的网址| 亚洲国产最新在线播放| 久久久久久久久久久免费av| 卡戴珊不雅视频在线播放| 成年人免费黄色播放视频| 精品少妇久久久久久888优播| 欧美激情 高清一区二区三区| 少妇的逼好多水| h视频一区二区三区| 多毛熟女@视频| 赤兔流量卡办理| 中国国产av一级| 高清视频免费观看一区二区| 中文字幕精品免费在线观看视频 | 9色porny在线观看| 一级毛片黄色毛片免费观看视频| 国产精品一二三区在线看| 亚洲国产av影院在线观看| 精品视频人人做人人爽| 日日爽夜夜爽网站| 国产有黄有色有爽视频| 久久久精品区二区三区| 各种免费的搞黄视频| 亚洲精品一二三| 国产av国产精品国产| 国产精品一区二区在线观看99| 亚洲婷婷狠狠爱综合网| 老司机影院毛片| 99久久综合免费| 满18在线观看网站| 嘟嘟电影网在线观看| 中文精品一卡2卡3卡4更新| 亚洲久久久国产精品| 2021少妇久久久久久久久久久| 欧美日韩在线观看h| 久久久久久久亚洲中文字幕| 精品少妇久久久久久888优播| 国产成人精品久久久久久| 国产精品久久久久久久久免| 国产极品粉嫩免费观看在线 | 免费观看在线日韩| 精品人妻熟女av久视频| 中文天堂在线官网| 国产乱来视频区| 观看av在线不卡| 中文字幕亚洲精品专区| 少妇丰满av| 亚洲图色成人| 成人国产av品久久久| 久久久久久久大尺度免费视频| 成人国产麻豆网| 精品亚洲成a人片在线观看| xxx大片免费视频| 欧美变态另类bdsm刘玥| 成人漫画全彩无遮挡| 国产探花极品一区二区| 热re99久久国产66热| 国产精品久久久久久久电影| 2021少妇久久久久久久久久久| 男的添女的下面高潮视频| 韩国av在线不卡| 日韩中字成人| 97在线人人人人妻| 久久久久视频综合| 国产色婷婷99| 多毛熟女@视频| 高清视频免费观看一区二区| 高清不卡的av网站| 久久国产精品大桥未久av| 免费日韩欧美在线观看| 亚洲精品亚洲一区二区| 国产亚洲一区二区精品| 国产欧美日韩综合在线一区二区| 中文字幕人妻熟人妻熟丝袜美| xxx大片免费视频| 免费看不卡的av| xxxhd国产人妻xxx| 免费高清在线观看日韩| 精品一区二区三区视频在线| 国产极品天堂在线| 美女视频免费永久观看网站| 亚洲av男天堂| 另类亚洲欧美激情| av国产精品久久久久影院| 亚洲成人av在线免费| 曰老女人黄片| 亚洲美女黄色视频免费看| 飞空精品影院首页| 桃花免费在线播放| 成年女人在线观看亚洲视频| 18禁在线播放成人免费| 久久精品人人爽人人爽视色| 国产精品熟女久久久久浪| 91国产中文字幕| 乱人伦中国视频| av又黄又爽大尺度在线免费看| 日韩一区二区视频免费看| 国产成人av激情在线播放 | 99久久中文字幕三级久久日本| av专区在线播放| 日本av手机在线免费观看| 久久久国产精品麻豆| 国产片特级美女逼逼视频| 亚洲美女黄色视频免费看| 精品亚洲成a人片在线观看| 国产精品欧美亚洲77777| 亚洲在久久综合|