• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    跨度語義增強的命名實體識別方法

    2022-07-19 02:17:48耿汝山陳艷平唐瑞雪黃瑞章秦永彬董博
    西安交通大學學報 2022年7期
    關鍵詞:跨度表格注意力

    命名實體識別(named entity recognition,NER)是自然語言處理(nature language processing,NLP)中一項重要的基本任務

    ,文本中的實體往往攜帶重要的信息,因此識別實體對于下游任務如關系提取

    、問題生成

    和實體鏈接

    等有重要的影響和積極的意義。由于語言在表達上具有迭代、遞歸的特點,文本中存在著大量的嵌套語義。例如,“秘魯總統(tǒng)藤森撤換三軍司令”,“秘魯總統(tǒng)藤森”中嵌套著“藤森”這個實體,且它們歸類的實體類型都為“人”。嵌套語義識別依然是自然語言處理中的研究難點。

    目前,基于深度學習的命名實體識別的方法可以分為基于序列模型、基于跨度模型和超圖的方法?;谛蛄行畔⒌姆椒ㄊ菍φZ句中的每個字符打標簽,其主要思想是通過神經網絡的方法對每個字符進行向量表示然后通過一定的編碼運算分類。依據(jù)每個字符分類的類型再合并為實體

    ?;诳缍饶P偷姆椒ㄊ菍ψ址M行組合以形成不同的跨度,跨度信息中包含有每個字符的信息,因此特定的跨度信息代表著特定的實體信息,所以通過對跨度信息的分類來識別不同的實體

    ?;诔瑘D的方法是允許一條邊連接到多個節(jié)點,以代表不同的實體,使用神經網絡對這些邊和節(jié)點進行編碼最后從超圖標簽中恢復實體

    。雖然深度學習的方法可以加入額外的語義特征信息,但是以上這些方法沒有考慮字與字之間的交互問題,會出現(xiàn)語義不足的情況。語義不足會降低模型對于實體的識別精確度,以及無法識別出存在嵌套情況的實體。

    循環(huán)神經網絡(recurrent neural networks,RNN)模型在傳統(tǒng)的神經網絡模型的基礎上發(fā)展起來,因而具有很強的非線性數(shù)據(jù)處理能力,在機器翻譯、自動問答、句法解析等自然語言處理任務中被廣泛的使用。RNN是一類用于處理序列數(shù)據(jù)的神經網絡模型,序列數(shù)據(jù)具有前后數(shù)據(jù)相關聯(lián)的特點

    。但是,RNN在參數(shù)過多的時候容易發(fā)生梯度爆炸問題,為了改善其局限性,研究人員提出了許多改進的循環(huán)神經網絡結構,其中長短期記憶網絡(long short term memory,LSTM)和門控循環(huán)單元(gate recurrent unit,GRU)就是最常用于處理文本循環(huán)神經網絡變種模型。文獻[16]模型使用分層的RNN對人體的姿勢進行識別,文獻[17]模型使用門控RNN模型增強了模型對長距離信息的學習能力,文獻[18]將殘差網絡引入RNN中處理更長的文本序列。通常,RNN用來處理一維信息,無法處理超越一維的信息。對于此問題,多維循環(huán)神經網絡(multi-dimensional recurrent neural networks,MD-RNN)

    被提出并可以在高維度的信息上進行語義增強。目前,多維循環(huán)神經網絡已經在圖像分類

    和語音識別

    等領域都取得了優(yōu)異的效果。MD-RNN是RNN的一種泛化,通過將單個循環(huán)神經網絡的連接替換為與數(shù)據(jù)維度相同的連接來處理多維數(shù)據(jù)。為了增強MD-RNN利用上下文信息的能力,同時避免環(huán)節(jié)RNN在處理長序列數(shù)據(jù)時梯度爆炸或梯度消失的問題,通常將長短期記憶網絡(LSTM)和門控循環(huán)神經網絡(gated recurrent unit,GRU)用作隱藏單元。

    基于上述研究,MD-RNN為融合跨度語義信息提供了一種有效的手段,在一定程度上解決了語義不足的問題。本文提出了一種增強跨度信息的方法,在利用跨度信息進行實體識別的基礎上,增強跨度之間的語義特征,從而有效地增加了跨度的語義信息。首先,使用預訓練語言模型提取字符向量信息,對字符向量進行枚舉拼接形成矩陣。其次,對矩陣使用MD-RNN進行跨度級的語義增強。最后,對矩陣中的跨度進行分類。模型在ACE2005英文數(shù)據(jù)集與中文數(shù)據(jù)集上進行了實驗,分別取得了86.92和81.16的

    值,與其他主流的方法相比,該方法取得了最優(yōu)的結果。

    期望、熵和超熵是代表云模型的三大數(shù)字特征。期望作為整個云圖的中心值,是隸屬度最大、最能表達定性要求的點;熵值則表達出了云的模糊性,指的是云模型在整個坐標區(qū)域的跨度大??;超熵代表了不確定性,超熵越大,云模型的離散程度越大,云圖越分散。

    1 跨度語義增強模型

    模型的整體結構如圖1所示,主要分為編碼、表填充、跨度語義增強、輸出4個模塊,其中表填充和跨度意義增強可以反復疊加多層,下面分別介紹各個模塊。

    1.1 編碼

    假設輸入模型的一句話

    =〈

    ,

    ,…,

    〉,

    表示句子中的第

    個字。對

    通過ALBERT的預訓練語言模型提取出含有上下文信息的連續(xù)稠密向量

    ×

    ,

    表示句子長度,同時使用GloVe預訓練字向量將其編碼為連續(xù)稠密向量

    ×

    ,公式如下

    本模型的注意力的計算流程如圖4所示。將注意力機制擴展到多個頭,并且都有獨立的參數(shù)。拼接輸出,使用全連接層來得到最終的注意力向量,其余部分與Transformer類似。

    ,

    =

    (

    )

    (1)

    =

    (

    )

    (2)

    這件事情翠姨是曉得的,而今天又見了我的哥哥,她不能不想哥哥大概是那樣看她的。她自覺地覺得自己的命運不會好的?,F(xiàn)在翠姨自己已經訂了婚,是一個人的未婚妻;二則她是出了嫁的寡婦的女兒,她自己一天把這個背了不知有多少遍,她記得清清楚楚。

    (3)

    2

    1

    2 評價指標

    1.2 表填充

    首先將得到的編碼層輸出

    =[

    ,

    ,

    ,…,

    ]進行枚舉拼接。將一個長度為

    的句子拼接為

    ×

    的表格

    ××

    ,其中表格

    列的位置對應句子中第

    個詞與第

    個詞進行拼接,此時

    并不包含上下文的信息,公式如下

    ,,

    =max(0,[

    -1,

    ;

    -1,

    ])

    (4)

    式中

    表示當前運算的層數(shù)。表格

    中每一個格子都代表著一個子序列跨度,這樣就將句子中所有可能的子序列都表示出。同時,將ALBERT預訓練模型中得到的注意力權重

    與表格拼接,作為補充信息,更新公式如下

    ,,

    =max(0,[

    -1,

    ;

    -1,

    ;

    ,

    ])

    (5)

    通過這種方式,可以將預訓練模型的權重

    添加到跨度語義增強中,補充語義信息。

    (3)重介質選和浮選效果差,實際生產數(shù)據(jù)與理論數(shù)據(jù)偏差大。主要表現(xiàn)在介耗高達4.5 kg/t,遠高于同行業(yè)水平;循環(huán)水濃度高,為保證礦井生產,不得不強制洗煤生產,導致重介質選和浮選效果惡化;重介質操作困難,不穩(wěn)定,導致矸石中小于1.80 kg/L密度級達到4%左右,洗混煤中小于1.40 kg/L密度級在10%上下。

    1.3 跨度語義增強

    通過拼接得到的每個表格只有邊界的信息,缺少句子的上下文信息,因此使用MD-RNN增強跨度語義信息以彌補缺失的信息。由于傳統(tǒng)循環(huán)神經網絡是在一維的信息上進行計算,因此只接受上一個位置的隱藏層輸出。然而,表格具有二維結構的特點,所以二維循環(huán)神經網絡可以充分利用表格信息。在表格中每個位置的隱藏層不僅接受表格橫向的上一個位置的隱藏層輸出,也接受表格縱向的上一個位置的隱藏層輸出。

    將表格

    輸入到使用GRU作為隱層的MD-RNN中計算,得到表格

    。整個計算過程分為門控計算和隱層計算兩部分。計算門控的過程如下

    (6)

    (7)

    (8)

    (9)

    (10)

    實體識別需要同時識別出實體準確的位置和類別,只有當實體位置和類別都識別正確時結果才算正確。本文實驗使用綜合指標

    值來衡量模型性能,公式如下

    (11)

    (12)

    (13)

    式(17)表示3種輸入之間的運算關系。

    將序列信息升為表格信息帶來了計算量上的指數(shù)增加,因此需要考慮對表格和計算進行一定的優(yōu)化。在表格存儲的信息中反對角線是相同的,因此為了加速計算以減少運算量可以只關注矩陣的上三角信息。一個長度為

    的序列更新為表格信息后只需要計算(

    +1)×

    2個格子,MD-RNN可以在行與列方向上任意挑選方向組合。如圖2所示,MD-RNN在

    維上有2

    種計算方向,在二維的數(shù)據(jù)上共有4種方式。

    根據(jù)文本信息的特點,使用所有方向上的信息會導致一些計算的重復利用,并不能很好增強跨度語義信息。為了降低計算量同時盡可能使當前跨度學習到臨近跨度的語義信息,可只選擇兩個方向(

    )(

    )進行計算,并將計算的結果拼接作為跨度語義增強后的輸出,計算公式如下

    (14)

    (15)

    (16)

    如圖3所示,綠色方塊代表當前的跨度,藍色的方塊代表了臨近的跨度,(

    )方向上的當前跨度會增強后一個跨度的信息,(

    )方向上的會增強到之前跨度的信息,最后將兩個方向上的結果進行拼接,得到包含跨度上下文信息的表格

    。

    注意力的使用是為了梳理跨度信息,跨度信息在經過語義增強后會出現(xiàn)語義信息混亂的情況。注意力運算將根據(jù)序列信息調整跨度信息,輸入是一條句子的向量,第

    個向量代表著句子中的第

    個字,以及MD-RNN的輸出表格

    ,其整體結構是基于Transformer,將自注意力機制(self-attention)中的縮放點乘替換成跨度引導的注意力機制

    。Transformer在自然語言處理領域取得了優(yōu)異的成績,其采用的自注意力機制是成功的關鍵因素

    。傳統(tǒng)的自注意力機制有查詢(

    )、鍵(

    )和值(

    )3個輸入,計算過程如下

    總之,語文生活化,生活語文化。無論哪種方式讀寫結合,無不彰顯《普通高中語文新課標》“語文學科素養(yǎng)是學生在積極的語言實踐活動中積累與構建,并在真實的語言運用情境中表現(xiàn)出來的語言能力及其品質,是學生在語文學習中獲得的語言知識與語言能力,思維方法與思維品質,情感、態(tài)度與價值觀的綜合體現(xiàn)”這一理念,因為讀寫結合是語文科本質性的行為表現(xiàn),語文核心素養(yǎng)的研究也需要以促進學生發(fā)展為基礎、以語文科塑造人的獨立品格與所需能力為基礎實現(xiàn)學生終身教育,讓我們一起努力踐行讓生活生命作文與語文核心素養(yǎng)齊飛吧!

    (17)

    本模型的數(shù)據(jù)輸入來自前一個序列表示層

    -1

    。在self-attention中考慮

    =

    =

    =

    ,可以發(fā)現(xiàn)函數(shù)softmax的輸出是一個基本的注意力權重,而MD-RNN輸出的

    來自于

    -1

    。因此,可以用

    來代替計算

    的相似度,這樣就可以把

    帶入到self-attention公式。這個過程稱為跨度引導的注意力機制,公式如下

    語文學習中,若學生具備綜合閱讀能力,能夠幫助學生更好地理解課文內容,加強學生對課本中文字及詞語等知識的理解,這對學生獲取優(yōu)異的語文成績有很大幫助。此外,學生綜合閱讀能力的提高還對學生口語表達能力及寫作能力的提升有巨大幫助。學生具備綜合閱讀能力,可以對文章內容獲得全方位的理解,掌握文章的表達方法,體會文章的思想情感,這樣可以讓學生在口語表達的時候用詞更加準確,并且有效表達自己的思想情感,同時借助綜合閱讀還可以積累一些有效的寫作方法與寫作素材,為學生進行文章寫作奠定了良好的基礎。

    (

    ,

    )=

    (18)

    式中:

    表示可學習參數(shù),用于調整

    的維度;

    來自于字符序列

    -1

    。與傳統(tǒng)的注意力的計算方法相比,使用跨度信息來引導計算會有一些相對應的優(yōu)勢:①不需要計算相似度,而使用

    來減少計算量;②

    的計算過程有關于行、列和前幾層的信息,這可以更好地獲得上下文信息;③使用

    允許表格編碼器參與序列表示學習過程。

    式中:X為樣品中元素的含量,mg/100 g;c為測定用樣品中元素的濃度,μg/mL;c0為試劑空白液中元素的濃度,μg/mL;V為樣品定容體積,mL;f為稀釋倍數(shù);m為樣品質量。

    在注意力機制后使用前饋神經網絡(FFNN)對關注權重進行串聯(lián)和歸一化,公式如下

    (19)

    (20)

    式中

    表示層規(guī)范(LayerNorm)運算。

    1.4 預測與損失函數(shù)

    在最后一層跨度意義增強后,對輸出的序列信息進行枚舉拼接,并使用拼接的表格信息

    去預測嵌套的實體標簽,公式如下

    (

    )=softmax(

    +

    )

    (21)

    式中:

    表示預測標簽的隨機變量;

    表示模型參數(shù)的估計概率函數(shù)。使用交叉熵函數(shù)被用作損失函數(shù),給定輸入

    和標簽

    計算損失函數(shù),公式如下

    (22)

    在訓練的過程中,只考慮矩陣中上三角的內容,選擇最可能的標簽作為答案進行輸出,公式如下

    (23)

    2 實驗與結果分析

    為了驗證本文提出的基于跨度語義增強的嵌套命名實體識別模型的效果,所以選擇與其它基于深度學習的命名實體識別模型進行對比。本文在ACE2005中文數(shù)據(jù)集和ACE2005英文數(shù)據(jù)集上進行實驗。使用精確率

    、召回率

    以及

    值作為實驗的主要評估指標,通過在相同數(shù)據(jù)集上進行實驗,驗證本模型的各項性能。

    2.1 實驗設置

    2

    1

    1 數(shù)據(jù)集介紹

    第二,善用教材中隱性數(shù)學文化知識進行拓展訓練.當前教材中出現(xiàn)了許多高考數(shù)學文化命題素材來源題.如“阿波羅尼斯圓”、“回文數(shù)”、“三角形數(shù)”分別出現(xiàn)在人教版高中數(shù)學必修2第131頁習題4及必修3第51頁第3題和必修5第28頁的正文部分.因此,教師上課時要有意識的對這些數(shù)學文化素材或歷史名題進行拓展改編.比如根據(jù)布洛卡點的基本性質,就可以結合余弦定理、外森比克不等式和等比數(shù)列等知識拓展許多變式問題[6].

    ACE2005中文數(shù)據(jù)集和ACE2005英文數(shù)據(jù)集是語言數(shù)據(jù)聯(lián)盟(Linguistic Data Consortium,LDC)于2006年發(fā)布用于各項自然語言處理任務的公共數(shù)據(jù)集。ACE2005英文數(shù)據(jù)集包含7種實體類別,共599篇英語文檔,分別為PER(人物,person)、ORG(組織機構,organization)、GPE(地理/社會/政治實體,geo-political)、LOC(處所,locations)、FAC(設施,facilities)、VEH(交通工具,vehicle)、WEA(武器,weapon)。ACE2005中文數(shù)據(jù)集包括同樣的7種實體類別,共633篇中文文檔。

    =([

    ;

    ])

    +

    兩個數(shù)據(jù)集都按照8∶1∶1劃分位訓練集、驗證集和測試集,其中ACE2005英文數(shù)據(jù)集采用文獻[5]的數(shù)據(jù)集劃分方法。

    式中:

    表示ALBERT語言模型的運算;

    表示GloVe語言模型的運算;

    ××

    表示ALBERT的注意力向量;

    ×

    表示編碼層的輸出向量;

    ×

    表示可學習參數(shù)。通過將兩種向量進行拼接,并經過線性層來代表編碼層輸出向量。

    (24)

    (25)

    (26)

    式中:

    表示正確識別出的命名實體個數(shù);

    表示識別出的命名實體個數(shù);

    表示標準結果中的命名實體個數(shù)。

    2.1.3 實驗環(huán)境與參數(shù)設置

    本文提出的跨度語義增強模型在Python3.7和Pytorch1.8的環(huán)境下進行實驗。設置模型在訓練、驗證與測試時的Batch_size分別為16、8、8。為降低神經網絡在訓練過程中過擬合造成的影響,設置Dropout為0.5。初始化的字嵌入向量使用了GloVe模型進行訓練并將其保存,其維度為100。在模型訓練中不更新單詞的GloVe向量,將隱藏層的大小設置為200,并且將每個MD-RNN的隱藏層大小設置為100。學習率設置為0.001,Adam作為模型的優(yōu)化工具,上下文的信息使用ALBERT進行訓練并保存最后一層的輸出作為文字的上下文信息。ALBERT是一個共享Transformer參數(shù)的輕量型BERT模型

    ,在模型中使用的版本是albert-xxlargev2,其隱藏層的維度為4 096。

    2.2 結果分析

    本文選取了幾個在命名實體識別上取得了較高性能的模型進行對比,表1展示了與這些方法在ACE2005英文數(shù)據(jù)集上的性能區(qū)別,通過使用ALBERT作為預訓練語言模型來提供上下文的信息。本文模型的

    值達到了最優(yōu)的86

    92,

    、

    值也達到了最好的性能,表明了本文方法的優(yōu)越性。

    在魚、蟹、甲魚等養(yǎng)殖中,也可以套種一些青蝦、黃鱔等新品種來養(yǎng)殖。還需要促進整體的混合養(yǎng)殖,將龜、蟹、青蝦等養(yǎng)殖品種和魚類進行混合養(yǎng)殖,可以將其中的一個品種作為主體,并在有限的水體資源中充分應用,將達到經濟效益的提升。

    2.3 PCR敏感性試驗 測定模板DNA濃度為50 ng/μL,通過1∶10倍比稀釋法稀釋模板進行PCR敏感性試驗,當模板稀釋度為10-8時,沒有擴增條帶出現(xiàn),見圖3,即PCR法檢測下限達到10-7,即本PCR方法檢測DNA的靈敏度達到fg水平。

    從整體上看,文獻[8]的模型使用次佳最優(yōu)路徑的方法識別嵌套命名實體在精確率

    和召回率

    結果上明顯低于其他方法。這與其使用的選擇次佳路徑的方式有關,選擇次佳路徑的算法會對結果有著明顯的影響和限制。文獻[26]的回歸模型性能與其他傳統(tǒng)方法比取得了最好的F

    值,其模型在設計的過程中考慮到了跨度信息利用不充分的問題,以及長實體識別較困難的現(xiàn)象,用回歸來生成跨度建議來定位實體位置,然后利用相應的類別標記邊界來對跨度建議再次調整。與其相比,本文的模型在精確率、召回率和F

    值上都高于回歸模型,這說明本文模型識別出的實體絕大多數(shù)是真實有效的。這是由于結合了跨度級上下文信息為模型提供了更加準確的實體表示,使得分類器有能力確定矩陣中的每一個單位是否為有效的實體跨度。

    鼓勵發(fā)展煤矸石燒結空心磚、輕骨料等新型建材,替代粘土制磚。鼓勵煤矸石建材及制品向多功能、多品種、高檔次方向發(fā)展。積極利用煤矸石充填采空區(qū)、采煤沉陷區(qū)和露天礦坑,開展復墾造地。

    表2展示模型在ACE2005中文數(shù)據(jù)集上的性能?!癝hallow BA”模型采用兩個獨立的CRF模型來識別起點與終點邊界,候選實體建立起來后,再對候選實體進行分類。“Cascading-out”模型每種實體被單獨的識別,如果出現(xiàn)嵌套的相同類型的實體,則會識別最外層的實體?!癓ayering-out”模型是由兩個獨立的BERT-BiLSTM-CRF模型去識別外層的實體與內層的實體,“NNBA”模型通過兩個BiLSTM-CRF模型分別識別實體的開始與結束位置,然后通過組合的方式生成候選實體再分類。本文模型的精確率較高,大幅度超過了之前的模型,這可能與堆疊多層的跨度語義增強模塊有關。

    本文模型在兩種語言的數(shù)據(jù)集上進行實驗是為了驗證不同語言上的適用性。整體上,本文的模型都取得了非常高的結果。

    2.3 句子長度(字數(shù))對模型性能影響分析

    長句子會導致模型對實體信息不敏感

    ,提高模型對長句子中實體識別的能力對模型性能有積極的作用,因此探究去掉跨度語義增強模塊對不同長度句子的性能影響。本實驗在ACE2005英文數(shù)據(jù)集上分析不同長度句子對于跨度語義增強模塊的影響,模型參數(shù)保持不變,其結果如圖5所示。

    通過對兩種方法進行對比,完整的模型比去掉跨度語義增強模塊的模型在長句子的區(qū)間(40到59與60到79)上有了明顯的性能提升。在較短句子的區(qū)間上,也有一定的提升。

    2.4 注意力權重可視化

    為了更好地探索注意力機制在模型中的作用,將注意力權重進行了可視化,如圖6所示,使用bertvit工具進行可視化處理。為了更好地突出與self-attention的不同,同時也對模型進行了修改并做了self-attention的可視化。重點比較兩種算法下的單詞與單詞之間的關系,模型的其他參數(shù)與之前保持一致,在此使用一個例子“We’re paying attention to all those details for us, Chris Plante at the pentagon.”來進行說明。這句話中有4個實體,即“we”“Chris Plante at the pentagon”“the pentagon”和“us”。

    在圖6中深色的線代表相對較高的注意權重,右側的層數(shù)代表著堆疊的跨度增強模塊的層數(shù),可以看出,不同層之間注意力關注到的內容是不同的,“Chris”對“we”“us”和“Plante”的注意權重較高,它們的實體類型是相同的,同一類型的實體彼此之間有相對較高的相似度。因此,同一類型的實體之間的注意權重是相互關聯(lián)的,與self-attention算法相比,self-attention的關注重點不夠突出,即圖中的深色線不夠明顯。由此可以證明,本模型的注意力算法優(yōu)于原始的算法,并且可以關注到同種類型實體之間的關系。

    2.5 消融實驗

    為了驗證注意力機制和MD-RNN的有效性,本文設計了消融實驗,結果如表3所示,w/o表示去掉某模塊。注意力機制在模型中用于梳理跨度信息的權重,在去掉注意力機制后表格內的序列信息會不可避免的產生一定的混亂,這對于實體的準確性有較大的影響。在去掉跨度引導的注意力模塊后,模型性能有了明顯下降。

    In conclusion, pain in pancreatic cancer has a complex physiopathology. It eminently implies a neuronal invasion and a neurogenic inflammation.

    MD-RNN在模型中用于進行跨度語義增強,并且融合跨度級語義特征信息,去掉MD-RNN后性能有所下降,這證明了跨度信息增強對于模型性能提升有幫助??缍日Z義信息的增強可以補充因利用邊界信息導致丟失的部分語義信息,并且跨度信息對于嵌套實體識別有著較大的幫助。

    捷達車穩(wěn)穩(wěn)駛停學校古城墻旁,小女新開業(yè)的書店仍然燈火輝煌,我匆匆下車。丁香花搖下車窗玻璃探出頭來忽然問我,“老龔,昆明是春城,它很美吧!” 我正欲回答,那車,卻像一陣風一樣遠了。

    2.6 層數(shù)與性能

    如表4所示,探討了表填充和跨度引導注意力機制層數(shù)與模型性能之間的關系。為了保持與前面實驗的一致性,選擇ACE2005英文數(shù)據(jù)集進行實驗,除了編碼器的層數(shù)之外其他的超參數(shù)均保持不變。一般來說,增加編碼器數(shù)量可以提高模型的性能,但當編碼器的數(shù)量超過一個范圍時,性能將開始下降。在實驗中選擇編碼器層數(shù)為1、2、3、4、5。通過對實驗結果進行分析發(fā)現(xiàn),在層數(shù)大于3之后,模型的性能就已經開始下降,這應該是由過擬合而導致的性能下降。

    3 結 語

    本文提出一種跨度語義增強的命名實體識別方法,解決了命名實體識別中出現(xiàn)的語義不足、召回率不高等問題,并將傳統(tǒng)的一維文本信息拼接成二維的表格信息,使用MD-RNN和注意力模型作為跨度語義增強模塊,進而有效增強了跨度之間的聯(lián)系。實驗結果表明,本文提出的方法相比之前基于跨度模型的嵌套命名實體識別方法有著明顯優(yōu)勢。

    透霧,也稱視頻圖像增透技術。大華透霧技術主要分為電子透霧和光學透霧兩種。大華電子透霧基于ISP上算法實現(xiàn),適用于一般的輕度霧霾環(huán)境使用,主要優(yōu)勢有:

    在下一步的工作中,將探究如何將跨度語義增強方法應用到其他領域,以及探究一種新的跨度語義融合機制去融合跨度間的語義信息。

    :

    [1] 黃銘, 劉捷, 戴齊. 融合字詞特征的中文嵌套命名實體識別 [J]. 現(xiàn)代計算機, 2021, 27(34): 21-28.

    HUANG Ming, LIU Jie, DAI Qi. Chinese Nested named entity recognition integrating improved representation learning method [J]. Modern Computer, 2021, 27(34): 21-28.

    [2] XIONG Chenyan, LIU Zhengzhong, CALLAN J, et al. Towards better text understanding and retrieval through kernel entity salience modeling [C]∥The 41st International ACM SIGIR Conference on Research & Development in Information Retrieval. New York, NY, USA: ACM, 2018: 575-584.

    [3] ZHOU Qingyu, YANG Nan, WEI Furu, et al. Neural question generation from text: a preliminary study [C]∥Natural Language Processing and Chinese Computing. Berlin: Springer, 2018: 662-671.

    [4] GUPTA N, SINGH S, ROTH D. Entity linking via joint encoding of types, descriptions, and context [C]∥Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2017: 2681-2690.

    [5] JU Meizhi, MIWA M, ANANIADOU S. A neural layered model for nested named entity recognition [C]∥Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Seattle, Washington, USA: ACL, 2018: 1446-1459.

    [6] FISHER J, VLACHOS A. Merge and label: a novel neural network architecture for nested NER [C]∥Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2019: 5840-5850.

    [7] WANG Jue, SHOU Lidan, CHEN Ke, et al. Pyramid: a layered model for nested named entity recognition [C]∥Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2020: 5918-5928.

    [8] SHIBUYA T, HOVY E. Nested named entity recognition via second-best sequence learning and decoding [J]. Transactions of the Association for Computational Linguistics, 2020, 8: 605-620.

    [9] XIA Congying, ZHANG Chenwei, YANG Tao, et al. Multi-grained named entity recognition [C]∥Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2019: 1430-1440.

    [10] XU Mingbin, JIANG Hui, WATCHARAWITTAYAKUL S. A local detection approach for named entity recognition and mention detection [C]∥Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2017: 1237-1247.

    [11] SOHRAB M G, MIWA M. Deep exhaustive model for nested named entity recognition [C]∥Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2018: 2843-2849.

    [12] LUAN Yi, WADDEN D, HE Luheng, et al. A general framework for information extraction using dynamic span graphs [C]∥Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Volume 1 Human Language Technologies. Seattle, Washington, USA: ACL, 2019: 3036-3046.

    [13] LU Wei, ROTH D. Joint mention extraction and classification with mention hypergraphs [C]∥Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2015: 857-867.

    [14] MUIS A O, LU Wei. Labeling gaps between words: recognizing overlapping mentions with mention separators [C]∥Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2017: 2608-2618.

    [15] 張西寧, 郭清林, 劉書語. 深度學習技術及其故障診斷應用分析與展望 [J]. 西安交通大學學報, 2020, 54(12): 1-13.

    ZHANG Xining, GUO Qinglin, LIU Shuyu. Analysis and prospect of deep learning technology and its fault diagnosis application [J]. Journal of Xi’an Jiaotong University, 2020, 54(12): 1-13.

    [16] DU Yong, WANG Wei, WANG Liang. Hierarchical recurrent neural network for skeleton based action recognition [C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ, USA: IEEE, 2015: 1110-1118.

    [17] TANG Duyu, QIN Bing, LIU Ting. Document modeling with gated recurrent neural network for sentiment classification [C]∥Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2015: 1422-1432.

    [18] WANG Yiren, TIAN Fei. Recurrent residual learning for sequence classification [C]∥Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2016: 938-943.

    [20] GRAVES A, MOHAMED A R, HINTON G. Speech recognition with deep recurrent neural networks [C]∥2013 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ, USA: IEEE, 2013: 6645-6649.

    [21] GRAVES A, SCHMIDHUBER J. Offline handwriting recognition with multidimensional recurrent neural networks [C]∥Proceedings of the 21st International Conference on Neural Information Processing Systems. New York, NY, USA: ACM, 2008: 545-552.

    [22] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [C]∥Proceedings of the 31st International Conference on Neural Information Processing Systems. New York, NY, USA: ACM, 2017: 6000-6010.

    [23] 方軍, 管業(yè)鵬. 基于雙編碼器的會話型推薦模型 [J]. 西安交通大學學報, 2021, 55(8): 166-174.

    FANG Jun, GUAN Yepeng. A session recommendation model based on dual encoders [J]. Journal of Xi’an Jiaotong University, 2021, 55(8): 166-174.

    [24] 李軍懷, 陳苗苗, 王懷軍, 等. 基于ALBERT-BGRU-CRF的中文命名實體識別方法 [J/OL]. 計算機工程 [2021-10-01]. https:∥doi.org/10.19678/j.issn.100 0-3428.00616 30.

    LI Junhuai, CHEN Miaomiao, WANG Huaijun, et al. Chinese named entity recognition method based on ALBERT-BGRU-CRF [J/OL]. Computer Engineering [2021-10-01]. https:∥doi.org/10.19678/j.issn.100 0-3428.00616 30.

    [25] YU Juntao, BOHNET B, POESIO M. Named entity recognition as dependency parsing [C]∥Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2020: 6470-6476.

    [26] SHEN Yongliang, MA Xinyin, TAN Zeqi, et al. Locate and label: a two-stage identifier for nested named entity recognition [C]∥Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing: Volume 1. Seattle, Washington, USA: ACL, 2021: 2782-2794.

    [27] CHEN Yanping, ZHENG Qinghua, CHEN Ping. A boundary assembling method for Chinese entity-mention recognition [J]. IEEE Intelligent Systems, 2015, 30(6): 50-58.

    [28] CHEN Yanping, WU Yuefei, QIN Yongbin, et al. Recognizing nested named entity based on the neural network boundary assembling model [J]. IEEE Intelligent Systems, 2020, 35(1): 74-81.

    猜你喜歡
    跨度表格注意力
    緩粘結預應力技術在大跨度梁中的應用
    讓注意力“飛”回來
    《現(xiàn)代臨床醫(yī)學》來稿表格要求
    大跨度連續(xù)剛構橋線形控制分析
    統(tǒng)計表格的要求
    統(tǒng)計表格的要求
    統(tǒng)計表格的要求
    組合鋁合金立柱在超大跨度玻璃幕墻中的應用
    上海建材(2018年4期)2018-11-13 01:08:54
    “揚眼”APP:讓注意力“變現(xiàn)”
    傳媒評論(2017年3期)2017-06-13 09:18:10
    A Beautiful Way Of Looking At Things
    国产精品综合久久久久久久免费| 特大巨黑吊av在线直播| www.www免费av| 欧美黑人巨大hd| av在线天堂中文字幕| 亚洲熟妇中文字幕五十中出| 在线免费观看的www视频| 美女黄网站色视频| 少妇人妻一区二区三区视频| 国内少妇人妻偷人精品xxx网站| 免费在线观看影片大全网站| 伊人久久精品亚洲午夜| 一个人看视频在线观看www免费 | 久久香蕉精品热| 又黄又爽又免费观看的视频| 怎么达到女性高潮| 国产在视频线在精品| 又爽又黄无遮挡网站| 午夜激情福利司机影院| 午夜激情欧美在线| 最近在线观看免费完整版| 亚洲精华国产精华精| 丝袜美腿在线中文| 亚洲七黄色美女视频| 少妇裸体淫交视频免费看高清| 亚洲av电影在线进入| 一个人免费在线观看电影| 欧美xxxx黑人xx丫x性爽| 亚洲欧美激情综合另类| 观看免费一级毛片| 99国产精品一区二区三区| 亚洲成人久久性| 国产伦精品一区二区三区视频9 | 中出人妻视频一区二区| 可以在线观看毛片的网站| 一个人看的www免费观看视频| 我的老师免费观看完整版| 国产精品av视频在线免费观看| 乱人视频在线观看| 久久九九热精品免费| 特大巨黑吊av在线直播| 国产色爽女视频免费观看| 精品人妻一区二区三区麻豆 | 国产淫片久久久久久久久 | 国产精品综合久久久久久久免费| 日本熟妇午夜| 国产精品电影一区二区三区| 成人18禁在线播放| 特大巨黑吊av在线直播| 国产又黄又爽又无遮挡在线| 午夜久久久久精精品| 欧美日韩亚洲国产一区二区在线观看| 深爱激情五月婷婷| 99在线人妻在线中文字幕| 国产真人三级小视频在线观看| 波多野结衣高清无吗| 午夜福利高清视频| 波野结衣二区三区在线 | 精品一区二区三区视频在线观看免费| 变态另类成人亚洲欧美熟女| 精品一区二区三区视频在线观看免费| 悠悠久久av| 在线天堂最新版资源| 成年版毛片免费区| 欧美最新免费一区二区三区 | 久99久视频精品免费| 欧美色视频一区免费| 99国产精品一区二区蜜桃av| 性色av乱码一区二区三区2| 91麻豆精品激情在线观看国产| 欧美+亚洲+日韩+国产| 每晚都被弄得嗷嗷叫到高潮| 亚洲专区国产一区二区| 看免费av毛片| 国产综合懂色| 人妻丰满熟妇av一区二区三区| 久久久国产成人精品二区| 毛片女人毛片| 欧美成狂野欧美在线观看| 免费观看人在逋| 黄色视频,在线免费观看| eeuss影院久久| 亚洲精品亚洲一区二区| 亚洲国产高清在线一区二区三| АⅤ资源中文在线天堂| 在线视频色国产色| 亚洲成人中文字幕在线播放| 日韩成人在线观看一区二区三区| 91久久精品电影网| 免费看a级黄色片| 国产爱豆传媒在线观看| 久久久久久九九精品二区国产| 国产免费一级a男人的天堂| 在线a可以看的网站| 夜夜看夜夜爽夜夜摸| 亚洲人成网站在线播放欧美日韩| 精品不卡国产一区二区三区| 一区二区三区激情视频| 12—13女人毛片做爰片一| 国内精品美女久久久久久| 在线视频色国产色| 久久久久久久久久黄片| 香蕉av资源在线| 黄色女人牲交| 十八禁网站免费在线| 亚洲狠狠婷婷综合久久图片| 男女视频在线观看网站免费| 日韩高清综合在线| 午夜免费激情av| 成人性生交大片免费视频hd| 日本撒尿小便嘘嘘汇集6| 91麻豆av在线| 99riav亚洲国产免费| 真人一进一出gif抽搐免费| 国产精品美女特级片免费视频播放器| 18禁黄网站禁片午夜丰满| 色视频www国产| 国产成人aa在线观看| 日韩高清综合在线| 久久午夜亚洲精品久久| 久久久久国内视频| 高清毛片免费观看视频网站| 给我免费播放毛片高清在线观看| 国产淫片久久久久久久久 | 国产一区二区亚洲精品在线观看| or卡值多少钱| 夜夜爽天天搞| 真人一进一出gif抽搐免费| 久久九九热精品免费| 无人区码免费观看不卡| 国产单亲对白刺激| 天堂影院成人在线观看| 波多野结衣巨乳人妻| 成人永久免费在线观看视频| 欧美黄色片欧美黄色片| 成年女人永久免费观看视频| 乱人视频在线观看| 精品久久久久久久末码| 日韩有码中文字幕| 桃色一区二区三区在线观看| 久久久国产成人精品二区| 级片在线观看| 国产精品99久久久久久久久| 国内精品一区二区在线观看| 国产高清视频在线播放一区| 免费看a级黄色片| 草草在线视频免费看| 床上黄色一级片| 丝袜美腿在线中文| 国产中年淑女户外野战色| 国产视频内射| 精品久久久久久成人av| 日日摸夜夜添夜夜添小说| 久久精品国产亚洲av涩爱 | 国产黄a三级三级三级人| 18禁国产床啪视频网站| 人人妻,人人澡人人爽秒播| 五月伊人婷婷丁香| 国产私拍福利视频在线观看| 国产一区二区在线av高清观看| 九九热线精品视视频播放| 俄罗斯特黄特色一大片| 亚洲精品国产精品久久久不卡| 噜噜噜噜噜久久久久久91| 偷拍熟女少妇极品色| 我要搜黄色片| 国产精品三级大全| 19禁男女啪啪无遮挡网站| 欧美一区二区国产精品久久精品| 精品久久久久久久毛片微露脸| 亚洲av第一区精品v没综合| 黄色片一级片一级黄色片| 精品久久久久久久久久免费视频| 国产亚洲精品久久久久久毛片| 女人高潮潮喷娇喘18禁视频| 他把我摸到了高潮在线观看| 90打野战视频偷拍视频| 色精品久久人妻99蜜桃| 午夜激情欧美在线| 亚洲国产中文字幕在线视频| 成人欧美大片| 国产免费一级a男人的天堂| 国产一区在线观看成人免费| 偷拍熟女少妇极品色| 亚洲成人久久爱视频| 99久久综合精品五月天人人| netflix在线观看网站| 亚洲第一电影网av| 日韩欧美在线二视频| 国产黄色小视频在线观看| 欧美zozozo另类| 午夜老司机福利剧场| x7x7x7水蜜桃| 亚洲人成伊人成综合网2020| 级片在线观看| 精品一区二区三区av网在线观看| 欧美另类亚洲清纯唯美| 亚洲av电影不卡..在线观看| 天堂影院成人在线观看| 午夜免费男女啪啪视频观看 | 久久久国产成人免费| 中亚洲国语对白在线视频| 乱人视频在线观看| 久久九九热精品免费| 国产亚洲精品久久久com| 真人一进一出gif抽搐免费| 国产精品三级大全| 午夜福利免费观看在线| 嫩草影院精品99| 欧美一区二区亚洲| 69av精品久久久久久| 国产精品 国内视频| 18禁黄网站禁片午夜丰满| 好男人在线观看高清免费视频| 99在线视频只有这里精品首页| 日韩有码中文字幕| 成人鲁丝片一二三区免费| 亚洲人成网站高清观看| 99热精品在线国产| 中文资源天堂在线| 一区二区三区激情视频| 亚洲av美国av| 国产午夜福利久久久久久| 白带黄色成豆腐渣| 小蜜桃在线观看免费完整版高清| 看片在线看免费视频| 香蕉久久夜色| 999久久久精品免费观看国产| 波多野结衣高清无吗| 欧美在线黄色| 国产黄a三级三级三级人| 久久久久久大精品| 国产伦人伦偷精品视频| 岛国在线免费视频观看| 国产精品嫩草影院av在线观看 | 99久久久亚洲精品蜜臀av| 日韩成人在线观看一区二区三区| 精品国产美女av久久久久小说| 成年女人永久免费观看视频| 中国美女看黄片| 1024手机看黄色片| 免费在线观看成人毛片| 精品久久久久久成人av| 欧美乱码精品一区二区三区| 在线观看免费视频日本深夜| 国产精品久久久久久亚洲av鲁大| 精品久久久久久,| av在线天堂中文字幕| 日韩欧美精品免费久久 | 国产精品一及| 久久久久久久精品吃奶| 18禁裸乳无遮挡免费网站照片| 成人性生交大片免费视频hd| 午夜视频国产福利| 国产黄片美女视频| 亚洲 国产 在线| 搡女人真爽免费视频火全软件 | 老熟妇仑乱视频hdxx| 色噜噜av男人的天堂激情| 亚洲av免费在线观看| 欧美性猛交╳xxx乱大交人| 久久精品91无色码中文字幕| aaaaa片日本免费| 国产色婷婷99| 国产免费男女视频| 亚洲国产高清在线一区二区三| 国产午夜精品久久久久久一区二区三区 | 国产精品,欧美在线| 色综合站精品国产| 中文字幕人妻丝袜一区二区| 免费搜索国产男女视频| 好男人在线观看高清免费视频| 法律面前人人平等表现在哪些方面| 国产色爽女视频免费观看| 小蜜桃在线观看免费完整版高清| 高清在线国产一区| 国产精品99久久久久久久久| 免费av不卡在线播放| 老熟妇乱子伦视频在线观看| 中文字幕人成人乱码亚洲影| 亚洲av免费在线观看| 日本免费a在线| 天天躁日日操中文字幕| 午夜福利成人在线免费观看| 欧美大码av| 欧美日韩国产亚洲二区| 在线观看免费视频日本深夜| 欧美av亚洲av综合av国产av| 国产91精品成人一区二区三区| www.999成人在线观看| 嫩草影院入口| 真人一进一出gif抽搐免费| 欧美中文综合在线视频| 老司机福利观看| 日本三级黄在线观看| 免费在线观看日本一区| 天天一区二区日本电影三级| 激情在线观看视频在线高清| 精品国产亚洲在线| 人人妻人人澡欧美一区二区| 亚洲真实伦在线观看| 亚洲av成人av| 叶爱在线成人免费视频播放| 亚洲七黄色美女视频| 午夜免费激情av| xxxwww97欧美| 国产单亲对白刺激| 亚洲中文日韩欧美视频| 色老头精品视频在线观看| 国产老妇女一区| 亚洲中文字幕日韩| 人人妻,人人澡人人爽秒播| 午夜福利欧美成人| 他把我摸到了高潮在线观看| 亚洲美女视频黄频| 久久久国产精品麻豆| 亚洲欧美日韩卡通动漫| 狂野欧美白嫩少妇大欣赏| 蜜桃亚洲精品一区二区三区| 国产aⅴ精品一区二区三区波| 欧美成人免费av一区二区三区| 中文在线观看免费www的网站| 欧美丝袜亚洲另类 | 国产老妇女一区| 悠悠久久av| 人人妻人人澡欧美一区二区| 色综合站精品国产| 69av精品久久久久久| 国产精品美女特级片免费视频播放器| 日韩有码中文字幕| 国内精品久久久久精免费| 欧美不卡视频在线免费观看| 五月伊人婷婷丁香| 嫁个100分男人电影在线观看| 少妇的丰满在线观看| 99久久99久久久精品蜜桃| 亚洲成人中文字幕在线播放| 最近视频中文字幕2019在线8| 狂野欧美白嫩少妇大欣赏| 欧美+日韩+精品| 此物有八面人人有两片| 久久香蕉国产精品| 最新在线观看一区二区三区| 久久久精品大字幕| 午夜日韩欧美国产| 欧美乱色亚洲激情| 午夜免费成人在线视频| 欧美一区二区亚洲| 黄片大片在线免费观看| 狂野欧美白嫩少妇大欣赏| 国产在视频线在精品| 身体一侧抽搐| 精品国产三级普通话版| 国产一区二区亚洲精品在线观看| 欧美日韩一级在线毛片| 首页视频小说图片口味搜索| 久久人妻av系列| netflix在线观看网站| 午夜两性在线视频| 长腿黑丝高跟| 两个人视频免费观看高清| 国产成人aa在线观看| 在线国产一区二区在线| av福利片在线观看| aaaaa片日本免费| 在线观看免费午夜福利视频| 日本三级黄在线观看| 中文资源天堂在线| 此物有八面人人有两片| 亚洲av成人av| 69人妻影院| 在线播放国产精品三级| 国内精品久久久久精免费| av福利片在线观看| 国产成+人综合+亚洲专区| 亚洲久久久久久中文字幕| 在线国产一区二区在线| 黄色成人免费大全| 国产一区在线观看成人免费| 男女视频在线观看网站免费| 51国产日韩欧美| 久久久久久久亚洲中文字幕 | 亚洲不卡免费看| 亚洲五月天丁香| 亚洲人成伊人成综合网2020| 老熟妇乱子伦视频在线观看| aaaaa片日本免费| 99国产精品一区二区三区| 中文字幕人成人乱码亚洲影| 亚洲黑人精品在线| 91麻豆av在线| 日韩中文字幕欧美一区二区| 亚洲美女视频黄频| 欧美zozozo另类| 级片在线观看| 在线观看66精品国产| av国产免费在线观看| 亚洲七黄色美女视频| 青草久久国产| 欧美+日韩+精品| 日韩欧美精品v在线| 91久久精品电影网| 丁香六月欧美| 色哟哟哟哟哟哟| 波多野结衣高清作品| 欧美成狂野欧美在线观看| 国产 一区 欧美 日韩| 亚洲 国产 在线| 有码 亚洲区| 欧美成人免费av一区二区三区| 国产黄片美女视频| 久久婷婷人人爽人人干人人爱| 精品熟女少妇八av免费久了| 免费一级毛片在线播放高清视频| 人妻夜夜爽99麻豆av| 高清日韩中文字幕在线| 1024手机看黄色片| 午夜免费男女啪啪视频观看 | 国产在线精品亚洲第一网站| 国产三级在线视频| 亚洲性夜色夜夜综合| 国产麻豆成人av免费视频| 手机成人av网站| av国产免费在线观看| 99国产综合亚洲精品| 在线看三级毛片| 婷婷亚洲欧美| 国产主播在线观看一区二区| 99国产精品一区二区蜜桃av| 少妇人妻精品综合一区二区 | 人妻久久中文字幕网| www.熟女人妻精品国产| 国内少妇人妻偷人精品xxx网站| 90打野战视频偷拍视频| 无人区码免费观看不卡| 亚洲av五月六月丁香网| 国产精品,欧美在线| 18禁裸乳无遮挡免费网站照片| 久久精品91无色码中文字幕| 91麻豆av在线| 变态另类成人亚洲欧美熟女| 九色成人免费人妻av| 波多野结衣高清作品| 午夜影院日韩av| 啦啦啦观看免费观看视频高清| 午夜免费男女啪啪视频观看 | 三级男女做爰猛烈吃奶摸视频| 午夜a级毛片| 日韩欧美精品v在线| 欧美性猛交黑人性爽| 日本黄色片子视频| 亚洲av二区三区四区| 亚洲国产欧洲综合997久久,| 99精品久久久久人妻精品| 精品国产超薄肉色丝袜足j| 国产精品精品国产色婷婷| 99热这里只有是精品50| 两个人的视频大全免费| 免费观看人在逋| 91麻豆av在线| 看片在线看免费视频| 久久精品人妻少妇| 中文字幕熟女人妻在线| 又爽又黄无遮挡网站| 人人妻人人澡欧美一区二区| 深爱激情五月婷婷| 亚洲av电影不卡..在线观看| 黄色成人免费大全| 国产不卡一卡二| 亚洲成人久久爱视频| 久久精品国产亚洲av涩爱 | 国产精品久久视频播放| 在线播放国产精品三级| 动漫黄色视频在线观看| 琪琪午夜伦伦电影理论片6080| x7x7x7水蜜桃| 全区人妻精品视频| 免费高清视频大片| 国产精品爽爽va在线观看网站| 操出白浆在线播放| 国产欧美日韩精品一区二区| 成人av一区二区三区在线看| 91久久精品国产一区二区成人 | 国产中年淑女户外野战色| 韩国av一区二区三区四区| 国产成人系列免费观看| 日韩欧美精品免费久久 | 国产野战对白在线观看| 少妇裸体淫交视频免费看高清| 成年免费大片在线观看| 亚洲成av人片在线播放无| 亚洲美女黄片视频| 国产高清有码在线观看视频| 最近最新免费中文字幕在线| 人人妻人人看人人澡| 国产免费av片在线观看野外av| 久久九九热精品免费| 免费一级毛片在线播放高清视频| 日韩成人在线观看一区二区三区| 99在线人妻在线中文字幕| 三级毛片av免费| 成年女人看的毛片在线观看| 淫秽高清视频在线观看| 亚洲精品456在线播放app | 又粗又爽又猛毛片免费看| 18禁美女被吸乳视频| av片东京热男人的天堂| av在线蜜桃| 欧美日韩乱码在线| 国产综合懂色| 神马国产精品三级电影在线观看| 国内毛片毛片毛片毛片毛片| 脱女人内裤的视频| 日韩成人在线观看一区二区三区| 男人的好看免费观看在线视频| 一级毛片高清免费大全| 成人av一区二区三区在线看| 美女cb高潮喷水在线观看| 久久久久免费精品人妻一区二区| 日本 av在线| 给我免费播放毛片高清在线观看| a级一级毛片免费在线观看| 国产成人系列免费观看| 免费在线观看成人毛片| 国产毛片a区久久久久| 岛国视频午夜一区免费看| 国产日本99.免费观看| 国产视频一区二区在线看| 国产伦人伦偷精品视频| svipshipincom国产片| ponron亚洲| 男女视频在线观看网站免费| 夜夜躁狠狠躁天天躁| 91久久精品电影网| 国产亚洲精品久久久com| 日韩欧美在线乱码| 国产精品香港三级国产av潘金莲| 日本一二三区视频观看| 成人精品一区二区免费| 中文字幕人妻丝袜一区二区| 日本撒尿小便嘘嘘汇集6| 日韩精品中文字幕看吧| 午夜免费观看网址| 熟女人妻精品中文字幕| 欧美激情久久久久久爽电影| 超碰av人人做人人爽久久 | 无人区码免费观看不卡| 欧美日韩精品网址| 亚洲av日韩精品久久久久久密| 国产久久久一区二区三区| 男女下面进入的视频免费午夜| av女优亚洲男人天堂| 伊人久久精品亚洲午夜| 欧美黄色片欧美黄色片| 在线免费观看不下载黄p国产 | 又紧又爽又黄一区二区| 免费高清视频大片| 一本一本综合久久| 精品一区二区三区视频在线观看免费| 国产精品爽爽va在线观看网站| 亚洲天堂国产精品一区在线| 免费av毛片视频| 精品一区二区三区av网在线观看| 男女床上黄色一级片免费看| 黑人欧美特级aaaaaa片| 国产精品一及| 国产 一区 欧美 日韩| 丰满人妻一区二区三区视频av | 国产午夜精品论理片| 国产一区二区亚洲精品在线观看| 欧美最黄视频在线播放免费| 男女床上黄色一级片免费看| 亚洲人成网站高清观看| 日本精品一区二区三区蜜桃| 观看免费一级毛片| 日韩欧美三级三区| 国产成人av激情在线播放| av中文乱码字幕在线| 热99re8久久精品国产| 日本黄色视频三级网站网址| 18禁美女被吸乳视频| 中文字幕久久专区| 一二三四社区在线视频社区8| 熟女少妇亚洲综合色aaa.| 又粗又爽又猛毛片免费看| 亚洲精品久久国产高清桃花| 国产精品国产高清国产av| 亚洲熟妇熟女久久| 精品99又大又爽又粗少妇毛片 | 免费看美女性在线毛片视频| 成人高潮视频无遮挡免费网站| 欧美激情在线99| 免费无遮挡裸体视频| 成人特级av手机在线观看| 欧美国产日韩亚洲一区| 身体一侧抽搐| 久久久国产成人免费| 亚洲精品一卡2卡三卡4卡5卡| 国产免费av片在线观看野外av| 国产亚洲av嫩草精品影院| 在线国产一区二区在线| 精品久久久久久久毛片微露脸| 久久伊人香网站| 夜夜看夜夜爽夜夜摸| 在线免费观看的www视频| 精品无人区乱码1区二区| 韩国av一区二区三区四区| 国产三级中文精品| 亚洲精品影视一区二区三区av| 亚洲人成网站高清观看| 最新中文字幕久久久久| e午夜精品久久久久久久| 两个人的视频大全免费| 亚洲人与动物交配视频| 亚洲国产高清在线一区二区三|