• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于BART噪聲器的中文語法糾錯模型

    2022-04-12 09:24:48孫邱杰梁景貴李思
    計算機(jī)應(yīng)用 2022年3期
    關(guān)鍵詞:語法錯誤噪聲

    孫邱杰,梁景貴,李思

    (北京郵電大學(xué)人工智能學(xué)院,北京 100876)

    0 引言

    語法糾錯(Grammatical Error Correction,GEC)任務(wù)是近年發(fā)展起來的一項(xiàng)自然語言理解任務(wù),其目的是利用自然語言處理技術(shù),自動識別并糾正文本包含中的缺失詞、冗余詞、選詞錯誤、語序錯誤等語法錯誤。中文語法糾錯可支撐或應(yīng)用于搜索[1-2]、光學(xué)字符識別(Optical Character Recognition,OCR)[3-4]、文章評分[5]等。

    表1 給出了一個語法糾錯的示例,其中M 代表句子有缺失詞,R 代表有冗余詞,S 代表選詞錯誤,W 代表語序錯誤。輸入序列是一個含有語法錯誤的句子;輸出序列是對應(yīng)的糾正語法錯誤后的正確句子。輸入序列與輸出序列不等長時,如缺失詞和冗余詞的情況,輸入序列和輸出序列為不對齊序列。相應(yīng)地,輸入序列與輸出序列等長時,如選詞錯誤和語序錯誤的情況,輸入序列和輸出序列為對齊序列。

    表1 語法糾錯任務(wù)示例Tab.1 Examples for grammatical error correction

    語法糾錯任務(wù)常被視為翻譯任務(wù)[6-8],并使用神經(jīng)機(jī)器翻譯模型,如序列到序列(Sequence to Sequence,Seq2Seq)的網(wǎng)絡(luò)結(jié)構(gòu)。輸入是含有語法錯誤的句子或者不含語法錯誤的正確句子,即源語句;對應(yīng)的輸出序列都是不含語法錯誤的正確句子,即目標(biāo)語句。在訓(xùn)練語料充足的情況下,使用Seq2Seq 網(wǎng)絡(luò)結(jié)構(gòu)通常能取得較好的結(jié)果;然而在中文語法糾錯任務(wù)中,錯誤數(shù)據(jù)的訂正標(biāo)注難度較大,需要有專業(yè)語言學(xué)知識的人員才能準(zhǔn)確標(biāo)注,這使得中文語法糾錯任務(wù)中難以獲得大量的標(biāo)注數(shù)據(jù)。因此,采用基于神經(jīng)機(jī)器翻譯方法的語法糾錯模型難以得到充分的訓(xùn)練,無法獲取高效的信息特征,使得模型糾錯性能不好?,F(xiàn)有研究工作主要從以下三方面緩解訓(xùn)練數(shù)據(jù)不足的問題:1)引入外部資源,將外部的拼音、形狀等信息作為額外特征的形式集成到模型中[9];2)使用預(yù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型引入信息[10-11],通過使用分布式詞表征來初始化模型,如Word2Vec[12]、基 于BERT(Bidirectional Encoder Representations from Transformers)[13]的預(yù)訓(xùn)練模型[14-15];3)使用隨機(jī)遮蔽、糾錯模型回譯等數(shù)據(jù)增強(qiáng)的方法[16]。使用隨機(jī)遮蔽的數(shù)據(jù)增強(qiáng)方法是直接將文本中的一些字進(jìn)行隨機(jī)遮蔽;使用糾錯模型回譯的數(shù)據(jù)增強(qiáng)方法是將不含語法錯誤的正確句子作為模型的輸入,輸出含有語法錯誤的句子,再將得到的輸出與輸入構(gòu)建成新的錯誤-正確樣本對。使用隨機(jī)遮蔽的方法生成的偽數(shù)據(jù)可讀性較差;使用糾錯模型回譯的方法通常只能產(chǎn)生含有有限幾種錯誤類型的偽數(shù)據(jù)。即使這兩種方法可以產(chǎn)生大量含有語法錯誤的訓(xùn)練樣本,但生成的偽數(shù)據(jù)多樣性不足,與原始數(shù)據(jù)分布差別不大,直接用于訓(xùn)練容易導(dǎo)致模型過擬合;另外,這兩種方法會增加大量額外的訓(xùn)練數(shù)據(jù),在耗費(fèi)更多計算資源的情況下,模型的性能提升并不明顯。

    BART(Bidirectional and Auto-Regressive Transformers)[17]是一種采用Seq2Seq 模型構(gòu)建的降噪自編碼器,可將含有噪聲的文本映射為原始文本,常作為預(yù)訓(xùn)練模型用于文本生成等任務(wù)。文本噪聲是指文本數(shù)據(jù)中含有的一些不規(guī)范數(shù)據(jù),如特殊符號,特殊操作引入或刪除的字符(插入、刪除、替換等),OCR 識別過程引入的錯誤字符等,這些噪聲通常會破壞文本原有的語義信息,降低原本的文本數(shù)據(jù)質(zhì)量。BART 噪聲器是BART 在預(yù)訓(xùn)練過程中用來破壞樣本的噪聲函數(shù)組合構(gòu)建而成的噪聲器,它可以通過多種噪聲函數(shù)組合對文本引入噪聲來得到更多較高質(zhì)量的偽訓(xùn)練數(shù)據(jù)。與其他數(shù)據(jù)增強(qiáng)的方法不同,BART 不是將得到的偽數(shù)據(jù)作為額外的訓(xùn)練數(shù)據(jù)與原始數(shù)據(jù)結(jié)合訓(xùn)練,而是直接使用這些引入噪聲后的偽數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),在一定程度上能夠起到正則化的作用,而且不會增加訓(xùn)練的數(shù)據(jù)量。另外,BART 噪聲器還能改變文本的長度,促使模型預(yù)測不等長的序列,因而也適用于輸入序列和輸出序列是不對齊序列的情況。

    因此,本文提出了一種基于BART 噪聲器的中文語法糾錯模型(Chinese Grammatical Error Correction Model based on BART Noiser,BN-CGECM)。該模型使用基于BART 噪聲器的數(shù)據(jù)增強(qiáng)算法,在訓(xùn)練過程中,通過BART 噪聲器對輸入樣本引入文本噪聲,自動生成更多樣的含噪文本用于模型訓(xùn)練,以此來提高中文語法糾錯的性能。針對選詞錯誤,引入BART 噪聲器中字屏蔽和隨機(jī)字替換的噪聲方法,讓模型學(xué)習(xí)預(yù)測對齊序列;針對缺失詞和冗余詞錯誤,引入文本填充的噪聲方法,讓模型預(yù)測學(xué)習(xí)預(yù)測不對齊序列。實(shí)驗(yàn)結(jié)果表明該模型對于中文語法糾錯任務(wù)有很好的表現(xiàn)。

    1 相關(guān)工作

    早期,解決語法糾錯任務(wù)的主流方法是先檢測錯誤再利用大型的字典對錯誤處的文本進(jìn)行匹配,得到更正文本[18-21]。文獻(xiàn)[20]中分類模型與一些特征并用,來解決限定詞和介詞的錯誤;文獻(xiàn)[21]中提出了一種混合模型來解決語法糾錯任務(wù),針對各類語法錯誤訓(xùn)練特定的分類器并整合。然而這類方法都只能修正文本中特定的幾種錯誤類型。

    為了修正更多類型的錯誤,文獻(xiàn)[22]首先將語法糾錯任務(wù)看作翻譯任務(wù),并采用了一個基于統(tǒng)計機(jī)器翻譯的語法糾錯模型;文獻(xiàn)[23]引進(jìn)了特殊制定的統(tǒng)計機(jī)器翻譯架構(gòu);文獻(xiàn)[24]采用基于規(guī)則的方法與統(tǒng)計機(jī)器翻譯模型、語言模型相結(jié)合,進(jìn)一步提高了語法糾錯系統(tǒng)的性能。

    最近,隨著深度學(xué)習(xí)的廣泛應(yīng)用,基于神經(jīng)機(jī)器翻譯的方法也被應(yīng)用到語法糾錯領(lǐng)域。文獻(xiàn)[25]中使用基于循環(huán)神經(jīng)網(wǎng)絡(luò)架構(gòu)的序列到序列模型,取得了不錯的結(jié)果;文獻(xiàn)[26]使用基于卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)的序列生成模型,利用語言模型對最后生成的多個結(jié)果進(jìn)行重新排序,成為第一個性能超過統(tǒng)計機(jī)器翻譯方法的神經(jīng)糾錯模型;文獻(xiàn)[27]將Transformer 架構(gòu)引入了神經(jīng)語法糾錯方法中,使得語法糾錯系統(tǒng)性能得到較大提升。

    為了解決標(biāo)注數(shù)據(jù)不足的問題,文獻(xiàn)[9]中將外部的拼音、形狀等信息作為額外特征引入糾錯模型;文獻(xiàn)[28]中通過使用基于BERT 的預(yù)訓(xùn)練語言模型引入額外信息;文獻(xiàn)[29]和文獻(xiàn)[30]為語法糾錯任務(wù)提出了合成平行語料的方法,這一過程也是錯誤生成的過程,它屬于數(shù)據(jù)增強(qiáng)方法的一種。實(shí)驗(yàn)結(jié)果表明,它們的方法合成的訓(xùn)練數(shù)據(jù)與額外附加的非合成數(shù)據(jù)有相同的效果。

    直到NLPCC 2018(The 7th CCF International Conference on Natural Language Processing and Chinese Computing)中文語法糾錯共享任務(wù)[31]提出后,中文語法糾錯任務(wù)逐漸引來了更多的關(guān)注。文獻(xiàn)[32]中將中文語法糾錯任務(wù)劃分為3 個階段,每個階段訓(xùn)練各自的模型,這種方法取得了不錯的效果,但比較復(fù)雜;文獻(xiàn)[33]中使用的是基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的Seq2Seq 模型,利用基于中文語法修正Word2Vec 后的wang2vec 作為詞嵌入,并引入了位置信息。

    2 本文方法

    2.1 問題定義

    語法糾錯任務(wù)可以作為一個序列到序列任務(wù),語法糾錯系統(tǒng)的目標(biāo)是將一個可能含有語法錯誤的句子X=(x1,x2,…,xn)作為輸入,其中n是句子長度,并將其轉(zhuǎn)化成對應(yīng)的正確句子Y=(y1,y2,…,ym)作為輸出,語法糾錯模型可以當(dāng)作一個映射函數(shù)f:X→Y。

    2.2 模型方法

    BN-CGECM 框架如圖1 所示。模型主要包括兩個部分:基于BART 噪聲器的數(shù)據(jù)增強(qiáng)部分和神經(jīng)語法糾錯模型部分。本文首先構(gòu)建一個含有n個噪聲單元的BART 噪聲器,對源句子中的每一個字引入噪聲,得到有噪輸入,達(dá)到數(shù)據(jù)增強(qiáng)的效果;然后,構(gòu)建一個使用預(yù)訓(xùn)練模型初始化后的基于Transformer 架構(gòu)的神經(jīng)語法糾錯模型,將得到的有噪輸入樣本用于神經(jīng)語法糾錯模型的訓(xùn)練。下面將詳細(xì)介紹BART 噪聲器和神經(jīng)語法糾錯模型這兩部分。

    圖1 BN-CGECM框架Fig.1 Architecture of BN-CGECM

    2.3 BART噪聲器

    對于神經(jīng)網(wǎng)絡(luò)生成模型,訓(xùn)練語料庫的大小通常是影響模型表現(xiàn)的重要因素之一。因此為了獲得更多的有效訓(xùn)練數(shù)據(jù),本文在BART 中用噪聲函數(shù)[17]給訓(xùn)練過程中輸入含錯語句引入噪聲,得到被破壞的源句子。通過這種方法能夠在不增加額外數(shù)據(jù)的情況下,在訓(xùn)練過程中生成更多樣的語法糾錯句子對實(shí)例,從而能提高糾錯模型的泛化能力。方法定義如下:如算法1 所示,對于給定的輸入源語句X=(x1,x2,…,xn),對應(yīng)的目標(biāo)語句Y=(y1,y2,…,ym),將X通過BART 噪聲器中的映射函數(shù)fs(x),對于第t輪訓(xùn)練批次的源句子X(t)中的每個字都有固定的概率通過噪聲器中的噪聲函數(shù)進(jìn)行映射,從而得到有噪輸入:

    其中的第i個字由式(2)給出:

    其中:p是在[0,1]內(nèi)均勻分布上產(chǎn)生的隨機(jī)數(shù),δ則是引入噪聲的固定概率;fs(xi)是BART 噪聲函數(shù),s∈{TM,RS,TI,Mixed}。將-X(t)與Y構(gòu)建成新的句子對S(t)并用于語法糾錯模型訓(xùn)練。

    算法1 BART 噪聲方法。

    輸入X(t)為第t輪的輸入源語句;Y(t)為源語句對應(yīng)的目標(biāo)語句;D為訓(xùn)練樣本對;f為BART 噪聲函數(shù)。

    輸出 含有噪聲的樣本對S(t)。

    不同的噪聲策略在模型表現(xiàn)上能夠產(chǎn)生不同的效果,本文使用字屏蔽(Token Mask,TM)、隨機(jī)字替換(Random Substitution,RS)、文本填充(Text Infilling,TI)以及混合方法(Mixed)4 種噪聲方法來對輸入的含錯語句引入噪聲。4 種方法具體如下:

    1)字屏蔽。參照文獻(xiàn)[13]中方法,輸入的含錯句子中的每個字都有固定的概率δ被替換成“#”符號,這種方式能夠成倍地增加訓(xùn)練樣本的數(shù)目,且能增加樣本錯誤的多樣性,減少訓(xùn)練樣本錯誤的重復(fù)性。這種方式也能減少語法糾錯模型對一些特定單詞的依賴,更好地學(xué)習(xí)上下文信息,從而提高性能。另外,這種方法能促使模型作出字的替換,更有利于糾正選詞錯誤類型。對應(yīng)的噪聲函數(shù)fTM(xi)如式(3)所示:

    2)隨機(jī)字替換。與字屏蔽方法類似,從字典中隨機(jī)采樣一個字Vr,輸入的含錯句子中的每個字有δ的概率被替換成字典中的任意一個字,而不是“#”,字典中被選中替換的字是等概率的。這種方式可以產(chǎn)生更接近真實(shí)錯誤的訓(xùn)練樣本。對應(yīng)的噪聲函數(shù)fRS(xi)如式(4)所示:

    4)混合方法。在訓(xùn)練過程中,對于每一個訓(xùn)練批次隨機(jī)選取一個噪聲函數(shù)對輸入的句子引入噪聲。

    不同噪聲方案引入的噪聲示例如圖2 所示。假定有輸入句子:明天我要早起。通過字遮蔽的方法,“天”和“要”兩個字被替換成了“#”符號。隨機(jī)字替換的方法則是將“天”和“要”分別替換成了字典中的隨機(jī)字“后”和“字”。與前面兩種方法不同的是,文本填充將文本段“天”和“早起?!碧鎿Q成了“#”符號。

    圖2 不同噪聲方案的噪聲示例Fig.2 Examples of different noise schemes

    2.4 預(yù)訓(xùn)練模型初始化的神經(jīng)語法糾錯模型

    語法糾錯任務(wù)一般可以作為一個序列到序列的任務(wù)進(jìn)行處理,序列到序列模型一般由編碼器和解碼器兩部分組成,并且序列到序列的模型在很多自然語言理解任務(wù)上已經(jīng)被驗(yàn)證了它的有效性,比如機(jī)器翻譯、文本摘要、對話系統(tǒng)等。為了能夠糾正潛在的語法錯誤,語法糾錯系統(tǒng)必須要理解句子的意思,然而在一個自然語言句子中可能存在長距離依賴關(guān)系的問題。循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)擅長對單詞序列建模和捕捉句子的上下文信息,因此以往的語法糾錯模型大多使用RNN,特別是長短期記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)。又因?yàn)榇蠖鄶?shù)語法錯誤非常依賴于附近的錯誤,因此語法糾錯系統(tǒng)捕捉上下文信息的能力非常重要,CNN 則可以通過卷積操作有效地捕獲局部信息,所以也有很多神經(jīng)語法糾錯模型中采用CNN 結(jié)合注意力機(jī)制的做法。

    以往的神經(jīng)語法糾錯模型大多使用RNN 或CNN 來作為編碼器和解碼器的結(jié)構(gòu),而Transformer 是一種新型的編解碼器框架。它是由谷歌提出的完全基于自注意力機(jī)制的一種編解碼器結(jié)構(gòu),且它已被證明對單詞序列具有很強(qiáng)的建模能力以及能在機(jī)器翻譯任務(wù)中取得很好的效果,因此本文采用Transformer 框架來作為神經(jīng)語法糾錯模型框架,把語法糾錯任務(wù)作為一個機(jī)器翻譯任務(wù),把可能含有語法錯誤的句子X作為源句子,對應(yīng)的正確句子作為目標(biāo)句子,D={(X,Y)}作為訓(xùn)練集。首先,Transformer 模型的編碼器將含有N個字符的源句子編碼成含有整個輸入句子語義信息的隱藏層表征,然后解碼器從中解碼得到目標(biāo)隱藏層表征,最后,目標(biāo)隱藏層表征可以得到各個字符的生成概率p(yi|y1:i-1),通過一個投影矩陣WH和softmax 層得到輸出序列y1:i-1。整個過程計算如式(7)~(9)所示:

    將生成概率的負(fù)對數(shù)作為目標(biāo)函數(shù),其中θ是可訓(xùn)練的參數(shù)。

    在訓(xùn)練開始前,使用基于BERT 的預(yù)訓(xùn)練模型權(quán)重Θ對Transformer 的編碼器層所有參數(shù)θs進(jìn)行初始化,Transformer的解碼器參數(shù)θt則是使用權(quán)重Wij對解碼器每層參數(shù)進(jìn)行初始化,Wij服從均勻分布,如式(11)所示:

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 數(shù)據(jù)集

    為了驗(yàn)證本文方法的有效性,本文在NLPCC 2018 Shared Task 2[31]數(shù)據(jù)集上進(jìn)行了一系列實(shí)驗(yàn)。該數(shù)據(jù)語料來源于一個專門為學(xué)習(xí)外語寫作的人提供的交流平臺lang-8。數(shù)據(jù)集的統(tǒng)計結(jié)果如表2 所示,Src 代表源語句,也就是待校對語料,Tgt 代表目標(biāo)語句,也就是源語句所對應(yīng)的正確語料。由于數(shù)據(jù)集中的錯誤句子可能含有多個對應(yīng)的正確句子,本文首先將源語句和各個正確語句一一對應(yīng)的構(gòu)建成一個平行語料庫。通過這種方式總共得到了1 200 000 個句子對。參考文獻(xiàn)[21],從訓(xùn)練語料中隨機(jī)采樣了5 000 條句子對作為驗(yàn)證集。本文使用BART 噪聲器對訓(xùn)練數(shù)據(jù)引入文本噪聲,使用引入噪聲后的偽數(shù)據(jù)替換原有訓(xùn)練集用于模型訓(xùn)練。

    表2 NLPCC 2018 Task 2 數(shù)據(jù)集Tab.2 NLPCC 2018 Task 2 dataset

    3.2 評價指標(biāo)

    本文使用MaxMatch(M2)scorer[34]來對語法糾錯模型進(jìn)行評估。在給定一個源語句和一個系統(tǒng)更正(hypotheses)的情況下,M2scorer 計算它們之間所有可能的短語級編輯序列,并找到與標(biāo)準(zhǔn)標(biāo)注集重疊程度最高的編輯序列,再利用該最優(yōu)序列計算精確率(Precision,P)、召回率(Recall,R)和F0.5值。具體的計算公式如式(12)~(15)所示:

    后來有好長時間沒有看見老崔,馮一余問保安老崔到哪里去了。保安說,老崔受傷了,他回家停車,停在小區(qū)的池塘邊,打了滑,車子掉到池塘里,他差點(diǎn)淹死。幸好有巡夜的保安看到了,救了上來,腦子進(jìn)了水,有點(diǎn)呆。

    其中:{g1,g2,…,gn}是標(biāo)準(zhǔn)的更正集合,{s1,s2,…,sn}是系統(tǒng)更正的集合。

    3.3 參數(shù)設(shè)置

    本文實(shí)驗(yàn)具體超參數(shù)設(shè)置如下:序列到序列模型結(jié)構(gòu)使用的是Transformer 結(jié)構(gòu),編碼器由6 個相同的層組成,其中有兩個子層,分別是1 個多頭自注意層和1 個全連接的前饋網(wǎng)絡(luò),解碼器同樣是6 個相同的層。多頭自注意層的頭數(shù)設(shè)置為8,Transformer 的前饋網(wǎng)絡(luò)維度為4 096,源端和目標(biāo)端的字向量維度均為512。模型使用了位置編碼信息。模型訓(xùn)練時參數(shù)的dropout 的概率為0.1,使用Adam 優(yōu)化器并且初始學(xué)習(xí)率設(shè)置為2,β值為(0.9,0.998)。使用Noam 的學(xué)習(xí)率遞減策略,warmup_steps 為8 000,并加入了ε值為0.1 的標(biāo)簽平滑策略。Batch size 的大小為4 096 個字,模型推理時的beam size 為12。噪聲函數(shù)的δ設(shè)置為0.3,文本填充泊松分布λ為3。整個訓(xùn)練過程都采用了提前終止技術(shù),并且選擇驗(yàn)證集困惑度最低的模型作為最佳模型。本文的模型運(yùn)行5 次并取所有結(jié)果的中位數(shù)。

    3.4 基線模型

    本文方法的基線模型是文獻(xiàn)[28]中的BERT-encoder 和BERT-encoder_ensemble以及NLPCC 2018 Task 2 中表現(xiàn)優(yōu)異的系統(tǒng):YouDao[32]、BLCU[33]、BLCU(ensemble)[33]。

    BERT-encoder 用Chinese-RoBERTa-wwm-ext 學(xué)習(xí)到的參數(shù)初始化Transformer 的編碼器,Transformer 的解碼器隨機(jī)初始化。

    BERT-encoder_ensemble 由4 個單個BERT-encoder 模型集成。

    YouDao 是有道開發(fā)的中文語法糾錯系統(tǒng),將CGEC 任務(wù)劃分為3 個階段,每個階段訓(xùn)練各自的模型,他們將錯誤分為表面錯誤和語法錯誤,使用相似字音表+5-gram 模型來解決低級錯誤,使用字級、詞級Transformer 模型來解決高級錯誤,將低級模型和高級模型進(jìn)行組合,最終再用5-gram 語言模型對糾正后句子進(jìn)行困惑度分析,選擇困惑度最低的句子。

    BLCU 和BLCU_ensemble 是北京語言大學(xué)開發(fā)的中文語法糾錯系統(tǒng),前者基于多層卷積Seq2Seq 模型,后者是4 個單個模型的集成。

    3.5 實(shí)驗(yàn)結(jié)果

    表3 總結(jié)了在NLPCC 2018 中文語法糾錯共享任務(wù)數(shù)據(jù)集上,本文模型與基線模型的實(shí)驗(yàn)結(jié)果。BN-CGECM_ensemble 是由4 個利用混合方法噪聲策略訓(xùn)練得到的模型的集成。由表3 的實(shí)驗(yàn)結(jié)果可以看出,BN-CGECM 模型性能優(yōu)于所有單個的基線模型,BN-CGECM_ensemble 模型性能優(yōu)于所有的基線模型,達(dá)到了37.05%的F0.5值,相較于YouDao 提升了7.14 個百分點(diǎn),相較于BLCU_ensemble 提升了6.48 個百分點(diǎn),相較于BERT-encoder_ensemble 提升了1.54 個百分點(diǎn)。這些實(shí)驗(yàn)結(jié)果驗(yàn)證了本文數(shù)據(jù)增強(qiáng)的方法在語法糾錯任務(wù)上的有效性。

    表3 幾種模型在NLPCC 2018數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果 單位:%Tab.3 Experimental results of several models on NLPCC 2018 dataset unit:%

    此外,為了觀察不同的噪聲函數(shù)方法對神經(jīng)語法糾錯模型性能表現(xiàn)的影響,本文分析了BART 噪聲器使用不同的噪聲策略對實(shí)驗(yàn)結(jié)果的影響,如表4 所示??梢钥吹?,字屏蔽和文本填充方法能有效提高模型的精確率和召回率,它們都能一定程度促使模型對選詞錯誤、冗余詞和缺失詞錯誤進(jìn)行修正。隨機(jī)字替換的方法能有效提高模型召回率,但會明顯降低模型精確率,推測是因?yàn)殡S機(jī)字替換會生成大量的選詞錯誤類型,這會促使模型對輸入序列做出過多的修改預(yù)測,這樣雖然能改正較多的選詞錯誤,但是也會將很多不是選詞錯誤的詞改錯,因而會大幅降低模型精確率?;旌戏椒ǖ牟呗阅軌蛴行岣呔_率,且保持相對較高的召回率,原因可能是它隨機(jī)使用了字屏蔽、隨機(jī)字替換和文本填充方法,可以生成更為多樣的錯誤數(shù)據(jù),模型能學(xué)習(xí)做出更多的修改預(yù)測,但也不會像隨機(jī)字替換方法那樣過度預(yù)測,能在3 種方法間達(dá)到平衡。

    表4 不同噪聲方法的實(shí)驗(yàn)結(jié)果 單位:%Tab.4 Experimental results of different noise methods unit:%

    另外,圖3 分析了BN-CGECM 模型與原始模型Char-Transformer 收斂速度情況,ppl 指模型的困惑度(perplexity),是一個用來衡量模型好壞的指標(biāo)。由圖3 可以看出,BNCGECM 比Char-Transformer 更快收斂,但最終的訓(xùn)練困惑度略高于Char-Transformer,推測是因?yàn)锽N-CGECM 引入的文本噪聲雖然能起到一定的正則化作用,但仍然會增加訓(xùn)練過程中模型學(xué)習(xí)文本語義信息的難度。

    圖3 模型收斂速度比較Fig.3 Comparison on convergence speed of models

    同時本文也分析了使用不同的預(yù)訓(xùn)練模型來初始化編碼器對模型性能的影響,如表5 所示,“—”代表沒有使用預(yù)訓(xùn)練模型進(jìn)行初始化,Chinese-BERT-wwm 代表使用Chinese-BERT-wwm預(yù)訓(xùn)練模型進(jìn)行初始化,Chinese-BERT-wwm-ext和Chinese-RoBERTa-wwm-ext同理。實(shí)驗(yàn)結(jié)果表明,使用預(yù)訓(xùn)練模型能夠提升模型性能,且使用Chinese-RoBERTa-wwm-ext模型進(jìn)行參數(shù)初始化在各方面性能優(yōu)于其他兩個預(yù)訓(xùn)練模型。

    表5 不同預(yù)訓(xùn)練模型的實(shí)驗(yàn)結(jié)果 單位:%Tab.5 Experimental results of different pre-trained models unit:%

    4 結(jié)語

    本文提出了一種基于BART 噪聲器的中文語法糾錯模型,即BN-CGECM 模型,以此緩解中文語法糾錯任務(wù)缺乏大量標(biāo)注數(shù)據(jù)的影響。該模型通過BART 噪聲器對訓(xùn)練過程中的輸入樣本引入文本噪聲,自動生成更多樣的含噪文本用于模型訓(xùn)練,緩解了中文語法糾錯任務(wù)標(biāo)注數(shù)據(jù)有限對模型性能的影響。實(shí)驗(yàn)結(jié)果表明該模型在語法糾錯任務(wù)上的有效性。未來的工作在于探索更適合語法糾錯任務(wù)的方法來破壞訓(xùn)練樣本,從而獲得具有更多、更真實(shí)語法錯誤類型的訓(xùn)練樣本。

    猜你喜歡
    語法錯誤噪聲
    在錯誤中成長
    噪聲可退化且依賴于狀態(tài)和分布的平均場博弈
    跟蹤導(dǎo)練(二)4
    KEYS
    Keys
    Book 5 Unit 1~Unit 3語法鞏固練習(xí)
    控制噪聲有妙法
    不犯同樣錯誤
    一種基于白噪聲響應(yīng)的隨機(jī)載荷譜識別方法
    車內(nèi)噪聲傳遞率建模及計算
    亚洲七黄色美女视频| 亚洲在线自拍视频| 在线观看66精品国产| 在线视频色国产色| 成人午夜高清在线视频| 人妻久久中文字幕网| 在线观看舔阴道视频| 99久久久亚洲精品蜜臀av| 久久精品国产清高在天天线| 国模一区二区三区四区视频 | 久久伊人香网站| 久久精品亚洲精品国产色婷小说| 嫩草影视91久久| 亚洲18禁久久av| 久久精品91无色码中文字幕| √禁漫天堂资源中文www| 国产免费男女视频| 亚洲国产精品999在线| 国产三级黄色录像| x7x7x7水蜜桃| 国产精品亚洲美女久久久| 又粗又爽又猛毛片免费看| 日韩欧美三级三区| 欧美乱妇无乱码| 久久午夜综合久久蜜桃| 久久精品91蜜桃| 在线永久观看黄色视频| 一个人观看的视频www高清免费观看 | 欧美一区二区国产精品久久精品 | 麻豆成人av在线观看| 午夜福利欧美成人| 亚洲国产欧美一区二区综合| 最近最新中文字幕大全电影3| 亚洲av五月六月丁香网| 国产免费av片在线观看野外av| 亚洲av熟女| 成年女人毛片免费观看观看9| 国产亚洲精品一区二区www| 欧美+亚洲+日韩+国产| 中文字幕人妻丝袜一区二区| 在线观看日韩欧美| 日韩欧美在线乱码| 五月伊人婷婷丁香| 色精品久久人妻99蜜桃| 黄色丝袜av网址大全| 国产精品99久久99久久久不卡| 国产在线观看jvid| 最近最新免费中文字幕在线| 日韩欧美国产在线观看| 国产乱人伦免费视频| 国产真人三级小视频在线观看| 日韩欧美免费精品| www.精华液| 免费在线观看视频国产中文字幕亚洲| 亚洲真实伦在线观看| 亚洲人成77777在线视频| 黄色片一级片一级黄色片| 50天的宝宝边吃奶边哭怎么回事| 久久久久久九九精品二区国产 | 在线观看舔阴道视频| 婷婷精品国产亚洲av在线| 国产亚洲欧美在线一区二区| 亚洲免费av在线视频| 中文资源天堂在线| 国产一区在线观看成人免费| 午夜福利在线观看吧| e午夜精品久久久久久久| 国产亚洲精品综合一区在线观看 | 亚洲精品国产一区二区精华液| 天天一区二区日本电影三级| 欧美av亚洲av综合av国产av| 久久精品成人免费网站| 久久午夜综合久久蜜桃| 久久久久久九九精品二区国产 | 亚洲国产精品合色在线| 免费av毛片视频| 国产成人影院久久av| 观看免费一级毛片| 97碰自拍视频| 精品免费久久久久久久清纯| 99久久综合精品五月天人人| 又紧又爽又黄一区二区| 国产精品免费一区二区三区在线| 99精品久久久久人妻精品| 脱女人内裤的视频| 18禁观看日本| 成在线人永久免费视频| 国产成人啪精品午夜网站| 在线观看66精品国产| 亚洲成人国产一区在线观看| 热99re8久久精品国产| 欧美乱码精品一区二区三区| 97碰自拍视频| 长腿黑丝高跟| 一个人免费在线观看电影 | 搞女人的毛片| 麻豆成人av在线观看| 色在线成人网| 久久精品影院6| 欧美乱妇无乱码| 成熟少妇高潮喷水视频| 真人做人爱边吃奶动态| 亚洲精品一卡2卡三卡4卡5卡| 国产高清视频在线播放一区| 亚洲片人在线观看| 99国产综合亚洲精品| 成人午夜高清在线视频| 日韩有码中文字幕| 欧美日韩一级在线毛片| 亚洲欧美激情综合另类| 欧洲精品卡2卡3卡4卡5卡区| 久久伊人香网站| 精品国产乱子伦一区二区三区| 午夜日韩欧美国产| 国产精品国产高清国产av| 在线观看66精品国产| 国内少妇人妻偷人精品xxx网站 | 啦啦啦免费观看视频1| 天堂动漫精品| 国产高清有码在线观看视频 | 国产亚洲精品第一综合不卡| 母亲3免费完整高清在线观看| 久久午夜综合久久蜜桃| 日本免费一区二区三区高清不卡| 黄频高清免费视频| 精品一区二区三区av网在线观看| 日韩精品青青久久久久久| 叶爱在线成人免费视频播放| 日本在线视频免费播放| 国产一区二区三区视频了| 亚洲av美国av| 国产伦人伦偷精品视频| 久久久精品国产亚洲av高清涩受| 国产在线精品亚洲第一网站| 麻豆成人av在线观看| 一二三四社区在线视频社区8| 精品熟女少妇八av免费久了| 久久久久国产精品人妻aⅴ院| 国产精品av视频在线免费观看| 成人手机av| 波多野结衣巨乳人妻| 欧美av亚洲av综合av国产av| 午夜福利视频1000在线观看| 国产熟女xx| 中文字幕人成人乱码亚洲影| 午夜精品在线福利| 99国产精品一区二区三区| 国产精品久久久人人做人人爽| 香蕉国产在线看| 中文字幕高清在线视频| 色综合亚洲欧美另类图片| 麻豆国产av国片精品| 久久久久久久久中文| 欧美在线黄色| 毛片女人毛片| 亚洲最大成人中文| 国产精品九九99| 女人被狂操c到高潮| 在线a可以看的网站| 19禁男女啪啪无遮挡网站| 亚洲成a人片在线一区二区| 国产黄片美女视频| 国产一区二区三区在线臀色熟女| 国产精品 欧美亚洲| 三级国产精品欧美在线观看 | 最新在线观看一区二区三区| 精品国产超薄肉色丝袜足j| 嫩草影院精品99| 日韩欧美在线二视频| 人妻夜夜爽99麻豆av| 国产精品精品国产色婷婷| 亚洲国产精品久久男人天堂| 婷婷精品国产亚洲av在线| 99久久无色码亚洲精品果冻| 日韩欧美在线乱码| 日韩欧美三级三区| 婷婷丁香在线五月| 亚洲精品中文字幕在线视频| 日韩av在线大香蕉| 在线观看舔阴道视频| 久久99热这里只有精品18| 午夜精品久久久久久毛片777| 国产成+人综合+亚洲专区| 久久精品国产综合久久久| 国产真人三级小视频在线观看| 国产精华一区二区三区| 亚洲最大成人中文| 91成年电影在线观看| 国产激情久久老熟女| 一进一出抽搐gif免费好疼| 一夜夜www| 91大片在线观看| 午夜福利在线在线| 亚洲五月天丁香| 日日摸夜夜添夜夜添小说| 亚洲真实伦在线观看| 免费看十八禁软件| 天天一区二区日本电影三级| 欧美一区二区国产精品久久精品 | 免费看a级黄色片| 中国美女看黄片| xxx96com| 国产精品亚洲美女久久久| 特大巨黑吊av在线直播| 夜夜躁狠狠躁天天躁| 久久婷婷成人综合色麻豆| 亚洲片人在线观看| 亚洲九九香蕉| 久久这里只有精品19| 久久久久久久久免费视频了| 超碰成人久久| 亚洲全国av大片| 免费高清视频大片| 18美女黄网站色大片免费观看| 首页视频小说图片口味搜索| 久久久久久久久中文| 午夜两性在线视频| 两个人免费观看高清视频| 日韩欧美免费精品| 99精品久久久久人妻精品| 免费在线观看日本一区| 亚洲精品一卡2卡三卡4卡5卡| 村上凉子中文字幕在线| 俄罗斯特黄特色一大片| 级片在线观看| av在线播放免费不卡| 日韩有码中文字幕| 亚洲成人免费电影在线观看| 日韩欧美免费精品| 精品高清国产在线一区| 免费高清视频大片| 校园春色视频在线观看| 人人妻,人人澡人人爽秒播| 又大又爽又粗| 女人爽到高潮嗷嗷叫在线视频| 黄片小视频在线播放| 精品无人区乱码1区二区| 日本成人三级电影网站| 国产成人精品无人区| 窝窝影院91人妻| 国产精品av视频在线免费观看| 美女 人体艺术 gogo| 国产精品99久久99久久久不卡| 90打野战视频偷拍视频| 国产成人av激情在线播放| 少妇人妻一区二区三区视频| 三级毛片av免费| 久久香蕉精品热| 香蕉丝袜av| 啦啦啦韩国在线观看视频| 草草在线视频免费看| 桃色一区二区三区在线观看| 欧美乱色亚洲激情| 变态另类丝袜制服| 亚洲欧洲精品一区二区精品久久久| 国产亚洲精品第一综合不卡| 真人一进一出gif抽搐免费| 成人国产综合亚洲| 男女之事视频高清在线观看| 国产亚洲精品av在线| 国产精品一区二区三区四区久久| 亚洲天堂国产精品一区在线| www.自偷自拍.com| 国产成人一区二区三区免费视频网站| av福利片在线| 国产黄片美女视频| 欧美日韩亚洲综合一区二区三区_| 九色国产91popny在线| www日本黄色视频网| 国产成人一区二区三区免费视频网站| 精品国产亚洲在线| 亚洲国产欧美一区二区综合| 中文资源天堂在线| 九九热线精品视视频播放| 天堂影院成人在线观看| 国产精品av视频在线免费观看| 在线看三级毛片| 亚洲精品中文字幕在线视频| 最近最新免费中文字幕在线| 老司机深夜福利视频在线观看| 久久香蕉国产精品| 免费观看精品视频网站| 久久中文看片网| 色av中文字幕| 欧美av亚洲av综合av国产av| 国产亚洲欧美98| 老熟妇仑乱视频hdxx| 亚洲精品久久国产高清桃花| 一本大道久久a久久精品| 亚洲国产欧美人成| 一级毛片女人18水好多| 五月玫瑰六月丁香| 久久人妻av系列| av在线播放免费不卡| 97超级碰碰碰精品色视频在线观看| 人妻夜夜爽99麻豆av| 一边摸一边抽搐一进一小说| 免费无遮挡裸体视频| 久久人妻福利社区极品人妻图片| 午夜日韩欧美国产| 琪琪午夜伦伦电影理论片6080| 男女那种视频在线观看| 久久这里只有精品中国| 国产激情久久老熟女| 国产亚洲精品第一综合不卡| aaaaa片日本免费| 精品少妇一区二区三区视频日本电影| 久久亚洲真实| 757午夜福利合集在线观看| 最近视频中文字幕2019在线8| 精品国内亚洲2022精品成人| 老汉色av国产亚洲站长工具| 人妻丰满熟妇av一区二区三区| 国产精品久久久人人做人人爽| 婷婷丁香在线五月| 国产亚洲精品第一综合不卡| 亚洲人与动物交配视频| 国产高清视频在线播放一区| 久久久国产成人免费| 亚洲国产高清在线一区二区三| av超薄肉色丝袜交足视频| 搞女人的毛片| 欧美性猛交╳xxx乱大交人| 精品久久久久久久人妻蜜臀av| 日本精品一区二区三区蜜桃| 久久久久久久久免费视频了| 波多野结衣高清作品| 国产激情久久老熟女| 丁香欧美五月| 成人亚洲精品av一区二区| 天天躁狠狠躁夜夜躁狠狠躁| 欧美3d第一页| 国产野战对白在线观看| 久久久国产成人精品二区| 午夜视频精品福利| 一进一出抽搐动态| 妹子高潮喷水视频| 真人一进一出gif抽搐免费| 全区人妻精品视频| 亚洲五月婷婷丁香| 亚洲精品在线美女| 午夜免费激情av| 国产亚洲av高清不卡| a级毛片在线看网站| 亚洲午夜精品一区,二区,三区| 男女之事视频高清在线观看| 欧美性长视频在线观看| 欧美zozozo另类| 欧美绝顶高潮抽搐喷水| 日日干狠狠操夜夜爽| 熟妇人妻久久中文字幕3abv| 久久精品国产亚洲av高清一级| 欧美绝顶高潮抽搐喷水| av视频在线观看入口| 日本熟妇午夜| 久久久久久久精品吃奶| 国产精品98久久久久久宅男小说| 国模一区二区三区四区视频 | 每晚都被弄得嗷嗷叫到高潮| av福利片在线| 又粗又爽又猛毛片免费看| 一进一出抽搐动态| 天天躁夜夜躁狠狠躁躁| 午夜老司机福利片| av中文乱码字幕在线| 国产成人一区二区三区免费视频网站| 免费看a级黄色片| 两人在一起打扑克的视频| 人人妻人人澡欧美一区二区| 亚洲第一欧美日韩一区二区三区| 日韩精品免费视频一区二区三区| 日本在线视频免费播放| 在线免费观看的www视频| 男女那种视频在线观看| 19禁男女啪啪无遮挡网站| 可以在线观看毛片的网站| 国产三级黄色录像| 久久久久免费精品人妻一区二区| 国内毛片毛片毛片毛片毛片| 岛国在线观看网站| 国模一区二区三区四区视频 | 在线免费观看的www视频| 日本一本二区三区精品| 长腿黑丝高跟| 国产亚洲精品综合一区在线观看 | 变态另类成人亚洲欧美熟女| 91国产中文字幕| 不卡一级毛片| 成人av在线播放网站| 黄色 视频免费看| 国产真实乱freesex| 午夜福利高清视频| 亚洲人与动物交配视频| 婷婷精品国产亚洲av在线| av片东京热男人的天堂| 国产精品久久久av美女十八| 欧美极品一区二区三区四区| 国产精品久久久久久精品电影| 国产久久久一区二区三区| 在线永久观看黄色视频| 黄色a级毛片大全视频| 99精品欧美一区二区三区四区| 欧美一级a爱片免费观看看 | 亚洲专区字幕在线| 国产高清有码在线观看视频 | 欧美日韩亚洲综合一区二区三区_| 国产午夜精品论理片| 性色av乱码一区二区三区2| 国内精品一区二区在线观看| 1024视频免费在线观看| 亚洲一区二区三区色噜噜| 麻豆成人午夜福利视频| 99国产极品粉嫩在线观看| 成年免费大片在线观看| 男女下面进入的视频免费午夜| 国产v大片淫在线免费观看| 啦啦啦免费观看视频1| 国产成人啪精品午夜网站| 久久天堂一区二区三区四区| 欧美久久黑人一区二区| 国产精品日韩av在线免费观看| 亚洲国产欧美网| 香蕉丝袜av| 岛国在线观看网站| a在线观看视频网站| 亚洲精品中文字幕在线视频| 无人区码免费观看不卡| 午夜影院日韩av| 老司机福利观看| 国产av一区二区精品久久| 最近最新中文字幕大全电影3| www.999成人在线观看| 看片在线看免费视频| 国产精品爽爽va在线观看网站| 国产精品亚洲美女久久久| av视频在线观看入口| 黄色成人免费大全| 久久久国产成人免费| 此物有八面人人有两片| 特大巨黑吊av在线直播| 久久中文看片网| 99精品在免费线老司机午夜| 亚洲人成77777在线视频| 黄片大片在线免费观看| 三级国产精品欧美在线观看 | 国产精品野战在线观看| 久久人妻福利社区极品人妻图片| 色老头精品视频在线观看| 久久久久国内视频| 国产爱豆传媒在线观看 | 婷婷六月久久综合丁香| 国产成人av激情在线播放| 琪琪午夜伦伦电影理论片6080| 久久久久免费精品人妻一区二区| 99久久无色码亚洲精品果冻| 夜夜看夜夜爽夜夜摸| 国产成人aa在线观看| 色在线成人网| 国产精品 欧美亚洲| 日本精品一区二区三区蜜桃| 亚洲午夜理论影院| 欧美zozozo另类| 亚洲中文字幕日韩| 精品无人区乱码1区二区| 久久国产乱子伦精品免费另类| 蜜桃久久精品国产亚洲av| 他把我摸到了高潮在线观看| 亚洲精品av麻豆狂野| 精品国产乱码久久久久久男人| 欧美激情久久久久久爽电影| 一本久久中文字幕| 国产精品久久久久久亚洲av鲁大| 欧美一级毛片孕妇| 99热只有精品国产| 中文资源天堂在线| 久久天躁狠狠躁夜夜2o2o| 亚洲电影在线观看av| 无人区码免费观看不卡| 一a级毛片在线观看| 亚洲人成网站高清观看| 久久久精品欧美日韩精品| 曰老女人黄片| 欧美成狂野欧美在线观看| 午夜福利在线在线| svipshipincom国产片| 天堂√8在线中文| 一本综合久久免费| www.www免费av| 大型黄色视频在线免费观看| 欧美极品一区二区三区四区| www.999成人在线观看| 欧美乱码精品一区二区三区| 最近最新免费中文字幕在线| 精品电影一区二区在线| 成人三级做爰电影| 亚洲av成人av| 两性午夜刺激爽爽歪歪视频在线观看 | 欧美久久黑人一区二区| a级毛片a级免费在线| 老熟妇乱子伦视频在线观看| 真人一进一出gif抽搐免费| 2021天堂中文幕一二区在线观| 亚洲国产精品久久男人天堂| 一二三四社区在线视频社区8| 国产亚洲精品一区二区www| 国产精品久久视频播放| 久久精品人妻少妇| 日韩欧美在线二视频| 久久久水蜜桃国产精品网| 国产午夜精品论理片| 久久久久国内视频| 亚洲精品在线观看二区| √禁漫天堂资源中文www| АⅤ资源中文在线天堂| 欧美精品啪啪一区二区三区| 后天国语完整版免费观看| 亚洲成人精品中文字幕电影| 国产aⅴ精品一区二区三区波| 90打野战视频偷拍视频| 一二三四在线观看免费中文在| 免费在线观看黄色视频的| 国产不卡一卡二| 日韩大尺度精品在线看网址| 黄频高清免费视频| 久久婷婷成人综合色麻豆| 亚洲第一欧美日韩一区二区三区| www.999成人在线观看| 欧美激情久久久久久爽电影| 欧美色视频一区免费| 啦啦啦免费观看视频1| 人妻丰满熟妇av一区二区三区| 18禁美女被吸乳视频| 亚洲精品中文字幕在线视频| 精品久久蜜臀av无| 床上黄色一级片| 手机成人av网站| 18禁黄网站禁片午夜丰满| 欧美黑人精品巨大| 午夜日韩欧美国产| 高清毛片免费观看视频网站| 国产三级在线视频| 精品一区二区三区av网在线观看| 18禁美女被吸乳视频| 亚洲熟女毛片儿| 国产区一区二久久| 天堂动漫精品| 激情在线观看视频在线高清| 一进一出抽搐动态| 国产欧美日韩一区二区三| 搡老熟女国产l中国老女人| 午夜免费激情av| 日韩成人在线观看一区二区三区| 久久久精品大字幕| 欧美在线一区亚洲| 日韩欧美国产一区二区入口| 欧美大码av| 一个人免费在线观看电影 | 国产一区二区在线av高清观看| 欧美不卡视频在线免费观看 | 亚洲片人在线观看| 亚洲av片天天在线观看| 桃红色精品国产亚洲av| 搡老岳熟女国产| 国产精品野战在线观看| 麻豆av在线久日| 欧美日本亚洲视频在线播放| 黄色a级毛片大全视频| 欧美zozozo另类| 97碰自拍视频| 久久人妻av系列| 狠狠狠狠99中文字幕| 亚洲全国av大片| 中文字幕最新亚洲高清| 国产黄色小视频在线观看| 一区二区三区高清视频在线| 色尼玛亚洲综合影院| 叶爱在线成人免费视频播放| 999精品在线视频| 欧洲精品卡2卡3卡4卡5卡区| 天天添夜夜摸| 日本黄大片高清| 欧美中文综合在线视频| 国产精品自产拍在线观看55亚洲| 精品国产亚洲在线| 欧美日韩亚洲国产一区二区在线观看| 91成年电影在线观看| 亚洲 欧美 日韩 在线 免费| 成熟少妇高潮喷水视频| 露出奶头的视频| 亚洲国产高清在线一区二区三| 欧美成人免费av一区二区三区| 视频区欧美日本亚洲| 国产精品久久久久久久电影 | 最新在线观看一区二区三区| 亚洲av成人av| 国产精品免费视频内射| 久久久国产成人精品二区| 国产一区二区激情短视频| 亚洲人成网站在线播放欧美日韩| 老司机午夜福利在线观看视频| 亚洲国产欧美人成| 夜夜看夜夜爽夜夜摸| 欧美日韩亚洲国产一区二区在线观看| 亚洲人成77777在线视频| 欧美日韩黄片免| svipshipincom国产片| 免费观看人在逋| 91字幕亚洲| 91老司机精品| 最近最新免费中文字幕在线| 亚洲欧美日韩无卡精品| 麻豆一二三区av精品| 毛片女人毛片| 久久婷婷人人爽人人干人人爱| 亚洲自偷自拍图片 自拍|