• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于語義上下文感知的文本數(shù)據(jù)增強方法研究

    2024-09-22 00:00:00張軍況澤李鈺彬
    現(xiàn)代電子技術(shù) 2024年17期
    關(guān)鍵詞:文本分類自然語言處理人工智能

    摘" 要: 在文本分類任務(wù)中,數(shù)據(jù)的質(zhì)量和數(shù)量對分類模型的性能有著重要影響,而在現(xiàn)實場景中獲取大規(guī)模標記數(shù)據(jù)往往是昂貴和困難的。數(shù)據(jù)增強作為一種解決數(shù)據(jù)匱乏問題的低成本方法,已在各種深度學習和機器學習任務(wù)中取得了顯著效果。由于文本語言具有離散性,在語義保留的條件下進行數(shù)據(jù)增強具有一定困難。因此,提出基于語義上下文感知的數(shù)據(jù)增強方法,采用由WordNet 3.0中的詞義定義(Gloss)和預(yù)訓(xùn)練模型BERT進行整合的Gloss選擇模型,進一步識別上下文中目標詞(尤其是多義詞)的實際詞義;然后根據(jù)下一個句子預(yù)測策略,將目標詞的實際詞義與被遮蓋目標詞的句子結(jié)合為一個句子對,使用掩碼語言模型對句子對進行預(yù)測采樣;最后計算語義文本相似度,并在三個基準分類數(shù)據(jù)集上對文中方法進行驗證。實驗結(jié)果表明,提出的方法在語義保留條件下,與選取的基線數(shù)據(jù)增強方法相比,在三個數(shù)據(jù)集的平均準確率指標上都有所提升,證明了文中方法的有效性。

    關(guān)鍵詞: 人工智能; 自然語言處理; 文本分類; 數(shù)據(jù)增強; Gloss; 低資源

    中圖分類號: TN919?34; TP391" " " " " " " " " " "文獻標識碼: A" " " " " " " " " " 文章編號: 1004?373X(2024)17?0159?07

    Text data augmentation method based on semantic context awareness

    ZHANG Jun, KUANG Ze, LI Yubin

    (School of Information Engineering, East China University of Technology, Nanchang 330013, China)

    Abstract: In text classification tasks, the quality and quantity of data have a significant impact on the performance of classification models. Usually, it is costly and difficult to obtain large?scaled labeled data in real scenarios. Data augmentation (DA), as a low?cost method to cope with the data desert, has achieved significant results in various deep learning and machine learning tasks. Due to the discrete nature of text language, it is difficult to perform DA in case of semantic preservation. Therefore, a DA method based on semantic context awareness is proposed. The Gloss selection model integrated by the word sense definition (Gloss) in WordNet 3.0 and the pre?training model BERT is employed, so as to identify the actual word senses of the target words (especially polysemous words) in the context. According to the next sentence prediction strategy, the actual word senses of the target words and the sentences of the masked target words are combined into a sentence pair, which are subjected to prediction sampling with a masked language model (MLM). The semantic text similarity is calculated. The proposed method is validated on three benchmark categorization datasets. The experimental results show that the average accuracy of the proposed method on the three datasets is improved to some extent in case of semantic preservation in comparison with the selected baseline data enhancement methods, which proves the effectiveness of the proposed method.

    Keywords: artificial intelligence; natural language processing; text classification; data augmentation; Gloss; low resource

    0" 引" 言

    數(shù)據(jù)增強(Data Augmentation, DA)是一種廣泛使用的技術(shù)。尤其在低資源條件下,數(shù)據(jù)增強增加了訓(xùn)練數(shù)據(jù)的規(guī)模,這樣不僅可以防止模型過擬合,還能夠提高深度神經(jīng)網(wǎng)絡(luò)的魯棒性。最初,數(shù)據(jù)增強應(yīng)用于計算機視覺領(lǐng)域,并取得顯著成就。隨著該領(lǐng)域的技術(shù)進步,數(shù)據(jù)增強的應(yīng)用范圍逐漸擴展到其他領(lǐng)域,包括自然語言處理(Natural Language Processing, NLP)、語音識別、自動駕駛等。

    在自然語言處理領(lǐng)域,研究人員提出了多種數(shù)據(jù)增強的方法。如文獻[1]提出的簡單數(shù)據(jù)增強方法(Easy Data Augmentation, EDA)對原句進行隨機替換、交換、插入和刪除操作實現(xiàn)增強數(shù)據(jù)的多樣性。為了避免引入過多噪聲,文獻[2]提出了一種更簡單的數(shù)據(jù)增強方法(An Easier Data Augmentation, AEDA),將隨機插入token改為隨機插入標點符號,在一定程度上緩解了噪聲引起的語義偏差問題。然而,隨機插入標點符號是不確定性的,錯誤的斷句可能會改變原句所表達的意思,語義保留無法得到有效控制。

    在處理復(fù)雜語義時,保持上下文語義一致是數(shù)據(jù)增強最基本的要求,數(shù)據(jù)生成的語義一致性對目標任務(wù)至關(guān)重要[3]。針對這個問題,文獻[4]提出了上下文增強的方法,通過長短期記憶(Long Short?Term Memory, LSTM)[5]網(wǎng)絡(luò)語言模型預(yù)測替換單詞的概率分布,并根據(jù)概率分布對替換詞進行采樣。由于技術(shù)的不斷發(fā)展,保持上下文語義一致的數(shù)據(jù)增強方法大多使用基于Transformer的預(yù)訓(xùn)練模型(Bidirectional Encoder Representations from Transformer, BERT)[6]。然而,在預(yù)訓(xùn)練過程中,某些token在類似上下文中出現(xiàn)的頻率高于其他token,這將導(dǎo)致模型對這些token產(chǎn)生偏好,易背離原始標簽分類。對此,文獻[7]提出了CBERT模型,通過訓(xùn)練標簽嵌入約束掩碼語言模型(Masked Language Model, MLM),以更有效地預(yù)測標簽兼容的token。然而,CBERT的調(diào)整策略是專為BERT架構(gòu)設(shè)計的,特別是其對片段嵌入的重復(fù)使用,使其不易直接應(yīng)用于其他預(yù)訓(xùn)練語言模型。

    一般來說,語義一致性和標簽一致性的目標是共存的,但是預(yù)訓(xùn)練模型所預(yù)測的結(jié)果可能導(dǎo)致語義發(fā)生變化。因此,生成數(shù)據(jù)時需同時考慮標簽一致性與語義一致性。本文提出了基于語義上下文感知的數(shù)據(jù)增強方法(Semantic?Context?Aware, SCA),在文本數(shù)據(jù)增強領(lǐng)域引入Gloss進行數(shù)據(jù)增強。Gloss的作用在于提供詞義的直觀理解或描述,能夠準確把握一個詞或短語的含義。在上下文增強時,與傳統(tǒng)的MLM預(yù)測不同,SCA利用目標詞在上下文所表示的Gloss和被遮蓋目標詞的句子組成一個句子對,再通過MLM預(yù)測與目標詞詞義相近的單詞。這樣可以保證替換單詞在上下文的語義一致性,并且該方法不需要引入標簽嵌入,就能夠很好地控制生成樣本不偏離原本的標簽。

    1" 語義上下文感知數(shù)據(jù)增強方法

    為了確保文本增強過程中生成的替代詞在語義上與原詞接近并適應(yīng)其語境,本文提出了一個基于語義上下文感知的數(shù)據(jù)增強方法,如圖1所示。

    該方法在句子中選擇合適的目標詞,首先針對目標詞采用Gloss選擇模型[8]選擇符合上下文的詞義定義,然后結(jié)合MLM預(yù)測候選替代詞的概率分布,并通過概率分布對候選替換詞進行采樣,最后利用語義文本相似度過濾不適合的替代詞。

    1.1" 目標詞選擇

    給定樣本[S={w1,w2,…,wn}],[S]表示文本序列,[wi]表示文本中第[i{1≤i≤n}]個單詞。由于語言的多樣性和復(fù)雜性,許多單詞在不同的情境下有不同的含義。在選擇目標詞之前,配合使用停用詞表,遍歷樣本[S]中的所有單詞,保留詞性為名詞、 動詞、形容詞和副詞的單詞,并去掉其他詞性的單詞。隨后檢查樣本[S]中的[wi]是否含有WordNet 3.0[9]中所提供該單詞的Glosses信息(如表1所示),如果樣本中所有單詞均不含有Glosses信息,則不采取任何操作;相反,如果樣本中存在多個帶有Glosses信息的單詞,將采用隨機選擇的方式來確定目標詞[Wtarget]。

    1.2" Gloss選擇

    為了精確地揭示[Wtarget]在上下文的含義,本文采用了一種基于Context?Gloss Pair訓(xùn)練的模型,即文獻[8]提出的一種基于BERT預(yù)訓(xùn)練的Gloss選擇模型,它在WSD(Word Sense Disambiguation)任務(wù)上展現(xiàn)出了卓越的表現(xiàn)。該模型將SemCor語料庫中的注釋句子和 WordNet 3.0 中的Gloss結(jié)合起來,構(gòu)建了正向和負向上下文詞匯對。正向詞匯對包含一個代表目標詞正確意義的詞匯,而反向詞匯對則包含一個否定的候選詞匯。通過在[Wtarget]前后標注兩個“[TGT]”特殊符號,將具有相同上下文和目標詞的上下文?詞匯對組合為一個訓(xùn)練實例,計算對應(yīng)的相關(guān)性得分,并通過Softmax層將同一組的相關(guān)性得分歸一化。此處使用交叉熵作為損失函數(shù):

    [L=-1Ni=1Nj=1mil(si, j)log(pij)] (1)

    式中:[N]是批量大??;[mi]是第[i]個訓(xùn)練實例的候選詞匯的數(shù)量;[l(si, j)]是索引[j]與正向上下文詞匯對[si]的索引相同時的二進制指示符;[pij]是第[i]個訓(xùn)練實例的第[j]個候選詞義的概率。[pij]的計算公式如下:

    [pij=expScore(contexti, Glossij)k=1niexpScore(contexti, Glossik)] (2)

    式中[Score(contexti, Glossij)]表示上下文?詞匯對相關(guān)性得分。

    針對每個[Wtarget],Gloss選擇模型以句子的上下文信息為依托,計算出Glosses與上下文的相關(guān)概率,如表2所示。在這一過程中,得分最高的Gloss被視為與[Wtarget]在當前上下文中的含義最為吻合的解釋。

    1.3" 目標詞的候選替換詞預(yù)測

    為了預(yù)測出最合適的替換詞,傳統(tǒng)語言模型是根據(jù)歷史信息預(yù)測序列中下一個單詞,但是傳統(tǒng)語言模型難以理解上下文中的復(fù)雜關(guān)系。BERT是一種用于預(yù)訓(xùn)練深度Transformer編碼器的自監(jiān)督方法,利用Transformer的雙向注意力機制學習單詞的上下文表示,這使得它可以同時考慮每個單詞左右兩側(cè)的上下文信息,從而捕捉更豐富的語言特征。受文獻[10]啟發(fā),本文采用了一種NSP策略(如圖2所示)作為MLM預(yù)測輸入。由于得到目標詞的Gloss是文本序列,因此將它作為輸入的第一個句子,被遮蓋目標詞的句子作為輸入的第二個句子,將兩個句子結(jié)合成為一個句子對,最終通過MLM預(yù)測候選替換詞的概率分布,并對候選替換詞進行采樣。

    在數(shù)據(jù)預(yù)處理階段,由于原有基于WordPiece的分詞方式會把一個完整的詞切分成若干個子詞,因此這些被分開的子詞在訓(xùn)練過程中會被隨機遮蓋,但是這不利于完整單詞的預(yù)測。因此,本文使用了BERT的變體模型BERT?Large?Uncased(Whole Word Masking)[6]。該模型中,如果一個完整詞的部分WordPiece子詞被遮蓋,則同屬該詞的其他部分也會被遮蓋,可有效提升BERT遮蓋部分WordPiece分詞的性能。

    1.4" 語義文本相似度計算(STS)

    采樣后的候選詞[C={c1,c2,…,cn}],[C]表示候選詞替換詞集合,[n]表示候選替換詞的數(shù)量([n]=10),這里[n]的取值是根據(jù)大量實驗決定的。為了衡量候選詞[C]和[Wtarget]在同一上下文中的語義相似度,本文采用文獻[11]提出的Sentence?BERT(簡稱SBERT)框架,結(jié)合預(yù)訓(xùn)練模型all?MiniLM?L6?v2生成句子嵌入,然后計算句子嵌入之間的余弦相似度,以此來衡量文本之間的語義相似度。all?MiniLM?L6?v2是一個輕量級的模型,它提供了一個小而快的解決方案,而SBERT則提供了一個針對句子嵌入優(yōu)化的結(jié)構(gòu)。結(jié)合兩者可以在保持快速響應(yīng)的同時,提升語義理解的精度。

    對于每一對句子,都是由原始句子SentenceA與帶有候選詞[C]的句子SentenceB組成。SentenceA和SentenceB的句子嵌入[wA]和[wB]的具體實現(xiàn)如式(3)和式(4)所示:

    [wA=mean_pooling(model(SentenceA))] (3)

    [wB=mean_pooling(model(SentenceB))] (4)

    式中:model表示使用的all?MiniLM?L6?v2模型;mean_pooling表示平均池化操作。

    得到句子對的嵌入后,利用式(5)進行余弦相似度計算,余弦相似度是常用的計算語義文本相似度的方法。向量余弦相似度為1,表示兩個句子在語義上相似;為-1則表示兩個句子在語義上不相似。

    [cosin_sim(wA,wB)=wA?wBwA×wB=i=1n(wA)i×(wB)ii=1n(wA)2i×i=1n(wB)2i] (5)

    通過對比原始句子與候選句子之間的余弦相似度,確定與原始句子最為相似的候選句子,最終將與原始句子最相似的候選句子作為最終的增強樣本。

    2" 實驗與分析

    為了驗證SCA數(shù)據(jù)增強方法的有效性,本文設(shè)計了多組對比實驗,并對相關(guān)實驗結(jié)果進行了分析。

    2.1" 數(shù)據(jù)集

    本文使用了如下三個文本分類數(shù)據(jù)集。

    1) SST?2(斯坦福情感樹庫)[12]。它是一個用于電影評論情感分類的數(shù)據(jù)集,包含兩個標簽(正面情感和負面情感)。

    2) TREC[13]是一個細粒度問題分類數(shù)據(jù)集。它包含六種問題類型(Description, Entity, Human, Abbreviation, Location, Numeric)。

    3) SNIPS(自然語言理解基準)[14]數(shù)據(jù)集是一個包含16 000 多個眾包查詢的數(shù)據(jù)集,分布在7個不同復(fù)雜度的用戶意圖中(SearchCreativeWork, GetWeather, BookRestaurant, PlayMusic, AddToPlaylist, RateBook, SearchScreeningEvent),訓(xùn)練集包含13 084個話語,驗證集和測試集各包含700個話語,每個意圖有100個查詢。

    2.2" 實驗設(shè)置

    本文在訓(xùn)練集和驗證集的每次實驗,對每類隨機抽取10個示例以模擬低資源條件下的文本分類。為了評估數(shù)據(jù)增強方法,將生成的示例添加到每個任務(wù)在低資源條件下的訓(xùn)練數(shù)據(jù)中,并在完整測試集上評估其性能。為了避免隨機性帶來的誤差,本文在不同基線方法下的對比實驗中使用相同的數(shù)據(jù)集,并且所有實驗均重復(fù)15次。通過多次實驗,可以減少這些誤差的影響,并通過統(tǒng)計分析獲得更準確的實驗數(shù)據(jù)。實驗結(jié)果按照完整測試集上的平均(STD)準確率為準。

    在微調(diào)MLM階段,設(shè)置批次大小為16,學習率為4×10-5,迭代次數(shù)為10,樣本最大長度為128。

    在微調(diào)分類器階段,由于BERT已經(jīng)在大量數(shù)據(jù)上進行了預(yù)訓(xùn)練,并且在分類任務(wù)上取得了先進的性能,因此,本文選擇BERT模型中的“BERT?Base?Uncased”作為分類器,采用自適應(yīng)矩估計(Adaptive Moment Estimation, Adam)[15]算法進行優(yōu)化。設(shè)置批次大小為16,學習率為4×10-5,樣本最大長度為64,對訓(xùn)練數(shù)據(jù)集進行30次迭代訓(xùn)練,并在驗證集上選擇最好的模型進行評估。

    本文實驗環(huán)境選用NVIDIA RTX A5000 顯卡(顯存24 GB)作為算力加速部件,操作系統(tǒng)為Ubuntu 18.04.5 LTS,編程語言為Python 3.8.10。

    2.3" 對比方法

    EDA[1]是一種被廣泛使用的文本數(shù)據(jù)增強方法,包含四個簡單的操作:同義詞替換、隨機插入、隨機交換和隨機刪除。

    AEDA[2]是一種更簡單的數(shù)據(jù)增強方法,在句子中隨機插入標點符號實現(xiàn)數(shù)據(jù)增強。

    反向翻譯[16]使用了文獻[17]預(yù)先訓(xùn)練好的EN?DE模型將初始樣本翻譯為另一種語言,再使用DE?EN模型將樣本翻譯為原來的語言。

    CBERT[7]通過上下文和句子標簽來預(yù)測一個標簽兼容的單詞,在不破壞標簽兼容性的情況下實現(xiàn)增強數(shù)據(jù)。

    GPT2context[18]將標簽和句子拼接成一個訓(xùn)練數(shù)據(jù)集:[y1]SEP[x1]EOS[y2]…[yn]SEP[xn]EOS。SEP表示類標簽和句子之間的分隔標記,EOS表示句子的結(jié)尾。通過添加[yi]SEP[w1…wk]作為生成數(shù)據(jù)的提示,持續(xù)生成數(shù)據(jù),直到生成EOS標記。其中[w1,w2,…,wk]是序列[xi]的前[k]個字。

    BERTexpand[18]通過在給定類別的所有示例中預(yù)置類別標簽來限制BERT。它是將類標簽加入到模型的詞匯表中。

    BERTprepend[18]與BERTexpand類似,但是它不將類標簽加入到模型詞匯表中。

    2.4" 實驗結(jié)果與分析

    如表3所示,本文在低資源環(huán)境下,對比了不同數(shù)據(jù)增強方法在不同數(shù)據(jù)集中的分類準確率。

    為了更加直觀地呈現(xiàn)和比較各種方法的性能,本文根據(jù)表3的數(shù)據(jù)繪制了一個點線圖(見圖3),該圖展示了不同數(shù)據(jù)增強方法在三個數(shù)據(jù)集上相對于基線BERT模型(未使用數(shù)據(jù)增強,記為No DA)的準確率差異。這種方式能夠清晰地觀察各方法在不同數(shù)據(jù)集上的表現(xiàn)差異。

    從圖3中可以觀察到,各個方法在不同數(shù)據(jù)集上表現(xiàn)出了不同程度的效果。在TREC數(shù)據(jù)集上,本文的方法展現(xiàn)出了最顯著的性能提升。相比于基線BERT模型,準確率提高了1.57%。盡管在SST?2和SNIPS這兩個數(shù)據(jù)集上,本文方法也實現(xiàn)了準確率的提升,但提升幅度并非最大,這可能是因為數(shù)據(jù)結(jié)構(gòu)的差異。通過觀察,SNIPS中大部分句子不能作為一個獨立的句子,因為它沒有明確的主謂賓結(jié)構(gòu),這使得句子的意思不完整,Gloss選擇模型很難判斷目標詞的真實含義。SST?2包含較少的不完整句子,達到最次結(jié)果的原因可能和SNIPS類似。 TREC是一個問題類型的數(shù)據(jù)集,具有完整的句子結(jié)構(gòu),并且達到了最優(yōu)結(jié)果。以上分析說明,句子完整結(jié)構(gòu)可能會影響模型的性能。然而本文方法的特點就是引入Gloss獲取目標詞在上下文的真實語義,這極大地依賴句子結(jié)構(gòu)的完整性。

    本文對比了不同增強方法在三個數(shù)據(jù)集的整體表現(xiàn),并根據(jù)表3繪制了不同方法在三個數(shù)據(jù)集上的平均準確率散點圖,如圖4所示。可以發(fā)現(xiàn),在本研究中,所提出的數(shù)據(jù)增強方法相比于各種現(xiàn)有技術(shù),在平均準確率方面取得了顯著的提升。具體來看,與未使用數(shù)據(jù)增強的BERT(No DA)模型相比,本文方法將準確率提高了1.704 1%。進一步比較EDA及AEDA這兩種簡單但普遍應(yīng)用的增強策略,本文方法分別取得了0.514 9%和0.512 1%的準確率提升。當與BackTrans和CBERT增強技術(shù)對比時,本文方法同樣表現(xiàn)優(yōu)異,平均準確率分別提升了1.055 2%和0.790 9%。與GPT2context、BERTexpand和BERTprepend相比,本文方法的平均準確率分別提升3.144 5%、1.434 8%和1.336 2%。上述實驗結(jié)果表明,本文方法在提升模型準確率方面表現(xiàn)良好。

    2.5" 消融實驗

    本文研究了STS對模型性能的影響,分別在3個數(shù)據(jù)集上進行了消融實驗,實驗結(jié)果如表4所示。

    由表4可以發(fā)現(xiàn),在刪除STS后,本文模型在三個數(shù)據(jù)集上的準確率均有下降。這表明STS對候選替換詞進行篩選時,有效選擇了符合語義上下文的替換詞,這對分類模型性能的提升有著至關(guān)重要的影響。

    3" 結(jié)" 語

    在低資源條件下,為了提高模型的分類性能,本文提出了基于語義上下文感知的數(shù)據(jù)增強方法。該方法通過引入目標詞的Gloss信息作為替換詞的基礎(chǔ)詞義,再結(jié)合被遮蓋目標詞的句子形成一個能夠被BERT模型識別的句子對。這樣模型能夠根據(jù)Gloss信息和原句的上下文來預(yù)測單詞,保證了上下文語義一致性和數(shù)據(jù)的多樣性。結(jié)果表明,本文提出的方法在整體上是有效的。

    在未來的工作中,將針對特定的任務(wù)或者模型進一步優(yōu)化,提高模型在各個數(shù)據(jù)集上的分類性能。

    注:本文通訊作者為況澤。

    參考文獻

    [1] WEI J W, ZOU K. EDA: Easy data augmentation techniques for boosting performance on text classification tasks [C]// Procee?dings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing. New York: ACM, 2019: 6381?6387.

    [2] KARIMI A, ROSSI L, PRATI A. AEDA: An easier data augmentation technique for text classification [C]// Findings of the Association for Computational Linguistics. [S.l.]: ACL, 2021: 2748?2754.

    [3] ASH J T, ZHANG C C, KRISHNAMURTHY A, et al. Deep batch active learning by diverse, uncertain gradient lower bounds [EB/OL]. [2020?05?07]. https://openreview.net/forum?id=ryghZJBKPS.

    [4] KOBAYASHI S. Contextual augmentation: Data augmentation by words with paradigmatic relations [C]// Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. [S.l.]: ACL, 2018: 452?457.

    [5] HOCHREITER S, SCHMIDHUBER J. Long short?term memory [J]. Neural computation, 1997, 9(8): 1735?1780.

    [6] DEVLIN J, CHANG M W, LEE K, et al. BERT: Pre?training of deep bidirectional transformers for language understanding [EB/OL]. [2018?10?30]. http://arxiv.org/abs/1810.04805.

    [7] WU X, Lü S W, ZANG L J, et al. Conditional BERT contextual augmentation [C]// Proceedings of 19th International Conference on Computational Science. Heidelberg: Springer, 2019: 84?95.

    [8] YAP B P, KOH A, CHNG E S. Adapting BERT for word sense disambiguation with gloss selection objective and example sentences [C]// Findings of the Association for Computational Linguistics. [S.l.]: ACL, 2020: 41?46.

    [9] MILLER G A. WordNet: A lexical database for English [J]. Communications of the ACM, 1995, 38(11): 39?41.

    [10] QIANG J P, LI Y, ZHU Y, et al. LSBert: A simple framework for lexical simplification [EB/OL]. [2021?10?28]. https://arxiv.org/abs/2006.14939.

    [11] REIMERS N, GUREVYCH I. Sentence?BERT: Sentence embeddings using Siamese BERT?networks [C]// Proceedings of the 2019 Conference on Empirical Methods in Natural Language. [S.l.]: ACL, 2019: 3980?3990.

    [12] PANG B, LEE L. Seeing stars: Exploiting class relationships for sentiment categorization with respect to rating scales [C]// Proceedings of the Conference on 43rd Annual Meeting of the Association for Computational Linguistics. [S.l.]: ACL, 2005: 115?124.

    [13] LI X, ROTH D. Learning question classifiers [EB/OL]. [2021?08?06]. https://aclanthology.org/C02?1150/.

    [14] COUCKE A, SAADE A, BALL A, et al. Snips voice platform: An embedded spoken language understanding system for private?by?design voice interfaces [EB/OL]. [2018?08?13]. http://arxiv.org/abs/1805.10190.

    [15] KINGMA D P, BA J. Adam: A method for stochastic optimization [EB/OL]. [2019?07?25]. http://arxiv.org/abs/1412.6980.

    [16] SHLEIFER S. Low resource text classification with ULMFit and backtranslation [EB/OL]. [2019?04?01]. http://arxiv.org/abs/1903.09244.

    [17] NG N, YEE K, BAEVSKI A, et al. Facebook FAIR′s WMT19 news translation task submission [C]// Proceedings of the Fourth Conference on Machine Translation. [S.l.]: ACL, 2019: 314?319.

    [18] KUMAR V, CHOUDHARY A, CHO E. Data augmentation using pre?trained transformer models [EB/OL]. [2020?05?10]. https://arxiv.org/abs/2003.02245.

    [19] PELLICER L F A O, FERREIRA T M, COSTA A H R. Data augmentation techniques in natural language processing [J]. Applied soft computing, 2023, 132: 109803.

    猜你喜歡
    文本分類自然語言處理人工智能
    2019:人工智能
    商界(2019年12期)2019-01-03 06:59:05
    人工智能與就業(yè)
    數(shù)讀人工智能
    小康(2017年16期)2017-06-07 09:00:59
    基于組合分類算法的源代碼注釋質(zhì)量評估方法
    基于貝葉斯分類器的中文文本分類
    基于蟻群智能算法的研究文本分類
    文本分類算法在山東女子學院檔案管理的應(yīng)用
    科技視界(2016年24期)2016-10-11 09:36:57
    下一幕,人工智能!
    南風窗(2016年19期)2016-09-21 16:51:29
    面向機器人導(dǎo)航的漢語路徑自然語言組塊分析方法研究
    漢哈機器翻譯中的文字轉(zhuǎn)換技術(shù)研究
    看片在线看免费视频| 国产蜜桃级精品一区二区三区| 黄色视频不卡| 午夜精品在线福利| 可以在线观看毛片的网站| 激情在线观看视频在线高清| 国产精品久久久av美女十八| 日本a在线网址| 极品人妻少妇av视频| 亚洲欧洲精品一区二区精品久久久| 超碰成人久久| 日本欧美视频一区| 性色av乱码一区二区三区2| 极品人妻少妇av视频| 亚洲中文日韩欧美视频| 婷婷精品国产亚洲av在线| 欧美激情极品国产一区二区三区| 大香蕉久久成人网| 99在线视频只有这里精品首页| 国产精品 国内视频| 变态另类成人亚洲欧美熟女 | 很黄的视频免费| 日韩欧美在线二视频| 国产成人精品久久二区二区免费| 一边摸一边抽搐一进一出视频| 亚洲一区二区三区色噜噜 | 伊人久久大香线蕉亚洲五| 9191精品国产免费久久| 欧美激情久久久久久爽电影 | 一进一出抽搐gif免费好疼 | 99香蕉大伊视频| av片东京热男人的天堂| 99久久综合精品五月天人人| 黄色丝袜av网址大全| 91精品国产国语对白视频| 老司机深夜福利视频在线观看| 黄色成人免费大全| 亚洲精品中文字幕在线视频| 精品人妻1区二区| 国产精品国产av在线观看| 欧美激情 高清一区二区三区| 一二三四社区在线视频社区8| 香蕉丝袜av| 嫁个100分男人电影在线观看| 视频区图区小说| 国产成人啪精品午夜网站| 91精品国产国语对白视频| 又紧又爽又黄一区二区| 亚洲精品一区av在线观看| 免费在线观看完整版高清| 国产成人影院久久av| 中文字幕最新亚洲高清| 黄色 视频免费看| 亚洲久久久国产精品| 久久九九热精品免费| www.熟女人妻精品国产| 国产熟女xx| 大型黄色视频在线免费观看| 男女床上黄色一级片免费看| 欧美在线一区亚洲| 国产精品秋霞免费鲁丝片| 欧美成人免费av一区二区三区| 国产高清国产精品国产三级| 一级毛片高清免费大全| 午夜激情av网站| 999久久久国产精品视频| 精品一区二区三卡| 美女高潮到喷水免费观看| 交换朋友夫妻互换小说| 99精品久久久久人妻精品| 高清av免费在线| 黑人操中国人逼视频| 少妇粗大呻吟视频| videosex国产| 欧美黄色淫秽网站| 黄色成人免费大全| 久久香蕉国产精品| 亚洲人成伊人成综合网2020| 激情在线观看视频在线高清| 国产精品一区二区三区四区久久 | 欧美黄色片欧美黄色片| bbb黄色大片| 热re99久久国产66热| 亚洲av成人不卡在线观看播放网| 丝袜美腿诱惑在线| www.精华液| 麻豆成人av在线观看| 另类亚洲欧美激情| 国产熟女午夜一区二区三区| 国产激情欧美一区二区| 国产男靠女视频免费网站| 久久中文字幕人妻熟女| 国产精品 欧美亚洲| 国产亚洲精品久久久久久毛片| 亚洲视频免费观看视频| 桃红色精品国产亚洲av| 午夜日韩欧美国产| 国产一区在线观看成人免费| 麻豆av在线久日| 人人澡人人妻人| 一进一出抽搐gif免费好疼 | 国产无遮挡羞羞视频在线观看| 国产欧美日韩精品亚洲av| 国产欧美日韩综合在线一区二区| 欧美人与性动交α欧美软件| 午夜a级毛片| 又大又爽又粗| 精品高清国产在线一区| 久久国产乱子伦精品免费另类| 在线看a的网站| 国产野战对白在线观看| 欧美激情高清一区二区三区| 性欧美人与动物交配| a级毛片黄视频| 黄色女人牲交| 国产成人av教育| 亚洲欧美一区二区三区久久| 国产蜜桃级精品一区二区三区| 大香蕉久久成人网| 美女福利国产在线| 一区福利在线观看| 99精品久久久久人妻精品| 亚洲午夜理论影院| 婷婷六月久久综合丁香| 国产国语露脸激情在线看| netflix在线观看网站| 国产在线观看jvid| 香蕉国产在线看| 99国产精品99久久久久| 国产高清激情床上av| 免费看十八禁软件| 日日夜夜操网爽| 欧美日本亚洲视频在线播放| 久久精品91无色码中文字幕| 国产精品永久免费网站| 欧美日韩黄片免| 国产免费现黄频在线看| 色尼玛亚洲综合影院| 夜夜看夜夜爽夜夜摸 | 男女高潮啪啪啪动态图| 国产成人欧美| 国产成人精品在线电影| 欧美日韩亚洲国产一区二区在线观看| 国产亚洲精品久久久久久毛片| 99在线人妻在线中文字幕| 精品国产一区二区久久| 午夜激情av网站| 亚洲熟妇中文字幕五十中出 | 国产主播在线观看一区二区| 精品熟女少妇八av免费久了| 手机成人av网站| 欧美黄色片欧美黄色片| 日本wwww免费看| 午夜91福利影院| 男人舔女人下体高潮全视频| 午夜精品在线福利| 日韩精品中文字幕看吧| 久久久久久久午夜电影 | 精品乱码久久久久久99久播| 亚洲成国产人片在线观看| 变态另类成人亚洲欧美熟女 | 18禁黄网站禁片午夜丰满| 女人爽到高潮嗷嗷叫在线视频| 国产主播在线观看一区二区| 很黄的视频免费| 国产乱人伦免费视频| 一二三四社区在线视频社区8| 桃色一区二区三区在线观看| 亚洲 欧美 日韩 在线 免费| 久久人妻熟女aⅴ| 搡老乐熟女国产| 一进一出抽搐gif免费好疼 | 少妇粗大呻吟视频| 亚洲精华国产精华精| 日日夜夜操网爽| 在线观看一区二区三区激情| 成年人黄色毛片网站| 搡老熟女国产l中国老女人| 精品人妻在线不人妻| 国产欧美日韩一区二区精品| 曰老女人黄片| 日韩视频一区二区在线观看| 成人av一区二区三区在线看| 男女床上黄色一级片免费看| 亚洲avbb在线观看| 女人被躁到高潮嗷嗷叫费观| 少妇裸体淫交视频免费看高清 | 在线观看日韩欧美| 国产欧美日韩精品亚洲av| 日韩高清综合在线| 人妻久久中文字幕网| 欧美精品亚洲一区二区| 一a级毛片在线观看| 亚洲中文av在线| 如日韩欧美国产精品一区二区三区| 亚洲精品国产一区二区精华液| 亚洲va日本ⅴa欧美va伊人久久| 成人三级黄色视频| 极品教师在线免费播放| 亚洲人成电影免费在线| 精品国产乱子伦一区二区三区| 欧美成人午夜精品| 午夜福利一区二区在线看| 满18在线观看网站| www国产在线视频色| 又黄又粗又硬又大视频| 99国产极品粉嫩在线观看| 欧美日韩中文字幕国产精品一区二区三区 | 高潮久久久久久久久久久不卡| 亚洲精品国产区一区二| 久久精品国产亚洲av高清一级| 亚洲精品久久午夜乱码| 国产精品国产av在线观看| 亚洲人成伊人成综合网2020| 亚洲三区欧美一区| 免费搜索国产男女视频| 美女福利国产在线| 男女床上黄色一级片免费看| 国产精品 欧美亚洲| 黑人巨大精品欧美一区二区蜜桃| 午夜精品在线福利| 侵犯人妻中文字幕一二三四区| 视频区欧美日本亚洲| svipshipincom国产片| 好男人电影高清在线观看| 夜夜爽天天搞| 中文字幕av电影在线播放| 国产不卡一卡二| 国产极品粉嫩免费观看在线| 动漫黄色视频在线观看| 中亚洲国语对白在线视频| 久久精品国产综合久久久| 欧美老熟妇乱子伦牲交| 免费久久久久久久精品成人欧美视频| 新久久久久国产一级毛片| 18禁裸乳无遮挡免费网站照片 | 亚洲欧美精品综合久久99| 不卡一级毛片| 日韩高清综合在线| 两性午夜刺激爽爽歪歪视频在线观看 | 亚洲av成人av| 成人三级做爰电影| 亚洲精品一区av在线观看| 午夜影院日韩av| 在线观看免费日韩欧美大片| 黄色成人免费大全| 人成视频在线观看免费观看| 女人爽到高潮嗷嗷叫在线视频| 亚洲成av片中文字幕在线观看| 成年女人毛片免费观看观看9| 欧美日韩黄片免| 免费人成视频x8x8入口观看| 国产成+人综合+亚洲专区| 欧美黑人欧美精品刺激| 亚洲欧洲精品一区二区精品久久久| 久久久国产欧美日韩av| 国产成人av教育| 日韩中文字幕欧美一区二区| 久久精品91无色码中文字幕| 午夜福利影视在线免费观看| 成人亚洲精品一区在线观看| av国产精品久久久久影院| 两个人免费观看高清视频| 亚洲欧美激情综合另类| 免费在线观看影片大全网站| 午夜免费激情av| 99国产精品一区二区三区| 国产亚洲欧美在线一区二区| 亚洲精品久久午夜乱码| 岛国视频午夜一区免费看| 精品日产1卡2卡| 自线自在国产av| 高清毛片免费观看视频网站 | 久久久久久大精品| 一级毛片精品| www.999成人在线观看| 亚洲avbb在线观看| 国产一区在线观看成人免费| 中文字幕色久视频| 亚洲美女黄片视频| 免费在线观看亚洲国产| 亚洲 国产 在线| 国产色视频综合| 9热在线视频观看99| 日韩视频一区二区在线观看| 丁香六月欧美| 亚洲av成人av| 高潮久久久久久久久久久不卡| 欧美黑人精品巨大| 亚洲国产中文字幕在线视频| 亚洲第一av免费看| 最新在线观看一区二区三区| 新久久久久国产一级毛片| 99香蕉大伊视频| 黄网站色视频无遮挡免费观看| 交换朋友夫妻互换小说| 欧美激情久久久久久爽电影 | 成年女人毛片免费观看观看9| 欧美+亚洲+日韩+国产| 国产精品成人在线| 午夜两性在线视频| 一边摸一边抽搐一进一小说| 一级a爱视频在线免费观看| 久久精品国产亚洲av高清一级| 9191精品国产免费久久| 久久久精品欧美日韩精品| 人人妻人人添人人爽欧美一区卜| 午夜福利一区二区在线看| 色综合欧美亚洲国产小说| 婷婷精品国产亚洲av在线| 99香蕉大伊视频| 999久久久精品免费观看国产| 久久精品91无色码中文字幕| 侵犯人妻中文字幕一二三四区| 亚洲aⅴ乱码一区二区在线播放 | 日韩人妻精品一区2区三区| 久久热在线av| 国产主播在线观看一区二区| 首页视频小说图片口味搜索| 激情视频va一区二区三区| 大陆偷拍与自拍| 日日爽夜夜爽网站| 在线天堂中文资源库| 黄色a级毛片大全视频| 久热这里只有精品99| 成熟少妇高潮喷水视频| 一a级毛片在线观看| 久久精品国产99精品国产亚洲性色 | 久久香蕉精品热| a级毛片在线看网站| 欧美精品啪啪一区二区三区| 久久人妻熟女aⅴ| 咕卡用的链子| 国产有黄有色有爽视频| 亚洲自偷自拍图片 自拍| 免费高清在线观看日韩| 国产亚洲精品一区二区www| 精品久久久久久久毛片微露脸| 看免费av毛片| 五月开心婷婷网| 亚洲 欧美一区二区三区| 88av欧美| 国产99久久九九免费精品| 中文字幕人妻丝袜一区二区| 午夜免费鲁丝| 日本黄色日本黄色录像| 一级毛片精品| 亚洲av电影在线进入| 啦啦啦在线免费观看视频4| 欧美黑人欧美精品刺激| 精品国内亚洲2022精品成人| 久久香蕉国产精品| 99久久99久久久精品蜜桃| 露出奶头的视频| 日日摸夜夜添夜夜添小说| 国产黄a三级三级三级人| 人人妻人人添人人爽欧美一区卜| 亚洲熟妇熟女久久| 热re99久久国产66热| 久久久国产精品麻豆| 看片在线看免费视频| 亚洲精品国产精品久久久不卡| 人人妻人人添人人爽欧美一区卜| 黄色视频不卡| 国产亚洲精品综合一区在线观看 | 国产精品98久久久久久宅男小说| 18美女黄网站色大片免费观看| 国产精品99久久99久久久不卡| 日韩av在线大香蕉| 九色亚洲精品在线播放| 又大又爽又粗| 亚洲一区二区三区色噜噜 | 亚洲欧美日韩另类电影网站| a在线观看视频网站| 中文亚洲av片在线观看爽| 高清毛片免费观看视频网站 | 一级片免费观看大全| 国产精品99久久99久久久不卡| 国产精品 国内视频| 亚洲欧美精品综合一区二区三区| 一边摸一边抽搐一进一小说| 国产无遮挡羞羞视频在线观看| 国产av又大| 12—13女人毛片做爰片一| av福利片在线| 最好的美女福利视频网| 精品午夜福利视频在线观看一区| 婷婷六月久久综合丁香| 国产精品一区二区免费欧美| 免费高清视频大片| 真人做人爱边吃奶动态| 黑丝袜美女国产一区| av电影中文网址| 中文字幕另类日韩欧美亚洲嫩草| 欧美精品啪啪一区二区三区| 18美女黄网站色大片免费观看| 国产精品亚洲一级av第二区| 国产色视频综合| 亚洲成人久久性| 一级作爱视频免费观看| 午夜免费成人在线视频| 成年女人毛片免费观看观看9| 美女午夜性视频免费| 高清av免费在线| 国产精品久久久人人做人人爽| 高清在线国产一区| 99国产精品免费福利视频| 中文字幕av电影在线播放| 一个人免费在线观看的高清视频| 99国产精品一区二区三区| 人成视频在线观看免费观看| 亚洲熟女毛片儿| 男人操女人黄网站| 乱人伦中国视频| 国产成人欧美在线观看| 日韩欧美一区视频在线观看| 人人澡人人妻人| 久久香蕉国产精品| 亚洲专区字幕在线| 精品福利永久在线观看| 精品一区二区三区视频在线观看免费 | 精品一区二区三区av网在线观看| 黄色视频不卡| 国产成+人综合+亚洲专区| 亚洲av熟女| 亚洲欧美日韩另类电影网站| 麻豆一二三区av精品| 亚洲av电影在线进入| 又黄又粗又硬又大视频| 午夜福利在线观看吧| 亚洲精品在线美女| 女警被强在线播放| 美女大奶头视频| 法律面前人人平等表现在哪些方面| 国产一卡二卡三卡精品| 欧美最黄视频在线播放免费 | 一级毛片女人18水好多| 久久久精品欧美日韩精品| 久久精品亚洲熟妇少妇任你| 亚洲全国av大片| 一进一出抽搐动态| 亚洲国产毛片av蜜桃av| √禁漫天堂资源中文www| 欧美激情 高清一区二区三区| 亚洲色图综合在线观看| 欧美日韩亚洲综合一区二区三区_| 欧美 亚洲 国产 日韩一| 欧美在线一区亚洲| 国产无遮挡羞羞视频在线观看| 三级毛片av免费| 在线观看一区二区三区激情| 正在播放国产对白刺激| 国产亚洲欧美在线一区二区| 欧美性长视频在线观看| 国产成人影院久久av| 纯流量卡能插随身wifi吗| 免费不卡黄色视频| 国产主播在线观看一区二区| 免费观看精品视频网站| 中文字幕另类日韩欧美亚洲嫩草| 精品少妇一区二区三区视频日本电影| 麻豆国产av国片精品| 国产三级在线视频| √禁漫天堂资源中文www| 天堂动漫精品| 成人永久免费在线观看视频| 亚洲精华国产精华精| 国产成人欧美| 狂野欧美激情性xxxx| 少妇被粗大的猛进出69影院| 久久 成人 亚洲| 亚洲九九香蕉| 国产精品98久久久久久宅男小说| 久久香蕉激情| 美女大奶头视频| 国产高清国产精品国产三级| 久久久久久大精品| 欧美日韩精品网址| 久久香蕉激情| 巨乳人妻的诱惑在线观看| 成人18禁高潮啪啪吃奶动态图| 女性生殖器流出的白浆| 岛国在线观看网站| 制服诱惑二区| 国产野战对白在线观看| 久久午夜综合久久蜜桃| 亚洲人成77777在线视频| 9热在线视频观看99| 真人一进一出gif抽搐免费| 国产av在哪里看| 国产成人啪精品午夜网站| 免费高清视频大片| 国产熟女xx| 久久精品成人免费网站| 国产深夜福利视频在线观看| 午夜久久久在线观看| 亚洲久久久国产精品| av电影中文网址| 在线观看午夜福利视频| 欧美+亚洲+日韩+国产| 亚洲avbb在线观看| 啦啦啦 在线观看视频| 不卡av一区二区三区| 在线观看免费日韩欧美大片| 国产亚洲精品第一综合不卡| www.熟女人妻精品国产| 美女高潮到喷水免费观看| 两性午夜刺激爽爽歪歪视频在线观看 | 午夜91福利影院| 中亚洲国语对白在线视频| 日本免费一区二区三区高清不卡 | 美女国产高潮福利片在线看| 真人一进一出gif抽搐免费| 波多野结衣av一区二区av| 丰满迷人的少妇在线观看| 黄色视频,在线免费观看| 亚洲欧美日韩另类电影网站| 亚洲欧美激情综合另类| 亚洲激情在线av| 精品高清国产在线一区| 久久精品91无色码中文字幕| 国产精品影院久久| 国产高清国产精品国产三级| 亚洲性夜色夜夜综合| 亚洲专区国产一区二区| 日韩一卡2卡3卡4卡2021年| 在线永久观看黄色视频| 9191精品国产免费久久| www.www免费av| 新久久久久国产一级毛片| 国产aⅴ精品一区二区三区波| 90打野战视频偷拍视频| 变态另类成人亚洲欧美熟女 | av电影中文网址| 亚洲五月婷婷丁香| 亚洲国产精品sss在线观看 | 亚洲片人在线观看| 一级毛片精品| 最近最新免费中文字幕在线| 好男人电影高清在线观看| 免费av中文字幕在线| 国产成人精品在线电影| 精品少妇一区二区三区视频日本电影| 日本撒尿小便嘘嘘汇集6| 亚洲激情在线av| 亚洲国产欧美网| 又大又爽又粗| 久久国产乱子伦精品免费另类| 久久久久久久久免费视频了| 叶爱在线成人免费视频播放| 热re99久久精品国产66热6| 欧美中文日本在线观看视频| 91精品三级在线观看| 久久久久国产精品人妻aⅴ院| 一级作爱视频免费观看| 日韩欧美一区视频在线观看| 国产亚洲精品综合一区在线观看 | 国产欧美日韩一区二区三区在线| 国产精品久久电影中文字幕| 国产精品爽爽va在线观看网站 | 夜夜躁狠狠躁天天躁| 一夜夜www| 午夜视频精品福利| 成人18禁在线播放| 丝袜美腿诱惑在线| 丝袜在线中文字幕| 夫妻午夜视频| 亚洲性夜色夜夜综合| 精品一区二区三区视频在线观看免费 | 超碰成人久久| 欧美日韩福利视频一区二区| 国产av一区二区精品久久| 9191精品国产免费久久| 久久性视频一级片| 日韩 欧美 亚洲 中文字幕| 在线观看免费高清a一片| 丝袜人妻中文字幕| 国产成人系列免费观看| 黄色毛片三级朝国网站| 国产精品久久视频播放| 久久久国产欧美日韩av| 国产精品电影一区二区三区| a级毛片在线看网站| 国产三级在线视频| 看免费av毛片| 久久天躁狠狠躁夜夜2o2o| 亚洲少妇的诱惑av| 久久人妻av系列| 久久精品国产亚洲av高清一级| 91字幕亚洲| 制服人妻中文乱码| 高清黄色对白视频在线免费看| 纯流量卡能插随身wifi吗| 级片在线观看| 亚洲精品中文字幕一二三四区| 大型黄色视频在线免费观看| 最新美女视频免费是黄的| 在线看a的网站| 亚洲av成人不卡在线观看播放网| 黑人欧美特级aaaaaa片| 免费人成视频x8x8入口观看| 国产男靠女视频免费网站| 亚洲精品久久午夜乱码| 一级,二级,三级黄色视频| 日韩成人在线观看一区二区三区| 国产激情欧美一区二区| 久久久久国内视频| 国产成人系列免费观看| 一区二区三区国产精品乱码| 午夜免费激情av| 国产精品香港三级国产av潘金莲| 在线国产一区二区在线| 欧美日韩视频精品一区| 精品一品国产午夜福利视频| 午夜福利影视在线免费观看|