• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    一種基于BERT和池化操作的文本分類模型

    2022-06-23 00:35:36邱龍龍
    計算機與現(xiàn)代化 2022年6期
    關(guān)鍵詞:池化注意力準確率

    張 軍,邱龍龍

    (1.東華理工大學軟件學院,江西 南昌 330013; 2.東華理工大學信息工程學院,江西 南昌 330013)

    0 引 言

    文本分類任務是一類典型的自然語言處理(Natural Language Processing, NLP)問題。隨著深度學習技術(shù)的發(fā)展,越來越多的自然語言處理問題有了新的解決方法。許多學者都試圖使用深度學習模型對各類NLP任務提供解決思路并取得了突破性進展[1-3]。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)[4-5]是深度學習中的一類經(jīng)典模型,它最初被用來解決機器視覺和圖像處理領(lǐng)域的問題,之后也被應用于包括詞向量訓練和文本分類等在內(nèi)的自然語言處理任務中。然而,文本分類任務是典型的時間序列任務,CNN并沒有對應的機制對時序問題進行有效的處理。

    針對這一問題,有學者提出了循環(huán)神經(jīng)網(wǎng)絡(luò)模型(Recurrent Neural Networks, RNN)[6-8],它在結(jié)構(gòu)設(shè)計上考慮了時序任務的特性,為以文本分類任務為代表的各種時序任務提供了有效的解決思路。然而,由于RNN模型的訓練算法基于梯度下降思想,其在訓練時容易出現(xiàn)梯度消失問題。長短時記憶(Long-Short Time Memory, LSTM)[9-10]網(wǎng)絡(luò)試圖采用門控單元解決梯度消失問題,但由于LSTM不能同時考慮當前時刻的前后時刻對當前時刻的影響,在一定程度上影響了模型的性能。為了解決這個問題,Devlin等人提出了BERT (Bidirectional Encoder Representations from Transformers)模型[11-13],引入了基于注意力(Attention)機制[14]的自注意力(Self-Attention)機制和多頭注意力(Multi-Headed Attention)機制,同時考慮了當前詞的前后單詞對當前詞的影響,從而能夠生成更加準確的文本表征,進而提升文本分類準確率。同時,由于BERT模型能夠并行地處理文本,使得其擁有更高的訓練效率。

    由于BERT模型的多頭注意力機制會為每個單詞生成一個表征向量,再將文本中所有單詞的表征向量組成一個矩陣來表征文本,這會為后續(xù)的下游分類任務帶來問題:網(wǎng)絡(luò)層無法直接接受矩陣作為輸入,導致分類任務無法進行。為了解決這個問題,BERT在每個文本的前面加上一個無意義的符號[CLS],在經(jīng)過多頭注意力機制的計算后,[CLS]對應的表征向量也學習到了文本的語義和上下文信息,故可以使用該向量來表征文本并進行下游分類任務。然而,該方法雖然解決了分類層輸入的問題,但是使用該方式訓練文本分類模型仍然存在不足:由于[CLS]對應的向量沒有考慮到文本的整體和局部特征,導致得到的文本表征向量不夠準確,進而會限制文本分類模型的性能。

    為了解決這個問題,本文將池化操作引入到文本分類模型中,結(jié)合預訓練BERT模型生成更加準確的文本表征向量,以此提高文本分類模型的性能。結(jié)果表明,在引入池化操作后,分類模型的性能在實驗的所有文本分類任務中均得到了提升。

    1 BERT模型的邏輯結(jié)構(gòu)

    為了更好地理解BERT模型的工作原理,本章將詳細介紹BERT模型的邏輯結(jié)構(gòu)。BERT是一個基于Transformer[15]框架的通用語言模型,可為文本生成高質(zhì)量的表征向量。圖1展示了BERT模型的邏輯結(jié)構(gòu)。它由若干個編碼器組成,每個編碼器稱為一個Transformer塊。輸入的文本經(jīng)過嵌入層計算生成嵌入向量X,再將向量X輸入到Transformer塊中進行運算。并將前一層Transformer塊的輸出向量輸入到后一層Transformer塊中,如此迭代計算若干次后生成BERT模型對該文本的表征向量。

    圖1中,X是文本中單詞的嵌入向量,它由3種相同維度的嵌入相加得到,包括嵌入向量token,嵌入向量position以及嵌入向量segment。其中,嵌入向量token包含字符的語義信息;嵌入向量position包含單詞的位置信息,引入該嵌入向量是為了防止BERT模型并行處理文本時丟失單詞的位置信息,它基于一定的規(guī)則生成;嵌入向量segment是針對文本對相關(guān)任務設(shè)計的,它標識某個單詞屬于哪個文本。BERT模型的輸入經(jīng)過嵌入層處理后得到嵌入向量X,該向量被輸入到Transformer塊中作進一步處理。

    圖1 BERT模型的邏輯結(jié)構(gòu)

    圖2展示了Transformer塊的內(nèi)部結(jié)構(gòu)。每個Transformer塊都實現(xiàn)了多頭注意力機制,并包含一個帶有歸一化層的前饋神經(jīng)網(wǎng)絡(luò)。多頭注意力機制包含了多個自注意力機制,并對多個自注意力機制的輸出進行組合、降維。

    圖2 Transformer塊的內(nèi)部結(jié)構(gòu)

    對于每個自注意力機制,BERT模型首先會針對文本中的每個單詞生成3個n維(即最終表征向量的維度)向量Q、K、V,這3個向量用于計算Attention分數(shù)值。自注意力機制利用該分數(shù)值決定文本中其他單詞對當前單詞的關(guān)注程度,以此來生成帶有上下文信息的表征向量。Q、K、V向量分別由對應單詞的嵌入向量X乘以權(quán)重矩陣WQ、WK、WV得到。WQ、WK、WV會在BERT模型預訓練前被隨機初始化,并在BERT模型預訓練過程中被不斷更新。Q、K、V向量的計算過程如圖3所示(以n=3為例)。

    圖3 Q、K、V向量的計算過程

    在BERT模型生成某個單詞的表征向量時,將該單詞對應的Q向量與文本中其他所有單詞的K向量分別進行點乘,得到一組Attention分數(shù)值,然后將這組分數(shù)值進行Softmax歸一化處理,之后將歸一化后的每個Attention分數(shù)值與對應單詞的V向量分別相乘后再相加,最后生成自注意力機制對該單詞的輸出向量r。

    BERT模型中引入了基于自注意力機制的多頭注意力機制進行并行計算,以提高模型的效率,同時能夠?qū)W習到單詞不同的子語義空間,提升模型性能。該機制會設(shè)置多組WQ、WK、WV權(quán)重矩陣,通過如圖3所示的計算過程產(chǎn)生多組Q、K、V向量,然后利用這多組Q、K、V向量同時對文本中的單詞進行自注意力計算,從而可以得到多個輸出向量,包含更加豐富的上下文信息。之后,將這些輸出向量組成矩陣,并對之進行降維處理后,得到多頭注意力機制的輸出z。

    多頭注意力機制的輸出向量z經(jīng)過Transformer塊中前饋神經(jīng)網(wǎng)絡(luò)的計算后,生成一個n維的輸出向量r。第i層Transformer塊的輸出ri將作為第i+1層Transformer塊的輸入,并在第i+1層Transformer塊中繼續(xù)進行相同的多頭注意力和前饋神經(jīng)網(wǎng)絡(luò)計算。此過程迭代計算k次后可得到BERT模型對當前詞的最終輸出rk。

    對文本中的每個單詞都進行上述計算之后,能夠得到每個單詞對應的n維表征向量rk。BERT將這些向量組合成一個sentence_length×n維(sentence_length為文本的長度)的矩陣作為文本的表征。為了解決分類層不能使用矩陣作為輸入的問題,BERT在每個文本前面加上了一個無意義的符號[CLS],可以使用該符號對應的表征向量作為文本的表征。在使用時,只需將BERT輸出矩陣的第一個行向量取出來輸入到分類層進行訓練即可。

    2 引入池化操作的文本分類模型

    2.1 池化操作的引入

    直接使用[CLS]對應的向量作為文本的表征會存在以下問題:該方法沒有從單詞表征的每個維度上分別考慮不同單詞對文本語義的貢獻,導致生成的文本表征有局限性,進而導致文本分類模型性能下降。本文考慮到文本的整體特征和局部特征2方面,通過將平均池化(mean-pooling)和最大池化(max-pooling)引入到文本分類模型中,得到文本的整體和局部特征,以此解決上述問題。

    在卷積神經(jīng)網(wǎng)絡(luò)中,池化操作通常和卷積操作配合使用,一般用來解決計算機視覺和圖像處理領(lǐng)域的問題。由于網(wǎng)絡(luò)經(jīng)過卷積操作的運算后,會生成高維度的特征圖,需要對這些特征圖進行降維,而池化操作可以起到降維作用以達到減少參數(shù)量的目的。常見的池化操作包括平均池化[16-17]和最大池化[18]:平均池化使用池化窗口中所有節(jié)點的平均值作為輸出,最大池化使用池化窗口中所有節(jié)點的最大值作為輸出??梢钥闯?,平均池化綜合考慮了窗口中的所有節(jié)點的值,而最大池化更傾向于考慮窗口中最突出的節(jié)點。

    為了將池化操作引入到文本分類模型,首先需要定義池化窗口的大小。由于需要在單詞表征的每個維度上考慮不同單詞對文本語義的貢獻,故可以將池化窗口的大小設(shè)置為sentence_length×1。在該窗口中進行池化操作,可以綜合考慮單詞表征的每個維度的信息。

    在BERT的輸出矩陣上,使用大小為sentence_length×1的池化窗口分別進行平均池化和最大池化操作,得到2個n維的向量:mean_vec、max_vec。如上文所述,這2個向量分別包含了單詞表征各維度上的整體特征和局部特征。將這2個n維向量連接成一個2n維的向量作為文本的表征輸入到分類層進行訓練。

    然而,最大池化操作只考慮每個池化窗口的最大值,即對于單詞表征的每個維度只會考慮一個最突出的單詞,這在文本較長或語義豐富時是不足以體現(xiàn)文本的特征的。故本文在最大池化的基礎(chǔ)上引入K-MaxPooling[19-21]池化,即進行K次池化操作,取池化窗口中最大的K個值。經(jīng)過K-MaxPooling操作后,會得到K個n維的向量,將這K個向量進行拼接,得到一個K×n維的向量,將其與平均池化所得的向量mean_vec拼接成一個(K+1)×n維的向量作為文本的表征。

    2.2 帶有池化操作的文本分類模型

    本節(jié)將重點介紹引入池化操作的文本分類模型的結(jié)構(gòu)。如圖4所示,在整體上,模型利用預訓練BERT模型的多頭注意力機制提取文本的上下文信息并獲取輸出矩陣;再使用大小為sentence_length×1的池化窗口對BERT的輸出矩陣進行各種池化操作得到文本的表征向量;最后將文本的表征向量輸入到歸一化層和全連接層得到模型的預測值。

    圖4 基于BERT和池化操作的文本分類模型結(jié)構(gòu)

    具體地,文本首先被輸入到BERT模型中,得到一個輸出矩陣。本文使用BASE版本預訓練BERT模型,該模型包含了12個Transformer塊,多頭注意力機制中“頭”的個數(shù)為12,隱層輸出的向量維度為768。接著,對BERT的輸出矩陣進行不同的池化操作以提取文本的表征向量,主要包括3種不同的池化操作:Mean_Pool、Mean_Max_Pool以及Mean_K_MaxPool。通過這3種方式生成的文本表征向量如圖5所示。

    圖5 3種不同池化操作提取文本表征向量

    從圖5中可以看出,Mean_Pool只使用平均池化,并將平均池化所得的向量mean_vec作為文本的表征向量。Mean_Max_Pool使用了平均池化和最大池化,將2種池化操作所得的向量mean_vec和max_vec進行拼接作為文本的表征向量。而Mean_K_MaxPool則使用平均池化和K_MaxPooling池化,將mean_vec和K_MaxPooling池化所得的K個向量進行拼接作為文本的表征向量??梢允褂檬?1)~式(3)描述上述操作。

    Mean=mean_vec

    (1)

    Mean_Max=con(mean_vec,max_vec)

    (2)

    Mean_KMax=con(mean_vec,top1_vec,…,topK_vec)

    (3)

    其中,函數(shù)con對向量進行拼接操作,Mean、Mean_Max和Mean_KMax分別為Mean_Pool、Mean_Max_Pool和Mean_K_MaxPool所提取的文本表征向量。

    本文使用Layer Normalization (LN)對文本的表征向量進行歸一化,相較于Batch Normalization,LN更加適合處理NLP領(lǐng)域的問題,并且LN的性能不受批次大小的影響。最后使用一層全連接層計算樣本的預測向量。

    在文本分類模型的訓練過程中,本文使用交叉熵函數(shù)作為損失函數(shù)。在使用交叉熵損失之前,需要對全連接層輸出的預測向量進行Softmax操作,使其滿足概率的基本性質(zhì)。Softmax函數(shù)和交叉熵損失函數(shù)定義如式(4)、式(5)所示。

    (4)

    (5)

    其中,m為類別的數(shù)量;pic為樣本i的預測向量中類別c對應的預測值;Sic為經(jīng)過Softmax操作后樣本i屬于類別c的概率;yic取值為0或1,當樣本i的真實值等于c時取值為1,否則取值為0。

    3 實驗與分析

    為了驗證引入池化操作對文本分類模型性能的影響,本文設(shè)計多組對比實驗,分別在中、英文語言環(huán)境下以及不同類別個數(shù)的任務中訓練模型,并對各種模型進行評估。本實驗將使用[CLS]向量作為文本表征的模型用作基準模型,并且將引入池化操作后的模型與基準進行對比。

    3.1 實驗環(huán)境及參數(shù)配置

    本實驗的硬件環(huán)境包括GTX 1660ti GPU(6 GB顯存)、16 GB 3000 MHz的DDR4內(nèi)存條。軟件環(huán)境包括Python3.8、PyTorch1.8.0以及NumPy1.19.2。為了提升訓練效率,本文的所有實驗均設(shè)置在GPU上運行,并且設(shè)置mini批次的大小為32。其他一些重要的參數(shù)配置如下:損失函數(shù)為交叉熵損失、采用Dropout機制[22](節(jié)點失活概率為0.4)、采用Adam優(yōu)化器[23](β1=0.9,β2=0.999)。

    3.2 數(shù)據(jù)集

    本實驗的英文數(shù)據(jù)集使用斯坦福大學收集的標準文本分類數(shù)據(jù)集SST,該數(shù)據(jù)集由11855條電影評論構(gòu)成,每條電影評論對應一個從0到1的浮點情感分數(shù)值,該分數(shù)值越高說明對應的情感越積極。斯坦福大學還將該數(shù)據(jù)集分成了3類:訓練集8544條、驗證集1101條、測試集2210條。

    為了在二分類、三分類以及五分類任務中驗證文本分類模型的性能,本實驗通過以下方式將SST數(shù)據(jù)集中樣本對應的浮點分數(shù)值分別轉(zhuǎn)換為二標簽、三標簽和五標簽分類任務對應的離散值:按照標簽個數(shù)平分區(qū)間[0,1]得到對應個數(shù)的子區(qū)間,分數(shù)值落在某一子區(qū)間,就將其歸為相應的類別。通過這種方式,可將SST數(shù)據(jù)集劃分為SST-2、SST-3以及SST-5數(shù)據(jù)集。

    本實驗的中文數(shù)據(jù)集采用豆瓣的影評數(shù)據(jù),從豆瓣的官網(wǎng)上爬取影評及對應的星級,將星級作為影評數(shù)據(jù)的標簽。本文對爬取到的數(shù)據(jù)進行重采樣,生成二分類數(shù)據(jù)集和五分類數(shù)據(jù)集,分別記作Db-2、Db-5。其中,Db-2包含7000條訓練集、1000條驗證集、2000條測試集,Db-5包含15297條訓練集、3000條驗證集、7000條測試集。

    3.3 實驗結(jié)果分析

    本實驗除了將本文提出的引入池化操作的文本分類模型與原始的BERT模型進行比較之外,還驗證了BERT的一些變體在所有實驗任務中的表現(xiàn)。這些變體模型主要包括RoBERTa[24]、ALBERT[25]以及SpanBERT[26]。其中,RoBERTa使用了動態(tài)掩碼技術(shù),移除了BERT中的NSP任務,并且使用了更大的語料庫進行預訓練;ALBERT是一種輕量的BERT模型,它對Embedding層進行因式分解并且使用跨層參數(shù)共享技術(shù)達到減少參數(shù)量的目的;SpanBERT在MLM任務中對連續(xù)的標記片段進行掩碼,以此改進BERT中的掩碼語言模型。

    3.3.1 準確率

    為了驗證引入不同池化方法對文本分類模型性能的影響,表1、表2統(tǒng)計了各模型分別在SST-2、SST-3、SST-5、Db-2、Db-5任務中的分類準確率。其中,CLS表示直接使用[CLS]對應的向量作為文本表征的BERT模型,即基準模型;Mean_Pool為引入平均池化的模型;Mean_Max_Pool為引入平均池化和最大池化的模型;Mean_2_MaxPool、Mean_3_MaxPool、Mean_4_MaxPool為引入平均池化和K值分別為2、3、4的K-MaxPooling池化的模型。

    表1 SST數(shù)據(jù)集中各模型的準確率對比

    從表1可以看出,在引入了池化操作后,模型的準確率在SST數(shù)據(jù)集的所有任務中相較于基準和BERT的3種變體模型均有所提升。在SST-2任務中,Mean_4_MaxPool模型取得了最高的準確率,相較于基準提升了1.4%。在SST-3和SST-5任務中,Mean_3_MaxPool取得了最高準確率,相較于基準模型分別提升了1.5%、3.0%。

    在SST任務中,BERT變體模型的準確率均低于BERT模型。ALBERT模型在3種變體模型中的表現(xiàn)最好,在SST-2、SST-3、SST-5任務中分別達到了85.3%、69.1%、54.2%的準確率。由于RoBERTa使用了更大的語料庫進行預訓練,導致下游分類任務的樣本量遠小于預訓練任務,進而加深模型的過擬合現(xiàn)象,降低模型分類性能;SpanBERT在英文數(shù)據(jù)集SST中的表現(xiàn)并不突出,這是由于它對連續(xù)片段進行掩碼是考慮到多個字組成一個詞的問題,從而對一個詞語或者短語進行掩碼,以更好地提取文本上下文信息,這更符合中文的語言特征,因此它在中文環(huán)境下表現(xiàn)更加優(yōu)異。

    從表2可以看出,引入了池化操作后,模型的準確率在中文豆瓣數(shù)據(jù)集的2個任務中也均有所提升。在Db-2和Db-5任務中,Mean_3_MaxPool模型取得了最高準確率,相較于基準模型,準確率分別提升了1.5%、2.2%。特別地,在Db-5任務中,SpanBERT模型在所有未引入池化操作的模型中準確率達到最高值55.0%,這說明SpanBERT模型確實更適用于中文環(huán)境。

    表2 豆瓣數(shù)據(jù)集中各模型的準確率對比

    此外,在所有的任務中,相較于只引入了平均池化的Mean_Pool模型,Mean_Max_Pool模型和Mean_K_MaxPool(K=2,3,4)模型的準確率都更高。說明引入最大池化和K-MaxPooling后,模型提取的文本表征向量更加準確,分類效果更好。由于Mean_K_MaxPool比Mean_Max_Pool提取了更多的特征,所以其準確率更高。然而,并不是K的值越大模型的效果就越好,可以看出在大部分任務中,Mean_3_MaxPool取得了最高準確率,即K=3是一個比較好的選擇。這是由于K的值太大時,在單詞表征的每個維度上會取較多的值,其中一些較小的值不能很好地體現(xiàn)文本的特征,反而會影響模型整體的性能,其次,當K值很大的時候,會導致文本的表征向量維度過大,進而導致模型的效率降低。

    3.3.2 精確率、召回率以及F1-Score

    準確率是一種傳統(tǒng)且容易計算的評價指標。然而,當數(shù)據(jù)集中的正、負樣本個數(shù)不均衡時,使用準確率評估分類模型的性能是不合理的。在文本分類任務中,還可以使用精確率、召回率和F1-Score等指標評估文本分類模型的性能。其中,精確率precision和召回率recall可以使用式(6)、式(7)計算得到。

    (6)

    (7)

    這2個公式中,TP是指預測為正、實際也為正的真陽性的樣本數(shù)量;FP是指預測為正、實際為負的假陽性的樣本數(shù)量;FN是指預測為負,實際為正的假陰性的樣本數(shù)量。

    然而,使用精確率和召回率評估分類模型也有局限性:1)它們都只從一個方面(實際值或者預測值)去評估模型性能;2)由于FP和FN的和為固定值,無法使precision和recall這2個評價指標同時增大。有另一種評價指標F1-Score同時考慮了precision和recall,可以更加客觀地評估分類模型,其計算如式(8)所示。

    (8)

    表3和表4統(tǒng)計了各模型分別在SST-2、SST-3、SST-5、Db-2、Db-5任務中的F1-Score值。

    從表3可以看出,在SST-2和SST-3任務中,Mean_3_MaxPool取得了最高的F1-Score值,相較于基準模型,F(xiàn)1-Score值分別提升了1.7%、3.1%。在SST-5任務中,Mean_4_MaxPool取得了最高的F1-Score值,相較于基準模型提升了2.1%。結(jié)合表1的準確率情況,可以推斷:英文數(shù)據(jù)集SST中,模型在K=3或4時能取得最優(yōu)性能,并且在這2種情況下的準確率和F1-Score值比較接近,故在一般情況下可以取K=3以提高模型的訓練效率。而對于BERT的3種變體模型,與其在SST任務中的準確率情況類似,在這3種變體模型中,仍以ALBERT的表現(xiàn)最好,并且其F1-Score值在SST-2和SST-3任務中超過了BERT模型。

    表3 SST數(shù)據(jù)集中各模型的F1-Score值對比

    表4 豆瓣數(shù)據(jù)集中各模型的F1-Score值對比

    表4為各模型在Db-2和Db-5任務中的F1-Score值,可以看出,Mean_3_MaxPool模型在這2個任務中取得了最高的F1-Score值。相較于基準模型,Mean_3_MaxPool模型的F1-Score值分別提高了2.1%、2.3%。綜合表2,可以得出結(jié)論:在中文環(huán)境下,當K=3時,模型的準確率和F1-Score值均取得了最優(yōu),說明模型提取文本的3個明顯局部特征和平均特征時能夠最準確地表征文本。此外,SpanBERT模型在2個中文任務中的表現(xiàn)優(yōu)于BERT和其他2個BERT變體模型,進一步證實了連續(xù)片段掩碼更加適用于中文環(huán)境中。

    整體上看來,F(xiàn)1-Score值和準確率所體現(xiàn)的模型性能的情況是一致的:Mean_3_MaxPool或Mean_4_MaxPool模型在所有任務中取得了最高的準確率和F1-Score值。此外,當Mean_4_MaxPool模型取得最優(yōu)性能時,Mean_3_MaxPool模型的準確率和F1-Score值相較于Mean_4_MaxPool相差不大,并且Mean_3_MaxPool模型提取的特征向量維度更小,具有更高的訓練效率,故可以認為K=3時的Mean_3_MaxPool模型為最優(yōu)模型。

    3.4 小結(jié)

    通過以上多組對比實驗,可以看出在模型中引入池化操作后提取的文本表征向量更加準確,模型的分類性能也更好。然而,本文所提出的模型性能較基準模型提升有限,主要考慮到以下原因:1)預訓練BERT模型結(jié)構(gòu)復雜,參數(shù)數(shù)量十分龐大,而下游任務的訓練樣本較少,無法從根本上解決模型的過擬合現(xiàn)象;2)BERT模型沒有針對中文的語言特征設(shè)計適用于中文環(huán)境的模塊,在一定程度上限制了模型的分類性能。

    本文的后續(xù)研究工作將重點從上述2點切入,以便更進一步提升模型的性能。對于第1點,后續(xù)研究工作將使用更大的數(shù)據(jù)集訓練文本分類模型,達到緩解過擬合現(xiàn)象的目的;對于第2點,百度團隊提出的ERNIE模型[27]針對中文的語言特征進行了改進,其在中文環(huán)境下的性能比BERT更加優(yōu)秀,后續(xù)將考慮結(jié)合ERNIE模型和池化操作訓練文本分類模型,以求在中文環(huán)境下達到更高的分類性能。

    4 結(jié)束語

    為了生成更加準確的文本表征向量,本文通過在預訓練BERT模型的輸出矩陣中引入不同種類的池化操作,提取到文本不同的特征,再將不同池化操作所得的向量進行拼接作為文本的表征向量。使用到的池化操作主要包括平均池化、最大池化以及K_MaxPooling,其中,K_MaxPooling中的K為超參數(shù),本文在實驗部分對K取值為2、3、4分別進行實驗并對模型進行對比和評估。

    為了更好地評估模型的性能,對本文訓練的分類模型和基準模型進行了關(guān)于準確率和F1-Score等評價指標的多組測試實驗。實驗結(jié)果發(fā)現(xiàn),在所有的任務中,引入池化操作后模型的性能得到了不同程度的提升。Mean_3_MaxPool模型在大多數(shù)任務中取得了最高的準確率和F1-Score值,表明引入平均池化、最大池化以及K_MaxPooling池化能夠提取更加準確的文本表征向量,進而提升文本分類模型的性能。

    猜你喜歡
    池化注意力準確率
    面向神經(jīng)網(wǎng)絡(luò)池化層的靈活高效硬件設(shè)計
    基于Sobel算子的池化算法設(shè)計
    讓注意力“飛”回來
    卷積神經(jīng)網(wǎng)絡(luò)中的自適應加權(quán)池化
    軟件導刊(2022年3期)2022-03-25 04:45:04
    乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
    健康之家(2021年19期)2021-05-23 11:17:39
    不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
    2015—2017 年寧夏各天氣預報參考產(chǎn)品質(zhì)量檢驗分析
    基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識別研究
    高速公路車牌識別標識站準確率驗證法
    “揚眼”APP:讓注意力“變現(xiàn)”
    傳媒評論(2017年3期)2017-06-13 09:18:10
    精品少妇一区二区三区视频日本电影| 青草久久国产| 岛国毛片在线播放| 亚洲九九香蕉| 国产欧美日韩精品亚洲av| 黄频高清免费视频| 波多野结衣一区麻豆| aaaaa片日本免费| 怎么达到女性高潮| 在线观看舔阴道视频| 女人被躁到高潮嗷嗷叫费观| 亚洲成人国产一区在线观看| 日韩大码丰满熟妇| 少妇的丰满在线观看| 国产精品一区二区免费欧美| 一边摸一边做爽爽视频免费| 两个人免费观看高清视频| 俄罗斯特黄特色一大片| 国产成人av教育| 亚洲第一欧美日韩一区二区三区 | 精品欧美一区二区三区在线| 青青草视频在线视频观看| 欧美中文综合在线视频| 色婷婷av一区二区三区视频| 欧美成人午夜精品| 天天躁日日躁夜夜躁夜夜| 精品免费久久久久久久清纯 | 女人被躁到高潮嗷嗷叫费观| 黑人巨大精品欧美一区二区蜜桃| videos熟女内射| 国产主播在线观看一区二区| 国产又色又爽无遮挡免费看| 午夜福利一区二区在线看| 老汉色av国产亚洲站长工具| 亚洲人成77777在线视频| 91av网站免费观看| 老鸭窝网址在线观看| 免费观看a级毛片全部| 桃花免费在线播放| 狂野欧美激情性xxxx| 国产激情久久老熟女| 91老司机精品| 欧美乱码精品一区二区三区| 亚洲专区字幕在线| 一边摸一边抽搐一进一出视频| 午夜免费鲁丝| 国产精品秋霞免费鲁丝片| 亚洲一区中文字幕在线| 一二三四在线观看免费中文在| 999久久久国产精品视频| 老熟妇仑乱视频hdxx| 少妇精品久久久久久久| 国产淫语在线视频| 欧美在线黄色| 国产伦理片在线播放av一区| 丝袜美腿诱惑在线| 一级片免费观看大全| 天天躁狠狠躁夜夜躁狠狠躁| 日韩免费高清中文字幕av| 国产在视频线精品| 国产亚洲精品一区二区www | 搡老乐熟女国产| 亚洲欧洲日产国产| 国产在线精品亚洲第一网站| 精品福利观看| 精品亚洲成a人片在线观看| 国产野战对白在线观看| 老熟妇仑乱视频hdxx| 伊人久久大香线蕉亚洲五| 黑人巨大精品欧美一区二区蜜桃| 国产不卡一卡二| 国产精品一区二区在线观看99| 久久性视频一级片| 最近最新免费中文字幕在线| 亚洲色图 男人天堂 中文字幕| 亚洲人成伊人成综合网2020| 国产男女内射视频| 9色porny在线观看| 日本av手机在线免费观看| 最新美女视频免费是黄的| 男男h啪啪无遮挡| 少妇猛男粗大的猛烈进出视频| 老熟妇乱子伦视频在线观看| 日本黄色视频三级网站网址 | 亚洲国产成人一精品久久久| 波多野结衣av一区二区av| 精品人妻熟女毛片av久久网站| 中国美女看黄片| 午夜老司机福利片| 成人三级做爰电影| 日日夜夜操网爽| 成人影院久久| 99九九在线精品视频| 午夜日韩欧美国产| 国产日韩一区二区三区精品不卡| 18禁裸乳无遮挡动漫免费视频| 男女高潮啪啪啪动态图| 黄色丝袜av网址大全| 成人18禁高潮啪啪吃奶动态图| 两人在一起打扑克的视频| 国产单亲对白刺激| 露出奶头的视频| 国产一卡二卡三卡精品| 国产不卡av网站在线观看| 日韩精品免费视频一区二区三区| 一区二区日韩欧美中文字幕| 在线观看免费视频网站a站| 免费在线观看视频国产中文字幕亚洲| 人成视频在线观看免费观看| 亚洲天堂av无毛| e午夜精品久久久久久久| svipshipincom国产片| 精品午夜福利视频在线观看一区 | 亚洲国产精品一区二区三区在线| 亚洲精品在线美女| 好男人电影高清在线观看| 日韩成人在线观看一区二区三区| 国产又爽黄色视频| 日韩中文字幕欧美一区二区| 操出白浆在线播放| 亚洲精品一二三| 欧美大码av| 久久精品国产亚洲av高清一级| 国产淫语在线视频| 丁香欧美五月| 婷婷丁香在线五月| 亚洲av国产av综合av卡| 肉色欧美久久久久久久蜜桃| 亚洲av日韩精品久久久久久密| 美女高潮喷水抽搐中文字幕| 久久av网站| 国产在线免费精品| 欧美日韩亚洲综合一区二区三区_| 男女免费视频国产| 久久天躁狠狠躁夜夜2o2o| 久久免费观看电影| 久久国产精品男人的天堂亚洲| 嫩草影视91久久| 国产精品一区二区在线不卡| 天堂动漫精品| 精品久久久久久电影网| 操出白浆在线播放| 99久久精品国产亚洲精品| 精品午夜福利视频在线观看一区 | a在线观看视频网站| 国产伦人伦偷精品视频| 成在线人永久免费视频| 午夜福利,免费看| 国产一区二区三区综合在线观看| 国产一区二区三区综合在线观看| 岛国毛片在线播放| 老汉色av国产亚洲站长工具| 久久天堂一区二区三区四区| 黑人操中国人逼视频| 天天操日日干夜夜撸| 自线自在国产av| 少妇 在线观看| 在线十欧美十亚洲十日本专区| 国产高清国产精品国产三级| 黑人欧美特级aaaaaa片| 久久这里只有精品19| 久久人妻福利社区极品人妻图片| 色94色欧美一区二区| 99国产综合亚洲精品| 69av精品久久久久久 | 最近最新免费中文字幕在线| cao死你这个sao货| 捣出白浆h1v1| 久久久精品区二区三区| 日本五十路高清| 在线观看一区二区三区激情| 18禁国产床啪视频网站| 91精品三级在线观看| 久久久久久久精品吃奶| 精品国产一区二区久久| 午夜成年电影在线免费观看| 黄色a级毛片大全视频| 99久久99久久久精品蜜桃| 我要看黄色一级片免费的| 国产视频一区二区在线看| 欧美+亚洲+日韩+国产| 久久狼人影院| 老汉色av国产亚洲站长工具| 亚洲国产精品一区二区三区在线| 久久久久久久久久久久大奶| 精品少妇一区二区三区视频日本电影| 高清欧美精品videossex| 欧美 亚洲 国产 日韩一| 午夜91福利影院| 国产精品电影一区二区三区 | 大型黄色视频在线免费观看| 欧美日韩黄片免| 国产高清视频在线播放一区| 精品亚洲成a人片在线观看| 午夜福利乱码中文字幕| 国产免费福利视频在线观看| 欧美乱妇无乱码| 亚洲精品乱久久久久久| 9色porny在线观看| 老司机深夜福利视频在线观看| 一级黄色大片毛片| 午夜免费成人在线视频| 欧美黄色片欧美黄色片| 18禁国产床啪视频网站| 精品卡一卡二卡四卡免费| 日韩免费高清中文字幕av| av国产精品久久久久影院| 99国产精品一区二区三区| 精品国产超薄肉色丝袜足j| 亚洲精品国产区一区二| 欧美+亚洲+日韩+国产| 亚洲精品美女久久久久99蜜臀| 中文字幕色久视频| 国产老妇伦熟女老妇高清| 日韩欧美一区二区三区在线观看 | 久久久久久久大尺度免费视频| 黄色视频不卡| 久久久久久亚洲精品国产蜜桃av| 欧美日韩亚洲高清精品| 叶爱在线成人免费视频播放| √禁漫天堂资源中文www| www.自偷自拍.com| 男女之事视频高清在线观看| 成人影院久久| 12—13女人毛片做爰片一| 亚洲七黄色美女视频| 国产激情久久老熟女| 日韩一区二区三区影片| 免费观看人在逋| 久久久久国产一级毛片高清牌| 一本综合久久免费| 亚洲精品粉嫩美女一区| 三级毛片av免费| 黄色视频在线播放观看不卡| av线在线观看网站| 午夜福利在线免费观看网站| 亚洲伊人久久精品综合| 一本大道久久a久久精品| 国产不卡一卡二| 国产午夜精品久久久久久| 免费看a级黄色片| 女同久久另类99精品国产91| 嫩草影视91久久| 欧美大码av| 天堂8中文在线网| 成年版毛片免费区| 99久久人妻综合| av欧美777| 久久国产精品大桥未久av| 青草久久国产| 一级片'在线观看视频| 亚洲欧美一区二区三区久久| 精品国产超薄肉色丝袜足j| 人妻 亚洲 视频| 性色av乱码一区二区三区2| 精品一区二区三区四区五区乱码| 老司机亚洲免费影院| 精品人妻在线不人妻| 亚洲一码二码三码区别大吗| 中文字幕最新亚洲高清| 国产不卡一卡二| 国产色视频综合| 国精品久久久久久国模美| 国产男靠女视频免费网站| 满18在线观看网站| 国产成人av激情在线播放| 黑人巨大精品欧美一区二区蜜桃| 十八禁人妻一区二区| 日日夜夜操网爽| 丁香六月天网| 中亚洲国语对白在线视频| 成人18禁高潮啪啪吃奶动态图| 少妇粗大呻吟视频| 国产av精品麻豆| 黑人猛操日本美女一级片| 亚洲成人免费av在线播放| 欧美精品一区二区大全| 两个人看的免费小视频| 男女无遮挡免费网站观看| 国产黄频视频在线观看| 女人爽到高潮嗷嗷叫在线视频| 国产一卡二卡三卡精品| 亚洲成a人片在线一区二区| 亚洲色图av天堂| 一二三四社区在线视频社区8| 大片电影免费在线观看免费| 欧美日韩亚洲高清精品| 99国产精品免费福利视频| 日韩中文字幕视频在线看片| 乱人伦中国视频| av网站免费在线观看视频| 青青草视频在线视频观看| 91成人精品电影| 人人妻人人澡人人看| 女性被躁到高潮视频| 欧美黄色片欧美黄色片| 国产精品久久电影中文字幕 | 王馨瑶露胸无遮挡在线观看| 蜜桃在线观看..| 国产精品美女特级片免费视频播放器 | 久久精品国产亚洲av高清一级| 麻豆国产av国片精品| 久久人妻福利社区极品人妻图片| 中国美女看黄片| 在线观看免费午夜福利视频| 一区二区三区国产精品乱码| 三上悠亚av全集在线观看| 啦啦啦免费观看视频1| 99精品欧美一区二区三区四区| 性色av乱码一区二区三区2| 天堂8中文在线网| 亚洲精品中文字幕在线视频| 日韩欧美一区视频在线观看| 免费女性裸体啪啪无遮挡网站| 欧美成人免费av一区二区三区 | 国产免费av片在线观看野外av| 亚洲人成77777在线视频| 18禁黄网站禁片午夜丰满| 久久影院123| 日韩中文字幕欧美一区二区| 另类亚洲欧美激情| 亚洲黑人精品在线| 婷婷丁香在线五月| 亚洲国产欧美网| 三上悠亚av全集在线观看| 高清视频免费观看一区二区| 久久亚洲真实| 国产精品欧美亚洲77777| 精品国内亚洲2022精品成人 | 国产成人系列免费观看| 精品久久久久久久毛片微露脸| 欧美成狂野欧美在线观看| 国产亚洲午夜精品一区二区久久| 欧美日韩视频精品一区| 后天国语完整版免费观看| 午夜久久久在线观看| 啦啦啦视频在线资源免费观看| 亚洲熟女毛片儿| 久久精品aⅴ一区二区三区四区| 免费观看人在逋| 在线av久久热| 亚洲精品久久午夜乱码| 国产男靠女视频免费网站| 久久中文字幕一级| 大码成人一级视频| 天天躁狠狠躁夜夜躁狠狠躁| 久久香蕉激情| 久久久久久久大尺度免费视频| a级毛片在线看网站| 国产av国产精品国产| 国产在线视频一区二区| 夫妻午夜视频| 老熟女久久久| 国产成人免费观看mmmm| 悠悠久久av| 成年人黄色毛片网站| 在线十欧美十亚洲十日本专区| 国产免费现黄频在线看| 精品卡一卡二卡四卡免费| 欧美激情 高清一区二区三区| 国产97色在线日韩免费| 在线观看人妻少妇| 最黄视频免费看| 久久久精品区二区三区| 麻豆av在线久日| 成年动漫av网址| 99热国产这里只有精品6| a级毛片黄视频| 成人亚洲精品一区在线观看| 黑人巨大精品欧美一区二区mp4| 日韩欧美三级三区| 亚洲国产欧美在线一区| 精品人妻1区二区| 日本vs欧美在线观看视频| 国产日韩欧美视频二区| 欧美在线一区亚洲| 国产精品熟女久久久久浪| 19禁男女啪啪无遮挡网站| www.熟女人妻精品国产| 老熟女久久久| 一本—道久久a久久精品蜜桃钙片| 国产高清视频在线播放一区| 亚洲国产av影院在线观看| 亚洲成人免费电影在线观看| a在线观看视频网站| 在线十欧美十亚洲十日本专区| 日韩视频一区二区在线观看| 淫妇啪啪啪对白视频| 久久亚洲精品不卡| 伦理电影免费视频| 巨乳人妻的诱惑在线观看| 午夜激情久久久久久久| 亚洲成人免费av在线播放| 亚洲熟女精品中文字幕| 亚洲国产成人一精品久久久| 久久午夜亚洲精品久久| 国产精品久久久久久精品古装| 亚洲黑人精品在线| 亚洲va日本ⅴa欧美va伊人久久| 满18在线观看网站| 一本大道久久a久久精品| 国产在线免费精品| aaaaa片日本免费| 久久久精品区二区三区| 日本黄色日本黄色录像| 一个人免费在线观看的高清视频| 亚洲成av片中文字幕在线观看| 99riav亚洲国产免费| 国产精品一区二区在线不卡| 黑人欧美特级aaaaaa片| 国产精品一区二区在线不卡| 下体分泌物呈黄色| 久久国产精品男人的天堂亚洲| 国产福利在线免费观看视频| 成人国产av品久久久| 亚洲avbb在线观看| 美女高潮到喷水免费观看| 香蕉丝袜av| 日韩中文字幕视频在线看片| 精品少妇一区二区三区视频日本电影| 人人妻人人爽人人添夜夜欢视频| 天堂中文最新版在线下载| 一级片'在线观看视频| 黄色视频在线播放观看不卡| 亚洲av美国av| 三级毛片av免费| 免费久久久久久久精品成人欧美视频| 91字幕亚洲| 欧美日韩中文字幕国产精品一区二区三区 | 热re99久久精品国产66热6| 国内毛片毛片毛片毛片毛片| 成人18禁高潮啪啪吃奶动态图| 久久人妻福利社区极品人妻图片| 国产有黄有色有爽视频| 久久久久久亚洲精品国产蜜桃av| 成人特级黄色片久久久久久久 | 国产精品自产拍在线观看55亚洲 | 桃花免费在线播放| 欧美精品啪啪一区二区三区| 国产av一区二区精品久久| 国产熟女午夜一区二区三区| 色婷婷久久久亚洲欧美| 国产av精品麻豆| 人人澡人人妻人| videos熟女内射| 国产成人影院久久av| 手机成人av网站| 国产亚洲欧美在线一区二区| 成年女人毛片免费观看观看9 | 99国产综合亚洲精品| 一本色道久久久久久精品综合| 91字幕亚洲| 国产精品久久久久久人妻精品电影 | 色视频在线一区二区三区| 久久久国产欧美日韩av| 亚洲国产av影院在线观看| 亚洲欧美日韩另类电影网站| 亚洲人成77777在线视频| 美女扒开内裤让男人捅视频| 精品卡一卡二卡四卡免费| 美女视频免费永久观看网站| 丝袜美腿诱惑在线| 久久久国产一区二区| av国产精品久久久久影院| 精品一区二区三区视频在线观看免费 | 91精品国产国语对白视频| 精品国产一区二区三区四区第35| 香蕉丝袜av| 亚洲欧美日韩高清在线视频 | 蜜桃在线观看..| 国产区一区二久久| 国产无遮挡羞羞视频在线观看| 国产亚洲精品久久久久5区| 国产成人啪精品午夜网站| 国产精品亚洲一级av第二区| 亚洲av美国av| 18禁裸乳无遮挡动漫免费视频| 国产亚洲av高清不卡| kizo精华| 中文字幕人妻熟女乱码| 黄色毛片三级朝国网站| 国产xxxxx性猛交| 亚洲五月婷婷丁香| 久久精品国产综合久久久| 精品视频人人做人人爽| 别揉我奶头~嗯~啊~动态视频| 最近最新中文字幕大全电影3 | 亚洲少妇的诱惑av| 久久中文字幕人妻熟女| 国产麻豆69| www日本在线高清视频| 少妇被粗大的猛进出69影院| 亚洲人成电影观看| 欧美乱码精品一区二区三区| 女人高潮潮喷娇喘18禁视频| 国产伦人伦偷精品视频| 色视频在线一区二区三区| 国产淫语在线视频| 欧美乱妇无乱码| 亚洲专区字幕在线| 色在线成人网| 青草久久国产| 搡老熟女国产l中国老女人| 国产高清视频在线播放一区| 露出奶头的视频| 欧美中文综合在线视频| av电影中文网址| 在线天堂中文资源库| 免费人妻精品一区二区三区视频| 9色porny在线观看| 欧美+亚洲+日韩+国产| 大型av网站在线播放| 制服诱惑二区| 欧美国产精品一级二级三级| 大型黄色视频在线免费观看| 欧美精品一区二区大全| 黑人欧美特级aaaaaa片| 99re在线观看精品视频| 国产成人免费观看mmmm| 免费日韩欧美在线观看| 久久精品aⅴ一区二区三区四区| 日韩有码中文字幕| 曰老女人黄片| 性高湖久久久久久久久免费观看| 久久久精品94久久精品| 一级a爱视频在线免费观看| 91av网站免费观看| 下体分泌物呈黄色| 这个男人来自地球电影免费观看| 亚洲精品中文字幕在线视频| 无人区码免费观看不卡 | 俄罗斯特黄特色一大片| 我要看黄色一级片免费的| 交换朋友夫妻互换小说| 国产精品免费视频内射| 欧美亚洲 丝袜 人妻 在线| 亚洲欧美日韩另类电影网站| 免费观看a级毛片全部| av线在线观看网站| 久久久久久亚洲精品国产蜜桃av| 欧美av亚洲av综合av国产av| svipshipincom国产片| 99re6热这里在线精品视频| 亚洲精品av麻豆狂野| 欧美日韩中文字幕国产精品一区二区三区 | 精品国产一区二区三区四区第35| 99香蕉大伊视频| 欧美成人午夜精品| 黄频高清免费视频| 在线 av 中文字幕| 中文字幕人妻丝袜制服| 亚洲专区字幕在线| 日本欧美视频一区| 一二三四社区在线视频社区8| 国产高清国产精品国产三级| 另类亚洲欧美激情| 国产成人免费观看mmmm| 久久婷婷成人综合色麻豆| 日本一区二区免费在线视频| 成人特级黄色片久久久久久久 | 国产欧美日韩一区二区精品| 亚洲va日本ⅴa欧美va伊人久久| 亚洲中文av在线| 久久热在线av| 国产不卡av网站在线观看| 亚洲欧美日韩高清在线视频 | cao死你这个sao货| 王馨瑶露胸无遮挡在线观看| 他把我摸到了高潮在线观看 | 日韩视频在线欧美| 亚洲欧洲日产国产| 十八禁网站网址无遮挡| 色综合婷婷激情| 男女之事视频高清在线观看| 一本久久精品| 老鸭窝网址在线观看| 超碰成人久久| 精品久久久久久久毛片微露脸| 久久久精品94久久精品| h视频一区二区三区| 热99re8久久精品国产| 亚洲色图av天堂| 十八禁网站免费在线| 国产亚洲午夜精品一区二区久久| 午夜视频精品福利| 久久久久国内视频| 夜夜骑夜夜射夜夜干| 亚洲精品美女久久av网站| 一进一出抽搐动态| 丰满人妻熟妇乱又伦精品不卡| 精品亚洲成国产av| 18在线观看网站| 美女国产高潮福利片在线看| 中文字幕另类日韩欧美亚洲嫩草| 黄色毛片三级朝国网站| 国产精品免费一区二区三区在线 | 大码成人一级视频| 三上悠亚av全集在线观看| 1024视频免费在线观看| 又黄又粗又硬又大视频| 亚洲国产毛片av蜜桃av| 久久精品成人免费网站| 一边摸一边抽搐一进一出视频| 考比视频在线观看| 99久久精品国产亚洲精品| 亚洲精品中文字幕在线视频| 国产精品久久久久久人妻精品电影 | 夜夜夜夜夜久久久久| 亚洲精品在线美女| 亚洲国产看品久久| 波多野结衣一区麻豆| 久久精品亚洲熟妇少妇任你| 黄色视频,在线免费观看| 美女福利国产在线| 亚洲精品美女久久av网站|