• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于BERT模型的圖書表示學(xué)習(xí)與多標(biāo)簽分類研究

    2020-11-23 02:03:14蔣彥廷胡韌奮
    新世紀(jì)圖書館 2020年9期
    關(guān)鍵詞:深度學(xué)習(xí)

    蔣彥廷 胡韌奮

    摘 要 中文圖書細(xì)粒度多標(biāo)簽分類的自動化,有利于促進(jìn)圖書的檢索與學(xué)科的溝通。文章充分發(fā)揮BERT語言模型的微調(diào)特性,提出一種通過21類粗粒度分類微調(diào)語言模型,學(xué)習(xí)到更好的圖書表示,進(jìn)而實(shí)現(xiàn)細(xì)粒度分類的新策略。結(jié)果顯示,在單標(biāo)簽的分類任務(wù)上,BERT模型的正確率分別較LSTM與Fasttext模型提升約4.9%與2.0%。KNN-ML對257類的細(xì)粒度多標(biāo)簽分類證明了前期微調(diào)的有效性。最佳情況下,有75.82%的圖書細(xì)粒度類別恰好全部預(yù)測正確,92.10%的圖書至少被正確預(yù)測了一個(gè)細(xì)粒度類別。因此可以得出結(jié)論,該系統(tǒng)有助于實(shí)現(xiàn)圖書自動的細(xì)粒度歸類,并幫助圖書標(biāo)引者補(bǔ)充合理的分類號。

    關(guān)鍵詞 中文圖書 BERT模型 深度學(xué)習(xí) 微調(diào)策略 多標(biāo)簽分類

    分類號 G254.1

    DOI 10.16810/j.cnki.1672-514X.2020.09.007

    Representation Learning and Multi-label Classification of Books Based on BERT

    Jiang Yanting, Hu Renfen

    Abstract The automation of the fine-grained multi-label classification of Chinese books is beneficial to the book index and subject communication. This paper makes full use of fine-tuning of BERT model and puts forward a novel strategy which fine-tunes the model on the coarse-grained classification task to learn a better book representation, and then completes the multi-label classification. The result shows that on the single-label classification, the accuracy of BERT has increased by about 4.9% and 2.0% compared with LSTM and Fasttext. The classification result of KNN-ML indicates the effectiveness of fine-tuning. Under the best situation, 75.82% of books are correctly sorted out, and 92.10% of books are predicted with at least one correct label. It draws a conclusion that this system is of great benefit to automatic fine-grained classification, and can help book annotators replenish the potential missing category code.

    Keywords Chinese books. BERT. Deep learning. Fine tuning. Multi-label classification.

    中國近年來的圖書出版規(guī)模十分可觀。據(jù)統(tǒng)計(jì),2016至2018年國內(nèi)年均申報(bào)各類圖書選題29.5萬余種[1]。伴隨各學(xué)科的發(fā)展與相互交融,越來越多跨學(xué)科、邊緣學(xué)科、復(fù)合視野的研究成果以圖書的形式呈現(xiàn)出來。這意味著用《中國圖書館分類法》(以下簡稱《中圖法》)中的單一類別標(biāo)簽,已難以全面、準(zhǔn)確地概括它們的主題與內(nèi)容。然而囿于有限的精力與知識面,人工編制的圖書在版編目(Cataloguing In Publication, CIP)給大多數(shù)圖書只指定了1個(gè)分類標(biāo)引,這在一定程度上限制了圖書的檢索與學(xué)科間的交流。因此,如何利用信息技術(shù),自動補(bǔ)全原有圖書可能缺失的分類號,并實(shí)現(xiàn)新圖書自動的、細(xì)粒度歸類,打通各專業(yè)學(xué)科之間的屏障,是圖書情報(bào)領(lǐng)域值得研究的課題。圖書自動分類是文本分類(Text Classification)的一個(gè)子領(lǐng)域,與其他類型的文本相比,學(xué)界對中文圖書分類的研究相對較少。本文擬嘗試一種基于BERT語言模型的模型的圖書的粒度分類引法來解決自動分類中存在的問題。

    1 相關(guān)研究回顧

    在以往的成果中,中文圖書分類的方法主要分為兩種。一是基于特征工程的經(jīng)典機(jī)器學(xué)習(xí)方法,二是自動編碼提取特征的深度學(xué)習(xí)方法。前者如王昊等[2]在特征加權(quán)的基礎(chǔ)上,采用支持向量機(jī)(SVM),構(gòu)建了一個(gè)淺層的中文圖書分類模型;劉高軍等[3]、潘輝[4]混合采用TF-IDF、隱含狄利克雷分布(LDA)主題模型抽取圖書特征,采用極限學(xué)習(xí)機(jī)算法實(shí)現(xiàn)圖書分類。后者以鄧三鴻、傅余洋子[5]等的研究為代表,基于字嵌入與LSTM模型,通過構(gòu)造多個(gè)二元分類器,對5類圖書進(jìn)行多標(biāo)簽分類實(shí)驗(yàn)??偟膩砜?,目前的研究還存在提升的空間。第一,實(shí)驗(yàn)數(shù)據(jù)集涉及的類別較少,未反映出《中圖法》的基本面貌。第二,總體上缺乏對圖書多標(biāo)簽分類的關(guān)注,既有的圖書多標(biāo)簽分類方法存在計(jì)算開銷大、類別不均衡的問題。第三,圖書分類號的精細(xì)程度與分類器的性能難以兼得。《中圖法》是一個(gè)樹狀的、多層次的圖書分類體系,如果只將一級大類作為分類標(biāo)簽,分類器無法預(yù)測更加具體的分類號;如果采用層次化的細(xì)粒度分類,則會存在類別過多、數(shù)據(jù)稀疏等問題[6],且難以顧及兼類的圖書。因此,如何細(xì)粒度地、準(zhǔn)確地預(yù)測圖書的分類號,是亟待探研的問題。

    近年來,自然語言處理界以ELMo[7]、BERT[8]為代表的深度預(yù)訓(xùn)練語言模型(Pre-trained Language Model)極大改善了文本語義表示的效果,并在文本分類等各項(xiàng)下游任務(wù)中取得了明顯突破。預(yù)訓(xùn)練語言模型應(yīng)用于下游任務(wù),主要分為兩種策略:一是基于特征的(Feature-based)策略,將固定的語言特征向量從模型中提取出來,以ELMo為代表;二是微調(diào)(Fine-tuning)策略,一方面,模型頂部接入著眼于具體任務(wù)的分類層,另一方面,語言模型所有的參數(shù)也隨著下游任務(wù)的訓(xùn)練適度優(yōu)化,以BERT為代表[8]。由此,我們嘗試提出一種基于BERT語言模型的圖書細(xì)粒度分類的方法,首先尊重并充分利用原有的圖書信息及分類標(biāo)簽,通過進(jìn)一步預(yù)訓(xùn)練(Further Pre-training)與粗粒度的分類任務(wù),讓BERT模型微調(diào)經(jīng)由圖書向量相似度計(jì)算,實(shí)現(xiàn)圖書的細(xì)粒度分類。

    2 BERT模型介紹

    BERT (Bidirectional Encoder Representations from Transformers)是一種基于Transformer架構(gòu)的深度預(yù)訓(xùn)練語言模型,其結(jié)構(gòu)主要如圖1所示。

    以中文預(yù)訓(xùn)練模型為例,圖1的E1,E2,…EN表示在首尾分別添加[CLS]和[SEP]標(biāo)記的文本字符。它們依次經(jīng)過12層雙向的Transformer(Trm)編碼器,就可以得到文本字符語境化的向量表示(Contextual Embeddings)。Transformer是一個(gè)基于自注意力(Self-attention)機(jī)制的編碼-解碼器。最底層的Transformer編碼器的輸入為字符向量、字符位置向量與句子片段向量之和。模型內(nèi)每一層均由多頭自注意力(Multi-head Self-attention) 和前饋神經(jīng)網(wǎng)絡(luò)(Feed-forward Neural Networks)兩部分構(gòu)成,前者使編碼器在給每個(gè)字符編碼時(shí),能關(guān)注到周圍其他字符的信息;后者用于增強(qiáng)模型的擬合能力。模型的每一層經(jīng)過一個(gè)相加與歸一化(Add & Norm)操作后,生成新的字符向量,作為下一層編碼器的輸入。頂層編碼器輸出的[CLS]標(biāo)記的編碼向量T1,可以視為整個(gè)句子的語義表征,用于后續(xù)的文本分類任務(wù)[9]。

    另外,為增強(qiáng)語義表示的能力,BERT提出了遮罩語言模型(Masked LM, MLM)和下句預(yù)測(Next Sentence Prediction, NSP)的概念。MLM實(shí)質(zhì)是一個(gè)完型填空任務(wù),中文語料中15%的字會被選中,其中的80%被替換為[MASK],10%被隨機(jī)替換為另一個(gè)字,剩下的10%保持原字。模型需要經(jīng)由一個(gè)線性分類器,預(yù)測被選中的字。出于與后面任務(wù)保持一致的考慮,BERT需按一定的比例在預(yù)測的字的位置放置原字或者某個(gè)隨機(jī)字,使得模型更偏向于利用上下文信息預(yù)測被選中字。在下句預(yù)測任務(wù)中,模型選擇若干句子對,其中有50%的概率兩句相鄰,50%的概率兩句不相鄰。模型通過上述兩個(gè)目標(biāo)任務(wù),能夠較好地學(xué)習(xí)到字詞和句間的語義信息。

    3 基于表示學(xué)習(xí)的圖書粗粒度分類

    我們嘗試在圖書粗粒度分類任務(wù)上對模型進(jìn)行微調(diào)(Fine-tuning),提升預(yù)訓(xùn)練模型對圖書數(shù)據(jù)表示的準(zhǔn)確度,為后續(xù)的細(xì)粒度分類任務(wù)奠定基礎(chǔ)。首先進(jìn)行單標(biāo)簽分類,以測試BERT圖書分類的有效字段,檢驗(yàn)進(jìn)一步預(yù)訓(xùn)練的效果,并與其他模型進(jìn)行比較;既而進(jìn)行多標(biāo)簽實(shí)驗(yàn)并討論其實(shí)用性。本文的整體模型架構(gòu)如圖2所示。

    3.1 數(shù)據(jù)集與實(shí)驗(yàn)環(huán)境

    圖書數(shù)據(jù)①廣泛采集自讀秀學(xué)術(shù)網(wǎng)站。考慮到Z類(綜合性圖書)主要包括辭典、類書、年鑒等類型,出版數(shù)量較少,字段缺失的情況較多,我們采集了A-X共21大類、132 803冊圖書的書名、主題詞、摘要、中圖分類號等字段。在這些圖書中,只有1個(gè)分類號的書為128 548冊,占比約96.8%;擁有2個(gè)分類號的書達(dá)4152冊,擁有3個(gè)及以上分類號的書為103冊。

    實(shí)驗(yàn)的操作環(huán)境為Ubuntu16.04.2LTS(GNU/Linux

    4.8.0-36-genericx86_64),采用2塊1080ti型號的GPU,預(yù)訓(xùn)練語言模型為BERT基礎(chǔ)(BERT-base-Chinese)版②,為12層的Transformer模型,hidden size為768,自注意力機(jī)制的head數(shù)量為12,總參數(shù)量為110M。

    3.2 單標(biāo)簽分類實(shí)驗(yàn)

    我們首先對只有1個(gè)分類號的圖書進(jìn)行實(shí)驗(yàn)。具體到各類別的圖書數(shù)量如表1所示。

    對于單標(biāo)簽文本分類任務(wù),BERT模型提取頂層的符號[CLS]的特征向量v(768維)作為整個(gè)文本的特征表示,再后接一個(gè)768*n的全連接層(Fully-connected layer)W(n為類別數(shù)量),最后通過softmax函數(shù)歸一化,輸出一個(gè)文本分別屬于各個(gè)類別的概率:

    其中softmax函數(shù):

    在訓(xùn)練過程中,模型會調(diào)整全連接層W以及BERT模型的參數(shù),使得正確標(biāo)簽所對應(yīng)的概率最大化。

    在訓(xùn)練策略方面,我們將圖書數(shù)據(jù)集的順序隨機(jī)打亂,按8:1:1的比例劃分訓(xùn)練集、驗(yàn)證集和測試集,并參考Sun(2019)等人[10]在BERT上的分類實(shí)驗(yàn)經(jīng)驗(yàn),如下設(shè)置超參數(shù):學(xué)習(xí)率lr=2e-5,衰變因子ξ=0.95。此外,訓(xùn)練遵循早停(Early stopping)原則,當(dāng)模型的損失在驗(yàn)證集上不再下降,就視為模型在驗(yàn)證集上已經(jīng)收斂,可以停止訓(xùn)練。

    如圖3所示,當(dāng)書名與主題詞字段作為分類字符串時(shí),分類正確率比單一的書名大幅提升近8%。而在此基礎(chǔ)上加入出版社名、摘要等字段,分類正確率上升幅度不明顯,訓(xùn)練收斂需要的迭代次數(shù)卻逐漸增多。綜合考慮性能、訓(xùn)練次數(shù)與字段的常見性,我們認(rèn)為“書名+主題詞”能夠扼要地表示圖書的主要內(nèi)容,將它們作為后續(xù)實(shí)驗(yàn)所用的字段,將對應(yīng)的分類實(shí)驗(yàn)記為BERT-base-Chinese,作為后續(xù)實(shí)驗(yàn)的參考。

    在訓(xùn)練基本版BERT中文模型時(shí),Devin 等[8]采用了字粒度的中文維基百科作為訓(xùn)練語料。Sun[10]等人檢驗(yàn)了進(jìn)一步預(yù)訓(xùn)練(Further pre-train)該語言模型對文本分類的有效性。我們嘗試?yán)脠D書數(shù)據(jù)集增量訓(xùn)練語言模型。考慮到每一本書均表示為一個(gè)書名加若干主題詞、按字切分的短文本,我們只采用如前文所述的遮罩語言模型(Masked LM)的訓(xùn)練策略,選擇語料中15%的字進(jìn)行預(yù)測,一共訓(xùn)練5900步,得到增量訓(xùn)練后的語言模型。在此基礎(chǔ)上再進(jìn)行21類圖書的單標(biāo)簽分類實(shí)驗(yàn),記作BERT-Increse。另外,本文將鄧三鴻、傅余洋子等[5]提出的基于單向長短期記憶網(wǎng)絡(luò)(LSTM)的圖書分類模型,以及基于Facebook的Fasttext文本分類模型④作為基線(Baseline)模型。LSTM設(shè)置1層隱層,每個(gè)隱層含128個(gè)節(jié)點(diǎn),并采用Adam優(yōu)化算法[11]與早停策略。Baseline與BERT-base-Chinese、BERT-Increse實(shí)驗(yàn)均使用同樣比例與內(nèi)容的訓(xùn)練、驗(yàn)證、測試數(shù)據(jù)。

    如圖4所示,進(jìn)一步預(yù)訓(xùn)練的語言模型BERT-Incerse較BERT-base-Chinese能再獲得約0.23%的正確率提升,表明通過遮罩語言模型(Masked LM)增量訓(xùn)練BERT對于文本分類也具有一定的功效。BERT-Increse模型在驗(yàn)證集上的正確率分別高出LSTM和Fasttext模型約4.9%與2.0%,并且前者需要訓(xùn)練的周期數(shù)比后者更少,這證明了我們基于BERT的圖書分類方法的有效性。

    此外,如圖5所示,在具體圖書類別的F1值精度方面,A(馬列主義等)、J(藝術(shù))和U(交通運(yùn)輸)三類圖書具有最佳的分類表現(xiàn),而T(工業(yè)技術(shù))、K(歷史、地理)和N(自然科學(xué)總論)三類圖書的分類F1值較低。這表明A、J、U類圖書至少在書名、關(guān)鍵詞上的分布較為集中。而T、K、N類圖書涉及的子領(lǐng)域較多,話題更為廣闊,數(shù)據(jù)相對稀疏。它們是人們進(jìn)一步優(yōu)化分類模型時(shí),需要著重關(guān)注的對象。

    3.3 多標(biāo)簽分類實(shí)驗(yàn)

    在單標(biāo)簽分類的基礎(chǔ)上,我們進(jìn)行多標(biāo)簽的分類實(shí)驗(yàn)。除了前一小節(jié)所用的單標(biāo)簽數(shù)據(jù)外,又增加了4152冊兼類的圖書數(shù)據(jù)。雖然多標(biāo)簽的圖書占數(shù)據(jù)集圖書總數(shù)的比例較小(約3.2%),但圖書兼類情況錯(cuò)綜復(fù)雜,種類高達(dá)181種。兼類最多的兩類情況是F兼D(經(jīng)濟(jì)類兼政法類)、R兼Q(醫(yī)藥衛(wèi)生類兼生物科學(xué)類),圖書分別達(dá)到124、105例。而兼類情況較少的如N兼I(自然科學(xué)總論類兼文學(xué)類)都僅有1例。這意味著在后續(xù)的多標(biāo)簽分類時(shí),不宜簡單地將兼類的圖書單獨(dú)劃類,否則將面臨類別過多、數(shù)據(jù)稀疏的問題。

    多標(biāo)簽分類是文本自動分類中的一個(gè)研究熱點(diǎn)與難點(diǎn),其目的在于給測試集中每一個(gè)文本預(yù)測一個(gè)或多個(gè)可能的類別。根據(jù)假設(shè)的不同,以往的研究主要分為兩大類。第一,假設(shè)各類別相互獨(dú)立,不考慮類別之間的相關(guān)性,進(jìn)而運(yùn)用3種具體的分類算法:(1)二元相關(guān)(Binary Relevance)算法[12],即把多標(biāo)簽分類轉(zhuǎn)化為多個(gè)二類分類任務(wù)。(2)基于K近鄰(KNN)改進(jìn)的惰性學(xué)習(xí)算法[13]。(3)調(diào)整損失函數(shù),獨(dú)立地計(jì)算、輸出一個(gè)文本屬于各類的概率[14]。第二,考慮標(biāo)簽兩兩之間的相關(guān)性,由此設(shè)計(jì)出排序支持向量機(jī)(Rank SVM)[15]、雙層的主題模型[16]等方法,以及基于深度學(xué)習(xí)序列生成的多標(biāo)簽分類方法[17]。具體到本任務(wù),由于圖書不存在諸如“屬于甲類就一定屬于乙類”或“屬于丙類就一定不屬于丁類”的情況,因此我們?nèi)约僭O(shè)21個(gè)圖書大類相互獨(dú)立,將損失函數(shù)調(diào)整為帶有sigmoid函數(shù)的二元交叉熵?fù)p失函數(shù)(Binary Cross Entropy with Logits Loss, BCE with Logits Loss),其中一個(gè)樣本的損失如下式計(jì)算[14]:

    其中sigmoid函數(shù)n為類別總數(shù),xn是模型的輸出值,表示預(yù)測樣本屬于某一類別的概率;yn是樣本在某一類別下的真實(shí)標(biāo)簽,1表示屬于該類別,0表示不屬于該類別,是xn的優(yōu)化目標(biāo)。與單標(biāo)簽分類通常采用的softmax交叉熵?fù)p失函數(shù)不同的是,sigmoid函數(shù)使一個(gè)樣本屬于各類別的概率分布在(0,1)之間,且沒有進(jìn)行類別之間的歸一化,使各類別的概率之和可能大于1。這允許模型給每一個(gè)標(biāo)簽分配獨(dú)立的概率。在測試階段,模型將凡是概率大于50%的標(biāo)簽輸出,作為一個(gè)樣本多標(biāo)簽分類的預(yù)測結(jié)果。

    我們基于上文BERT-Increse實(shí)驗(yàn)的模型進(jìn)行多標(biāo)簽分類的微調(diào)。整個(gè)數(shù)據(jù)集按約8:1:1的比例劃分訓(xùn)練集、驗(yàn)證集、測試集,一共訓(xùn)練2個(gè)epoch使模型在驗(yàn)證集上的損失收斂。模型在測試集13334個(gè)樣本上預(yù)測的結(jié)果如表2所示。

    值得注意的是,在符合情況(3)的165例樣本里,一些預(yù)測雖然比實(shí)際標(biāo)簽數(shù)更多,但經(jīng)人工檢查發(fā)現(xiàn),這些與實(shí)際標(biāo)簽不一致的預(yù)測也有其合理性,部分例子如表3所示。

    從表3中不難發(fā)現(xiàn),機(jī)器多預(yù)測出的一些分類號其實(shí)無可厚非。例如《形式語言與自動機(jī)第2版》,其中論述的形式文法和自動機(jī),既是程序語言編譯技術(shù)的重要理論基礎(chǔ),可歸為工業(yè)技術(shù)類下轄的TP類(計(jì)算機(jī)、自動化技術(shù));又是形式語言學(xué)、轉(zhuǎn)換生成語法等語言學(xué)流派的研究內(nèi)容,也可歸為H語言文字類下轄的H087(數(shù)理語言學(xué))類,宜按互見分類處理。經(jīng)過人工檢查統(tǒng)計(jì),這165例樣本中,至少有81%的預(yù)測有一定的合理性。這一方面表明基于BERT的粗粒度、多標(biāo)簽分類已具有一定的實(shí)用性,可以初步預(yù)測圖書所屬的學(xué)科大類,并能夠補(bǔ)充一些圖書可能缺失的分類號,為圖書標(biāo)引的工作者提供有益的推薦與參考;另一方面該分類任務(wù)也促使BERT通過微調(diào)(Fine-tuning)學(xué)習(xí)到更好的圖書表示,為后續(xù)的細(xì)粒度分類打下了基礎(chǔ)。

    4 基于微調(diào)BERT與多標(biāo)簽K近鄰的圖書細(xì)粒度分類實(shí)現(xiàn)

    為驗(yàn)證粗粒度分類任務(wù)對BERT模型圖書表示的影響,我們嘗試從不同階段的模型中提取768維的圖書向量,并通過主成分分析(Primary Component Analysis, PCA)技術(shù)降維可視化,分析圖書分布的變化。我們以圖書館學(xué)情報(bào)學(xué)(屬于G3與G2)、語言學(xué)(屬于H0)與計(jì)算機(jī)自動化技術(shù)(屬于TP)3類各100冊圖書為例,選取其書名、主題詞字段作為輸入詞,觀察它們的語義表示變遷,見圖6至圖9。

    綜合圖6~圖9可以發(fā)現(xiàn),從原始模型到增量訓(xùn)練,再到單標(biāo)簽分類、多標(biāo)簽分類后,三類圖書的分布呈現(xiàn)出同類圖書集聚、類間圖書距離拉大的趨勢。而該趨勢在兩個(gè)分類任務(wù)后的模型上表現(xiàn)得尤為明顯。這反映出通過BERT在完成下游任務(wù)的同時(shí),語言模型本身也發(fā)生了顯著變化,通過編碼圖書主題和粗粒度類別的信息,圖書語義表示比原始模型更加精準(zhǔn)。

    細(xì)粒度的多標(biāo)簽分類以數(shù)據(jù)集圖書所屬的中圖法各二級學(xué)科作為類別,總計(jì)257類。訓(xùn)練集為3.3節(jié)粗粒度多分類實(shí)驗(yàn)中的訓(xùn)練集與驗(yàn)證集之和;測試集則保持不變。我們首先從粗粒度多標(biāo)簽分類微調(diào)后的BERT模型中提取768維的圖書向量,然后采用基于K近鄰(K-Nearest Neighbor, KNN)的分類方法KNN-ML(KNN-Multi Label)。具體過程如下:

    (1)對于測試集中的每一個(gè)樣本點(diǎn)yi,查找出訓(xùn)練集中與之向量距離最近的k個(gè)近鄰樣本x1,x2,…,xk,記作集合U。

    (2)統(tǒng)計(jì)集合U中,各樣本所屬的中圖法二級學(xué)科類別Ci及其出現(xiàn)頻次Fi。

    (3)設(shè)置閾值L,當(dāng)Fi >=L時(shí),就將對應(yīng)的Ci判定為測試樣本點(diǎn)yi所屬的二級學(xué)科。

    基于KNN-ML的多標(biāo)簽分類具有諸多優(yōu)勢,首先,它是一種惰性學(xué)習(xí)方法,節(jié)省了顯性的訓(xùn)練過程;其次,KNN-ML僅以近鄰范圍內(nèi)樣本投票表決的方式進(jìn)行預(yù)測,既實(shí)現(xiàn)了多標(biāo)簽分類,也無須計(jì)算全部257類的概率;第三,圖書的向量表示直接從BERT模型中繼承而來,增量訓(xùn)練、系統(tǒng)的后期維護(hù)也較為方便。

    yi查找近鄰樣本時(shí),KNN-ML利用球樹(Ball Tree)的數(shù)據(jù)結(jié)構(gòu)來優(yōu)化查找的過程。球樹使用超球面對樣本空間進(jìn)行劃分,在查詢一個(gè)測試樣本的k近鄰時(shí)避免了蠻力計(jì)算;此外,球樹運(yùn)用球心與半徑描述樣本點(diǎn),樣本點(diǎn)占用的空間對維數(shù)不敏感,這彌補(bǔ)了矩形劃分在高維時(shí)存儲較大、查詢較慢的不足[18]。因此球樹適用于本次實(shí)驗(yàn)向量維數(shù)較高的情況。

    我們記原始的中文BERT模型為BERT-base-Chinese,在此基礎(chǔ)上,記進(jìn)行粗粒度單標(biāo)簽分類微調(diào)后的模型為BERT-single-clf,記粗粒度多標(biāo)簽分類微調(diào)后的模型為BERT-multi-clf。經(jīng)多次參數(shù)調(diào)優(yōu),KNN-ML設(shè)置近鄰數(shù)目k=10,觀察各模型在閾值L變化時(shí)的表現(xiàn)變化。如表4所示。

    根據(jù)表4,首先,未經(jīng)微調(diào)的BERT-base-Chinese在指標(biāo)1、2上的表現(xiàn)均不及微調(diào)后的兩個(gè)模型。這證明BERT通過微調(diào)融入中圖法一級大類的信息后,也能提高二級類別分類的準(zhǔn)確度。其次,BERT-single-clf模型的總體效果居于第二,在不同閾值L下的9項(xiàng)指標(biāo)評測中,有2項(xiàng)取得最佳。由于它僅在單標(biāo)簽分類任務(wù)上微調(diào),缺乏對兼類圖書的語義編碼,因此BERT-single-clf至少正確預(yù)測出一個(gè)標(biāo)簽的能力較強(qiáng)(指標(biāo)1),但其準(zhǔn)確預(yù)測出全部標(biāo)簽的能力(指標(biāo)2)略遜于BERT-multi-clf,且容易將非兼類的圖書預(yù)測為兼類(指標(biāo)3)。最后,綜合3個(gè)指標(biāo),BERT-multi-clf模型的表現(xiàn)最佳,在9項(xiàng)指標(biāo)中取得了6項(xiàng)最佳。當(dāng)閾值L=4時(shí),測試集中84.44%的圖書被正確預(yù)測了至少1個(gè)二級類別;有75.82%的圖書的分類號完全預(yù)測正確。這對于多達(dá)257個(gè)類別的細(xì)粒度多標(biāo)簽分類任務(wù)來說,依然是良好的表現(xiàn),且性能明顯優(yōu)于原始BERT模型與單標(biāo)簽粗粒度分類后的BERT-single-clf。在占比5.94%的多預(yù)測了標(biāo)簽的圖書中,部分例子如表5所示。

    可以發(fā)現(xiàn),一些看似預(yù)測有誤的例子,實(shí)際上是對既有圖書標(biāo)引的有益補(bǔ)充。例如根據(jù)《中國圖書館分類法第五版(簡本)》的設(shè)定,C8統(tǒng)計(jì)學(xué)和O1數(shù)學(xué)下轄的O212“數(shù)理統(tǒng)計(jì)”是互見類別[19]。而《定性數(shù)據(jù)統(tǒng)計(jì)分析》一書兼屬這兩個(gè)類別,這樣分類不僅是圖書管理中兩類書籍相互參證的需要,而且有利于提高圖書的查全率,促進(jìn)學(xué)科的相互交流。

    5 結(jié)語

    文章著眼于中文圖書的細(xì)粒度多標(biāo)簽分類工作,考慮到預(yù)訓(xùn)練的BERT語言模型的微調(diào)(Fine-tuning)特性,提出一種先通過粗粒度分類微調(diào)語言模型,在此基礎(chǔ)上提取圖書表示,再采取惰性學(xué)習(xí)方法實(shí)現(xiàn)細(xì)粒度分類的策略。

    首先,在面向21大類圖書表示學(xué)習(xí)的單標(biāo)簽分類中,BERT模型在驗(yàn)證集上取得了91.94%的正確率,在遮罩語言模型增量預(yù)訓(xùn)練BERT后獲得進(jìn)一步提升,明顯優(yōu)于前人的LSTM與Fasttext模型。

    其次,文章運(yùn)用帶有sigmoid的二元交叉熵?fù)p失函數(shù),實(shí)現(xiàn)21類圖書的粗粒度多標(biāo)簽分類,有92.53%的圖書預(yù)測出至少1個(gè)分類號,有89.98%的圖書預(yù)測出全部分類號。

    最后,文章在微調(diào)BERT模型的基礎(chǔ)上,采用KNN-ML的方法實(shí)現(xiàn)257類的細(xì)粒度圖書分類。實(shí)驗(yàn)表明,經(jīng)粗粒度分類微調(diào)的模型效果明顯優(yōu)于未經(jīng)微調(diào)的預(yù)訓(xùn)練模型。在最佳情況下,有75.82%的圖書的類別全部預(yù)測正確,92.10%圖書至少被正確預(yù)測了一個(gè)類別。從應(yīng)用角度看,本文提出的分類方法既可以用于圖書的自動預(yù)分類工作,大大減輕人工標(biāo)引的負(fù)擔(dān);也可用于分類號的校對補(bǔ)充,幫助標(biāo)引者查漏補(bǔ)缺,促進(jìn)不同學(xué)科的溝通與交融。在后續(xù)工作中,我們嘗試通過加權(quán)改進(jìn)KNN-ML算法,使圖書分類系統(tǒng)進(jìn)一步完善。

    參考文獻(xiàn):

    出版商務(wù)周報(bào).最新CIP大數(shù)據(jù)分析,2019圖書選題該做什么?[EB/OL]. (2019-2-28)[2020-04-15].http://www.yidianzixun.com/article/0LOGYM5G.

    王昊,嚴(yán)明,蘇新寧.基于機(jī)器學(xué)習(xí)的中文書目自動分類研究[J].中國圖書館學(xué)報(bào), 2010,36(6):28-39.

    劉高軍,陳強(qiáng)強(qiáng).基于極限學(xué)習(xí)機(jī)和混合特征的中文書目自動分類模型研究[J].北方工業(yè)大學(xué)學(xué)報(bào),2018,30(5):99-104.

    潘輝.基于極限學(xué)習(xí)機(jī)的自動化圖書信息分類技術(shù)[J].現(xiàn)代電子技術(shù),2019,42(17):183-186.

    鄧三鴻,傅余洋子,王昊.基于LSTM模型的中文圖書多標(biāo)簽分類研究[J].數(shù)據(jù)分析與知識發(fā)現(xiàn),2017,1(7):52-60.

    陳志新.分類法研究的十五個(gè)問題:我國2009至2016年分類法研究綜述[J]. 情報(bào)科學(xué),2018,36(6):149-155.

    PETERS M E,NEUMANN M,IYYER M, et al.Deep contextualized word representations[J].arXiv e-prints,2018 :1802-5365.

    DEVLIN J, CHANG M, LEE K, et al.BERT: pre-training of deep bidirectional transformers for language understanding[J].arXiv e-prints,2018:1810-4805.

    VASWANI A, SHAZEER N, PARMAR N, et al.Attention?is all you need[J]. arXiv e-prints, 2017:1706-3762.

    SUN C, QIU X, XU Y, et al. How to fine-tune BERT for text classification?[J].arXiv e-prints, 2019:1905-5583.

    KINGMA D P, BA J. ADAM: a method for stochastic optimization[J].arXiv e-prints, 2014:1412-6980.

    MATTHEW R B, JIEBO L, XIPENG S,et al. Learning multi-label scene classification[J]. Pattern Recognition: The Journal of the Pattern Recognition Society, 2004,37(9):1757-1771.

    ZHANG M, ZHOU Z. ML-KNN: a lazy learning approachto multi-label learning[J]. Pattern Recognition, 2007,40(7):2038-2048.

    FACEBOOK. Pytorch Docs :? Docs > Module code > torch> torch.nn.modules.loss[EB/OL](2019-4-25)[2020-04-15]. https://pytorch.org/docs/stable/_modules/torch/nn/modules/loss.html#BCEWithLogitsLoss.

    ELISSEEFF A,WESTON J. A Kernel method for multi-labelled classification[C].In Advances in neural informationprocessing systems,2002:681-687.

    ZHANG M L, ZHOU Z H. Multi-label learning by instance differentiation[C]. Proceedings of the 22nd Conference on Artificial Intelligence,2007: 669–674.

    YANG P, SUN X, LI W, et al. SGM: sequence generationmodel for Multi-label classification[J]. arXiv e-prints,2018:1806-4822.

    俞肇元,袁林旺,羅文,等.邊界約束的非相交球樹實(shí)體對象多維統(tǒng)一索引[J].軟件學(xué)報(bào), 2012,23(10):2746-2759.

    國家圖書館中國圖書館分類法編輯委員會.中國圖書館分類法簡本(第五版)[M].北京: 國家圖書館出版社,2012:14,107.

    蔣彥廷 北京師范大學(xué)中文信息處理研究所碩士研究生。 北京海淀,100875。

    胡韌奮 北京師范大學(xué)中文信息處理研究所碩士生導(dǎo)師。 北京海淀,100875。

    (收稿日期:2019-11-02 編校:左靜遠(yuǎn),陳安琪)

    猜你喜歡
    深度學(xué)習(xí)
    從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
    面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺構(gòu)建研究
    基于自動智能分類器的圖書館亂架圖書檢測
    搭建深度學(xué)習(xí)的三級階梯
    有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
    利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
    考試周刊(2016年94期)2016-12-12 12:15:04
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    九九爱精品视频在线观看| 免费人成在线观看视频色| 一个人看视频在线观看www免费| 亚洲精品aⅴ在线观看| 精品久久久久久久久亚洲| 国产国拍精品亚洲av在线观看| 一区二区三区四区激情视频| 晚上一个人看的免费电影| 亚洲欧美成人精品一区二区| 国产黄频视频在线观看| 国产高清国产精品国产三级 | 精品一区在线观看国产| 国产中年淑女户外野战色| 亚洲精品成人久久久久久| 男女边吃奶边做爰视频| 成人性生交大片免费视频hd| 观看免费一级毛片| 国产毛片a区久久久久| 日本与韩国留学比较| 欧美另类一区| 乱系列少妇在线播放| 99久久人妻综合| 欧美激情久久久久久爽电影| 国产真实伦视频高清在线观看| 国产精品爽爽va在线观看网站| 国产亚洲av嫩草精品影院| 直男gayav资源| 伦理电影大哥的女人| 美女大奶头视频| 丰满乱子伦码专区| 国产亚洲一区二区精品| 一个人看视频在线观看www免费| 国产三级在线视频| 久久精品综合一区二区三区| 麻豆乱淫一区二区| 亚洲,欧美,日韩| 久久99精品国语久久久| 最近视频中文字幕2019在线8| av女优亚洲男人天堂| 一级爰片在线观看| 男的添女的下面高潮视频| 亚洲av福利一区| 国产在视频线精品| 国产成人a区在线观看| 精品国产露脸久久av麻豆 | 又爽又黄无遮挡网站| 国产伦理片在线播放av一区| 亚洲精品成人久久久久久| 国产黄色小视频在线观看| 国产乱来视频区| 免费看不卡的av| 亚洲精品视频女| 国产男人的电影天堂91| 国产美女午夜福利| 乱码一卡2卡4卡精品| 国产伦一二天堂av在线观看| 国产精品av视频在线免费观看| 丝袜美腿在线中文| 老师上课跳d突然被开到最大视频| 夫妻性生交免费视频一级片| 99久久中文字幕三级久久日本| 国模一区二区三区四区视频| 精品久久久噜噜| 国产一级毛片七仙女欲春2| 国产 亚洲一区二区三区 | 男女视频在线观看网站免费| 国产 一区 欧美 日韩| 九九在线视频观看精品| 久久人人爽人人爽人人片va| 天堂俺去俺来也www色官网 | 99九九线精品视频在线观看视频| 成人亚洲精品av一区二区| 色综合色国产| 国产一区亚洲一区在线观看| 在线 av 中文字幕| 人人妻人人看人人澡| 亚洲真实伦在线观看| 偷拍熟女少妇极品色| 日本黄色片子视频| 一个人看的www免费观看视频| 亚洲伊人久久精品综合| 国产片特级美女逼逼视频| 国产探花在线观看一区二区| 日本与韩国留学比较| 综合色丁香网| 国产乱人偷精品视频| 白带黄色成豆腐渣| 中文欧美无线码| 久久人人爽人人爽人人片va| 身体一侧抽搐| 好男人在线观看高清免费视频| 中文在线观看免费www的网站| 看十八女毛片水多多多| 黄片wwwwww| 成人特级av手机在线观看| 国内精品宾馆在线| 十八禁国产超污无遮挡网站| 高清午夜精品一区二区三区| 最近最新中文字幕免费大全7| 国语对白做爰xxxⅹ性视频网站| 欧美高清性xxxxhd video| 亚洲精华国产精华液的使用体验| 高清午夜精品一区二区三区| 成人国产麻豆网| 乱人视频在线观看| 在线观看免费高清a一片| 午夜福利视频1000在线观看| 水蜜桃什么品种好| 超碰97精品在线观看| 午夜久久久久精精品| 欧美日本视频| 欧美三级亚洲精品| 日产精品乱码卡一卡2卡三| 七月丁香在线播放| 国产精品日韩av在线免费观看| 在线观看免费高清a一片| 水蜜桃什么品种好| 建设人人有责人人尽责人人享有的 | 国产av在哪里看| av在线观看视频网站免费| 久久精品久久久久久噜噜老黄| 国产一区二区亚洲精品在线观看| 六月丁香七月| 色视频www国产| 丝袜喷水一区| 日日摸夜夜添夜夜添av毛片| 久久鲁丝午夜福利片| 我的老师免费观看完整版| 哪个播放器可以免费观看大片| 国产 亚洲一区二区三区 | 色综合站精品国产| 欧美日韩国产mv在线观看视频 | 亚洲av男天堂| 亚洲自拍偷在线| 亚洲精品国产成人久久av| 久久99热6这里只有精品| 免费大片黄手机在线观看| 久久精品国产自在天天线| 最后的刺客免费高清国语| 丝袜喷水一区| freevideosex欧美| 亚洲精品国产av成人精品| 日韩欧美一区视频在线观看 | 极品少妇高潮喷水抽搐| 国产极品天堂在线| 最近手机中文字幕大全| 日韩国内少妇激情av| 婷婷六月久久综合丁香| 国产中年淑女户外野战色| 久久久久国产网址| 2018国产大陆天天弄谢| 久久久久久久国产电影| av在线蜜桃| av在线天堂中文字幕| 欧美成人午夜免费资源| 男人舔奶头视频| 日韩成人av中文字幕在线观看| 熟妇人妻不卡中文字幕| 人妻夜夜爽99麻豆av| 99九九线精品视频在线观看视频| 99热这里只有是精品50| 日韩欧美精品v在线| 午夜福利在线观看吧| 免费观看精品视频网站| 最新中文字幕久久久久| 秋霞在线观看毛片| 国产男女超爽视频在线观看| 久久久久久国产a免费观看| 国产精品伦人一区二区| 边亲边吃奶的免费视频| 啦啦啦中文免费视频观看日本| 国产在视频线在精品| 22中文网久久字幕| 午夜福利在线观看吧| 99久国产av精品| 日本熟妇午夜| 欧美另类一区| 精品久久久久久久久久久久久| 午夜福利网站1000一区二区三区| 精品久久久久久久久av| 一级黄片播放器| 十八禁网站网址无遮挡 | 蜜桃亚洲精品一区二区三区| 国产av码专区亚洲av| 亚洲欧洲日产国产| 午夜久久久久精精品| 亚洲av中文av极速乱| 欧美zozozo另类| 亚洲人成网站高清观看| 欧美bdsm另类| 国产人妻一区二区三区在| 伊人久久精品亚洲午夜| 有码 亚洲区| 国产精品蜜桃在线观看| 亚洲av国产av综合av卡| 毛片女人毛片| 波多野结衣巨乳人妻| 成人毛片a级毛片在线播放| 26uuu在线亚洲综合色| 久久综合国产亚洲精品| 国产免费又黄又爽又色| 男人舔女人下体高潮全视频| 99热6这里只有精品| 国产成人精品福利久久| 久久久精品94久久精品| 久久久久久久久久久丰满| 中文字幕av成人在线电影| 69av精品久久久久久| 免费少妇av软件| 街头女战士在线观看网站| 午夜免费激情av| 国产亚洲精品av在线| 菩萨蛮人人尽说江南好唐韦庄| 国产美女午夜福利| 国产男女超爽视频在线观看| 嫩草影院新地址| 真实男女啪啪啪动态图| 免费观看av网站的网址| 日本免费在线观看一区| 国产伦在线观看视频一区| 午夜福利在线在线| 国国产精品蜜臀av免费| 亚洲精品日本国产第一区| 观看免费一级毛片| 国产男女超爽视频在线观看| 亚洲国产精品sss在线观看| 一级毛片电影观看| 中文乱码字字幕精品一区二区三区 | 精品久久久噜噜| 精品国产一区二区三区久久久樱花 | av在线天堂中文字幕| 一级黄片播放器| 青春草视频在线免费观看| 在线a可以看的网站| 3wmmmm亚洲av在线观看| 男女视频在线观看网站免费| 亚洲欧美成人精品一区二区| 一边亲一边摸免费视频| 亚洲不卡免费看| 亚洲精品乱码久久久久久按摩| 午夜福利视频精品| 久久久久久久久久成人| 男女国产视频网站| 亚洲三级黄色毛片| 亚洲精品乱久久久久久| 国产久久久一区二区三区| 午夜福利在线在线| 亚洲国产精品成人久久小说| 欧美最新免费一区二区三区| 日日干狠狠操夜夜爽| 精品国内亚洲2022精品成人| 日韩制服骚丝袜av| 99热这里只有精品一区| 美女大奶头视频| 乱系列少妇在线播放| 国产高清不卡午夜福利| 久久综合国产亚洲精品| kizo精华| 色综合站精品国产| 成人一区二区视频在线观看| 国产精品人妻久久久影院| 成人亚洲精品av一区二区| 亚洲精品视频女| 日本一二三区视频观看| 最近中文字幕2019免费版| 日本免费a在线| 大又大粗又爽又黄少妇毛片口| 久久这里只有精品中国| 成人二区视频| 黄片无遮挡物在线观看| 麻豆精品久久久久久蜜桃| 大话2 男鬼变身卡| 国产在视频线精品| 看十八女毛片水多多多| 亚洲av一区综合| 精品国内亚洲2022精品成人| 国产精品人妻久久久影院| 欧美高清性xxxxhd video| 免费看a级黄色片| 久久精品国产亚洲网站| 国内少妇人妻偷人精品xxx网站| 亚洲高清免费不卡视频| 少妇高潮的动态图| 一夜夜www| 亚洲av中文字字幕乱码综合| 一级a做视频免费观看| 精品亚洲乱码少妇综合久久| 26uuu在线亚洲综合色| 色视频www国产| ponron亚洲| 插阴视频在线观看视频| av天堂中文字幕网| 国产精品久久视频播放| 亚洲av二区三区四区| 成人漫画全彩无遮挡| 亚洲在线观看片| 亚洲国产av新网站| 中文字幕亚洲精品专区| eeuss影院久久| 三级国产精品片| 国产高潮美女av| 最近手机中文字幕大全| 全区人妻精品视频| 亚洲高清免费不卡视频| 夫妻性生交免费视频一级片| 好男人视频免费观看在线| 亚洲,欧美,日韩| av一本久久久久| 亚洲在线自拍视频| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | av在线老鸭窝| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 成人综合一区亚洲| 亚洲av成人av| 国产成人a区在线观看| 亚洲伊人久久精品综合| av黄色大香蕉| 久久久久久久久大av| 蜜桃久久精品国产亚洲av| 亚洲乱码一区二区免费版| 狂野欧美白嫩少妇大欣赏| av在线蜜桃| 春色校园在线视频观看| 亚洲电影在线观看av| 欧美xxxx黑人xx丫x性爽| 免费av观看视频| 国产伦精品一区二区三区视频9| 久久国内精品自在自线图片| 波多野结衣巨乳人妻| 高清av免费在线| 老女人水多毛片| 亚洲伊人久久精品综合| 中文在线观看免费www的网站| av免费观看日本| 欧美3d第一页| 1000部很黄的大片| 69av精品久久久久久| 国产午夜精品论理片| av一本久久久久| 午夜免费观看性视频| 午夜激情久久久久久久| 秋霞伦理黄片| 狂野欧美激情性xxxx在线观看| 国产伦精品一区二区三区四那| 久久人人爽人人爽人人片va| 一级毛片aaaaaa免费看小| 日韩三级伦理在线观看| 夜夜爽夜夜爽视频| 国产av不卡久久| 国产成人精品一,二区| 久久久久久久久大av| 久久久久久久久久久丰满| 亚洲美女视频黄频| videos熟女内射| 久久99热这里只有精品18| 精品久久久久久成人av| 日韩制服骚丝袜av| av在线老鸭窝| 亚洲内射少妇av| 欧美潮喷喷水| 国产精品爽爽va在线观看网站| 国产午夜精品一二区理论片| 亚洲最大成人av| 看黄色毛片网站| 亚洲精品国产成人久久av| 午夜免费观看性视频| 亚洲欧洲日产国产| 久久亚洲国产成人精品v| or卡值多少钱| 欧美激情国产日韩精品一区| 欧美激情在线99| 九草在线视频观看| 六月丁香七月| 色网站视频免费| 美女内射精品一级片tv| 亚洲电影在线观看av| 2021少妇久久久久久久久久久| 天堂中文最新版在线下载 | 麻豆av噜噜一区二区三区| 国产精品国产三级专区第一集| 人妻系列 视频| 中文欧美无线码| 女人被狂操c到高潮| 91aial.com中文字幕在线观看| 婷婷色av中文字幕| 亚洲欧美成人综合另类久久久| 别揉我奶头 嗯啊视频| 亚洲国产精品专区欧美| 精品久久久噜噜| 一边亲一边摸免费视频| 亚洲精品一二三| 久久综合国产亚洲精品| 少妇高潮的动态图| 亚洲va在线va天堂va国产| 人体艺术视频欧美日本| 在现免费观看毛片| 久久久亚洲精品成人影院| 免费黄色在线免费观看| 亚洲自拍偷在线| 99久国产av精品| 在线观看一区二区三区| 精品久久久久久久久久久久久| 国产 亚洲一区二区三区 | 老师上课跳d突然被开到最大视频| 最近最新中文字幕免费大全7| 久久久久久久亚洲中文字幕| 色哟哟·www| 国产在线男女| 国产黄色小视频在线观看| www.av在线官网国产| 嫩草影院入口| 亚洲欧美精品自产自拍| 欧美xxxx性猛交bbbb| 国产亚洲5aaaaa淫片| 一级av片app| 精品久久久久久久久亚洲| 日本三级黄在线观看| 日韩大片免费观看网站| 亚洲丝袜综合中文字幕| 久久久精品欧美日韩精品| 不卡视频在线观看欧美| 久久午夜福利片| 国产熟女欧美一区二区| 国产黄色视频一区二区在线观看| av播播在线观看一区| 亚洲国产成人一精品久久久| 七月丁香在线播放| 国产伦精品一区二区三区四那| 久久久精品欧美日韩精品| 久久精品国产亚洲av涩爱| 欧美zozozo另类| 99视频精品全部免费 在线| 五月天丁香电影| 亚洲精品日韩在线中文字幕| 极品教师在线视频| 精品一区二区免费观看| 成人一区二区视频在线观看| 国产综合精华液| 伦理电影大哥的女人| 亚洲综合精品二区| 日韩av在线免费看完整版不卡| 国产精品一二三区在线看| 国产不卡一卡二| 极品少妇高潮喷水抽搐| 亚洲国产欧美人成| 亚洲欧美日韩东京热| 亚洲精品影视一区二区三区av| av.在线天堂| 久久久久精品性色| 国产 一区精品| 亚洲美女搞黄在线观看| 亚洲自偷自拍三级| 中国美白少妇内射xxxbb| 91在线精品国自产拍蜜月| 成人亚洲欧美一区二区av| 毛片女人毛片| 只有这里有精品99| 亚洲精品一区蜜桃| 国产黄a三级三级三级人| 亚洲精品一二三| 日韩av在线大香蕉| 人妻夜夜爽99麻豆av| 国产乱来视频区| 久久久久精品久久久久真实原创| 国产色爽女视频免费观看| 久久精品综合一区二区三区| 久久久久国产网址| 国产精品熟女久久久久浪| 亚洲精品久久久久久婷婷小说| 如何舔出高潮| 国产精品人妻久久久影院| 亚洲欧美成人精品一区二区| 欧美成人a在线观看| 国产免费一级a男人的天堂| 久99久视频精品免费| 免费黄频网站在线观看国产| 欧美另类一区| 欧美不卡视频在线免费观看| 99久国产av精品国产电影| 男人舔奶头视频| 午夜福利成人在线免费观看| 美女国产视频在线观看| 日韩欧美一区视频在线观看 | 亚洲欧美中文字幕日韩二区| 国产在视频线在精品| 在线播放无遮挡| 久久综合国产亚洲精品| 岛国毛片在线播放| 国产精品久久视频播放| .国产精品久久| 国产在视频线精品| 日本黄大片高清| 国产片特级美女逼逼视频| 在线观看av片永久免费下载| 国内精品宾馆在线| 日韩在线高清观看一区二区三区| 青春草亚洲视频在线观看| 精品少妇黑人巨大在线播放| 激情五月婷婷亚洲| 亚洲精华国产精华液的使用体验| 淫秽高清视频在线观看| 国产又色又爽无遮挡免| 超碰av人人做人人爽久久| 亚洲最大成人中文| 卡戴珊不雅视频在线播放| 黄色一级大片看看| 日韩av在线大香蕉| 亚洲欧美日韩东京热| 午夜福利视频精品| 国产黄片美女视频| 男女国产视频网站| 又黄又爽又刺激的免费视频.| 国产不卡一卡二| 99热6这里只有精品| 在线天堂最新版资源| 亚洲精品国产av成人精品| 欧美日韩一区二区视频在线观看视频在线 | 日韩国内少妇激情av| 欧美zozozo另类| 老司机影院毛片| 一本久久精品| 国产精品1区2区在线观看.| 国产亚洲av嫩草精品影院| 在线观看av片永久免费下载| 婷婷色av中文字幕| 亚洲精品成人久久久久久| 国产乱人偷精品视频| 丰满人妻一区二区三区视频av| 大又大粗又爽又黄少妇毛片口| 精品一区在线观看国产| 国产精品人妻久久久久久| 综合色丁香网| 白带黄色成豆腐渣| 高清欧美精品videossex| 成人毛片a级毛片在线播放| 在线免费观看不下载黄p国产| 只有这里有精品99| 亚洲精品国产av蜜桃| 免费av毛片视频| 国产精品麻豆人妻色哟哟久久 | 亚洲丝袜综合中文字幕| 亚洲国产欧美人成| av在线亚洲专区| 日本爱情动作片www.在线观看| av天堂中文字幕网| 国产亚洲av嫩草精品影院| 国产成人精品久久久久久| 国产精品美女特级片免费视频播放器| 日韩av在线免费看完整版不卡| 久久久久性生活片| 看非洲黑人一级黄片| 九九爱精品视频在线观看| 国产精品一及| 国产精品麻豆人妻色哟哟久久 | 高清毛片免费看| 免费看a级黄色片| 51国产日韩欧美| 日韩一本色道免费dvd| 午夜激情欧美在线| 黄片无遮挡物在线观看| 中文字幕制服av| 免费不卡的大黄色大毛片视频在线观看 | 欧美三级亚洲精品| 欧美xxxx性猛交bbbb| 亚洲av中文av极速乱| 建设人人有责人人尽责人人享有的 | 久久久久久久午夜电影| 99热这里只有是精品50| 97在线视频观看| 伦精品一区二区三区| 亚洲国产精品成人综合色| 大陆偷拍与自拍| 久久久久精品性色| 亚洲欧美精品专区久久| 精品久久久久久成人av| av又黄又爽大尺度在线免费看| 欧美变态另类bdsm刘玥| 中国国产av一级| 黄色配什么色好看| 一级毛片我不卡| 亚洲电影在线观看av| 国产老妇伦熟女老妇高清| 汤姆久久久久久久影院中文字幕 | 免费大片黄手机在线观看| 男女视频在线观看网站免费| 波野结衣二区三区在线| 亚洲av免费高清在线观看| 一区二区三区高清视频在线| 久久人人爽人人片av| 日韩中字成人| 午夜久久久久精精品| 亚洲18禁久久av| 午夜视频国产福利| 偷拍熟女少妇极品色| www.av在线官网国产| 午夜老司机福利剧场| 日韩欧美 国产精品| 99热6这里只有精品| 亚洲国产精品sss在线观看| 蜜桃久久精品国产亚洲av| 日韩大片免费观看网站| 国产激情偷乱视频一区二区| 青青草视频在线视频观看| 久久久久久久久久久免费av| 中文乱码字字幕精品一区二区三区 | 校园人妻丝袜中文字幕| 大陆偷拍与自拍| 熟女人妻精品中文字幕| av播播在线观看一区| 内地一区二区视频在线| 亚洲18禁久久av| 亚洲精华国产精华液的使用体验| 青青草视频在线视频观看| 免费无遮挡裸体视频| 久久国内精品自在自线图片|