• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于卷積神經(jīng)網(wǎng)絡(luò)的文獻(xiàn)自動(dòng)分類研究

    2018-03-12 19:24:38郭利敏
    圖書與情報(bào) 2017年6期
    關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)人工智能

    摘 要: 人工智能技術(shù)的蓬勃發(fā)展,驅(qū)動(dòng)著文獻(xiàn)自動(dòng)分類由基于規(guī)則的分類向基于機(jī)器學(xué)習(xí)的方向發(fā)展。文章在對(duì)深度學(xué)習(xí)概述的基礎(chǔ)上,將卷積神經(jīng)網(wǎng)絡(luò)引入到了文獻(xiàn)自動(dòng)分類,構(gòu)建了基于題名、關(guān)鍵詞的多層次卷積神經(jīng)網(wǎng)絡(luò)模型,使之能夠根據(jù)文獻(xiàn)的題名和關(guān)鍵詞自動(dòng)給出中圖分類號(hào)。通過在TensorFlow平臺(tái)上的深度學(xué)習(xí)模型,利用《全國(guó)報(bào)刊索引》約170萬(wàn)條記錄進(jìn)行模型訓(xùn)練,并對(duì)7000多篇待加工的文獻(xiàn)做中圖法分類預(yù)測(cè),其在生產(chǎn)情況下一級(jí)分類準(zhǔn)確率為75.39%,四級(jí)準(zhǔn)確率為57.61%。當(dāng)置信度為0.9時(shí),一級(jí)正確率為43.98%,錯(cuò)誤率為1.96%,四級(jí)正確率為25.66%,四級(jí)錯(cuò)誤率為5.11%。證明該模型有著較低的錯(cuò)誤率,可為《全國(guó)報(bào)刊索引》分類流程的半自動(dòng)化提供幫助,解決存在的編目人員緊缺、加工質(zhì)量和效率下降等問題。

    關(guān)鍵詞: 人工智能;智能圖書館;深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);TensorFlow;自動(dòng)分類

    中圖分類號(hào)TP18;G254.11 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.11968/tsyqb.1003-6938.2017119

    Abstract With the rapid development of artificial intelligence, the automatic classification of literature is changing from the rule-based to the machine learning. After an outline of deep learning, the paper introduced convolution neural network into the automatic classification, constructing a multi-level model based on the title and the key words and thus CLC is given automatically. Through the deep learning model in TensorFlow, about 1700000 records of National Newspaper Index were used to make model train. More than 7000literature were processed with the model and the result is: under the production condition, the accuracy of the first classification is 75.39%; the accuracy of the fourth classification is 57.61. When the confidence is 0.9, the correct rate of the first classification is 43.98%, error rate is 1.96%; correct rate of the fourth classification is 25.66%, the error rate is 5.11%.This shows that the model can be used to help realize the semi-automatic in the classification of National Newspaper Index and other problems.

    Key words artificial intelligence; smart library; deep learning; convolution neural network; TensorFlow; automatic classification

    1 引言:圖書館與文獻(xiàn)自動(dòng)分類

    文獻(xiàn)的標(biāo)引編目加工是圖書館重要的業(yè)務(wù)工作之一,其工作量大,專業(yè)性強(qiáng),又是需要多人協(xié)作的綜合性工作,有自己的特點(diǎn)和規(guī)律,主要采用手工分類的方式。在知識(shí)爆炸的時(shí)代,需要對(duì)數(shù)量龐大、內(nèi)容復(fù)雜、形式多樣的文獻(xiàn)進(jìn)行準(zhǔn)確的歸類、標(biāo)引,對(duì)工作人員的要求很高;另一方面,由于編目外包和圖書館學(xué)專業(yè)教育的轉(zhuǎn)型,資深標(biāo)引編目人員日趨減少,信息加工質(zhì)量和效率都呈下降趨勢(shì)。

    20世紀(jì)50、60年代在H .P .Luhn、Maron等人的推動(dòng)下,圖書館界一直在探索文獻(xiàn)自動(dòng)分類的方法。國(guó)內(nèi)相關(guān)研究起始于上世紀(jì)80年代初[1]。近年來隨著人工智能技術(shù)的蓬勃發(fā)展,文獻(xiàn)自動(dòng)分類由基于規(guī)則的分類轉(zhuǎn)向基于機(jī)器學(xué)習(xí)的分類,旨在提高文獻(xiàn)的分準(zhǔn)率。

    1.1 基于規(guī)則的分類方法

    基于規(guī)則的分類方法主要包括基于詞典發(fā)的分類方法,即構(gòu)建主題詞與分類號(hào)的對(duì)照關(guān)系表,掃描并找出文章所包含的主題詞進(jìn)而計(jì)算文獻(xiàn)的類歸屬性;基于專家系統(tǒng)的自動(dòng)分類方法,即構(gòu)建專家系統(tǒng)結(jié)合推理機(jī)實(shí)現(xiàn)文獻(xiàn)分類[1]。此類方法的一方面構(gòu)建分類主題詞表,但由于在知識(shí)爆炸的當(dāng)下,各學(xué)科發(fā)展迅猛文獻(xiàn)內(nèi)容、形式多樣使得詞表的編制滯后于科學(xué)的發(fā)展,使得其對(duì)于包含新詞的文獻(xiàn)無法分類;另一方面經(jīng)常需要人工依學(xué)科發(fā)展的情況不斷調(diào)整分類規(guī)則。

    1.2 基于機(jī)器學(xué)習(xí)的分類方法

    文獻(xiàn)分類過程實(shí)質(zhì)是編目人員依據(jù)文獻(xiàn)題名、關(guān)鍵詞和摘要結(jié)合其對(duì)中圖分類法的理解賦予一個(gè)中圖分類號(hào)的過程(少數(shù)情況下需要通讀全文)。換言之,即是編目人員通過培訓(xùn)學(xué)習(xí)中圖分類法構(gòu)建相應(yīng)的分類體系,利用培訓(xùn)學(xué)習(xí)的成果對(duì)文獻(xiàn)進(jìn)行加工,并在實(shí)踐中不斷完善自己的分類體系。把上述過程泛化,利用已編目的文獻(xiàn)構(gòu)建題名、關(guān)鍵詞和摘要的知識(shí)庫(kù),提取相應(yīng)的特征數(shù)據(jù)進(jìn)行學(xué)習(xí),這便是基于機(jī)器學(xué)習(xí)的分類方法。

    基于機(jī)器學(xué)習(xí)的分類方法其基本過程主要包括:構(gòu)建語(yǔ)料庫(kù)、文本建模、特征選擇、特征擴(kuò)展、選擇并實(shí)現(xiàn)分類算法五個(gè)環(huán)節(jié)。常用的方法有樸素貝葉斯法、KNN、決策樹法、中心向量法、支持向量機(jī)以及近兩年興起的人工神經(jīng)網(wǎng)絡(luò)的分類方法等?;谏窠?jīng)網(wǎng)絡(luò)的分類方法雖在小規(guī)訓(xùn)練集上與其他傳統(tǒng)的機(jī)器學(xué)習(xí)分類方法不相上下,但隨著數(shù)據(jù)集和網(wǎng)絡(luò)規(guī)模的增大,其性能遠(yuǎn)超于傳統(tǒng)的機(jī)器學(xué)習(xí)方法,能夠更好處理海量數(shù)據(jù)(見圖1)。endprint

    本文嘗試將卷積神經(jīng)網(wǎng)絡(luò)引入到文獻(xiàn)自動(dòng)分類研究中,構(gòu)建基于題名、關(guān)鍵詞的多層次卷積神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)模型,使之能夠根據(jù)文獻(xiàn)的題名和關(guān)鍵詞自動(dòng)給出中圖分類號(hào),以解決編目人員緊缺,加工質(zhì)量和效率下降的問題,并在實(shí)際生產(chǎn)環(huán)境下證明該模型的準(zhǔn)確性和合理性。

    2 深度學(xué)習(xí)與TensorFlow

    隨著第三次人工智能浪潮的興起,機(jī)器學(xué)習(xí)作為一種數(shù)據(jù)挖掘的方法被廣泛應(yīng)用于垃圾郵件檢測(cè)、定向客戶的產(chǎn)品推薦、商品預(yù)測(cè)等領(lǐng)域。近年來,受益于計(jì)算機(jī)在通用計(jì)算領(lǐng)域計(jì)算性能的持續(xù)提升和海量數(shù)據(jù)的便捷獲取,深度學(xué)習(xí)作為一種特殊的機(jī)器學(xué)習(xí)范式在圖像識(shí)別、語(yǔ)音識(shí)別、機(jī)器翻譯、文本分類等領(lǐng)域獲得巨大成功,憑借從輸入數(shù)據(jù)中判斷“哪些是特征值”,無需人工干預(yù)的能力,其在醫(yī)療診斷、藝術(shù)創(chuàng)作、醫(yī)療診斷、自動(dòng)駕駛等更加復(fù)雜的領(lǐng)域也有突破性的進(jìn)展,并已開始應(yīng)用于實(shí)際工作中。

    2.1 深度神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)是人工神經(jīng)網(wǎng)絡(luò)的擴(kuò)展,人工神經(jīng)網(wǎng)絡(luò)是基于模擬大腦皮層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和功能而提出的計(jì)算模型(見圖2),人工神經(jīng)元細(xì)胞可根據(jù)輸入信號(hào)pi的刺激觸發(fā)輸出a,大量的人工神經(jīng)元細(xì)胞依一定的規(guī)則(即權(quán)重wi)連接在一起形成一個(gè)大規(guī)模并行計(jì)算網(wǎng)絡(luò),即人工神經(jīng)網(wǎng)絡(luò)。

    相較于其他機(jī)器學(xué)習(xí)方法,深度學(xué)習(xí)在模擬人腦神經(jīng)元間的連接、對(duì)外界刺激的感知和傳導(dǎo)的同時(shí),采用讓各層預(yù)先學(xué)習(xí)的方式,建立對(duì)觀察數(shù)據(jù)(或稱訓(xùn)練數(shù)據(jù)、輸入)和標(biāo)簽(或稱輸出)之間的聯(lián)合分布。學(xué)習(xí)從淺層順次開始,上一層學(xué)習(xí)得出的數(shù)據(jù)會(huì)作為下一層的輸入數(shù)據(jù),由淺層的初級(jí)特征逐步學(xué)習(xí)到深層的高級(jí)特征。如在學(xué)習(xí)什么是狗時(shí),第一層是一個(gè)輪廓、下一層是眼、鼻子的形狀,在下一層是臉上的其他細(xì)節(jié)。以此類推,是一個(gè)從全局到局部再到細(xì)節(jié)特征的學(xué)習(xí)過程,每一層都在分段學(xué)習(xí),學(xué)習(xí)過程中的錯(cuò)誤也可以在每一層得到相應(yīng)處理,這使得其具有自我學(xué)習(xí)和解決問題的能力,該模型最早由多倫多大學(xué)的Hitton教授于2006年提出——一種名為深度置信網(wǎng)絡(luò)(Deep Belief Net,DBN)[9],在2012年的ImageNet圖像識(shí)別大賽中以低于第二名10%的錯(cuò)誤率而嶄露頭角[10],之后LeCun、Mikolov等人則提出卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò),對(duì)深度學(xué)習(xí)進(jìn)行優(yōu)化和擴(kuò)展。

    2.2 深度學(xué)習(xí)框架

    為了更好、更方便高效使用機(jī)器學(xué)習(xí)算法,通常需要一定的軟件平臺(tái)支持,如Caffe、Theano、Torch、CNTK、Tensorflow等。

    Tensorflow是谷歌于2015推出的一種供機(jī)器學(xué)習(xí)所使用的利用數(shù)據(jù)流圖進(jìn)行計(jì)算的庫(kù)套件,遵循Apache2.0協(xié)議。相對(duì)于其他幾個(gè)神經(jīng)網(wǎng)計(jì)算框架而言,Tensorflow屬于其中的后起之秀,它支持多種機(jī)器學(xué)習(xí)常用的開發(fā)語(yǔ)言(如C++、Python、Cuda),支持幾乎所有類型的深度學(xué)習(xí)算法的開發(fā)(如 CNN、RNN、LSTM 等),能在多種硬件環(huán)境(CPU、GPU、TPU手機(jī)、云)下很好地利用各自的長(zhǎng)處和特點(diǎn)運(yùn)行,并能夠進(jìn)行網(wǎng)絡(luò)分布式學(xué)習(xí)。由于其具有眾多優(yōu)點(diǎn),如計(jì)算速度快、部署容易、靈活性強(qiáng)、可擴(kuò)展等,有學(xué)者在github上發(fā)布了關(guān)于Caffe,Theano、Torch、CNTK、Tensorflow性能比較的文章,從網(wǎng)絡(luò)模型能力、接口、模型部署、性能,架構(gòu)和跨平臺(tái)方面對(duì)其進(jìn)行比較分析并做相應(yīng)評(píng)分(滿分為5分)[11](見表1),比較可見,Tensorflow無論是單項(xiàng)還是綜合評(píng)分都比較高。

    Google是TensorFlow 的最大用戶和推動(dòng)者,在谷歌的強(qiáng)力推廣下,很多高校、科研機(jī)構(gòu)和第三公司已開始使用Tensorflow,例如谷歌利用該平臺(tái)對(duì)其自動(dòng)翻譯服務(wù)進(jìn)行了系統(tǒng)升級(jí),翻譯質(zhì)量比過去有明顯提升;在谷歌郵件系統(tǒng)中,用sequence-to-sequence[12]模型來自動(dòng)建立文本摘要,并對(duì)郵件語(yǔ)境預(yù)測(cè)可能的回復(fù);對(duì)視網(wǎng)膜影像數(shù)據(jù)進(jìn)行訓(xùn)練,已能成功預(yù)測(cè)影像是否有糖尿病引起的視網(wǎng)膜病變[13];在AutoDraw[14]中開發(fā)“預(yù)測(cè)”功能,可以根據(jù)標(biāo)題和用戶畫出的部分元素推測(cè)并繼續(xù)完成一幅繪畫作品; Google Now則通過適當(dāng)?shù)臄?shù)據(jù)反饋(RNN,反饋神經(jīng)網(wǎng)絡(luò))來理解音頻信號(hào),進(jìn)而實(shí)現(xiàn)語(yǔ)音識(shí)別、語(yǔ)音搜索、語(yǔ)音情感分析等[15]。這些科研應(yīng)用也給深度學(xué)習(xí)在其他行業(yè)中的應(yīng)用提供了參照。

    3 基于卷積神經(jīng)網(wǎng)絡(luò)的《全國(guó)報(bào)刊索引》文獻(xiàn)分類模型

    《全國(guó)報(bào)刊索引》近4年歷史數(shù)據(jù)約為170萬(wàn)條,包含題名、關(guān)鍵詞、分類號(hào)、摘要、作者、出版社、全文等文獻(xiàn)信息。一方面由于文獻(xiàn)題名與內(nèi)容有著較高的符合率[1] ,且題名是一個(gè)有限長(zhǎng)度、結(jié)構(gòu)緊湊、能夠表達(dá)獨(dú)立意思的短句,這使得卷積神經(jīng)網(wǎng)絡(luò)可以用于文獻(xiàn)的分類;另一方面從摘要中提取正確關(guān)鍵詞存在一定困難,所以本文選取題名+關(guān)鍵詞作為網(wǎng)絡(luò)模型訓(xùn)練的訓(xùn)練集,文獻(xiàn)對(duì)應(yīng)的中圖法分類號(hào)作為網(wǎng)絡(luò)模型的輸出。

    3.1 文獻(xiàn)分類系統(tǒng)模型設(shè)計(jì)

    基于深度學(xué)習(xí)的報(bào)刊索引文本分類基本思想是將已分好類的文獻(xiàn)題名和關(guān)鍵詞經(jīng)切詞后構(gòu)成二維詞向量作為神經(jīng)網(wǎng)絡(luò)的輸入,分類號(hào)作為輸出,通過多層神經(jīng)網(wǎng)絡(luò)訓(xùn)練后,對(duì)新的文獻(xiàn)分類進(jìn)行預(yù)測(cè)。本文所用數(shù)據(jù)中,中圖分類法一級(jí)類目38個(gè)、四級(jí)類目9668個(gè),為了降低訓(xùn)練成本,本文模型采用粗、細(xì)分類的分層分類結(jié)構(gòu)(見圖3),先大類分類,隨后在大類分類的基礎(chǔ)上將其進(jìn)行四級(jí)分類;預(yù)測(cè)也是如此。

    分類系統(tǒng)采用模型預(yù)訓(xùn)練和模型預(yù)測(cè)組成。其中,預(yù)訓(xùn)練是通過對(duì)現(xiàn)有文獻(xiàn)分類的結(jié)果搭建深層神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型并進(jìn)行數(shù)據(jù)訓(xùn)練,包括數(shù)據(jù)預(yù)處理和機(jī)器學(xué)習(xí)兩部分;模型預(yù)測(cè)則是對(duì)未知文獻(xiàn)進(jìn)行分類結(jié)果預(yù)測(cè)(見圖4)。

    3.2 數(shù)據(jù)預(yù)處理

    由于神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率對(duì)于受訓(xùn)練數(shù)據(jù)影響較大,故數(shù)據(jù)預(yù)處理是整個(gè)系統(tǒng)的第一步也是最為關(guān)鍵的一步,包含分詞、詞向量轉(zhuǎn)換以及輸出標(biāo)簽的獨(dú)立熱編碼(one-hot code)。endprint

    3.2.1 分詞

    分詞則是將自然語(yǔ)言轉(zhuǎn)換為一組詞語(yǔ)的表達(dá),與英文依空格切詞不同,中文分詞分為句子切分,對(duì)輸入的中文文檔進(jìn)行預(yù)處理,得到單個(gè)中文短句的集合;原子切分,對(duì)輸入的中文短句進(jìn)行原子切分,并根據(jù)所得的原子系列建立初始的切分詞圖;堆砌詞語(yǔ),基于原子系列,從不同視角分別進(jìn)行中文詞語(yǔ)識(shí)別,并將各自的堆砌結(jié)果添加到切分圖;分詞優(yōu)選,基于上一階段的堆砌路徑和各路徑的概率,計(jì)算得出最可能的堆砌路徑,作為最后的分詞結(jié)果,并輸出最終結(jié)果,四個(gè)步驟。本文采取的做法如下:首先對(duì)所有文獻(xiàn)的關(guān)鍵詞做詞頻統(tǒng)計(jì),并構(gòu)建分詞用主題詞表;基于前綴詞典實(shí)現(xiàn)高效的詞圖掃描,結(jié)合主題詞表生成句子中漢字所有可能成詞情況所構(gòu)成的有向無環(huán)圖;其次運(yùn)用動(dòng)態(tài)規(guī)劃算法查找最大概率路徑, 并找出基于詞頻的最大切分組合;對(duì)于未登錄詞,采用隱馬爾可夫模型(Hidden Markov Model,HMM)[24]模型做漢字成詞處理。

    3.2.2 詞向量

    正如前文所提到的,深度學(xué)習(xí)實(shí)質(zhì)是數(shù)值計(jì)算,所以需要詞向量轉(zhuǎn)換將自然語(yǔ)言轉(zhuǎn)換成可計(jì)算的數(shù)學(xué)表達(dá),即將一個(gè)詞轉(zhuǎn)換成一定空間向量下的概率表達(dá)即p=(w(t)│(w(t-n+1),…,w(t-1)),其中w(t)為句子中第t個(gè)詞在文本中的向量表達(dá)。word vector則表示由該文獻(xiàn)題名和關(guān)鍵詞組成的詞向量組(見圖5)。

    其中,label表示文獻(xiàn)所對(duì)應(yīng)的分類號(hào)采用獨(dú)立熱編碼形式,將分類號(hào)映射為N維空間向量(N為總分類個(gè)數(shù)),當(dāng)某一個(gè)維度上的值為1,其它位為0時(shí)表示該表示其所對(duì)應(yīng)的分類號(hào),即label=((1 0 … 0 0));詞向量wv=(wv11 wv12 … wv1j … wv1m)表示該文獻(xiàn)的中一個(gè)詞。

    詞向量分為靜態(tài)(static)和非靜態(tài)(non-static)方式兩種,靜態(tài)方式采用預(yù)訓(xùn)練的詞向量,訓(xùn)練過程不更新詞向量,在數(shù)據(jù)量不大的情況下使用靜態(tài)方式可以得到不錯(cuò)的效果;非靜態(tài)方式則是在訓(xùn)練過程中更新詞向量,訓(xùn)練過程中調(diào)整詞向量,能加速收斂。詞向量訓(xùn)練模型有很多如skip-gram、CBOW[20-22]、C&W[23]模型等,本文采用靜態(tài)方式,使用skip-gram模型,結(jié)合文獻(xiàn)的題名、關(guān)鍵詞和摘要的分詞結(jié)果作為詞向量的訓(xùn)練集,構(gòu)建靜態(tài)詞向量。

    3.3 卷積神經(jīng)網(wǎng)絡(luò)分類模型的分析與設(shè)計(jì)

    通過Yoon kim的研究表明,有限長(zhǎng)度、結(jié)構(gòu)緊湊、能夠表達(dá)獨(dú)立意思的句子可以使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類[18,25,26],在其研究的基礎(chǔ)上,本文提出將文獻(xiàn)的題名、關(guān)鍵詞作為訓(xùn)練集,并搭建多層卷積神經(jīng)網(wǎng)絡(luò)用于文獻(xiàn)分類的訓(xùn)練和預(yù)測(cè)。

    卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)[27]顧名思義,將卷積濾波與神經(jīng)網(wǎng)絡(luò)兩個(gè)思想結(jié)合起來與普通神經(jīng)網(wǎng)絡(luò)的區(qū)別在于,卷積神經(jīng)網(wǎng)絡(luò)包含了一個(gè)由卷積層和子采樣層構(gòu)成的特征抽取器。在卷積神經(jīng)網(wǎng)絡(luò)的卷積層中,一個(gè)神經(jīng)元只與部分鄰層神經(jīng)元連接。在CNN的一個(gè)卷積層中,通常包含若干個(gè)特征平面(feature maps),每個(gè)特征平面由一些矩形排列的的神經(jīng)元組成,同一特征平面的神經(jīng)元共享權(quán)值,這里共享的權(quán)值就是卷積核。卷積核一般以隨機(jī)小數(shù)矩陣的形式初始化,在網(wǎng)絡(luò)的訓(xùn)練過程中卷積核將學(xué)習(xí)得到合理的權(quán)值。共享權(quán)值(卷積核)帶來的直接好處是減少網(wǎng)絡(luò)各層之間的連接,同時(shí)又降低了過擬合的風(fēng)險(xiǎn)。子采樣也叫做池化(pooling),通常有均值子采樣(average pooling)和最大值子采樣(max pooling)兩種形式。子采樣可以看作一種特殊的卷積過程。卷積和子采樣大大簡(jiǎn)化了模型復(fù)雜度,減少了模型的參數(shù)。為此,我們可以得知卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)(見圖6),其由三部分構(gòu)成。第一部分是輸入層;第二部分由n個(gè)卷積層和池化層的組合組成;第三部分由一個(gè)全連結(jié)的多層感知分類器構(gòu)成。

    在作者文獻(xiàn)自動(dòng)分類的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中(見圖7),輸入層為20*20詞向量,隱含層由卷積核為2*20和3個(gè)2*1的卷基層堆疊而成,輸出層為全連接層,結(jié)合softmax激活函數(shù)將提取的文本特征輸出為各個(gè)分類上的概率分布。

    3.4 實(shí)驗(yàn)結(jié)果與分析

    實(shí)驗(yàn)所用數(shù)據(jù)為上海圖書館《全國(guó)報(bào)刊索引》2013-2016(或2014-2017年,作者確定年份)年170萬(wàn)余條題錄將上述模型于TensorFlow平臺(tái)上進(jìn)行訓(xùn)練和調(diào)試,其中訓(xùn)練集為153萬(wàn)條,訓(xùn)練用驗(yàn)證集為17萬(wàn)條。模型訓(xùn)練集的準(zhǔn)確率收斂于67%,訓(xùn)練用驗(yàn)證集的準(zhǔn)確率收斂于69%左右(見圖8、9)。

    在生產(chǎn)環(huán)境中,模型預(yù)測(cè)結(jié)果的正確與否是以人工分類結(jié)果為參照標(biāo)準(zhǔn)。對(duì)未知的7144條待加工數(shù)據(jù)做分級(jí)分類預(yù)測(cè),并與人工分類結(jié)果做比較,測(cè)試后得知,一級(jí)準(zhǔn)確率為75.39%,四級(jí)準(zhǔn)確率為57.61%(見表2)。

    正如前文所提到神經(jīng)網(wǎng)絡(luò)的結(jié)果輸出是為一個(gè)分類上的概率表達(dá),當(dāng)設(shè)輸出閾值(置信度)為0.9時(shí),雖模型一級(jí)正確率為43.98%,一級(jí)錯(cuò)誤率為1.96%,四級(jí)輸出正確率為25.66%,錯(cuò)誤率為5.11%(見表3)。這表明對(duì)于測(cè)試集而言其預(yù)測(cè)結(jié)果在閾值為0.9時(shí)的輸出結(jié)果有著較低的錯(cuò)誤率,即擁有較高的可信度。

    3.4.1 訓(xùn)練集對(duì)準(zhǔn)確率的影響

    受期刊收錄稿件偏好影響,本文所使用的數(shù)據(jù)存在很大的不均衡性(見表4),大量的數(shù)據(jù)集中在D、F、G、R四個(gè)大類上,最少的Z大類只有20個(gè)訓(xùn)練樣本,由于神經(jīng)網(wǎng)絡(luò)的訓(xùn)練集不均衡性[28-31]導(dǎo)致模型預(yù)測(cè)準(zhǔn)確率在一定層度下會(huì)有所下降,通過訓(xùn)練集均衡以獲得最佳結(jié)果;對(duì)于一些極度不均衡的數(shù)據(jù),如T、Z大類,四年內(nèi)總計(jì)數(shù)據(jù)不足100條的類目,無法做樣本均衡,則可將其標(biāo)統(tǒng)一注為“未知”類目,當(dāng)預(yù)為“未知”類目時(shí),直接交由人工處理。

    3.4.2 分詞對(duì)準(zhǔn)確率的影響

    由于中文分詞的特殊性,使得分詞的分準(zhǔn)率受詞表影響較大,如“上海圖書館”一詞,在沒有相應(yīng)的主題詞表時(shí)會(huì)被切割為“上海/圖書館”,使得其在句中的意思是有所改變,影響訓(xùn)練時(shí)的特征提取,進(jìn)而影響預(yù)測(cè)的準(zhǔn)確性。由于并無主題詞表,故對(duì)170萬(wàn)分文獻(xiàn)中出現(xiàn)的關(guān)鍵詞做詞頻統(tǒng)計(jì),為分詞提供主題詞表。經(jīng)不完全測(cè)試,在有無詞表的情況下,準(zhǔn)確率相差約2%。endprint

    3.4.3 驗(yàn)證數(shù)據(jù)對(duì)結(jié)果的影響

    由于驗(yàn)證數(shù)據(jù)采用實(shí)際生產(chǎn)環(huán)境中的數(shù)據(jù)作為測(cè)試集,其數(shù)據(jù)集合并不覆蓋所有的分類項(xiàng)目,且存在數(shù)據(jù)不均衡問題,使得測(cè)試結(jié)果不具有統(tǒng)計(jì)學(xué),但反映了其在實(shí)際生產(chǎn)環(huán)境下的使用情況,證明基于卷積神網(wǎng)絡(luò)的文獻(xiàn)自動(dòng)分類在實(shí)際工作中的可行性。

    4 展望

    谷歌的最新研究成果表明,將計(jì)算機(jī)視覺和語(yǔ)言模型通過CNN與RNN網(wǎng)絡(luò)疊加進(jìn)行合并訓(xùn)練,所得到的系統(tǒng)可以自動(dòng)生成一定長(zhǎng)度的文字文本[19]等。這些研究成果非常適合應(yīng)用于圖書館內(nèi)部業(yè)務(wù)的智能化上,如圖書館藏資源的自動(dòng)分類、自動(dòng)摘要、主題提取、文章聚類、圖片自動(dòng)標(biāo)引、圖像識(shí)別、業(yè)務(wù)預(yù)測(cè)和分析等。

    本文在對(duì)深度學(xué)習(xí)的研究基礎(chǔ)上提出了基于深度學(xué)習(xí)的文獻(xiàn)自動(dòng)分類模型,將文獻(xiàn)分類問題轉(zhuǎn)化為基于神經(jīng)網(wǎng)絡(luò)的自動(dòng)學(xué)習(xí)和預(yù)測(cè)的問題。通過對(duì)《全國(guó)報(bào)刊索引》170萬(wàn)條數(shù)據(jù)的模型訓(xùn)練以及7000多篇待加工的文獻(xiàn)預(yù)測(cè),證明此方法是可行的,且有較高的置信度,分詞、詞表、模型訓(xùn)練完全依賴于歷史數(shù)據(jù)但本文僅細(xì)分至四級(jí)類目,隨著分類的逐步深入,題名與關(guān)鍵詞并不能很好的體現(xiàn)出文獻(xiàn)之間的差異。摘要是體現(xiàn)文獻(xiàn)細(xì)微差別的重要切入點(diǎn),在接下來的研究中,將會(huì)研究如何從摘要中提文獻(xiàn)信息,以提升分類準(zhǔn)確率和細(xì)分程度。

    參考文獻(xiàn):

    [1] 成穎,史九林.自動(dòng)分類研究現(xiàn)狀與展望[J].情報(bào)學(xué)報(bào),1999,18(1):20-26.

    [2] 李湘東,阮濤,劉康.基于維基百科的多種類型文獻(xiàn)自動(dòng)分類研究[J/OL].[2017-10-17].http://kns.cnki.net/kcms/detail/11.2856.G2.20171017.1501.012.html.

    [3] 張野,楊建林.基于KNN和SVM的中文文本自動(dòng)分類研究[J].情報(bào)科學(xué),2011,29(9):1313-1317.

    [4] Wei L,Wei B,Wang B,et al.Text Classification Using Support Vector Machine with Mixture of Kernel[J].Journal of Software Engineering and Applications,2012,5(12):55-58.

    [5] Hebb Donald.The Organization of Behavior a neuropsychological theory[M].New York:John Wiley,1949:100-136.

    [6] Liu M Q.Discrete-time delayed standard neural.Network and its application[J].Sci China,2006,49(2):137-154.

    [7] 王昊,嚴(yán)明,蘇新寧.基于機(jī)器學(xué)習(xí)的中文書目自動(dòng)分類研究[J].中國(guó)圖書館學(xué)報(bào),2010,36(6):28-39.

    [8] 葉鵬.基于機(jī)器學(xué)習(xí)的中文期刊論文自動(dòng)分類研究[D].南京:南京大學(xué),2013.

    [9] Hinton G E,Osindero S,Teh Y W.A fast learning algorithm for deep belief nets[J].Neural computation,2006,18(7):1527-1554.

    [10] Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutional neural networks[C].International Conference on Neural Information Processing Systems.Curran Associates Inc,2012:1097-1105.

    [11] Evaluation of Deep Learning Toolkits[EB/OL].[2017-10-17].https://github.com/zer0n/deepframeworks/blob/master/README.md.

    [12] Ilya Sutskever,Oriol Vinyals,Quoc V.Le.Sequence to sequence learning with neural networks[C].Advances in Neural Information Processing Systems 2014:3104-3112.

    [13] google developers blog[EB/OL].[2017-10-17].https://developers.googleblog.com/2017/02/announcing-tensorflow-10.html.

    [14] Auto Draw[EB/OL].[2017-10-17].https://www.autodraw.com/.

    [15] Alex Graves,Abdel-rahman Mohamed,Geoffrey Hinton. Speech recognition with deep recurrent neural networks[C].International Conference on Acoustics,Speech and Signal Processing,2013:6645-6649.

    [16] Maron M E.On Relevance,Probabilistic Indexing and Information Retrieval[J].Journal of the Acm,1960,7(3):216-244.endprint

    [17] 劉佳賓,陳超,邵正榮,等.基于機(jī)器學(xué)習(xí)的科技文摘關(guān)鍵詞自動(dòng)提取方法[J].計(jì)算機(jī)工程與應(yīng)用,2007(14):170-172.

    [18] Yoon Kim.Convolutional Neural Networks for Sentence Classification[C].Empirical Methods in Natural Language Processing(EMNLP),2014:1746-1751.

    [19] A Picture is Worth Thousand Coherent[EB/OL].[2017-10-17].https://research.googleblog.com/2014/11/a-picture-is-worth-thousand-coherent.html.

    [20] Tomas Mikolov,Kai Chen,Greg Corrado,et al.Efficient Estimation of Word Representations in Vector Space[J].arXiv preprint,2013: arXiv:1301.3781.

    [21] Tomas Mikolov,Ilya Sutskever,Kai Chen,et al.Distributed Representations of Words and Phrases and their Compositionality[C].Advances in Neural Information Processing Systems,2013:3111-3119.

    [22] Yoav Goldberg,Omer Levy.word2vec Explained: deriving Mikolov et al.'s negative-sampling word-embedding method[J].arXiv preprint,2014:arXiv:1402.3722.

    [23] Collobert R,Weston J.A unified architecture for natural language processing:deep neural networks with multitask learning[C].International Conference.DBLP,2008:160-167.

    [24] Kevin P.Murphy,Mark A.Paskin.Linear Time Inference in Hierarchical HMMs[C].Proceedings of Neural Information Processing Systems,2001:833-840.

    [25] Nal Kalchbrenner,Edward Grefenstette,Phil Blunsom.A convolutional neural network for modelling sentences[J].arXiv preprint.2014: arXiv:1404.2188.

    [26] Ying Wen,Weinan Zhang,Rui Luo,et al.Learning text representation using recurrent convolutional neural network with highway layers[J].arXiv preprint,2016: arXiv:1606.06905.

    [27] LeCun,Yann.LeNet-5,convolutional neural networks[EB/OL].[2017-10-17].http://yann.lecun.com/exdb/lenet/.

    [28] Paulina Hensman,David Masko.The impact of imbalanced training data for convolutional neural networks[EB/OL].[2017-10-17].https://www.kth.se/social/files/588617ebf2765401cfcc478c/PHensmanDMasko_dkand15.pdf.

    [29] Palodeto V,Terenzi H,Marques J L B.Training neural networks for protein secondary structure prediction: the effects of imbalanced data set[C].Intelligent Computing,International Conference on Emerging Intelligent Computing Technology and Applications.Springer-Verlag,2009:258-265.

    [30] Chandonia J M,Karplus M.The importance of larger data sets for protein secondary structure prediction with neural networks.[J].Protein Science,2010,5(4):768-774.

    [31] Pulgar F J,Rivera A J,Charte F,et al.On the Impact of Imbalanced Data in?Convolutional Neural Networks Performance[C].International Conference on Hybrid Artificial Intelligence Systems.Springer,Cham,2017:220-232.

    作者簡(jiǎn)介:郭利敏,男,上海圖書館系統(tǒng)網(wǎng)絡(luò)部工程師。endprint

    猜你喜歡
    卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)人工智能
    2019:人工智能
    商界(2019年12期)2019-01-03 06:59:05
    人工智能與就業(yè)
    數(shù)讀人工智能
    小康(2017年16期)2017-06-07 09:00:59
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    下一幕,人工智能!
    基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
    一级毛片久久久久久久久女| 12—13女人毛片做爰片一| 日本黄色视频三级网站网址| 亚洲专区国产一区二区| 欧美区成人在线视频| 欧美日韩综合久久久久久| 国产白丝娇喘喷水9色精品| 亚洲最大成人中文| 村上凉子中文字幕在线| 国产精品无大码| 深夜a级毛片| 精品久久久久久久久亚洲| av国产免费在线观看| 一a级毛片在线观看| 少妇丰满av| 成人国产麻豆网| 丰满的人妻完整版| 国产精品免费一区二区三区在线| 国产蜜桃级精品一区二区三区| www.色视频.com| 久久久久久久久久黄片| 日韩三级伦理在线观看| 哪里可以看免费的av片| 国产精品日韩av在线免费观看| 亚洲熟妇熟女久久| 综合色av麻豆| 观看美女的网站| 亚洲国产精品成人综合色| 最后的刺客免费高清国语| 精品一区二区三区视频在线| 国产黄色视频一区二区在线观看 | 少妇高潮的动态图| 免费av不卡在线播放| av.在线天堂| 欧美一区二区精品小视频在线| 两个人的视频大全免费| 国产精品久久久久久亚洲av鲁大| 村上凉子中文字幕在线| 精品国产三级普通话版| 色吧在线观看| 哪里可以看免费的av片| 久久久精品欧美日韩精品| 日韩成人av中文字幕在线观看 | 亚洲国产日韩欧美精品在线观看| 欧美日韩国产亚洲二区| 久久精品国产亚洲av涩爱 | 亚洲中文字幕一区二区三区有码在线看| 日本-黄色视频高清免费观看| 国内少妇人妻偷人精品xxx网站| 亚洲乱码一区二区免费版| 国产不卡一卡二| 国产精品免费一区二区三区在线| 色哟哟·www| 亚洲av一区综合| 久久午夜福利片| 麻豆国产av国片精品| 99热这里只有是精品在线观看| 国产91av在线免费观看| 男女那种视频在线观看| 波多野结衣巨乳人妻| 两性午夜刺激爽爽歪歪视频在线观看| 国产精品一区二区三区四区免费观看 | 国产成人一区二区在线| 看十八女毛片水多多多| 亚洲国产高清在线一区二区三| 欧美一区二区精品小视频在线| 精品人妻视频免费看| 国产精品久久久久久精品电影| 亚洲内射少妇av| 天美传媒精品一区二区| 18禁在线无遮挡免费观看视频 | 日韩,欧美,国产一区二区三区 | 麻豆精品久久久久久蜜桃| 精品久久久久久成人av| 精品久久久久久久久久免费视频| 美女被艹到高潮喷水动态| 欧美激情国产日韩精品一区| 成人亚洲欧美一区二区av| 1000部很黄的大片| 午夜福利18| www.色视频.com| 久久久精品94久久精品| а√天堂www在线а√下载| 最后的刺客免费高清国语| 午夜激情福利司机影院| 99久国产av精品| 丝袜喷水一区| 亚洲精华国产精华液的使用体验 | 精品不卡国产一区二区三区| 日韩人妻高清精品专区| 一a级毛片在线观看| 国产男人的电影天堂91| 黄色视频,在线免费观看| 听说在线观看完整版免费高清| 夜夜爽天天搞| 人妻少妇偷人精品九色| 午夜精品国产一区二区电影 | 激情 狠狠 欧美| 亚洲av熟女| 99在线视频只有这里精品首页| 最新在线观看一区二区三区| 国产 一区 欧美 日韩| 在线国产一区二区在线| 免费无遮挡裸体视频| 99久久久亚洲精品蜜臀av| 国产真实乱freesex| 99久国产av精品| 午夜精品一区二区三区免费看| 欧美日韩国产亚洲二区| 你懂的网址亚洲精品在线观看 | 成年av动漫网址| 国产精品野战在线观看| 伊人久久精品亚洲午夜| 免费观看在线日韩| 国产真实伦视频高清在线观看| 国产精品国产三级国产av玫瑰| 亚洲最大成人av| 日韩欧美精品免费久久| 成人性生交大片免费视频hd| 如何舔出高潮| 99热精品在线国产| 亚洲色图av天堂| 国产乱人视频| 国产蜜桃级精品一区二区三区| 久久久久久大精品| 插阴视频在线观看视频| 亚洲成a人片在线一区二区| 中文字幕人妻熟人妻熟丝袜美| 91在线观看av| 免费观看在线日韩| 美女大奶头视频| 亚洲国产欧洲综合997久久,| 校园人妻丝袜中文字幕| 99在线视频只有这里精品首页| 亚洲av不卡在线观看| 99精品在免费线老司机午夜| 黄色配什么色好看| 国内少妇人妻偷人精品xxx网站| 久久婷婷人人爽人人干人人爱| 97在线视频观看| 亚洲va在线va天堂va国产| 成人二区视频| 国产探花在线观看一区二区| 亚洲av五月六月丁香网| av在线观看视频网站免费| 亚洲一级一片aⅴ在线观看| 我要搜黄色片| 成人av在线播放网站| 又爽又黄a免费视频| 成人永久免费在线观看视频| 色哟哟哟哟哟哟| 午夜a级毛片| 综合色av麻豆| 久久午夜亚洲精品久久| 国产精品久久久久久久久免| 成人欧美大片| 国产熟女欧美一区二区| 美女免费视频网站| 亚洲国产欧美人成| 亚洲精品国产av成人精品 | 黄片wwwwww| 国国产精品蜜臀av免费| 99riav亚洲国产免费| 免费看日本二区| 国产激情偷乱视频一区二区| 成人亚洲欧美一区二区av| 日韩欧美精品v在线| a级毛片免费高清观看在线播放| 97热精品久久久久久| 蜜桃亚洲精品一区二区三区| 99久久精品一区二区三区| 熟女电影av网| 少妇丰满av| 观看美女的网站| 亚洲国产色片| 日韩欧美国产在线观看| 国产精品国产高清国产av| 亚洲av中文av极速乱| 精品午夜福利在线看| 中国美女看黄片| 免费看日本二区| 亚洲欧美成人精品一区二区| 国产女主播在线喷水免费视频网站 | 亚洲精品日韩在线中文字幕 | a级毛片a级免费在线| 99久久精品国产国产毛片| 欧洲精品卡2卡3卡4卡5卡区| 国产亚洲精品av在线| 22中文网久久字幕| 在线免费观看的www视频| 色播亚洲综合网| 日本黄色片子视频| 国产在线男女| 亚洲中文字幕一区二区三区有码在线看| 久久久成人免费电影| 岛国在线免费视频观看| 免费在线观看成人毛片| 国产探花在线观看一区二区| 高清午夜精品一区二区三区 | 久久久久久伊人网av| 成人午夜高清在线视频| 色视频www国产| 久久久久久久久中文| 一区二区三区高清视频在线| 色吧在线观看| videossex国产| 精品99又大又爽又粗少妇毛片| 搞女人的毛片| 国产av在哪里看| 国产一区二区亚洲精品在线观看| 男人的好看免费观看在线视频| 国产精品永久免费网站| 亚洲国产精品合色在线| 国产真实伦视频高清在线观看| 中文字幕熟女人妻在线| 亚洲欧美中文字幕日韩二区| 国产色爽女视频免费观看| 国产视频一区二区在线看| 小说图片视频综合网站| 嫩草影视91久久| 国产一区二区亚洲精品在线观看| 在线免费十八禁| 联通29元200g的流量卡| 亚洲一区二区三区色噜噜| 国产精品人妻久久久影院| 国产精华一区二区三区| 国产aⅴ精品一区二区三区波| 国产老妇女一区| 色综合亚洲欧美另类图片| 嫩草影院入口| 高清毛片免费看| 看十八女毛片水多多多| 久久精品夜夜夜夜夜久久蜜豆| 岛国在线免费视频观看| 女的被弄到高潮叫床怎么办| 国产免费男女视频| 自拍偷自拍亚洲精品老妇| 成人漫画全彩无遮挡| 一级黄片播放器| 成人精品一区二区免费| 久久久久久九九精品二区国产| 亚洲内射少妇av| 熟女人妻精品中文字幕| 亚洲欧美日韩高清在线视频| 免费观看在线日韩| 深夜精品福利| 亚洲av免费高清在线观看| 日本一本二区三区精品| 中文亚洲av片在线观看爽| 国产精品,欧美在线| 日本一二三区视频观看| 日本一本二区三区精品| 身体一侧抽搐| 国产欧美日韩精品亚洲av| 1024手机看黄色片| 日日摸夜夜添夜夜添小说| 天天躁夜夜躁狠狠久久av| 欧美性猛交黑人性爽| 午夜激情欧美在线| 人人妻人人看人人澡| av天堂在线播放| 日韩欧美免费精品| 精品午夜福利视频在线观看一区| 日韩精品中文字幕看吧| 国产蜜桃级精品一区二区三区| 一级毛片我不卡| 中文字幕人妻熟人妻熟丝袜美| 精品一区二区三区视频在线观看免费| 国产精品久久久久久精品电影| 男人的好看免费观看在线视频| 精品一区二区三区av网在线观看| 亚洲第一区二区三区不卡| 99在线人妻在线中文字幕| 熟女人妻精品中文字幕| 免费av观看视频| 欧美日韩在线观看h| 最近中文字幕高清免费大全6| 欧洲精品卡2卡3卡4卡5卡区| 在线a可以看的网站| 国产精品国产三级国产av玫瑰| 欧美色视频一区免费| 麻豆一二三区av精品| 国产三级中文精品| 美女xxoo啪啪120秒动态图| 91精品国产九色| 精品福利观看| 一进一出好大好爽视频| 男人的好看免费观看在线视频| 啦啦啦观看免费观看视频高清| 日韩人妻高清精品专区| 美女xxoo啪啪120秒动态图| 99久国产av精品| 在线a可以看的网站| 国产精品一区二区三区四区久久| 简卡轻食公司| 赤兔流量卡办理| 国产一区二区三区av在线 | 亚洲精品国产av成人精品 | 国产黄a三级三级三级人| 美女 人体艺术 gogo| 不卡视频在线观看欧美| 久久精品久久久久久噜噜老黄 | 欧美又色又爽又黄视频| 深爱激情五月婷婷| 成年av动漫网址| 三级男女做爰猛烈吃奶摸视频| 精品午夜福利在线看| 久久精品夜色国产| 国产精品亚洲美女久久久| 久久亚洲精品不卡| 春色校园在线视频观看| 美女被艹到高潮喷水动态| 国产三级在线视频| 欧美zozozo另类| 久久人妻av系列| 22中文网久久字幕| 日韩欧美免费精品| 色尼玛亚洲综合影院| 国产免费一级a男人的天堂| 狂野欧美激情性xxxx在线观看| 欧美成人免费av一区二区三区| 国产视频一区二区在线看| 麻豆国产97在线/欧美| 欧美色欧美亚洲另类二区| 国产毛片a区久久久久| 久久中文看片网| 欧美xxxx性猛交bbbb| 日韩,欧美,国产一区二区三区 | 亚洲国产日韩欧美精品在线观看| 精品久久久久久久久亚洲| 久久久久九九精品影院| 国产精品电影一区二区三区| 人人妻,人人澡人人爽秒播| 日韩av在线大香蕉| 亚洲三级黄色毛片| av中文乱码字幕在线| 亚洲欧美日韩卡通动漫| 真实男女啪啪啪动态图| 久久精品人妻少妇| 校园人妻丝袜中文字幕| 天堂影院成人在线观看| 22中文网久久字幕| 69人妻影院| 丝袜喷水一区| 国产男靠女视频免费网站| 国产成人a∨麻豆精品| 99热精品在线国产| 深夜a级毛片| 春色校园在线视频观看| 午夜日韩欧美国产| 午夜a级毛片| 简卡轻食公司| 亚洲最大成人中文| 亚洲18禁久久av| av专区在线播放| 美女大奶头视频| 午夜福利视频1000在线观看| 日韩欧美在线乱码| 久久精品国产亚洲av香蕉五月| 久久久国产成人免费| 国产伦一二天堂av在线观看| 婷婷六月久久综合丁香| av女优亚洲男人天堂| 日韩,欧美,国产一区二区三区 | 欧美绝顶高潮抽搐喷水| 精品乱码久久久久久99久播| 免费在线观看成人毛片| 三级男女做爰猛烈吃奶摸视频| 综合色av麻豆| 国产在视频线在精品| av天堂在线播放| 99riav亚洲国产免费| 久久亚洲国产成人精品v| 国产成人91sexporn| 少妇熟女欧美另类| h日本视频在线播放| 床上黄色一级片| 色av中文字幕| 人妻夜夜爽99麻豆av| 亚洲av熟女| 99精品在免费线老司机午夜| 色噜噜av男人的天堂激情| 精品人妻熟女av久视频| 亚洲av二区三区四区| 国产精品日韩av在线免费观看| 亚洲美女搞黄在线观看 | 在现免费观看毛片| 日韩国内少妇激情av| 日本精品一区二区三区蜜桃| 欧美丝袜亚洲另类| 欧美最新免费一区二区三区| 久久久久久大精品| 又爽又黄a免费视频| 最好的美女福利视频网| 美女cb高潮喷水在线观看| 内射极品少妇av片p| 精品午夜福利在线看| 精品日产1卡2卡| 22中文网久久字幕| 中国美女看黄片| 亚洲性久久影院| 亚洲一级一片aⅴ在线观看| 夜夜夜夜夜久久久久| 熟女电影av网| 在线观看美女被高潮喷水网站| 精品一区二区三区av网在线观看| 少妇人妻一区二区三区视频| 午夜精品在线福利| 大香蕉久久网| 综合色av麻豆| 真实男女啪啪啪动态图| 97人妻精品一区二区三区麻豆| 久久久国产成人免费| 亚洲av二区三区四区| 我要看日韩黄色一级片| 精品久久久久久久久久免费视频| 久久国产乱子免费精品| 在线免费十八禁| 一级黄色大片毛片| 日本免费a在线| 99热精品在线国产| 99久久精品热视频| 国产精品一二三区在线看| 成年女人看的毛片在线观看| 狠狠狠狠99中文字幕| 成人精品一区二区免费| 精品乱码久久久久久99久播| 人妻久久中文字幕网| 波多野结衣高清无吗| 午夜精品在线福利| h日本视频在线播放| 日韩欧美免费精品| 免费一级毛片在线播放高清视频| 日韩欧美一区二区三区在线观看| 免费在线观看成人毛片| av在线蜜桃| 最后的刺客免费高清国语| 久久久久国产网址| 激情 狠狠 欧美| 99热精品在线国产| 亚洲av.av天堂| 欧美极品一区二区三区四区| 国产精品久久久久久亚洲av鲁大| 国内精品宾馆在线| 亚洲精品一卡2卡三卡4卡5卡| 国产精品女同一区二区软件| 一级毛片aaaaaa免费看小| 亚洲av.av天堂| 一卡2卡三卡四卡精品乱码亚洲| av天堂在线播放| 99在线视频只有这里精品首页| 在线a可以看的网站| 日本a在线网址| 在线国产一区二区在线| 国产男人的电影天堂91| 国产在视频线在精品| 3wmmmm亚洲av在线观看| 久久久久性生活片| 国产高潮美女av| 亚洲精品久久国产高清桃花| 精品少妇黑人巨大在线播放 | 三级经典国产精品| 俄罗斯特黄特色一大片| 99久久精品一区二区三区| 精品国产三级普通话版| 简卡轻食公司| 人人妻人人澡人人爽人人夜夜 | 亚洲自偷自拍三级| 99久久成人亚洲精品观看| 看非洲黑人一级黄片| 国产亚洲欧美98| 日本免费一区二区三区高清不卡| 毛片女人毛片| 黄色日韩在线| 99九九线精品视频在线观看视频| 国产av麻豆久久久久久久| 五月玫瑰六月丁香| 久久久a久久爽久久v久久| 搡女人真爽免费视频火全软件 | 免费av不卡在线播放| 欧美在线一区亚洲| 搡老熟女国产l中国老女人| 国产一区二区亚洲精品在线观看| 精品一区二区三区av网在线观看| 国产精品久久久久久精品电影| 成熟少妇高潮喷水视频| 最好的美女福利视频网| 热99re8久久精品国产| 精品一区二区三区人妻视频| 久久九九热精品免费| 日本成人三级电影网站| av卡一久久| 亚洲av五月六月丁香网| 精品免费久久久久久久清纯| 国产午夜精品论理片| 中国国产av一级| 国产av麻豆久久久久久久| 久久精品影院6| 久久久a久久爽久久v久久| 国产成人91sexporn| 麻豆乱淫一区二区| ponron亚洲| 好男人在线观看高清免费视频| 在线天堂最新版资源| 性色avwww在线观看| 在线观看66精品国产| 亚洲五月天丁香| 国产精品国产高清国产av| 天美传媒精品一区二区| 色5月婷婷丁香| 舔av片在线| 日韩欧美在线乱码| a级毛片a级免费在线| 午夜免费男女啪啪视频观看 | 老女人水多毛片| av免费在线看不卡| 国产aⅴ精品一区二区三区波| av免费在线看不卡| 国产大屁股一区二区在线视频| 日日撸夜夜添| 国产综合懂色| 久久久久久久久久黄片| 国产在线精品亚洲第一网站| 精华霜和精华液先用哪个| 免费看av在线观看网站| 少妇人妻一区二区三区视频| 99久国产av精品| 国产一区二区在线观看日韩| 欧美另类亚洲清纯唯美| 最新中文字幕久久久久| 亚洲不卡免费看| 丰满的人妻完整版| 亚洲天堂国产精品一区在线| 99久久中文字幕三级久久日本| 国产又黄又爽又无遮挡在线| 国产精品久久久久久精品电影| 国产乱人偷精品视频| 国产私拍福利视频在线观看| 久久久a久久爽久久v久久| 亚洲18禁久久av| 成人一区二区视频在线观看| 色哟哟·www| 国产在线男女| 97在线视频观看| 亚洲欧美成人精品一区二区| 在线观看美女被高潮喷水网站| 日韩国内少妇激情av| 成人午夜高清在线视频| 99久久九九国产精品国产免费| 亚洲五月天丁香| 在线天堂最新版资源| 一本一本综合久久| 国产精品综合久久久久久久免费| 亚洲av免费高清在线观看| 国产精品综合久久久久久久免费| 三级毛片av免费| 蜜臀久久99精品久久宅男| 欧美3d第一页| 亚洲精品日韩av片在线观看| 中文字幕免费在线视频6| 热99在线观看视频| 国产aⅴ精品一区二区三区波| 亚洲18禁久久av| 国产伦精品一区二区三区四那| 日韩强制内射视频| 国产伦一二天堂av在线观看| av视频在线观看入口| 一级黄色大片毛片| 国内精品宾馆在线| 中文字幕av成人在线电影| 色视频www国产| 国产一区二区在线观看日韩| 色尼玛亚洲综合影院| 亚洲av美国av| 精品国内亚洲2022精品成人| 狂野欧美激情性xxxx在线观看| 国产伦一二天堂av在线观看| 日韩av在线大香蕉| 国产精品久久久久久久电影| 在线免费十八禁| 2021天堂中文幕一二区在线观| 91精品国产九色| 99热网站在线观看| 国内精品久久久久精免费| 亚洲熟妇熟女久久| 91在线观看av| 免费人成视频x8x8入口观看| 欧美日韩综合久久久久久| 99久国产av精品国产电影| 在线观看av片永久免费下载| 色视频www国产| 精品国产三级普通话版| 国产精品一区二区免费欧美| 有码 亚洲区| 国产精品亚洲美女久久久| 99久久无色码亚洲精品果冻| 成年女人看的毛片在线观看| 三级毛片av免费| 日韩中字成人| 乱码一卡2卡4卡精品| 有码 亚洲区| 熟妇人妻久久中文字幕3abv| 欧美成人a在线观看| 欧美三级亚洲精品| 秋霞在线观看毛片| 欧美日本亚洲视频在线播放| 久久精品国产亚洲av天美| 天堂动漫精品| 91狼人影院| 欧美成人a在线观看| 1000部很黄的大片| 色视频www国产| 国产伦精品一区二区三区视频9| av在线老鸭窝| 亚洲无线在线观看|