• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的南海證據(jù)性數(shù)據(jù)抽取算法比較與應(yīng)用

    2022-02-11 08:24:49彭玉芳陳將浩何志強(qiáng)
    現(xiàn)代情報(bào) 2022年2期
    關(guān)鍵詞:貝葉斯南海證據(jù)

    彭玉芳 陳將浩 何志強(qiáng)

    摘 要:[目的/意義]本文嘗試從文獻(xiàn)載體到文獻(xiàn)內(nèi)容(全文檢索)再到數(shù)據(jù)層面的細(xì)粒度的南海證據(jù)性數(shù)據(jù)抽取。首先,能提高南海文獻(xiàn)數(shù)字資源的檢索性能;其次,為專業(yè)人員提供充足的證據(jù)材料;最后,為南海維權(quán)的證據(jù)鏈關(guān)聯(lián)模型構(gòu)建做好基礎(chǔ)。[方法/過程]根據(jù)南海維權(quán)證據(jù)的特點(diǎn),制定抽取規(guī)則。通過文本清洗、文本分段、段分句、分詞把非結(jié)構(gòu)化的數(shù)據(jù)轉(zhuǎn)化成結(jié)構(gòu)化數(shù)據(jù)。然后分別比較樸素貝葉斯、SVM、隨機(jī)森林、DNN、TexCNN、Bi-LSTM、LightGBM和XGBoost的證據(jù)性數(shù)據(jù)抽取效果。最后為了進(jìn)一步提高證據(jù)抽取的準(zhǔn)確性,增加了“5W”規(guī)則過濾和人工校驗(yàn)。[結(jié)果/結(jié)論]實(shí)驗(yàn)結(jié)果表明,基于TensorFlow深度學(xué)習(xí)框架,構(gòu)建DNN模型的證據(jù)性數(shù)據(jù)抽取效果較好,準(zhǔn)確率達(dá)0.88。通過進(jìn)一步融合“5W”規(guī)則過濾和人工校驗(yàn),顯著地提高了南海證據(jù)性數(shù)據(jù)抽取的準(zhǔn)確率,本文的證據(jù)抽取的方法具有一定的可行性。

    關(guān)鍵詞:證據(jù)性數(shù)據(jù)抽取;TensorFlow;機(jī)器學(xué)習(xí)算法;深度學(xué)習(xí)算法;“5W”規(guī)則

    DOI:10.3969/j.issn.1008-0821.2022.02.006

    〔中圖分類號(hào)〕G255 〔文獻(xiàn)標(biāo)識(shí)碼〕A 〔文章編號(hào)〕1008-0821(2022)02-0055-15

    Comparison and Application of South China Sea Evidence Data Extraction

    Algorithms Based on the Machine Learning and the Deep Learning

    Peng Yufang1,2 Chen Jianghao3 He Zhiqiang4

    (1.School of Economics & Management,Nanjing Institute of Technology,Nanjing 211167,China;

    2.Department of Information Management,Nanjing University,Nanjing 210046,China;

    3.School of Mathematical Sciences,University of Science and Technology of China,Hefei 230026,China;

    4.Suzhou Research Institute,University of Science and Technology of China,Suzhou 215123,China)

    Abstract:[Purpose/Significance]The study attempts to extract the fine-grained evidence data of the South China Sea from the document carrier to the document content(full-text search)to the data level.Firstly,it can improve the retrieval performance of the digital resources of the South China Sea literature;secondly,it provides sufficient evidence materials for professionals;and finally,it provides a foundation for the construction of the evidence chain association model of the South China Sea rights protection.[Method/Process]According to the characteristics of the South China Sea rights protection evidence,the extraction rules were formulated.Unstructured data were transformed into structured data through text cleaning,text segmentation,paragraph segmentation,and word segmentation.Then the evidence data extraction effects of Naive Bayes,SVM,Random Forest,DNN,TextCNN,Bi-LSTM,LightGBM and XGBoost were compared respectively.Finally,in order to further improve the accuracy of evidence extraction,“5W”rule filtering and manual verification were added.[Result/Conclusion]The experimental results showed that based on the TensorFlow deep learning framework,the evidence data extraction effect of the DNN model was better,and the accuracy rate was 0.88.Through further integration of“5W”rule filtering and manual verification,the accuracy of evidence extraction was significantly improved.The method of evidence extraction from? the South China Sea literature in this article has certain feasibility.

    Key words:evidence data extraction;TensorFlow;machine learning algorithm;deep learning algorithm;“5W”rule

    自西漢時(shí)期,中國人就已經(jīng)發(fā)現(xiàn)了今天的南沙群島。時(shí)至今日,沒有一個(gè)國家在南海留下如此多的中國文化烙印,也沒有哪一國政府像中國那樣雖歷經(jīng)改朝換代,卻始終如一地在官史記載中留下大量主權(quán)行使的記錄。隨著近幾年南海問題國際化和司法化愈演愈烈,為了爭取更多的國際話語權(quán),維護(hù)中國在南海的海洋權(quán)益和領(lǐng)土主權(quán)完整,首先需要從大量的證據(jù)材料中抽取證據(jù),為證據(jù)鏈的構(gòu)建做好充分的準(zhǔn)備。南海證據(jù),指所有能夠證明南海領(lǐng)土主權(quán)歸屬事實(shí)的材料。南海證據(jù)需同時(shí)包含時(shí)間、地點(diǎn)、人物、機(jī)構(gòu)和事件,除了證據(jù)本身以外,還包含一些比較重要的證據(jù)描述。

    越來越多的學(xué)者開始投身南海證據(jù)的研究,但目前無論從南海文庫數(shù)字資源中還是從實(shí)體證據(jù)材料中尋找南海證據(jù),大多局限于證據(jù)材料的載體形式,難以直接深入證據(jù)材料的內(nèi)容或數(shù)據(jù)層面,因而孤證較多,難以構(gòu)成反映歷史全貌的證據(jù)體系。關(guān)于證據(jù)抽取方法,陶鵬通過命名實(shí)體識(shí)別和神經(jīng)網(wǎng)絡(luò)模型對(duì)司法領(lǐng)域的庭審記錄文書進(jìn)行證據(jù)信息抽取[1],張力元等通過LS-SVM對(duì)生物證據(jù)句子抽取[2],丁志遠(yuǎn)提出了基于混合模型和邊界的判決文書與案件卷宗的證據(jù)抽取方法[3],而領(lǐng)域性的南海證據(jù)抽取的研究方法甚少,目前主要依靠人工實(shí)現(xiàn)。例如,20世紀(jì)70年代起,我國學(xué)者就開始從歷史和法律結(jié)合的角度提供了無可辯駁的證據(jù)。從1979年,林金枝教授開始從史料角度論述南海領(lǐng)土主權(quán)歸屬[4],到2011年余敏友等,結(jié)合國際法來論述南海領(lǐng)土主權(quán)歸屬[5],尤其是2015年至今,國內(nèi)有學(xué)者從法理依據(jù)和歷史依據(jù)相結(jié)合來論述南海領(lǐng)土主權(quán)的歸屬[6],張衛(wèi)彬教授對(duì)南沙群島主權(quán)證據(jù)的梳理[7]和黃巖島主權(quán)的證據(jù)梳理[8],許盤清等教授亦從地圖視角詳細(xì)論述南海主權(quán)的證據(jù)[9]。

    綜上所述,目前基于歷史依據(jù)和法律依據(jù),從文獻(xiàn)載體到文獻(xiàn)內(nèi)容(全文檢索)再到數(shù)據(jù)層面的細(xì)粒度的南海證據(jù)抽取還處于空白。本文通過選擇常用的機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)算法,構(gòu)建南海證據(jù)性數(shù)據(jù)抽取模型,并分別比較證據(jù)性數(shù)據(jù)抽取的效果。最后融合“5W”規(guī)則過濾和人工校驗(yàn)進(jìn)一步提高證據(jù)抽取的準(zhǔn)確率。但這里需要注意:通過機(jī)器學(xué)習(xí)或深度學(xué)習(xí)抽取的數(shù)據(jù),不能完全稱為證據(jù),只能叫證據(jù)性數(shù)據(jù)。證據(jù)性數(shù)據(jù)有的是證據(jù),有的不屬于證據(jù),只有通過證據(jù)價(jià)值判斷和人工甄別才可能稱為證據(jù)。本文不做從證據(jù)學(xué)視角的證據(jù)研究,即不做證據(jù)價(jià)值判斷。由于抽取出來的證據(jù)性數(shù)據(jù)有一部分是屬于一手資料的證據(jù),還有一部分屬于二手資料的證據(jù)性描述(帶有作者觀點(diǎn)的證據(jù)性數(shù)據(jù))是有一定價(jià)值,可以作為證明案件的線索,所以沒有刪除,為了統(tǒng)一名詞,將這兩種證據(jù)性數(shù)據(jù)都統(tǒng)一命名為證據(jù)(后期將展開證據(jù)研究)。

    1 相關(guān)研究

    本文南海證據(jù)抽取,屬于細(xì)粒度的信息抽取。信息抽取指從自然語言文本中抽取指定類型的實(shí)體、關(guān)系、事件等事實(shí)信息,并形成結(jié)構(gòu)化數(shù)據(jù)輸出的文本處理技術(shù)[10]。目前信息抽取依然是自然語言處理的研究熱點(diǎn)和重點(diǎn)。

    國內(nèi)外信息抽取研究現(xiàn)狀。本文從CNKI數(shù)據(jù)庫,通過主題精確檢索“信息抽取”,采集2011—2021年的國內(nèi)信息抽取研究數(shù)據(jù),最終獲得有效數(shù)據(jù)2 968條。通過jieba[11]對(duì)摘要數(shù)據(jù)部分進(jìn)行分詞,然后應(yīng)用LDA主題模型[12]分析國內(nèi)信息抽取的研究主題。從Web of Science核心合集,主題檢索“Information Extraction”,時(shí)間跨度:2011—2021,文獻(xiàn)類型:ARTICLE,發(fā)現(xiàn)有88 246條,數(shù)據(jù)量比較大,此時(shí)修改檢索策略。從Web of Science核心合集,標(biāo)題檢索“Information Extraction”,時(shí)間跨度:2011—2021,最終獲得有效數(shù)據(jù)1 959條。通過Nltk[13]對(duì)摘要數(shù)據(jù)部分進(jìn)行分詞,同樣應(yīng)用LDA主題模型分析國外信息抽取的研究主題。

    通過LDA模型,比較分析國內(nèi)外信息抽取的研究主題,具體如表1所示。由此可見,目前國內(nèi)外信息抽取主要集中在信息技術(shù)及命名實(shí)體識(shí)別中,而且領(lǐng)域性的信息抽取也逐漸增多,例如醫(yī)療領(lǐng)域、圖像等的信息抽取。

    為了更直觀地看到國內(nèi)外信息抽取的研究主題,通過Python生成詞云圖[14],具體如圖1和圖2所示。

    綜上所述,目前國內(nèi)外信息抽取的研究主要集中在信息抽取技術(shù)、命名實(shí)體識(shí)別以及領(lǐng)域性的應(yīng)用研究。①信息抽取技術(shù)。信息抽取的主要任務(wù)包括命名實(shí)體識(shí)別、實(shí)體消歧、關(guān)系抽取、事件抽取等,但無論哪種任務(wù)信息抽取的方法都大同小異。李嘉欣等[15]的命名實(shí)體識(shí)別方法綜述。信息抽取的方法主要可分為以下幾種:基于詞典和規(guī)則的方法;基于統(tǒng)計(jì)機(jī)器學(xué)習(xí)的方法,例如隱馬爾可夫模型(HMM)、最大熵、支持向量機(jī)(SVM)、條件隨機(jī)場(CRF)、貝葉斯方法、決策樹、隨機(jī)森林等;基于深度學(xué)習(xí)的方法:循環(huán)神經(jīng)網(wǎng)絡(luò)(LSTM)、用雙向長短期記憶模型和條件隨機(jī)場(BILSTM-CRF)、BILSTM-CNNs-CRF、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、遞歸神經(jīng)網(wǎng)絡(luò)(RNN)、BERT、GRU、ELMo、GPT等,每種算法都有其優(yōu)缺點(diǎn),沒有最好的算法,只有最適合的算法;②信息抽取的領(lǐng)域性應(yīng)用,主要集中在醫(yī)療健康領(lǐng)域、圖像的信息抽取。證據(jù)抽取屬于信息抽取的一部分,但目前證據(jù)抽取的研究甚少。例如,陶鵬基于聯(lián)合模型的庭審記錄證據(jù)信息抽取[16];張力元等應(yīng)用LS-SVM與條件隨機(jī)場結(jié)合的生物證據(jù)句子抽取[17];歐陽輝等基于證據(jù)理論的論文元數(shù)據(jù)抽取[18];楊健等基于邊界識(shí)別與組合的裁判文書證據(jù)抽取方法研究[19];Kamarainen J K等基于簡單的Gabor特征及其統(tǒng)計(jì)排名的對(duì)象證據(jù)抽取[20];Nishida K等通過多跳問答的多任務(wù)學(xué)習(xí)的證據(jù)抽取[21]等,以上已經(jīng)初步實(shí)現(xiàn)自動(dòng)化或半自動(dòng)化的證據(jù)抽取。關(guān)于南海證據(jù)抽取,現(xiàn)階段主要為人工抽取,例如,張朔人等的《更路簿》民間的南海證據(jù)[22];康丹關(guān)于南海島礁主權(quán)歸屬證據(jù)研究[23];黃盛璋關(guān)于南海諸島的歷史證據(jù)[24];張衛(wèi)彬的中國擁有釣魚島[25]、南沙主權(quán)的證據(jù)[26]等。因此,本文應(yīng)用常用的機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)算法構(gòu)建南海證據(jù)性數(shù)據(jù)抽取模型,并比較模型的證據(jù)抽取效果,然后結(jié)合“5W”規(guī)則過濾和人工校驗(yàn),初步實(shí)現(xiàn)南海證據(jù)的半自動(dòng)化抽取。

    2 相關(guān)理論與方法

    2.1 機(jī)器學(xué)習(xí)算法

    Tom Mitchell,認(rèn)為機(jī)器學(xué)習(xí)就是指計(jì)算機(jī)通過自身經(jīng)驗(yàn)改善系統(tǒng)性能的行為[27]。簡言之,機(jī)器學(xué)習(xí)指計(jì)算機(jī)通過算法學(xué)習(xí)數(shù)據(jù)中隱藏的規(guī)律和信息,從而獲得新的經(jīng)驗(yàn)和知識(shí),便于計(jì)算機(jī)處理類似任務(wù)時(shí)候,能夠像人一樣思考與決策[28]。機(jī)器學(xué)習(xí)的算法眾多,包括樸素貝葉斯(Nave Bayesian)、決策樹、隨機(jī)森林、K-Means、AdaBoost、SVM等[29]。

    本文選用了機(jī)器學(xué)習(xí)領(lǐng)域經(jīng)典算法:樸素貝葉斯、SVM、隨機(jī)森林,以及常用的集成學(xué)習(xí)方法:LightGBM和XGBoost,重點(diǎn)描述樸素貝葉斯、LightGBM和XGBoost。

    1)樸素貝葉斯(NB)算法是國內(nèi)外常用統(tǒng)計(jì)分類算法,由于其較高的穩(wěn)定性和簡潔的模型的特點(diǎn),在文本分類領(lǐng)域占有重要的地位。潘忠英[30]對(duì)樸素貝葉斯做了詳細(xì)闡述。貝葉斯理論[31]作為概率論理論,即利用已知樣本數(shù)據(jù)的先驗(yàn)知識(shí),通過計(jì)算未知分類樣本的后驗(yàn)概率,從而選擇后驗(yàn)概率值最大的那一類[32]。

    本文首先人工標(biāo)注南海證據(jù),標(biāo)簽Tag=1,即為“南海證據(jù)”,Tag=0,為非“南海證據(jù)”。設(shè)D為證據(jù)材料集,D={d1,d2,…,dn},對(duì)應(yīng)的每份證據(jù)材料抽取的數(shù)據(jù)集為X={x1,x2,…,xd},標(biāo)簽數(shù)據(jù)T={t1,t2}={1,0},即D中的Xi可以分為T的類別。其中X中的每個(gè)元素都是相互獨(dú)立且隨機(jī)。則T的先驗(yàn)概率Pprior=P(T),T的后驗(yàn)概率Ppost=(T|X),由樸素貝葉斯算法可得:

    P(T|X)=P(T)P(X|T)P(X)(1)

    樸素貝葉斯基于Xi之間相互獨(dú)立,在給定類別為T的情況下,式(1)進(jìn)一步表示為:

    P(X|T=tm)=∏di=1P(xi|T=tm) (m=1,2)(2)

    由式(1)和式(2)計(jì)算出后驗(yàn)概率為:

    Ppost=P(T|X)=P(T)∏di=1P(xi|T)P(X)(3)

    最終得到X數(shù)據(jù)集中類別屬于Tm(m=1,2)的樸素貝葉斯計(jì)算:

    P(tm|x1,x2,…,xd)=P(tm)∏dj=1P(xj|tm)∏dj=1P(xj) (m=1,2)(4)

    2)LightGBM

    集成學(xué)習(xí)(Ensemble learning),比傳統(tǒng)的機(jī)器學(xué)習(xí)算法具有較高的泛化能力,愈加備受青睞[33]。2016年底,Ke G L等[34]提出LightGBM(Light Gradient Bosting Machine),是微軟提出的一種基于決策樹的梯度提升框架,具有高精度、高并發(fā)、占用內(nèi)存小等優(yōu)點(diǎn)。LightGBM是GBDT的一種,包括兩個(gè)最主要的創(chuàng)新:GOSS和EFB。

    3)XGBoost算法[35]

    極限梯度提升樹(Extreme Gradient Boosting,XGBoost)算法是Boosting集成算法的一種。由Chen T和Guestrin C在2011年初步提出,這是一種基于GTB的學(xué)習(xí)框架。XGBoost的拓展性十分強(qiáng),靈活性也相對(duì)較強(qiáng)、精度高。XGBoost通常以決策樹為基學(xué)習(xí)器,新生成的樹不斷學(xué)習(xí)當(dāng)前樹預(yù)測(cè)值與真實(shí)值之間的殘差,最終將多棵樹的學(xué)習(xí)結(jié)果累加作為預(yù)測(cè)結(jié)果。目標(biāo)函數(shù)由損失函數(shù)和樹模型復(fù)雜度兩部分組成,即:obj=∑ni=1l(yi,i)+∑kk=1θ(fk)。

    2.2 深度學(xué)習(xí)算法

    深度學(xué)習(xí)(Deep Learning,DL)是從已標(biāo)注分類的實(shí)驗(yàn)數(shù)據(jù)學(xué)習(xí)類似人腦處理信息的神經(jīng)結(jié)構(gòu),實(shí)現(xiàn)實(shí)驗(yàn)數(shù)據(jù)的自動(dòng)分類的過程[36]。它是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)最新發(fā)展[37]。深度學(xué)習(xí)網(wǎng)絡(luò)內(nèi)部應(yīng)用了激活函數(shù)、損失函數(shù)、神經(jīng)單元誤差反向傳播法、梯度下降法等多種數(shù)學(xué)工具,具備嚴(yán)謹(jǐn)?shù)目茖W(xué)性。通過不斷地計(jì)算數(shù)據(jù)和損失,得到可以用于預(yù)測(cè)或分類的神經(jīng)網(wǎng)絡(luò)模型[38]。目前基于深度學(xué)習(xí)的信息抽取方法主要包括DNN、LSTM、CNN、RNN,及其他們的擴(kuò)展,包括Bi-LSTM,Bi-LSTM-CNN,CNN+Attention等[39]。本文就選擇了文本分類中較常用的深度學(xué)習(xí)算法DNN、TextCNN和Bi-LSTM。

    1)深度神經(jīng)網(wǎng)絡(luò)(DNN)

    目前,深度學(xué)習(xí)算法大多是基于DNN,它分為輸入層、輸出層和隱藏層,網(wǎng)絡(luò)的每一層都由許多神經(jīng)元組成,層與層間采用全連接結(jié)構(gòu)[40]。本文的深度神經(jīng)網(wǎng)絡(luò)是由一層輸入層、兩層隱藏層以及一層輸出層組成,并且經(jīng)過多次試驗(yàn),隱藏層64、隱藏層16可獲得最佳性能,具體如圖3所示。

    深度神經(jīng)網(wǎng)絡(luò),層與層之間的數(shù)據(jù)傳輸通過神經(jīng)網(wǎng)絡(luò)的最小單元——神經(jīng)元來計(jì)算,具體如圖4所示。z表示將輸入線性加權(quán),權(quán)重是需要學(xué)習(xí)的參數(shù),表示激活函數(shù)(常用的激活函數(shù)有sigmoid函數(shù)、tanh函數(shù)、relu函數(shù))。激活函數(shù)的引入,使得深度學(xué)習(xí)具有解決非線性問題的能力,使模型的假設(shè)空間從線性擴(kuò)展到非線性,大大提高了模型的表達(dá)能力。

    z=∑(wixi+bi)

    y=σ(z)=σ∑(wixi+bi)

    2)卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    卷積神經(jīng)網(wǎng)絡(luò),是一種深度學(xué)習(xí)模型或類似于人工神經(jīng)網(wǎng)絡(luò)的多層感知器,為了提高一般前向向后傳播算法的訓(xùn)練性能,CNN通過不斷迭代訓(xùn)練多層網(wǎng)絡(luò)結(jié)構(gòu),并利用空間關(guān)系減少需要學(xué)習(xí)的參數(shù)數(shù)目[42]。

    典型的CNN主要由輸入層、卷積層、池化層、全連接層和輸出層組成,具體如圖5所示[43]。其中CNN的基本結(jié)構(gòu)包括兩種特殊的神經(jīng)元層:①卷積層,每個(gè)神經(jīng)元的輸入與前一層的局部相連,并提取該局部的特征;②池化層,用來求局部敏感性與二次特征提取的計(jì)算層。這種兩次特征提取結(jié)構(gòu)減小了特征分辨率,減少了需要優(yōu)化的參數(shù)數(shù)目[44-45]。卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程中,通常采用梯度下降方法進(jìn)行優(yōu)化模型。

    Kim Y在2014年首次提出運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行文本分類,即TextCNN。TextCNN輸入層的形式是一個(gè)句子中的單詞以及單詞對(duì)應(yīng)的詞向量形成的n*k矩陣,其中n為句子的單詞數(shù),k為詞向量維度。本文TextCNN分別使用步長為3、4和5的一維卷積層處理文本數(shù)據(jù)[46]。

    3)長短期記憶網(wǎng)絡(luò)(LSTM)

    長短期記憶網(wǎng)絡(luò)(Long-Short Time Memory,LSTM)作為目前最有效的序列模型,對(duì)傳統(tǒng)RNN模型的梯度消失問題的改進(jìn),增加了一個(gè)判斷數(shù)據(jù)保留還是遺忘的細(xì)胞結(jié)構(gòu)cell[47]。LSTM主要由三大門限單元構(gòu)成,分別是遺忘門、輸入門和輸出門,具體如圖6所示[48]。

    首先,遺忘門,LSTM處理時(shí)序數(shù)據(jù)時(shí),是從左邊向右邊處理,因此大量的信息在輸入時(shí),需要決定哪些信息是保留的,哪些信息是需要舍棄的。在遺忘門里有一個(gè)開關(guān)控制,即圖中ft。控制函數(shù)為:

    f(t)=σ(wf[h(t-1),xt]+bf)(5)

    其中wf、bf分別為遺忘門的權(quán)重和偏置。

    其次,輸入門,前文的信息經(jīng)過選擇輸入到輸入門中,在這一層的任務(wù)是決定哪些信息需要更新,以及更新多少:

    it=σ(wi[h(t-1),xt]+bi)(6)

    ct=σ(wc[h(t-1),xt]+bc)(7)

    Ct=it*ct+f(t)*Ct-1(8)

    其中wi和wc代表相應(yīng)的權(quán)重,bi以及bc代表相應(yīng)的偏置,Ct表示當(dāng)前的單元狀態(tài)值。

    最后,輸出門,經(jīng)過前兩道門的篩選完成后,最后經(jīng)過輸出門,決定哪些信息是需要輸出的,輸出門內(nèi)有控制輸出的開關(guān):

    σt=σ(wo[h(t-1),xt]+bo)(9)

    ht=ot*tanh-1(ct)(10)

    其中wo和bo代表輸出門的權(quán)重和偏置,ht為當(dāng)前單元的輸出值。

    本文使用Bi-LSTM(Bidirectional Long ShortTerm Memory,BLSTM)在LSTM的基礎(chǔ)上,分別用前向和后向的LSTM來抓取過去和將來所含的隱藏信息,這兩部分的信息組成最終的輸出[49]。

    3 數(shù)據(jù)預(yù)處理及數(shù)據(jù)標(biāo)注

    3.1 文本清洗

    南海文庫數(shù)字資源由沈固朝團(tuán)隊(duì)構(gòu)建,是南海問題證據(jù)鏈工程和話語權(quán)工程的重要內(nèi)容。本文從中下載409篇PDF格式的南海證據(jù)材料,并通過Python程序轉(zhuǎn)化成TXT格式。證據(jù)材料資源類型主要包括期刊和學(xué)位論文,含有少量的報(bào)紙、地圖、檔案。為了提高實(shí)驗(yàn)的準(zhǔn)確性,這時(shí)候需要對(duì)TXT的證據(jù)材料做進(jìn)一步清洗,主要包括以下幾個(gè)方面:①去掉除中文詞、英文字母、數(shù)字,以及某些特定標(biāo)點(diǎn)符號(hào)以外的特殊符號(hào);②去掉文章中多余的空格、空行;③英文字母統(tǒng)一轉(zhuǎn)為小寫。文本清洗之后,再進(jìn)行文本分段、段分句,獲得處理對(duì)象的最小單位“句子”,即一句話或一段文字。

    3.2 文本分詞

    通過對(duì)文本中的句子進(jìn)行分詞,便于后期做抽取工作,也有利于對(duì)證據(jù)材料做進(jìn)一步的數(shù)據(jù)挖掘。目前分詞工具眾多,例如jieba、thulac、pkuseg、hanlp、ltp等,鑒于分詞的準(zhǔn)確性及運(yùn)行時(shí)效,最終選擇jieba分詞作為本文的分詞工具,其采用比較流行的分詞算法隱馬爾可夫鏈(HMM)。本文研究南海證據(jù),屬于領(lǐng)域性的主題,現(xiàn)有的分詞字典可能不包含南海領(lǐng)域詞匯,因此本研究增加了6 418個(gè)南海專業(yè)領(lǐng)域詞。

    3.3 文本預(yù)處理結(jié)果

    通過以上文本清洗、文本分段、段分句,獲得處理對(duì)象的最小單位——中文概念中的句子,然后對(duì)句子進(jìn)行分析,將非結(jié)構(gòu)的txt文本轉(zhuǎn)化成結(jié)構(gòu)化的數(shù)據(jù),每一行都表示文本中的完整的一個(gè)句子,具體如表2所示。

    3.4 實(shí)驗(yàn)數(shù)據(jù)標(biāo)注

    南海證據(jù)的抽取屬于二分類問題。由于不同學(xué)科不同研究領(lǐng)域的專家對(duì)南海證據(jù)的鑒定及證據(jù)價(jià)值的評(píng)價(jià)容易產(chǎn)生分歧,很難統(tǒng)一,因此從定性或定量的角度來評(píng)判南海證據(jù)是非常困難的。本文不從證據(jù)法視角來研究南海證據(jù),其研究目標(biāo)之一是為相關(guān)專家提供南海證據(jù)材料,不做南海證據(jù)的研究。人工標(biāo)注南海證據(jù)的依據(jù)是證據(jù)的五大基本屬性“時(shí)間、地點(diǎn)、人物、機(jī)構(gòu)和事件”。然后通過機(jī)器學(xué)習(xí)、深度學(xué)習(xí)算法,自動(dòng)學(xué)習(xí)證據(jù)性數(shù)據(jù)抽取模型,找出證據(jù)性數(shù)據(jù)抽取效果比較好的模型,并應(yīng)用到具體證據(jù)材料中。由于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)并不能百分百精確完成證據(jù)抽取任務(wù),因此增加了“5W”規(guī)則過濾,以及最終的人工校驗(yàn)。通過以上才能初步完成南海證據(jù)的抽取。

    本文從409篇證據(jù)材料中隨機(jī)抽取81篇,然后每篇隨機(jī)抽取10~20條句子作為南海證據(jù),進(jìn)行人工標(biāo)注,標(biāo)注的依據(jù)是“凡是能證明南海領(lǐng)土主權(quán)歸屬事實(shí)的材料,同時(shí)包含時(shí)間、地點(diǎn)、人物、機(jī)構(gòu)和事件”。由于作者自2014年至今都從事南海證據(jù)鏈研究,所以標(biāo)注的效果相對(duì)比較好一些?!癟ag=1”是“南海證據(jù)”,“Tag=0”屬于非“南海證據(jù)”。最終從81篇證據(jù)材料中抽取1 529條數(shù)據(jù),其中“Tag=1”的“南海證據(jù)”有641條,“Tag=0”的非“南海證據(jù)”有888條,具體如表3所示。然后對(duì)1 529條實(shí)驗(yàn)樣本按比例進(jìn)行分配。訓(xùn)練集和驗(yàn)證集共計(jì)占80%,用來訓(xùn)練模型,驗(yàn)證集的作用是為了模型調(diào)優(yōu),防止過擬合。測(cè)試集是將模型訓(xùn)練和預(yù)測(cè)過程隔離,防止信息泄露。模型是否成功,主要看其在測(cè)試集上的效果。這樣得到訓(xùn)練集樣本容量980;驗(yàn)證集樣本容量244;測(cè)試集樣本容量305。本文應(yīng)用機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的證據(jù)抽取的實(shí)驗(yàn)樣本分布參考此處。

    4 南海證據(jù)性數(shù)據(jù)抽取模型構(gòu)建

    本文分別基于樸素貝葉斯、SVM、隨機(jī)森林、DNN、CNN、LSTM、LightGBM和XGBoost構(gòu)建南海維權(quán)的證據(jù)性數(shù)據(jù)抽取模型,并比較這些模型的證據(jù)性數(shù)據(jù)抽取效果。

    4.1 基于樸素貝葉斯的南海證據(jù)性數(shù)據(jù)抽取

    4.1.1 文本向量化

    輸入上文已經(jīng)分好詞的文本,使用BOW和N-gram將文本向量化。根據(jù)訓(xùn)練樣本,將單詞進(jìn)行one-hot編碼,計(jì)算出的詞匯量大小為V,則每個(gè)單詞獲得一個(gè)唯一的向量,長度為V。除了單詞所在的位置為1,其他位置均為0:

    wordi=(0,…,1,…,0)

    單詞向量化以后,再將單詞所構(gòu)成的句子進(jìn)行向量化。S表示一個(gè)待分類的句子。將S中的單詞計(jì)數(shù),獲得S的單詞和對(duì)應(yīng)的數(shù)量(即詞袋)。S中的單詞集合表示為{word1:n1,…,words:ns},S中的單詞的位置上,放置這個(gè)單詞的個(gè)數(shù),未出現(xiàn)的單詞為0,此時(shí)文本向量化完成,即S的向量表示為:

    S=(n1,…,ns,0,…,0)

    4.1.2 模型訓(xùn)練

    樸素貝葉斯模型的實(shí)驗(yàn)數(shù)據(jù)表示為(文本向量,標(biāo)簽)。前文抽取的1 529條數(shù)據(jù),按8∶2的比例分為訓(xùn)練集和測(cè)試集,然后放入樸素貝葉斯分類模型,學(xué)習(xí)出樸素貝葉斯分類器。實(shí)驗(yàn)數(shù)據(jù)集如表4所示。

    通過混淆矩陣分析基于樸素貝葉斯分類器的南海證據(jù)性數(shù)據(jù)抽取結(jié)果,測(cè)試集上的混淆矩陣如表5所示。

    從混淆矩陣可得基于樸素貝葉斯分類器的南海證據(jù)性數(shù)據(jù)抽取效果,計(jì)算準(zhǔn)確率(Accuracy)、精確率(Precision,查準(zhǔn)率)及召回率(Recall,查全率)。本文定義:TP為“南海證據(jù)”被判斷為“南海證據(jù)”的數(shù)量,TN“南海證據(jù)”被判斷為非“南海證據(jù)”的數(shù)量,F(xiàn)P為非“南海證據(jù)”被判斷為“南海證據(jù)”的數(shù)量,F(xiàn)N為“南海證據(jù)”被判斷為非“南海證據(jù)”的數(shù)量。于是得TP=100,TN=131,F(xiàn)P=31,F(xiàn)N=44,根據(jù)以下公式得:

    Accuracy=(TP+TN)/(TP+TN+FP+FN)(11)

    Precision=TP/(TP+FP)(12)

    Recall=TP/(TP+FN)(13)

    F1=2PR/(P+R)(14)

    最終基于樸素貝葉斯的南海證據(jù)抽取效果為:Accuracy=0.75,Precision=0.76,Recall=0.69,F(xiàn)1=0.72。

    4.2 基于DNN的南海證據(jù)性數(shù)據(jù)抽取

    本文的深度學(xué)習(xí)方法,主要使用目前主流的TensorFlow深度學(xué)習(xí)框架。薛先貴等[19]對(duì)TensorFlow深度學(xué)習(xí)框架做了詳細(xì)的闡述,它是最流行的,且相對(duì)完善的深度學(xué)習(xí)庫之一,可以比較方便快捷地設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

    4.2.1 文本向量化

    與樸素貝葉斯的文本向量化相似,仍然使用BOW和N-gram將文本向量化,包括詞級(jí)別的向量化(Word Level Vectorize)和字級(jí)別的向量化(Character Level Vectorize)。

    4.2.2 模型訓(xùn)練

    深度學(xué)習(xí)的實(shí)驗(yàn)數(shù)據(jù)仍表示為(文本向量,標(biāo)簽數(shù)據(jù))。與樸素貝葉斯模型的實(shí)驗(yàn)數(shù)據(jù)區(qū)別在于,此模型將準(zhǔn)備好1 529條數(shù)據(jù)分成3塊:訓(xùn)練集樣本、驗(yàn)證集樣本和測(cè)試集樣本。其中訓(xùn)練集(Training Data)和驗(yàn)證集(Validation Data)的容量占總數(shù)的80%。Validation Data是用來避免過擬合,在訓(xùn)練過程中,通常用Validation Data來確定一些超參數(shù)。最終實(shí)驗(yàn)數(shù)據(jù)集分布如表6所示。

    DNN模型中的層數(shù)、每一層中的神經(jīng)元個(gè)數(shù)屬于超參數(shù),這個(gè)在模型訓(xùn)練中需要人工進(jìn)行模型調(diào)參。經(jīng)過多次試驗(yàn),隱藏層64、隱藏層16可獲得最佳性能。同時(shí)為了防止模型過擬合,給深度學(xué)習(xí)網(wǎng)絡(luò)增加Dropout和L2正則化(Regularization)。經(jīng)過交叉驗(yàn)證,隱含節(jié)點(diǎn)Dropout率等于0.5的時(shí)候效果最好,其隨機(jī)生成的網(wǎng)絡(luò)結(jié)構(gòu)最多,通過以上超參數(shù)的設(shè)置,使得“目標(biāo)數(shù)據(jù)”抽取模型達(dá)到最優(yōu),具體如表7所示。

    由于南海證據(jù)性數(shù)據(jù)抽取屬于二分類問題,本文選用交叉熵作為損失函數(shù)(Loss),優(yōu)化器選擇改進(jìn)的隨機(jī)梯度下降法,RMSprop[50]。將數(shù)據(jù)分Batch,Batch_size=64,通過每一次模型輪循計(jì)算驗(yàn)證集上的損失率和準(zhǔn)確率,最終可見輪循到第8次以后,驗(yàn)證集上的Loss不再下降,驗(yàn)證集上的準(zhǔn)確率不再提升,再往后模型則開始過擬合。因此,模型的輪循次數(shù)為8時(shí),模型達(dá)到最優(yōu),具體如圖7、圖8所示。

    通過混淆矩陣分析基于DNN南海證據(jù)性數(shù)據(jù)抽取結(jié)果,混淆矩陣如表8所示。

    最終基于DNN的南海證據(jù)性數(shù)據(jù)抽取效果為,正確率是0.88,精確率是0.90,召回率是0.82,F(xiàn)1值是0.86。

    4.3 基于TextCNN的南海證據(jù)性數(shù)據(jù)抽取

    TextCNN是利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)文本進(jìn)行分類的算法,模型的實(shí)驗(yàn)數(shù)據(jù)的樣本分布與DNN相同。首先通過一個(gè)Embedding層,相當(dāng)于臨時(shí)進(jìn)行了詞向量的計(jì)算,把原始的詞序列轉(zhuǎn)換成了指定維數(shù)的詞向量序列,嵌入成為100維度的向量,然后使用一個(gè)核數(shù)為50,分別使用大小為3、4和5的一維卷積處理文本數(shù)據(jù)?;赥extCNN的證據(jù)性數(shù)據(jù)抽取模型結(jié)構(gòu),如圖9所示,并且通過以下超參數(shù)的設(shè)置,使得南海維權(quán)的證據(jù)性數(shù)據(jù)抽取模型達(dá)到最優(yōu),具體如表9所示。

    由于南海證據(jù)抽取屬于二分類問題,TextCNN模型的卷積層的激活函數(shù)選擇Relu,輸出層的激活函數(shù)選擇Softmax,優(yōu)化器選擇Adam,Batch_size=128。通過每一次模型輪循計(jì)算驗(yàn)證集上的損失率和準(zhǔn)確率,最終可見輪循到第50次以后,驗(yàn)證集上的Loss不再下降,驗(yàn)證集上的準(zhǔn)確率不再提升,再往后模型開始過擬合。因此,模型的輪循次數(shù)為50時(shí),模型達(dá)到最優(yōu),具體如圖10所示。

    通過混淆矩陣分析基于TextCNN的數(shù)據(jù)抽取效果,混淆矩陣如表10所示。

    最終基于TextCNN的南海證據(jù)性數(shù)據(jù)抽取效果為,正確率是0.87,精確率是0.87,召回率是0.87,F(xiàn)1是0.87。

    4.4 基于Bi-LSTM的南海證據(jù)性數(shù)據(jù)抽取

    模型的實(shí)驗(yàn)數(shù)據(jù)的樣本分布與DNN相同。基于Bi-LSTM的證據(jù)性數(shù)據(jù)抽取模型結(jié)構(gòu),如圖11所示,并且通過以下超參數(shù)的設(shè)置,使得南海維權(quán)的證據(jù)性數(shù)據(jù)抽取模型達(dá)到最優(yōu),具體如表11所示。

    由于南海證據(jù)抽取屬于二分類問題,Bi-LSTM模型的卷積層的激活函數(shù)選擇Relu,輸出層的激活函數(shù)選擇Softmax,優(yōu)化器選擇Adam,Batch_size =128,通過每一次模型輪循計(jì)算驗(yàn)證集上的損失率和準(zhǔn)確率,最終可見輪循到第80次以后,驗(yàn)證集上的Loss不再下降,驗(yàn)證集上的準(zhǔn)確率不再提升,再往后模型開始過擬合。因此,模型的輪循次數(shù)為80時(shí),模型達(dá)到最優(yōu),具體如圖12所示。

    通過混淆矩陣分析基于Bi-LSTM的南海證據(jù)性數(shù)據(jù)抽取效果,混淆矩陣如表12所示。

    最終基于Bi-LSTM的南海證據(jù)性數(shù)據(jù)抽取效果為,正確率是0.83,精確率是0.85,召回率是0.83,F(xiàn)1是0.83。

    4.5 基于SVM的南海證據(jù)性數(shù)據(jù)抽取

    實(shí)驗(yàn)樣本分布及文本預(yù)處理與上文相同。通過TF-IDF對(duì)1 529條數(shù)據(jù)構(gòu)造詞袋特征。

    通過混淆矩陣分析基于SVM的南海證據(jù)性數(shù)據(jù)抽取效果,混淆矩陣如表13所示。

    最終基于SVM的南海證據(jù)性數(shù)據(jù)抽取效果為,正確率是0.71,精確率是0.74,召回率是0.71,F(xiàn)1是0.68。

    4.6 基于隨機(jī)森林的南海證據(jù)性數(shù)據(jù)抽取

    實(shí)驗(yàn)樣本分布及文本預(yù)處理與上文相同。首先使用隨機(jī)森林模型默認(rèn)的參數(shù)進(jìn)行訓(xùn)練模型,并在驗(yàn)證集上顯示模型效果,結(jié)果如表14所示。

    通過表14可以看到,模型在訓(xùn)練集上表現(xiàn)良好,驗(yàn)證上表現(xiàn)很差,表現(xiàn)出明顯的過擬合的現(xiàn)象。因此,對(duì)隨機(jī)森林的參數(shù)進(jìn)行調(diào)整,將基分類器的個(gè)數(shù)從默認(rèn)的100減少到70,此時(shí)驗(yàn)證集的效果有所提升,最終驗(yàn)證集的數(shù)據(jù)抽取效果為:正確率是0.71,精確率是0.71,召回率是0.71,F(xiàn)1值是0.69。

    通過混淆矩陣分析基于隨機(jī)森林的南海證據(jù)性數(shù)據(jù)抽取效果,混淆矩陣如表15所示。

    最終基于隨機(jī)森林的南海證據(jù)性數(shù)據(jù)抽取效果為,正確率是0.70,精確率是0.72,召回率是0.70,F(xiàn)1是0.68。

    4.7 基于LightGBM的南海證據(jù)性數(shù)據(jù)抽取

    實(shí)驗(yàn)樣本分布及文本預(yù)處理與上文相同。首先使用LightGBM模型默認(rèn)的參數(shù)進(jìn)行訓(xùn)練模型,并在驗(yàn)證集上顯示模型效果,結(jié)果如表16所示。

    通過表16可以看到,模型在訓(xùn)練集上表現(xiàn)良好,驗(yàn)證上表現(xiàn)很差,表現(xiàn)出明顯的過擬合的現(xiàn)象。因此,加入L1、L2正則項(xiàng),驗(yàn)證集上得到了提升,最終驗(yàn)證集的數(shù)據(jù)抽取效果為:正確率是0.72,精確率是0.72,召回率是0.72,F(xiàn)1值是0.72。

    通過混淆矩陣分析基于LightGBM的南海證據(jù)性數(shù)據(jù)抽取效果,混淆矩陣如表17所示。

    最終基于LightGBM的南海證據(jù)性數(shù)據(jù)抽取效果為,正確率是0.66,精確率是0.66,召回率是0.66,F(xiàn)1是0.66。

    4.8 基于XGBoost的南海證據(jù)性數(shù)據(jù)抽取

    實(shí)驗(yàn)樣本分布及文本預(yù)處理與上文相同。通過混淆矩陣分析基于XGBoost的南海證據(jù)性數(shù)據(jù)抽取效果,混淆矩陣如表18所示。

    最終基于XGBoost的南海證據(jù)性數(shù)據(jù)抽取效果為,正確率是0.69,精確率是0.69,召回率是0.69,F(xiàn)1是0.68。

    4.9 南海證據(jù)性數(shù)據(jù)抽取模型的比較

    通過上文的基于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的南海證據(jù)性數(shù)據(jù)抽取模型應(yīng)用,比較模型的證據(jù)性數(shù)據(jù)抽取效果,具體如表19所示。

    為了更直觀地顯示模型的證據(jù)性數(shù)據(jù)抽取效果,具體如圖13所示。最終DNN的南海證據(jù)性數(shù)據(jù)抽取效果最好,準(zhǔn)確率和精確率是最高的,分別是0.88和0.90。

    5 南海證據(jù)性數(shù)據(jù)抽取模型的應(yīng)用與優(yōu)化

    5.1 基于DNN的證據(jù)性數(shù)據(jù)抽取

    本文最終選擇基于DNN的南海證據(jù)性數(shù)據(jù)抽取模型。通過DNN南海證據(jù)性數(shù)據(jù)抽取模型,從南海文庫采集的409篇證據(jù)材料抽取具體的證據(jù),最終從98 809個(gè)句子中,抽取到31 826條句子屬于南海證據(jù)性數(shù)據(jù),具體如表20所示。

    由于模型的準(zhǔn)確率是0.88,抽取的31 826條證據(jù)中還存在一些非證據(jù)。而且證據(jù)性數(shù)據(jù)只有通過證據(jù)價(jià)值判斷和人工甄別才可能成為證據(jù),但本文不從證據(jù)學(xué)視角研究證據(jù),為了能夠使證據(jù)性數(shù)據(jù)結(jié)果轉(zhuǎn)化為證據(jù),本文制定了證據(jù)性數(shù)據(jù)過濾規(guī)則和最終的人工判斷,進(jìn)一步提高證據(jù)抽取的準(zhǔn)確率。

    5.2 基于“5W”規(guī)則過濾

    根據(jù)證據(jù)的固有屬性,構(gòu)建證據(jù)鏈的過濾規(guī)則,即證據(jù)需同時(shí)滿足“5W”規(guī)則:時(shí)間(when)、地點(diǎn)(where)、人物(who1)、機(jī)構(gòu)(who2)、事件(what)。論文使用哈工大的語言平臺(tái)采用深度學(xué)習(xí)方式的LTP提供的NER接口進(jìn)行實(shí)體識(shí)別,獲得證據(jù)屬性,其中what是選擇LTP抽取的證據(jù)的動(dòng)詞或動(dòng)名詞。

    需要注意的是,盡管證據(jù)中的“What”作為證據(jù)的事件,被界定為能表達(dá)證據(jù)內(nèi)容行為詞,可以是動(dòng)詞或動(dòng)名詞。但在證據(jù)的規(guī)則過濾時(shí),為了提高證據(jù)過濾的準(zhǔn)確性,本研究使用TF-IDF計(jì)算每條證據(jù)排名前5的關(guān)鍵詞也加入“What”中。最終通過“5W”規(guī)則過濾,結(jié)合人工校驗(yàn),從409篇證據(jù)材料中,抽取有效的證據(jù)21 174條,部分南海維權(quán)的證據(jù)及“5W”抽取結(jié)果如表21所示。(注:經(jīng)過“5W”規(guī)則過濾和人工判斷,依然有小部分證據(jù)性數(shù)據(jù)帶有作者的個(gè)人感情色彩,但考慮其在證據(jù)鏈中可能的重要性,就沒有過濾,最終作為證據(jù)呈現(xiàn)。)

    6 結(jié)論與展望

    本文分別基于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的經(jīng)典算法構(gòu)建南海證據(jù)性數(shù)據(jù)抽取模型,經(jīng)過比較分析,基于DNN的南海證據(jù)性數(shù)據(jù)抽取模型效果最好,正確率達(dá)0.88,精確率達(dá)0.90。但人工智能的方法并不是完美的,為了進(jìn)一步提高證據(jù)抽取的效果,本文融合了“5W”規(guī)則過濾及人工判定,顯著地提高證據(jù)抽取的準(zhǔn)確率。南海證據(jù)的抽取是一個(gè)艱難的任務(wù),本文只是初探,后期將進(jìn)一步通過語義分析及融合其他算法進(jìn)一步實(shí)現(xiàn)南海證據(jù)的自動(dòng)抽取。為南海文庫數(shù)字資源的檢索提供支持,為專業(yè)人員提供充足的證據(jù)材料做好準(zhǔn)備,也為后續(xù)南海維權(quán)的證據(jù)鏈關(guān)聯(lián)模型構(gòu)建做好基礎(chǔ)。

    參考文獻(xiàn)

    [1]陶鵬.基于聯(lián)合模型的庭審記錄證據(jù)信息抽取研究[D].武漢:武漢大學(xué),2020.

    [2]張力元,姬東鴻.LS-SVM與條件隨機(jī)場結(jié)合的生物證據(jù)句子抽取[J].計(jì)算機(jī)工程,2015,41(5):207-212.

    [3]丁志遠(yuǎn).基于證據(jù)匹配的案件質(zhì)量評(píng)估方法設(shè)計(jì)與實(shí)現(xiàn)[D].貴陽:貴州大學(xué),2019.

    [4]林金枝.西沙群島主權(quán)屬我的國外歷史證據(jù)[J].南洋問題研究,1979,(5):79-93.

    [5]余敏友,雷筱璐.南海諸島爭端國際仲裁的可能性——國際法分析[J].武漢大學(xué)學(xué)報(bào):哲學(xué)社會(huì)科學(xué)版,2011,64(1):5-11.

    [6]談中正,王婷婷.“南海維權(quán):歷史與法理斗爭研討會(huì)”綜述[J].亞太安全與海洋研究,2015,(5):119-124.

    [7]張衛(wèi)彬.中國擁有南沙群島主權(quán)證據(jù)鏈的構(gòu)造[J].社會(huì)科學(xué),2019,(9):85-96.

    [8]王璇.我國擁有黃巖島主權(quán)的地圖證據(jù)證明力研究[D]. 合肥:安徽財(cái)經(jīng)大學(xué),2017.

    [9]許盤清,沈固朝.菲律賓地圖展覽中的“北島”地理位置與地名沿革考[J].亞太安全與海洋研究,2016,(4):102-112,126.

    [10]Grishman R.Information Extraction:Techniques and Challenges[M].Information Extraction a Multidisciplinary Approach to an Emerging Information Technology.Springer Berlin Heidelberg,1997:10-27.

    [11]石鳳貴.基于jieba中文分詞的中文文本語料預(yù)處理模塊實(shí)現(xiàn)[J].電腦知識(shí)與技術(shù),2020,16(14):248-251,257.

    [12]鄒曉輝,孫靜.LDA主題模型[J].智能計(jì)算機(jī)與應(yīng)用,2014,4(5):105-106.

    [13]李晨,劉衛(wèi)國.基于NLTK的中文文本內(nèi)容抽取方法[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2019,28(1):275-278.

    [14]宋海霞.用Python生成詞云圖[J].少年電腦世界,2019,(9):4-8.

    [15]李嘉欣,王平.中文命名實(shí)體識(shí)別研究方法綜述[J].計(jì)算機(jī)時(shí)代,2021,(4):18-21.

    [16]陶鵬.基于聯(lián)合模型的庭審記錄證據(jù)信息抽取研究[D].武漢:武漢大學(xué),2020.

    [17]張力元,姬東鴻.LS-SVM與條件隨機(jī)場結(jié)合的生物證據(jù)句子抽取[J].計(jì)算機(jī)工程,2015,41(5):207-212.

    [18]歐陽輝,祿樂濱.基于證據(jù)理論的論文元數(shù)據(jù)抽取算法研究[J].電子設(shè)計(jì)工程,2010,18(4):66-69.

    [19]楊健,黃瑞章,丁志遠(yuǎn),等.基于邊界識(shí)別與組合的裁判文書證據(jù)抽取方法研究[J].中文信息學(xué)報(bào),2020,34(3):80-87.

    [20]Kamarainen J K,Ilonen J,Paalanen P,et al.Object Evidence Extraction Using Simple Gabor Features and Statistical Ranking[C]//Scandinavian Conference on Image Analysis.Springer-Verlag,2005.

    [21]Nishida K,Nagata M,Otsuka A,et al.Answering while Summarizing:Multi-task Learning for Multi-hop QA with Evidence Extraction[C]//Meeting of the Association for Computational Linguistics,2019.

    [22]張朔人,張若城.南海維權(quán)的民間證據(jù)——《更路簿》內(nèi)涵與面世抄本研究[J].云南師范大學(xué)學(xué)報(bào):哲學(xué)社會(huì)科學(xué)版,2018,50(4):26-35.

    [23]康丹.南海島礁主權(quán)歸屬證據(jù)研究初論[D].武漢:武漢大學(xué),2013.

    [24]黃盛璋.南海諸島歷來是中國領(lǐng)土的歷史證據(jù)[J].東南文化,1996,(4):84-94.

    [25]張衛(wèi)彬.中國擁有釣魚島主權(quán)的證據(jù)鏈構(gòu)造[J].政治與法律,2020,(2):90-100.

    [26]張衛(wèi)彬.中國擁有南沙群島主權(quán)證據(jù)鏈的構(gòu)造[J].社會(huì)科學(xué),2019,(9):85-96.

    [27]趙彰.機(jī)器學(xué)習(xí)研究范式的哲學(xué)基礎(chǔ)及其可解釋性問題[D].上海:上海社會(huì)科學(xué)院,2018.

    [28]張潤,王永濱.機(jī)器學(xué)習(xí)及其算法和發(fā)展研究[J].中國傳媒大學(xué)學(xué)報(bào):自然科學(xué)版,2016,23(2):10-18,24.

    [29]姜娜,楊海燕,顧慶傳,等.機(jī)器學(xué)習(xí)及其算法和發(fā)展分析[J].信息與電腦:理論版,2019,(1):83-84,87.

    [30]潘忠英.樸素貝葉斯中文文本分類器的設(shè)計(jì)與實(shí)現(xiàn)[J].電腦編程技巧與維護(hù),2021,(2):37-39,70.

    [31]Cornfield J.Bayes Theorem[J].Revue De Linstitut International De Statistique,1967,35(1):34-49.

    [32]王峻.基于屬性相關(guān)性分析的擴(kuò)展樸素貝葉斯分類器[J].平頂山學(xué)院學(xué)報(bào),2018,33(5):65-69.

    [33]Dietterich T G.Machine Learning Research:Four Current Directions[J].AI Magazine,1997,18(4):97-136.

    [34]Ke G L,Meng Q,F(xiàn)inley T,et al.LightGBM:A Highly Efficient Gradient Boosting Decision Tree[C]//Proceedings of the 30th International Conference on Neural Information Processing Systems.Red Hook:Curran Associates Inc.,2017:3146-3154.

    [35]徐國天,沈耀童.基于XGBoost和LightGBM雙層模型的惡意軟件檢測(cè)方法[J].信息網(wǎng)絡(luò)安全,2020,20(12):54-63.

    [36]尹寶才,王文通,王立春.深度學(xué)習(xí)研究綜述[J].北京工業(yè)大學(xué)學(xué)報(bào),2015,41(1):48-59.

    [37]張潤,王永濱.機(jī)器學(xué)習(xí)及其算法和發(fā)展研究[J].中國傳媒大學(xué)學(xué)報(bào):自然科學(xué)版,2016,23(2):10-18,24.

    [38]涌井良幸,涌井貞美.深度學(xué)習(xí)的數(shù)學(xué)[M].北京:人民郵電出版社,2020.

    [39]鄂海紅,張文靜,肖思琪,等.深度學(xué)習(xí)實(shí)體關(guān)系抽取研究綜述[J].軟件學(xué)報(bào),2019,30(6):1793-1818.

    [40]趙志欣,戴文婷,陳鑫,等.基于深度神經(jīng)網(wǎng)絡(luò)的正交頻分復(fù)用波形外輻射源雷達(dá)參考信號(hào)重構(gòu)[J/OL].電子與信息學(xué)報(bào):1-8[2021-07-09].http://kns.cnki.net/kcms/detail/11.4494.TN.20210702.0906.012.html.

    [41]Jurafsky D.Speech and Language Processing:An Introduction to Natural Language Processing,Computational Linguistics,and Speech Recognition[M].北京:人民郵電出版社,2010.

    [42]王晨琛,王業(yè)琳,葛中芹,等.基于卷積神經(jīng)網(wǎng)絡(luò)的中國水墨畫風(fēng)格提取[J].圖學(xué)學(xué)報(bào),2017,38(5):754-759.

    [43]陳鴻翔.基于卷積神經(jīng)網(wǎng)絡(luò)的圖像語義分割[D].杭州:浙江大學(xué),2016.

    [44]李飛騰.卷積神經(jīng)網(wǎng)絡(luò)及其應(yīng)用[D].大連:大連理工大學(xué),2014.

    [45]吳瀟穎,李銳,吳勝昔.基于CNN與雙向LSTM的行為識(shí)別算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2020,41(2):361-366.

    [46]史沛卓,陳凱天,鐘葉珂,等.基于TextCNN的中國古詩文分類方法研究[J].電子技術(shù)與軟件工程,2021,(10):190-192.

    [47]張蕾,孫尚紅,王月.基于深度學(xué)習(xí)LSTM模型的匯率預(yù)測(cè)[J/OL].統(tǒng)計(jì)與決策,2021,37(13):158-162[2021-07-09].https://doi.org/10.13546/j.cnki.tjyjc.2021.13.037.

    [48]周凌寒.基于LSTM和投資者情緒的股票行情預(yù)測(cè)研究[D].武漢:華中師范大學(xué),2018.

    [49]侯偉濤,姬東鴻.基于Bi-LSTM的醫(yī)療事件識(shí)別研究[J].計(jì)算機(jī)應(yīng)用研究,2018,35(7):1974-1977.

    [50]張?zhí)鞚?,李元香,?xiàng)正龍,等.基于RMSprop的粒子群優(yōu)化算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2021,42(3):642-648.

    (責(zé)任編輯:孫國雷)

    收稿日期:2021-05-26

    基金項(xiàng)目:國家社會(huì)科學(xué)基金重大項(xiàng)目“南海疆文獻(xiàn)資料整理中的知識(shí)發(fā)現(xiàn)與維權(quán)證據(jù)鏈建構(gòu)研究”(項(xiàng)目編號(hào):19ZDA347);南京大學(xué)2015年度研究生創(chuàng)新工程“跨學(xué)科科研創(chuàng)新基金”項(xiàng)目“民國檔案文獻(xiàn)中的環(huán)中國南海文化電函與報(bào)道研究”(項(xiàng)目編號(hào):2015CW04);江蘇省研究生培養(yǎng)創(chuàng)新工程項(xiàng)目“基于自動(dòng)關(guān)聯(lián)技術(shù)的南海問題證據(jù)鏈研究”(項(xiàng)目編號(hào):KYLX15_0025)。

    作者簡介:彭玉芳(1987-),女,博士,研究方向:情報(bào)分析、安全情報(bào)、自然語言處理、信息組織與檢索。陳將浩(1989-),男,碩士研究生,研究方向:用戶畫像、文本分類、情感分析。何志強(qiáng)(1990-),男,碩士研究生,研究方向:數(shù)據(jù)挖掘,信息與網(wǎng)絡(luò)安全。

    猜你喜歡
    貝葉斯南海證據(jù)
    南海明珠
    北海北、南海南
    黃河之聲(2021年10期)2021-09-18 03:07:18
    貝葉斯公式及其應(yīng)用
    南海的虎斑貝
    對(duì)于家庭暴力應(yīng)當(dāng)如何搜集證據(jù)
    紅土地(2016年3期)2017-01-15 13:45:22
    基于貝葉斯估計(jì)的軌道占用識(shí)別方法
    手上的證據(jù)
    “大禹治水”有了新證據(jù)
    南海隨筆
    草原(2016年1期)2016-01-31 21:21:51
    一種基于貝葉斯壓縮感知的說話人識(shí)別方法
    電子器件(2015年5期)2015-12-29 08:43:15
    精品一品国产午夜福利视频| 亚洲欧洲日产国产| 三级国产精品片| 日韩精品有码人妻一区| 成人综合一区亚洲| 国产乱来视频区| 十分钟在线观看高清视频www| 热re99久久国产66热| 多毛熟女@视频| 亚洲精品久久久久久婷婷小说| 欧美老熟妇乱子伦牲交| 在线观看人妻少妇| 午夜福利视频精品| 中文欧美无线码| 中文字幕另类日韩欧美亚洲嫩草| 欧美成人午夜免费资源| 毛片一级片免费看久久久久| 亚洲精品久久久久久婷婷小说| 国产成人精品无人区| 亚洲中文av在线| 爱豆传媒免费全集在线观看| 国产探花极品一区二区| 国产深夜福利视频在线观看| 丰满迷人的少妇在线观看| 日本黄大片高清| 精品人妻在线不人妻| 一边亲一边摸免费视频| 18禁国产床啪视频网站| 亚洲综合色网址| 亚洲av欧美aⅴ国产| 久久精品国产亚洲av涩爱| 国产免费一区二区三区四区乱码| 黄片播放在线免费| 黑丝袜美女国产一区| 亚洲,欧美精品.| 精品一区二区三卡| 欧美成人精品欧美一级黄| 国产成人精品久久久久久| 久久久久久人人人人人| 美女中出高潮动态图| 中文天堂在线官网| 女人被躁到高潮嗷嗷叫费观| 在线看a的网站| 成人二区视频| 亚洲天堂av无毛| 精品人妻在线不人妻| 自线自在国产av| 亚洲精品乱久久久久久| 永久免费av网站大全| 老司机影院成人| 久久久国产欧美日韩av| 国产成人av激情在线播放| 国产精品国产三级专区第一集| 亚洲中文av在线| 久久婷婷青草| 一级黄片播放器| 午夜激情av网站| 又粗又硬又长又爽又黄的视频| av在线观看视频网站免费| 精品福利永久在线观看| 韩国高清视频一区二区三区| 毛片一级片免费看久久久久| 亚洲熟女精品中文字幕| 免费黄频网站在线观看国产| 自拍欧美九色日韩亚洲蝌蚪91| 久久久亚洲精品成人影院| 国产精品国产av在线观看| 韩国av在线不卡| 国产av国产精品国产| 久久久久视频综合| 少妇高潮的动态图| 亚洲av综合色区一区| 久久久精品94久久精品| 免费人妻精品一区二区三区视频| 岛国毛片在线播放| 中国美白少妇内射xxxbb| 免费看不卡的av| a级片在线免费高清观看视频| kizo精华| 尾随美女入室| 在线观看一区二区三区激情| 欧美国产精品一级二级三级| 欧美激情国产日韩精品一区| 一区二区三区四区激情视频| 女人精品久久久久毛片| 91成人精品电影| 飞空精品影院首页| 大香蕉97超碰在线| 五月天丁香电影| 国产片特级美女逼逼视频| 亚洲精品国产色婷婷电影| 搡老乐熟女国产| 日本vs欧美在线观看视频| 亚洲伊人久久精品综合| 亚洲综合色网址| 宅男免费午夜| 国产精品久久久av美女十八| 国产色爽女视频免费观看| 又黄又爽又刺激的免费视频.| 99热全是精品| 久久精品国产综合久久久 | 两个人看的免费小视频| 久久久久久久精品精品| 国产综合精华液| 一区二区三区四区激情视频| 日本av手机在线免费观看| 麻豆精品久久久久久蜜桃| 久久韩国三级中文字幕| 丝袜人妻中文字幕| 国产一区二区三区综合在线观看 | 成年女人在线观看亚洲视频| 啦啦啦中文免费视频观看日本| 日日撸夜夜添| 9色porny在线观看| 黑人猛操日本美女一级片| 欧美成人午夜精品| 大片电影免费在线观看免费| 国产免费一级a男人的天堂| 热re99久久国产66热| 好男人视频免费观看在线| 午夜福利影视在线免费观看| 黑人高潮一二区| 亚洲精品,欧美精品| 国产精品久久久久久精品古装| 一级毛片我不卡| 国语对白做爰xxxⅹ性视频网站| 美女国产高潮福利片在线看| 午夜福利视频精品| 视频中文字幕在线观看| 亚洲欧美成人综合另类久久久| 国产精品偷伦视频观看了| 91午夜精品亚洲一区二区三区| 国产熟女欧美一区二区| 日本免费在线观看一区| 欧美日韩精品成人综合77777| 亚洲熟女精品中文字幕| 久久婷婷青草| 免费黄色在线免费观看| 国产精品成人在线| 少妇被粗大猛烈的视频| 日韩成人伦理影院| 国产老妇伦熟女老妇高清| 亚洲国产最新在线播放| 汤姆久久久久久久影院中文字幕| 在线精品无人区一区二区三| 9191精品国产免费久久| 欧美激情 高清一区二区三区| 视频在线观看一区二区三区| 日韩欧美一区视频在线观看| 久久久久久久精品精品| 国产视频首页在线观看| 人成视频在线观看免费观看| 男的添女的下面高潮视频| 亚洲天堂av无毛| 女的被弄到高潮叫床怎么办| 人人妻人人添人人爽欧美一区卜| 9色porny在线观看| 日韩制服丝袜自拍偷拍| 香蕉国产在线看| 精品一区二区三区四区五区乱码 | 久久综合国产亚洲精品| 国产成人精品无人区| 最近中文字幕高清免费大全6| 男人添女人高潮全过程视频| 久久精品久久久久久久性| 伦理电影免费视频| 精品亚洲成国产av| 狂野欧美激情性bbbbbb| 777米奇影视久久| 久久久a久久爽久久v久久| 国产69精品久久久久777片| 成人国语在线视频| 国产精品 国内视频| 欧美亚洲日本最大视频资源| 国产1区2区3区精品| 大香蕉久久成人网| 国产探花极品一区二区| 人人妻人人澡人人爽人人夜夜| 亚洲欧美成人精品一区二区| 亚洲精华国产精华液的使用体验| 纯流量卡能插随身wifi吗| 18禁动态无遮挡网站| 国产精品久久久久久精品电影小说| av国产精品久久久久影院| 午夜福利视频精品| 嫩草影院入口| 日本与韩国留学比较| 日韩av不卡免费在线播放| 免费观看av网站的网址| 青春草国产在线视频| 免费观看性生交大片5| 成人国产麻豆网| 天天操日日干夜夜撸| 成人毛片60女人毛片免费| 91成人精品电影| 亚洲人与动物交配视频| 色视频在线一区二区三区| 国产无遮挡羞羞视频在线观看| 久久精品久久久久久噜噜老黄| 午夜av观看不卡| 日韩av不卡免费在线播放| 在线观看www视频免费| 美女大奶头黄色视频| 日韩熟女老妇一区二区性免费视频| 色94色欧美一区二区| 欧美激情极品国产一区二区三区 | 亚洲经典国产精华液单| 欧美精品亚洲一区二区| 777米奇影视久久| 亚洲综合色网址| 综合色丁香网| 春色校园在线视频观看| 国产精品99久久99久久久不卡 | 97在线人人人人妻| 韩国高清视频一区二区三区| 国产69精品久久久久777片| 免费日韩欧美在线观看| 王馨瑶露胸无遮挡在线观看| av天堂久久9| 永久网站在线| 欧美激情极品国产一区二区三区 | 久热这里只有精品99| 哪个播放器可以免费观看大片| 涩涩av久久男人的天堂| 高清不卡的av网站| 2021少妇久久久久久久久久久| a级毛色黄片| 色婷婷久久久亚洲欧美| 国产精品国产三级国产专区5o| 午夜老司机福利剧场| 久久精品久久久久久噜噜老黄| 国产精品国产三级专区第一集| 免费观看a级毛片全部| 日产精品乱码卡一卡2卡三| 成人亚洲精品一区在线观看| 永久网站在线| 两性夫妻黄色片 | 97在线人人人人妻| 丝瓜视频免费看黄片| 久久婷婷青草| 亚洲久久久国产精品| 免费av不卡在线播放| 成年美女黄网站色视频大全免费| 天天操日日干夜夜撸| 视频区图区小说| 国产亚洲午夜精品一区二区久久| 免费大片18禁| 又黄又粗又硬又大视频| 国产精品一二三区在线看| 日本91视频免费播放| 99久久人妻综合| 午夜福利乱码中文字幕| 丝瓜视频免费看黄片| 久热久热在线精品观看| 欧美精品亚洲一区二区| 国产深夜福利视频在线观看| 日韩精品免费视频一区二区三区 | 国产精品欧美亚洲77777| 在线观看免费高清a一片| 曰老女人黄片| 成人无遮挡网站| 国产免费视频播放在线视频| 9热在线视频观看99| 中文字幕免费在线视频6| 欧美 日韩 精品 国产| 亚洲五月色婷婷综合| 中文字幕免费在线视频6| 久久久a久久爽久久v久久| 亚洲人成网站在线观看播放| 国产av精品麻豆| 日产精品乱码卡一卡2卡三| 在线观看美女被高潮喷水网站| 一本大道久久a久久精品| 欧美3d第一页| 在线观看一区二区三区激情| 亚洲精品美女久久久久99蜜臀 | 午夜福利视频在线观看免费| kizo精华| 国产熟女欧美一区二区| 日本与韩国留学比较| 久久这里只有精品19| 成人影院久久| 男人爽女人下面视频在线观看| 成年av动漫网址| 免费看不卡的av| 国产乱人偷精品视频| 十八禁网站网址无遮挡| 国产成人精品无人区| 免费播放大片免费观看视频在线观看| 国国产精品蜜臀av免费| 亚洲精品视频女| 亚洲成av片中文字幕在线观看 | 韩国精品一区二区三区 | 最近中文字幕高清免费大全6| 国产成人aa在线观看| 人妻一区二区av| 极品人妻少妇av视频| 天堂8中文在线网| 女的被弄到高潮叫床怎么办| 看十八女毛片水多多多| 亚洲国产av新网站| 最近手机中文字幕大全| 在线观看免费视频网站a站| 天天躁夜夜躁狠狠久久av| 日韩成人av中文字幕在线观看| 午夜精品国产一区二区电影| 欧美日本中文国产一区发布| 久久精品国产自在天天线| 亚洲精品av麻豆狂野| 在线亚洲精品国产二区图片欧美| 97超碰精品成人国产| 男女啪啪激烈高潮av片| 亚洲一级一片aⅴ在线观看| 免费日韩欧美在线观看| 亚洲欧美色中文字幕在线| 黑丝袜美女国产一区| 一级毛片 在线播放| 99久久综合免费| 成年av动漫网址| 免费av不卡在线播放| 亚洲国产av影院在线观看| 日日摸夜夜添夜夜爱| 如何舔出高潮| 日本黄色日本黄色录像| 91aial.com中文字幕在线观看| 伦理电影免费视频| 欧美成人午夜精品| 亚洲欧美成人精品一区二区| a级毛片在线看网站| 午夜久久久在线观看| a级毛片黄视频| 日本欧美视频一区| 天天操日日干夜夜撸| 精品久久蜜臀av无| 高清欧美精品videossex| 亚洲国产毛片av蜜桃av| 狠狠婷婷综合久久久久久88av| 精品午夜福利在线看| 美女内射精品一级片tv| 老女人水多毛片| 寂寞人妻少妇视频99o| 免费高清在线观看视频在线观看| 日韩中文字幕视频在线看片| 最近手机中文字幕大全| 亚洲国产色片| 久久久精品区二区三区| 高清在线视频一区二区三区| 久久女婷五月综合色啪小说| 久久人人97超碰香蕉20202| 精品人妻在线不人妻| 在线天堂最新版资源| 亚洲第一区二区三区不卡| 欧美日韩视频精品一区| 亚洲,一卡二卡三卡| 麻豆精品久久久久久蜜桃| 如何舔出高潮| 免费黄网站久久成人精品| 热99久久久久精品小说推荐| 午夜福利在线观看免费完整高清在| 桃花免费在线播放| 免费久久久久久久精品成人欧美视频 | 91久久精品国产一区二区三区| 激情五月婷婷亚洲| 97人妻天天添夜夜摸| 97在线人人人人妻| 黄片无遮挡物在线观看| 视频区图区小说| 黄色怎么调成土黄色| 咕卡用的链子| 亚洲人与动物交配视频| 秋霞伦理黄片| 高清黄色对白视频在线免费看| 日韩大片免费观看网站| 人人妻人人添人人爽欧美一区卜| videossex国产| 少妇熟女欧美另类| 国产一区有黄有色的免费视频| 黑丝袜美女国产一区| 极品人妻少妇av视频| 王馨瑶露胸无遮挡在线观看| 一个人免费看片子| 午夜福利网站1000一区二区三区| 99热网站在线观看| xxxhd国产人妻xxx| 国产精品蜜桃在线观看| 晚上一个人看的免费电影| 亚洲国产看品久久| 精品人妻偷拍中文字幕| 在线观看国产h片| 一二三四在线观看免费中文在 | 91成人精品电影| 熟女电影av网| 日本猛色少妇xxxxx猛交久久| 啦啦啦啦在线视频资源| 亚洲经典国产精华液单| 少妇的丰满在线观看| 少妇熟女欧美另类| 捣出白浆h1v1| av免费在线看不卡| 好男人视频免费观看在线| 国产成人欧美| 美女脱内裤让男人舔精品视频| 九色成人免费人妻av| 丝袜脚勾引网站| av视频免费观看在线观看| 蜜臀久久99精品久久宅男| 青青草视频在线视频观看| 一边摸一边做爽爽视频免费| 午夜视频国产福利| 制服诱惑二区| 99九九在线精品视频| 一级黄片播放器| 丁香六月天网| 久久久精品免费免费高清| 免费女性裸体啪啪无遮挡网站| 丰满乱子伦码专区| 久久精品夜色国产| 免费在线观看完整版高清| 一区二区三区精品91| 一级毛片 在线播放| 毛片一级片免费看久久久久| 午夜精品国产一区二区电影| 赤兔流量卡办理| 国产精品人妻久久久久久| 国产有黄有色有爽视频| 免费观看在线日韩| 国产欧美另类精品又又久久亚洲欧美| 午夜福利视频精品| 在线观看人妻少妇| 大陆偷拍与自拍| 五月伊人婷婷丁香| 性色avwww在线观看| 日韩 亚洲 欧美在线| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 亚洲欧美色中文字幕在线| 尾随美女入室| 国产福利在线免费观看视频| 国产亚洲午夜精品一区二区久久| 一本久久精品| 国产又爽黄色视频| 国产熟女欧美一区二区| 欧美精品一区二区免费开放| 亚洲天堂av无毛| 王馨瑶露胸无遮挡在线观看| 又黄又爽又刺激的免费视频.| 全区人妻精品视频| 国产亚洲最大av| 国产精品久久久久久久久免| 男女午夜视频在线观看 | 国产1区2区3区精品| 又黄又爽又刺激的免费视频.| freevideosex欧美| 黑人高潮一二区| 两性夫妻黄色片 | 亚洲精品aⅴ在线观看| 国产精品国产三级专区第一集| 国产片内射在线| 在线观看www视频免费| 久久婷婷青草| 午夜日本视频在线| 各种免费的搞黄视频| 三级国产精品片| 美女视频免费永久观看网站| 国产探花极品一区二区| 日本午夜av视频| 久久精品久久精品一区二区三区| 一边摸一边做爽爽视频免费| 久热这里只有精品99| 美女大奶头黄色视频| 久久久国产一区二区| 在线 av 中文字幕| 日韩 亚洲 欧美在线| 在线观看人妻少妇| 在线精品无人区一区二区三| 欧美日韩综合久久久久久| 我的女老师完整版在线观看| 亚洲精品中文字幕在线视频| 亚洲在久久综合| 26uuu在线亚洲综合色| 春色校园在线视频观看| av在线app专区| 精品国产一区二区久久| 日本欧美国产在线视频| 亚洲精品久久成人aⅴ小说| 欧美日韩综合久久久久久| 精品一区二区三区四区五区乱码 | 国产精品久久久久久精品电影小说| 免费看不卡的av| 亚洲伊人久久精品综合| 午夜激情av网站| 国产毛片在线视频| 精品国产一区二区久久| 下体分泌物呈黄色| 欧美+日韩+精品| 精品一区二区免费观看| 男人爽女人下面视频在线观看| 久久久久久久久久成人| 69精品国产乱码久久久| 黄色毛片三级朝国网站| 午夜精品国产一区二区电影| 99热这里只有是精品在线观看| 亚洲av日韩在线播放| 日韩欧美精品免费久久| 中国美白少妇内射xxxbb| 日韩三级伦理在线观看| 亚洲av免费高清在线观看| 精品人妻一区二区三区麻豆| 大香蕉久久网| 两性夫妻黄色片 | 26uuu在线亚洲综合色| 亚洲精品久久午夜乱码| 曰老女人黄片| 午夜影院在线不卡| 一个人免费看片子| 成人亚洲欧美一区二区av| 亚洲成国产人片在线观看| 9191精品国产免费久久| 丰满饥渴人妻一区二区三| 国产探花极品一区二区| 26uuu在线亚洲综合色| 国产日韩一区二区三区精品不卡| 成人二区视频| 卡戴珊不雅视频在线播放| 在现免费观看毛片| 日韩精品免费视频一区二区三区 | 天美传媒精品一区二区| 成人影院久久| 美国免费a级毛片| 久久久a久久爽久久v久久| 考比视频在线观看| 日本免费在线观看一区| 成人国产av品久久久| 黄片无遮挡物在线观看| 国产在线一区二区三区精| 欧美人与性动交α欧美软件 | 国产精品一区二区在线观看99| 女人久久www免费人成看片| 丝袜喷水一区| 尾随美女入室| 成人黄色视频免费在线看| 中文字幕人妻熟女乱码| 午夜91福利影院| 少妇高潮的动态图| 国产午夜精品一二区理论片| a级毛片在线看网站| 两个人看的免费小视频| 亚洲精品中文字幕在线视频| 一级,二级,三级黄色视频| 午夜91福利影院| 精品一区二区三卡| 国产一区二区三区av在线| 欧美精品亚洲一区二区| 天堂中文最新版在线下载| 99九九在线精品视频| 欧美日本中文国产一区发布| 久久人人爽av亚洲精品天堂| 国产又色又爽无遮挡免| 亚洲欧洲日产国产| 亚洲欧美成人精品一区二区| 黄色怎么调成土黄色| 成人免费观看视频高清| 国产在视频线精品| 在线看a的网站| 亚洲欧美一区二区三区国产| 一级,二级,三级黄色视频| 亚洲综合精品二区| 国产av码专区亚洲av| 99久久精品国产国产毛片| 插逼视频在线观看| videossex国产| 五月开心婷婷网| 中文字幕av电影在线播放| 国产一区二区三区综合在线观看 | 国产 精品1| 男的添女的下面高潮视频| 我要看黄色一级片免费的| 波野结衣二区三区在线| 18禁在线无遮挡免费观看视频| 性高湖久久久久久久久免费观看| 久久 成人 亚洲| 成人免费观看视频高清| 少妇猛男粗大的猛烈进出视频| 久久鲁丝午夜福利片| 最近中文字幕高清免费大全6| 少妇高潮的动态图| 大片免费播放器 马上看| 久久国产精品大桥未久av| 日韩欧美精品免费久久| 你懂的网址亚洲精品在线观看| 日本欧美国产在线视频| 亚洲精品aⅴ在线观看| 欧美日韩av久久| 日韩人妻精品一区2区三区| 9热在线视频观看99| 男的添女的下面高潮视频| 中文乱码字字幕精品一区二区三区| 纵有疾风起免费观看全集完整版| 在线 av 中文字幕| 日韩人妻精品一区2区三区| 一级黄片播放器| 哪个播放器可以免费观看大片| 国产爽快片一区二区三区| 七月丁香在线播放| 日本欧美视频一区| 九色成人免费人妻av| 热99久久久久精品小说推荐| 男女国产视频网站| 热99久久久久精品小说推荐| 亚洲精品国产色婷婷电影| 人妻一区二区av| av国产精品久久久久影院| 女人久久www免费人成看片| 大片免费播放器 马上看| 99精国产麻豆久久婷婷| 婷婷色综合www|