• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于知識融合和聚類引導(dǎo)的語言模型用于MOFs合成信息分類

    2024-09-21 00:00:00李海軍王卓
    現(xiàn)代電子技術(shù) 2024年18期

    摘 "要: 金屬有機(jī)框架(MOFs)的合成實驗步驟通常集中存儲在科學(xué)文獻(xiàn)某一段落內(nèi),從文獻(xiàn)中提取實驗步驟對推動新型金屬有機(jī)框架的開發(fā)具有重要意義。現(xiàn)有研究存在兩個問題:第一,將整篇文獻(xiàn)視為普通文本,按句/段直接切分處理,忽略了上下文中隱藏的高級知識;第二,模型未深入挖掘數(shù)據(jù)內(nèi)部的隱藏模式。針對上述問題,提出一個基于知識融合策略的高質(zhì)量知識補(bǔ)充任務(wù)。利用科學(xué)文獻(xiàn)編輯風(fēng)格和結(jié)構(gòu)化Web數(shù)據(jù)的微妙之處,將上下文關(guān)鍵知識匯集到段落中,進(jìn)而優(yōu)化其文本表征;然后提出一種基于聚類引導(dǎo)的自適應(yīng)分類算法,采用聚類算法將文本表征劃分為多個簇,同時訓(xùn)練不同的分類模型來適應(yīng)不同的簇,從而有效地減少數(shù)據(jù)重疊的影響,提高模型召回率。實驗結(jié)果表明,所提方法的性能相比主流基線模型有較大提升。

    關(guān)鍵詞: 金屬有機(jī)框架; 科學(xué)文獻(xiàn); 知識融合; 文本表征; 聚類引導(dǎo); 自適應(yīng)分類; 數(shù)據(jù)重疊

    中圖分類號: TN919.6+5?34; TP391 " " " " " " " " " 文獻(xiàn)標(biāo)識碼: A " " " " " " " " 文章編號: 1004?373X(2024)18?0179?08

    Language model based on knowledge fusion and cluster guidance for MOFs synthesis information classification

    LI Haijun1, 2, 3, WANG Zhuo1, 2

    (1. Shenyang Institute of Automation, Chinese Academy of Sciences, Shenyang 110016, China;

    2. Institutes for Robotics and Intelligent Manufacturing, Chinese Academy of Sciences, Shenyang 110169, China;

    3. University of Chinese Academy of Sciences, Beijing 100049, China)

    Abstract: The experimental steps for the synthesis of metal?organic frameworks (MOFs) are usually stored in a certain section of scientific literature. It is of great significance to extract the experimental steps from the literature to promote the development of new MOFs. There are two problems in the existing research: first, the whole literature is regarded as ordinary text, and the sentence/paragraph is directly segmented, ignoring the advanced knowledge hidden in the context; second, the model does not dig deeply into the hidden patterns within the data. On this basis, a high?quality knowledge supplementation tasks based on knowledge fusion strategy is proposed. The subtleties of literature editing styles and interactive web data are used to bring together context?critical knowledge into paragraphs, so as to optimize their textual representation. An adaptive classification algorithm based on clustering guidance is proposed. The clustering algorithm is used to divide text representation into multiple clusters, while training different classification model to adapt to different clusters, effectively reducing the impact of data overlap and improving model recall. The experimental results show that in comparison with the mainstream baseline models, the proposed method has great performance improvement.

    Keywords: metal?organic framework; scientific literature; knowledge fusion; text representation; clustering guidance; adaptive classification; data overlap

    0 "引 "言

    金屬有機(jī)框架(Matal?organic Frameworks, MOFs)是一種周期性網(wǎng)狀結(jié)構(gòu)材料,具有高度模塊性、可控設(shè)計性及多種物理化學(xué)性質(zhì)[1?3],被預(yù)測為21世紀(jì)的決定性材料。MOFs的合成程序有大量可變合成參數(shù)(如溫度、反應(yīng)時間、溶劑和pH),以往科研人員只能通過基于經(jīng)驗和知識的“試錯”模式來尋找合成條件。這種方式十分低效,無法滿足國家戰(zhàn)略和重大工程對高性能MOFs材料的巨大需求。為了加速新型MOFs材料的研發(fā)進(jìn)程,人們希望使用深度學(xué)習(xí)技術(shù)來提高預(yù)測任意MOFs合成條件的準(zhǔn)確性,但這受到缺乏MOFs材料合成實驗步驟的綜合數(shù)據(jù)集的阻礙。由于互聯(lián)網(wǎng)技術(shù)的發(fā)展,大量公開可獲取的包含MOFs實驗合成信息的科學(xué)文獻(xiàn)以Web形式分散存儲于各大期刊出版社,而這些文獻(xiàn)對MOFs研發(fā)具有重要參考價值。因此,如何從海量的文獻(xiàn)中識別并分類出這些復(fù)雜合成信息,對加速M(fèi)OFs研發(fā)有重要意義。

    盡管近年來預(yù)訓(xùn)練語言模型被廣泛用于各領(lǐng)域的分類任務(wù)中,并表現(xiàn)出優(yōu)良的性能[4?6],但在處理冗長的文本尤其是背景更為復(fù)雜的特殊領(lǐng)域文本時,語言模型無法完全捕捉文本的關(guān)鍵知識,導(dǎo)致其很難理解長文本的復(fù)雜語義[7]。這些長文本中的語言規(guī)律使得微調(diào)預(yù)訓(xùn)練語言模型所取得的效果不夠理想,特別是召回率指標(biāo)。在遷移學(xué)習(xí)中,高召回率意味著模型學(xué)習(xí)到目標(biāo)域的關(guān)鍵特征,因此提高模型召回率指標(biāo)是整個遷移學(xué)習(xí)領(lǐng)域的重難點。

    對于一些特殊的長文本語料如科學(xué)文獻(xiàn),其上下文中可能存在一些直接影響模型輸出的前驅(qū)知識。例如,科學(xué)文獻(xiàn)大都有一些特殊的構(gòu)詞規(guī)則,用于構(gòu)建專有詞匯,這些詞匯往往被作者按照個人風(fēng)格用不同的代詞在文中指代,而語言模型無法理解這些代詞含義以及文本之間的邏輯關(guān)系。與語言模型相比,讀者很少費(fèi)力去理解科學(xué)文獻(xiàn)的重要內(nèi)容和作者的隱喻,這是因為作者經(jīng)常利用科學(xué)文獻(xiàn)中各種各樣的文本樣式,如粗體和斜體等來強(qiáng)調(diào)特定內(nèi)容,這種機(jī)制可以引導(dǎo)讀者準(zhǔn)確捕捉文章的語義。但是現(xiàn)有方法不支持學(xué)習(xí)并理解這種機(jī)制,而是局限于處理解析后的純文本。受此啟發(fā),并參考大語言模型檢索增強(qiáng)生成技術(shù)[8]和提示工程[9]技術(shù),針對以上問題,本文從數(shù)據(jù)層面提出一種高質(zhì)量知識補(bǔ)充方法。該方法模仿人類閱讀習(xí)慣,從上下文獲取高質(zhì)量知識來提高數(shù)據(jù)質(zhì)量,從而有效地增強(qiáng)段落語義的信息表征。如圖1所示,高質(zhì)量知識補(bǔ)充方法首先檢索文獻(xiàn)的粗體文本(圖1灰色字體),這些粗體文本作為代詞,是作者在文獻(xiàn)中重點強(qiáng)調(diào)的內(nèi)容,直接影響模型對文本語義的理解;隨后基于最近距離機(jī)制和正則表達(dá)式匹配粗體文本及其相關(guān)內(nèi)容;最后用這些相關(guān)內(nèi)容替換全文的粗體文本(圖1中帶底紋字體),增強(qiáng)模型處理歧義和復(fù)雜邏輯關(guān)系的能力。通過注入上下文中關(guān)鍵信息引導(dǎo)模型能夠正確學(xué)習(xí)文本語義,提高模型對復(fù)雜合成信息的召回率。

    同時在模型層面上,分類任務(wù)中造成模型性能表現(xiàn)不佳的原因之一是模型無法準(zhǔn)確判別困惑樣本的類別,即樣本在語義表征空間中發(fā)生了數(shù)據(jù)重疊。針對該問題,本文提出一種基于聚類引導(dǎo)的自適應(yīng)文本分類框架,通過引入無監(jiān)督聚類作為代理任務(wù),挖掘數(shù)據(jù)內(nèi)部的隱藏模式來指導(dǎo)模型訓(xùn)練,引導(dǎo)模型根據(jù)樣本分類難度自適應(yīng)學(xué)習(xí)分類樣本的有效特征,有效減少了數(shù)據(jù)重疊的影響。本文總體框架如圖2所示,主要由三部分組成。

    1) 本文利用各期刊出版社提供的文本數(shù)據(jù)挖掘服務(wù),共收集了與34 143個MOFs合成相關(guān)的20 766篇HTML/XML格式的文獻(xiàn)作為語料庫,并基于此,人工標(biāo)注了一個中等規(guī)模的關(guān)于MOFs合成信息的數(shù)據(jù)集。

    2) 本文首次提出一種高質(zhì)量知識補(bǔ)充方法,在模型訓(xùn)練前,將科學(xué)文獻(xiàn)上下文中特定的關(guān)鍵內(nèi)容作為高質(zhì)量知識與當(dāng)前段落相融合,有效增強(qiáng)了段落語義的信息表征,從而提高模型對不同類別樣本的分類性能。該方法簡練而高效,在HTML/XML格式科學(xué)文獻(xiàn)的處理上,具備一定的可移植性和擴(kuò)展性。

    3) 本文提出一種基于聚類引導(dǎo)的自適應(yīng)文本分類框架,該框架融合聚類和分類算法來實現(xiàn)一個高性能分類系統(tǒng)。具體來說,在有監(jiān)督微調(diào)之前添加一個無監(jiān)督聚類任務(wù),對段落級語義表示進(jìn)行聚類,得到不同的數(shù)據(jù)集合,并為每個數(shù)據(jù)集合訓(xùn)練基分類器。聚類是為了挖掘數(shù)據(jù)的內(nèi)部隱藏性質(zhì),給后續(xù)分類模型決策額外提供有益的信息,提高模型對困惑樣本的區(qū)分能力。

    1 "相關(guān)工作

    文本分類是文獻(xiàn)文本挖掘中一個重要的子任務(wù),是提取文獻(xiàn)知識的首要步驟。近年來,預(yù)訓(xùn)練語言模型在多個自然語言處理任務(wù)中取得了SOTA效果,它們通常使用大量的文本語料庫學(xué)習(xí)通用表示,例如BERT[10]、Sentence?BERT[11]和DeBERTa[12]等。此外,為滿足專有領(lǐng)域的需求,研究人員收集了大量專有領(lǐng)域的語料并基于某個預(yù)訓(xùn)練語言模型進(jìn)行二次預(yù)訓(xùn)練,得到如SciBERT[13]、MatsciBERT[14]和ChemBERT[15]等預(yù)訓(xùn)練語言模型,這些語言模型常被用于解決相關(guān)領(lǐng)域的文本分類問題。

    文獻(xiàn)[16]詳細(xì)介紹了如何在文本分類任務(wù)中使用預(yù)訓(xùn)練語言模型進(jìn)行精細(xì)微調(diào)的方法,當(dāng)下游目標(biāo)領(lǐng)域有足夠數(shù)量的訓(xùn)練數(shù)據(jù)時,微調(diào)語言模型的效果會遠(yuǎn)遠(yuǎn)超過傳統(tǒng)模型。但由于人工標(biāo)注數(shù)據(jù)非常耗時耗力或者語料庫的缺乏,在現(xiàn)實應(yīng)用場景中,微調(diào)預(yù)訓(xùn)練語言模型通常難以獲得期望的性能效果。文獻(xiàn)[17]通過設(shè)計輔助句子來構(gòu)造句子對,將特定的領(lǐng)域知識整合到BERT模型中,在多個文本分類數(shù)據(jù)集上取得SOTA效果。該方法表明,當(dāng)沒有足夠的標(biāo)注數(shù)據(jù)訓(xùn)練時,外部領(lǐng)域知識是提高微調(diào)語言模型效果的有效方法。文獻(xiàn)[18]利用預(yù)訓(xùn)練語言模型的嵌入技術(shù)壓縮長文本,旨在削弱長文本中冗余信息和歧義信息帶來的不利影響,并在貿(mào)易協(xié)定長文本數(shù)據(jù)的分類上取得顯著的性能提升。上述研究均是為了使得模型能提取到區(qū)分樣本的有效特征,從而提高目標(biāo)任務(wù)上的性能。

    與以前的方法相比,本文工作從兩個方面做出改進(jìn):一方面,首次提出一個高質(zhì)量知識補(bǔ)充方法來改善模型性能,且無需額外訓(xùn)練和人工標(biāo)注,從數(shù)據(jù)層面輔助模型捕捉文獻(xiàn)上下文中的事實知識,提高模型處理歧義和復(fù)雜邏輯關(guān)系的能力;另一方面,從任務(wù)層面出發(fā),設(shè)計了一個特殊的代理任務(wù)來彌合語言模型的預(yù)訓(xùn)練任務(wù)和下游目標(biāo)任務(wù)之間的差距,即通過引入無監(jiān)督聚類任務(wù)挖掘數(shù)據(jù)內(nèi)部的模式,作為先驗信息在微調(diào)之前提供給模型,引導(dǎo)模型關(guān)注可緩解數(shù)據(jù)重疊的有效特征。

    2 "數(shù)據(jù)集建立

    2.1 "材料科學(xué)文獻(xiàn)語料庫構(gòu)建

    劍橋晶體數(shù)據(jù)中心(Cambridge Crystallographic Data Centre, CCDC)[19]自1965年來一直致力于晶體數(shù)據(jù)的收集與數(shù)字化工作,其收錄了全世界所有已認(rèn)可的金屬有機(jī)化合物的結(jié)構(gòu)和相關(guān)文獻(xiàn)方面的信息,這些文獻(xiàn)包含對應(yīng)晶體的實驗合成信息。

    為了構(gòu)建關(guān)于MOFs材料合成文獻(xiàn)的語料庫,本文選擇劍橋結(jié)構(gòu)數(shù)據(jù)庫MOFs子集(CSD_5.43),其中存儲每個MOFs對應(yīng)的特殊標(biāo)識符,可以通過這些標(biāo)識符,在數(shù)據(jù)庫訪問相關(guān)內(nèi)容。根據(jù)得到的特殊標(biāo)識符使用CSD Python?API從數(shù)據(jù)庫中檢索到92 978個MOFs和對應(yīng)的37 927個DOI號。本文在調(diào)研了多個主流期刊出版社的文本數(shù)據(jù)挖掘服務(wù),并結(jié)合以往文本挖掘工作,利用出版社提供的API,通過DOI號批量獲取出版社數(shù)據(jù)庫中以HTML/XML/PDF格式存儲的文獻(xiàn)手稿。

    文獻(xiàn)下載并解析后,需要將冗長的文本切分為短文本再進(jìn)行后續(xù)處理。現(xiàn)有的文本處理工具均是利用自然語言中獨(dú)有的句子結(jié)束標(biāo)志來完成對文本內(nèi)容的切分工作,因此,在提取PDF格式文獻(xiàn)的內(nèi)部信息時有提取數(shù)據(jù)不連續(xù)的可能,而HTML/XML作為標(biāo)記語言,通過標(biāo)簽和屬性組合可以清晰地描述文獻(xiàn)各個章節(jié)和段落單元,這種結(jié)構(gòu)化的存儲方式同樣有利于后續(xù)的解析和處理。最終本文以20 766篇成功下載的HTML/XML格式科學(xué)文獻(xiàn)作為基礎(chǔ)語料庫,具體信息如表1所示。

    2.2 "高質(zhì)量知識補(bǔ)充方法

    為了提高模型的性能表現(xiàn),對實驗結(jié)果和數(shù)據(jù)進(jìn)行探索性分析。本文收集的語料文獻(xiàn)中不僅包含MOFs的合成信息,還包括相關(guān)配料的合成信息,兩者間結(jié)構(gòu)的高度相似會導(dǎo)致模型誤判。此外,段落中數(shù)值和代詞過多,缺乏關(guān)鍵信息,使得模型分類難度大。需要說明的是,由于MOFs和配料的命名方式十分復(fù)雜且不易書寫,文獻(xiàn)作者常利用數(shù)值類代詞指代,并使用粗體文本特別強(qiáng)調(diào)。顯然粗體文本蘊(yùn)含十分重要的信息,能夠幫助模型區(qū)分結(jié)構(gòu)相似的樣本,但現(xiàn)有模型和方法無法從單個段落中理解這些復(fù)雜的邏輯關(guān)系及知識。

    相比于純文本語料,HTML/XML格式文本存儲著更豐富的信息,可以從中提取上下文的聯(lián)系補(bǔ)充給訓(xùn)練數(shù)據(jù)。針對上述問題,本文首次提出一個高質(zhì)量知識補(bǔ)充方法,無需額外訓(xùn)練和人工標(biāo)注,通過檢索文獻(xiàn)上下文中隱藏的信息,作為模型分類的關(guān)鍵特征與段落文本融合。具體來說,本文首先檢索得到全篇文獻(xiàn)數(shù)值類粗體文本及其鄰近句子;然后基于最近距離機(jī)制獲取粗體文本前后可能的指代內(nèi)容,并使用正則表達(dá)式作為約束來檢驗相關(guān)信息是否為MOFs或者配料的實體名詞,循環(huán)執(zhí)行上述操作直至獲取所有代詞及相應(yīng)的指代對象;最后,在全文中將所有的數(shù)值類粗體文本替換為指代對象。表2所示為語料庫中執(zhí)行高質(zhì)量補(bǔ)充任務(wù)的文獻(xiàn)數(shù)量,共有17 020篇文獻(xiàn)成功執(zhí)行,證明了該方法的實用性。

    2.3 "數(shù)據(jù)集標(biāo)注

    本次數(shù)據(jù)集標(biāo)注工作共有3人參與,采用1人標(biāo)記、另外2人審核的方式,有效減少人為因素造成的錯標(biāo)和漏標(biāo),保證數(shù)據(jù)標(biāo)注的質(zhì)量。首先,本文以分段隨機(jī)采樣的方式從20 766篇MOFs合成的相關(guān)科學(xué)文獻(xiàn)中收集1 000篇文獻(xiàn),隨后按照段落切分后共獲得21 705個段落。本文將這些段落中包含實驗信息的段落命名為合成段落,其余段落命名為非合成段落,標(biāo)注時令非合成段落文本標(biāo)簽為0,合成段落文本標(biāo)簽為1,并以文獻(xiàn)為單位,按照7∶2∶1的比例劃分訓(xùn)練集、測試集和驗證集。構(gòu)建的數(shù)據(jù)集具體信息如表3所示。

    3 "方 "法

    本文提出一種基于聚類引導(dǎo)的自適應(yīng)分類框架,通過在預(yù)訓(xùn)練語言模型表征層和下游分類層之間添加一個無監(jiān)督聚類層來挖掘數(shù)據(jù)的隱藏模式,使得模型能更加關(guān)注于困惑樣本的區(qū)分,進(jìn)而提高整體模型的性能。模型框架如圖3所示。

    3.1 "預(yù)訓(xùn)練語言模型編碼層

    預(yù)訓(xùn)練語言模型是一種基于Transformer架構(gòu)的模型,可以對上下文進(jìn)行雙向編碼,僅需少數(shù)的參數(shù)調(diào)整就可在大多數(shù)的自然語言任務(wù)上獲得最佳實驗性能,是自然語言處理領(lǐng)域重要的研究成果。本文利用多個預(yù)訓(xùn)練語言模型作為編碼器層,將切分后的段落文本進(jìn)行編碼,獲得連續(xù)的段落向量表示。

    3.2 "無監(jiān)督聚類算法

    無監(jiān)督聚類算法是一種機(jī)器學(xué)習(xí)算法,它通過分析數(shù)據(jù)本身的內(nèi)在性質(zhì)和模式,將樣本劃分為若干類別,使得同類別樣本間的相似度高,不同類別的樣本相似度低。K?means算法是經(jīng)典的聚類方法,通過最小化簇內(nèi)平方和來劃分?jǐn)?shù)據(jù)。本文采用K?means算法將數(shù)據(jù)劃分為三個不同的簇,分別代表易分正類樣本、易分負(fù)類樣本和困惑樣本的集合,再基于聚類結(jié)果訓(xùn)練后續(xù)的分類模型。

    為更好地解釋本文所提出的基于聚類引導(dǎo)的自適應(yīng)文本分類框架的優(yōu)勢,首先使用BERT模型將文本編碼為向量,然后利用PCA算法將其降維并可視化。PCA算法作為一種線性降維技術(shù),能夠反映原始數(shù)據(jù)的空間分布模式。PCA降維后的段向量分布如圖4所示,class 0和class 1分別代表非合成段落與合成段落。值得注意的是,圖中兩個類別的數(shù)據(jù)有一定重疊,這種數(shù)據(jù)重疊會在一定程度上造成模型誤判,導(dǎo)致許多樣本被錯誤分類,削弱模型的性能。

    圖5是無監(jiān)督聚類后得到的數(shù)據(jù)分布模式。訓(xùn)練數(shù)據(jù)被劃分為3個集合,結(jié)合圖4可知:cluster 1和cluster 2的樣本邊界十分明顯,代表易分正類或易分負(fù)類樣本集合;而cluster 3中數(shù)據(jù)重疊現(xiàn)象最為顯著,代表困惑樣本集合。在聚類引導(dǎo)后,訓(xùn)練數(shù)據(jù)按照分類難度被細(xì)分為不同的簇,在簇上訓(xùn)練的分類器可以更好地學(xué)習(xí)區(qū)分樣本邊界的有效特征,從而提高整體模型的泛化能力。

    3.3 "特征提取層

    段向量是預(yù)訓(xùn)練語言模型基于其語料庫學(xué)習(xí)得到的一種通用表示,需要在此基礎(chǔ)上做出一定的微調(diào)以更好地適用于下游任務(wù)。通過微調(diào)預(yù)訓(xùn)練模型和特征提取層可以突出重要信息,弱化次要信息,更加全面地學(xué)習(xí)段落文本的語義表征。目前,在文本分類任務(wù)中,主流的特征提取網(wǎng)絡(luò)結(jié)構(gòu)包括DPCNN[20]、Text?RCNN[21]和TextCNN[22]等。在多次實驗后,本文發(fā)現(xiàn)使用合理設(shè)計的LightMLP層作為特征提取層,其表現(xiàn)均優(yōu)于上述特征提取網(wǎng)絡(luò),故決定將BERT_LightMLP作為本文基線模型。

    3.4 "模型分類層

    模型分類層采用Softmax層進(jìn)行預(yù)測分類,其輸入為段落文本的語義特征表示X,輸出為各類別真實性的概率o,公式如下:

    [o=Softmax(W·X+b)] " " " " "(1)

    式中:[W∈Rc×h]為變換矩陣;[b∈Rc]為偏置項,c為類別數(shù)目。

    具體訓(xùn)練過程如下:首先精細(xì)微調(diào)語言模型,使其能學(xué)習(xí)到訓(xùn)練數(shù)據(jù)中一部分知識,獲取其對段落文本的語義向量表示;其次,利用K?means算法將這些語義向量表示劃分為易分正類和易分負(fù)類樣本集合或困惑樣本集合;然后,凍結(jié)之前微調(diào)后語言模型的參數(shù),為聚類得到樣本集合,分別再訓(xùn)練一個LightMLP層進(jìn)行特征聚合;最后,新樣本經(jīng)過語言模型編碼,可根據(jù)分類難度自適應(yīng)分配到相應(yīng)樣本集合對應(yīng)的特征聚合層,再經(jīng)Softmax層后輸出所屬類別。

    4 "實 "驗

    本文實驗環(huán)境配置為:NVIADA GeForce RTX 3060顯卡,編程語言分別是Python 3.9和PyTorch 1.10.1,超參數(shù)調(diào)優(yōu)工具使用Optuna 3.3.0。

    4.1 "評價指標(biāo)

    本文主要通過宏精確率Macro_P、宏召回率Macro_R和宏F1分?jǐn)?shù)Macro?F1值三個指標(biāo)來衡量模型性能,具體公式如下:

    [Macro_P=系統(tǒng)正確預(yù)測的非合成段落個數(shù)2×系統(tǒng)預(yù)測的非合成段落個數(shù)+ " " " " " " " " " " "系統(tǒng)正確預(yù)測的合成段落個數(shù)2×系統(tǒng)預(yù)測的合成段落個數(shù)×100%] (2)

    [Macro_R=系統(tǒng)正確預(yù)測的非合成段落個數(shù)2×實際上非合成段落個數(shù)+ " " " " " " " " " " "系統(tǒng)正確預(yù)測的合成段落個數(shù)2×實際上合成段落個數(shù)×100%] (3)

    [Macro?F1=2×Macro_P×Macro_RMacro_P×Macro_R×100%] "(4)

    4.2 "基線模型和超參數(shù)設(shè)置

    為了證明本文方法對于提高微調(diào)預(yù)訓(xùn)練語言模型在分類任務(wù)上性能效果的通用性,實驗選用的預(yù)訓(xùn)練語言模型有BERT、MatsciBERT、SciBERT、ChemBERT、Sentence?BERT和DeBERTa?v3,其中BERT、Sentence?BERT和DeBERTa?v3是利用通用語料庫訓(xùn)練的語言模型,MatSciBERT、SciBERT和ChemBERT是使用科學(xué)文獻(xiàn)語料進(jìn)行二次預(yù)訓(xùn)練的語言模型。在本文的實驗中,各語言模型將作為數(shù)據(jù)的編碼器,將文本轉(zhuǎn)化為連續(xù)向量表示。同時本文在將實驗數(shù)據(jù)集中21 705個文本段落編碼后的token長度統(tǒng)計后,確定其中位數(shù)為334,最終將各預(yù)訓(xùn)練語言模型的最大輸入序列長度的超參數(shù)設(shè)置為350。實驗采用Adam優(yōu)化器,并使用分層學(xué)習(xí)率分別調(diào)節(jié)預(yù)訓(xùn)練語言模型和下游任務(wù)模型,使用Optuna框架對模型超參數(shù)進(jìn)行自動化調(diào)優(yōu),綜合實驗后得到的最優(yōu)超參數(shù)設(shè)置如表4所示。

    4.3 "模型性能分析

    本文共設(shè)置三組實驗來進(jìn)行充分的比較,分別為:不同預(yù)訓(xùn)練語言模型的對比實驗、高質(zhì)量知識補(bǔ)充方法的消融實驗、聚類引導(dǎo)機(jī)制的消融實驗。

    4.3.1 "不同預(yù)訓(xùn)練語言模型的對比實驗

    本節(jié)主要對基于不同預(yù)訓(xùn)練語言模型的基線方法進(jìn)行實驗,共設(shè)計了6個實驗,為后續(xù)實驗效果對比提供基準(zhǔn)模型。表5列出了不同預(yù)訓(xùn)練語言模型在MOFs合成信息分類任務(wù)上的性能。

    本文從參數(shù)規(guī)模大小以及是否使用領(lǐng)域語料二次預(yù)訓(xùn)練兩個方面進(jìn)行分析。與BERT相比,參數(shù)量擴(kuò)增1倍的DeBERTa?v3幾乎沒有性能提升,其根本原因在于兩者均無法從通用領(lǐng)域語料庫學(xué)習(xí)到專有領(lǐng)域中特殊的知識和模式。此外,在領(lǐng)域語料庫上二次預(yù)訓(xùn)練的模型SciBERT和MatsciBERT,相比BERT和Sentence?BERT模型的實驗性能更優(yōu),表明二次預(yù)訓(xùn)練能夠從專業(yè)領(lǐng)域語料庫中學(xué)習(xí)到部分領(lǐng)域?qū)I(yè)知識和領(lǐng)域語言規(guī)律特性。另外,由于深度學(xué)習(xí)模型的性能與數(shù)據(jù)規(guī)模相關(guān)性強(qiáng),ChemBERT二次預(yù)訓(xùn)練用的領(lǐng)域語料僅選擇了20萬篇化學(xué)類科學(xué)文獻(xiàn),而SciBERT使用了114萬文獻(xiàn)進(jìn)行預(yù)訓(xùn)練,MatSciBERT是在SciBERT的基礎(chǔ)上使用15萬篇文獻(xiàn)再次訓(xùn)練。故本文推測數(shù)據(jù)量不足是導(dǎo)致ChemBERT表現(xiàn)欠佳的原因之一。

    4.3.2 "高質(zhì)量知識補(bǔ)充方法的消融實驗

    為了驗證高質(zhì)量知識補(bǔ)充方法的有效性,本節(jié)設(shè)置了6組實驗,如表6所示。表6列出了在表5中模型的基礎(chǔ)上增加高質(zhì)量知識補(bǔ)充方法后,各模型在段落文本分類任務(wù)上的表現(xiàn)??梢钥闯?,通過增加高質(zhì)量知識補(bǔ)充方法,能夠有效提升各語言模型在下游分類任務(wù)上的性能表現(xiàn)。

    結(jié)合表5與表6的結(jié)果可知,同原模型相比,增加高質(zhì)量知識補(bǔ)充方法后的模型性能表現(xiàn)有明顯提升。模型BERT+HQ_know較于BERT模型的Macro?F1分?jǐn)?shù)和Macro_R別提高了1.4%和1.3%,模型Sentence?BERT+HQ_know較于Sentence?BERT模型的Macro?F1分?jǐn)?shù)和Macro_R分別提高了1.5%和2.3%,模型SciBERT+HQ_know相較于SciBERT模型的Macro?F1分?jǐn)?shù)和Macro_R分別提高了0.9%和1.3%,模型ChemBERT+HQ_know相比ChemBERT模型的Macro?F1分?jǐn)?shù)和Macro_R分別提高了1%和2.3%,模型MatSciBERT+HQ_know相比MatSciBERT模型的Macro?F1分?jǐn)?shù)和Macro_R分別提高了0.7%和0.8%,模型DeBERT?v3+HQ_know相比DeBERTa?v3模型的Macro?F1分?jǐn)?shù)和Macro_R分別提高了0.7%和1.1%,表明本文提出的高質(zhì)量知識補(bǔ)充方法幫助模型學(xué)習(xí)到了長文本中關(guān)鍵的知識。同時在實驗過程中,本文注意到增加高質(zhì)量知識補(bǔ)充方法的模型在訓(xùn)練時達(dá)到收斂所需迭代次數(shù)遠(yuǎn)小于未增加的高質(zhì)量知識補(bǔ)充方法的模型,表明該方法可以在一定程度上提高模型訓(xùn)練效率。

    4.3.3 "聚類引導(dǎo)機(jī)制的消融實驗

    為了驗證聚類引導(dǎo)機(jī)制的有效性,選取性能表現(xiàn)較好的預(yù)訓(xùn)練語言模型MatSciBERT和SciBERT作為編碼器進(jìn)行實驗。消融實驗結(jié)果如表7所示,其中Cluster表示在預(yù)訓(xùn)練語言模型的基礎(chǔ)上,加入一個無監(jiān)督聚類任務(wù)引導(dǎo)模型自適應(yīng)選擇分類方案。與沒有聚類引導(dǎo)機(jī)制的系統(tǒng)對比,通過新增一個無監(jiān)督聚類層可以提高模型性能,如“SciBERT+Cluster”和“MatSciBERT+Cluster”的Macro?F1分?jǐn)?shù)分別增加了0.6%和0.3%,這表明聚類引導(dǎo)機(jī)制可以提高后續(xù)分類模型對困惑樣本的識別能力。另外,在增加高質(zhì)量知識補(bǔ)充方法和聚類引導(dǎo)分類機(jī)制后,“SciBERT+HQ_know+Cluster”和“MatSciBERT+HQ_know+Cluster”系統(tǒng)Macro?F1性能指標(biāo)均較原系統(tǒng)提升了1.9%,整個分類系統(tǒng)的性能得到了顯著增強(qiáng)。

    總的來說,在現(xiàn)有高質(zhì)量有監(jiān)督數(shù)據(jù)集稀缺以及算力受限的情況下,利用高價值的外部知識進(jìn)行有效的表征增強(qiáng)或深入挖掘數(shù)據(jù)內(nèi)部隱藏模式,是提升模型在下游目標(biāo)任務(wù)表現(xiàn)最具性價比的方法。

    5 "結(jié) "語

    現(xiàn)有對文獻(xiàn)文本處理任務(wù)的研究大都集中在增加模型復(fù)雜度和收集更多的領(lǐng)域語料進(jìn)行二次預(yù)訓(xùn)練,并沒有很好地利用到科學(xué)文獻(xiàn)的特性來獲取其上下文之間的聯(lián)系。針對該問題,本文首次提出一個高質(zhì)量知識補(bǔ)充方法,將文獻(xiàn)上下文中特定的關(guān)鍵內(nèi)容作為高質(zhì)量知識與當(dāng)前段落相融合,增強(qiáng)段落語義的信息表征,提升了后續(xù)段落文本分類任務(wù)的性能表現(xiàn)。同時,本文提出一種基于聚類引導(dǎo)的自適應(yīng)文本分類框架,該模型融合聚類和分類算法來實現(xiàn)一個高性能分類系統(tǒng),進(jìn)一步改善了模型性能。實驗結(jié)果表明,本文方法在沒有過度增大模型參數(shù)量和二次預(yù)訓(xùn)練的場景下,充分挖掘外部知識和數(shù)據(jù)內(nèi)部隱藏模式,顯著地提高了系統(tǒng)性能和訓(xùn)練效率,具有很好的實用價值。

    在未來的工作中,將嘗試把本文方法與大語言模型相結(jié)合,為模型在預(yù)訓(xùn)練或微調(diào)階段創(chuàng)建高質(zhì)量的數(shù)據(jù),同時將這種高質(zhì)量知識補(bǔ)充方法從單模態(tài)數(shù)據(jù)推廣至多模態(tài)數(shù)據(jù),并探究用算法自動引導(dǎo)模型訓(xùn)練時將更多注意力放在被筆者突出顯示的高質(zhì)量知識處。

    注:本文通訊作者為王卓。

    參考文獻(xiàn)

    [1] PEERA S G, BALAMURUGAN J, KIM N H, et al. Sustainable synthesis of Co@ NC core shell nanostructures from metal organic frameworks via mechanochemical coordination self?assembly: an efficient electrocatalyst for oxygen reduction reaction [J]. Small, 2018, 14(19): e1800441.

    [2] LIANG Z, QU C, GUO W, et al. Pristine metal?organic frameworks and their composites for energy storage and conversion [J]. Advanced materials, 2017, 30(37): e1702891.

    [3] WU H B, LOU X W D. Metal?organic frameworks and their derived materials for electrochemical energy storage and conversion: promises and challenges [J]. Science advances, 2017, 3(12): 9252.

    [4] LUO R, SUN L, XIA Y, et al. BioGPT: generative pre?trained transformer for biomedical text generation and mining [J]. Briefings in bioinformatics, 2022, 23(6): bbac409.

    [5] CHOUDHARY K, KELLEY M L. ChemNLP: a natural language?processing?based library for materials chemistry text data [J]. The journal of physical chemistry c, 2023, 127(35): 17545?17555.

    [6] TSHITOYAN V, DAGDELEN J, WESTON L, et al. Unsuper?vised word embeddings capture latent knowledge from materials science literature [J]. Nature, 2019, 571(7763): 95?98.

    [7] LIU N F, LIN K, HEWITT J, et al. Lost in the middle: how language models use long contexts [J]. Transactions of the association for computational linguistics, 2024, 12: 157?173.

    [8] MA X, GONG Y, HE P, et al. Query rewriting for retrieval?augmented large language models [EB/OL]. [2023?08?17]. http://www.paperreading.club/page?id=166132.

    [9] CUI L, WU Y, LIU J, et al. Template?based named entity recognition using BART [C]// Findings of the Association for Computational Linguistics: ACL?IJCNLP 2021. [S.l.]: ACL, 2021: 1835?1845.

    [10] KENTON J D M W C, TOUTANOVA L K. BERT: pre?training of deep bidirectional transformers for language understanding [C]// Proceedings of 2019 Annual Conference of the North American Chapter of the Association for Computational Linguistics. Minneapolis, USA, HLT: 2019: 4171?4186.

    [11] REIMERS N, GUREVYCH I. Sentence?BERT: sentence em?beddings using Siamese BERT?networks [C]// Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing. Hong Kong, China: ACM, 2019: 3982?3992.

    [12] HE P, LIU X, GAO J, et al. DEBERTA: decoding?enhanced BERT with disentangled attention [EB/OL]. [2023?12?07]. https://www.xueshufan.com/publication/3122890974.

    [13] BELTAGY I, LO K, COHAN A. SciBERT: a pretrained language model for scientific text [C]// Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing. Hong Kong, China: ACM, 2019: 3615?3620.

    [14] GUPTA T, ZAKI M, KRISHNAN N M. MatSciBERT: a materials domain language model for text mining and information extraction [J]. NPJ computational mathematics, 2022, 8: 102.

    [15] GUO J, IBANEZ?LOPEZ A S, GAO H, et al. Automated chemical reaction extraction from scientific literature [J]. Journal of chemical information and modeling, 2022, 62(9): 2035?2045.

    [16] SUN C, QIU X, XU Y, et al. How to fine?tune BERT for text classification? [C]// China National Conference on Chinese Computational Linguistics. Cham: Springer, 2019: 194?206.

    [17] YU S, SU J, LUO D. Improving BERT?based text classifi?cation with auxiliary sentence and domain knowledge [J]. IEEE access, 2019, 7: 176600?176612.

    [18] ZHAO J H, MENG Z Y, GORDEEV S, et al. Key information retrieval to classify the unstructured data content of preferential trade agreements [J]. Computer science bibliography, 2024(2): 12520.

    [19] MOGHADAM P Z, LI A, WIGGIN S B, et al. Development of a cambridge structural database subset: a collection of metal?organic frameworks for past, present, and future [J]. Chemistry of materials, 2017, 29(7): 2618?2625.

    [20] JOHNSON R, ZHANG T. Deep pyramid convolutional neural networks for text categorization [EB/OL]. [2024?01?11]. https://aclanthology.org/P17?1052.pdf.

    [21] LAI S, XU L, LIU K, et al. Recurrent convolutional neural networks for text classification [C]// Proceedings of the AAAI Conference on Artificial Intelligence. Austin, Texas: AAAI, 2015: 2263?2273.

    [22] KIM Y. Convolutional neural networks for sentence classifi?cation [C]// Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP). Doha, Qatar: ACL, 2014: 1181.

    乱系列少妇在线播放| 国产在线男女| 亚洲人成网站高清观看| 国产久久久一区二区三区| 晚上一个人看的免费电影| 亚洲欧美日韩另类电影网站 | 大片免费播放器 马上看| 人人妻人人添人人爽欧美一区卜 | 国产中年淑女户外野战色| 女性被躁到高潮视频| 成年人午夜在线观看视频| 18禁在线无遮挡免费观看视频| 国产免费视频播放在线视频| 国产精品女同一区二区软件| 免费久久久久久久精品成人欧美视频 | 卡戴珊不雅视频在线播放| 高清不卡的av网站| a级毛片免费高清观看在线播放| 97在线视频观看| 久久久久视频综合| 久久久久精品久久久久真实原创| 日韩伦理黄色片| 观看av在线不卡| 在线观看一区二区三区| 日韩精品有码人妻一区| 99久久精品热视频| 少妇人妻久久综合中文| 久久久久精品久久久久真实原创| 久久精品久久久久久噜噜老黄| 草草在线视频免费看| 少妇人妻 视频| 一区在线观看完整版| 精品久久久久久电影网| 日韩制服骚丝袜av| 亚洲av男天堂| 国产男人的电影天堂91| 2018国产大陆天天弄谢| 久久人人爽人人爽人人片va| 日本av手机在线免费观看| 舔av片在线| 天堂8中文在线网| 久久99热这里只频精品6学生| 久久青草综合色| 在线观看免费高清a一片| 精品久久久久久久末码| videossex国产| 一本久久精品| 亚洲精品日本国产第一区| 麻豆精品久久久久久蜜桃| 嘟嘟电影网在线观看| 三级国产精品片| 欧美极品一区二区三区四区| 国产精品蜜桃在线观看| 午夜精品国产一区二区电影| 国产深夜福利视频在线观看| 国产v大片淫在线免费观看| 午夜精品国产一区二区电影| 涩涩av久久男人的天堂| 精品人妻一区二区三区麻豆| 久久国产精品男人的天堂亚洲 | 尤物成人国产欧美一区二区三区| 高清在线视频一区二区三区| 精品人妻一区二区三区麻豆| 一个人免费看片子| 国产伦精品一区二区三区四那| 另类亚洲欧美激情| 久久久久久久久久成人| 人人妻人人澡人人爽人人夜夜| av天堂中文字幕网| 亚洲欧美精品自产自拍| 男女啪啪激烈高潮av片| 26uuu在线亚洲综合色| 日韩中文字幕视频在线看片 | 免费少妇av软件| 国产精品人妻久久久久久| 啦啦啦在线观看免费高清www| 99久久中文字幕三级久久日本| 麻豆国产97在线/欧美| 天堂8中文在线网| 国产成人a∨麻豆精品| 日本欧美国产在线视频| 国产人妻一区二区三区在| 精品人妻熟女av久视频| 久久99热6这里只有精品| 午夜精品国产一区二区电影| 新久久久久国产一级毛片| 联通29元200g的流量卡| 少妇高潮的动态图| 永久网站在线| 免费人妻精品一区二区三区视频| 少妇被粗大猛烈的视频| 精华霜和精华液先用哪个| 在线观看三级黄色| a级毛片免费高清观看在线播放| 久久韩国三级中文字幕| 亚洲四区av| 国产无遮挡羞羞视频在线观看| 成年av动漫网址| 日韩视频在线欧美| 国产成人精品福利久久| 国产精品久久久久久久电影| 最近中文字幕2019免费版| 久久久午夜欧美精品| 草草在线视频免费看| 有码 亚洲区| 高清不卡的av网站| 99久国产av精品国产电影| 建设人人有责人人尽责人人享有的 | 男人和女人高潮做爰伦理| 免费在线观看成人毛片| 香蕉精品网在线| 国产成人a区在线观看| 熟女av电影| 成人亚洲欧美一区二区av| 国产成人精品久久久久久| 免费观看a级毛片全部| 黑人高潮一二区| av一本久久久久| 少妇猛男粗大的猛烈进出视频| 亚洲欧美中文字幕日韩二区| 亚洲精品456在线播放app| av黄色大香蕉| 欧美高清成人免费视频www| www.av在线官网国产| 人妻夜夜爽99麻豆av| 亚洲成人中文字幕在线播放| 高清日韩中文字幕在线| 男女边吃奶边做爰视频| 91精品国产国语对白视频| 亚洲欧美一区二区三区国产| 18禁动态无遮挡网站| 欧美一级a爱片免费观看看| 国产在线免费精品| 寂寞人妻少妇视频99o| 亚洲美女黄色视频免费看| 最近最新中文字幕免费大全7| 久久综合国产亚洲精品| av国产久精品久网站免费入址| 97精品久久久久久久久久精品| 99久久人妻综合| 国产伦精品一区二区三区四那| 成人亚洲精品一区在线观看 | 大片电影免费在线观看免费| 欧美zozozo另类| 精品一区二区三区视频在线| 国产精品蜜桃在线观看| 国产精品国产av在线观看| 三级经典国产精品| 亚洲精品日韩在线中文字幕| 日本午夜av视频| 精品久久久久久久久av| 久久 成人 亚洲| 亚洲人与动物交配视频| 纯流量卡能插随身wifi吗| 18+在线观看网站| 黄色日韩在线| av在线观看视频网站免费| 高清日韩中文字幕在线| 国产综合精华液| 简卡轻食公司| 久久久久久久国产电影| 国产精品国产av在线观看| 午夜福利在线观看免费完整高清在| 中文欧美无线码| 大片电影免费在线观看免费| 男男h啪啪无遮挡| 啦啦啦啦在线视频资源| 免费黄频网站在线观看国产| 成人高潮视频无遮挡免费网站| 大话2 男鬼变身卡| 国产精品秋霞免费鲁丝片| 亚洲精品国产色婷婷电影| 色婷婷久久久亚洲欧美| 国产乱人偷精品视频| 日韩在线高清观看一区二区三区| 美女脱内裤让男人舔精品视频| 一区在线观看完整版| 精品一区在线观看国产| 久久午夜福利片| 亚洲欧美一区二区三区国产| 尤物成人国产欧美一区二区三区| 91精品一卡2卡3卡4卡| 国产精品久久久久久久电影| 成人国产麻豆网| 噜噜噜噜噜久久久久久91| 在现免费观看毛片| 久久久久久久久大av| 国产精品一及| 日韩成人av中文字幕在线观看| 亚洲欧美中文字幕日韩二区| 久久精品国产亚洲av天美| 赤兔流量卡办理| av在线蜜桃| 久久国产乱子免费精品| 有码 亚洲区| 久久国内精品自在自线图片| 18禁动态无遮挡网站| 国产伦理片在线播放av一区| 成年美女黄网站色视频大全免费 | 麻豆精品久久久久久蜜桃| 亚洲国产成人一精品久久久| 一级毛片aaaaaa免费看小| 免费大片黄手机在线观看| 午夜福利在线在线| 十分钟在线观看高清视频www | 国产精品无大码| 国产精品免费大片| 午夜福利影视在线免费观看| 欧美丝袜亚洲另类| 观看免费一级毛片| 日韩在线高清观看一区二区三区| 人体艺术视频欧美日本| 久久精品久久久久久噜噜老黄| 国产精品爽爽va在线观看网站| 日韩免费高清中文字幕av| 尤物成人国产欧美一区二区三区| 五月开心婷婷网| 免费观看a级毛片全部| 深爱激情五月婷婷| 少妇 在线观看| 亚洲人成网站高清观看| av天堂中文字幕网| 少妇被粗大猛烈的视频| 综合色丁香网| 麻豆乱淫一区二区| 男女无遮挡免费网站观看| 精品熟女少妇av免费看| 久久久久久久久大av| 最后的刺客免费高清国语| 老女人水多毛片| 久久av网站| 免费高清在线观看视频在线观看| 精品久久国产蜜桃| 欧美xxxx黑人xx丫x性爽| 国产精品伦人一区二区| 亚洲精华国产精华液的使用体验| 1000部很黄的大片| 精品午夜福利在线看| 日韩亚洲欧美综合| 中文字幕人妻熟人妻熟丝袜美| 亚洲色图av天堂| 最黄视频免费看| 丰满迷人的少妇在线观看| 国产成人aa在线观看| 成年女人在线观看亚洲视频| 日韩欧美 国产精品| 中文精品一卡2卡3卡4更新| 日本一二三区视频观看| 欧美极品一区二区三区四区| 午夜免费男女啪啪视频观看| 纵有疾风起免费观看全集完整版| 丰满人妻一区二区三区视频av| videossex国产| 尤物成人国产欧美一区二区三区| 少妇高潮的动态图| 国产真实伦视频高清在线观看| 欧美性感艳星| 久久精品久久久久久久性| 在线播放无遮挡| 精品人妻偷拍中文字幕| 又粗又硬又长又爽又黄的视频| 春色校园在线视频观看| 高清在线视频一区二区三区| 国产精品一区二区在线观看99| 男女下面进入的视频免费午夜| 亚洲,一卡二卡三卡| 午夜精品国产一区二区电影| 日韩,欧美,国产一区二区三区| 黄片wwwwww| 日日摸夜夜添夜夜爱| 嘟嘟电影网在线观看| 亚洲久久久国产精品| 3wmmmm亚洲av在线观看| 久久精品久久精品一区二区三区| 91精品国产九色| www.av在线官网国产| 亚洲av成人精品一二三区| 欧美日韩国产mv在线观看视频 | 欧美亚洲 丝袜 人妻 在线| 欧美性感艳星| 啦啦啦啦在线视频资源| www.av在线官网国产| 精品国产三级普通话版| 久久韩国三级中文字幕| 亚洲成人一二三区av| 亚洲欧美日韩东京热| 日本午夜av视频| 欧美日韩视频高清一区二区三区二| 99热全是精品| 亚洲欧美成人精品一区二区| 国产精品无大码| 日本爱情动作片www.在线观看| 如何舔出高潮| 久久精品国产亚洲av涩爱| 日本与韩国留学比较| 观看美女的网站| 18禁动态无遮挡网站| 久久国产精品大桥未久av | 欧美另类一区| 中文字幕亚洲精品专区| 国产免费福利视频在线观看| 丰满迷人的少妇在线观看| 中文字幕亚洲精品专区| 人妻夜夜爽99麻豆av| 亚洲av男天堂| 99久久中文字幕三级久久日本| 午夜福利影视在线免费观看| 熟妇人妻不卡中文字幕| 成年女人在线观看亚洲视频| 成人免费观看视频高清| 国产亚洲午夜精品一区二区久久| 亚洲国产成人一精品久久久| 欧美精品人与动牲交sv欧美| 一级毛片电影观看| 大香蕉97超碰在线| 日韩,欧美,国产一区二区三区| 成人国产av品久久久| 亚洲美女搞黄在线观看| 成人毛片60女人毛片免费| 亚洲精品久久午夜乱码| 成年女人在线观看亚洲视频| 久久精品久久久久久噜噜老黄| 我要看黄色一级片免费的| 91精品一卡2卡3卡4卡| av又黄又爽大尺度在线免费看| 极品教师在线视频| 全区人妻精品视频| 精品午夜福利在线看| 亚洲欧美日韩另类电影网站 | 自拍欧美九色日韩亚洲蝌蚪91 | 蜜桃久久精品国产亚洲av| av在线蜜桃| 啦啦啦视频在线资源免费观看| 日韩一区二区视频免费看| 国产精品一及| 中文字幕免费在线视频6| 国内少妇人妻偷人精品xxx网站| 丰满少妇做爰视频| 97超碰精品成人国产| 色吧在线观看| 欧美日韩亚洲高清精品| 高清黄色对白视频在线免费看 | 2021少妇久久久久久久久久久| 国产伦在线观看视频一区| 亚洲精品乱码久久久久久按摩| 大片电影免费在线观看免费| 九九爱精品视频在线观看| 熟女电影av网| 99九九线精品视频在线观看视频| 极品少妇高潮喷水抽搐| 国产精品成人在线| 欧美成人一区二区免费高清观看| 亚洲人成网站高清观看| 黄色配什么色好看| 99热网站在线观看| 少妇人妻精品综合一区二区| 欧美区成人在线视频| 丰满乱子伦码专区| 久久精品国产a三级三级三级| 2022亚洲国产成人精品| 国产亚洲精品久久久com| 欧美变态另类bdsm刘玥| 精品国产露脸久久av麻豆| 搡女人真爽免费视频火全软件| 下体分泌物呈黄色| 亚洲性久久影院| 少妇人妻久久综合中文| 秋霞在线观看毛片| 1000部很黄的大片| 好男人视频免费观看在线| 久久av网站| 色哟哟·www| 国产色爽女视频免费观看| 少妇人妻 视频| 一级av片app| 亚洲激情五月婷婷啪啪| 夜夜骑夜夜射夜夜干| 人人妻人人爽人人添夜夜欢视频 | 九九在线视频观看精品| 有码 亚洲区| 观看免费一级毛片| 亚洲激情五月婷婷啪啪| 一本一本综合久久| 日韩国内少妇激情av| 国产亚洲欧美精品永久| 直男gayav资源| 免费高清在线观看视频在线观看| 中文字幕精品免费在线观看视频 | 精品人妻偷拍中文字幕| 一级二级三级毛片免费看| 乱码一卡2卡4卡精品| 观看av在线不卡| 亚洲综合精品二区| 国产成人午夜福利电影在线观看| 国产精品一及| 久热久热在线精品观看| 国产精品一区二区性色av| 亚洲,一卡二卡三卡| 国产一区有黄有色的免费视频| 国产精品福利在线免费观看| 性色avwww在线观看| 精品一品国产午夜福利视频| 久久99蜜桃精品久久| 亚洲成人手机| 精品视频人人做人人爽| 日日啪夜夜撸| 天天躁日日操中文字幕| 国产日韩欧美在线精品| 国产精品偷伦视频观看了| av卡一久久| 精品久久久噜噜| 欧美日韩视频精品一区| 热99国产精品久久久久久7| 久久这里有精品视频免费| 深夜a级毛片| 我要看黄色一级片免费的| 亚洲欧美成人精品一区二区| 视频区图区小说| 国内精品宾馆在线| kizo精华| 国产真实伦视频高清在线观看| 国模一区二区三区四区视频| 亚洲性久久影院| 九九久久精品国产亚洲av麻豆| 麻豆成人午夜福利视频| 欧美+日韩+精品| 国产成人91sexporn| 国产黄色视频一区二区在线观看| 大香蕉久久网| 精品久久国产蜜桃| 极品教师在线视频| 亚洲欧美精品自产自拍| 一级毛片久久久久久久久女| 老女人水多毛片| 国产永久视频网站| 久久 成人 亚洲| 亚洲丝袜综合中文字幕| 看非洲黑人一级黄片| 2021少妇久久久久久久久久久| 人人妻人人看人人澡| 亚洲欧洲国产日韩| 亚洲国产精品成人久久小说| 九草在线视频观看| 精品久久国产蜜桃| 国产精品福利在线免费观看| 五月伊人婷婷丁香| 国产亚洲精品久久久com| 国产成人一区二区在线| 丰满人妻一区二区三区视频av| 三级国产精品片| 岛国毛片在线播放| 一本—道久久a久久精品蜜桃钙片| 亚洲国产精品成人久久小说| 麻豆成人av视频| 日韩大片免费观看网站| 国产精品99久久99久久久不卡 | 欧美最新免费一区二区三区| 91久久精品国产一区二区三区| 久久久久久久久久久丰满| 亚洲av日韩在线播放| 午夜免费鲁丝| 亚洲国产毛片av蜜桃av| 亚洲真实伦在线观看| 亚洲综合精品二区| 高清视频免费观看一区二区| 国产欧美另类精品又又久久亚洲欧美| 国产深夜福利视频在线观看| 1000部很黄的大片| 久久精品久久精品一区二区三区| 国产精品麻豆人妻色哟哟久久| 亚洲真实伦在线观看| 成人无遮挡网站| 99re6热这里在线精品视频| 欧美精品国产亚洲| 蜜桃亚洲精品一区二区三区| 亚洲欧美一区二区三区黑人 | 夫妻性生交免费视频一级片| 国产精品精品国产色婷婷| 少妇的逼水好多| 男女国产视频网站| 欧美极品一区二区三区四区| 国产精品久久久久久久电影| 久久精品久久精品一区二区三区| 秋霞伦理黄片| 国产成人91sexporn| 欧美丝袜亚洲另类| 亚洲第一区二区三区不卡| 国产高清有码在线观看视频| 国产午夜精品一二区理论片| 亚洲一级一片aⅴ在线观看| 香蕉精品网在线| 欧美精品一区二区免费开放| 亚洲av免费高清在线观看| 伦理电影大哥的女人| 欧美另类一区| tube8黄色片| 久久精品久久久久久噜噜老黄| 国产中年淑女户外野战色| 高清黄色对白视频在线免费看 | 日本爱情动作片www.在线观看| 免费人成在线观看视频色| 99久久精品热视频| 如何舔出高潮| av在线观看视频网站免费| 色婷婷久久久亚洲欧美| 国产黄片美女视频| 成人影院久久| 黄色欧美视频在线观看| 男女下面进入的视频免费午夜| 久久人人爽人人片av| 亚洲欧美精品自产自拍| 美女福利国产在线 | 在线观看av片永久免费下载| 国产精品嫩草影院av在线观看| 欧美最新免费一区二区三区| 激情 狠狠 欧美| 日本欧美视频一区| 九九久久精品国产亚洲av麻豆| 国产精品久久久久久精品古装| 纵有疾风起免费观看全集完整版| 国产免费一区二区三区四区乱码| 国产精品99久久久久久久久| 精品一区在线观看国产| 亚洲三级黄色毛片| 各种免费的搞黄视频| tube8黄色片| 中国三级夫妇交换| 97在线人人人人妻| 国产一区二区在线观看日韩| 久久久久国产精品人妻一区二区| 亚洲第一区二区三区不卡| 国产免费视频播放在线视频| 国产精品99久久久久久久久| 成人影院久久| 赤兔流量卡办理| 麻豆国产97在线/欧美| 欧美一级a爱片免费观看看| 七月丁香在线播放| 一级爰片在线观看| 久久久久久久久大av| 高清在线视频一区二区三区| 99热国产这里只有精品6| 精品99又大又爽又粗少妇毛片| 一区二区三区精品91| 久久精品夜色国产| 边亲边吃奶的免费视频| 亚洲综合精品二区| av天堂中文字幕网| 91精品伊人久久大香线蕉| 日韩,欧美,国产一区二区三区| 在线观看美女被高潮喷水网站| h视频一区二区三区| 免费av中文字幕在线| 日韩电影二区| 视频区图区小说| 国产久久久一区二区三区| 看非洲黑人一级黄片| 久热久热在线精品观看| 精品人妻视频免费看| 99热全是精品| 欧美亚洲 丝袜 人妻 在线| 亚洲精品成人av观看孕妇| 亚洲av国产av综合av卡| 少妇 在线观看| 日韩av不卡免费在线播放| 国产精品一区www在线观看| 永久免费av网站大全| 五月天丁香电影| 亚洲精品亚洲一区二区| 美女视频免费永久观看网站| 国产成人91sexporn| 久久精品久久久久久久性| 只有这里有精品99| 中文乱码字字幕精品一区二区三区| 欧美精品一区二区大全| 国产淫片久久久久久久久| 午夜福利在线在线| 麻豆乱淫一区二区| av在线观看视频网站免费| 久久99热6这里只有精品| 国产精品福利在线免费观看| 成年免费大片在线观看| 一区二区三区精品91| 热re99久久精品国产66热6| 亚洲欧美日韩无卡精品| 欧美成人精品欧美一级黄| 精华霜和精华液先用哪个| 蜜桃久久精品国产亚洲av| www.色视频.com| 乱系列少妇在线播放| 男人舔奶头视频| 成人漫画全彩无遮挡| 秋霞伦理黄片| 国国产精品蜜臀av免费| 国产精品国产av在线观看| 一级毛片久久久久久久久女| 日韩,欧美,国产一区二区三区| 男男h啪啪无遮挡| 一级毛片黄色毛片免费观看视频| 毛片女人毛片| 制服丝袜香蕉在线| 在线 av 中文字幕| 国产女主播在线喷水免费视频网站| 色婷婷久久久亚洲欧美| 亚洲真实伦在线观看| 18禁动态无遮挡网站| 99久久中文字幕三级久久日本| 亚洲三级黄色毛片| 狂野欧美激情性xxxx在线观看| 欧美日本视频| 人人妻人人添人人爽欧美一区卜 | 1000部很黄的大片| 免费黄色在线免费观看| 国产精品福利在线免费观看| 成年av动漫网址|