• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學(xué)習(xí)的科技論文引用關(guān)系分類模型

    2021-03-08 02:55:01路永和劉佳鑫袁美璐鄭夢(mèng)慧
    現(xiàn)代情報(bào) 2021年3期
    關(guān)鍵詞:科技論文深度學(xué)習(xí)

    路永和 劉佳鑫 袁美璐 鄭夢(mèng)慧

    摘?要:[目的/意義]提出HABCM模型,方便科研人員進(jìn)行論文構(gòu)思與寫作。[方法/過程]首先,基于段落層級(jí)結(jié)構(gòu),分別在詞級(jí)和句級(jí)使用雙向GRU對(duì)寫作需求和參考文獻(xiàn)進(jìn)行語義建模;其次,使用Attention對(duì)語義貢獻(xiàn)度大的詞向量和句向量加權(quán);最后,用先拼接后提取特征的方法計(jì)算文本對(duì)的相似度,并輸出引用關(guān)系類別。[結(jié)果/結(jié)論]該算法在ACL?ARC數(shù)據(jù)集上獲得了74.96%的F1值和78.38%的準(zhǔn)確率,高于4個(gè)對(duì)比實(shí)驗(yàn)中的模型;證明了“摘要和引言”結(jié)構(gòu)對(duì)參考文獻(xiàn)主題內(nèi)容最具代表性。

    關(guān)鍵詞:深度學(xué)習(xí);科技論文;引用分類;語義匹配

    DOI:10.3969/j.issn.1008-0821.2021.03.003

    〔中圖分類號(hào)〕TP391;TP183?〔文獻(xiàn)標(biāo)識(shí)碼〕A?〔文章編號(hào)〕1008-0821(2021)03-0029-09

    Citation?Relationship?Classification?Model?of

    Scientific?Papers?Based?on?Deep?Learning

    Lu?Yonghe?Liu?Jiaxin?Yuan?Meilu?Zheng?Menghui

    (School?of?Information?Management,Sun?Yat-Sen?University,Guangzhou?510006,China)

    Abstract:[Purpose/Significance]The?HABCM?model?was?proposed?to?facilitate?scientific?researchers?in?paper?conception?and?writing.[Method/Process]First,based?on?the?paragraph?hierarchy,bidirectional?GRU?was?used?at?the?word?level?and?sentence?level?respectively?to?model?the?semantics?of?writing?requirements?and?references.Secondly,the?paper?used?Attention?to?weight?the?word?vectors?and?sentence?vectors?that?contribute?a?lot?to?semantics.Finally,the?similarity?of?text?pairs?was?calculated?by?concatenating?firstly?and?then?extracting?features,and?reference?relationship?categories?were?output.[Result/Conclusion]The?algorithm?achieved?74.96%?F1-score?and?78.38%?accuracy?rate?on?ACL?ARC?data?set,higher?than?the?models?in?four?comparison?experiments.It?is?proved?that?the?structure?of“abstract?and?introduction”is?the?most?representative?for?the?subject?content?of?the?reference.

    Key?words:deep?learning;scientific?papers;citation?classification;semantic?matching

    引用擬寫論文主題相關(guān)的科研成果是科研工作者在學(xué)術(shù)寫作中的重要環(huán)節(jié)。學(xué)者進(jìn)行科技論文寫作時(shí),往往需要大量的參考文獻(xiàn)來闡述目前的研究背景、研究現(xiàn)狀,并佐證所研究問題的前瞻性和創(chuàng)新性。目前,學(xué)術(shù)文獻(xiàn)數(shù)量指數(shù)增長(zhǎng),每天都有數(shù)以萬計(jì)的學(xué)術(shù)成果被發(fā)表,如何迅速地在海量學(xué)術(shù)文獻(xiàn)中挖掘出合適的科研文獻(xiàn),從而進(jìn)行高質(zhì)量的文獻(xiàn)綜述和學(xué)術(shù)寫作是每一個(gè)科研人員面臨的問題。

    Google使用Word2vec對(duì)谷歌新聞數(shù)據(jù)集(約1?000億個(gè)單詞)進(jìn)行了預(yù)訓(xùn)練,并發(fā)布了預(yù)訓(xùn)練結(jié)果集[18]。該預(yù)訓(xùn)練詞向量集合共含有300萬個(gè)單詞及短語,每個(gè)單詞或短語用300維的詞向量表示。本文將采用Google預(yù)訓(xùn)練的詞向量獲取寫作需求與參考文獻(xiàn)文本段中的詞向量。

    2)使用雙向GRU獲得詞的上下文語義信息

    GRU[11]是RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))的一個(gè)變體,GRU模型在傳統(tǒng)RNN的細(xì)胞核中加入了門控結(jié)構(gòu)以跟蹤輸入序列的狀態(tài),其門控結(jié)構(gòu)單元如圖2所示:每一個(gè)門控結(jié)構(gòu)均包括重置門、更新門、候選隱藏狀態(tài)和隱藏狀態(tài)。相較于RNN、LSTM模型,其結(jié)構(gòu)特點(diǎn)及計(jì)算方式?jīng)Q定了它在進(jìn)行梯度下降優(yōu)化時(shí)能規(guī)避梯度爆炸和梯度消失問題,同時(shí)又能保證算法的運(yùn)行效率,故而更適用于科技論文文本這種較長(zhǎng)文本的建模。

    圖2?GRU的門控結(jié)構(gòu)單元

    門控結(jié)構(gòu)單元在t時(shí)刻的輸入包括:第i個(gè)句子中t時(shí)刻對(duì)應(yīng)的詞在前一個(gè)時(shí)刻的隱藏狀態(tài)hi(t-1)和當(dāng)前時(shí)刻的輸入wit。更新門zit控制前一時(shí)刻有多少信息被寫入到當(dāng)前時(shí)刻輸出的隱藏狀態(tài)hit上,其值越小,前一時(shí)刻的信息被寫入越少,越能捕捉時(shí)間序列里短期的依賴關(guān)系。重置門rit用于控制當(dāng)前狀態(tài)遺忘前一時(shí)刻的狀態(tài)信息的程度,其值越大表示對(duì)前一刻的狀態(tài)信息遺忘越少,越能捕捉時(shí)間序列里長(zhǎng)期的依賴關(guān)系。假設(shè)隱藏單元個(gè)數(shù)為h,重置門和更新門的計(jì)算如式(1)、(2)所示:

    其中,wit為寫作需求中第i個(gè)句子中的t時(shí)刻對(duì)應(yīng)詞的詞向量,Wwz、Whz、Wwr、Whr為權(quán)重參數(shù),bz、br為偏差參數(shù),σ()為Sigmoid激活函數(shù)。

    首先,將t時(shí)刻的重置門rit與t-1時(shí)刻的隱藏狀態(tài)hi(t-1)做元素乘,如果重置門中元素值接近0,即丟棄t-1時(shí)刻的隱藏狀態(tài);如果接近1,那么保留t-1時(shí)刻的隱藏狀態(tài)。然后,將元素乘結(jié)果與t時(shí)刻的輸入連接,再通過激活函數(shù)tanh的全連接層計(jì)算出候選隱藏狀態(tài)。所有元素值域?yàn)閇-1,1]。最后,由zt決定t時(shí)刻門控結(jié)構(gòu)的最終隱層輸出ht,如式(4)所示:

    ht=(1-zt)⊙ht-1+zt⊙t,?t∈[1,m](4)

    在上述循環(huán)神經(jīng)網(wǎng)絡(luò)中,狀態(tài)的傳輸是單向的,然而在句子的語義理解中,當(dāng)前單詞的語義不僅需要根據(jù)上文來判斷,也依賴下文的內(nèi)容,這時(shí)就需要雙向GRU來建模。如圖3所示,雙向GRU由兩個(gè)GRU上下疊加而成,在每一個(gè)時(shí)刻t,輸入會(huì)被同時(shí)提供給這兩個(gè)相反方向的GRU,而輸出則是由這兩個(gè)單向GRU共同決定。GRU中,每個(gè)隱層會(huì)輸出一個(gè)隱藏狀態(tài)向量,本文需要獲取的上下文信息是每個(gè)詞所在隱層的隱藏狀態(tài)向量,而不是GRU訓(xùn)練出的最后的向量。

    在本文中,t時(shí)刻第wit個(gè)詞考慮了前wi(t-1)個(gè)詞從左向右的GRU隱層信息上文信息,以及第wit個(gè)詞從右向左的GRU隱層信息下文信息,如式(5)~(7)所示:

    其中,it表示第一個(gè)句子的第t個(gè)單詞wit包含上文信息的隱藏狀態(tài)向量,it表示包含下文信息的隱藏狀態(tài)向量,hit為最終包含單詞上下文表示的隱藏狀態(tài)向量。

    3)基于Attention機(jī)制構(gòu)建句向量

    在句子中,每個(gè)單詞對(duì)句子語義表達(dá)的貢獻(xiàn)大小不同,因此需要通過Attention機(jī)制找出對(duì)句子語義貢獻(xiàn)較大的詞進(jìn)行加權(quán),從而獲得準(zhǔn)確的句向量表示。具體來說,首先,將單詞的隱藏狀態(tài)向量hit輸入到單層MLP中,提取出hit的某個(gè)特征,并用向量表示為uit。然后,將uit和模型生成的隨機(jī)句向量uw通過Softmax函數(shù)計(jì)算得到標(biāo)準(zhǔn)化的句子向量的貢獻(xiàn)權(quán)重ait[19]。最后,將ait與隱藏狀態(tài)向量hit相乘并累加,得到帶有權(quán)重的句向量si,如式(8)~(10)所示:

    其中,隨機(jī)句向量uw隨機(jī)初始化并在訓(xùn)練過程中進(jìn)行學(xué)習(xí)。

    4)使用雙向GRU獲得句子的上下句語義信息

    與對(duì)詞向量的雙向GRU建模過程類似,對(duì)于句子集合中的第i個(gè)句子,分別從前往后、從后往前地使用GRU獲取其前后句所在隱層的隱藏狀態(tài)向量i和i,如式(11)和(12)所示。然后將兩個(gè)隱藏狀態(tài)向量串聯(lián)得到第i個(gè)句子含有上下文語義表示的隱藏狀態(tài)向量hi,如式(13)所示:

    5)基于Attention機(jī)制構(gòu)建段向量

    對(duì)段向量的建模與句向量建模階段加入的Attention機(jī)制類似。首先,將句的隱藏狀態(tài)向量hi輸入到單層MLP中,提取出hi的一個(gè)特征,并用向量表示為ui,如式(14)所示。然后,將ui和隨機(jī)段向量us通過Softmax函數(shù)計(jì)算得到標(biāo)準(zhǔn)化的段向量的貢獻(xiàn)權(quán)重ai,如式(15)所示。最后,將ai與隱藏狀態(tài)向量hi相乘并累加,得到帶有權(quán)重的段向量d,如式(16)所示:

    2.2?文本對(duì)的匹配建模

    經(jīng)過以上建模,引用關(guān)系的匹配問題被轉(zhuǎn)化為兩個(gè)語義向量的匹配問題,如圖4所示。具體來說,首先將寫作需求的引文上下文語義的段向量與參考文獻(xiàn)的結(jié)構(gòu)段的語義向量拼接,接著使用MLP全連接網(wǎng)絡(luò)獲得拼接向量的語義特征,最后通過使用Softmax分類函數(shù)輸出文本對(duì)具有引用關(guān)系的概率。

    具體步驟如下:

    1)拼接語義向量,構(gòu)建全連接層獲得拼接向量的語義特征

    將m維的寫作需求向量dm與n維的參考文獻(xiàn)向量dn拼接,構(gòu)成維度為m+n的語義向量dm+n。為了逐步壓縮dm+n的特征信息,同時(shí)避免在相鄰層之間突然損失過多語義信息,需要使用MLP將dm+n輸入到包含若干隱藏層的人工神經(jīng)網(wǎng)絡(luò)進(jìn)行特征編碼。假如人工神經(jīng)網(wǎng)絡(luò)共有k個(gè)隱藏層,則第k層的輸出如式(17)所示:

    其中,Ck為第k層的輸出向量;wk為第k個(gè)隱藏層的權(quán)重向量;bk為第k個(gè)隱藏層的偏置向量;激活函數(shù)為tanh()。

    2)使用Softmax函數(shù)確定文本對(duì)的引用關(guān)系

    得到第k層的輸出后,最后還需要再進(jìn)入一個(gè)Softmax分類層。由于本研究涉及的是二分類問題,因此Softmax層只有兩個(gè)神經(jīng)元,它的目標(biāo)是輸出寫作需求的引文上下文與參考文獻(xiàn)結(jié)構(gòu)文本對(duì)是否具有引用關(guān)系的概率值。如式(18)和(19)所示:

    h=0或1:當(dāng)h=0時(shí),不存在引用關(guān)系;當(dāng)h=1時(shí),存在引用關(guān)系。

    其中,zh是具有引用關(guān)系1和不具有引用關(guān)系0的兩個(gè)分類結(jié)果節(jié)點(diǎn)的輸出值;Ph則是根據(jù)結(jié)果節(jié)點(diǎn)的輸出計(jì)算出的文本對(duì)是否存在引用關(guān)系對(duì)應(yīng)的歸一化概率值;wh、bh分別為最后一層的權(quán)重向量與偏置向量;最后取最大的概率值對(duì)應(yīng)的標(biāo)簽作為分類結(jié)果。

    3?實(shí)驗(yàn)和結(jié)論分析

    3.1?數(shù)據(jù)集及數(shù)據(jù)預(yù)處理

    本文采用ACL?ARC(Anthology?Reference?Corpus)[20-21]和AAN(ACL?Anthology?Network)[22]中的計(jì)算機(jī)語言學(xué)、自然語言處理領(lǐng)域的科技論文作為實(shí)驗(yàn)數(shù)據(jù)集,對(duì)于該數(shù)據(jù)集中的每一篇科技論文都有其全文信息和參考文獻(xiàn)的引用信息。

    從實(shí)驗(yàn)數(shù)據(jù)集抽取引文關(guān)系并刪除不存在引用關(guān)系的科技論文后,提取科技論文的結(jié)構(gòu)信息:包括寫作需求的引文上下文和參考文獻(xiàn)的摘要、引言和全文。在此基礎(chǔ)上,構(gòu)建具有引文關(guān)系的文本對(duì)集合和不具有引文關(guān)系的文本對(duì)集合。后者的構(gòu)建邏輯是:若一篇文章有多段引文上下文,則無引用關(guān)系的文本對(duì)集合由每一段引文上下文和與其無引用關(guān)系的科技論文構(gòu)成。接著對(duì)原始語料內(nèi)容進(jìn)行清洗,去掉各種與分析內(nèi)容無關(guān)的信息,如亂碼、非字符數(shù)據(jù)、與引用關(guān)系無關(guān)的文本結(jié)構(gòu)等,并使用WordNet提取詞干信息。

    由于文本對(duì)的引用關(guān)系標(biāo)簽分布極度不平衡,具有引用關(guān)系的文本對(duì)在所有文本對(duì)中為0.1%左右,因此需要平衡數(shù)據(jù)集。欠采樣的方法可以規(guī)避測(cè)試集的過擬合,使梯度下降,降低科技論文引用關(guān)系的損失[23]。并且在引用關(guān)系的研究中,找出存在引用關(guān)系的文檔特征比找出不存在引用關(guān)系的文檔特征更重要,所以本文使用隨機(jī)欠采樣的方法來平衡數(shù)據(jù)集。

    經(jīng)過數(shù)據(jù)集預(yù)處理,寫作需求—參考文獻(xiàn)文本對(duì)數(shù)量統(tǒng)計(jì)信息如表1所示:

    本文按照文本對(duì)的引用關(guān)系劃分了兩個(gè)數(shù)據(jù)集:分別為存在引用關(guān)系的數(shù)據(jù)集和使用隨機(jī)欠采樣方法抽取的相同數(shù)量的不存在引用關(guān)系的數(shù)據(jù)集。兩者隨機(jī)合并為1個(gè)集合,按照60%、20%、20%的文本對(duì)比例劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集進(jìn)行實(shí)驗(yàn)。

    3.2?評(píng)價(jià)指標(biāo)

    本文使用F1值來評(píng)估模型效果。根據(jù)現(xiàn)實(shí)應(yīng)用的需求,找到具有引用關(guān)系的文本對(duì)比找到?jīng)]有引用關(guān)系的文本對(duì)更重要,而F1值能同時(shí)兼顧準(zhǔn)確率和召回率,可以看作是兩者的一種調(diào)和平均,它的最大值是1,最小值是0。

    在模型的訓(xùn)練上使用早停法,考慮神經(jīng)網(wǎng)絡(luò)的浮動(dòng)性,當(dāng)驗(yàn)證集的F1值不再提高后再迭代訓(xùn)練3次,若依然無法提高,說明訓(xùn)練集已過擬合,恢復(fù)使驗(yàn)證集F1值最高的參數(shù)權(quán)重作為模型參數(shù)。

    3.3?對(duì)比實(shí)驗(yàn)

    選擇“寫作需求引文上下文—參考文獻(xiàn)摘要”的結(jié)構(gòu)對(duì)模型參數(shù)調(diào)優(yōu)。SVM使用五折交叉驗(yàn)證選擇參數(shù)。為防止模型過擬合深度學(xué)習(xí)模型CNN、RNN以及HABCM使用早停法,并使用交叉熵作為模型的損失函數(shù),調(diào)優(yōu)后的神經(jīng)網(wǎng)絡(luò)模型參數(shù)及其對(duì)應(yīng)的F1值和準(zhǔn)確率如表3所示:

    其中,CNN參數(shù)指卷積核大小,RNN和HABCM參數(shù)指神經(jīng)元個(gè)數(shù)。

    3.4?參考文獻(xiàn)結(jié)構(gòu)選擇

    為探究科技論文的不同結(jié)構(gòu)對(duì)科技論文主題內(nèi)容的代表程度及對(duì)引文推薦的影響,本研究選擇“摘要”“摘要和引言”“科技論文的全文”3種結(jié)構(gòu)代表參考文獻(xiàn)。各模型參數(shù)均為經(jīng)過上節(jié)實(shí)驗(yàn)調(diào)整得出的最優(yōu)參數(shù),通過不同的對(duì)比實(shí)驗(yàn)驗(yàn)證參考文獻(xiàn)結(jié)構(gòu)對(duì)匹配結(jié)果的影響,其F1值和準(zhǔn)確率如表4所示。

    構(gòu)更好,“Word2vec+RNN”中“摘要”準(zhǔn)確率略高于“摘要和引言”,屬于可忽略的差異。在HABCM模型中,由于加入了層次Attention的雙向GRU模型在較長(zhǎng)文本上的表示效果較好,所以全文的準(zhǔn)確率要高于摘要,但從F1值的表現(xiàn)上來看,“摘要和引言”結(jié)構(gòu)更高,所以也從側(cè)面反映了在考慮正向文本召回的情況下,還是“摘要和引言”結(jié)構(gòu)使模型的分類表現(xiàn)性能更加均衡。故而本文選擇“摘要和引言”的結(jié)構(gòu)來表示參考文獻(xiàn)。

    3.5?實(shí)驗(yàn)結(jié)果

    綜上,選擇所有模型最優(yōu)參數(shù)以及“摘要和引言”的參考文獻(xiàn)結(jié)構(gòu)進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)參數(shù)及結(jié)果如表5所示:

    首先,本文提出的模型較4種對(duì)比實(shí)驗(yàn)取得了最高的F1值,說明在同時(shí)考慮準(zhǔn)確率和召回率的情況下,本模型優(yōu)于對(duì)比實(shí)驗(yàn)?zāi)P?。其次,在?zhǔn)確率方面,HABCM模型明顯高于“TF-IDF+SVM”“Word2vec+SVM”和“Word2vec+CNN”模型,僅低于“Word2vec+RNN”模型0.93%,究其原因可能在于科技文獻(xiàn)在引用參考文獻(xiàn)時(shí)具有較為復(fù)雜的引用動(dòng)機(jī):從情感分類上說,引用文獻(xiàn)不僅是表達(dá)對(duì)引文內(nèi)容的認(rèn)可,也包括對(duì)引文的批判;從引文原因上說,引用文獻(xiàn)包括介紹方法、理論等與參考文獻(xiàn)主題是語義相關(guān)性較強(qiáng)的原因,也包括基于致敬同行、追溯術(shù)語概念來源等較為片面、與參考文獻(xiàn)主題語義相關(guān)性較弱的原因。由于存在主題關(guān)聯(lián)度不強(qiáng)的引用動(dòng)機(jī),導(dǎo)致給模型訓(xùn)練帶來噪聲[24]。最后,從應(yīng)用角度來看,該模型在準(zhǔn)確率上的微小誤差并不影響應(yīng)用效果。

    4?結(jié)?論

    本文針對(duì)目前科技論文數(shù)量指數(shù)增加、獲取與科研主題相關(guān)文獻(xiàn)越發(fā)困難的情況,提出了HABCM模型。該模型能根據(jù)科研人員的寫作需求推薦與其研究主題相關(guān)的參考文獻(xiàn),輔助科研人員進(jìn)行學(xué)術(shù)寫作。

    本文的主要結(jié)論包括:其一,提出了HABCM模型,該模型使用“層次Attention+雙向GRU”來表示文本對(duì),通過先拼接后提取特征的方式來匹配文本對(duì),在ACL?ARC數(shù)據(jù)集上獲得了74.96%的F1值和78.38%的準(zhǔn)確率,取得了預(yù)期效果。其二,本文考慮了參考文獻(xiàn)的“摘要”“摘要和引言”“全文”結(jié)構(gòu)對(duì)引文推薦效果的影響,并通過實(shí)驗(yàn)證明使用“摘要和引言”的結(jié)構(gòu)來代表參考文獻(xiàn)比僅使用“摘要”或“科技論文全文”的效果更優(yōu)。

    與此同時(shí),本文也存在一定的局限:其一,實(shí)驗(yàn)數(shù)據(jù)集的領(lǐng)域較為單一。本文使用的數(shù)據(jù)集僅來自計(jì)算機(jī)語言學(xué)、自然語言處理領(lǐng)域,所以無法評(píng)估模型在科技論文其他主題領(lǐng)域的效果。其二,僅考慮使用引文關(guān)系進(jìn)行推薦,未考慮其他因素,如科研人員興趣、作者權(quán)威性、引文功能等因素。其三,未剔除與寫作需求引文上下文主題相關(guān)性較弱的參考文獻(xiàn)。在數(shù)據(jù)集處理階段,未根據(jù)作者的引用動(dòng)機(jī)剔除非主題相關(guān)的參考文獻(xiàn):如致敬同行、追溯術(shù)語概念來源等間接引用,導(dǎo)致訓(xùn)練數(shù)據(jù)集中存在大量弱主題相關(guān)的文本對(duì),影響模型效果。

    未來的研究可以考慮以下兩個(gè)方向:第一,構(gòu)建基于科技論文作者的合著信息、曾發(fā)表論文等信息的模型,實(shí)現(xiàn)引文推薦的個(gè)性化。第二,構(gòu)建更細(xì)粒度的引用關(guān)系分類方法:如強(qiáng)引用、中引用、弱引用,從而獲得文本對(duì)之間更精確的引用關(guān)系,以輔助科研人員進(jìn)行更精準(zhǔn)的參考文獻(xiàn)選擇。

    參考文獻(xiàn)

    [1]Strohman?T,Croft?W?B,Jensen?D,et?al.Recommending?Citations?for?Academic?Papers[C]//International?Acm?Sigir?Conference?on?Research?and?Development?in?Information?Retrieval,2007:705-706.

    [2]He?Q,Pei?J,Kifer?D,et?al.Context-aware?Citation?Recommendation[C]//The?Web?Conference,2010:421-430.

    [3]Tang?J,Zhang?J.A?Discriminative?Approach?to?Topic-Based?Citation?Recommendation[C]//Knowledge?Discovery?and?Data?Mining,2009:572-579.

    [4]Yang?L,Zheng?Y,Cai?X,et?al.A?LSTM?Based?Model?for?Personalized?Context-Aware?Citation?Recommendation[J].IEEE?Access,2018,(6):59618-59627.

    [5]Ebesu?T,F(xiàn)ang?Y.Neural?Citation?Network?for?Context-Aware?Citation?Recommendation[C]//International?Acm?Sigir?Conference?on?Research?and?Development?in?Information?Retrieval,2017:1093-1096.

    [6]Mikolov?T,Le?Q?V,Sutskever?I.Exploiting?Similarities?Among?Languages?for?Machine?Translation[J].arXiv:Computation?and?Language,2013.

    [7]Mikolov?T,Chen?K,Corrado?G?S,et?al.Efficient?Estimation?of?Word?Representations?in?Vector?Space[C]//2013.

    [8]Peghoty.Word2vec中的數(shù)學(xué)原理詳解[EB/OL].http://www.cnblogs.com/peghoty/p/3857839.html,2018-02-18.

    [9]Lai?S,Xu?L,Liu?K,et?al.Recurrent?Convolutional?Neural?Networks?for?Text?Classification[C]//National?Conference?on?Artificial?Intelligence,2015:2267-2273.

    [10]Bahdanau?D,Cho?K,Bengio?Y.Neural?Machine?Translation?By?Jointly?Learning?to?Align?and?Translate[J].arXiv?preprint?arXiv:1409.0473,2014.

    [11]Yang?Z,Yang?D,Dyer?C,et?al.Hierarchical?Attention?Networks?for?Document?Classification[C]//Conference?of?the?North?American?Chapter?of?the?Association?for?Computational?Linguistics:Human?Language?Technologies,2017:1481489.

    [12]Cheng?J,Dong?L,Lapata?M.Long?Short-Term?Memory-Networks?for?Machine?Reading[J].arXiv?Preprint?arXiv:1601.06733,2016.

    [13]Huang?P?S,He?X,Gao?J,et?al.Learning?Deep?Structured?Semantic?Models?for?Web?Search?Using?Clickthrough?Data[C]//Proceedings?of?the?22nd?ACM?International?Conference?on?Information?&?Knowledge?Management.ACM,2013:2333-2338.

    [14]Shen?Y,He?X,Gao?J,et?al.Learning?Semantic?Representations?Using?Convolutional?Neural?Networks?for?Web?Search[C]//Proceedings?of?the?23rd?International?Conference?on?World?Wide?Web.ACM,2014:373-374..

    [15]Yin?W,Schütze?H.Multigrancnn:An?Architecture?for?General?Matching?of?Text?Chunks?on?Multiple?Levels?of?Granularity[C]//Proceedings?of?the?53rd?Annual?Meeting?of?the?Association?for?Computational?Linguistics?and?the?7th?International?Joint?Conference?on?Natural?Language?Processing(Volume?1:Long?Papers),2015,(1):63-73.

    [16]Tai?K?S,Socher?R,Manning?C?D.Improved?Semantic?Representations?From?Tree-Structured?Long?Short-Term?Memory?Networks[C]//Proceedings?of?the?53rd?Annual?Meeting?of?the?Association?for?Computational?Linguistics?and?the?7th?International?Joint?Conference?on?Natural?Language?Processing(Volume1:Long?Papers),2015,(1):1556-1566.

    [17]Lu?Y,Xiong?X,Zhang?W,et?al.Research?on?Classification?and?Similarity?of?Patent?Citation?Based?on?Deep?Learning[J].Scientometrics,2020,123.

    [18]Google.Word2vec[EB/OL].https://code.google.com/archive/p/Word2vec/,2018-12-15.

    [19]Yang?Z,Yang?D,Dyer?C,et?al.Hierarchical?Attention?Networks?for?Document?Classification[C]//Conference?of?the?North?American?Chapter?of?the?Association?for?Computational?Linguistics:Human?Language?Technologies,2017:1481489.

    [20]ACL?Anthology?Reference?Corpus[EB/OL].http://acl-arc.comp.nus.edu.sg,?2019-04-11.

    [21]ACL?Anthology[EB/OL].https://aclanthology.info,?2019-04-11.

    [22]ACL?Anthology?Network[EB/OL].http://tangra.cs.yale.edu/newaan/,?2019-04-11.

    [23]Punlumjeak?W,Rugtanom?S,Jantarat?S,et?al.Improving?Classification?of?Imbalanced?Student?Dataset?Using?Ensemble?Method?of?Voting,Bagging,and?Adaboost?with?Under-sampling?Technique[M].IT?Convergence?and?Security?2017.Springer,Singapore,2018:27-34.

    [24]Bornmann?L,Daniel?H?D.What?Do?Citation?Counts?Measure?A?Review?of?Studies?on?Citing?Behavior[J].Journal?of?Documentation,2008,64(1):45-80.

    (責(zé)任編輯:郭沫含)

    猜你喜歡
    科技論文深度學(xué)習(xí)
    淺談優(yōu)質(zhì)科技論文中的細(xì)節(jié)處理
    亞太教育(2016年35期)2016-12-21 19:16:58
    有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    建立中文DOI標(biāo)識(shí)在科技期刊出版中的作用
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    體會(huì)新課程背景下高中生物實(shí)驗(yàn)的科研味道
    科技視界(2016年20期)2016-09-29 12:48:44
    撰寫科技論文需把握的關(guān)鍵要素
    科技視界(2016年14期)2016-06-08 00:44:18
    国产真实伦视频高清在线观看| 91在线观看av| 欧洲精品卡2卡3卡4卡5卡区| 国产aⅴ精品一区二区三区波| 啦啦啦韩国在线观看视频| 国产精品伦人一区二区| 在线免费观看不下载黄p国产| 国产精品人妻久久久影院| 日韩中字成人| 亚洲精品成人久久久久久| 日韩制服骚丝袜av| 免费看a级黄色片| 国内精品美女久久久久久| 波野结衣二区三区在线| 欧美最新免费一区二区三区| 免费无遮挡裸体视频| 精品不卡国产一区二区三区| 午夜视频国产福利| 日韩欧美国产在线观看| 成人鲁丝片一二三区免费| 国产精品美女特级片免费视频播放器| 春色校园在线视频观看| 99久久无色码亚洲精品果冻| 国产精品久久视频播放| 一个人观看的视频www高清免费观看| 国产精品三级大全| 欧美最黄视频在线播放免费| 国产精品一区二区三区四区久久| 国产男靠女视频免费网站| av福利片在线观看| 中文字幕av在线有码专区| 99久国产av精品| 亚洲va在线va天堂va国产| 我要看日韩黄色一级片| 波多野结衣高清作品| 久久久久久伊人网av| 午夜福利高清视频| 国产成人freesex在线 | 最近最新中文字幕大全电影3| 亚洲精品456在线播放app| 3wmmmm亚洲av在线观看| 高清午夜精品一区二区三区 | 亚洲精品乱码久久久v下载方式| 亚洲最大成人手机在线| 99riav亚洲国产免费| 波多野结衣高清作品| 99国产极品粉嫩在线观看| 人妻夜夜爽99麻豆av| 黄色一级大片看看| 91狼人影院| 大香蕉久久网| 亚洲,欧美,日韩| 精品久久久噜噜| av在线老鸭窝| 又爽又黄a免费视频| 简卡轻食公司| 嫩草影院精品99| 亚洲综合色惰| 99国产极品粉嫩在线观看| 国产精品乱码一区二三区的特点| 成人欧美大片| 久久精品国产亚洲av天美| 成人性生交大片免费视频hd| 亚洲精品久久国产高清桃花| 久久精品综合一区二区三区| 亚洲综合色惰| 日本与韩国留学比较| 国产男靠女视频免费网站| 97碰自拍视频| 少妇熟女aⅴ在线视频| 观看免费一级毛片| 久久午夜亚洲精品久久| 亚洲精品国产av成人精品 | 熟女电影av网| 此物有八面人人有两片| 最新中文字幕久久久久| 精品一区二区免费观看| 久久热精品热| 免费在线观看影片大全网站| 欧美+亚洲+日韩+国产| 小说图片视频综合网站| 国产高潮美女av| 午夜影院日韩av| 草草在线视频免费看| 亚洲经典国产精华液单| 欧美高清成人免费视频www| 日本在线视频免费播放| 简卡轻食公司| 亚洲国产精品成人久久小说 | 你懂的网址亚洲精品在线观看 | 欧美日韩在线观看h| 国产伦精品一区二区三区四那| 成人二区视频| 午夜精品在线福利| 国产精华一区二区三区| 成人午夜高清在线视频| 亚洲av免费在线观看| 久久久久久伊人网av| 国产成年人精品一区二区| 深夜精品福利| 国产精品亚洲美女久久久| 91在线观看av| 亚洲在线观看片| 免费在线观看成人毛片| 中文字幕精品亚洲无线码一区| 1024手机看黄色片| 简卡轻食公司| 免费观看的影片在线观看| 精品免费久久久久久久清纯| 国产精品精品国产色婷婷| 男女边吃奶边做爰视频| 麻豆国产97在线/欧美| 长腿黑丝高跟| 日本成人三级电影网站| 国产精品野战在线观看| 少妇的逼水好多| 午夜视频国产福利| 天堂网av新在线| 真人做人爱边吃奶动态| 国产伦一二天堂av在线观看| 搞女人的毛片| 成人高潮视频无遮挡免费网站| 日韩大尺度精品在线看网址| 亚洲在线自拍视频| 国产综合懂色| 欧洲精品卡2卡3卡4卡5卡区| 亚洲av电影不卡..在线观看| 精品一区二区三区av网在线观看| 亚洲性久久影院| 黄色欧美视频在线观看| 亚洲在线观看片| 淫妇啪啪啪对白视频| 国产精品野战在线观看| 搡老熟女国产l中国老女人| 国语自产精品视频在线第100页| 天天一区二区日本电影三级| 亚洲电影在线观看av| 国产高清视频在线播放一区| 美女大奶头视频| avwww免费| 美女免费视频网站| 人人妻,人人澡人人爽秒播| 美女大奶头视频| 色噜噜av男人的天堂激情| 国产伦精品一区二区三区视频9| 国产精品av视频在线免费观看| 97人妻精品一区二区三区麻豆| 美女黄网站色视频| 久久久久久国产a免费观看| 国产精品久久久久久精品电影| avwww免费| 少妇的逼好多水| 亚洲国产欧美人成| 亚洲美女视频黄频| 久久精品国产亚洲av香蕉五月| 天堂√8在线中文| 免费看美女性在线毛片视频| 亚洲欧美日韩卡通动漫| 精品久久久久久久末码| 日本黄色片子视频| 真实男女啪啪啪动态图| 成人精品一区二区免费| 久久精品91蜜桃| 美女大奶头视频| 精品一区二区免费观看| 丰满乱子伦码专区| 最近中文字幕高清免费大全6| а√天堂www在线а√下载| 日本欧美国产在线视频| 久久久国产成人精品二区| 在线看三级毛片| 直男gayav资源| 欧美成人精品欧美一级黄| 真实男女啪啪啪动态图| 中国美白少妇内射xxxbb| 国产91av在线免费观看| 99久国产av精品| 亚洲中文日韩欧美视频| 成人永久免费在线观看视频| 日韩国内少妇激情av| 97超碰精品成人国产| 国产av一区在线观看免费| 简卡轻食公司| 欧美中文日本在线观看视频| 国产精品久久久久久久久免| 一卡2卡三卡四卡精品乱码亚洲| 国产单亲对白刺激| 成年女人毛片免费观看观看9| 欧美成人精品欧美一级黄| 欧美国产日韩亚洲一区| 亚洲三级黄色毛片| 尾随美女入室| 精品一区二区三区人妻视频| 精品一区二区免费观看| 香蕉av资源在线| 波多野结衣高清作品| 国产精品久久久久久精品电影| 91麻豆精品激情在线观看国产| 免费av毛片视频| 色综合亚洲欧美另类图片| 综合色av麻豆| 亚洲精品久久国产高清桃花| 国产69精品久久久久777片| 99热这里只有是精品50| 欧美日韩国产亚洲二区| 插逼视频在线观看| 日本与韩国留学比较| www日本黄色视频网| 色综合亚洲欧美另类图片| 黄片wwwwww| 国产黄a三级三级三级人| 午夜老司机福利剧场| aaaaa片日本免费| 亚洲av成人精品一区久久| av在线亚洲专区| 一进一出抽搐gif免费好疼| 亚洲av.av天堂| 亚洲在线自拍视频| 国产毛片a区久久久久| 亚洲激情五月婷婷啪啪| avwww免费| 亚洲精品国产成人久久av| 成人无遮挡网站| 欧美激情在线99| 日韩 亚洲 欧美在线| 极品教师在线视频| 久久精品国产鲁丝片午夜精品| 黄色日韩在线| 91麻豆精品激情在线观看国产| 久久久久国内视频| 色视频www国产| 国产精品亚洲美女久久久| 嫩草影视91久久| 日韩欧美一区二区三区在线观看| 99久久无色码亚洲精品果冻| 欧美极品一区二区三区四区| 日日摸夜夜添夜夜添av毛片| 国产女主播在线喷水免费视频网站 | 免费看av在线观看网站| 精品一区二区三区av网在线观看| 欧美最新免费一区二区三区| 我的女老师完整版在线观看| 国产精品久久视频播放| 亚洲最大成人中文| 亚洲国产欧美人成| 精品久久久噜噜| 男人舔女人下体高潮全视频| 欧美中文日本在线观看视频| 亚洲精品亚洲一区二区| 在线免费十八禁| 婷婷亚洲欧美| 日韩欧美免费精品| 日日摸夜夜添夜夜添小说| 欧美bdsm另类| 久久99热6这里只有精品| 久久精品91蜜桃| 69人妻影院| 成人欧美大片| 久久中文看片网| 日本撒尿小便嘘嘘汇集6| 在线天堂最新版资源| 淫秽高清视频在线观看| 十八禁国产超污无遮挡网站| 91av网一区二区| 别揉我奶头~嗯~啊~动态视频| 欧美不卡视频在线免费观看| 最近中文字幕高清免费大全6| 国产激情偷乱视频一区二区| 精品乱码久久久久久99久播| 99热这里只有精品一区| 五月伊人婷婷丁香| 亚洲成a人片在线一区二区| 三级国产精品欧美在线观看| 高清毛片免费观看视频网站| 日本成人三级电影网站| av卡一久久| 欧美+日韩+精品| 天堂√8在线中文| 尤物成人国产欧美一区二区三区| 看非洲黑人一级黄片| aaaaa片日本免费| 不卡一级毛片| 国内精品宾馆在线| 国产精品1区2区在线观看.| 久久久精品欧美日韩精品| 中文字幕久久专区| 99热只有精品国产| 久久人妻av系列| 亚洲精品成人久久久久久| 免费在线观看成人毛片| 亚洲精品亚洲一区二区| 国产精品嫩草影院av在线观看| 久久久久国产网址| 黄色视频,在线免费观看| 国产精品电影一区二区三区| 天堂√8在线中文| 日韩欧美国产在线观看| 亚洲美女视频黄频| 九九爱精品视频在线观看| 精品人妻视频免费看| 成人av在线播放网站| 国产老妇女一区| 欧美在线一区亚洲| 久久鲁丝午夜福利片| 听说在线观看完整版免费高清| 天堂网av新在线| 国产精品久久久久久精品电影| 女的被弄到高潮叫床怎么办| 婷婷色综合大香蕉| 欧美3d第一页| 少妇人妻一区二区三区视频| 日本黄色片子视频| 亚洲自拍偷在线| 一级黄片播放器| 91久久精品电影网| 可以在线观看的亚洲视频| 永久网站在线| 老司机影院成人| 欧美日韩一区二区视频在线观看视频在线 | 天堂动漫精品| 人妻丰满熟妇av一区二区三区| 久久这里只有精品中国| 国产91av在线免费观看| 国内揄拍国产精品人妻在线| 亚洲av不卡在线观看| 精品人妻视频免费看| 亚洲成a人片在线一区二区| 91午夜精品亚洲一区二区三区| 美女cb高潮喷水在线观看| 亚洲成人av在线免费| 日日摸夜夜添夜夜爱| 日本熟妇午夜| 亚洲aⅴ乱码一区二区在线播放| 欧美人与善性xxx| 亚洲精品国产成人久久av| 日韩一区二区视频免费看| 一进一出好大好爽视频| 久久人妻av系列| 香蕉av资源在线| 欧美国产日韩亚洲一区| 久久精品国产清高在天天线| 真实男女啪啪啪动态图| 亚洲熟妇中文字幕五十中出| 欧美潮喷喷水| a级毛片免费高清观看在线播放| 国内精品久久久久精免费| 日韩三级伦理在线观看| 免费观看精品视频网站| 国产欧美日韩精品亚洲av| 久久久a久久爽久久v久久| 国产伦精品一区二区三区视频9| 精品久久久久久成人av| 菩萨蛮人人尽说江南好唐韦庄 | 国模一区二区三区四区视频| 欧美最新免费一区二区三区| 插阴视频在线观看视频| 你懂的网址亚洲精品在线观看 | 一个人观看的视频www高清免费观看| 不卡视频在线观看欧美| 狠狠狠狠99中文字幕| 两性午夜刺激爽爽歪歪视频在线观看| 男女之事视频高清在线观看| 婷婷亚洲欧美| 卡戴珊不雅视频在线播放| 色综合色国产| av卡一久久| 亚洲精品一卡2卡三卡4卡5卡| 久久6这里有精品| 国产探花极品一区二区| 少妇猛男粗大的猛烈进出视频 | 高清日韩中文字幕在线| 亚洲在线自拍视频| 男女边吃奶边做爰视频| 99精品在免费线老司机午夜| 国产探花极品一区二区| 久久韩国三级中文字幕| 婷婷精品国产亚洲av| 六月丁香七月| 少妇高潮的动态图| 在线观看午夜福利视频| 国产一级毛片七仙女欲春2| 国产精华一区二区三区| 国产高潮美女av| 熟女人妻精品中文字幕| 97碰自拍视频| 韩国av在线不卡| 国产爱豆传媒在线观看| 三级毛片av免费| 蜜臀久久99精品久久宅男| 麻豆av噜噜一区二区三区| 国产男靠女视频免费网站| a级毛色黄片| 午夜福利18| 老司机午夜福利在线观看视频| 深夜a级毛片| 人妻久久中文字幕网| 少妇被粗大猛烈的视频| 精品人妻一区二区三区麻豆 | 精品久久久久久成人av| 我的女老师完整版在线观看| 啦啦啦韩国在线观看视频| 亚洲熟妇熟女久久| 中文字幕av在线有码专区| 亚洲性夜色夜夜综合| 伦精品一区二区三区| 观看美女的网站| 久久久久国产精品人妻aⅴ院| 夜夜爽天天搞| 精品一区二区三区视频在线观看免费| 精品一区二区三区视频在线| 人人妻,人人澡人人爽秒播| 美女高潮的动态| 国产一区二区三区av在线 | 人人妻人人澡人人爽人人夜夜 | 婷婷精品国产亚洲av| 99riav亚洲国产免费| 日本黄大片高清| 99在线视频只有这里精品首页| 悠悠久久av| 三级毛片av免费| 亚洲乱码一区二区免费版| 久久久国产成人精品二区| 久久精品久久久久久噜噜老黄 | 极品教师在线视频| 99热网站在线观看| 亚洲在线自拍视频| 噜噜噜噜噜久久久久久91| 尾随美女入室| 国产成人a∨麻豆精品| 国产亚洲精品久久久久久毛片| 久久久久国内视频| 老熟妇仑乱视频hdxx| 久久久久性生活片| 最新中文字幕久久久久| 国产在线精品亚洲第一网站| 亚洲精品粉嫩美女一区| 国产精品99久久久久久久久| 91久久精品国产一区二区成人| 女同久久另类99精品国产91| 久久久色成人| 最好的美女福利视频网| 极品教师在线视频| 国产精品免费一区二区三区在线| 99久久精品一区二区三区| 欧美性感艳星| 波野结衣二区三区在线| 久久午夜亚洲精品久久| av中文乱码字幕在线| 女的被弄到高潮叫床怎么办| 国产精品免费一区二区三区在线| 成人精品一区二区免费| av视频在线观看入口| 在线观看免费视频日本深夜| 国产美女午夜福利| 精品久久久久久久久亚洲| 日韩欧美国产在线观看| 欧美一区二区国产精品久久精品| 成人永久免费在线观看视频| videossex国产| 悠悠久久av| 夜夜夜夜夜久久久久| 国内揄拍国产精品人妻在线| 亚洲欧美日韩高清在线视频| 亚洲最大成人av| 大香蕉久久网| 好男人在线观看高清免费视频| 日日啪夜夜撸| 亚洲av电影不卡..在线观看| 亚洲18禁久久av| 午夜视频国产福利| 日韩av在线大香蕉| 色哟哟哟哟哟哟| 中文字幕精品亚洲无线码一区| 俄罗斯特黄特色一大片| 大又大粗又爽又黄少妇毛片口| 91久久精品国产一区二区三区| 国产成人freesex在线 | 国产三级在线视频| 亚洲不卡免费看| 长腿黑丝高跟| 日韩国内少妇激情av| 一级毛片我不卡| 日韩一本色道免费dvd| 最近的中文字幕免费完整| 五月伊人婷婷丁香| 天堂网av新在线| 99九九线精品视频在线观看视频| 亚洲专区国产一区二区| 最近的中文字幕免费完整| 3wmmmm亚洲av在线观看| 久久久精品大字幕| av在线天堂中文字幕| 欧美最新免费一区二区三区| 可以在线观看的亚洲视频| 18禁黄网站禁片免费观看直播| 老女人水多毛片| or卡值多少钱| 国语自产精品视频在线第100页| 国产欧美日韩一区二区精品| 精品人妻视频免费看| 国产 一区 欧美 日韩| 久久久久久国产a免费观看| 成人高潮视频无遮挡免费网站| 午夜老司机福利剧场| 亚洲精品亚洲一区二区| 亚洲图色成人| 麻豆国产97在线/欧美| 亚洲最大成人中文| 老司机影院成人| 精品人妻视频免费看| 久久人妻av系列| 黄色视频,在线免费观看| 变态另类成人亚洲欧美熟女| 中文字幕精品亚洲无线码一区| 国内揄拍国产精品人妻在线| 国产伦精品一区二区三区四那| 搡老妇女老女人老熟妇| 你懂的网址亚洲精品在线观看 | 午夜爱爱视频在线播放| 看非洲黑人一级黄片| 成人综合一区亚洲| а√天堂www在线а√下载| 永久网站在线| 中出人妻视频一区二区| 亚洲一级一片aⅴ在线观看| 午夜日韩欧美国产| 成人无遮挡网站| 大型黄色视频在线免费观看| 精品99又大又爽又粗少妇毛片| 亚洲精品色激情综合| 欧美人与善性xxx| 99久久精品国产国产毛片| 国产精品福利在线免费观看| av在线老鸭窝| 日韩成人av中文字幕在线观看 | 最新在线观看一区二区三区| 亚洲av.av天堂| 中文资源天堂在线| 日韩高清综合在线| 久久久午夜欧美精品| av黄色大香蕉| 欧美一区二区亚洲| 国产午夜福利久久久久久| 久久精品国产99精品国产亚洲性色| 亚洲av.av天堂| av在线亚洲专区| 99久久精品国产国产毛片| 深夜a级毛片| 人妻丰满熟妇av一区二区三区| 91在线精品国自产拍蜜月| 国产一级毛片七仙女欲春2| 国产精品久久久久久久久免| 天堂√8在线中文| 国产精品一区二区三区四区免费观看 | 国产白丝娇喘喷水9色精品| 国产麻豆成人av免费视频| 久久精品夜夜夜夜夜久久蜜豆| 麻豆一二三区av精品| 午夜福利在线观看吧| 男人舔奶头视频| 亚洲第一电影网av| 偷拍熟女少妇极品色| 成人特级黄色片久久久久久久| 国产亚洲欧美98| 亚洲自偷自拍三级| 黄色一级大片看看| 午夜爱爱视频在线播放| 国产伦精品一区二区三区视频9| 人人妻人人看人人澡| 俺也久久电影网| 少妇人妻一区二区三区视频| 精品国内亚洲2022精品成人| 毛片一级片免费看久久久久| 欧美三级亚洲精品| 桃色一区二区三区在线观看| 亚洲18禁久久av| 国产精品一区二区三区四区免费观看 | 国产白丝娇喘喷水9色精品| 午夜激情福利司机影院| 精品一区二区免费观看| 国产伦在线观看视频一区| 99久久精品国产国产毛片| 精品久久久久久久久亚洲| 精品久久久久久久人妻蜜臀av| 国模一区二区三区四区视频| 国产午夜精品久久久久久一区二区三区 | 高清午夜精品一区二区三区 | 老熟妇乱子伦视频在线观看| 亚洲人与动物交配视频| 色吧在线观看| 成人永久免费在线观看视频| 国产真实乱freesex| 精品一区二区免费观看| 欧美人与善性xxx| 成人性生交大片免费视频hd| 国产精品久久久久久精品电影| 伦精品一区二区三区| 亚洲国产精品成人久久小说 | 日日摸夜夜添夜夜爱| 此物有八面人人有两片| 中文字幕人妻熟人妻熟丝袜美| 久久综合国产亚洲精品| 91久久精品电影网| 国产久久久一区二区三区| 噜噜噜噜噜久久久久久91| 国产成人精品久久久久久| 欧美高清性xxxxhd video| 美女xxoo啪啪120秒动态图| 亚洲中文字幕一区二区三区有码在线看| 一卡2卡三卡四卡精品乱码亚洲| 亚洲最大成人av| 精品一区二区三区人妻视频| 直男gayav资源| 天美传媒精品一区二区| 日韩av不卡免费在线播放|