• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    雙向注意力文本關(guān)鍵詞匹配法條推薦

    2024-01-30 02:43:04丁娜劉鵬邵惠鵬王學(xué)奎
    關(guān)鍵詞:語(yǔ)義特征文本

    丁娜 劉鵬 邵惠鵬 王學(xué)奎

    北京大學(xué)學(xué)報(bào)(自然科學(xué)版) 第60卷 第1期 2024年1月

    Acta Scientiarum Naturalium Universitatis Pekinensis, Vol. 60, No. 1 (Jan. 2024)

    10.13209/j.0479-8023.2023.077

    中國(guó)礦業(yè)大學(xué)研究生創(chuàng)新計(jì)劃(2023WLJCRCZL111)資助

    2023–05–18;

    2023–07–31

    雙向注意力文本關(guān)鍵詞匹配法條推薦

    丁娜1劉鵬2,?邵惠鵬3王學(xué)奎4

    1.中國(guó)礦業(yè)大學(xué)信息與控制工程學(xué)院, 徐州 221116; 2.礦山互聯(lián)網(wǎng)應(yīng)用技術(shù)國(guó)家地方聯(lián)合工程實(shí)驗(yàn)室, 徐州 221008; 3.江蘇省徐州市銅山區(qū)公安局法制大隊(duì), 徐州 221100; 4.阿里巴巴集團(tuán)有限公司, 杭州 311121; ?通信作者, E-mail: liupeng@cumt.edu.cn

    提出一種雙向注意力文本關(guān)鍵詞匹配的法條推薦模型(BiAKLaw)。該模型以預(yù)訓(xùn)練語(yǔ)言模型 BERT 作為基礎(chǔ)匹配模型, 利用雙向注意力機(jī)制提取字符級(jí)對(duì)齊特征和關(guān)鍵詞差異特征, 融合對(duì)齊特征、差異特征和關(guān)鍵詞語(yǔ)義表征來(lái)提升匹配效果。在裁判文書交通肇事和故意傷害數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明, 與 BERT 模型相比, BiAKLaw 在評(píng)價(jià)指標(biāo) F1 上分別提升 3.74%和 3.43%。

    法條推薦; 案件事實(shí); 文本匹配; 注意力機(jī)制

    法律領(lǐng)域的人工智能(legal artificial intelligen-ce, LegalAI)旨在利用人工智能技術(shù)來(lái)處理該領(lǐng)域的各類任務(wù), 已成為研究熱點(diǎn)。法律資料多以語(yǔ)言文本形式呈現(xiàn), 因此 LegalAI 廣泛使用自然語(yǔ)言處理(natural language processing, NLP)技術(shù)來(lái)提高自動(dòng)化程度, 可以在一定程度上減輕法律從業(yè)者的勞動(dòng)強(qiáng)度, 提升法律事務(wù)處理效率, 同時(shí)降低司法應(yīng)用的使用門檻, 給非專業(yè)人員提供一定的法律援助。LegalAI 的典型應(yīng)用包括法律判決預(yù)測(cè)(legal judge-ment prediction, LJP)、相似案例匹配和法律問(wèn)答等。法律判決預(yù)測(cè)任務(wù)主要關(guān)注如何基于事實(shí)描述和法條內(nèi)容, 來(lái)預(yù)測(cè)判決結(jié)果。法條推薦是其中重要的子任務(wù)。

    我國(guó)是實(shí)行民法體系的國(guó)家, 法官基于既定的成文法條給出判決結(jié)果, 因此, 根據(jù)案件事實(shí), 準(zhǔn)確、全面地找到相關(guān)法條, 是法官做出公正裁決的重要前提。在早期 LegalAI 研究中, 法律判決預(yù)測(cè)多利用數(shù)學(xué)統(tǒng)計(jì)方法給出參考判決結(jié)果[1–4]。近年來(lái), 隨著神經(jīng)網(wǎng)絡(luò)技術(shù)的發(fā)展, 研究者多利用文本分類來(lái)處理法條推薦任務(wù)[5–8], 還有一些研究者融合法律專業(yè)知識(shí)來(lái)輔助判決[9–11]。已有的法條推薦研究大多將法條視為離散標(biāo)簽[12], 僅提取案件事實(shí)的文本特征作為輸入, 預(yù)測(cè)相應(yīng)的法條標(biāo)簽, 忽略了法條的語(yǔ)義信息。然而, 在實(shí)際審案過(guò)程中, 法官通常以法條內(nèi)容為準(zhǔn)則對(duì)案件事實(shí)進(jìn)行分析, 再確定嫌疑人行為匹配的具體法條。因此, 法條內(nèi)涵的語(yǔ)義信息是定罪和量刑的重要依據(jù), 需要加以充分利用。

    在法律判決過(guò)程中, 找到案件相關(guān)的所有法條至關(guān)重要, 遺漏或錯(cuò)誤推薦任一法條都會(huì)影響判決結(jié)果, 妨礙司法公正。一個(gè)案例通常包括多個(gè)犯罪事實(shí), 如果將案例看成一個(gè)整體來(lái)預(yù)測(cè)涉及的所有法條, 得到的結(jié)果還需要花費(fèi)大量人工將事實(shí)對(duì)應(yīng)相應(yīng)的法條, 可解釋性較差。同時(shí), 案例屬于長(zhǎng)文本, 包含各種粒度的特征, 將案例按事實(shí)劃分, 有助于更好地提取文本特征信息。

    本文將法條推薦任務(wù)視為案件事實(shí)與法條內(nèi)容的文本匹配任務(wù), 提出一種雙向注意力文本關(guān)鍵詞匹配的法條推薦模型(BiAKLaw)。根據(jù) Ge 等[13]的做法, 本文將案例劃分成若干獨(dú)立事實(shí), 將案例中的每個(gè)事實(shí)與法條庫(kù)的每個(gè)法條進(jìn)行匹配, 將一對(duì)多匹配轉(zhuǎn)變成多對(duì)多匹配問(wèn)題。一對(duì)多和多對(duì)多的法條匹配如圖 1 所示。另外, 由于案件中犯罪事實(shí)和法條之間可能含有重合字符, 只依靠匹配標(biāo)簽, 模型很難學(xué)到犯罪事實(shí)與法條之間的關(guān)鍵差異特征。關(guān)鍵詞序列去除了無(wú)關(guān)字符, 能最大程度地表達(dá)一段話的實(shí)際意義。因此, 本文通過(guò)提取案件和法條兩者的關(guān)鍵詞序列, 融合關(guān)鍵詞序列的匹配特征, 提升模型的匹配結(jié)果。

    1 相關(guān)工作

    1.1 法律判決預(yù)測(cè)

    法律判決預(yù)測(cè)包括法條推薦、罪名預(yù)測(cè)和刑期預(yù)測(cè) 3 個(gè)子任務(wù), 最早的研究開(kāi)始于 20 世紀(jì) 50 年代, 主要圍繞如何使用數(shù)學(xué)和統(tǒng)計(jì)方法分析歷史案件, 找出共性規(guī)律, 并構(gòu)建模型來(lái)模擬判決流程。例如, Kort[1]通過(guò)定量分析大量已經(jīng)裁決的案件來(lái)預(yù)測(cè)美國(guó)最高法院的判決。受限于人力和計(jì)算機(jī)技術(shù), 這類基于數(shù)學(xué)統(tǒng)計(jì)的模型準(zhǔn)確率和泛化能力都不高。隨著機(jī)器學(xué)習(xí)技術(shù)的發(fā)展, 研究者多以分類框架為基礎(chǔ)來(lái)構(gòu)建模型, 將法條推薦和罪名預(yù)測(cè)均視為分類問(wèn)題, 將歷史法律文書作為訓(xùn)練樣本, 法條和罪名作為類別標(biāo)簽。例如, Luo 等[9]基于 SVM, 為每個(gè)法條標(biāo)簽訓(xùn)練二元分類器, 預(yù)測(cè)法條與案件事實(shí)的關(guān)系, 并選擇最相關(guān)的條法條進(jìn)行后續(xù)的罪名分類, Liu 等[14]基于 PAT 樹(shù)和 HowNet 構(gòu)建領(lǐng)域相關(guān)詞表, 并用 K 近鄰算法(K-nearest-neighbour, KNN)處理淺層文本特征來(lái)解決多標(biāo)簽罪名分類問(wèn)題。此類機(jī)器學(xué)習(xí)模型在一定程度上提升了預(yù)測(cè)性能, 但是高度依賴手工提取模板, 且提取的只是淺層文本特征, 對(duì)高層特征的提取能力較弱。

    近年來(lái), 研究者大多使用深度學(xué)習(xí)技術(shù)處理法律判決預(yù)測(cè)任務(wù), 大致可以分為兩種類型: 一類是通過(guò)模型創(chuàng)新提升性能[15–16], 另一類是融合外部法律知識(shí)提升性能[9–11]。另外, 法律判決預(yù)測(cè)技術(shù)的發(fā)展離不開(kāi)高質(zhì)量公開(kāi)數(shù)據(jù)集的支撐。Xiao 等[17]構(gòu)建了首個(gè)中文法律判決預(yù)測(cè)數(shù)據(jù)集, 該數(shù)據(jù)集包含中國(guó)最高人民法院公開(kāi)的 260 萬(wàn)刑事案件。Chal-kidis等[18]根據(jù)歐洲人權(quán)法院案件, 構(gòu)建一個(gè)英文法律判決預(yù)測(cè)數(shù)據(jù)集, 該數(shù)據(jù)集的不足之處是規(guī)模較小。

    圖1 一對(duì)多和多對(duì)多法條匹配示意圖

    1.2 法條文本匹配

    法條推薦可作為案件事實(shí)和法條內(nèi)容的文本匹配任務(wù), 提取兩者文本特征并計(jì)算匹配度。判斷兩個(gè)文本是否匹配是許多NLP任務(wù)的基礎(chǔ)工作, 例如機(jī)器翻譯、自動(dòng)問(wèn)答、釋義識(shí)別和文本檢索等。傳統(tǒng)的文本匹配方法依賴于人工提取特征, 這些模型往往針對(duì)特定的領(lǐng)域, 泛化能力不強(qiáng)。例如, 使用 BM25 算法[19]計(jì)算相似度時(shí), 解決的只是句子詞匯的相似度問(wèn)題, 沒(méi)有考慮句子深層語(yǔ)義的匹配, 對(duì)復(fù)雜句子的效果不佳。

    近年來(lái), 越來(lái)越多的研究者使用深度學(xué)習(xí)方法來(lái)完成文本匹配任務(wù)。按照模型架構(gòu)不同來(lái)分類, 大致可以分為表示型和交互型兩種。典型的表示型模型有 DSSM[20]和 ARC-I[21]等, 均采用孿生網(wǎng)絡(luò)結(jié)構(gòu), 參數(shù)共享, 具有對(duì)稱性。首先將兩段文本轉(zhuǎn)換為高維向量, 在模型末端對(duì)兩段文本進(jìn)行特征交互, 最后得到匹配結(jié)果。此類模型的優(yōu)點(diǎn)是參數(shù)量較少, 易于訓(xùn)練, 缺點(diǎn)是兩段文本在各自編碼完成之前沒(méi)有交互, 可能會(huì)丟失重要語(yǔ)義信息, 影響匹配結(jié)果。交互型模型是表示型模型的改進(jìn), 在兩段文本編碼過(guò)程中進(jìn)行交互匹配, 然后提取文本特征, 最后進(jìn)行相似度計(jì)算。例如, Hu 等[21]在 ARC-I 的基礎(chǔ)上提出 ARC-II 結(jié)構(gòu); Chen 等[22]結(jié)合注意力機(jī)制提出 ESIM 模型完成自然語(yǔ)言推理任務(wù)。交互式框架能夠?qū)W習(xí)到更多的交互特征, 匹配效果得到提升, 缺點(diǎn)是推理速度顯著變慢, 難以應(yīng)用于大規(guī)模 語(yǔ)料上。

    借助外部知識(shí)增強(qiáng)文本語(yǔ)義表征能力, 也是文本匹配領(lǐng)域常用的方法。例如, Lyu 等[23]將 HowNet作為外部知識(shí)庫(kù), 解決了單詞歧義問(wèn)題。Wu 等[24]將分類知識(shí)作為先驗(yàn)知識(shí)來(lái)過(guò)濾文本中的噪聲, 并從多個(gè)角度進(jìn)行匹配。但是, 外部知識(shí)多是結(jié)構(gòu)化知識(shí)庫(kù), 一般需要花費(fèi)大量人工來(lái)構(gòu)建。隨著計(jì)算能力的提升, 出現(xiàn)基于 Transformer[25]架構(gòu)的預(yù)訓(xùn)練語(yǔ)言模型(pre-trained language models, PLMs), 包括BERT[26], RoBERTa[27]和 BERT-wwm[28]等。與傳統(tǒng)方法相比, 預(yù)訓(xùn)練語(yǔ)言模型在多個(gè)下游任務(wù)(包括文本匹配)中表現(xiàn)優(yōu)異, 迅速成為文本匹配領(lǐng)域的重要研究方法。

    鑒于預(yù)訓(xùn)練語(yǔ)言模型強(qiáng)大的性能, 本文選擇BERT 系列模型作為基礎(chǔ)匹配模型。

    2 雙向注意力文本關(guān)鍵詞匹配的法條推薦模型

    2.1 問(wèn)題描述

    為了充分利用法條語(yǔ)義信息, 本文將法條推薦任務(wù)視為案件事實(shí)與法條之間的文本匹配過(guò)程。具體來(lái)說(shuō), 將某個(gè)案例視為包含若干獨(dú)立犯罪事實(shí)的序列={1,2, …,F}, 有限法條集合為={1,2, …,L}, 其中,是某個(gè)案例包含的案件事實(shí)的數(shù)量,是某類案件涉及的全部法條的數(shù)量。本文的目標(biāo)就是構(gòu)建一個(gè)映射函數(shù), 按照一定的規(guī)則找到與每個(gè)案例的犯罪事實(shí)相匹配的法條, 可表示為

    =(F,L), (1)

    其中, 模型輸入為案例的某個(gè)事實(shí)F和法條集合的某個(gè)法條L,為匹配神經(jīng)網(wǎng)絡(luò),∈{0, 1}, 輸出結(jié)果為不匹配或者匹配。

    2.2 模型架構(gòu)

    本文提出的雙向注意力文本關(guān)鍵詞匹配的法條推薦模型(BiAKLaw)包括關(guān)鍵詞抽取層、模型輸入層、語(yǔ)義知識(shí)交互層以及輸出層, 模型架構(gòu)如圖 2 所示。

    1)關(guān)鍵詞抽取層主要基于 KeyBERT[29]算法, 抽取案件事實(shí)和法條兩者的關(guān)鍵詞序列。

    2)模型輸入層將案件事實(shí)和法條內(nèi)容拼接輸入預(yù)訓(xùn)練模型 BERT 詞嵌入編碼層, 學(xué)習(xí)文本對(duì)的相關(guān)性, 得到具有語(yǔ)義信息的字符向量表示。

    3)語(yǔ)義知識(shí)交互層一方面使用雙向注意力機(jī)制, 得到案件事實(shí)和法條文本之間的對(duì)齊特征, 使用最大池化策略來(lái)保留重要特征; 另一方面基于案件事實(shí)關(guān)鍵詞序列和法條關(guān)鍵詞序列, 對(duì)案件事實(shí)和法條序列的非關(guān)鍵詞位置進(jìn)行遮蔽。BERT 模型在進(jìn)行自注意力機(jī)制計(jì)算時(shí), 得到的案件事實(shí)序列向量只與法條中的關(guān)鍵詞有關(guān), 反之, 法條序列向量只與案件事實(shí)關(guān)鍵詞有關(guān)。對(duì)兩者序列向量使用平均池化策略, 再相減得到關(guān)鍵差異特征, 然后將多種特征進(jìn)行拼接融合送入全連接層。

    4)輸出層輸出最終的法條匹配結(jié)果。

    2.3 關(guān)鍵詞抽取層

    在人工判案過(guò)程中, 法官會(huì)梳理案例中每個(gè)犯罪事實(shí)的關(guān)鍵信息, 翻閱法條手冊(cè), 判斷符合哪個(gè)法條的前提條件, 最后結(jié)合觸犯的所有法條做出最終判決??紤]到案件事實(shí)和法律條文均屬于較長(zhǎng)的專業(yè)性文本, 如果只使用兩者的原序列來(lái)計(jì)算匹配度, 會(huì)引入很多無(wú)關(guān)的噪聲信息, 譬如會(huì)使模型誤將字面重合度高但關(guān)鍵信息并不匹配的文本預(yù)測(cè)為相似, 造成錯(cuò)誤匹配, 因此我們決定引入能表達(dá)關(guān)鍵信息的關(guān)鍵詞序列來(lái)輔助文本匹配。

    圖2 雙向注意力文本關(guān)鍵詞匹配的法條推薦模型BiAKLaw

    KeyBERT 是近年出現(xiàn)的一種無(wú)監(jiān)督關(guān)鍵詞抽取模型, 通過(guò) BERT 獲取文檔和候選詞的向量表示, 利用余弦相似度來(lái)衡量候選詞與文檔的相似程度, 選取相似度最高的若干詞作為該文檔的關(guān)鍵詞。由于 KeyBERT 易于使用, 效果能滿足本文方案需求, 因此將其作為關(guān)鍵詞抽取模型。關(guān)鍵詞抽取質(zhì)量還受文本嵌入表示影響, 本文使用清華大學(xué)發(fā)布的基于大規(guī)模刑事文書預(yù)訓(xùn)練模型[30]來(lái)獲取詞嵌入表示。案件事實(shí)序列為{1,2, …,f},代表事實(shí)字符數(shù)量。法條序列為{1,2, …,l},代表法條字符數(shù)量。使用 KeyBERT 算法分別抽取案件事實(shí)和法條序列中的關(guān)鍵詞, 得到{Kf1, Kf2…}和{Kl1, Kl2…}。

    2.4 模型輸入層

    模型的輸入為案件事實(shí)以及法條文本, 通過(guò)BERT 獲得語(yǔ)義編碼向量。BERT 輸入可以是一段文本或兩段文本的拼接, 當(dāng)輸入為兩段文本時(shí), 中間用字符[SEP]連接, [CLS]和[SEP]符號(hào)會(huì)插在拼接文本的開(kāi)頭和結(jié)尾, 然后輸入到詞嵌入編碼層。詞嵌入編碼層由 3 個(gè)部分組成: 字符嵌入層(token em-beddings)是根據(jù)文本序列分詞后的 token, 查找詞表得到的向量表示; 段編碼層(segment embeddings)是為了區(qū)分輸入是第一段文本還是第二段文本; 位置編碼層(positional embeddings)引入每個(gè) token 在對(duì)應(yīng) segment 中的位置編碼信息。最后, 將三部分相加, 輸入 BERT 詞嵌入層。

    2.5 語(yǔ)義交互層

    將案件事實(shí)和法條文本拼接輸入 BERT 詞嵌入層后, 經(jīng)過(guò)多層 Transformer 得到最終的高維語(yǔ)義向量。由于 BERT 是雙向模型, 序列中的每個(gè)字符相互可見(jiàn), 經(jīng)過(guò)自注意力機(jī)制后, 得到的特征向量是前后文相關(guān)的, 每個(gè)序列中更重要的詞語(yǔ)會(huì)被賦予更大的權(quán)重。

    將圖 2 中模型框架 BERT 最后一層的輸出作為案件事實(shí)和法條文本的向量表示:

    其中,(CLS)∈R為語(yǔ)義匹配的一個(gè)特征,F∈R為事實(shí)描述的語(yǔ)義表征,L∈R為法條的語(yǔ)義表征,代表 BERT 隱藏層維度,和分別為事實(shí)和法條的字符數(shù)。本文使用雙向注意力機(jī)制, 得到匹配文本表征間的對(duì)齊特征。

    注意力權(quán)重矩陣的計(jì)算如下:

    其中,是法條方向的注意力權(quán)重,是案件事實(shí)方向的注意力權(quán)重??紤]到法條專業(yè)性較強(qiáng), 描述用語(yǔ)相對(duì)固定, 而案件描述具有多樣性, 于是我們使用案件描述對(duì)齊法條, 對(duì)在法條方向求和, 壓縮注意力權(quán)重矩陣, 得到案件事實(shí)方向上總的權(quán)重向量∈R:

    與法條方向注意力權(quán)重融合, 得到法條方向的綜合權(quán)重向量∈R:

    得到字符級(jí)對(duì)齊特征FL后, 使用最大池化策略, 保留重要特征得到∈R:

    為了使模型更準(zhǔn)確地捕獲匹配對(duì)象間的關(guān)鍵信息, 進(jìn)行相似性判別, 并行于 BERT 最后一層 Trans-former, 堆疊一個(gè)關(guān)鍵詞自注意力 Transformer 層。該層的輸入為 BERT 倒數(shù)第二層 Transformer 的輸出, 其架構(gòu)與普通 Transformer 一樣, 唯一的不同之處是 attention mask 矩陣。Transformer 內(nèi)部采用自注意力機(jī)制:

    其中, mask 是 attention mask 矩陣。進(jìn)行自注意力計(jì)算時(shí), 可以通過(guò)更改 attention mask 矩陣, 使字符間信息相互可見(jiàn)或不可見(jiàn)。基于關(guān)鍵詞抽取層抽取的關(guān)鍵詞序列, 更改 attention mask 矩陣。如圖 3 所示, 假設(shè)案件事實(shí)有 4 個(gè)字符, Kf2 和 Kf3 為關(guān)鍵詞字符, 法條有 3 個(gè)字符, Kl2 和 Kl3 為關(guān)鍵詞字符, attention mask 矩陣中為 1 的位置代表信息可見(jiàn), 為 0 的位置代表信息不可見(jiàn)。計(jì)算案件事實(shí)語(yǔ)義表征時(shí), 只關(guān)注事實(shí)自身信息和法條關(guān)鍵詞信息; 計(jì)算法條語(yǔ)義表征時(shí), 只關(guān)注法條自身信息以及案件事實(shí)關(guān)鍵詞信息。

    經(jīng)過(guò)關(guān)鍵詞注意力層后, 得到兩個(gè)關(guān)鍵詞相關(guān)語(yǔ)義表征矩陣, 然后使用平均池化壓縮語(yǔ)義信息, 得到兩個(gè)新的語(yǔ)義表征向量kw∈R和kw∈R。將兩個(gè)向量相減, 得到 diff_kw∈R, 用來(lái)表示關(guān)鍵差異特征:

    圖3 關(guān)鍵詞注意力掩碼矩陣

    最后將原始 Transformer 層最后一層的輸出(CLS)、對(duì)齊特征、關(guān)鍵語(yǔ)義表征kw,kw以及關(guān)鍵差異特征 diff_kw 拼接, 作為匹配特征∈R5d,輸入全連接層進(jìn)行結(jié)果預(yù)測(cè):

    2.6 輸出層

    預(yù)測(cè)結(jié)果為 0 代表不匹配, 為 1 代表匹配。

    本文使用交叉熵?fù)p失函數(shù)優(yōu)化預(yù)測(cè)結(jié)果與真實(shí)標(biāo)簽間的誤差, 交叉熵?fù)p失函數(shù)為

    其中,y為真實(shí)標(biāo)簽,p是預(yù)測(cè)概率值。

    3 實(shí)驗(yàn)設(shè)置與結(jié)果分析

    3.1 實(shí)驗(yàn)數(shù)據(jù)集

    本文數(shù)據(jù)來(lái)自中國(guó)裁判文書網(wǎng)公開(kāi)的刑事裁判文書。我們選取兩類常見(jiàn)刑事案件(交通肇事和故意傷害案件)作為研究對(duì)象, 每類案件下載近 600 份文書, 每份文書中包含犯罪事實(shí)和涉及法條等內(nèi)容。首先進(jìn)行文本預(yù)處理, 然后提取犯罪事實(shí), 與法條建立對(duì)應(yīng)關(guān)系。交通肇事類案件有 589 份文書, 包含4711 個(gè)獨(dú)立犯罪事實(shí), 平均字符數(shù)為 63, 涉及法條總數(shù)為 56, 平均字符數(shù)為 68。故意傷害類案件有 600 份文書, 共 4067 個(gè)獨(dú)立犯罪事實(shí), 平均字符數(shù)為 57, 涉及 30 個(gè)法條, 平均字符數(shù)為 65。裁判文書語(yǔ)料統(tǒng)計(jì)信息見(jiàn)表 1。將同類案件中每個(gè)犯罪事實(shí)與法條集合里的每個(gè)法條拼接, 構(gòu)成若干二元組{F,L}, 標(biāo)簽∈{0, 1}, 0 代表不匹配, 1 代表匹配。按照 8:1:1 的比例劃分訓(xùn)練集、驗(yàn)證集和測(cè)試集。交通肇事數(shù)據(jù)集包含 197177 條訓(xùn)練數(shù)據(jù)、26433 條驗(yàn)證數(shù)據(jù)和 28281 條測(cè)試數(shù)據(jù)。故意傷害數(shù)據(jù)集包含 74761 條訓(xùn)練數(shù)據(jù)、8611 條驗(yàn)證數(shù)據(jù)和 9571 條測(cè)試數(shù)據(jù)。數(shù)據(jù)集統(tǒng)計(jì)信息見(jiàn)表 2。實(shí)驗(yàn)數(shù)據(jù)樣例如圖 4 所示。

    3.2 實(shí)驗(yàn)設(shè)置

    案件事實(shí)以及法條序列的最大長(zhǎng)度都設(shè)置為60, 詞向量基于所有下載的文書和法條內(nèi)容, 使用CBOW[31]模型進(jìn)行訓(xùn)練, 維度設(shè)置為 128。選擇清華大學(xué)發(fā)布的基于大規(guī)模刑事文書預(yù)訓(xùn)練的 XS-BERT[30]作為編碼器, 匹配閾值設(shè)置為 0.5, 訓(xùn)練輪數(shù)設(shè)置為 10, 學(xué)習(xí)率設(shè)置為 1×10–5, dropout 設(shè)置為0.1。連續(xù)訓(xùn)練 3 輪驗(yàn)證集后, 若損失仍然不下降, 則停止訓(xùn)練, 使用 softmax 函數(shù)作為激活函數(shù), 使用交叉熵?fù)p失函數(shù)和 Adam 優(yōu)化器更新模型參數(shù)??紤]到所用的法條匹配數(shù)據(jù)集存在數(shù)據(jù)不平衡現(xiàn)象, 負(fù)例樣本多于正例, 將交通肇事數(shù)據(jù)集和故意傷害數(shù)據(jù)集正負(fù)樣本采樣比分別設(shè)置為 1:12 和 1:6, 以便獲得最優(yōu) F1 值, 對(duì)比匹配模型采用同樣的采樣策略。本文實(shí)驗(yàn)中用的 BERT 模型為 BERT-Base-Chinese。

    表1 裁判文書語(yǔ)料統(tǒng)計(jì)信息

    表2 數(shù)據(jù)集統(tǒng)計(jì)信息

    圖4 實(shí)驗(yàn)數(shù)據(jù)樣例

    3.3 實(shí)驗(yàn)結(jié)果與分析

    3.3.1對(duì)比實(shí)驗(yàn)

    為了驗(yàn)證本文模型 BiAKLaw 的有效性, 從文本分類和文本匹配兩個(gè)方面設(shè)置對(duì)比實(shí)驗(yàn)。文本分類模型選擇主流分類模型 TextCNN[32]、LSTM[33]和BERT, 模型的輸入為案件事實(shí), 涉及的法條為標(biāo)簽, 是多標(biāo)簽分類任務(wù)。本研究將法條之間看成是相互獨(dú)立的, 將問(wèn)題轉(zhuǎn)化為多個(gè)單法條推薦的二分類問(wèn)題。選擇 sigmoid 作為激活函數(shù)。文本匹配模型選擇經(jīng)典深度語(yǔ)義匹配模型 ARC-II[21], ESIM[22]和 RE2[34]以及預(yù)訓(xùn)練模型 BERT, XS-BERT 和SBERT[35]。ARC-II 使用 CNN 提取文本特征, 在第一層卷積后交互兩個(gè)文本特征。RE2 模型包含原始詞嵌入特征、先前對(duì)齊特征和上下文特征 3 個(gè)關(guān)鍵特征, 并且簡(jiǎn)化了其他組件。ESIM 使用 LSTM 獲取句子語(yǔ)義表示向量, 再用注意力機(jī)制對(duì)齊特征。BERT 是通用領(lǐng)域的預(yù)訓(xùn)練語(yǔ)言模型。XS-BERT 是基于大規(guī)模刑事文書預(yù)訓(xùn)練的領(lǐng)域?qū)S妙A(yù)訓(xùn)練模型, SBERT 為擁有孿生結(jié)構(gòu)的預(yù)訓(xùn)練模型。

    模型的輸出有兩種情況, 匹配或不匹配, 實(shí)際上是二分類問(wèn)題。因此, 我們采用,和 F1 作為模型評(píng)價(jià)指標(biāo):

    其中,是精確度,是召回率, F1 為綜合評(píng)價(jià)指標(biāo)。

    將本文模型 BiAKLaw 和對(duì)比模型在交通肇事和故意傷害數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn), 在測(cè)試集上的實(shí)驗(yàn)結(jié)果如表 3 所示??梢钥闯? BiAKLaw 在各項(xiàng)指標(biāo)上都取得最優(yōu)結(jié)果, 在交通肇事數(shù)據(jù)集上, 與表現(xiàn)次之的 XS-BERT 模型相比, BiAKLaw 的 F1 評(píng)價(jià)指標(biāo)提升 3.74%, 在故意傷害數(shù)據(jù)集上提升3.43%。這是因?yàn)榕c XS-BERT 模型相比, BiAKLaw具有更強(qiáng)的識(shí)別案件事實(shí)和法條關(guān)鍵信息差異的能力, 通過(guò)雙向注意力機(jī)制得到匹配對(duì)之間更深層次的交互特征, 關(guān)鍵詞信息的注入使得模型能夠過(guò)濾干擾信息, 更關(guān)注匹配對(duì)中的關(guān)鍵語(yǔ)義信息。孿生結(jié)構(gòu)預(yù)訓(xùn)練模型 SBERT 在訓(xùn)練時(shí)間上有一定的優(yōu)勢(shì), 但模型性能弱于交互式的通用型 BERT 和法律領(lǐng)域?qū)S玫?XS-BERT。從表 3 還可以看出, 文本分類模型的性能整體上明顯弱于文本匹配模型, 這是因?yàn)橥愋桶讣聦?shí)描述差異較小, 分類模型難以區(qū)分細(xì)微的語(yǔ)義差別。法條類別眾多, 每個(gè)犯罪事實(shí)涉及法條個(gè)數(shù)不定, 也給分類模型帶來(lái)更多的挑戰(zhàn)。

    表3 BiAKLaw與對(duì)比模型實(shí)驗(yàn)結(jié)果

    說(shuō)明: 粗體數(shù)字表示性能最優(yōu), 下同。

    3.3.2模塊消融實(shí)驗(yàn)

    為了探索各個(gè)模塊的加入對(duì)模型性能產(chǎn)生的影響, 我們將 XS-BERT、XS-BERT+雙向注意力機(jī)制、XS-BERT+關(guān)鍵詞注意力機(jī)制以及 XS-BERT+雙向注意力機(jī)制+關(guān)鍵詞注意力機(jī)制 4 個(gè)模型在交通肇事和故意傷害數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn), 結(jié)果如表 4 所示。可以看出, 雙向注意力機(jī)制和關(guān)鍵詞注意力機(jī)制模塊的加入都對(duì)模型產(chǎn)生積極的影響, 其中關(guān)鍵詞注意力機(jī)制的影響最大。在交通肇事數(shù)據(jù)集上, 雙向注意力機(jī)制的加入使得評(píng)價(jià)指標(biāo) F1比 XS-BERT 提升 0.79%, 在故意傷害數(shù)據(jù)集上提升0.77%。在交通肇事數(shù)據(jù)集上, 關(guān)鍵詞注意力機(jī)制模塊的加入使得評(píng)價(jià)指標(biāo) F1 比 XS-BERT 提升1.13%, 在故意傷害數(shù)據(jù)集提升 2.76%。實(shí)驗(yàn)結(jié)果說(shuō)明, 通過(guò)關(guān)鍵詞信息的加入, 模型能夠更多地關(guān)注匹配對(duì)象間的關(guān)鍵差異特征, 減少無(wú)關(guān)信息的 干擾。

    3.3.3法條推薦實(shí)例分析

    我們選取故意傷害測(cè)試集中的一個(gè)案例來(lái)說(shuō)明本文方法的有效性, 案例分析結(jié)果如表 5 所示。

    表4 消融實(shí)驗(yàn)結(jié)果

    表5 故意傷害案例分析

    說(shuō)明: 粗體文字為案件事實(shí)和法條的關(guān)鍵詞。

    該案例包括兩個(gè)犯罪事實(shí): 事實(shí) a 涉及刑法234 條, 事實(shí) b 涉及刑法 72 和 234 條。事實(shí) a 中, 被告人與被害人有“爭(zhēng)執(zhí)”和“擊打”等行為, 符合刑法234 條“故意傷害”。事實(shí) b 中, 被害人傷勢(shì)鑒定為“輕傷”, 符合刑法 234 條“故意傷害”行為和刑法 72條中的“情節(jié)較輕”部分。表 5 還給出案件事實(shí)與法條在 BiAKLaw 和 XS-BERT 中的匹配概率值。可以看出, 兩個(gè)模型預(yù)測(cè)的概率值都大于 0.5, 均能給出正確的預(yù)測(cè)標(biāo)簽。本文模型 BiAkLaw 有關(guān)鍵詞信息的注入, 能更多地關(guān)注關(guān)鍵詞信息, 提升了匹配性能。對(duì)于不匹配的事實(shí) b 與刑法 234 條, 本文模型BiAKLaw 比 XS-BERT 更易辨別出兩者是不相匹配的。

    需要指出的是, 法條推薦任務(wù)的目的是根據(jù)案件事實(shí)的細(xì)節(jié)描述, 客觀地推薦與之相關(guān)聯(lián)的一個(gè)或多個(gè)法條。最終如何判決, 需要法官根據(jù)推薦的法條及其他因素綜合決定。從案例分析結(jié)果可以看出, 案件事實(shí)和法條序列各自的關(guān)鍵詞信息不僅可以幫助模型關(guān)注犯罪事實(shí)和法條關(guān)鍵信息的細(xì)節(jié)差異, 還能直觀地體現(xiàn)為什么這個(gè)犯罪事實(shí)會(huì)對(duì)應(yīng)這個(gè)法條, 有效地增強(qiáng)了推薦結(jié)果的可解釋性。

    4 結(jié)語(yǔ)

    本文將法條推薦任務(wù)轉(zhuǎn)換成犯罪事實(shí)與法條語(yǔ)義匹配度計(jì)算, 提出一種基于雙向注意力文本關(guān)鍵詞匹配的法條推薦模型 BiAKLaw。通過(guò)雙向文本關(guān)鍵詞注意力機(jī)制, 既保留了原本完整的語(yǔ)義信息, 又使模型更多地關(guān)注兩者之間的關(guān)鍵差異特征, 捕獲token 級(jí)對(duì)齊特征和 keyword 差異特征, 輸出端融合多粒度匹配特征, 增強(qiáng)了模型匹配效果。由于雙向融合了法條文本和案件事實(shí)的各自關(guān)鍵詞作為推薦結(jié)果的重要依據(jù), 使得本文法條推薦方法具有良好的可解釋性。在真實(shí)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明, 與主流分類模型和深度經(jīng)典語(yǔ)義匹配模型相比, BiAKLaw模型的性能均有不同程度的提升, 因此, 對(duì)智慧司法領(lǐng)域法條推薦任務(wù)的研究有一定的啟示 意義。

    在未來(lái)的工作中, 我們將嘗試融合外部知識(shí)(例如案例法律特征、法條結(jié)構(gòu)特征和庭審觀點(diǎn)等), 持續(xù)優(yōu)化法條推薦模型。

    [1] Kort F. Predicting supreme court decisions mathema-tically: a quantitative analysis of the “Right to Cou-nsel” cases. American Political Science Review, 1957, 51(1): 1–12

    [2] Ulmer S S. Quantitative analysis of judicial processes: some practical and theoretical applications. Law and Contemporary Problems, 1963, 28(1): 164–184

    [3] Nagel S S. Applying correlation analysis to case pre-diction. Tex L Rev, 1963, 42: 1006

    [4] Keown R. Mathematical models for legal prediction. Computer/Law Journal, 1980, 2(1): 829

    [5] Tsoumakas G, Katakis I. Multi-label classification: an overview. International Journal of Data Warehousing and Mining (IJDWM), 2007, 3(3): 1–13

    [6] Nam J, Kim J, Loza Mencía E, et al. Large-scale multi-label text classification — revisiting neural networks // Proceedings of Joint European Conference on Ma-chine Learning and Knowledge Discovery in Data-bases. Nancy, 2014: 437–452

    [7] Wang T, Liu L, Liu N, et al. A multi-label text classifi-cation method via dynamic semantic representation model and deep neural network. Applied Intelligence, 2020, 50: 2339–2351

    [8] Liu H, Chen G, Li P, et al. Multi-label text classifi-cation via joint learning from label embedding and label correlation. Neurocomputing, 2021, 460: 385–398

    [9] Luo B, Feng Y, Xu J, et al. Learning to predict charges for criminal cases with legal basis [EB/OL]. (2017–07–28) [2023–03–10]. https://doi.org/10.48550/arXiv.17 07.09168

    [10] Zhong H, Guo Z, Tu C, et al. Legal judgment prediction via topological learning // Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Brussels, 2018: 3540–3549

    [11] Hu Z, Li X, Tu C, et al. Few-shot charge prediction with discriminative legal attributes // Proceedings of the 27th International Conference on Computational Linguistics. Santa Fe, 2018: 487–498

    [12] Wang S, Jiang J. A compare-aggregate model for mat-ching text sequences [EB/OL]. (2016–11–06) [2023–02–26]. https://arxiv.org/abs/1611.01747

    [13] Ge J, Huang Y, Shen X, et al. Learning fine-grained fact-article correspondence in legal cases. IEEE/ACM Transactions on Audio, Speech, and Language Proces-sing. 2021, 29: 3694–3706

    [14] Liu C L, Hsieh C D. Exploring phrase-based classify-cation of judicial documents for criminal charges in Chinese // International Symposium on Methodologies for Intelligent Systems. Bari, 2006: 681–691

    [15] Chen H, Cai D, Dai W, et al. Charge-based prison term prediction with deep gating network [EB/OL]. (2019–08–30) [2023–03–13]. https://doi.org/10.48550/arXiv. 1908.11521

    [16] Pan S, Lu T, Gu N, et al. Charge prediction for multi-defendant cases with multi-scale attention // Computer Supported Cooperative Work and Social Computing: 14th CCF Conference, ChineseCSCW 2019. Kunming, 2019: 766–777

    [17] Xiao C, Zhong H, Guo Z, et al. Cail2018: a large-scale legal dataset for judgment prediction [EB/OL]. (2018–07–04) [2023–03–12]. https://doi.org/10.48550/arXiv. 1807.02478

    [18] Chalkidis I, Androutsopoulos I, Aletras N. Neural legal judgment prediction in English [EB/OL]. (2019–06–05) [2023–03–21]. https://doi.org/10.48550/arXiv.19 06.02059

    [19] Robertson S, Zaragoza H. The probabilistic relevan- ce framework: BM25 and beyond. Foundations and Trends in Information Retrieval, 2009, 3(4): 333–389

    [20] Huang P S, He X, Gao J, et al. Learning deep structured semantic models for web search using clickthrough data // Proceedings of the 22nd ACM International Conference on Information & Knowledge Manage-ment. San Francisco, 2013: 2333–2338

    [21] Hu B, Lu Z, Li H, et al. Convolutional neural network architectures for matching natural language sentences // Advances in Neural Information Processing Systems. Montreal, 2014: 2042–2050

    [22] Chen Q, Zhu X, Ling Z, et al. Enhanced LSTM for natural language inference [EB/OL]. (2016–09–20) [2023–03–24]. https://doi.org/10.48550/arXiv.1609.06 038

    [23] Lyu B, Chen L, Zhu S, et al. LET: linguistic knowledge enhanced graph transformer for Chinese short text matching [C/OL]. (2021–02–05) [2023–02–20]. https: //doi.org/10.48550/arXiv.2102.12671

    [24] Wu Y, Wu W, Xu C, et al. Knowledge enhanced hybrid neural network for text matching [C/OL]. (2016–11–14) [2023–03–28]. https://doi.org/10.48550/arXiv.16 11.04684

    [25] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need // Advances in Neural Information Processing Systems. Long Beach, 2017: 5998–6008

    [26] Devlin J, Chang M W, Lee K, et al. BERT: pre-training of deep bidirectional transformers for language un-derstanding // Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Techno-logies. Minneapolis, 2019: 4171–4186

    [27] Liu Y, Ott M, Goyal N, et al. RoBERTa: a robustly optimized bert pretraining approach [EB/OL]. (2019–07–26) [2023–03–01]. https://doi.org/10.48550/arXiv. 1907.11692

    [28] Cui Y, Che W, Liu T, et al. Pre-training with whole word masking for chinese BERT. IEEE/ACM Tran-sactions on Audio, Speech, and Language Processing, 2021, 29: 3504–3514

    [29] Grootendorst M. KeyBERT: minimal keyword extrac-tion with BERT [EB/OL]. (2020–02–09) [2023–01–09]. https://github.com/MaartenGr/KeyBERT

    [30] Zhong H, Zhang Z, Liu Z, et al. Open Chinese language pre-trained model zoo [EB/OL]. (2019–07–01) [2023–02–11]. https://github.com/thunlp/OpenCLaP

    [31] Mikolov T, Chen K, Corrado G, et al. Efficient esti-mation of word representations in vector space [EB/ OL]. (2013–01–16) [2023–02–11]. https://doi.org/10. 48550/arXiv.1301.3781

    [32] Cho K, Van Merrienboer B, Gulcehre C, et al. Learning phrase representations using RNN encoder-decoder for statistical machine translation [EB/OL]. (2014–09–02) [2023–03–11]. http://arxiv.org/abs/1406.1078

    [33] Hochreiter S, Schmidhuber J. Long short-term me-mory. Neural Computation, 1997, 9(8): 1735?1780

    [34] Yang R, Zhang J, Gao X, et al. Simple and effective text matching with richer alignment features // Procee-dings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence, 2019: 4699–4709

    [35] Reimers N, Gurevych I. Sentence-BERT: sentence embeddings using Siamese BERT-Networks [EB/OL]. (2019–08–27) [2023–03–23]. http://arxiv.org/abs/19 08.10084

    Bi-Attention Text-Keyword Matching for Law Recommendation

    DING Na1, LIU Peng2, ?, SHAO Huipeng3, WANG Xuekui4

    1. School of Information and Control Engineering, China University of Mining and Technology, Xuzhou 221116; 2. National Joint Engineering Laboratory of Internet Applied Technology of Mines, Xuzhou 221008; 3. Legal Team of Tongshan Branch of Xuzhou Public Security Bureau, Xuzhou 221100; 4. Alibaba Group, Hangzhou 311121; ? Corresponding author, E-mail: liupeng@cumt.edu.cn

    This paper proposed a bi-directional attention based text-keyword matching model for law recommen-dation (BiAKLaw). In this model, BERT is utilized as a basic matching model, bi-directional attention mechanism is implemented to extract token-level alignment features and keyword-level differential features, and these features are fused with keyword attentive semantic representations for a better matching effect. The experimental results on the traffic accident and intentional injury datasets demonstrate that, compared with BERT, the proposed model increases F1 evaluation metric by 3.74% and 3.43% respectively.

    law recommendation; case fact; text matching; attention mechanism

    猜你喜歡
    語(yǔ)義特征文本
    語(yǔ)言與語(yǔ)義
    如何表達(dá)“特征”
    在808DA上文本顯示的改善
    不忠誠(chéng)的四個(gè)特征
    基于doc2vec和TF-IDF的相似文本識(shí)別
    電子制作(2018年18期)2018-11-14 01:48:06
    抓住特征巧觀察
    “上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
    文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
    認(rèn)知范疇模糊與語(yǔ)義模糊
    如何快速走進(jìn)文本
    一区二区三区高清视频在线| 国产精品电影一区二区三区| 国产69精品久久久久777片| 亚洲高清免费不卡视频| 亚洲性夜色夜夜综合| 波多野结衣高清作品| 国产男靠女视频免费网站| 日韩国内少妇激情av| 老女人水多毛片| 在线播放国产精品三级| 麻豆国产97在线/欧美| 中文资源天堂在线| 亚洲欧美日韩高清在线视频| 干丝袜人妻中文字幕| 欧美在线一区亚洲| 精品久久久久久久久av| 99热网站在线观看| 亚洲欧美日韩无卡精品| 成人一区二区视频在线观看| 国产黄色视频一区二区在线观看 | 别揉我奶头~嗯~啊~动态视频| 国产精品,欧美在线| 草草在线视频免费看| 男女下面进入的视频免费午夜| av.在线天堂| 国产激情偷乱视频一区二区| 欧美中文日本在线观看视频| 中文字幕精品亚洲无线码一区| 久久久久国内视频| 最后的刺客免费高清国语| 丝袜美腿在线中文| 亚洲av成人av| 久久精品国产亚洲av香蕉五月| 男人舔女人下体高潮全视频| 日本黄大片高清| 一级毛片aaaaaa免费看小| 啦啦啦啦在线视频资源| 欧美成人一区二区免费高清观看| 欧美性猛交黑人性爽| 久久亚洲精品不卡| 日日啪夜夜撸| 国产亚洲精品久久久久久毛片| 真人做人爱边吃奶动态| 女的被弄到高潮叫床怎么办| 好男人在线观看高清免费视频| 搡老妇女老女人老熟妇| 久久精品国产清高在天天线| 12—13女人毛片做爰片一| 国产黄片美女视频| 啦啦啦韩国在线观看视频| 午夜久久久久精精品| 一级av片app| 亚洲欧美日韩高清专用| 国产一区二区亚洲精品在线观看| 亚洲美女视频黄频| 国产午夜精品久久久久久一区二区三区 | 欧美xxxx性猛交bbbb| 热99re8久久精品国产| 日韩亚洲欧美综合| 久久天躁狠狠躁夜夜2o2o| 男女之事视频高清在线观看| 欧美一区二区亚洲| 久久久久久国产a免费观看| 国产一区二区亚洲精品在线观看| 日日摸夜夜添夜夜爱| 亚洲av美国av| 五月玫瑰六月丁香| 久久久久久久久久黄片| 国产高清激情床上av| 久久亚洲精品不卡| 国产不卡一卡二| 亚洲精品日韩在线中文字幕 | 国产精品亚洲美女久久久| 最近在线观看免费完整版| 日本一二三区视频观看| 国产精品国产高清国产av| 老司机午夜福利在线观看视频| 亚洲国产精品成人久久小说 | 一夜夜www| 久久久久久久午夜电影| 99热网站在线观看| 18禁黄网站禁片免费观看直播| 悠悠久久av| 波野结衣二区三区在线| av在线亚洲专区| 啦啦啦韩国在线观看视频| 天堂影院成人在线观看| 91精品国产九色| 99热全是精品| 日本欧美国产在线视频| 六月丁香七月| 久久综合国产亚洲精品| 免费高清视频大片| 精品一区二区免费观看| 91av网一区二区| 国产免费一级a男人的天堂| 高清午夜精品一区二区三区 | 国产亚洲精品久久久久久毛片| 三级国产精品欧美在线观看| 亚洲精品亚洲一区二区| 蜜臀久久99精品久久宅男| 国产一区二区三区av在线 | av天堂在线播放| 97碰自拍视频| av福利片在线观看| 日本-黄色视频高清免费观看| 91久久精品电影网| 人妻夜夜爽99麻豆av| 欧美激情久久久久久爽电影| 亚洲成av人片在线播放无| 成人精品一区二区免费| 国产精品电影一区二区三区| 午夜精品一区二区三区免费看| 老师上课跳d突然被开到最大视频| 中文字幕人妻熟人妻熟丝袜美| 天堂影院成人在线观看| 在线播放国产精品三级| 久久精品国产亚洲av天美| 成人亚洲精品av一区二区| 国产精品久久电影中文字幕| 免费看日本二区| 欧美成人精品欧美一级黄| 色av中文字幕| 人妻久久中文字幕网| 女的被弄到高潮叫床怎么办| 午夜精品国产一区二区电影 | 亚洲经典国产精华液单| 欧美一区二区精品小视频在线| 午夜影院日韩av| 午夜a级毛片| 长腿黑丝高跟| 日韩强制内射视频| 两个人视频免费观看高清| 午夜老司机福利剧场| 精品一区二区三区视频在线| 免费在线观看成人毛片| 成人亚洲精品av一区二区| 成人美女网站在线观看视频| 一个人看视频在线观看www免费| av.在线天堂| 神马国产精品三级电影在线观看| 看非洲黑人一级黄片| 天堂动漫精品| a级毛片a级免费在线| av在线天堂中文字幕| 免费看美女性在线毛片视频| 91在线精品国自产拍蜜月| 精品久久久久久久末码| 久久久国产成人免费| 亚洲av电影不卡..在线观看| 日本一本二区三区精品| 色5月婷婷丁香| 中文亚洲av片在线观看爽| 日本黄大片高清| 国产一区二区三区av在线 | 日韩欧美一区二区三区在线观看| 亚洲国产欧洲综合997久久,| 国产一区二区三区在线臀色熟女| 一个人观看的视频www高清免费观看| 午夜精品在线福利| 美女 人体艺术 gogo| 三级毛片av免费| 别揉我奶头 嗯啊视频| 成人一区二区视频在线观看| 又黄又爽又免费观看的视频| 国产一级毛片七仙女欲春2| 欧美日韩在线观看h| 97超视频在线观看视频| 一级毛片电影观看 | 久久精品夜色国产| 在线免费观看不下载黄p国产| 久久久久性生活片| 人妻久久中文字幕网| 老师上课跳d突然被开到最大视频| 久久久久久久亚洲中文字幕| 人人妻人人看人人澡| 伦精品一区二区三区| 在线播放无遮挡| 欧美激情久久久久久爽电影| 国产午夜福利久久久久久| 2021天堂中文幕一二区在线观| 在线观看一区二区三区| 波多野结衣高清作品| 免费观看人在逋| 嫩草影院入口| 国产成人aa在线观看| 国产久久久一区二区三区| 中文字幕av在线有码专区| 变态另类成人亚洲欧美熟女| 国产一级毛片七仙女欲春2| 亚洲精品一区av在线观看| 久久久成人免费电影| 一级毛片久久久久久久久女| 精品欧美国产一区二区三| 99热6这里只有精品| 亚洲第一电影网av| 午夜视频国产福利| 国产精品人妻久久久久久| 国语自产精品视频在线第100页| 国产高清视频在线播放一区| 亚洲精品成人久久久久久| 人人妻人人澡欧美一区二区| 成人av一区二区三区在线看| 亚洲人成网站在线播放欧美日韩| 在线天堂最新版资源| av中文乱码字幕在线| 日韩欧美一区二区三区在线观看| 亚洲欧美日韩无卡精品| 婷婷精品国产亚洲av在线| 成人国产麻豆网| 校园人妻丝袜中文字幕| 能在线免费观看的黄片| 别揉我奶头 嗯啊视频| 可以在线观看毛片的网站| 在线播放无遮挡| 国产黄片美女视频| 日本五十路高清| 国产国拍精品亚洲av在线观看| 欧美zozozo另类| 99久国产av精品国产电影| 成熟少妇高潮喷水视频| 国产成人一区二区在线| 欧美日韩一区二区视频在线观看视频在线 | 免费av不卡在线播放| 22中文网久久字幕| 亚洲av免费在线观看| 色播亚洲综合网| 国产中年淑女户外野战色| 精品久久久久久久久久免费视频| 内射极品少妇av片p| 亚洲欧美精品自产自拍| 久久这里只有精品中国| 免费看美女性在线毛片视频| 一本久久中文字幕| 亚洲美女搞黄在线观看 | 国产一区二区亚洲精品在线观看| 亚洲aⅴ乱码一区二区在线播放| 亚洲欧美日韩高清专用| 亚洲国产精品久久男人天堂| 91狼人影院| 老熟妇仑乱视频hdxx| 亚洲av.av天堂| 校园人妻丝袜中文字幕| 一进一出抽搐动态| 淫妇啪啪啪对白视频| 波野结衣二区三区在线| 亚洲电影在线观看av| 婷婷精品国产亚洲av在线| 国产男人的电影天堂91| 性插视频无遮挡在线免费观看| 狂野欧美白嫩少妇大欣赏| 国产91av在线免费观看| 免费观看精品视频网站| 欧美绝顶高潮抽搐喷水| 精品一区二区三区视频在线观看免费| 人人妻人人澡欧美一区二区| 久久久久久久久大av| 偷拍熟女少妇极品色| 最近手机中文字幕大全| 啦啦啦啦在线视频资源| 最近最新中文字幕大全电影3| 日日摸夜夜添夜夜添av毛片| 国产精品久久久久久久电影| 神马国产精品三级电影在线观看| 精华霜和精华液先用哪个| 美女黄网站色视频| or卡值多少钱| 美女内射精品一级片tv| 国产美女午夜福利| 人妻少妇偷人精品九色| 级片在线观看| 精品福利观看| 老师上课跳d突然被开到最大视频| 国产精品电影一区二区三区| 免费黄网站久久成人精品| 亚洲在线自拍视频| 国产白丝娇喘喷水9色精品| 一区福利在线观看| 香蕉av资源在线| 欧美性感艳星| 免费搜索国产男女视频| 中国美女看黄片| 非洲黑人性xxxx精品又粗又长| 亚洲成av人片在线播放无| 高清午夜精品一区二区三区 | 国产在线精品亚洲第一网站| 看免费成人av毛片| 亚洲自拍偷在线| 一级毛片电影观看 | 嫩草影院入口| 最近在线观看免费完整版| 精品日产1卡2卡| 国产亚洲精品av在线| av天堂在线播放| 日本精品一区二区三区蜜桃| 日本a在线网址| 禁无遮挡网站| 国产在视频线在精品| 日本熟妇午夜| 成人特级黄色片久久久久久久| 午夜福利高清视频| 天天躁夜夜躁狠狠久久av| 国产三级中文精品| 久久久久久伊人网av| 国产一区二区三区在线臀色熟女| 老司机影院成人| 99久国产av精品| 精品国内亚洲2022精品成人| 日韩精品中文字幕看吧| 蜜臀久久99精品久久宅男| 高清日韩中文字幕在线| 亚洲内射少妇av| 99久久精品国产国产毛片| 精品99又大又爽又粗少妇毛片| 欧美激情国产日韩精品一区| 久久精品人妻少妇| 香蕉av资源在线| 午夜精品在线福利| 免费看日本二区| 精品国内亚洲2022精品成人| 国产午夜精品论理片| 成年女人看的毛片在线观看| 国产 一区精品| 麻豆国产97在线/欧美| 亚洲av免费高清在线观看| 蜜桃久久精品国产亚洲av| 波多野结衣巨乳人妻| 国产精品亚洲一级av第二区| 久久精品夜夜夜夜夜久久蜜豆| 国产精品日韩av在线免费观看| 最后的刺客免费高清国语| 国产v大片淫在线免费观看| 少妇高潮的动态图| 五月伊人婷婷丁香| 国产精品一及| 久久国内精品自在自线图片| 中文在线观看免费www的网站| 欧美三级亚洲精品| 日日撸夜夜添| 性插视频无遮挡在线免费观看| 久久草成人影院| 伦理电影大哥的女人| 国产av在哪里看| 欧美精品国产亚洲| 久久久国产成人免费| 亚洲国产精品久久男人天堂| 特级一级黄色大片| 日本免费一区二区三区高清不卡| 色哟哟·www| 毛片一级片免费看久久久久| 亚洲成a人片在线一区二区| av专区在线播放| 欧美三级亚洲精品| 97超视频在线观看视频| 久久精品夜色国产| 亚洲欧美日韩高清在线视频| 色哟哟哟哟哟哟| 日本精品一区二区三区蜜桃| 六月丁香七月| 91精品国产九色| 免费无遮挡裸体视频| 亚洲精品日韩在线中文字幕 | 欧美激情久久久久久爽电影| 一区二区三区高清视频在线| 99久久精品热视频| 嫩草影院入口| 欧美成人精品欧美一级黄| 老熟妇乱子伦视频在线观看| 少妇人妻一区二区三区视频| 亚洲精品粉嫩美女一区| 人妻少妇偷人精品九色| 国产伦一二天堂av在线观看| 大型黄色视频在线免费观看| 国产一区二区在线av高清观看| 日韩 亚洲 欧美在线| 99热精品在线国产| ponron亚洲| 免费看美女性在线毛片视频| 97超级碰碰碰精品色视频在线观看| 精品国内亚洲2022精品成人| 亚洲av二区三区四区| 欧美日韩在线观看h| 噜噜噜噜噜久久久久久91| 亚洲欧美中文字幕日韩二区| 国产精品不卡视频一区二区| 国产三级在线视频| 亚洲av美国av| 美女内射精品一级片tv| 欧美成人免费av一区二区三区| 久久鲁丝午夜福利片| 男人舔奶头视频| 国产黄色小视频在线观看| 美女 人体艺术 gogo| 国产av麻豆久久久久久久| 成人三级黄色视频| 日韩av在线大香蕉| 国产高清视频在线观看网站| 成人午夜高清在线视频| 一级av片app| 伦精品一区二区三区| 国产一区二区在线观看日韩| 狠狠狠狠99中文字幕| 午夜激情欧美在线| 国产精品电影一区二区三区| 国产女主播在线喷水免费视频网站 | av卡一久久| 亚洲精品456在线播放app| 看黄色毛片网站| 国产爱豆传媒在线观看| 久久精品国产清高在天天线| 亚洲av第一区精品v没综合| 日韩 亚洲 欧美在线| 午夜精品一区二区三区免费看| 日韩人妻高清精品专区| 国产亚洲91精品色在线| 一边摸一边抽搐一进一小说| 成人美女网站在线观看视频| 亚洲中文字幕日韩| 一进一出好大好爽视频| 高清毛片免费观看视频网站| 亚洲精品乱码久久久v下载方式| 亚洲最大成人中文| 色综合亚洲欧美另类图片| 国产精品美女特级片免费视频播放器| 免费观看精品视频网站| 成年版毛片免费区| 免费高清视频大片| 国产中年淑女户外野战色| 国产av麻豆久久久久久久| 国内揄拍国产精品人妻在线| 春色校园在线视频观看| 亚洲成av人片在线播放无| 亚洲精品成人久久久久久| 久久天躁狠狠躁夜夜2o2o| 看片在线看免费视频| 69av精品久久久久久| 99久久无色码亚洲精品果冻| 久久久精品大字幕| 麻豆久久精品国产亚洲av| 中国国产av一级| 99久国产av精品| 日韩精品中文字幕看吧| 国产精品福利在线免费观看| 男女视频在线观看网站免费| 久久久久精品国产欧美久久久| 日韩欧美 国产精品| 女生性感内裤真人,穿戴方法视频| 给我免费播放毛片高清在线观看| 免费av观看视频| 精品人妻视频免费看| 91在线精品国自产拍蜜月| 日韩一区二区视频免费看| 国产精品福利在线免费观看| av视频在线观看入口| 啦啦啦观看免费观看视频高清| 91午夜精品亚洲一区二区三区| 亚洲性夜色夜夜综合| 男女那种视频在线观看| 欧美一区二区精品小视频在线| 欧美性感艳星| 国产av一区在线观看免费| 成年女人看的毛片在线观看| 哪里可以看免费的av片| 一本精品99久久精品77| 国产免费一级a男人的天堂| 女生性感内裤真人,穿戴方法视频| 国产精品伦人一区二区| 日韩国内少妇激情av| 97超视频在线观看视频| 免费看日本二区| 小说图片视频综合网站| 欧美性猛交黑人性爽| 精品久久久久久成人av| 女同久久另类99精品国产91| 床上黄色一级片| 99热这里只有是精品在线观看| 久久久久久久久久成人| 国产精品国产三级国产av玫瑰| 亚洲av免费高清在线观看| 国内精品久久久久精免费| 国产一区二区三区av在线 | 精华霜和精华液先用哪个| 校园人妻丝袜中文字幕| 极品教师在线视频| 悠悠久久av| 在线观看美女被高潮喷水网站| 欧美国产日韩亚洲一区| 美女免费视频网站| 在线免费十八禁| 亚洲人成网站在线播放欧美日韩| 淫秽高清视频在线观看| 精品久久久久久成人av| 午夜福利在线在线| 久久6这里有精品| 亚洲av成人精品一区久久| 少妇丰满av| 国产精品美女特级片免费视频播放器| 国产探花极品一区二区| 日韩三级伦理在线观看| 51国产日韩欧美| 免费无遮挡裸体视频| 高清日韩中文字幕在线| 在线免费观看不下载黄p国产| 日本成人三级电影网站| 久久久久久大精品| 老女人水多毛片| 国产真实伦视频高清在线观看| 久久久久国内视频| 国产精品国产高清国产av| 色哟哟·www| 国产淫片久久久久久久久| h日本视频在线播放| 久久久久久大精品| 免费观看精品视频网站| 色噜噜av男人的天堂激情| 亚洲精品国产av成人精品 | 精品一区二区免费观看| 精品日产1卡2卡| 不卡一级毛片| 偷拍熟女少妇极品色| 国产精品电影一区二区三区| 色噜噜av男人的天堂激情| 久久这里只有精品中国| 麻豆国产av国片精品| 免费看光身美女| 精品乱码久久久久久99久播| 精品99又大又爽又粗少妇毛片| 寂寞人妻少妇视频99o| 天美传媒精品一区二区| 免费观看精品视频网站| 色吧在线观看| 成人鲁丝片一二三区免费| 成年版毛片免费区| 丰满乱子伦码专区| 人妻丰满熟妇av一区二区三区| eeuss影院久久| 麻豆成人午夜福利视频| 亚洲国产精品合色在线| 日韩欧美免费精品| 精品久久久噜噜| 日韩精品有码人妻一区| 人妻久久中文字幕网| 大型黄色视频在线免费观看| 精品久久久久久久末码| 午夜日韩欧美国产| 亚洲综合色惰| 久久精品国产鲁丝片午夜精品| 搡老岳熟女国产| 一级av片app| 日韩精品青青久久久久久| 国产成人a∨麻豆精品| 亚洲欧美日韩东京热| АⅤ资源中文在线天堂| 久久久精品大字幕| eeuss影院久久| 欧美色欧美亚洲另类二区| 亚洲真实伦在线观看| 熟女人妻精品中文字幕| 99久久久亚洲精品蜜臀av| 少妇裸体淫交视频免费看高清| 国产成人a区在线观看| 欧美精品国产亚洲| 精品99又大又爽又粗少妇毛片| 亚洲精品成人久久久久久| 欧美xxxx性猛交bbbb| 老熟妇仑乱视频hdxx| 欧美xxxx黑人xx丫x性爽| 黄色欧美视频在线观看| 丰满的人妻完整版| 晚上一个人看的免费电影| 国产三级中文精品| 久99久视频精品免费| 国产白丝娇喘喷水9色精品| 国产黄色小视频在线观看| 天堂影院成人在线观看| 亚洲一区二区三区色噜噜| 日韩欧美免费精品| 联通29元200g的流量卡| 国产一级毛片七仙女欲春2| 欧美一区二区国产精品久久精品| 一级毛片aaaaaa免费看小| 色综合亚洲欧美另类图片| 如何舔出高潮| 18禁黄网站禁片免费观看直播| 日本撒尿小便嘘嘘汇集6| 亚洲精品一区av在线观看| 国产亚洲精品久久久com| 国产视频一区二区在线看| 偷拍熟女少妇极品色| 精品国内亚洲2022精品成人| 最近视频中文字幕2019在线8| 欧美一级a爱片免费观看看| 亚洲av美国av| 内地一区二区视频在线| 最好的美女福利视频网| 日本黄色片子视频| 国内少妇人妻偷人精品xxx网站| 国产成人aa在线观看| 亚洲中文字幕日韩| 亚洲性夜色夜夜综合| 日韩在线高清观看一区二区三区| 女生性感内裤真人,穿戴方法视频| 中文字幕av在线有码专区| 有码 亚洲区| 国产精品不卡视频一区二区| 久久久精品94久久精品| 国产亚洲精品综合一区在线观看| 精品久久国产蜜桃| 丝袜喷水一区| 国产黄a三级三级三级人| 亚洲在线自拍视频| 亚洲18禁久久av| 丝袜喷水一区| 色噜噜av男人的天堂激情| 老司机福利观看|