• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    Prefix-LSDPM:面向小樣本的在線學(xué)習(xí)會(huì)話退出預(yù)測(cè)模型

    2023-11-06 12:34:52王占全
    關(guān)鍵詞:掩碼向量學(xué)習(xí)者

    陳 芮, 李 飛, 王占全

    (華東理工大學(xué)信息科學(xué)與工程學(xué)院, 上海 200237)

    在智慧教育領(lǐng)域中,學(xué)生輟學(xué)預(yù)測(cè)(Student Dropout Prediction, SDP)[1]研究被廣泛重視,研究者們使用定量和定性方法分析學(xué)生的整體學(xué)習(xí)過(guò)程,并預(yù)測(cè)其課程輟學(xué)概率。然而目前針對(duì)在線學(xué)習(xí)會(huì)話退出預(yù)測(cè)(Learning Session Dropout Prediction, LSDP)任務(wù)的相關(guān)研究仍然較少[2]。Lee 等[3]在2020年經(jīng)調(diào)研發(fā)現(xiàn)當(dāng)時(shí)還未有關(guān)于MOOC 中學(xué)習(xí)環(huán)節(jié)退出的預(yù)測(cè)研究,因此對(duì)移動(dòng)學(xué)習(xí)環(huán)境下的學(xué)習(xí)環(huán)節(jié)輟學(xué)預(yù)測(cè)問(wèn)題進(jìn)行了定義。LSDP 旨在預(yù)測(cè)學(xué)習(xí)者在智能輔導(dǎo)系統(tǒng)(Intelligent Tutoring System, ITS)中的學(xué)習(xí)退出行為,能夠挖掘?qū)W習(xí)者退出學(xué)習(xí)的具體時(shí)機(jī)。與SDP 相比,LSDP 能夠提供更細(xì)粒度的結(jié)果,有助于智能輔導(dǎo)系統(tǒng)及時(shí)采取干預(yù)措施以維持學(xué)習(xí)者的學(xué)習(xí)狀態(tài),輔助學(xué)習(xí)者繼續(xù)完成當(dāng)前學(xué)習(xí)項(xiàng)目或推薦學(xué)習(xí)路徑的下一個(gè)學(xué)習(xí)項(xiàng)目,提高學(xué)習(xí)者的學(xué)習(xí)效率。已有的LSDP 相關(guān)研究中仍存在以下難點(diǎn):(1)與SDP 相比,LSDP 對(duì)預(yù)測(cè)的即時(shí)性和準(zhǔn)確率要求更高;(2)LSDP 是基于實(shí)時(shí)產(chǎn)生的學(xué)習(xí)行為數(shù)據(jù)進(jìn)行預(yù)測(cè),缺乏大規(guī)模的平行數(shù)據(jù),難以訓(xùn)練高質(zhì)量的模型;(3)學(xué)習(xí)會(huì)話相較于課程,退出頻率更高,學(xué)習(xí)行為數(shù)據(jù)更具有碎片性,預(yù)測(cè)難度更高。

    本質(zhì)上,LSDP 任務(wù)屬于學(xué)習(xí)序列分析問(wèn)題。在近期研究中,同屬于該類問(wèn)題的知識(shí)追蹤[4-5]、教育資源推薦[6-7]等任務(wù)在基于預(yù)訓(xùn)練-微調(diào)范式的方法中取得了較好的效果。微調(diào)(Fine-tuning)是在大型預(yù)訓(xùn)練模型的基礎(chǔ)上訓(xùn)練下游任務(wù)的主流范式[8],需要在預(yù)訓(xùn)練的基礎(chǔ)上進(jìn)一步更新和存儲(chǔ)模型的所有參數(shù),需要為每個(gè)任務(wù)存儲(chǔ)完整的模型參數(shù)副本。即使預(yù)訓(xùn)練模型已經(jīng)能夠獲得不錯(cuò)的詞向量表示能力,在不同的下游任務(wù)中也需要通過(guò)對(duì)應(yīng)的訓(xùn)練數(shù)據(jù)進(jìn)行微調(diào)。為了在下游任務(wù)上獲得優(yōu)異的性能,F(xiàn)ine-tuning 需要的數(shù)據(jù)規(guī)模與預(yù)訓(xùn)練模型的參數(shù)規(guī)模成正相關(guān)。因此,預(yù)訓(xùn)練-微調(diào)范式模型訓(xùn)練所需的參數(shù)量和數(shù)據(jù)量是巨大的,例如基礎(chǔ)的BERT 模型需要108 M 參數(shù)[9],經(jīng)過(guò)大幅度降參優(yōu)化后基礎(chǔ)的ALBERT(A Lite BERT)模型也需要12 M 參數(shù)[10]。在缺乏足夠平行數(shù)據(jù)的情況下,基于預(yù)訓(xùn)練-微調(diào)范式的模型難以達(dá)到理想的預(yù)測(cè)效果。而在實(shí)際的ITS(Intelligent Tutoring System)場(chǎng)景中,學(xué)習(xí)者的在線學(xué)習(xí)行為的平行數(shù)據(jù)往往很少,導(dǎo)致通過(guò)微調(diào)的方法訓(xùn)練得到的模型的準(zhǔn)確率較低。

    最近,基于提示學(xué)習(xí)的訓(xùn)練范式[11]在多個(gè)任務(wù)上展現(xiàn)了出色的小樣本性能。提示學(xué)習(xí)凍結(jié)預(yù)訓(xùn)練模型的部分參數(shù)并添加極少量的可訓(xùn)練參數(shù)用于適配不同的下游任務(wù),從而大幅減少了訓(xùn)練下游任務(wù)時(shí)需要更新的參數(shù)量,降低了對(duì)訓(xùn)練數(shù)據(jù)量的要求,即使在極少的訓(xùn)練數(shù)據(jù)情況下也能夠達(dá)到較好的效果。因此,基于提示學(xué)習(xí)的訓(xùn)練范式更能夠適應(yīng)在線教育平臺(tái)的小樣本學(xué)習(xí)要求。由于LSDP 任務(wù)將學(xué)習(xí)者在線學(xué)習(xí)會(huì)話行為特征序列化后作為輸入,無(wú)需采用自然語(yǔ)言形式的提示模板,因此,采用連續(xù)提示向量的前綴提示(Prefix-tuning)[12]是提示學(xué)習(xí)范式中最適合LSDP 任務(wù)的方法。Prefix-tuning 在原始輸入的詞中嵌入向量和在預(yù)訓(xùn)練模型中的Query 和Key 向量之前添加額外的連續(xù)提示向量,從而影響后面的向量表示。與微調(diào)全部預(yù)訓(xùn)練模型的參數(shù)相比,Prefix-tuning 只需訓(xùn)練額外添加的提示參數(shù),能夠保證小樣本條件下的預(yù)測(cè)效果。

    為了解決現(xiàn)實(shí)場(chǎng)景中因訓(xùn)練數(shù)據(jù)不足導(dǎo)致的在線學(xué)習(xí)會(huì)話退出預(yù)測(cè)準(zhǔn)確率較低的問(wèn)題,本文提出了一種基于Prefix-tuning 的小樣本學(xué)習(xí)會(huì)話退出預(yù)測(cè)模型(Prefix-Learning Session Dropout Prediction Model,Prefix-LSDPM)。該模型利用Prefix-tuning 學(xué)習(xí)框架在大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型的基礎(chǔ)上挖掘并建模同一學(xué)習(xí)行為特征間的關(guān)系和連續(xù)學(xué)習(xí)行為間的上下文隱含關(guān)聯(lián),實(shí)現(xiàn)了小樣本場(chǎng)景下高準(zhǔn)確率的在線學(xué)習(xí)會(huì)話退出預(yù)測(cè)。

    1 基于Prefix-tuning 的在線學(xué)習(xí)會(huì)話退出預(yù)測(cè)模型

    1.1 任務(wù)定義

    在LSDP 任務(wù)中,不僅要關(guān)注學(xué)習(xí)者執(zhí)行同一動(dòng)作的特征上下文,也要注意學(xué)習(xí)者前后動(dòng)作上下文。在此設(shè)置下,將學(xué)習(xí)者在線學(xué)習(xí)會(huì)話相關(guān)屬性進(jìn)行形式化定義。學(xué)習(xí)者Un在學(xué)習(xí)過(guò)程中會(huì)產(chǎn)生多個(gè)學(xué)習(xí)會(huì)話Sm(m∈{1,2,···,M} ),在一個(gè)學(xué)習(xí)會(huì)話過(guò)程中,學(xué)習(xí)者連續(xù)參與學(xué)習(xí)活動(dòng),對(duì)在線教育平臺(tái)中各模塊進(jìn)行訪問(wèn)和交互,進(jìn)行連續(xù)請(qǐng)求動(dòng)作。每個(gè)Sm由多個(gè)學(xué)習(xí)行為At(t∈{1,2,···,T} )組成。每個(gè)學(xué)習(xí)行為At包含多個(gè)學(xué)習(xí)行為特征fi(i∈{1,2,···,I} )。

    在每個(gè)學(xué)習(xí)階段中,當(dāng)學(xué)習(xí)者在足夠長(zhǎng)的時(shí)間內(nèi)不出現(xiàn)新的學(xué)習(xí)動(dòng)作和活動(dòng)時(shí),代表發(fā)生了學(xué)習(xí)中途退出,標(biāo)志著學(xué)習(xí)會(huì)話的結(jié)束,記為學(xué)習(xí)會(huì)話退出。Halfaker 等[13]研究了各個(gè)領(lǐng)域的用戶行為數(shù)據(jù),提出了一種用于識(shí)別用戶活動(dòng)集群的方法,研究得出對(duì)用戶行為聚類效果最好的時(shí)間閾值為1 h。本文引用其研究結(jié)果作為學(xué)習(xí)會(huì)話退出的閾值,即當(dāng)用戶最后一次交互行為發(fā)生后1 h 內(nèi)仍未發(fā)生新的交互時(shí),則標(biāo)記該交互行為為退出行為。LSDP 任務(wù)即對(duì)學(xué)習(xí)者在線學(xué)習(xí)過(guò)程中執(zhí)行當(dāng)前行為時(shí)退出概率的估計(jì),如式(1)所示。

    其中dt表示會(huì)話退出狀態(tài)。當(dāng)學(xué)習(xí)者Un在當(dāng)前發(fā)生行為At時(shí)退出當(dāng)前會(huì)話,則At對(duì)應(yīng)的dt取值為1,否則取值為0。將學(xué)習(xí)者連續(xù)學(xué)習(xí)行為特征以鍵值對(duì)的形式序列化為x,由k個(gè)行為組成的序列x包含k組學(xué)習(xí)行為特征,其中以鍵值對(duì)的形式輸入,如式(2)所示。

    由θ參數(shù)化的LSDP 模型建模為Pθ(dt|x)。當(dāng)輸入為x時(shí),取Pθ(dt|x)最大時(shí)的dt作為輸出。

    1.2 Prefix-tuning

    Fine-tuning 與Prefix-tuning 框架對(duì)比如圖1 所示。其中:X、Y分別為模型的輸入和輸出序列,eX為輸入向量經(jīng)過(guò)3 種嵌入轉(zhuǎn)換的嵌入向量,e[P+X]為提示序列與輸入序列的組合序列經(jīng)過(guò)3 種嵌入轉(zhuǎn)換的嵌入向量,P為提示序列。在預(yù)訓(xùn)練參數(shù)權(quán)重的基礎(chǔ)上,F(xiàn)ine-tuning 針對(duì)下游任務(wù)訓(xùn)練并重新調(diào)整所有參數(shù)。與Fine-tuning 模式不同的是,Prefix-tuning 凍結(jié)預(yù)訓(xùn)練權(quán)重參數(shù),僅通過(guò)調(diào)優(yōu)前綴向量Prefix 以適應(yīng)下游任務(wù),大幅降低調(diào)優(yōu)訓(xùn)練所涉及的參數(shù)量。

    圖1 微調(diào)和前綴提示框架對(duì)比Fig.1 Comparison of fine-tuning and prefix-tuning frameworks

    Transformer 是預(yù)訓(xùn)練-微調(diào)范式與預(yù)訓(xùn)練-提示范式的基本結(jié)構(gòu),它由L層堆疊塊組成,每層包含多頭注意(Multi-Head Attention, MHA)和全連接前饋網(wǎng)絡(luò)(Feed-Forward Network, FFN),注意函數(shù)由查詢Q∈Rn×dk和鍵值對(duì)K∈ Rm×dk、V∈ Rm×dk映射得到,如式(3)所示,其中n和m分別是查詢Q和鍵值對(duì)K、V的數(shù)量。

    Prefix-tuning 將r個(gè)可調(diào)前綴向量Pk、Pv∈Rr×e與Transformer 本身的K、V連接,設(shè)置于每一層Multi-head 的鍵K和值V之前,對(duì)新的向量K'、V'進(jìn)行多頭注意,如圖2 所示。

    圖2 Prefix-tuning 在Transformer 結(jié)構(gòu)上的優(yōu)化Fig.2 Optimization of Prefix tuning on Transformer structure

    式(4)中headi的計(jì)算優(yōu)化為式(6),其中和表示第i個(gè)頭部提示向量,Concat 表示矩陣拼接。

    1.3 Prefix-LSDPM

    Prefix-LSDPM 的主要架構(gòu)如圖3 所示。Prefix-LSDPM 將提示序列作為前綴設(shè)置于學(xué)習(xí)行為特征輸入序列之前,將學(xué)習(xí)會(huì)話退出狀態(tài)目標(biāo)序列設(shè)置于輸入序列之后。凍結(jié)預(yù)訓(xùn)練模型參數(shù)權(quán)重,在改進(jìn)的Transformer 網(wǎng)絡(luò)中通過(guò)雙向、單向混合注意模式對(duì)合成序列進(jìn)行掩碼,充分挖掘?qū)W習(xí)者單個(gè)學(xué)習(xí)行為內(nèi)部特征及連續(xù)學(xué)習(xí)行為之間的隱含關(guān)聯(lián),生成激活函數(shù)后以最大化退出狀態(tài)預(yù)測(cè)正確概率為目標(biāo)更新迭代前綴提示參數(shù)。以下分別從提示模板設(shè)置、小樣本掩碼學(xué)習(xí)、退出狀態(tài)預(yù)測(cè)映射三方面對(duì)Prefix-LSDPM 進(jìn)行詳細(xì)描述。

    圖3 Prefix-LSDPM 主要架構(gòu)Fig.3 Main framework of Prefix-LSDPM

    1.3.1 提示模板設(shè)置 將連續(xù)學(xué)習(xí)行為特征組以鍵值對(duì)的形式序列化為x,提示序列記為Prefix,x對(duì)應(yīng)的學(xué)習(xí)會(huì)話退出狀態(tài)目標(biāo)序列記為dt。將Prefix 作為前綴序列與輸入序列x和目標(biāo)序列dt依序串聯(lián)為序列z= [Prefix;x;dt],作為Prefix-LSDPM 的輸入序列,如圖3 中的輸入token 所示。其中[SOS]作為起始符添加在每個(gè)輸入序列前,[ACT]定義為不同行為之間的特殊分隔符,[EOS]用于標(biāo)記每段序列的結(jié)束以分隔三段序列。

    將z以token 嵌入(token embeddings)、分段嵌入 (segment embeddings)和位置嵌入 (position embeddings)這3 種方式嵌入embeding。其中token embedding 將各個(gè)行為特征值轉(zhuǎn)換成固定維度的token 向量;segment embeddings 將學(xué)習(xí)行為序列分段標(biāo)記為向量表示,以區(qū)分不同學(xué)習(xí)行為;position embedding 的向量表示使模型學(xué)習(xí)到輸入序列token 的順序?qū)傩?,不同位置上的向量可能存在相同token 內(nèi)容,但具有不同的含義。嵌入后,得到連續(xù)提示序列矩陣Pe、輸入序列矩陣Xe和目標(biāo)序列矩陣De連接組成的輸入矩陣[Pe;Xe;De]∈,該合成矩陣框架即為Prefix-LSDPM 的提示模板。其中Pidx、Xidx、Didx分別為Prefix、x、dt的token 索引,|Pidx|、|Xidx|、|Didx|表示對(duì)應(yīng)序列包含的token 數(shù)。

    1.3.2 小樣本掩碼學(xué)習(xí) 合成矩陣[Pe;Xe;De]輸入圖2 所示的L層Transformer 網(wǎng)絡(luò),將一定比例的輸入token 隨機(jī)掩碼為[MASK],通過(guò)預(yù)測(cè)這些掩碼token 以學(xué)習(xí)和理解行為特征序列關(guān)系。在如圖3 所示的L層Transformer 網(wǎng)絡(luò)中利用多頭注意力學(xué)習(xí)行為特征隱藏向量的深度雙向表示。掩碼矩陣M決定一對(duì)token 是否可以相互關(guān)注,如式(7)所示,其中自注意力掩碼方式如圖4 所示。

    圖4 自注意力掩碼Fig.4 Self-attention mask

    掩碼矩陣M的Prefix 列全部設(shè)置為0,表示Prefix 內(nèi)部能夠互相關(guān)注,且能夠注意到后續(xù)x和dt的token 內(nèi)容。x列中,Prefix 行設(shè)置為 -∞ ,x行與dt行設(shè)置為0,表示x無(wú)法關(guān)注到Prefix 中的token,x內(nèi)部向量能夠互相關(guān)注,且能注意到后序dt的token。dt列中,Prefix 行與x行全部設(shè)置為 -∞ ,dt行右上角部分設(shè)置為 -∞ ,表示dt無(wú)法關(guān)注到Prefix 和x中的token,且在dt內(nèi)部單向注意。基于該掩碼矩陣M的注意模式,將dt作為監(jiān)督信號(hào),凍結(jié)預(yù)訓(xùn)練參數(shù),僅更新提示參數(shù)矩陣Pe以最大化dt的概率。

    時(shí)間步s對(duì)應(yīng)的激活函數(shù)hs∈ Rd,其中,hs=表示時(shí)間步s第j層的激活向量。沿用預(yù)訓(xùn)練模型的參數(shù)權(quán)重PLMφ,以z的第s個(gè)token 及左側(cè)上下文中的激活函數(shù)來(lái)計(jì)算hs,如式(8)所示:

    其中Pθ∈R|Pidx|×dim(hs)為由參數(shù)θ形成的前綴激活函數(shù)矩陣。PLM 的參數(shù) ? 是固定的,只有參數(shù)θ為可訓(xùn)練參數(shù)。相比于整體微調(diào),前綴提示調(diào)優(yōu)減少了總體訓(xùn)練涉及的參數(shù)量,為小樣本學(xué)習(xí)的快速收斂提供了基礎(chǔ)。將提示序列設(shè)置于序列前端,即使參數(shù)?固定不變,提示后序的所有激活函數(shù)仍然能夠受到前綴提示激活函數(shù)的影響。因此,每一個(gè)hs均能夠影響并訓(xùn)練Pθ。hs的最后一層用于計(jì)算下一個(gè)token 的概率分布。

    其中W?為將激活函數(shù)映射至詞匯表的矩陣。以最大化當(dāng)前學(xué)習(xí)行為對(duì)應(yīng)的學(xué)習(xí)會(huì)話退出狀態(tài)正確概率Pθ(dt|z)作為目標(biāo),優(yōu)化提示參數(shù)θ,訓(xùn)練得到Prefix-LSDPM。

    1.3.3 退出狀態(tài)預(yù)測(cè)映射 在下游任務(wù)進(jìn)行學(xué)習(xí)會(huì)話退出預(yù)測(cè)時(shí),模型按照提示模板以前綴形式與輸入學(xué)習(xí)行為特征序列連接,并在輸入序列后端進(jìn)行Mask 掩碼,基于參數(shù)θ生成激活函數(shù),通過(guò)softmax分類器映射生成退出狀態(tài)預(yù)測(cè)的概率分布,將概率最大的退出狀態(tài)映射至[MASK]作為預(yù)測(cè)輸出。例如,給定一組學(xué)習(xí)特征序列,模型按照提示模板將提示序列p以前綴形式與輸入序列連接,將學(xué)習(xí)退出狀態(tài)進(jìn)行Mask 后輸入的token序列為[SOS]p[EOS][ACT][EOS][MASK] [EOS]。這些掩碼后的token 序列經(jīng)過(guò)多層Transformer 得到的隱藏層向量依次為h[SOS]、hp、h[SOS]、、h[ACT]、,h[EOS]、h[MASK],接著隱藏向量h[MASK]被輸入到softmax分類器中進(jìn)行線性分類,生成退出狀態(tài)預(yù)測(cè)的概率分布Pθ(dt|z)。最后,預(yù)測(cè)概率最大的token 被追加到序列以替換[MASK],序列結(jié)尾的[EOS]出現(xiàn)即標(biāo)志著預(yù)測(cè)結(jié)束,停止生成激活函數(shù),該token 即作為當(dāng)前學(xué)習(xí)行為序列中最后一個(gè)與行為對(duì)應(yīng)的學(xué)習(xí)會(huì)話退出狀態(tài)預(yù)測(cè)結(jié)果。

    2 實(shí)驗(yàn)設(shè)置

    2.1 數(shù)據(jù)集

    實(shí)驗(yàn)基于3 個(gè)數(shù)據(jù)集進(jìn)行研究,分別為EdNet[14]、XuetangX 1、XuetangX2。其中EdNet 數(shù)據(jù)來(lái)自大型英語(yǔ)在線教育平臺(tái)Santa,XuetangX 1 和XuetangX2 數(shù)據(jù)來(lái)自目前中國(guó)最大的MOOC 平臺(tái)之一“學(xué)堂X”(https://xuetangx.com)。數(shù)據(jù)集具體描述如下:

    (1) EdNet 收集了從2018 年8 月27 日至2019年11 月27 日記錄的學(xué)習(xí)者學(xué)習(xí)活動(dòng)最細(xì)粒度的交互數(shù)據(jù),詳細(xì)記錄了每個(gè)學(xué)生的行為細(xì)節(jié)特征,該數(shù)據(jù)集包含297 915 名學(xué)習(xí)者共131 441 538 條學(xué)習(xí)行為記錄。

    (2) XuetangX 1 收集了39 節(jié)教學(xué)模式的課程中涉及的 112 448 名學(xué)習(xí)者的學(xué)習(xí)行為。該數(shù)據(jù)集包含 1 319 032 個(gè)視頻活動(dòng)、10 763 225 個(gè)論壇活動(dòng)、2 089 933 個(gè)作業(yè)活動(dòng)和 7 380 344 個(gè)網(wǎng)頁(yè)活動(dòng)。

    (3) XuetangX 2 收集了 698 節(jié)教學(xué)模式課程和515 節(jié)自學(xué)模式課程中涉及的 378 237 名學(xué)習(xí)者的學(xué)習(xí)行為。該數(shù)據(jù)集包含 88 904 266 個(gè)視頻活動(dòng)、534 369個(gè)論壇活動(dòng)、10 912 803 個(gè)作業(yè)活動(dòng)和 14 727 348 個(gè)網(wǎng)頁(yè)活動(dòng)。

    按照8∶1∶1 的學(xué)習(xí)者數(shù)量比例將預(yù)處理后的數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。處理后的數(shù)據(jù)集統(tǒng)計(jì)結(jié)果如表1 所示。

    表1 處理后的數(shù)據(jù)集統(tǒng)計(jì)結(jié)果Table 1 Statistics results of processed datasets

    2.2 預(yù)訓(xùn)練模型

    Prefix-LSDPM 在預(yù)訓(xùn)練模型參數(shù)的基礎(chǔ)上對(duì)針對(duì)下游學(xué)習(xí)會(huì)話退出預(yù)測(cè)任務(wù)進(jìn)行提示調(diào)優(yōu)。為避免不同預(yù)訓(xùn)練模型對(duì)Prefix-LSDPM 性能的影響,實(shí)驗(yàn)基于以下3 個(gè)預(yù)訓(xùn)練模型進(jìn)行研究。

    (1) BERT[9]谷歌提出的經(jīng)典預(yù)訓(xùn)練模型,使用MLM 任務(wù)和NSP 任務(wù)進(jìn)行雙向預(yù)訓(xùn)練。

    (2) ALBERT[10]谷歌在BERT 的基礎(chǔ)上提出的改進(jìn)預(yù)訓(xùn)練模型,將BERT 模型通過(guò)因式嵌入和跨層參數(shù)共享這兩種方式進(jìn)行降參優(yōu)化,并基于MLM 任務(wù)和SOP 任務(wù)進(jìn)行雙向預(yù)訓(xùn)練。

    (3) UniLM[15]微軟提出的統(tǒng)一預(yù)訓(xùn)練模型,針對(duì)單向、雙向、序列到序列這3 種模式進(jìn)行無(wú)監(jiān)督聯(lián)合預(yù)訓(xùn)練。

    2.3 參數(shù)設(shè)置

    在訓(xùn)練之前,采用合成少數(shù)過(guò)采樣技術(shù)(Synthetic Minority Oversampling Technique,SMOTE)[16]對(duì) dropout 標(biāo)簽進(jìn)行過(guò)采樣,將 dropout 標(biāo)簽比例保持在 1∶1 左右。采用MetaPrompting[17]軟提示初始化方法,該方法被證明能夠自動(dòng)生成達(dá)到最佳性能的提示初始化向量,通過(guò)元學(xué)習(xí)算法自動(dòng)找到最優(yōu)的提示初始化向量,以促進(jìn)快速適應(yīng)學(xué)習(xí)會(huì)話退出預(yù)測(cè)的提示任務(wù)。

    為避免不同預(yù)訓(xùn)練模型對(duì)Prefix-LSDPM 性能的影響,實(shí)驗(yàn)分別在3 種預(yù)訓(xùn)練模型BERT、ALBERT和UniLM 的基礎(chǔ)上對(duì)Prefix-LSDPM 的性能進(jìn)行測(cè)試。其中BERT 和ALBERT 均采用base 版本的模型,3 個(gè)預(yù)訓(xùn)練模型中的Transformer 網(wǎng)絡(luò)層數(shù)(L)均為12。在每個(gè)Transformer 層中,每個(gè)多頭注意力層均由 8 個(gè)頭組成。模型采用Adam 優(yōu)化器,學(xué)習(xí)率為10-3,超參數(shù)β1= 0.9,β2= 0.999。每組實(shí)驗(yàn)包含 12個(gè) epoch,其中每個(gè) epoch 包含 100 個(gè) step,batch size設(shè)置為8。使用在驗(yàn)證集中獲得的最佳曲線下面積(AUC)的模型參數(shù)在測(cè)試集上進(jìn)行測(cè)試。

    3 實(shí)驗(yàn)設(shè)計(jì)與結(jié)果討論

    3.1 提示長(zhǎng)度消融實(shí)驗(yàn)

    為了探究提示矩陣Pe維度與不同預(yù)訓(xùn)練模型對(duì)Prefix-LSDPM 性能的影響,將提示序列長(zhǎng)度作為控制變量,對(duì)基于BERT、ALBERT、UniLM 這3 種預(yù)訓(xùn)練模型的Prefix-LSDPM 進(jìn)行消融實(shí)驗(yàn),分別記為 BERT+Prefix-LSDPM、 ALBERT+Prefix-LSDPM和UniLM+Prefix-LSDPM 實(shí)驗(yàn)組。該消融實(shí)驗(yàn)旨在得出能夠使Prefix-LSDPM 達(dá)到最佳預(yù)測(cè)性能的提示序列長(zhǎng)度,并針對(duì)基于不同預(yù)訓(xùn)練模型的Prefix-LSDPM 的性能進(jìn)行對(duì)比。本文基于EdNet 數(shù)據(jù)集對(duì)以上模型實(shí)驗(yàn)組進(jìn)行訓(xùn)練,通過(guò)ROC 曲線的AUC和預(yù)測(cè)準(zhǔn)確率(ACC)指標(biāo)對(duì)模型效果進(jìn)行衡量?;诓煌A(yù)訓(xùn)練模型的Prefix-LSDPM 隨著提示長(zhǎng)度變化的AUC 和ACC 消融實(shí)驗(yàn)結(jié)果如圖5 所示。

    圖5 基于不同預(yù)訓(xùn)練模型與提示序列長(zhǎng)度的AUC 和ACC 消融實(shí)驗(yàn)結(jié)果Fig.5 AUC and ACC ablation experiment results based on the performance of pre-training model and prompt sequence length

    由圖5 可知,基于BERT、ALBERT、UniLM 這3 個(gè)預(yù)訓(xùn)練模型進(jìn)行提示調(diào)優(yōu)的Prefix-LSDPM 在提示序列長(zhǎng)度為3 個(gè)token 時(shí)達(dá)到了局部峰值。當(dāng)提示序列長(zhǎng)度為4 個(gè)和5 個(gè)token 時(shí), BERT 和UniLM實(shí)驗(yàn)組模型性能相比提示序列長(zhǎng)度為3 個(gè)token 時(shí)有較大幅度的下降,ALBERT 實(shí)驗(yàn)組模型性能相比提示序列長(zhǎng)度為3 個(gè)token 時(shí)有較小幅度的下降。當(dāng)提示序列長(zhǎng)度為6、7 個(gè)和8 個(gè)token 時(shí),ALBERT和UniLM 實(shí)驗(yàn)組模型相比提示序列長(zhǎng)度為4 個(gè)和5 個(gè)token 時(shí)取得了較好的效果,而B(niǎo)ERT 實(shí)驗(yàn)組隨著提示序列長(zhǎng)度的增加,預(yù)測(cè)性能大幅度下降。

    基于該消融實(shí)驗(yàn)結(jié)果可以得出,在3 個(gè)預(yù)訓(xùn)練模型的參數(shù)基礎(chǔ)上,能夠使Prefix-LSDPM 達(dá)到最佳預(yù)測(cè)性能的最佳提示序列長(zhǎng)度均為3 個(gè)token。其中基于ALBERT 的Prefix-LSDPM 預(yù)測(cè)性能受提示序列長(zhǎng)度的影響不大,且能保持較好的預(yù)測(cè)性能?;贐ERT 的Prefix-LSDPM 預(yù)測(cè)性能相比基于ALBERT的Prefix-LSDPM 預(yù)測(cè)性能較差,原因是ALBERT 采用SOP 任務(wù)代替了BERT 中的NSP 任務(wù)進(jìn)行雙向訓(xùn)練。SOP任務(wù)旨在挖掘句子間的關(guān)聯(lián)性,在LSDP 任務(wù)中,ALBERT 在挖掘?qū)W習(xí)行為特征間關(guān)聯(lián)的基礎(chǔ)上,還對(duì)學(xué)習(xí)行為間的隱含關(guān)聯(lián)進(jìn)行了重點(diǎn)關(guān)注,因此基于ALBERT 的Prefix-LSDPM 能夠取得較好的預(yù)測(cè)性能。雖然UniLM 與BERT 采用相同任務(wù)進(jìn)行訓(xùn)練,但UniLM 將單向、雙向和序列到序列這3 種注意力掩碼方式相結(jié)合,為Prefix-LSDPM 中的混合注意力掩碼方式提供了更好的預(yù)訓(xùn)練基礎(chǔ),因此基于UniLM 的Prefix-LSDPM 也能取得較好的預(yù)測(cè)性能。

    3.2 提示范式與微調(diào)范式對(duì)比研究

    為了探究Prefix-LSDPM 在性能與參數(shù)量方面相對(duì)于預(yù)訓(xùn)練-微調(diào)范式模型是否有改進(jìn),在消融實(shí)驗(yàn)探究的最佳提示長(zhǎng)度下,基于BERT、ALBERT、UniLM 這3 種預(yù)訓(xùn)練模型將Prefix-LSDPM 與全參數(shù)微調(diào)預(yù)測(cè)性能及擬合所需參數(shù)量進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如表2 所示,其中Fine-LSDPM 表示針對(duì)學(xué)習(xí)會(huì)話退出預(yù)測(cè)任務(wù)的雙向微調(diào)。實(shí)驗(yàn)結(jié)果顯示,在同一預(yù)訓(xùn)練參數(shù)的基礎(chǔ)上,Prefix-LSDPM 的預(yù)測(cè)性能相比Fine-LSDPM 均有一定程度的提升,其中基于BERT、ALBERT 和UniLM的AUC 分別提升了0.003 7、0.005 19 和0.034 0,基于BERT、ALBERT 和UniLM的ACC 分別提升了0.007 9、0.063 4 和0.037 1;在參數(shù)量方面,基于BERT、ALBERT 和UniLM 的Prefix-LSDPM 訓(xùn)練參數(shù)量分別是Fine-LSDPM 的0.24%、0.56%和0.13%,Prefix-LSDPM 有效降低了調(diào)優(yōu)訓(xùn)練所涉及的參數(shù)量,使模型訓(xùn)練的復(fù)雜度和訓(xùn)練時(shí)長(zhǎng)大幅降低。該實(shí)驗(yàn)結(jié)果表明,Prefix-LSDPM 將預(yù)訓(xùn)練參數(shù)凍結(jié)后僅更新前綴提示參數(shù)的訓(xùn)練方式,能使下游任務(wù)建模更靠近預(yù)訓(xùn)練模式,并將預(yù)訓(xùn)練模式中已經(jīng)學(xué)習(xí)記憶的知識(shí)進(jìn)行快速檢索,在涉及參數(shù)量較少的同時(shí),使模型訓(xùn)練更加迅速且準(zhǔn)確。

    表2 Fine-LSDPM 與Prefix-LSDPM 對(duì)比結(jié)果Table 2 Comparison between Fine-LSDPM and Prefix-LSDPM

    3.3 小樣本性能研究

    為了探究Prefix-LSDPM 是否能在小樣本數(shù)據(jù)下達(dá)到理想效果,隨機(jī)對(duì)EdNet 的訓(xùn)練集進(jìn)行一定比例的下采樣,構(gòu)造訓(xùn)練集的子集,針對(duì)不同數(shù)據(jù)量分別以Fine-LSDPM 和Prefix-LSDPM 模型進(jìn)行訓(xùn)練。表3 示出了不同訓(xùn)練數(shù)據(jù)量下各模型能夠達(dá)到的最佳AUC,其中百分?jǐn)?shù)表示訓(xùn)練樣本數(shù)為全部樣本數(shù)的比例。

    表3 不同訓(xùn)練數(shù)據(jù)量下各模型的最佳AUCTable 3 Best AUC that each model can achieve under different training data

    實(shí)驗(yàn)結(jié)果顯示,在3 種預(yù)訓(xùn)練模型的基礎(chǔ)上,F(xiàn)ine-LSDPM 在訓(xùn)練樣本為30%時(shí)AUC 預(yù)測(cè)性能均有明顯的下降,而Prefix-LSDPM 在訓(xùn)練樣本減少為10%時(shí)AUC 才有小幅度的下降。且在1%訓(xùn)練樣本情況下,基于BERT、ALBERT、UniLM 的Prefix-LSDPM 的預(yù)測(cè)AUC 相比Fine-LSDPM 分別提升了0.053 0、0.084 9 和0.074 6。相當(dāng)于Prefix-LSDPM 在基于約1 622 名學(xué)習(xí)者的約685 536 條學(xué)習(xí)行為樣本進(jìn)行訓(xùn)練即可達(dá)到比微調(diào)方法性能更好的效果。因此,Prefix-LSDPM 通過(guò)凍結(jié)預(yù)訓(xùn)練參數(shù)以減少迭代參數(shù)量的模式能夠適應(yīng)小樣本學(xué)習(xí),且達(dá)到較好的預(yù)測(cè)效果。

    3.4 對(duì)比實(shí)驗(yàn)

    本文將Prefix-LSDPM 和以下模型分別在數(shù)據(jù)集EdNet、XuetangX 1 和XuetangX 2 上進(jìn)行訓(xùn)練,其中(1)、(2)、(3)為時(shí)序挖掘模型,(4)、(5)為最近會(huì)話退出研究中性能表現(xiàn)較好的模型。

    (1) 長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM) 將LSTM 按照文獻(xiàn)[18]的架構(gòu)進(jìn)行訓(xùn)練。該模型由3 層組成,每層有 60 個(gè)神經(jīng)元,用 Adam 優(yōu)化器和交叉熵?fù)p失訓(xùn)練了 1 000 個(gè) epoch。

    (2) 可變長(zhǎng)度馬爾可夫鏈 (Variable Length Markov Chain, VLMC)[19]對(duì)學(xué)習(xí)者交互項(xiàng)目序列進(jìn)行建模,最大上下文長(zhǎng)度設(shè)置為 4。

    (3) 馬爾可夫調(diào)制標(biāo)記點(diǎn)過(guò)程模型(Markov Modulated Marked Point Process Model , M3PP)[20]該模型對(duì)訪問(wèn)的單個(gè)頁(yè)面的序列和在頁(yè)面上花費(fèi)的時(shí)間進(jìn)行建模。形式上,將點(diǎn)擊流建模為連續(xù)過(guò)程。該模型在在線行為序列分析任務(wù)上效果較好。

    (4) 多層感知器 (Multilayer Perceptron, MLP)[21]該模型為最新研究用于學(xué)習(xí)會(huì)話退出預(yù)測(cè)任務(wù)的有效方法[14]。參考該研究設(shè)置,將學(xué)習(xí)行為數(shù)據(jù)建模為“句子”形式作為輸入,以雙矩陣結(jié)構(gòu)建模學(xué)習(xí)行為特征序列,隨著學(xué)習(xí)行為的增加更新矩陣參數(shù)。

    (5) 深度注意會(huì)話退出預(yù)測(cè)模型(Deep Attention Session Dropout Prediction Model, DAS)[3]該模型基于單層Transformer 實(shí)現(xiàn)了LSDP 任務(wù)。在這項(xiàng)研究中,效果最好的序列長(zhǎng)度是 5,本文應(yīng)用該結(jié)論進(jìn)行對(duì)比實(shí)驗(yàn)。

    根據(jù)消融實(shí)驗(yàn)探究結(jié)果,設(shè)置提示序列長(zhǎng)度為3,將基于ALBERT 預(yù)訓(xùn)練模型的Prefix-LSDPM 在3 個(gè)數(shù)據(jù)集上分別進(jìn)行訓(xùn)練,與以上5 個(gè)模型的對(duì)比實(shí)驗(yàn)結(jié)果如表4 所示。

    表4 不同模型在不同數(shù)據(jù)集上的對(duì)比實(shí)驗(yàn)Table 4 Comparative experiments of different models on different datasets

    實(shí)驗(yàn)結(jié)果顯示,基于ALBERT 預(yù)訓(xùn)練模型的Prefix-LSDPM 在數(shù)據(jù)集 XuetangX 1 和 XuetangX 2上進(jìn)行提示調(diào)優(yōu)預(yù)測(cè)的最佳 AUC 可以分別達(dá)到 0.875 9和0.869 4。在相同數(shù)據(jù)集上,Prefix-LSDPM的預(yù)測(cè)性能優(yōu)于經(jīng)典的時(shí)序挖掘模型LSTM 和VLMC。與在線頁(yè)面訪問(wèn)時(shí)序挖掘模型M3PP 相比,Prefix-LSDPM的最佳AUC 在EdNet、XuetangX1、 XuetangX2 這3 個(gè)數(shù)據(jù)集上分別提升了0.112 2、0.113 6 和0.083 5。目前在LSDP 任務(wù)的現(xiàn)有先進(jìn)模型中,MLP 和DAS模型在會(huì)話退出預(yù)測(cè)任務(wù)中是最新且表現(xiàn)最好的。其中與MLP 相比,Prefix-LSDPM 的最佳AUC 在EdNET、XuetangX1、 XuetangX2 這3 個(gè)數(shù)據(jù)集上分別提升了0.104 0、0.063 7 和0.047 6;與DAS 模型相比,分別提升了0.092 9、0.089 4 和0.066 6。實(shí)驗(yàn)結(jié)果表明,Prefix-LSDPM 在預(yù)訓(xùn)練參數(shù)基礎(chǔ)上對(duì)在線學(xué)習(xí)行為特征進(jìn)行提示調(diào)優(yōu)的方式,能夠更充分地挖掘連續(xù)學(xué)習(xí)行為間及學(xué)習(xí)特征間上下文隱含關(guān)聯(lián),準(zhǔn)確提取連續(xù)學(xué)習(xí)行為序列與學(xué)習(xí)會(huì)話退出模式。Prefix-LSDPM 具有更好的時(shí)序序列挖掘效果,相比現(xiàn)有先進(jìn)模型具有更高的預(yù)測(cè)準(zhǔn)確率。

    4 結(jié) 論

    本文提出了一種基于前綴提示的小樣本在線學(xué)習(xí)會(huì)話退出預(yù)測(cè)模型Prefix-LSDPM。該模型將預(yù)訓(xùn)練-提示-預(yù)測(cè)范式擴(kuò)展至在線會(huì)話退出預(yù)測(cè)任務(wù)。針對(duì)現(xiàn)實(shí)場(chǎng)景中因數(shù)據(jù)不足導(dǎo)致實(shí)際預(yù)測(cè)效果不理想的問(wèn)題,設(shè)計(jì)適應(yīng)于小樣本學(xué)習(xí)行為的前綴提示調(diào)優(yōu)方法。將前綴提示可調(diào)向量與Transformer 結(jié)構(gòu)內(nèi)部鍵值對(duì)連接,固定凍結(jié)預(yù)訓(xùn)練權(quán)重參數(shù),通過(guò)會(huì)話退出監(jiān)督信號(hào)對(duì)前綴提示參數(shù)進(jìn)行調(diào)優(yōu),相比微調(diào)方法能有效降低針對(duì)下游任務(wù)調(diào)優(yōu)訓(xùn)練所涉及的參數(shù)量。針對(duì)前綴提示模板,設(shè)計(jì)多層Transformer網(wǎng)絡(luò)注意力掩碼方式對(duì)同一學(xué)習(xí)行為特征間上下文和連續(xù)學(xué)習(xí)行為間上下文的隱含關(guān)聯(lián)進(jìn)行掩碼學(xué)習(xí),為模型的準(zhǔn)確預(yù)測(cè)提供基礎(chǔ)?;? 個(gè)預(yù)訓(xùn)練模型和3 個(gè)數(shù)據(jù)集對(duì)模型進(jìn)行訓(xùn)練,實(shí)驗(yàn)結(jié)果表明,Prefix-LSDPM 能夠在小樣本學(xué)習(xí)情況下達(dá)到較好的預(yù)測(cè)準(zhǔn)確率,且比現(xiàn)有學(xué)習(xí)會(huì)話退出模型具有更好的預(yù)測(cè)效果。

    猜你喜歡
    掩碼向量學(xué)習(xí)者
    向量的分解
    聚焦“向量與三角”創(chuàng)新題
    你是哪種類型的學(xué)習(xí)者
    十二星座是什么類型的學(xué)習(xí)者
    低面積復(fù)雜度AES低熵掩碼方案的研究
    基于布爾異或掩碼轉(zhuǎn)算術(shù)加法掩碼的安全設(shè)計(jì)*
    漢語(yǔ)學(xué)習(xí)自主學(xué)習(xí)者特征初探
    向量垂直在解析幾何中的應(yīng)用
    向量五種“變身” 玩轉(zhuǎn)圓錐曲線
    基于掩碼的區(qū)域增長(zhǎng)相位解纏方法
    久久久久久久久久久免费av| 免费高清在线观看日韩| 免费看光身美女| 人妻夜夜爽99麻豆av| 亚洲精品久久久久久婷婷小说| 日韩三级伦理在线观看| 美女内射精品一级片tv| 九九爱精品视频在线观看| 精品人妻在线不人妻| 免费高清在线观看日韩| 国产精品一国产av| 国产片内射在线| 免费日韩欧美在线观看| 精品久久久噜噜| 黄色一级大片看看| 精品国产乱码久久久久久小说| a级毛片免费高清观看在线播放| 夜夜骑夜夜射夜夜干| 纯流量卡能插随身wifi吗| 人妻 亚洲 视频| 中文字幕人妻丝袜制服| 桃花免费在线播放| 国语对白做爰xxxⅹ性视频网站| 美女视频免费永久观看网站| 十八禁网站网址无遮挡| 免费观看a级毛片全部| av一本久久久久| 午夜福利影视在线免费观看| 午夜福利视频在线观看免费| 亚洲成人av在线免费| 少妇丰满av| 久久久久久久精品精品| 一级黄片播放器| 一级毛片aaaaaa免费看小| 夜夜看夜夜爽夜夜摸| 亚洲伊人久久精品综合| 国产亚洲欧美精品永久| 天美传媒精品一区二区| 国产片特级美女逼逼视频| 天堂俺去俺来也www色官网| 少妇的逼水好多| 伊人亚洲综合成人网| 中文精品一卡2卡3卡4更新| 免费观看性生交大片5| 男人操女人黄网站| 日韩成人av中文字幕在线观看| 亚洲熟女精品中文字幕| 美女大奶头黄色视频| 看免费成人av毛片| 少妇精品久久久久久久| 蜜桃久久精品国产亚洲av| 极品少妇高潮喷水抽搐| 久久精品熟女亚洲av麻豆精品| 亚洲在久久综合| 99国产综合亚洲精品| 亚洲精品亚洲一区二区| 日韩中字成人| 精品午夜福利在线看| 国产无遮挡羞羞视频在线观看| 久久影院123| 99九九在线精品视频| 18禁动态无遮挡网站| 97超碰精品成人国产| 亚洲精品自拍成人| 国产成人av激情在线播放 | 国产亚洲精品第一综合不卡 | 汤姆久久久久久久影院中文字幕| 久久久精品94久久精品| 另类精品久久| 少妇高潮的动态图| 亚洲av.av天堂| 欧美另类一区| 水蜜桃什么品种好| 欧美人与善性xxx| 亚洲天堂av无毛| 观看美女的网站| 欧美亚洲日本最大视频资源| 黄色配什么色好看| 一本一本综合久久| 亚洲精品aⅴ在线观看| 日本91视频免费播放| 中文乱码字字幕精品一区二区三区| 中文乱码字字幕精品一区二区三区| 亚洲三级黄色毛片| 超色免费av| 国产高清国产精品国产三级| 999精品在线视频| 91精品三级在线观看| 亚洲熟女精品中文字幕| 午夜福利影视在线免费观看| 久久久欧美国产精品| 18在线观看网站| 国产精品一区二区在线不卡| 久久久久久久国产电影| 日本免费在线观看一区| 久久久国产一区二区| 最近2019中文字幕mv第一页| 欧美一级a爱片免费观看看| 麻豆乱淫一区二区| 我的老师免费观看完整版| 色5月婷婷丁香| 香蕉精品网在线| 国产极品天堂在线| 大香蕉久久网| 成人毛片60女人毛片免费| 成人综合一区亚洲| 国产精品.久久久| 亚洲美女视频黄频| videossex国产| 蜜桃久久精品国产亚洲av| 精品酒店卫生间| 亚洲欧美成人综合另类久久久| 男男h啪啪无遮挡| 91精品国产九色| www.av在线官网国产| 日本wwww免费看| 日日摸夜夜添夜夜爱| 亚洲美女搞黄在线观看| 色网站视频免费| 一本—道久久a久久精品蜜桃钙片| 欧美日韩国产mv在线观看视频| 老女人水多毛片| 欧美xxⅹ黑人| 久久久久人妻精品一区果冻| 欧美丝袜亚洲另类| 一区二区日韩欧美中文字幕 | 亚洲av综合色区一区| 国产伦理片在线播放av一区| 亚洲精品,欧美精品| 亚洲精品久久午夜乱码| 天天影视国产精品| 日本av手机在线免费观看| 国产精品一二三区在线看| h视频一区二区三区| 天天操日日干夜夜撸| 久久久久久伊人网av| av电影中文网址| 青春草视频在线免费观看| 国产成人精品久久久久久| 有码 亚洲区| 麻豆精品久久久久久蜜桃| 美女中出高潮动态图| 欧美精品人与动牲交sv欧美| 午夜激情久久久久久久| 国产日韩欧美视频二区| 免费av不卡在线播放| 中国三级夫妇交换| 国产69精品久久久久777片| 久久鲁丝午夜福利片| 亚洲国产av影院在线观看| 中文字幕精品免费在线观看视频 | 女人久久www免费人成看片| 视频区图区小说| 亚洲欧美清纯卡通| 亚洲精华国产精华液的使用体验| 国产成人91sexporn| 日本欧美国产在线视频| 亚洲久久久国产精品| 国产极品粉嫩免费观看在线 | 欧美激情 高清一区二区三区| 国产熟女午夜一区二区三区 | 伊人亚洲综合成人网| 久久久久人妻精品一区果冻| 国产日韩欧美亚洲二区| 一区二区三区精品91| 91久久精品国产一区二区成人| 在线观看人妻少妇| 看免费成人av毛片| 精品国产露脸久久av麻豆| 肉色欧美久久久久久久蜜桃| 亚洲怡红院男人天堂| 免费观看性生交大片5| 免费黄色在线免费观看| 欧美变态另类bdsm刘玥| 91久久精品电影网| 一本—道久久a久久精品蜜桃钙片| 国产免费一区二区三区四区乱码| 韩国高清视频一区二区三区| 欧美精品高潮呻吟av久久| 日本黄色日本黄色录像| 欧美三级亚洲精品| 永久免费av网站大全| 日韩精品有码人妻一区| 亚洲一级一片aⅴ在线观看| 午夜久久久在线观看| 啦啦啦视频在线资源免费观看| 高清欧美精品videossex| 国产综合精华液| 美女福利国产在线| 91精品伊人久久大香线蕉| 美女福利国产在线| 人妻人人澡人人爽人人| 天堂俺去俺来也www色官网| 晚上一个人看的免费电影| 国产在线一区二区三区精| 久久亚洲国产成人精品v| 高清视频免费观看一区二区| 日日啪夜夜爽| 青春草视频在线免费观看| 熟女av电影| 久久久久久久久久人人人人人人| 免费高清在线观看日韩| 熟女av电影| 99国产精品免费福利视频| videosex国产| 亚洲成人av在线免费| 午夜福利,免费看| 国产熟女欧美一区二区| 两个人的视频大全免费| 美女主播在线视频| 高清av免费在线| 亚洲精品第二区| 久久精品人人爽人人爽视色| 中国国产av一级| 亚洲美女搞黄在线观看| 国产黄频视频在线观看| 免费日韩欧美在线观看| 国产白丝娇喘喷水9色精品| 中文精品一卡2卡3卡4更新| 青春草国产在线视频| 波野结衣二区三区在线| 精品久久久久久久久av| 亚洲图色成人| 亚洲天堂av无毛| 久久国内精品自在自线图片| 免费大片黄手机在线观看| 精品久久蜜臀av无| 亚洲精品456在线播放app| 国产精品人妻久久久久久| 汤姆久久久久久久影院中文字幕| 午夜福利影视在线免费观看| 老司机影院成人| 国产精品久久久久久精品古装| 丝瓜视频免费看黄片| 国产日韩欧美视频二区| 日日爽夜夜爽网站| 亚洲av.av天堂| 欧美日本中文国产一区发布| 三级国产精品片| 男人操女人黄网站| 午夜免费男女啪啪视频观看| 国产欧美日韩一区二区三区在线 | 看十八女毛片水多多多| 2022亚洲国产成人精品| 99久久中文字幕三级久久日本| 免费久久久久久久精品成人欧美视频 | 国产永久视频网站| 大陆偷拍与自拍| 91午夜精品亚洲一区二区三区| 桃花免费在线播放| 黑人欧美特级aaaaaa片| 麻豆精品久久久久久蜜桃| 久久久欧美国产精品| 久热这里只有精品99| 高清毛片免费看| 蜜桃国产av成人99| 九九爱精品视频在线观看| 熟女av电影| 免费av不卡在线播放| 最新的欧美精品一区二区| 国产高清国产精品国产三级| 中文字幕精品免费在线观看视频 | 女性被躁到高潮视频| 亚洲成人一二三区av| av在线app专区| 久久久久久久亚洲中文字幕| 丝瓜视频免费看黄片| 成人18禁高潮啪啪吃奶动态图 | 中文字幕亚洲精品专区| 精品99又大又爽又粗少妇毛片| 成年av动漫网址| 大片免费播放器 马上看| 美女cb高潮喷水在线观看| 亚洲av不卡在线观看| 在线亚洲精品国产二区图片欧美 | 亚洲欧洲国产日韩| 天美传媒精品一区二区| 麻豆精品久久久久久蜜桃| 一区二区日韩欧美中文字幕 | 亚洲欧美色中文字幕在线| 久久av网站| 看非洲黑人一级黄片| 大片免费播放器 马上看| 水蜜桃什么品种好| 欧美亚洲日本最大视频资源| 国产精品麻豆人妻色哟哟久久| 另类亚洲欧美激情| 久久av网站| 一个人看视频在线观看www免费| 汤姆久久久久久久影院中文字幕| 中文精品一卡2卡3卡4更新| 久久 成人 亚洲| 精品亚洲成a人片在线观看| 欧美三级亚洲精品| 免费久久久久久久精品成人欧美视频 | 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 成人免费观看视频高清| 亚洲av电影在线观看一区二区三区| 亚洲av成人精品一区久久| 五月伊人婷婷丁香| 国产无遮挡羞羞视频在线观看| 永久免费av网站大全| 国产免费一区二区三区四区乱码| 亚洲成色77777| 天堂8中文在线网| 亚洲精品久久成人aⅴ小说 | 亚洲精品乱码久久久v下载方式| av在线观看视频网站免费| 国产 精品1| 国产熟女欧美一区二区| 一本久久精品| 日韩,欧美,国产一区二区三区| av天堂久久9| 亚洲丝袜综合中文字幕| 中文精品一卡2卡3卡4更新| videos熟女内射| 搡女人真爽免费视频火全软件| 成人二区视频| 亚洲精品乱码久久久久久按摩| 99久国产av精品国产电影| 国产成人精品在线电影| 久久韩国三级中文字幕| 国产在线免费精品| 色视频在线一区二区三区| 少妇被粗大的猛进出69影院 | 亚洲国产精品一区三区| 中国美白少妇内射xxxbb| 国国产精品蜜臀av免费| 夜夜爽夜夜爽视频| av又黄又爽大尺度在线免费看| 久久久久久久久久久丰满| 国产极品粉嫩免费观看在线 | 日韩av在线免费看完整版不卡| 女性被躁到高潮视频| 中文字幕人妻丝袜制服| 国产亚洲精品久久久com| 99精国产麻豆久久婷婷| 美女内射精品一级片tv| 波野结衣二区三区在线| 欧美日韩国产mv在线观看视频| 亚洲av二区三区四区| 国产高清有码在线观看视频| 免费看光身美女| 青春草亚洲视频在线观看| 久久毛片免费看一区二区三区| 国产精品欧美亚洲77777| 亚洲av成人精品一区久久| 成人国产av品久久久| 久久精品久久久久久噜噜老黄| 欧美丝袜亚洲另类| 日本色播在线视频| 如何舔出高潮| 26uuu在线亚洲综合色| 另类精品久久| 国产精品无大码| 丰满饥渴人妻一区二区三| 久久免费观看电影| 国产精品国产三级国产专区5o| 天天躁夜夜躁狠狠久久av| 丝袜脚勾引网站| 亚洲欧美精品自产自拍| 在现免费观看毛片| 22中文网久久字幕| 最近的中文字幕免费完整| 边亲边吃奶的免费视频| 少妇人妻精品综合一区二区| 亚洲精品日韩在线中文字幕| 欧美丝袜亚洲另类| 五月伊人婷婷丁香| 黑人巨大精品欧美一区二区蜜桃 | 热re99久久国产66热| 伦理电影大哥的女人| 91精品国产国语对白视频| 成年人免费黄色播放视频| 综合色丁香网| 国产精品.久久久| 久久韩国三级中文字幕| 久久亚洲国产成人精品v| 各种免费的搞黄视频| 国产亚洲av片在线观看秒播厂| 一级毛片 在线播放| 久久精品国产鲁丝片午夜精品| 成人国产麻豆网| 99久久人妻综合| 成人黄色视频免费在线看| 丝袜在线中文字幕| 日韩伦理黄色片| 18禁动态无遮挡网站| 国产欧美日韩综合在线一区二区| 亚洲精品乱码久久久v下载方式| 亚洲怡红院男人天堂| 久久久久久久久久久丰满| 色婷婷av一区二区三区视频| 亚洲欧美色中文字幕在线| 自拍欧美九色日韩亚洲蝌蚪91| 青春草视频在线免费观看| 有码 亚洲区| 少妇的逼水好多| av一本久久久久| 午夜免费男女啪啪视频观看| 观看美女的网站| 在线精品无人区一区二区三| 少妇猛男粗大的猛烈进出视频| 女人久久www免费人成看片| 嫩草影院入口| 欧美xxⅹ黑人| 97精品久久久久久久久久精品| 亚洲精品亚洲一区二区| 亚洲精品456在线播放app| 最黄视频免费看| 纯流量卡能插随身wifi吗| 精品久久久久久久久亚洲| 纯流量卡能插随身wifi吗| 日本wwww免费看| 日本91视频免费播放| 一本色道久久久久久精品综合| 久久国产精品男人的天堂亚洲 | 亚洲精品日本国产第一区| 国产精品 国内视频| 最近的中文字幕免费完整| 只有这里有精品99| 91精品国产九色| 精品国产乱码久久久久久小说| 久久精品国产a三级三级三级| 亚洲国产精品专区欧美| 美女中出高潮动态图| av一本久久久久| 在线精品无人区一区二区三| 99久久综合免费| 免费观看av网站的网址| a 毛片基地| 亚洲精品乱码久久久久久按摩| 建设人人有责人人尽责人人享有的| 国产精品无大码| 99热这里只有精品一区| 久久久久视频综合| 人妻 亚洲 视频| 亚洲情色 制服丝袜| 十八禁网站网址无遮挡| 美女内射精品一级片tv| 高清黄色对白视频在线免费看| 欧美日韩av久久| 欧美日韩成人在线一区二区| 在线亚洲精品国产二区图片欧美 | 国产成人午夜福利电影在线观看| 午夜免费鲁丝| 99国产综合亚洲精品| 国产欧美另类精品又又久久亚洲欧美| 99热这里只有是精品在线观看| 国产精品一区二区在线观看99| 制服人妻中文乱码| 久久国产精品男人的天堂亚洲 | 亚洲av免费高清在线观看| 日韩人妻高清精品专区| 久热久热在线精品观看| 国产成人免费观看mmmm| 男女无遮挡免费网站观看| 久久午夜综合久久蜜桃| 成人免费观看视频高清| 在线 av 中文字幕| 国产黄频视频在线观看| 乱人伦中国视频| 日韩三级伦理在线观看| 少妇的逼水好多| 精品少妇久久久久久888优播| 成人免费观看视频高清| 成年人午夜在线观看视频| 亚洲一区二区三区欧美精品| 18禁观看日本| 大片电影免费在线观看免费| 欧美+日韩+精品| 美女福利国产在线| 亚洲欧美一区二区三区黑人 | 久久久久精品性色| 亚洲熟女精品中文字幕| 日本91视频免费播放| 欧美另类一区| 国产精品.久久久| 99久国产av精品国产电影| 汤姆久久久久久久影院中文字幕| 自线自在国产av| 久久久久视频综合| 日日摸夜夜添夜夜添av毛片| 卡戴珊不雅视频在线播放| 全区人妻精品视频| 51国产日韩欧美| 3wmmmm亚洲av在线观看| 久久国产精品男人的天堂亚洲 | 美女视频免费永久观看网站| 国产成人91sexporn| 久久这里有精品视频免费| 日本爱情动作片www.在线观看| 国产av码专区亚洲av| a级毛片黄视频| 91国产中文字幕| 伊人久久国产一区二区| 国产男女内射视频| 久久久久国产网址| 国产老妇伦熟女老妇高清| 欧美亚洲 丝袜 人妻 在线| 国产欧美日韩一区二区三区在线 | 欧美人与善性xxx| 一级毛片我不卡| 午夜日本视频在线| 亚洲人成网站在线播| 一级片'在线观看视频| 99国产精品免费福利视频| 亚洲精品国产av成人精品| 18在线观看网站| 乱人伦中国视频| 黑人猛操日本美女一级片| 黄色一级大片看看| 老司机亚洲免费影院| 超色免费av| 亚洲图色成人| 91久久精品国产一区二区三区| 黄色配什么色好看| av女优亚洲男人天堂| 午夜av观看不卡| 亚洲国产毛片av蜜桃av| 久久ye,这里只有精品| 免费av不卡在线播放| 男人爽女人下面视频在线观看| 日本色播在线视频| 国产色婷婷99| 一级毛片电影观看| 尾随美女入室| av国产精品久久久久影院| 欧美日韩一区二区视频在线观看视频在线| 丝袜脚勾引网站| 亚洲一区二区三区欧美精品| 国产69精品久久久久777片| 国产极品粉嫩免费观看在线 | 97超视频在线观看视频| 免费看不卡的av| 精品国产国语对白av| 日韩人妻高清精品专区| 久久精品国产a三级三级三级| 久久久精品94久久精品| 免费高清在线观看日韩| 国产精品国产三级国产专区5o| 亚洲av.av天堂| 97超碰精品成人国产| 午夜老司机福利剧场| 一区二区三区精品91| 精品人妻一区二区三区麻豆| 中国国产av一级| 一级毛片黄色毛片免费观看视频| 三级国产精品片| 亚洲一级一片aⅴ在线观看| 欧美+日韩+精品| 国产精品熟女久久久久浪| 黄片无遮挡物在线观看| 午夜福利视频在线观看免费| 丰满迷人的少妇在线观看| 中文字幕人妻丝袜制服| 嘟嘟电影网在线观看| 亚洲精品乱久久久久久| 日本黄色日本黄色录像| 欧美日韩av久久| 草草在线视频免费看| 蜜桃在线观看..| 亚洲欧美清纯卡通| 成人黄色视频免费在线看| 久久精品熟女亚洲av麻豆精品| 久久韩国三级中文字幕| 国产黄色免费在线视频| 高清在线视频一区二区三区| 久久影院123| 日本-黄色视频高清免费观看| 欧美成人精品欧美一级黄| 国产欧美另类精品又又久久亚洲欧美| 亚洲国产日韩一区二区| 国产精品99久久99久久久不卡 | 国产淫语在线视频| 亚洲人成77777在线视频| a级毛色黄片| 国产精品人妻久久久影院| 岛国毛片在线播放| 熟女人妻精品中文字幕| 搡女人真爽免费视频火全软件| 蜜桃在线观看..| 大香蕉97超碰在线| 看非洲黑人一级黄片| 亚洲人成网站在线观看播放| 日韩免费高清中文字幕av| 免费观看a级毛片全部| 秋霞伦理黄片| 亚洲成人手机| 最新的欧美精品一区二区| 国产一区有黄有色的免费视频| 欧美日韩视频高清一区二区三区二| 国产成人精品无人区| 久久精品国产亚洲av天美| 国产亚洲最大av| 99视频精品全部免费 在线| 欧美3d第一页| 有码 亚洲区| 99视频精品全部免费 在线| 丝袜在线中文字幕| 欧美另类一区| 免费观看在线日韩| 亚洲国产欧美日韩在线播放| 少妇的逼好多水| 夫妻性生交免费视频一级片| 日本黄色片子视频| 国产男女内射视频| 美女脱内裤让男人舔精品视频| 另类精品久久| 欧美国产精品一级二级三级| 日本免费在线观看一区| 中文字幕亚洲精品专区| 制服人妻中文乱码| 国产成人精品无人区| 日日啪夜夜爽|