• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    一種新的半監(jiān)督歸納遷移學(xué)習(xí)框架:Co-Transfer

    2023-07-20 11:21:34文益民
    關(guān)鍵詞:分類監(jiān)督

    文益民 員 喆 余 航

    1 (桂林電子科技大學(xué)計(jì)算機(jī)與信息安全學(xué)院 廣西 桂林 541004)

    2 (廣西圖像圖形與智能處理重點(diǎn)實(shí)驗(yàn)室(桂林電子科技大學(xué))廣西 桂林 541004)

    3 (上海大學(xué)計(jì)算機(jī)工程與科學(xué)學(xué)院 上海 200444)

    遷移學(xué)習(xí)已被廣泛應(yīng)用于將知識(shí)從源域遷移到相關(guān)的目標(biāo)域的任務(wù)[1-2].根據(jù)Pan 等人[1]的工作,遷移學(xué)習(xí)可分為3 類:歸納遷移學(xué)習(xí)、直推式遷移學(xué)習(xí)和無監(jiān)督遷移學(xué)習(xí).有著與前面這3 種遷移學(xué)習(xí)不同的設(shè)置,一種名為“半監(jiān)督遷移學(xué)習(xí)”的研究開始被學(xué)術(shù)界關(guān)注[3-6],它被用于解決許多實(shí)際應(yīng)用問題,其學(xué)習(xí)范式一般是目標(biāo)域中僅有少量樣本被標(biāo)記,而源域中的所有樣本都被標(biāo)記或者是源域中有一個(gè)預(yù)訓(xùn)練模型.但是,與這種“半監(jiān)督遷移學(xué)習(xí)”不一樣,在許多實(shí)際應(yīng)用中,源域和目標(biāo)域中包含標(biāo)記和未標(biāo)記樣本的情形則非常常見.例如,在計(jì)算機(jī)輔助診斷(computer-aided diagnosis,CAD)系統(tǒng)[7]應(yīng)用中,由于標(biāo)注大量的醫(yī)學(xué)圖像非常耗時(shí)且成本昂貴,醫(yī)學(xué)專家僅能夠仔細(xì)診斷標(biāo)注少量圖像.由于設(shè)備的老化或升級(jí),先前采集的醫(yī)學(xué)圖像很可能與當(dāng)前采集的醫(yī)學(xué)圖像的分布不再相同[8-9].也就是說,在2 個(gè)不同時(shí)間間隔內(nèi)采集的數(shù)據(jù)分布不相同.因此,接下來的挑戰(zhàn)是如何從源域中的標(biāo)記和未標(biāo)記樣本有效地學(xué)習(xí),以實(shí)現(xiàn)對(duì)目標(biāo)域中樣本的更準(zhǔn)確分類?

    半監(jiān)督多任務(wù)學(xué)習(xí)可用于處理上述問題.文獻(xiàn)[10]通過Dirichlet 過程的變體在多個(gè)分類器參數(shù)上使用軟共享先驗(yàn)來耦合幾個(gè)參數(shù)化的半監(jiān)督分類器.文獻(xiàn)[11]在高斯過程的協(xié)方差中結(jié)合了數(shù)據(jù)的幾何形狀和任務(wù)之間的相似性.文獻(xiàn)[12-14]使用深度學(xué)習(xí)提取多個(gè)半監(jiān)督任務(wù)之間共享的特征表示.然而,文獻(xiàn)[10-14]所述的這些方法都需要依賴特定類型的分類器.

    為應(yīng)對(duì)上述挑戰(zhàn),本文提出一種新的半監(jiān)督歸納遷移學(xué)習(xí)框架,稱為Co-Transfer,它將半監(jiān)督學(xué)習(xí)[15-16]與歸納遷移學(xué)習(xí)相結(jié)合.Co-Transfer 首先生成3 個(gè)TrAdaBoost[17]分類器,用于將知識(shí)從原始源域遷移到原始目標(biāo)域,同時(shí)生成另外3 個(gè)TrAdaBoost 分類器,用于將知識(shí)從原始目標(biāo)域遷移到原始源域.這2 組分類器都使用從原始源域和原始目標(biāo)域的原有標(biāo)記樣本的有放回抽樣來訓(xùn)練.在Co-Transfer 的每一輪迭代中,每組TrAdaBoost 分類器使用新的訓(xùn)練集更新,其中一部分訓(xùn)練集是原有的標(biāo)記樣本,一部分是本組TrAdaBoost 分類器標(biāo)記的樣本,另一部分則由另一組TrAdaBoost 分類器標(biāo)記.值得強(qiáng)調(diào)的是,本文使用Tri-training[18]方式來挑選可靠的偽標(biāo)記樣本.迭代終止后,將從原始源域遷移到原始目標(biāo)域的3 個(gè)TrAdaBoost 分類器集成作為原始目標(biāo)域的分類器.在4 個(gè)UCI 數(shù)據(jù)集[19]和文本分類數(shù)據(jù)集[17]上的實(shí)驗(yàn)結(jié)果表明,Co-Transfer 可以有效地學(xué)習(xí)標(biāo)記和未標(biāo)記樣本提升泛化性能.

    本文的主要貢獻(xiàn)體現(xiàn)在2 點(diǎn):

    1)提出一種源域和目標(biāo)域都只有部分樣本被標(biāo)記的半監(jiān)督歸納遷移學(xué)習(xí)類型.這種學(xué)習(xí)類型在實(shí)際應(yīng)用中其實(shí)很常見.

    2)提出一種新的半監(jiān)督歸納遷移學(xué)習(xí)框架Co-Transfer.該學(xué)習(xí)框架在源域和目標(biāo)域之間進(jìn)行雙向同步的半監(jiān)督學(xué)習(xí)和遷移學(xué)習(xí),它能很好地適用于源域和目標(biāo)域都僅有部分樣本被標(biāo)記的遷移學(xué)習(xí)且不需要特定類型的分類器.

    1 相關(guān)工作

    本節(jié)簡(jiǎn)要回顧半監(jiān)督學(xué)習(xí)、基于實(shí)例的遷移學(xué)習(xí)、半監(jiān)督遷移學(xué)習(xí)以及半監(jiān)督多任務(wù)學(xué)習(xí)等相關(guān)工作.

    1.1 半監(jiān)督學(xué)習(xí)

    半監(jiān)督學(xué)習(xí)[15]的主要思想是學(xué)習(xí)少量標(biāo)記樣本和大量未標(biāo)記樣本以提高模型泛化能力.半監(jiān)督學(xué)習(xí)假設(shè)未標(biāo)記樣本與標(biāo)記樣本具有相同分布.已有的半監(jiān)督學(xué)習(xí)方法主要分為四大類:生成式模型[20]、包裝方法[18,21]、低密度分離模型[22]以及基于圖的方法[23]等.其中,包裝方法是一類簡(jiǎn)單且受歡迎的方法,它首先在原有標(biāo)記樣本上訓(xùn)練分類器,然后利用訓(xùn)練好的分類器來預(yù)測(cè)未標(biāo)記樣本的類別,使用置信的偽標(biāo)記樣本與原有標(biāo)記樣本一起重新訓(xùn)練分類器.

    Blum 等人[24]提出了Co-training 算法,它需要數(shù)據(jù)有2 個(gè)充分且冗余的視圖.Co-training 分別在2 個(gè)不同的視圖上訓(xùn)練2 個(gè)分類器,并且使用每個(gè)分類器置信的偽標(biāo)記樣本來增強(qiáng)另一個(gè)分類器.Dasgupta等人[25]證明了當(dāng)數(shù)據(jù)具有2 個(gè)充分且冗余的視圖時(shí),Co-training 訓(xùn)練的分類器可以通過最大化不同組件分類器對(duì)未標(biāo)記樣本的一致性來降低分類錯(cuò)誤率.在實(shí)際應(yīng)用場(chǎng)景中,由于數(shù)據(jù)很難滿足這一要求,Zhou 等人[18]提出Tri-training 算法,該算法不再要求訓(xùn)練數(shù)據(jù)有2 個(gè)充分且冗余的視圖.Tri-training 采用“多數(shù)教少數(shù)”的方法來避免對(duì)分類置信度的估計(jì).Li 等人[21]提出Co-forest 算法將Tri-training 擴(kuò)展到可使用更多的組件分類器.在Tri-training 和Co-forest 中,使用模糊集理論來確保新的偽標(biāo)記樣本能起到積極效果.Van Engelen 等人[15]綜述了一些其他包裝方法,如Self-training 與Boosting 系列.此外,Triguero 等人[26]提供了一個(gè)關(guān)于半監(jiān)督分類中自標(biāo)記技術(shù)的全面綜述.

    1.2 基于實(shí)例的遷移學(xué)習(xí)

    基于實(shí)例的遷移學(xué)習(xí)方法其直觀思想是將源域中部分樣本與目標(biāo)域樣本一起訓(xùn)練得到一個(gè)更高準(zhǔn)確率的分類器.

    Dai 等人[17]通過擴(kuò)展AdaBoost 提出TrAdaBoost遷移學(xué)習(xí)算法.TrAdaBoost 迭代地重新加權(quán)源域和目標(biāo)域樣本以減少“壞”的源域樣本的權(quán)值,同時(shí)增大“好”的目標(biāo)域樣本的權(quán)值.此外,Dai 等人[17]還從理論上分析了TrAdaBoost 的可收斂性.Kamishima 等人[27]通過擴(kuò)展bagging 提出TrBagg 方法.TrBagg 訓(xùn)練過程包括2 個(gè)階段:學(xué)習(xí)和過濾.在學(xué)習(xí)階段,使用源域和目標(biāo)域的抽樣樣本來訓(xùn)練弱分類器;在過濾階段,使用目標(biāo)域樣本來評(píng)估這些弱分類器.分類精度低的弱分類器會(huì)被丟棄,而分類精度高的弱分類器會(huì)被選擇來產(chǎn)生最終分類器.Shi 等人[28]通過擴(kuò)展Cotraining 算法提出COITL 算法.COITL 算法的關(guān)鍵思想是通過將Co-training 算法中給樣本打偽標(biāo)記的操作替換為對(duì)源域樣本進(jìn)行加權(quán)來擴(kuò)充訓(xùn)練樣本集.在算法COITL 中,首先使用目標(biāo)域樣本訓(xùn)練2 個(gè)組件分類器,然后每個(gè)分類器使用另一個(gè)分類器加權(quán)的源域樣本進(jìn)行增強(qiáng).

    1.3 半監(jiān)督遷移學(xué)習(xí)

    目前半監(jiān)督遷移學(xué)習(xí)的工作還非常有限,與本文要解決的問題不同,已有的半監(jiān)督遷移學(xué)習(xí)旨在解決源域是監(jiān)督設(shè)置但目標(biāo)域是半監(jiān)督設(shè)置的問題.根據(jù)源域形式的不同,主要分為2 類:源域樣本直接可用或源域樣本不可用但源域上的預(yù)訓(xùn)練模型可用.

    Liu 等人[3]提出一種基于Tri-training 的半監(jiān)督遷移學(xué)習(xí)方法TriTransfer.在TriTransfer 中,使用從源域抽樣的樣本與目標(biāo)域的標(biāo)記樣本一起訓(xùn)練3 個(gè)組件分類器,然后使用“多數(shù)教少數(shù)”的策略來重新訓(xùn)練這3 個(gè)組件分類器,最后加權(quán)集成這3 個(gè)組件分類器來產(chǎn)生最終分類器.

    Tang 等人[4]提出一種半監(jiān)督遷移方法以解決漢字識(shí)別問題.首先,使用大量源域樣本來訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò);然后使用目標(biāo)域中少量的標(biāo)記樣本對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型微調(diào);最后使用目標(biāo)域中大量的未標(biāo)記樣本和少量的標(biāo)記樣本對(duì)微調(diào)后的卷積神經(jīng)網(wǎng)絡(luò)繼續(xù)訓(xùn)練以最小化多核最大均值差異(multiple kernel maximum mean discrepancy,MK-MMD)損失.

    Abuduweili 等人[5]提出一種半監(jiān)督遷移學(xué)習(xí)算法,它可以有效地利用源域的預(yù)訓(xùn)練模型以及目標(biāo)域中的標(biāo)記和未標(biāo)記樣本.在所提出的算法中利用自適應(yīng)一致性正則化方法來將預(yù)訓(xùn)練模型與目標(biāo)域的標(biāo)記和未標(biāo)記樣本結(jié)合在一起訓(xùn)練.自適應(yīng)一致性正則化包括2 個(gè)含義:源模型和目標(biāo)模型之間的自適應(yīng)一致性;有標(biāo)記和無標(biāo)記樣本之間的自適應(yīng)一致性.

    Wei 等人[6]提出一種用于圖像去雨的半監(jiān)督遷移網(wǎng)絡(luò).該網(wǎng)絡(luò)經(jīng)過合成的帶雨圖像樣本訓(xùn)練后可以遷移于真實(shí)且不同類型的帶雨圖像,解決了目標(biāo)域缺少訓(xùn)練樣本及真實(shí)圖像與合成圖像間分布差異的問題.

    1.4 半監(jiān)督多任務(wù)學(xué)習(xí)

    半監(jiān)督多任務(wù)學(xué)習(xí)旨在有效挖掘任務(wù)之間的相關(guān)性并探索每個(gè)任務(wù)中未標(biāo)記樣本的有用信息.Liu等人[10]基于Dirichlet 過程的變體使用任務(wù)聚簇方法對(duì)不同任務(wù)進(jìn)行聚類,且在每個(gè)任務(wù)中,使用隨機(jī)游走過程來探索未標(biāo)記樣本中的有用知識(shí).Skolidis 等人[11]使用共區(qū)域化的內(nèi)在模型在高斯過程的框架下編碼任務(wù)之間的相關(guān)性.此外,半監(jiān)督多任務(wù)學(xué)習(xí)與深度學(xué)習(xí)被結(jié)合用于解決實(shí)際任務(wù),如疾病演化[12]、藥物間相互作用[13]、語(yǔ)義解析[14]和文本挖掘等[29].

    2 Co-Transfer

    在本文中,為了形式化定義所提出的半監(jiān)督遷移學(xué)習(xí)框架,我們引入一些符號(hào).

    本文假設(shè)源域DS和目標(biāo)域DT具有相同的特征空間但分布不同.X表示特征空間,Y∈{0,1}表示類別空間.DS和DT均包含標(biāo)記和未標(biāo)記樣本.定義DSL=和DTL=分別表示源域和目標(biāo)域中的標(biāo)記樣本,其中∈X是源域中的一個(gè)實(shí)例,∈Y是對(duì)應(yīng)的類別標(biāo)記,而∈X則是目標(biāo)域中的一個(gè)實(shí)例,∈Y是對(duì)應(yīng){的類別標(biāo)記.定義DSU=和DTU=,分別表示源域和目標(biāo)域中的未標(biāo)記樣本.此外,還存在測(cè)試數(shù)據(jù)集DTest=可用,它與目標(biāo)域分布相同.通常,未標(biāo)記樣本的數(shù)量要遠(yuǎn)大于標(biāo)記樣本的數(shù)量,設(shè)置m?l和n?p.所提出的半監(jiān)督歸納遷移學(xué)習(xí)的目標(biāo)是利用L=[DSL,DTL]和U=[DSU,DTU]在目標(biāo)域上學(xué)習(xí)一個(gè)函數(shù)f:X→Y,使得f能正確預(yù)測(cè)DTest中樣本的類別標(biāo)記.為簡(jiǎn)潔起見,本文使用L[0]和L[1]分別表示DSL和DTL,使用U[0]和U[1]分別表示DSU和DTU.

    在Co-Transfer 中,需訓(xùn)練2 個(gè)集成分類器H0=和H1=.初始時(shí),H0中的每個(gè)組件分類器使用目標(biāo)域與源域的原有標(biāo)記樣本的有放回抽樣來訓(xùn)練,采用TrAdaBoost 算法實(shí)現(xiàn)從目標(biāo)域到源域的遷移學(xué)習(xí).相對(duì)應(yīng)地,H1中的每個(gè)組件分類器也使用源域與目標(biāo)域的原有標(biāo)記樣本的有放回抽樣來訓(xùn)練,采用TrAdaBoost 算法實(shí)現(xiàn)從源域到目標(biāo)域的遷移學(xué)習(xí).抽樣策略能保持H0和H1各自的組件分類器之間的多樣性.像這樣的源域和目標(biāo)域之間的雙向同步遷移學(xué)習(xí)會(huì)迭代很多輪,在每一輪中使用各自新增的偽標(biāo)記樣本分別對(duì)H0和H1中每個(gè)組件分類器進(jìn)行更新.由于Co-Transfer 在源域和目標(biāo)域之間實(shí)施雙向同步遷移學(xué)習(xí),本文將原本的源域和目標(biāo)域分別稱為原始源域和原始目標(biāo)域.在從原始源域到原始目標(biāo)域的遷移學(xué)習(xí)中,原始源域仍然是源域,原始目標(biāo)域仍然是目標(biāo)域;而在從原始目標(biāo)域到原始源域的遷移學(xué)習(xí)中,原始目標(biāo)域被當(dāng)成源域,原始源域則被當(dāng)成目標(biāo)域.

    算法1.Co-Transfer 算法.

    更詳細(xì)地,在Co-Transfer 的每一輪雙向同步遷移學(xué)習(xí)中,將集成分類器Hd(d∈{0,1},d=0對(duì)應(yīng)原始源域,而d=1對(duì)應(yīng)原始目標(biāo)域)的組件分類器(i∈{1,2,3})作為初始分類器,使用Tri-training 方式從U[d]中選擇樣本打上標(biāo)記.具體做法是:若其他2 個(gè)組件分類器(j≠k≠i)對(duì)未標(biāo)記樣本給出的類別標(biāo)記相同,則該未標(biāo)記樣本才會(huì)被標(biāo)記,將該偽標(biāo)記樣本添加到數(shù)據(jù)集(i∈{1,2,3}).另外,若集成分類器Hd(d∈{0,1})中的3 個(gè)組件分類器對(duì)未標(biāo)記樣本都給出了相同標(biāo)記,則該未標(biāo)記樣本會(huì)被選中作為偽標(biāo)記樣本而添加到數(shù)據(jù)集Ld.然后,將Ld與原始標(biāo)記樣本L[d]合并作為新的源域數(shù)據(jù),再將(i∈{1,2,3})分別與L[(d+1)%2]合并作為新的目標(biāo)域數(shù)據(jù).最后,利用TrAdaBoost 算法進(jìn)行訓(xùn)練,以實(shí)現(xiàn)從源域到目標(biāo)域的遷移學(xué)習(xí),而得到由新的組件分類器(i∈{1,2,3})構(gòu)成的集成分類器H(d+1)%2.值得注意的是:由Hd和Hid選擇的所有未標(biāo)記樣本都不會(huì)從U[d]中刪除.因此,它們可能會(huì)在接下來的迭代中被再次選中.d=0和d=1所對(duì)應(yīng)的2 個(gè)遷移學(xué)習(xí)過程被同步執(zhí)行.當(dāng)Hd(d∈{0,1})中的每個(gè)組件分類器都不再被重新訓(xùn)練時(shí),迭代結(jié)束,將最終得到的H1作為原始目標(biāo)域上的分類器.

    第1 種情況是如何選擇U[d]中未標(biāo)記樣本作為目標(biāo)域樣本以重新訓(xùn)練(i∈{1,2,3}).令和表示在第t輪和第t-1 輪迭代中使用Tri-training 方式從U[d]中選擇可打標(biāo)記的樣本,大小分別為和和分別表示在第t輪和第t-1 輪迭代中的分類錯(cuò)誤率的上界.因此,根據(jù)Zhou等人[18]提出的理論,需滿足約束:

    第2 種情況是如何選擇U[(d+1)%2]中未標(biāo)記的樣本作為源域樣本以重新訓(xùn)練(i∈{1,2,3}).令Ld,t和Ld,t-1分別表示在第t輪和第t-1輪迭代中從U[d]中選擇可打標(biāo)記的樣本,其大小分別為和ed,t和ed,t-1分別表示Hd在第t輪迭代和第t-1 輪迭代中的分類錯(cuò)誤率的上界.因此,同樣根據(jù)Zhou 等人[18]提出的理論,需滿足約束:

    第2 種情況引入的約束使得標(biāo)記更可靠的偽標(biāo)記樣本加入源域,使源域數(shù)據(jù)分布更接近真實(shí)數(shù)據(jù)分布,進(jìn)而導(dǎo)致更可靠的偽標(biāo)記樣本添加到目標(biāo)域中,這對(duì)于Co-Transfer 中的迭代過程非常重要.

    采用決策樹作為組件分類器的Co-Transfer 算法偽代碼在算法1 中給出,其中參數(shù)N為TrAdaBoost的迭代次數(shù).行⑤~⑦表示分別從L[(d+1)%2]和L[d]通過函數(shù)Bootstrap抽樣而得到和.將和分別作為源域和目標(biāo)域數(shù)據(jù),用TrAdaBoost學(xué)習(xí)得到初始的集成分類器.在行?中,函數(shù)MeasureEnsemble-Error用于估計(jì)集成分類器Hd的分類錯(cuò)誤率.在行?中,函數(shù)MeasureClassifierError則用于估計(jì)=的分類錯(cuò)誤率.這2 個(gè)錯(cuò)誤率都是在原有標(biāo)記數(shù)據(jù)集L[d]上估計(jì)的.詳細(xì)來說,估算Hd的錯(cuò)誤率是通過將Hd的3 個(gè)組件分類器(i∈{1,2,3})預(yù)測(cè)一致但分錯(cuò)的標(biāo)記樣本數(shù)與預(yù)測(cè)一致的標(biāo)記樣本數(shù)之比來近似得到.類似地,的錯(cuò)誤率是通過將預(yù)測(cè)一致但被分錯(cuò)的標(biāo)記樣本數(shù)與預(yù)測(cè)一致的標(biāo)記樣本數(shù)之比來近似估算.在行?中,函數(shù)PseudoLabel是從U[d]中選擇和給出相同標(biāo)記的樣本打上偽標(biāo)記.在行?中,函數(shù)S creenPseudoLabel是從中選擇出偽標(biāo)記相同的樣本.函數(shù)S ubsample(S,t)從S中隨機(jī)刪除t個(gè)樣本.行使用新的源域數(shù)據(jù)和目標(biāo)域數(shù)據(jù)來重新訓(xùn)練Hd的每個(gè)組件分類器.圖1 中的數(shù)據(jù)流圖描述了Co-Transfer 的訓(xùn)練過程.

    Fig.1 Data flow diagram of Co-Transfer training process圖1 Co-Transfer 訓(xùn)練過程的數(shù)據(jù)流圖

    3 實(shí) 驗(yàn)

    3.1 數(shù)據(jù)集

    本文使用遷移學(xué)習(xí)研究[17,28]中常用的4 個(gè)UCI數(shù)據(jù)集和文本分類數(shù)據(jù)集Reuters 進(jìn)行實(shí)驗(yàn).這些數(shù)據(jù)集都已被證明原始源域能有效地助力原始目標(biāo)域的學(xué)習(xí).表1 羅列了這些數(shù)據(jù)集的詳細(xì)信息.

    Table 1 Experimental Data Sets表1 實(shí)驗(yàn)數(shù)據(jù)集

    3.2 實(shí)驗(yàn)設(shè)置

    對(duì)于表1 中每個(gè)數(shù)據(jù)集的目標(biāo)域數(shù)據(jù)使用5 折交叉驗(yàn)證進(jìn)行分類錯(cuò)誤率評(píng)價(jià).在每折交叉驗(yàn)證中,將目標(biāo)域中的樣本劃分為目標(biāo)域訓(xùn)練數(shù)據(jù)集DT和測(cè)試數(shù)據(jù)集DTest,而將源域中的全部樣本當(dāng)作訓(xùn)練數(shù)據(jù)集DS.再根據(jù)預(yù)設(shè)的有標(biāo)記樣本比,隨機(jī)從源域訓(xùn)練數(shù)據(jù)集DS和目標(biāo)域訓(xùn)練數(shù)據(jù)集DT中挑選樣本構(gòu)成標(biāo)記樣本集DSL和DTL,剩余的樣本構(gòu)成未標(biāo)記樣本集DSU和DTU.為增加樣本標(biāo)記的隨機(jī)性,在每折交叉驗(yàn)證中,重復(fù)2 次對(duì)源域訓(xùn)練數(shù)據(jù)集DS隨機(jī)劃分為DSL和DSU,重復(fù)3 次對(duì)目標(biāo)域訓(xùn)練數(shù)據(jù)集DT隨機(jī)劃分為DTL和DTU.因此,最終的錯(cuò)誤率是30(5× 6)次測(cè)試結(jié)果的平均值.

    為評(píng)測(cè)與分析Co-Transfer 是否可以有效學(xué)習(xí)源域和目標(biāo)域中的標(biāo)記樣本與未標(biāo)記樣本,引入7 個(gè)算法進(jìn)行對(duì)比,包括決策樹(decision tree, DT)、TrAda-Boost、Tri-training、TrAdaBoostA、Co-TransferS、TrAda-BoostS、Co-TransferT.

    對(duì)于應(yīng)用型本科院校而言,教師專業(yè)化就是指根據(jù)社會(huì)對(duì)應(yīng)用型人才的需求,教師遵循應(yīng)用型特征的教育教學(xué)規(guī)律,特別注重專業(yè)實(shí)踐能力。教師專業(yè)化發(fā)展強(qiáng)調(diào)教師的終身學(xué)習(xí)和終身成長(zhǎng),包括職前培養(yǎng)、新任教師培養(yǎng)和在職培訓(xùn),在教師的整個(gè)專業(yè)生涯中,通過學(xué)習(xí)和專業(yè)訓(xùn)練,提高專業(yè)素養(yǎng)、專業(yè)實(shí)踐能力和個(gè)人職業(yè)道德等,促進(jìn)教師從新手到熟手,從熟手到專家。

    算法DT 表示僅在DTL上訓(xùn)練決策樹對(duì)測(cè)試數(shù)據(jù)進(jìn)行分類;算法TrAdaBoost 表示在DSL和DTL上使用TrAdaBoost 方法訓(xùn)練分類器對(duì)測(cè)試數(shù)據(jù)進(jìn)行分類;算法Tri-training 表示在DTL和DTU上使用Tri-training方法訓(xùn)練分類器對(duì)測(cè)試數(shù)據(jù)進(jìn)行分類;算法TrAdaBoostA表示在將DS和DT中的全部樣本打上標(biāo)記再使用TrAdaBoost 方法訓(xùn)練分類器對(duì)測(cè)試數(shù)據(jù)進(jìn)行分類;算法Co-TransferS表示采用Co-Transfer 的框架進(jìn)行學(xué)習(xí),但在迭代過程中目標(biāo)域的樣本只使用DTL,也就是說在雙向迭代過程中不會(huì)在DTL的基礎(chǔ)上再增加偽標(biāo)記樣本;算法TrAdaBoostS表示將DS中的全部樣本打上標(biāo)記和DTL使用TrAdaBoost 方法訓(xùn)練分類器對(duì)測(cè)試數(shù)據(jù)進(jìn)行分類;算法Co-TransferT則表示采用Co-Transfer 的框架進(jìn)行學(xué)習(xí),但在迭代過程中源域樣本只使用DSL,也就是說在雙向迭代過程中不會(huì)在DSL的基礎(chǔ)上再增加偽標(biāo)記樣本.表2 列出了Co-Transfer 和各對(duì)比算法的樣本使用策略.

    Table 2 Data Strategy Used by the Algorithms表2 各算法的數(shù)據(jù)使用策略

    由表2 可知:當(dāng)原始源域到原始目標(biāo)域能實(shí)現(xiàn)正遷移時(shí),DT 的分類錯(cuò)誤率應(yīng)該最高,TrAdaBoostA的分類錯(cuò)誤率則應(yīng)該最低.與Co-Transfer 相比較,Co-TransferS不使用DTU,而 Co-TransferT不使用DSU.TrAdaBoost 則既不使用DSU,也不使用DTU.因此,將Co-Transfer 分別與 TrAdaBoost,Co-TransferS,Co-TransferT相比較,可觀察Co-Transfer 是否可以有效地從原始源域和原始目標(biāo)域的未標(biāo)記樣本中學(xué)習(xí).與TrAdaBoost 相比,TrAdaBoostS多用了DSU,因此,將TrAdaBoostS與TrAdaBoost 對(duì)比可知利用DSU能否輔助原始目標(biāo)域?qū)W習(xí)得更好.

    本文使用標(biāo)準(zhǔn)t 統(tǒng)計(jì)檢驗(yàn)檢查Co-Transfer 和每個(gè)對(duì)比算法的泛化能力的區(qū)別是否具有95%置信度的顯著性.

    各算法的參數(shù)設(shè)置:對(duì)于Tri-training,使用C4.5決策樹作為組件分類器并且不做剪枝處理;而對(duì)于TrAdaBoost,TrAdaBoostA,Co-TransferS,TrAdaBoostS,Co-TransferT,Co-Transfer,使用相同的參數(shù),即對(duì)于數(shù)據(jù)集Mushroom 設(shè)置迭代次數(shù)N=10,樹的深度D=10;對(duì)于數(shù)據(jù)集Waveform 設(shè)置N=65,D=4;對(duì)于數(shù)據(jù)集Magic 設(shè)置N=35,D=20;對(duì)于數(shù)據(jù)集Splice 設(shè)置N=15,D=50;對(duì)于數(shù)據(jù)集Orgs vs People 設(shè)置N=50,D=5;對(duì)于數(shù)據(jù)集Orgs vs Places 設(shè)置N=20,D=4;對(duì)于數(shù)據(jù)集People vs Places 設(shè)置N=50,D=3.

    3.3 實(shí)驗(yàn)結(jié)果和分析

    表3~6 顯示,當(dāng)原始源域和原始目標(biāo)域的標(biāo)記比率相同時(shí),不同標(biāo)記比率下Co-Transfer 和所有對(duì)比算法在原始目標(biāo)域測(cè)試集上的分類錯(cuò)誤率.從表3~6可以觀察到:在各種標(biāo)記比率條件下,DT 的分類錯(cuò)誤率最高.當(dāng)標(biāo)記比率為10%和20%時(shí),TrAdaBoostA顯然要比Co-Transfer 的泛化能力強(qiáng);而當(dāng)標(biāo)記比率為40%和50%時(shí),TrAdaBoostA與Co-Transfer 的泛化能力則變得相當(dāng);在各種標(biāo)記比率條件下,Co-Transfer 的泛化能力比TrAdaBoost,Tri-training,Co-TransferS的泛化能力都要好,這說明Co-Transfer 能有效利用源域的標(biāo)記樣本和目標(biāo)域的未標(biāo)記樣本.

    Table 3 Error Rates of the Comparative Algorithms Under the Label Rate 10% of Original Source Domain and Target Domain表3 在原始源域與原始目標(biāo)域標(biāo)記比率均為10%下所對(duì)比算法的錯(cuò)誤率

    從表3~6 還可以觀察到:Co-Transfer 的泛化能力不比Co-TransferT弱.為分析Co-Transfer 能否有效利用原始源域的未標(biāo)記樣本DSU,我們將TrAdaBoostS與TrAdaBoost 進(jìn)行了比較,結(jié)果如表7 所示.從表7 中可以觀察到:1)標(biāo)記比率超過20%后,提升標(biāo)記比率不太可能會(huì)帶來TrAdaBoostS的泛化能力的顯著提升;2)在各種標(biāo)記比率下,對(duì)于數(shù)據(jù)集Mushroom,Waveform,Magic,TrAdaBoostS與TrAdaBoost 在原始目標(biāo)域上的泛化能力沒有顯著區(qū)別;3)對(duì)于數(shù)據(jù)集Splice,Orgs vs People,Orgs vs Places,People vs Places,增加源域的標(biāo)記樣本數(shù)量可能得到正向遷移的效果.再結(jié)合表3~6 可知:Co-Transfer 能否有效利用原始源域的未標(biāo)記樣本應(yīng)該與數(shù)據(jù)集的自身特性相關(guān).

    為更深入觀察Co-Transfer 的學(xué)習(xí)過程,我們平均不同標(biāo)記比率下各種對(duì)比算法在文本分類數(shù)據(jù)集上每輪迭代的分類錯(cuò)誤率.圖2 描述了各算法從初始迭代到最終迭代的平均錯(cuò)誤率的變化.需要解釋的是:1)在與Co-Transfer 對(duì)比的算法中,僅有Tritraining,Co-TransferS,Co-TransferT使用了無標(biāo)記樣本,其他算法都只使用標(biāo)記樣本;2)當(dāng)一個(gè)算法提前終止了,我們保持其錯(cuò)誤率補(bǔ)齊了數(shù)據(jù).從圖2 中可以觀察到:1)不使用無標(biāo)記樣本的算法無迭代過程,僅有最終分類錯(cuò)誤率,DT 錯(cuò)誤率最高,其次是TrAdaBoost 和TrAdaBoostS,最后是TrAdaBoostA;2)初始迭代時(shí),Co-Transfer,Co-TransferS,Co-TransferT的平均分類錯(cuò)誤率幾乎相同但略微低于Tri-training,隨著迭代不斷進(jìn)行,Co-Transfer 的平均分類錯(cuò)誤率不斷降低,并快速收斂.

    Fig.2 Error rates of the comparative algorithms during their iteration on the text classification tasks圖2 文本分類任務(wù)上各對(duì)比算法在迭代過程中的錯(cuò)誤率

    此外,還觀察了原始源域的標(biāo)記比率要高于原始目標(biāo)域的標(biāo)記比率這一情況.表8 和表9 顯示原始源域標(biāo)記比率為50%,而原始目標(biāo)域的標(biāo)記比率分別為10%和20%時(shí),Co-Transfer 與各對(duì)比算法的分類錯(cuò)誤率.可以觀察到:DT 的分類錯(cuò)誤率最高;TrAdaBoostA顯然要比Co-Transfer 的泛化能力強(qiáng);在各種標(biāo)記比率條件下,Co-Transfer 的泛化能力比TrAda Boost,Tri-training,Co-TransferS的泛化能力都要好.這說明:在原始源域的標(biāo)記比率比原始目標(biāo)域的標(biāo)記比率高時(shí),Co-Transfer 還能有效地利用原始源域的標(biāo)記樣本和原始目標(biāo)域的未標(biāo)記樣本.

    Table 8 Error Rates of the Comparative Algorithms Under the Label Rate 50% of the Original Source Domain and 10% of the Original Target Domain表8 在原始源域標(biāo)記比率為50%、原始目標(biāo)域標(biāo)記比率為10%下所有對(duì)比算法的錯(cuò)誤率

    從表8 和表9 中還可觀察到:Co-Transfer 的泛化能力不比Co-TransferT弱.為分析Co-Transfer 能否有效利用原始源域的未標(biāo)記樣本DSU,同樣將TrAdaBoostS與TrAdaBoost 進(jìn)行比較,結(jié)果如表10 所示.可以觀察到:當(dāng)原始源域標(biāo)記比率較高時(shí),增加原始源域標(biāo)記樣本的數(shù)量很可能不帶來原始目標(biāo)域分類錯(cuò)誤率的顯著下降.因此,表8~10 中暫不能解釋Co-Transfer的泛化能力不比Co-TransferT弱.

    Table 10 Error Rates of TrAdaBoost and TrAdaBoostS Under the Label Rate 50% of the Original Source Domain and 10% and 20% of the Original Target Domain, Respectively表10 在原始源域標(biāo)記比率為50%、原始目標(biāo)域標(biāo)記比率分別為10%和20%下TrAdaBoost 與TrAdaBoostS 的錯(cuò)誤率

    綜合表3~10 中實(shí)驗(yàn)結(jié)果,可以進(jìn)一步推測(cè):原始源域和原始目標(biāo)域的標(biāo)記比率的同步提升對(duì)于Co-Transfer 的學(xué)習(xí)過程的影響比較復(fù)雜.這是因?yàn)椋簝H增加源域標(biāo)記樣本數(shù)量并不一定總能提升遷移學(xué)習(xí)的效果;目標(biāo)域標(biāo)記樣本數(shù)量的增加會(huì)掩蓋源域標(biāo)記樣本帶來的正向遷移.因此,在Co-Transfer 的學(xué)習(xí)過程中,源域和目標(biāo)域很可能存在一個(gè)博弈過程.

    當(dāng)Co-Transfer 的分類器采用決策樹時(shí),考慮到?jīng)Q策樹的深度D和TrAdaBoost 的迭代次數(shù)N可能會(huì)影響Co-Transfer 的泛化能力.因此,在文本分類數(shù)據(jù)集上進(jìn)一步研究了樹的深度D和迭代次數(shù)N對(duì)Co-Transfer 泛化能力的影響.圖3 描述了將不同的標(biāo)記比率條件下的分類錯(cuò)誤率平均后Co-Transfer 的變化曲線.從中可以觀察到:在文本分類數(shù)據(jù)集上,參數(shù)N和D對(duì)Co-Transfer 算法分類錯(cuò)誤率有較大影響.當(dāng)固定D時(shí),隨著N的增大Co-Transfer 的分類錯(cuò)誤率越來越低;然而當(dāng)N較小時(shí),Co-Transfer 的分類錯(cuò)誤率隨參數(shù)D的變化較大;隨著N的增加,Co-Transfer的分類錯(cuò)誤率對(duì)參數(shù)D的敏感性變小.

    Fig.3 Error rates of Co-Transfer with different N and D圖3 不同N 和D 條件下Co-Transfer 的錯(cuò)誤率

    4 結(jié) 論

    本文提出了一種半監(jiān)督歸納遷移學(xué)習(xí)框架——Co-Transfer.在4 個(gè)UCI 和文本分類任務(wù)數(shù)據(jù)集上與7 個(gè)算法的對(duì)比實(shí)驗(yàn)表明:Co-Transfer 的這種雙向同步遷移的機(jī)制可以有效地學(xué)習(xí)源域和目標(biāo)域的標(biāo)記和未標(biāo)記樣本來提升泛化性能.我們未來的工作包括:使用多種類型的組件分類器來評(píng)測(cè)Co-Transfer的分類性能,如神經(jīng)網(wǎng)絡(luò)、樸素貝葉斯等;源域和目標(biāo)域之間的雙向可遷移性對(duì)Co-Transfer 的影響.此外,還應(yīng)該使用更多的數(shù)據(jù)集,尤其是實(shí)際應(yīng)用中的數(shù)據(jù)集來評(píng)測(cè)Co-Transfer 的泛化能力.本文偽代碼可以從 https://gitee.com/ymw12345/co-transfer.git 下載.

    作者貢獻(xiàn)聲明:文益民負(fù)責(zé)算法研討、算法設(shè)計(jì)及論文修改;員喆負(fù)責(zé)算法設(shè)計(jì)、論文初稿撰寫及論文修改;余航參與算法研討、論文修改.

    猜你喜歡
    分類監(jiān)督
    分類算一算
    垃圾分類的困惑你有嗎
    大眾健康(2021年6期)2021-06-08 19:30:06
    突出“四個(gè)注重” 預(yù)算監(jiān)督顯實(shí)效
    分類討論求坐標(biāo)
    數(shù)據(jù)分析中的分類討論
    教你一招:數(shù)的分類
    監(jiān)督見成效 舊貌換新顏
    夯實(shí)監(jiān)督之基
    給塑料分分類吧
    績(jī)效監(jiān)督:從“管住”到“管好”
    浙江人大(2014年5期)2014-03-20 16:20:28
    av福利片在线观看| 啦啦啦观看免费观看视频高清| 干丝袜人妻中文字幕| 成人二区视频| 男人狂女人下面高潮的视频| 一级黄片播放器| 人妻系列 视频| 亚洲一区高清亚洲精品| 如何舔出高潮| 久久久久久久久久久丰满| 亚洲天堂国产精品一区在线| 午夜精品一区二区三区免费看| 丝袜喷水一区| 啦啦啦韩国在线观看视频| 成人午夜精彩视频在线观看| 亚洲av中文字字幕乱码综合| 久久久久免费精品人妻一区二区| 搞女人的毛片| 人人妻人人澡人人爽人人夜夜 | 狂野欧美激情性xxxx在线观看| 日韩强制内射视频| 嫩草影院新地址| 两个人视频免费观看高清| 欧美成人a在线观看| 一本久久精品| 亚洲欧美中文字幕日韩二区| 国产中年淑女户外野战色| 久久精品国产99精品国产亚洲性色| 精品日产1卡2卡| 国产综合懂色| av专区在线播放| 午夜精品一区二区三区免费看| 伦理电影大哥的女人| 国内少妇人妻偷人精品xxx网站| 日韩欧美精品v在线| 久久精品夜夜夜夜夜久久蜜豆| 国内揄拍国产精品人妻在线| 色吧在线观看| 色哟哟·www| 亚洲最大成人av| 亚洲国产精品成人综合色| 午夜免费激情av| 国产精品一区www在线观看| a级毛色黄片| 国产单亲对白刺激| 亚洲国产精品国产精品| 午夜精品一区二区三区免费看| 在线播放无遮挡| 少妇高潮的动态图| 日本黄色视频三级网站网址| 男的添女的下面高潮视频| 91aial.com中文字幕在线观看| 婷婷六月久久综合丁香| 波多野结衣高清作品| 乱人视频在线观看| 欧美成人a在线观看| 亚洲四区av| 青春草国产在线视频 | 亚洲最大成人中文| 在线观看免费视频日本深夜| 1000部很黄的大片| 久久99精品国语久久久| 亚洲欧美成人综合另类久久久 | 美女xxoo啪啪120秒动态图| 毛片一级片免费看久久久久| av女优亚洲男人天堂| 蜜桃亚洲精品一区二区三区| 乱码一卡2卡4卡精品| 国产在线男女| 国产精品.久久久| 日本黄大片高清| av在线观看视频网站免费| 亚洲欧美成人综合另类久久久 | 国产黄色小视频在线观看| 国产成人a∨麻豆精品| 国产成人影院久久av| 亚洲欧美中文字幕日韩二区| 成人二区视频| 久久久精品大字幕| 成人永久免费在线观看视频| 欧美最新免费一区二区三区| 欧美一区二区精品小视频在线| 免费观看a级毛片全部| 免费电影在线观看免费观看| 综合色av麻豆| 性插视频无遮挡在线免费观看| 国产片特级美女逼逼视频| 又爽又黄无遮挡网站| 最近最新中文字幕大全电影3| 99久久精品一区二区三区| 久久久久国产网址| 身体一侧抽搐| 日本色播在线视频| 国产成年人精品一区二区| 欧美一区二区亚洲| 亚洲va在线va天堂va国产| 亚洲欧美日韩高清专用| 麻豆乱淫一区二区| 中文字幕人妻熟人妻熟丝袜美| 在线国产一区二区在线| 黄色日韩在线| 狂野欧美白嫩少妇大欣赏| 欧美成人免费av一区二区三区| 精品国内亚洲2022精品成人| 日韩,欧美,国产一区二区三区 | 亚洲精品乱码久久久久久按摩| 日韩精品有码人妻一区| 亚洲精品粉嫩美女一区| 日韩av在线大香蕉| 精品无人区乱码1区二区| 老师上课跳d突然被开到最大视频| 18+在线观看网站| 人人妻人人澡人人爽人人夜夜 | 51国产日韩欧美| 久久精品国产鲁丝片午夜精品| av专区在线播放| 国产精品1区2区在线观看.| 亚洲精品日韩在线中文字幕 | 老女人水多毛片| 亚洲在久久综合| ponron亚洲| 久久精品国产清高在天天线| 免费大片18禁| 可以在线观看的亚洲视频| 国产乱人偷精品视频| 久久久久久久久久成人| 成人毛片a级毛片在线播放| 亚洲美女视频黄频| 最近视频中文字幕2019在线8| 一本一本综合久久| 色尼玛亚洲综合影院| 中文资源天堂在线| 亚洲中文字幕一区二区三区有码在线看| 哪个播放器可以免费观看大片| 床上黄色一级片| videossex国产| 久久久国产成人精品二区| 欧美最黄视频在线播放免费| h日本视频在线播放| 亚洲真实伦在线观看| 深夜精品福利| 亚洲国产精品成人综合色| 久久99热6这里只有精品| 天堂网av新在线| 国产白丝娇喘喷水9色精品| 国产极品天堂在线| 我的女老师完整版在线观看| 天美传媒精品一区二区| 日韩 亚洲 欧美在线| 天堂网av新在线| 国产老妇女一区| 3wmmmm亚洲av在线观看| 噜噜噜噜噜久久久久久91| 精品一区二区三区视频在线| 99久久人妻综合| 看免费成人av毛片| 男的添女的下面高潮视频| 亚洲精品色激情综合| 夜夜爽天天搞| 亚洲精品456在线播放app| 欧美变态另类bdsm刘玥| 插逼视频在线观看| 亚洲精品成人久久久久久| 国产精品人妻久久久影院| 欧美成人a在线观看| 亚洲欧美精品综合久久99| 国产精品不卡视频一区二区| 国产一级毛片七仙女欲春2| 久久精品国产自在天天线| 一级二级三级毛片免费看| 在线免费十八禁| 老女人水多毛片| 伦理电影大哥的女人| 亚洲成人中文字幕在线播放| 一级二级三级毛片免费看| 久99久视频精品免费| 亚洲美女搞黄在线观看| 久久久久免费精品人妻一区二区| 大型黄色视频在线免费观看| 国产一区亚洲一区在线观看| 日韩av在线大香蕉| 晚上一个人看的免费电影| 国产精品99久久久久久久久| 亚洲av中文av极速乱| 99在线人妻在线中文字幕| 好男人视频免费观看在线| 欧美成人免费av一区二区三区| 久久久久久久久久成人| 2021天堂中文幕一二区在线观| 久久人人爽人人爽人人片va| 丝袜美腿在线中文| 欧美xxxx性猛交bbbb| 精品久久久久久久久久久久久| 亚洲国产精品合色在线| 午夜福利在线在线| 国产成年人精品一区二区| 一级毛片电影观看 | 国产一区二区亚洲精品在线观看| 美女cb高潮喷水在线观看| 亚洲图色成人| 色综合色国产| 精华霜和精华液先用哪个| 一个人免费在线观看电影| 久久精品久久久久久久性| 免费av观看视频| 日韩人妻高清精品专区| 亚洲国产欧美人成| 国产精品美女特级片免费视频播放器| 国产色爽女视频免费观看| 高清午夜精品一区二区三区 | 男女视频在线观看网站免费| 免费看美女性在线毛片视频| 国产精华一区二区三区| 久久久色成人| 十八禁国产超污无遮挡网站| 日韩一区二区视频免费看| 欧美性猛交╳xxx乱大交人| 听说在线观看完整版免费高清| 最近的中文字幕免费完整| 联通29元200g的流量卡| 九草在线视频观看| 久久精品久久久久久噜噜老黄 | 99国产精品一区二区蜜桃av| 亚洲人成网站在线播| 亚洲av二区三区四区| avwww免费| 国产精品久久久久久av不卡| 亚洲av电影不卡..在线观看| 99久久九九国产精品国产免费| 热99在线观看视频| 成人无遮挡网站| 中文在线观看免费www的网站| 国产精品久久久久久久电影| 菩萨蛮人人尽说江南好唐韦庄 | 国产精品日韩av在线免费观看| 在线免费观看不下载黄p国产| 中国美白少妇内射xxxbb| 2021天堂中文幕一二区在线观| 日本av手机在线免费观看| 99久国产av精品| 亚洲,欧美,日韩| 亚洲精品乱码久久久久久按摩| 国产成人福利小说| 在现免费观看毛片| 男女那种视频在线观看| 欧美日韩综合久久久久久| 亚洲欧洲国产日韩| 亚洲婷婷狠狠爱综合网| 久久人妻av系列| 日韩,欧美,国产一区二区三区 | 久久久久久久久久黄片| 99久久精品国产国产毛片| 日韩大尺度精品在线看网址| 精品一区二区三区人妻视频| 国产一区二区激情短视频| 非洲黑人性xxxx精品又粗又长| 欧美+日韩+精品| 日本色播在线视频| 欧美成人一区二区免费高清观看| av在线老鸭窝| 午夜福利高清视频| 亚洲国产欧美人成| 热99re8久久精品国产| 国产精品人妻久久久久久| 久久欧美精品欧美久久欧美| 我要搜黄色片| 99热6这里只有精品| 国产精品人妻久久久久久| av免费观看日本| 国产精品精品国产色婷婷| 非洲黑人性xxxx精品又粗又长| 国产成人一区二区在线| 免费看a级黄色片| 午夜亚洲福利在线播放| 国产精品久久久久久久久免| 黄色日韩在线| 国产高清视频在线观看网站| 乱系列少妇在线播放| 国产成人午夜福利电影在线观看| 国产精品久久久久久亚洲av鲁大| 日本免费a在线| 一卡2卡三卡四卡精品乱码亚洲| 成人亚洲欧美一区二区av| 国产精品一区二区三区四区久久| 乱系列少妇在线播放| 国产午夜精品论理片| 日本五十路高清| 一级二级三级毛片免费看| 中文字幕制服av| 高清午夜精品一区二区三区 | 99热精品在线国产| 日本五十路高清| 69av精品久久久久久| 日韩欧美国产在线观看| 欧美精品一区二区大全| 成人漫画全彩无遮挡| 成人亚洲精品av一区二区| 美女脱内裤让男人舔精品视频 | 国产视频内射| 久久久久国产网址| 免费不卡的大黄色大毛片视频在线观看 | 如何舔出高潮| 插逼视频在线观看| 久久久精品94久久精品| 欧美丝袜亚洲另类| 黄色一级大片看看| 国产精品一及| 亚洲人与动物交配视频| 国产探花极品一区二区| 亚洲av男天堂| 最近2019中文字幕mv第一页| 成人欧美大片| 国产高清不卡午夜福利| 长腿黑丝高跟| 国产视频内射| .国产精品久久| 有码 亚洲区| 99久国产av精品| 欧美日韩一区二区视频在线观看视频在线 | ponron亚洲| 国产黄色小视频在线观看| 国产在视频线在精品| 日本免费一区二区三区高清不卡| 超碰av人人做人人爽久久| 亚洲久久久久久中文字幕| 你懂的网址亚洲精品在线观看 | 亚洲七黄色美女视频| 观看免费一级毛片| 久久人人精品亚洲av| 性色avwww在线观看| 免费av观看视频| 91麻豆精品激情在线观看国产| 亚洲成人久久爱视频| 国产毛片a区久久久久| 亚洲熟妇中文字幕五十中出| 麻豆av噜噜一区二区三区| 欧美人与善性xxx| 国产伦精品一区二区三区视频9| 在线免费十八禁| 久久久精品大字幕| 不卡一级毛片| 一夜夜www| 我要看日韩黄色一级片| 亚洲久久久久久中文字幕| 国产高潮美女av| 亚洲欧美日韩卡通动漫| 大又大粗又爽又黄少妇毛片口| 深夜a级毛片| 亚洲最大成人手机在线| 欧美人与善性xxx| 亚洲av免费在线观看| 色视频www国产| 亚洲成人av在线免费| 综合色av麻豆| 级片在线观看| 久久99精品国语久久久| 午夜免费激情av| 国产成人一区二区在线| 免费不卡的大黄色大毛片视频在线观看 | 日本-黄色视频高清免费观看| 成人漫画全彩无遮挡| 久久人妻av系列| 欧美日韩在线观看h| 亚洲四区av| 少妇熟女aⅴ在线视频| 国产精品一区二区三区四区久久| 久久草成人影院| 国产女主播在线喷水免费视频网站 | kizo精华| 免费电影在线观看免费观看| 麻豆av噜噜一区二区三区| 欧美三级亚洲精品| 免费看美女性在线毛片视频| 亚洲在线自拍视频| 91av网一区二区| 精品欧美国产一区二区三| 亚洲最大成人中文| 亚洲国产欧美人成| 国产亚洲av片在线观看秒播厂 | 热99re8久久精品国产| 在线观看66精品国产| 99九九线精品视频在线观看视频| 中文在线观看免费www的网站| 国产三级在线视频| 99久国产av精品国产电影| 亚洲国产精品合色在线| 久久精品综合一区二区三区| 天堂影院成人在线观看| 久久精品91蜜桃| 久久久久久大精品| 国内久久婷婷六月综合欲色啪| 国产乱人视频| 在现免费观看毛片| 日韩一本色道免费dvd| 午夜激情福利司机影院| 成人三级黄色视频| 欧美另类亚洲清纯唯美| 亚洲综合色惰| 国产精品麻豆人妻色哟哟久久 | 国产一区二区在线观看日韩| 午夜精品国产一区二区电影 | 1024手机看黄色片| 国产精品乱码一区二三区的特点| 亚洲av免费在线观看| 亚洲欧美精品综合久久99| 亚洲精品亚洲一区二区| 性色avwww在线观看| 欧美日本视频| 久久久久久伊人网av| 久久精品久久久久久久性| av天堂在线播放| 国产视频内射| 少妇丰满av| 久久精品国产鲁丝片午夜精品| 久久精品国产清高在天天线| 国产探花在线观看一区二区| 九九热线精品视视频播放| 在线国产一区二区在线| 观看美女的网站| 免费av观看视频| 亚洲av成人av| 性欧美人与动物交配| 亚洲人成网站在线播放欧美日韩| 中文字幕熟女人妻在线| 亚洲第一电影网av| 少妇人妻一区二区三区视频| 秋霞在线观看毛片| 男女啪啪激烈高潮av片| 国产精品伦人一区二区| www.色视频.com| 十八禁国产超污无遮挡网站| 国产精品日韩av在线免费观看| 在线播放无遮挡| av在线播放精品| 成年版毛片免费区| 国产精华一区二区三区| 亚洲精品亚洲一区二区| 女的被弄到高潮叫床怎么办| 国内揄拍国产精品人妻在线| 99久久成人亚洲精品观看| 久久中文看片网| 大又大粗又爽又黄少妇毛片口| 九九热线精品视视频播放| 内射极品少妇av片p| 夜夜爽天天搞| 精品一区二区三区人妻视频| 精品人妻熟女av久视频| 欧美区成人在线视频| 99久久无色码亚洲精品果冻| 亚洲在久久综合| 久久久精品欧美日韩精品| 国内精品久久久久精免费| 日日撸夜夜添| 亚洲三级黄色毛片| 18禁在线播放成人免费| 波野结衣二区三区在线| av女优亚洲男人天堂| 蜜臀久久99精品久久宅男| 成熟少妇高潮喷水视频| 日韩三级伦理在线观看| 国产亚洲精品av在线| 日韩av在线大香蕉| 身体一侧抽搐| 亚洲一区高清亚洲精品| 免费av毛片视频| 99精品在免费线老司机午夜| 国产精品精品国产色婷婷| 黄色一级大片看看| 久久久色成人| 国产精品无大码| 日本在线视频免费播放| 亚洲内射少妇av| 赤兔流量卡办理| 最近中文字幕高清免费大全6| 欧洲精品卡2卡3卡4卡5卡区| 高清日韩中文字幕在线| 少妇的逼水好多| 两个人视频免费观看高清| 国产熟女欧美一区二区| 久久精品夜色国产| 男女下面进入的视频免费午夜| 男女那种视频在线观看| 黄色视频,在线免费观看| 三级经典国产精品| 国产人妻一区二区三区在| 村上凉子中文字幕在线| 国产av一区在线观看免费| 国产成人福利小说| 亚洲最大成人中文| 一本一本综合久久| 国产午夜精品久久久久久一区二区三区| 日本三级黄在线观看| 国产精品人妻久久久影院| 日韩成人伦理影院| 国产精品久久久久久av不卡| 欧美一区二区精品小视频在线| 成人av在线播放网站| 亚洲第一区二区三区不卡| av女优亚洲男人天堂| 中文欧美无线码| 日本三级黄在线观看| 九色成人免费人妻av| 色5月婷婷丁香| 亚洲aⅴ乱码一区二区在线播放| 亚洲在久久综合| 日本免费a在线| 亚洲国产色片| 亚洲欧美精品专区久久| 午夜久久久久精精品| 亚洲无线在线观看| 婷婷精品国产亚洲av| 简卡轻食公司| 91av网一区二区| 日本一本二区三区精品| 偷拍熟女少妇极品色| 欧美区成人在线视频| 中文字幕精品亚洲无线码一区| 午夜a级毛片| 亚洲丝袜综合中文字幕| 一夜夜www| 午夜福利在线观看免费完整高清在 | 伊人久久精品亚洲午夜| 给我免费播放毛片高清在线观看| 国产午夜精品久久久久久一区二区三区| 国产在视频线在精品| 日韩强制内射视频| 欧美日韩综合久久久久久| 在线免费观看不下载黄p国产| 热99在线观看视频| 欧美变态另类bdsm刘玥| 18禁在线无遮挡免费观看视频| 精品人妻偷拍中文字幕| 亚洲人成网站在线播| 麻豆国产97在线/欧美| 熟妇人妻久久中文字幕3abv| 亚洲五月天丁香| 天天躁夜夜躁狠狠久久av| 欧美成人精品欧美一级黄| 欧美精品国产亚洲| 日本熟妇午夜| 亚洲欧美日韩高清专用| eeuss影院久久| 99精品在免费线老司机午夜| 日日摸夜夜添夜夜爱| 成人毛片60女人毛片免费| 特大巨黑吊av在线直播| 精品久久久久久久久av| 网址你懂的国产日韩在线| 国产麻豆成人av免费视频| 国产高清激情床上av| 欧美变态另类bdsm刘玥| 国模一区二区三区四区视频| 2022亚洲国产成人精品| 老女人水多毛片| 少妇裸体淫交视频免费看高清| 国产极品精品免费视频能看的| 亚洲成a人片在线一区二区| 久久中文看片网| 伦精品一区二区三区| 久久九九热精品免费| 亚洲精品日韩av片在线观看| 精品国内亚洲2022精品成人| 99久久无色码亚洲精品果冻| 此物有八面人人有两片| 老师上课跳d突然被开到最大视频| 18禁在线播放成人免费| 国产一级毛片七仙女欲春2| 亚洲欧美精品综合久久99| 国产精品,欧美在线| 国产在线男女| 国产高清有码在线观看视频| 波野结衣二区三区在线| 成人午夜高清在线视频| 女人被狂操c到高潮| 在线观看一区二区三区| 中文字幕人妻熟人妻熟丝袜美| 亚洲精品粉嫩美女一区| 亚洲最大成人中文| 日韩欧美精品免费久久| 日韩精品青青久久久久久| 欧美成人精品欧美一级黄| 在线免费观看的www视频| 久久这里有精品视频免费| 亚洲av第一区精品v没综合| 大香蕉久久网| 久久午夜亚洲精品久久| 精品人妻偷拍中文字幕| 欧美色欧美亚洲另类二区| 久久亚洲精品不卡| 大又大粗又爽又黄少妇毛片口| av在线天堂中文字幕| 亚洲色图av天堂| 亚洲欧美清纯卡通| 日韩人妻高清精品专区| 如何舔出高潮| 亚洲av成人av| 亚洲在久久综合| 美女cb高潮喷水在线观看| 日本与韩国留学比较| 天堂影院成人在线观看| a级毛片a级免费在线| 国产精品1区2区在线观看.| 国产精品美女特级片免费视频播放器| 日本色播在线视频| 可以在线观看的亚洲视频| 亚洲精品日韩av片在线观看| 亚洲人成网站高清观看| a级毛片a级免费在线| 黄色一级大片看看| 老司机影院成人| 91av网一区二区| 天堂网av新在线| 超碰av人人做人人爽久久| 在线a可以看的网站| 最近2019中文字幕mv第一页|