• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    結(jié)合半監(jiān)督聚類和數(shù)據(jù)剪輯的自訓(xùn)練方法

    2018-03-20 00:43:02黎雋男
    計(jì)算機(jī)應(yīng)用 2018年1期
    關(guān)鍵詞:訓(xùn)練方法分類器聚類

    呂 佳,黎雋男

    (重慶師范大學(xué) 計(jì)算機(jī)與信息科學(xué)學(xué)院,重慶 401331)(*通信作者電子郵箱lvjia@cqnu.edu.cn)

    0 引言

    自訓(xùn)練方法[1]是半監(jiān)督學(xué)習(xí)[2]算法中的一種,它利用少量的有標(biāo)記樣本和大量的無標(biāo)記樣本共同去訓(xùn)練一個(gè)分類器,用來解決數(shù)據(jù)標(biāo)注的瓶頸問題。由于它不需要特定的假設(shè)條件且簡單有效,受到了不少學(xué)者青睞。

    Hady等[3]提出Co-Training by Committee自訓(xùn)練學(xué)習(xí)框架,該方法集成多個(gè)分類器共同進(jìn)行自訓(xùn)練學(xué)習(xí),其中置信度為多個(gè)分類器的平均后驗(yàn)概率。針對選取最大后驗(yàn)概率時(shí),可能出現(xiàn)重復(fù)的最大后驗(yàn)概率的問題,Wang等[4]引入了Naive Bayes(NB)[5],最大后驗(yàn)概率取平均后驗(yàn)概率與NB后驗(yàn)概率之和。同時(shí)針對這個(gè)問題,Liu等[6]引入了一種基于距離的度量方式,即當(dāng)平均后驗(yàn)概率相同的時(shí)候,離類別中心越近的樣本的置信度越高,越可靠。Shi等[7]提出集成SVM(Support Machine Vector)[8]、NB和Rocchio[9]三個(gè)異構(gòu)分類器自訓(xùn)練的方式對文本進(jìn)行分類,通過按類別投票的方式選取可靠的樣本。Hajmohammadi等[10]提出結(jié)合主動(dòng)學(xué)習(xí)與自訓(xùn)練的方法去解決跨語言分類問題,該方法用自訓(xùn)練方法選取置信度高的樣本,同時(shí)用平均余弦相似度和熵結(jié)合的方法去選取一些信息量大的樣本。Leng等[11]提出結(jié)合主動(dòng)學(xué)習(xí)和自訓(xùn)練方法去構(gòu)建SVM分類器,用SVM分類器去選擇類中心且標(biāo)記改變率為0的樣本,同時(shí)用主動(dòng)學(xué)習(xí)去選擇離決策邊界近的樣本。然而,在上述自訓(xùn)練方法中,如果誤標(biāo)記的無標(biāo)記樣本被作為可靠樣本加入到訓(xùn)練集中,不僅會(huì)降低自訓(xùn)練方法的性能,還會(huì)造成錯(cuò)誤累積問題,使樣本原本數(shù)據(jù)空間結(jié)構(gòu)發(fā)生扭曲。

    數(shù)據(jù)剪輯是一種統(tǒng)計(jì)過濾技術(shù),它一般用KNN(KNearest Neighbors)[12]作為基分類器,來去除樣本中潛在的噪聲,同時(shí)保留正確的樣本。不少學(xué)者用數(shù)據(jù)剪輯技術(shù)來去除自訓(xùn)練方法中的潛在的誤標(biāo)記樣本。Fan等[13-14]提出結(jié)合KNN數(shù)據(jù)剪輯技術(shù)的NB自訓(xùn)練算法,用KNN數(shù)據(jù)剪輯技術(shù)過濾掉NB自訓(xùn)練的噪聲樣本點(diǎn)。黎雋男等[15]提出結(jié)合加權(quán)KNN(WeightedKNearest Neighbors, WKNN)數(shù)據(jù)剪輯技術(shù)的NB自訓(xùn)練算法,把WKNN和NB分類器投票一致且置信度都高的樣本加入到訓(xùn)練集。Triguero等[16]總結(jié)數(shù)十種數(shù)據(jù)剪輯技術(shù),并把它們結(jié)合到自訓(xùn)練方法中進(jìn)行了實(shí)驗(yàn)性分析。

    針對自訓(xùn)練方法選出置信度高的無標(biāo)記樣本中,所含信息量可能不大的問題,Gan等[17]提出用半監(jiān)督模糊C均值(Semi-supervised Fuzzy C Means, SFCM)去改進(jìn)自訓(xùn)練方法。他認(rèn)為無標(biāo)記樣本可能含有數(shù)據(jù)空間結(jié)構(gòu)潛在信息,利用好這些潛在的信息,能更好地輔助自訓(xùn)練方法,從而提高自訓(xùn)練方法的泛化性。

    為了解決自訓(xùn)練方法中的錯(cuò)誤累積問題和自訓(xùn)練選出置信度高的無標(biāo)記樣本所含信息量不大,從而導(dǎo)致自訓(xùn)練方法泛化性不強(qiáng)的問題,并受聚類和數(shù)據(jù)剪輯技術(shù)的共同啟發(fā),本文提出結(jié)合SMUC(Semi-supervised Metric-based fUzzy Clustering)[18]和SKNN(Semi-supervisedKNearest Neighbor)[19]數(shù)據(jù)剪輯技術(shù)的NB自訓(xùn)練方法(Naive Bayes Self-Training combined SMUC and SKNN Data Editing, NBSTSMUCSKNNDE)。實(shí)驗(yàn)結(jié)果表明,本文提出方法相比改進(jìn)前方法具有更好的性能。

    1 提出算法

    傳統(tǒng)的數(shù)據(jù)剪輯技術(shù)僅僅利用有標(biāo)記樣本的信息,而假設(shè)無標(biāo)記樣本的類標(biāo)號(hào)是不可預(yù)測的,但是自訓(xùn)練方法中,有標(biāo)記樣本是很少的,那么數(shù)據(jù)剪輯的性能可能因有標(biāo)記樣本的數(shù)量的匱乏而下降。陳日新等[19]提出SKNN方法,它能同時(shí)利用有標(biāo)記樣本信息和無標(biāo)記樣本信息對待測樣本進(jìn)行分類。他認(rèn)為,如果無標(biāo)記樣本和有標(biāo)記樣本來自一個(gè)共同的序列,那么有效利用無標(biāo)記樣本信息,能提高KNN算法的性能,因此,本文提出的NBSTSMUCSKNNDE引入了一種新的數(shù)據(jù)剪輯方法,用SKNN作為數(shù)據(jù)剪輯的基分類器。它能夠同時(shí)利用有標(biāo)記樣本信息和無標(biāo)記樣本信息進(jìn)行數(shù)據(jù)剪輯,在有標(biāo)記樣本不足的情況下,利用額外無標(biāo)記樣本信息來提高數(shù)據(jù)剪輯的性能,從而更好地解決自訓(xùn)練方法中的錯(cuò)誤累積問題。

    傳統(tǒng)的自訓(xùn)練方法會(huì)隨機(jī)選擇一些無標(biāo)記樣本給自訓(xùn)練方法學(xué)習(xí),而選擇更具有信息量的無標(biāo)記樣本給自訓(xùn)練方法學(xué)習(xí),能提高自訓(xùn)練方法的性能,所以本文提出的NBSTSMUCSKNNDE用半監(jiān)督聚類SMUC方法去選擇一些聚類隸屬度高的無標(biāo)記樣本給自訓(xùn)練方法學(xué)習(xí)。聚類隸屬度高的無標(biāo)記樣本離樣本真實(shí)的類中心越近,它包含著原始樣本空間結(jié)構(gòu)信息。NBSTSMUCSKNNDE的自訓(xùn)練學(xué)習(xí)器如果能正確標(biāo)記這樣的無標(biāo)記樣本,并加入到訓(xùn)練集,則可以提高自訓(xùn)練方法的泛化性。

    2 SKNN數(shù)據(jù)剪輯技術(shù)

    傳統(tǒng)的數(shù)據(jù)剪輯技術(shù)有ENN(Edited Nearest Neighbor)[20]、RENN(Repeated Edited Nearest Neighbor)[21]、ALLKNN(AllKNearest Neighbors)[21]、MENN(Modified Edited Nearest Neighbor)[22]等,它們都是利用KNN或WKNN分類的結(jié)果與給定樣本的類標(biāo)號(hào)進(jìn)行對比,如果類標(biāo)號(hào)不一致,就判斷為噪聲樣本,但是KNN或WKNN只考慮到了k個(gè)有標(biāo)記近鄰樣本對待測樣本的類別的貢獻(xiàn),沒有考慮到無標(biāo)記近鄰樣本對待測樣本的影響,如果待測樣本和無標(biāo)記樣本來自一個(gè)共同的序列,它們的類別就會(huì)存在一定的聯(lián)系,根據(jù)待測樣本和無標(biāo)記樣本的相關(guān)性,可以提高數(shù)據(jù)剪輯的精度,從而提高算法性能。如圖1所示,如果用KNN或WKNN進(jìn)行分類,待測樣本x會(huì)被分到A類,實(shí)際上樣本x應(yīng)該屬于B類。針對這個(gè)問題,SKNN在對待測樣本分類時(shí),考慮有標(biāo)記樣本和無標(biāo)記樣本對待測樣本的共同影響。

    圖1 采用KNN或WKNN分類時(shí)的錯(cuò)誤分類的情況

    在SKNN中,設(shè)無標(biāo)記樣本x0,x1,…,xt,那么對待測樣本xt進(jìn)行分類的時(shí)候,考慮到xt與x0:t-1的樣本存在一定的相關(guān)性,為此SKNN采用聯(lián)合概率密度P(ωk|xt,x0:t-1)作為分類依據(jù),其中ω為類標(biāo)記。

    首先從已標(biāo)記樣本集中找出與xt的k1+1個(gè)最近的樣本,用xt(1),xt(2),…,xt(k1+1)表示,類標(biāo)號(hào)為t(1),t(2),…,t(k1+1)。從無標(biāo)記樣本集中找出與待測樣本最近的k2個(gè)無標(biāo)記樣本,分別用xt-1,xt-2,…,xt-k2表示,組成測試樣本本序列。

    接著用第k1+1個(gè)近鄰樣本xt(k1+1)到測試樣本xt的距離d(xt,xt(k1+1))來標(biāo)準(zhǔn)化前k1個(gè)近鄰樣本xt(1),xt(2),…,xt(k1)到測試樣本{xj,j=t,t-1,…,t-k2}的距離:

    (1)

    然后用高斯核函數(shù)核化標(biāo)準(zhǔn)后的距離:

    (2)

    最后確定xt樣本的類別表達(dá)式如下,具體推導(dǎo)見文獻(xiàn)[19]。

    (3)

    SKNN數(shù)據(jù)剪輯技術(shù)算法流程如下所示。

    輸入:有標(biāo)記近鄰樣本數(shù)k1,無標(biāo)記近鄰樣本數(shù)k2,數(shù)據(jù)集D。

    輸出:過濾后的樣本集Filtered_D。

    過程:

    forxi∈D

    1)SKNN分類xi得到類標(biāo)號(hào)ti,依據(jù)式(1)~(3)。

    2)如果ti與xi本身的類標(biāo)號(hào)不一致,則視xi為噪聲樣本,丟棄。

    end

    3 半監(jiān)督模糊C均值聚類

    Gan等[17]提出用SFCM去輔助自訓(xùn)練方法,實(shí)驗(yàn)結(jié)果表明SFCM作為一種知識(shí)發(fā)掘工具,能挖掘大量無標(biāo)記樣本所暗含的數(shù)據(jù)空間結(jié)構(gòu)信息。新標(biāo)記的有標(biāo)記樣本不僅可以改善自訓(xùn)練方法,而且也可以改善SFCM的性能,從而讓SFCM更好地優(yōu)化自訓(xùn)練方法。SFCM損失函數(shù)如下:

    (4)

    其中:c為類別個(gè)數(shù),n為樣本個(gè)數(shù),m為參數(shù)。如式(4)所示,對于SFCM,m值的選取一直是一個(gè)棘手的問題,并且用歐氏距離來計(jì)算樣本間的距離,沒有考慮到樣本屬性之間的關(guān)聯(lián)性。Yin等[18]提出SMUC,它用正則熵的方法來解決SFCM的m值選取問題,同時(shí)用馬氏距離代替歐氏距離,考慮到實(shí)際應(yīng)用中屬性之間的關(guān)系,因此,NBSTSMUCSKNNDE用SMUC替代SFCM輔助自訓(xùn)練方法,能選出更具有信息量的無標(biāo)記樣本交給自訓(xùn)練方法進(jìn)行學(xué)習(xí)。SMUC推導(dǎo)如下。

    給定先驗(yàn)隸屬度矩陣:

    U′={uik′|uik′∈[0,1];i=1,2,…,n;k=1,2,…,c}

    (5)

    同時(shí)滿足如下條件:

    (6)

    首先獲得先驗(yàn)質(zhì)心:

    (7)

    接著計(jì)算協(xié)方差矩陣:

    (8)

    根據(jù)式(8)的協(xié)方差矩陣,給定兩個(gè)樣本x1,x2,馬氏距離計(jì)算如下:

    (9)

    SMUC的損失函數(shù)如下,其中等式右邊加入了熵正則表達(dá)式:

    (10)

    式(10)是一個(gè)凸優(yōu)化問題,進(jìn)行拉格朗日優(yōu)化:

    (11)

    根據(jù)式(11),對uik和vk求偏導(dǎo)后,得到隸屬度uik和vk的計(jì)算公式,如下:

    (12)

    (13)

    SMUC算法流程如下所示。

    輸入:數(shù)據(jù)集D,先驗(yàn)隸屬度uik′,聚類數(shù)量c。

    輸出:成員隸屬度uik。

    過程:

    依據(jù)式(7)計(jì)算先驗(yàn)質(zhì)心。

    依據(jù)式(8)計(jì)算協(xié)方差矩陣C。

    while ‖uk-uk-1‖≥ε

    依據(jù)式(12)計(jì)算uik。

    依據(jù)式(13)計(jì)算vk。

    end

    4 算法流程

    首先,NBSTSMUCSKNNDE用少量的有標(biāo)記樣本和大量的無標(biāo)記樣本進(jìn)行SMUC聚類,從而選出隸屬度高的無標(biāo)記樣本給NB自訓(xùn)練方法分類。然后,NBSTSMUCSKNNDE用SKNN數(shù)據(jù)剪輯技術(shù)來過濾掉聚類隸屬高但是NB自訓(xùn)練方法誤分類無標(biāo)記樣本。聚類隸屬度高的無標(biāo)記樣本,更接近每一個(gè)聚類簇的中心,這樣的無標(biāo)記樣本更好地反映了每一個(gè)聚類簇的結(jié)構(gòu)。如果把這些聚類隸屬度高的無標(biāo)記樣本正確標(biāo)記,并加入到訓(xùn)練集,能使訓(xùn)練集更好地代表原始樣本空間的結(jié)構(gòu),從而提高NB自訓(xùn)練方法的泛化性,但是聚類隸屬度高的無標(biāo)記樣本可能是每次自訓(xùn)練方法迭代中離決策邊界近的樣本,NB自訓(xùn)練方法難以把這樣聚類隸屬度高的樣本分類正確。如果錯(cuò)誤標(biāo)記這樣的樣本,然后加入到訓(xùn)練集,不僅會(huì)扭曲數(shù)據(jù)空間原始結(jié)構(gòu)而且會(huì)使NB自訓(xùn)練方法性能下降。SKNN數(shù)據(jù)剪輯技術(shù)能過濾掉聚類隸屬高但是NB自訓(xùn)練方法誤分類無標(biāo)記樣本,使標(biāo)記正確的所含信息量大的無標(biāo)記樣本加入到訓(xùn)練集,因此,本文提出的方法通過SMUC和SKNN數(shù)據(jù)剪輯技術(shù)結(jié)合的方式,既解決了自訓(xùn)練方法選出置信度高的無標(biāo)記樣本所含信息量不大的問題,又解決了自訓(xùn)練方法的錯(cuò)誤累積問題。新標(biāo)記的無標(biāo)記樣本加入到訓(xùn)練集,不僅可以提高自訓(xùn)練方法的性能,而且可以更好地讓半監(jiān)督聚類和數(shù)據(jù)剪輯為自訓(xùn)練方法服務(wù)。

    NBSTSMUCSKNNDE算法流程如下所示。

    輸入:有標(biāo)記樣本集L,無標(biāo)記樣本集U,有標(biāo)記近鄰樣本k1,無標(biāo)記近鄰樣本k2,參數(shù)ε1,參數(shù)ε2,參數(shù)η。

    輸出:訓(xùn)練好的NB。

    過程:

    whileU集不為空

    用樣本集L和U進(jìn)行SMCU聚類,選出隸屬度uik≥ε1的樣本集R1;

    whileR1為空

    ε1=ε1-0.05,選出隸屬度uik≥ε1的樣本集R1;

    end

    用樣本集L和U訓(xùn)練分類器NB,用訓(xùn)練后的分類器對R1分類,選出置信度大于ε2的樣本集R2,并得到其類標(biāo)號(hào)Tag2;

    whileR2為空

    ε2=ε2-0.05,選出置信度大于ε2的樣本集R2,并得到其類標(biāo)號(hào)Tag2;

    end

    用SKNN數(shù)據(jù)剪輯技術(shù)過濾掉R2中的噪聲樣本,得到可靠樣本集R3;

    L=L+R3,U=U-R3;

    end

    5 實(shí)驗(yàn)仿真

    為了說明本文算法的有效性,選用對比算法如下:

    1)NB自訓(xùn)練(NB Self-Training, NBST)。

    2)結(jié)合SFCM的NB自訓(xùn)練(NB Self-Training combined SFCM, NBSTSFCM)。

    3)結(jié)合SMUC的NB自訓(xùn)練(NB Self-Training combined SMUC, NBSTSMUC)。

    4)本文提出的結(jié)合SMUC和SKNN數(shù)據(jù)剪輯技術(shù)的NB自訓(xùn)練(Naive Bayes Self-Training combined SMUC and SKNN Data Editing, NBSTSMUCSKNNDE)。

    實(shí)驗(yàn)數(shù)據(jù)集來源于UCI數(shù)據(jù)集,共8個(gè),如表1。把每一個(gè)數(shù)據(jù)集隨機(jī)分為測試集和訓(xùn)練集兩部分,其中訓(xùn)練集為80%,測試集為20%。在訓(xùn)練集中隨機(jī)選取10%的樣本作為初始化的有標(biāo)記樣本,其余樣本去除類標(biāo)記作為無標(biāo)記樣本。NBSTSFCM中的參數(shù)m=2。NBSTSMUCSKNNDE中的參數(shù)ε1=0.95,ε2=0.95,η=1,其他參數(shù)在各個(gè)數(shù)據(jù)集調(diào)整至最優(yōu)進(jìn)行實(shí)驗(yàn),如表2。實(shí)驗(yàn)重復(fù)10次,取10次的平均分類正確率±標(biāo)準(zhǔn)差,如表3所示。為了說明有標(biāo)記樣本數(shù)對算法的影響,圖2給出了當(dāng)初始化的有標(biāo)記樣本比例為10%~50%的時(shí)候,實(shí)驗(yàn)重復(fù)10次,4個(gè)算法在8個(gè)數(shù)據(jù)集上的平均分類正確率。

    表1 UCI數(shù)據(jù)集描述

    表2 實(shí)驗(yàn)參數(shù)設(shè)置

    表3 有標(biāo)記率為10%時(shí),4個(gè)算法在8個(gè)數(shù)據(jù)集上的性能對比

    從表3總體可以看出,當(dāng)有標(biāo)記樣本比例為10%的時(shí)候,本文提出的NBSTSMUCSKNNDE算法整體上性能好于對比算法。具體地看,當(dāng)有標(biāo)記樣本率為10%時(shí):在數(shù)據(jù)集Vertebral Column、Haberman’s Survival、Blood Transfusion Service Center、Breast Cancer Wisconsin (Original)和Indian Liver Patient Dataset上,本文提出算法均優(yōu)于對比算法;但在數(shù)據(jù)集IRIS、Seeds和Wine上,本文提出算法弱于對比算法。這可能是數(shù)據(jù)集IRIS、Seeds和Wine中的樣本數(shù)太少,用過少的有標(biāo)記樣本來指導(dǎo)SMUC聚類,難以找到信息量大的無標(biāo)記樣本給NB自訓(xùn)練標(biāo)記。而且在迭代初期,有標(biāo)記樣本過少也影響SKNN數(shù)據(jù)剪輯技術(shù)對無標(biāo)記樣本利用的準(zhǔn)確率,最終使SMUC和SKNN數(shù)據(jù)剪輯技術(shù)難以有效輔助NB自訓(xùn)練方法。在8個(gè)UCI數(shù)據(jù)集上,NBSTSFCM性能微弱于NBSTSMUC,這是因?yàn)镹BSTSMUC用SMUC代替SFCM,考慮到了實(shí)際應(yīng)用中屬性之間的關(guān)聯(lián)性。NBSTSFCM、NBSTSMUC的分類正確率在數(shù)據(jù)集Haberman’s Survival和Blood Transfusion Service Center上高于NBST,但在其他6個(gè)數(shù)據(jù)集上,分類正確率低于NBST。這是因?yàn)榫垲愃惴苓x出無標(biāo)記樣本中一些暗含數(shù)據(jù)空間結(jié)構(gòu)的樣本,但是這樣的樣本可能是NB自訓(xùn)練每次迭代很難正確標(biāo)記的樣本。如果用SKNN數(shù)據(jù)剪輯技術(shù)過濾掉這些樣本,則能更好地提高NB自訓(xùn)練性能,因此本文提出的NBSTSMUCSKNNDE優(yōu)于對比算法。

    從圖2可以看出,在數(shù)據(jù)集Vertebral Column、Haberman’s Survival、Blood Transfusion Service Center、Breast Cancer Wisconsin (Original)和Indian Liver Patient Dataset上,本文提出的NBSTSMUCSKNNDE算法在有標(biāo)記樣本比例為10%~50%的情況下,分類正確率都優(yōu)于對比算法。雖然當(dāng)有標(biāo)記樣本為10%的時(shí)候,在IRIS、Seeds數(shù)據(jù)集上,和當(dāng)有標(biāo)記樣本比例為10%、20%的時(shí)候,在Wine數(shù)據(jù)集上,NBSTSMUCSKNNDE算法在分類正確率上低于NBST,但是隨著有標(biāo)記比例的增加,也能好于對比算法。這可能是因?yàn)镮RIS、Seed和Wine樣本量過少的緣故。同時(shí),當(dāng)有標(biāo)記樣本比例為10%~50%的情況下,NBSTSMUC在8個(gè)數(shù)據(jù)集上,整體性能也好于NBSTSFCM。這也證明了本文NBSTSMUCSKNNDE算法用SMUC的優(yōu)勢。

    6 結(jié)語

    本文針對自訓(xùn)練方法在迭代中選出的置信度高的無標(biāo)記樣本所含信息量不大和自訓(xùn)練方法容易誤標(biāo)記無標(biāo)記樣本的問題,提出NBSTSMUCSKNNDE算法。在自訓(xùn)練每次迭代中,該算法用SMUC選取暗含數(shù)據(jù)空間結(jié)構(gòu)信息的無標(biāo)記樣本給NB分類,同時(shí)用SKNN數(shù)據(jù)剪輯技術(shù)來過濾掉聚類信息量大但是NB誤分類的無標(biāo)記樣本。相比傳統(tǒng)的半監(jiān)督聚類,SMUC考慮到了實(shí)際應(yīng)用中屬性之間的關(guān)聯(lián)性,并且用熵正則化來優(yōu)化物理表達(dá)式,克服了SFCM難找到一個(gè)最優(yōu)參數(shù)來發(fā)掘更具有信息量的無標(biāo)記樣本的問題。同時(shí),本文首次提出了一種新的數(shù)據(jù)剪輯技術(shù),相比以往的數(shù)據(jù)剪輯技術(shù),SKNN能同時(shí)利用有標(biāo)記樣本和無標(biāo)記樣本信息進(jìn)行噪聲過濾,在有標(biāo)記樣本不足的情況下,它能利用額外的無標(biāo)記樣本信息來過濾掉自訓(xùn)練方法中誤標(biāo)記的無標(biāo)記樣本。最后在UCI數(shù)據(jù)集上驗(yàn)證了算法的有效性。在后續(xù)的工作中,將研究如何降低本文提出方法的時(shí)間復(fù)雜度和如何提高自訓(xùn)練方法在迭代中的預(yù)測準(zhǔn)確率問題。

    References)

    [1] YAROWSKY D. Unsupervised word sense disambiguation rivaling supervised methods [C]// ACL ’95: Proceedings of the 33rd Annual Meeting on Association for Computational Linguistics. Stroudsburg: Association for Computational Linguistics, 1995: 189-196.

    [2] ZHU X, GOLDBERG A B, BRACHMAN R, et al. Introduction to Semi-Supervised Learning [M]. San Rafael, CA: Morgan and Claypool Publishers, 2009: 130.

    [3] HADY M F A, SCHWENKER F. Co-training by committee: a new semi-supervised learning framework [C]// ICDMW ’08: Proceedings of the 2008 IEEE International Conference on Data Mining Workshops. Washington, DC: IEEE Computer Society, 2008: 563-572.

    [4] WANG S, WU L, JIAO L, et al. Improve the performance of co-training by committee with refinement of class probability estimations [J]. Neurocomputing, 2014, 136(8): 30-40.

    [5] LEWIS D D. Naive (Bayes) at Forty: the independence assumption in information retrieval [C]// ECML ’98: Proceedings of the 10th European Conference on Machine Learning. Berlin: Springer, 1998: 4-15.

    [6] LIU K, GUO Y, WANG S, et al. Semi-supervised learning based on improved co-training by committee [C]// IScIDE 2015: Proceedings of the 5th International Conference on Intelligence Science and Big Data Engineering. Big Data and Machine Learning Techniques. Berlin: Springer, 2015: 413-421.

    [7] SHI L, MA X, XI L, et al. Rough set and ensemble learning based semi-supervised algorithm for text classification [J]. Expert Systems with Applications, 2011, 38(5): 6300-6306.

    [8] JOACHIMS T. A statistical learning model of text classification with support vector machines [C]// SIGIR ’01: Proceedings of the 24th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM, 2001: 128-136.

    [9] JOACHIMS T. A probabilistic analysis of the Rochhio algorithm with TFIDF for text categorization [C]// ICML ’97: Proceedings of the Fourteenth International Conference on Machine Learning. San Francisco: Morgan Kaufmann, 1997: 143-151.

    [10] HAJMOHAMMADI M S, IBRAHIM R, SELAMAT A, et al. Combination of active learning and self-training for cross-lingual sentiment classification with density analysis of unlabelled samples [J]. Information Sciences, 2015, 317: 67-77.

    [11] LENG Y, XU X, QI G. Combining active learning and semi-supervised learning to construct SVM classifier [J]. Knowledge-Based Systems, 2013, 44(1): 121-131.

    [12] COVER T M. HART P E. Nearest neighbor pattern classification [J]. IEEE Transactions on Information Theory, 1967, 13(1): 21-27.

    [13] FAN X, GUO Z, MA H. An improved EM-based semi-supervised learning method [C]// IJCBS ’09: Proceedings of the 2009 International Joint Conference on Bioinformatics, Systems Biology and Intelligent Computing. Washington, DC: IEEE Computer Society, 2009: 529-532.

    [14] FAN X, GUO Z, MA H. A semi-supervised text classfification method based on incremental EM algorithm [C]// ICIE ’10: Proceedings of the 2010 WASE International Conference on Information Engineering. Washington, DC: IEEE Computer Society, 2010: 211-214.

    [15] 黎雋男,呂佳.結(jié)合主動(dòng)學(xué)習(xí)與置信度投票的集成自訓(xùn)練方法[J].計(jì)算機(jī)工程與應(yīng)用,2016,52(20):167-171.(LI J N, LYU J. Ensemble self-training method based on active learning and confidence voting [J]. Computer Engineering and Applications, 2016, 52(20): 167-171.)

    [16] TRIGUERO I, SáEZ J A, LUENGO J, et al. On the characterization of noise filters for self-training semi-supervised in nearest neighbor classification [J]. Neurocomputing, 2014, 132(13): 30-41.

    [17] GAN H, SANG N, HUANG R, et al. Using clustering analysis to improve semi-supervised classification [J]. Neurocomputing, 2013, 101(3): 290-298.

    [18] YIN X, SHU T, HUANG Q. Semi-supervised fuzzy clustering with metric learning and entropy regularization [J]. Knowledge-Based Systems, 2012, 35(15): 304-311.

    [19] 陳日新,朱明旱.半監(jiān)督K近鄰分類方法[J].中國圖象圖形學(xué)報(bào),2013,18(2):195-200.(CHEN R X, ZHU M H. Semi-supervisedK-nearest neighbor classification method [J]. Journal of Image and Graphics, 2013, 18(2): 195-200.)

    [20] WILSON D L. Asymptotic properties of nearest neighbor rules using edited data [J]. IEEE Transactions on Systems Man & Cybernetics, 1972, SMC- 2(3): 408-421.

    [21] TOMEK I. An experiment with the edited nearest-neighbor rule [J]. IEEE Transactions on Systems Man & Cybernetics, 1976, 6(6): 448-452.

    [22] HATTOR K, TAKAHASHI M. A new editedk-nearest neighbor rule in the pattern classification problem [J]. Pattern Recognition, 2000, 33 (3): 521-528.

    This work is partially supported by Chongqing Natural Science Foundation of China (cstc2014jcyjA40011), Science and Technology Project of Chongqing Municipal Education Commission (KJ1400513), Chongqing Scientific Research Project (CYS17176), Chongqing Normal University Research Project (YKC17001).

    LYUJia, born in 1978, Ph. D., professor. Her research interests include machine learning, data mining.

    LIJunnan, born in 1992, M. S. candidate. His research interests include machine learning, data mining.

    猜你喜歡
    訓(xùn)練方法分類器聚類
    談高中數(shù)學(xué)習(xí)題訓(xùn)練方法與答題技巧
    甘肅教育(2020年18期)2020-10-28 09:07:12
    壁球反手擊球技術(shù)及其訓(xùn)練方法
    跳遠(yuǎn)運(yùn)動(dòng)員專項(xiàng)力量訓(xùn)練方法
    BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
    電子測試(2018年1期)2018-04-18 11:52:35
    基于DBSACN聚類算法的XML文檔聚類
    電子測試(2017年15期)2017-12-18 07:19:27
    簡論1min跳繩訓(xùn)練方法
    加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
    結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
    基于改進(jìn)的遺傳算法的模糊聚類算法
    一種層次初始的聚類個(gè)數(shù)自適應(yīng)的聚類方法研究
    伊人久久精品亚洲午夜| 一本—道久久a久久精品蜜桃钙片| 制服人妻中文乱码| 国产精品99久久99久久久不卡 | 一级,二级,三级黄色视频| 亚洲欧美成人综合另类久久久| 丰满迷人的少妇在线观看| 国产精品久久久久久精品电影小说| 久久精品国产a三级三级三级| 亚洲久久久国产精品| 亚洲精品日韩在线中文字幕| 久久影院123| 欧美xxxx性猛交bbbb| 一级爰片在线观看| 成人亚洲精品一区在线观看| 精品一区二区免费观看| 能在线免费看毛片的网站| 久久久久久久大尺度免费视频| 人人妻人人爽人人添夜夜欢视频| 精品久久久久久久久亚洲| 黑人欧美特级aaaaaa片| 欧美 日韩 精品 国产| 日日摸夜夜添夜夜添av毛片| 日本与韩国留学比较| 男女国产视频网站| 欧美丝袜亚洲另类| 黄色配什么色好看| 亚洲欧洲国产日韩| 国产免费一区二区三区四区乱码| 国产色爽女视频免费观看| 亚洲人成77777在线视频| 少妇被粗大猛烈的视频| 啦啦啦视频在线资源免费观看| 久久精品国产亚洲网站| 成年人免费黄色播放视频| 国产一区二区三区av在线| 中国国产av一级| 少妇人妻精品综合一区二区| 熟女av电影| 18在线观看网站| 精品一区在线观看国产| 久久99热6这里只有精品| 18+在线观看网站| 久久免费观看电影| 欧美日韩视频高清一区二区三区二| 国产日韩欧美视频二区| 国产成人freesex在线| 亚洲美女黄色视频免费看| 激情五月婷婷亚洲| 日韩一区二区三区影片| 人妻制服诱惑在线中文字幕| 久久久久久久久大av| 亚洲国产最新在线播放| 精品久久久噜噜| 久久人妻熟女aⅴ| 十分钟在线观看高清视频www| 国模一区二区三区四区视频| 欧美一级a爱片免费观看看| 欧美日韩一区二区视频在线观看视频在线| 国产男人的电影天堂91| 麻豆乱淫一区二区| 岛国毛片在线播放| 中国三级夫妇交换| 高清欧美精品videossex| videos熟女内射| 最近中文字幕2019免费版| 国产成人91sexporn| 一区二区三区乱码不卡18| 高清在线视频一区二区三区| 中文天堂在线官网| 欧美国产精品一级二级三级| 成人二区视频| 国产高清不卡午夜福利| 久久人人爽人人爽人人片va| 下体分泌物呈黄色| 国产不卡av网站在线观看| freevideosex欧美| 美女福利国产在线| 中文字幕人妻熟人妻熟丝袜美| 99视频精品全部免费 在线| 最近最新中文字幕免费大全7| 一级毛片我不卡| 久久久国产欧美日韩av| 久久免费观看电影| 中国国产av一级| 超碰97精品在线观看| 91精品三级在线观看| 欧美日韩成人在线一区二区| 国精品久久久久久国模美| 久久久久久久国产电影| 久久人妻熟女aⅴ| 国产男女内射视频| 超碰97精品在线观看| 久久鲁丝午夜福利片| 又大又黄又爽视频免费| av不卡在线播放| 精品一品国产午夜福利视频| 欧美日韩视频精品一区| 国产成人a∨麻豆精品| 老熟女久久久| 日本免费在线观看一区| 一级片'在线观看视频| 丝袜脚勾引网站| av视频免费观看在线观看| freevideosex欧美| 99久久综合免费| 老女人水多毛片| 我的老师免费观看完整版| 国产精品三级大全| 欧美日韩亚洲高清精品| 日本-黄色视频高清免费观看| 国产成人精品婷婷| 成人二区视频| 日本-黄色视频高清免费观看| 精品久久久久久久久av| 欧美成人精品欧美一级黄| 伦理电影大哥的女人| 日韩制服骚丝袜av| 国产精品一区www在线观看| 国产精品国产av在线观看| 欧美精品一区二区免费开放| 成人无遮挡网站| 国产高清三级在线| 日韩av在线免费看完整版不卡| 18禁在线播放成人免费| 久久影院123| 丝袜在线中文字幕| 亚洲成人av在线免费| 国产精品人妻久久久影院| 国产片特级美女逼逼视频| 久久毛片免费看一区二区三区| 亚洲美女黄色视频免费看| 国产精品久久久久久av不卡| 美女中出高潮动态图| 久久免费观看电影| 一区二区三区免费毛片| 国产又色又爽无遮挡免| 国产成人91sexporn| 五月天丁香电影| 久久毛片免费看一区二区三区| 亚洲天堂av无毛| 午夜老司机福利剧场| 精品久久久噜噜| 超色免费av| 国精品久久久久久国模美| 在线观看人妻少妇| 91aial.com中文字幕在线观看| 中文字幕av电影在线播放| videos熟女内射| a级毛片在线看网站| 日本av手机在线免费观看| 高清毛片免费看| 久久人妻熟女aⅴ| 日韩强制内射视频| 亚洲av在线观看美女高潮| 国产成人精品久久久久久| 欧美少妇被猛烈插入视频| 欧美成人精品欧美一级黄| 精品国产露脸久久av麻豆| 国产精品欧美亚洲77777| 另类精品久久| 老司机影院毛片| 国产国拍精品亚洲av在线观看| a级毛色黄片| 伦理电影大哥的女人| 亚洲精品色激情综合| 99热6这里只有精品| 女人久久www免费人成看片| 国产男人的电影天堂91| 自线自在国产av| 在线看a的网站| 亚洲av电影在线观看一区二区三区| 亚洲美女搞黄在线观看| 成人毛片a级毛片在线播放| 久久久久人妻精品一区果冻| 亚洲不卡免费看| 在线看a的网站| 人人妻人人添人人爽欧美一区卜| 国产色婷婷99| 最新中文字幕久久久久| a 毛片基地| 欧美激情极品国产一区二区三区 | av不卡在线播放| 亚洲无线观看免费| 大码成人一级视频| 在线亚洲精品国产二区图片欧美 | 蜜桃国产av成人99| 91久久精品电影网| 在线观看免费高清a一片| 欧美一级a爱片免费观看看| 日本av免费视频播放| 亚洲综合精品二区| 日韩成人伦理影院| 777米奇影视久久| 在线观看www视频免费| 国产av码专区亚洲av| 国产高清国产精品国产三级| 亚洲国产毛片av蜜桃av| 如日韩欧美国产精品一区二区三区 | 亚洲欧美日韩另类电影网站| 国产精品久久久久久久电影| 久久人人爽av亚洲精品天堂| 精品视频人人做人人爽| 久久精品久久久久久噜噜老黄| 美女国产高潮福利片在线看| 大香蕉久久网| 亚洲av电影在线观看一区二区三区| 亚洲少妇的诱惑av| 看非洲黑人一级黄片| 免费日韩欧美在线观看| 国产精品一区二区在线观看99| 亚洲欧洲日产国产| 一个人免费看片子| 久久久久精品久久久久真实原创| 三级国产精品片| 人体艺术视频欧美日本| 久久人人爽av亚洲精品天堂| 人妻 亚洲 视频| 日韩精品有码人妻一区| 建设人人有责人人尽责人人享有的| 精品国产一区二区三区久久久樱花| 亚洲av电影在线观看一区二区三区| 国产亚洲精品第一综合不卡 | 黑人欧美特级aaaaaa片| 青春草视频在线免费观看| 哪个播放器可以免费观看大片| 色婷婷久久久亚洲欧美| 成人亚洲精品一区在线观看| xxxhd国产人妻xxx| 日韩一区二区视频免费看| 又大又黄又爽视频免费| 国产精品久久久久久精品古装| 永久网站在线| 日日爽夜夜爽网站| 亚洲国产精品999| 一本—道久久a久久精品蜜桃钙片| 成人二区视频| 蜜臀久久99精品久久宅男| 亚洲综合精品二区| 亚洲国产日韩一区二区| 99九九线精品视频在线观看视频| 80岁老熟妇乱子伦牲交| 国产一区亚洲一区在线观看| 18禁观看日本| 欧美日韩视频精品一区| 青春草国产在线视频| 中文字幕人妻丝袜制服| 丝袜美足系列| www.av在线官网国产| 夫妻午夜视频| 国产日韩欧美在线精品| 美女主播在线视频| 丝袜脚勾引网站| 日韩熟女老妇一区二区性免费视频| 一级毛片 在线播放| 丰满饥渴人妻一区二区三| 日本黄大片高清| 国精品久久久久久国模美| 欧美变态另类bdsm刘玥| 爱豆传媒免费全集在线观看| 精品亚洲乱码少妇综合久久| 3wmmmm亚洲av在线观看| 亚洲精品成人av观看孕妇| 久久久久久久久久人人人人人人| 黄色毛片三级朝国网站| 亚洲精品一二三| 日韩中文字幕视频在线看片| 18禁动态无遮挡网站| 亚洲精品乱码久久久久久按摩| 一本大道久久a久久精品| 免费看光身美女| √禁漫天堂资源中文www| 国产乱人偷精品视频| 黄片无遮挡物在线观看| 久久精品国产亚洲网站| 日韩人妻高清精品专区| av女优亚洲男人天堂| 波野结衣二区三区在线| 亚洲,一卡二卡三卡| 国产午夜精品一二区理论片| 久久久久视频综合| 丁香六月天网| 国产一区二区在线观看av| 亚洲精品456在线播放app| 精品人妻偷拍中文字幕| av不卡在线播放| 成人免费观看视频高清| 亚洲色图综合在线观看| 国产一区二区三区综合在线观看 | 欧美精品亚洲一区二区| 我的老师免费观看完整版| 午夜91福利影院| 国产探花极品一区二区| 观看美女的网站| 国产淫语在线视频| 中文精品一卡2卡3卡4更新| 高清在线视频一区二区三区| 国产欧美日韩综合在线一区二区| 18禁动态无遮挡网站| 国产黄频视频在线观看| 丰满饥渴人妻一区二区三| 精品人妻偷拍中文字幕| 水蜜桃什么品种好| 纵有疾风起免费观看全集完整版| 成年人午夜在线观看视频| 国产精品久久久久久久电影| 国产在视频线精品| 欧美日韩综合久久久久久| 91久久精品国产一区二区成人| 色5月婷婷丁香| 午夜激情久久久久久久| 免费少妇av软件| 亚洲伊人久久精品综合| 十八禁高潮呻吟视频| 看非洲黑人一级黄片| 亚洲成人一二三区av| 亚洲精品久久久久久婷婷小说| 丝袜脚勾引网站| 永久网站在线| 久久久久网色| 国产女主播在线喷水免费视频网站| 最近手机中文字幕大全| 插逼视频在线观看| 美女cb高潮喷水在线观看| 成人亚洲精品一区在线观看| 美女内射精品一级片tv| 夫妻性生交免费视频一级片| 18禁在线无遮挡免费观看视频| 成年人免费黄色播放视频| 天堂8中文在线网| 18+在线观看网站| 国国产精品蜜臀av免费| av专区在线播放| 一级片'在线观看视频| 一级爰片在线观看| 午夜激情久久久久久久| 在线观看免费视频网站a站| 爱豆传媒免费全集在线观看| 夜夜爽夜夜爽视频| 一级片'在线观看视频| 国产日韩欧美在线精品| 少妇的逼好多水| 国产色婷婷99| 午夜久久久在线观看| 美女中出高潮动态图| 五月玫瑰六月丁香| 夜夜爽夜夜爽视频| 国产精品三级大全| 国产精品人妻久久久久久| a级毛片免费高清观看在线播放| av专区在线播放| 日本猛色少妇xxxxx猛交久久| 男人添女人高潮全过程视频| 国国产精品蜜臀av免费| 国产精品不卡视频一区二区| a级毛片免费高清观看在线播放| 一区二区日韩欧美中文字幕 | 久久青草综合色| 精品人妻熟女毛片av久久网站| 国产成人av激情在线播放 | 夫妻午夜视频| 亚洲欧美成人精品一区二区| 一级二级三级毛片免费看| 日韩成人伦理影院| 久久99热这里只频精品6学生| 一个人看视频在线观看www免费| 天堂8中文在线网| 亚洲久久久国产精品| 天堂8中文在线网| 99re6热这里在线精品视频| 美女xxoo啪啪120秒动态图| 国产精品不卡视频一区二区| 亚洲av电影在线观看一区二区三区| 日韩在线高清观看一区二区三区| 国产成人av激情在线播放 | 成人影院久久| 国产伦理片在线播放av一区| 啦啦啦中文免费视频观看日本| 九草在线视频观看| 午夜91福利影院| 全区人妻精品视频| 久久久久网色| 亚洲av国产av综合av卡| 婷婷成人精品国产| 人人妻人人澡人人看| 熟妇人妻不卡中文字幕| 中国三级夫妇交换| 精品一品国产午夜福利视频| 制服人妻中文乱码| 日本黄色日本黄色录像| 国产成人a∨麻豆精品| 看十八女毛片水多多多| 日韩欧美精品免费久久| 午夜福利在线观看免费完整高清在| 国产精品嫩草影院av在线观看| 边亲边吃奶的免费视频| 亚洲精品第二区| 在线观看免费日韩欧美大片 | 桃花免费在线播放| 黄色欧美视频在线观看| 久久ye,这里只有精品| 18+在线观看网站| 久久综合国产亚洲精品| 国产在线免费精品| 亚洲国产最新在线播放| 成人毛片60女人毛片免费| 曰老女人黄片| 日产精品乱码卡一卡2卡三| 国产69精品久久久久777片| 69精品国产乱码久久久| av黄色大香蕉| 国产男人的电影天堂91| 蜜桃在线观看..| 国产综合精华液| www.av在线官网国产| 18禁在线无遮挡免费观看视频| 一级毛片黄色毛片免费观看视频| 国产精品一区www在线观看| 亚洲av国产av综合av卡| 特大巨黑吊av在线直播| 亚洲av.av天堂| 日韩视频在线欧美| 91久久精品国产一区二区三区| 午夜福利,免费看| av国产精品久久久久影院| 波野结衣二区三区在线| 成年人午夜在线观看视频| 亚洲激情五月婷婷啪啪| 国产精品久久久久久精品古装| 最新中文字幕久久久久| 欧美精品高潮呻吟av久久| 国产男女内射视频| 欧美人与善性xxx| 亚洲欧美日韩卡通动漫| 中文字幕人妻丝袜制服| 亚洲精品第二区| av免费观看日本| 亚洲国产精品国产精品| 啦啦啦在线观看免费高清www| 国产午夜精品一二区理论片| 啦啦啦中文免费视频观看日本| 国产精品一区二区在线观看99| 2021少妇久久久久久久久久久| 久久热精品热| 欧美亚洲日本最大视频资源| 日本vs欧美在线观看视频| 亚洲av成人精品一区久久| √禁漫天堂资源中文www| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 久久久久久久亚洲中文字幕| 久久人人爽人人爽人人片va| 人妻一区二区av| 久久国产亚洲av麻豆专区| 欧美日韩一区二区视频在线观看视频在线| 久久精品夜色国产| 亚洲天堂av无毛| 亚洲少妇的诱惑av| 欧美少妇被猛烈插入视频| 一个人看视频在线观看www免费| 18禁在线无遮挡免费观看视频| 男女免费视频国产| 久久99热6这里只有精品| 国产国语露脸激情在线看| 亚洲欧美色中文字幕在线| 丰满乱子伦码专区| 精品酒店卫生间| 亚洲四区av| 蜜臀久久99精品久久宅男| 中文字幕免费在线视频6| 日韩中文字幕视频在线看片| 国产精品不卡视频一区二区| 大片免费播放器 马上看| 国产成人精品无人区| 丰满饥渴人妻一区二区三| 国产精品秋霞免费鲁丝片| 欧美97在线视频| 制服人妻中文乱码| 国产男女超爽视频在线观看| 国产免费福利视频在线观看| 一边摸一边做爽爽视频免费| 日本wwww免费看| 精品一区二区三卡| 黄色怎么调成土黄色| 精品国产露脸久久av麻豆| 亚洲人与动物交配视频| 最新中文字幕久久久久| 日韩电影二区| 视频中文字幕在线观看| 中文字幕人妻丝袜制服| 性色av一级| 亚洲国产av新网站| 在线观看免费视频网站a站| xxxhd国产人妻xxx| 亚洲欧美一区二区三区黑人 | 九色亚洲精品在线播放| 国产欧美日韩综合在线一区二区| 亚洲欧美色中文字幕在线| 中国国产av一级| 亚洲人成77777在线视频| 水蜜桃什么品种好| 又大又黄又爽视频免费| 欧美97在线视频| 人人妻人人添人人爽欧美一区卜| 免费观看在线日韩| 亚洲av综合色区一区| 一本—道久久a久久精品蜜桃钙片| kizo精华| 精品久久久精品久久久| av在线观看视频网站免费| 亚洲美女搞黄在线观看| 免费av中文字幕在线| 亚洲国产日韩一区二区| 国产片特级美女逼逼视频| 国产 一区精品| 国产精品麻豆人妻色哟哟久久| 制服人妻中文乱码| 插逼视频在线观看| 韩国av在线不卡| 日韩伦理黄色片| 日韩视频在线欧美| 亚洲欧美日韩卡通动漫| 亚洲av欧美aⅴ国产| 久热久热在线精品观看| 亚洲精品色激情综合| 国产精品99久久久久久久久| 日韩免费高清中文字幕av| 只有这里有精品99| 国产日韩欧美亚洲二区| 国产精品一区二区在线不卡| .国产精品久久| 日韩亚洲欧美综合| 国产一区二区在线观看日韩| 欧美精品高潮呻吟av久久| 国产亚洲最大av| 国产高清不卡午夜福利| 国产视频内射| av免费在线看不卡| 国产精品99久久久久久久久| 中文字幕精品免费在线观看视频 | 免费av中文字幕在线| 亚洲成色77777| 亚洲欧美日韩另类电影网站| 七月丁香在线播放| 久久av网站| 最近手机中文字幕大全| 如日韩欧美国产精品一区二区三区 | 99国产精品免费福利视频| 美女cb高潮喷水在线观看| 视频在线观看一区二区三区| 国产深夜福利视频在线观看| a级毛片免费高清观看在线播放| 久久国产精品大桥未久av| a级毛色黄片| 日韩三级伦理在线观看| 成年人免费黄色播放视频| 日韩亚洲欧美综合| 欧美人与性动交α欧美精品济南到 | 精品久久蜜臀av无| 黄色配什么色好看| 狂野欧美白嫩少妇大欣赏| 亚洲美女视频黄频| a级片在线免费高清观看视频| 日韩欧美精品免费久久| 亚洲美女黄色视频免费看| 涩涩av久久男人的天堂| 一级毛片电影观看| 国产男女超爽视频在线观看| 韩国av在线不卡| 久久久久视频综合| 黄色一级大片看看| 一级黄片播放器| 一级毛片 在线播放| 在线精品无人区一区二区三| 在现免费观看毛片| 久久精品久久久久久噜噜老黄| 欧美变态另类bdsm刘玥| videossex国产| 欧美精品一区二区免费开放| videos熟女内射| 欧美性感艳星| 国产精品久久久久久久电影| 国产视频内射| 午夜激情久久久久久久| .国产精品久久| 国产69精品久久久久777片| 午夜激情久久久久久久| 波野结衣二区三区在线| 国产视频内射| 日韩中文字幕视频在线看片| 伦理电影大哥的女人| 国产精品国产三级国产专区5o| 国产精品人妻久久久影院| 性高湖久久久久久久久免费观看| 午夜激情福利司机影院| 国产精品国产三级国产av玫瑰| 国产欧美亚洲国产| 中文乱码字字幕精品一区二区三区| 一区二区三区精品91| 亚洲av在线观看美女高潮| 免费久久久久久久精品成人欧美视频 | 如何舔出高潮| xxx大片免费视频| 成人亚洲精品一区在线观看| 啦啦啦啦在线视频资源| 男女边吃奶边做爰视频| 欧美日韩一区二区视频在线观看视频在线| 亚洲国产成人一精品久久久| 中文字幕最新亚洲高清| 高清黄色对白视频在线免费看| 亚洲精品一区蜜桃| 青青草视频在线视频观看| 伊人亚洲综合成人网| 久久久国产欧美日韩av| 91久久精品国产一区二区成人| 国产精品偷伦视频观看了|