• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      結(jié)合半監(jiān)督聚類和數(shù)據(jù)剪輯的自訓(xùn)練方法

      2018-03-20 00:43:02黎雋男
      計(jì)算機(jī)應(yīng)用 2018年1期
      關(guān)鍵詞:訓(xùn)練方法分類器聚類

      呂 佳,黎雋男

      (重慶師范大學(xué) 計(jì)算機(jī)與信息科學(xué)學(xué)院,重慶 401331)(*通信作者電子郵箱lvjia@cqnu.edu.cn)

      0 引言

      自訓(xùn)練方法[1]是半監(jiān)督學(xué)習(xí)[2]算法中的一種,它利用少量的有標(biāo)記樣本和大量的無標(biāo)記樣本共同去訓(xùn)練一個(gè)分類器,用來解決數(shù)據(jù)標(biāo)注的瓶頸問題。由于它不需要特定的假設(shè)條件且簡單有效,受到了不少學(xué)者青睞。

      Hady等[3]提出Co-Training by Committee自訓(xùn)練學(xué)習(xí)框架,該方法集成多個(gè)分類器共同進(jìn)行自訓(xùn)練學(xué)習(xí),其中置信度為多個(gè)分類器的平均后驗(yàn)概率。針對選取最大后驗(yàn)概率時(shí),可能出現(xiàn)重復(fù)的最大后驗(yàn)概率的問題,Wang等[4]引入了Naive Bayes(NB)[5],最大后驗(yàn)概率取平均后驗(yàn)概率與NB后驗(yàn)概率之和。同時(shí)針對這個(gè)問題,Liu等[6]引入了一種基于距離的度量方式,即當(dāng)平均后驗(yàn)概率相同的時(shí)候,離類別中心越近的樣本的置信度越高,越可靠。Shi等[7]提出集成SVM(Support Machine Vector)[8]、NB和Rocchio[9]三個(gè)異構(gòu)分類器自訓(xùn)練的方式對文本進(jìn)行分類,通過按類別投票的方式選取可靠的樣本。Hajmohammadi等[10]提出結(jié)合主動(dòng)學(xué)習(xí)與自訓(xùn)練的方法去解決跨語言分類問題,該方法用自訓(xùn)練方法選取置信度高的樣本,同時(shí)用平均余弦相似度和熵結(jié)合的方法去選取一些信息量大的樣本。Leng等[11]提出結(jié)合主動(dòng)學(xué)習(xí)和自訓(xùn)練方法去構(gòu)建SVM分類器,用SVM分類器去選擇類中心且標(biāo)記改變率為0的樣本,同時(shí)用主動(dòng)學(xué)習(xí)去選擇離決策邊界近的樣本。然而,在上述自訓(xùn)練方法中,如果誤標(biāo)記的無標(biāo)記樣本被作為可靠樣本加入到訓(xùn)練集中,不僅會(huì)降低自訓(xùn)練方法的性能,還會(huì)造成錯(cuò)誤累積問題,使樣本原本數(shù)據(jù)空間結(jié)構(gòu)發(fā)生扭曲。

      數(shù)據(jù)剪輯是一種統(tǒng)計(jì)過濾技術(shù),它一般用KNN(KNearest Neighbors)[12]作為基分類器,來去除樣本中潛在的噪聲,同時(shí)保留正確的樣本。不少學(xué)者用數(shù)據(jù)剪輯技術(shù)來去除自訓(xùn)練方法中的潛在的誤標(biāo)記樣本。Fan等[13-14]提出結(jié)合KNN數(shù)據(jù)剪輯技術(shù)的NB自訓(xùn)練算法,用KNN數(shù)據(jù)剪輯技術(shù)過濾掉NB自訓(xùn)練的噪聲樣本點(diǎn)。黎雋男等[15]提出結(jié)合加權(quán)KNN(WeightedKNearest Neighbors, WKNN)數(shù)據(jù)剪輯技術(shù)的NB自訓(xùn)練算法,把WKNN和NB分類器投票一致且置信度都高的樣本加入到訓(xùn)練集。Triguero等[16]總結(jié)數(shù)十種數(shù)據(jù)剪輯技術(shù),并把它們結(jié)合到自訓(xùn)練方法中進(jìn)行了實(shí)驗(yàn)性分析。

      針對自訓(xùn)練方法選出置信度高的無標(biāo)記樣本中,所含信息量可能不大的問題,Gan等[17]提出用半監(jiān)督模糊C均值(Semi-supervised Fuzzy C Means, SFCM)去改進(jìn)自訓(xùn)練方法。他認(rèn)為無標(biāo)記樣本可能含有數(shù)據(jù)空間結(jié)構(gòu)潛在信息,利用好這些潛在的信息,能更好地輔助自訓(xùn)練方法,從而提高自訓(xùn)練方法的泛化性。

      為了解決自訓(xùn)練方法中的錯(cuò)誤累積問題和自訓(xùn)練選出置信度高的無標(biāo)記樣本所含信息量不大,從而導(dǎo)致自訓(xùn)練方法泛化性不強(qiáng)的問題,并受聚類和數(shù)據(jù)剪輯技術(shù)的共同啟發(fā),本文提出結(jié)合SMUC(Semi-supervised Metric-based fUzzy Clustering)[18]和SKNN(Semi-supervisedKNearest Neighbor)[19]數(shù)據(jù)剪輯技術(shù)的NB自訓(xùn)練方法(Naive Bayes Self-Training combined SMUC and SKNN Data Editing, NBSTSMUCSKNNDE)。實(shí)驗(yàn)結(jié)果表明,本文提出方法相比改進(jìn)前方法具有更好的性能。

      1 提出算法

      傳統(tǒng)的數(shù)據(jù)剪輯技術(shù)僅僅利用有標(biāo)記樣本的信息,而假設(shè)無標(biāo)記樣本的類標(biāo)號(hào)是不可預(yù)測的,但是自訓(xùn)練方法中,有標(biāo)記樣本是很少的,那么數(shù)據(jù)剪輯的性能可能因有標(biāo)記樣本的數(shù)量的匱乏而下降。陳日新等[19]提出SKNN方法,它能同時(shí)利用有標(biāo)記樣本信息和無標(biāo)記樣本信息對待測樣本進(jìn)行分類。他認(rèn)為,如果無標(biāo)記樣本和有標(biāo)記樣本來自一個(gè)共同的序列,那么有效利用無標(biāo)記樣本信息,能提高KNN算法的性能,因此,本文提出的NBSTSMUCSKNNDE引入了一種新的數(shù)據(jù)剪輯方法,用SKNN作為數(shù)據(jù)剪輯的基分類器。它能夠同時(shí)利用有標(biāo)記樣本信息和無標(biāo)記樣本信息進(jìn)行數(shù)據(jù)剪輯,在有標(biāo)記樣本不足的情況下,利用額外無標(biāo)記樣本信息來提高數(shù)據(jù)剪輯的性能,從而更好地解決自訓(xùn)練方法中的錯(cuò)誤累積問題。

      傳統(tǒng)的自訓(xùn)練方法會(huì)隨機(jī)選擇一些無標(biāo)記樣本給自訓(xùn)練方法學(xué)習(xí),而選擇更具有信息量的無標(biāo)記樣本給自訓(xùn)練方法學(xué)習(xí),能提高自訓(xùn)練方法的性能,所以本文提出的NBSTSMUCSKNNDE用半監(jiān)督聚類SMUC方法去選擇一些聚類隸屬度高的無標(biāo)記樣本給自訓(xùn)練方法學(xué)習(xí)。聚類隸屬度高的無標(biāo)記樣本離樣本真實(shí)的類中心越近,它包含著原始樣本空間結(jié)構(gòu)信息。NBSTSMUCSKNNDE的自訓(xùn)練學(xué)習(xí)器如果能正確標(biāo)記這樣的無標(biāo)記樣本,并加入到訓(xùn)練集,則可以提高自訓(xùn)練方法的泛化性。

      2 SKNN數(shù)據(jù)剪輯技術(shù)

      傳統(tǒng)的數(shù)據(jù)剪輯技術(shù)有ENN(Edited Nearest Neighbor)[20]、RENN(Repeated Edited Nearest Neighbor)[21]、ALLKNN(AllKNearest Neighbors)[21]、MENN(Modified Edited Nearest Neighbor)[22]等,它們都是利用KNN或WKNN分類的結(jié)果與給定樣本的類標(biāo)號(hào)進(jìn)行對比,如果類標(biāo)號(hào)不一致,就判斷為噪聲樣本,但是KNN或WKNN只考慮到了k個(gè)有標(biāo)記近鄰樣本對待測樣本的類別的貢獻(xiàn),沒有考慮到無標(biāo)記近鄰樣本對待測樣本的影響,如果待測樣本和無標(biāo)記樣本來自一個(gè)共同的序列,它們的類別就會(huì)存在一定的聯(lián)系,根據(jù)待測樣本和無標(biāo)記樣本的相關(guān)性,可以提高數(shù)據(jù)剪輯的精度,從而提高算法性能。如圖1所示,如果用KNN或WKNN進(jìn)行分類,待測樣本x會(huì)被分到A類,實(shí)際上樣本x應(yīng)該屬于B類。針對這個(gè)問題,SKNN在對待測樣本分類時(shí),考慮有標(biāo)記樣本和無標(biāo)記樣本對待測樣本的共同影響。

      圖1 采用KNN或WKNN分類時(shí)的錯(cuò)誤分類的情況

      在SKNN中,設(shè)無標(biāo)記樣本x0,x1,…,xt,那么對待測樣本xt進(jìn)行分類的時(shí)候,考慮到xt與x0:t-1的樣本存在一定的相關(guān)性,為此SKNN采用聯(lián)合概率密度P(ωk|xt,x0:t-1)作為分類依據(jù),其中ω為類標(biāo)記。

      首先從已標(biāo)記樣本集中找出與xt的k1+1個(gè)最近的樣本,用xt(1),xt(2),…,xt(k1+1)表示,類標(biāo)號(hào)為t(1),t(2),…,t(k1+1)。從無標(biāo)記樣本集中找出與待測樣本最近的k2個(gè)無標(biāo)記樣本,分別用xt-1,xt-2,…,xt-k2表示,組成測試樣本本序列。

      接著用第k1+1個(gè)近鄰樣本xt(k1+1)到測試樣本xt的距離d(xt,xt(k1+1))來標(biāo)準(zhǔn)化前k1個(gè)近鄰樣本xt(1),xt(2),…,xt(k1)到測試樣本{xj,j=t,t-1,…,t-k2}的距離:

      (1)

      然后用高斯核函數(shù)核化標(biāo)準(zhǔn)后的距離:

      (2)

      最后確定xt樣本的類別表達(dá)式如下,具體推導(dǎo)見文獻(xiàn)[19]。

      (3)

      SKNN數(shù)據(jù)剪輯技術(shù)算法流程如下所示。

      輸入:有標(biāo)記近鄰樣本數(shù)k1,無標(biāo)記近鄰樣本數(shù)k2,數(shù)據(jù)集D。

      輸出:過濾后的樣本集Filtered_D。

      過程:

      forxi∈D

      1)SKNN分類xi得到類標(biāo)號(hào)ti,依據(jù)式(1)~(3)。

      2)如果ti與xi本身的類標(biāo)號(hào)不一致,則視xi為噪聲樣本,丟棄。

      end

      3 半監(jiān)督模糊C均值聚類

      Gan等[17]提出用SFCM去輔助自訓(xùn)練方法,實(shí)驗(yàn)結(jié)果表明SFCM作為一種知識(shí)發(fā)掘工具,能挖掘大量無標(biāo)記樣本所暗含的數(shù)據(jù)空間結(jié)構(gòu)信息。新標(biāo)記的有標(biāo)記樣本不僅可以改善自訓(xùn)練方法,而且也可以改善SFCM的性能,從而讓SFCM更好地優(yōu)化自訓(xùn)練方法。SFCM損失函數(shù)如下:

      (4)

      其中:c為類別個(gè)數(shù),n為樣本個(gè)數(shù),m為參數(shù)。如式(4)所示,對于SFCM,m值的選取一直是一個(gè)棘手的問題,并且用歐氏距離來計(jì)算樣本間的距離,沒有考慮到樣本屬性之間的關(guān)聯(lián)性。Yin等[18]提出SMUC,它用正則熵的方法來解決SFCM的m值選取問題,同時(shí)用馬氏距離代替歐氏距離,考慮到實(shí)際應(yīng)用中屬性之間的關(guān)系,因此,NBSTSMUCSKNNDE用SMUC替代SFCM輔助自訓(xùn)練方法,能選出更具有信息量的無標(biāo)記樣本交給自訓(xùn)練方法進(jìn)行學(xué)習(xí)。SMUC推導(dǎo)如下。

      給定先驗(yàn)隸屬度矩陣:

      U′={uik′|uik′∈[0,1];i=1,2,…,n;k=1,2,…,c}

      (5)

      同時(shí)滿足如下條件:

      (6)

      首先獲得先驗(yàn)質(zhì)心:

      (7)

      接著計(jì)算協(xié)方差矩陣:

      (8)

      根據(jù)式(8)的協(xié)方差矩陣,給定兩個(gè)樣本x1,x2,馬氏距離計(jì)算如下:

      (9)

      SMUC的損失函數(shù)如下,其中等式右邊加入了熵正則表達(dá)式:

      (10)

      式(10)是一個(gè)凸優(yōu)化問題,進(jìn)行拉格朗日優(yōu)化:

      (11)

      根據(jù)式(11),對uik和vk求偏導(dǎo)后,得到隸屬度uik和vk的計(jì)算公式,如下:

      (12)

      (13)

      SMUC算法流程如下所示。

      輸入:數(shù)據(jù)集D,先驗(yàn)隸屬度uik′,聚類數(shù)量c。

      輸出:成員隸屬度uik。

      過程:

      依據(jù)式(7)計(jì)算先驗(yàn)質(zhì)心。

      依據(jù)式(8)計(jì)算協(xié)方差矩陣C。

      while ‖uk-uk-1‖≥ε

      依據(jù)式(12)計(jì)算uik。

      依據(jù)式(13)計(jì)算vk。

      end

      4 算法流程

      首先,NBSTSMUCSKNNDE用少量的有標(biāo)記樣本和大量的無標(biāo)記樣本進(jìn)行SMUC聚類,從而選出隸屬度高的無標(biāo)記樣本給NB自訓(xùn)練方法分類。然后,NBSTSMUCSKNNDE用SKNN數(shù)據(jù)剪輯技術(shù)來過濾掉聚類隸屬高但是NB自訓(xùn)練方法誤分類無標(biāo)記樣本。聚類隸屬度高的無標(biāo)記樣本,更接近每一個(gè)聚類簇的中心,這樣的無標(biāo)記樣本更好地反映了每一個(gè)聚類簇的結(jié)構(gòu)。如果把這些聚類隸屬度高的無標(biāo)記樣本正確標(biāo)記,并加入到訓(xùn)練集,能使訓(xùn)練集更好地代表原始樣本空間的結(jié)構(gòu),從而提高NB自訓(xùn)練方法的泛化性,但是聚類隸屬度高的無標(biāo)記樣本可能是每次自訓(xùn)練方法迭代中離決策邊界近的樣本,NB自訓(xùn)練方法難以把這樣聚類隸屬度高的樣本分類正確。如果錯(cuò)誤標(biāo)記這樣的樣本,然后加入到訓(xùn)練集,不僅會(huì)扭曲數(shù)據(jù)空間原始結(jié)構(gòu)而且會(huì)使NB自訓(xùn)練方法性能下降。SKNN數(shù)據(jù)剪輯技術(shù)能過濾掉聚類隸屬高但是NB自訓(xùn)練方法誤分類無標(biāo)記樣本,使標(biāo)記正確的所含信息量大的無標(biāo)記樣本加入到訓(xùn)練集,因此,本文提出的方法通過SMUC和SKNN數(shù)據(jù)剪輯技術(shù)結(jié)合的方式,既解決了自訓(xùn)練方法選出置信度高的無標(biāo)記樣本所含信息量不大的問題,又解決了自訓(xùn)練方法的錯(cuò)誤累積問題。新標(biāo)記的無標(biāo)記樣本加入到訓(xùn)練集,不僅可以提高自訓(xùn)練方法的性能,而且可以更好地讓半監(jiān)督聚類和數(shù)據(jù)剪輯為自訓(xùn)練方法服務(wù)。

      NBSTSMUCSKNNDE算法流程如下所示。

      輸入:有標(biāo)記樣本集L,無標(biāo)記樣本集U,有標(biāo)記近鄰樣本k1,無標(biāo)記近鄰樣本k2,參數(shù)ε1,參數(shù)ε2,參數(shù)η。

      輸出:訓(xùn)練好的NB。

      過程:

      whileU集不為空

      用樣本集L和U進(jìn)行SMCU聚類,選出隸屬度uik≥ε1的樣本集R1;

      whileR1為空

      ε1=ε1-0.05,選出隸屬度uik≥ε1的樣本集R1;

      end

      用樣本集L和U訓(xùn)練分類器NB,用訓(xùn)練后的分類器對R1分類,選出置信度大于ε2的樣本集R2,并得到其類標(biāo)號(hào)Tag2;

      whileR2為空

      ε2=ε2-0.05,選出置信度大于ε2的樣本集R2,并得到其類標(biāo)號(hào)Tag2;

      end

      用SKNN數(shù)據(jù)剪輯技術(shù)過濾掉R2中的噪聲樣本,得到可靠樣本集R3;

      L=L+R3,U=U-R3;

      end

      5 實(shí)驗(yàn)仿真

      為了說明本文算法的有效性,選用對比算法如下:

      1)NB自訓(xùn)練(NB Self-Training, NBST)。

      2)結(jié)合SFCM的NB自訓(xùn)練(NB Self-Training combined SFCM, NBSTSFCM)。

      3)結(jié)合SMUC的NB自訓(xùn)練(NB Self-Training combined SMUC, NBSTSMUC)。

      4)本文提出的結(jié)合SMUC和SKNN數(shù)據(jù)剪輯技術(shù)的NB自訓(xùn)練(Naive Bayes Self-Training combined SMUC and SKNN Data Editing, NBSTSMUCSKNNDE)。

      實(shí)驗(yàn)數(shù)據(jù)集來源于UCI數(shù)據(jù)集,共8個(gè),如表1。把每一個(gè)數(shù)據(jù)集隨機(jī)分為測試集和訓(xùn)練集兩部分,其中訓(xùn)練集為80%,測試集為20%。在訓(xùn)練集中隨機(jī)選取10%的樣本作為初始化的有標(biāo)記樣本,其余樣本去除類標(biāo)記作為無標(biāo)記樣本。NBSTSFCM中的參數(shù)m=2。NBSTSMUCSKNNDE中的參數(shù)ε1=0.95,ε2=0.95,η=1,其他參數(shù)在各個(gè)數(shù)據(jù)集調(diào)整至最優(yōu)進(jìn)行實(shí)驗(yàn),如表2。實(shí)驗(yàn)重復(fù)10次,取10次的平均分類正確率±標(biāo)準(zhǔn)差,如表3所示。為了說明有標(biāo)記樣本數(shù)對算法的影響,圖2給出了當(dāng)初始化的有標(biāo)記樣本比例為10%~50%的時(shí)候,實(shí)驗(yàn)重復(fù)10次,4個(gè)算法在8個(gè)數(shù)據(jù)集上的平均分類正確率。

      表1 UCI數(shù)據(jù)集描述

      表2 實(shí)驗(yàn)參數(shù)設(shè)置

      表3 有標(biāo)記率為10%時(shí),4個(gè)算法在8個(gè)數(shù)據(jù)集上的性能對比

      從表3總體可以看出,當(dāng)有標(biāo)記樣本比例為10%的時(shí)候,本文提出的NBSTSMUCSKNNDE算法整體上性能好于對比算法。具體地看,當(dāng)有標(biāo)記樣本率為10%時(shí):在數(shù)據(jù)集Vertebral Column、Haberman’s Survival、Blood Transfusion Service Center、Breast Cancer Wisconsin (Original)和Indian Liver Patient Dataset上,本文提出算法均優(yōu)于對比算法;但在數(shù)據(jù)集IRIS、Seeds和Wine上,本文提出算法弱于對比算法。這可能是數(shù)據(jù)集IRIS、Seeds和Wine中的樣本數(shù)太少,用過少的有標(biāo)記樣本來指導(dǎo)SMUC聚類,難以找到信息量大的無標(biāo)記樣本給NB自訓(xùn)練標(biāo)記。而且在迭代初期,有標(biāo)記樣本過少也影響SKNN數(shù)據(jù)剪輯技術(shù)對無標(biāo)記樣本利用的準(zhǔn)確率,最終使SMUC和SKNN數(shù)據(jù)剪輯技術(shù)難以有效輔助NB自訓(xùn)練方法。在8個(gè)UCI數(shù)據(jù)集上,NBSTSFCM性能微弱于NBSTSMUC,這是因?yàn)镹BSTSMUC用SMUC代替SFCM,考慮到了實(shí)際應(yīng)用中屬性之間的關(guān)聯(lián)性。NBSTSFCM、NBSTSMUC的分類正確率在數(shù)據(jù)集Haberman’s Survival和Blood Transfusion Service Center上高于NBST,但在其他6個(gè)數(shù)據(jù)集上,分類正確率低于NBST。這是因?yàn)榫垲愃惴苓x出無標(biāo)記樣本中一些暗含數(shù)據(jù)空間結(jié)構(gòu)的樣本,但是這樣的樣本可能是NB自訓(xùn)練每次迭代很難正確標(biāo)記的樣本。如果用SKNN數(shù)據(jù)剪輯技術(shù)過濾掉這些樣本,則能更好地提高NB自訓(xùn)練性能,因此本文提出的NBSTSMUCSKNNDE優(yōu)于對比算法。

      從圖2可以看出,在數(shù)據(jù)集Vertebral Column、Haberman’s Survival、Blood Transfusion Service Center、Breast Cancer Wisconsin (Original)和Indian Liver Patient Dataset上,本文提出的NBSTSMUCSKNNDE算法在有標(biāo)記樣本比例為10%~50%的情況下,分類正確率都優(yōu)于對比算法。雖然當(dāng)有標(biāo)記樣本為10%的時(shí)候,在IRIS、Seeds數(shù)據(jù)集上,和當(dāng)有標(biāo)記樣本比例為10%、20%的時(shí)候,在Wine數(shù)據(jù)集上,NBSTSMUCSKNNDE算法在分類正確率上低于NBST,但是隨著有標(biāo)記比例的增加,也能好于對比算法。這可能是因?yàn)镮RIS、Seed和Wine樣本量過少的緣故。同時(shí),當(dāng)有標(biāo)記樣本比例為10%~50%的情況下,NBSTSMUC在8個(gè)數(shù)據(jù)集上,整體性能也好于NBSTSFCM。這也證明了本文NBSTSMUCSKNNDE算法用SMUC的優(yōu)勢。

      6 結(jié)語

      本文針對自訓(xùn)練方法在迭代中選出的置信度高的無標(biāo)記樣本所含信息量不大和自訓(xùn)練方法容易誤標(biāo)記無標(biāo)記樣本的問題,提出NBSTSMUCSKNNDE算法。在自訓(xùn)練每次迭代中,該算法用SMUC選取暗含數(shù)據(jù)空間結(jié)構(gòu)信息的無標(biāo)記樣本給NB分類,同時(shí)用SKNN數(shù)據(jù)剪輯技術(shù)來過濾掉聚類信息量大但是NB誤分類的無標(biāo)記樣本。相比傳統(tǒng)的半監(jiān)督聚類,SMUC考慮到了實(shí)際應(yīng)用中屬性之間的關(guān)聯(lián)性,并且用熵正則化來優(yōu)化物理表達(dá)式,克服了SFCM難找到一個(gè)最優(yōu)參數(shù)來發(fā)掘更具有信息量的無標(biāo)記樣本的問題。同時(shí),本文首次提出了一種新的數(shù)據(jù)剪輯技術(shù),相比以往的數(shù)據(jù)剪輯技術(shù),SKNN能同時(shí)利用有標(biāo)記樣本和無標(biāo)記樣本信息進(jìn)行噪聲過濾,在有標(biāo)記樣本不足的情況下,它能利用額外的無標(biāo)記樣本信息來過濾掉自訓(xùn)練方法中誤標(biāo)記的無標(biāo)記樣本。最后在UCI數(shù)據(jù)集上驗(yàn)證了算法的有效性。在后續(xù)的工作中,將研究如何降低本文提出方法的時(shí)間復(fù)雜度和如何提高自訓(xùn)練方法在迭代中的預(yù)測準(zhǔn)確率問題。

      References)

      [1] YAROWSKY D. Unsupervised word sense disambiguation rivaling supervised methods [C]// ACL ’95: Proceedings of the 33rd Annual Meeting on Association for Computational Linguistics. Stroudsburg: Association for Computational Linguistics, 1995: 189-196.

      [2] ZHU X, GOLDBERG A B, BRACHMAN R, et al. Introduction to Semi-Supervised Learning [M]. San Rafael, CA: Morgan and Claypool Publishers, 2009: 130.

      [3] HADY M F A, SCHWENKER F. Co-training by committee: a new semi-supervised learning framework [C]// ICDMW ’08: Proceedings of the 2008 IEEE International Conference on Data Mining Workshops. Washington, DC: IEEE Computer Society, 2008: 563-572.

      [4] WANG S, WU L, JIAO L, et al. Improve the performance of co-training by committee with refinement of class probability estimations [J]. Neurocomputing, 2014, 136(8): 30-40.

      [5] LEWIS D D. Naive (Bayes) at Forty: the independence assumption in information retrieval [C]// ECML ’98: Proceedings of the 10th European Conference on Machine Learning. Berlin: Springer, 1998: 4-15.

      [6] LIU K, GUO Y, WANG S, et al. Semi-supervised learning based on improved co-training by committee [C]// IScIDE 2015: Proceedings of the 5th International Conference on Intelligence Science and Big Data Engineering. Big Data and Machine Learning Techniques. Berlin: Springer, 2015: 413-421.

      [7] SHI L, MA X, XI L, et al. Rough set and ensemble learning based semi-supervised algorithm for text classification [J]. Expert Systems with Applications, 2011, 38(5): 6300-6306.

      [8] JOACHIMS T. A statistical learning model of text classification with support vector machines [C]// SIGIR ’01: Proceedings of the 24th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM, 2001: 128-136.

      [9] JOACHIMS T. A probabilistic analysis of the Rochhio algorithm with TFIDF for text categorization [C]// ICML ’97: Proceedings of the Fourteenth International Conference on Machine Learning. San Francisco: Morgan Kaufmann, 1997: 143-151.

      [10] HAJMOHAMMADI M S, IBRAHIM R, SELAMAT A, et al. Combination of active learning and self-training for cross-lingual sentiment classification with density analysis of unlabelled samples [J]. Information Sciences, 2015, 317: 67-77.

      [11] LENG Y, XU X, QI G. Combining active learning and semi-supervised learning to construct SVM classifier [J]. Knowledge-Based Systems, 2013, 44(1): 121-131.

      [12] COVER T M. HART P E. Nearest neighbor pattern classification [J]. IEEE Transactions on Information Theory, 1967, 13(1): 21-27.

      [13] FAN X, GUO Z, MA H. An improved EM-based semi-supervised learning method [C]// IJCBS ’09: Proceedings of the 2009 International Joint Conference on Bioinformatics, Systems Biology and Intelligent Computing. Washington, DC: IEEE Computer Society, 2009: 529-532.

      [14] FAN X, GUO Z, MA H. A semi-supervised text classfification method based on incremental EM algorithm [C]// ICIE ’10: Proceedings of the 2010 WASE International Conference on Information Engineering. Washington, DC: IEEE Computer Society, 2010: 211-214.

      [15] 黎雋男,呂佳.結(jié)合主動(dòng)學(xué)習(xí)與置信度投票的集成自訓(xùn)練方法[J].計(jì)算機(jī)工程與應(yīng)用,2016,52(20):167-171.(LI J N, LYU J. Ensemble self-training method based on active learning and confidence voting [J]. Computer Engineering and Applications, 2016, 52(20): 167-171.)

      [16] TRIGUERO I, SáEZ J A, LUENGO J, et al. On the characterization of noise filters for self-training semi-supervised in nearest neighbor classification [J]. Neurocomputing, 2014, 132(13): 30-41.

      [17] GAN H, SANG N, HUANG R, et al. Using clustering analysis to improve semi-supervised classification [J]. Neurocomputing, 2013, 101(3): 290-298.

      [18] YIN X, SHU T, HUANG Q. Semi-supervised fuzzy clustering with metric learning and entropy regularization [J]. Knowledge-Based Systems, 2012, 35(15): 304-311.

      [19] 陳日新,朱明旱.半監(jiān)督K近鄰分類方法[J].中國圖象圖形學(xué)報(bào),2013,18(2):195-200.(CHEN R X, ZHU M H. Semi-supervisedK-nearest neighbor classification method [J]. Journal of Image and Graphics, 2013, 18(2): 195-200.)

      [20] WILSON D L. Asymptotic properties of nearest neighbor rules using edited data [J]. IEEE Transactions on Systems Man & Cybernetics, 1972, SMC- 2(3): 408-421.

      [21] TOMEK I. An experiment with the edited nearest-neighbor rule [J]. IEEE Transactions on Systems Man & Cybernetics, 1976, 6(6): 448-452.

      [22] HATTOR K, TAKAHASHI M. A new editedk-nearest neighbor rule in the pattern classification problem [J]. Pattern Recognition, 2000, 33 (3): 521-528.

      This work is partially supported by Chongqing Natural Science Foundation of China (cstc2014jcyjA40011), Science and Technology Project of Chongqing Municipal Education Commission (KJ1400513), Chongqing Scientific Research Project (CYS17176), Chongqing Normal University Research Project (YKC17001).

      LYUJia, born in 1978, Ph. D., professor. Her research interests include machine learning, data mining.

      LIJunnan, born in 1992, M. S. candidate. His research interests include machine learning, data mining.

      猜你喜歡
      訓(xùn)練方法分類器聚類
      談高中數(shù)學(xué)習(xí)題訓(xùn)練方法與答題技巧
      甘肅教育(2020年18期)2020-10-28 09:07:12
      壁球反手擊球技術(shù)及其訓(xùn)練方法
      跳遠(yuǎn)運(yùn)動(dòng)員專項(xiàng)力量訓(xùn)練方法
      BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
      電子測試(2018年1期)2018-04-18 11:52:35
      基于DBSACN聚類算法的XML文檔聚類
      電子測試(2017年15期)2017-12-18 07:19:27
      簡論1min跳繩訓(xùn)練方法
      加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
      結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
      基于改進(jìn)的遺傳算法的模糊聚類算法
      一種層次初始的聚類個(gè)數(shù)自適應(yīng)的聚類方法研究
      体育| 万年县| 财经| 吴桥县| 阿拉善盟| 德化县| 独山县| 华蓥市| 手机| 鱼台县| 鄱阳县| 伊春市| 宜黄县| 卢氏县| 永川市| 普定县| 弥勒县| 绥阳县| 津市市| 遂昌县| 五原县| 天祝| 海南省| 金寨县| 长治县| 仁布县| 古蔺县| 武义县| 汉沽区| 沙坪坝区| 潞城市| 南丰县| 包头市| 咸宁市| 阜平县| 淮阳县| 新闻| 镇赉县| 耒阳市| 西盟| 余江县|