史 偉 李超群
(中國(guó)地質(zhì)大學(xué)(武漢)數(shù)學(xué)與物理學(xué)院 湖北 武漢 430074)
為了獲得實(shí)例的集成標(biāo)簽,最簡(jiǎn)單的方法就是Ipeirotis等[2]提出的眾數(shù)投票法(Majority Voting,MV),即將實(shí)例xi的多標(biāo)簽集的多數(shù)類賦予該實(shí)例。但是MV比較粗糙,為了獲得更高質(zhì)量的集成標(biāo)簽,很多研究者致力于設(shè)計(jì)新的標(biāo)簽真值推理算法。例如Raykar等[3]提出RY,Demartini等[4]提出ZC,Sheng[5]提出MV的兩種變形MV-Freq和MV-Beta,Tian等[6]提出的M3V,Zhang等[7]提出的DEWMV。
毫無(wú)疑問(wèn),無(wú)論使用哪一種真值推理算法,集成標(biāo)簽中仍存在一定程度的噪聲。這里噪聲是指與專家標(biāo)簽不同的集成標(biāo)簽,集成標(biāo)簽為噪聲的實(shí)例本文稱為噪聲實(shí)例。在監(jiān)督學(xué)習(xí)中,訓(xùn)練數(shù)據(jù)集的標(biāo)簽質(zhì)量對(duì)于模型的構(gòu)建至關(guān)重要。因?yàn)殄e(cuò)誤標(biāo)注的數(shù)據(jù)可能會(huì)降低目標(biāo)分類器的性能,同時(shí)增加模型訓(xùn)練的復(fù)雜度,所以噪聲處理是十分有必要的。在信號(hào)處理領(lǐng)域,噪聲處理是一個(gè)相對(duì)成熟的問(wèn)題。雖然大多數(shù)工作可以直接用于集成標(biāo)簽進(jìn)行噪聲過(guò)濾或糾正,但這些工作不是針對(duì)眾包數(shù)據(jù)設(shè)計(jì)的,不能有效利用眾包系統(tǒng)所產(chǎn)生的信息。現(xiàn)有文獻(xiàn)中,將眾包噪聲處理與機(jī)器學(xué)習(xí)結(jié)合的研究并不多。另外,雖然很多噪聲過(guò)濾方法可以有效地過(guò)濾集成標(biāo)簽中的噪聲數(shù)據(jù),但是簡(jiǎn)單拋棄一部分實(shí)例無(wú)疑是一種數(shù)據(jù)浪費(fèi),而標(biāo)簽糾正技術(shù)可以減少這一浪費(fèi)?;谝陨蟽牲c(diǎn),本文致力于眾包數(shù)據(jù)的標(biāo)簽噪聲糾正技術(shù),利用實(shí)例多標(biāo)簽集中的信息,提出一個(gè)新的標(biāo)簽噪聲糾正方法,稱為修改的基于聚類的噪聲糾正算法(MCNC)。多標(biāo)簽集中的信息用于監(jiān)督標(biāo)簽噪聲糾正過(guò)程。在若干數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,對(duì)比其他標(biāo)簽噪聲糾正方法,該方法可以更有效地提高數(shù)據(jù)質(zhì)量和目標(biāo)模型質(zhì)量。
面向眾包機(jī)器學(xué)習(xí),研究者們展開了很多工作。其中主要的工作集中在真值推理算法的改進(jìn)。還有的工作是將眾包學(xué)習(xí)和主動(dòng)學(xué)習(xí)結(jié)合,這個(gè)方向的核心觀點(diǎn)是如何選擇最不確定的實(shí)例[8-9]進(jìn)行標(biāo)注;也有一部分工作是將眾包生成的多標(biāo)簽集和專家標(biāo)簽結(jié)合[10-12],通過(guò)引入小部分專家標(biāo)簽(黃金數(shù)據(jù))來(lái)提升集成標(biāo)簽的質(zhì)量,本質(zhì)上仍屬于標(biāo)簽真值推理的范疇。盡管在提升集成標(biāo)簽質(zhì)量方面研究者們做了很大的努力,一個(gè)在若干個(gè)實(shí)際眾包數(shù)據(jù)集上的實(shí)證研究表明這些算法的表現(xiàn)沒(méi)有顯著差異[13]。為了進(jìn)一步提升集成標(biāo)簽的質(zhì)量,進(jìn)行標(biāo)簽噪聲處理是十分有必要的。
一份關(guān)于標(biāo)簽噪聲的綜述[14]回顧了標(biāo)簽噪聲魯棒、標(biāo)簽噪聲清理和標(biāo)簽噪聲容忍模型。而標(biāo)簽噪聲清理往往比建立噪聲容忍學(xué)習(xí)模型[15-17]更加有效。存在很多可行的噪聲清理方法,例如,基于度量和閾值的方法[18]通過(guò)一種特殊的度量評(píng)價(jià)了每一個(gè)實(shí)例,如果某個(gè)實(shí)例在某方面的度量超過(guò)預(yù)定閾值,則這個(gè)實(shí)例將被視為噪聲被去除。K近鄰(KNN)的方法使用了KNN分類器對(duì)標(biāo)簽噪聲敏感的特點(diǎn);基于KNN的方法移除被其他實(shí)例認(rèn)為是噪聲的實(shí)例?;谀P陀绊懞蛢?nèi)省的方法[19-20],通過(guò)分析錯(cuò)誤標(biāo)記實(shí)例對(duì)模型的影響來(lái)檢測(cè)錯(cuò)誤標(biāo)記實(shí)例。一種更通用的噪聲過(guò)濾的方法是基于模型預(yù)測(cè)的過(guò)濾,其通過(guò)訓(xùn)練一個(gè)學(xué)習(xí)模型去分類實(shí)例并發(fā)現(xiàn)噪聲,例如,classification filtering(CF)、voting filtering(VF)和partition filtering(PF)[21]。實(shí)際上,很少有研究專門針對(duì)眾包領(lǐng)域的噪聲處理。Li等[22]驗(yàn)證了通過(guò)噪聲過(guò)濾技術(shù)可以提高眾包數(shù)據(jù)的集成標(biāo)簽質(zhì)量和目標(biāo)分類器的性能。
相比噪聲過(guò)濾,標(biāo)簽噪聲糾正的算法要少一些。盡管噪聲過(guò)濾器是有效的處理噪聲的方法,但可能會(huì)過(guò)濾過(guò)多實(shí)例[14],使得剩余的實(shí)例不足以訓(xùn)練一個(gè)好的分類器,并且對(duì)于數(shù)據(jù)資源是一種極大的浪費(fèi)。因此,本文致力于通過(guò)噪聲糾正技術(shù)提升眾包學(xué)習(xí)的性能。下面將回顧現(xiàn)有文獻(xiàn)中的噪聲糾正技術(shù)。
Nicholson等[23]提到了三種標(biāo)簽噪聲糾正方法:Polishing Labels(PL)、Self-Training Correction(STC)和Cluster-based Correction(CC)。PL是由Teng[24]中Polishing方法改進(jìn)而來(lái),將其從關(guān)注屬性噪聲的糾正更改為關(guān)注標(biāo)簽噪聲的糾正。該方法首先將數(shù)據(jù)集分成十個(gè)部分,然后用單一的分類算法在每一個(gè)部分上建立一個(gè)模型,用十個(gè)模型對(duì)數(shù)據(jù)集中每一個(gè)實(shí)例進(jìn)行分類,得票多的標(biāo)簽被賦予這個(gè)實(shí)例。STC靈感來(lái)源于Triguero等[25]的自訓(xùn)練,具體而言,STC首先在數(shù)據(jù)集上使用一個(gè)噪聲過(guò)濾器生成一個(gè)干凈數(shù)據(jù)集和噪聲數(shù)據(jù)集,然后在干凈數(shù)據(jù)集上訓(xùn)練一個(gè)模型用于計(jì)算噪聲數(shù)據(jù)集中每個(gè)實(shí)例是某個(gè)標(biāo)簽的置信度,置信度最高的標(biāo)簽被賦予這個(gè)實(shí)例,并將這個(gè)實(shí)例加入到干凈數(shù)據(jù)集中。重復(fù)這一過(guò)程,直到一定比例的噪聲實(shí)例被重新標(biāo)記并加入干凈數(shù)據(jù)集。不同于上述兩種方法,CC是基于聚類的方法,該方法能形成獨(dú)立的簇標(biāo)簽,無(wú)視數(shù)據(jù)集中的噪聲等級(jí)。CC的基本思想是在數(shù)據(jù)集上執(zhí)行多次聚類算法,根據(jù)每個(gè)簇中實(shí)例標(biāo)簽的分布和簇的大小,為每個(gè)簇中的所有實(shí)例賦予相同的權(quán)重,權(quán)重反映了實(shí)例屬于不同標(biāo)簽的可能性。最終每個(gè)實(shí)例對(duì)從不同簇中得到的權(quán)重求和,并將對(duì)應(yīng)最大權(quán)重的標(biāo)簽賦予該實(shí)例。CC因?yàn)槎啻尉垲惖脑?,有較高的時(shí)間復(fù)雜度,但作者的實(shí)驗(yàn)結(jié)果表明,相比于PL和STC,CC的性能更好。
但上面提到的方法都不是為眾包學(xué)習(xí)特別設(shè)計(jì)的。據(jù)我們所知,只有兩個(gè)噪聲糾正方法是特別為眾包學(xué)習(xí)設(shè)計(jì)的。一個(gè)是自適應(yīng)投票噪聲糾正方法(Adaptive Voting Noise Correction,AVNC)[26]。AVNC通過(guò)真值推理階段得到的信息監(jiān)督噪聲識(shí)別過(guò)程,同時(shí)在眾包系統(tǒng)中使用工人的標(biāo)注質(zhì)量去估計(jì)數(shù)據(jù)集中噪聲的數(shù)量。不僅如此,AVNC還對(duì)噪聲實(shí)例進(jìn)行排序,以此來(lái)決定哪些實(shí)例更應(yīng)該被去除。然后AVNC利用集成學(xué)習(xí)模型來(lái)糾正噪聲實(shí)例的標(biāo)簽。AVNC的優(yōu)勢(shì)是使用了真值推理階段的信息(即工人的標(biāo)注質(zhì)量)來(lái)監(jiān)督噪聲的識(shí)別和過(guò)濾。但是AVNC僅僅關(guān)注了數(shù)據(jù)質(zhì)量而沒(méi)有關(guān)注模型質(zhì)量。另一個(gè)是基于類別間隔的噪聲糾正方法(Between-class Margin-based Noise Correction,BMNC)[27]。文章認(rèn)為如果用于構(gòu)建過(guò)濾器的數(shù)據(jù)集本身是帶有噪聲的,那么過(guò)濾器將不可避免地被噪聲實(shí)例影響,導(dǎo)致產(chǎn)生的干凈數(shù)據(jù)集并不完全干凈。所以BMNC在進(jìn)行噪聲過(guò)濾之前,利用真值推理階段的信息進(jìn)行一次預(yù)過(guò)濾,去除一些潛在的噪聲實(shí)例;然后訓(xùn)練一個(gè)分類器用于進(jìn)一步分離出噪聲實(shí)例,這是第二步過(guò)濾。經(jīng)過(guò)兩步過(guò)濾后得到一個(gè)干凈數(shù)據(jù)集和一個(gè)噪聲數(shù)據(jù)集,在干凈數(shù)據(jù)集上構(gòu)建分類器,用于對(duì)噪聲數(shù)據(jù)集中的實(shí)例進(jìn)行重新標(biāo)注。
本文致力于結(jié)合眾包系統(tǒng)的信息和聚類算法,設(shè)計(jì)一個(gè)新的標(biāo)簽噪聲糾正方法,本文算法同時(shí)關(guān)注標(biāo)簽質(zhì)量和模型質(zhì)量。
一般而言,一個(gè)標(biāo)簽噪聲糾正方法包括兩個(gè)步驟:噪聲識(shí)別和噪聲糾正。噪聲識(shí)別最常見(jiàn)的一類方法是在數(shù)據(jù)集上建立分類器,利用分類器的預(yù)測(cè)標(biāo)簽與實(shí)例本身的標(biāo)簽進(jìn)行對(duì)照,從而識(shí)別哪些實(shí)例是噪聲實(shí)例。在識(shí)別出噪聲標(biāo)簽后,再進(jìn)行校正。但由于數(shù)據(jù)標(biāo)簽本身帶有噪聲,直接在這樣的數(shù)據(jù)上建立分類器進(jìn)行噪聲識(shí)別,勢(shì)必會(huì)限制噪聲識(shí)別的性能,導(dǎo)致噪聲識(shí)別準(zhǔn)確率不理想。面向眾包數(shù)據(jù),BMNC算法[27]使用眾包數(shù)據(jù)的多標(biāo)簽集信息對(duì)噪聲進(jìn)行了一次預(yù)過(guò)濾,去除部分潛在噪聲是有效且必要的。
BMNC算法通過(guò)使用每個(gè)實(shí)例的多標(biāo)簽集合中的信息來(lái)對(duì)數(shù)據(jù)集進(jìn)行預(yù)過(guò)濾。通過(guò)讓不同的工人對(duì)同一個(gè)實(shí)例進(jìn)行標(biāo)注,每個(gè)實(shí)例xi會(huì)有一個(gè)多標(biāo)簽集Ii。用Nl表示多標(biāo)簽集Ii中標(biāo)簽l的數(shù)量,pl表示標(biāo)簽l出現(xiàn)的比例,則:
式中:L是數(shù)據(jù)集的標(biāo)簽集合,包含了數(shù)據(jù)集中所有可能的標(biāo)簽取值。
之后,在預(yù)過(guò)濾后的數(shù)據(jù)集上再過(guò)濾,用于進(jìn)一步識(shí)別出噪聲。具體的做法是在預(yù)過(guò)濾的數(shù)據(jù)集上建立分類器,利用分類器對(duì)預(yù)過(guò)濾后的數(shù)據(jù)集進(jìn)行分類,若一個(gè)實(shí)例所獲得的分類器的預(yù)測(cè)標(biāo)簽不同于該實(shí)例的集成標(biāo)簽,則該實(shí)例被判定為噪聲。經(jīng)過(guò)兩步過(guò)濾后,已經(jīng)識(shí)別出所有可能的噪聲實(shí)例。
對(duì)噪聲實(shí)例的糾正,比較普遍的做法之一也是在數(shù)據(jù)集上建立分類器,用分類器對(duì)噪聲實(shí)例進(jìn)行預(yù)測(cè),將預(yù)測(cè)的標(biāo)簽賦予噪聲實(shí)例,達(dá)到對(duì)噪聲實(shí)例的標(biāo)簽進(jìn)行糾正的目的,比如STC方法。但本文擬采用聚類方法CC,在原始數(shù)據(jù)集上進(jìn)行多次聚類,利用CC的思想對(duì)噪聲實(shí)例賦予新的標(biāo)簽。之前的工作已經(jīng)表明,相較于STC,CC的效果更好??赡艿脑蛟谟冢?1) CC的方法是基于聚類的方法,因此方法的性能本身與數(shù)據(jù)的標(biāo)簽質(zhì)量無(wú)關(guān);(2) CC的方法進(jìn)行了多次聚類,形成了許多簇,因此是一個(gè)類似集成學(xué)習(xí)的思路。關(guān)于監(jiān)督學(xué)習(xí)的研究已經(jīng)表明,基于集成學(xué)習(xí)的分類器往往比單分類器要顯示出更好的分類性能。CC可以看成是基于聚類的集成學(xué)習(xí),利用多次聚類的思路,既克服了單次k均值算法對(duì)k值大小敏感的問(wèn)題,也在多次聚類中利用大小不同的簇對(duì)實(shí)例的可能類標(biāo)賦予不同的權(quán)值,通過(guò)權(quán)值求和得到實(shí)例的最終標(biāo)簽。
基于上述討論,本文在構(gòu)建過(guò)濾器去識(shí)別噪聲之前,對(duì)數(shù)據(jù)集進(jìn)行一個(gè)預(yù)過(guò)濾。通過(guò)預(yù)過(guò)濾,去除一些潛在的噪聲實(shí)例。之后,在預(yù)過(guò)濾后的數(shù)據(jù)集上訓(xùn)練一個(gè)分類器,用于進(jìn)一步識(shí)別出噪聲實(shí)例。經(jīng)過(guò)兩步過(guò)濾后,已經(jīng)識(shí)別出所有可能的噪聲實(shí)例。接下來(lái)是對(duì)噪聲實(shí)例的糾正,使用原始數(shù)據(jù)集中所有的實(shí)例進(jìn)行多次聚類,利用聚類結(jié)果對(duì)前兩步識(shí)別出的噪聲實(shí)例進(jìn)行重新標(biāo)注。將本文算法稱為修改的基于聚類的噪聲糾正算法(MCNC)。
MCNC方法細(xì)節(jié)如算法1和算法2所示。算法1中,1-7行使用熵對(duì)數(shù)據(jù)集中的實(shí)例進(jìn)行初步過(guò)濾。8-9行進(jìn)行了第二次過(guò)濾。為了解決數(shù)據(jù)集中標(biāo)簽不均衡問(wèn)題,10-12行計(jì)算了數(shù)據(jù)集中指定標(biāo)簽的分布,該信息被用于算法2中,計(jì)算每個(gè)實(shí)例的聚類標(biāo)簽權(quán)重。13-21行給出了所有需要的聚類算法,這里使用k均值聚類,k取值從2到集合中實(shí)例數(shù)的一半不等。這個(gè)過(guò)程會(huì)產(chǎn)生大量不同大小的簇,用于增加聚類得到的簇的多樣性。在每次聚類結(jié)果中,按照簇的不同,依據(jù)簇中所有實(shí)例的標(biāo)簽分布,計(jì)算該簇整體是各個(gè)類標(biāo)的可能性,即算法2計(jì)算的權(quán)值。18行對(duì)簇中每個(gè)實(shí)例進(jìn)行一個(gè)權(quán)值的累加,即每個(gè)實(shí)例是各標(biāo)簽的可能性。22-25行使用聚類產(chǎn)生的標(biāo)簽權(quán)重對(duì)噪聲實(shí)例進(jìn)行重新標(biāo)注。算法2對(duì)算法1中的18行的CalcWeights進(jìn)行了詳細(xì)解釋,說(shuō)明了如何根據(jù)數(shù)據(jù)集中標(biāo)簽分布和具體簇中的標(biāo)簽分布計(jì)算各標(biāo)簽權(quán)重。第1行計(jì)算了具體簇中的標(biāo)簽分布,第2行計(jì)算各標(biāo)簽的預(yù)期分布,第3行是一個(gè)乘數(shù),用于給較大的簇更大的重要級(jí),但包含100個(gè)實(shí)例以上的簇獲得最大的重要級(jí)是2,是為了不讓非常大的簇淹沒(méi)較小的簇。4-6行計(jì)算了該簇是各個(gè)標(biāo)簽的權(quán)重,簇中標(biāo)簽的實(shí)際分布減去標(biāo)簽的預(yù)期分布,并按照數(shù)據(jù)集中的標(biāo)簽分布進(jìn)行縮放,乘以乘數(shù)得到權(quán)重。
算法1MCNC流程
1.一個(gè)空的集合A;
2.fori=1 toNdo
3.計(jì)算多標(biāo)簽集合Ii中每個(gè)標(biāo)簽的比例pl;
6.endif
7.endfor
10.fori=1 toNdo
12.endfor
13.fori=1 toado
16.for聚類結(jié)果C中所有的簇cdo
17.forc中全部的實(shí)例xdo
18.InsWeightsx=InsWeightsx+
CalcWeights(cj,LabelTotals,L);
19.endfor
20.endfor
21.endfor
22.forA+B中所有實(shí)例xdo
25.endfor
算法2CalcWeights
輸入:簇c,標(biāo)簽分布向量v,標(biāo)簽集合L。
輸出:權(quán)重向量w。
1.d=簇c中的標(biāo)簽分布
2.u=1/|L|;
3.multiplier= min(log10(sizeof(c)),2);
4.fori=1 to |L|do
6.endfor
7.returnw
依據(jù)數(shù)據(jù)質(zhì)量和模型質(zhì)量?jī)蓚€(gè)指標(biāo),將MCNC與MV、PL、STC、CC、BMNC進(jìn)行比較。其中,MV是指沒(méi)有應(yīng)用噪聲糾正方法,僅使用多數(shù)投票算法來(lái)產(chǎn)生實(shí)例的集成標(biāo)簽。MV的結(jié)果被作為基準(zhǔn)與其余五種噪聲糾正算法進(jìn)行比較。數(shù)據(jù)質(zhì)量的定義為:數(shù)據(jù)集中集成標(biāo)簽與真實(shí)標(biāo)簽相同的實(shí)例比例。模型質(zhì)量定義為:在糾正后的數(shù)據(jù)集上訓(xùn)練目標(biāo)分類器獲得的分類精度。這里使用C4.5作為目標(biāo)分類器。
本文在人群環(huán)境及其知識(shí)分析平臺(tái)(CEKA)[28]上實(shí)現(xiàn)MCNC和BMNC,使用CEKA平臺(tái)現(xiàn)有的算法MV、PL、STC和CC的代碼;使用懷卡托知識(shí)分析平臺(tái)(WEKA)[29]的C4.5(J48)代碼。實(shí)驗(yàn)中的五種噪聲糾正方法的設(shè)置如下:
(1) PL:C4.5作為PL分類器。
(2) STC:用分類過(guò)濾器(CF)作為STC的過(guò)濾器,糾正的噪聲實(shí)例比例設(shè)置為0.8,C4.5作為STC分類器。
(3) CC:聚類次數(shù)a=10,采用k均值聚類,k值從2到實(shí)例數(shù)的一半不等。
(4) BMNC:CF為過(guò)濾器,閾值δ=0.95,C4.5為BMNC的分類器。
(5) MCNC:CF為過(guò)濾器,閾值δ=0.95,聚類次數(shù)a=10,采用k均值聚類為CC的聚類方法,k值從2到實(shí)例數(shù)的一半不等。
另外,當(dāng)CF作為STC、BMNC和MCNC的噪聲過(guò)濾器時(shí),需要設(shè)置一個(gè)參數(shù)n(n是對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行分區(qū)的數(shù)量)和用于過(guò)濾的分類器。在本文實(shí)驗(yàn)中,n=10,分類器同樣是C4.5。
在22個(gè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),表1展示了22個(gè)數(shù)據(jù)集的詳細(xì)信息。為了模擬每個(gè)實(shí)例獲得多標(biāo)簽集合的過(guò)程,隱藏了每個(gè)實(shí)例原本的真實(shí)標(biāo)簽,并使用9個(gè)模擬工人對(duì)每個(gè)實(shí)例進(jìn)行標(biāo)注。每個(gè)標(biāo)注者的標(biāo)注質(zhì)量是pj∈[0,1](j=1,2,…,9),即對(duì)于每個(gè)工人來(lái)說(shuō),有pj的概率給實(shí)例標(biāo)注原本的真實(shí)標(biāo)簽,有1-pj的概率標(biāo)注其他可能的標(biāo)簽。為了確定實(shí)驗(yàn)結(jié)果對(duì)于不同標(biāo)注質(zhì)量的穩(wěn)定性,本文實(shí)驗(yàn)設(shè)置了兩種不同的標(biāo)注質(zhì)量:
(1) 在第一系列實(shí)驗(yàn)中,設(shè)置所有工人的標(biāo)注質(zhì)量為0.6。即pj=0.6(j=1,2,…,9)。
(2) 在第二系列實(shí)驗(yàn)中,每個(gè)工人的標(biāo)注質(zhì)量均勻分布在[0.55,0.75]上,即pj∈[0.55,0.75](j=1,2,…,9)。
表1 數(shù)據(jù)集信息
續(xù)表1
在每個(gè)實(shí)例獲得9個(gè)工人標(biāo)注的標(biāo)簽后,使用真值推理算法MV推理集成標(biāo)簽,然后應(yīng)用五種噪聲糾正算法識(shí)別并糾正集成標(biāo)簽中的噪聲。在糾正后的數(shù)據(jù)集上計(jì)算數(shù)據(jù)質(zhì)量,并在糾正后的數(shù)據(jù)集上訓(xùn)練目標(biāo)分類器獲得模型質(zhì)量。所有實(shí)驗(yàn)結(jié)果都采用十折交叉驗(yàn)證得到,測(cè)試集不參與數(shù)據(jù)質(zhì)量的計(jì)算。
表2和表3給出了第一系列實(shí)驗(yàn)的結(jié)果,該實(shí)驗(yàn)中所有工人的標(biāo)注質(zhì)量都是相同的。表2展示了原始集成標(biāo)簽的標(biāo)簽質(zhì)量和每個(gè)數(shù)據(jù)集分別應(yīng)用五種噪聲糾正算法后的標(biāo)簽質(zhì)量。表3展示了應(yīng)用不同糾正算法后的模型質(zhì)量。
表2 第一系列實(shí)驗(yàn)的標(biāo)簽質(zhì)量結(jié)果(%)
表3 第一系列實(shí)驗(yàn)的模型質(zhì)量結(jié)果(%)
從表2中可以看出,所有的噪聲糾正方法都可以在大部分?jǐn)?shù)據(jù)集上提升標(biāo)簽質(zhì)量。MCNC在13個(gè)數(shù)據(jù)集上的效果最好,即在13個(gè)數(shù)據(jù)集上提升標(biāo)簽質(zhì)量最多(例如:iris、labor和segment等)。其次是BMNC,在6個(gè)數(shù)據(jù)集上提升標(biāo)簽質(zhì)量最多。后面分別是PL和CC,分別在2個(gè)和1個(gè)數(shù)據(jù)集上取得最好的效果。而STC沒(méi)有在任何一個(gè)數(shù)據(jù)集上取得最好的效果。從表3可以看出,在一些情況下,提升標(biāo)簽質(zhì)量可以提高目標(biāo)分類器的性能。MCNC在9個(gè)數(shù)據(jù)集上性能最優(yōu),其次是STC和CC的4個(gè),PL在3個(gè)數(shù)據(jù)集表現(xiàn)最好,BMNC只有2個(gè)。
表4和表5給出了第二系列實(shí)驗(yàn)的結(jié)果,該實(shí)驗(yàn)中所有工人的標(biāo)注質(zhì)量均勻分布在[0.55,0.75]之間。表4展示了原始集成標(biāo)簽的標(biāo)簽質(zhì)量和每個(gè)數(shù)據(jù)集分別應(yīng)用五種噪聲糾正算法后的標(biāo)簽質(zhì)量。表5展示了應(yīng)用不同糾正算法后的模型質(zhì)量。
表4 第二系列實(shí)驗(yàn)的數(shù)據(jù)質(zhì)量結(jié)果(%)
表5 第二系列實(shí)驗(yàn)的模型質(zhì)量結(jié)果(%)
續(xù)表5
從表4可以看出,MCNC的性能依然是最優(yōu)的,在14個(gè)數(shù)據(jù)集上取得最好效果,BMNC和PL在3個(gè)數(shù)據(jù)集上性能最優(yōu),CC只有2個(gè),STC依舊沒(méi)有突出性能的數(shù)據(jù)集。表5顯示,MCNC在7個(gè)數(shù)據(jù)集上性能最優(yōu),PL有5個(gè),CC和BMNC都有4個(gè),STC僅有3個(gè)。
結(jié)合兩個(gè)系列的實(shí)驗(yàn)結(jié)果,在大部分?jǐn)?shù)據(jù)集上,改善眾包數(shù)據(jù)的標(biāo)簽質(zhì)量,可以在一定程度上提升相應(yīng)的目標(biāo)模型質(zhì)量。但不同位置的實(shí)例對(duì)于模型建立的貢獻(xiàn)度是不同的,直觀而言,分類決策面的邊界數(shù)據(jù)點(diǎn)的貢獻(xiàn)度要高于類內(nèi)部的數(shù)據(jù)點(diǎn),所以數(shù)據(jù)標(biāo)簽質(zhì)量的提升并不必然導(dǎo)致目標(biāo)模型質(zhì)量的提升。
通過(guò)上面兩個(gè)系列的實(shí)驗(yàn),相比較PL、STC、CC和BMNC,本文方法MCNC更能有效地提升眾包數(shù)據(jù)的標(biāo)簽質(zhì)量和目標(biāo)模型質(zhì)量。
本文提出一種新的針對(duì)眾包學(xué)習(xí)的標(biāo)簽噪聲糾正方法MCNC。本文方法使用了真值推理階段的信息來(lái)監(jiān)督噪聲的識(shí)別,使用了無(wú)視原本噪聲等級(jí)的基于聚類的算法進(jìn)行噪聲糾正。相對(duì)于被比較的各種方法,MCNC能夠有效地提升標(biāo)簽質(zhì)量和模型質(zhì)量。
后續(xù)工作將針對(duì)提升數(shù)據(jù)標(biāo)簽質(zhì)量并非一定提升目標(biāo)模型質(zhì)量的現(xiàn)象,研究分類決策面的邊界數(shù)據(jù)點(diǎn)的標(biāo)簽噪聲糾正。期望可以通過(guò)提升分類決策面的邊界數(shù)據(jù)點(diǎn)標(biāo)簽質(zhì)量,使得目標(biāo)模型質(zhì)量獲得較大提升。然而哪些實(shí)例更有可能是分類決策面的邊界點(diǎn)數(shù)據(jù),對(duì)模型建立有更高的貢獻(xiàn)度,是需要仔細(xì)考慮的問(wèn)題。同時(shí),基于聚類的集成方法對(duì)計(jì)算資源消耗較大,運(yùn)行時(shí)間較長(zhǎng),后續(xù)會(huì)對(duì)該方法進(jìn)一步優(yōu)化,以減少運(yùn)行時(shí)間。