• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    標(biāo)簽噪聲魯棒學(xué)習(xí)算法研究綜述

    2020-07-16 18:27:38宮辰張闖王啟舟
    航空兵器 2020年3期
    關(guān)鍵詞:機器學(xué)習(xí)深度學(xué)習(xí)人工智能

    宮辰 張闖 王啟舟

    摘 要:在機器學(xué)習(xí)領(lǐng)域,監(jiān)督學(xué)習(xí)算法在理論層面和工程應(yīng)用中均取得了豐碩的成果,但此類算法的效果嚴(yán)重依賴訓(xùn)練樣本的標(biāo)簽質(zhì)量,在實際問題中獲取具有高質(zhì)量標(biāo)簽的訓(xùn)練樣本通常費時費力。為節(jié)省人力物力,網(wǎng)絡(luò)爬蟲、眾包方法等替代方法被用于對訓(xùn)練數(shù)據(jù)的采集。不幸的是,這些替代方法獲取的數(shù)據(jù)往往存在大量的錯誤標(biāo)注,即標(biāo)簽噪聲,由此帶來了很多潛在的問題。因此,對標(biāo)簽噪聲魯棒學(xué)習(xí)算法的研究,在推廣機器學(xué)習(xí)工程應(yīng)用、降低機器學(xué)習(xí)算法部署成本方面具有重要的意義。本文對標(biāo)簽噪聲魯棒學(xué)習(xí)算法的最新研究成果進展進行了全面綜述,分別從標(biāo)簽噪聲的產(chǎn)生、影響、分類等方面進行了詳細(xì)的總結(jié),對每類標(biāo)簽噪聲的處理方法進行了介紹,并對每類處理方法的優(yōu)缺點進行分析。

    關(guān)鍵詞: 人工智能;機器學(xué)習(xí);弱監(jiān)督學(xué)習(xí);標(biāo)簽噪聲;深度學(xué)習(xí);魯棒學(xué)習(xí)算法

    中圖分類號: TJ760;TP18文獻標(biāo)識碼:A文章編號: 1673-5048(2020)03-0020-07

    0 引言

    監(jiān)督學(xué)習(xí)分類算法在醫(yī)療、金融、交通等領(lǐng)域中已經(jīng)取得了巨大的成功。此類算法通常從大量訓(xùn)練樣本中學(xué)習(xí)出一個分類模型,然后將其用于預(yù)測新樣本的標(biāo)簽。具體來說,每個訓(xùn)練樣本都對應(yīng)一個事件/對象,并由兩部分組成: 一個描述該事件/對象的特征向量(或?qū)嵗?,一個表示該事件/對象真實類別的標(biāo)簽。監(jiān)督學(xué)習(xí)分類算法利用大量有標(biāo)簽的訓(xùn)練數(shù)據(jù)在假設(shè)空間下,尋找特定任務(wù)下的最優(yōu)分類器模型,然后將其部署用于預(yù)測新測試樣本的標(biāo)簽。但是在實際應(yīng)用場景中,考慮到人力、物力成本或分類任務(wù)本身具有的主觀性,實際的訓(xùn)練數(shù)據(jù)通常受到外部噪聲影響。

    訓(xùn)練數(shù)據(jù)所受到的外部噪聲被定義為數(shù)據(jù)實例特征和數(shù)據(jù)標(biāo)簽錯誤的對應(yīng)關(guān)系[1]或非系統(tǒng)錯誤的集合[2]。外部噪聲通常分為兩類,即特征噪聲和標(biāo)簽噪聲[2-4]。對于分類問題,特征噪聲指訓(xùn)練樣本的實例特征本身與其真實特征間的偏差。此類噪聲通常對目標(biāo)分類器性能影響較小,甚至人為引入的特征噪聲能夠提高目標(biāo)分類器泛化能力或?qū)刽敯粜?。類似地,?biāo)簽噪聲通常指分類學(xué)習(xí)算法中用于訓(xùn)練的目標(biāo)標(biāo)簽與相應(yīng)實例本身的真實標(biāo)簽的偏差。

    與特征噪聲相比,許多工作從實驗和理論的角度證明了標(biāo)簽噪聲對目標(biāo)分類器性能有著更為嚴(yán)重的負(fù)面影響。Frénay等人[5]指出,這種現(xiàn)象可能由兩個因素造成: (1)實例標(biāo)簽維度遠(yuǎn)小于其特征維度;(2)特征對模型訓(xùn)練的重要性或大或小,而標(biāo)簽總是對模型訓(xùn)練有很大的影響。Quinlan[2]的研究也得出了類似的結(jié)論: 相對于特征噪聲,標(biāo)簽噪聲對分類器的影響更大。因此,本文著重討論標(biāo)簽噪聲問題。

    標(biāo)簽噪聲在實際應(yīng)用場景中廣泛存在。 在軍事目標(biāo)識別場景中,模型的訓(xùn)練往往依賴于準(zhǔn)確的目標(biāo)標(biāo)注。但是在目標(biāo)標(biāo)注過程中,一些外觀相似的軍事目標(biāo)經(jīng)常容易被標(biāo)注錯誤,比如坦克和自行榴彈炮等。類似地,在紅外或雷達圖像場景中,成像質(zhì)量或者是照射角的變化也經(jīng)常導(dǎo)致目標(biāo)標(biāo)注錯誤,也就造成了本文所討論的標(biāo)簽噪聲,這些標(biāo)簽噪聲將不可避免地對訓(xùn)練模型帶來負(fù)面影響。因此, 標(biāo)簽噪聲魯棒學(xué)習(xí)算法的研究對機器學(xué)習(xí)應(yīng)用于實際工程領(lǐng)域具有重要意義。

    為研究各類標(biāo)簽噪聲對目標(biāo)分類器/分類算法的影響,研究者通常會將噪聲標(biāo)簽、真實標(biāo)簽、實例特征三者看作隨機變量,進而對三者的依賴關(guān)系做出假設(shè)。就有向概率圖的角度而言[5],大部分工作研究的標(biāo)簽噪聲可以分為三類: 隨機標(biāo)簽噪聲(Random Classification label Noise,RCN)、類相關(guān)標(biāo)簽噪聲(Class-Conditional label Noise,CCN)以及實例相關(guān)標(biāo)簽噪聲(Instance-Dependent label Noise,IDN)。三者分別假定標(biāo)簽錯誤與實例特征和真實標(biāo)簽均無關(guān)、標(biāo)簽錯誤僅與真實標(biāo)簽相關(guān)、標(biāo)簽錯誤與實例特征相關(guān)。

    三者的概率圖表示如圖1所示。其中,x表示實例特征,y表示其真實標(biāo)簽(不可觀測且完全正確的標(biāo)注),y~表示其噪聲標(biāo)簽(可觀測但不完全正確的標(biāo)注)。此外,與文獻[5-6]等類似,本文額外引入隱變量e用于指示該實例是否受標(biāo)簽噪聲帶來的錯誤影響。

    值得注意的是,已有工作通常限定在一種標(biāo)簽噪聲對監(jiān)督學(xué)習(xí)算法的影響,而實際場景下標(biāo)簽數(shù)據(jù)噪聲可能是三種情況的混合。此外,其他研究工作嘗試研究開放情形下的標(biāo)簽噪聲問題,即部分實例樣本真實標(biāo)簽不存在于訓(xùn)練樣本的標(biāo)簽空間中的情況。本文僅考慮RCN,CCN,IDN三種標(biāo)簽噪聲分別對目標(biāo)分類器的影響以及如何設(shè)計特定類型噪聲下的魯棒分類算法。

    本文將從標(biāo)簽噪聲的產(chǎn)生和標(biāo)簽噪聲的影響闡述標(biāo)簽噪聲魯棒學(xué)習(xí)算法研究的重要意義,并從上述標(biāo)簽噪聲的三個分類進一步闡述處理標(biāo)簽噪聲的前沿算法,最后對標(biāo)簽噪聲學(xué)習(xí)進行總結(jié)并展望其發(fā)展趨勢。

    1 標(biāo)簽噪聲的產(chǎn)生

    標(biāo)簽噪聲廣泛存在于交通、金融等多個領(lǐng)域,以及雷達目標(biāo)檢測、紅外目標(biāo)識別等關(guān)鍵應(yīng)用場景。很多因素可能導(dǎo)致標(biāo)簽噪聲[5-6]: (1)標(biāo)注過程中可獲取的信息不夠充分,實例特征不足以充分描述目標(biāo)類別的數(shù)據(jù)[7-9]。(2)待標(biāo)注樣本任務(wù)本身具有主觀性,不同標(biāo)注人員從不同角度出發(fā)會給出不同的標(biāo)簽[10-11]。(3)待標(biāo)記樣本自身可辨識度較低,對于一些難以標(biāo)記的樣本,即使專家也無法給出正確標(biāo)注[1]。(4)標(biāo)注算法本身質(zhì)量/精度較低[12-15]。(5)通信/編碼問題或數(shù)據(jù)集處理過程也有可能導(dǎo)致樣本標(biāo)簽出現(xiàn)錯誤[3, 7, 16]。(6)在大規(guī)模標(biāo)注數(shù)據(jù)中,即使標(biāo)注算法質(zhì)量較高,獲取的標(biāo)簽也可能存在噪聲問題[17]。

    2 標(biāo)簽噪聲的影響

    標(biāo)簽噪聲在實際應(yīng)用中廣泛存在。為了降低機器學(xué)習(xí)算法的部署成本、保障算法的穩(wěn)定性,研究者不得不研究標(biāo)簽噪聲對分類學(xué)習(xí)算法的影響。首先,標(biāo)簽噪聲會嚴(yán)重影響分類學(xué)習(xí)算法的性能。例如,在RCN或CCN情形下,文獻[18-19]從理論角度證明了線性分類器及二次型分類器會受到標(biāo)簽噪聲的影響。類似地,Okamoto等人[20]證明了k-NN分類器同樣受標(biāo)簽噪聲影響。

    此外,從實驗角度來講,決策樹[2]、支持向量機[21]、AdaBoost等方法[22]效果也會受標(biāo)簽噪聲的負(fù)面影響。近年來,隨著深度學(xué)習(xí)算法的廣泛應(yīng)用,標(biāo)簽噪聲對深度模型的影響也受到了廣泛的關(guān)注。例如,Zhang等人[23]發(fā)現(xiàn)深度模型可以擬合隨機標(biāo)簽,即深度模型自身不具有區(qū)分正誤標(biāo)簽樣本的能力。基于其結(jié)果,文獻[24-25]從實驗角度提出了深度模型的記憶/泛化性質(zhì)。

    其次,標(biāo)簽噪聲會導(dǎo)致分類器需要更多的訓(xùn)練樣本才能達到指定的性能指標(biāo)[16, 26]。類似地,有標(biāo)簽噪聲的訓(xùn)練數(shù)據(jù)會導(dǎo)致目標(biāo)分類器模型復(fù)雜度大大增加[2, 27]。Dawid 等人[9]則指出標(biāo)簽噪聲下觀測的類別頻率可能會改變。舉例來說,在醫(yī)學(xué)研究中,醫(yī)學(xué)研究者通常很關(guān)注某種疾病的發(fā)病率,但是發(fā)病率有很大可能性被標(biāo)簽噪聲影響。最后,對于一些其他的任務(wù),例如,特征選擇[28]以及特征排序[29]等也受標(biāo)簽噪聲的嚴(yán)重影響。

    3 標(biāo)簽噪聲問題分類

    為了能夠從理論層面分析標(biāo)簽噪聲對各種分類器/分類算法的影響,研究者通常會假設(shè)標(biāo)簽噪聲的生成過程,并據(jù)此設(shè)計相應(yīng)的噪聲魯棒算法。

    3.1 隨機標(biāo)簽噪聲(RCN)

    RCN假設(shè)噪聲標(biāo)簽的生成過程是完全隨機的,標(biāo)簽噪聲與真實標(biāo)簽或者實例均不相關(guān)。例如,在眾包場景下,部分沒有責(zé)任心的標(biāo)注員會對數(shù)據(jù)胡亂標(biāo)注,得到的標(biāo)簽就是完全隨機的。該設(shè)定較為簡單,相應(yīng)的研究工作也比較徹底。

    針對RCN,研究者主要關(guān)注常用損失函數(shù)的固有魯棒性,或如何設(shè)計新的RCN魯棒損失函數(shù)。在理論上,文獻[30]證明了0-1損失函數(shù)自身對RCN問題魯棒,而使用交叉熵?fù)p失函數(shù)(cross entropy loss)[31]和合頁損失函數(shù)(hinge loss)[32]得到的分類器將明顯受到標(biāo)簽噪聲的負(fù)面影響(見圖2)。此外,基于無偏估計的思想,Ghosh等人[31]提出損失函數(shù)對RCN問題魯棒的充分條件: 對稱條件(symmetric condition)。

    基于此,為得到RCN問題下的魯棒分類器,一般建議在二分類問題下使用非合頁損失函數(shù)(unhinged loss)[33]、斜坡?lián)p失函數(shù)(ramp loss)[30]或S型損失函數(shù)(sigmoid loss)[30];在多分類問題下使用平均絕對誤差(mean absolute error)[31]作為損失函數(shù)。值得注意的是,對于C類分類問題,上文所述損失函數(shù)對RCN問題魯棒的充要條件是訓(xùn)練數(shù)據(jù)噪聲率小于1-1C。另外,從優(yōu)化的角度來講,上文所述的許多損失函數(shù)實際上難以訓(xùn)練 [34],例如,0-1損失函數(shù)和斜坡?lián)p失函數(shù)。

    近期,Zhang等人[34]提出了截斷的Lq損失(Truncatedloss)。Lq損失函數(shù)可以看作平均絕對誤差和交叉熵?fù)p失的一般化,因此, 一定程度上同時繼承了平均絕對損失對RCN問題固有的魯棒性和交叉熵?fù)p失函數(shù)收斂速度快的特點。此外,該方法建議在訓(xùn)練過程中動態(tài)地剔除交叉熵?fù)p失值較大的樣本(即損失截斷),以此得到更加緊湊的收斂性上界保證。與其他RCN損失函數(shù)相比,該方法在理論層面上對數(shù)據(jù)噪聲的類型(即RCN和CCN)要求更松馳,可以容忍更嚴(yán)重的噪聲數(shù)據(jù)比例。然而,該方法估算誤差上界并不緊湊,且本身受噪聲數(shù)據(jù)比例和超參影響。

    3.2 類相關(guān)標(biāo)簽噪聲(CCN)

    CCN假設(shè)觀測的噪聲標(biāo)簽與潛在真實標(biāo)簽相關(guān),但與實例特征本身無關(guān)。相較于RCN問題,CCN的設(shè)定更符合真實數(shù)據(jù)集的情況。例如,對于圖片標(biāo)注任務(wù),由于主觀認(rèn)知上的偏差,一個真實標(biāo)簽為“狗”的圖片被誤標(biāo)為“貓”的概率會遠(yuǎn)遠(yuǎn)大于誤標(biāo)為“飛機”的概率。CCN問題的研究也較為徹底。研究者通常使用噪聲變換矩陣(noise transition matrix)來描述特定數(shù)據(jù)集或標(biāo)注任務(wù)下的標(biāo)簽噪聲性質(zhì)。該矩陣元素表示給定真實標(biāo)簽情況下特定噪聲標(biāo)簽出現(xiàn)的概率,即

    式中: T為噪聲變換矩陣,下標(biāo)i, j分別為其第i行第j列的元素取值,通常假設(shè)Ti, i>Ti, j(i≠j,i, j)。

    給定噪聲變換矩陣和噪聲訓(xùn)練樣本,研究者通常利用無偏估計策略來設(shè)計滿足風(fēng)險一致性(risk-consistent)條件的損失函數(shù)。針對標(biāo)簽噪聲問題,無偏估計策略研究在僅給定有標(biāo)簽噪聲的訓(xùn)練樣本條件下,如何估計其未知的無噪聲訓(xùn)練樣本在特定損失函數(shù)下風(fēng)險的期望(即無偏風(fēng)險)。通常來講,給定原損失函數(shù)l(s, y),希望設(shè)計新的損失函數(shù)l~(s, y)以滿足:

    接著,可以通過最小化無偏風(fēng)險

    來訓(xùn)練對噪聲魯棒的目標(biāo)分類器s(x)。該策略通常通過對原損失函數(shù)的重加權(quán)(reweighting)方法來實現(xiàn)。例如,文獻[35]提出在給定噪聲變換矩陣和噪聲數(shù)據(jù)分布條件下實例相關(guān)權(quán)重的計算方法;文獻[36]將該策略擴展到多分類問題下,然而需要使用目標(biāo)分類器預(yù)測概率(干凈數(shù)據(jù)分布)而非噪聲數(shù)據(jù)分布概率。為了避免對數(shù)據(jù)分布的依賴;文獻[33, 37]從噪聲生成正向/反向過程角度出發(fā)設(shè)計類相關(guān)的權(quán)重計算方法,并將方法應(yīng)用到深度神經(jīng)網(wǎng)絡(luò)框架。此外,與上述方法不同,文獻[38]提出了基于數(shù)據(jù)清洗的標(biāo)簽噪聲魯棒算法,證明了當(dāng)數(shù)據(jù)分布滿足特定條件下清洗后數(shù)據(jù)相應(yīng)風(fēng)險的無偏一致性質(zhì)。雖然無偏估計方法流程簡單,但是僅適用于較溫和的噪聲條件和較簡單的分類器模型。

    此類方法估算誤差上界受到標(biāo)簽噪聲程度的嚴(yán)重影響: 標(biāo)簽噪聲越嚴(yán)重,估算誤差上界越大,甚至趨近于無窮。為此,研究者從分類器一致性(classifier-consistent)角度出發(fā)研究CCN問題下的標(biāo)簽噪聲魯棒方法,此類算法需滿足:

    在標(biāo)簽噪聲問題下,研究者通常使用噪聲變換矩陣污染目標(biāo)分類器預(yù)測標(biāo)簽概率,再使用噪聲標(biāo)簽作為污染后預(yù)測標(biāo)簽概率的優(yōu)化目標(biāo)。該方法的一致性保證可以從概率論角度[39-40]和優(yōu)化角度[37]得以證明。與風(fēng)險一致性方法不同,分類器一致性方法的估算誤差上界與標(biāo)簽噪聲程度無關(guān)。不過從實驗結(jié)果來看,即使給出精確的噪聲變換矩陣,大噪聲數(shù)據(jù)訓(xùn)練得到的分類器精度仍然很低。

    在實際應(yīng)用中,還需要估計噪聲變換矩陣中元素的值。例如,文獻[33]中將噪聲變換矩陣中元素作為超參,并使用交叉驗證進行估計;文獻[37, 41]對部分噪聲標(biāo)簽樣本重新標(biāo)注,并使用這些準(zhǔn)確標(biāo)注后的樣本估算噪聲變換矩陣。另外,文獻[35,37]在噪聲標(biāo)簽數(shù)據(jù)下訓(xùn)練的分類器尋找“錨點”,若實例為“錨點”,其滿足:

    p(y=yi|x=xi)=1

    給定類別為j的“錨點”(yi=j),則可以直接估計噪聲變換矩陣中第j列元素。雖然該方法省去了調(diào)參或數(shù)據(jù)標(biāo)注帶來的額外人力、物力成本,但是“錨點”并不總在數(shù)據(jù)集中存在。因此,文獻[38]首先利用噪聲數(shù)據(jù)訓(xùn)練分類器,該分類器預(yù)測概率的排序被用于估算噪聲變換矩陣。在數(shù)據(jù)滿足可分條件的前提下,可以證明其估算噪聲變換矩陣的一致性。此外,即使在溫和的標(biāo)簽噪聲條件下,估算噪聲變換矩陣中微小的誤差極有可能影響目標(biāo)魯棒分類器的性能[41]。因此,一些文獻[36, 40, 42-43]建議使用聯(lián)合優(yōu)化技術(shù)(joint optimization)、交替優(yōu)化方法(alternating optimization)或EM算法在訓(xùn)練目標(biāo)分類器的同時,估算噪聲變換矩陣中元素的值。然而這種思路通常沒有嚴(yán)格的理論保障,且依賴參數(shù)初始化或特殊的正則化項以避免平凡解的出現(xiàn)。

    3.3 實例相關(guān)標(biāo)簽噪聲(IDN)

    IDN假設(shè)噪聲標(biāo)簽與實例本身相關(guān)。這種一般化的標(biāo)簽噪聲問題通常難以建模,僅有的理論工作通常會對噪聲實例分布做出嚴(yán)格的限制。例如,文獻[44]假設(shè)任一實例標(biāo)簽錯誤的概率有統(tǒng)一的上界;文獻[45]假設(shè)離決策邊界(decision boundary)越近的實例越容易錯分。

    這些假設(shè)限制了其實際工程中的應(yīng)用,因此,一些研究試圖在深度學(xué)習(xí)框架下設(shè)計啟發(fā)式算法來識別/修正潛在的錯誤標(biāo)簽。這些方法通常不對標(biāo)簽噪聲的生成過程做出假設(shè),然而通常會隱式地處理實例相關(guān)的標(biāo)簽噪聲。

    一些文獻嘗試為每個訓(xùn)練樣本賦予一個權(quán)重,該權(quán)重在訓(xùn)練過程中反映了學(xué)習(xí)算法對相應(yīng)樣本的重視程度。通常來講,某一實例權(quán)重越大,該實例的標(biāo)簽正確的可能性越大。權(quán)重計算的方法可以基于額外的無偏干凈數(shù)據(jù)。例如,文獻[46]利用有準(zhǔn)確標(biāo)注的噪聲數(shù)據(jù)訓(xùn)練額外的網(wǎng)絡(luò)模塊,用于預(yù)測訓(xùn)練樣本標(biāo)簽正確的概率;文獻[47-48]在嵌入空間(embedding space)下計算有標(biāo)簽噪聲的訓(xùn)練數(shù)據(jù)和干凈數(shù)據(jù)間的歐式距離或余弦相似度,并賦予小距離/大相似度的實例更大的權(quán)重;文獻[49]利用隨機梯度下降(SGD)優(yōu)化算法給出分類器在噪聲數(shù)據(jù)下參數(shù)的更新方向,并根據(jù)更新后分類器在干凈數(shù)據(jù)下的表現(xiàn)對更新方向進行加權(quán)。

    權(quán)重設(shè)計方法也可以不利用額外干凈數(shù)據(jù)。例如,文獻[50]使用基于密度的無監(jiān)督聚類算法來測量每個訓(xùn)練樣本的復(fù)雜度,然后對簡單樣本賦予較小的權(quán)重,對復(fù)雜樣本賦予較大的權(quán)重;文獻[46, 51]假設(shè)損失值較小的樣本標(biāo)簽更有可能是正確的,據(jù)此賦予損失值較小的樣本以較大的權(quán)重。

    值得注意的是,上述加權(quán)方法可以看作是數(shù)據(jù)清洗方法[52-54]的一般化,因此,此類算法或多或少存在數(shù)據(jù)分布偏差(distribution bias)的問題。其一,某些樣本的標(biāo)簽本身正確,然而對于優(yōu)化器/分類器來講,難以訓(xùn)練的樣本(例如,處于數(shù)據(jù)分布的決策邊界附近)也可能被賦予較小權(quán)重甚至被直接刪除,顯然這會嚴(yán)重影響分類器的泛化能力。其二,即使權(quán)重的計算正確,在標(biāo)簽噪聲較為嚴(yán)重的情況下,大量的樣本在訓(xùn)練過程中幾乎不起作用(例如,錯誤標(biāo)簽樣本權(quán)重設(shè)為零)。

    為此,許多方法嘗試是否可以直接預(yù)測真實標(biāo)簽,其通常利用深度神經(jīng)網(wǎng)絡(luò)的泛化/記憶性質(zhì)。例如,文獻[24]指出,深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程前期主要嘗試學(xué)習(xí)抽象的/一般化的概念,而在訓(xùn)練過程后期會嘗試記住每一個訓(xùn)練樣本的輸出結(jié)果;文獻[25]的實驗結(jié)果表明,在學(xué)習(xí)率足夠大時,深度神經(jīng)網(wǎng)絡(luò)對標(biāo)簽噪聲有一定的抵抗能力。

    據(jù)此,針對每個訓(xùn)練樣本,文獻[55]融合分類器的預(yù)測標(biāo)簽和原始噪聲標(biāo)簽作為優(yōu)化目標(biāo);文獻[56]在緩存訓(xùn)練過程中對于每個訓(xùn)練樣本分類器預(yù)測標(biāo)簽,并且使用超參從預(yù)測標(biāo)簽均值中學(xué)習(xí)和從原始噪聲標(biāo)簽中學(xué)習(xí)進行權(quán)衡;文獻[57]將真實標(biāo)簽看成隨機變量,在模型訓(xùn)練過程中進行優(yōu)化,并且作為優(yōu)化目標(biāo)。另一些方法嘗試?yán)妙~外的干凈數(shù)據(jù)對噪聲標(biāo)簽進行修正。例如,文獻[58]在小規(guī)模干凈數(shù)據(jù)下訓(xùn)練額外的分類器模型,該分類器的預(yù)測標(biāo)簽和原始噪聲標(biāo)簽融合用于大規(guī)模噪聲數(shù)據(jù)下對噪聲標(biāo)簽的修正;文獻[59]假設(shè)預(yù)先可以得到部分有重新標(biāo)注的噪聲樣本,并且利用額外的殘差網(wǎng)絡(luò)模塊學(xué)習(xí)噪聲標(biāo)簽到干凈標(biāo)簽的映射。與上述方法不同,文獻[60]針對具體任務(wù)引入業(yè)務(wù)相關(guān)的先驗知識對噪聲標(biāo)簽進行修正。

    此類方法可以避免加權(quán)方法中數(shù)據(jù)分布偏差的問題。然而對于原本正確的標(biāo)簽,上述方法仍然會對其標(biāo)簽進行修正。這會導(dǎo)致原本正確的標(biāo)簽質(zhì)量有所下降,進而影響最終分類器的性能。為此,一些方法嘗試從圖論的角度出發(fā),通過探索拉普拉斯矩陣所表示的實例間鄰接關(guān)系來設(shè)計標(biāo)簽噪聲的清洗方法[41]或修正策略[61]。

    3.4 小結(jié)

    本節(jié)從標(biāo)簽噪聲的生成過程出發(fā),分別討論了隨機標(biāo)簽噪聲(RCN)、類相關(guān)標(biāo)簽噪聲(CCN)以及實例相關(guān)標(biāo)簽噪聲(IDN),對每類標(biāo)簽噪聲解決方案做了詳細(xì)闡述并分析了其優(yōu)缺點。具體來說,對于RCN,關(guān)注點在于分析RCN損失函數(shù)的固有魯棒性;對于CCN,關(guān)注點在于設(shè)計無偏估計策略進而對損失函數(shù)重加權(quán),其中一個比較重要的參數(shù)是噪聲轉(zhuǎn)換矩陣,該參數(shù)可以通過交叉驗證、數(shù)據(jù)重標(biāo)注等一系列方法進行估計;對于IDN,關(guān)注點在于對每個訓(xùn)練樣本加權(quán),從而反映學(xué)習(xí)算法對不同樣本的重視程度。此外,還有一些方法借助小規(guī)模干凈數(shù)據(jù)輔助模型訓(xùn)練,或是采用圖論的方法進行數(shù)據(jù)清洗等。圖3詳細(xì)展示了本節(jié)所討論的標(biāo)簽噪聲前沿方法。

    4 發(fā)展趨勢與展望

    4.1 發(fā)展趨勢

    關(guān)于標(biāo)簽噪聲學(xué)習(xí)的發(fā)展趨勢,本文對近五年(2015-2019年)發(fā)表在人工智能與機器學(xué)習(xí)相關(guān)的頂級會議(NeurIPS,ICML,AAAI,IJCAI,CVPR)上的論文進行調(diào)研,統(tǒng)計分析了研究標(biāo)簽噪聲的相關(guān)論文,統(tǒng)計結(jié)果如表1所示。

    近5年來,共有182篇關(guān)于標(biāo)簽噪聲學(xué)習(xí)的論文發(fā)表在上述關(guān)于機器學(xué)習(xí)的頂級國際會議中,統(tǒng)計調(diào)查后發(fā)現(xiàn):

    (1) 總體而言,標(biāo)簽噪聲學(xué)習(xí)是當(dāng)前機器學(xué)習(xí)以及人工智能領(lǐng)域的一個研究熱點。關(guān)于標(biāo)簽噪聲學(xué)習(xí)的論文在2015-2017年每個學(xué)術(shù)會議僅有屈指可數(shù)的幾篇,在2018年有38篇,但在2019年卻翻倍增長到了75篇。

    (2) 關(guān)于標(biāo)簽噪聲學(xué)習(xí)的研究呈現(xiàn)出快速增長趨勢,且增長速度越來越快。2015-2017年僅有少量的關(guān)于標(biāo)簽噪聲學(xué)習(xí)的研究,但隨后每年以相對于上一年成倍的速度增長。2019年關(guān)于標(biāo)簽噪聲學(xué)習(xí)的研究已經(jīng)達到了75篇??梢灶A(yù)測,隨后幾年關(guān)于標(biāo)簽噪聲學(xué)習(xí)的研究會越來越多。

    (3) 上述在人工智能頂級會議各大機器學(xué)習(xí)的論文中,既包含了理論又包含了應(yīng)用,每年關(guān)于標(biāo)簽噪聲學(xué)習(xí)的研究論文在理論和應(yīng)用上分布都比較均勻,體現(xiàn)了標(biāo)簽噪聲學(xué)習(xí)的理論研究價值和實際應(yīng)用價值,進而從側(cè)面體現(xiàn)了標(biāo)簽噪聲學(xué)習(xí)的重要性。

    4.2 展望

    監(jiān)督學(xué)習(xí)算法在工程領(lǐng)域和理論層面都取得了豐碩的成果。然而,此類算法需要強監(jiān)督信息的支持,例如,有高質(zhì)量標(biāo)簽的訓(xùn)練樣本。但是在實際工程應(yīng)用中,高質(zhì)量標(biāo)簽難以獲取或成本較高。

    根據(jù)標(biāo)簽噪聲的生成方式,本文依次介紹了處理隨機標(biāo)簽噪聲、類相關(guān)標(biāo)簽噪聲、實例相關(guān)標(biāo)簽噪聲三種問題的前沿方法。雖然這些方法取得了一定的進展,但是仍存在許多問題。

    (1) 本文介紹方法通常僅在標(biāo)簽噪聲程度較為溫和的條件下生效。當(dāng)標(biāo)簽錯誤數(shù)據(jù)規(guī)模接近或大于正確數(shù)據(jù)規(guī)模時,多數(shù)算法無法從訓(xùn)練樣本中學(xué)習(xí)正確的數(shù)據(jù)分布模式。此外,在理論層面下許多一致性方法在極端噪聲情形下泛化能力極差,甚至估算誤差上界可能趨近于無窮,然而在實際應(yīng)用中,極端標(biāo)簽噪聲經(jīng)常出現(xiàn)。因此,如何處理極端情形下的標(biāo)簽噪聲問題值得深入研究。

    (2) 本文介紹的三種標(biāo)簽噪聲形式并不能包含真實數(shù)據(jù)下的所有可能情況。一方面,噪聲的來源可能不唯一,真實噪聲標(biāo)簽數(shù)據(jù)中的噪聲形式可能是隨機標(biāo)簽噪聲、類相關(guān)標(biāo)簽噪聲和實例相關(guān)標(biāo)簽的混合。另一方面,特別是基于網(wǎng)絡(luò)爬蟲等技術(shù)的標(biāo)簽生成方法存在開集問題。即部分訓(xùn)練樣本的真實標(biāo)簽不在給定標(biāo)簽空間內(nèi)。

    (3) 本文介紹的標(biāo)簽噪聲處理方法通常隱式地假設(shè)分類器模型有一定識別噪聲數(shù)據(jù)的能力,然而當(dāng)分類器所在假設(shè)空間足夠大時,最優(yōu)分類器可能直接學(xué)習(xí)噪聲標(biāo)簽。例如,分類器/風(fēng)險一致性方法和重加權(quán)方法。一個十分有潛力的替代方法是對數(shù)據(jù)分布作出假設(shè),然而此類型的已有方法太過簡單且不具有一般性。如何對數(shù)據(jù)分布做出一般化假設(shè),并據(jù)此設(shè)計標(biāo)簽噪聲魯棒算法是值得深入思考的問題。

    (4) 更多標(biāo)簽噪聲問題的應(yīng)用場景還有待探索。標(biāo)簽噪聲問題在實際應(yīng)用場景中廣泛存在,本文討論了許多處理標(biāo)簽噪聲的前沿算法,它們在醫(yī)療、交通、金融等領(lǐng)域中已經(jīng)取得了不錯的表現(xiàn)。接下來,探索和發(fā)揮標(biāo)簽噪聲魯棒算法在軍事、材料、航空航天等關(guān)鍵領(lǐng)域的作用是標(biāo)簽噪聲學(xué)習(xí)的一個重要研究方向。

    參考文獻:

    [1] Hickey R J. Noise Modelling and Evaluating Learning from Examples[J]. Artificial Intelligence, 1996, 82(1-2): 157-179.

    [2] Quinlan J R. Induction of Decision Trees[J]. Machine Learning, 1986, 1(1): 81-106.

    [3] Zhu X Q, Wu X D. Class Noise vs. Attribute Noise: A Quantitative Study[J]. Artificial Intelligence Review, 2004, 22(3): 177-210.

    [4] Wu X D. Knowledge Acquisition from Databases[M]. United States: Greenwood Publishing Group Inc., 1995.

    [5] Frénay B, Verleysen M. Classification in the Presence of Label Noise: A Survey[J]. IEEE Transactions on Neural Networks and Learning Systems, 2014, 25(5): 845-869.

    [6] Frénay B, Kabán A. A Comprehensive Introduction to Label Noise[C]∥ European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning,Bruge, Belgium,2014.

    [7] Brodley C E, Friedl M A. Identifying Mislabeled Training Data[J]. Journal of Artificial Intelligence Research, 1999, 11: 131-167.

    [8] Brazdil P, Clark P. Learning from Imperfect Data[M]. Machine Learning, Meta-Reasoning and Logics, Boston: Springer, 1990: 207-232.

    [9] Dawid A P, Skene A M. Maximum Likelihood Estimation of Observer Error-Rates Using the EM Algorithm[J]. Journal of the Royal Statistical Society: Series C (Applied Statistics), 1979, 28(1): 20-28.

    [10] Smyth P, Fayyad U, Burl M, et al. Inferring Ground Truth from Subjective Labelling of Venus Images [C]∥ Proceedings of the 7th International Conference on Neural Information Processing Systems, 1994: 1085-1092.

    [11] Malossini A, Blanzieri E, Ng R T. Detecting Potential Labeling Errors in Microarrays by Data Perturbation[J]. Bioinformatics, 2006, 22(17): 2114-2121.

    [12] Kovashka A, Russakovsky O,F(xiàn)ei-Fei L, et al. Crowdsourcing in Computer Vision[J]. Foundations and Trends in Computer Graphics and Vision, 2016, 10(3): 177-243.

    [13] Li W, Wang L M, Li W, et al. WebVision Database: Visual Learning and Understanding from Web Data[EB/OL]. (2017-08-09) [2020-01-15]. https:∥arxiv.xilesou.top/pdf/ 1708.02862.pdf.

    [14] Kittur A, Chi E H, Suh B. Crowdsourcing User Studies with Mechanical Turk[C]∥ Proceedings of the SIGCHI Conference on Human Factors in Computing Systems,2008: 453-456.

    [15] Xiao T, Xia T, Yang Y, et al. Learning from Massive Noisy Labeled Data for Image Classification[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2015: 2691-2699.

    [16] Angluin D, Laird P. Learning from Noisy Examples[J]. Machine Learning, 1988, 2(4): 343-370.

    [17] Northcutt C G, Jiang L, Chuang I L. Confident Learning: Estimating Uncertainty in Dataset Labels[EB/OL].(2019- 10-31)[2020-01-15]. https:∥arxiv.sou.top/pdf/1911.00068.pdf.

    [18] Heskes T. The Use of Being Stubborn and Introspective[M].Studies in Cognitive Systems,Boston: Springer, 1994:1184-1200.

    [19] Lachenbruch P A. Note on Initial Misclassification Effects on the Quadratic Discriminant Function[J]. Technometrics, 1979, 21(1): 129-132.

    [20] Okamoto S, Nobuhiro Y. An Average-Case Analysis of the K-Nearest Neighbor Classifier for Noisy Domains[C]∥Proceedings of 15th International Joint Conferences on Artificial Intelligence,1997: 238-245.

    [21] Nettleton D F, Orriols-Puig A, Fornells A. A Study of the Effect of Different Types of Noise on the Precision of Supervised Learning Techniques[J]. Artificial Intelligence Review, 2010, 33(4): 275-306.

    [22] Dietterich T G. An Experimental Comparison of Three Methods for Constructing Ensembles of Decision Trees: Bagging, Boosting, and Randomization[J]. Machine Learning, 2000, 40(2): 139-157.

    [23] Zhang C Y, Bengio S, Hardt M, et al. Understanding Deep Learning Requires Rethinking Generalization[C]∥ International Conference on Learning Representation (ICLR), Toulon, France, 2017.

    [24] Arpit D, Jastrzebski S, Ballas N, et al. A Closer Look at Memorization in Deep Networks[C]∥Proceedings of the 34th International Conference on Machine Learning, 2017: 233-242.

    [25] Krueger D, Ballas N, Jastrzebski S, et al. Deep Nets Dont Learn via Memorization[C]∥International Conference on Learning Representation(ICLR), Toulon, France, 2017.

    [26] Aslam J A, Decatur S E. On the Sample Complexity of Noise-Tolerant Learning[J]. Information Processing Letters, 1996, 57(4): 189-195.

    [27] Brodley C E, Friedl M A. Identifying Mislabeled Training Data[J]. Journal of Artificial Intelligence Research, 1999, 11: 131-167.

    [28] Frénay B, Doquire G, Verleysen M. Feature Selection with Imprecise Labels: Estimating Mutual Information in the Presence of Label Noise[J]. Computational Statistics & Data Analysis, 2014, 71: 832-848.

    [29] Shanab A A, Khoshgoftaar T M, Wald R. Robustness of Thre-shold-Based Feature Rankers with Data Sampling on Noisy and Imbalanced Data[C]∥Proceedings of Twenty-Fifth International Florida Artificial Intelligence Research Society Conference, 2012.

    [30] Ghosh A, Manwani N, Sastry P S. Making Risk Minimization To-lerant to Label Noise[J]. Neurocomputing, 2015, 160: 93-107.

    [31] Ghosh A, Kumar H, Sastry P S. Robust Loss Functions under Label Noise for Deep Neural Networks[C]∥ Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence,2017.

    [32] Manwani N, Sastry P S. Noise Tolerance under Risk Minimization[J]. IEEE Transactions on Cybernetics, 2013, 43(3): 1146-1151.

    [33] Natarajan N, Dhillon I S, Ravikumar P K, et al. Learning with Noisy Labels[C]∥ Proceedings of the International Conference on Neural Information Processing Systems(NIPS), 2013: 1196-1204.

    [34] Zhang Z L, Sabuncu M. Generalized Cross Entropy Loss for Training Deep Neural Networks with Noisy Labels[C]∥ Proceedings of theInternational Conference on Neural Information Processing Systems(NIPS),2018: 8778-8788.

    [35] Liu T L, Tao D C. Classification with Noisy Labels by Importance Reweighting[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 38(3): 447-461.

    [36] Xia X B, Liu T L, Wang N N, et al. Are Anchor Points Really Indispensable in Label-Noise Learning? [C]∥ Conference on Neural Information Processing Systems (NIPS), Vancouver, Canada, 2019.

    [37] Patrini G, Rozza A, Krishna Menon A, et al. Making Deep Neural Networks Robust to Label Noise: A Loss Correction Approach[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017: 1944-1952.

    [38] Northcutt C G, Wu T L, Chuang I L. Learning with Confident Examples: Rank Pruning for Robust Classification with Noisy Labels[EB/OL]. (2017-08-09)[2020-01-15]. https:∥arxiv.xilesou.top/pdf/1705.01936.pdf.

    [39] Yu X Y, Liu T L, Gong M M, et al. Learning with Biased Complementary Labels[C]∥Proceedings of the European Conference on Computer Vision (ECCV), 2018: 68-83.

    [40] Goldberger J, Ben-Reuven E. Training Deep Neural- Networks Using a Noise Adaptation Layer[C]∥International Conference on Learning Representation (ICLR), Toulon, France, 2017.

    [41] Wei Y, Gong C, Chen S, et al. Harnessing Side Information for Classification under Label Noise[J]. IEEE Transactions on Neural Networks and Learning Systems, 2019.

    [42] Jindal I, Nokleby M, Chen X. Learning Deep Networks from Noisy Labels with Dropout Regularization[C]∥ IEEE International Conference on Data Mining (ICDM), Barcelona, Spain,2016: 967-972.

    [43] Khetan A, Lipton Z C, Anandkumar A. Learning from Noisy Singly-Labeled Data[EB/OL]. (2017-12-13)[2020- 01-15]. https:∥arxiv.xilesou.top/pdf/1712.04577.pdf.

    [44] Cheng J C, Liu T L, Ramamohanarao K, et al. Learning with Bounded Instance-and Label-Dependent Label Noise [EB/OL]. (2017-09-12) [2020-01-15]. https:∥arxiv.xilesou. top/ pdf/ 1709.03768.pdf.

    [45] Menon A K, Van Rooyen B, Natarajan N. Learning from Binary Labels with Instance-Dependent Corruption [EB/OL]. (2016-05-04) [2020-01-15]. https:∥arxiv.org/pdf/1605.00751.pdf.

    [46] Jiang L, Zhou Z Y, Leung T, et al. MentorNet: Learning Data-Driven Curriculum for Very Deep Neural Networks on Corrupted Labels[C]∥International Conference on Machine Learning(ICML), Stockholm, Sweden, 2018.

    [47] Lee K H, He X D, Zhang L, et al. CleanNet: Transfer Learning for Scalable Image Classifier Training with Label Noise[C]∥ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2018: 5447-5456.

    [48] Wang Y S, Liu W Y, Ma X J, et al. Iterative Learning with Open-Set Noisy Labels[C]∥ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2018: 8688- 8696.

    [49] Ren M Y, Zeng W Y, Yang B, et al. Learning to Reweight Examples for Robust Deep Learning [EB/OL]. (2018-06-08) [2020-01-15]. https:∥arxiv.xilesou.top/pdf/1803.09050.pdf.

    [50] Guo S, Huang W L, Zhang H Z, et al. Curriculumnet: Weakly Supervised Learning from Large-Scale Web Images[C]∥Proceedings of the European Conference on Computer Vision (ECCV), 2018: 135-150.

    [51] Han B, Yao Q M, Yu X R, et al. Co-Teaching: Robust Training of Deep Neural Networks with Extremely Noisy Labels[C]∥ Conference on Neural Information Processing Systems(NIPS), Montreal ,Canada,2018: 8527-8537.

    [52] Angelova A, Abu-Mostafam Y, Perona P. Pruning Training Sets for Learning of Object Categories[C]∥ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2005: 494-501.

    [53] Sun J W, Zhao F Y, Wang C J, et al. Identifying and Correcting Mislabeled Training Instances[C]∥Future Generation Communication and Networking (FGCN), Jeju-Island, Korea, 2007: 244-250.

    [54] Zhu X Q, Wu X D, Chen Q J. Eliminating Class Noise in Large Datasets[C]∥Proceedings of the International Conference on Machine Learning (ICML), 2003: 920-927.

    [55] Reed S, Lee H, Anguelov D, et al. Training Deep Neural Networks on Noisy Labels with Bootstrapping [EB/OL]. (2014-12-20) [2020-01-15]. https:∥arxiv.xilesou.top/pdf/ 1412.6596.pdf.

    [56] Tanaka D, Ikami D, Yamasaki T, et al. Joint Optimization Framework for Learning with Noisy Labels[C]∥ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2018: 5552-5560.

    [57] Yi K, Wu J X. Probabilistic End-to-End Noise Correction for Learning with Noisy Labels[C]∥ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2019.

    [58] Li Y C, Yang J C, Song Y L, et al. Learning from Noisy Labels with Distillation[C]∥Proceedings of the IEEE International Conference on Computer Vision(ICCV), 2017: 1910-1918.

    [59] Veit A, Alldrin N, Chechik G, et al. Learning from Noisy Large-Scale Datasets with Minimal Supervision[C]∥ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2017: 839-847.

    [60] Gao B B, Xing C, Xie C W, et al. Deep Label Distribution Learning with Label Ambiguity[J]. IEEE Transactions on Image Processing, 2017, 26(6): 2825-2838.

    [61] Gong C, Zhang H M, Yang J, et al. Learning with Inadequate and Incorrect Supervision[C]∥IEEE International Conference on Data Mining (ICDM), New Orleans, LA, USA, 2017: 889-894.

    A Survey of Label Noise Robust Learning Algorithms

    Gong Chen 1,2*,Zhang Chuang 1,2,Wang Qizhou 1,2

    (1. Key Lab of Intelligent Perception and Systems for High-Dimensional Information of Ministry of Education, School of

    Computer Science and Engineering,Nanjing University of Science and Technology,Nanjing 210094,China;

    2. Jiangsu Key Lab of Image and Video Understanding for Social Security, School of Computer Science and

    Engineering, Nanjing University of Science and Technology,Nanjing 210094,China)

    Abstract:

    In the field of machine learning, supervised learning algorithm has achineved fruitful results both in theory and engineering application.

    However, such fully supervised learning algorithms are severely dependent on the label quality of the training sample, and reliably labeled data are often expensive and time consuming to obtain in real-world applications. Some surrogate approaches such as web crawler and crowd-sourcing methods, are widely used to collect training data. Unfortunately, there are usually lots of misannotations (i.e. label noise) in the data obtained by these surrogate methods, which result in many potential negative consequences. Therefore, the research on label noise robust learning algorithm is of great significance in promoting the application of machine learning engineering and reducing the deployment cost of machine learning algorithm. In this paper, the latest research progress of label noise robust learning algorithm is comprehensively reviewed. The generation, influence and classification of label noise are summarized in detail. The processing methods of each kind of label noise are introduced, and the advantages and disadvantages of each kind of processing methods are analyzed.

    Key words: artificial intelligence;machine learning;weakly supervised learning;label noise;deep learning;robust learning algorithm

    收稿日期: 2020-01-15

    基金項目:國家自然科學(xué)基金項目(61973162);江蘇省自然科學(xué)基金項目(BK20171430)

    作者簡介: 宮辰(1988- ),男,教授,吳文俊人工智能優(yōu)秀青年獎獲得者, 研究方向是弱監(jiān)督機器學(xué)習(xí)。

    E-mail: chen.gong@njust.edu.cn

    引用格式: 宮辰,張闖,王啟舟.標(biāo)簽噪聲魯棒學(xué)習(xí)算法研究綜述[ J].

    航空兵器,2020, 27( 3): 20-26.

    Gong Chen, Zhang Chuang, Wang Qizhou. A Survey of Label Noise Robust Learning Algorithms[ J]. Aero Weaponry,2020, 27( 3): 20-26.( in Chinese)

    猜你喜歡
    機器學(xué)習(xí)深度學(xué)習(xí)人工智能
    2019:人工智能
    商界(2019年12期)2019-01-03 06:59:05
    人工智能與就業(yè)
    數(shù)讀人工智能
    小康(2017年16期)2017-06-07 09:00:59
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    基于機器學(xué)習(xí)的圖像特征提取技術(shù)在圖像版權(quán)保護中的應(yīng)用
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    基于網(wǎng)絡(luò)搜索數(shù)據(jù)的平遙旅游客流量預(yù)測分析
    時代金融(2016年27期)2016-11-25 17:51:36
    前綴字母為特征在維吾爾語文本情感分類中的研究
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    国产男人的电影天堂91| 成人黄色视频免费在线看| 天堂中文最新版在线下载| 女性生殖器流出的白浆| 成人亚洲欧美一区二区av| 成人亚洲欧美一区二区av| 永久网站在线| 中文天堂在线官网| 纵有疾风起免费观看全集完整版| 一级,二级,三级黄色视频| 如日韩欧美国产精品一区二区三区| 久久99蜜桃精品久久| 91午夜精品亚洲一区二区三区| 精品福利永久在线观看| 午夜福利网站1000一区二区三区| 国产麻豆69| 看免费av毛片| 少妇熟女欧美另类| 国产一区有黄有色的免费视频| 人人妻人人爽人人添夜夜欢视频| 精品亚洲成a人片在线观看| 香蕉国产在线看| 99久久中文字幕三级久久日本| 97在线人人人人妻| 国产亚洲av片在线观看秒播厂| 久久狼人影院| 精品人妻在线不人妻| 黄色一级大片看看| 午夜福利网站1000一区二区三区| 在线观看免费日韩欧美大片| 五月伊人婷婷丁香| 久久精品久久精品一区二区三区| 性色av一级| 亚洲人成网站在线观看播放| 免费人妻精品一区二区三区视频| 美女xxoo啪啪120秒动态图| 亚洲人与动物交配视频| 国产精品人妻久久久久久| 日韩人妻精品一区2区三区| 啦啦啦在线观看免费高清www| 日韩免费高清中文字幕av| 久久精品国产鲁丝片午夜精品| 国产一区二区激情短视频 | 精品久久久久久电影网| 少妇猛男粗大的猛烈进出视频| 国产精品蜜桃在线观看| 久久久久久久久久成人| 国产一区二区在线观看日韩| 一区二区三区乱码不卡18| 高清毛片免费看| 少妇高潮的动态图| 成人国产av品久久久| 大码成人一级视频| 熟女人妻精品中文字幕| a级片在线免费高清观看视频| 亚洲一区二区三区欧美精品| 人人澡人人妻人| 韩国高清视频一区二区三区| a级片在线免费高清观看视频| 22中文网久久字幕| 亚洲美女视频黄频| 18禁动态无遮挡网站| 性色av一级| 女人被躁到高潮嗷嗷叫费观| 久久精品aⅴ一区二区三区四区 | 亚洲精品久久午夜乱码| 中文字幕av电影在线播放| 日韩欧美精品免费久久| av女优亚洲男人天堂| 女的被弄到高潮叫床怎么办| 国产爽快片一区二区三区| 午夜福利视频在线观看免费| 午夜免费观看性视频| 国产欧美亚洲国产| 中文字幕人妻丝袜制服| 国产极品天堂在线| 日韩不卡一区二区三区视频在线| 99久久中文字幕三级久久日本| 97在线视频观看| 男男h啪啪无遮挡| 高清毛片免费看| 最近中文字幕2019免费版| av免费在线看不卡| 国产 精品1| 成人午夜精彩视频在线观看| 制服诱惑二区| 久久精品国产综合久久久 | 多毛熟女@视频| 侵犯人妻中文字幕一二三四区| 国产精品麻豆人妻色哟哟久久| 国产熟女欧美一区二区| √禁漫天堂资源中文www| 侵犯人妻中文字幕一二三四区| 18+在线观看网站| 免费人妻精品一区二区三区视频| 午夜免费鲁丝| 免费黄网站久久成人精品| 波野结衣二区三区在线| 日本猛色少妇xxxxx猛交久久| 亚洲国产精品成人久久小说| 亚洲,欧美,日韩| 69精品国产乱码久久久| 最近手机中文字幕大全| 国产精品国产av在线观看| 蜜臀久久99精品久久宅男| 国产成人av激情在线播放| 如何舔出高潮| 国产免费福利视频在线观看| 中国国产av一级| 国产精品蜜桃在线观看| 狠狠婷婷综合久久久久久88av| 在线观看三级黄色| 一二三四在线观看免费中文在 | 2018国产大陆天天弄谢| 天堂俺去俺来也www色官网| 精品少妇黑人巨大在线播放| 最近最新中文字幕免费大全7| 男人爽女人下面视频在线观看| 午夜福利乱码中文字幕| 99香蕉大伊视频| 大片免费播放器 马上看| 精品亚洲成a人片在线观看| 国产福利在线免费观看视频| 青青草视频在线视频观看| 欧美日韩亚洲高清精品| 欧美xxⅹ黑人| 精品一区在线观看国产| 久久人人97超碰香蕉20202| 免费女性裸体啪啪无遮挡网站| 精品久久国产蜜桃| 国产欧美日韩一区二区三区在线| 国产成人精品无人区| 国产片内射在线| 婷婷成人精品国产| 亚洲成人av在线免费| 国产亚洲欧美精品永久| 国产欧美日韩一区二区三区在线| 男的添女的下面高潮视频| 亚洲国产精品一区三区| av在线app专区| 精品福利永久在线观看| 久久热在线av| 久久久a久久爽久久v久久| av网站免费在线观看视频| 9色porny在线观看| 国产色爽女视频免费观看| 亚洲国产日韩一区二区| 日韩大片免费观看网站| 欧美丝袜亚洲另类| 制服丝袜香蕉在线| 高清不卡的av网站| 一区二区日韩欧美中文字幕 | 免费黄色在线免费观看| 免费高清在线观看日韩| 国产精品一区二区在线不卡| 涩涩av久久男人的天堂| 亚洲色图 男人天堂 中文字幕 | 国产探花极品一区二区| 一区在线观看完整版| av国产久精品久网站免费入址| 青春草视频在线免费观看| 2022亚洲国产成人精品| 人妻人人澡人人爽人人| 国产毛片在线视频| 亚洲国产av影院在线观看| 女性被躁到高潮视频| 久久av网站| 少妇人妻 视频| 热99国产精品久久久久久7| 国产伦理片在线播放av一区| 免费播放大片免费观看视频在线观看| 欧美xxxx性猛交bbbb| 免费看光身美女| 我的女老师完整版在线观看| 黄色 视频免费看| 99视频精品全部免费 在线| 精品久久国产蜜桃| 亚洲国产精品国产精品| 久久99精品国语久久久| 女性被躁到高潮视频| 高清视频免费观看一区二区| 亚洲综合色网址| 美女视频免费永久观看网站| 国产精品久久久久久久电影| 精品少妇久久久久久888优播| 男女午夜视频在线观看 | 中文字幕免费在线视频6| 肉色欧美久久久久久久蜜桃| 亚洲 欧美一区二区三区| 免费黄频网站在线观看国产| 亚洲美女黄色视频免费看| 午夜福利影视在线免费观看| 捣出白浆h1v1| 各种免费的搞黄视频| 韩国av在线不卡| 老司机影院毛片| 国产精品欧美亚洲77777| 国产欧美日韩一区二区三区在线| 成人毛片a级毛片在线播放| 午夜免费鲁丝| 成年动漫av网址| 五月伊人婷婷丁香| 老司机影院成人| 99国产精品免费福利视频| 桃花免费在线播放| 久久久久久久大尺度免费视频| 满18在线观看网站| 免费观看性生交大片5| 成人综合一区亚洲| 精品一区二区三区四区五区乱码 | 亚洲国产精品一区二区三区在线| 亚洲,一卡二卡三卡| 青春草视频在线免费观看| 日韩中字成人| 亚洲国产色片| 最近中文字幕2019免费版| 青春草亚洲视频在线观看| 精品亚洲乱码少妇综合久久| 免费观看a级毛片全部| 老司机亚洲免费影院| 久久久久国产网址| 狂野欧美激情性xxxx在线观看| 精品亚洲乱码少妇综合久久| 观看av在线不卡| a级毛片黄视频| 少妇高潮的动态图| 搡老乐熟女国产| 一个人免费看片子| 国产国语露脸激情在线看| 国产黄色视频一区二区在线观看| 日本-黄色视频高清免费观看| 观看美女的网站| 久久国产精品男人的天堂亚洲 | 久久国产精品男人的天堂亚洲 | 日韩视频在线欧美| av片东京热男人的天堂| 妹子高潮喷水视频| 亚洲一区二区三区欧美精品| 国产精品熟女久久久久浪| 国产一区二区三区综合在线观看 | 免费大片黄手机在线观看| 高清av免费在线| 久久久久久久国产电影| 国产精品偷伦视频观看了| 免费日韩欧美在线观看| 女性生殖器流出的白浆| xxxhd国产人妻xxx| 熟女av电影| xxx大片免费视频| 中文字幕制服av| 亚洲av中文av极速乱| 欧美日韩国产mv在线观看视频| 国产毛片在线视频| 亚洲精品国产色婷婷电影| 乱码一卡2卡4卡精品| 日本av免费视频播放| 欧美日韩av久久| 久久久久久久久久人人人人人人| 亚洲av电影在线观看一区二区三区| 国产爽快片一区二区三区| 欧美人与善性xxx| 97人妻天天添夜夜摸| 黑人巨大精品欧美一区二区蜜桃 | 99热国产这里只有精品6| 大香蕉97超碰在线| 精品一品国产午夜福利视频| 天天躁夜夜躁狠狠久久av| 一级a做视频免费观看| 欧美3d第一页| 全区人妻精品视频| 亚洲国产av影院在线观看| 日日摸夜夜添夜夜爱| 欧美日韩亚洲高清精品| 看十八女毛片水多多多| av福利片在线| 毛片一级片免费看久久久久| 久久精品国产a三级三级三级| av.在线天堂| 精品久久蜜臀av无| 人妻少妇偷人精品九色| 亚洲精华国产精华液的使用体验| 黄片无遮挡物在线观看| 啦啦啦中文免费视频观看日本| 高清毛片免费看| 狠狠婷婷综合久久久久久88av| 亚洲精品久久午夜乱码| 亚洲,欧美,日韩| 一级毛片电影观看| 久久久精品免费免费高清| 人人妻人人澡人人看| 久久精品久久久久久久性| 母亲3免费完整高清在线观看 | 亚洲精品第二区| 制服丝袜香蕉在线| 国内精品宾馆在线| 2018国产大陆天天弄谢| 免费少妇av软件| 亚洲国产精品专区欧美| 自线自在国产av| 亚洲熟女精品中文字幕| 999精品在线视频| 视频在线观看一区二区三区| 欧美xxxx性猛交bbbb| 亚洲欧美一区二区三区黑人 | 国产日韩欧美亚洲二区| 日韩制服骚丝袜av| 久久精品国产亚洲av天美| 免费观看a级毛片全部| 建设人人有责人人尽责人人享有的| 欧美精品一区二区大全| 下体分泌物呈黄色| 母亲3免费完整高清在线观看 | 久久久精品区二区三区| 黄片无遮挡物在线观看| 亚洲av综合色区一区| 亚洲激情五月婷婷啪啪| 一级黄片播放器| 美女大奶头黄色视频| www日本在线高清视频| 黑丝袜美女国产一区| 少妇猛男粗大的猛烈进出视频| 亚洲精品美女久久久久99蜜臀 | 99视频精品全部免费 在线| 91精品伊人久久大香线蕉| 国产又色又爽无遮挡免| 亚洲美女视频黄频| 久久精品人人爽人人爽视色| 国产黄色免费在线视频| 卡戴珊不雅视频在线播放| 亚洲国产看品久久| 五月伊人婷婷丁香| 国产精品99久久99久久久不卡 | 多毛熟女@视频| a级毛色黄片| 永久免费av网站大全| 亚洲av免费高清在线观看| 国产熟女欧美一区二区| 大香蕉97超碰在线| 满18在线观看网站| 亚洲国产精品成人久久小说| 国产精品 国内视频| 久久久久精品性色| 22中文网久久字幕| 亚洲精品成人av观看孕妇| 一级片免费观看大全| 国产亚洲精品久久久com| 香蕉丝袜av| 欧美日韩国产mv在线观看视频| 免费av不卡在线播放| 国产1区2区3区精品| 欧美激情极品国产一区二区三区 | 中文字幕另类日韩欧美亚洲嫩草| 中文字幕精品免费在线观看视频 | 国产日韩欧美视频二区| 久久99精品国语久久久| 999精品在线视频| 国产 一区精品| 国产成人欧美| 视频区图区小说| 国产欧美日韩一区二区三区在线| 精品国产一区二区久久| 内地一区二区视频在线| 久久久久久伊人网av| 国产日韩欧美亚洲二区| 五月玫瑰六月丁香| 午夜福利乱码中文字幕| 国产精品一区二区在线不卡| 99re6热这里在线精品视频| 人人澡人人妻人| 亚洲在久久综合| 久久99热这里只频精品6学生| 80岁老熟妇乱子伦牲交| 欧美国产精品一级二级三级| 蜜桃在线观看..| 中文字幕最新亚洲高清| 久久精品国产亚洲av涩爱| 视频中文字幕在线观看| 国产探花极品一区二区| 男男h啪啪无遮挡| 夫妻性生交免费视频一级片| 大香蕉97超碰在线| 亚洲av日韩在线播放| 夜夜骑夜夜射夜夜干| 一级毛片黄色毛片免费观看视频| 老司机亚洲免费影院| 人成视频在线观看免费观看| 久久人人爽人人片av| 免费高清在线观看视频在线观看| 99热全是精品| 五月伊人婷婷丁香| 久久精品国产鲁丝片午夜精品| 精品一区二区三区四区五区乱码 | 亚洲欧洲国产日韩| 男女午夜视频在线观看 | 亚洲国产精品999| 丰满乱子伦码专区| 国产伦理片在线播放av一区| 91在线精品国自产拍蜜月| 少妇高潮的动态图| 亚洲精品国产av成人精品| 亚洲欧美精品自产自拍| 久久精品夜色国产| 国产 一区精品| 久久久久久久国产电影| 最近最新中文字幕免费大全7| 久久久久久久亚洲中文字幕| 欧美另类一区| 精品少妇黑人巨大在线播放| 国产1区2区3区精品| 老司机影院毛片| 中文字幕精品免费在线观看视频 | 成人二区视频| 日本wwww免费看| 精品亚洲乱码少妇综合久久| 中文精品一卡2卡3卡4更新| 一区二区日韩欧美中文字幕 | 美女中出高潮动态图| 国产激情久久老熟女| 欧美变态另类bdsm刘玥| 人人澡人人妻人| 国产一区二区激情短视频 | 国产高清三级在线| 五月玫瑰六月丁香| 国产成人午夜福利电影在线观看| 日韩成人av中文字幕在线观看| 成年人免费黄色播放视频| 91精品国产国语对白视频| 亚洲av电影在线进入| 国内精品宾馆在线| 黄片无遮挡物在线观看| 国产一级毛片在线| 日韩制服骚丝袜av| 久久狼人影院| 久久久久人妻精品一区果冻| 日本黄色日本黄色录像| 最后的刺客免费高清国语| 免费观看av网站的网址| 侵犯人妻中文字幕一二三四区| 街头女战士在线观看网站| 精品99又大又爽又粗少妇毛片| 亚洲综合色惰| 久久久精品免费免费高清| 黑人欧美特级aaaaaa片| av有码第一页| 色婷婷久久久亚洲欧美| 一区二区三区精品91| 欧美日韩亚洲高清精品| 各种免费的搞黄视频| 精品人妻在线不人妻| 人人澡人人妻人| 久久精品人人爽人人爽视色| 国产老妇伦熟女老妇高清| 蜜臀久久99精品久久宅男| 欧美日韩亚洲高清精品| 免费不卡的大黄色大毛片视频在线观看| 精品一品国产午夜福利视频| 青青草视频在线视频观看| 看十八女毛片水多多多| 国产在线视频一区二区| 日日爽夜夜爽网站| 午夜福利在线观看免费完整高清在| 久久久久精品性色| 男人操女人黄网站| 黄片播放在线免费| 99精国产麻豆久久婷婷| 狂野欧美激情性bbbbbb| 欧美bdsm另类| 夜夜爽夜夜爽视频| 久久热在线av| 欧美日韩综合久久久久久| 亚洲国产色片| 哪个播放器可以免费观看大片| 亚洲伊人色综图| 欧美精品国产亚洲| 欧美激情国产日韩精品一区| 午夜老司机福利剧场| 天天操日日干夜夜撸| 欧美3d第一页| 99久久中文字幕三级久久日本| 80岁老熟妇乱子伦牲交| 久久 成人 亚洲| 国产免费福利视频在线观看| 热re99久久精品国产66热6| 国产一区二区在线观看av| 男女无遮挡免费网站观看| 成人18禁高潮啪啪吃奶动态图| 国产白丝娇喘喷水9色精品| 欧美人与性动交α欧美软件 | 超碰97精品在线观看| 精品一区二区三区四区五区乱码 | 十分钟在线观看高清视频www| h视频一区二区三区| xxxhd国产人妻xxx| 久久人妻熟女aⅴ| 99热全是精品| 日本vs欧美在线观看视频| 午夜免费观看性视频| 91在线精品国自产拍蜜月| 亚洲第一区二区三区不卡| 少妇熟女欧美另类| 菩萨蛮人人尽说江南好唐韦庄| 日韩精品免费视频一区二区三区 | 日韩欧美一区视频在线观看| 黄色怎么调成土黄色| 日本免费在线观看一区| a级毛色黄片| 国产麻豆69| 久久久精品免费免费高清| 高清不卡的av网站| 纵有疾风起免费观看全集完整版| 欧美成人精品欧美一级黄| 国产精品人妻久久久影院| 中国美白少妇内射xxxbb| 久久精品国产综合久久久 | 国产爽快片一区二区三区| 国产男人的电影天堂91| 精品人妻熟女毛片av久久网站| 最近手机中文字幕大全| 成人手机av| 久久久a久久爽久久v久久| 青春草亚洲视频在线观看| 国产av精品麻豆| 麻豆乱淫一区二区| 精品久久久久久电影网| kizo精华| 最后的刺客免费高清国语| 汤姆久久久久久久影院中文字幕| av黄色大香蕉| 丰满迷人的少妇在线观看| 黑丝袜美女国产一区| 亚洲精品成人av观看孕妇| 日韩制服骚丝袜av| 亚洲精华国产精华液的使用体验| 日韩欧美精品免费久久| 免费人妻精品一区二区三区视频| 在线观看人妻少妇| 欧美日韩视频高清一区二区三区二| 欧美日韩一区二区视频在线观看视频在线| 久久99热6这里只有精品| 女人精品久久久久毛片| 色5月婷婷丁香| 亚洲精品国产av成人精品| 一区二区三区精品91| 丁香六月天网| 人人妻人人添人人爽欧美一区卜| 寂寞人妻少妇视频99o| 亚洲成人一二三区av| 亚洲精品乱久久久久久| 99国产精品免费福利视频| 99久国产av精品国产电影| 一区在线观看完整版| 精品国产一区二区三区四区第35| 啦啦啦视频在线资源免费观看| 美女大奶头黄色视频| 黑人巨大精品欧美一区二区蜜桃 | 成人亚洲精品一区在线观看| 狂野欧美激情性bbbbbb| 久久久久久伊人网av| 亚洲性久久影院| 我要看黄色一级片免费的| 国产一区二区三区av在线| 国产免费又黄又爽又色| 亚洲,一卡二卡三卡| 久久免费观看电影| 久久精品国产亚洲av天美| 中文字幕最新亚洲高清| 欧美日韩一区二区视频在线观看视频在线| 亚洲精品中文字幕在线视频| 啦啦啦在线观看免费高清www| 大香蕉久久网| 免费黄色在线免费观看| 成人国产av品久久久| 精品亚洲成a人片在线观看| 青青草视频在线视频观看| 久久99一区二区三区| 免费黄网站久久成人精品| 国产视频首页在线观看| 一级毛片黄色毛片免费观看视频| 欧美亚洲日本最大视频资源| 国产国拍精品亚洲av在线观看| 久久久久久久久久久免费av| 麻豆精品久久久久久蜜桃| 五月玫瑰六月丁香| 伦理电影大哥的女人| 99热全是精品| 亚洲国产欧美在线一区| 日韩熟女老妇一区二区性免费视频| 少妇人妻精品综合一区二区| 一本色道久久久久久精品综合| 久久鲁丝午夜福利片| 欧美xxxx性猛交bbbb| 国产精品国产三级国产av玫瑰| 成年人免费黄色播放视频| 51国产日韩欧美| 一本色道久久久久久精品综合| 看免费成人av毛片| 日韩 亚洲 欧美在线| 亚洲av.av天堂| 欧美日本中文国产一区发布| 久久精品夜色国产| 免费不卡的大黄色大毛片视频在线观看| 亚洲国产日韩一区二区| 少妇人妻精品综合一区二区| 亚洲精品色激情综合| 国产在线免费精品| 三级国产精品片| 久久久久视频综合| 国产精品.久久久| 久久99热6这里只有精品| 午夜激情久久久久久久| 波野结衣二区三区在线| 亚洲成人一二三区av| 黑人猛操日本美女一级片| 一级毛片黄色毛片免费观看视频| 三上悠亚av全集在线观看|