• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    對比學(xué)習(xí)研究綜述

    2023-04-19 05:12:18劉喜平李旺才萬常選劉德喜
    小型微型計算機系統(tǒng) 2023年4期
    關(guān)鍵詞:正例語義損失

    李 希,劉喜平,李旺才,萬常選,劉德喜

    1(江西財經(jīng)大學(xué) 信息管理學(xué)院,南昌 330013)2(江西科技師范大學(xué) 數(shù)學(xué)與計算機科學(xué)學(xué)院,南昌 330036) E-mail:liuxiping@jxufe.edu.cn

    1 引 言

    當(dāng)前的人工智能熱潮很大程度上是源于機器學(xué)習(xí),特別是深度學(xué)習(xí)技術(shù)的巨大成功.機器學(xué)習(xí)就是通過輸入海量訓(xùn)練數(shù)據(jù)對模型進行訓(xùn)練,使模型掌握數(shù)據(jù)所蘊含的潛在規(guī)律,進而對新輸入的數(shù)據(jù)進行準(zhǔn)確的分類或預(yù)測.

    在現(xiàn)有的機器學(xué)習(xí)方法中,監(jiān)督學(xué)習(xí)方法(supervised learning)占據(jù)主導(dǎo)地位.監(jiān)督學(xué)習(xí)方法的一個基本要素是帶有強監(jiān)督信息(如樣本所屬的類別標(biāo)簽)的訓(xùn)練數(shù)據(jù),也即標(biāo)注數(shù)據(jù).在實際應(yīng)用中,往往難以獲得高質(zhì)量標(biāo)注信息,或者人工標(biāo)注代價較高,因此,如何在缺乏監(jiān)督信息或者只有有限的監(jiān)督信息情況下進行學(xué)習(xí)就顯得尤為重要.在這一背景下,近幾年,自監(jiān)督學(xué)習(xí)(self-supervised learning)異軍突起,引起了很多的關(guān)注.自監(jiān)督學(xué)習(xí)利用數(shù)據(jù)本身的信息來形成監(jiān)督信號,利用這些監(jiān)督信號來指導(dǎo)學(xué)習(xí)數(shù)據(jù)的特征表達,已經(jīng)形成了一種新的機器學(xué)習(xí)范式.

    自監(jiān)督學(xué)習(xí)又可以分為對比學(xué)習(xí)(contrastive learning)和生成學(xué)習(xí)(generative learning)兩條主要的技術(shù)路線[1].生成學(xué)習(xí)以自編碼器(如生成對抗網(wǎng)絡(luò)GAN、變分自編碼器VAE等等)這類方法為代表,從原始數(shù)據(jù)出發(fā),生成新的數(shù)據(jù),使得生成數(shù)據(jù)盡可能還原原始數(shù)據(jù).而對比學(xué)習(xí)不要求能夠重新生成原始數(shù)據(jù),只是要求模型能夠區(qū)分相似樣本與不相似樣本,著重于學(xué)習(xí)相似樣本之間的共同特征,因此相對于生成學(xué)習(xí)來說,模型更加簡單,泛化能力更強,近年來得到了越來越多的關(guān)注.

    對比學(xué)習(xí)的核心思想是將正樣本和負(fù)樣本在特征空間對比,從而學(xué)習(xí)樣本的特征表示,使得樣本與正樣本的特征表示盡可能接近,而與負(fù)樣本的表示盡可能不同.與監(jiān)督學(xué)習(xí)不同的是,這里的正樣本和負(fù)樣本并不是根據(jù)樣本標(biāo)簽確定的,而是使用代理任務(wù)(pretext task)[2]來定義的.代理任務(wù)定義了樣本之間的相似性,給定一個樣本,與之相似的樣本就是正樣本,而不相似的樣本就是負(fù)樣本.數(shù)據(jù)增強是代理任務(wù)的實現(xiàn)常見手段.

    對比學(xué)習(xí)的一個例子如圖1所示.給定一個對象的圖片(原樣本),通過數(shù)據(jù)增強得到該圖片的正樣本,其他對象的圖片則構(gòu)成了負(fù)樣本.通過對比學(xué)習(xí),讓原樣本靠近正樣本,遠(yuǎn)離負(fù)樣本.

    圖1 對比學(xué)習(xí)應(yīng)用舉例[2]Fig.1 Example of a contrast learning application[2]

    對比學(xué)習(xí)最近已成為計算機視覺(CV),自然語言處理(NLP)和其它領(lǐng)域的自監(jiān)督學(xué)習(xí)方法的主要組成部分.

    本文就對比學(xué)習(xí)的發(fā)展脈絡(luò)和研究重點進行梳理.首先介紹了對比學(xué)習(xí)的基本思想,以及對比學(xué)習(xí)的主要研究問題.然后圍繞對比學(xué)習(xí)的兩個核心問題:損失函數(shù)設(shè)計和正負(fù)樣本構(gòu)造,介紹了現(xiàn)有成果.最后梳理了對比學(xué)習(xí)在兩個主要應(yīng)用領(lǐng)域:計算機視覺領(lǐng)域和自然語言處理領(lǐng)域的研究進展.最后分析了對比學(xué)習(xí)面臨的挑戰(zhàn)和可能的研究方向.

    2 什么是對比學(xué)習(xí)

    人們普遍認(rèn)為,事物存在某種通用的特征[3].對比學(xué)習(xí)就是去學(xué)習(xí)這樣一種特征,該特征有很強的遷移性,可以在未標(biāo)注數(shù)據(jù)的下游任務(wù)里,獲得很好的效果.

    2.1 對比學(xué)習(xí)的思想

    對比學(xué)習(xí)通過將數(shù)據(jù)分別與正負(fù)例樣本進行對比,來學(xué)習(xí)樣本的特征表示,可以看作是一種表征提取方法.對比學(xué)習(xí)的一般模型如圖2所示.

    圖2 對比學(xué)習(xí)的一般模型Fig.2 General model of contrast learning

    通過模型可以看到,數(shù)據(jù)x經(jīng)過數(shù)據(jù)增強,得到增強數(shù)據(jù)x1和x2,再分別經(jīng)過fθ映射函數(shù)(編碼器/模型)就得到了各種的特征,將這些特征用于計算對比學(xué)習(xí)的損失函數(shù),同時使得正例的損失與負(fù)例的損失都達到最小.目前,基于對比學(xué)習(xí)的模型,大部分架構(gòu)都遵循圖2的右半部,各種模型的不同之處,體現(xiàn)在對原始數(shù)據(jù)的數(shù)據(jù)增強方式上,不同的增強方法會帶來不同的特征表示,從而影響下游任務(wù)的效果.

    圖3 圖像領(lǐng)域?qū)Ρ葘W(xué)習(xí)經(jīng)典框架[10]Fig.3 Classical framework for contrast learning in the image domain[10]

    近兩年,對比學(xué)習(xí)涌現(xiàn)出許多模型框架,總體來看,如圖3所示,圖像領(lǐng)域?qū)Ρ葘W(xué)習(xí)經(jīng)典框架[10]有3個:基于負(fù)例的對比學(xué)習(xí)、基于非對稱網(wǎng)絡(luò)的對比學(xué)習(xí)和基于特征去相關(guān)的對比學(xué)習(xí).同時,對比學(xué)習(xí)也被引入自然語言處理領(lǐng)域(NLP).例如:SimCSE[11]將對比學(xué)習(xí)的思想引入sentence embedding,刷新了無監(jiān)督與有監(jiān)督語義相似度計算任務(wù)的最好成績;文獻[12]主要是在SimCSE上進行優(yōu)化,通過ELECTRA模型,生成偽造樣本和RTD(Replaced Token Detection)任務(wù),來學(xué)習(xí)原始句子與偽造句子之間的差異,以提高句向量表征模型的效果.InfoNCE[3]進一步將對比學(xué)習(xí)與互信息優(yōu)化聯(lián)系起來,激發(fā)了一系列后續(xù)工作[4,5].

    2.2 對比學(xué)習(xí)的研究問題

    對比學(xué)習(xí)的研究問題主要有3個:

    1)如何構(gòu)造正負(fù)例.不同的數(shù)據(jù)增強方式可以讓模型學(xué)習(xí)到不同的特征表示,不同的表征適用于不同的下游任務(wù).選擇合適的數(shù)據(jù)增強方式,構(gòu)造合理的正負(fù)例,是能否成功提取對下游任務(wù)有用表征的關(guān)鍵.

    2)負(fù)例的數(shù)量.多少負(fù)例才能夠讓模型得到充分的學(xué)習(xí)?SimCLR[4]提出1∶4096,許多實驗也驗證了負(fù)例越多效果越好.

    3)損失函數(shù).對比學(xué)習(xí)的研究目標(biāo)是要學(xué)習(xí)一個映射函數(shù)f(x),也就是encoder編碼器,滿足下式:

    s(f(x),f(x+))?s(f(x),f(x-))

    (1)

    其中,s()是相似度計算函數(shù),x為輸入樣本,x+為正例,x-為負(fù)例.要使得輸入樣本與正例的相似度遠(yuǎn)大于負(fù)例,需要通過損失函數(shù)來達到.可以根據(jù)不同的任務(wù)來設(shè)計不同的損失函數(shù).

    2.3 對比學(xué)習(xí)的評價標(biāo)準(zhǔn)

    評價一個對比學(xué)習(xí)模型的好壞標(biāo)準(zhǔn),一方面可以通過下游任務(wù)效果的好壞來衡量,另一方面也可以通過“對齊”與“均勻”兩個指標(biāo)來衡量[13].舉個例子來說明這兩個指標(biāo):超市里面的商品都是按類別擺放,如廚房用品、清潔用品、服飾等,同類商品擺放在一起,方便用戶選購,這就是“對齊”;超市里面的貨架要分布均勻,區(qū)域之間的距離都差不多,這就是“均勻”.理想狀態(tài)是每個類別均勻分布在一個超球體上,這樣每個類別之間的距離都一樣.正例之間保持緊密性,負(fù)例之間保持分散性.

    2.4 與傳統(tǒng)模型方法的比較

    傳統(tǒng)的有監(jiān)督學(xué)習(xí)是指使用有標(biāo)簽的訓(xùn)練數(shù)據(jù)來訓(xùn)練模型.將預(yù)測值與真實值之間的誤差損失反向傳播,通過計算梯度、更新權(quán)重,反復(fù)迭代,使得誤差損失最小,以此訓(xùn)練模型,去預(yù)測未知標(biāo)簽數(shù)據(jù).傳統(tǒng)的有監(jiān)督學(xué)習(xí)方法有:概率監(jiān)督學(xué)習(xí)、支持向量機、決策樹等.傳統(tǒng)的有監(jiān)督學(xué)習(xí)在很多方面獲得了巨大成功,但訓(xùn)練集需要人工標(biāo)注,耗費人力及資源,魯棒性較差,泛化能力不足.

    對比學(xué)習(xí)是一種自監(jiān)督學(xué)習(xí)技術(shù),無需人工標(biāo)注數(shù)據(jù),是一種基于判別式的表征學(xué)習(xí)框架.將樣本與相似樣本和不相似樣本進行比較,通過設(shè)計模型計算對比損失,使得相似樣本的特征表示更接近,不相似樣本的特征表示更疏遠(yuǎn).與傳統(tǒng)模型相比,對比學(xué)習(xí)模型構(gòu)造簡單,人工負(fù)擔(dān)小,通過自動構(gòu)造正負(fù)例,不受標(biāo)注數(shù)據(jù)規(guī)模的限制,增強了模型的泛化能力和魯棒性.

    3 對比學(xué)習(xí)中的損失函數(shù)

    損失函數(shù)是用來評估模型的預(yù)測值與真實值之間的差別.損失函數(shù)的設(shè)計,直接影響到模型的性能.對比學(xué)習(xí)可以看作是一種降維學(xué)習(xí)方法,通過學(xué)習(xí)一種映射關(guān)系,將樣本通過映射函數(shù)映射到低維空間,使得同類樣本距離拉近,不同類樣本距離推遠(yuǎn).對比學(xué)習(xí)損失函數(shù)的發(fā)展脈絡(luò)如圖4所示.

    圖4 對比學(xué)習(xí)損失函數(shù)發(fā)展脈絡(luò)Fig.4 Comparative learning loss function development

    3.1 成對樣本損失求和

    R.Hadsell等[19]提出了一種方法,通過學(xué)習(xí)不變映射來降維(Dimensionality Reduction by Learning an Invariant Mapping:DrLIM).學(xué)習(xí)一個非線性函數(shù),將數(shù)據(jù)均勻地映射到輸出流形.該論文提出了一種新的損失函數(shù),即成對樣本損失函數(shù)(公式(2)).不像傳統(tǒng)的機器學(xué)習(xí),損失函數(shù)是對所有樣本的損失求和,這里的損失函數(shù)是成對樣本的累加.

    (2)

    其中:

    (3)

    3.2 噪聲對比估計(Noise Contrastive Estimation, NCE)

    (4)

    Pm(u;θ)表示在參數(shù)θ下的原數(shù)據(jù)的概率密度函數(shù),Pn(u;θ)表示噪聲概率密度函數(shù).最終似然函數(shù)如下:

    l(θ)=∑t[CtlnP(Ct=1|u;θ)+(1-Ct)lnP(Ct=1|u;θ)]

    =∑t[Ctln(h(xt;θ))+ln(1-h(y;θ))]

    (5)

    其中:

    G(u;θ)=lnPm(u;θ)+lnPn(u)

    最終公式(5)也可看作原數(shù)據(jù)模型的對數(shù)與噪聲模型對數(shù)之差,對差值進行邏輯回歸.

    3.3 NCE loss

    A.Mnih&Y.W.Teh[21]第一次將NCE應(yīng)用于自然語言處理.作者在論文中證明了隨著噪聲樣本與觀測值的比率增加,NCE梯度接近最大似然梯度.此時NCE對于噪聲分布的依賴最小,接近于真實期望值.

    使用上下文經(jīng)驗概率P(h)作為權(quán)重,定義一個全局NCE目標(biāo)函數(shù):J(θ)=∑hP(h)Jh(θ).

    (6)

    該論文僅使用少量的負(fù)樣本就能達到很好的效果,所以比重要性采樣更加有效、穩(wěn)健(重要性采樣的高方差會導(dǎo)致學(xué)習(xí)的不穩(wěn)定).

    3.4 InfoNCE

    A.vandenOord等[3]提出了對比預(yù)測編碼(Contrastive Predictive Coding, CPC),利用當(dāng)前輸出作為先驗知識,預(yù)測序列數(shù)據(jù)的未來輸出,提高模型的表征能力.這篇論文的觀點是,encoder提取的特征應(yīng)當(dāng)具有可預(yù)測性,只有能夠預(yù)測別的特征的特征才是好特征.當(dāng)然, 這是對有序(時域或者空間)數(shù)據(jù)有意義.算法的核心是通過自回歸模型來學(xué)習(xí)未來的隱變量表示.論文提出InfoNCE公式如公式(7)所示,求和部分包含一個正樣本xt+k,N-1個負(fù)樣本.

    (7)

    InfoNCE的公式中可以看出負(fù)例的重要性,負(fù)例的數(shù)量直接影響了最終的結(jié)果.而過多的負(fù)例也會造成batchsize的龐大,使得顯卡無法承擔(dān)巨大的計算量.C.Yeh等[22]通過分析InfoNCE損失,去除耦合項,設(shè)計了新的解耦對比學(xué)習(xí)目標(biāo)(Decoupled Contrastive Learning,DCL),擺脫了對比學(xué)習(xí)中正樣本與負(fù)樣本之間的耦合現(xiàn)象,顯著提高了訓(xùn)練效率.

    3.5 Triplet Loss

    (8)

    3.6 對比學(xué)習(xí)損失函數(shù)對于控制判別效果的影響

    許多采用對比學(xué)習(xí)方法的模型,都采用基于交叉熵的損失函數(shù),分別計算正負(fù)樣的相似度,歸一化后,計算交叉熵.例如公式(7)[3]中的損失是正確分類為正樣本的類別交叉熵.同樣地,根據(jù)SimCLR[4]的損失函數(shù)公式:

    (9)

    該方法以正樣本正確分類的類別交叉熵作為損失函數(shù),以控制判別效果.

    對比學(xué)習(xí)中的溫度超參數(shù)一般都默認(rèn)采用較小的溫度系數(shù).F.Wang& H.Liu[24]研究了對比損失溫度系數(shù),證明了對比損失是一個難度感知損失函數(shù)(Hardness-aware Loss Function),溫度τ控制難負(fù)樣本(Hard Negative Samples)的懲罰強度.溫度系數(shù)決定了對比損失對難負(fù)樣本的關(guān)注程度,溫度系數(shù)越大,則關(guān)注度越低;溫度系數(shù)越小,則關(guān)注度越高.然而難負(fù)樣本與正樣本相似程度較高,有很多難負(fù)樣本其實是潛在的正樣本.過分強調(diào)與難負(fù)樣本分離會破壞潛在的語義結(jié)構(gòu),不利于形成對下游任務(wù)有用的特征.

    3.7 對比學(xué)習(xí)模型可解釋性

    表示學(xué)習(xí)本質(zhì)上要從數(shù)據(jù)中學(xué)習(xí)到一個優(yōu)質(zhì)的語義表示空間.這個空間應(yīng)該能夠體現(xiàn)“方以類聚,物以群分”這一客觀規(guī)律.對比學(xué)習(xí)正是試圖將正例拉近,負(fù)例推遠(yuǎn),有助于得到好的語義表示空間.可解釋性是?類對模型決策/預(yù)測結(jié)果的理解程度,包括模型本質(zhì)的可解釋性(模型到底學(xué)到了什么)、模型結(jié)果的可解釋性(模型為什么產(chǎn)生某個結(jié)果)等.目前的對比學(xué)習(xí)主要還是關(guān)注模型的表現(xiàn),對于模型的可解釋性探討不多.

    對比學(xué)習(xí)通過引入對照性的實例來改進學(xué)習(xí)效果的思路對于機器學(xué)習(xí)可解釋性的研究提供了啟發(fā).M.Gardner等[25]提出了在原始測試集上構(gòu)建對比測試集(Contrast Test Set)的方法,通過以較小但有意義的方式手動擾動測試實例,以此來評估模型的局部決策邊界,從而能夠真實的評估模型的語言能力.最近,文獻[26-29]研究了如何構(gòu)造了對比性解釋(Contrastive Explanations)以更好地理解模型的結(jié)果,即試圖回答“WHY A Not B”而不僅僅是“WHY A”.

    4 對比學(xué)習(xí)中的正負(fù)樣本構(gòu)造

    在對比學(xué)習(xí)中,假設(shè)計算目標(biāo)函數(shù)時,只有正樣本,那么對比的最終目的就是讓所有相似樣本的特征盡可能的相似,模型訓(xùn)練的結(jié)果就是,無論輸入什么,它都輸出同樣的特征.用這樣的特征去計算對比學(xué)習(xí)的損失函數(shù),其值都會是零,模型什么也沒有學(xué)到.引入負(fù)樣本,實質(zhì)是引入一種約束,這樣一來,如果模型輸出的特征相似,那么它在負(fù)樣本的損失函數(shù)值就會變大,所以模型輸出的特征必須能夠同時使得正負(fù)樣本的損失函數(shù)值都下降,達到一個最優(yōu)解.負(fù)樣本是一種約束,能夠防止模型坍塌的情況出現(xiàn).

    4.1 計算機視覺領(lǐng)域?qū)τ谡?fù)樣本的設(shè)計

    4.1.1 設(shè)計負(fù)例

    SimCLR[4]強調(diào)了負(fù)例構(gòu)造的重要性,提出了一種構(gòu)建負(fù)樣本的方式.對一個batch中的圖片做數(shù)據(jù)增強.對同一張圖片做顏色變換、高斯模糊、裁剪等簡單的變換.采用ResNet-50作為編碼器,從增強數(shù)據(jù)中提取表征向量.再由全連接層和激活層投影到對比損失空間.同一圖片的數(shù)據(jù)增強互為正例,而不同圖片之間互為負(fù)例.訓(xùn)練的目標(biāo)是期望同一張圖片表征向量近似,不同圖片表征向量遠(yuǎn)離.

    對比學(xué)習(xí)在負(fù)樣本眾多的情況下效果顯著,擴展負(fù)樣本數(shù)量就成為提升模型效果的方式之一.這也導(dǎo)致了batchsize過大而造成GPU內(nèi)存溢出問題.為了解決這一問題,MoCo[5]提出了一種動量對比方法,來提高每個mini-batch的負(fù)樣本數(shù)量.通過查詢值和含有編碼鍵值對的字典之間的匹配缺失,來優(yōu)化一個編碼器.只要字典足夠大,包含的負(fù)樣本足夠多,就能夠?qū)W習(xí)到很好的特征表達.

    雖然batchsize增加了,但是模型的性能也不一定就能得到提高,這是因為大量的負(fù)樣本很可能是容易識別的負(fù)樣本,浪費了算力,卻得不到效果.Y.Kalantidis等[30]通過Mix-up的方式來得到模型難以識別的負(fù)樣本,提高對比學(xué)習(xí)模型的效率.

    對比學(xué)習(xí)中大部分的數(shù)據(jù)增強方式是將同一張圖片及其增強副本作為正例對,其余圖片視為其負(fù)例對.這樣容易造成模型把相距很遠(yuǎn)的樣本分得更遠(yuǎn),而距離較近的負(fù)樣本則難以區(qū)分.J.Robinson等[31]設(shè)計難負(fù)樣本的原則是:與原始樣本標(biāo)簽不同,且與原始樣本相似.用無監(jiān)督的方法,篩選出不屬于同一個類別標(biāo)簽的樣本.這些篩選出的難負(fù)樣本能夠更好的提升模型的性能.

    4.1.2 設(shè)計正例

    常見的對比學(xué)習(xí)是設(shè)計一個正例與若干個負(fù)例,而負(fù)例通常是一個batch內(nèi)隨機采樣得到,在多分類任務(wù)中,容易發(fā)生錯誤,從而導(dǎo)致學(xué)習(xí)效果變差.P.Khosla等[32]提出了監(jiān)督對比損失,使用標(biāo)注的方式,對訓(xùn)練樣本考慮多對正例比較.采用兩階段訓(xùn)練,首先標(biāo)注自監(jiān)督對比學(xué)習(xí)的正負(fù)例對,然后采用監(jiān)督方式進行對比學(xué)習(xí).

    同樣選取多個正例的對比學(xué)習(xí)還有B.Kang等[33]提出的k-positive對比學(xué)習(xí).結(jié)合了監(jiān)督學(xué)習(xí)和對比學(xué)習(xí),解決類別不均勻情況下的特征表征問題.對每個batch中的一個樣本,都選取與之同一個類的k個正樣本,拉近正例之間的特征向量,來學(xué)習(xí)到具有區(qū)別性和均衡性的表征.

    4.1.3 同時設(shè)計正負(fù)例

    對比學(xué)習(xí)中正負(fù)例的設(shè)計是依賴于下游任務(wù)的.例如Y.Tian等[34]在探究對比學(xué)習(xí)的有效原因時,使用的數(shù)據(jù)集具有數(shù)字、位置和背景3要素.表示不同視覺之間的共享信息,對下游任務(wù)的影響是不同的,例如只共享數(shù)字部分,學(xué)習(xí)到的表征就會忽略位置和背景信息,因而在有關(guān)位置和背景的下游任務(wù)中無法取得好的效果.Y.Tian等在設(shè)計時,為一個視覺構(gòu)造對應(yīng)下游任務(wù)的3個正樣本(數(shù)字、位置和背景),同時構(gòu)造3個負(fù)樣本(數(shù)字、位置和背景).當(dāng)下游任務(wù)是判別數(shù)字時,則正樣本共享對應(yīng)數(shù)字的信息,負(fù)樣本的各要素均是隨機選擇.

    4.2 自然語言處理領(lǐng)域?qū)τ谡?fù)樣本的設(shè)計

    在計算機視覺領(lǐng)域使用對比學(xué)習(xí),可以很方便的構(gòu)造正負(fù)實例,比如圖像里面常用的旋轉(zhuǎn)、縮放、灰度、裁剪等操作,這些圖像增強技術(shù)簡單,而且不會帶來太大的噪音.然而在NLP領(lǐng)域中,正負(fù)實例的構(gòu)造就需要再三斟酌了.文獻[14,35,36,37]都是通過加詞、漏詞、換位、亂序等方式來添加正負(fù)樣本.文獻[16]是通過添加擾動來產(chǎn)生正負(fù)樣本.文本的數(shù)據(jù)增強,會帶來巨大的噪音.因為對一個句子,加詞、漏詞、換序等方式,可能使得句子的語義發(fā)生巨大變化.

    4.2.1 數(shù)據(jù)增強

    構(gòu)造正負(fù)例是對比學(xué)習(xí)的研究重點,數(shù)據(jù)增強技術(shù)也已經(jīng)被證明是提高模型泛化和數(shù)據(jù)效率的有效方法.數(shù)據(jù)的效率是指利用有限的數(shù)據(jù)做出最佳的效果,一方面需要有一個優(yōu)秀的模型,另一方面就需要有代表性的數(shù)據(jù).表1詳細(xì)介紹自然語言處理領(lǐng)域,應(yīng)用對比學(xué)習(xí)時,采用的數(shù)據(jù)增強方法.

    表1 數(shù)據(jù)增強方法Table 1 Data augmentation methods

    1)傳統(tǒng)數(shù)據(jù)增強

    a)構(gòu)造正例

    NLP傳統(tǒng)數(shù)據(jù)增強方法有以下幾種:回譯、詞性替換、mixup、cutoff、詞頻等.回譯是指利用機器翻譯來解釋文本語義,同時重新訓(xùn)練其含義.詞性替換是指采用同義詞來替換原詞,而不改變含義.Mixup是指將同一批次的兩個樣本,按照一定的策略組合.Cutoff是指隨機遺漏.

    Z.Yang等[14]采用了隨機遺漏、按詞性遺漏和按詞頻遺漏的方法構(gòu)造機器翻譯的正樣本,以最大似然估計模型為基礎(chǔ),使用對比學(xué)習(xí)對模型進行微調(diào),減少了漏翻現(xiàn)象.Y.Qu等[38]比較了回譯、詞替換、mixup、cutoff和對抗這5種數(shù)據(jù)增強方法.通過實驗發(fā)現(xiàn)回譯加對抗的效果最好,發(fā)現(xiàn)了不同數(shù)據(jù)增強方法的互補性.Y.Yan等[39]采用了對抗,token shuffling,cutoff和dropout這4種增強方式進行對比,在無監(jiān)督的模式下,對BERT進行微調(diào),消除了高頻詞對句子語義表示的干擾,解決了BERT派生語句的表示崩潰問題,使模型學(xué)習(xí)到更好的句子表示.J.Giorgi等[40]在采樣正例時,允許采樣與錨點交疊、相鄰和從屬.

    在多對多機器翻譯時,兩句話如果是一個意思,那么即使它們表達的語言不同,這兩個句子在語義空間中的表征也應(yīng)該是靠近的.X.Pan等[41]使用了跨語言表示中,一對多翻譯的特性,直接進行句子自我對比,這樣的效果比做數(shù)據(jù)增強要好很多(數(shù)據(jù)增強也會帶來噪音).

    b)構(gòu)造負(fù)例

    W.Zhang &K.Stratos[42]從理論和實驗上證明了,選擇難負(fù)樣本對提升模型的有效性.M.Kachuee等[43]通過在每個訓(xùn)練批次中以洗牌的方式來產(chǎn)生噪音樣本.W.Zhou等[44]通過概念亂序、概念生成句子的方式生成負(fù)例.

    H.Wu等[37]從語言質(zhì)量和語義質(zhì)量兩方面創(chuàng)建負(fù)例樣本.對于語義質(zhì)量,采用隨機移除單詞或句子;對于語言質(zhì)量,通過單詞亂序或刪除單詞來生成負(fù)例樣本.負(fù)樣本例子見圖5.

    c)同時構(gòu)造正負(fù)例

    同時構(gòu)造正負(fù)例,雖然增加了計算量,但也使得模型的性能得以提升.J.Huang等[35]采用傳統(tǒng)的數(shù)據(jù)增強方法,將一對互相匹配的query和code,改寫query構(gòu)造正例,將query與非匹配的code匹配,構(gòu)建負(fù)例.簡單地隨機構(gòu)建正負(fù)樣本,容易產(chǎn)生無意義的正負(fù)樣本,這些樣本容易被識別.

    N.Rethmeier等[45]將多標(biāo)簽分類任務(wù)建模成文本匹配任務(wù),采樣不同的正負(fù)標(biāo)簽,同時采樣文本片段,構(gòu)成偽標(biāo)簽,(4種標(biāo)簽:正標(biāo)簽、負(fù)標(biāo)簽、正偽標(biāo)簽、負(fù)偽標(biāo)簽)編碼后,和句子編碼拼接,通過NCE Loss訓(xùn)練匹配模型.D.Wang等[46]構(gòu)建正例時將句子中的名詞、動詞和形容詞替換為其同義詞;負(fù)例則是將它們替換為反義詞或隨機詞.T.Chen等[47]利用對比學(xué)習(xí)來提高遠(yuǎn)程監(jiān)督關(guān)系抽取,將同一關(guān)系下的實例當(dāng)作正例,不同關(guān)系的實例當(dāng)作負(fù)例.H.Cai等[48]將對比學(xué)習(xí)引入到對話生成中,分別就上下文和響應(yīng)進行分組抽樣,實現(xiàn)數(shù)據(jù)增強.

    圖5 文本的數(shù)據(jù)增強[34]Fig.5 Text data augmentation[34]

    2)模型層面的數(shù)據(jù)增強

    許多實驗證明了,傳統(tǒng)數(shù)據(jù)增強的方式,實驗效果并不十分理想.許多基于預(yù)訓(xùn)練模型的句子表征取得了顯著效果,可以看作是模型層面的數(shù)據(jù)增強.

    BERT預(yù)訓(xùn)練模型,通過MLM任務(wù)的自監(jiān)督學(xué)習(xí),充分挖掘了模型從海量無標(biāo)注文本中學(xué)習(xí)通用知識的能力.通過有監(jiān)督的微調(diào),在許多NLP下游任務(wù)上取得了不錯的性能.T.Kim等[49]采用了兩個BERT,利用BERT自身的信息去進行對比,從而避免做數(shù)據(jù)增強,挖掘內(nèi)部信息.模型中一個BERT的參數(shù)是固定的,用于計算中間層的句子表示,另一個BERT用于微調(diào),來計算句子CLS的表示.同一個句子經(jīng)過兩個BERT所獲得的表示構(gòu)成正例對,不同句子的中間層的句子表示或者最后的CLS表示構(gòu)成負(fù)例對.通過比對,獲得更高質(zhì)量的句子表征.

    R.Luo等[50]采用互補mask的方式構(gòu)造正例.具體做法是將一個輸入經(jīng)過多次mask,將相鄰掩碼句被mask的部分做互補操作.采用mask替換了token,由于它們都有著一樣的上下文,不同掩碼位置的序列也很接近,則它們語義上相似,所以互為正例.這種做法和X.Liang等[51]BERT執(zhí)行兩次dropout想法很相似?

    因為BERT本身就有隨機dropout的功能,同一句話,執(zhí)行兩次BERT,就能得到兩個不同的表示向量,且語義一致.這樣一來,相似樣本的語義完全一致,被認(rèn)為是數(shù)據(jù)增強的最小形式.X.Liang等[51]和SimCSE[5]都是采用這一思想來構(gòu)造正例.也就是模型層面做了數(shù)據(jù)增強,不容易帶來噪音.SimCSE是在標(biāo)準(zhǔn)Transformer中的全連接層和注意力求和操作上,執(zhí)行dropoutmask操作.然而SimCSE通過dropout兩次來構(gòu)造正例對也會帶來問題.因為Transformer的Position Embedding,SimCSE會認(rèn)為相似或相同長度的句子在語義上是相似的.此外,過大的batchsize也會導(dǎo)致顯卡的崩潰.之后的ESimCSE[52]通過WordRepetition,隨機復(fù)制句子中的一些單詞,改變句子長度來解決長度問題;模仿MoCo[7]的隊列動量編碼器,來解決batch size的問題.

    3)只有正例的對比學(xué)習(xí)

    S.Xu等[18]提出了一個生成式文本摘要對比學(xué)習(xí)模型SeqCo,在該模型中,將文檔、參考摘要和模型生成的摘要視為具有相同表示的不同視圖,并在訓(xùn)練過程中最大化它們之間的相似性.

    該論文借鑒了BYOL[6]的思路,BYOL里面所有的圖像都是正例,通過最大化“投影”和“預(yù)測”特征的相似性,不使用負(fù)例,學(xué)習(xí)表征.首先,有一個網(wǎng)絡(luò)參數(shù)隨機初始化且固定的target network;一個網(wǎng)絡(luò)參數(shù)會變化的online network;等這個online network訓(xùn)練好之后,將target network替換為效果更好的網(wǎng)絡(luò)參數(shù)(比如此時的online network),然后再迭代一次,也就是再訓(xùn)練一輪online network,效果是基于上一次的疊加.

    4.2.2 對比損失函數(shù)使用策略

    常見的對比損失函數(shù)的使用策略有如下3種:

    1)作為原始模型的微調(diào)技術(shù)

    在原始模型的損失函數(shù)基礎(chǔ)上,加上對比學(xué)習(xí)損失函數(shù),然后微調(diào)原模型,即為兩階段訓(xùn)練.例如Z.Yang等[14]是以最大似然估計訓(xùn)練模型為基礎(chǔ),使用對比學(xué)習(xí)對模型進行微調(diào).Z.Zeng等[53]將有監(jiān)督的對比學(xué)習(xí)用于意圖分類器預(yù)訓(xùn)練,然后對領(lǐng)域內(nèi)的數(shù)據(jù)集,使用交叉熵和LargeMargin Cosine Loss(LMCL)[54]對模型進行微調(diào).Y.Liu等[15]將摘要生成分解為兩個階段:生成階段采用最大似然估計損失,評分階段采用對比學(xué)習(xí)損失.H.Kiyomaru &S.Kurohashi[55]利用RoBERTa作為基礎(chǔ)模型,外加一個對比學(xué)習(xí)目標(biāo)和一個生成目標(biāo).

    2)與原始模型損失一起聯(lián)合訓(xùn)練

    將原始模型損失與對比損失,按照一定的策略,組合在一起,進行聯(lián)合訓(xùn)練.一些使用舉例見表2說明.

    3)與預(yù)訓(xùn)練模型相結(jié)合

    對比學(xué)習(xí)也可理解為是一種無監(jiān)督學(xué)習(xí).無監(jiān)督的表征學(xué)習(xí),起初在自然語言處理領(lǐng)域(NLP)取得了顯著的成果(BERT[56],GPT[57]),例如,基于BERT的預(yù)訓(xùn)練模型[58,59],首先在一個大型的未標(biāo)注數(shù)據(jù)集上進行預(yù)訓(xùn)練,得到表征后,再在一個較小的標(biāo)記數(shù)據(jù)集上微調(diào),從而獲得良好的效果.

    X.Qiu等[60]提出第2代預(yù)訓(xùn)練語言模型是融入了上下文信息的,能夠在更大的語料庫上訓(xùn)練,采用更深的網(wǎng)絡(luò)結(jié)構(gòu),以及新的預(yù)訓(xùn)練任務(wù)的模型.其中就提到了基于對比學(xué)習(xí)的預(yù)訓(xùn)練語言模型.代表模型有InfoWord[17],靈感來源于Deep InfoMax(DIM)[61],一個基于互信息的圖像表示學(xué)習(xí)方法,DIM旨在最大化一個圖像的局部表示向量和整體表示向量的互信息.InfoWord將這一思想引入NLP,對于一個詞序列,也可以考慮其整體表示和局部表示(比如一段文字與一句話).InfoWord將對比損失與MLM損失相結(jié)合.InfoWord模型中的MLM部分設(shè)計與SpenBert[62]是相似的,SpenBert采用幾何采樣來得到掩碼的長度,均勻采樣來選取掩碼對比tokens.未來,也可以考慮采用不同的掩碼方式,設(shè)計基于學(xué)習(xí)的預(yù)訓(xùn)練任務(wù).

    表2 損失函數(shù)訓(xùn)練模型Table 2 Loss function in training models

    5 對比學(xué)習(xí)的應(yīng)用

    5.1 對比學(xué)習(xí)在計算機視覺領(lǐng)域的應(yīng)用

    5.1.1 圖像語義分割

    圖像語義分割的目的是為圖像中的每個像素預(yù)測一個語義標(biāo)簽.傳統(tǒng)方法是將語義分割看作一個像素級的分類任務(wù),提取圖像內(nèi)部上下文信息,而忽視了像素之間的依賴關(guān)系.W.Wang等[63]提出了像素對比學(xué)習(xí),利用跨圖像的像素-像素對應(yīng)關(guān)系來學(xué)習(xí)一個特征空間.同類像素互為正例,不同類像素互為負(fù)例,在交叉熵?fù)p失的基礎(chǔ)上,疊加NCE損失.

    在像素級分割預(yù)測任務(wù)中,為了獲得更好的特征表征,還須考慮局部表示和全局表示.K.Chaitanya等[64]提出了一種局部對比損失法,通過利用從未標(biāo)記圖像的偽標(biāo)簽和有限的語義標(biāo)簽信息,來學(xué)習(xí)有助于分割的像素級特征.

    5.1.2 無監(jiān)督聚類

    J.Li等[65]提出了原型對比學(xué)習(xí)(PCL),這是一種將對比學(xué)習(xí)和聚類相結(jié)合的無監(jiān)督表示學(xué)習(xí)方法.通過聚類發(fā)現(xiàn)“原型”的分布,PCL將一個“原型”作為相似圖像的簇的質(zhì)心,將各個圖像分配給多個“原型”,構(gòu)造ProtoNCE損失函數(shù)訓(xùn)練模型,用對比學(xué)習(xí)優(yōu)化網(wǎng)絡(luò),使得每個圖像更接近相關(guān)“原型”.PCL將聚類后發(fā)現(xiàn)的語義結(jié)構(gòu),編碼到所學(xué)習(xí)的特征空間中.

    目前深度學(xué)習(xí)聚類方法常采用兩階段來構(gòu)建模型,第1階段使用預(yù)訓(xùn)練模型進行表征學(xué)習(xí),第2階段使用聚類算法(例如EM算法)完成聚類.由于這兩個階段是獨立的,模型在預(yù)訓(xùn)練階段可能無法充分探索數(shù)據(jù)的語義結(jié)構(gòu),從而導(dǎo)致聚類的次優(yōu)解決方案.T.W.Tsai等[66]提出了混合對比專家模型(MiCE),這是一個概率聚類框架,結(jié)合了對比學(xué)習(xí)所學(xué)習(xí)到的區(qū)別性表示和潛在混合模型捕獲的語義結(jié)構(gòu).在專家混合模型的激勵下,MiCE使用門控函數(shù),根據(jù)潛在語義,將未標(biāo)記數(shù)據(jù)集劃分為子集.

    5.1.3 條件圖像生成

    條件圖像生成是使用類標(biāo)簽信息生成各種圖像的任務(wù).傳統(tǒng)方法是將圖像和相應(yīng)標(biāo)簽之間的成對關(guān)系(數(shù)據(jù)到類的關(guān)系)作為條件損失.ContraGAN[67]利用條件對比損失來考察同一批次中,多個圖像之間的關(guān)系(數(shù)據(jù)到數(shù)據(jù)的關(guān)系)以及數(shù)據(jù)到類的關(guān)系.ContraGAN的損失函數(shù)也是InfoNCE loss,采用類標(biāo)簽作為相似程度對比,沒有使用數(shù)據(jù)擴展.拉近圖片與其類別距離的同時,拉近相同類別圖片的距離.

    5.1.4 目標(biāo)檢測和實例分割

    Y.Xiong等[68]發(fā)現(xiàn)編碼器早期的感受野可能太小,以至于無法有效適用于對比學(xué)習(xí).當(dāng)InfoNCE損失被應(yīng)用于所有的局部學(xué)習(xí)時,由于早期階段的解碼器感受野有限,很難得到有效表征來正確識別正樣本.Y.Xiong等增加了解碼器深度,并允許上層塊隱式地向下層塊發(fā)送反饋.在解碼器中加入卷積層來擴大感受野,將特征用于目標(biāo)檢測和實例分割.

    5.2 對比學(xué)習(xí)在自然語言處理領(lǐng)域的應(yīng)用

    5.2.1 機器翻譯

    雖然機器翻譯任務(wù)已經(jīng)非常成熟,但是漏翻、過翻的現(xiàn)象仍然普遍存在.Z.Yang等[14]給事實翻譯分配較高概率,錯誤翻譯分配較低概率,訓(xùn)練模型,從而減少漏翻現(xiàn)象.在真實翻譯句子上構(gòu)建負(fù)例,即根據(jù)省略詞的數(shù)量、詞頻和詞性設(shè)計了幾種類型的錯誤譯文,比較真實句與增強句.

    Y.Qu等[35]通過實驗發(fā)現(xiàn),經(jīng)過回譯加對抗生成的增強數(shù)據(jù)能夠在對比學(xué)習(xí)中取得顯著的效果.在多對多機器翻譯任務(wù)中,為了獲得更好的多語言翻譯效果,X.Pan等[41]提出了基于近義詞替換的數(shù)據(jù)增強方法.在數(shù)據(jù)增強技術(shù)上,直接使用單語數(shù)據(jù)和多語數(shù)據(jù)進行對比,使得模型可以分辨不同語言句對.

    5.2.2 信息檢索

    為了提高代碼的檢索效果,在自然語言與代碼之間的語義匹配方面,J.Huang等[35]在CodeBERT[69]的基礎(chǔ)上,通過傳統(tǒng)的增強方式,同時生成正負(fù)例,比較查詢與代碼的匹配程度.不同于傳統(tǒng)的信息檢索(稀疏檢索),L.Xiong等[70]預(yù)訓(xùn)練一個模型,將文本編碼成向量,根據(jù)query的相似度進行索引.提出了近似最近鄰否定對比估計,用于密集檢索的對比學(xué)習(xí).

    5.2.3 摘要生成

    SimCLS[15]是一個基于對比的生成式摘要框架.使用兩階段模型進行摘要生成:首先訓(xùn)練Seq2Seq模型生成候選摘要,再采用對比的方式,對候選摘要進行重新排序.與其它使用對比學(xué)習(xí)的模型相比,SimCLS沒有使用正負(fù)例對比,而是將原始文檔與生成候選摘要進行對比,期望預(yù)測值與真實值接近,且每個候選值之間有差距.

    SeqCo[18]是一種序列級別的對比學(xué)習(xí)模型.與上一篇論文一樣,它也沒有正負(fù)例,它把原始文檔、人工標(biāo)注的摘要及模型生成的摘要看作同一個語義表示的3個不同視角,并在訓(xùn)練過程中最大化這三者之間的相似性,提升了摘要的原文忠誠度.

    5.2.4 對話

    為了解決開放域?qū)υ捜蝿?wù)中,使用最大似然估計時,存在低多樣性問題,H.Cai等[48]使用一個預(yù)訓(xùn)練模型作為參考模型.為了實現(xiàn)人類會話中普遍存在的多映射關(guān)系,使用分組雙抽樣來做數(shù)據(jù)增強.分別建立問題-回應(yīng)的正負(fù)向回復(fù)、回應(yīng)-問題的正負(fù)向回復(fù),從而增加對話模式的多樣性.

    為了檢測對話系統(tǒng)中,用戶查詢與任務(wù)領(lǐng)域的相關(guān)性問題,Z.Zeng等[53]利用有監(jiān)督對比學(xué)習(xí),通過將屬于同一類的領(lǐng)域內(nèi)意圖集合在一起,實現(xiàn)最小化類內(nèi)方差,并通過將不同類的樣本分開,實現(xiàn)最大化類間方差,這樣模型就可以區(qū)分語義特征.

    M.Kachuee等[43]利用未標(biāo)注的數(shù)據(jù),來學(xué)習(xí)區(qū)分真實會話與非真實會話(噪音樣本).其中噪音樣本是通過在每個訓(xùn)練批次中洗牌生成.

    5.2.5 多模態(tài)

    UNIMO[71]同時利用單模態(tài)和多模態(tài)的數(shù)據(jù),將文本信息與視覺信息對齊到一個統(tǒng)一的語義空間,實現(xiàn)圖像-文本對齊.對多模態(tài)的圖像-文本數(shù)據(jù),采用重寫的方式生成正負(fù)樣本;對單模態(tài)數(shù)據(jù),采用檢索方式生成正樣本.將文本知識和視覺知識對齊到統(tǒng)一的語義空間,通過相互增強來學(xué)習(xí)更多的可概括表示.

    M.Patrick等[72]的模型由兩部分構(gòu)成:跨模型判別部分和生成性交叉字幕部分.跨模型判別采用對比學(xué)習(xí),將視頻-文本嵌入統(tǒng)一語義空間,其它的即使是相似的樣本也被認(rèn)為是負(fù)樣本.這樣的操作被認(rèn)為是過于嚴(yán)格,于是作者又加上生成性交叉字幕部分,每個樣本的標(biāo)題必須重建為其它支持樣本的視覺文本的加權(quán)組合.模型在兩個互補的損失中學(xué)習(xí).

    X.Yuan等[73]提出的對比學(xué)習(xí)模型框架里包含模態(tài)內(nèi)訓(xùn)練和模態(tài)間訓(xùn)練.模態(tài)內(nèi)訓(xùn)練是用于在預(yù)測任務(wù)中捕獲增強數(shù)據(jù)的內(nèi)在模式;模態(tài)間訓(xùn)練是通過跨膜態(tài)交互來增強視覺特征.同時利用每個模態(tài)和語義信息中的內(nèi)在數(shù)據(jù)屬性,提高所學(xué)視覺表示的質(zhì)量.

    5.2.6 其它

    P.Cheng等[74]將對比學(xué)習(xí)用于消除生成文本表示中的偏見因素(例如性別偏見、種族偏見等).將原句與反義詞句比對,最大化這兩者互信息;原句與偏見詞比對,最小化兩者互信息.生成的表示達到消除偏見的效果.

    N.Rethmeier等[45]為了解決多標(biāo)簽文本分類問題中存在的長尾標(biāo)簽情況.將多標(biāo)簽分類任務(wù)建模成類似文本匹配的形式.在采樣正負(fù)標(biāo)簽時,同時從句子中采樣文本片段,構(gòu)成偽標(biāo)簽,和句子編碼拼接,訓(xùn)練匹配模型.

    W.Zhou等[44]利用對比學(xué)習(xí)和自監(jiān)督損失,引入常識信息.模型分為生成任務(wù)和判別任務(wù).在生成任務(wù)中通過概念亂序和使用概念生成句子的方式產(chǎn)生增強樣本.在判別任務(wù)(對比)中,通過判別原句與增強樣本來分辨真理句子,提高預(yù)訓(xùn)練語言模型的常識推理能力.

    D.Zhang等[75]將對比學(xué)習(xí)用于聚類,通過聯(lián)合優(yōu)化自上而下的聚類損失和自下而上的實例對比損失來進行對比學(xué)習(xí)聚類.

    在篇章關(guān)系分析任務(wù)中,H.Kiyomaru等[55]所提出的模型框架包含一個對比學(xué)習(xí)目標(biāo)和一個生成目標(biāo).模型在訓(xùn)練過程中,最大化目標(biāo)句與掩碼句在相同上下文時的相似性,最小化掩碼句與隨機句在相同語境下的相似性.

    6 總結(jié)與展望

    對比學(xué)習(xí)是在沒有大量標(biāo)注數(shù)據(jù)集的情況下,采用自監(jiān)督方式,學(xué)習(xí)數(shù)據(jù)的監(jiān)督信息,以該監(jiān)督信息對網(wǎng)絡(luò)進行訓(xùn)練,從而能夠?qū)W習(xí)到對下游任務(wù)有幫助的特征.采用對比學(xué)習(xí)來完善表征,可避免下游任務(wù)的表征崩潰.雖然使用對比學(xué)習(xí)的方式不一,但主要目的都是為了將精心設(shè)計的正負(fù)實例與真實實例進行對比,在對比的過程中,特征編碼器輸出的特征,具有可泛化的一般表示.編碼器學(xué)習(xí)到具有代表性、可辨識性的一般信息.雖然對比學(xué)習(xí)取得了巨大的成功,但仍然存在許多挑戰(zhàn).

    6.1 訓(xùn)練的不穩(wěn)定性

    由于文本數(shù)據(jù)的離散性,對比學(xué)習(xí)中的判別函數(shù)容易出現(xiàn)不穩(wěn)定的訓(xùn)練現(xiàn)象.這是因為互信息對數(shù)據(jù)樣本微小差異是高度敏感的,而表征上的微小差異會導(dǎo)致互信息的劇烈變化,使得學(xué)習(xí)出的表征不穩(wěn)健,很難推廣到下游任務(wù)中去[76,77].

    6.2 對比信息的衰退

    人們已經(jīng)從理論和實驗中證明了對比學(xué)習(xí)的有效性.特別是InfoNCE[3]把對比學(xué)習(xí)與互信息的優(yōu)化聯(lián)系在一起.互信息應(yīng)該達到一個合適的值.如果互信息比需要的還多,則可能降低模型的泛化性;如果互信息比需要的還要少,則可能達不到最優(yōu)解.所以說互信息決定了選取什么視角來進行對比.

    如果初始化不當(dāng)或是負(fù)樣本選擇不當(dāng),原始樣本與增強樣本的聯(lián)合分布和獨立分布之間的距離就會越來越遠(yuǎn).這樣一來,互信息就會逐漸衰弱.極端情況下,互信息和梯度都會消失變成零[78](原始數(shù)據(jù)分布與增強樣本分布獨立,無任何關(guān)聯(lián),互信息為零).

    針對上面兩種挑戰(zhàn),可以考慮在正負(fù)樣本分布中添加約束,來增加對比學(xué)習(xí)訓(xùn)練時的穩(wěn)定性[79].也可以將KL散度換成詹森-香農(nóng)散度來提高原始樣本與增強樣本的相似性和一致性[38].目的都是防止互信息和梯度消失為零.

    6.3 負(fù)樣本的選擇策略

    要想獲得良好的對比性能,獲取互信息的下界,就需要一個較大的負(fù)例與正例的比值,即需要大量的負(fù)例[76].這樣一來,給大型數(shù)據(jù)集帶來了潛在的計算問題.如果負(fù)樣本是容易被分辨的樣本,則對模型起不到學(xué)習(xí)的作用,同時又增加了訓(xùn)練的計算量,得不償失.

    解決這一問題,可以考慮采用恰當(dāng)?shù)臄?shù)據(jù)增強方法,采樣或生成大量模型難以分辨的樣本,供模型學(xué)習(xí),從而得到更多可區(qū)分的特征.例如可以使用對抗生成樣本、選取與正樣本最鄰近的負(fù)樣本[79]等方法.選取高質(zhì)量的負(fù)樣本,可以使得模型學(xué)習(xí)到概括性特征,又同時降低了訓(xùn)練的計算負(fù)擔(dān).

    猜你喜歡
    正例語義損失
    小學(xué)生舉例表現(xiàn)與概念理解的相關(guān)性研究
    少問一句,損失千金
    胖胖損失了多少元
    語言與語義
    基于概念形成的教學(xué)研究
    玉米抽穗前倒伏怎么辦?怎么減少損失?
    “上”與“下”語義的不對稱性及其認(rèn)知闡釋
    高中數(shù)學(xué)概率教學(xué)中的誤區(qū)與應(yīng)對策略分析
    一般自由碰撞的最大動能損失
    認(rèn)知范疇模糊與語義模糊
    黄色日韩在线| 悠悠久久av| 大型黄色视频在线免费观看| 日本黄色片子视频| 国产精品av视频在线免费观看| 国产麻豆成人av免费视频| 国产精品女同一区二区软件 | 国产精品三级大全| www日本黄色视频网| 亚洲精品亚洲一区二区| 国产乱人伦免费视频| 日韩一区二区视频免费看| 九色国产91popny在线| 两人在一起打扑克的视频| 男人和女人高潮做爰伦理| 国内毛片毛片毛片毛片毛片| 久9热在线精品视频| 日本三级黄在线观看| 国产伦精品一区二区三区四那| 国语自产精品视频在线第100页| 国产三级在线视频| 一级毛片久久久久久久久女| bbb黄色大片| 国产精品一区二区免费欧美| 午夜福利在线观看免费完整高清在 | 亚洲欧美日韩卡通动漫| 亚洲av不卡在线观看| 日韩在线高清观看一区二区三区 | 免费人成视频x8x8入口观看| 亚洲久久久久久中文字幕| 亚洲性久久影院| 欧美一区二区精品小视频在线| 高清日韩中文字幕在线| 俺也久久电影网| 日本在线视频免费播放| 变态另类成人亚洲欧美熟女| 成人国产麻豆网| 日本免费a在线| 日本欧美国产在线视频| 免费观看人在逋| 国产日本99.免费观看| 少妇人妻一区二区三区视频| 黄色一级大片看看| 午夜久久久久精精品| 国产精品国产三级国产av玫瑰| 欧美+亚洲+日韩+国产| 精品一区二区三区视频在线观看免费| 国产毛片a区久久久久| 日日摸夜夜添夜夜添小说| 中文字幕精品亚洲无线码一区| 男人的好看免费观看在线视频| 国产精华一区二区三区| 国产精品一区www在线观看 | 国产乱人伦免费视频| 成年版毛片免费区| 亚洲va日本ⅴa欧美va伊人久久| 日韩,欧美,国产一区二区三区 | 国产三级中文精品| 无遮挡黄片免费观看| 18禁黄网站禁片免费观看直播| 全区人妻精品视频| 国产探花在线观看一区二区| 亚洲人成网站高清观看| 国内精品美女久久久久久| 久久久久久久久大av| 午夜亚洲福利在线播放| 欧美另类亚洲清纯唯美| 三级男女做爰猛烈吃奶摸视频| avwww免费| 免费观看人在逋| 欧美3d第一页| 色综合色国产| 3wmmmm亚洲av在线观看| 毛片一级片免费看久久久久 | 欧美又色又爽又黄视频| 欧美性感艳星| 亚洲avbb在线观看| 九九在线视频观看精品| 五月玫瑰六月丁香| 熟女人妻精品中文字幕| 欧美日本视频| 精品人妻1区二区| 亚洲内射少妇av| 亚洲欧美日韩高清专用| 精品久久久久久久人妻蜜臀av| 91久久精品电影网| 亚洲性夜色夜夜综合| 亚洲人成伊人成综合网2020| 国产精品人妻久久久久久| 22中文网久久字幕| 日本免费a在线| 特大巨黑吊av在线直播| 国产熟女欧美一区二区| 久久国产乱子免费精品| 男女啪啪激烈高潮av片| 国内精品久久久久久久电影| 好男人在线观看高清免费视频| 在线免费十八禁| 国产国拍精品亚洲av在线观看| 日本色播在线视频| 免费不卡的大黄色大毛片视频在线观看 | 校园春色视频在线观看| 啦啦啦韩国在线观看视频| 欧美精品啪啪一区二区三区| av福利片在线观看| 欧美一区二区精品小视频在线| 国产成年人精品一区二区| 好男人在线观看高清免费视频| 免费一级毛片在线播放高清视频| 99国产极品粉嫩在线观看| 日本免费a在线| 人妻久久中文字幕网| 看十八女毛片水多多多| 亚洲熟妇中文字幕五十中出| 又爽又黄无遮挡网站| 成人国产综合亚洲| 亚洲自偷自拍三级| 美女高潮的动态| 日本熟妇午夜| 99热网站在线观看| 狂野欧美白嫩少妇大欣赏| 尾随美女入室| 在线观看一区二区三区| 久久九九热精品免费| 可以在线观看毛片的网站| 嫩草影视91久久| 国产伦人伦偷精品视频| 欧美国产日韩亚洲一区| 午夜福利高清视频| 免费观看人在逋| 亚洲精品乱码久久久v下载方式| 一级黄色大片毛片| 国产一区二区激情短视频| 欧美色欧美亚洲另类二区| 一个人看视频在线观看www免费| 一区福利在线观看| 成人性生交大片免费视频hd| 日日摸夜夜添夜夜添av毛片 | 久久久久久久亚洲中文字幕| 午夜福利18| 少妇猛男粗大的猛烈进出视频 | 又爽又黄无遮挡网站| 搞女人的毛片| 成人高潮视频无遮挡免费网站| 成人av在线播放网站| 99热这里只有是精品在线观看| 在线播放国产精品三级| 国产精品亚洲美女久久久| 精品一区二区三区视频在线观看免费| 日日撸夜夜添| 女人十人毛片免费观看3o分钟| 久久午夜亚洲精品久久| 久久久国产成人免费| 久久久久九九精品影院| 日本撒尿小便嘘嘘汇集6| 久久久久久久久久久丰满 | 成人特级黄色片久久久久久久| 日本五十路高清| 国产男人的电影天堂91| 嫩草影院入口| 国内精品久久久久久久电影| 亚洲av成人精品一区久久| 国产白丝娇喘喷水9色精品| 国产av在哪里看| АⅤ资源中文在线天堂| 天天躁日日操中文字幕| 久久久久久久亚洲中文字幕| 久久国产乱子免费精品| 国内精品宾馆在线| 韩国av一区二区三区四区| 精品久久久久久久久亚洲 | 国产女主播在线喷水免费视频网站 | 偷拍熟女少妇极品色| 内地一区二区视频在线| 色哟哟哟哟哟哟| 我要看日韩黄色一级片| 别揉我奶头 嗯啊视频| 日本黄大片高清| 极品教师在线免费播放| 国产大屁股一区二区在线视频| 久久热精品热| 99riav亚洲国产免费| 国产欧美日韩精品一区二区| 亚洲成人中文字幕在线播放| 日韩 亚洲 欧美在线| 老司机深夜福利视频在线观看| 久久久久久久久大av| 国产成人av教育| 老熟妇乱子伦视频在线观看| 噜噜噜噜噜久久久久久91| 蜜桃久久精品国产亚洲av| 99久久久亚洲精品蜜臀av| 日本免费a在线| 国产色爽女视频免费观看| 99国产极品粉嫩在线观看| 亚洲五月天丁香| 日日夜夜操网爽| 久久国产乱子免费精品| 久久午夜亚洲精品久久| 亚洲经典国产精华液单| 欧美性猛交黑人性爽| 欧美高清性xxxxhd video| 老熟妇仑乱视频hdxx| 两个人视频免费观看高清| 十八禁国产超污无遮挡网站| 男女下面进入的视频免费午夜| 真人一进一出gif抽搐免费| 91狼人影院| 久久久久久伊人网av| 少妇人妻精品综合一区二区 | 欧美国产日韩亚洲一区| 大型黄色视频在线免费观看| 性插视频无遮挡在线免费观看| 美女被艹到高潮喷水动态| 色噜噜av男人的天堂激情| 一本久久中文字幕| 亚洲在线自拍视频| 内地一区二区视频在线| 男女之事视频高清在线观看| 好男人在线观看高清免费视频| 欧美绝顶高潮抽搐喷水| 露出奶头的视频| 高清在线国产一区| 国产黄a三级三级三级人| 亚洲欧美激情综合另类| 日本黄色视频三级网站网址| 久久久久久久精品吃奶| 亚洲,欧美,日韩| 美女高潮喷水抽搐中文字幕| 精品99又大又爽又粗少妇毛片 | 欧美色视频一区免费| 少妇熟女aⅴ在线视频| 欧美精品国产亚洲| 精品人妻一区二区三区麻豆 | 国产不卡一卡二| 午夜爱爱视频在线播放| 亚洲经典国产精华液单| 综合色av麻豆| 国内精品久久久久久久电影| 天堂影院成人在线观看| 在线观看午夜福利视频| 韩国av在线不卡| 欧美高清成人免费视频www| 老熟妇仑乱视频hdxx| 亚洲无线在线观看| 在线看三级毛片| 成人欧美大片| 12—13女人毛片做爰片一| 国产伦精品一区二区三区视频9| 一区二区三区四区激情视频 | 国产精品无大码| 欧美日韩乱码在线| 最新在线观看一区二区三区| 在线播放无遮挡| 亚洲精品在线观看二区| 日韩强制内射视频| 99热这里只有是精品在线观看| 国产亚洲精品综合一区在线观看| 男女啪啪激烈高潮av片| 日韩强制内射视频| 乱系列少妇在线播放| 亚洲中文日韩欧美视频| 日韩欧美国产一区二区入口| 乱人视频在线观看| 久久精品国产亚洲网站| 男女那种视频在线观看| 在线天堂最新版资源| www.色视频.com| a在线观看视频网站| 日韩欧美国产在线观看| 成人综合一区亚洲| 悠悠久久av| 色哟哟·www| 别揉我奶头~嗯~啊~动态视频| 国产欧美日韩精品一区二区| 神马国产精品三级电影在线观看| 欧美一区二区亚洲| 精品久久久久久成人av| 成年版毛片免费区| 村上凉子中文字幕在线| 丝袜美腿在线中文| 大又大粗又爽又黄少妇毛片口| 男人舔奶头视频| 精品久久国产蜜桃| 特大巨黑吊av在线直播| 亚洲一区二区三区色噜噜| 国产欧美日韩精品亚洲av| 欧美色欧美亚洲另类二区| 成人国产综合亚洲| 一进一出好大好爽视频| 中国美女看黄片| 日韩大尺度精品在线看网址| 国产乱人视频| 亚洲黑人精品在线| 中文字幕免费在线视频6| 国产亚洲精品久久久久久毛片| 99热只有精品国产| 亚洲成a人片在线一区二区| 看十八女毛片水多多多| 亚州av有码| 极品教师在线免费播放| 别揉我奶头 嗯啊视频| 亚洲av中文av极速乱 | 久久99热6这里只有精品| 网址你懂的国产日韩在线| 国产高清视频在线观看网站| 欧美丝袜亚洲另类 | 国产高清视频在线观看网站| 两人在一起打扑克的视频| 在线a可以看的网站| 久久精品影院6| 男人狂女人下面高潮的视频| 亚洲一区二区三区色噜噜| 欧美日韩乱码在线| 啦啦啦韩国在线观看视频| 久久人人精品亚洲av| 亚洲精品影视一区二区三区av| 又黄又爽又刺激的免费视频.| 日日啪夜夜撸| 最近最新免费中文字幕在线| 亚洲av中文字字幕乱码综合| 自拍偷自拍亚洲精品老妇| 国模一区二区三区四区视频| 欧美日本视频| 色综合亚洲欧美另类图片| 亚洲黑人精品在线| 亚洲美女搞黄在线观看 | 亚洲va日本ⅴa欧美va伊人久久| 国内少妇人妻偷人精品xxx网站| 波多野结衣高清作品| 精品一区二区三区视频在线| 老司机深夜福利视频在线观看| 久久精品影院6| 国产v大片淫在线免费观看| 国产老妇女一区| 99九九线精品视频在线观看视频| 成人无遮挡网站| 国产探花在线观看一区二区| 91久久精品电影网| 国产一区二区在线观看日韩| 成年女人永久免费观看视频| 精品日产1卡2卡| 欧美一区二区精品小视频在线| 99国产精品一区二区蜜桃av| 久久人妻av系列| 此物有八面人人有两片| 最近中文字幕高清免费大全6 | 欧美色视频一区免费| 最近最新中文字幕大全电影3| h日本视频在线播放| 国产精品久久久久久亚洲av鲁大| 欧美精品国产亚洲| 久久久久性生活片| 精品福利观看| 国产主播在线观看一区二区| av在线亚洲专区| 91av网一区二区| 毛片一级片免费看久久久久 | 在线观看免费视频日本深夜| or卡值多少钱| 麻豆成人午夜福利视频| 国产 一区 欧美 日韩| 22中文网久久字幕| 69人妻影院| 直男gayav资源| 免费在线观看影片大全网站| 黄色视频,在线免费观看| 高清在线国产一区| ponron亚洲| 免费观看人在逋| 能在线免费观看的黄片| 久久久久精品国产欧美久久久| 中文字幕av成人在线电影| 亚洲国产精品成人综合色| 欧美国产日韩亚洲一区| 亚洲精品一区av在线观看| 欧美一区二区亚洲| 日本 欧美在线| 中文字幕人妻熟人妻熟丝袜美| 在线天堂最新版资源| 露出奶头的视频| 中出人妻视频一区二区| 色哟哟哟哟哟哟| 日本爱情动作片www.在线观看 | a在线观看视频网站| 日韩大尺度精品在线看网址| 成人三级黄色视频| 禁无遮挡网站| 欧美绝顶高潮抽搐喷水| 深夜精品福利| 最近在线观看免费完整版| av专区在线播放| 他把我摸到了高潮在线观看| 日本欧美国产在线视频| 欧美精品啪啪一区二区三区| 丰满乱子伦码专区| 国产色爽女视频免费观看| 精品久久久久久久久亚洲 | 日本黄大片高清| 夜夜爽天天搞| 欧美日韩国产亚洲二区| 亚洲一级一片aⅴ在线观看| 国产单亲对白刺激| 全区人妻精品视频| 欧美性猛交黑人性爽| 亚洲美女搞黄在线观看 | 夜夜看夜夜爽夜夜摸| 久久久久久大精品| 99热这里只有精品一区| 精品一区二区三区视频在线观看免费| 两个人视频免费观看高清| 九色国产91popny在线| 午夜福利在线在线| 久久久久国内视频| 亚洲中文日韩欧美视频| 五月玫瑰六月丁香| 国产色爽女视频免费观看| 搡女人真爽免费视频火全软件 | 亚洲va在线va天堂va国产| 婷婷亚洲欧美| 搡老妇女老女人老熟妇| 大又大粗又爽又黄少妇毛片口| 日韩中字成人| 人妻少妇偷人精品九色| 国产黄片美女视频| 国产一区二区亚洲精品在线观看| 国产精品久久电影中文字幕| 免费看a级黄色片| 亚洲成人久久爱视频| 国产午夜福利久久久久久| 69人妻影院| 国产亚洲精品av在线| 有码 亚洲区| 亚洲av成人精品一区久久| 免费av毛片视频| 亚洲精品456在线播放app | 日韩亚洲欧美综合| 亚洲人成网站在线播放欧美日韩| 国产精品久久视频播放| 国产白丝娇喘喷水9色精品| 搡老妇女老女人老熟妇| 欧美人与善性xxx| 精品久久国产蜜桃| 国产av一区在线观看免费| 村上凉子中文字幕在线| 国产人妻一区二区三区在| 亚洲第一区二区三区不卡| 亚洲五月天丁香| 亚洲va日本ⅴa欧美va伊人久久| 淫秽高清视频在线观看| 国内少妇人妻偷人精品xxx网站| 欧美绝顶高潮抽搐喷水| 日韩中字成人| 日韩 亚洲 欧美在线| 国产精品98久久久久久宅男小说| 国产精品爽爽va在线观看网站| 久久久久久久亚洲中文字幕| 一区福利在线观看| 欧美xxxx性猛交bbbb| 欧美最新免费一区二区三区| a级毛片a级免费在线| 精品99又大又爽又粗少妇毛片 | 欧美黑人巨大hd| 国产探花在线观看一区二区| 久久国产乱子免费精品| 性色avwww在线观看| 国产免费男女视频| 精品久久国产蜜桃| 亚洲精品乱码久久久v下载方式| 永久网站在线| 亚洲熟妇熟女久久| 亚洲天堂国产精品一区在线| 亚洲 国产 在线| 亚洲精品影视一区二区三区av| 人妻少妇偷人精品九色| 可以在线观看毛片的网站| 久久精品国产亚洲av香蕉五月| 国产精品一区www在线观看 | 香蕉av资源在线| 老司机福利观看| 日韩欧美精品v在线| 男插女下体视频免费在线播放| 伦理电影大哥的女人| 久久精品影院6| 校园春色视频在线观看| 午夜影院日韩av| 人妻少妇偷人精品九色| 永久网站在线| 精品久久久久久久末码| 熟妇人妻久久中文字幕3abv| 欧美性猛交黑人性爽| 免费观看精品视频网站| 一进一出好大好爽视频| 国产视频内射| 欧美区成人在线视频| 久久亚洲真实| 伊人久久精品亚洲午夜| 免费高清视频大片| 精品久久久噜噜| 亚洲成人精品中文字幕电影| 午夜免费激情av| 精品一区二区三区人妻视频| 亚洲va在线va天堂va国产| 搞女人的毛片| 日本a在线网址| 国产精品不卡视频一区二区| 欧美黑人欧美精品刺激| 精品人妻一区二区三区麻豆 | 精品国内亚洲2022精品成人| 天堂动漫精品| 亚洲不卡免费看| 91av网一区二区| 人妻久久中文字幕网| 亚洲国产精品sss在线观看| 99久国产av精品| 日韩中字成人| x7x7x7水蜜桃| 国产乱人视频| 一进一出抽搐动态| 大型黄色视频在线免费观看| bbb黄色大片| 此物有八面人人有两片| 少妇人妻精品综合一区二区 | 亚洲欧美清纯卡通| 欧美又色又爽又黄视频| 国产精品久久久久久久久免| 波多野结衣高清作品| 老司机深夜福利视频在线观看| www.www免费av| 国产精品一区二区性色av| 男人和女人高潮做爰伦理| 精品一区二区三区视频在线观看免费| 99riav亚洲国产免费| 99久久九九国产精品国产免费| 狠狠狠狠99中文字幕| 美女被艹到高潮喷水动态| 哪里可以看免费的av片| 日韩大尺度精品在线看网址| 亚洲av.av天堂| 老司机福利观看| 久久精品国产自在天天线| 蜜桃亚洲精品一区二区三区| av中文乱码字幕在线| 狂野欧美白嫩少妇大欣赏| 欧美又色又爽又黄视频| 桃色一区二区三区在线观看| 国产一区二区三区av在线 | 亚洲性夜色夜夜综合| 伦精品一区二区三区| 国内毛片毛片毛片毛片毛片| 搡老熟女国产l中国老女人| 亚洲欧美日韩卡通动漫| 婷婷精品国产亚洲av| 桃红色精品国产亚洲av| 男女啪啪激烈高潮av片| 最新在线观看一区二区三区| 国产精品无大码| 女人被狂操c到高潮| 3wmmmm亚洲av在线观看| 日本在线视频免费播放| 日本精品一区二区三区蜜桃| 国产欧美日韩精品一区二区| 亚洲内射少妇av| 国产亚洲精品av在线| 天美传媒精品一区二区| 久久精品国产亚洲av涩爱 | 久久欧美精品欧美久久欧美| 别揉我奶头~嗯~啊~动态视频| 三级国产精品欧美在线观看| 国产淫片久久久久久久久| 日本免费一区二区三区高清不卡| 乱系列少妇在线播放| 日本与韩国留学比较| 中出人妻视频一区二区| 男人舔女人下体高潮全视频| 日韩欧美在线二视频| 国产精品久久久久久精品电影| 级片在线观看| 波多野结衣高清作品| 欧美高清成人免费视频www| а√天堂www在线а√下载| 变态另类成人亚洲欧美熟女| 中亚洲国语对白在线视频| 天天一区二区日本电影三级| 欧美zozozo另类| 99久久九九国产精品国产免费| 男女视频在线观看网站免费| 天天一区二区日本电影三级| 亚洲aⅴ乱码一区二区在线播放| 国产精品1区2区在线观看.| 男插女下体视频免费在线播放| 一区二区三区激情视频| 久久国内精品自在自线图片| 国产女主播在线喷水免费视频网站 | 国产在线男女| 我的女老师完整版在线观看| 观看免费一级毛片| 久久精品影院6| 国产伦一二天堂av在线观看| 国产精品久久视频播放| 男女啪啪激烈高潮av片| 亚洲久久久久久中文字幕| 99在线人妻在线中文字幕| 天天一区二区日本电影三级| 亚洲五月天丁香| 亚洲电影在线观看av| 一进一出抽搐动态| 婷婷色综合大香蕉| 午夜久久久久精精品| 亚洲无线在线观看| 国产毛片a区久久久久| 在现免费观看毛片| 国产精品无大码| 老师上课跳d突然被开到最大视频| 色综合站精品国产|