• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    加強決策邊界與自監(jiān)督的在線持續(xù)學(xué)習(xí)方法

    2025-03-09 00:00:00王偉尤可鑫劉曉芮
    計算機應(yīng)用研究 2025年1期

    摘 要:針對在線持續(xù)學(xué)習(xí)于圖像分類中既要適應(yīng)新數(shù)據(jù),又要減輕災(zāi)難性遺忘這一問題,基于重放的方法在減輕在線持續(xù)學(xué)習(xí)的災(zāi)難性遺忘方面展現(xiàn)出了優(yōu)良性能。然而,此類方法中的大多數(shù)模型往往更傾向于學(xué)習(xí)與對象無關(guān)的解決方案,這些方案難以泛化且易于遺忘,因此,學(xué)習(xí)最能夠代表類別的特征對于解決災(zāi)難性遺忘問題顯得極為關(guān)鍵。基于此,提出加強決策邊界與自監(jiān)督的在線持續(xù)學(xué)習(xí)方法。首先,該方法通過加強新類之間的決策邊界,幫助模型更好地進行任務(wù)的分類。其次,使用了一種融合的自監(jiān)督學(xué)習(xí)方法,幫助模型更好地學(xué)習(xí)每個類的代表特征。通過與主流在線持續(xù)學(xué)習(xí)算法在公開數(shù)據(jù)集CIFAR-10和CIFAR-100上的實驗對比,當內(nèi)存庫M為100時,該方法在CIFAR-10上的平均準確率達到了60.8%,平均遺忘率達到了15.5%。當內(nèi)存庫M為500時,該方法在CIFAR-100上的平均準確率達到了25.9%,平均遺忘率達到了13.7%。這一結(jié)果驗證了加強決策邊界與自監(jiān)督的在線持續(xù)學(xué)習(xí)方法對減輕災(zāi)難性遺忘是有效的。

    關(guān)鍵詞:持續(xù)學(xué)習(xí);災(zāi)難性遺忘;對比學(xué)習(xí);決策邊界

    中圖分類號:TP391"" 文獻標志碼:A

    文章編號:1001-3695(2025)01-019-0133-06

    doi: 10.19734/j.issn.1001-3695.2024.06.0191

    Online continual learning method strengthening decision boundaries and self-supervision

    Abstract:To address the issue of online continual learning in image classification, which requires adapting to new data while alleviating catastrophic forgetting, replay-based methods have demonstrated excellent performance in mitigating this problem. However, most models in these methods tend to favor learning object-agnostic solutions, which are difficult to generalize and prone to forgetting. Therefore, learning features that best represent categories is crucial for solving the catastrophic forgetting issue. This paper proposed an online continual learning approach that enhanced decision boundaries and incorporates self-supervision. Firstly, this method strengthened the decision boundaries between new classes, helping the model to classify tasks more effectively. Secondly, it employed a fused self-supervised learning approach, enabling the model to better learn representative features for each class. Through experiments comparing this method with mainstream online continual learning algorithms on the CIFAR-10 and CIFAR-100 public datasets, it observes that when the memory buffer M is set to 100, this method achieves an average accuracy of 60.8% and an average forgetting rate of 15.5% on CIFAR-10. When M is increased to 500, the method achieves an average accuracy of 25.9% and an average forgetting rate of 13.7% on CIFAR-100. These results validate that the approach of enhancing decision boundaries and incorporating self-supervision effectively alleviates catastrophic forgetting.

    Key words:continuous learning(CL); catastrophic forgetting; contrastive learning; decision boundaries

    0 引言

    在線持續(xù)學(xué)習(xí)(continual learning, CL)[1,2]模式下的類增量學(xué)習(xí)(class-incremental learning, CIL)[3,4]的目標是學(xué)習(xí)一個深度模型,實現(xiàn)新類的知識積累,并且不會遺忘從舊類中學(xué)到的信息。同時,在學(xué)習(xí)進程中,每個任務(wù)均由一組獨有的類構(gòu)成,任意不同任務(wù)的類集不存在交集,且系統(tǒng)在每次訓(xùn)練時都無法獲取任務(wù)信息。在在線CL中,數(shù)據(jù)從單個數(shù)據(jù)流中學(xué)習(xí),每當小批量數(shù)據(jù)到達時,它就會在每次迭代中進行訓(xùn)練。因此,每個任務(wù)的數(shù)據(jù)在每次迭代中進行了訓(xùn)練。目前,災(zāi)難性遺忘(catastrophic forgetting, CF)[5,6]是在線CL的主要問題,表現(xiàn)為模型在學(xué)習(xí)新類時對舊類的判別性能有明顯的下降現(xiàn)象,主要原因是舊數(shù)據(jù)的歷史知識會被新數(shù)據(jù)的新信息所覆蓋。

    為了解決在線CL中的災(zāi)難性遺忘問題,文獻[7]將一個復(fù)雜的模型中的知識壓縮到一個更小更適合部署的模型中,也就是知識蒸餾[8]方法,從而提高學(xué)習(xí)的性能并保留舊知識。文獻[9]提出無遺忘學(xué)習(xí)(learning without forgetting, LwF),將知識蒸餾的方法應(yīng)用到在線CL中。然而在已經(jīng)提出的用來減輕災(zāi)難性遺忘的各類在線CL方法中,基于重放的方法[10]通過將舊類的數(shù)據(jù)子集存儲為經(jīng)驗進行回放的方法,表現(xiàn)出了良好的性能。其中,經(jīng)驗重放從緩沖區(qū)中隨機抽取樣本,MIR(maximal interfered retrieval)[11]通過可以選擇最受干擾的樣本進行回放,以提高模型的性能并減少遺忘。此外,ASER(adversarial shapley value for efficient rehearsal)[12]引入了一種基于Shapley值的緩沖區(qū)管理方法。SCR(supervised contrastive replay)[13]利用監(jiān)督對比損失進行訓(xùn)練,并使用最近類均值(nearest-class-mean, NCM)分類器替代softmax分類器進行測試。OCM(online continuous learning through mutual information maximization)[14]通過互信息最大化防止遺忘。

    以上方法大部分是基于神經(jīng)網(wǎng)絡(luò)提出的,但神經(jīng)網(wǎng)絡(luò)更專注于學(xué)習(xí)簡單片面的特征,在線CL的模型更傾向于學(xué)習(xí)與對象無關(guān)的解決方案,這些解決方案很難泛化且容易被遺忘。因此,讓模型學(xué)習(xí)最能代表類的特征對抵抗災(zāi)難性遺忘至關(guān)重要,同時在當新類別加入、更新決策邊界[15]時需考慮到已有類別的影響,保持對舊類別的泛化能力也同樣重要。

    為此,本文提出一種加強決策邊界與自監(jiān)督的在線持續(xù)學(xué)習(xí)方法,使用加強決策邊界的方法(strengthening decision boundaries, SDB)動態(tài)調(diào)整新類數(shù)據(jù)和舊類數(shù)據(jù)在訓(xùn)練數(shù)據(jù)中的占比,來加強新類和舊類之間的決策邊界,保持對舊類別的泛化能力。融合實例級的對比學(xué)習(xí)[16]和基于代理的對比學(xué)習(xí)[17]進行自監(jiān)督對比學(xué)習(xí)(self-supervised contrast learning, SSCL),這種方法可以提高模型的性能和泛化能力,并且讓生成的特征更準確。實驗結(jié)果表明,新方法在在線CL中取得了更高的準確率和更低的遺忘率。

    1 相關(guān)工作

    1.1 持續(xù)學(xué)習(xí)中的知識蒸餾

    在持續(xù)學(xué)習(xí)中,知識蒸餾是一種解決災(zāi)難性遺忘的有效方法。除了傳統(tǒng)的知識蒸餾方法外,還有一些其他技術(shù)如iCaRL(incremental classifier and representation learning)[18] 利用知識蒸餾來限制學(xué)習(xí)知識的變化,并利用類原型進行最近鄰預(yù)測方法,Co2L(contrastive continual learning)[19]提出了基于自蒸餾損失的特征保留方法,PASS(prototype augmentation and self-supervision)[20]通過提取舊原型來維持舊類的決策邊界。然而,當先前的模型學(xué)習(xí)效果不佳時,提取有用知識變得困難。為了克服這一局限性,使用了通過反饋機制來增強容易錯誤分類的類別,從而克服了知識蒸餾的局限性。

    1.2 持續(xù)學(xué)習(xí)中的原型

    在持續(xù)學(xué)習(xí)中,原型被用來減輕災(zāi)難性遺忘。如iCaRL和SCR使用類原型作為分類器,PASS則提取舊原型以保留學(xué)到的知識。然而,計算所有樣本的原型對訓(xùn)練過程來說非常昂貴。一些研究嘗試在在線場景中使用原型,如CoPE(continual proto-type evolution)[21]設(shè)計了具有高動量更新的原型,文獻[22]使用平均更新標準估計所有觀察到的數(shù)據(jù)的類原型。然而,將先前的特征積累為原型可能不利于未來學(xué)習(xí),因為舊類學(xué)到的特征可能無法有效地去區(qū)分新類。相比之下,所提出的在線原型僅利用當前時間步的可見數(shù)據(jù),顯著降低了計算成本,更適合在線 CL。

    1.3 對比學(xué)習(xí)

    對比學(xué)習(xí)的總體目標是直觀的:在嵌入空間中應(yīng)該將“相似”樣本的表示緊密地映射在一起,而將“不相似”樣本的表示分離開。當標簽不可用(自我監(jiān)督)時,相似的樣本通常由目標樣本的數(shù)據(jù)增強形成,而不同的樣本通常從同一批次目標樣本或存儲特征向量的存儲庫/隊列中隨機抽取。當提供標簽(監(jiān)督)時,相似的樣本是來自同一類,不相似的樣本是來自不同類別的樣本。實例對比學(xué)習(xí)旨在學(xué)習(xí)一個嵌入空間,其中來自同一實例的樣本被拉近,來自不同實例的樣本被推開。為了構(gòu)建對比損失,為每個樣本生成正例特征和負例特征。

    1.4 在線原型學(xué)習(xí)框架

    在在線持續(xù)學(xué)習(xí)的在線原型學(xué)習(xí)框架[23]中,在線原型僅利用當前小批量中可用的數(shù)據(jù),因為對于新類來說數(shù)據(jù)從單通道依次輸出,無法訪問所有樣本;對于舊類,計算緩沖區(qū)中所有樣本的原型是昂貴的,所以這種形式更適合在線 CL。在線原型的生成分為兩個步驟:

    a)對于每個樣本使用特征提取器f對經(jīng)過數(shù)據(jù)增強后的樣本aug(x)進行特征提取,得到特征表示,然后通過投影器函數(shù)g計算得到Z。公式如下:

    Z=gfaug(x);θf;θg(1)

    b)根據(jù)所有樣本的Z,結(jié)合類別標簽信息,計算每個類別i的原型向量Pi。對于類別i,根據(jù)所有屬于該類別的樣本j的權(quán)重Zj和特征表示faug(x);θf來更新原型向量Pi。公式如下:

    其中:1yj=i是指示函數(shù);ni是小批量中第i類的樣本數(shù)量,用于判斷樣本j是否屬于類別i。

    引入的在線原型可以提供具有代表性的特征,避免獲得與類無關(guān)的信息。這些特征是保持在線CL準確率的關(guān)鍵。此外,保持所見類之間的區(qū)分對于減輕災(zāi)難性遺忘很重要。將不同類別的在線原型合并,用來學(xué)習(xí)類之間的判別特征,在此基礎(chǔ)上,在嵌入空間中拉近在線原型P及其增強視圖Q來學(xué)習(xí)每個類的代表性特征,推開不同類別的在線原型來學(xué)習(xí)類之間的判別特征,對比損失函數(shù)為

    在線原型學(xué)習(xí)的總損失函數(shù)由兩部分組成,分別為新樣本的原型損失函數(shù)和已知樣本的原型損失函數(shù)。新樣本的原型損失函數(shù)由當前的在線原型集合和新樣本的在線原型集合計算得到,這部分損失用來衡量新樣本與當前原型的匹配程度。已知樣本的原型損失是由當前的在線原型集合和已知樣本的在線原型集合計算得到,這部分損失用來衡量已知樣本與當前原型的匹配程度。在線原型學(xué)習(xí)損失函數(shù)如下:

    LOPE=Lnew pro (P,Q)+Lseen pro Pb,Qb(5)

    其中:Lnew pro 專注于從新類中學(xué)習(xí)知識;Lnew pro (P,Q)是為新樣本的原型損失函數(shù);Lseen pro 致力于保留所有可見類的學(xué)習(xí)知識;Lseen pro (Pb,Qb)是為已知樣本的原型損失函數(shù)。其中Pb為當前的在線原型集合,Qb是已知樣本的在線原型集合。

    1.5 在線持續(xù)學(xué)習(xí)中的數(shù)據(jù)不平衡

    一些研究者已經(jīng)處理了離線CL中的數(shù)據(jù)不平衡問題。SS-IL(separated softmax for incremental learning)[24]將softmax函數(shù)的計算隔離在以前的類和更新模型的新類上。GSA(gradient self-adaptation)[25]提出了一種基于梯度的自適應(yīng)損失。CCIL(essentials for class incremental learning)[26]使用損失來平衡任務(wù)內(nèi)學(xué)習(xí)和任務(wù)間學(xué)習(xí)。然而,這些算法中需要預(yù)先獲得當前任務(wù)的全部數(shù)據(jù)和/或多個訓(xùn)練時期來解決數(shù)據(jù)不平衡的問題,不適用于在線CL,因為在線CL在任務(wù)到達數(shù)據(jù)流時,沒有任務(wù)的完整訓(xùn)練數(shù)據(jù)。

    2 加強決策邊界與自監(jiān)督的在線持續(xù)學(xué)習(xí)

    2.1 問題描述

    2.2 總體框架

    加強決策邊界與自監(jiān)督的在線學(xué)習(xí)整體結(jié)構(gòu)流程如圖1所示。框架包括增強決策邊界和融合的自監(jiān)督學(xué)習(xí)兩部分。通過融合的自監(jiān)督學(xué)習(xí)的方法使該模型學(xué)習(xí)具有代表性的特征。后通過加強決策邊界的方法,增強模型對任務(wù)內(nèi)類的分類能力。傳入數(shù)據(jù)X和重放數(shù)據(jù)Xb被增強并饋送到模型,選擇符合條件的數(shù)據(jù)放入緩沖區(qū)中,用新類數(shù)據(jù)和緩沖區(qū)中的舊類數(shù)據(jù)生成在線原型數(shù)據(jù),使用自監(jiān)督的對比學(xué)習(xí)方法來更新模型參數(shù)。然后,使用提出的加強決策邊界的方法動態(tài)地調(diào)整新類數(shù)據(jù)和舊類數(shù)據(jù)在訓(xùn)練數(shù)據(jù)中的占比,并增強新類和舊類的決策邊界,以解決數(shù)據(jù)不平衡的問題。最后更新參數(shù)。

    2.3 融合的自監(jiān)督學(xué)習(xí)方法

    因為在線原型只能展示部分實例級信息,無法完全呈現(xiàn)類的所有特征和屬性。在線原型可以展示類的一部分信息,但仍然可能無法提供完整的類描述,導(dǎo)致類不夠緊湊。為了保證類的緊致性,在線原型學(xué)習(xí)框架中使用了實例級對比學(xué)習(xí)的方法,實例級對比學(xué)習(xí)損失函數(shù)如下:

    其中:N表示特征向量的數(shù)量;τ ′是一個參數(shù);Ii表示i個特征向量的相似特征向量的索引集合;simZi,Zj表示特征向量Zi和Zj之間的余弦相似度。

    但是這種方法在處理數(shù)據(jù)不平衡問題時存在缺陷,并且實例級對比學(xué)習(xí)的方法需要標簽信息進行訓(xùn)練,所以無法進行無監(jiān)督學(xué)習(xí)。因此引入基于代理的對比學(xué)習(xí)方法,在一定程度上彌補缺點。

    在基于代理的對比學(xué)習(xí)方法,對于每個任務(wù),給定當前樣本 (X, Y),它從內(nèi)存庫M中隨機抽取先前的樣本 (Xb, Yb)。此外,這些原始樣本及其增強樣本被拼接起來,與模型生成的代理數(shù)據(jù)集一起進行批次訓(xùn)練。基于代理的對比學(xué)習(xí)損失函數(shù)如下:

    基于代理的對比學(xué)習(xí)方法通過引入代理樣本來解決數(shù)據(jù)不平衡的問題,提升模型性能。并且基于代理的對比學(xué)習(xí)方法可以進行無監(jiān)督學(xué)習(xí),從而節(jié)省標簽數(shù)據(jù)的成本。自監(jiān)督對比學(xué)習(xí)的損失函數(shù)如下:

    LSSCL=a·LINS+b·LNL(8)

    其中:a和b為超參數(shù)。

    這種融合的自監(jiān)督學(xué)習(xí)的方法結(jié)合了兩種方法的優(yōu)點,能夠從不同角度對數(shù)據(jù)進行建模和學(xué)習(xí),并使模型更全面地利用數(shù)據(jù)中的信息,提高了模型的表征能力和泛化能力。

    2.4 加強決策邊界的方法

    假設(shè)系統(tǒng)已經(jīng)觀察過n-1個以前的類別(c1,…, cn-1)和m-n+1個新類別(cn,…, cm)在當前新類別數(shù)據(jù)的數(shù)據(jù)集中。對于新類別cn中的樣本數(shù)據(jù)Xnew,系統(tǒng)會對其進行學(xué)習(xí),分解為兩個部分:a)學(xué)習(xí)cn與當前新類別數(shù)據(jù)的數(shù)據(jù)集中的其他類別之間的決策邊界;b)學(xué)習(xí)cn與緩沖區(qū)M中之前觀察到的n-1個舊類別之間的決策邊界。因為內(nèi)存緩沖區(qū)太小和數(shù)據(jù)不平衡的問題,如果系統(tǒng)學(xué)習(xí)了許多任務(wù),就會出現(xiàn)內(nèi)存緩沖區(qū)中所有先前類中的樣本數(shù)量將遠小于新數(shù)據(jù)中每個類的樣本數(shù)的現(xiàn)象,會導(dǎo)致新類和舊類之間的訓(xùn)練偏差和決策邊界差,所以當新類別加入時,在更新決策邊界時需考慮到已有類別的影響。所以使用加強決策邊界方法,利用損失值動態(tài)調(diào)整新類數(shù)據(jù)和舊類數(shù)據(jù)的占比。因此,加強決策邊界的損失函數(shù)如下:

    LSDB=α·CE(Yb,φ(f(aug(Xb)))+

    β·CE(Ynew,φ(f(aug(Xnew)))[:,-t:])(9)

    其中:t為當前任務(wù)類別數(shù);α和β為超參數(shù)。

    在這個損失函數(shù)中,使用第一項來保持先前已知類別之間的決策邊界:將先前的類別標簽Yb和模型的預(yù)測數(shù)據(jù)φ(f(aug(Xb))放在第一項中,這可以確保模型在學(xué)習(xí)新類別時不會破壞先前已知類別之間的決策邊界。第二項用于建立新類別與已知類別之間的決策邊界:將真實的類別標簽Ynew和模型的預(yù)測數(shù)據(jù)φ(f(aug(Xnew))放在第二項中,這有助于模型學(xué)習(xí)如何區(qū)分新類別與已知類別之間的區(qū)別,從而建立新類別與已知類別之間的決策邊界。從新類到先前類的負遷移僅限于第二項。

    2.5 總損失函數(shù)

    模型訓(xùn)練時所使用的總損失函數(shù)由加強決策邊界的損失函數(shù)、自監(jiān)督對比學(xué)習(xí)的損失函數(shù)和在線原型學(xué)習(xí)損失函數(shù)組成,總損失函數(shù)為

    LOUR=LSDB+LSSCL+LOPE(10)

    遵循其他基于重放的方法,通過從集合X中均勻隨機選擇樣本來更新每個時間步的內(nèi)存庫M 。如果內(nèi)存庫M已經(jīng)滿了,就從內(nèi)存庫M中取出與集合X中相同數(shù)量的樣本。

    2.6 算法流程

    在這一部分中,利用模型學(xué)習(xí)新類的樣本和重放舊類的樣本來訓(xùn)練模型。在算法中,首先初始化記憶庫M;接著找到任務(wù)t中最相關(guān)的原型,并存入記憶庫M中;然后使用記憶庫中的原型P對任務(wù)t中的數(shù)據(jù)進行預(yù)測,根據(jù)預(yù)測更新記憶庫中的原型P;最后計算損失,利用損失更新模型參數(shù)。

    算法1 強決策邊界與自監(jiān)督的在線持續(xù)學(xué)習(xí)方法

    輸入:設(shè)置學(xué)習(xí)率α;設(shè)置記憶庫M大小;任務(wù)次數(shù)t。

    輸出:平均準確率;平均遺忘率。

    initialize memory M;

    for each new task t do:

    for each sample (x, y) in task t do:

    if M is not full then:

    store (x, y) in memory M

    else

    define online prototype P

    通過式(2)計算對于任務(wù)t最相關(guān)的原型P

    使用學(xué)習(xí)率 α 更新P以接近 x

    if P becomes irrelevant then:

    replace P in memory M with (x, y)

    end if

    for each sample (x, y) in task t do :

    for each prototype P in memory M

    compute relevance of x to P

    通過式(5)計算損失值LOPE,基于LOPE更新記憶庫M中所有原型的相關(guān)性

    對于記憶庫M中的原型,計算x的預(yù)測,并考慮對比樣本

    通過式(8)計算LSSCL,基于LSSCL更新預(yù)測誤差和損失

    基于預(yù)測誤差和損失,更新記憶庫M中的原型

    通過式(9)計算總損失LSDB,基于LSDB動態(tài)地調(diào)整新類數(shù)據(jù)和舊類數(shù)據(jù)在訓(xùn)練數(shù)據(jù)中的占比

    update model parameters using gradient descent

    end for

    end for

    end for

    return average accuracy, average forgetting rate

    end

    3 實驗及結(jié)果分析

    3.1 數(shù)據(jù)集和評價指標

    3.1.1 數(shù)據(jù)集

    實驗中使用CIFAR-10、CIFAR-100和TinyImageNet三個圖像分類基準數(shù)據(jù)集來評估在線CIL的性能。具體地,在CIFAR-10數(shù)據(jù)集上,將其分成為5個不相交的任務(wù),每個任務(wù)包含2個不相交的類,其中有10 000個樣本用于訓(xùn)練,2 000個樣本用于測試。在CIFAR-100數(shù)據(jù)集上,將其分成為10個不相交的任務(wù),每個任務(wù)包含10個不相交的類,其中有5 000個樣本用于訓(xùn)練,1 000個樣本用于測試。而在TinyImageNet數(shù)據(jù)集上,將其分成為100個不相交的任務(wù),每個任務(wù)包含2個不相交的類,其中有1 000個樣本用于訓(xùn)練,100個樣本用于測試。在所有實驗設(shè)置中,任務(wù)的順序都是固定的。

    3.1.2 評價指標

    在線CIL中,使用平均精度和平均遺忘[27]來評估框架的性能。平均精度衡量了所有可見任務(wù)的測試集準確性,平均精度定義為

    其中:j是訓(xùn)練完的前i個任務(wù)后對任務(wù)j的準確度。而平均遺忘表示模型在訓(xùn)練最終任務(wù)后對每個任務(wù)的遺忘程度,平均遺忘定義為

    其中:fi,j=maxk∈{1,…,i-1}ak,j-ai,j是訓(xùn)練完所有任務(wù)后對任務(wù)j的準確度。這些指標可以幫助評估模型在在線連續(xù)學(xué)習(xí)中的性能表現(xiàn)。

    3.2 實施細節(jié)

    以ResNet18 [28]作為主干網(wǎng)絡(luò),使用線性層作為投影,設(shè)置隱藏層維度為128。使用線性層作為分類器,Adam優(yōu)化器從頭開始訓(xùn)練模型,所有數(shù)據(jù)集的初始學(xué)習(xí)率為5×10-4,權(quán)重衰減設(shè)置為1.0×10-4。將批次大小設(shè)置為10,重放批次大小m設(shè)置為64。對于CIFAR-10,設(shè)置APF中的α比例為0.25。對于CIFAR-100和TinyImageNet,α設(shè)置為0.1。溫度τ = 0.5和τ′ = 0.07。對于基線方法,使用ResNet18作為骨干,設(shè)置相同的批次大小和重放批次大小進行比較。使用默認設(shè)置來重現(xiàn)所有方法在相同環(huán)境中的結(jié)果。這些實施細節(jié)有助于實驗的公平性。

    3.3 對比實驗

    表1列出三個基準數(shù)據(jù)集上不同內(nèi)存庫M的平均準確率結(jié)果,該模型在三個數(shù)據(jù)集上始終優(yōu)于所有基線方法。值得注意的是,當內(nèi)存庫M相對較小時,該方法的性能改進更為顯著,這對于內(nèi)存庫M有限的在線CL至關(guān)重要。例如,與方法OnPro相比,當內(nèi)存庫M為100時,該方法在CIFAR-10上實現(xiàn)了大約3%的提升,當內(nèi)存庫M為500時,該方法在CIFAR-100上實現(xiàn)了大約3%的提升。結(jié)果表明,該模型可以在資源有限的內(nèi)存庫M中學(xué)習(xí)到更具代表性和更有辨別力的特征。與使用知識蒸餾(iCaRL、DER++、PASS、OCM)的基線方法相比,該方法通過利用新類和在線原型的反饋獲得了更好的性能。此外,該方法優(yōu)于同樣使用在線原型的基線方法(PASS、CoPE、OnPro),表明在線原型更適合在線 CL,證明學(xué)習(xí)更充分的數(shù)據(jù)特征對模型的重要性。

    可以看出,當數(shù)據(jù)集中的樣本越復(fù)雜時準確率就越低。這是因為當樣本變得復(fù)雜時,模型無法從樣本中提取到具有代表性的特征。當內(nèi)存庫M增加時,性能改進趨于平緩的原因可能是因為隨著內(nèi)存庫M的大小增加,記憶庫中的樣本變得更加多樣化。模型可以從更豐富和多樣的樣本中提取更具代表性的特征,從而更好地區(qū)分可見類。另外,隨著任務(wù)數(shù)量的增加,許多基線方法模型在CIFAR-100和TinyImageNet數(shù)據(jù)集上表現(xiàn)不佳。相比之下,模型仍然表現(xiàn)良好,具有相對較高的準確率和良好的平均遺忘率,說明本文方法在處理災(zāi)難性遺忘方面取得了成功。同時這表明模型在處理大規(guī)模和多樣化數(shù)據(jù)集時具有優(yōu)勢,能夠有效地學(xué)習(xí)并區(qū)分不同類別。這種對比結(jié)果顯示了模型的強大性能和泛化能力。

    表2列出模型的平均遺忘結(jié)果以及三個數(shù)據(jù)集上所有基線方法的遺忘情況。結(jié)果表明該模型能夠有效減輕災(zāi)難性遺忘。在CIFAR-10和CIFAR-100數(shù)據(jù)集上,該模型相對于所有基于重放的方法模型實現(xiàn)了最低的平均遺忘率。在TinyImageNet上,結(jié)果略高于iCaRL和CoPE,但優(yōu)于最新的DVC和OCM方法。這可能是因為iCaRL在測試階段使用最近類的均值分類器,而該模型使用的是softmax和全連接層;CoPE則通過緩慢更新高動量的原型。然而,正如表1所示,該模型提供比iCaRL和CoPE更準確的分類結(jié)果。實際上,當任務(wù)的最大準確度較低時,即使模型完全遺忘了相關(guān)知識,遺忘這項任務(wù)也不太可能發(fā)生。表2的結(jié)果凸顯了模型在遺忘問題上的優(yōu)勢和性能表現(xiàn)。

    如圖2所示,在CIFAR-10(M=100)和CIFAR-100(M=500)上評估了大部分基線方法的每個增量步驟的平均增量性能,即每個增量步驟中所觀察到的任務(wù)的準確性。增量步驟的性能提升表明該方法在準確度和遺忘減輕方面有良好的表現(xiàn),而大多數(shù)方法模型的性能隨著新類別的引入而急劇下降,說明學(xué)習(xí)具有代表性和判別性特征對減輕災(zāi)難性遺忘至關(guān)重要。

    3.4 消融實驗

    在表3中列出了每個組合的消融結(jié)果,其average accuracy越高越好,average forgetting越低越好。加強決策邊界方法和融合的自監(jiān)督學(xué)習(xí)方法能夠持續(xù)提高分類的平均準確率,加強決策邊界方法對任務(wù)的影響更為顯著,尤其是在內(nèi)存庫M大小有限的情況下,加強決策邊界方法發(fā)揮著重要作用。此外,當加強決策邊界方法和融合的自監(jiān)督學(xué)習(xí)方法結(jié)合時,性能進一步提升,表明兩者可以相互促進,在CIFAR-10(M=100)和CIFAR-100(M=500)上,新類反饋方法提高了約2%的性能,結(jié)合自監(jiān)督的對比學(xué)習(xí)方法也同樣提高了約1.5%的性能,并且在平均準確率相近的情況下,平均遺忘率更低。說明本文方法在處理災(zāi)難性遺忘問題是成功的。

    4 結(jié)束語

    為解決在線類增量學(xué)習(xí)任務(wù)場景中產(chǎn)生的災(zāi)難性遺忘問題,本文提出了一種加強決策邊界與自監(jiān)督的在線持續(xù)學(xué)習(xí)方法。利用新類的損失去加強任務(wù)與任務(wù)之間的決策邊界,讓新任務(wù)更好地被模型學(xué)習(xí)。通過自監(jiān)督對比學(xué)習(xí)的方法,讓模型更好地學(xué)習(xí)新數(shù)據(jù)的代表特征。在樣本量少的CIFAR-100和樣本量多的CIFAR-10數(shù)據(jù)集上,本文方法相比主流類增量學(xué)習(xí)方法都取得了更好的增量性能表現(xiàn)。通過消融實驗證明了本文方法是有效的。但是本文在對數(shù)據(jù)不平衡的處理上仍存在不足,因為造成數(shù)據(jù)不平衡的原因主要是梯度的不平衡,即在線持續(xù)學(xué)習(xí)訓(xùn)練時相對于重放樣本更關(guān)注新樣本。下一步將設(shè)計一種方法可以動態(tài)地去調(diào)整訓(xùn)練時對每個樣本的關(guān)注度。

    參考文獻:

    [1]Fini E, Costa V G T D, Alameda-Pineda X, et al. Self-supervised models are continual learners [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2017: 9611-9620.

    [2]李文斌, 熊亞錕, 范祉辰, 等. 持續(xù)學(xué)習(xí)的研究進展與趨勢 [J]. 計算機研究與發(fā)展, 2024, 61 (6): 1476-1496. (Li Wenbin, Xiong Yakun, Fan Zhichen, et al. Advances and trends of continual learning [J]. Journal of Computer Research and Development, 2024, 61 (6): 1476-1496.)

    [3]Mai Zheda, Li Ruiwen, Jeong J, et al. Online continual learning in image classification: an empirical survey [J]. Neurocomputing, 2022, 469: 28-51.

    [4]王偉, 張志瑩, 郭杰龍, 等. 基于腦啟發(fā)的類增量學(xué)習(xí) [J]. 計算機應(yīng)用研究, 2023, 40 (3): 671-675,688. (Wang Wei, Zhang Zhiying, Guo Jielong, et al. Brain-inspired class incremental learning [J]. Application Research of Computers, 2023, 40 (3): 671-675,688.)

    [5]Chrysakis A, Moens M. Online continual learning from imbalanced data [C]// Proc of the 37th International Conference on Machine Learning. [S.l.]:PMLR,2020:1952-1961.

    [6]袁坤, 張秀華, 溥江, 等. 非平穩(wěn)數(shù)據(jù)流下的持續(xù)學(xué)習(xí)災(zāi)難性遺忘問題求解策略綜述 [J]. 計算機應(yīng)用研究, 2023, 40 (5): 1292-1302. (Yuan Kun, Zhang Xiuhua, Pu Jiang, et al. Review of catastrophic forgetting problems solving strategies for continual lear-ning under non-stationary data streams [J]. Application Research of Computers, 2023, 40 (5): 1292-1302.)

    [7]Fang Zhiyuan, Wang Jianfeng, Wang Lijuan, et al. Seed: self-supervised distillation for visual representation [EB/OL]. (2021-04-15). https://arxiv.org/abs/2101.04731.

    [8]Geoffrey H, Oriol V, Jeff D. Distilling the knowledge in a neural network [EB/OL]. (2015-03-09). https://arxiv.org/abs/1503.02531.

    [9]Li Zhizhong, Hoiem D. Learning without forgetting [J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2017, 40 (12): 2935-2947.

    [10]Chaudhry A, Rohrbach M, Mohamed E, et al. On tiny episodic memories in continual learning [EB/OL]. (2019-06-04). https://arxiv.org/abs/1902.10486.

    [11]Aljundi R, Belilovsky E, Tuytelaars T, et al. Online continual lear-ning with maximal interfered retrieval [EB/OL]. (2019-10-29). https://arxiv.org/abs/1908.04742.

    [12]Shim D, Mai Zheda, Jeong J, et al. Online class-incremental conti-nual learning with adversarial Shapley value [C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2021: 35, 9630-9638.

    [13]Mai Zheda, Li Ruiwen, Kim H, et al. Supervised contrastive replay: revisiting the nearest class mean classifier in online class-incremental continual learning [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition . Piscataway,NJ: IEEE Press, 2021: 3584-3594.

    [14]Guo Yidou, Liu Bing, Zhao Dongyan. Online continual learning through mutual information maximization [C]// Proc of" the 39th International Conference on Machine Learning. [S.l.]: PMLR, 2022:8109-8126.

    [15]林韌昊, 周清雷, 扈天卿, 等. 基于決策邊界分析的深度神經(jīng)網(wǎng)絡(luò)魯棒性評估與優(yōu)先次序驗證 [J]. 計算機學(xué)報, 2024, 47 (4): 862-876. (Lin Renhao, Zhou Qinglei, Hu Tianqing, et al. Robustness evaluation and prioritization verification for deep neural networks via decision boundary analysis [J]. Chinese Journal of Computer, 2024, 47 (4): 862-876.)

    [16]Khosla P, Teterwak P, Wang C, et al. Supervised contrastive lear-ning[J]. Advances in Neural Information Processing Systems, 2020, 33: 18661-18673.

    [17]Lin Huiwei, Zhang Baoquan, Feng Shanshan, et al. PCR: proxy-based contrastive replay for online class-incremental continual learning [EB/OL]. (2023-04-10). https://arxiv.org/abs/2304.04408.

    [18]Rebuffi S, Kolesnikov A, Sperl G, et al. iCaRL: incremental classifier and representation learning [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2017: 5533-5542.

    [19]Cha H, Lee J, Shin J. Co2L: contrastive continual learning [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press, 2021: 9496-9505.

    [20]Zhu Fei, Zhang Xuyao, Wang Chuang, et al. Prototype augmentation and self-supervision for incremental learning [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Pisca-taway,NJ: IEEE Press, 2021: 5867-5876.

    [21]Lange M, Tuytelaars T. Continual prototype evolution: learning online from non-stationary data streams [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press, 2021: 8230-8239.

    [22]He Jiangpeng, Zhu Fengqing. Exemplar-free online continual learning [C]// Proc of IEEE International Conference on Image Processing . Piscataway,NJ: IEEE Press, 2022: 541-545.

    [23]Wei Yujie, Ye Jiaxin, Huang Zhizhong, et al. Online prototype learning for online continual learning [EB/OL]. (2023-08-01). https://arxiv.org/abs/2308.00301.

    [24]Ahn H, Kwak J, Lim S, et al. SS-IL: separated softmax for incremental learning [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press, 2021: 844-853.

    [25]Guo Yiduo, Liu Bing, Zhao Dongyan. Dealing with cross-task class discrimination in online continual learning [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ :IEEE Press, 2023: 11878-11887.

    [26]Mittal S, Galesso S, Brox T. Essentials for class incremental learning [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press, 2021: 3513-3522.

    [27]Goodfellow I, Mirza M, Xiao Da, et al. An empirical investigation of catastrophic forgetting in gradient-based neural networks [EB/OL]. (2015-03-04). https://arxiv.org/abs/1312.6211.

    [28]He Kai, Zhang Xiangyu, Ren Shouxin, et al. Deep residual learning for image recognition [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2016: 770-778.

    99在线视频只有这里精品首页| 俄罗斯特黄特色一大片| 久久精品久久久久久噜噜老黄 | aaaaa片日本免费| 国产精品美女特级片免费视频播放器| 欧美成狂野欧美在线观看| 欧美乱妇无乱码| 欧美日韩福利视频一区二区| 国产成人aa在线观看| 亚洲国产色片| 麻豆国产av国片精品| 简卡轻食公司| 国产中年淑女户外野战色| 一本久久中文字幕| 欧美成人a在线观看| 国模一区二区三区四区视频| 毛片一级片免费看久久久久 | avwww免费| 欧美在线黄色| 一进一出好大好爽视频| 亚洲片人在线观看| 18禁黄网站禁片免费观看直播| 男人舔女人下体高潮全视频| 婷婷六月久久综合丁香| 国产免费av片在线观看野外av| avwww免费| 亚洲,欧美精品.| 亚洲自偷自拍三级| 久久婷婷人人爽人人干人人爱| 久久99热这里只有精品18| 午夜a级毛片| 国内揄拍国产精品人妻在线| 午夜福利18| 精品国产三级普通话版| 香蕉av资源在线| 哪里可以看免费的av片| 欧美性猛交黑人性爽| 成人午夜高清在线视频| 18美女黄网站色大片免费观看| 一边摸一边抽搐一进一小说| 男人的好看免费观看在线视频| 桃红色精品国产亚洲av| 一本久久中文字幕| 欧美日韩福利视频一区二区| 免费在线观看亚洲国产| 精品日产1卡2卡| 国产大屁股一区二区在线视频| 又黄又爽又刺激的免费视频.| 夜夜躁狠狠躁天天躁| 男女那种视频在线观看| 精品久久久久久久久久久久久| 观看免费一级毛片| 精品一区二区三区av网在线观看| 18+在线观看网站| 欧美激情久久久久久爽电影| 欧美xxxx黑人xx丫x性爽| 久久精品人妻少妇| 纵有疾风起免费观看全集完整版| 亚洲在线观看片| 国产伦在线观看视频一区| 搡女人真爽免费视频火全软件| 激情五月婷婷亚洲| 免费观看的影片在线观看| .国产精品久久| 高清视频免费观看一区二区| 国产欧美亚洲国产| 在线天堂最新版资源| freevideosex欧美| 国产精品秋霞免费鲁丝片| 国产成人福利小说| 天美传媒精品一区二区| 亚洲精品影视一区二区三区av| 亚洲av免费高清在线观看| 亚洲精品第二区| 国产精品久久久久久精品古装| 亚洲国产成人一精品久久久| 国产免费又黄又爽又色| 久久这里有精品视频免费| 国产伦在线观看视频一区| 最近中文字幕2019免费版| 亚洲真实伦在线观看| 爱豆传媒免费全集在线观看| 久久久精品94久久精品| 免费观看性生交大片5| 亚洲va在线va天堂va国产| 韩国av在线不卡| 欧美成人午夜免费资源| 国产成人精品一,二区| 国产伦在线观看视频一区| 99视频精品全部免费 在线| 日韩人妻高清精品专区| 97人妻精品一区二区三区麻豆| 国产乱人视频| 亚洲熟女精品中文字幕| 亚洲怡红院男人天堂| 久久久久久伊人网av| 欧美少妇被猛烈插入视频| 色视频在线一区二区三区| 一个人观看的视频www高清免费观看| 欧美日韩国产mv在线观看视频 | 国产在视频线精品| 精品人妻熟女av久视频| 成人亚洲精品av一区二区| 可以在线观看毛片的网站| 国产成人午夜福利电影在线观看| 国产黄片美女视频| 国内精品美女久久久久久| 国产 一区精品| 日韩制服骚丝袜av| 欧美少妇被猛烈插入视频| 最近中文字幕高清免费大全6| 男人和女人高潮做爰伦理| 国产亚洲一区二区精品| 久久精品国产亚洲av天美| 午夜免费观看性视频| 国产欧美亚洲国产| 身体一侧抽搐| 精华霜和精华液先用哪个| 中国三级夫妇交换| 黄色怎么调成土黄色| 国产亚洲av嫩草精品影院| 少妇 在线观看| 久久精品国产鲁丝片午夜精品| 日韩欧美一区视频在线观看 | 好男人视频免费观看在线| 国产亚洲av嫩草精品影院| 天堂俺去俺来也www色官网| 中文字幕人妻熟人妻熟丝袜美| 黄色欧美视频在线观看| 黄色配什么色好看| 精品人妻偷拍中文字幕| 男女下面进入的视频免费午夜| 自拍欧美九色日韩亚洲蝌蚪91 | 欧美xxⅹ黑人| 日本色播在线视频| 高清av免费在线| 毛片一级片免费看久久久久| 午夜激情福利司机影院| 亚洲图色成人| 亚洲精华国产精华液的使用体验| 日韩,欧美,国产一区二区三区| 永久免费av网站大全| 精品人妻视频免费看| 777米奇影视久久| 日韩成人av中文字幕在线观看| 97精品久久久久久久久久精品| 丝瓜视频免费看黄片| 看黄色毛片网站| 精品国产一区二区三区久久久樱花 | 一区二区三区免费毛片| 一级黄片播放器| 天堂网av新在线| 精品酒店卫生间| 午夜福利在线在线| 国产色爽女视频免费观看| h日本视频在线播放| 99久久精品热视频| 六月丁香七月| 18禁动态无遮挡网站| 精品久久久久久久人妻蜜臀av| 成年女人看的毛片在线观看| eeuss影院久久| 99久久中文字幕三级久久日本| 舔av片在线| 嫩草影院入口| 女的被弄到高潮叫床怎么办| 日韩成人伦理影院| 在线观看av片永久免费下载| 视频区图区小说| 嫩草影院精品99| 国产淫片久久久久久久久| 99久久人妻综合| www.av在线官网国产| 国产精品成人在线| 亚洲最大成人av| 亚洲综合精品二区| 国产老妇伦熟女老妇高清| 成年免费大片在线观看| 免费人成在线观看视频色| 国产午夜福利久久久久久| 七月丁香在线播放| 亚洲婷婷狠狠爱综合网| 秋霞在线观看毛片| 成人一区二区视频在线观看| 日本黄大片高清| 免费电影在线观看免费观看| 日韩成人av中文字幕在线观看| 亚洲人与动物交配视频| 精品亚洲乱码少妇综合久久| 网址你懂的国产日韩在线| 少妇丰满av| 午夜免费鲁丝| 国产精品一二三区在线看| 成人午夜精彩视频在线观看| 在线看a的网站| 亚洲精品色激情综合| 精品久久久久久久末码| 最近2019中文字幕mv第一页| 国产日韩欧美亚洲二区| 黄色一级大片看看| 看非洲黑人一级黄片| 欧美另类一区| 热99国产精品久久久久久7| 国产精品一二三区在线看| 欧美日本视频| 日韩一本色道免费dvd| 黑人高潮一二区| 毛片一级片免费看久久久久| 男人狂女人下面高潮的视频| 熟女av电影| 国内少妇人妻偷人精品xxx网站| 黑人高潮一二区| 亚洲,一卡二卡三卡| 女人被狂操c到高潮| 看黄色毛片网站| 亚洲av国产av综合av卡| 2018国产大陆天天弄谢| 国语对白做爰xxxⅹ性视频网站| 九九爱精品视频在线观看| 国产精品99久久久久久久久| 神马国产精品三级电影在线观看| 日本猛色少妇xxxxx猛交久久| 大香蕉97超碰在线| 韩国高清视频一区二区三区| 日韩欧美一区视频在线观看 | 少妇 在线观看| 精品视频人人做人人爽| 两个人的视频大全免费| 国产精品久久久久久精品电影| 69人妻影院| 建设人人有责人人尽责人人享有的 | 有码 亚洲区| 国产老妇伦熟女老妇高清| av在线老鸭窝| 在线a可以看的网站| 免费看a级黄色片| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 干丝袜人妻中文字幕| 中国美白少妇内射xxxbb| 欧美亚洲 丝袜 人妻 在线| 久久久久久国产a免费观看| 老司机影院成人| 在线观看一区二区三区激情| av福利片在线观看| 99久久精品热视频| 嫩草影院入口| 久久久久久久久久久丰满| 欧美激情国产日韩精品一区| freevideosex欧美| 久久久精品欧美日韩精品| 少妇人妻精品综合一区二区| 欧美变态另类bdsm刘玥| 日韩一本色道免费dvd| 日本猛色少妇xxxxx猛交久久| 亚洲国产色片| 人妻 亚洲 视频| 天天躁夜夜躁狠狠久久av| 一级a做视频免费观看| 国产 精品1| 久久久精品免费免费高清| 久久久午夜欧美精品| 久久影院123| 国产精品国产三级国产专区5o| 中国美白少妇内射xxxbb| 久久久午夜欧美精品| 18禁在线播放成人免费| 免费看日本二区| 国产欧美亚洲国产| 欧美bdsm另类| 18禁在线无遮挡免费观看视频| 99久久人妻综合| 国产老妇女一区| 18禁裸乳无遮挡动漫免费视频 | 三级男女做爰猛烈吃奶摸视频| 亚洲av男天堂| 美女xxoo啪啪120秒动态图| 大香蕉97超碰在线| 男人添女人高潮全过程视频| 亚洲精品乱码久久久久久按摩| 成人特级av手机在线观看| 国产人妻一区二区三区在| 国产淫语在线视频| 日韩欧美 国产精品| 国产亚洲最大av| 韩国高清视频一区二区三区| 国产成人一区二区在线| 日韩欧美精品v在线| 一二三四中文在线观看免费高清| 99热这里只有精品一区| h日本视频在线播放| 久久久久久伊人网av| 婷婷色综合www| 青春草视频在线免费观看| 午夜福利高清视频| 舔av片在线| 国产精品伦人一区二区| 久久久久国产网址| 日韩制服骚丝袜av| 日韩免费高清中文字幕av| 国产探花在线观看一区二区| 国产爱豆传媒在线观看| 国产精品三级大全| 韩国av在线不卡| 不卡视频在线观看欧美| 国产一区二区在线观看日韩| 精品久久久久久久末码| 真实男女啪啪啪动态图| 欧美精品一区二区大全| 成人漫画全彩无遮挡| 一级av片app| 成人免费观看视频高清| 国产精品久久久久久精品电影| 毛片女人毛片| 秋霞伦理黄片| 午夜福利在线在线| 色视频在线一区二区三区| 亚洲美女搞黄在线观看| 亚洲欧美精品自产自拍| 欧美另类一区| 蜜桃亚洲精品一区二区三区| 一个人看视频在线观看www免费| 亚洲国产精品专区欧美| 最近手机中文字幕大全| 国产欧美日韩精品一区二区| 欧美亚洲 丝袜 人妻 在线| 女人十人毛片免费观看3o分钟| av在线app专区| 国产av码专区亚洲av| 少妇的逼好多水| 天堂俺去俺来也www色官网| 国产成人精品福利久久| 久久久久久伊人网av| 亚洲国产色片| 亚洲精品一二三| 国产精品秋霞免费鲁丝片| 国产精品嫩草影院av在线观看| 国产伦精品一区二区三区四那| 深夜a级毛片| 欧美成人一区二区免费高清观看| 成人美女网站在线观看视频| 午夜福利在线在线| 91久久精品国产一区二区成人| 日日啪夜夜爽| 永久免费av网站大全| 亚洲精品国产色婷婷电影| 久热久热在线精品观看| av天堂中文字幕网| 久久久久久久午夜电影| 亚洲精品乱码久久久v下载方式| 波野结衣二区三区在线| 在线观看三级黄色| 色视频www国产| 亚洲av二区三区四区| 在线观看三级黄色| 国产美女午夜福利| 特级一级黄色大片| 久久99热这里只有精品18| 简卡轻食公司| 麻豆成人av视频| 七月丁香在线播放| 国产美女午夜福利| 亚洲国产精品999| 亚洲怡红院男人天堂| 黄色视频在线播放观看不卡| 国产伦在线观看视频一区| 国产精品秋霞免费鲁丝片| 国产精品嫩草影院av在线观看| 欧美老熟妇乱子伦牲交| 又大又黄又爽视频免费| 99久久精品国产国产毛片| 欧美高清成人免费视频www| 日韩精品有码人妻一区| 美女cb高潮喷水在线观看| 青春草视频在线免费观看| 精品人妻视频免费看| 日韩免费高清中文字幕av| 欧美日本视频| 中国三级夫妇交换| 国产精品国产三级国产专区5o| 人人妻人人澡人人爽人人夜夜| 欧美另类一区| 欧美成人午夜免费资源| 我的老师免费观看完整版| 午夜亚洲福利在线播放| 午夜精品一区二区三区免费看| 久久99精品国语久久久| 久久午夜福利片| av在线亚洲专区| 色吧在线观看| 久久精品夜色国产| 白带黄色成豆腐渣| 有码 亚洲区| 亚洲美女搞黄在线观看| 欧美精品人与动牲交sv欧美| 国产高清有码在线观看视频| 亚洲三级黄色毛片| 美女主播在线视频| 18禁裸乳无遮挡免费网站照片| 80岁老熟妇乱子伦牲交| 国产一区二区在线观看日韩| 国产美女午夜福利| 岛国毛片在线播放| 夫妻午夜视频| 高清在线视频一区二区三区| 午夜福利在线在线| 高清欧美精品videossex| 国产精品不卡视频一区二区| 日韩不卡一区二区三区视频在线| 老司机影院成人| 九草在线视频观看| 久久精品综合一区二区三区| 欧美成人午夜免费资源| 亚洲精品久久久久久婷婷小说| 亚洲精品国产av成人精品| 亚洲性久久影院| 欧美精品国产亚洲| 久久久久久久久久久丰满| 午夜福利高清视频| 欧美成人一区二区免费高清观看| 欧美高清成人免费视频www| 亚州av有码| 蜜桃亚洲精品一区二区三区| 午夜福利网站1000一区二区三区| 综合色av麻豆| 97在线人人人人妻| 美女脱内裤让男人舔精品视频| 成人特级av手机在线观看| 国产日韩欧美亚洲二区| 自拍偷自拍亚洲精品老妇| 国产人妻一区二区三区在| 午夜免费观看性视频| 精品国产三级普通话版| 秋霞在线观看毛片| 国产老妇女一区| 久久99热这里只频精品6学生| 男人添女人高潮全过程视频| 亚洲综合色惰| 啦啦啦啦在线视频资源| 在线看a的网站| 欧美xxxx黑人xx丫x性爽| 搞女人的毛片| 久久精品综合一区二区三区| 日本一本二区三区精品| 国产精品av视频在线免费观看| 国内精品宾馆在线| h日本视频在线播放| 黄色怎么调成土黄色| 免费看不卡的av| 亚洲自偷自拍三级| 亚洲精品乱码久久久v下载方式| 欧美日韩在线观看h| 97精品久久久久久久久久精品| 在线天堂最新版资源| 卡戴珊不雅视频在线播放| 国产又色又爽无遮挡免| 在线观看三级黄色| 中文字幕人妻熟人妻熟丝袜美| 亚洲成人中文字幕在线播放| 亚洲精品成人av观看孕妇| 99久久九九国产精品国产免费| 精品国产一区二区三区久久久樱花 | 久久精品夜色国产| 肉色欧美久久久久久久蜜桃 | h日本视频在线播放| 亚洲av一区综合| 赤兔流量卡办理| 九色成人免费人妻av| 中文字幕久久专区| 国产精品一及| 亚洲人成网站在线播| 亚洲欧美精品专区久久| 国产 精品1| 欧美xxⅹ黑人| 欧美成人一区二区免费高清观看| 国产探花极品一区二区| 一级二级三级毛片免费看| 日韩欧美一区视频在线观看 | 内射极品少妇av片p| 丰满乱子伦码专区| 黄色欧美视频在线观看| 国产 一区精品| 久久精品国产亚洲网站| 天天躁夜夜躁狠狠久久av| 毛片女人毛片| 在线a可以看的网站| 一个人观看的视频www高清免费观看| 人妻一区二区av| 国产视频首页在线观看| 欧美潮喷喷水| 各种免费的搞黄视频| 老师上课跳d突然被开到最大视频| 草草在线视频免费看| 欧美丝袜亚洲另类| 国内少妇人妻偷人精品xxx网站| 亚洲最大成人手机在线| 成年版毛片免费区| 久久6这里有精品| 亚洲在久久综合| 中国国产av一级| 久久久欧美国产精品| 久久人人爽人人爽人人片va| 乱码一卡2卡4卡精品| 日日撸夜夜添| 久久精品国产鲁丝片午夜精品| 3wmmmm亚洲av在线观看| 热re99久久精品国产66热6| 国产亚洲5aaaaa淫片| 久久精品国产亚洲网站| 日韩av不卡免费在线播放| 好男人在线观看高清免费视频| 国产精品久久久久久久电影| 日日摸夜夜添夜夜爱| 久久久久国产网址| 综合色丁香网| 人妻一区二区av| 美女xxoo啪啪120秒动态图| 日韩成人伦理影院| 综合色av麻豆| 精品久久久久久久人妻蜜臀av| 亚洲内射少妇av| 美女被艹到高潮喷水动态| 一级片'在线观看视频| 一级爰片在线观看| 亚洲av.av天堂| 狠狠精品人妻久久久久久综合| 亚洲精品成人久久久久久| 免费看日本二区| 成人黄色视频免费在线看| 婷婷色av中文字幕| 欧美日韩视频精品一区| 国产精品国产三级国产专区5o| 亚洲av国产av综合av卡| 国产 精品1| 边亲边吃奶的免费视频| 黄色视频在线播放观看不卡| 91久久精品电影网| 欧美xxxx性猛交bbbb| 中文天堂在线官网| 亚洲国产精品成人久久小说| 国产高潮美女av| 久久久久网色| 成人毛片60女人毛片免费| 国内精品宾馆在线| 亚洲欧美一区二区三区黑人 | 国产成人a区在线观看| 国产一区亚洲一区在线观看| 中文字幕人妻熟人妻熟丝袜美| 日日撸夜夜添| 国产色爽女视频免费观看| 大码成人一级视频| 国产色婷婷99| 男女边吃奶边做爰视频| 小蜜桃在线观看免费完整版高清| 亚洲精品国产成人久久av| 国产成人午夜福利电影在线观看| 九色成人免费人妻av| 可以在线观看毛片的网站| 精品久久国产蜜桃| 小蜜桃在线观看免费完整版高清| 久久ye,这里只有精品| 麻豆成人av视频| 国产黄片视频在线免费观看| www.av在线官网国产| 一个人观看的视频www高清免费观看| 免费av不卡在线播放| av卡一久久| 欧美区成人在线视频| 大香蕉97超碰在线| 在线看a的网站| 国产精品99久久99久久久不卡 | 亚洲最大成人手机在线| 免费观看av网站的网址| 男人爽女人下面视频在线观看| 男的添女的下面高潮视频| 国产精品国产三级国产专区5o| freevideosex欧美| 韩国高清视频一区二区三区| 亚洲欧美日韩无卡精品| 中文字幕免费在线视频6| 美女国产视频在线观看| 99热这里只有是精品50| 大片电影免费在线观看免费| 午夜免费观看性视频| 99九九线精品视频在线观看视频| 国产精品99久久久久久久久| 国产精品久久久久久av不卡| 国产精品久久久久久久电影| 男人爽女人下面视频在线观看| 亚洲精品日韩在线中文字幕| 婷婷色av中文字幕| 最新中文字幕久久久久| 亚洲国产精品国产精品| 一级片'在线观看视频| 看黄色毛片网站| 最近中文字幕高清免费大全6| 波野结衣二区三区在线| 男插女下体视频免费在线播放| 亚洲电影在线观看av| 麻豆成人午夜福利视频| 日韩av在线免费看完整版不卡| 国产亚洲一区二区精品| av国产免费在线观看| 亚洲天堂国产精品一区在线| 一级片'在线观看视频| 亚洲精品一二三| 欧美激情在线99| 亚洲第一区二区三区不卡| 国产成人aa在线观看| 久久国产乱子免费精品| 亚洲精品一区蜜桃| xxx大片免费视频| 国产午夜精品一二区理论片| 午夜亚洲福利在线播放| 一个人看的www免费观看视频| 国内精品宾馆在线|