• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于雙路徑投影層和注意力機制的知識蒸餾

    2025-02-28 00:00:00周勤范永勝桑彬彬何攀
    計算機應用研究 2025年2期

    摘 要:現(xiàn)有的知識蒸餾技術(shù)主要集中于知識表示、目標損失函數(shù)和蒸餾位置的選擇,而忽視了特征對齊和融合的重要性,從而限制了學生模型的學習能力。為此,提出了一種基于雙路徑投影層和注意力機制的知識蒸餾方法。該方法首先在空間維度上對齊學生和教師模型的特征,通過雙路徑投影層在通道維度上對齊師生特征。同時,添加一個集成注意力機制的適配器模塊,以確保多尺度特征的均衡融合。采用輕量并行化注意力機制進行深層次的特征融合,并利用教師模型的判別分類器進行推理。在CIFAR-100和Tiny-ImageNet數(shù)據(jù)集上進行實驗驗證,結(jié)果顯示相比于基線學生模型,WRN-40-1模型在CIFAR-100數(shù)據(jù)集上的top-1準確率提高了5.85百分點,ResNet-10模型在Tiny-ImageNet數(shù)據(jù)集上的top-1準確率提高了8.09百分點。實驗結(jié)果表明,該方法能夠有效提升學生模型的學習能力,證明了特征對齊和融合在知識蒸餾中的重要作用。

    關(guān)鍵詞: 知識蒸餾; 模型壓縮; 圖像分類; 注意力機制; 特征融合

    中圖分類號: TP301.6 文獻標志碼: A 文章編號: 1001-3695(2025)02-012-0413-06

    doi: 10.19734/j.issn.1001-3695.2024.07.0229

    Knowledge distillation based on dual-path projection layer and attention mechanism

    Zhou Qin, Fan Yongsheng, Sang Binbin, He Pan

    (College of Computer amp; Information Science, Chongqing Normal University, Chongqing 401331, China)

    Abstract:Existing knowledge distillation techniques have mainly focused on knowledge representation, target loss function, and the selection of distillation positions, often overlooking the importance of feature alignment and fusion. This limitation reduces the learning capacity of the student model. To address this issue, this paper proposed a knowledge distillation method based on dual-path projection layers and an attention mechanism. The method aligned features of the student and teacher mo-dels in the spatial dimension and further aligned features in the channel dimension through dual-path projection layers. An adapter module with an integrated attention mechanism ensured balanced fusion of multi-scale features. A lightweight parallel attention mechanism performed deep feature fusion, and the teacher model’s discriminative classifier supported inference. Experimental results on CIFAR-100 and Tiny-ImageNet datasets show that the top-1 accuracy of the WRN-40-1 model on CIFAR-100 increases by 5.85 percentage point, and the ResNet-10 model on Tiny-ImageNet improves by 8.09 percentage point compared to the baseline student model. These results demonstrate that the method effectively enhances the student model’s lear-ning ability and highlight the critical role of feature alignment and fusion in knowledge distillation.

    Key words:knowledge distillation; model compression; image classification; attention mechanism; feature fusion

    0 引言

    卷積神經(jīng)網(wǎng)絡(CNN)在圖像處理領(lǐng)域表現(xiàn)出色,廣泛應用于圖像分類[1、目標檢測2和語義分割3。隨著網(wǎng)絡性能的提升,模型規(guī)模也隨之擴大,導致計算和存儲需求激增,從而限制了CNN在邊緣設備上的應用。為了解決這一問題,知識蒸餾(knowledge distillation, KD)技術(shù)應運而生。知識蒸餾是一種通過將大型教師模型的知識轉(zhuǎn)移到小型學生模型中,以減少計算和存儲需求,從而提高運行效率的模型壓縮技術(shù)。Hinton等人[4 于2015年首次提出了這一技術(shù),旨在通過學生模型模仿教師模型的輸出軟標簽來傳遞知識。目前的蒸餾方法主要分為基于響應、基于關(guān)系和基于特征的蒸餾[5。

    基于響應的知識蒸餾主要關(guān)注輸出層的對齊,未能充分利用教師模型的中間特征信息[6, 7?;谔卣鞯恼麴s方法通過模仿教師模型中間層或最后一層的輸出,直接促進學生模型性能的提升8~10。該部分研究提出了多種優(yōu)化中間層知識提取的方法。盡管這些方法能提升學生模型的性能,但涉及復雜的參數(shù)調(diào)整,并增加了知識的復雜性11。在近期的研究中,SimKD[12通過復用預訓練的教師模型中的分類器來實現(xiàn)學生模型的推理,并使用L2損失函數(shù)訓練學生編碼器,以實現(xiàn)特征對齊。由于教師模型和學生模型的特征維度通常不同,為此,開發(fā)了一個額外的投影層,以輔助學生編碼器與教師分類器的匹配,從而適應不同的教師和學生架構(gòu)。Chen 等人[13提出了一種基于投影層集成的改進特征蒸餾方法,以進一步提升學生模型的特征學習能力和泛化性能。該方法旨在解決學生模型容易過擬合教師模型特征的問題,即使在學生和教師模型的特征維度相同時,添加投影層仍然能顯著提高蒸餾效果。

    雖然基于特征的蒸餾方法已經(jīng)在許多任務中取得了不錯的效果,但它們?nèi)匀淮嬖谝恍﹩栴}:

    a)特征對齊不足。單一投影層在處理多樣化特征時顯得不足,無法充分捕捉不同層次和類型的特征?,F(xiàn)有方法在對齊教師和學生模型的特征時,往往只關(guān)注某一層或某幾層特征,忽視了特征空間的多樣性和層次性。這種不充分的特征對齊可能導致知識傳遞不完全,影響學生模型的性能。

    b)高計算成本。復雜的投影層設計和優(yōu)化過程需要大量的計算資源和時間,增加了模型訓練的難度。現(xiàn)有方法中的多層投影或復雜的蒸餾過程,雖然能提高學生模型的性能,但也使計算開銷和訓練時間顯著增加,限制了其在實際應用中的可行性。

    c)缺乏特征重要性區(qū)分。大多數(shù)知識蒸餾算法都是學生直接學習教師模型傳遞來的知識,這些知識并沒有重要性的區(qū)分,使得學生訓練的效果不能足夠接近預期。不同特征在任務中的重要性不同,忽視這一點可能會導致學生模型學習到大量無關(guān)或次要的特征,影響模型的有效性。因此,本文更加關(guān)注于投影層的結(jié)構(gòu)設計和投影轉(zhuǎn)換后的特征匹配與融合過程,以提升知識蒸餾性能。

    針對上述問題,本文提出了一種基于雙路徑投影層和注意力機制的知識蒸餾方法(dual-path projection layer and attention-based knowledge distillation, DPA-KD)。該方法通過雙路徑投影層策略,增強了特征對齊的效果。與此同時,優(yōu)化了投影層的結(jié)構(gòu),采用輕量級設計,減少了不必要的計算負擔,提高了訓練效率。為了進一步提升特征對齊效果,本文引入了輕量化并行注意力機制,通過計算各特征的注意力權(quán)重,實現(xiàn)對不同特征的加權(quán)融合,從而提高了模型的性能和泛化能力。

    本文的主要貢獻如下:

    a)雙路徑投影層策略:設計了兩個不同功能的投影層,第一個投影層專注于基礎(chǔ)的特征對齊和維度匹配,而第二個投影層通過深度可分離卷積進一步細化和增強特征的表達。這種設計融合了多層次的特征,使模型能夠捕捉到更多的細節(jié)和上下文信息。

    b)適配器(adapter)模塊的設計:設計了一個適配器,用于整合來自不同投影層的特征,并通過集成輕量級注意力機制優(yōu)化特征匹配過程。該機制能夠聚焦關(guān)鍵特征,從而提升學生模型的學習效率和整體性能。

    c)輕量并行化注意力機制(lightweight parallel attention, LPA):本文提出將輕量局部全局注意力機制并行化,通過同時考慮局部和全局特征來增強學生模型的特征表達能力。這種新穎的并行結(jié)構(gòu)不僅提升了信息處理的效率,還增強了模型對于復雜場景的適應性。

    1 相關(guān)工作

    普通知識蒸餾方法中使用的損失函數(shù)由兩部分組成[1。第一部分是傳統(tǒng)的交叉熵損失CE,用于學習學生模型的預測能力,其中交叉熵損失衡量學生模型輸出與真實標簽之間的差異,溫度T為1;另一部分是具有Kullback-Leibler散度的ps 和教師模型輸出pt 之間預測對的對齊損失KL。與交叉熵損失相比,引入的預測對齊損失提供了有關(guān)錯誤類別的額外信息,以促進學生訓練。由于 softmax 變換后分配給錯誤類別的概率通常較小,所以需要通過提高溫度 T 來生成更加平滑的分布,從而傳遞更多信息。在這種情況下,溫度 T 通常大于 1。投影層的核心目的是通過特征轉(zhuǎn)換和對齊來優(yōu)化知識轉(zhuǎn)移過程。投影層技術(shù)通過使用簡單的1×1卷積核或線性投影,對學生模型的特征進行轉(zhuǎn)換,使其與教師模型的特征在通道維度上進行匹配[14, 15。文獻[13]提出了一種投影層集成的特征蒸餾方法,通過使用多個投影層來增強學生模型的特征學習能力。適配器的核心目的是在不改變學生網(wǎng)絡架構(gòu)的前提下,通過最小化結(jié)構(gòu)上的改動,實現(xiàn)對教師網(wǎng)絡特征的有效適配[16, 17。這種適配不僅涉及空間維度的調(diào)整,也包括特征通道數(shù)的匹配,確保學生網(wǎng)絡能夠接收和處理與教師網(wǎng)絡相一致的特征表示。研究表明,在特征蒸餾中,注意力機制在知識蒸餾中的應用主要是用來加強特征的重要性學習和融合18。通過對特征進行加權(quán),注意力機制幫助學生模型集中于教師模型中最關(guān)鍵的特征。這不僅提升了特征蒸餾的效果,還增強了模型對復雜數(shù)據(jù)模式的適應能力。近期的研究表明,引入注意力機制可以優(yōu)化蒸餾過程中的特征提取和整合,從而提升學生模型的整體性能19。

    2 方法

    本文提出的方法如圖1所示,包含三個部分:a)通過兩條獨立的投影轉(zhuǎn)換路徑,從不同角度深度對齊學生模型與教師模型的特征;b)使用集成注意力機制的適配器模塊(adapter)對投影轉(zhuǎn)換后的特征進行匹配;c)采用輕量并行化注意力機制(lightweight parallel attention,LPA)實現(xiàn)特征融合。最終,使用教師模型的分類器對學生模型進行推理,損失函數(shù)如式(2)所示。

    其中: ft表示教師的中間特征; fs為學生的中間特征;Proj(·)表示投影函數(shù);n為投影層的個數(shù);adapter(·)表示特征匹配函數(shù);LPA(·)表示特征融合函數(shù)。

    2.1 雙路徑投影層策略

    為了增強教師模型與學生模型之間的特征對齊,本文設計了雙路徑投影層策略,分別采用兩種不同的投影層結(jié)構(gòu)以提取多樣化特征。通過這兩條并行路徑,能夠調(diào)整和優(yōu)化學生模型的特征表示,并在不顯著增加計算量的前提下提高模型的特征提取能力,從而更好地模擬教師模型的特征。在SimKD[12方法的基礎(chǔ)上,保留了原投影層(左側(cè)分支a)的同時,增加了一個額外的投影層。新增的投影層可以更好地解決單一投影層無法完全對齊特征的問題。此外,額外的投影層(右側(cè)分支b)使得模型能夠捕捉更多的細節(jié)和上下文信息,進一步促進教師模型與學生模型之間特征的精確對齊。兩個分支投影層的結(jié)構(gòu)如圖2所示。

    2.1.1 第一個投影層

    如圖2(a)所示,其主要目的是通過一系列卷積和非線性激活操作,實現(xiàn)特征的初步轉(zhuǎn)換與維度匹配。首先,采用1×1卷積核進行卷積操作,減少特征圖的通道數(shù),從而簡化模型結(jié)構(gòu)并降低計算成本。具體而言,此操作將輸入通道數(shù)從學生模型的通道數(shù)減少至教師模型通道數(shù)的一半,以便更深入地提取特征。每次卷積后,緊隨其后的是一層批量歸一化(batch normalization, BN),以規(guī)范化特征圖,加速訓練過程并提升模型的穩(wěn)定性。此外,引入ReLU激活函數(shù)以增加非線性,從而使模型能夠捕捉更復雜的特征。隨后,采用3×3卷積核進行深度卷積,以增強局部特征的表達能力。最后,再次使用1×1卷積核將通道數(shù)擴展至教師模型的完整通道數(shù),以整合前述步驟中獲得的豐富特征。

    2.1.2 第二個投影層

    如圖2(b)所示,重新設計的投影層采用深度可分離卷積和特征拼接的方式。該投影層的核心由多層深度可分離卷積構(gòu)成,每層均配備批量歸一化和ReLU激活函數(shù)。這種設計不僅增強了模型的非線性處理能力,而且提高了訓練的穩(wěn)定性。深度特征融合層采用了更為復雜的瓶頸結(jié)構(gòu),主要由連續(xù)三個深度可分離卷積操作組成。這種結(jié)構(gòu)顯著減少了參數(shù)量,同時有效地捕捉關(guān)鍵輸入特征,并逐步調(diào)整特征圖的通道數(shù)。此層首先將通道數(shù)從學生模型降低至教師模型的一半,然后在中間處理階段恢復至全通道數(shù),以便進行更細致的特征處理。最終,模塊中所有深度卷積層的輸出特征圖通過連接操作融合,增強了特征的表達能力并增加了多樣性。通過1×1卷積層的整合,進一步調(diào)整通道數(shù)以匹配后續(xù)層的需求,并優(yōu)化特征細節(jié)。這種設計策略不僅提高了模型的效率和參數(shù)優(yōu)化效果,而且通過深度與寬度的有效結(jié)合,提升了模型的特征提取能力及整體性能。在處理需要高效特征提取的復雜任務中,該結(jié)構(gòu)展現(xiàn)出了卓越的性能表現(xiàn)。在處理雙路徑投影層輸出的特征時,首先需要對齊學生特征圖 Xs和教師特征圖Xt 的空間維度,尺寸分別為Hs×Ws 和Ht×Wt。如果學生特征圖的尺寸小于教師特征圖,則通過最近鄰插值法對學生特征圖進行上采樣(upsample),以使其空間維度與教師特征圖一致。這一步確保了后續(xù)處理中特征圖尺寸的統(tǒng)一,避免了尺寸不匹配的問題。上述語句可以用下面的公式表示:

    X=upsample(Xs,Xt(Ht,Wt))(3)

    其中:X是上采樣后的學生特征圖,其尺寸與教師特征圖 Xt相匹配。接著,調(diào)整學生模型的特征圖,使其在通道數(shù)上與教師模型的特征圖相匹配。通過兩條路徑的投影層的連續(xù)操作,逐步調(diào)整特征圖的通道數(shù),以便與教師模型相應層的通道數(shù)一致。

    Xi=Proji(X)i=1,2(4)

    其中:Xi為通過兩個投影層處理后的學生特征圖。通過這兩個不同的投影層設計提高了模型的特征提取和表示能力。

    2.2 適配器模塊

    適配器模塊通過整合全局信息提取模塊、注意力機制、殘差連接和縮放因子,增強了特征的表示能力。全局信息提取模塊捕捉了輸入特征的全局背景,而注意力機制則突出輸入特征圖中的關(guān)鍵區(qū)域。殘差連接保留了原始特征信息,確保在增強過程中不會丟失重要細節(jié)??s放因子提供了對增強特征的靈活調(diào)節(jié)能力,使得模型能夠更有效地利用教師模型的知識。

    全局信息提取模塊處理過程是:a)使用自適應平均池化層(Avgpool)捕獲全局空間信息,匯總整個特征圖的統(tǒng)計數(shù)據(jù);b)通過平展操作(flatten)將特征圖轉(zhuǎn)換為一維向量,為全連接層做好準備;c)通過全連接層(FC)對池化后的特征進行變換,在該層中首先將其映射至一個低維的隱藏空間,隨后擴展至所需的輸出維度,這樣可以重建適用于后續(xù)處理的特征表達。另外,本文引入了SimAM[20注意力機制,提高模型對輸入特征的敏感度和特征質(zhì)量。該機制自動調(diào)整特征圖中的注意力權(quán)重,突出重要部分,抑制不重要的信息。而殘差連接通過一個1×1卷積層實現(xiàn),直接將輸入特征調(diào)整至目標輸出維度。這一設計不僅幫助保留了輸入特征的原始信息,還有助于緩解訓練過程中可能出現(xiàn)的梯度消失問題,確保了訓練過程中信息流的穩(wěn)定性,加速了模型收斂。此外,引入的縮放因子(scale_factor)作為一個調(diào)節(jié)參數(shù),允許模型在不同層面上微調(diào)整合后特征的影響力,以達到最優(yōu)的學習效果??偠灾@可以表述如下:

    其中:Fgi表示全局特征;Fatti表示注意力加權(quán)后的特征;Fri表示殘差特征;將全局特征、注意力加權(quán)特征和殘差特征逐元素相加,得到組合特征 Fci;F為經(jīng)過適配器模塊處理后的最終特征。

    2.3 輕量并行化注意力機制

    LPA主要由多分支特征提取策略、特征融合和注意力模塊(圖3 attention)以及特征增強模塊(圖3 FE)組成。

    2.3.1 多分支特征提取策略

    多分支特征提取策略結(jié)構(gòu)如圖3所示。該策略采用輕量級并行處理,主要是為了減少計算資源消耗和提升處理速度,從而使模型能夠在資源受限的設備上高效運行。輕量化設計減小了模型參數(shù)量,雖然在某些復雜特征處理上可能會導致特征表達能力和精度的輕微下降,但實驗表明,這種設計在計算成本和模型性能之間實現(xiàn)了良好的平衡。不采用輕量化處理的模型雖然能略微提高精度,但計算資源需求顯著增加,難以在實際應用中推廣。因此,輕量級并行處理是提高訓練效率和模型適用性的有效方法。這種方法的多分支結(jié)構(gòu)有利于多尺度特征的捕獲,進而增強對圖像分類的準確性。在LPA模塊中,通過精心設計的局部分支(local branch)、全局分支(global branch),以及串行卷積分支,共同作用于輸入特征張量,實現(xiàn)了特征綜合和增強。給定輸入特征張量F,大小為H×W×C。然后,通過這三個分支,可以分別計算出Flocal、Fglobal 和 Fconv。最后,將這三個結(jié)果相加,得到 F′,大小為H×W×C。

    具體來說,局部分支和全局分支的區(qū)分是通過控制補丁大小參數(shù)p來實現(xiàn)的,而補丁大小參數(shù)p則是通過非重疊補丁在空間維度上的聚合和位移來實現(xiàn)的。當補丁大小 p等于2時,該模塊專注于局部分支的特征提取。首先,輸入特征圖的維度從C×H×W轉(zhuǎn)換為H×W×C,然后將輸入特征圖分割成大小為2×2的局部補丁,結(jié)果形狀為 H/2×W/2×2×2×C。接著,將這些局部補丁重新轉(zhuǎn)換為H/2×W/2×4×C,并沿著通道維度計算每個補丁的平均值,得到形狀為 HW/4×4的補丁特征。然后,通過全連接層將每個局部補丁映射到輸出維度,并使用LayerNorm層進行歸一化處理。接下來,使用softmax函數(shù)計算注意力權(quán)重,并將其應用于局部補丁特征,以獲得加權(quán)后的局部特征。隨后,將加權(quán)后的局部特征恢復為H/2×W/2×C的形狀,并通過維度轉(zhuǎn)換變?yōu)?C×H/2×W/2。之后,使用最近鄰插值方法將局部特征插值到原始大小H×W。最后,通過卷積層對插值后的特征進行處理,得到最終的輸出特征圖。

    該過程通過局部補丁的注意力機制,有效提取了細粒度的局部特征,從而增強了模型捕捉局部細節(jié)的能力。當補丁大小 p等于4時,該模塊專注于全局分支的特征提取,操作與局部分支類似,最終產(chǎn)生 Flocal和 Fglobal特征。最后,串行卷積分支由三個3×3卷積層組成的序列卷積組成。這將產(chǎn)生三個不同的輸出結(jié)果:Fconv1、Fconv2、Fconv3,然后將它們相加得到序列卷積輸出Fconv。

    2.3.2 特征融合和注意力模塊

    在完成多分支特征提取后,使用注意力機制(attention)對特征進行自適應增強。如圖4所示,注意力模塊由一系列高效通道注意力ECA[21和注意力SimAM組成。在這一模塊中,特征依次通過一維通道注意力圖 Mc和三維注意力圖 Ms進行處理,其過程可總結(jié)如下:

    2.3.3 特征增強模塊

    經(jīng)過注意力融合處理后的特征F″,進一步進行特征增強。FE模塊優(yōu)先考慮本地響應模式識別出的感興趣區(qū)域來優(yōu)化特征圖,增強最終預測任務所使用的特征圖。計算學生特征和教師特征之間的匹配程度,以指導模型在知識蒸餾過程中更好地學習教師模型的知識。根據(jù)匹配分數(shù)加權(quán)調(diào)整學生特征圖,合并加權(quán)后的特征圖與原始特征圖。匹配分數(shù)可以用來加權(quán)學生特征,使得學生網(wǎng)絡更加關(guān)注與教師網(wǎng)絡相似的部分,從而提高模型的泛化能力和性能。這一過程表示如下:

    Score=FE(F″,Xt),F(xiàn)s=Score⊙F″+F″(7)

    其中:FE(·)表示特征增強函數(shù);Score表示學生特征圖與教師特征圖之間的匹配分數(shù);⊙表示元素相乘; Fs表示最終增強后的學生特征。

    2.4 算法實現(xiàn)

    DPA-KD算法的偽代碼如算法1所示,輸入為數(shù)據(jù)集和epoch,輸出為模型損失和準確率。首先初始化預訓練的教師模型權(quán)重和用于記錄準確率和損失的參數(shù),對應于步驟a)和b);根據(jù)輸入,得到教師模型和學生模型的中間特征圖,對應于步驟e);然后計算中間特征圖的尺寸,對應于步驟f);根據(jù)式(3)進行空間對齊,對應于步驟g);接著,根據(jù)式(4)進行通道對齊,對應于步驟h);根據(jù)式(5)對投影特征進行特征匹配,對應于步驟i);然后,根據(jù)式(6)(7)對特征匹配后的特征進行融合與增強,對應于步驟j);最后使用教師分類器進行分類預測,對應于步驟k)。

    算法1 DPA-KD算法

    輸入:輸入數(shù)據(jù)集;epoch。

    輸出:模型損失Loss;模型準確率Acc。

    a) 初始化預訓練的教師模型權(quán)重

    b) 初始化用于記錄準確率和損失的參數(shù)

    c) for epoch=1 → epoch =240 do

    d) for each batchsize, (inputs, targets) from trainloader do

    e)

    根據(jù)輸入inputs,得到教師模型和學生模型的中間特征圖

    f)

    計算教師模型中間特征圖和學生模型中間特征圖的尺寸

    g)

    根據(jù)式(3)進行空間對齊

    h)

    根據(jù)式(4)進行通道對齊

    i)

    根據(jù)式(5)對投影特征進行特征匹配

    j)

    根據(jù)式(6)(7)對特征匹配后的特征進行融合與增強

    k)

    使用教師分類器進行分類預測

    l) end for

    m) 在測試集上驗證模型性能,記錄ACC和Loss

    n) end for

    o) 返回最終的損失和ACC

    3 實驗

    本章首先介紹實驗中使用的數(shù)據(jù)集和實驗設置。隨后報告與所提出的方法相關(guān)的實驗數(shù)據(jù),比較基準方法和KD方法?;鶞史椒ò‵itNet[8、AT[22、SP[23、VID[11、CRD[14、SRRL[24、SemCKD[25、SimKD[12、CAT-KD [26、ATSC[27、CTKF[28。

    3.1 數(shù)據(jù)集和實驗設置

    a)數(shù)據(jù)集選擇。CIFAR-100[29數(shù)據(jù)集共有60 k張尺寸為 32×32 的彩色圖像,分為100個類別,包括50 k訓練樣本和10 k測試樣本。Tiny-ImageNet[30數(shù)據(jù)集包含100 k張訓練圖像和10 k張驗證圖像,共200個類別,圖像大小為64×64。

    b)基線模型選擇。實驗中應用了五種神經(jīng)網(wǎng)絡,包括:一種經(jīng)典的深度殘差網(wǎng)絡ResNet[31 ;WideResNet[32比ResNet更寬但更淺;VGG[33是一種經(jīng)典的線性結(jié)構(gòu)網(wǎng)絡;MobileNet[34使用深度可分離卷積代替普通卷積,使模型更加輕量級;ShuffleNet[35, 36使用逐點分組卷積和通道重排來減小模型大小。

    c)超參數(shù)設置。所使用的數(shù)據(jù)預處理方法基于SimKD處理方法。對于CIFAR-100數(shù)據(jù)集的訓練集,首先在圖像周圍填充4個像素,然后將圖像隨機切割為32×32像素,以0.5的概率進行隨機水平翻轉(zhuǎn),最后用每個通道的均值和標準差對圖像進行歸一化。但對于測試數(shù)據(jù)集,歸一化僅適用于處理數(shù)據(jù)。對于Tiny-ImageNet數(shù)據(jù)集,數(shù)據(jù)增強方式與CIFAR-100數(shù)據(jù)集類似。

    為了驗證DPA-KD的有效性,所有訓練都遵循SimKD的訓練參數(shù)設置。采用隨機梯度下降(SGD)算法進行網(wǎng)絡優(yōu)化,其中SGD動量設置為0.9,權(quán)重衰減為5E-4。MobileNet和ShuffleNet系列架構(gòu)的學習率設置為0.01,其他架構(gòu)的初始學習率設置為 0.05,在第150、180和210個epoch以 0.1 的速率衰減??偣差A先確定了240個訓練epoch,訓練時的批量大小設置為64。計算軟目標的溫度(T)設置為4.0。所有實驗均在 GPU (RTX2080Ti) 設備上的 PyTorch 中實現(xiàn)。

    3.2 方法比較

    3.2.1 在CIFAR-100數(shù)據(jù)集實驗結(jié)果比較

    表1和2展示了基于 CIFAR-100 數(shù)據(jù)集上14個不同師生對的測試準確率,分別用粗體和下畫線表示最優(yōu)和次優(yōu)的結(jié)果。使用了十二種蒸餾方法對這些網(wǎng)絡組合進行實驗,并報告了其準確率。

    首先,將DPA-KD方法與一些經(jīng)典的和先進的蒸餾方法進行比較。在師生架構(gòu)相同的情況下,如在WRN-40-2與WRN-40-1師生對中,DPA-KD與KD方法相比,準確率提高了3.76百分點。即使與性能較好的 SimKD方法相比,DPA-KD準確率仍然提高了 2.66百分點。與最新的CAT-KD方法相比,DPA-KD準確率仍然提高了 0.95百分點。在師生架構(gòu)不同的情況下,如在ResNet-32×4與WRN-16-2這個師生組合上,DPA-KD與KD方法相比,準確率提高了4.99百分點。即使與性能較好的 SimKD方法相比,DPA-KD仍然具有 3.39百分點的準確率提升。與最新的ATSC方法相比,準確率提高了2.55百分點。此外,在網(wǎng)絡對WRN-40-2與WRN-40-1、ResNet-32×4與ResNet-8×4、ResNet-110×2與ResNet-116、WRN-40-2與ResNet-8×4、ResNet-32×4與WRN-40-2、ResNet-32×4與ShuffleNet V2×1.5中,使用DPA-KD進行蒸餾后,學生模型的準確率超過了教師模型。

    從上述的實驗中還可以看出,DPA-KD在ResNet-32×4與ShuffleNet V2的師生組合下的蒸餾效果不佳,僅達到78.35%的準確率,比CAT-KD低0.06百分點,比ATSC低0.49百分點。然而,DPA-KD在絕大多數(shù)情況下優(yōu)于基準方法。

    3.2.2 在Tiny-ImageNet數(shù)據(jù)集實驗結(jié)果比較

    為了進一步驗證該方法的有效性,本文使用大型復雜數(shù)據(jù)集Tiny-ImageNet進行了實驗,并基于CTKF[28的工作基礎(chǔ),引入了4組具有代表性的師生對網(wǎng)絡對來評估方法的性能。九種不同蒸餾方法在Tiny-ImageNet數(shù)據(jù)集上的實驗結(jié)果如表3所示,分別用粗體和下畫線表示最優(yōu)和次優(yōu)的結(jié)果??梢钥闯?,部分蒸餾方法在Tiny-ImageNet數(shù)據(jù)集上的表現(xiàn)較差。相比之下,SimKD和DPA-KD在Tiny-ImageNet數(shù)據(jù)集上仍然表現(xiàn)良好。在VGG-19與VGG-8這個師生組合中, DPA-KD與KD方法相比,準確率提高了6.72百分點,即使與性能較好的 SimKD方法相比,DPA-KD方法準確率仍然提高了 2.63百分點。與最新的CTKF方法相比,準確率提高了4.7百分點。在ResNet-34與ResNet-10這個師生組合上,DPA-KD與KD方法相比,準確率提高了7.18百分點。即使與性能較好的 SimKD方法相比,DPA-KD方法仍然具有 2.26百分點的精度提升。與最新的CTKF方法相比,準確率提高了5.71百分點。

    然而,與SimKD單一的特征轉(zhuǎn)換不同,DPA-KD采用了雙投影層。這些層從多個視角細致地將學生網(wǎng)絡的特征映射到教師網(wǎng)絡的特征空間,并結(jié)合了注意力機制以增強關(guān)鍵信息的整合。正是這種結(jié)合多角度映射與注意力融合的策略,是DPA-KD獲得性能提升的原因之一。

    3.3 消融研究

    在本節(jié)中,為了驗證DPA-KD方法各個部分對整體有效性的影響,選擇了三個師生網(wǎng)絡組合在CIFAR-100數(shù)據(jù)集上進行訓練,并在其驗證集上進行評估。在表4中,采用了五種不同的組合進行驗證:a)不使用任何新增模塊,僅使用原來的單個投影層;b)僅使用雙路徑投影層;c)在雙路徑投影層的基礎(chǔ)上加入集成注意力機制的適配器模塊;d)在雙路徑投影層的基礎(chǔ)上加入輕量并行化注意力機制;e)使用本文提出的全部模塊組合。

    觀察實驗結(jié)果可知:a)采用雙路徑投影層策略的效果明顯高于僅采用單個投影層,即組b)精度高于組a);b)從表中組b)c)可知,在雙路徑投影層上使用適配器模塊是可行的,能更好地匹配教師特征;c)對比組b)d)發(fā)現(xiàn),注意力機制具有很大的提升效果;d)深入對比組c)~e),發(fā)現(xiàn)組c)d)的效果略微低于組e),對比其中不同的部分發(fā)現(xiàn),組e)是實驗中加入對重點部分即輕量并行化注意力機制融合的效果,使得算法達到最優(yōu)。

    4 結(jié)束語

    為了解決現(xiàn)有知識蒸餾技術(shù)在特征對齊和特征融合方面的不足,本文提出了基于雙路徑投影層和注意力機制的知識蒸餾。該方法通過雙路徑投影層在空間和通道維度上精確對齊學生模型與教師模型的特征,使用集成注意力機制的適配器模塊進行全局特征匹配,并引入輕量化的并行注意力機制實現(xiàn)深層次的特征融合。實驗結(jié)果在CIFAR-100和Tiny-ImageNet數(shù)據(jù)集上驗證了DPA-KD方法的有效性。與學生模型的基線性能相比,采用DPA-KD后,學生模型WRN-40-1和WRN-16-2在CIFAR-100數(shù)據(jù)集上的top-1準確率分別提升了5.85百分點和5.38百分點;而在Tiny-ImageNet數(shù)據(jù)集上,VGG-8和ResNet-10的top-1準確率分別提高了7.66百分點和8.09百分點。盡管增加投影層帶來了額外的計算開銷,但其性能提升證明了這一代價的合理性。未來研究可集中于優(yōu)化投影層的設計,探索更加簡化和高效的結(jié)構(gòu),或通過引入自適應機制,動態(tài)調(diào)整投影層的計算資源,以進一步降低計算成本。

    參考文獻:

    [1]Li Daxiang, Nan Yixuan, Liu Ying. Remote sensing image scene classification model based on dual knowledge distillation [J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 1-5.

    [2]Zhang Linfeng, Ma Kaisheng. Structured knowledge distillation for accurate and efficient object detection [J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2023, 45(12): 15706-15724.

    [3]Park S, Kim J, Heo Y S. Semantic segmentation using pixel-wise adaptive label smoothing via self-knowledge distillation for limited labeling data [J]. Sensors, 2022, 22(7): 2623.

    [4]Hinton G, Vinyals O, Dean J. Distilling the knowledge in a neural network [J]. Computer Science, 2015, 14(7): 38-39.

    [5]Yang Chuanguang, Yu Xinqiang, An Zhulin, et al. Categories of response-based, feature-based, and relation-based knowledge distillation [M]// Advancements in Knowledge Distillation: Towards New Horizons of Intelligent Systems. Cham: Springer International Publishing, 2023: 1-32.

    [6]Zhao Baohua, Cui Quan, Song Renjie, et al. Decoupled knowledge distillation [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2022: 11953-11962.

    [7]Mirzadeh S I, Farajtabar M, Li A, et al. Improved knowledge distillation via teacher assistant [C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 5191-5198.

    [8]Romero A, Ballas N, Kahou S E, et al. FitNets: hints for thin deep nets [EB/OL]. (2015-03-27). https://arxiv.org/abs/1412.6550.

    [9]Kim J, Park S U, Kwak N. Paraphrasing complex network: network compression via factor transfer [EB/OL]. (2020-07-22). https://arxiv.org/abs/1802.04977.

    [10]王禮樂, 劉淵. 基于空間注意力圖的知識蒸餾算法 [J]. 計算機應用研究, 2024, 41(6): 1693-1698. (Wang Liyue, Liu Yuan. Know-ledge distillation algorithm based on spatial attention map [J]. Application Research of Computers, 2024, 41(6): 1693-1698.)

    [11]Ahn S, Hu S X, Damianou A, et al. Variational information distillation for knowledge transfer [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2019: 9163-9171.

    [12]Chen Defang, Mei Jianping, Zhang Hailin, et al. Knowledge distillation with the reused teacher classifier [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2022: 11933-11942.

    [13]Chen Yudong, Wang Sen, Liu Jiajun, et al. Improved feature distillation via projector ensemble [J]. Advances in Neural Information Processing Systems, 2022, 35: 12084-12095.

    [14]Tian Yonglong, Krishnan D, Isola P. Contrastive representation distillation [EB/OL]. (2022-01-24). https://arxiv.org/abs/1910.10699.

    [15]Chen Pengguang, Liu Shu, Zhao Hengshuang, et al. Distilling knowledge via knowledge review [C]// Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2021: 5008-5017.

    [16]Rao Jun, Meng Xv, Ding Liang, et al. Parameter-efficient and student-friendly knowledge distillation [J]. IEEE Trans on Multimedia, 2024, 26: 4230-4241.

    [17]Srinivasan T, Jia Furong, Rostami M, et al. I2i: initializing adapters with improvised knowledge [C]// Proc of Conference on Lifelong Learning Agents. [S.l.]:PMLR, 2023: 923-935.

    [18]Wang Hongyuan, Cheng Shuli, Li Yongming, et al. Lightweight remote-sensing image super-resolution via attention-based multilevel feature fusion network [J]. IEEE Trans on Geoscience and Remote Sensing, 2023, 61: 1-15.

    [19]Li Linfeng, Su Weixing, Liu Fang, et al. Knowledge fusion distillation: improving distillation with multi-scale attention mechanisms [J]. Neural Processing Letters, 2023, 55(5): 6165-6180.

    [20]Yang Lei, Zhang Ruyuan, Li Lida, et al. SimAM: a simple, parameter-free attention module for convolutional neural networks [C]// Proc of International Conference on Machine Learning. [S.l.]:PMLR, 2021: 11863-11874.

    [21]Wang Qilong, Wu Banggu, Zhu Pengfei, et al. ECA-Net: efficient channel attention for deep convolutional neural networks [C]// Proc of IEEE/CVF conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2020: 11534-11542.

    [22]Zagoruyko S, Komodakis N. Paying more attention to attention: improving the performance of convolutional neural networks via attention transfer [EB/OL]. (2017-02-12). https://arxiv.org/abs/1612.03928.

    [23]Tung F, Mori G. Similarity-preserving knowledge distillation [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2019: 1365-1374.

    [24]Yang Jing, Martinez B, Bulat A, et al. Knowledge distillation via softmax regression representation learning [C] // Proc of International Conference on Learning Representations. 2021.

    [25]Chen Defang, Mei Jianping, Zhang Yuan, et al. Cross-layer distillation with semantic calibration [C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2021: 7028-7036.

    [26]Guo Ziyao, Yan Haonan, Li Hui, et al. Class attention transfer based knowledge distillation [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2023: 11868-11877.

    [27]Jang J, Kim Y I, Lim J, et al. Adaptive teaching with a shared classifier for knowledge distillation [EB/OL]. (2024-06-14). https://arxiv.org/abs/2406.08528.

    [28]Zhao Kaiqi, Chen Yitao, Zhao Ming. A contrastive knowledge transfer framework for model compression and transfer learning [C]// Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE Press, 2023: 1-5.

    [29]Krizhevsky A, Hinton G. Learning multiple layers of features from tiny images [EB/OL]. (2009).https://api.semanticscholar.org/CorpusID:18268744.

    [30]Deng Jia, Dong Wei, Socher R, et al. ImageNet: a large-scale hierarchical image database [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2009: 248-255.

    [31]He Kaiming, Zhang Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2016: 770-778.

    [32]Zagoruyko S, Komodakis N. Wide residual networks [EB/OL]. (2017-06-14). https://arxiv.org/abs/1605.07146.

    [33]Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition [EB/OL]. (2015-04-10). https://arxiv.org/abs/1409.1556.

    [34]Sandler M, Howard A, Zhu Menglong, et al. MobileNetv2: inverted residuals and linear bottlenecks [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2018: 4510-4520.

    [35]Zhang Xiangyu, Zhou Xinyu, Lin Mengxiao, et al. ShuffleNet: an extremely efficient convolutional neural network for mobile devices [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2018: 6848-6856.

    [36]Ma Ningning, Zhang Xiangyu, Zheng Hai-Tao, et al. ShuffleNet V2: practical guidelines for efficient CNN architecture design [C]// Proc of European Conference on Computer Vision. Berlin: Springer, 2018: 116-131.

    在线观看免费高清a一片| 国产在视频线精品| 亚洲成国产人片在线观看| 精品福利永久在线观看| 尾随美女入室| 精品国产一区二区三区四区第35| 啦啦啦啦在线视频资源| 亚洲国产毛片av蜜桃av| 又黄又粗又硬又大视频| 色哟哟·www| 在线观看免费日韩欧美大片| 香蕉丝袜av| 久久精品aⅴ一区二区三区四区 | 久久久久久久久久人人人人人人| av视频免费观看在线观看| 如何舔出高潮| 亚洲av综合色区一区| 欧美人与性动交α欧美软件 | 亚洲国产欧美日韩在线播放| 久久久久精品性色| 久久综合国产亚洲精品| 爱豆传媒免费全集在线观看| av播播在线观看一区| 99国产综合亚洲精品| 成年女人在线观看亚洲视频| 精品国产一区二区三区四区第35| 国产成人欧美| 国内精品宾馆在线| 久久精品久久精品一区二区三区| 日本猛色少妇xxxxx猛交久久| 亚洲av男天堂| 亚洲美女视频黄频| 中文天堂在线官网| 国产av码专区亚洲av| www.av在线官网国产| 宅男免费午夜| 夜夜爽夜夜爽视频| 新久久久久国产一级毛片| 亚洲国产欧美日韩在线播放| 亚洲五月色婷婷综合| 亚洲四区av| 9191精品国产免费久久| 精品第一国产精品| 两个人看的免费小视频| 国产av国产精品国产| 久久人人爽人人爽人人片va| 大香蕉久久成人网| 99精国产麻豆久久婷婷| 国产精品人妻久久久久久| 国产深夜福利视频在线观看| 99久国产av精品国产电影| av天堂久久9| 精品一区二区免费观看| 亚洲国产精品999| 韩国精品一区二区三区 | 欧美变态另类bdsm刘玥| 黄色 视频免费看| 青春草国产在线视频| 2021少妇久久久久久久久久久| 人人妻人人添人人爽欧美一区卜| 99久久中文字幕三级久久日本| 国产亚洲av片在线观看秒播厂| 夜夜骑夜夜射夜夜干| 校园人妻丝袜中文字幕| 成人18禁高潮啪啪吃奶动态图| 黑人猛操日本美女一级片| 五月伊人婷婷丁香| 色网站视频免费| 国产精品国产av在线观看| av线在线观看网站| 99久国产av精品国产电影| 十分钟在线观看高清视频www| 边亲边吃奶的免费视频| 亚洲图色成人| 午夜激情久久久久久久| a级毛片在线看网站| 日韩欧美一区视频在线观看| 狠狠精品人妻久久久久久综合| 欧美xxxx性猛交bbbb| 最后的刺客免费高清国语| 亚洲欧洲日产国产| 欧美人与性动交α欧美精品济南到 | 亚洲美女视频黄频| 亚洲成人av在线免费| 亚洲国产精品999| 国产成人欧美| 成年人午夜在线观看视频| 99九九在线精品视频| 亚洲,一卡二卡三卡| 国产精品国产三级国产av玫瑰| 成人手机av| 2018国产大陆天天弄谢| 日日撸夜夜添| 日韩中字成人| 国产 一区精品| 亚洲av国产av综合av卡| 亚洲精品美女久久av网站| 精品99又大又爽又粗少妇毛片| 欧美xxxx性猛交bbbb| 日韩欧美精品免费久久| 久久 成人 亚洲| 欧美精品av麻豆av| 久久人人爽人人爽人人片va| 亚洲av男天堂| 久久99蜜桃精品久久| 国产精品 国内视频| 日本-黄色视频高清免费观看| 黄色配什么色好看| 成人综合一区亚洲| 国产一区有黄有色的免费视频| 精品亚洲乱码少妇综合久久| 老司机亚洲免费影院| 免费av中文字幕在线| 高清av免费在线| 女人精品久久久久毛片| 五月伊人婷婷丁香| 街头女战士在线观看网站| 人体艺术视频欧美日本| 国产成人精品福利久久| 亚洲伊人色综图| 新久久久久国产一级毛片| 韩国精品一区二区三区 | 亚洲欧美色中文字幕在线| 国产成人欧美| 丝袜在线中文字幕| 水蜜桃什么品种好| 国语对白做爰xxxⅹ性视频网站| 人妻人人澡人人爽人人| 久久久久精品久久久久真实原创| 亚洲色图 男人天堂 中文字幕 | 中文字幕另类日韩欧美亚洲嫩草| 18+在线观看网站| 天天影视国产精品| 免费黄频网站在线观看国产| 免费黄网站久久成人精品| 啦啦啦啦在线视频资源| 激情视频va一区二区三区| 国产欧美日韩一区二区三区在线| 丁香六月天网| 亚洲人成网站在线观看播放| 99国产精品免费福利视频| 国产成人精品在线电影| 免费看光身美女| 精品人妻熟女毛片av久久网站| 青春草视频在线免费观看| 久久久国产欧美日韩av| 久久久a久久爽久久v久久| 丁香六月天网| av在线老鸭窝| 久久精品国产鲁丝片午夜精品| 欧美精品亚洲一区二区| xxxhd国产人妻xxx| 日韩三级伦理在线观看| 日韩三级伦理在线观看| 久久久久久伊人网av| 日本wwww免费看| 日韩中字成人| 婷婷色麻豆天堂久久| 亚洲精品乱码久久久久久按摩| 午夜福利网站1000一区二区三区| 90打野战视频偷拍视频| 久久鲁丝午夜福利片| 国产免费现黄频在线看| 久久女婷五月综合色啪小说| 久久这里有精品视频免费| 久久久久久人人人人人| av不卡在线播放| 人妻少妇偷人精品九色| 又黄又粗又硬又大视频| 久久国内精品自在自线图片| 亚洲精品日本国产第一区| av电影中文网址| 在线 av 中文字幕| 最近2019中文字幕mv第一页| 熟女人妻精品中文字幕| 丝袜脚勾引网站| 一级黄片播放器| 欧美 日韩 精品 国产| 久久久久久久大尺度免费视频| 中文字幕亚洲精品专区| 成年av动漫网址| 极品少妇高潮喷水抽搐| 国产亚洲最大av| 天天躁夜夜躁狠狠久久av| 久久久久久久久久久久大奶| 22中文网久久字幕| 久久久久久久久久久久大奶| 国产精品成人在线| 欧美bdsm另类| 黄片无遮挡物在线观看| 美女国产视频在线观看| 日韩三级伦理在线观看| 夫妻午夜视频| 亚洲国产精品一区三区| 9色porny在线观看| 视频中文字幕在线观看| 国产成人免费无遮挡视频| 高清不卡的av网站| 在线观看免费高清a一片| 日韩免费高清中文字幕av| www日本在线高清视频| 九色亚洲精品在线播放| 日韩 亚洲 欧美在线| 狂野欧美激情性bbbbbb| 性色av一级| 欧美亚洲日本最大视频资源| av线在线观看网站| 91成人精品电影| 亚洲精品久久成人aⅴ小说| 欧美97在线视频| 亚洲国产毛片av蜜桃av| 老熟女久久久| 久久毛片免费看一区二区三区| 国产伦理片在线播放av一区| 成年人免费黄色播放视频| 最近中文字幕2019免费版| freevideosex欧美| 成人国语在线视频| 亚洲内射少妇av| 国产综合精华液| 99九九在线精品视频| 高清欧美精品videossex| 少妇人妻精品综合一区二区| 女的被弄到高潮叫床怎么办| 丰满饥渴人妻一区二区三| 欧美成人午夜精品| 一个人免费看片子| 国产又色又爽无遮挡免| 亚洲av电影在线进入| 超色免费av| 2018国产大陆天天弄谢| 制服人妻中文乱码| 在线观看免费高清a一片| 国产精品一区www在线观看| 性色av一级| 中文字幕制服av| 乱码一卡2卡4卡精品| 丰满饥渴人妻一区二区三| 久久久久久人妻| 亚洲少妇的诱惑av| 亚洲少妇的诱惑av| 国产精品人妻久久久久久| 久久久久久久久久久免费av| 伦理电影大哥的女人| 免费观看在线日韩| 丝袜人妻中文字幕| 久久久久精品久久久久真实原创| 国产亚洲午夜精品一区二区久久| 国产精品三级大全| 91精品国产国语对白视频| 国产精品一区www在线观看| 婷婷成人精品国产| 精品99又大又爽又粗少妇毛片| 国产亚洲精品第一综合不卡 | 日韩电影二区| 久久久精品免费免费高清| av有码第一页| 国产熟女欧美一区二区| 国产精品国产三级专区第一集| 国产极品粉嫩免费观看在线| 欧美精品国产亚洲| 久久这里只有精品19| 精品一区在线观看国产| 色视频在线一区二区三区| av国产精品久久久久影院| 啦啦啦视频在线资源免费观看| 午夜91福利影院| 国产黄色视频一区二区在线观看| 999精品在线视频| 新久久久久国产一级毛片| 人妻一区二区av| 日本黄色日本黄色录像| 寂寞人妻少妇视频99o| 超色免费av| 国产黄频视频在线观看| 男女边摸边吃奶| 在线观看一区二区三区激情| 欧美人与性动交α欧美精品济南到 | 韩国精品一区二区三区 | 少妇的逼水好多| 大陆偷拍与自拍| 女人精品久久久久毛片| 在线观看免费高清a一片| 美国免费a级毛片| 国产亚洲av片在线观看秒播厂| 欧美激情 高清一区二区三区| 成人亚洲精品一区在线观看| 男女下面插进去视频免费观看 | 性色avwww在线观看| 亚洲欧美清纯卡通| 欧美xxxx性猛交bbbb| 97在线人人人人妻| 欧美成人午夜免费资源| 人妻 亚洲 视频| 看免费成人av毛片| 国产成人精品久久久久久| 亚洲av日韩在线播放| 丝袜人妻中文字幕| 多毛熟女@视频| 夜夜骑夜夜射夜夜干| 男人舔女人的私密视频| 日日啪夜夜爽| 日韩精品免费视频一区二区三区 | 亚洲欧美色中文字幕在线| 亚洲精华国产精华液的使用体验| 日韩熟女老妇一区二区性免费视频| 亚洲av电影在线进入| 国产精品 国内视频| 最近最新中文字幕免费大全7| 校园人妻丝袜中文字幕| 亚洲国产精品成人久久小说| 亚洲伊人色综图| 高清在线视频一区二区三区| 午夜视频国产福利| 国产免费福利视频在线观看| 日韩制服丝袜自拍偷拍| 久久毛片免费看一区二区三区| 熟女av电影| 制服丝袜香蕉在线| 日本av免费视频播放| 一级片'在线观看视频| 亚洲国产精品一区三区| 男男h啪啪无遮挡| 侵犯人妻中文字幕一二三四区| 狠狠精品人妻久久久久久综合| 亚洲精品久久成人aⅴ小说| 插逼视频在线观看| 亚洲美女视频黄频| 久久久精品94久久精品| 久久久久久久精品精品| av女优亚洲男人天堂| 中文字幕免费在线视频6| 国产成人欧美| 男人添女人高潮全过程视频| 亚洲精品一二三| 精品国产露脸久久av麻豆| 中国美白少妇内射xxxbb| 你懂的网址亚洲精品在线观看| 亚洲国产精品999| 国产精品一区二区在线观看99| 蜜臀久久99精品久久宅男| 国产精品秋霞免费鲁丝片| 欧美日韩精品成人综合77777| 日韩人妻精品一区2区三区| 纵有疾风起免费观看全集完整版| av在线观看视频网站免费| 亚洲av男天堂| 国产综合精华液| 水蜜桃什么品种好| 精品99又大又爽又粗少妇毛片| 免费黄网站久久成人精品| 亚洲第一av免费看| 欧美最新免费一区二区三区| 全区人妻精品视频| 视频区图区小说| 男女国产视频网站| 五月天丁香电影| 性色avwww在线观看| 晚上一个人看的免费电影| 18+在线观看网站| 一级毛片黄色毛片免费观看视频| av网站免费在线观看视频| 成人国语在线视频| 成人18禁高潮啪啪吃奶动态图| 欧美精品国产亚洲| 男男h啪啪无遮挡| 一边摸一边做爽爽视频免费| 男人添女人高潮全过程视频| 成年美女黄网站色视频大全免费| 91国产中文字幕| 亚洲精品国产色婷婷电影| 午夜老司机福利剧场| 国产精品久久久久成人av| 女的被弄到高潮叫床怎么办| 久久久久久久久久成人| 午夜免费观看性视频| 久久鲁丝午夜福利片| 日韩一本色道免费dvd| 22中文网久久字幕| 亚洲综合色网址| www日本在线高清视频| 欧美97在线视频| 制服丝袜香蕉在线| av有码第一页| 91aial.com中文字幕在线观看| 亚洲欧洲日产国产| 美女内射精品一级片tv| 一边摸一边做爽爽视频免费| 日韩精品免费视频一区二区三区 | 久久国产精品男人的天堂亚洲 | 日韩中字成人| 色吧在线观看| 人人澡人人妻人| 久久久久国产精品人妻一区二区| 国产一级毛片在线| 精品99又大又爽又粗少妇毛片| 久久亚洲国产成人精品v| 街头女战士在线观看网站| 大片电影免费在线观看免费| 狂野欧美激情性xxxx在线观看| 国产成人a∨麻豆精品| 成人二区视频| 免费看不卡的av| 男女免费视频国产| 九色成人免费人妻av| 欧美日韩av久久| 午夜免费观看性视频| 亚洲精品aⅴ在线观看| 成人国产av品久久久| 国产成人一区二区在线| 日本免费在线观看一区| 最新中文字幕久久久久| 国产成人免费无遮挡视频| 97人妻天天添夜夜摸| 麻豆精品久久久久久蜜桃| 一区二区日韩欧美中文字幕 | 国产xxxxx性猛交| 国产乱来视频区| 久久久精品免费免费高清| 亚洲,欧美,日韩| 这个男人来自地球电影免费观看 | 久久毛片免费看一区二区三区| 亚洲人成77777在线视频| 亚洲色图 男人天堂 中文字幕 | 久久 成人 亚洲| 午夜精品国产一区二区电影| 日韩成人伦理影院| 国产一区二区三区av在线| 最后的刺客免费高清国语| 国产欧美日韩一区二区三区在线| 免费在线观看完整版高清| 最新的欧美精品一区二区| 狂野欧美激情性xxxx在线观看| 久久99热6这里只有精品| 男女无遮挡免费网站观看| 久热这里只有精品99| 一区二区日韩欧美中文字幕 | 在线观看美女被高潮喷水网站| 久久99热6这里只有精品| 国产高清三级在线| 男女免费视频国产| 欧美精品国产亚洲| 狂野欧美激情性bbbbbb| 国产不卡av网站在线观看| 蜜臀久久99精品久久宅男| 免费大片18禁| 久久久久久人人人人人| 国产在线视频一区二区| 亚洲欧洲国产日韩| 亚洲综合色网址| 精品少妇内射三级| 亚洲av在线观看美女高潮| 成人综合一区亚洲| 亚洲国产精品一区二区三区在线| 国产激情久久老熟女| 国产乱来视频区| 蜜桃在线观看..| 亚洲精品久久久久久婷婷小说| 国产日韩一区二区三区精品不卡| 日日爽夜夜爽网站| 亚洲美女搞黄在线观看| 欧美日韩一区二区视频在线观看视频在线| 菩萨蛮人人尽说江南好唐韦庄| 人妻一区二区av| 日韩欧美一区视频在线观看| 在线天堂最新版资源| 男女边吃奶边做爰视频| 欧美日韩国产mv在线观看视频| 亚洲少妇的诱惑av| 美女脱内裤让男人舔精品视频| 免费不卡的大黄色大毛片视频在线观看| av女优亚洲男人天堂| 成人综合一区亚洲| 蜜臀久久99精品久久宅男| 久久人人爽av亚洲精品天堂| 久久人人97超碰香蕉20202| 九九在线视频观看精品| 一本色道久久久久久精品综合| 看免费av毛片| 亚洲,一卡二卡三卡| 免费黄网站久久成人精品| 全区人妻精品视频| 多毛熟女@视频| 亚洲精品456在线播放app| 亚洲国产日韩一区二区| 亚洲av男天堂| 国产免费视频播放在线视频| 狠狠精品人妻久久久久久综合| 在线天堂最新版资源| av福利片在线| 一二三四在线观看免费中文在 | 亚洲丝袜综合中文字幕| 丝袜人妻中文字幕| 观看美女的网站| 久久人人爽人人片av| 伦精品一区二区三区| 国产成人免费观看mmmm| 人妻少妇偷人精品九色| 人妻一区二区av| 国产麻豆69| 王馨瑶露胸无遮挡在线观看| 欧美97在线视频| 欧美精品一区二区免费开放| 国产成人av激情在线播放| 久久久久国产精品人妻一区二区| 国产在线视频一区二区| 国产熟女午夜一区二区三区| 王馨瑶露胸无遮挡在线观看| 免费少妇av软件| 免费看光身美女| 美女大奶头黄色视频| 久久精品久久精品一区二区三区| 久久人人97超碰香蕉20202| 男女下面插进去视频免费观看 | 热99国产精品久久久久久7| 日韩在线高清观看一区二区三区| 美女大奶头黄色视频| 欧美日韩亚洲高清精品| 宅男免费午夜| 成人国产av品久久久| av又黄又爽大尺度在线免费看| 成年动漫av网址| 日本午夜av视频| 麻豆乱淫一区二区| 交换朋友夫妻互换小说| 国产视频首页在线观看| 天天影视国产精品| 男人操女人黄网站| 丰满饥渴人妻一区二区三| 中文字幕另类日韩欧美亚洲嫩草| 国产成人av激情在线播放| 国产成人午夜福利电影在线观看| 亚洲av男天堂| 久久热在线av| 18禁国产床啪视频网站| 国产麻豆69| 久久精品久久久久久久性| 尾随美女入室| 日韩不卡一区二区三区视频在线| 下体分泌物呈黄色| 黄色配什么色好看| 日本猛色少妇xxxxx猛交久久| 黄色 视频免费看| 男女免费视频国产| 久久国产亚洲av麻豆专区| 精品人妻在线不人妻| 26uuu在线亚洲综合色| 在线亚洲精品国产二区图片欧美| 99视频精品全部免费 在线| 久久午夜综合久久蜜桃| 久久精品国产a三级三级三级| 久久99精品国语久久久| 精品卡一卡二卡四卡免费| 国产色爽女视频免费观看| 国产精品国产三级专区第一集| 最近中文字幕高清免费大全6| 亚洲伊人色综图| 在线观看免费日韩欧美大片| av卡一久久| av视频免费观看在线观看| 成人毛片a级毛片在线播放| 国产成人av激情在线播放| 中文字幕免费在线视频6| 免费观看av网站的网址| √禁漫天堂资源中文www| 18禁动态无遮挡网站| 久久久亚洲精品成人影院| 亚洲综合精品二区| 蜜桃在线观看..| 亚洲伊人久久精品综合| 99久国产av精品国产电影| 欧美日韩一区二区视频在线观看视频在线| 亚洲精品国产色婷婷电影| 高清在线视频一区二区三区| 日本与韩国留学比较| 亚洲欧美清纯卡通| 色5月婷婷丁香| 各种免费的搞黄视频| 久久久久久人妻| 精品国产乱码久久久久久小说| 国产片特级美女逼逼视频| 五月开心婷婷网| √禁漫天堂资源中文www| 男女午夜视频在线观看 | 在线观看三级黄色| 999精品在线视频| 天天操日日干夜夜撸| 亚洲精品国产av成人精品| 一级爰片在线观看| 国产熟女午夜一区二区三区| 蜜桃国产av成人99| 1024视频免费在线观看| 亚洲,一卡二卡三卡| 国产精品久久久av美女十八| 久久免费观看电影| 日本爱情动作片www.在线观看| 妹子高潮喷水视频| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 女人久久www免费人成看片| 国产一区二区在线观看av| 女的被弄到高潮叫床怎么办| 黄片无遮挡物在线观看| 99久久人妻综合| 婷婷色麻豆天堂久久| 大码成人一级视频| 高清不卡的av网站| 亚洲丝袜综合中文字幕| 精品国产一区二区久久| 免费黄色在线免费观看| 国产免费福利视频在线观看| 亚洲婷婷狠狠爱综合网| 宅男免费午夜| 综合色丁香网| 久久亚洲国产成人精品v| 又粗又硬又长又爽又黄的视频|