• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深度神經(jīng)網(wǎng)絡(luò)壓縮與加速綜述

    2022-02-14 12:42:06曾煥強胡浩麟林向偉侯軍輝蔡燦輝
    信號處理 2022年1期
    關(guān)鍵詞:剪枝濾波卷積

    曾煥強 胡浩麟 林向偉 侯軍輝 蔡燦輝

    (1.華僑大學(xué)工學(xué)院,福建泉州 362021;2.華僑大學(xué)信息科學(xué)與工程學(xué)院,福建廈門 361021;3.香港城市大學(xué)計算機科學(xué)系,中國香港 999077)

    1 引言

    近年來,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)受到了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注,被大量應(yīng)用于人工智能各個領(lǐng)域。然而,深度神經(jīng)網(wǎng)絡(luò)的成功很大程度上依賴于GPU(Graphic Processing Unit,GPU)計算能力的發(fā)展。大型深度神經(jīng)網(wǎng)絡(luò)存在結(jié)構(gòu)復(fù)雜、層級較多、節(jié)點數(shù)量巨大等特點,例如早期在ILSVRC 競賽中取得了重大突破的AlexNet是針對圖像分類任務(wù)而設(shè)計的卷積神經(jīng)網(wǎng)絡(luò),僅由5 個卷積層與3 個全連接層組成,所含參數(shù)量超過6 千萬,模型大小超過240 MB。此外,業(yè)界廣泛使用的模型VGG16 則擁有1.44 億個參數(shù),模型大小超過500 MB,ResNet-152 擁有0.57 億個參數(shù),模型大小達到230 MB。采用上述模型對一幅224×224的彩色圖像進行分類,分別需要進行150 億次和113 億次浮點型計算。另外,由于ResNet 系列模型具有復(fù)雜的分支結(jié)構(gòu),雖然其參數(shù)量相較于具有平坦結(jié)構(gòu)的VGG 模型更小,但在實際訓(xùn)練和推理中耗時更長。可見,主流深度學(xué)習(xí)模型的存儲和計算成本對于具有嚴(yán)格時延約束條件的實時應(yīng)用來說過于高昂。

    隨著移動端設(shè)備的普及和市場規(guī)模的擴大,工業(yè)界迫切需要將深度學(xué)習(xí)模型部署到資源有限的邊緣設(shè)備上。然而嵌入式設(shè)備和現(xiàn)場可編程門陣列(Field Programmable Gate Array,F(xiàn)PGA)所具有的內(nèi)存容量、計算資源與GPU 相差幾個數(shù)量級,面對龐大的神經(jīng)網(wǎng)絡(luò)模型顯得捉襟見肘,因此模型壓縮及加速的工作變得至關(guān)重要。目前,根據(jù)不同壓縮與加速方法的性質(zhì),深度神經(jīng)網(wǎng)絡(luò)的壓縮和加速方法可分為四類:參數(shù)量化、模型剪枝、輕量型卷積核設(shè)計和知識蒸餾。其中,基于參數(shù)量化的方法是降低權(quán)重參數(shù)的存儲位數(shù);基于參數(shù)剪枝的方法是通過去除權(quán)重參數(shù)中的非關(guān)鍵冗余部分來減少參數(shù)量;基于輕量型卷積核設(shè)計的方法從濾波結(jié)構(gòu)乃至卷積方式的層面進行改進設(shè)計,從而降低計算復(fù)雜度;基于知識蒸餾的方法利用知識遷移來訓(xùn)練一個緊湊的網(wǎng)絡(luò)模型且能復(fù)現(xiàn)大型網(wǎng)絡(luò)的性能。我們將在下面的章節(jié)中分別對它們的特性和優(yōu)缺點進行分析。具體地,我們將在后續(xù)章節(jié)中作進一步的介紹。本文剩余部分的安排如下:第2 節(jié)介紹模型壓縮的主流方法;第3 節(jié)介紹常用數(shù)據(jù)集與性能評價準(zhǔn)則;第4 節(jié)給出總結(jié)及未來研究方向的一些相關(guān)探討。

    2 模型壓縮方法

    本節(jié)將按照參數(shù)量化、模型剪枝、輕量型卷積核設(shè)計以及知識蒸餾的順序進行介紹。表1對四種主要壓縮方法進行了總結(jié)。

    表1 不同深度神經(jīng)網(wǎng)絡(luò)壓縮與加速方法總結(jié)Tab.1 Summarization of Various Methods for DNN Compression and Acceleration

    2.1 參數(shù)量化

    參數(shù)量化通過減少存儲權(quán)重參數(shù)及激活值所需的比特位數(shù)來壓縮原始網(wǎng)絡(luò)。通過該方法,網(wǎng)絡(luò)中權(quán)值和激活值都會被量化,并且浮點乘法累加操作(Multiply Accumulate)可以被低比特的乘法累加操作代替。因此,使用降低比特數(shù)的方法可以顯著減少內(nèi)存存儲占用和計算資源的耗費。Gong 等人[1]和Wu 等人[2]通過k-means 聚類實現(xiàn)參數(shù)共享,只需要存儲作為權(quán)重索引值的k個質(zhì)心而不是所有權(quán)重值,顯著減少了內(nèi)存開銷。

    Gupta 等人[3]在基于隨機舍入的CNN(Convolutional Neural Network)訓(xùn)練中采用了16 位定點數(shù)表示,顯著減少了模型的內(nèi)存占用和浮點運算,而分類精度幾乎沒有損失。進一步地,Han 等人[4]提出的方法利用權(quán)值共享對權(quán)值進行量化,然后對量化后的權(quán)值和索引表進行霍夫曼編碼,以縮減模型大小。如圖1所示,首先對原始網(wǎng)絡(luò)進行訓(xùn)練,學(xué)習(xí)神經(jīng)元間的連接(connection),將權(quán)重較小的連接剪除,然后對稀疏網(wǎng)絡(luò)進行重訓(xùn)練,學(xué)習(xí)得到緊湊的新網(wǎng)絡(luò)。Choi 等人[5]證明了利用Hessian 權(quán)重來衡量網(wǎng)絡(luò)權(quán)值重要性的可行性,并提出了一種聚類參數(shù),用于最小化Hessian 加權(quán)量化誤差。Vanhoucke等人[6]的研究表明,將權(quán)重值量化至8 位,能夠顯著提升推理速度,同時保證最小的精度損失。Jacob等人[7]提出一種量化框架,在訓(xùn)練時保留32 位全精度存儲方式,而在前向推理時對權(quán)重值與激活值進行8位量化,從而用整數(shù)運算替代浮點數(shù)運算,顯著降低了運算復(fù)雜度。目前8位量化已經(jīng)在工業(yè)界得到了廣泛應(yīng)用,除上述方法外,英偉達(Nvidia)公司推出了TensorRT-int8 量化工具,對于正負(fù)分布均勻的權(quán)重值與激活值采用最大值映射,將取值范圍按一定比例映射至(-127,127),對于分布不均勻的值采用飽和截斷映射,即在映射前截斷部分區(qū)間,得到在正負(fù)區(qū)間對稱的截斷信息后再進行量化映射。

    值得一提的是,二值神經(jīng)網(wǎng)絡(luò)是網(wǎng)絡(luò)量化的極端情況。一般情況下,網(wǎng)絡(luò)模型中各項參數(shù)都采取32位單精度浮點數(shù)進行存儲,而二值網(wǎng)絡(luò)中將參數(shù)及特征圖激活值都以+1,-1 形式存儲,每個值僅占用1 比特內(nèi)存,類似地,三值網(wǎng)絡(luò)[8]采用+1,0,-1 的組合來量化權(quán)重。早期對網(wǎng)絡(luò)二值化進行探索的幾項工作,如BinaryConnect[9],BinaryNet[10]和XNOR[11]等都是在模型訓(xùn)練過程中直接學(xué)習(xí)二值化權(quán)值或激活值。

    然而,由于大部分二值網(wǎng)絡(luò)設(shè)計在利用矩陣近似的思想時未能充分考慮二值化帶來的精度損失,并且網(wǎng)絡(luò)量化將參數(shù)離散化,加劇了訓(xùn)練的不穩(wěn)定性,在對諸如GoogleNet 等大型CNN 進行量化壓縮后,容易導(dǎo)致二值網(wǎng)絡(luò)在分類、檢測任務(wù)中的精度顯著降低。為解決這個問題,Hou 等人[12]的工作提出了一種近似牛頓算法(proximal Newton algorithm),該算法利用對角Hessian 近似將二值權(quán)重的損失最小化。Liu 等人[13]提出一種可求導(dǎo)的軟性量化(Differentiable Soft Quantization,DSQ),使網(wǎng)絡(luò)在反向傳播過程中獲得更精確的梯度,以彌補二值網(wǎng)絡(luò)前向傳播過程中的量化損失。Lin 等人[14]提出一種對權(quán)重進行隨機二值化處理的壓縮方法,隨機二值化不僅能夠減少浮點運算次數(shù),還具有一定的正則化效果,能夠抑制二值化造成的精度損失。Zhang 等人[15]認(rèn)為,由于DNN 的權(quán)重、激活值在各個卷積層的數(shù)值分布是不同的,因此對整個網(wǎng)絡(luò)采取統(tǒng)一標(biāo)準(zhǔn)的量化策略缺乏靈活性。他們提出一種可習(xí)得的量化器,即聯(lián)合訓(xùn)練模型與其量化器,在訓(xùn)練過程中逐層優(yōu)化量化策略,以提升壓縮后的模型精度。Cai 等人[16]提出一種基于半波高斯量化(half-wave Gaussian Quantization)的近似方法,在二值化權(quán)重的基礎(chǔ)上,將激活函數(shù)ReLU(Rectified Linear Unit)進行近似處理,以適應(yīng)二值化網(wǎng)絡(luò)的反向傳播計算,使學(xué)習(xí)過程更加穩(wěn)定,減小精度損失。Bethge 等人[17]提出一種二值化網(wǎng)絡(luò)結(jié)構(gòu)MeliusNet,該結(jié)構(gòu)采用雙塊設(shè)計,能夠連續(xù)地提升特征數(shù)量,此外該結(jié)構(gòu)對一些保持32 位存儲的卷積層進行重新設(shè)計,極大地減少了運算量。

    表2 列出了上述所提主流量化方法的性能對比,所有方法均在ResNet-18 模型上進行,數(shù)據(jù)集采用ImageNet。

    表2 ImageNet數(shù)據(jù)集上對ResNet18采用不同量化方法的性能對比Tab.2 Performance comparison of different quantization methods on ResNet18 based on ImageNet dataset

    2.2 模型剪枝

    模型剪枝是模型壓縮和加速中使用最為廣泛的研究方法。模型剪枝的基本思想是通過在預(yù)訓(xùn)練的DNN 模型中剪除冗余的、信息量少的權(quán)重,將網(wǎng)絡(luò)結(jié)構(gòu)稀疏化,從而降低內(nèi)存開銷,加速推理過程。剪枝方法包括非結(jié)構(gòu)化剪枝和結(jié)構(gòu)化剪枝。非結(jié)構(gòu)化剪枝是最細(xì)粒度的方法,其操作對象是濾波(filter)中的每個權(quán)重;而結(jié)構(gòu)化剪枝的操作對象是整個濾波,乃至整個卷積層這樣的結(jié)構(gòu)化信息。

    2.2.1 非結(jié)構(gòu)化剪枝

    早期的剪枝方法大都基于非結(jié)構(gòu)化剪枝,由于它裁剪的粒度為單個神經(jīng)元,因此在對卷積核進行非結(jié)構(gòu)化剪枝時,得到稀疏分布的卷積核,即存在較多元素為0的矩陣,因此可以有效減少內(nèi)存占用,加速推理。

    Hanson 等[19]提出了基于有偏權(quán)重衰減的剪枝方法,是對網(wǎng)絡(luò)稀疏化最早的探索。Hassibi 等人[20]根據(jù)損失函數(shù)的Hessian 矩陣減少了連接的數(shù)量,使網(wǎng)絡(luò)結(jié)構(gòu)高度稀疏化。Srinivas 和Babu[21]從神經(jīng)元之間存在冗余的角度出發(fā),提出了一種不依賴訓(xùn)練數(shù)據(jù)的剪枝框架,計算節(jié)點的冗余程度并進行刪除。Han等人[22]提出批量減少整個網(wǎng)絡(luò)中的參數(shù)量和運算量,該方法規(guī)定的三階段剪枝流程被廣泛沿用,即訓(xùn)練權(quán)重、模型剪枝、重訓(xùn)練。Chen等人[23]提出了HashedNets 模型,引入哈希函數(shù),根據(jù)參數(shù)間漢明距離將權(quán)重分組,實現(xiàn)參數(shù)共享。然而,受限于底層硬件和計算庫的支持,非結(jié)構(gòu)化剪枝通常會構(gòu)成非結(jié)構(gòu)化的稀疏矩陣,在計算過程中會造成內(nèi)存獲取的不規(guī)則性,影響硬件工作效率,降低計算速度。因此,近年來研究者們致力于探索基于結(jié)構(gòu)化剪枝的壓縮方法。

    2.2.2 結(jié)構(gòu)化剪枝

    目前,在基于結(jié)構(gòu)化剪枝的研究工作當(dāng)中已涌現(xiàn)出許多出色的研究成果,解決了無法對稀疏矩陣計算進行加速的問題。此類方法遵循濾波顯著性準(zhǔn)則(即判別濾波對于模型性能重要性的準(zhǔn)則),直接批量地剪除非顯著性濾波,達到壓縮目的。Wen等人[24]利用Group Lasso 對模型中不同粒度的結(jié)構(gòu),包括濾波、通道、濾波形狀、層深度(filters,channels,filter shapes,layer depth)進行正則化,并將此正則化項加入目標(biāo)函數(shù),進行結(jié)構(gòu)化稀疏訓(xùn)練。Zhou 等人[25]向目標(biāo)函數(shù)中加入稀疏性局限(sparse constraints),然后在訓(xùn)練階段通過稀疏限制減少神經(jīng)元數(shù)量。該方法針對其特殊的優(yōu)化過程還提出前后項分裂法,其作用是在標(biāo)準(zhǔn)的反向傳播過程中,可以繞過不易求導(dǎo)的稀疏限制項。通過計算濾波的范數(shù)值,直接判斷濾波的重要性的方法也相繼被提出[26],該方法首先計算所有濾波的L1 范數(shù),逐層刪除范數(shù)值低于閾值的濾波,同時移除該濾波在當(dāng)前層生成的特征圖(feature map)以及該特征圖在下一層中對應(yīng)的濾波通道,剪枝后再進行重訓(xùn)練,恢復(fù)模型的精度。

    Liu 等人[27]提出一種介于粗、細(xì)粒度之間的通道級別剪枝。如圖2 所示,該方法向存在于每個卷積層的批量標(biāo)準(zhǔn)化(Batch Normalization)中的縮放因子γ 添加稀疏正則限制,并將此正則項加入目標(biāo)函數(shù),與模型損失函數(shù)聯(lián)合訓(xùn)練,受正則化限制,部分縮放因子將衰減至接近0的區(qū)域。由于批量標(biāo)準(zhǔn)化中超參數(shù)γ 的大小能夠直接改變特征圖的分布,進而影響模型的表達能力,因此較小的縮放因子對應(yīng)著全局貢獻度較低的通道,對這些通道進行剪除,再通過微調(diào)(fine-tune)恢復(fù)模型精度,有效降低了網(wǎng)絡(luò)的復(fù)雜度。不同于前述方法,Luo 等人[28]越過當(dāng)前層濾波,著眼于下一層濾波通道的顯著性,建立了一個有效的通道選擇優(yōu)化函數(shù),實現(xiàn)對下一層卷積核中冗余通道及其對應(yīng)當(dāng)前層濾波的剪枝。

    2.2.3 自動化剪枝

    上述非結(jié)構(gòu)化、結(jié)構(gòu)化剪枝屬于人工設(shè)計的剪枝方案,設(shè)計過程中需要人為考慮模型大小、推理速度和精度之間的權(quán)衡,因此人工設(shè)計往往需要耗費較長時間,部分設(shè)計可能只得到次優(yōu)化的結(jié)果。近年來基于自主機器學(xué)習(xí)(AutoML)與神經(jīng)架構(gòu)搜索(Neural Architecture Search,NAS)的剪枝方案陸續(xù)被提出。He等人[29]基于強化學(xué)習(xí)的思想,對精度損失進行懲罰,同時鼓勵模型簡化和加速,實現(xiàn)自動化剪枝。Yu等人[30]提出一種單次不循環(huán)的方法,此法訓(xùn)練一個單一的可瘦身網(wǎng)絡(luò)來近似不同通道結(jié)構(gòu)網(wǎng)絡(luò)的精度,然后迭代地評估訓(xùn)練后的可瘦身網(wǎng)絡(luò),在最大限度保持精度的前提下對各層進行貪婪剪枝。2020 年,滴滴AI 實驗室提出一種新的自動化壓縮方法[31]。該方法是經(jīng)驗導(dǎo)向型的搜索方法,彌補了基于強化學(xué)習(xí)的搜索與剪枝問題不完全兼容的缺陷,通過自動搜索進程來確定剪枝策略組合、逐層剪枝比例以及其他超參數(shù)。

    表3列出了上述所提主流模型剪枝方法的性能對比結(jié)果,所有實驗統(tǒng)一在VGG-16 與ResNet-50 模型上進行,數(shù)據(jù)集采用ImageNet。

    表3 ImageNet數(shù)據(jù)集上典型剪枝方法的性能對比Tab.3 Performance comparison of typical pruning methods on ImageNet dataset

    2.3 輕量型卷積核設(shè)計

    輕量型卷積核設(shè)計從卷積濾波尺寸以及卷積方式的層面考慮,將深度神經(jīng)網(wǎng)絡(luò)中的標(biāo)準(zhǔn)卷積核用小尺寸卷積核直接替代,或采用非標(biāo)準(zhǔn)卷積方式,能夠有效加速模型推理速度,并獲得理想的分類識別精度。以下首先介紹三種最具代表性的輕量型卷積核設(shè)計方法。

    (1)SqueezeNet

    2016 年,Han 等提出了SqueezeNet[32]。在該模型中,常規(guī)的卷積結(jié)構(gòu)被Fire Module 所替換,整體結(jié)構(gòu)包含Squeeze 層和Expand 層。在Squeeze 層中用1×1的卷積核替換了常規(guī)的3×3卷積核,并將1×1和3×3的卷積核同時應(yīng)用于Expand層中。

    (2)MobileNet

    Google人工智能實驗室Howard等人提出了MobileNet 系列[33]。該模型棄用標(biāo)準(zhǔn)卷積,采用深度可分離卷積進行特征提取,根據(jù)理論計算,在采用3×3卷積核的情況下,卷積運算量能夠降低至標(biāo)準(zhǔn)卷積的1/8-1/9。如圖3 所示,深度可分離卷積的計算過程包含深度卷積和點卷積兩部分,將標(biāo)準(zhǔn)卷積中特征提取、特征融合并生成新特征的過程一分為二,在有效降低運算量的同時保持了卷積層的表達能力。MobileNet-V2[34]還引入了殘差網(wǎng)絡(luò)中的跳躍連接(skip connection),整體結(jié)構(gòu)采用堆疊倒置殘差塊(inverted residual block)的形式,既提升了網(wǎng)絡(luò)中梯度的傳播能力,也提高了存儲效率。MobileNet-V3[35]在MobileNet-V2 的基礎(chǔ)上,向殘差塊中引入Squeeze-and-Excitation 模塊,即先進行自適應(yīng)平均池化,再進行特征激勵,不同于傳統(tǒng)的SE 模塊[36]中采用固定的Sigmoid 函數(shù),MobileNet-V3 中根據(jù)層次所在深度對非線性激活函數(shù)進行微調(diào)。

    (3)ShuffleNet

    ShuffleNet 由Zhang 等人[37]在2017 年提出,將分組式卷積(Group Convolution)和重置通道次序(Channel Shuffle)相結(jié)合,設(shè)計緊湊型神經(jīng)網(wǎng)絡(luò)模型。該方法經(jīng)過實驗論證,發(fā)現(xiàn)在網(wǎng)絡(luò)中連續(xù)使用分組卷積會導(dǎo)致各組信息局限于單一的通道組,無法實現(xiàn)組間信息交互,而通過通道次序重置能有效改善這個弊端,重置后能夠恢復(fù)網(wǎng)絡(luò)表達能力,得到與標(biāo)準(zhǔn)卷積相似的計算結(jié)果。Ma 等人[38]提出ShuffleNet-V2,除了傳統(tǒng)的浮點運算數(shù)(Floating Point Operations,F(xiàn)LOPs)指標(biāo),還考慮到內(nèi)存訪問成本(Memory Access Cost,MAC)以及網(wǎng)絡(luò)結(jié)構(gòu)的并行度,提出綜合衡量各個指標(biāo)才能有效降低運行時延。ShuffleNet-V2的基礎(chǔ)塊中,首先進行通道分離,起到分組卷積的作用,然后其中一組進行點卷積與深度可分離卷積,最終連接分離后的兩組并執(zhí)行重置通道次序。

    基于MobileNet系列與ShuffleNet系列對輕量型卷積核設(shè)計方法的探索成果,華為諾亞團隊進一步分析得出[39],CNN 中特征圖的通道內(nèi)存在冗余,部分通道間相似度過高,由此提出一種新穎的Ghost模塊,減少普通卷積的利用率,通過計算成本極低的線性變換來生成“影子”特征,這些特征能夠完全挖掘出固有特征圖中潛在的信息,增強表達能力的同時也降低了計算量。以Ghost 模塊為基礎(chǔ),堆疊得到GhostNet。如表4 所示,該方法在FLOPs 上達到了最優(yōu)的性能,同時在精度和降低參數(shù)量方面也取得了較好的結(jié)果。

    表4 ImageNet數(shù)據(jù)集上典型輕量型卷積核設(shè)計方法的性能對比Tab.4 Performance comparison of typical lightweight convolution kernel design methods on ImageNet dataset

    2.4 知識蒸餾

    基于知識蒸餾的方法的核心思想是將大型教師網(wǎng)絡(luò)的知識遷移到小型網(wǎng)絡(luò)中,這一過程是通過學(xué)習(xí)大型網(wǎng)絡(luò)softmax 函數(shù)的類別分布輸出來完成的。Caruana等人[41]首次提出基于知識遷移(Knowledge Transfer)的深度神經(jīng)網(wǎng)絡(luò)壓縮方法。該方法主要研究內(nèi)置強分類器的集成模型,在輸入經(jīng)偽數(shù)據(jù)標(biāo)記的樣本后,經(jīng)過訓(xùn)練,重現(xiàn)了大型原始網(wǎng)絡(luò)的輸出。

    Hinton 等人[42]認(rèn)為訓(xùn)練集中采用one-hot 編碼的標(biāo)簽信息熵極低,而softmax分類器輸出的分類概率能夠體現(xiàn)出模型對不同類別的置信度,同一個輸入關(guān)于不同類別的置信度恰恰定義了數(shù)據(jù)層面豐富的相似結(jié)構(gòu),這些信息對網(wǎng)絡(luò)來說有著極高的學(xué)習(xí)價值。因此,他們提出了完整的知識蒸餾(Knowledge Distillation)思想,如圖4 所示,通過教師-學(xué)生模式,將教師網(wǎng)絡(luò)softmax分類器輸出的軟知識蒸餾出來,輔以硬知識,即真實標(biāo)簽,同時作為訓(xùn)練學(xué)生網(wǎng)絡(luò)的知識,在提升訓(xùn)練效果的同時實現(xiàn)了對原網(wǎng)絡(luò)的壓縮。Romero 等人[43]的工作基于知識蒸餾的思想,提出將通道數(shù)多而層級較淺的大型網(wǎng)絡(luò)壓縮為通道數(shù)少而層級更深的學(xué)生網(wǎng)絡(luò),并將該網(wǎng)絡(luò)稱作FitNets。該方法先確定雙方網(wǎng)絡(luò)相匹配的中間層級,然后將教師網(wǎng)絡(luò)中部的特征圖作為學(xué)生網(wǎng)絡(luò)對應(yīng)位置的近似目標(biāo),這在softmax輸出的基礎(chǔ)上進一步豐富了學(xué)生網(wǎng)絡(luò)的先驗知識。Zagoruyko 等[44]提出了注意力遷移方法(Attention Transfer),放寬了FitNets 方法所提的假設(shè)。該方法所遷移的注意力圖(attention map)是激活后的多通道特征圖的總和。

    知識蒸餾領(lǐng)域還有一些延伸性研究。Goodfellow 等人[45]通過將知識從舊網(wǎng)絡(luò)即時傳輸?shù)叫碌母罨蚋鼜V的網(wǎng)絡(luò),加速了實驗進程。Korattikara 等人[46]中的方法基于在線學(xué)習(xí)的思想,以近似蒙特卡洛教師模型為目標(biāo),對學(xué)生模型進行參數(shù)化訓(xùn)練。Zhu 等人[47]用高階隱層中的神經(jīng)節(jié)點作為先驗知識,這類神經(jīng)節(jié)點具有與標(biāo)簽概率相當(dāng)?shù)男畔⒘?,但是更加的緊湊。采用“自學(xué)”思想的知識蒸餾方法近期也廣受關(guān)注。Zhang 等人[48]提出一種通用的自體蒸餾訓(xùn)練框架。不同于傳統(tǒng)蒸餾方法中,使學(xué)生網(wǎng)絡(luò)輸出逼近教師網(wǎng)絡(luò)softmax輸出的思想,自體蒸餾不借助外部網(wǎng)絡(luò),而是將網(wǎng)絡(luò)本身切分,以深層網(wǎng)絡(luò)的知識來指導(dǎo)淺層網(wǎng)絡(luò)。工業(yè)應(yīng)用中,知識蒸餾的訓(xùn)練可能會受到訓(xùn)練數(shù)據(jù)匱乏以及教師網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)未知的影響,蒸餾效果會大打折扣。為解決此問題,Chen[49]等人結(jié)合生成對抗網(wǎng)絡(luò)思想,提出了一種不依賴于訓(xùn)練數(shù)據(jù)的蒸餾方法,該框架中將預(yù)訓(xùn)練的教師網(wǎng)絡(luò)作為判別器,只訓(xùn)練生成器,最終得到與教師網(wǎng)絡(luò)兼容性高的生成數(shù)據(jù),將其作為蒸餾過程中學(xué)生網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù),從而彌補未知的教師網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)對壓縮效果造成的影響,提升了知識蒸餾在實際場景中的實用性。

    表5列出了上述所提主流知識蒸餾方法的性能對比結(jié)果,教師-學(xué)生模型統(tǒng)一采用ResNet-152 與ResNet-18,數(shù)據(jù)集采用CIFAR100。

    表5 CIFAR100數(shù)據(jù)集上典型知識蒸餾方法的性能對比Tab.5 Performance comparison of typical knowledge distillation methods on CIFAR100 dataset

    3 數(shù)據(jù)集與性能評估準(zhǔn)則

    3.1 性能評估準(zhǔn)則

    大多數(shù)研究都是采用每輪(epoch)訓(xùn)練的平均訓(xùn)練時間來衡量運行時間。對于不同的訓(xùn)練集,一般都采用Top-1 正確率和Top-5 正確率兩種分類精度,其中Top-1 正確率指概率最大的預(yù)測結(jié)果對應(yīng)正確標(biāo)簽的概率,Top-5正確率指概率最大的5個預(yù)測結(jié)果中包含正確標(biāo)簽的概率。

    常用的衡量模型壓縮和加速性能的標(biāo)準(zhǔn)有壓縮率、空間節(jié)省率和加速率。假設(shè)a是原始模型M中的參數(shù)個數(shù),a*是壓縮模型M*的參數(shù)個數(shù),則M*相較于M的壓縮率α(M,M*)為:

    同時可以得到空間節(jié)省率,如下所示:

    相似地,給定模型M和M*各自的推理時間s及s*,由此可計算加速率δ(M,M*)如下所示:

    一般來說,模型的壓縮率和加速率是高度相關(guān)的,因為隨著參數(shù)量的減少,較小的模型往往在訓(xùn)練和測試階段的計算速度更快。優(yōu)秀的模型壓縮與加速方法普遍具有以下特點:分類精度與原始模型相近,模型參數(shù)量減少和計算量的大幅降低。因此在方法研究過程中應(yīng)統(tǒng)一考慮模型的精度和壓縮率(或加速率)。

    3.2 常用的基準(zhǔn)數(shù)據(jù)集

    (1)ImageNet數(shù)據(jù)集

    ImageNet 是一個用于視覺對象識別算法研究的大型可視化數(shù)據(jù)集,包含1400萬張經(jīng)過手動標(biāo)注的圖像。所有圖像共分為2萬多個類別。該數(shù)據(jù)集的結(jié)構(gòu)如同網(wǎng)絡(luò),網(wǎng)絡(luò)內(nèi)部節(jié)點繁多,每個節(jié)點相當(dāng)于一個子目錄,內(nèi)含數(shù)百個對應(yīng)類別物體的訓(xùn)練圖像。

    (2)CIFAR-10與CIFAR-100數(shù)據(jù)集

    CIFAR-10 和CIFAR-100 是常用的小型數(shù)據(jù)集。CIFAR-10 數(shù)據(jù)集中含有總計60000 張彩色圖像,分屬于10 個不同類別,每張圖像分辨率為32×32。數(shù)據(jù)集預(yù)先劃分為訓(xùn)練集和測試集,其中訓(xùn)練集內(nèi)含50000 張圖像,測試集內(nèi)含10000 張圖像。CIFAR-100數(shù)據(jù)集與CIFAR-10一樣,只是它有100個類,每個類包含600個圖像。

    4 總結(jié)和展望

    本文首先概述了深度神經(jīng)網(wǎng)絡(luò)壓縮與加速技術(shù)的研究背景;接著介紹了深度神經(jīng)網(wǎng)絡(luò)模型壓縮及加速的四類主要方法,包括參數(shù)量化、模型剪枝、輕量型卷積核設(shè)計以及知識蒸餾;之后介紹分析了模型壓縮與加速領(lǐng)域常用的數(shù)據(jù)集與性能評估準(zhǔn)則;接下來對各類方法進行優(yōu)劣分析。

    4.1 方法優(yōu)劣分析

    (1)參數(shù)量化:基于參數(shù)量化的壓縮方法在一定程度上縮減了模型大小,使得模型能夠在計算資源與存儲空間受限的移動端和嵌入式設(shè)備上高效運行。但量化后的權(quán)重和激活降低了網(wǎng)絡(luò)的容量和特征圖的質(zhì)量,往往使得模型的表達能力大打折扣,另外,量化會向梯度信息中引入噪聲,導(dǎo)致基于梯度下降法的訓(xùn)練過程收斂難度增加。這些缺陷會造成量化后網(wǎng)絡(luò)的精度低于原始網(wǎng)絡(luò),二值化網(wǎng)絡(luò)中精度損失更加嚴(yán)重。因此基于網(wǎng)絡(luò)量化的壓縮方法具有一定局限性,但量化具有較好的兼容性,在實際應(yīng)用中常與其他壓縮方法相結(jié)合。

    (2)模型剪枝:基于模型剪枝的壓縮方法具有直觀的物理意義,在實際應(yīng)用中也展現(xiàn)出理想的壓縮性能,但該方法也存在一定缺陷。首先,相比于其他壓縮方法,基于L1 或L2 正則化的剪枝收斂較慢,需要更多次數(shù)的迭代訓(xùn)練。其次,剪枝相當(dāng)于優(yōu)化網(wǎng)絡(luò)的整體結(jié)構(gòu),對具有不同結(jié)構(gòu)特點的網(wǎng)絡(luò)模型往往不能采用完全相同的剪枝策略。對于不同類型網(wǎng)絡(luò)在不同訓(xùn)練數(shù)據(jù)集下的剪枝方法還不能完全統(tǒng)一。此外,人工設(shè)計的剪枝方法需要根據(jù)不同層級的敏感度,手動調(diào)節(jié)剪枝閾值,重復(fù)微調(diào)參數(shù),實現(xiàn)過程繁瑣。而自動化剪枝能夠綜合評估多種剪枝方案,自動搜索最優(yōu)結(jié)構(gòu),確定復(fù)雜的超參數(shù),但對于大型網(wǎng)絡(luò)來說,搜索空間過于龐大,對算力要求極高,耗時較長。

    (3)輕量型卷積核設(shè)計:基于輕量型卷積核設(shè)計的壓縮方法對原始卷積核進行緊湊設(shè)計或直接采用運算量遠小于標(biāo)準(zhǔn)卷積的新式卷積計算方式,能夠有效降低參數(shù)量,大幅減少浮點運算次數(shù)。但囿于輕量型卷積核設(shè)計的獨特性,壓縮后的模型十分緊湊,較難在其中綜合應(yīng)用其他壓縮技術(shù)來進一步提升效果。另外,相比于大而深的原始模型,基于輕量型卷積核設(shè)計的網(wǎng)絡(luò)模型由于容量受限,訓(xùn)練得到的特征泛化能力稍弱。

    (4)知識蒸餾:基于知識蒸餾的壓縮方法相當(dāng)于用一個神經(jīng)網(wǎng)絡(luò)訓(xùn)練另一個神經(jīng)網(wǎng)絡(luò),將大型復(fù)雜網(wǎng)絡(luò)的知識遷移至小型簡易網(wǎng)絡(luò)中,利用小型網(wǎng)絡(luò)來實現(xiàn)擁有與大型網(wǎng)絡(luò)相同優(yōu)越的性能和良好的泛化能力,并且顯著降低了所需存儲空間和計算資源。知識蒸餾的缺陷之一是只能應(yīng)用于具有softmax 分類器及交叉熵?fù)p失函數(shù)的分類任務(wù),應(yīng)用場景較為局限。另一個缺點是與其他類型的方法相比,基于知識蒸餾的壓縮方法在大型數(shù)據(jù)集的表現(xiàn)略差。

    4.2 未來發(fā)展趨勢

    綜合以上對近期研究成果的分析可以得知,深度神經(jīng)網(wǎng)絡(luò)壓縮與加速的研究仍然具有巨大的潛力和研究空間,未來的研究工作不僅需要進一步提高模型壓縮效率與推理速度,并且應(yīng)打破學(xué)術(shù)界與工業(yè)界之間的壁壘。以下介紹模型壓縮與加速領(lǐng)域需要進一步探索和開發(fā)的方向。

    (1)與硬件緊密結(jié)合。針對卷積神經(jīng)網(wǎng)絡(luò)在不同硬件平臺上的使用,提出一些與硬件緊密結(jié)合的壓縮方法就是未來方向之一。具體包括基于硬件的自動量化以及將硬件加速器的反饋信息引入算法設(shè)計環(huán)中。與硬件密切結(jié)合的模型壓縮方法可以使CNN 具有更強的硬件平臺適應(yīng)性,以應(yīng)對端設(shè)備部署帶來的挑戰(zhàn)。

    (2)對于知識蒸餾,需要探索更多類型的先驗知識。在當(dāng)前的教師-學(xué)生模式下,主要采用將softmax分類器的輸出和網(wǎng)絡(luò)中間層的特征圖作為蒸餾知識的方法。然而,將softmax分類器輸出作為軟知識的方法容易使得知識蒸餾的應(yīng)用場景局限在分類任務(wù)上,缺少任務(wù)多樣化。因此,網(wǎng)絡(luò)中的其他信息,例如神經(jīng)元傳遞過程中的選擇性知識值得研究者們的大膽嘗試,這種基于重要神經(jīng)元選擇的蒸餾框架可應(yīng)用于大多數(shù)計算機視覺任務(wù)中,因為先驗知識的多樣化不僅可能提高知識蒸餾的效果,而且有助于拓寬知識蒸餾的應(yīng)用范圍。

    (3)探索在更多任務(wù)場景下的應(yīng)用。除了圖像分類任務(wù)外,人們還在其他任務(wù)中對深度學(xué)習(xí)模型進行壓縮[54],包括一些關(guān)于深層自然語言模型(如BERT 模型)的研究[55-56]。在未來的研究工作中,我們希望將模型壓縮與加速技術(shù)應(yīng)用到其他領(lǐng)域的深度神經(jīng)網(wǎng)絡(luò)中,例如,基于深度學(xué)習(xí)的圖像及視頻處理[57-58],視覺、語言跨模態(tài)結(jié)合任務(wù)[59]以及對生成式對抗網(wǎng)絡(luò)(GAN)[60-61]的優(yōu)化。

    猜你喜歡
    剪枝濾波卷積
    人到晚年宜“剪枝”
    基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
    基于YOLOv4-Tiny模型剪枝算法
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    剪枝
    天津詩人(2017年2期)2017-03-16 03:09:39
    RTS平滑濾波在事后姿態(tài)確定中的應(yīng)用
    基于線性正則變換的 LMS 自適應(yīng)濾波
    遙測遙控(2015年2期)2015-04-23 08:15:18
    一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
    一種面向不平衡數(shù)據(jù)分類的組合剪枝方法
    計算機工程(2014年6期)2014-02-28 01:26:33
    757午夜福利合集在线观看| 国产欧美日韩一区二区精品| 国产精品99久久99久久久不卡| 国产三级黄色录像| 丰满迷人的少妇在线观看| 久久精品aⅴ一区二区三区四区| 两人在一起打扑克的视频| 国产深夜福利视频在线观看| 免费观看a级毛片全部| 国产精品久久久久久精品古装| 欧美亚洲 丝袜 人妻 在线| 麻豆成人av在线观看| 久久久久久久精品吃奶| 久久久久国产精品人妻aⅴ院 | 亚洲aⅴ乱码一区二区在线播放 | 欧美亚洲日本最大视频资源| 国产精品偷伦视频观看了| 成人特级黄色片久久久久久久| 国产精华一区二区三区| 亚洲三区欧美一区| 青草久久国产| 亚洲精品在线美女| 一边摸一边抽搐一进一小说 | 久久精品人人爽人人爽视色| 精品国内亚洲2022精品成人 | 黄色 视频免费看| 最新美女视频免费是黄的| 欧美色视频一区免费| 午夜福利在线免费观看网站| 国产主播在线观看一区二区| 两个人看的免费小视频| 国产精品免费一区二区三区在线 | 一级毛片高清免费大全| 视频区欧美日本亚洲| 咕卡用的链子| 亚洲一码二码三码区别大吗| 一级a爱视频在线免费观看| 男人的好看免费观看在线视频 | 免费av中文字幕在线| 成年人黄色毛片网站| 女人久久www免费人成看片| 日韩 欧美 亚洲 中文字幕| 在线观看舔阴道视频| 色精品久久人妻99蜜桃| 999精品在线视频| aaaaa片日本免费| 美女午夜性视频免费| 成人18禁高潮啪啪吃奶动态图| 99re6热这里在线精品视频| 精品卡一卡二卡四卡免费| 精品免费久久久久久久清纯 | 老汉色av国产亚洲站长工具| 中文字幕高清在线视频| 免费女性裸体啪啪无遮挡网站| 手机成人av网站| 这个男人来自地球电影免费观看| 精品一区二区三区视频在线观看免费 | 国产国语露脸激情在线看| 国产又爽黄色视频| 最新美女视频免费是黄的| 露出奶头的视频| 曰老女人黄片| 两性夫妻黄色片| 日本五十路高清| 免费av中文字幕在线| 国产欧美日韩精品亚洲av| 欧美乱码精品一区二区三区| 久久亚洲真实| 悠悠久久av| 精品久久蜜臀av无| 91精品三级在线观看| 美国免费a级毛片| 99riav亚洲国产免费| 国产精品影院久久| 法律面前人人平等表现在哪些方面| 捣出白浆h1v1| 免费在线观看视频国产中文字幕亚洲| 国产精品久久久久久人妻精品电影| 999久久久精品免费观看国产| 色婷婷av一区二区三区视频| 精品国产美女av久久久久小说| av国产精品久久久久影院| а√天堂www在线а√下载 | 99国产综合亚洲精品| 女同久久另类99精品国产91| 亚洲中文av在线| 亚洲五月色婷婷综合| 亚洲av成人一区二区三| 男女免费视频国产| 侵犯人妻中文字幕一二三四区| 久久久久国内视频| 亚洲国产欧美日韩在线播放| 国产精品美女特级片免费视频播放器 | 久久这里只有精品19| 亚洲国产精品sss在线观看 | 亚洲精品成人av观看孕妇| 十八禁人妻一区二区| 女人被躁到高潮嗷嗷叫费观| 国产成人av教育| 夜夜夜夜夜久久久久| 韩国精品一区二区三区| 99久久精品国产亚洲精品| 久久中文看片网| 亚洲va日本ⅴa欧美va伊人久久| 亚洲色图 男人天堂 中文字幕| 成人国产一区最新在线观看| 首页视频小说图片口味搜索| 在线观看免费视频网站a站| 两个人看的免费小视频| 久久精品人人爽人人爽视色| 岛国在线观看网站| 欧美激情高清一区二区三区| 久热这里只有精品99| 国产视频一区二区在线看| 夜夜躁狠狠躁天天躁| 在线观看日韩欧美| а√天堂www在线а√下载 | 99国产综合亚洲精品| 亚洲成人免费电影在线观看| 免费不卡黄色视频| 啦啦啦免费观看视频1| 久久久久久久久免费视频了| 国产有黄有色有爽视频| 麻豆乱淫一区二区| 日本一区二区免费在线视频| 99re在线观看精品视频| 久久婷婷成人综合色麻豆| 一本大道久久a久久精品| 一级毛片女人18水好多| 老司机午夜福利在线观看视频| 超色免费av| 国内毛片毛片毛片毛片毛片| av视频免费观看在线观看| netflix在线观看网站| 久久精品91无色码中文字幕| 人人妻,人人澡人人爽秒播| 国产aⅴ精品一区二区三区波| 天天添夜夜摸| 亚洲欧美激情在线| 精品欧美一区二区三区在线| 欧美激情极品国产一区二区三区| 激情在线观看视频在线高清 | 亚洲精品国产一区二区精华液| 捣出白浆h1v1| 水蜜桃什么品种好| 夜夜夜夜夜久久久久| 99精品欧美一区二区三区四区| 淫妇啪啪啪对白视频| 高清黄色对白视频在线免费看| 又黄又爽又免费观看的视频| 日本一区二区免费在线视频| 少妇被粗大的猛进出69影院| 亚洲国产精品合色在线| 精品卡一卡二卡四卡免费| 精品国产超薄肉色丝袜足j| 人妻 亚洲 视频| 亚洲久久久国产精品| 色老头精品视频在线观看| 在线观看免费午夜福利视频| 一区二区日韩欧美中文字幕| 男男h啪啪无遮挡| a在线观看视频网站| 国产真人三级小视频在线观看| 国内久久婷婷六月综合欲色啪| 国产精品九九99| 一区二区三区激情视频| 成人三级做爰电影| 91成年电影在线观看| 欧美日韩黄片免| 国产亚洲欧美精品永久| 女人高潮潮喷娇喘18禁视频| 在线播放国产精品三级| 黑丝袜美女国产一区| 身体一侧抽搐| 国内久久婷婷六月综合欲色啪| 一进一出抽搐动态| 亚洲男人天堂网一区| 热99国产精品久久久久久7| 日韩有码中文字幕| 免费在线观看完整版高清| 久久久久国产精品人妻aⅴ院 | 成人18禁高潮啪啪吃奶动态图| 高清黄色对白视频在线免费看| videos熟女内射| 在线观看免费高清a一片| 最新的欧美精品一区二区| avwww免费| 国产精品国产高清国产av | 亚洲av成人一区二区三| 国产av又大| 人妻一区二区av| 在线观看免费视频日本深夜| 欧洲精品卡2卡3卡4卡5卡区| 丝袜美腿诱惑在线| 久久婷婷成人综合色麻豆| 久久人妻av系列| 一级,二级,三级黄色视频| 在线观看一区二区三区激情| 亚洲午夜理论影院| 香蕉国产在线看| 亚洲精品一二三| 美女国产高潮福利片在线看| 欧美黄色淫秽网站| 精品国产一区二区三区久久久樱花| 成人国产一区最新在线观看| 亚洲精品av麻豆狂野| 波多野结衣一区麻豆| 人人妻人人爽人人添夜夜欢视频| 亚洲色图av天堂| 午夜久久久在线观看| 亚洲aⅴ乱码一区二区在线播放 | 波多野结衣一区麻豆| 18禁国产床啪视频网站| 亚洲欧美精品综合一区二区三区| 每晚都被弄得嗷嗷叫到高潮| 欧美 日韩 精品 国产| 在线观看免费视频日本深夜| a级毛片黄视频| 国产精品乱码一区二三区的特点 | 国产片内射在线| 后天国语完整版免费观看| 国产欧美日韩精品亚洲av| 亚洲全国av大片| 香蕉久久夜色| 免费不卡黄色视频| 18禁美女被吸乳视频| 免费少妇av软件| 久久国产精品影院| 两个人看的免费小视频| 欧美乱色亚洲激情| 美女福利国产在线| 91精品国产国语对白视频| 美女福利国产在线| 看片在线看免费视频| 美女福利国产在线| 久久久久久久国产电影| 欧美日韩亚洲国产一区二区在线观看 | 久久午夜综合久久蜜桃| 欧美日韩视频精品一区| 亚洲中文av在线| 精品人妻1区二区| 国产成+人综合+亚洲专区| 国产亚洲欧美精品永久| a在线观看视频网站| 久久久水蜜桃国产精品网| 自线自在国产av| 好看av亚洲va欧美ⅴa在| 免费不卡黄色视频| 满18在线观看网站| 曰老女人黄片| 黄色丝袜av网址大全| 精品福利永久在线观看| 宅男免费午夜| 老熟妇仑乱视频hdxx| 午夜两性在线视频| aaaaa片日本免费| 欧美日韩乱码在线| 80岁老熟妇乱子伦牲交| 女同久久另类99精品国产91| 久久午夜综合久久蜜桃| 国产色视频综合| 久久精品国产清高在天天线| 下体分泌物呈黄色| 黄色丝袜av网址大全| 亚洲色图 男人天堂 中文字幕| 亚洲av美国av| 亚洲va日本ⅴa欧美va伊人久久| 亚洲成a人片在线一区二区| 高清黄色对白视频在线免费看| 久久天堂一区二区三区四区| 国产精品98久久久久久宅男小说| 人人澡人人妻人| 国产极品粉嫩免费观看在线| 久久久久精品人妻al黑| 男人舔女人的私密视频| 热re99久久国产66热| 女人被狂操c到高潮| av超薄肉色丝袜交足视频| 高清视频免费观看一区二区| www.自偷自拍.com| 欧美人与性动交α欧美软件| 欧美大码av| 99久久精品国产亚洲精品| a级毛片在线看网站| 天堂中文最新版在线下载| 宅男免费午夜| www.自偷自拍.com| 9热在线视频观看99| 国产片内射在线| 国产精品偷伦视频观看了| 91成年电影在线观看| 少妇被粗大的猛进出69影院| www.自偷自拍.com| 在线观看66精品国产| 黄色毛片三级朝国网站| 国产精品久久电影中文字幕 | 免费看十八禁软件| 色94色欧美一区二区| 国产欧美日韩一区二区三| 男人舔女人的私密视频| 在线观看免费高清a一片| 亚洲aⅴ乱码一区二区在线播放 | 一级a爱片免费观看的视频| 嫩草影视91久久| 久久婷婷成人综合色麻豆| 一区二区三区激情视频| 亚洲欧美日韩另类电影网站| 黄色成人免费大全| 一边摸一边抽搐一进一出视频| 日本欧美视频一区| av网站免费在线观看视频| 日本a在线网址| 少妇裸体淫交视频免费看高清 | 天天躁狠狠躁夜夜躁狠狠躁| 亚洲av成人不卡在线观看播放网| 欧美日韩黄片免| 久久久久精品人妻al黑| 国产精品美女特级片免费视频播放器 | 亚洲中文日韩欧美视频| 国产一区二区三区视频了| 国产蜜桃级精品一区二区三区 | 欧美日韩乱码在线| 久久中文字幕一级| 亚洲九九香蕉| 国产精品免费一区二区三区在线 | bbb黄色大片| 欧美日韩乱码在线| 少妇裸体淫交视频免费看高清 | 欧美日韩成人在线一区二区| 大香蕉久久网| avwww免费| 超碰97精品在线观看| 日韩免费高清中文字幕av| 国产人伦9x9x在线观看| 国产精品乱码一区二三区的特点 | 操美女的视频在线观看| 日韩大码丰满熟妇| 欧美激情高清一区二区三区| 欧美黄色片欧美黄色片| 91成人精品电影| 午夜两性在线视频| 久久 成人 亚洲| 精品久久久久久电影网| 色精品久久人妻99蜜桃| a级片在线免费高清观看视频| 亚洲中文日韩欧美视频| 免费不卡黄色视频| 久久久久久久午夜电影 | 天堂√8在线中文| 涩涩av久久男人的天堂| 久热爱精品视频在线9| 99国产精品99久久久久| 一进一出抽搐gif免费好疼 | 久久九九热精品免费| 91成年电影在线观看| 久久久久久久国产电影| 在线国产一区二区在线| 国产人伦9x9x在线观看| 亚洲国产中文字幕在线视频| 久久精品亚洲av国产电影网| 久久精品人人爽人人爽视色| 97人妻天天添夜夜摸| 丁香六月欧美| 法律面前人人平等表现在哪些方面| 日本wwww免费看| 亚洲五月天丁香| 黄色视频,在线免费观看| 成年动漫av网址| 亚洲全国av大片| 免费在线观看视频国产中文字幕亚洲| 男女高潮啪啪啪动态图| av片东京热男人的天堂| 欧美精品一区二区免费开放| 男女下面插进去视频免费观看| 亚洲av日韩精品久久久久久密| 91成人精品电影| 老汉色∧v一级毛片| 一级黄色大片毛片| 亚洲少妇的诱惑av| 日本精品一区二区三区蜜桃| 亚洲少妇的诱惑av| 精品亚洲成国产av| 日韩精品免费视频一区二区三区| 90打野战视频偷拍视频| 视频区欧美日本亚洲| 一区二区日韩欧美中文字幕| 天天影视国产精品| 午夜视频精品福利| 亚洲欧洲精品一区二区精品久久久| 色综合欧美亚洲国产小说| 亚洲成a人片在线一区二区| 欧美人与性动交α欧美精品济南到| 国产成人精品久久二区二区91| 男女下面插进去视频免费观看| 大陆偷拍与自拍| 极品教师在线免费播放| 国产色视频综合| 操美女的视频在线观看| 国产精品久久电影中文字幕 | 欧美精品人与动牲交sv欧美| 熟女少妇亚洲综合色aaa.| 黑人欧美特级aaaaaa片| 国产乱人伦免费视频| 男女午夜视频在线观看| 91成人精品电影| 国产精品久久久久成人av| 亚洲一区二区三区不卡视频| 天天躁日日躁夜夜躁夜夜| 欧美日韩国产mv在线观看视频| 亚洲色图综合在线观看| 黄色毛片三级朝国网站| 国产精品一区二区精品视频观看| 天堂俺去俺来也www色官网| 免费日韩欧美在线观看| 人人澡人人妻人| 久久久久久久久免费视频了| 久久影院123| 黄色a级毛片大全视频| 国产高清videossex| 99久久精品国产亚洲精品| 很黄的视频免费| 日韩一卡2卡3卡4卡2021年| 免费在线观看黄色视频的| 99热国产这里只有精品6| 亚洲欧美激情综合另类| 国产单亲对白刺激| 午夜久久久在线观看| 久久影院123| 50天的宝宝边吃奶边哭怎么回事| 黄片播放在线免费| 色综合婷婷激情| 欧美国产精品va在线观看不卡| 两性午夜刺激爽爽歪歪视频在线观看 | 啦啦啦 在线观看视频| 成在线人永久免费视频| 欧美精品啪啪一区二区三区| 欧美性长视频在线观看| 啦啦啦视频在线资源免费观看| 丰满人妻熟妇乱又伦精品不卡| 一本大道久久a久久精品| 大型黄色视频在线免费观看| 国产一卡二卡三卡精品| 在线看a的网站| 亚洲成a人片在线一区二区| 窝窝影院91人妻| 国产视频一区二区在线看| av在线播放免费不卡| 99国产综合亚洲精品| 国产极品粉嫩免费观看在线| 淫妇啪啪啪对白视频| 国产亚洲av高清不卡| 一区二区日韩欧美中文字幕| 51午夜福利影视在线观看| 美女 人体艺术 gogo| 婷婷丁香在线五月| 正在播放国产对白刺激| 欧美另类亚洲清纯唯美| 国产国语露脸激情在线看| 欧美黄色淫秽网站| 国产片内射在线| 精品国内亚洲2022精品成人 | 欧美日本中文国产一区发布| videosex国产| 欧美在线一区亚洲| 欧美日韩成人在线一区二区| 无人区码免费观看不卡| 后天国语完整版免费观看| 国产97色在线日韩免费| 男女高潮啪啪啪动态图| 精品国内亚洲2022精品成人 | 成人影院久久| 精品欧美一区二区三区在线| 亚洲情色 制服丝袜| 好看av亚洲va欧美ⅴa在| 亚洲精品成人av观看孕妇| 中文字幕制服av| av在线播放免费不卡| 一二三四社区在线视频社区8| 成人亚洲精品一区在线观看| 国产成人精品无人区| 青草久久国产| 亚洲一区高清亚洲精品| 欧美久久黑人一区二区| 免费不卡黄色视频| 午夜福利影视在线免费观看| 精品人妻1区二区| 国产男女超爽视频在线观看| 99热国产这里只有精品6| 少妇猛男粗大的猛烈进出视频| 亚洲 国产 在线| 午夜福利免费观看在线| 免费不卡黄色视频| 超碰成人久久| 国产不卡一卡二| 国产精品久久视频播放| 女人被狂操c到高潮| 欧美精品啪啪一区二区三区| 在线观看免费视频网站a站| 麻豆av在线久日| 亚洲情色 制服丝袜| 久热爱精品视频在线9| a级片在线免费高清观看视频| 欧美黄色淫秽网站| av中文乱码字幕在线| 久久香蕉激情| 侵犯人妻中文字幕一二三四区| 叶爱在线成人免费视频播放| 精品一区二区三区av网在线观看| 亚洲第一av免费看| 在线观看免费午夜福利视频| 侵犯人妻中文字幕一二三四区| 亚洲九九香蕉| 国产av又大| 免费av中文字幕在线| 亚洲一区中文字幕在线| 少妇 在线观看| 搡老岳熟女国产| 日本a在线网址| 777米奇影视久久| 一边摸一边抽搐一进一出视频| 香蕉久久夜色| 国产野战对白在线观看| 精品福利永久在线观看| 性少妇av在线| 在线观看舔阴道视频| 岛国毛片在线播放| 国产成人精品久久二区二区免费| 午夜福利免费观看在线| 啦啦啦在线免费观看视频4| 天堂动漫精品| 人人澡人人妻人| 午夜免费观看网址| 在线播放国产精品三级| 亚洲第一av免费看| 亚洲人成伊人成综合网2020| 老熟妇仑乱视频hdxx| 亚洲人成电影观看| 亚洲专区国产一区二区| 国产亚洲精品久久久久5区| 黄色毛片三级朝国网站| 久久久精品免费免费高清| 中出人妻视频一区二区| 韩国精品一区二区三区| 免费在线观看黄色视频的| 精品一区二区三区视频在线观看免费 | 欧美色视频一区免费| 黄网站色视频无遮挡免费观看| 亚洲欧美一区二区三区黑人| 中文字幕av电影在线播放| 一进一出好大好爽视频| 岛国毛片在线播放| 亚洲国产中文字幕在线视频| 涩涩av久久男人的天堂| 国产成人影院久久av| 欧美 亚洲 国产 日韩一| 日本欧美视频一区| 欧美日韩乱码在线| 亚洲午夜精品一区,二区,三区| 黄色视频,在线免费观看| 黄片播放在线免费| 午夜两性在线视频| 黄片大片在线免费观看| 亚洲一区中文字幕在线| 国产免费现黄频在线看| 亚洲色图综合在线观看| 久久中文看片网| 人人妻人人添人人爽欧美一区卜| 一区福利在线观看| 在线av久久热| 免费黄频网站在线观看国产| 很黄的视频免费| 三上悠亚av全集在线观看| 免费在线观看黄色视频的| 好男人电影高清在线观看| 久久这里只有精品19| 老熟女久久久| 视频区图区小说| 国产亚洲精品久久久久久毛片 | 一进一出抽搐动态| 久久久久久免费高清国产稀缺| 99国产精品一区二区蜜桃av | 又黄又粗又硬又大视频| 亚洲久久久国产精品| 国产激情久久老熟女| 欧美激情 高清一区二区三区| 国内久久婷婷六月综合欲色啪| 欧美av亚洲av综合av国产av| 男人操女人黄网站| 国产亚洲av高清不卡| 亚洲精品中文字幕一二三四区| 国产精品一区二区在线不卡| 久久国产精品男人的天堂亚洲| 大片电影免费在线观看免费| 久久香蕉精品热| 成在线人永久免费视频| 午夜日韩欧美国产| 五月开心婷婷网| 亚洲色图综合在线观看| 男女之事视频高清在线观看| 中文字幕最新亚洲高清| 热99久久久久精品小说推荐| svipshipincom国产片| 欧美在线黄色| 99热网站在线观看| 亚洲专区中文字幕在线| 男人操女人黄网站| 丝袜在线中文字幕| 麻豆国产av国片精品| 免费看a级黄色片| 中出人妻视频一区二区| 亚洲国产毛片av蜜桃av| 午夜久久久在线观看| 国产精品国产av在线观看| 久久影院123| 99国产精品免费福利视频|