• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深度神經(jīng)網(wǎng)絡(luò)模型壓縮方法與進(jìn)展

    2020-12-07 05:57:31賴葉靜郝珊鋒黃定江
    關(guān)鍵詞:量化

    賴葉靜 郝珊鋒 黃定江

    摘要:深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)模型通過巨大的內(nèi)存消耗和高計算量來實現(xiàn)強(qiáng)大的性能,難以部署在有限資源的硬件平臺上,通過模型壓縮來降低內(nèi)存成本和加速計算已成為熱點問題,近年來已有大量的這方面的研究工作,主要介紹了4種具有代表性的深度神經(jīng)網(wǎng)絡(luò)壓縮方法,即網(wǎng)絡(luò)剪枝、量化、知識蒸餾和緊湊神經(jīng)網(wǎng)絡(luò)設(shè)計:著重介紹了近年來具有代表性的壓縮模型方法及其特點;最后,總結(jié)了模型壓縮的相關(guān)評價標(biāo)準(zhǔn)和研究前景。

    關(guān)鍵詞:深度神經(jīng)網(wǎng)絡(luò)壓縮:網(wǎng)絡(luò)剪枝;量化:知識蒸餾;緊湊神經(jīng)網(wǎng)絡(luò)

    中圖分類號:TP391 文獻(xiàn)標(biāo)志碼:A DOI:10.3969/j,issn,1000-5641.202091001

    0引言

    近年來,深度神經(jīng)網(wǎng)絡(luò)(DNN)在許多領(lǐng)域取得了巨大的成功,包括但不限于目標(biāo)識別和檢測、語音識別、自然語言處理,這些成功依賴于更多的參數(shù)、更大更深的模型,例如,在VGG-16(VisualGeometry Group-16)網(wǎng)絡(luò)上訓(xùn)練ImageNet數(shù)據(jù)集得到的模型大小超過500 MB,參數(shù)數(shù)量高達(dá)138 357 544個,自2012年AlexNet出現(xiàn)并拿下當(dāng)年ImageNet競賽的冠軍后,深度神經(jīng)網(wǎng)絡(luò)在計算機(jī)視覺領(lǐng)域大放異彩,隨后出現(xiàn)的卷積神經(jīng)網(wǎng)絡(luò)模型數(shù)量大幅度增加,比如VGG、ResNet、DenseNet等,這些深度網(wǎng)絡(luò)模型在許多領(lǐng)域的實驗中表現(xiàn)良好,但在實際應(yīng)用中仍然受到時間和空間的限制,即使使用圖形處理單元(Graphics Processing Unit,GPU)或張量處理單元(Tensor Processing Unit,TPU)進(jìn)行加速,這些寬而深的網(wǎng)絡(luò)模型仍然不能滿足在許多應(yīng)用場景中的實時需求,與此同時,手機(jī)和邊緣設(shè)備等資源受限設(shè)備的數(shù)量每年都在增加,體積大、計算成本高的模型會消耗大量的計算資源,不適用于手機(jī)等移動設(shè)備,因此,在不影響深度網(wǎng)絡(luò)模型準(zhǔn)確度的前提下,模型壓縮是一個重要的研究問題。

    實現(xiàn)模型壓縮的方法有很多,本文將這些方法分為4類:網(wǎng)絡(luò)剪枝、量化、知識蒸餾和緊湊神經(jīng)網(wǎng)絡(luò)設(shè)計,網(wǎng)絡(luò)剪枝主要通過設(shè)計一個標(biāo)準(zhǔn)去判斷參數(shù)的重要程度,再根據(jù)重要性去除冗余參數(shù),量化減少表示每個權(quán)值和激活值所需的比特數(shù),如二值化(1-bit)、int8量化(8-bit)等,知識蒸餾主要利用大型網(wǎng)絡(luò)的知識,并將其知識轉(zhuǎn)化到緊湊小型的學(xué)生模型中,緊湊神經(jīng)網(wǎng)絡(luò)通過設(shè)計一個特殊結(jié)構(gòu)的卷積核或緊湊卷積的計算單元,來降低模型的存儲和計算復(fù)雜度,表1簡要總結(jié)了4類神經(jīng)網(wǎng)絡(luò)壓縮方法的優(yōu)缺點和適用場景。

    在模型壓縮和加速領(lǐng)域,涌現(xiàn)出了許多優(yōu)秀的綜述論文:文獻(xiàn)[7-8]對模型壓縮研究的進(jìn)展做了詳盡的調(diào)查分析,主要介紹了前幾年傳統(tǒng)的優(yōu)秀算法,但錯過了近年來許多重要并且有代表性的工作;文獻(xiàn)[9-10】將模型壓縮分為6個方向,并介紹了近年來提出的算法,與之前的綜述文獻(xiàn)不同,本文將模型壓縮分為4大類別,對過去幾年相關(guān)的研究進(jìn)展與具有代表性的方法進(jìn)行了了調(diào)查,并給出該領(lǐng)域內(nèi)評價準(zhǔn)則的具體計算方法,在先進(jìn)壓縮算法上綜合比較了圖像分類和目標(biāo)檢測兩個任務(wù)的性能,

    本文后續(xù)結(jié)構(gòu):第1章分別介紹4種模型壓縮方法,并著重介紹近年來涌現(xiàn)出的模型壓縮方法及其特點;第2章介紹模型壓縮的相關(guān)評價標(biāo)準(zhǔn),并對當(dāng)下具有代表性的壓縮方法進(jìn)行性能評估;第3章對全文進(jìn)行總結(jié)并展望未來的研究熱點。

    1模型壓縮算法

    模型壓縮有許多優(yōu)秀的算法,并在各個領(lǐng)域有著廣泛的應(yīng)用,如Wang等提出的PeleeNet,通過設(shè)計高效的卷積方式并與移動設(shè)備硬件的運行庫結(jié)合,能夠?qū)σ苿釉O(shè)備上的目標(biāo)檢測、圖像分類等任務(wù)進(jìn)行實時預(yù)測,使用PeleeNet在iphone8上實現(xiàn)目標(biāo)檢測任務(wù),可達(dá)到23.6 FPS(Frames PerSecond,每秒傳輸幀數(shù)),且準(zhǔn)確率較高,下面介紹4種具有代表性的深度網(wǎng)絡(luò)壓縮方法,并比較分析它們的優(yōu)點與不足。

    1.1網(wǎng)絡(luò)剪枝

    深度網(wǎng)絡(luò)模型中存在許多冗余和信息量較少的權(quán)值,網(wǎng)絡(luò)剪枝通過去除訓(xùn)練好的模型中冗余的參數(shù),從而減小模型的體積,并加快模型的計算速度,壓縮模型的存儲空間,另外,剪枝也可以降低網(wǎng)絡(luò)的復(fù)雜度,解決過擬合的問題。

    根據(jù)剪枝粒度級別的不同,網(wǎng)絡(luò)剪枝可分為4種剪枝粒度,如圖1所示,在最粗粒度的級別中,可以移去一個層(layer),被修剪的層如圖1a)中的陰影所示,第二個修剪粒度是特征圖/濾波器(feature map/filter),其中,特征圖是網(wǎng)絡(luò)輸出,濾波器是網(wǎng)絡(luò)中的參數(shù),在剪枝的過程中,剪去一個特征圖等價于上一層的一個濾波器可以得到一個更薄的網(wǎng)絡(luò),圖1b)中陰影部分表示被移除的濾波器,下一個修剪粒度是核(kernel),即修剪濾波器中的一個通道,如圖1c)所示,最細(xì)粒度的是修剪核內(nèi)的一個權(quán)重(weight),如圖1d)所示,核中陰影部分的零即是被修剪的權(quán)重參數(shù),此剪枝粒度可以產(chǎn)生更稀疏的權(quán)重矩陣,這4種剪枝粒度可進(jìn)一步分為結(jié)構(gòu)化剪枝和非結(jié)構(gòu)化剪枝兩類,層間剪枝、特征圖剪枝和核剪枝是結(jié)構(gòu)化剪枝,核內(nèi)權(quán)重修剪(核內(nèi)剪枝)是非結(jié)構(gòu)化修剪。

    早期的網(wǎng)絡(luò)剪枝方法多是非結(jié)構(gòu)化剪枝,LeCun等和Hassibi等分別在1990年和1993年提出了最優(yōu)化腦損失(0ptimal Brain Damage,OBD)和最優(yōu)化腦手術(shù)(optimal Brain Surgeon,OBS)方法,后者是前者的改進(jìn),其基本思想是使用損失函數(shù)相對于權(quán)重的Hessian矩陣來度量網(wǎng)絡(luò)中核內(nèi)權(quán)重的重要性,從而刪除不重要權(quán)重,這兩個算法能在一定范圍內(nèi)提升準(zhǔn)確度,但時間代價較高,因此,不能在大型網(wǎng)絡(luò)上應(yīng)用,Zhang等提出了一種基于交替方向乘子法(Alternating Direction Methodof Multipliers,ADMM)的權(quán)值剪枝系統(tǒng):首先將深度神經(jīng)網(wǎng)絡(luò)的權(quán)值剪枝問題轉(zhuǎn)化為具有指定稀疏性要求的組合約束的非凸優(yōu)化問題;然后利用ADMM將非凸優(yōu)化問題分解為兩個迭代求解的子問題,一個用隨機(jī)梯度下降法求解,另一個用解析法求解,該系統(tǒng)使得AlexNet和LeNet在ImageNet和MNIST數(shù)據(jù)集上的權(quán)重參數(shù)獲得了大幅度的壓縮,以上非結(jié)構(gòu)化剪枝往往使得層內(nèi)的權(quán)重矩陣變成稀疏矩陣,但并沒有減少計算量,而且對稀疏矩陣的加速計算需要特定的軟件庫或者硬件來支持,針對此問題,Ma等提出了PCONV方法,一種粗粒度結(jié)構(gòu)中的細(xì)粒度剪枝模式,包含模式化剪枝和連通性剪枝,模式化剪枝可以獲得filter不同的稀疏性,連通性剪枝進(jìn)一步對filter做核剪枝,獲得filter之間的稀疏性,此外,利用PCONV剪枝特性設(shè)計專門的編譯器,在具有代表性的大規(guī)模DNN上實現(xiàn)了高壓縮和較高的推理速度,除了設(shè)計特別的剪枝結(jié)構(gòu)、設(shè)計專有的編譯器,結(jié)構(gòu)化剪枝也可以克服非結(jié)構(gòu)化剪枝的缺點。

    結(jié)構(gòu)化剪枝的主要的思想是將不重要的信道或者濾波器去除,并最小化重構(gòu)誤差,He等基于LASSOfLeast Absolute Shrinkage and Selection Operator)回歸的方法進(jìn)行信道選擇,再通過線性最小二乘法重構(gòu)網(wǎng)絡(luò)輸出,Chin等提出了學(xué)習(xí)卷積網(wǎng)絡(luò)不同層filter的全局排序,該排序用于獲得一組具有不同精度/延遲的卷積網(wǎng)絡(luò)架構(gòu);對于跨層的filter排序,通過學(xué)習(xí)分層的參數(shù)仿射變換替代以往的范數(shù)準(zhǔn)則來評判filter的重要性,Molchanov等使用一階和二階泰勒展開式來近似filter的貢獻(xiàn),并逐層去除貢獻(xiàn)低的filter,這個方法可以應(yīng)用于任何類型的層,如殘差網(wǎng)絡(luò)的shortcut層,

    Luo等提出的ThiNet框架,filter是否被剪去取決于下一層,而不是當(dāng)前層;在對第i層的filter進(jìn)行剪枝時,學(xué)習(xí)如何選擇i+1層通道數(shù)的某個子集輸入原網(wǎng)絡(luò),并且逼近原來的輸出結(jié)果,此時第i層的filter也可以去除,在對某一層進(jìn)行剪枝后,通過最小化重建誤差進(jìn)行微調(diào),但這個方法忽略了信道的鑒別能力,因此Zhuang等提出了一種用于深度神經(jīng)網(wǎng)絡(luò)壓縮的鑒別力感知通道修剪策略(Discrimination-aware Channel Pruning,DCP),將信道剪枝問題作為稀疏性優(yōu)化問題,同時考慮重構(gòu)誤差和信道鑒別能力,對于深層模型,由于傳播路徑長,其淺層往往具有很小的鑒別能力,為了提高中間層的鑒別能力,DCP把深層網(wǎng)絡(luò)分為p+1個階段,并在這p+1階段中引入額外的鑒別力感知損失函數(shù)Ls,p(w),考慮到鑒別力損失和重建損失,該策略關(guān)于信道選擇的聯(lián)合損失函數(shù)為。

    結(jié)構(gòu)化剪枝常常使用范數(shù)評價指標(biāo)來評價某個filter是否重要,用范數(shù)評價filter時隱含了兩個條件:一是范數(shù)的方差要大;二是最小范數(shù)接近零,使用符合這兩個條件的范數(shù)作為評價filter的準(zhǔn)則,最后的重建誤差往往會比較低,但實際中,filter范數(shù)分布無法同時滿足這兩個條件,所以可以通過判斷兩個filter的相似性來判斷filter是否冗余,但判斷其相似性是比較困難的,所以,He等12引利用幾何中值fGeometric Median,GM)來判斷兩個filter間的相似性,幾何中值是在歐氏空間中點的中心估計,靠近該中心點的filter可以用遠(yuǎn)離該中心點的filter來近似表示,即可以剪去接近幾何中值的filter,而Lin等人發(fā)現(xiàn)即使輸入圖像的批大小(Barch Size)不同,但單個filter生成的多個特征圖的平均秩總是相等,高秩的特征圖往往包含更多的信息,所以可以剪去產(chǎn)生低秩特征圖的filter,這兩個方法與范數(shù)無關(guān),不需滿足范數(shù)評價指標(biāo)的條件,但在CIFAR-10和ImageNet數(shù)據(jù)集上使用不同的網(wǎng)絡(luò)進(jìn)行剪枝,都可以在幾乎不損失準(zhǔn)確度的情況下獲得更高的壓縮率。

    剪枝就是去除原網(wǎng)絡(luò)中不重要的權(quán)重,從另一個角度來看,被剪枝后的網(wǎng)絡(luò)結(jié)構(gòu)就是原網(wǎng)絡(luò)的一個子結(jié)構(gòu),這跟神經(jīng)網(wǎng)絡(luò)搜索(Neural Architecture Search,NAS)很相似,所以剪枝也可以說是神經(jīng)網(wǎng)絡(luò)搜索的一個特例,它可以使得搜索空間變得更小,目前許多剪枝方法越來越偏向于神經(jīng)網(wǎng)絡(luò)搜索,剪枝方法和量化方法通??梢越Y(jié)合使用。

    1.2量化

    網(wǎng)絡(luò)量化通過減少表示每個權(quán)值所需的比特數(shù)來壓縮原始網(wǎng)絡(luò),通過這種方式,網(wǎng)絡(luò)中權(quán)值和激活值都被量化,并且浮點乘法累加操作(Multiplly Accumulate,MAC)可以被低比特的乘法累加操作代替,在二值化網(wǎng)絡(luò)和三值化網(wǎng)絡(luò)的情況下甚至不需要乘法,因此,使用低比特量化神經(jīng)網(wǎng)絡(luò)可以降低存儲和計算復(fù)雜度,同時,低比特量化也有利于面向神經(jīng)網(wǎng)絡(luò)芯片硬件的加速,每降低一比特通常更容易簡化硬件的設(shè)計,也可以設(shè)計出更精細(xì)的芯片,量化通過最小化量化誤差找到最優(yōu)量化器,相應(yīng)公式為。

    其中,x表示全精度參數(shù),qx(x)表示量化后的低比特參數(shù),J(qx(x))表示全精度參數(shù)與二進(jìn)制參數(shù)之間的量化誤差。

    量化方法可分為權(quán)重共享和低比特表示,具有代表性的權(quán)重共享方法通過聚類來現(xiàn),Han等對每一層的權(quán)重矩陣使用K-Means聚類算法,并使用每個簇的質(zhì)心來表示權(quán)重矩陣中的值,因為相同簇的權(quán)值共享一個質(zhì)心,所以只需要存儲質(zhì)心的索引,并通過查找表獲得該索引對應(yīng)的值,最后通過梯度進(jìn)行微調(diào)就可減少精度損失,如圖3所示,另一種經(jīng)典的權(quán)重共享方法是使用散列函數(shù)進(jìn)行量化,Chen等使用哈希技巧將網(wǎng)絡(luò)連接權(quán)值隨機(jī)分組到散列桶中,每個散列桶中的網(wǎng)絡(luò)連接共享相同的權(quán)值參數(shù),這些方法都屬于傳統(tǒng)的標(biāo)量量化方法,Stock等基于乘積量化(Product Quantization,PQ)提出了比特下降的向量量化方法,區(qū)別于以前的向量量化方法,該方法注重激活值的重要性,而不是權(quán)重的重要性,其原理是通過最小化域內(nèi)輸入的重建誤差,然后把未壓縮的神經(jīng)網(wǎng)絡(luò)作為教師網(wǎng)絡(luò),把壓縮后的網(wǎng)絡(luò)作為學(xué)生網(wǎng)絡(luò),在量化時只需要一組未標(biāo)記的數(shù)據(jù),再使用字節(jié)對齊的碼書來存儲壓縮后的權(quán)重,通過這種方法可以在CPU上進(jìn)行有效的推理。

    大量基于低比特量化的方法是基于二值化網(wǎng)絡(luò)的改進(jìn)工作,二值化方法使用1 bit對數(shù)據(jù)進(jìn)行量化,量化后的數(shù)據(jù)取值只有兩個可能的值:0(1)或+1.2016年,Courbariaux等提出BinaryConnect后,權(quán)重值和激活值分別二值化就成為一種有效的深度神經(jīng)網(wǎng)絡(luò)壓縮方法,通過二值化,可以將繁重的矩陣乘法運算替換為輕量級的異或運算和位計數(shù)運算,二值化的離散性和有限的表示能力,導(dǎo)致正向和逆向傳播中都存在嚴(yán)重的信息損失,在正向傳播中,當(dāng)權(quán)重值和激活值限制在兩個值時,模型的多樣性會大大下降,導(dǎo)致了精度大幅度下降,Qin等提出信息保留網(wǎng)絡(luò)(InformationRetention Network,IR-Net)來保留前向激活和后向梯度的信息,IR-Net分為兩個過程:首先通過均衡和標(biāo)準(zhǔn)化正向傳播的權(quán)重;同時最小化參數(shù)的量化誤差和最大化量化參數(shù)的信息熵,在沒有對激活值添加額外操作的同時,減少了權(quán)重和激活的信息損失,二值化常常使用符號函數(shù)作為量化函數(shù),對符號函數(shù)進(jìn)行反向傳播會造成巨大的信息損失,所以在反向傳播中需要進(jìn)行梯度近似,為了保留反向傳播中損失函數(shù)的信息,IR-Net通過逐步逼近反向傳播中的符號函數(shù)來最小化梯度的信息損失,由該方法在CIFAR-10和ImageNet數(shù)據(jù)集上使用多個深度神經(jīng)網(wǎng)絡(luò)進(jìn)行的實驗可知,其比普通二值化方法獲得的精度更高。

    除了二值化網(wǎng)絡(luò),三值化和int8量化方法也是常見的低比特量化方法,Wang等提出了有效的兩步量化法(TWO-Step Quantization,TSQ)框架,將網(wǎng)絡(luò)量化問題分解為兩個步驟:第一,使用稀疏法對激活值進(jìn)行量化,只對重要的正值進(jìn)行量化,將其他不重要的值設(shè)為零;第二,假設(shè)經(jīng)過第一步量化激活值獲得的編碼是最優(yōu)的,則可以將最優(yōu)化問題表述為具有低位約束的非線性最小二乘回歸問題,并用迭代求解量化權(quán)重,Mellempud等提出了利用參數(shù)動態(tài)范圍內(nèi)的局部相關(guān)性來最小化量化對整體精度的影響的細(xì)粒度三元化方法,Zhu等基于誤差敏感的學(xué)習(xí)率調(diào)節(jié)和方向自適應(yīng)的梯度截斷方法解決了量化后的精度損失,表2給出了近年來在CIFAR10和ImageNet數(shù)據(jù)集上量化方法的性能對比,其中,w代表權(quán)重使用的比特位數(shù),A代表激活值使用的比特位數(shù),aCCToml代表預(yù)測概率最高的類別與真實類別相符的準(zhǔn)確率,aCCToD-5代表預(yù)測概率排名前五的類別中包含真實類別的準(zhǔn)確率。

    當(dāng)使用低比特表示參數(shù)時,量化神經(jīng)網(wǎng)絡(luò)的精度與全精度神經(jīng)網(wǎng)絡(luò)相比下降了很多,這是由于網(wǎng)絡(luò)量化階段引入的噪聲使得梯度下降法難以收斂,當(dāng)使用非常低的位表示來量化權(quán)值和激活時,問題可能會更加嚴(yán)重,在對深度網(wǎng)絡(luò)模型(如ResNet)進(jìn)行較大的壓縮和加速時,若使用同時量化權(quán)值和激活值的網(wǎng)絡(luò)(如XNOR-Net),分類精度損失嚴(yán)重,此外,結(jié)構(gòu)化矩陣的限制可能會導(dǎo)致模型的偏差和精度的損失,因此,量化方法一般是與其他方法結(jié)合使用。

    1.3知識蒸餾

    在知識蒸餾中,使用寬而深的網(wǎng)絡(luò)訓(xùn)練得到的模型一般稱為教師模型(Teacher Model),比如VGG-16等;使用輕量化的網(wǎng)絡(luò)訓(xùn)練得到的模型一般稱為學(xué)生模型(student Model),比如MobileNet等,知識蒸餾的基本思想是將大型教師模型的軟知識提煉到較小的學(xué)生模型中,2015年,Hitton等首次提出了知識蒸餾的壓縮框架,該框架主要使用教師網(wǎng)絡(luò)的軟輸出對學(xué)生網(wǎng)絡(luò)進(jìn)行指導(dǎo)和懲罰,其中軟輸出可以提供更大的信息熵,提供更多原網(wǎng)絡(luò)的信息,為此,教師網(wǎng)絡(luò)的軟輸出被用作一個標(biāo)簽來訓(xùn)練和壓縮學(xué)生網(wǎng)絡(luò),知識蒸餾過程如圖4所示,使用帶溫度T的softmax函數(shù)qi來生成每個類別的預(yù)測概率,公式為

    知識蒸餾的目標(biāo)是將原網(wǎng)絡(luò)中具有代表性的知識轉(zhuǎn)移到另一個更小的神經(jīng)網(wǎng)絡(luò)中,通常是以最小化概率輸出之間的KL(Kullback-Leibler)散度為目標(biāo)建立教師網(wǎng)絡(luò)和學(xué)生網(wǎng)絡(luò),但Tian等提出這一KL目標(biāo)忽略了教師網(wǎng)絡(luò)的重要知識結(jié)構(gòu),并提出了對比學(xué)習(xí)方法,對比學(xué)習(xí)的關(guān)鍵思想是學(xué)習(xí)“正”對在某些度量空間中接近的表示,并將“負(fù)”對之間的表示分離開,實驗表明,該方法在各種知識轉(zhuǎn)移任務(wù)(包括單模型壓縮、集成蒸餾和跨模態(tài)轉(zhuǎn)移)上的性能都優(yōu)于知識蒸餾和其他最優(yōu)的蒸餾方法,有時甚至超過教師網(wǎng)絡(luò)與知識蒸餾的結(jié)合。

    近年來,許多學(xué)者在知識蒸餾領(lǐng)域展開工作,以設(shè)計出更好的學(xué)生模型,學(xué)生模型不僅模仿老師的行為,還可以學(xué)習(xí)教師網(wǎng)絡(luò)以外的知識,從而超越教師模型,F(xiàn)urlanello等提出的重生神經(jīng)網(wǎng)絡(luò)(Born-Again Neural Networks,BAN),使得最后獲得的學(xué)生模型可以超越教師模型,與原來的方法不同,這種方法的目的不再是壓縮模型,而是將知識從教師模型轉(zhuǎn)移到具有相同能力的學(xué)生模型,如DenseNet作為教師模型、ResNet作為學(xué)生模型,在經(jīng)過BAN蒸餾后的ResNet,其測試錯誤率比原來的教師模型DenseNet更低,在教師模型收斂之后,初始化一個新的學(xué)生模型,然后,在滿足設(shè)置正確的預(yù)測標(biāo)簽和匹配教師模型輸出分布的雙重要求的同時,對學(xué)生模型進(jìn)行訓(xùn)練,Gao等提出的殘差知識蒸餾方法,引進(jìn)了助理fAssistant)的概念,即助理通過學(xué)習(xí)教師和學(xué)生之間的殘差來幫助學(xué)生獲取更多的知識。

    基于知識蒸餾的方法可以壓縮更深更大的模型,并有助于顯著降低計算成本,而知識蒸餾大多數(shù)都是應(yīng)用于具有softmaX損失函數(shù)的分類任務(wù),近年來,許多研究使用知識蒸餾的方法對目標(biāo)檢測、語義分割任務(wù)進(jìn)行壓縮,He等提出了一種有效的語義分割知識蒸餾方法,在不引入額外參數(shù)或計算的情況下,大幅度提高了學(xué)生模型的能力,并以更少的計算開銷獲得了更好的結(jié)果,此方法可以分為兩個階段:第一階段通過自編碼器將知識壓縮成緊湊的形式,目的是將教師網(wǎng)絡(luò)中的知識轉(zhuǎn)為更具代表性信息的壓縮空間;第二階段為了從教師網(wǎng)絡(luò)中獲取長期依賴關(guān)系,提出了親和蒸餾模型(Afflfinity Distillation Module),主要添加一個卷積層(稱為特征適配器)來解決教師模型和學(xué)生模型各自feature map不匹配的問題,知識蒸餾可以用于許多領(lǐng)域,比如自然語言處理、半監(jiān)督學(xué)習(xí)等,教師網(wǎng)絡(luò)的軟輸出可以對學(xué)生網(wǎng)絡(luò)進(jìn)行微調(diào)以獲得更好的精度。

    1.4緊湊神經(jīng)網(wǎng)絡(luò)設(shè)計

    隨著人們對神經(jīng)網(wǎng)絡(luò)原理的理解和在實踐中的驗證,神經(jīng)網(wǎng)絡(luò)模型的發(fā)展正朝更小卷積核、覆蓋更多特征信息、減少冗余的方向發(fā)展,與壓縮已經(jīng)訓(xùn)練好的模型相比,設(shè)計緊湊的神經(jīng)網(wǎng)絡(luò)是另一種方法,緊湊網(wǎng)絡(luò)設(shè)計主要針對卷積網(wǎng)絡(luò)設(shè)計一種更高效、計算復(fù)雜度更低的方法,在不損失網(wǎng)絡(luò)性能的情況下減少每秒浮點運算次數(shù),并降低模型體積,基于此思想,設(shè)計高效的CNN結(jié)構(gòu)可以從不同的卷積核和卷積方式進(jìn)行設(shè)計,比如,在設(shè)計卷積核時,將全連接層換成全局平均池化層用小卷積核(1×1.3×3)替換大卷積核(5×5),在設(shè)計卷積方式時,使用分組卷積、深度可分離卷積、反卷積等方式替換原來的標(biāo)準(zhǔn)卷積方式,從而加快了網(wǎng)絡(luò)計算速度,減少了計算量。

    Iandola等提出的SqueezeNet、Google團(tuán)隊提出的MobileNetVl-V3系列、Face++團(tuán)隊提出的ShuffleNetVl-V2系列都是近年來出現(xiàn)的并具有代表性的緊湊神經(jīng)網(wǎng)絡(luò),其共同點是大量地使用了1×1小濾波器。

    SqueezeNet由多個Fire Module、卷積層(conv)、采樣層(Pooling)和全連接層(Fully Connectedlayers,F(xiàn)C)組成,F(xiàn)ire Module的squeeze層用1×1的小濾波器替換原來的3×3濾波器,expand層組合使用1×1濾波器和3×3濾波器,減少了原始網(wǎng)絡(luò)的大濾波器(3×3),從而減少了網(wǎng)絡(luò)的參數(shù)量,該模型在可以達(dá)到AlexNet分類精度的同時,可將模型參數(shù)大小降至原來的1/50倍。

    MobileNetVl提出深度分離卷積來代替原來的標(biāo)準(zhǔn)卷積計算,MobileNetVl將卷積運算分為depth-wise和point-wise,如圖5所示,在depth-wise中,每個濾波器只考慮一個通道,濾波器的數(shù)目等于輸入通道的數(shù)目,其中濾波器是一個3×3矩陣,point-wise運算與常規(guī)卷積運算非常相似,但使用的是1×1的小濾波器,經(jīng)過這兩個運算后,濾波器的參數(shù)將大大降低,MobileNetV2同樣采用了MVl的depth-wise和point-wise,并設(shè)計了Inverted Residuals來獲取更多的特征信息,以減少推理時間,由于在低維空間中增加非線性會破壞其特征,MV2在每一個塊fblock)中去除了Relu層,引入LinearBottlenecks,MobileNetV3則通過神經(jīng)結(jié)構(gòu)搜索獲得子網(wǎng)絡(luò),并在MV2的block中添加了SENet增強(qiáng)模塊,使得網(wǎng)絡(luò)提取特征的能力大大增強(qiáng),從而獲得了更高的準(zhǔn)確性。

    ShuffleNetVl使用組卷積(Group Convolution)來降低模型參數(shù)大小,并使用通道混排(channelShuffle)增強(qiáng)各個特征圖的連接,ShuffleNetV2提出了4條指導(dǎo)性原則:①輸入輸出通道數(shù)相等會最小化內(nèi)存訪問成本;②組卷積數(shù)目過多將增加內(nèi)存訪問的次數(shù);③在多路結(jié)構(gòu)中,網(wǎng)絡(luò)碎片化降低了并行化程度;④元素級操作fElement-Wise Operators)不可忽略,基于以上4條原則對ShuffleNetVl進(jìn)行改進(jìn),提升了準(zhǔn)確度和模型運行速度。

    華為諾亞方舟團(tuán)隊的Han等提出了GhostNet模塊,對于每一個輸入,首先生成一組內(nèi)部特征圖,然后基于這組內(nèi)部的特征圖,使用一系列成本低廉的線性變換來生成許多Ghost特征圖,最后該Ghost特征圖和內(nèi)部特征圖的個數(shù)之和等于原始特征圖個數(shù)之和,并利用這些模塊,構(gòu)建了GhostbottleneckfG-bneck)和GhostNet,其中Ghost bottleneck類似于ResNet中的殘差塊,GhostNet則使用MobileNetV3作為基本體系架構(gòu),并將MobileNetV3中的bottlenet換成G-bneck,在ImageNet分類中,GhostNet可以獲得比MNV3更高的精確度,Chen等人提出的Octave Convolution,基于自然圖像可以分為高頻和低頻兩部分的思想(經(jīng)過傅里葉變換后對應(yīng)的高低頻),將卷積層輸出的特征圖分為高低頻兩部分,將低頻的特征圖存儲在更小的張量中,減少空間冗余,表3給出了近年來緊湊神經(jīng)網(wǎng)絡(luò)方法在ImageNet數(shù)據(jù)集上實驗的性能對比,其中,Param代表網(wǎng)絡(luò)中的參數(shù)量大小,F(xiàn)LOPs(FloatingPoint of Operations)為浮點運算數(shù)。

    緊湊神經(jīng)網(wǎng)絡(luò)采用緊湊的卷積核或改變卷積方式,大大減少了模型中的參數(shù),降低了模型的大小,在輕量的語義分割、目標(biāo)檢測和分類模型上都有應(yīng)用,但由于其特殊的卷積核,難以和其他模型壓縮方法一起使用。

    1.5其他深度神經(jīng)網(wǎng)絡(luò)壓縮算法

    訓(xùn)練好的模型卷積核存在低秩特性,所以低秩分解也可用在模型壓縮中,主要通過矩陣或張量分解模型中的參數(shù),如SVD(singular Value Decomposition)分解、Tucker分解和CP(canonical Polyadic)分解等,Jaderberg等使用低秩擴(kuò)展來加速卷積神經(jīng)網(wǎng)絡(luò),主要觀點是利用存在于不同通道和濾波器之間的冗余,對已訓(xùn)練好的網(wǎng)絡(luò)進(jìn)行加速,并提出了兩種優(yōu)化方案,可以很容易地應(yīng)用于現(xiàn)有的CPU和GPU卷積框架:第一,將某一個通道進(jìn)行秩1分解,并學(xué)習(xí)M個濾波器基組后通過線性組合來近似原來的濾波器;第二,每個卷積層被分解為兩個常規(guī)卷積層的序列,但在空間域內(nèi)帶有矩形濾波器,所得近似結(jié)果需要的計算操作要少得多,在場景文本字符識別CNN訓(xùn)練中可以觀察到,分類精度僅下降1%,但加速率卻可以達(dá)到4.5×1。

    另外,各種壓縮方法也可以結(jié)合起來一起用,Han等13引提出的三階段方法,結(jié)合了剪枝和量化兩個方法:首先修剪值較小的連接,獲得一個稀疏化網(wǎng)絡(luò);再對剪枝后的網(wǎng)絡(luò)使用聚類的方法進(jìn)行量化,實現(xiàn)權(quán)值共享;經(jīng)過前兩個步驟后重新訓(xùn)練網(wǎng)絡(luò)以調(diào)整剩余的連接和量化質(zhì)心,最后使用哈弗曼編碼對網(wǎng)絡(luò)再進(jìn)一步壓縮,該壓縮方法在VGG-16上壓縮率高達(dá)49×,而準(zhǔn)確率卻沒有降低,Polino等結(jié)合量化和知識蒸餾對模型進(jìn)行壓縮,在量化的過程中加入知識蒸餾損失進(jìn)行訓(xùn)練,并使用量化后的權(quán)重計算梯度更新模型,但在量化神經(jīng)網(wǎng)絡(luò)中,對原始權(quán)重進(jìn)行量化的過程是離散的,因此梯度幾乎處處為0.這意味著不能使用量化函數(shù)進(jìn)行反向傳播,基于此問題,Polino等還提出了可微量化方法,通過隨機(jī)梯度下降優(yōu)化量化點的位置,該方法使得量化的淺層次學(xué)生模型可以達(dá)到與全精度教師模型相似的水平,同時可獲得高壓縮率并加速推理過程,Cai等提出了面向邊緣應(yīng)用的壓縮方法,根據(jù)網(wǎng)絡(luò)中各層權(quán)重的分布對權(quán)重進(jìn)行裁剪,并針對嵌入式設(shè)備的特性對權(quán)重和激活值采用定點量化的方法進(jìn)行量化,在降低計算量和存儲成本的同時幾乎達(dá)到了無損壓縮。

    2評價準(zhǔn)則

    衡量模型壓縮和加速質(zhì)量的標(biāo)準(zhǔn)是壓縮率、加速率和浮點運算數(shù)(FLOPs),假設(shè)p是原始模型M中參數(shù)的內(nèi)存成本,u*是壓縮模型M*的內(nèi)存成本,則模型的壓縮率Ф為

    另外模型壓縮方法用在分類、目標(biāo)檢測和語義分割任務(wù)上時,根據(jù)數(shù)據(jù)集的不同會定義不同的評價準(zhǔn)則,如在分類任務(wù)中,小數(shù)據(jù)集CIFAR和MINST使用Top-1分類錯誤率,而大數(shù)據(jù)集ImageNet常使用Top-I和Top-5分類錯誤率,在目標(biāo)檢測或語義分割任務(wù)中,常使用平均精度(Average Precision,AP)來做評估,一般來說,壓縮后的方法與原模型的分類錯誤率相似,但參數(shù)減少、加速率增加、浮點運算操作數(shù)降低。

    表4給出了近年來在數(shù)據(jù)集ImageNet上進(jìn)行圖像分類的壓縮方法性能對比,其中參數(shù)量(Param)為float32類型(4字節(jié)),從表4可以看出,對AlexNet和VGG-16這些大型神經(jīng)網(wǎng)絡(luò)進(jìn)行壓縮,幾乎沒有精度損失,甚至還會超過原來的精度,對ResNet-50這類原始參數(shù)本來就較小的網(wǎng)絡(luò)進(jìn)行壓縮,精度損失也不大。

    表5給出了近年來在Microsoft COCO數(shù)據(jù)集上進(jìn)行目標(biāo)檢測任務(wù)的壓縮方法對比,其中AP(AveragePrecision)代表平均精度,AP0.5代表交并比(Intersection over Union,IoU)閾值為0.5時的AP值,AP0 75代表在IoU閾值為0.75時的AP值,在對目標(biāo)檢測模型進(jìn)行壓縮時,可以在骨干網(wǎng)絡(luò)(Backbone)使用以上介紹的4種主流方法進(jìn)行壓縮或者設(shè)計更小型的網(wǎng)絡(luò)結(jié)構(gòu),從表5可以看出,EfficientDet-B0在Microsoft COCO 2017數(shù)據(jù)集上表現(xiàn)出了優(yōu)異的性能,并且參數(shù)量和FLOPs都降低了。

    3總結(jié)和展望

    本文主要對主流的基于深度神經(jīng)網(wǎng)絡(luò)壓縮的方法進(jìn)行了介紹:首先分析了需要模型壓縮的原因;其次,介紹了4種具有代表性的深度神經(jīng)網(wǎng)絡(luò)壓縮方法,即網(wǎng)絡(luò)剪枝、量化、知識蒸餾和緊湊網(wǎng)絡(luò)設(shè)計,并著重對近年來壓縮模型方法的性能進(jìn)行了分析;最后給出了模型壓縮的評估準(zhǔn)則,接下來對模型壓縮未來的發(fā)展和面臨的挑戰(zhàn)進(jìn)行展望。

    深度網(wǎng)絡(luò)壓縮的基本目的是從網(wǎng)絡(luò)中提取有用的信息,并降低模型大小和參數(shù)量,從目前的研究結(jié)果來看,深度神經(jīng)網(wǎng)絡(luò)壓縮仍處于發(fā)展階段,壓縮方法本身的性能還有待提高,以下是一些值得研究和探索的方向。

    (1)高效評估方法和剪枝率的選擇:剪枝技術(shù)評估卷積核或核內(nèi)權(quán)重參數(shù)的重要性仍然是比較簡單的方法,盡管近年來提出了許多評估方法,但普遍計算復(fù)雜、難度大,因此,如何定義更高效的方法來確定卷積核或其他參數(shù)的重要性,是未來值得探索的方向,另外,每一層的卷積參數(shù)分布是不同的,對每層的剪枝率的選擇也是未來可探索的方向。

    (2)設(shè)計新的網(wǎng)絡(luò)結(jié)構(gòu):模型量化后會改變數(shù)據(jù)的原始分布,在大型數(shù)據(jù)集和深度神經(jīng)網(wǎng)絡(luò)中模型性能損失大大增加,主要原因在于現(xiàn)在的網(wǎng)絡(luò)結(jié)構(gòu)不一定全都適合于量化操作,量化后保留的信息與全精度所保留的信息不一定相同,所以如何針對量化設(shè)計特定的網(wǎng)絡(luò)結(jié)構(gòu)也是值得研究的方向。

    (3)多場景模型壓縮:目前的模型壓縮方法主要針對深度神經(jīng)網(wǎng)絡(luò),而深度神經(jīng)網(wǎng)絡(luò)壓縮模型大多采用CNN,主要針對圖像分類場景,常見的神經(jīng)網(wǎng)絡(luò)場景還有遞歸神經(jīng)網(wǎng)絡(luò)fRecurrent NeuralNetwork,RNN)、長期短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)、強(qiáng)化學(xué)習(xí)、目標(biāo)檢測和生成式對抗網(wǎng)絡(luò)fGenerative Adversarial Networks,GAN)等,這些應(yīng)用場景需要的精度往往很高,現(xiàn)有的壓縮方法難以進(jìn)行高效的壓縮,所以在未來一段時間內(nèi),有必要研究多場景下的模型如何進(jìn)行壓縮。

    (4)端設(shè)備部署:邊緣設(shè)備和各種小型平臺(如自動駕駛汽車)的硬件和資源限制仍然是阻礙深度神經(jīng)網(wǎng)絡(luò)模型落地的主要原因,隨著模型壓縮方法的流行,對于分類任務(wù)的模型壓縮方法已經(jīng)得到了很大的發(fā)展,但對于常見的目標(biāo)檢測、語義分割等任務(wù)的研究還很少,所以如何在資源受限的邊緣設(shè)備中部署各種大模型,使得應(yīng)用真正落地,仍然是一個大挑戰(zhàn)。

    (5)與自動機(jī)器學(xué)習(xí)(Automated Machine Learning,AutoML)結(jié)合:如在剪枝中,使用AutoML自動化地選擇修剪率,在量化中,AutoML根據(jù)量化前參數(shù)重要性大小來動態(tài)選擇量化的比特數(shù)。

    猜你喜歡
    量化
    關(guān)于對思想道德教育量化實施的研究
    東方教育(2016年9期)2017-01-17 21:22:47
    試論小學(xué)生道德量化
    未來英才(2016年16期)2017-01-11 16:02:49
    從覆判案件看北京政府時期基層司法的狀況與特征:以江蘇為例
    量化詞語的隱喻分析
    危化企業(yè)提高現(xiàn)場應(yīng)急處置能力的對策措施研究
    警察院校量化考核制度
    東方教育(2016年3期)2016-12-14 22:34:14
    讓“量化”更加的“亮化”
    考試周刊(2016年79期)2016-10-13 23:39:31
    小學(xué)班級管理之我“心”我“數(shù)”
    考試周刊(2016年72期)2016-09-20 06:20:53
    高校貧困生認(rèn)定評分體系研究與構(gòu)建
    大學(xué)物理實驗考核模式探索
    日韩欧美在线二视频 | 久久精品aⅴ一区二区三区四区| 狂野欧美激情性xxxx| 亚洲视频免费观看视频| 国产成+人综合+亚洲专区| 18禁裸乳无遮挡免费网站照片 | 夜夜躁狠狠躁天天躁| 欧美成狂野欧美在线观看| 一二三四社区在线视频社区8| 国产亚洲一区二区精品| 亚洲国产欧美网| 婷婷丁香在线五月| 日韩大码丰满熟妇| 国产又色又爽无遮挡免费看| 无限看片的www在线观看| 成年女人毛片免费观看观看9 | 免费女性裸体啪啪无遮挡网站| 精品久久久久久,| 人妻丰满熟妇av一区二区三区 | 亚洲精品自拍成人| 天堂动漫精品| 一边摸一边抽搐一进一出视频| 欧美黄色淫秽网站| 亚洲精品国产精品久久久不卡| 久久婷婷成人综合色麻豆| 一级毛片高清免费大全| 99riav亚洲国产免费| 天天躁狠狠躁夜夜躁狠狠躁| 日韩免费高清中文字幕av| 最新在线观看一区二区三区| 51午夜福利影视在线观看| 午夜福利一区二区在线看| 成人特级黄色片久久久久久久| 在线国产一区二区在线| 国产成人免费观看mmmm| 嫁个100分男人电影在线观看| 欧美老熟妇乱子伦牲交| 免费黄频网站在线观看国产| 中文亚洲av片在线观看爽 | 在线视频色国产色| 国产精品98久久久久久宅男小说| 成人18禁高潮啪啪吃奶动态图| 中文字幕人妻熟女乱码| 一个人免费在线观看的高清视频| 在线观看免费高清a一片| 亚洲精品自拍成人| 亚洲av美国av| 亚洲精品久久成人aⅴ小说| 欧美成人午夜精品| 国产亚洲精品一区二区www | 丰满饥渴人妻一区二区三| 精品国产乱子伦一区二区三区| 一进一出抽搐动态| 国产有黄有色有爽视频| 在线免费观看的www视频| av天堂在线播放| 亚洲欧美精品综合一区二区三区| 亚洲av片天天在线观看| 黑人猛操日本美女一级片| 久久久国产成人免费| 露出奶头的视频| 亚洲精品乱久久久久久| 黄片小视频在线播放| 99精品欧美一区二区三区四区| 国产日韩欧美亚洲二区| 亚洲自偷自拍图片 自拍| 成人三级做爰电影| 国产精品偷伦视频观看了| а√天堂www在线а√下载 | 在线观看免费午夜福利视频| 天堂中文最新版在线下载| 国产又色又爽无遮挡免费看| 久久久久久久国产电影| 精品国产国语对白av| 大码成人一级视频| 美女 人体艺术 gogo| 午夜福利在线观看吧| 日韩熟女老妇一区二区性免费视频| 国产欧美日韩一区二区三| 欧美av亚洲av综合av国产av| 成人特级黄色片久久久久久久| 成年人午夜在线观看视频| 亚洲精品av麻豆狂野| 在线播放国产精品三级| 久久久久视频综合| 欧美日韩福利视频一区二区| 国产精品偷伦视频观看了| 黄频高清免费视频| 欧美日本中文国产一区发布| 国产av一区二区精品久久| 韩国精品一区二区三区| 在线观看免费视频日本深夜| 黑人操中国人逼视频| 老司机福利观看| 黄色片一级片一级黄色片| 嫁个100分男人电影在线观看| 嫁个100分男人电影在线观看| 电影成人av| 亚洲人成77777在线视频| 国产高清激情床上av| 乱人伦中国视频| 久久婷婷成人综合色麻豆| 精品福利观看| 在线观看舔阴道视频| 黑人欧美特级aaaaaa片| 亚洲欧美激情综合另类| 欧美日韩视频精品一区| 午夜福利在线免费观看网站| 日本精品一区二区三区蜜桃| 国产又色又爽无遮挡免费看| 国产一区有黄有色的免费视频| 纯流量卡能插随身wifi吗| 侵犯人妻中文字幕一二三四区| 免费日韩欧美在线观看| 女人爽到高潮嗷嗷叫在线视频| 久久青草综合色| 国产日韩一区二区三区精品不卡| 中出人妻视频一区二区| aaaaa片日本免费| 国产国语露脸激情在线看| av超薄肉色丝袜交足视频| 夜夜爽天天搞| 免费人成视频x8x8入口观看| 一个人免费在线观看的高清视频| 大香蕉久久网| 成年人免费黄色播放视频| 亚洲成av片中文字幕在线观看| 他把我摸到了高潮在线观看| 在线天堂中文资源库| 国产精品九九99| 另类亚洲欧美激情| 精品一区二区三卡| 国产不卡一卡二| 丰满饥渴人妻一区二区三| 建设人人有责人人尽责人人享有的| 精品一区二区三区视频在线观看免费 | av不卡在线播放| 国产精品一区二区免费欧美| 免费不卡黄色视频| 丝袜美腿诱惑在线| 国产一区二区三区在线臀色熟女 | 国产精品影院久久| 日韩制服丝袜自拍偷拍| 国产深夜福利视频在线观看| 国产一区二区三区视频了| 国产精品久久久久久精品古装| 丰满饥渴人妻一区二区三| 丝袜在线中文字幕| 久久国产精品影院| 国产精品亚洲一级av第二区| 日韩中文字幕欧美一区二区| 国产无遮挡羞羞视频在线观看| 午夜两性在线视频| 女人高潮潮喷娇喘18禁视频| 一本一本久久a久久精品综合妖精| 99在线人妻在线中文字幕 | 中文字幕最新亚洲高清| 制服人妻中文乱码| 国产aⅴ精品一区二区三区波| 成人三级做爰电影| 亚洲第一欧美日韩一区二区三区| 色婷婷av一区二区三区视频| 99久久精品国产亚洲精品| 国产成人av教育| 美女 人体艺术 gogo| 女警被强在线播放| 18禁黄网站禁片午夜丰满| 99热国产这里只有精品6| 国产av又大| 99香蕉大伊视频| 99热国产这里只有精品6| 精品一区二区三区四区五区乱码| x7x7x7水蜜桃| 色婷婷av一区二区三区视频| 日本撒尿小便嘘嘘汇集6| 很黄的视频免费| 在线观看日韩欧美| 国产色视频综合| 午夜福利在线观看吧| 免费女性裸体啪啪无遮挡网站| 丝袜美腿诱惑在线| 午夜福利在线免费观看网站| 亚洲熟妇熟女久久| 亚洲精品美女久久av网站| 另类亚洲欧美激情| 国产免费av片在线观看野外av| 日韩精品免费视频一区二区三区| 好男人电影高清在线观看| 亚洲精品久久午夜乱码| 丝瓜视频免费看黄片| 捣出白浆h1v1| 51午夜福利影视在线观看| 在线天堂中文资源库| 国产精品.久久久| 成人免费观看视频高清| 视频区欧美日本亚洲| 十八禁网站免费在线| 欧美激情 高清一区二区三区| 国产主播在线观看一区二区| 在线观看免费视频网站a站| 日韩欧美一区视频在线观看| 欧美精品高潮呻吟av久久| 亚洲全国av大片| 99久久人妻综合| 一进一出抽搐gif免费好疼 | 真人做人爱边吃奶动态| 国精品久久久久久国模美| 看片在线看免费视频| 怎么达到女性高潮| 日日夜夜操网爽| 高潮久久久久久久久久久不卡| 热re99久久国产66热| 91在线观看av| 欧美激情久久久久久爽电影 | 国产免费av片在线观看野外av| 欧美黑人欧美精品刺激| 亚洲久久久国产精品| 国产精品自产拍在线观看55亚洲 | 久久人妻av系列| 亚洲 欧美一区二区三区| 亚洲中文日韩欧美视频| 看黄色毛片网站| 亚洲精品中文字幕一二三四区| 国产精品一区二区在线观看99| 久久中文字幕一级| 欧美精品人与动牲交sv欧美| 久久性视频一级片| 国产欧美日韩一区二区精品| 99热国产这里只有精品6| 国产亚洲欧美98| 中文字幕最新亚洲高清| 真人做人爱边吃奶动态| 亚洲自偷自拍图片 自拍| 亚洲国产精品合色在线| 9热在线视频观看99| 777久久人妻少妇嫩草av网站| 亚洲精品一卡2卡三卡4卡5卡| 黄色 视频免费看| 亚洲少妇的诱惑av| 国产主播在线观看一区二区| 男女床上黄色一级片免费看| 国产免费现黄频在线看| 一夜夜www| 大香蕉久久成人网| 夜夜夜夜夜久久久久| 精品久久蜜臀av无| 人人澡人人妻人| 欧美乱码精品一区二区三区| 亚洲色图av天堂| 三上悠亚av全集在线观看| 久久久水蜜桃国产精品网| 99国产精品一区二区蜜桃av | 不卡av一区二区三区| 热re99久久精品国产66热6| 国产日韩欧美亚洲二区| 亚洲av美国av| 国产av精品麻豆| 国产精华一区二区三区| 精品无人区乱码1区二区| 老司机福利观看| 国产1区2区3区精品| 亚洲欧美日韩另类电影网站| 99久久人妻综合| 天堂动漫精品| 母亲3免费完整高清在线观看| 69精品国产乱码久久久| 狂野欧美激情性xxxx| 国产99久久九九免费精品| 久久久久国产精品人妻aⅴ院 | 男女下面插进去视频免费观看| 久久久国产成人免费| 亚洲avbb在线观看| 真人做人爱边吃奶动态| 国产精品免费视频内射| tube8黄色片| 成人亚洲精品一区在线观看| 中文欧美无线码| 法律面前人人平等表现在哪些方面| 久久精品国产综合久久久| 动漫黄色视频在线观看| 日韩欧美一区视频在线观看| 午夜亚洲福利在线播放| 男人操女人黄网站| 精品久久久久久久久久免费视频 | 久久久久久亚洲精品国产蜜桃av| 91大片在线观看| 免费日韩欧美在线观看| 亚洲伊人色综图| 19禁男女啪啪无遮挡网站| 亚洲五月天丁香| 可以免费在线观看a视频的电影网站| 久久国产精品人妻蜜桃| 欧美激情久久久久久爽电影 | 黄片大片在线免费观看| 熟女少妇亚洲综合色aaa.| 丝袜美足系列| 999精品在线视频| 欧美在线黄色| 国产精品一区二区在线观看99| 欧美色视频一区免费| √禁漫天堂资源中文www| 丝袜美足系列| 动漫黄色视频在线观看| 午夜福利欧美成人| 十八禁网站免费在线| 一夜夜www| 女警被强在线播放| 久久ye,这里只有精品| 女人爽到高潮嗷嗷叫在线视频| 女性被躁到高潮视频| 每晚都被弄得嗷嗷叫到高潮| 久久精品国产清高在天天线| 亚洲一码二码三码区别大吗| 国产亚洲欧美98| 亚洲欧洲精品一区二区精品久久久| 无限看片的www在线观看| 国产精品久久久久久精品古装| av欧美777| 亚洲av日韩精品久久久久久密| 一区二区三区精品91| 色尼玛亚洲综合影院| 美女国产高潮福利片在线看| videos熟女内射| 亚洲中文av在线| 久久九九热精品免费| www.精华液| 热99国产精品久久久久久7| 女同久久另类99精品国产91| 人人妻,人人澡人人爽秒播| 久久久水蜜桃国产精品网| 欧美日韩视频精品一区| 国产aⅴ精品一区二区三区波| 亚洲欧美精品综合一区二区三区| 国产xxxxx性猛交| 国产伦人伦偷精品视频| 成人18禁高潮啪啪吃奶动态图| 中文字幕精品免费在线观看视频| 美女视频免费永久观看网站| 日本精品一区二区三区蜜桃| 亚洲色图 男人天堂 中文字幕| 欧美大码av| 国产精品亚洲一级av第二区| 精品国产美女av久久久久小说| 最新的欧美精品一区二区| 中出人妻视频一区二区| 免费在线观看视频国产中文字幕亚洲| 免费看a级黄色片| 黄色视频,在线免费观看| 一进一出抽搐动态| 中文字幕av电影在线播放| 一进一出抽搐gif免费好疼 | 99re6热这里在线精品视频| 中国美女看黄片| 一级片'在线观看视频| 9热在线视频观看99| 久久精品熟女亚洲av麻豆精品| а√天堂www在线а√下载 | 亚洲 国产 在线| 国产欧美日韩精品亚洲av| 久久精品成人免费网站| 亚洲精品国产一区二区精华液| 欧美乱码精品一区二区三区| 亚洲少妇的诱惑av| 久久中文字幕一级| 可以免费在线观看a视频的电影网站| 成人永久免费在线观看视频| 午夜福利乱码中文字幕| 日韩大码丰满熟妇| 免费观看精品视频网站| 老汉色∧v一级毛片| 成年人免费黄色播放视频| 在线观看免费午夜福利视频| 精品国产乱子伦一区二区三区| 麻豆成人av在线观看| avwww免费| 男人的好看免费观看在线视频 | 精品乱码久久久久久99久播| 一区二区三区精品91| 午夜免费鲁丝| 美女视频免费永久观看网站| 在线天堂中文资源库| 别揉我奶头~嗯~啊~动态视频| 亚洲中文日韩欧美视频| 嫩草影视91久久| 久久中文字幕一级| 婷婷丁香在线五月| 水蜜桃什么品种好| 宅男免费午夜| 制服诱惑二区| 色综合婷婷激情| 精品久久久久久,| 亚洲精华国产精华精| 丰满迷人的少妇在线观看| 悠悠久久av| 老司机影院毛片| 国产亚洲欧美精品永久| 亚洲色图av天堂| 亚洲av美国av| 亚洲九九香蕉| svipshipincom国产片| 精品国产超薄肉色丝袜足j| 亚洲av日韩精品久久久久久密| 国产精品久久久av美女十八| 亚洲黑人精品在线| 亚洲在线自拍视频| 91字幕亚洲| 国产亚洲精品久久久久5区| 国产男女内射视频| 在线观看www视频免费| 亚洲中文av在线| 久久久久视频综合| 又紧又爽又黄一区二区| 日韩三级视频一区二区三区| 人人妻人人澡人人看| 两性午夜刺激爽爽歪歪视频在线观看 | 免费观看人在逋| 久久久久国产一级毛片高清牌| 亚洲专区国产一区二区| 日本精品一区二区三区蜜桃| 精品国产一区二区久久| 欧美精品啪啪一区二区三区| 国产不卡av网站在线观看| 性少妇av在线| 麻豆成人av在线观看| 美女高潮喷水抽搐中文字幕| 一进一出抽搐动态| 激情在线观看视频在线高清 | 日韩欧美在线二视频 | 中文字幕人妻丝袜制服| 久久草成人影院| 黄色成人免费大全| 国产欧美亚洲国产| 亚洲欧美激情综合另类| 下体分泌物呈黄色| a级片在线免费高清观看视频| 国产熟女午夜一区二区三区| 老司机午夜十八禁免费视频| 窝窝影院91人妻| 村上凉子中文字幕在线| 一级片免费观看大全| 两个人看的免费小视频| 精品电影一区二区在线| 日韩精品免费视频一区二区三区| 热re99久久国产66热| 十分钟在线观看高清视频www| 老司机午夜福利在线观看视频| 色尼玛亚洲综合影院| 国产成人av激情在线播放| 下体分泌物呈黄色| 欧美激情 高清一区二区三区| 亚洲人成伊人成综合网2020| 国产精品一区二区精品视频观看| 国产精品九九99| 免费久久久久久久精品成人欧美视频| 亚洲精品在线美女| 中文字幕人妻丝袜制服| 国产精品永久免费网站| 大型黄色视频在线免费观看| 亚洲一码二码三码区别大吗| 50天的宝宝边吃奶边哭怎么回事| 免费黄频网站在线观看国产| 大香蕉久久成人网| 成人永久免费在线观看视频| 国产av一区二区精品久久| 国产国语露脸激情在线看| 在线国产一区二区在线| 久热这里只有精品99| 久久久国产成人精品二区 | 日日摸夜夜添夜夜添小说| 涩涩av久久男人的天堂| 久久99一区二区三区| 我的亚洲天堂| 他把我摸到了高潮在线观看| 成年女人毛片免费观看观看9 | 一边摸一边做爽爽视频免费| 90打野战视频偷拍视频| 亚洲精品国产一区二区精华液| 欧美日韩亚洲高清精品| cao死你这个sao货| 亚洲情色 制服丝袜| 亚洲成人免费av在线播放| 久久精品亚洲av国产电影网| 美国免费a级毛片| 亚洲精品一二三| 精品久久蜜臀av无| 少妇粗大呻吟视频| 亚洲av日韩在线播放| 丁香六月欧美| 人妻 亚洲 视频| 免费不卡黄色视频| 日韩免费av在线播放| av网站免费在线观看视频| 真人做人爱边吃奶动态| 亚洲片人在线观看| 日本一区二区免费在线视频| 久久久久国产精品人妻aⅴ院 | 老司机午夜十八禁免费视频| 又黄又爽又免费观看的视频| 中文字幕人妻丝袜一区二区| aaaaa片日本免费| 亚洲熟女毛片儿| 亚洲欧美一区二区三区黑人| 看免费av毛片| 亚洲片人在线观看| 两人在一起打扑克的视频| 亚洲精品国产区一区二| 老鸭窝网址在线观看| 色播在线永久视频| 国产精品国产av在线观看| 大码成人一级视频| 男人舔女人的私密视频| 成年人黄色毛片网站| 九色亚洲精品在线播放| 中文字幕另类日韩欧美亚洲嫩草| 91老司机精品| 一区二区日韩欧美中文字幕| 女人精品久久久久毛片| 免费在线观看影片大全网站| 嫁个100分男人电影在线观看| 久久精品亚洲熟妇少妇任你| 久久精品人人爽人人爽视色| 黄片播放在线免费| tube8黄色片| x7x7x7水蜜桃| 999久久久国产精品视频| 男人的好看免费观看在线视频 | 亚洲国产精品一区二区三区在线| 免费一级毛片在线播放高清视频 | 久久午夜综合久久蜜桃| 91成人精品电影| 丝袜人妻中文字幕| 成年版毛片免费区| 一夜夜www| 王馨瑶露胸无遮挡在线观看| 啦啦啦 在线观看视频| 最新美女视频免费是黄的| 日韩欧美一区视频在线观看| 久久久久国产一级毛片高清牌| 亚洲 国产 在线| 欧美人与性动交α欧美精品济南到| 女性被躁到高潮视频| 国产三级黄色录像| 最近最新中文字幕大全电影3 | 亚洲午夜理论影院| 中文字幕人妻丝袜一区二区| 校园春色视频在线观看| 丝瓜视频免费看黄片| 国产精华一区二区三区| 又紧又爽又黄一区二区| 精品免费久久久久久久清纯 | 欧美老熟妇乱子伦牲交| 欧洲精品卡2卡3卡4卡5卡区| 丁香欧美五月| 亚洲免费av在线视频| 91字幕亚洲| 免费观看a级毛片全部| 激情在线观看视频在线高清 | 一区二区三区国产精品乱码| 天堂√8在线中文| 国产在线精品亚洲第一网站| 18禁国产床啪视频网站| 国产精品 欧美亚洲| 极品少妇高潮喷水抽搐| 18禁黄网站禁片午夜丰满| 久久久久久免费高清国产稀缺| 国产精品久久视频播放| 国产乱人伦免费视频| 国产伦人伦偷精品视频| 韩国av一区二区三区四区| 免费高清在线观看日韩| 久久青草综合色| 人人妻人人爽人人添夜夜欢视频| av一本久久久久| 精品人妻在线不人妻| 多毛熟女@视频| 国产又色又爽无遮挡免费看| 久久久久国产一级毛片高清牌| 国产又爽黄色视频| 亚洲成a人片在线一区二区| www.自偷自拍.com| 无人区码免费观看不卡| 老熟女久久久| 亚洲免费av在线视频| 日韩成人在线观看一区二区三区| 国产麻豆69| 精品亚洲成国产av| 亚洲精品乱久久久久久| 天天影视国产精品| av网站在线播放免费| 中文字幕色久视频| av天堂在线播放| 老司机午夜十八禁免费视频| www.自偷自拍.com| 性少妇av在线| 村上凉子中文字幕在线| 久久久久国产一级毛片高清牌| 巨乳人妻的诱惑在线观看| 精品久久蜜臀av无| 国产又色又爽无遮挡免费看| 色综合欧美亚洲国产小说| 欧美精品高潮呻吟av久久| 亚洲综合色网址| 一a级毛片在线观看| 欧美日韩亚洲国产一区二区在线观看 | 老司机深夜福利视频在线观看| 国产一区二区三区在线臀色熟女 | 正在播放国产对白刺激| 两个人免费观看高清视频| 伦理电影免费视频| 18禁国产床啪视频网站| 亚洲欧洲精品一区二区精品久久久| 他把我摸到了高潮在线观看| 伦理电影免费视频| 午夜福利一区二区在线看| 高清在线国产一区|