• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    二值卷積神經(jīng)網(wǎng)絡(luò)綜述

    2021-07-07 10:17:52丁文銳劉春蕾李越張寶昌
    航空學報 2021年6期
    關(guān)鍵詞:二值表達能力卷積

    丁文銳,劉春蕾,李越,張寶昌

    1. 北京航空航天大學 無人系統(tǒng)研究院,北京 100083

    2. 北京航空航天大學 電子信息工程學院,北京 100083

    3. 北京航空航天大學 自動化科學與電氣工程學院,北京 100083

    近年來,以深度卷積神經(jīng)網(wǎng)絡(luò)[1-3]為代表的人工智能技術(shù)得到了學術(shù)與工業(yè)領(lǐng)域的廣泛關(guān)注,被視為一次具有重大意義的技術(shù)革新。目前深度卷積神經(jīng)網(wǎng)絡(luò)在多個領(lǐng)域,諸如計算機視覺、語音識別以及自然語言處理等,得到了大量的應(yīng)用。當前,移動互聯(lián)、物聯(lián)網(wǎng)等技術(shù)與各個產(chǎn)業(yè)深度融合,以各類無人系統(tǒng)為平臺載體的移動便攜終端設(shè)備在識別應(yīng)用的需求方面不斷增加。然而,一方面,高性能的深度網(wǎng)絡(luò)模型往往較大,這對將其裝備到小內(nèi)存的移動端無疑是一巨大挑戰(zhàn)。另一方面,深度卷積神經(jīng)網(wǎng)絡(luò)的一大弊端即計算復(fù)雜度高,在運行較大的卷積網(wǎng)絡(luò)模型時,為了實現(xiàn)網(wǎng)絡(luò)中最常見的點積運算需要進行大量計算。因此,復(fù)雜深度神經(jīng)網(wǎng)絡(luò)的劣勢,即構(gòu)成的大量權(quán)重參數(shù)會導致相當大的存儲空間、內(nèi)存帶寬以及計算資源上的消耗,使得在資源受限的移動端難以進行部署,從而使其在實際使用中仍存在著很大的局限性。

    基于以上問題,需要對網(wǎng)絡(luò)進行模型壓縮以獲得輕量化模型,使其可以更方便地部署到小內(nèi)存的移動端設(shè)備上。現(xiàn)有研究對深度網(wǎng)絡(luò)模型壓縮已經(jīng)做出較多綜述性研究[4-9]。模型壓縮[10-11]主要分為高效結(jié)構(gòu)設(shè)計、模型剪枝、網(wǎng)絡(luò)量化等方法。而本文則主要針對于網(wǎng)絡(luò)量化中的極致量化,即二值卷積神經(jīng)網(wǎng)絡(luò)(Binary Convolutional Neural Network,BNN,簡稱二值網(wǎng)絡(luò))進行全面綜述。所謂二值網(wǎng)絡(luò),其目標是將激活和權(quán)重同時量化為二值,二值化后的網(wǎng)絡(luò)具有以下幾個優(yōu)點:第一,內(nèi)存更少。對于嵌入式移動設(shè)備來說,通常無法部署較大內(nèi)存的網(wǎng)絡(luò)模型。而網(wǎng)絡(luò)量化減少了網(wǎng)絡(luò)所需要的內(nèi)存,使得網(wǎng)絡(luò)模型更容易部署。第二,計算速度更高。當今典型的卷積神經(jīng)網(wǎng)絡(luò)模型在訓練時通常需要較大的訓練數(shù)據(jù)集和較多的迭代次數(shù),巨大的計算量會導致較長的網(wǎng)絡(luò)訓練時間,而網(wǎng)絡(luò)量化可以使得網(wǎng)絡(luò)的計算成本相對減少,比如,模型當中的二值量化可以將浮點32位的數(shù)據(jù)轉(zhuǎn)化為1位的數(shù)據(jù),從而將浮點運算轉(zhuǎn)化為位運算,使得計算速度大大提高。因此開展卷積神經(jīng)網(wǎng)絡(luò)二值化技術(shù)研究,不僅是對相關(guān)理論基礎(chǔ)的進一步豐富和擴展,更是對整個深度學習領(lǐng)域有著重要的實際應(yīng)用和理論價值,二值卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用優(yōu)勢示意如圖1所示。

    圖1 二值卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用優(yōu)勢示意圖

    近年來研究者們已經(jīng)提出了一系列卷積神經(jīng)網(wǎng)絡(luò)二值化算法和訓練方法來降低二值化過程中的性能損失。比如,XNOR-Net[12]算法通過重建具有單個比例因子的全精度濾波器,有效地實現(xiàn)卷積運算。文獻[13]提出了一種新的結(jié)構(gòu)變體Bi-Real Net,通過增加網(wǎng)絡(luò)的便捷連接(Shortcut)來大大增強網(wǎng)絡(luò)的表達能力。文獻[14]提出一種損失感知的方法,將二值量化損失考慮到端到端的網(wǎng)絡(luò)中。文獻[15]提出了使用殘差網(wǎng)絡(luò)進行二值量化,可在精確性和復(fù)雜性之間做出權(quán)衡。PCNN[16](Projection Convolutional Neural Networks)通過離散反向傳播對多個投影進行擴展來學習一組不同的量化核。然而現(xiàn)有技術(shù)研究雖然取得了較大的進展,但仍未解決二值網(wǎng)絡(luò)與全精度網(wǎng)絡(luò)之間巨大的性能差異問題。因此,二值卷積神經(jīng)網(wǎng)絡(luò)的更多潛力有待進一步挖掘。

    本文主要從提高網(wǎng)絡(luò)的表達能力和充分挖掘網(wǎng)絡(luò)的訓練潛力方面出發(fā),將現(xiàn)有研究二值卷積神經(jīng)網(wǎng)絡(luò)的方法進行全面綜述。具體來講,提高網(wǎng)絡(luò)的表達能力可以從量化方法和結(jié)構(gòu)設(shè)計兩方面出發(fā),充分挖掘網(wǎng)絡(luò)訓練潛力可以從損失函數(shù)設(shè)計、訓練策略等角度出發(fā)。此外,本文還介紹了二值卷積神經(jīng)網(wǎng)絡(luò)在不同任務(wù)和硬件平臺的發(fā)展情況,并總結(jié)了未來發(fā)展可能面臨的挑戰(zhàn)。本文章節(jié)組織如下:第1節(jié)介紹了二值卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)描述;第2節(jié)從提高網(wǎng)絡(luò)表達能力和充分挖掘網(wǎng)絡(luò)訓練潛力出發(fā)介紹現(xiàn)有的方法;第3節(jié)介紹不同方法在不同任務(wù)和硬件平臺中的性能以及分析;第4節(jié)介紹影響及發(fā)展趨勢,第5節(jié)總結(jié)全文。

    1 二值卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)描述

    在全精度卷積神經(jīng)網(wǎng)絡(luò)中,卷積基本運算可以表示為

    Xl+1=Xl*Wl

    (1)

    式中:Xl和Wl分別代表第l層的特征圖與權(quán)重;*代表卷積算子。大量的浮點乘加運算造成了卷積神經(jīng)網(wǎng)絡(luò)推理過程中效率低下的問題,并且浮點型權(quán)重需要大量的存儲空間。因此,希望采用二值化的方式來減少內(nèi)存,降低計算復(fù)雜度。

    1.1 前向傳播過程二值化

    二值卷積神經(jīng)網(wǎng)絡(luò)是指具有二值權(quán)重和二值激活的深度網(wǎng)絡(luò)模型,特別是通過sign(·)函數(shù)來進行二值化,即

    (2)

    (3)

    (4)

    式中:αl代表l層的尺度因子。

    1.2 反向傳播

    反向傳播過程可以表示為

    (5)

    式中:L代表網(wǎng)絡(luò)損失。由于反向傳播過程中,量化器sign(·)的導數(shù)為沖擊波形式,零點處梯度無窮,非零點處梯度為0,即會在更新過程中造成梯度消失或梯度爆炸。因此,必須設(shè)計合適的梯度來代替sign(·)函數(shù)的原始梯度來進行反向傳播?,F(xiàn)有研究中,研究者通常采用如圖2所示的方波或者三角波的形式或采用其他近似sign(·)函數(shù)的導數(shù)來代替反向傳播中的量化器梯度。

    圖2 量化函數(shù)sign(·)的梯度近似示意圖

    2 二值卷積神經(jīng)網(wǎng)絡(luò)方法概述

    近年來,二值卷積神經(jīng)網(wǎng)絡(luò)領(lǐng)域得到頗多關(guān)注,催生了眾多種類的二值卷積神經(jīng)網(wǎng)絡(luò)方法,從發(fā)展之初的使用預(yù)定義函數(shù)直接對權(quán)重和輸入進行量化的樸素二值化方法,到目前使用基于多種角度和技術(shù)的基于優(yōu)化的二值化方法,研究者們在二值網(wǎng)絡(luò)領(lǐng)域已進行了諸多探索。在目前的基于優(yōu)化的二值方法中,有多種優(yōu)化的思想與技術(shù),包括通過設(shè)計二值優(yōu)化算法來近似全精度值、通過設(shè)計網(wǎng)絡(luò)結(jié)構(gòu)來增大網(wǎng)絡(luò)的表達能力,與通過改進網(wǎng)絡(luò)損失函數(shù)來限制權(quán)重等。然而,即使在二值網(wǎng)絡(luò)中配置上述方法,二值卷積神經(jīng)網(wǎng)絡(luò)相比于其對應(yīng)的全精度網(wǎng)絡(luò),仍然會產(chǎn)生相當大的精度損失,不利于其在很多具有高精度需求的設(shè)備上應(yīng)用。因此如何優(yōu)化二值卷積神經(jīng)網(wǎng)絡(luò),使其在具有節(jié)省資源優(yōu)勢的同時保持較高的網(wǎng)絡(luò)精度,仍是一個具有挑戰(zhàn)性的問題。本文認為,二值卷積神經(jīng)網(wǎng)絡(luò)性能損失的原因主要可歸結(jié)為兩點:其一是有限的表達能力,其二是不充分的訓練。因此,基于這兩點,本文從結(jié)構(gòu)設(shè)計和量化方法兩方面出發(fā)闡述當前提升二值網(wǎng)絡(luò)表達能力的方法,從損失函數(shù)設(shè)計、訓練策略等角度出發(fā)歸納挖掘網(wǎng)絡(luò)訓練潛力的方法。最后,再針對其他任務(wù)平臺所提出的方法進行簡單介紹。

    2.1 提高網(wǎng)絡(luò)表達能力的二值卷積神經(jīng)網(wǎng)絡(luò)

    2.1.1 二值優(yōu)化方法

    樸素的二值網(wǎng)絡(luò)計算直接將激活函數(shù)和權(quán)重量化為1和-1[17],這種映射方式雖然簡單,但對全精度特征和權(quán)重所包含的豐富信息造成了巨大損失,極大降低了量化后網(wǎng)絡(luò)的表達能力。作為考慮量化誤差的早期研究,Rastegari等提出了XNOR-Net[12],將權(quán)重和激活都進行二值化。與先前的研究不同,該工作通過引入二值參數(shù)的比例因子對浮點數(shù)值進行更準確地近似。對于權(quán)重部分,比例因子的計算過程為

    (6)

    式中:α為權(quán)重部分的尺度因子,該尺度因子為逐通道級,通過最小化量化誤差計算而得。尺度因子α的引入可降低二值參數(shù)與對應(yīng)全精度參數(shù)的誤差,進而對浮點數(shù)值進行更準確地近似。激活函數(shù)的量化與式(6)類似。該方法可以大幅度降低由直接量化所帶來的性能損失,并且首次在大型圖像識別數(shù)據(jù)集ImageNet上進行了實驗驗證,為接下來的二值網(wǎng)絡(luò)研究奠定了基礎(chǔ)。

    XNOR-Net優(yōu)化算法掀起了二值網(wǎng)絡(luò)研究的熱潮。為了進一步減少量化誤差,高階殘差量化(HORQ)[15]采用基于量化殘差的全精度激活的遞歸近似,而不是XNOR-Net中使用的一步近似。該算法通過遞歸執(zhí)行殘差量化操作來獲得遞減尺度的二值激活,并通過對這些二值激活進行線性組合來得到最終的量化激活。高階殘差量化的引入在提升網(wǎng)絡(luò)表達能力的同時,不可避免地帶來了計算量升高的問題。此后文獻[18]引入了一種比例因子獲取的新方式——數(shù)據(jù)驅(qū)動。其通過學習帶有參數(shù)的門函數(shù),來從未量化的激活中預(yù)測通道級的比例因子。該方法在增加不足1%計算量的情況下大大提高了二值卷積神經(jīng)網(wǎng)絡(luò)的性能。

    XNOR-Net[12]優(yōu)化算法與HORQ[15]算法均從網(wǎng)絡(luò)前向傳播入手,然而反向傳播算法對于二值卷積神經(jīng)網(wǎng)絡(luò)的訓練亦是至關(guān)重要。在對二值網(wǎng)絡(luò)進行反向傳播部署時,由于sign函數(shù)的梯度不連續(xù)可導,通常采用直通估計器(Straight Through Estimator,STE)的方法來對梯度進行近似。但由于sign的實際梯度與STE之間存在明顯的梯度不匹配,極易導致反向傳播誤差積累的問題,致使網(wǎng)絡(luò)訓練偏離正常的極值點,使得二值網(wǎng)絡(luò)優(yōu)化不足,從而嚴重降低性能。對于近似sign函數(shù)梯度的方波梯度,除了[-1,+1]范圍之內(nèi)的參數(shù)梯度不匹配外,還存在[-1,+1]范圍之外的參數(shù)將不被更新的問題。直觀來看,精心設(shè)計的二值化近似函數(shù)可以緩解反向傳播中的梯度失配問題。Bi-Real Net[13]提供了一個自定義的近似sign函數(shù)(ApproxSign)來替換 sign 函數(shù)以進行反向傳播中的梯度計算,該梯度以三角波形式近似sign函數(shù)的梯度,相比于傳統(tǒng)的STE其相對于沖擊波的相似度更高,因而更貼近于sign函數(shù)梯度的計算。BNN+[19]直接提出用swishsign函數(shù)對sign函數(shù)進行近似來獲取更優(yōu)近似梯度。這些梯度近似方法能進一步對二值卷積神經(jīng)網(wǎng)絡(luò)的反向更新過程進行適度優(yōu)化。

    2.1.2 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計

    除了直接優(yōu)化量化方法外,也有很多研究從網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計方面出發(fā),通過優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)提升網(wǎng)絡(luò)的表達能力。Liu等[20]從二值濾波器的重設(shè)計出發(fā),設(shè)計了循環(huán)二值卷積神經(jīng)網(wǎng)絡(luò)(Circulant Binary Convolutional Network, CBCN),提出了循環(huán)濾波器和循環(huán)二值卷積,通過多角度旋轉(zhuǎn)二值濾波器來增強二值化卷積特征的表達能力;與此同時,該循環(huán)濾波器也可提升網(wǎng)絡(luò)的旋轉(zhuǎn)不變性,提升二值網(wǎng)絡(luò)對于旋轉(zhuǎn)物體的識別魯棒性。為優(yōu)化該循環(huán)濾波器,該文還提出了相應(yīng)的循環(huán)反向傳播用以對網(wǎng)絡(luò)進行訓練。此外,為了提升網(wǎng)絡(luò)的表達能力,Bi-Real Net[13]將每層卷積的輸入特征圖連接到后續(xù)網(wǎng)絡(luò)中,這種方法實質(zhì)上是通過結(jié)構(gòu)轉(zhuǎn)換來調(diào)整數(shù)據(jù)分布,對網(wǎng)絡(luò)的提升效果十分明顯。除此之外,Zhuang等[21]提出了組網(wǎng)絡(luò)(GroupNet),即將網(wǎng)絡(luò)分成若干組,在這些組中,通過聚集一組均勻的二元分支可以有效地重構(gòu)全精度網(wǎng)絡(luò),該策略顯示出對不同任務(wù)(包括分類和語義分割)的強大性能優(yōu)勢,在準確性和節(jié)省大量計算資源方面均有一定優(yōu)越性。此外,文獻[18]中比例因子獲取的方式也可以看作對結(jié)構(gòu)的改進,通過增加顯著模塊(Squeeze and Excitation,SE)來提高網(wǎng)絡(luò)的表達能力。如圖3所示,列出了Bi-Real Net[13]、文獻[18]和GroupNet[21]的網(wǎng)絡(luò)結(jié)構(gòu)。相比于XNOR-Net,以上幾種方法在提升表達能力的同時,通常需要額外的存儲或者計算成本,但與全精度網(wǎng)絡(luò)相比仍然具有較大的理論加速比。對于Bi-Real Net而言,由于只增加了shortcut的個數(shù)(加法計算量),該計算量相對于整體的flops而言是微乎其微的;對于GroupNet而言,其同時增加了存儲和計算量,但是由于增加的是二值計算,相比于全精度而言,理論上仍然存在較大的加速比;對于文獻[18]中的網(wǎng)絡(luò)而言,其僅僅增加了不足1%的計算量,但卻取得了ResNet18在ImageNet上正確分類率65.4%的結(jié)果。

    圖3 網(wǎng)絡(luò)結(jié)構(gòu)示意圖

    2.2 提高網(wǎng)絡(luò)訓練潛力的二值卷積神經(jīng)網(wǎng)絡(luò)

    BinaryDuo[22]算法提出二值卷積神經(jīng)網(wǎng)絡(luò)損失并非由于其表達能力有限,而是極度有限的兩個狀態(tài)使得模型難以被優(yōu)化。因此,在提高模型表達能力的同時,仍然有一系列算法并行挖掘網(wǎng)絡(luò)的訓練潛力。本節(jié)從損失函數(shù)設(shè)計和訓練策略的角度對這些訓練方法進行歸納。

    2.2.1 損失函數(shù)設(shè)計

    從網(wǎng)絡(luò)的訓練方面來看,僅關(guān)注某一層很難保證經(jīng)過一系列層后最終輸出的精確性。因此,網(wǎng)絡(luò)的訓練需全局考慮二值化以及特定的任務(wù)目標。近來,大量研究工作對于網(wǎng)絡(luò)訓練中的損失函數(shù)進行探究,以期在二值化帶來的限制下?lián)p失函數(shù)仍能較為準確地引導網(wǎng)絡(luò)參數(shù)的學習過程。

    通常來講,一般的二值化方案僅關(guān)注對浮點數(shù)值的精確局部逼近,而忽略二值參數(shù)對全局損失的影響。Hou等[14]提出了損失感知二值化方法,使用擬牛頓算法與對角哈希近似直接將與二值權(quán)重相關(guān)的總損失最小化,并求得了近端步驟的有效閉環(huán)解。該文證明了除了從量化角度考慮與任務(wù)相關(guān)的損失外,設(shè)計額外的量化感知損失項也是可行的。另一方面,激活的分布對于整個網(wǎng)絡(luò)的優(yōu)化也是至關(guān)重要的。Ding等[23]總結(jié)了二值卷積神經(jīng)網(wǎng)絡(luò)中由前向二值化和反向傳播引起的問題,包括激活分布的“退化”、“飽和”和“梯度不匹配”。為解決這些問題,Ding等[23]提出了一系列對于二值特征圖的約束,聯(lián)合任務(wù)中的損失函數(shù)共同指導網(wǎng)絡(luò)訓練,盡可能降低這些問題帶來的不利影響。此外,全精度模型也可以損失函數(shù)的形式為二值網(wǎng)絡(luò)提供引導信息,用以指導、優(yōu)化二值網(wǎng)絡(luò)的訓練。Liu等[24]認為如果二值網(wǎng)絡(luò)能學習到與全精度網(wǎng)絡(luò)相似的分布,則其表現(xiàn)可獲得一定程度的提升。因而提出了基于“分布損失”的方法,通過計算二值網(wǎng)絡(luò)與全精度網(wǎng)絡(luò)輸出之間的KL散度來衡量二者分布間的差距,進而引導二值卷積神經(jīng)網(wǎng)絡(luò)去學習與全精度網(wǎng)絡(luò)輸出相似的分布。同樣地,文獻[18]從特征圖級的約束出發(fā),以全精度網(wǎng)絡(luò)的特征圖為引導信息,通過注意力匹配損失函數(shù)的引入來對二值網(wǎng)絡(luò)的特征圖與全精度特征圖進行匹配,提升二值網(wǎng)絡(luò)的訓練潛能。另外,在卷積核級的約束上,Gu等[25]提出Bayesian損失,將全精度核和特征的先驗分布合并到二值網(wǎng)絡(luò)中,通過對全精度卷積核的引導來提升二值卷積核的表達能力。

    總結(jié)來講,利用構(gòu)建損失函數(shù)來提高二值卷積網(wǎng)絡(luò)的訓練潛能,一般可以在不增加網(wǎng)絡(luò)推理時間的同時提升網(wǎng)絡(luò)性能,是當下較為流行的訓練手段之一。

    2.2.2 訓練策略

    由于二值網(wǎng)絡(luò)所具有的高度離散性,其訓練過程常需要引入特殊的訓練方法,以使得訓練過程穩(wěn)定且獲得更高的收斂精度。因此一類廣為研究的方法,即對二值網(wǎng)絡(luò)的訓練方法進行重新設(shè)計,以構(gòu)建出高效的二值網(wǎng)絡(luò)。

    傳統(tǒng)的二值方法同時對激活函數(shù)和權(quán)重進行優(yōu)化,文獻[26]認為這對反向傳播本就使用近似梯度的低比特網(wǎng)絡(luò)來說是較為困難的,為此該文提出使用兩階段優(yōu)化策略來逐步找到良好的局部最小值。具體來說,首先構(gòu)建僅具有量化權(quán)重的網(wǎng)絡(luò)并對此進行優(yōu)化,然后將該優(yōu)化所得的網(wǎng)絡(luò)作為預(yù)訓練模型,將其激活也進行量化,對權(quán)重與激活均量化的網(wǎng)絡(luò)進行訓練。與此同時,文獻[26]還提出另一種漸進式優(yōu)化方法,通過在訓練過程中逐漸減少網(wǎng)絡(luò)中數(shù)值表示的位寬,實現(xiàn)從高精度網(wǎng)絡(luò)到低精度網(wǎng)絡(luò)的逐漸轉(zhuǎn)換。這種漸進式訓練策略可以為低位寬模型提供適宜的初始化條件,有助于減輕低比特網(wǎng)絡(luò)的訓練難度。

    與此同時,模型蒸餾的方法被廣泛應(yīng)用在二值網(wǎng)絡(luò)訓練中。一般來講,模型蒸餾的方法是通過大型教師模型提供引導信息,指導小型學生模型訓練。在二值網(wǎng)絡(luò)的應(yīng)用中,全精度網(wǎng)絡(luò)或高精度網(wǎng)絡(luò)一般被視作教師模型,二值網(wǎng)絡(luò)或低精度網(wǎng)絡(luò)一般被視作學生模型,以實現(xiàn)二值網(wǎng)絡(luò)的引導性訓練。文獻[26-27]等多篇論文都提出模型蒸餾的思想,通過高精度模型所生成的特征圖對低精度模型的訓練過程加以指導,從而使得低精度特征圖接近于高精度特征圖以獲取更高的訓練精度。Zhuang等[26]提出一種基于全精度輔助訓練的方案。該方案通過共同訓練全精度網(wǎng)絡(luò)和二值網(wǎng)絡(luò),使得二值網(wǎng)絡(luò)的更新能夠同時借助全精度網(wǎng)絡(luò)提供的信息。實驗證明該方法可有效提升二值網(wǎng)絡(luò)的訓練性能。與純粹的蒸餾思想不同,文獻[28]提出了一種借助生成對抗模型來引導二值網(wǎng)絡(luò)訓練的方法。該文利用對抗學習中生成器與判別器相互對抗、共同獲得性能提升的思想,將二值網(wǎng)絡(luò)視作生成器,生成“假”特征圖,由相應(yīng)的全精度網(wǎng)絡(luò)生成“真”特征圖,通過引入一個判別器對真假特征圖進行鑒別,使得二值網(wǎng)絡(luò)生成特征圖分布更接近于全精度特征圖,從而提高二值網(wǎng)絡(luò)性能。

    另外,一種基于“耦合-分解”思想的訓練策略在BinaryDuo[22]方法中被提出。該文通過利用梯度失配估計器進行實驗發(fā)現(xiàn),對于二值網(wǎng)絡(luò)中存在的梯度不匹配問題,采用更高的激活精度比修改激活函數(shù)的可微近似更為有效?;谠摪l(fā)現(xiàn),BinaryDuo在訓練過程中將兩個二值激活耦合為三元激活,對該三元耦合網(wǎng)絡(luò)進行優(yōu)化,并將優(yōu)化所得的網(wǎng)絡(luò)解耦為二值網(wǎng)絡(luò),通過微調(diào)進一步提升網(wǎng)絡(luò)性能。同時,文獻[29]中提出了一種實現(xiàn)梯度量化的DoReFa-Net。由于向前/向后遍歷期間的卷積可以分別在低位寬權(quán)重和激活/梯度上運行,因此DoReFa-Net可以使用位卷積內(nèi)核來加快訓練和推理速度。

    此外,在訓練二值卷積神經(jīng)網(wǎng)絡(luò)時選擇適當?shù)某瑓?shù)和特定的優(yōu)化器有助于提高二值網(wǎng)絡(luò)的性能,使二值網(wǎng)絡(luò)的收斂更為迅速并最終達到較高的收斂精度。大多數(shù)現(xiàn)有的二值卷積神經(jīng)網(wǎng)絡(luò)模型選擇了自適應(yīng)學習率優(yōu)化器,例如Adam優(yōu)化器,使用Adam優(yōu)化器可以使訓練過程收斂更快更好[30]。同時,設(shè)置批量歸一化處理對于網(wǎng)絡(luò)的訓練也很關(guān)鍵,在網(wǎng)絡(luò)訓練過程中通過批量歸一化處理對網(wǎng)絡(luò)的特征圖分布進行調(diào)整,能夠使網(wǎng)絡(luò)訓練更加充分,有助于提升二值網(wǎng)絡(luò)的整體性能。另外,一些研究者試圖從信息論的角度對二值網(wǎng)絡(luò)進行解釋,并得出了相關(guān)的正則化訓練技巧。Qin等[31]指出量化函數(shù)的使用使得二值網(wǎng)絡(luò)的前向與反向傳播都不可避免地產(chǎn)生了信息損失。為了降低這種損失,Qin等[31]從最大化信息熵的角度出發(fā)來最小化前向傳播中的信息損失,通過簡單地正則化操作使得二值網(wǎng)絡(luò)的訓練更為魯棒。

    2.3 面向其他應(yīng)用的二值卷積神經(jīng)網(wǎng)絡(luò)

    除圖像分類任務(wù)之外,目標檢測與語義分割也是視覺領(lǐng)域的常見任務(wù)之一,且相比于圖像分類其復(fù)雜度更高、難度更大,其性能對于二值化的敏感度也更高。目前領(lǐng)域內(nèi)存在少量研究,其二值網(wǎng)絡(luò)是專門為這兩種復(fù)雜任務(wù)而設(shè)計的。

    在目標檢測方面,由于常規(guī)的網(wǎng)絡(luò)二值化方法通常在具有受限表達能力的一級或兩級檢測器中直接量化權(quán)重和激活,這會造成信息冗余,從而導致大量誤報并嚴重降低性能。針對這一問題,二值檢測器BiDet[32]提出充分利用二值卷積神經(jīng)網(wǎng)絡(luò)的表達能力,通過冗余消除進行目標檢測,通過減少誤報來提高檢測精度。具體來說,將信息瓶頸(Information Bottleneck,IB)原理推廣到目標檢測領(lǐng)域,對高級特征圖中的信息量進行限制,并且使得特征圖與對象檢測之間的互信息最大化。與此同時,BiDet學習稀疏對象先驗,以便后驗者可專注于具有誤報消除的信息檢測預(yù)測。BiDet是第一個提出將目標檢測任務(wù)中的主干網(wǎng)絡(luò)和檢測網(wǎng)絡(luò)同時量化的二值網(wǎng)絡(luò),然而其結(jié)果顯示,二值化后的網(wǎng)絡(luò)產(chǎn)生了較大性能損失,二值卷積神經(jīng)網(wǎng)絡(luò)在目標檢測任務(wù)中仍然任重而道遠。

    對于語義分割任務(wù)而言,其對于網(wǎng)絡(luò)特征圖的多尺度信息要求更高。在這種要求下,GroupNet[21]提出二值并行卷積(Binary Parallel Atrous Convolution, BPAC),該算法將豐富的多尺度上下文嵌入到BNN中以進行準確的語義分割。與僅使用Groupnet相比,具有BPAC的Group-Net可以在保持復(fù)雜度不變的情況下顯著提高模型性能。

    除此之外的大部分應(yīng)用方法均是以分類為主,在其他應(yīng)用上進行遷移和測試,很少有針對任務(wù)本身設(shè)計的二值化方法。

    2.4 其他方法

    近年來網(wǎng)絡(luò)結(jié)構(gòu)搜索(Neural Architecture Search, NAS)[33]在深度學習領(lǐng)域取得了令人振奮的成績,這種方法通常自動設(shè)計針對于各種任務(wù)的最佳神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)。二值網(wǎng)絡(luò)結(jié)構(gòu)搜索(Binary Neural Architecture Search, BNAS)[34]提出將通道采樣和降低搜索空間引入到NAS中,以顯著降低搜索成本,通過基于性能的策略來放棄有效性低的操作。Shen等[35]提出了一個用于自動搜索緊湊而準確的二值卷積神經(jīng)網(wǎng)絡(luò)的新框架。具體而言,基于該框架的二值網(wǎng)絡(luò)將每層中的通道數(shù)編碼到搜索空間中,并在訓練過程中利用進化算法進行優(yōu)化。實驗表明,該方法搜索得到的二值卷積神經(jīng)網(wǎng)絡(luò)模型在模型大小和計算增量都可以接受的情況下,可以實現(xiàn)與全精度模型完全匹配的性能。

    除NAS之外,還有一些研究從優(yōu)化角度重新考慮二值網(wǎng)絡(luò)的優(yōu)化問題。文獻[36]認為在二值網(wǎng)絡(luò)中,不能僅將訓練中的全精度權(quán)重直接類似于實值網(wǎng)絡(luò)中的權(quán)重。相反,它們的主要作用是在訓練過程中為二值權(quán)重的更新提供慣性。因此,文獻[36]為二值網(wǎng)絡(luò)的優(yōu)化提供了新穎的見解,根據(jù)慣性來解釋當前二值網(wǎng)絡(luò)優(yōu)化方法,并設(shè)計了一個專用于二值網(wǎng)絡(luò)的優(yōu)化器Bop。根據(jù)將Bop用于二值網(wǎng)絡(luò)優(yōu)化其在CIFAR-10和ImageNet數(shù)據(jù)集上的性能表現(xiàn),文獻[36]很好地證明了該種二值網(wǎng)絡(luò)優(yōu)化新視角的可行性。而將訓練中的全精度權(quán)重重新從慣性的角度加以定義以及引入Bop在一起,也可以幫助研究者們對二值網(wǎng)絡(luò)優(yōu)化有更深入地理解,并為進一步改進二值網(wǎng)絡(luò)的訓練方法開辟了新的道路。

    此外,考慮到在二值網(wǎng)絡(luò)中梯度下降法并不適用于量化函數(shù),文獻[37]提出可以將二值網(wǎng)絡(luò)的優(yōu)化看作一個離散的優(yōu)化問題,為量化函數(shù)設(shè)置新的目標以最小化損失。對于離散優(yōu)化問題,其目標是找到一組目標,以使每個單元(包括輸出)都有線性可分離的問題要解決。給定這些目標,網(wǎng)絡(luò)將分解為單獨的感知器,因而可以使用標準凸方法進行學習。在此基礎(chǔ)上,文獻[37]開發(fā)了一種用于學習深閾值網(wǎng)絡(luò)的遞歸微型批處理算法。該方法的提出為量化領(lǐng)域開辟了一個新的研究方向,并在分類數(shù)據(jù)集ImageNet上進行了驗證。

    3 實 驗

    3.1 用于二值網(wǎng)絡(luò)的實驗數(shù)據(jù)集

    二值卷積神經(jīng)網(wǎng)絡(luò)量化應(yīng)用主要集中在目標分類任務(wù)上,同時在目標檢測與語義分割任務(wù)上也有少部分應(yīng)用。本節(jié)將分別介紹不同應(yīng)用中常用的數(shù)據(jù)集。

    3.1.1 分類數(shù)據(jù)集

    對于分類任務(wù),常用的數(shù)據(jù)集主要包括MNIST手寫字體數(shù)據(jù)集[38]、SVHN數(shù)據(jù)集[39]、CIFAR10/100數(shù)據(jù)集[40]以及ImageNet大規(guī)模圖像數(shù)據(jù)集[41]。

    MNIST:該數(shù)據(jù)集來自美國國家標準與技術(shù)研究所,由不同人手寫的數(shù)字圖片構(gòu)成。數(shù)據(jù)集包含60 000個用于訓練的樣本和10 000個用于測試的樣本。這些樣本均已經(jīng)過尺寸標準化處理使數(shù)字位于圖像中心。每個樣本大小固定為28×28像素,其像素值范圍為0~1。

    SVHN:該數(shù)據(jù)來源于谷歌街景圖像中門牌號碼,每張圖片中包含一組‘0~9’的阿拉伯數(shù)字。數(shù)據(jù)集分成了訓練集、測試集與附加集3個子集。其中訓練集中包含73 257個數(shù)字,測試集中包含26 032個數(shù)字,附加集有531 131個數(shù)字。其圖像大小固定為32×32像素,像素值范圍為0~1。相比于同為數(shù)字識別數(shù)據(jù)集的MNIST,SVHN由于標記數(shù)據(jù)更多、來自自然場景,因而識別難度更大。

    CIFAR10/100:CIFAR10與CIFA100均為彩色圖片數(shù)據(jù)集。其中CIFAR10由包含10個類別的60 000個彩色圖像樣本組成,并被分成了訓練集與測試集兩個子集。訓練集和測試集分別包含50 000張與10 000張圖像,每張圖像分辨率為32×32像素。該數(shù)據(jù)集覆蓋了包括飛機、汽車、鳥類、貓、鹿、狗、青蛙、馬、船和卡車在內(nèi)的10個類別,類別之間完全互斥。與CIFAR10數(shù)據(jù)組成結(jié)構(gòu)一致,CIFAR100則包含具有更為細致分類的100個類別,每個類別包含了600個圖像樣本,為500個訓練樣本與100個測試樣本的組合。由于需要進行更精細的識別,CIFAR100的識別難度比CIFAR10更大。

    ImageNet:ImageNet是一個用于視覺對象識別研究的大型可視化數(shù)據(jù)庫。相比于前面介紹的數(shù)據(jù)集,ImageNet不管在圖片數(shù)量還是圖片分辨率上都有數(shù)量級上的提升。其由1 000個類別組成,包括了約120萬張訓練圖像和5萬張驗證圖像。ImageNet對深度學習的浪潮起了巨大的推動作用,也是當前神經(jīng)網(wǎng)絡(luò)量化在分類數(shù)據(jù)集上驗證的最常用數(shù)據(jù)集。

    3.1.2 目標檢測與語義分割數(shù)據(jù)集

    相比于圖像分類數(shù)據(jù)集,目標檢測與語義分割數(shù)據(jù)集由于標注工作量巨大,因而其建立過程更為復(fù)雜。目前領(lǐng)域內(nèi)常用的檢測、分割數(shù)據(jù)集有PASCAL VOC2012[42]數(shù)據(jù)集與COCO[43]數(shù)據(jù)集。

    PASCAL VOC2012:該數(shù)據(jù)集源于 PASCAL 視覺目標檢測比賽,用于評估計算機視覺領(lǐng)域中包括語義分割、目標檢測等在內(nèi)的多種任務(wù)上模型的性能。該數(shù)據(jù)集包含人、常見動物、交通車輛、室內(nèi)家具用品在內(nèi)的4個大類并進一步細分為20小類。對于檢測任務(wù),VOC2012包含了11 540張圖片在內(nèi)的27 450個物體,而對于分割任務(wù),VOC2012則包含了2 913張圖片在內(nèi)的6 929個 物體。

    COCO:該數(shù)據(jù)集是 Microsoft 團隊提供的用于圖像識別和目標檢測的數(shù)據(jù)集,是一個大型、豐富的物體檢測與分割數(shù)據(jù)集。該數(shù)據(jù)集以場景理解為目標,主要從復(fù)雜的日常場景截取圖像。數(shù)據(jù)集由80個類別構(gòu)成,涵括了超過33萬張圖片,其中20萬張有標注,整個數(shù)據(jù)集中個體的數(shù)目超過了150萬個?,F(xiàn)有研究使用COCO trainval 35K(115K圖像)進行分割訓練,并使用minival(5K圖像)進行分割驗證。

    3.2 圖像分類實驗結(jié)果

    對于MNIST、SVHN,由于其類別較小,數(shù)據(jù)量也較少,現(xiàn)有二值卷積神經(jīng)網(wǎng)絡(luò)在這些數(shù)據(jù)集上往往取得接近于全精度的結(jié)果,對于二值方法性能評估的意義不大。因此,近年來很少有工作報告該數(shù)據(jù)集上的測試精度。CIFAR10/100介于MNIST、SVHN與ImageNet之間,但由于數(shù)據(jù)量有限,在CIFAR數(shù)據(jù)集上進行測試容易造成過擬合,但由于其相對難度和訓練時間適中,也多為研究者所采用。

    在本節(jié)中,列出了近年來關(guān)于二值卷積神經(jīng)網(wǎng)絡(luò)比較經(jīng)典和先進方法的結(jié)果,其所有數(shù)據(jù)都是直接引用對應(yīng)原始論文中的結(jié)果。在此,選取了XNOR-Net[12]、Bi-Real Net[13]、XNOR-Net++[44]、PCNN[16]、BONN[11]、IR-Net[31]、CI-Net[45]、BNN[17]、ABC-Net[46]、BNN+[19]、CBCN[20]、GroupNet[21]、文獻[18]中的baseline、文獻[18]以及BinaryDuo[22]等方法來進行對比,用以顯示當前二值網(wǎng)絡(luò)在目標分類任務(wù)上的性能水平,如表1所示,其中:FP表示全精度網(wǎng)絡(luò)。

    從表1的結(jié)果中,可以看出,由于訓練時的GPU資源有限,目前大部分研究在展示基于ImageNet數(shù)據(jù)集的實驗結(jié)果時,都選用了模型較小、對GPU資源需求較少的ResNet18[1]結(jié)構(gòu)?;诙祪?yōu)化的XNOR-Net方法比樸素量化的BNN高出9%(51.2%~42.2%),這也說明了XNOR-Net方法優(yōu)化得到的尺度因子在量化過程中大大提高了二值化模型的表達能力。此外,基于結(jié)構(gòu)設(shè)計的方法,Bi-Real Net、CBCN、GroupNet、文獻[18]中的方法進一步提高了二值網(wǎng)絡(luò)的表達能力。通過一個簡單的特征圖短接的加法操作,Bi-Real Net對二值卷積后進行了信息補償,從而獲得了超過5%的性能提升。GroupNet則采用犧牲計算量的方法來擴展二值分支,當擴展到4倍時,其ResNet18的Top-1性能高達64.4%,這也說明了從結(jié)構(gòu)設(shè)計角度對二值網(wǎng)絡(luò)進行適當調(diào)整,可以大幅增加其表達能力。但是如何在結(jié)構(gòu)設(shè)計中同時考慮效率與分類精度兩個方面,以獲得這兩個度量上的平衡,是目前存在的一個關(guān)鍵問題。

    表1 不同新型的二值卷積神經(jīng)網(wǎng)絡(luò)在ImageNet分類數(shù)據(jù)集上的驗證

    關(guān)于訓練策略而言,BinaryDuo通過對較高精度的三值網(wǎng)絡(luò)的解耦,在不增加推理過程中存儲和計算量的情況下大大提高了二值網(wǎng)絡(luò)的性能。此外,文獻[18]方法使用了模型蒸餾、漸進量化等多種訓練策略,很大程度上挖掘了模型的訓練潛力。其ResNet18結(jié)構(gòu)在ImageNet分類數(shù)據(jù)集上可以達到65.4%的精度,在增加不足1%計算量的情況下,將其與全精度網(wǎng)絡(luò)的性能差距縮小到了3.9%。

    3.3 目標檢測和圖像分割實驗結(jié)果

    文獻[21]認為在目標檢測任務(wù)中,對檢測網(wǎng)絡(luò)的主干部分和特征金字塔均進行二值化處理對性能的影響較小。但是,對于網(wǎng)絡(luò)的其他部分,如檢測頭,當進行量化時情況并不樂觀。實驗表明對檢測頭進行二值化會導致檢測性能明顯下降。這種下降可以根據(jù)檢測網(wǎng)絡(luò)的特性得到解釋。一般認為,檢測網(wǎng)絡(luò)的檢測頭部分是負責將提取的多級特征適配到分類和回歸目標,其表達能力對于檢測器的性能至關(guān)重要。但是,當多級信息進行二值化操作而被強制約束為{-1,1}時,其信息會遭到破壞而影響檢測性能。同時這也表明除主干外的其他檢測模塊對量化都很敏感,需要得到更多的研究以減輕其量化困難的問題,因而這也很可能是未來工作的一個有希望的方向。

    此外,對于語義分割任務(wù)而言,文獻[21]提出的基于ResNet50骨干網(wǎng)的Group-Net性能下降相對最大。進一步表明,廣泛使用的瓶頸結(jié)構(gòu)對于二值網(wǎng)絡(luò)并不友好。

    3.4 其他應(yīng)用實驗結(jié)果

    除了目標分類、目標檢測和語義分割等一些主流應(yīng)用驗證,還有一些研究也在其他應(yīng)用上進行過實驗驗證,比如文獻[28]在目標跟蹤任務(wù)中的Got10k、OTB50、OTB100及 UAV123等數(shù)據(jù)集上進行驗證,實驗表明在跟蹤任務(wù)的精度和成功率兩大指標方面,二值網(wǎng)絡(luò)與全精度網(wǎng)絡(luò)仍然具有一定的差距。此外,Bi-Real Net將二值模型應(yīng)用在深度估計應(yīng)用領(lǐng)域,其是自動駕駛和無人導航的重要任務(wù),壓縮深度估計CNN對于將強大的CNN部署到內(nèi)存和計算資源有限的移動設(shè)備至關(guān)重要。在深度估計任務(wù)上進行驗證時,Bi-Real Net 采用了KITTI數(shù)據(jù)集[47]。結(jié)果表明,在深度估計實驗中,Bi-Real Net二值卷積神經(jīng)網(wǎng)絡(luò)幾乎能達到和全精度網(wǎng)絡(luò)相近的性能,僅僅產(chǎn)生了0.3%的微量性能損失。另外,還有研究[16]在人臉識別、行人重識別、手勢分類[48]等應(yīng)用上進行過實驗驗證,實驗結(jié)果顯示直接遷移的二值網(wǎng)絡(luò)在其他任務(wù)應(yīng)用上還與全精度網(wǎng)絡(luò)有一定的差距。

    3.5 嵌入式設(shè)備應(yīng)用實驗結(jié)果

    為了能夠使二值網(wǎng)絡(luò)得到實際中的應(yīng)用,目前針對二值網(wǎng)絡(luò)的嵌入式設(shè)備開發(fā)也有相應(yīng)研究。Bi-Real Net基于嵌入式應(yīng)用的Vivado設(shè)計套件[49]估算了18層Bi-Real Net及其在現(xiàn)場可編程門陣列(Field-Programmable Gate Aray, FPGA)上的全精度網(wǎng)絡(luò)的執(zhí)行時間。與FPGA板上的全精度網(wǎng)絡(luò)相比,二值卷積神經(jīng)網(wǎng)絡(luò)Bi-Real Net使用相同或更少的資源將執(zhí)行速度加速6.07倍。與全精度卷積相比,二值卷積層的速度提高了15.8倍。通過累加所有操作的執(zhí)行時間,最終經(jīng)過測試,18層Bi-Real Net比具有相同結(jié)構(gòu)的全精度網(wǎng)絡(luò)能夠加速7.38倍。

    另外如文獻[50]所述,在二值網(wǎng)絡(luò)領(lǐng)域已經(jīng)有一些推斷框架,例如BMXNet[51]、BitStream[52]、BitFlow[53]。其中,BitStream和BitFlow只進行了論文發(fā)表,而沒有建立源代碼或二值庫。BMXNet 雖然開源,但在 Google Pixel 1 手機上進行的測試顯示,其運行速度甚至比全精度推斷框架TensorFlow Lite還要慢。因此,為了填補二值網(wǎng)絡(luò)推理框架缺失的空白,京東AI開源了一個針對ARM指令集高度優(yōu)化的二值網(wǎng)絡(luò)推理框架dabnn[54],這也是第1個高度優(yōu)化的針對二值網(wǎng)絡(luò)的開源推理框架。和BMXNet相比,dabnn的速度得到了一個數(shù)量級的提升。一些研究者也實際部署與應(yīng)用該推理框架,用以測試所設(shè)計二值網(wǎng)絡(luò)的實際推理速度。如IR-Net便使用dabnn框架計算了算法部署到實際移動設(shè)備中時的效率。與現(xiàn)有的高性能推理(包括NCNN[30]和DSQ[55])比較結(jié)果如表2[31]所示,從中可以看出相比于全精度網(wǎng)絡(luò)與其他低位寬網(wǎng)絡(luò),二值卷積神經(jīng)網(wǎng)絡(luò)IR-Net的推理速度要快得多。與此同時,IR-Net的模型大小也可以大大減小,且在IR-Net中引入的移位尺度幾乎不會帶來額外的推理時間和存儲消耗。

    表2 不同二值卷積神經(jīng)網(wǎng)絡(luò)在推理過程中的存儲量和推理時間[31]

    表3[49]顯示了各種方案中BNN的參數(shù)大小和計算成本。計算成本(Floating Point Operations, FLOPs)是根據(jù)Bi-Real Net中的方法計算而得,即浮點數(shù)乘法的數(shù)量與1/64倍1位乘法的數(shù)量之和。從表中的結(jié)果可以看出,對于大部分基于訓練方法或者優(yōu)化近似的二值卷積神經(jīng)網(wǎng)絡(luò)而言,其并未改變其網(wǎng)絡(luò)的基本結(jié)構(gòu)配置,因此在推理過程中,具有相近的參數(shù)和浮點計算量。對于一些擴展結(jié)構(gòu)的二值卷積神經(jīng)網(wǎng)絡(luò)而言,其參數(shù)和計算量會相對增加,以GroupNet為例,當擴展倍數(shù)為1時,GroupNet的參數(shù)量和計算量與普通二值網(wǎng)絡(luò)相同,而當相應(yīng)擴展倍數(shù)時,其卷積層的計算量和參數(shù)量也會成倍增加。

    表3 各種新型二值卷積神經(jīng)網(wǎng)絡(luò)在ImageNet分類數(shù)據(jù)集上的參數(shù)量和FLOPS[49]

    4 影響及發(fā)展趨勢

    二值卷積神經(jīng)網(wǎng)絡(luò)旨在解決深度學習技術(shù)的效率瓶頸,這將會對社會產(chǎn)生積極影響。特別是,由于小型智能設(shè)備廣泛的商業(yè)價值和令人興奮的前景,全世界將配備數(shù)十億個小型、聯(lián)網(wǎng)和智能設(shè)備。這些設(shè)備中的許多設(shè)備將嵌入家庭、車輛、工廠和城市中。此外,可穿戴設(shè)備正變得越來越流行。低功耗計算設(shè)備的激增將推動工業(yè)領(lǐng)域乃至整個社區(qū)的發(fā)展,并在下一波個人計算浪潮中發(fā)揮至關(guān)重要的作用。重要的是,這些設(shè)備將在很大程度上依賴于現(xiàn)代深度學習,從而在感知和決策方面變得“智能”。通過將數(shù)據(jù)從移動設(shè)備上載到云來依靠云計算可能會遇到許多問題,由于延遲、隱私問題,更是難以實現(xiàn),因而變得不可行。因此,迫切需要在移動設(shè)備本身上執(zhí)行深度學習推理。但是,深度學習方法主要是為“重”平臺(例如GPU)設(shè)計的,而大多數(shù)移動設(shè)備都沒有配備強大的GPU,也沒有足夠的內(nèi)存來運行和存儲龐大的深度模型。解決這些瓶頸將使我們能夠設(shè)計和實施有效的深度學習系統(tǒng),這將幫助我們解決各種實際應(yīng)用,例如具有高度隱私的個人計算。因此,二值卷積神經(jīng)網(wǎng)絡(luò)作為解決在提高深度學習推理效率以使其更具可擴展性和實用性方面的核心技術(shù)挑戰(zhàn),將會為整個社會帶來巨大利益。

    此外,目前二值網(wǎng)絡(luò)應(yīng)用主要面向目標分類,一些文章也專門設(shè)計了針對于語義分割和目標檢測任務(wù)的二值網(wǎng)絡(luò)。而對于視頻、語音、其他時序信號方面,網(wǎng)絡(luò)量化技術(shù)的發(fā)展和應(yīng)用仍處于較為空白的階段。而面對這些應(yīng)用,若要取得較好的量化結(jié)果,必須充分考慮應(yīng)用的特點,比如視頻信號具有強幀間相關(guān)性特點。語音、通信信號為一維信號,量化后可能會顯示出與二維圖像信號完全不同的特點,要考慮其時域、頻域特點,結(jié)合任務(wù)特征進行量化處理。

    盡管二值卷積神經(jīng)網(wǎng)絡(luò)中現(xiàn)今已取得很大進展,但相對于全精度網(wǎng)絡(luò)而言,仍然面臨巨大的性能損失,特別是對大型網(wǎng)絡(luò)和數(shù)據(jù)集。主要原因可能包括:① 尚不清楚哪種網(wǎng)絡(luò)結(jié)構(gòu)是適合二值化的,即未能總結(jié)出網(wǎng)絡(luò)哪些組成即使進行二值化之后,也可以保留網(wǎng)絡(luò)中較為充足的信息。② 即 使我們具有用于二值化的梯度估計器或近似函數(shù),在離散空間中優(yōu)化二進制網(wǎng)絡(luò)也是一個難題。但是通過現(xiàn)有的研究明確了提高二值網(wǎng)絡(luò)表達能力以及充分挖掘其訓練潛力都將對提高二值網(wǎng)絡(luò)性能產(chǎn)生積極影響。

    5 結(jié) 論

    本文對二值卷積神經(jīng)網(wǎng)絡(luò)進行全面的綜述,主要從提高網(wǎng)絡(luò)表達能力與充分挖掘網(wǎng)絡(luò)訓練潛力的角度出發(fā),給出當前二值卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展脈絡(luò)與研究現(xiàn)狀。具體而言,從二值化量化方法設(shè)計和結(jié)構(gòu)設(shè)計兩方面進行提高網(wǎng)絡(luò)表達能力方法的概述,從損失函數(shù)設(shè)計和訓練策略兩方面進行充分挖掘網(wǎng)絡(luò)訓練潛力方法的概述。最后,將二值卷積神經(jīng)網(wǎng)絡(luò)在不同任務(wù)與硬件平臺的應(yīng)用情況進行總結(jié)和討論,并展望了未來研究可能面臨的挑戰(zhàn)。對于當前二值卷積神經(jīng)網(wǎng)絡(luò)的研究,本文總結(jié)如下:

    1) 二值卷積神經(jīng)網(wǎng)絡(luò)占用存儲空間小、計算效率高,研究的主要挑戰(zhàn)是其與全精度網(wǎng)絡(luò)之間巨大的性能差異。

    2) 二值網(wǎng)絡(luò)的研究,主要以提高網(wǎng)絡(luò)的表達能力和挖掘網(wǎng)絡(luò)的訓練潛力為主。

    3) 針對于挖掘網(wǎng)絡(luò)訓練潛力的方法,在一般情況推理模式下模型存儲和計算量都不發(fā)生改變,而模型性能提高。

    4) 部分對于以提高網(wǎng)絡(luò)表達能力為主的方法會增加網(wǎng)絡(luò)的存儲或計算量,并容易獲得顯著的性能提升。

    5) 現(xiàn)在二值網(wǎng)絡(luò)的應(yīng)用主要以ImageNet數(shù)據(jù)集上的目標分類為主,少量研究也在目標檢測、語義分割、目標跟蹤、深度估計、人臉識別及行人重識別等應(yīng)用上進行驗證,表明二值網(wǎng)絡(luò)的適用范圍較廣。

    6) 目前將二值網(wǎng)絡(luò)配置在硬件設(shè)備上實現(xiàn)實際加速已有一些研究,主要集中在ARM、FPGA上,但開源研究仍較少,由于各種結(jié)構(gòu)設(shè)計和輔助模塊,在真實硬件設(shè)備上并不一定有較大的加速比,因此,實際硬件加速也將是二值網(wǎng)絡(luò)研究的一個重點方向。

    綜上所述,二值卷積神經(jīng)網(wǎng)絡(luò)的研究將對未來嵌入式小型便攜設(shè)備的發(fā)展產(chǎn)生不可忽略的作用,并可極大推動深度學習技術(shù)的發(fā)展和應(yīng)用。

    猜你喜歡
    二值表達能力卷積
    混沌偽隨機二值序列的性能分析方法研究綜述
    基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
    支持CNN與LSTM的二值權(quán)重神經(jīng)網(wǎng)絡(luò)芯片
    創(chuàng)新寫作教學,培養(yǎng)表達能力
    談學生口語表達能力的培養(yǎng)
    甘肅教育(2020年20期)2020-04-13 08:05:22
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    基于二值形態(tài)學算子的軌道圖像分割新算法
    基于傅里葉域卷積表示的目標跟蹤算法
    視頻圖像文字的二值化
    加強聯(lián)想力和口語表達能力
    午夜日本视频在线| 建设人人有责人人尽责人人享有的| 中文字幕人妻熟人妻熟丝袜美| a级片在线免费高清观看视频| 两个人的视频大全免费| 国产亚洲欧美精品永久| 热99国产精品久久久久久7| 丰满饥渴人妻一区二区三| 伊人久久国产一区二区| 黄色欧美视频在线观看| 国产精品国产av在线观看| 国产毛片在线视频| 性高湖久久久久久久久免费观看| 久久久久久久久久久免费av| 亚洲经典国产精华液单| 日本黄大片高清| 91午夜精品亚洲一区二区三区| 欧美日韩在线观看h| 亚洲综合色惰| 亚洲自偷自拍三级| 日韩av免费高清视频| 视频中文字幕在线观看| 国语对白做爰xxxⅹ性视频网站| 最近的中文字幕免费完整| 亚洲国产毛片av蜜桃av| 亚洲成人av在线免费| av免费观看日本| 天堂8中文在线网| 欧美日韩av久久| 国产深夜福利视频在线观看| 国产在线男女| 亚洲第一av免费看| 成人美女网站在线观看视频| 亚洲精华国产精华液的使用体验| 国产在线视频一区二区| 欧美最新免费一区二区三区| 国产成人精品无人区| 中文天堂在线官网| 在线观看免费日韩欧美大片 | 亚洲天堂av无毛| 国产伦精品一区二区三区视频9| 中国三级夫妇交换| 一级毛片电影观看| 嫩草影院入口| 欧美日韩一区二区视频在线观看视频在线| 看十八女毛片水多多多| 五月伊人婷婷丁香| 国产av国产精品国产| 婷婷色av中文字幕| 日韩熟女老妇一区二区性免费视频| 精华霜和精华液先用哪个| 人人妻人人添人人爽欧美一区卜| 三上悠亚av全集在线观看 | 国产在视频线精品| 久久婷婷青草| 日韩人妻高清精品专区| 免费大片18禁| 九九爱精品视频在线观看| 伦理电影大哥的女人| 看非洲黑人一级黄片| 久久精品久久精品一区二区三区| 老熟女久久久| 制服丝袜香蕉在线| 午夜激情久久久久久久| 日韩一区二区三区影片| 久久久久国产网址| 亚洲av男天堂| 精品一区二区三区视频在线| 国产毛片在线视频| 亚洲国产av新网站| 中文乱码字字幕精品一区二区三区| 欧美97在线视频| 亚洲国产精品一区二区三区在线| 在线观看国产h片| 人妻系列 视频| 国产av一区二区精品久久| 日韩av在线免费看完整版不卡| 亚洲精品国产成人久久av| 人妻系列 视频| 亚洲,欧美,日韩| av免费观看日本| 国产成人免费无遮挡视频| 99热这里只有精品一区| 亚洲电影在线观看av| 久久久久视频综合| 午夜激情福利司机影院| 免费大片黄手机在线观看| 久久久久精品久久久久真实原创| 嫩草影院入口| 国产欧美日韩精品一区二区| 免费观看a级毛片全部| 日日爽夜夜爽网站| 欧美97在线视频| 久久精品成人免费网站| 91精品国产国语对白视频| 嫩草影视91久久| 俄罗斯特黄特色一大片| 久久久精品94久久精品| 久久久久久人人人人人| 亚洲人成77777在线视频| 女警被强在线播放| 精品国产国语对白av| 涩涩av久久男人的天堂| 国产黄色免费在线视频| 国产成人免费无遮挡视频| 99久久人妻综合| 美女脱内裤让男人舔精品视频| 精品久久蜜臀av无| 国产亚洲av高清不卡| 欧美黑人欧美精品刺激| 日本vs欧美在线观看视频| 日韩免费高清中文字幕av| 男人添女人高潮全过程视频| 在线观看免费日韩欧美大片| 一区二区三区乱码不卡18| 久久国产精品男人的天堂亚洲| av网站免费在线观看视频| 精品一区在线观看国产| 嫩草影视91久久| 中文字幕人妻丝袜制服| 久久人人爽av亚洲精品天堂| 丁香六月天网| 日韩大码丰满熟妇| 99久久99久久久精品蜜桃| 国产成人系列免费观看| 香蕉国产在线看| 亚洲国产欧美网| 国产成人系列免费观看| 亚洲熟女精品中文字幕| 不卡av一区二区三区| 久热这里只有精品99| 成年人黄色毛片网站| 99国产精品99久久久久| 久久久国产欧美日韩av| 欧美亚洲 丝袜 人妻 在线| 啦啦啦中文免费视频观看日本| 国产深夜福利视频在线观看| 免费看十八禁软件| 在线观看舔阴道视频| 国产精品久久久av美女十八| 国产色视频综合| 免费一级毛片在线播放高清视频 | 男女之事视频高清在线观看| 久久人人爽av亚洲精品天堂| 在线观看一区二区三区激情| 成人黄色视频免费在线看| 亚洲精品av麻豆狂野| 涩涩av久久男人的天堂| 成年人黄色毛片网站| 亚洲国产欧美网| 日韩 欧美 亚洲 中文字幕| 视频在线观看一区二区三区| 9191精品国产免费久久| 宅男免费午夜| 成人国产av品久久久| 亚洲 国产 在线| 欧美xxⅹ黑人| 久久综合国产亚洲精品| 欧美av亚洲av综合av国产av| 如日韩欧美国产精品一区二区三区| 91精品伊人久久大香线蕉| 亚洲国产毛片av蜜桃av| av福利片在线| 欧美精品啪啪一区二区三区 | 亚洲欧洲日产国产| 欧美亚洲日本最大视频资源| 永久免费av网站大全| 中国国产av一级| 国产精品久久久久久精品古装| 天天添夜夜摸| 亚洲情色 制服丝袜| 日韩制服丝袜自拍偷拍| 这个男人来自地球电影免费观看| 人妻人人澡人人爽人人| 日本精品一区二区三区蜜桃| 桃花免费在线播放| 国产无遮挡羞羞视频在线观看| 日韩视频一区二区在线观看| 黑人欧美特级aaaaaa片| 国产精品久久久av美女十八| 69精品国产乱码久久久| 曰老女人黄片| 色94色欧美一区二区| 高清av免费在线| 亚洲精品在线美女| 91av网站免费观看| 免费一级毛片在线播放高清视频 | 亚洲精品在线美女| 69av精品久久久久久 | 久久国产精品影院| 亚洲视频免费观看视频| 男女下面插进去视频免费观看| 国产熟女午夜一区二区三区| 黑人猛操日本美女一级片| 免费日韩欧美在线观看| 国产高清视频在线播放一区 | 午夜久久久在线观看| 咕卡用的链子| 亚洲av成人不卡在线观看播放网 | 久久国产亚洲av麻豆专区| 美女视频免费永久观看网站| 国产伦理片在线播放av一区| 久久久久国内视频| 男女国产视频网站| 下体分泌物呈黄色| 国产一卡二卡三卡精品| 中亚洲国语对白在线视频| www.熟女人妻精品国产| 欧美日韩亚洲高清精品| 国产成人精品久久二区二区91| xxxhd国产人妻xxx| 欧美午夜高清在线| 精品欧美一区二区三区在线| 亚洲专区中文字幕在线| 免费人妻精品一区二区三区视频| 老司机亚洲免费影院| 亚洲久久久国产精品| 亚洲成国产人片在线观看| 国产亚洲一区二区精品| 国产精品久久久久久人妻精品电影 | 极品人妻少妇av视频| 欧美日韩精品网址| 俄罗斯特黄特色一大片| 国产成人免费无遮挡视频| 久久精品aⅴ一区二区三区四区| 99香蕉大伊视频| 丝袜脚勾引网站| 成人亚洲精品一区在线观看| 50天的宝宝边吃奶边哭怎么回事| 国产精品久久久人人做人人爽| 国产成人av教育| 97精品久久久久久久久久精品| videosex国产| 久久青草综合色| 精品国产一区二区三区四区第35| 国产成人免费观看mmmm| 天天躁夜夜躁狠狠躁躁| tocl精华| 亚洲专区国产一区二区| 亚洲一码二码三码区别大吗| 99九九在线精品视频| 欧美老熟妇乱子伦牲交| 国产男人的电影天堂91| 丝瓜视频免费看黄片| 亚洲激情五月婷婷啪啪| 亚洲午夜精品一区,二区,三区| 国产三级黄色录像| 91老司机精品| 80岁老熟妇乱子伦牲交| 老司机福利观看| 午夜精品国产一区二区电影| 亚洲人成电影观看| 欧美精品亚洲一区二区| 久久99一区二区三区| 美女福利国产在线| 欧美日本中文国产一区发布| 丰满迷人的少妇在线观看| 午夜影院在线不卡| av片东京热男人的天堂| 欧美+亚洲+日韩+国产| 亚洲人成电影观看| 欧美精品亚洲一区二区| 亚洲一码二码三码区别大吗| 亚洲欧美清纯卡通| videosex国产| 国产av国产精品国产| 国产精品国产av在线观看| 首页视频小说图片口味搜索| 丝瓜视频免费看黄片| 国产精品成人在线| 97精品久久久久久久久久精品| 日韩欧美免费精品| 午夜日韩欧美国产| 亚洲精品粉嫩美女一区| 久久99热这里只频精品6学生| 国产精品香港三级国产av潘金莲| 久久久久国产一级毛片高清牌| 久久久久久久大尺度免费视频| 免费看十八禁软件| 狂野欧美激情性bbbbbb| 久久99一区二区三区| 久久精品国产综合久久久| 美女高潮喷水抽搐中文字幕| 亚洲欧洲精品一区二区精品久久久| 男女午夜视频在线观看| 菩萨蛮人人尽说江南好唐韦庄| 热re99久久精品国产66热6| 69av精品久久久久久 | 一个人免费看片子| 桃花免费在线播放| 日本五十路高清| 免费观看a级毛片全部| 久热爱精品视频在线9| 日韩欧美免费精品| 一本久久精品| 国产有黄有色有爽视频| 人妻人人澡人人爽人人| 亚洲性夜色夜夜综合| 黄色怎么调成土黄色| 午夜免费观看性视频| 亚洲国产av影院在线观看| 999精品在线视频| 中国美女看黄片| 亚洲精品国产av成人精品| 大香蕉久久网| 一区二区三区四区激情视频| 日本精品一区二区三区蜜桃| 国产日韩一区二区三区精品不卡| 考比视频在线观看| 午夜成年电影在线免费观看| 国产精品香港三级国产av潘金莲| 国产男人的电影天堂91| videos熟女内射| 制服诱惑二区| 一区二区三区激情视频| 国产黄色免费在线视频| 国产精品一区二区精品视频观看| 午夜福利在线免费观看网站| 老司机福利观看| 另类精品久久| 久久精品国产亚洲av高清一级| 精品一区二区三区av网在线观看 | 少妇猛男粗大的猛烈进出视频| 一区二区三区激情视频| 日韩熟女老妇一区二区性免费视频| 女人精品久久久久毛片| 国产精品久久久久久精品电影小说| 少妇被粗大的猛进出69影院| 波多野结衣一区麻豆| 午夜福利视频精品| 国产又爽黄色视频| 日韩大码丰满熟妇| 一级毛片精品| 午夜免费成人在线视频| 亚洲av日韩在线播放| 国产片内射在线| 国产精品久久久av美女十八| 91国产中文字幕| 中文字幕av电影在线播放| 国产伦理片在线播放av一区| 十分钟在线观看高清视频www| 一边摸一边抽搐一进一出视频| 亚洲性夜色夜夜综合| 日日摸夜夜添夜夜添小说| 18禁国产床啪视频网站| 久久久久精品国产欧美久久久 | 桃花免费在线播放| av在线老鸭窝| 欧美黄色淫秽网站| tube8黄色片| 国产成人欧美在线观看 | 国产欧美日韩一区二区三区在线| 精品熟女少妇八av免费久了| 久久久久久久大尺度免费视频| 国产熟女午夜一区二区三区| 男人舔女人的私密视频| 老司机午夜十八禁免费视频| 乱人伦中国视频| 国产麻豆69| 狠狠精品人妻久久久久久综合| 国产欧美日韩一区二区精品| 悠悠久久av| 久久久久国内视频| 热re99久久精品国产66热6| 亚洲五月婷婷丁香| 999久久久精品免费观看国产| 中文欧美无线码| 亚洲三区欧美一区| 波多野结衣一区麻豆| 老汉色∧v一级毛片| 亚洲美女黄色视频免费看| 丰满饥渴人妻一区二区三| 国产精品偷伦视频观看了| 亚洲va日本ⅴa欧美va伊人久久 | 性色av乱码一区二区三区2| 夫妻午夜视频| 欧美成人午夜精品| 亚洲中文av在线| 免费久久久久久久精品成人欧美视频| 18禁观看日本| av超薄肉色丝袜交足视频| 午夜日韩欧美国产| 亚洲视频免费观看视频| 最新在线观看一区二区三区| 久热爱精品视频在线9| 黑丝袜美女国产一区| 欧美大码av| 一个人免费看片子| 欧美人与性动交α欧美精品济南到| 一边摸一边抽搐一进一出视频| 黄色视频在线播放观看不卡| 午夜福利在线免费观看网站| 91大片在线观看| 亚洲成人免费av在线播放| 亚洲美女黄色视频免费看| 亚洲专区国产一区二区| 交换朋友夫妻互换小说| 欧美乱码精品一区二区三区| 亚洲av日韩精品久久久久久密| 精品少妇内射三级| 丝袜美腿诱惑在线| www日本在线高清视频| 欧美精品一区二区大全| 少妇 在线观看| 欧美日韩成人在线一区二区| 欧美日韩亚洲高清精品| 免费不卡黄色视频| 欧美97在线视频| 法律面前人人平等表现在哪些方面 | 日本一区二区免费在线视频| 女人高潮潮喷娇喘18禁视频| 老司机福利观看| 久久精品aⅴ一区二区三区四区| 国产高清videossex| 人人妻人人爽人人添夜夜欢视频| 国产1区2区3区精品| 久久精品人人爽人人爽视色| 亚洲专区字幕在线| 久久精品国产亚洲av高清一级| 下体分泌物呈黄色| 91国产中文字幕| 老熟妇仑乱视频hdxx| 一区二区av电影网| 欧美av亚洲av综合av国产av| 一级毛片电影观看| 在线精品无人区一区二区三| 91精品伊人久久大香线蕉| 俄罗斯特黄特色一大片| 老熟妇乱子伦视频在线观看 | 在线十欧美十亚洲十日本专区| 亚洲av欧美aⅴ国产| 久久人人爽人人片av| 黄片大片在线免费观看| 亚洲 国产 在线| 首页视频小说图片口味搜索| av视频免费观看在线观看| 国产精品一区二区免费欧美 | a级毛片黄视频| 这个男人来自地球电影免费观看| 中文字幕制服av| 亚洲av男天堂| 人妻 亚洲 视频| 91老司机精品| 亚洲性夜色夜夜综合| 在线 av 中文字幕| 免费人妻精品一区二区三区视频| 午夜精品国产一区二区电影| 一本色道久久久久久精品综合| 国产淫语在线视频| 黑人欧美特级aaaaaa片| 视频区欧美日本亚洲| 日韩免费高清中文字幕av| 伊人亚洲综合成人网| 精品国产超薄肉色丝袜足j| 日本一区二区免费在线视频| 亚洲第一av免费看| 久久国产精品人妻蜜桃| 黄网站色视频无遮挡免费观看| 国产一区二区三区av在线| 久久人人97超碰香蕉20202| 国产精品亚洲av一区麻豆| 亚洲精品久久成人aⅴ小说| 欧美久久黑人一区二区| 久久女婷五月综合色啪小说| 一边摸一边抽搐一进一出视频| 超色免费av| 亚洲 国产 在线| 大码成人一级视频| 亚洲av美国av| 亚洲av成人一区二区三| 欧美精品人与动牲交sv欧美| 每晚都被弄得嗷嗷叫到高潮| 成年女人毛片免费观看观看9 | 性色av一级| 操出白浆在线播放| 亚洲欧美色中文字幕在线| 国产高清videossex| 黄色视频不卡| 老司机影院成人| 欧美日韩成人在线一区二区| 亚洲精品一区蜜桃| 欧美国产精品一级二级三级| 国产欧美日韩精品亚洲av| 搡老熟女国产l中国老女人| 啪啪无遮挡十八禁网站| 午夜视频精品福利| 爱豆传媒免费全集在线观看| 国产91精品成人一区二区三区 | 91字幕亚洲| 老司机午夜福利在线观看视频 | 最近中文字幕2019免费版| 精品福利观看| 最黄视频免费看| 在线观看一区二区三区激情| 久久热在线av| 最近中文字幕2019免费版| 日韩 亚洲 欧美在线| av福利片在线| 久久狼人影院| av在线播放精品| 免费女性裸体啪啪无遮挡网站| 久久人人爽人人片av| 热99re8久久精品国产| 成年动漫av网址| 国产99久久九九免费精品| 免费观看人在逋| 麻豆乱淫一区二区| 国产精品秋霞免费鲁丝片| 午夜福利乱码中文字幕| 久久国产亚洲av麻豆专区| 男女下面插进去视频免费观看| 亚洲精品中文字幕在线视频| 狂野欧美激情性xxxx| 欧美黄色片欧美黄色片| 亚洲专区字幕在线| 成人手机av| 新久久久久国产一级毛片| 伦理电影免费视频| 色94色欧美一区二区| 国产精品99久久99久久久不卡| 欧美日韩福利视频一区二区| 美女中出高潮动态图| 脱女人内裤的视频| 99国产精品一区二区蜜桃av | 日韩一区二区三区影片| 亚洲av男天堂| 黄片小视频在线播放| 搡老熟女国产l中国老女人| 亚洲精品久久久久久婷婷小说| 国产三级黄色录像| 9热在线视频观看99| 99精品久久久久人妻精品| 日韩 欧美 亚洲 中文字幕| 看免费av毛片| 永久免费av网站大全| 黄色 视频免费看| 自拍欧美九色日韩亚洲蝌蚪91| 免费在线观看完整版高清| 一本久久精品| 香蕉国产在线看| 国产日韩欧美在线精品| 国产99久久九九免费精品| 99国产精品一区二区蜜桃av | 韩国高清视频一区二区三区| 久久久久久亚洲精品国产蜜桃av| 国产不卡av网站在线观看| 99九九在线精品视频| 欧美亚洲 丝袜 人妻 在线| 91成人精品电影| 久久久久久久久免费视频了| 欧美xxⅹ黑人| 久久久久久人人人人人| 国产精品欧美亚洲77777| 亚洲av电影在线进入| 97精品久久久久久久久久精品| 老司机午夜十八禁免费视频| 日韩电影二区| 国产1区2区3区精品| 午夜福利在线观看吧| 女人高潮潮喷娇喘18禁视频| 9色porny在线观看| 久久精品国产亚洲av高清一级| 欧美日韩亚洲高清精品| 国产亚洲午夜精品一区二区久久| 国产精品.久久久| 97精品久久久久久久久久精品| 99久久精品国产亚洲精品| 欧美午夜高清在线| 无限看片的www在线观看| 免费观看a级毛片全部| 精品一品国产午夜福利视频| 真人做人爱边吃奶动态| 男女边摸边吃奶| 国产亚洲精品第一综合不卡| 精品第一国产精品| 狠狠狠狠99中文字幕| 亚洲专区中文字幕在线| 欧美精品av麻豆av| 叶爱在线成人免费视频播放| 亚洲精品国产区一区二| 亚洲精品国产一区二区精华液| videosex国产| 国产精品一二三区在线看| 777米奇影视久久| 日韩三级视频一区二区三区| 狂野欧美激情性bbbbbb| 国产97色在线日韩免费| 日本黄色日本黄色录像| 欧美日韩精品网址| 国产一区二区在线观看av| 一本一本久久a久久精品综合妖精| 亚洲va日本ⅴa欧美va伊人久久 | 热re99久久精品国产66热6| av网站在线播放免费| 人人妻人人澡人人爽人人夜夜| 天堂俺去俺来也www色官网| 人妻久久中文字幕网| 人人妻人人澡人人爽人人夜夜| 日韩中文字幕欧美一区二区| 大片电影免费在线观看免费| 91成年电影在线观看| 性色av一级| 日本猛色少妇xxxxx猛交久久| 亚洲性夜色夜夜综合| 丝袜在线中文字幕| 丰满人妻熟妇乱又伦精品不卡| 肉色欧美久久久久久久蜜桃| 国产高清视频在线播放一区 | 人人妻人人澡人人爽人人夜夜| 动漫黄色视频在线观看| 免费久久久久久久精品成人欧美视频| 99精国产麻豆久久婷婷| 每晚都被弄得嗷嗷叫到高潮| 欧美精品av麻豆av| 亚洲av日韩在线播放|