• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向彈載圖像的深度學習網(wǎng)絡壓縮方法研究

    2023-05-30 02:42:01高一博楊傳棟陳棟凌沖
    航空兵器 2023年1期

    高一博 楊傳棟 陳棟 凌沖

    引用格式:高一博,楊傳棟,陳棟,等.面向彈載圖像的深度學習網(wǎng)絡壓縮方法研究[J].航空兵器,2023,30(1):95-103.

    GaoYibo,YangChuandong,ChenDong,etal.ResearchonDeepLearningNetworkCompressionMethodforMissileBorneImage[J].AeroWeaponry,2023,30(1):95-103.(inChinese)

    摘要:針對基于深度學習目標識別算法具有網(wǎng)絡結構復雜、參數(shù)量大、計算延遲高等特點,難以直接應用于彈載任務的問題,對網(wǎng)絡輕量化方法進行了歸納總結。介紹了已有的壓縮方法和輕量化網(wǎng)絡的優(yōu)點及各自特點,并選擇各個方面優(yōu)秀的算法進行比較。最后,結合深度學習在目標檢測領域中的發(fā)展,對輕量化彈載圖像目標識別算法進行了展望。

    關鍵詞:網(wǎng)絡模型壓縮;輕量化網(wǎng)絡;彈載圖像;深度學習模型;算法移植

    中圖分類號:TJ413+.6

    文獻標識碼:A

    文章編號:1673-5048(2023)01-0095-09

    DOI:10.12132/ISSN.1673-5048.2022.0079

    0引言

    精確制導武器是現(xiàn)代戰(zhàn)爭制勝的關鍵因素,精確制導武器的核心部件是導引頭[1]。制導過程中,導引頭行使著觀測目標、感知環(huán)境、進行識別與跟蹤的職責,直到完成對目標的精確打擊。然而導引頭制導的效果取決于對目標位置判斷的精度,半主動制導的激光制導需要前哨站進行對目標的激光指引,隱蔽性極差;被動制導的雷達制導,極易被空間各種信號干擾以及被敵人捕捉。圖像制導使用CMOS(ComplementaryMetalOxideSemiconductor)采集目標可見光信息,抗電磁干擾能力強,且不需架設前哨站[2]。與普通的移動終端所使用專用芯片ASIC(ApplicationSpecificIntegratedCircuit)不同,導引頭中的彈載計算機核心處理單元架構主要包括DSP(DigitalSignalProcessing),DSP+FPGA(FieldProgrammableGateArray),SoC(SystemonChip)等。DSP資源較少,無法滿足目前的算法需求,如今主流方式是使用DSP+FPGA的方式。FPGA具有接口豐富、靈活性高的特點,然而其具有高功耗性,對于本就高消耗的深度學習算法是較難承受的。對此,各大廠商提出SoC,從而提高系統(tǒng)性能,降低系統(tǒng)成本、功耗以及重量和尺寸,但開發(fā)周期較長,研制費用較高,不適用于需要快速應用的小型武器系統(tǒng)。嵌入SoC的芯片,既有PL端的資源靈活性,又有PS端的強大處理器功能,適合深度學習算法的部署,但其中參數(shù)量和網(wǎng)絡結構的巨大是難以實用的難點之一。模型壓縮與輕量化是設計的關鍵步驟,既需要滿足軟件層面算法足夠的精度,又應保證移植硬件時參數(shù)量少、速度快。內(nèi)部空間小、彈丸作用時間短、嵌入式硬件平臺處理速度要求高是限制在彈載平臺上部署深度學習算法的關鍵因素[3]。因此,很有必要研究壓縮深度學習的算法。

    1面向彈載目標的跟蹤算法

    1.1彈載目標特性

    圖像制導彈的成像特點包括以下幾方面:

    (1)尺度變化大。彈體在空中飛行速度非???,平均速度可達200~300m/s,目標圖像在視場內(nèi)的尺度變化非常大,如圖1所示。當彈目距離較遠時,目標在視場中成像較小,細節(jié)不清晰;當彈目距離較近時,目標在視場內(nèi)的成像較大,細節(jié)不斷出現(xiàn)。因此,彈載圖像跟蹤算法需要有尺度不變性。

    (2)目標旋轉。由于彈體外形和氣動特性影響,圖像制導彈在飛行時伴有連續(xù)旋轉。雖然攝像機獲取的圖像經(jīng)過了消旋處理,但是由于彈體舵機控制和消旋精度的影響,彈體仍會出現(xiàn)一定程度的旋轉,導致視場中目標圖像的位置不斷發(fā)生變化,如圖2所示。彈體的連續(xù)旋轉導致目標圖像連續(xù)旋轉,可以看出在不同時刻目標所在位置不同。因此,彈載圖像跟蹤算法需要具有旋轉不變性。

    (3)目標進出視場(目標進入或離開視場范圍)。圖像制導彈在高速飛行過程中伴隨一定程度的章動,導致目標頻繁進出視場。當目標出視場后,由于前后兩幀中必定有相同的場景,根據(jù)深度學習中前景與背景特征提取方法,可以利用深度學習中掩膜激活,或者特征關聯(lián)方式預測下一幀目標出現(xiàn)的范圍;而對于半出視場或者部分出視場的目標,基于深度學習的方法可以輕松進行識別跟蹤。

    1.2各種跟蹤算法對比

    結合上述彈載目標獨有的特征,尋找跟蹤算法,各種算法的對比如表1所示。

    由表1可以看出,背景減除法只適合固定背景下目標的識別,且易受環(huán)境光線的影響,不適用于亮度不斷變換的彈載圖像。幀間差分法通過幀間圖像的差別來區(qū)分目標區(qū)域,但是由于彈體高速運動,彈載圖像間的幀間差別太大,很難識別出有效的目標區(qū)域。光流法抗噪聲能力差,簡單模板匹配法實時性差,且此方法魯棒性較差,缺少模板更新,而彈載圖像的尺度處于不斷變化當中,準確度較低。SFIT算法對旋轉、尺度放縮、亮度變化保持較高水平,對視角變化、仿射變化、噪聲的穩(wěn)定性較差,且不夠實時?;谏疃葘W習的算法由于各種目標都是訓練出來的,訓練好的網(wǎng)絡,準確度高,對尺度不變性和旋轉不變性,甚至遮擋出視場都有極強的適應能力。由于深度學習訓練網(wǎng)絡非常多,故速度和準確度相互有所取舍,其通病就是網(wǎng)絡結構過大,參數(shù)量多,計算量大,對彈載平臺有著巨大的負荷。因此,需要尋找各種壓縮深度學習網(wǎng)絡的方式使之符合彈載平臺的承受力。

    2模型壓縮方法

    本節(jié)重點介紹當前主流的壓縮方法和輕量化網(wǎng)絡設計,具體技術如表2所示。

    2.1參數(shù)量化與共享

    大多數(shù)操作系統(tǒng)和編程語言默認為32位浮點數(shù)組成的單精度數(shù),對內(nèi)存占用量較大,尤其在深度學習網(wǎng)

    絡模型中,大量的權值、激活值均需要占4bit的內(nèi)存。而在彈載環(huán)境中,允許保證近似效果的情況下減少參數(shù)量。常用量化、哈希、改變計算形式等技術降低參數(shù)量,減少冗余。

    2.1.1量化參數(shù)

    量化網(wǎng)絡過程常見的有1-bit二值網(wǎng)絡,2-bit三值網(wǎng)絡,以及將32位浮點數(shù)降低為16位浮點數(shù)或16位、8位的定點數(shù)。

    Mohammad等[4]在二進制權重網(wǎng)絡中,將濾波器近似為二進制值,結果可節(jié)省32×的內(nèi)存。Guo等[5]提出一種基于二進制權值網(wǎng)絡結構和深度優(yōu)先搜索算法相結合的多類別圖像分割模型,將其應用于人臉識別領域,取得較好效果。用二進制權重網(wǎng)絡的Alex網(wǎng)絡版本與完全準確的AlexNet版本一樣準確。

    Li等[6]引入了三元權值網(wǎng)絡TWNs神經(jīng)網(wǎng)絡,權值限制為+1,0和-1。全精度權重利用歐氏距離最小原則轉換為三值權值。另外,對基于閾值的三元函數(shù)進行了優(yōu)化,獲得一種快速、簡便的近似解,并通過實驗證明,該算法在保持較高預測性能和壓縮效率的情況下提高了圖像質量;TWNs比最近提出的二進制精度對應物等網(wǎng)絡更具有表達能力和有效性。同時,TWNs可實現(xiàn)16×或32×的模型壓縮率,且在較高維度下也具有良好的壓縮效果。因此,TWNs是一個非常有潛力的基于深度學習的圖像分類方法。來自MNIST,CIFAR-10和大型ImageNet數(shù)據(jù)集的標準顯示,TWNs只比全精度略低,但比類似的二進制精度要好得多。

    Krishnamoorthi[7]提出一種采用非線性量化的方法,將權值和輸入值都量化為unit8類型,而激活函數(shù)中偏置量化為unit32位。該方法統(tǒng)計了每一層權值的范圍分布,非線性地對應每個量化后的權值,同時還提供了一個權值量化訓練網(wǎng)絡,以確保端到端的精度。

    2.1.2權值替代

    Han等[8]使用k-means聚類算法將權重分類,并不斷微調權值,減少精度損失。根據(jù)調整后的權值進行分類,得到各個中心,然后使用所得的中心值替代該類其他值,最后使用霍夫曼編碼再次壓縮。Chen[9]利用哈希函數(shù),建立HashNet,其建議在訓練前對網(wǎng)絡權重進行量化和分組,并在每個組內(nèi)分享權重。HashNet的結構如圖3所示。在這種方法下,儲存值就是哈希索引以及

    少量的權值,減少了大量存儲消耗。由于采用了一種新的算

    法來處理數(shù)據(jù)集的相似性度量問題,也減少了對查詢結果進行匹配所需的計算量。實驗結果表明,該系統(tǒng)能夠取得很好的效果,但是該技術無法節(jié)省運行時的內(nèi)存和推理時間,因為需要哈希映射找回共享的權值。

    2.1.3降低計算復雜度

    與廉價的加法運算相比,乘法運算的計算復雜度要高得多。而深度神經(jīng)網(wǎng)絡中廣泛使用的卷積恰好是互相

    關的,方便測量輸入特征和卷積濾波器之間的相似性,但是這涉及浮點值之間的大量乘法。Chen等[10]提出加法器網(wǎng)絡(AdderNets),來替換深度神經(jīng)網(wǎng)絡中的這些大規(guī)模乘法,特別是卷積神經(jīng)網(wǎng)絡CNN(ConvolutionalNeuralNetwork),以獲得更少的計算復雜度,降低計算成本。AdderNets采用濾波器和輸入特征之間的L1范數(shù)距離作為輸出響應,并提出一種自適應學習速率策略,根據(jù)每個神經(jīng)元梯度的幅度來增強AdderNets的訓練過程。AdderNets可以在ImageNet數(shù)據(jù)集上使用ResNet-50實現(xiàn)74.9%Top-1精度和91.7%Top-5精度,而不會在卷積層中進行任何乘法。

    2.2參數(shù)剪枝

    彈載圖像數(shù)據(jù)量多而復雜,對于目標識別和分類網(wǎng)絡是巨大的考驗,故需要強大魯棒的網(wǎng)絡,而嵌入式網(wǎng)絡部署工程要求網(wǎng)絡更加輕量,剪枝可以將原本魯棒的網(wǎng)絡減去大量連接和計算,并維持相當?shù)木?。剪枝模式如圖4所示。

    剪枝可分為非結構化剪枝和結構化剪枝。非結構化剪枝是細粒度剪枝,即可以去除任意“冗余”的單獨神經(jīng)元權值,以獲得高壓縮率,實質是稀疏化卷積核矩陣。剪枝粒度示意圖如圖5所示。但裁剪后的網(wǎng)絡結構混亂,難以進行進一步操作,例如移位代替卷積、加法代替乘法等。結構化剪枝的最小單位是濾波器內(nèi)的一組參數(shù),通過為濾波器或特征圖設置評價因子,甚至通過刪除整個濾波器或某些通道,網(wǎng)絡“縮小”,允許直接對現(xiàn)有的軟件/硬件進行有效加速。但如果沒有一個合適的優(yōu)化算法,則不能保證得到最優(yōu)解。

    2.2.1非結構化剪枝

    早期的一些方法基本都是基于非結構化的,非結構化剪枝都是細粒度的。以LeCun等[11]提出的最優(yōu)腦損傷(OptimalBrainDamage)和Hassibi等[12]提出的最優(yōu)腦手術(OptimalBrainSurgeon)方法為代表,該類方法基于損失函數(shù)的海森矩陣判斷連接重要程度,減少連接的數(shù)量。Neubeck等[13]提出逐層導數(shù)修建算法,對每一層的參數(shù)計算損失,找到損失最大的參數(shù)對其二階導數(shù)進行獨立剪枝,修剪后經(jīng)過再訓練以恢復性能。

    非結構剪枝常用正則化項作為損失函數(shù)的一種懲罰項,用來限制某些參數(shù),因此,利用正則化權重評價非必須參數(shù)并裁剪以達到壓縮效果。但由于參數(shù)的L0范數(shù)不可微分,難以參與優(yōu)化,Louizos等[14]將權重值變?yōu)榉秦摂?shù),并設置特定參數(shù)權值為0以變?yōu)榭晌栴}。Tartaglione等[15]量化權重參數(shù)對輸出的影響力,并設計正則化項,降低或減少影響力小的權重值。Li等[16]減去L1正則化影響小的卷積核。He等[17]使用L2正則化標準一邊訓練一邊剪枝(即軟剪枝)。

    Lin等[18]定義BN(BatchNormalize)層系數(shù)和濾波器F-范數(shù)的乘積作為影響因子,評價各個連接的重要性。Luo等[19]提出一種基于熵的方法來評價濾波器的重要性。Chen等[20]引入硬件約束(例如延遲)后,刪除范數(shù)值低的權重并調整參數(shù),使任務精度最大化。Yang等[21]將能耗作為優(yōu)化約束條件,對卷積神經(jīng)網(wǎng)絡的能耗大小進行排序,裁掉大能耗的濾波器。該方法與傳統(tǒng)的卷積網(wǎng)絡相比大大降低了能耗,精度損失也在可接受范圍內(nèi)。He等[22]以給定的最大硬件資源數(shù)量作為約束的模型自動裁剪。

    2.2.2結構化剪枝

    結構化剪枝的對象由單個神經(jīng)變成了向量級、通道級乃至整個濾波器級連接。結果表明,結構化剪枝與非結構化剪枝具有相似的稀疏率,且不損失準確性;在相同的精度下,結構化剪枝由于索引存儲的原因可以獲得比非結構化剪枝更好的壓縮率;更常規(guī)的稀疏性使得細化網(wǎng)絡更適合于較快的硬件部署。因此,結構化剪枝具有優(yōu)勢。

    結構化剪枝又可進一步細分為通道級或濾波器級。通道裁剪是在網(wǎng)絡中直接刪除某層的一個或多個通道,缺點是精度損失較大;優(yōu)點是不生成稀疏矩陣,可以直接進行計算,而且大大節(jié)省空間和時間。He等[23]提出將通道中所有權值的絕對值和列為通道的重要性指標,然后剪枝不重要的通道,缺點是需要花時間重訓練。Molchanov等[24]直接考慮特征圖有無對損失函數(shù)的影響,并使用一階泰勒展開近似刪除不重要通道。濾波器級別剪枝是直接對整個三維濾波器進行裁剪,能夠保持網(wǎng)絡的結構特性,相當于變窄的原網(wǎng)絡結構。

    需要指出,對于結構化剪枝,經(jīng)過往復訓練得到的精度并不如將目標網(wǎng)絡從頭開始訓練的精度高,因此,剪枝的目標網(wǎng)絡的結構設計其實最為重要,需要合理設計和選擇。

    2.3知識蒸餾

    知識蒸餾是將“知識”從復雜模型傳遞給一個結構更簡單、運行速度更快的網(wǎng)絡模型。Hinton等[25]首次提出知識蒸餾的概念,將教師網(wǎng)絡中學到的各個類別之間的關系作為學生網(wǎng)絡學習的目標,實現(xiàn)“知識”傳遞的過程,如圖6所示。該方法中,總的loss函數(shù)是由兩部分構成的,一部分是由現(xiàn)實與學生網(wǎng)絡自測的loss,該部分為hard_loss;另一部分為教師網(wǎng)絡與學生網(wǎng)絡升高同樣的“溫度”,兩者之間的loss,該部分為soft_loss。總loss為兩者之和。這樣既能找到學生網(wǎng)絡與現(xiàn)實的差距,又可以學到教師網(wǎng)絡中各類別之間聯(lián)系。該方法適用于小型或者中型數(shù)據(jù)集上,由于壓縮后的學生模型學到了已有知識,故在數(shù)據(jù)集不大時,使用學生模型也能取得魯棒的性能。

    2.3.1改進學生網(wǎng)絡

    Sergey等[26]通過區(qū)域注意力機制找尋教師網(wǎng)絡中注意力高的區(qū)域,迫使學生網(wǎng)絡模擬一個強大的教師網(wǎng)絡的感興趣的區(qū)域來顯著提高其表現(xiàn)。Li等[27]提出轉移注意力的新方法,將教師網(wǎng)絡的“知識”相關性和學生網(wǎng)絡感興趣的事務傳給下次學習的學生網(wǎng)絡,如圖7所示。其中,ATloss(AttentionLoss)是將教師網(wǎng)絡通過注意力機制學到的知識通過該loss傳給學生網(wǎng)絡。ATloss與該group中的teacher和student網(wǎng)絡均相關,故上個group的學生網(wǎng)絡能影響下個教師網(wǎng)絡傳遞知識的過程,即影響ATloss,是教學相長的過程。

    Tian等[28]利用對比學習,提出一個替代目標,通過該目標,訓練學生在教師對數(shù)據(jù)的表示中捕獲更多信息。Heo等[29]激活隱藏神經(jīng)元使得學生網(wǎng)絡和教師網(wǎng)絡分類的區(qū)域邊界最相近,以提高學生網(wǎng)絡分類精細度。

    2.3.2改進教師網(wǎng)絡

    教師網(wǎng)絡的信息傳遞也是一大改進的方向。Xu[30]等提出一個新型自監(jiān)督知識蒸餾模型,利用自監(jiān)督從教師網(wǎng)絡中挖掘出更多的隱含信息。You等[31]提出通過平均多個教師網(wǎng)絡的軟化輸入,即“知識”,并施加關于示例之間的差異性約束,在中間層中再施加于學生網(wǎng)絡。Ahn等[32]將針對相同或者類似的任務預先訓練的教師網(wǎng)絡轉移到學生網(wǎng)絡。

    2.4輕量化網(wǎng)絡

    在彈載嵌入式環(huán)境中對輕量化網(wǎng)絡的需求很大,然而對彈載環(huán)境中輕量化網(wǎng)絡的應用較少。近年來,宋泰年等[33]面向彈載環(huán)境開發(fā)了一種將空間、通道注意力機制與MobileNetV2結合的模塊,說明輕量化網(wǎng)絡有應用于彈載環(huán)境的巨大潛力。以下從不同結構級別設計綜述輕量化網(wǎng)絡的發(fā)展。

    2.4.1卷積核設計

    Zhang等[34]在ShuffleNetV1中使用分組卷積大大降低了參數(shù)量分組卷積參數(shù),并提出通道混洗(ChannelShuffle)的方式,使得各個組間、通道之間相互交流,避免近親繁殖。Ma等[35]提出ShuffleNetV2,并提出四個輕量化網(wǎng)絡設計準則:(1)輸入輸出通道數(shù)相同時,內(nèi)存訪問量MAC最?。唬?)分組數(shù)過大的分組卷積會增加MAC;(3)碎片化操作對并行加速不友好;(4)逐元素操作(Element-wise)帶來的內(nèi)存和耗時不可忽略。Xception[36]是inception的最終版,由GoogLeNet[37](inceptionV1)演變而來。GoogLeNet將卷積層并行拆分成不同的大小,如3×3,5×5,7×7,加上一個全連接層,再加上1×1卷積的降維,可以在不增加太多參數(shù)的條件下大大提高分類的細粒度。隨后,inceptionV2和inceptionV3分別設計了depth-wise和point-wise,將5×5和7×7分離為3×3卷積核,并在不同條件下選擇了1×3和3×1卷積核,大大減少了參數(shù)量。該方法得到的結果是很好的,且具有一定的可擴展性。Xception只包含了1×1和3×3個模塊,共享1×1個模塊,且每個3×3卷積只劃分為第一層的一部分,以區(qū)分不同卷積,是深度可分類卷積。

    2.4.2層級別設計

    Huang等[38]建議對ResNet等具有殘差連接的網(wǎng)絡進行隨機深度訓練,隨機刪除block子集并使用殘差連接繞過其每次訓練。Dong等[39]為每個卷積層配備了輕量化的協(xié)同層LCCL(Low-CostCollaborativeLayer),該協(xié)同層可以預測經(jīng)過激活層后0的個數(shù)與來源,并且刪除了測試時的消耗。Li等[40]將網(wǎng)絡層分為權重層和非權重層,計算權重層參數(shù),忽略非權重層參數(shù)的計算。Prabhu等[41]設計了一種濾波器之間的稀疏連接。Wu等[42]用平移特征圖、特征向量取代卷積,減少了計算量。Chen等[43]使用稀疏移位層(SSL)代替原有卷積層構建網(wǎng)絡。在此體系結構中,基本塊僅由1×1卷積層組成,用來升維和降維,并在中間特征圖設計稀疏的移位操作。

    2.4.3網(wǎng)絡結構級別設計

    Kim等[44]提出SplitNet,其自動學會將網(wǎng)絡的各個層分為多個組,從而形成根節(jié)點,每個子節(jié)點共享根節(jié)點權值。Gordon等[45]提出通過裁剪和擴張來循環(huán)優(yōu)化網(wǎng)絡的方法:在裁剪階段,使用正則化損失判斷權值,去除影響小的權值;在擴展階段,利用旁邊節(jié)點擴展同倍的所有層的大小,因此,重要節(jié)點越多的層最終越寬,對應資源越多。但這些方法都存在一定問題:需要大量計算時間;對節(jié)點進行遍歷操作導致局部最優(yōu)解無法搜索到全局最好結果。Kim等[46]提出嵌套稀疏網(wǎng)絡,每層由多層次網(wǎng)絡組成,其中,高層次網(wǎng)絡和低層次網(wǎng)絡以網(wǎng)絡的形式共享參數(shù):低層次網(wǎng)絡感受野小,學習知識粗略,僅學習表面特征;高層次網(wǎng)絡感受野大,可以看到內(nèi)部關聯(lián),用來學習精細知識。

    2.4.4神經(jīng)網(wǎng)絡架構搜索

    EfficientDet[47]的高性能主要得益于兩個方面:強大的特征提取器和BiFPN。其中對BiFPN的研究與輕量化無關,而特征提取器EfficientNet[48]使用一種全新的網(wǎng)絡設計模式,即網(wǎng)絡結構搜索NAS(NeuralArchitectureSearch)[49]。NAS是一種搜索網(wǎng)絡框架的網(wǎng)絡設計模式,在圖像識別、圖像分類等領域中得到廣泛應用,并取得一些有意義的成果。

    NAS的設計思路為:在特定的搜索空間利用高效搜索策略進行與實際應用相關性更大的神經(jīng)網(wǎng)絡搜索。很多輕量網(wǎng)絡都使用了NAS架構搜索,如NASNet[50]和MobileNetv3[51]。而EfficientNet的搜索空間主要有常見的skip網(wǎng)絡、卷積網(wǎng)絡、池化網(wǎng)絡、全連接網(wǎng)絡及輕量網(wǎng)絡中常用的深度卷積,評價策略為輸入尺度、網(wǎng)絡深度、網(wǎng)絡寬度,搜索出了一套輕量級、高性能的卷積網(wǎng)絡。

    2016年,MIT提出MetaQNN[52]用強化學習的方式,學習每一個CNN層的類型、參數(shù),生成網(wǎng)絡結構,并形成損失函數(shù),用來參與強化訓練。MetaQNN使用馬爾可夫決策過程搜索網(wǎng)絡架構,利用RL(RuturnLoss)方法生成CNN架構。Zoph[53]采用RNN(RecurrentNeuralNetwork)網(wǎng)絡作為控制器,對網(wǎng)絡結構的語義進行采樣和生成,然后利用REINFORCE算法理解網(wǎng)絡結構(早期的RL方法),從而達到較高的準確度。通過采用800GPU,最終在CIFAR-10數(shù)據(jù)集中以類似的網(wǎng)絡架構擊敗了人工設計模型,并發(fā)現(xiàn)了比LSTM(Long-Short-TimeMemory)更好的結構。

    Real等[54]首先將基于進化算法(EvolutionaryAlgorithm)的思想融入到NAS問題,利用CIFAR-10數(shù)據(jù)集證明了算法的高精度。首先,將網(wǎng)絡結構當作DNA(DeoxyriboNucleicAcid)并進行編碼。在不斷變異進化的過程中,網(wǎng)絡模型會不斷增加,每次進化后判斷其精度,淘汰其中差的。將另一個模型作為父節(jié)點,子節(jié)點是由變異形成的(即在某些預先確定的網(wǎng)絡結構變更操作中的隨機選擇)。對子節(jié)點進行訓練和驗證,以便將其放置在集合中。文獻[55]中,去除種群中年齡最大的節(jié)點,使進化向更年輕方向發(fā)展,這有助于更好地探索。以此找出的最優(yōu)網(wǎng)絡結構稱為AmoebaNet。此外,通過對三個算法的比較,發(fā)現(xiàn)強化學習算法和進化算法更準確。進化算法搜索速度快于強化學習(特別是在早期),并產(chǎn)生較小的模型。

    基于梯度的搜索算法有卡內(nèi)基梅隆大學(CarnegieMellonUniversity,CMU)和Google的研究人員提出的DARTS(DifferentiableArchitectureSearch)方法[56],該方法尋求最優(yōu)結構的單元是包含N個有序結點的有向無環(huán)圖。文中利用隱馬爾科夫模型對局部區(qū)域進行描述,并把這種描述應用于求解多分類問題。結點表示隱式表征(如特征圖),運算符表示運算符的向邊聯(lián)接。在DARTS方法中,關鍵的技巧是使用softmax函數(shù)混合候選,通過計算每個子區(qū)域內(nèi)所有操作與該區(qū)域中心之間的距離來決定結點是否需要添加或刪除。對于每一種新出現(xiàn)的子域,反饋時也應該更新其值以使之保持不變,形成可微函數(shù)。通過這種方法,可以利用基于梯度搜索的方法找到最優(yōu)結構。最后,選取權重最高的參數(shù)形成網(wǎng)絡。此外,文獻[57]中還提出另一種搜索效率更高的方法。該方法是將網(wǎng)絡結構嵌入到搜索空間中,使用點表示各個區(qū)域網(wǎng)路,可以在這個空間中定義精度的預測值。通過基于梯度搜索的方法,找到一種合適的嵌入式網(wǎng)絡結構表示方法,優(yōu)化后,將此表示嵌入到網(wǎng)絡結構中。

    3壓縮效果比較

    為了測試各種算法對彈載圖像的指導意義,使用Xilinx的四核armcortex-A53的zynqUltrascale+MPSOCZCU104進行測試。Xilinx官方有成熟的深度學習算法IP,例如LeNet,AlexNet,ResNet等,對于參數(shù)量化共享、參數(shù)剪枝、知識蒸餾等網(wǎng)絡有著方便的植入。使用常見數(shù)據(jù)集ImageNet[58]和自制的艦船目標數(shù)據(jù)集,對AlexNet和ResNet進行參數(shù)量減少和準確度變化的測試。定義Δaccuracy=壓縮后Top-1準確率-壓縮前Top-1準確率,#Param為壓縮后參數(shù)量/壓縮前參數(shù)量,#FLOPs為壓縮后浮點計算量/壓縮前浮點計算量。知識蒸餾壓縮前代表teacher網(wǎng)絡,壓縮后代表student網(wǎng)絡。不同壓縮方法在AlexNetonImageNet上的壓縮效果如表3所示。

    由表3可以看出,這四類壓縮方法的結果差別是十分巨大的。權值量化[4]的參數(shù)量化有著很大的優(yōu)勢,對參數(shù)量和計算量的壓縮都十分可觀,且精度下降在可接受的范圍內(nèi)。而觀察并非頂級輕量化網(wǎng)絡SplitNet[44]的結果可知,輕量化網(wǎng)絡也具有很強的壓縮能力,但缺點是各種輕量化網(wǎng)絡層出不窮,想將其部署到彈載平臺上有著較長的周期;另一方面,可以將更多更優(yōu)的網(wǎng)絡部署于平臺,達到更優(yōu)更快的結果,這也是輕量化網(wǎng)絡的潛力所在。參數(shù)剪枝與知識蒸餾并沒有過于驚人的表現(xiàn),但優(yōu)勢是可以與其他方法結合使用,構成更優(yōu)的性能。

    對于炮彈來說,裝甲類目標更加真實。為了對比壓縮效果,自制一個裝甲目標數(shù)據(jù)集。該數(shù)據(jù)集利用無人機航拍500張各種裝甲類目標圖片,拍攝高度為2500~3000m,是末制導炮彈圖像制導階段的高度。拍攝傾角為30°~40°,是炮彈末端制導的俯仰角度。通過對每張圖片進行隨機1.1~1.5的亮度增強,加上每張圖片的間隔90°的旋轉及每張圖片的反轉,將數(shù)據(jù)集擴大到3000張目標圖像,其中包括2400張訓練集、200張驗證集、400張測試集,分辨率均為500×500,包括自行火炮、坦克、遠程火箭炮三個種類。原本500張圖片中,自行火炮占180張,坦克占180張,遠程火箭炮占140張。使用AlexNet對裝甲目標數(shù)據(jù)集進行壓縮效果測試,結果如表4所示。

    現(xiàn)在的各種嵌入式語言有著例如int8和int16的參數(shù)定義,使得研究者在部署過程中直接使用量化后的參數(shù)進行運算,表4中的結果也反映出參數(shù)量化的優(yōu)越性。而輕量化網(wǎng)絡仍然有著超強的壓縮能力以及較高的準確度。從剪枝的隨機性推測剪枝降低了網(wǎng)絡損失的過擬合,根據(jù)學生網(wǎng)絡的指向性,推測知識蒸餾的專項能力有所提升,所以參數(shù)剪枝與知識蒸餾對準確率均有提升。

    從上述測試可看出輕量化網(wǎng)絡的巨大潛力,但由于不同輕量化網(wǎng)絡結構差距較大且指向性不同,難以部署。在GPU為NVIDIARTX3080顯卡、CPU為AMD5000的計算機上對各個算法在ImageNet上進行測試,為下一步將各種輕量化網(wǎng)絡部署到彈載平臺上提供一定的指向。Top-1精度與FLOPs(FloatingPointOperations)的關系以及使用參數(shù)量大小如圖8所示。

    由圖8可以看出,ResNeXt-101精度高,然而消耗的計算量巨大,參數(shù)量將近64M,若想部署則必須進行壓縮;而AmoebaNet有著更高的準確度,以及小的計算量和參數(shù)量,此性能十分適合部署,但由于這是在GPU空間上搜索出的算法,對于FPGA等彈載平臺是否適配還需進一步驗證;ResNeXt-50網(wǎng)絡不僅是手工設計網(wǎng)絡,而且準確率很高,計算量也適中,適合壓縮后部署進行工作。

    選取ResNeXt-50作為主干網(wǎng)絡,使用YoloV3的特征提取網(wǎng)絡CSPNet作為檢測頭,訓練100次進行一次驗證,針對彈載目標特性訓練得到跟蹤結果。圖9為每隔5幀抽取的視頻結果。

    參數(shù)量已經(jīng)大大減少的ResNeXt-50的主干網(wǎng)絡經(jīng)過訓練,可以解決圖片旋轉、尺度變化和目標進出視場等問題。

    綜上所述,各種深度學習網(wǎng)絡的潛力巨大,選擇合適的壓縮方法,可以保證較高的準確性及合適的參數(shù)計算量,滿足彈上硬件需求。

    4展望

    對于將識別算法移植嵌入式平臺,壓縮網(wǎng)絡應該從各個方面進行評估和分析,結合本文綜述的各類算法特點的研究以及彈載平臺對于算法的特殊要求,對識別算法在彈載平臺的實現(xiàn)方式作如下展望:

    (1)優(yōu)化模塊提升輕量化網(wǎng)絡性能。現(xiàn)階段的很多輕量化網(wǎng)絡中都是優(yōu)化模塊提升輕量化網(wǎng)絡算力,例如Xception最終的inception模塊,加入該模塊可以提高速度以及減少參數(shù)。而NAS又為尋找這種模塊提供了新的可能,根據(jù)彈載嵌入式環(huán)境設計的NAS搜尋網(wǎng)絡,更易發(fā)現(xiàn)合適輕量化模塊以插入到目標算法中,為算法在彈載平臺的實現(xiàn)提供了新思路。

    (2)合理利用DSP和Mac(MultiplyingAccumulator)模塊。在芯片或邊緣計算設備有更多的DSP模塊和Mac模塊,卷積模塊可以改進乘加模塊,以便更充分、有效地利用彈上資源。例如FPGA有大量的并行Mac模塊,將算法改進后部署到設備上,不但可以在彈上大放光彩,在普通的智能移動終端上也會有更快的速度以及更高的性能。

    (3)采用直接壓縮方式。例如常用的剪枝、知識蒸餾一類壓縮現(xiàn)有模型的算法,均可以用作改進現(xiàn)有模型,可以在損失精度較小甚至不損失精度的情況下成功實現(xiàn)網(wǎng)絡的輕量化,與其他方法結合使用,可以在彈載平臺保證其魯棒性。

    參考文獻:

    [1]錢立志.電視末制導炮彈武器系統(tǒng)關鍵技術研究[D].合肥:中國科學技術大學,2006.

    QianLizhi.ResearchontheKeyTechnologyofTVTerminalGuidedArtilleryWeaponSystem[D].Hefei:UniversityofScienceandTechnologyofChina,2006.(inChinese)

    [2]郭鵬程,王晶晶,楊龍順.雷達地面目標識別技術現(xiàn)狀與展望[J/OL].航空兵器,doi:10.12312/ISSN.1673-5048.2022.0012.

    GuoPengcheng,WangJingjing,YangLongshun.StatusandProspectsofRadarGroundTargetRecognitionTechnology[J/OL].AeroWeaponry,doi:10.12312/ISSN.1673-5048.2022.0012.(inChinese)

    [3]陳棟,田宗浩.面向深度學習的彈載圖像處理異構加速現(xiàn)狀分析[J].航空兵器,2021,28(3):10-17.

    ChenDong,TianZonghao.ResearchonHeterogeneousAccelerationofDeepLearningMethodforMissile-BorneImageProcessing[J].AeroWeaponry,2021,28(3):10-17.(inChinese)

    [4]MohammadR,VicenteO,JosephR,etal.XNOR-Net:ImageNetClassificationUsingBinaryConvolutionalNeuralNetworks[C]∥ComputerVision-ECCV2016,2016:525-542.

    [5]GuoYW,YaoAB,ZhaoH,etal.NetworkSketching:ExploitingBinaryStructureinDeepCNNs[C]∥IEEEConferenceonComputerVisionandPatternRecognition,2017:4040-4048.

    [6]LiFF,ZhangB,LiuB.TernaryWeightNetworks[EB/OL].(2016-11-19)[2022-04-23].https:∥arxiv.org/abs/1605.04711v2.

    [7]KrishnamoorthiR.QuantizingDeepConvolutionalNetworksforEfficientInference:AWhitepaper[EB/OL].(2018-06-21)[2022-04-23].https:∥arxiv.org/abs/1806.08342v1.

    [8]HanS,MaoHZ,DallyWJ.DeepCompression:CompressingDeepNeuralNetworkswithPruning,TrainedQuantizationandHuffmanCoding[EB/OL].(2016-02-15)[2022-04-23].https:∥arxiv.org/abs/1510.00149v5.

    [9]ChenWL,WilsonJT,TyreeS,etal.CompressingNeuralNetworkswiththeHashingTrick[C]∥32ndInternationalConferenceonMachineLearning,2015:2285-2294.

    [10]ChenHT,WangYH,XuCJ,etal.AdderNet:DoWeReallyNeedMultiplicationsinDeepLearning?[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2020:1465-1474.

    [11]LeCunY,DenkerJS,SollaSA.OptimalBrainDamage[J].AdvancesinNeuralInformationProcessingSystems,1989,2:598-605.

    [12]HassibiB,StorkDG.SecondOrderDerivativesforNetworkPruning:OptimalBrainSurgeon[C]∥AdvancesinNeuralInformationProcessingSystems,1992:164-171.

    [13]NeubeckA,vanGoolL.EfficientNon-MaximumSuppression[C]∥18thInternationalConferenceonPatternRecognition(ICPR06),2006:850-855.

    [14]LouizosC,WellingM,KingmaDP.LearningSparseNeuralNetworksthroughL0Regularization[EB/OL].(2018-06-22)[2022-04-23].https:∥arxiv.org/abs/1712.01312v2.

    [15]TartaglioneE,LepsyS,F(xiàn)iandrottiA,etal.LearningSparseNeuralNetworksviaSensitivity-DrivenRegularization[C]∥32ndInternationalConferenceonNeuralInformationProcessingSystems,2018:3882-3892.

    [16]LiH,KadavA,DurdanovicI,etal.PruningFiltersforEfficientConvNets[C]∥5thInternationalConferenceonLearningRepresentations,2017:2538-2547.

    [17]HeY,KangGL,DongXY,etal.SoftFilterPruningforAccele-ratingDeepConvolutionalNeuralNetworks[C]∥27thInternationalJointConferenceonArtificialIntelligence,2018:2234-2240.

    [18]LinC,ZhongZ,WuW,etal.SynapticStrengthforConvolutionalNeuralNetwork[C]∥Proceedingsofthe32ndInternationalConferenceonNeuralInformationProcessingSystems,2018:10170-10179.

    [19]LuoJH,WuJX.AnEntropy-BasedPruningMethodforCNNCompression[EB/OL].(2017-06-19)[2022-04-23].https:∥arxiv.org/abs/1706.05791v1.

    [20]ChenCG,TungF,VedulaN,etal.Constraint-AwareDeepNeuralNetworkCompression[C]∥ComputerVision-ECCV,2018:409-424.

    [21]YangTJ,ChenYH,SzeV.DesigningEnergy-EfficientConvolutionalNeuralNetworksUsingEnergy-AwarePruning[C]∥IEEEConferenceonComputerVisionandPatternRecognition(CVPR),2017:6071-6079.

    [22]HeYH,LinJ,LiuZJ,etal.AMC:AutoMLforModelCompressionandAccelerationonMobileDevices[C]∥ComputerVision-ECCV,2018:815-832.

    [23]HeYH,ZhangXY,SunJ.ChannelPruningforAcceleratingVeryDeepNeuralNetworks[C]∥IEEEInternationalConferenceonComputerVision(ICCV),2017:1398-1406.

    [24]MolchanovP,TyreeS,KarrasT,etal.PruningConvolutionalNeuralNetworksforResourceEfficientInference[EB/OL].(2017-06-08)[2022-04-23].https:∥arxiv.org/abs/1611.06440v2.

    [25]HintonG,VinyalsO,DeanJ.DistillingtheKnowledgeinaNeuralNetwork[EB/OL].(2015-03-09)[2022-04-23].https:∥arxiv.org/abs/1503.02531v1.

    [26]ZagoruykoS,KomodakisN.PayingMoreAttentiontoAttention:ImprovingthePerformanceofConvolutionalNeuralNetworksviaAttentionTransfer[EB/OL].(2017-02-12)[2022-04-23].https:∥arxiv.org/abs/1612.03928v3.

    [27]LiP,ShuC,XieY,etal.HierarchicalKnowledgeSqueezedAdversarialNetworkCompression[C]∥AAAIConferenceonArtificialIntelligence,2020:11370-11377.

    [28]TianYL,KrishnanD,IsolaP.ContrastiveRepresentationDistillation[EB/OL].(2022-01-24)[2022-04-23].https:∥arxiv.org/abs/1910.10699v3.

    [29]HeoB,LeeM,YunS,etal.KnowledgeTransferviaDistillationofActivationBoundariesFormedbyHiddenNeurons[C]∥33rdAAAIConferenceonArtificialIntelligence,2019:3779-3787.

    [30]XuGD,LiuZW,LiXX,etal.KnowledgeDistillationMeetsSelf-Supervision[C]∥ComputerVision-ECCV,2020:588-604.

    [31]YouS,XuC,XuC,etal.LearningfromMultipleTeacherNetworks[C]∥23rdACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining,2017:1285-1294.

    [32]AhnS,HuSX,DamianouA,etal.VariationalInformationDistillationforKnowledgeTransfer[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2019:9155-9163.

    [33]宋泰年,秦偉偉,梁卓,等.面向輕量化網(wǎng)絡的改進雙通道注意力機制圖像分類方法[J].航空兵器,2021,28(5):81-85.

    SongTainian,QinWeiwei,LiangZhuo,etal.ImprovedDual-ChannelAttentionMechanismImageClassificationMethodforLightweightNetwork[J].AeroWeaponry,2021,28(5):81-85.(inChinese)

    [34]ZhangXY,ZhouXY,LinMX,etal.ShuffleNet:AnExtremelyEfficientConvolutionalNeuralNetworkforMobileDevices[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2018:6848-6856.

    [35]MaNN,ZhangX,ZhengHT,etal.ShuffleNetV2:PracticalGuidelinesforEfficientCNNArchitectureDesign[EB/OL].(2018-07-30)[2022-04-23].https:∥arxiv.org/abs/1807.11164v1.

    [36]CholletF.Xception:DeepLearningwithDepthwiseSeparableConvolutions[C]∥IEEEConferenceonComputerVisionandPatternRecognition,2017:1800-1807.

    [37]SzegedyC,LiuW,JiaYQ,etal.GoingDeeperwithConvolutions[C]∥IEEEConferenceonComputerVisionandPatternRe-cognition(CVPR),2015:1-9.

    [38]HuangG,SunY,LiuZ,etal.DeepNetworkswithStochasticDepth[C]∥ComputerVision-ECCV,2016:646-661.

    [39]DongXY,HuangJS,YangY,etal.MoreisLess:AMoreComplicatedNetworkwithLessInferenceComplexity[C]∥IEEEConferenceonComputerVisionandPatternRecognition(CVPR),2017:1895-1903.

    [40]LiDW,WangXL,KongDG.DeepRebirth:AcceleratingDeepNeuralNetworkExecutiononMobileDevices[C]∥32ndAAAIConferenceonArtificialIntelligence,2018:2322-2330.

    [41]PrabhuA,VarmaG,NamboodiriA.DeepExpanderNetworks:EfficientDeepNetworksfromGraphTheory[C]∥ComputerVision-ECCV,2018:20-35.

    [42]WuBC,WanA,YueXY,etal.Shift:AZeroFLOP,ZeroParameterAlternativetoSpatialConvolutions[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2018:9127-9135.

    [43]ChenWJ,XieD,ZhangY,etal.AllYouNeedIsaFewShifts:DesigningEfficientConvolutionalNeuralNetworksforImageClassification[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2019:7234-7243.

    [44]KimJ,ParkY,KimG,etal.SplitNet:LearningtoSemanticallySplitDeepNetworksforParameterReductionandModelParalleli-zation[C]∥34thInternationalConferenceonMachineLearning,2017:1866-1874.

    [45]GordonA,EbanE,NachumO,etal.MorphNet:Fast&SimpleResource-ConstrainedStructureLearningofDeepNetworks[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2018:1586-1595.

    [46]KimE,AhnC,OhS.NestedNet:LearningNestedSparseStructuresinDeepNeuralNetworks[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2018:8669-8678.

    [47]LoweDG.ObjectRecognitionfromScale-InvariantKeypoints[C]∥IEEEInternationalConferenceonComputerVision(ICCV),1999:1150-1157.

    [48]JinYH,MishkinD,MishchukA,etal.ImageMatchingacrossWideBaselines:FromPapertoPractice[J].InternationalJournalofComputerVision,2021,129(2):517-547.

    [49]BateniP,GoyalR,MasraniV,etal.ImprovedFew-ShotVisualClassification[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2020:14481-14490.

    [50]BarronJT.AGeneralandAdaptiveRobustLossFunction[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2019:4326-4334.

    [51]BertinettoL,MuellerR,TertikasK,etal.MakingBetterMistakes:LeveragingClassHierarchieswithDeepNetworks[C]∥IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),2020:12503-12512.

    [52]BakerB,GuptaO,NaikN,etal.DesigningNeuralNetworkArchitecturesUsingReinforcementLearning[EB/OL].(2017-03-22)[2022-04-23].https:∥arxiv.org/abs/1611.02167v3.

    [53]ZophB,LeQV.NeuralArchitectureSearchwithReinforcementLearning[EB/OL].(2017-02-15)[2022-04-23].https:∥arxiv.org/abs/1611.01578v2.

    [54]RealE,MooreS,SelleA,etal.Large-ScaleEvolutionofImageClassifiers[EB/OL].(2017-06-11)[2022-04-23].https:∥arxiv.org/abs/1703.01041v2.

    [55]RealE,AggarwalA,HuangYP,etal.RegularizedEvolutionforImageClassifierArchitectureSearch[C]∥33rdAAAIConferenceonArtificialIntelligence,2019:4780-4789.

    [56]LiuHX,SimonyanK,YangYM.DARTS:DifferentiableArchitectureSearch[EB/OL].(2019-04-23)[2022-04-23].https:∥arxiv.org/abs/1806.09055v2.

    [57]LuoRQ,TianF,QinT,etal.NeuralArchitectureOptimization[C]∥32ndInternationalConferenceonNeuralInformationProcessingSystems,2018:7827-7838.

    [58]DengJ,DongW,SocherR,etal.ImageNet:ALarge-ScaleHie-rarchicalImageDatabase[C]∥IEEEConferenceonComputerVisionandPatternRecognition,2009:248-255.

    ResearchonDeepLearningNetworkCompression

    MethodforMissileBorneImage

    GaoYibo,YangChuandong,ChenDong*,LingChong

    (LaboratoryofGuidanceControlandInformationPerceptionTechnologyofHighOverloadProjectiles,

    ArmyAcademyofArtilleryandAirDefense,Hefei230031,China)

    Abstract:Aimingattheproblemthatthetargetrecognitionalgorithmbasedondeeplearninghasthecharacteristicsofcomplexnetworkstructure,largeamountofparametersandhighcomputationdelay,whichisdifficulttodirectlyapplytothemissile-bornetask,thenetworklightweightmethodaresummarized.Theadvantagesandrespectivecharacteristicsofexistingcompressionmethodsandlightweightnetworksareintroduced,andtheexcellentalgorithmsinva-riousaspectsareselectedforcomparison.Finally,combinedwiththedevelopmentofdeeplearninginthefieldoftargetdetection,thelightweightmissileborneimagetargetrecognitionalgorithmisprospected.

    Keywords:networkmodelcompression;lightweightnetwork;missileborneimage;deeplearningmodel;algorithmtransplantation

    收稿日期:2022-04-24

    作者簡介:高一博(1998-),男,安徽阜陽人,碩士研究生。

    *通信作者:陳棟(1983-),男,安徽黃山人,副教授。

    亚洲中文日韩欧美视频| 国产成人影院久久av| 精品一区二区三区四区五区乱码| 国产精品一区二区在线不卡| 欧美激情久久久久久爽电影 | 这个男人来自地球电影免费观看| 大片电影免费在线观看免费| 国产老妇伦熟女老妇高清| 纯流量卡能插随身wifi吗| 亚洲第一青青草原| 欧美亚洲 丝袜 人妻 在线| 国产亚洲欧美精品永久| 欧美国产精品va在线观看不卡| 91字幕亚洲| 人妻一区二区av| 欧美精品人与动牲交sv欧美| 多毛熟女@视频| 一本综合久久免费| 极品少妇高潮喷水抽搐| 视频区欧美日本亚洲| 欧美成狂野欧美在线观看| 夫妻午夜视频| 少妇 在线观看| 欧美在线黄色| 在线看a的网站| 性少妇av在线| 真人做人爱边吃奶动态| 国产亚洲一区二区精品| 欧美老熟妇乱子伦牲交| 一区二区三区精品91| 亚洲国产中文字幕在线视频| 黄色视频在线播放观看不卡| 久久精品国产亚洲av香蕉五月 | 一本色道久久久久久精品综合| 国产免费视频播放在线视频| 国产深夜福利视频在线观看| 俄罗斯特黄特色一大片| 国产成人一区二区三区免费视频网站| 99久久99久久久精品蜜桃| 每晚都被弄得嗷嗷叫到高潮| 成年人免费黄色播放视频| 亚洲五月婷婷丁香| 久久ye,这里只有精品| 精品福利观看| 蜜桃在线观看..| 男女下面插进去视频免费观看| 女人精品久久久久毛片| 久久影院123| av又黄又爽大尺度在线免费看| 久久99热这里只频精品6学生| 国产无遮挡羞羞视频在线观看| 亚洲,欧美精品.| 国产精品 国内视频| 婷婷丁香在线五月| 国产精品国产高清国产av | 久久人妻熟女aⅴ| 亚洲免费av在线视频| 精品久久久精品久久久| av在线播放免费不卡| 少妇裸体淫交视频免费看高清 | 国产在线免费精品| 免费观看a级毛片全部| 正在播放国产对白刺激| 亚洲精品一卡2卡三卡4卡5卡| 久久狼人影院| 嫁个100分男人电影在线观看| 亚洲欧洲精品一区二区精品久久久| 九色亚洲精品在线播放| 精品乱码久久久久久99久播| 久久香蕉激情| 啦啦啦在线免费观看视频4| 成人特级黄色片久久久久久久 | 老司机午夜福利在线观看视频 | 国产欧美亚洲国产| 国产欧美日韩综合在线一区二区| 午夜福利视频精品| 午夜福利视频在线观看免费| 亚洲黑人精品在线| 亚洲第一欧美日韩一区二区三区 | 精品人妻熟女毛片av久久网站| 亚洲五月婷婷丁香| 日本av手机在线免费观看| 老司机靠b影院| 欧美日本中文国产一区发布| 精品国产一区二区久久| 一本大道久久a久久精品| 日韩成人在线观看一区二区三区| 久久久久久久久久久久大奶| 国产日韩一区二区三区精品不卡| 中文字幕制服av| 国产成人精品在线电影| 久久久久视频综合| 久热爱精品视频在线9| 久久国产精品男人的天堂亚洲| 性色av乱码一区二区三区2| 亚洲国产欧美在线一区| 国产亚洲av高清不卡| 久久av网站| 亚洲五月婷婷丁香| 啦啦啦中文免费视频观看日本| 999久久久国产精品视频| 90打野战视频偷拍视频| 欧美中文综合在线视频| 999精品在线视频| 欧美激情极品国产一区二区三区| 老司机午夜十八禁免费视频| 久久精品国产99精品国产亚洲性色 | 99精品在免费线老司机午夜| 新久久久久国产一级毛片| 精品国产一区二区三区久久久樱花| 成人国语在线视频| 色老头精品视频在线观看| 在线观看免费视频网站a站| 久久天躁狠狠躁夜夜2o2o| 中文字幕最新亚洲高清| 一区二区三区激情视频| 亚洲人成77777在线视频| 国产精品亚洲av一区麻豆| 久久久久网色| 国产在线视频一区二区| 免费不卡黄色视频| 不卡av一区二区三区| 一区二区日韩欧美中文字幕| 99香蕉大伊视频| 精品国产国语对白av| 亚洲欧美色中文字幕在线| 啪啪无遮挡十八禁网站| 99精品在免费线老司机午夜| 男女午夜视频在线观看| 亚洲av欧美aⅴ国产| 最近最新中文字幕大全电影3 | 国产在线一区二区三区精| 少妇裸体淫交视频免费看高清 | 中亚洲国语对白在线视频| 欧美久久黑人一区二区| 97在线人人人人妻| 最新的欧美精品一区二区| 精品国内亚洲2022精品成人 | 午夜福利乱码中文字幕| 别揉我奶头~嗯~啊~动态视频| 亚洲av片天天在线观看| 另类亚洲欧美激情| 如日韩欧美国产精品一区二区三区| 国精品久久久久久国模美| 精品人妻1区二区| 高清黄色对白视频在线免费看| svipshipincom国产片| 成人特级黄色片久久久久久久 | 9色porny在线观看| 丁香六月天网| 大香蕉久久成人网| 免费在线观看视频国产中文字幕亚洲| 免费在线观看完整版高清| 18禁黄网站禁片午夜丰满| 高清欧美精品videossex| 80岁老熟妇乱子伦牲交| 国产一区二区在线观看av| 美女国产高潮福利片在线看| 国产亚洲欧美在线一区二区| 欧美国产精品一级二级三级| 国产精品影院久久| 欧美日韩成人在线一区二区| 日日摸夜夜添夜夜添小说| 日本五十路高清| 母亲3免费完整高清在线观看| 9色porny在线观看| 国产xxxxx性猛交| 99riav亚洲国产免费| 久久 成人 亚洲| 国产一区有黄有色的免费视频| 中亚洲国语对白在线视频| 精品国内亚洲2022精品成人 | 国产精品国产av在线观看| 亚洲熟女精品中文字幕| 手机成人av网站| 精品少妇黑人巨大在线播放| 首页视频小说图片口味搜索| 悠悠久久av| 叶爱在线成人免费视频播放| 亚洲精品久久午夜乱码| 精品一品国产午夜福利视频| 一区二区av电影网| 精品少妇一区二区三区视频日本电影| 91av网站免费观看| 精品国内亚洲2022精品成人 | 久久中文看片网| 黄色片一级片一级黄色片| 欧美国产精品va在线观看不卡| 午夜福利,免费看| 99久久精品国产亚洲精品| 精品福利观看| 免费高清在线观看日韩| 午夜免费鲁丝| 久久精品国产亚洲av香蕉五月 | 中文字幕高清在线视频| 成人国产一区最新在线观看| 亚洲av第一区精品v没综合| 国产在线精品亚洲第一网站| 精品人妻1区二区| 久久精品成人免费网站| 中文字幕精品免费在线观看视频| 日本黄色日本黄色录像| 多毛熟女@视频| 狠狠精品人妻久久久久久综合| 99国产精品一区二区蜜桃av | 亚洲国产成人一精品久久久| 丝袜人妻中文字幕| www日本在线高清视频| 免费在线观看完整版高清| 最新在线观看一区二区三区| 悠悠久久av| 国产成人精品久久二区二区91| 久久99热这里只频精品6学生| 亚洲第一av免费看| 日韩有码中文字幕| 日韩一区二区三区影片| 一夜夜www| 我的亚洲天堂| 久久精品aⅴ一区二区三区四区| 欧美精品一区二区免费开放| 两人在一起打扑克的视频| 窝窝影院91人妻| 日本五十路高清| 久久久久国内视频| 香蕉久久夜色| 免费在线观看完整版高清| 国产区一区二久久| 在线亚洲精品国产二区图片欧美| 丝袜人妻中文字幕| 在线十欧美十亚洲十日本专区| 深夜精品福利| 少妇的丰满在线观看| 999久久久精品免费观看国产| 男女之事视频高清在线观看| 色综合婷婷激情| 久久狼人影院| 一本—道久久a久久精品蜜桃钙片| 国产无遮挡羞羞视频在线观看| 国产免费福利视频在线观看| 99久久99久久久精品蜜桃| 亚洲成人国产一区在线观看| 亚洲avbb在线观看| 一区二区三区激情视频| 深夜精品福利| 中文欧美无线码| 欧美大码av| 9热在线视频观看99| 搡老岳熟女国产| 日韩视频在线欧美| 日韩成人在线观看一区二区三区| 午夜福利欧美成人| 极品教师在线免费播放| 波多野结衣一区麻豆| 我的亚洲天堂| 国产成人欧美| 欧美日韩中文字幕国产精品一区二区三区 | 99精品欧美一区二区三区四区| 如日韩欧美国产精品一区二区三区| 久久99热这里只频精品6学生| 好男人电影高清在线观看| 成在线人永久免费视频| 婷婷丁香在线五月| 在线观看66精品国产| 免费在线观看完整版高清| 国产国语露脸激情在线看| 午夜91福利影院| av在线播放免费不卡| 99riav亚洲国产免费| 久久人妻av系列| 精品亚洲成a人片在线观看| 在线观看免费日韩欧美大片| 精品少妇一区二区三区视频日本电影| 久久精品人人爽人人爽视色| 在线av久久热| 在线亚洲精品国产二区图片欧美| 后天国语完整版免费观看| 国产精品一区二区精品视频观看| 满18在线观看网站| 国产成+人综合+亚洲专区| 十八禁网站网址无遮挡| 夫妻午夜视频| 精品一品国产午夜福利视频| 国产亚洲欧美精品永久| 免费黄频网站在线观看国产| 日韩一卡2卡3卡4卡2021年| 精品国产超薄肉色丝袜足j| 久久久久久久久久久久大奶| 一边摸一边抽搐一进一出视频| 视频区欧美日本亚洲| 人人澡人人妻人| 国产高清激情床上av| 夜夜夜夜夜久久久久| 欧美日韩亚洲高清精品| 欧美成狂野欧美在线观看| 亚洲欧美精品综合一区二区三区| 久久99一区二区三区| 亚洲中文日韩欧美视频| videosex国产| 国产1区2区3区精品| 一进一出好大好爽视频| www.熟女人妻精品国产| 人妻 亚洲 视频| 亚洲精品乱久久久久久| 在线观看人妻少妇| 日韩有码中文字幕| 日韩免费av在线播放| 一级片免费观看大全| 国精品久久久久久国模美| 巨乳人妻的诱惑在线观看| 99riav亚洲国产免费| 啦啦啦中文免费视频观看日本| 亚洲精品在线观看二区| 国产成人精品久久二区二区91| 两个人看的免费小视频| 老汉色∧v一级毛片| 99精国产麻豆久久婷婷| 国产激情久久老熟女| 999精品在线视频| 中文字幕人妻丝袜制服| 夫妻午夜视频| 久久久久久久大尺度免费视频| 久久人妻熟女aⅴ| 成人影院久久| 悠悠久久av| 51午夜福利影视在线观看| 正在播放国产对白刺激| 亚洲 国产 在线| 夜夜爽天天搞| av国产精品久久久久影院| 色在线成人网| 一区二区三区精品91| av电影中文网址| 久久久欧美国产精品| 亚洲人成电影免费在线| 一区二区三区乱码不卡18| 亚洲精品久久成人aⅴ小说| 日本av免费视频播放| 在线观看舔阴道视频| 久久亚洲精品不卡| 国产熟女午夜一区二区三区| 精品久久久精品久久久| 91麻豆精品激情在线观看国产 | 在线永久观看黄色视频| 99久久国产精品久久久| 国产欧美日韩一区二区三| av福利片在线| 在线 av 中文字幕| 欧美日本中文国产一区发布| 狂野欧美激情性xxxx| 变态另类成人亚洲欧美熟女 | 日韩欧美一区视频在线观看| 视频在线观看一区二区三区| 男男h啪啪无遮挡| 亚洲成人国产一区在线观看| 亚洲国产av影院在线观看| 激情在线观看视频在线高清 | 啦啦啦 在线观看视频| 少妇的丰满在线观看| 一二三四在线观看免费中文在| 成年人免费黄色播放视频| 黑人猛操日本美女一级片| avwww免费| 精品久久蜜臀av无| 国产真人三级小视频在线观看| 老司机午夜福利在线观看视频 | 国产成人av教育| 好男人电影高清在线观看| 一进一出抽搐动态| av线在线观看网站| 夜夜夜夜夜久久久久| videos熟女内射| 女人精品久久久久毛片| 啦啦啦免费观看视频1| 自拍欧美九色日韩亚洲蝌蚪91| 免费黄频网站在线观看国产| 色综合欧美亚洲国产小说| 国产一区有黄有色的免费视频| 国产成人欧美在线观看 | 性色av乱码一区二区三区2| 丁香六月欧美| 国产xxxxx性猛交| 亚洲天堂av无毛| 一级黄色大片毛片| 极品教师在线免费播放| 最新美女视频免费是黄的| 午夜视频精品福利| 午夜精品久久久久久毛片777| 另类精品久久| 免费在线观看黄色视频的| 在线观看www视频免费| 午夜福利欧美成人| 成人黄色视频免费在线看| 在线十欧美十亚洲十日本专区| 日本黄色日本黄色录像| av网站在线播放免费| 丝瓜视频免费看黄片| 亚洲人成电影观看| 国产精品久久久久成人av| 天堂动漫精品| 午夜久久久在线观看| 欧美+亚洲+日韩+国产| 亚洲一区二区三区欧美精品| 香蕉久久夜色| 欧美日本中文国产一区发布| 亚洲avbb在线观看| 黑人巨大精品欧美一区二区蜜桃| 桃红色精品国产亚洲av| 9热在线视频观看99| 久久中文字幕一级| 丁香六月欧美| 亚洲视频免费观看视频| 欧美久久黑人一区二区| 女人久久www免费人成看片| 亚洲成人手机| 51午夜福利影视在线观看| 大片免费播放器 马上看| 国产在线视频一区二区| 99久久99久久久精品蜜桃| 欧美日韩亚洲综合一区二区三区_| 女人爽到高潮嗷嗷叫在线视频| 一夜夜www| 老司机在亚洲福利影院| 成人手机av| 久久婷婷成人综合色麻豆| 日本一区二区免费在线视频| 波多野结衣av一区二区av| 午夜激情久久久久久久| 1024香蕉在线观看| 黄色怎么调成土黄色| 五月开心婷婷网| 99久久99久久久精品蜜桃| 免费观看av网站的网址| 亚洲精品一卡2卡三卡4卡5卡| 黄片大片在线免费观看| 男人舔女人的私密视频| 国产单亲对白刺激| 国产精品国产av在线观看| 国产成人av激情在线播放| 女性生殖器流出的白浆| 亚洲va日本ⅴa欧美va伊人久久| 欧美精品人与动牲交sv欧美| 夜夜骑夜夜射夜夜干| 国产免费福利视频在线观看| 国产精品亚洲一级av第二区| 欧美日韩福利视频一区二区| 色在线成人网| 黄色丝袜av网址大全| 日本精品一区二区三区蜜桃| 王馨瑶露胸无遮挡在线观看| 狠狠狠狠99中文字幕| 侵犯人妻中文字幕一二三四区| 国产精品偷伦视频观看了| 国产高清激情床上av| 人妻久久中文字幕网| 久久久欧美国产精品| 看免费av毛片| 成在线人永久免费视频| 777久久人妻少妇嫩草av网站| 91国产中文字幕| 久久久久久人人人人人| 国产精品亚洲av一区麻豆| 久久精品aⅴ一区二区三区四区| 国产精品一区二区免费欧美| 精品久久久久久久毛片微露脸| 国产精品熟女久久久久浪| 免费看十八禁软件| 天天躁夜夜躁狠狠躁躁| 大码成人一级视频| 日韩欧美三级三区| 精品卡一卡二卡四卡免费| 黄频高清免费视频| 日韩一区二区三区影片| 国产麻豆69| 亚洲国产看品久久| 国产成人av激情在线播放| 国产一区二区三区在线臀色熟女 | 青青草视频在线视频观看| 色94色欧美一区二区| 国产精品熟女久久久久浪| 国产成人影院久久av| 亚洲全国av大片| 少妇的丰满在线观看| 国产欧美日韩一区二区三| 国精品久久久久久国模美| 狠狠婷婷综合久久久久久88av| 在线十欧美十亚洲十日本专区| 亚洲人成电影观看| 老熟女久久久| svipshipincom国产片| 99在线人妻在线中文字幕 | 日韩成人在线观看一区二区三区| 中文字幕最新亚洲高清| 午夜福利在线免费观看网站| 国产精品98久久久久久宅男小说| 99香蕉大伊视频| 亚洲欧美色中文字幕在线| 国产日韩一区二区三区精品不卡| 国产男女超爽视频在线观看| 一级a爱视频在线免费观看| 最黄视频免费看| 欧美精品高潮呻吟av久久| 久久久久精品国产欧美久久久| 国产午夜精品久久久久久| 国产精品熟女久久久久浪| 中文欧美无线码| videos熟女内射| 久久影院123| 国产免费现黄频在线看| 97人妻天天添夜夜摸| 最黄视频免费看| 国产又爽黄色视频| 我的亚洲天堂| 日本a在线网址| 精品国产超薄肉色丝袜足j| 国产成人免费观看mmmm| 1024香蕉在线观看| 欧美乱码精品一区二区三区| 久久精品成人免费网站| 久久精品国产a三级三级三级| √禁漫天堂资源中文www| 啦啦啦 在线观看视频| 老司机亚洲免费影院| 亚洲色图 男人天堂 中文字幕| 新久久久久国产一级毛片| 久久ye,这里只有精品| 露出奶头的视频| 黄色成人免费大全| 视频区图区小说| 国产主播在线观看一区二区| 真人做人爱边吃奶动态| 中亚洲国语对白在线视频| 好男人电影高清在线观看| 亚洲精品国产一区二区精华液| 国产欧美日韩精品亚洲av| 免费日韩欧美在线观看| 午夜精品久久久久久毛片777| 国产xxxxx性猛交| 精品国内亚洲2022精品成人 | 久久性视频一级片| 免费看a级黄色片| 亚洲精品国产色婷婷电影| 精品久久久久久久毛片微露脸| 久久国产精品影院| 国产麻豆69| 一进一出好大好爽视频| 丰满少妇做爰视频| 亚洲五月婷婷丁香| 国产成人系列免费观看| 日本av手机在线免费观看| 亚洲七黄色美女视频| 成人av一区二区三区在线看| 成人三级做爰电影| 国产一区二区激情短视频| 97人妻天天添夜夜摸| 久久久精品国产亚洲av高清涩受| 午夜福利一区二区在线看| 亚洲av片天天在线观看| 欧美亚洲 丝袜 人妻 在线| 亚洲美女黄片视频| 黄色a级毛片大全视频| 男女免费视频国产| 久久久久久久国产电影| 成人18禁在线播放| 国产男女超爽视频在线观看| 天堂俺去俺来也www色官网| 中文字幕色久视频| 国产在线视频一区二区| 亚洲色图av天堂| 男人操女人黄网站| av欧美777| 午夜日韩欧美国产| 一区二区三区精品91| 在线观看一区二区三区激情| 怎么达到女性高潮| 欧美精品人与动牲交sv欧美| 99久久人妻综合| 精品第一国产精品| 最近最新中文字幕大全免费视频| 在线亚洲精品国产二区图片欧美| 黑人猛操日本美女一级片| 极品教师在线免费播放| 超碰97精品在线观看| 亚洲综合色网址| 视频区欧美日本亚洲| 亚洲欧美激情在线| 大码成人一级视频| 五月开心婷婷网| 麻豆乱淫一区二区| 亚洲国产欧美在线一区| 成人免费观看视频高清| 国产日韩欧美视频二区| 大码成人一级视频| 成人亚洲精品一区在线观看| 一区二区三区激情视频| av网站在线播放免费| 露出奶头的视频| 久久久久久免费高清国产稀缺| 高清av免费在线| 日韩视频一区二区在线观看| 超碰97精品在线观看| 亚洲国产中文字幕在线视频| 黑丝袜美女国产一区| 欧美亚洲日本最大视频资源| 免费av中文字幕在线| 欧美激情高清一区二区三区| 悠悠久久av| 亚洲欧洲精品一区二区精品久久久| 少妇裸体淫交视频免费看高清 | 在线观看免费高清a一片| 亚洲人成电影观看| 精品国产一区二区三区四区第35| 成人精品一区二区免费| 国产精品成人在线| h视频一区二区三区| 91九色精品人成在线观看|