• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向深度學(xué)習(xí)的彈載圖像處理異構(gòu)加速現(xiàn)狀分析

    2021-08-23 02:36:12陳棟田宗浩
    航空兵器 2021年3期
    關(guān)鍵詞:深度學(xué)習(xí)

    陳棟 田宗浩

    摘 要: 本文分析了深度學(xué)習(xí)算法向工程應(yīng)用轉(zhuǎn)化存在的問題,結(jié)合陸軍智能彈藥的特點和發(fā)展趨勢,分別從深度學(xué)習(xí)模型壓縮、量化,硬件平臺加速設(shè)計以及異構(gòu)加速框架設(shè)計等方面進行研究,提出了面向深度學(xué)習(xí)的彈載圖像處理異構(gòu)加速體系,實現(xiàn)從算法開發(fā)到硬件異構(gòu)移植的流程化設(shè)計。隨后,利用DeePhi Tech的異構(gòu)加速框架DNNDK對Yolo v3模型進行壓縮、量化,權(quán)重壓縮率90%以上,模型參數(shù)壓縮率80%以上,實現(xiàn)了Yolo v3的輕量化設(shè)計。在DPU硬件加速架構(gòu)的基礎(chǔ)上,實現(xiàn)算法向彈載嵌入式平臺的移植,其功耗和識別檢測效率滿足彈載圖像處理的要求。

    關(guān)鍵詞:彈載圖像;深度學(xué)習(xí);FPGA;脈動陣列;Winograd卷積

    中圖分類號:TJ760; TP18? 文獻(xiàn)標(biāo)識碼: A? 文章編號:1673-5048(2021)03-0010-08

    0 引? 言

    萬物互聯(lián)時代的到來為部隊裝備智能化建設(shè)帶來了新的機遇,信息和微電子等前沿技術(shù)在軍事領(lǐng)域的廣泛應(yīng)用催生出大批精良的新式裝備,使得傳統(tǒng)的作戰(zhàn)理念發(fā)生翻天覆地的變化。對炮兵來說,彈藥的智能化水平主要體現(xiàn)在目標(biāo)自主識別、跟蹤及毀傷,完全依靠彈上的控制系統(tǒng)獨立完成作戰(zhàn)任務(wù),并且命中精度和抗干擾能力更強。目前,國內(nèi)外對精確制導(dǎo)彈藥的研究主要集中在衛(wèi)星、激光、雷達(dá)以及圖像等幾種模式。其中,衛(wèi)星制導(dǎo)精度依賴于目標(biāo)的定位精度,激光制導(dǎo)需要前沿觀察所在彈丸工作末期給予激光指引,與雷達(dá)制導(dǎo)同屬被動制導(dǎo),易于被敵發(fā)現(xiàn),而圖像制導(dǎo)利用圖像傳感器采集目標(biāo)反射或輻射的可見光信息形成圖像,抗干擾能力強,不易被目標(biāo)發(fā)現(xiàn),通過充分挖掘圖像中的信息實現(xiàn)目標(biāo)的自主識別、定位和毀傷[1]。

    隨著深度學(xué)習(xí)(Deep Learning, DL)算法被應(yīng)用到社會的各行各業(yè),卷積神經(jīng)網(wǎng)絡(luò)[2](Convolution Neural Network, CNN)突破傳統(tǒng)人工挖掘圖像特征導(dǎo)致目標(biāo)識別準(zhǔn)確率低的瓶頸,通過多隱層的網(wǎng)絡(luò)結(jié)構(gòu)、良好的數(shù)據(jù)集訓(xùn)練、深度挖掘圖像的特征信息,大幅度提升了目標(biāo)識別的準(zhǔn)確率。隨后,各種基于CNN的改進模型被不斷提出,在提升目標(biāo)識別準(zhǔn)確率的同時網(wǎng)絡(luò)層次逐步加深,這也對計算平臺的計算、存儲以及功耗提出了更高要求。彈丸內(nèi)部空間小、作用時間短,嵌入式硬件平臺的處理速度成為制約深度學(xué)習(xí)算法向彈載平臺部署的關(guān)鍵因素。為此,需要在深度學(xué)習(xí)算法和硬件異構(gòu)平臺加速兩個方面進行研究,滿足彈載圖像目標(biāo)檢測實時性的要求,推動圖像制導(dǎo)彈藥的智能化發(fā)展。

    1 智能化圖像制導(dǎo)彈藥關(guān)鍵技術(shù)分析

    1.1 圖像制導(dǎo)彈藥智能化需求分析

    深度學(xué)習(xí)未得到廣泛應(yīng)用之前,圖像制導(dǎo)彈藥主要利用手工特征提取、圖像模板匹配等方法對目標(biāo)進行識別檢測,依賴人的先驗知識,不能從本質(zhì)上刻畫圖像的特征,識別準(zhǔn)確率低,檢測速度慢;而未來作戰(zhàn)樣式復(fù)雜多變,非接觸、突發(fā)性戰(zhàn)爭成為主要特點,戰(zhàn)爭爆發(fā)后指揮員可能并不明確敵目標(biāo)的主要特征,很難做到制導(dǎo)彈藥的準(zhǔn)確識別和精確打擊,傳統(tǒng)意義上的圖像制導(dǎo)彈藥會更依賴于人的主觀判斷識別目標(biāo),在瞬息萬變的戰(zhàn)場環(huán)境下可能錯失最佳攻擊時間。深度學(xué)習(xí)模型具有強大的表征和建模能力,通過監(jiān)督或非監(jiān)督的學(xué)習(xí)方式進行訓(xùn)練,逐層、自動地學(xué)習(xí)目標(biāo)的特征表示,通過將底層特征抽象形成高層特征,實現(xiàn)待檢測目標(biāo)本質(zhì)的描述。利用前期學(xué)習(xí)到的各種目標(biāo)特征信息,彈載處理器對采集到的圖像進行深度挖掘、推理與融合,判斷目標(biāo)類別、

    位置,自主控制彈丸命中目標(biāo),實現(xiàn)“感知-判斷-決策-行動”的新型作戰(zhàn)樣式,自主完成偵察與打擊任務(wù),如圖1所示。

    由圖1看出,傳統(tǒng)圖像制導(dǎo)彈藥將采集的圖像信息回傳至地面站進行處理,嚴(yán)重依賴于人的先驗知識,并且對未知、不確定目標(biāo)往往做不到首發(fā)命中。此外,彈丸作用時間短,任務(wù)不可逆,數(shù)據(jù)量龐大的圖像信息回傳至地面站處理過程中存在較大時延,滿足不了系統(tǒng)實時性要求;而智能圖像制導(dǎo)彈藥極大釋放人的作用,利用學(xué)習(xí)到的目標(biāo)特征自主完成識別打擊任務(wù),僅需要指揮員對彈藥決策信息進行輔助修正,降低誤判率。由于整個處理過程在彈載平臺自主實現(xiàn),降低了數(shù)據(jù)傳輸對帶寬的壓力,大大降低系統(tǒng)延遲,增強制導(dǎo)彈藥的響應(yīng)時間。

    1.2 智能圖像制導(dǎo)彈藥目標(biāo)檢測算法分析

    彈體在空中運動復(fù)雜,彈載圖像受彈體姿態(tài)的影響產(chǎn)生各種變化,例如圖像旋轉(zhuǎn)變化、圖像尺度變化以及戰(zhàn)場環(huán)境因素帶來的目標(biāo)遮擋等非本質(zhì)性變化,這些影響因素給圖像特征提取及目標(biāo)檢測帶來嚴(yán)峻的挑戰(zhàn)。CNN的最大特點為權(quán)值共享和局部連接,相比淺層網(wǎng)絡(luò)和傳統(tǒng)手工特征提取算法能更簡潔緊湊地提取特征,具備對特征旋轉(zhuǎn)、平移、縮放等畸變的不變性。隨著深度學(xué)習(xí)技術(shù)在圖像領(lǐng)域深入研究,出現(xiàn)越來越多的新理論、新方法,基于候選區(qū)域的方法和基于回歸思想的端到端的方法相互借鑒[3-4],不斷融合,取得了很好的效果。

    基于候選區(qū)域的目標(biāo)檢測算法(兩階段法)通過Selective Search[5]和Edge Boxes[6]等算法提取圖像中的候選區(qū)域(Region proposal),在此基礎(chǔ)上對候選區(qū)域進行分類和位置校準(zhǔn)。例如R-CNN算法采用Selective Search方法對圖像進行分割劃分、整合,得到不同大小的候選區(qū)域,利用CNN在候選區(qū)域上進行特征提取,顯著提升了目標(biāo)檢測的準(zhǔn)確率。由于R-CNN算法對輸入圖像大小要求嚴(yán)格,圖像縮放操作損失部分有用信息,并且其在提取候選區(qū)域時存在大量的重復(fù)運算,嚴(yán)重影響算法的檢測速度和效果。為解決R-CNN對輸入圖像尺寸敏感問題,基于空間金字塔池化層(Spatial Pyramid Pooling, SPP)的SPP-Net算法[7]以及Fast R-CNN算法[8]被提出,利用不同的池化窗口將圖像映射到同一維度,保存完整的圖像信息,檢測精度得到提升。但對于候選區(qū)域的操作仍然消耗大量的時間,算法的實時性問題仍未解決。Faster R-CNN算法[9]利用一個全卷積網(wǎng)絡(luò)RPN(Region Proposal Network)提取圖像特征,將候選區(qū)域從2 000多個降到300個,提升了算法檢測速度。但其網(wǎng)絡(luò)中的多次下采樣操作使圖像紋理細(xì)節(jié)特征損失較多,對小目標(biāo)的識別檢測準(zhǔn)確率較低。為此,一些基于高層特征和低層特征融合的算法被用于提升小目標(biāo)檢測精度,如超特征網(wǎng)絡(luò)HyperNet(Hyper Feature Net)[10]、多尺度特征金字塔網(wǎng)絡(luò)FPN(Feature Pyramid Networks)[11]等,在降低候選區(qū)域數(shù)量的同時保證對小目標(biāo)的檢測精度。雖然基于候選區(qū)域的目標(biāo)檢測算法精度和速度不斷提升,但是由于RPN結(jié)構(gòu)的存在,其檢測速度從本質(zhì)上受到限制,難以滿足彈載平臺對于檢測算法實時性的要求。

    基于回歸的檢測算法(單階段法)不需要產(chǎn)生候選區(qū)域,即給定輸入圖像,直接在圖像的多個位置上回歸出這個位置的目標(biāo)邊框以及目標(biāo)類別,在保證一定準(zhǔn)確率的前提下,速度得到極大提升。例如文獻(xiàn)[12]提出的Yolo算法,可以通過對圖像的直接檢測確定目標(biāo)的邊界框和類別,檢測速度提高到45 f/s,但其對緊鄰目標(biāo)和小目標(biāo)的檢測效果不佳。近年來,Yolo系列算法通過BN操作、殘差網(wǎng)絡(luò)特征融合等算法改進,使得模型檢測精度和速度大幅度提升,并且對小目標(biāo)的適應(yīng)性增強,模型的規(guī)模也在不斷減小,如Yolo v2/v3[13],Tiny-Yolo,SlimYolo[14]等。同樣,SSD算法及其改進模型[15-16]在Faster R-CNN算法anchor機制下,針對小目標(biāo)檢測進行了拓展研究,提高了模型的檢測精度和速度,如DSSD,DSOD,RSSD等。結(jié)合彈載圖像的特點以及深度學(xué)習(xí)在目標(biāo)檢測中的發(fā)展趨勢,基于Yolo系列的算法在衛(wèi)星[17]、無人機以及彈載平臺[18-19]目標(biāo)識別檢測中得到成功應(yīng)用。為此,本文擬在彈載平臺部署單階段目標(biāo)檢測算法,實現(xiàn)目標(biāo)的快速識別和定位,為決策和人工輔助修正過程留出充足的響應(yīng)時間。

    隨著網(wǎng)絡(luò)結(jié)構(gòu)的不斷加深和改進,模型的檢測精度不斷提高,但是隨之帶來的是龐大的數(shù)據(jù)量問題,尤其是訓(xùn)練得到的參數(shù)信息會隨著網(wǎng)絡(luò)的深度呈指數(shù)增加,這給在邊緣部署深度學(xué)習(xí)算法帶來了嚴(yán)峻挑戰(zhàn)。對于嵌入式設(shè)備而言,存儲空間、計算資源、能耗以及體積限制了理論模型向工程實現(xiàn)的轉(zhuǎn)換,輕量化模型設(shè)計成為解決此問題的重要途徑。早在1989年深度學(xué)習(xí)模型還沒有被廣泛應(yīng)用之前,LeCun教授就在文獻(xiàn)[20]中提出剔除神經(jīng)網(wǎng)絡(luò)中不重要參數(shù)信息思想,達(dá)到壓縮模型尺寸的作用,當(dāng)前很多深度學(xué)習(xí)模型剪枝算法都是基于文獻(xiàn)[20]提出的OBD方法的改進。深度學(xué)習(xí)模型壓縮技術(shù)在于減少參數(shù)冗余而不會損失較大的預(yù)測精度,關(guān)鍵技術(shù)難點為壓縮量化指標(biāo)的確定,其研究主要集中在精細(xì)化的模型設(shè)計、量化、Low-Rank分解、模型/通道剪枝以及遷移學(xué)習(xí)等方面,相關(guān)研究均在特定模型中取得較好的壓縮效果,如圖2所示。

    模型精細(xì)化設(shè)計將卷積核分解成多個小卷積核組合,優(yōu)化模型結(jié)構(gòu)的同時大大減少網(wǎng)絡(luò)參數(shù)。量化是通過降低權(quán)重參數(shù)的比特位數(shù)進行模型壓縮,例如將32 bit浮點權(quán)重轉(zhuǎn)換為8 bit整型以及權(quán)重二值化、三值化等,在保證模型精度的同時,極大提高了計算效率,降低了內(nèi)存占用率。模型訓(xùn)練出的權(quán)重矩陣中很多信息是冗余的,Low-Rank分解是用若干小矩陣表達(dá)出大矩陣包含的信息,并且不損失模型精度,大大降低模型的計算復(fù)雜度和內(nèi)存開銷。模型剪枝分為結(jié)構(gòu)化、非結(jié)構(gòu)化以及中間隱層剪枝,其核心思想是通過判定指標(biāo)確定模型節(jié)點、通道以及參數(shù)的重要程度,剔除對模型精度影響不大的部分,并通過再訓(xùn)練對模型進行微調(diào)。根據(jù)剪枝再訓(xùn)練過程又可分為永久剪枝和動態(tài)剪枝,其中永久剪枝完全依賴于訓(xùn)練模型的權(quán)重信息,裁剪完成后不再參與訓(xùn)練過程。但是對于網(wǎng)絡(luò)模型來說,某些權(quán)重信息是對后面權(quán)重參數(shù)的重要補充,永久裁剪后極大降低模型的精度,動態(tài)裁剪就是將這些誤裁剪的節(jié)點重新恢復(fù)回來,降低重要參數(shù)被裁剪的風(fēng)險。遷移學(xué)習(xí)來源于Teacher-Student方法,在結(jié)構(gòu)復(fù)雜、泛化性好、精度高的Teacher模型基礎(chǔ)上“引導(dǎo)”結(jié)構(gòu)簡單、參數(shù)量少的Student模型訓(xùn)練,得到和Teacher模型精度相近的結(jié)果。

    1.3 智能圖像制導(dǎo)彈藥硬件異構(gòu)加速研究

    對于彈載嵌入式平臺而言,硬件是支撐,軟件是靈魂,結(jié)構(gòu)復(fù)雜的深度學(xué)習(xí)算法離不開硬件平臺強勁的計算能力??紤]到彈載應(yīng)用環(huán)境、作戰(zhàn)任務(wù)的特殊性,智能圖像制導(dǎo)彈藥的軟硬件系統(tǒng)要滿足實時性、低功耗以及體積小等各方面要求。

    1.3.1 彈載硬件處理器分析

    彈載硬件處理器是智能圖像制導(dǎo)彈藥的控制中心,完成圖像采集、目標(biāo)檢測以及制導(dǎo)控制等功能。國內(nèi)外鮮有將人工智能技術(shù)應(yīng)用到彈載平臺,其根本原因在于高性能處理器和彈載應(yīng)用環(huán)境的適配問題,傳統(tǒng)制導(dǎo)彈藥大多利用CPU和DSP等處理器完成簡單的數(shù)據(jù)采集、控制等功能,目標(biāo)檢測等復(fù)雜算法在PC端實現(xiàn),存在較高時延,因此高性能硬件處理器成為制約彈藥智能化發(fā)展的首要因素。

    目前,面向AI的高性能硬件處理器可以分為CPU,GPU,F(xiàn)PGA,ASIC以及由其組成的多核結(jié)構(gòu)等。其中,CPU的順序執(zhí)行架構(gòu)決定其在大規(guī)模數(shù)值計算中存在較大時延,不能滿足彈載任務(wù)對實時性的要求;GPU包含大量的計算核心,很適合加速并行程度很高的深度學(xué)習(xí)算法,但GPU的功耗較大,空間狹小的彈載平臺不可能提供足夠的能耗供GPU工作;與通用處理器CPU和GPU相比,專用處理器ASIC為特定任務(wù)定制化的芯片,能獲得高效的處理速度和較低的功耗。例如Google的TPU(Tensor Processing Unit, 張量處理器)[39]、國內(nèi)寒武紀(jì)芯片[40]、IBM的TrueNorth以及華為2018年推出的達(dá)芬奇架構(gòu)的昇騰(Ascend 310/910)AI處理器等[41]。由于ASIC針對特定任務(wù)量身定做,靈活性差,并且缺少統(tǒng)一的軟硬件開發(fā)平臺,算法移植難度大,無疑提高了智能彈藥研發(fā)的周期和門檻?,F(xiàn)場可編程門陣列(Field Programmable Gate Array, FPGA)是一種計算密集型器件,能夠支持各種數(shù)據(jù)類型精度,例如FP32,INT8及二進制等,芯片上提供許多專用的算術(shù)計算單元、邏輯資源模塊、片內(nèi)的存儲資源、外圍I/O接口等,其可編程特性可以方便地重新配置數(shù)據(jù)路徑,無論是大規(guī)模并行、適度并行、流水線連續(xù)或者混合形式,都能獲得較好的計算能力和效率,更容易滿足彈載平臺計算、效率、時延和靈活性需求。另外,隨著深度學(xué)習(xí)模型計算復(fù)雜度的提高,單一處理器的計算能力遠(yuǎn)不能滿足需求。伴隨著各硬件處理器制造工藝水平的發(fā)展,多核化、高效能、混合異構(gòu)等成為高性能處理器的發(fā)展趨勢,充分利用各自的性能優(yōu)勢進行數(shù)據(jù)處理,可以更好地提升系統(tǒng)的算力。

    考慮到彈載任務(wù)的特殊性以及對功耗和硬件體積等限制,基于CPU+FPGA的異構(gòu)體系逐漸成為智能彈藥實現(xiàn)深度學(xué)習(xí)推理過程的主選方案。例如文獻(xiàn)[42]研究了基于FPGA的彈載圖像數(shù)字采集系統(tǒng),大大降低圖像采集時延;文獻(xiàn)[43]將SIFT跟蹤算法移植到FPGA平臺,實現(xiàn)高于25 f/s的跟蹤速度;文獻(xiàn)[44]實現(xiàn)了多種深度學(xué)習(xí)模型在Zynq-7000系列、Zynq UltraScale+MpSoC系列等硬件平臺的移植工作,為彈載平臺部署提供了理論基礎(chǔ)。

    在FPGA上實現(xiàn)深度學(xué)習(xí)算法加速,主要考慮計算模塊、控制模塊以及數(shù)據(jù)傳輸模塊的設(shè)計,其中,計算模塊主要是對卷積運算的硬件加速,是整個硬件加速設(shè)計的核心環(huán)節(jié);控制模塊是整個加速單元的控制系統(tǒng),負(fù)責(zé)系統(tǒng)參數(shù)同步、初始化以及啟動各子模塊;數(shù)據(jù)傳輸模塊主要負(fù)責(zé)片上緩存和片外內(nèi)存間的數(shù)據(jù)調(diào)度。各模塊之間協(xié)調(diào)工作,實現(xiàn)各個功能的流水線設(shè)計,高效利用硬件資源,滿足彈載FPGA異構(gòu)平臺對實時性和功耗的要求。

    1.3.2 卷積計算硬件加速

    在深度學(xué)習(xí)模型中,卷積計算量對模型的性能至關(guān)重要,對卷積運算進行優(yōu)化可以從根源上降低模型的計算復(fù)雜度,其計算復(fù)雜度表示為[45]

    O[n, k,? p, q]=∑C-1c=0∑R-1r=0∑S-1s=0F[k, c, r, s]·

    D0[n, c, g(p, u, R, r, pad_h),

    g(q, v, S, s, pad_w)](1)

    式中:F為卷積核;D為輸入數(shù)據(jù);R和S為卷積核的行列;u, v為卷積核在行列方向的滑動步長;pad_h和pad_w為輸入數(shù)據(jù)擴張大小,并且n∈[0, N),k∈[0, K),p∈[0, P),q∈[0, Q),N為每個batch的輸入圖像個數(shù),K為輸出特征圖的個數(shù),P和Q為輸出特征圖的行列,與輸入圖像的行列、滑動步長以及擴張大小有關(guān)。

    目前,主流的深度學(xué)習(xí)硬件加速單元通常采用向量內(nèi)積[46]、二維陣列及Winograd卷積[47]方式實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)中的矩陣和向量操作。向量內(nèi)積是將輸入和權(quán)重參數(shù)轉(zhuǎn)換成矩陣乘法形式,利用循環(huán)展開和循環(huán)分片實現(xiàn)數(shù)據(jù)的并行流水線設(shè)計,其計算復(fù)雜度為O(n3),數(shù)據(jù)映射結(jié)構(gòu)如圖3所示。

    向量內(nèi)積方法將卷積過程轉(zhuǎn)換為矩陣運算,在FPGA硬件實現(xiàn)過程中利用乘法器和加法器實現(xiàn)矩陣運算中的乘加操作,圖4為FPGA實現(xiàn)向量內(nèi)積的硬件單元。

    由圖4可以分析出,向量內(nèi)積在FPGA硬件平臺中實現(xiàn)簡單,通過多線程并行處理增加計算過程的吞吐量,但是計算過程中消耗大量的乘法器,數(shù)據(jù)復(fù)用程度低,數(shù)據(jù)存取過程帶來較大時延;另外,對于規(guī)模較小的網(wǎng)絡(luò),矩陣計算單元算力難以發(fā)揮,造成硬件資源浪費。

    研究表明,數(shù)據(jù)存取的速度遠(yuǎn)遠(yuǎn)小于數(shù)據(jù)處理的速度,硬件系統(tǒng)的計算能力很大程度上受限于訪存能力。1982年,Kung提出脈動陣列理論[39],利用多個同構(gòu)的PE單元并行實現(xiàn)數(shù)據(jù)復(fù)用,通過流水線設(shè)計使數(shù)據(jù)不斷向“下游”PE流動,增加數(shù)據(jù)在處理單元中的利用率,其數(shù)據(jù)計算結(jié)構(gòu)如圖5所示。

    從圖5中可以看出,脈動陣列中的PE單元實現(xiàn)簡單,每個PE依據(jù)預(yù)定的計算規(guī)則和周圍的PE進行數(shù)據(jù)交互,大大提高了數(shù)據(jù)的復(fù)用率,在消耗較少內(nèi)存帶寬的同時,保證了數(shù)據(jù)運算大吞吐率。但是,脈動陣列實現(xiàn)卷積運算時,需要將數(shù)據(jù)讀入到緩沖區(qū),占用大量的內(nèi)存單元,同時為了實現(xiàn)數(shù)據(jù)的有序“流動”,需要對數(shù)據(jù)進行格式調(diào)整,額外增加了其他計算消耗。

    向量內(nèi)積和二維脈動陣列進行卷積運算需要大量的乘加累積運算,算法復(fù)雜度均為O(n3)。2017年,文獻(xiàn)[47]提出了基于FPGA的Winograd算法去實現(xiàn)卷積運算,利用加法器代替乘法器減少大量卷積計算中的乘法操作,降低運算復(fù)雜度,提高運算速度。對于一維和二維Winograd卷積計算,文獻(xiàn)[47]給出了相應(yīng)的推理證明,如下所示:

    Y=AT[(Gg)⊙(BTd)](2)

    Y=AT[[GgGT]⊙[BTdB]]A(3)

    式(2)和式(3)分別為一維、二維的Winograd卷積計算。其中:g為卷積核;d為輸入信號;G為卷積核矩陣;BT為輸入轉(zhuǎn)置矩陣;AT為輸出轉(zhuǎn)置矩陣;⊙為點乘運算。計算過程如圖6所示。

    由圖6可以看出,Winograd卷積計算充分利用了向量內(nèi)積和脈動陣列兩者的優(yōu)勢,并利用加法器代替?zhèn)鹘y(tǒng)矩陣計算中大量的乘法操作,實現(xiàn)快速卷積計算,其一維和二維的計算復(fù)雜度分別可以表示為O(n)和O(n2),大大降低算法的復(fù)雜度。

    通過分析可知,任何一個卷積硬件加速架構(gòu)都有各自的優(yōu)勢,當(dāng)硬件平臺資源充足時,可以采用易于實現(xiàn)、吞吐量大的加速方案,而當(dāng)資源不足時,要合理劃分硬件資源對卷積進行優(yōu)化設(shè)計,實現(xiàn)硬件資源的高效利用。

    1.3.3 智能彈藥異構(gòu)加速體系設(shè)計

    由于彈載嵌入式平臺加速深度學(xué)習(xí)模型主要考慮推理過程,因此,可以在線下利用GPU訓(xùn)練搭建好的網(wǎng)絡(luò)模型,獲得最優(yōu)的權(quán)重參數(shù),再通過模型量化、剪枝等方法實現(xiàn)網(wǎng)絡(luò)的輕量化設(shè)計,最后結(jié)合硬件平臺資源分布,合理設(shè)計硬件加速單元,實現(xiàn)深度學(xué)習(xí)模型向嵌入式硬件平臺的高效移植,其設(shè)計流程如圖7所示。

    其中,模型輕量化設(shè)計和硬件加速單元設(shè)計是智能彈藥異構(gòu)設(shè)計的關(guān)鍵環(huán)節(jié)。結(jié)合深度學(xué)習(xí)模型卷積層、池化層、激活函數(shù)以及全連接層的特征,設(shè)計標(biāo)準(zhǔn)化的壓縮模型,以適應(yīng)針對不同彈載任務(wù)的深度學(xué)習(xí)算法。此外,充分分析各處理器在執(zhí)行深度學(xué)習(xí)算法中卷積運算、數(shù)據(jù)共享、指令控制以及任務(wù)調(diào)度中的性能,設(shè)定優(yōu)先級,讓最合適的單元執(zhí)行相關(guān)任務(wù),使得在硬件資源有限條件下獲得高效的加速性能。

    2 基于DPU的Yolo v3異構(gòu)加速設(shè)計

    文中1.1節(jié)對智能圖像制導(dǎo)彈藥任務(wù)的特殊性、不可逆性等特點進行了詳細(xì)分析,為在戰(zhàn)爭中掌握主動權(quán),基于深度學(xué)習(xí)的識別檢測算法既要準(zhǔn)確率高,又要速度快。通過對當(dāng)前目標(biāo)檢測算法性能分析,Yolo v3在檢測速度和識別準(zhǔn)確率方面都表現(xiàn)出極佳的性能。為此,本文采用Yolo v3實現(xiàn)戰(zhàn)場目標(biāo)的識別檢測。

    為加快深度學(xué)習(xí)模型向彈載嵌入式平臺移植,利用深鑒科技的DNNDK(Deep Neural Network Development Kit)編譯器[48]對深度學(xué)習(xí)模型進行編譯加速。DNNDK面向深度學(xué)習(xí)異構(gòu)計算平臺DPU(Deep-Learning Processor Unit)[49],涵蓋卷積神經(jīng)網(wǎng)絡(luò)推理階段的模型壓縮、編譯優(yōu)化和高效運行時支持等各種功能,為深度學(xué)習(xí)模型在DPU異構(gòu)平臺上的應(yīng)用提供了全棧式編譯環(huán)境,如圖8所示。

    由圖8可以看出,DNNDK編譯器為線下訓(xùn)練好的模型提供了針對DPU硬件加速架構(gòu)的全棧式編譯環(huán)境,可以實現(xiàn)深度學(xué)習(xí)算法性能分析、壓縮以及DPU異構(gòu)計算等。其中,DECENT工具將訓(xùn)練好的模型實現(xiàn)高效壓縮,并且不會帶來太大的精度損失;DNNC編譯器將深度學(xué)習(xí)模型和DPU指令一一映射,實現(xiàn)計算負(fù)載和內(nèi)存訪問的高效結(jié)合;N2Cube為深度學(xué)習(xí)模型在DPU硬件加速平臺實現(xiàn)資源分配、任務(wù)調(diào)度以及系統(tǒng)驅(qū)動等提供了多種輕量級接口函數(shù),以便實現(xiàn)對硬件資源的充分利用。為此,利用DNNDK來實現(xiàn)Yolo v3在嵌入式硬件平臺的移植、實現(xiàn)。

    首先,實驗使用Tensorflow框架,在1塊16 GB的Nvidia GTX1080Ti GPU上完成Yolo v3和Tiny-Yolo v3模型的訓(xùn)練[13],數(shù)據(jù)集采用公開的無人機目標(biāo)檢測VisDrone2018-Det[14]數(shù)據(jù)集和彈載相機采集的實景沙盤圖像。其中,VisDrone2018-Det數(shù)據(jù)集為無人機俯視視角拍攝的不同光照、環(huán)境以及密度條件下的場景圖像,包含行人、汽車、摩托車等10類目標(biāo),訓(xùn)練集圖片6 471張,驗證集圖像548張,測試集圖像1 580張;彈載相機

    采集的實景沙盤圖像包含火炮、自行火炮、遠(yuǎn)程火箭炮、坦克和步戰(zhàn)車等5類目標(biāo),并通過翻轉(zhuǎn)、旋轉(zhuǎn)和亮度增強等手段對數(shù)據(jù)集進行擴充,目標(biāo)圖像共2 000張,其中訓(xùn)練集1 600張,驗證集100張,測試集300張。

    模型訓(xùn)練過程中將兩種方式收集的數(shù)據(jù)集整合,共15類目標(biāo),10 599張圖片,輸入圖像大小裁剪為416×416,模型參數(shù)設(shè)置為:學(xué)習(xí)率0.001,動量0.9,權(quán)重衰減率0.000 5,每批次處理圖像32張,經(jīng)過不斷迭代訓(xùn)練后,模型的損失函數(shù)基本維持不變,得到訓(xùn)練好的權(quán)重參數(shù)。利用測試集對訓(xùn)練好的Yolo v3和Tiny-Yolo v3模型進行測試,其在Nvidia GTX1080Ti GPU平臺上的檢測幀率、mAP和功耗如表1所示。隨后,在上述模型訓(xùn)練結(jié)果的基礎(chǔ)上,利用DNNDK編譯器對訓(xùn)練模型的權(quán)重參數(shù)進行量化、壓縮,并將量化后的模型轉(zhuǎn)化為可在FPGA上執(zhí)行的底層文件,選用zcu104硬件平臺[48]實現(xiàn)Yolo v3和Tiny-Yolo v3的目標(biāo)識別檢測。

    上述四個模型分別在兩種數(shù)據(jù)集測試樣本上的識別檢測結(jié)果如圖9所示。

    通過表1和圖9的分析發(fā)現(xiàn),深度學(xué)習(xí)模型經(jīng)過DNNDK編譯器壓縮、編譯后,參數(shù)量和權(quán)重大大減少,雖然基于DPU硬件加速后的深度學(xué)習(xí)模型存在漏檢和檢測位置偏移問題,但是其精度損失微乎其微,并且這些性能損失可以人工輔助修正,而其在FPGA上的低功耗性能為深度學(xué)習(xí)模型在邊緣設(shè)備部署帶來更大的優(yōu)勢。

    3 結(jié) 束 語

    本文分析了深度學(xué)習(xí)算法向智能圖像制導(dǎo)彈藥目標(biāo)識別、檢測和跟蹤等工程實現(xiàn)中存在的突出問題,從深度學(xué)習(xí)模型壓縮、高性能處理器、卷積硬件加速等方面進行研究,提出了面向深度學(xué)習(xí)的彈載圖像處理異構(gòu)體系模型。針對圖像制導(dǎo)彈藥的任務(wù)需求,選擇準(zhǔn)確、快速的目標(biāo)識別檢測算法,通過模型輕量化設(shè)計減少模型冗余參數(shù),利用合適的卷積加速理論實現(xiàn)深度學(xué)習(xí)模型在硬件平臺的移植。本文利用深鑒科技提出的DNNDK編譯器,實現(xiàn)了Yolo v3算法在zcu104硬件平臺的移植,模型參數(shù)壓縮率80%以上,權(quán)重數(shù)據(jù)壓縮率90%以上,檢測速度滿足彈載平臺實時檢測的要求,為智能圖像制導(dǎo)彈藥工程實現(xiàn)提供了設(shè)計參考。

    參考文獻(xiàn):

    [1] 錢立志. 電視末制導(dǎo)炮彈武器系統(tǒng)關(guān)鍵技術(shù)研究[D]. 合肥: 中國科學(xué)技術(shù)大學(xué), 2006.

    Qian Lizhi. Research on the Key Technology of TV Terminal Guided Artillery Weapon System[D]. Hefei:? University of Science and Technology of China, 2006. (in Chinese)

    [2] Krizhevsky A, Sutskever I, Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks[C]∥Advances in Neural Information Processing Systems, 2012, 25(2):? 1097-1105.

    [3] 趙永強, 饒元, 董世鵬, 等. 深度學(xué)習(xí)目標(biāo)檢測方法綜述[J]. 中國圖象圖形學(xué)報, 2020, 25(4):? 629-654.

    Zhao Yongqiang, Rao Yuan, Dong Shipeng, et al. Survey on Deep Learning Object Detection[J]. Journal of Image and Graphics, 2020, 25(4):? 629-654. (in Chinese)

    [4] 阮激揚. 基于YOLO的目標(biāo)檢測算法設(shè)計與實現(xiàn)[D]. 北京:? 北京郵電大學(xué), 2019.

    Ruan Jiyang. Design and Implementation of Target Detection Algorithm Based on YOLO[D]. Beijing:? Beijing University of Posts and Telecommunications, 2019. (in Chinese)

    [5] Uijlings J R R, van de Sande K E A, Gevers T, et al. Selective Search for Object Recognition[J]. International Journal of Compu-ter Vision, 2013, 104(2):? 154-171.

    [6] Zitnick C L, Dollár P. Edge Boxes:? Locating Object Proposals from Edges[C]∥Proceedings of the 13th European Conference on Computer Vision, 2014:? 391-405.

    [7] He K M, Zhang X Y, Ren S Q, et al. Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9):? 1904-1916.

    [8] Girshick R. Fast R-CNN[C]∥Proceedings of the 2015 IEEE International Conference on Computer Vision, 2015: 1440-1448.

    [9] Ren S Q, He K M, Girshick R, et al. Faster R-CNN:? Towards Real-Time Object Detection with Region Proposal Networks[C]∥ Proceedings of the 28th International Conference on Neural Information Processing Systems, 2015: 91-99.

    [10] Shrivastava A, Gupta A, Girshick R. Training Region-Based Object Detectors with Online Hard Example Mining[C]∥ Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition, 2016: 761-769.

    [11] Lin T Y, Dollar P, Girshick R, et al. Feature Pyramid Networks for Object Detection[C]∥Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition, 2017:? 936-944.

    [12] Redmon J, Divvala S, Girshick R, et al. You Only Look Once:? Unified, Real-Time Object Detection[C]∥ Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition, 2016:? 779-788.

    [13] Redmon J, Farhadi A. YOLOv3:? An Incremental Improvement [EB/OL]. (2018-04-08) [2020-06-01]. https: ∥arxiv. xilesou. top/pdf/1804. 02767. pdf.

    [14] Zhang P Y, Zhong Y X, Li X Q, et al. SlimYOLOv3:? Narrower, Faster and Better for Real-Time UAV Applications[EB/OL]. (2019-07-25) [2020-06-01]. https: ∥arxiv. org/ftp/arxiv/papers/1907/1907. 11093. pdf.

    [15] Fu C Y, Liu W, Ranga A, et al. DSSD: Deconvolutional Single Shot Detector[EB/OL]. (2017-01-23) [2020-06-01]. https: ∥arxiv. org/pdf/1701. 06659. pdf.

    [16] Shen Z Q, Liu Z, Li J G, et al. DSOD: Learning Deeply Supervised Object Detectors from Scratch[C]∥Proceedings of the 2017 IEEE International Conference on Computer Vision, 2017: 1937-1945.

    [17] 喻鈞, 康秦瑀, 陳中偉, 等. 基于全卷積神經(jīng)網(wǎng)絡(luò)的遙感圖像海面目標(biāo)檢測[J]. 彈箭與制導(dǎo)學(xué)報, 2020, 35(6):? 24-31.

    Yu Jun, Kang Qinyu, Chen Zhongwei, et al. Sea Surface?? Target Detection in Remote Sensing Images Based on Full Convolution Neural Network[J]. Journal of Projectiles, Rockets, Missiles and Guidance, 2020, 35(6):? 24-31. (in Chinese)

    [18] 侯凱強, 李俊山, 王雪博, 等. 彈載人工智能目標(biāo)識別算法的嵌入式實現(xiàn)方法研究[J]. 制導(dǎo)與引信, 2019, 40(3):? 40-45.

    Hou Kaiqiang, Li Junshan, Wang Xuebo, et al. Research on Embedded Implementation Method of Missile-Borne Artifical Intelligence Target Recognition Algorithms[J]. Guidance & Fuze, 2019, 40(3):? 40-45. (in Chinese)

    [19] 楊傳棟, 劉楨, 馬翰宇, 等. 一種基于改進YOLOv3的彈載圖像多目標(biāo)檢測方法[J]. 彈箭與制導(dǎo)學(xué)報, 2020, 22(6): 1-6.

    Yang Chuandong, Liu Zhen, Ma Hanyu, et al. A Multi-Target Detection Method for Missile-Borne Images Based on Improved YOLOv3[J]. Journal of Projectiles, Rockets, Missiles and Guidance, 2020, 22(6): 1-6. (in Chinese)

    [20] LeCun Y, Denker J S, Sollar S A. Optimal Brain Damage[C]∥Advances in Neural Information Processing Systems, 1990:? 598–605.

    [21] Iandola F N, Han S, Moskewicz M W, et al. SqueezeNet:? AlexNet-Level Accuracy with 50× Fewer Parameters and <0.5 MB Model Size[EB/OL]. (2016-11-04)[2020-06-01]. https: ∥arxiv. org/abs/1602. 07360.

    [22] Qin Z, Zhang Z N, Chen X T, et al. FD-MobileNet:? Improved MobileNet with a Fast Downsampling Strategy[C]∥25th IEEE International Conference on Image Processing, 2018:? 1363-1367.

    [23] Chollet F. Xception:? Deep Learning with Depthwise Separable Convolutions[EB/OL]. (2017-04-04)[2020-06-01]. https: ∥arxiv. org/abs/1610. 02357.

    [24] Wang S J, Cai H R, Bilmes J, et al. Training Compressed Fully-Connected Networks with a Density-Diversity Penalty[J]. International Conference on Learning Representations, 2017:? 1121-1132.

    [25] Dettmers T. 8-Bit Approximations for Parallelism in Deep Learning[EB/OL]. (2016-02-19)[2020-06-01]. https: ∥arxiv. org/abs/1511. 04561.

    [26] Li F F, Zhang B, Liu B. Ternary Weight Networks[EB/OL]. (2016-11-19)[2020-06-01]. https: ∥arxiv. org/abs/1605. 04711.

    [27] Courbariaux M, Hubara I, Soudry D, et al. Binarized Neural Networks:? Training Deep Neural Networks with Weights and Activations Constrained to +1 or -1[EB/OL]. (2016-04-17)[2020-06-01]. https: ∥arxiv. org/abs/1602. 02830.

    [28] Lebedev V, Ganin Y, Rakhuba M, et al. Speeding-Up Convolutional Neural Networks Using Fine-Tuned CP-Decomposition[EB/OL]. (2015-04-24)[2020-06-01]. https: ∥arxiv. org/abs/1412. 6553.

    [29] Zhang X Y, Zou J H, He K M, et al. Accelerating Very Deep Convolutional Networks for Classification and Detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(10):? 1943-1955.

    [30] Kim Y D, Park E, Yoo S, et al. Compression of Deep Convolutional Neural Networks for Fast and Low Power Mobile Applications[EB/OL]. (2015-11-20)[2020-06-01]. https: ∥arxiv. org/abs/1511. 06530.

    [31] Novikov A, Podoprikhin D, Osokin A, et al. Tensorizing Neural Networks[EB/OL]. (2015-11-20)[2020-06-01]. https:∥arxiv. org/abs/1509. 06569.

    [32] Hu H Y, Peng R, Tai Y W, et al. Network Trimming:? A Data-Driven Neuron Pruning Approach towards Efficient Deep Architectures[EB/OL]. (2016-07-12)[2020-06-01]. https: ∥arxiv. org/abs/1607. 03250.

    [33] Li H, Kadav A, Durdanovic I, et al. Pruning Filters for Efficient ConvNets[EB/OL]. (2017-03-10) [2020-06-01]. https: ∥arxiv. org/abs/1608. 08710.

    [34] Molchanov P, Tyree S, Karras T, et al. Pruning Convolutional Neural Networks for Resource Efficient Inference[EB/OL]. (2016-11-19)[2020-06-01]. https: ∥arxiv. org/abs/1611. 06440.

    [35] Anwar S, Hwang K, Sung W. Structured Pruning of Deep Convolutional Neural Networks[J]. ACM Journal on Emerging Techno-logies in Computing Systems, 2017, 13(3):? 1-18.

    [36] Moya Rueda F, Grzeszick R, Fink G A. Neuron Pruning for Compressing Deep Networks Using Maxout Architectures[EB/OL]. (2017-07-21)[2020-06-01]. https: ∥arxiv. org/abs/1707. 06838.

    [37]? Yim J, Joo D, Bae J, et al. A Gift from Knowledge Distillation:? Fast Optimization, Network Minimization and Transfer Learning [C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2017:? 7130-7138.

    [38] Hinton G, Vinyals O, Dean J. Distilling the Knowledge in a Neural Network[EB/OL]. (2015-03-09)[2020-06-01]. https: ∥arxiv. org/abs/1503. 02531.

    [39]? Jouppi N P, Young C, Patil N, et al. In-Datacenter Performance Analysis of a Tensor Processing Unit[EB/OL]. (2017-04-16)[2020-06-01]. https: ∥arxiv. org/abs/1704. 04760.

    [40]? Chen T S, Du Z D, Wang J, et al. DianNao:? A Small-Footprint High-Throughput Accelerator for Ubiquitous Machine-Learning[J]. ACM Sigarch Notices, 2014, 49(4): 269-284.

    [41] 梁曉峣. 昇騰AI處理器架構(gòu)與編程:深入理解CANN技術(shù)原理及應(yīng)用[M]. 北京:? 清華大學(xué)出版社, 2019.

    Liang Xiaoyao. Shengteng AI Processor Architecture and Programming:Deep Understanding the Technology Principle and Application of CANN [M]. Beijing:? Tsinghua University Press, 2019. (in Chinese)

    [42] 高陽. 彈載數(shù)字圖像采集系統(tǒng)研究[D]. 太原:? 中北大學(xué), 2017.

    Gao Yang. Research on Digital Image Acquisition System for Missile[D]. Taiyuan: ?North University of China, 2017. (in Chinese)

    [43] 邱曉冬. 基于FPGA的SIFT圖像匹配系統(tǒng)實現(xiàn)與優(yōu)化[D]. 南京:? 東南大學(xué), 2019.

    Qiu Xiaodong. Implementation and Optimization of SIFT Algorithm Based on FPGA [D]. Nanjing:? Southeast University, 2019. (in Chinese)

    [44]? XILINX White Paper. Vitis AI Library User Guide [EB/OL]. (2019-10-01)[2020-06-01]. https: ∥www. xilinx. com/support/documentation/ai_inference/v1_6/ug1354-xilinx-ai-sdk. pdf.

    [45] Dukhan M. The Indirect Convolution Algorithm[EB/OL]. (2019-07-03)[2020-06-01]. https: ∥arxiv. org/abs/1907. 02129.

    [46] Chetlur S, Woolley C, Vandermersch P, et al. CuDNN:? Efficient Primitives for Deep Learning[EB/OL]. (2014-11-18)[2020-06-01]. https: ∥arxiv. org/abs/1410. 0759.

    [47] Liang Y, Lu L Q, Xiao Q C, et al. Evaluating Fast Algorithms for Convolutional Neural Networks on FPGAs[J]. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 2020, 39(4): 857-870.

    [48]? XILINX White Paper. DNNDK User Guide [EB/OL]. (2019-08-13) [2020-06-01]. https: ∥www. xilinx. com/support/documentation/sw_manuals/ai_inference/v1_6/ug1327-dnndk-user-guide. pdf.

    [49] XILINX White Paper. Zynq DPU v3.2 Product Guide [EB/OL]. (2020-03-01)[2020-06-01]. https: ∥www. xilinx. com/support/documentation/ip_documentation/dpu/v3_2/pg338-dpu. pdf.

    Research on Heterogeneous Acceleration of Deep

    Learning Method for Missile-Borne Image Processing

    Chen Dong, Tian Zonghao*

    (Laboratory of Guidance Control and Information Perception Technology of High Overload Projectiles,

    Army Academy of Artillery and Air Defense of PLA, Hefei 230031, China)

    Abstract:

    The problem existing in the transformation of? deep learning algorithm to engineering application is analyzed. Combining with the? characteristics and development trends of army intelligent ammunition, the missile-borne image processing heterogeneous accelerate system for deep learning is put forward based on the research of compression, quantitative and hardware heterogeneous acceleration, realizing heterogeneous hardware design. The DNNDK is used to compress and quantify the Yolo v3 model. The weight and parameter compression rate are more than 90% and 80%, realizing the lightweight design of Yolo v3. Based on the DPU hardware acceleration architecture, the algorithm is transplanted to the missile-borne embedded platform, and its power consumption and detection efficiency meet the requirements of missile-borne image processing.

    Key words: missile-borne image; deep learning; FPGA; systolic array; Winograd convolution

    收稿日期:2020-06-01

    基金項目:軍隊“十三五”預(yù)研基金項目 (301070103)

    作者簡介:陳棟(1983-),男,安徽合肥人,副教授,博士,研究方向為新型彈藥技術(shù)研究與運用、武器系統(tǒng)運用與保障工程。

    通訊作者:田宗浩(1991-),男,河北晉州人,博士研究生,研究方向為智能彈藥、圖像處理。

    猜你喜歡
    深度學(xué)習(xí)
    有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    亚洲一级一片aⅴ在线观看| 亚洲av综合色区一区| 国产精品欧美亚洲77777| 大香蕉久久网| 午夜影院在线不卡| 中文字幕精品免费在线观看视频| 别揉我奶头~嗯~啊~动态视频 | 在线观看国产h片| 这个男人来自地球电影免费观看 | 国产亚洲av高清不卡| 欧美中文综合在线视频| 日日撸夜夜添| 日韩中文字幕视频在线看片| 永久免费av网站大全| 一级片免费观看大全| 亚洲精品久久成人aⅴ小说| 男人添女人高潮全过程视频| 午夜福利一区二区在线看| 男女午夜视频在线观看| 国产精品蜜桃在线观看| 欧美亚洲日本最大视频资源| 一二三四中文在线观看免费高清| 亚洲精品av麻豆狂野| 午夜免费鲁丝| 丁香六月天网| 国产亚洲精品第一综合不卡| 另类精品久久| 久久人人97超碰香蕉20202| 亚洲国产成人一精品久久久| 飞空精品影院首页| 亚洲精品一区蜜桃| 久久婷婷青草| kizo精华| 国产av一区二区精品久久| 免费在线观看完整版高清| 亚洲精品美女久久av网站| 国产在线免费精品| 亚洲久久久国产精品| 在线天堂最新版资源| 欧美精品人与动牲交sv欧美| 欧美xxⅹ黑人| 丝袜人妻中文字幕| 欧美精品一区二区免费开放| 日本wwww免费看| 国产精品免费大片| 国产成人av激情在线播放| 91精品国产国语对白视频| 丰满少妇做爰视频| 欧美成人午夜精品| 免费黄色在线免费观看| 狠狠精品人妻久久久久久综合| 国产精品麻豆人妻色哟哟久久| 青春草视频在线免费观看| 高清视频免费观看一区二区| 99re6热这里在线精品视频| 久久久久久久久久久免费av| 国产熟女欧美一区二区| 免费观看人在逋| 国产精品国产三级专区第一集| 免费观看a级毛片全部| 最新在线观看一区二区三区 | 亚洲成色77777| 国产精品二区激情视频| 男女无遮挡免费网站观看| 狠狠精品人妻久久久久久综合| 国产无遮挡羞羞视频在线观看| 九九爱精品视频在线观看| 国产日韩欧美亚洲二区| 精品一区二区三卡| 另类亚洲欧美激情| 精品人妻熟女毛片av久久网站| 国产成人精品在线电影| 天堂中文最新版在线下载| 在线观看免费日韩欧美大片| 亚洲欧美成人综合另类久久久| 欧美另类一区| 一区二区三区四区激情视频| netflix在线观看网站| 国产黄色视频一区二区在线观看| 悠悠久久av| 国产精品久久久av美女十八| 少妇被粗大的猛进出69影院| 另类亚洲欧美激情| 成人免费观看视频高清| 精品国产露脸久久av麻豆| 国产精品久久久久久人妻精品电影 | 欧美少妇被猛烈插入视频| 国产精品一区二区在线不卡| 久久 成人 亚洲| 国产精品熟女久久久久浪| 亚洲精品成人av观看孕妇| 亚洲国产欧美日韩在线播放| 韩国精品一区二区三区| 丝袜喷水一区| 日韩电影二区| 国产毛片在线视频| 免费高清在线观看日韩| 高清黄色对白视频在线免费看| 亚洲一区二区三区欧美精品| 亚洲熟女精品中文字幕| 中文字幕人妻熟女乱码| 色综合欧美亚洲国产小说| 久久久久人妻精品一区果冻| av国产久精品久网站免费入址| 国产黄色视频一区二区在线观看| 狠狠精品人妻久久久久久综合| avwww免费| 精品少妇黑人巨大在线播放| 亚洲av日韩在线播放| av免费观看日本| 午夜激情久久久久久久| 精品第一国产精品| 美国免费a级毛片| 亚洲熟女毛片儿| 亚洲国产成人一精品久久久| 80岁老熟妇乱子伦牲交| 天天添夜夜摸| 成人黄色视频免费在线看| 亚洲免费av在线视频| 啦啦啦视频在线资源免费观看| 日本av手机在线免费观看| 9191精品国产免费久久| 黄色视频在线播放观看不卡| 秋霞在线观看毛片| 亚洲图色成人| 欧美变态另类bdsm刘玥| 熟女av电影| 欧美黑人欧美精品刺激| 老司机影院毛片| 成人手机av| 国产精品欧美亚洲77777| 男女边吃奶边做爰视频| 尾随美女入室| 两性夫妻黄色片| 中文精品一卡2卡3卡4更新| 狂野欧美激情性xxxx| 嫩草影视91久久| 老司机在亚洲福利影院| 亚洲专区中文字幕在线 | 日本wwww免费看| 一级毛片电影观看| 国产免费一区二区三区四区乱码| 麻豆精品久久久久久蜜桃| 久久久国产欧美日韩av| 一本大道久久a久久精品| 波多野结衣av一区二区av| 久久精品久久久久久久性| 亚洲少妇的诱惑av| 久久婷婷青草| av有码第一页| 麻豆av在线久日| 亚洲一级一片aⅴ在线观看| 成人18禁高潮啪啪吃奶动态图| 欧美乱码精品一区二区三区| 国产日韩欧美视频二区| 99久久人妻综合| 99国产精品免费福利视频| 亚洲av欧美aⅴ国产| 亚洲欧美成人综合另类久久久| 欧美国产精品一级二级三级| 久久 成人 亚洲| 黄色视频在线播放观看不卡| 熟妇人妻不卡中文字幕| 欧美激情 高清一区二区三区| 精品国产乱码久久久久久男人| 制服诱惑二区| 国产亚洲欧美精品永久| 国产免费视频播放在线视频| 女性被躁到高潮视频| 天堂俺去俺来也www色官网| 精品一区二区三卡| 波野结衣二区三区在线| 两性夫妻黄色片| 大片电影免费在线观看免费| 亚洲婷婷狠狠爱综合网| 久久久久久免费高清国产稀缺| 欧美黑人精品巨大| 人人妻人人澡人人爽人人夜夜| 18在线观看网站| 国产男人的电影天堂91| 好男人视频免费观看在线| 亚洲熟女毛片儿| 美女中出高潮动态图| 大陆偷拍与自拍| 69精品国产乱码久久久| 亚洲精品国产一区二区精华液| 好男人视频免费观看在线| 亚洲av综合色区一区| 另类亚洲欧美激情| 免费观看人在逋| bbb黄色大片| 久久99热这里只频精品6学生| 无限看片的www在线观看| 精品亚洲乱码少妇综合久久| 亚洲精品一二三| 免费观看av网站的网址| 欧美人与性动交α欧美精品济南到| 亚洲欧洲日产国产| 国产在视频线精品| 亚洲图色成人| 久久久国产精品麻豆| 亚洲天堂av无毛| 男女高潮啪啪啪动态图| 欧美精品亚洲一区二区| 亚洲第一av免费看| 国产成人精品久久久久久| 免费观看a级毛片全部| 国产亚洲欧美精品永久| 日韩免费高清中文字幕av| 十八禁高潮呻吟视频| 久久久久久久久久久免费av| 别揉我奶头~嗯~啊~动态视频 | 亚洲一码二码三码区别大吗| 国产精品人妻久久久影院| 国产精品熟女久久久久浪| 亚洲少妇的诱惑av| 看十八女毛片水多多多| 亚洲欧美成人综合另类久久久| 91精品国产国语对白视频| 自线自在国产av| 久久久国产精品麻豆| 日韩精品有码人妻一区| 91精品国产国语对白视频| 亚洲专区中文字幕在线 | 毛片一级片免费看久久久久| 国产深夜福利视频在线观看| 日韩av不卡免费在线播放| 大片免费播放器 马上看| 久热这里只有精品99| 美女主播在线视频| 不卡av一区二区三区| 蜜桃在线观看..| 桃花免费在线播放| 18禁动态无遮挡网站| 国产精品 国内视频| 在线观看免费高清a一片| 成人午夜精彩视频在线观看| 狂野欧美激情性xxxx| 美女视频免费永久观看网站| 又大又爽又粗| 国产片特级美女逼逼视频| 亚洲中文av在线| 国产亚洲欧美精品永久| 日本91视频免费播放| 91国产中文字幕| 欧美国产精品va在线观看不卡| 久久鲁丝午夜福利片| 国产亚洲欧美精品永久| 久久久国产欧美日韩av| 一区二区av电影网| 晚上一个人看的免费电影| 老鸭窝网址在线观看| 亚洲欧美一区二区三区久久| 日本黄色日本黄色录像| 久久影院123| 国产亚洲av片在线观看秒播厂| 两性夫妻黄色片| av电影中文网址| 男女床上黄色一级片免费看| 久久ye,这里只有精品| 高清在线视频一区二区三区| 欧美日韩一级在线毛片| 国产无遮挡羞羞视频在线观看| 国产成人精品久久二区二区91 | 亚洲,欧美精品.| 大码成人一级视频| 丁香六月天网| 日韩一卡2卡3卡4卡2021年| 亚洲精品在线美女| 亚洲av国产av综合av卡| 丝袜脚勾引网站| 老司机影院毛片| 午夜免费鲁丝| 一区二区日韩欧美中文字幕| 成人三级做爰电影| 男女午夜视频在线观看| 久久这里只有精品19| 啦啦啦啦在线视频资源| 免费高清在线观看视频在线观看| 日韩 亚洲 欧美在线| 中文字幕另类日韩欧美亚洲嫩草| 99久久综合免费| 亚洲国产精品999| 中文精品一卡2卡3卡4更新| 九九爱精品视频在线观看| 久久精品亚洲av国产电影网| 国产日韩欧美视频二区| 日韩av在线免费看完整版不卡| 婷婷色综合www| 精品酒店卫生间| av天堂久久9| 久久狼人影院| 亚洲国产欧美在线一区| 丝袜喷水一区| 成人国语在线视频| 涩涩av久久男人的天堂| 性少妇av在线| 韩国精品一区二区三区| 日本一区二区免费在线视频| 悠悠久久av| av在线观看视频网站免费| 国产精品久久久久久精品电影小说| 最近中文字幕2019免费版| 一区二区三区四区激情视频| 精品人妻熟女毛片av久久网站| 国产精品欧美亚洲77777| 欧美精品高潮呻吟av久久| 免费在线观看黄色视频的| 激情视频va一区二区三区| 电影成人av| 热99国产精品久久久久久7| 夫妻性生交免费视频一级片| 啦啦啦视频在线资源免费观看| 国产毛片在线视频| 国产精品女同一区二区软件| 免费在线观看完整版高清| 国产成人啪精品午夜网站| 午夜影院在线不卡| 在线观看三级黄色| 久久久国产欧美日韩av| 色吧在线观看| 精品亚洲成a人片在线观看| 日韩伦理黄色片| 亚洲av综合色区一区| 汤姆久久久久久久影院中文字幕| 欧美成人午夜精品| 欧美日韩成人在线一区二区| 国产亚洲一区二区精品| 在线观看免费日韩欧美大片| 久久精品久久久久久久性| 亚洲精品自拍成人| 九色亚洲精品在线播放| 男女边摸边吃奶| 亚洲国产精品成人久久小说| 男的添女的下面高潮视频| 免费在线观看视频国产中文字幕亚洲 | 中文字幕精品免费在线观看视频| 香蕉丝袜av| 99久久综合免费| 性高湖久久久久久久久免费观看| 午夜福利视频精品| 国产免费现黄频在线看| 大片免费播放器 马上看| 精品酒店卫生间| 最近中文字幕高清免费大全6| 国产成人一区二区在线| 黄色怎么调成土黄色| 亚洲成人国产一区在线观看 | 少妇人妻精品综合一区二区| 亚洲av国产av综合av卡| 建设人人有责人人尽责人人享有的| 电影成人av| 9热在线视频观看99| 亚洲av日韩在线播放| 欧美 亚洲 国产 日韩一| 99精国产麻豆久久婷婷| 无限看片的www在线观看| 人体艺术视频欧美日本| 无限看片的www在线观看| 人体艺术视频欧美日本| 欧美 亚洲 国产 日韩一| 欧美日韩一区二区视频在线观看视频在线| 超碰成人久久| 国产女主播在线喷水免费视频网站| 欧美国产精品va在线观看不卡| 黄频高清免费视频| av不卡在线播放| 免费观看av网站的网址| 中文乱码字字幕精品一区二区三区| 亚洲第一区二区三区不卡| 一区二区三区乱码不卡18| 色网站视频免费| 亚洲精品av麻豆狂野| 国产午夜精品一二区理论片| 在线观看国产h片| kizo精华| 校园人妻丝袜中文字幕| 高清视频免费观看一区二区| 亚洲色图综合在线观看| 性高湖久久久久久久久免费观看| av国产久精品久网站免费入址| 久久久久久久久久久免费av| 女人爽到高潮嗷嗷叫在线视频| 大陆偷拍与自拍| 人妻人人澡人人爽人人| 亚洲av日韩在线播放| 亚洲av欧美aⅴ国产| 欧美国产精品va在线观看不卡| 亚洲欧美一区二区三区黑人| 欧美日韩av久久| 久久免费观看电影| 韩国av在线不卡| 亚洲人成电影观看| 如何舔出高潮| 日韩一卡2卡3卡4卡2021年| 女人高潮潮喷娇喘18禁视频| 亚洲国产欧美在线一区| 精品人妻在线不人妻| www.熟女人妻精品国产| 人妻 亚洲 视频| 18禁裸乳无遮挡动漫免费视频| 国产亚洲av片在线观看秒播厂| 亚洲精品乱久久久久久| 精品视频人人做人人爽| 国产片内射在线| 黄片小视频在线播放| 国产成人av激情在线播放| 亚洲精品美女久久av网站| 日韩成人av中文字幕在线观看| 宅男免费午夜| 中文字幕av电影在线播放| 五月开心婷婷网| 精品卡一卡二卡四卡免费| 丝袜美腿诱惑在线| 丝袜脚勾引网站| 国产黄色免费在线视频| 老司机靠b影院| bbb黄色大片| 国产乱人偷精品视频| 国产成人免费观看mmmm| 国产淫语在线视频| 美女扒开内裤让男人捅视频| 久久毛片免费看一区二区三区| 亚洲国产精品一区三区| 国产欧美亚洲国产| 亚洲婷婷狠狠爱综合网| 久久99一区二区三区| 狂野欧美激情性bbbbbb| 1024视频免费在线观看| 国产精品久久久久久久久免| 久久这里只有精品19| av在线老鸭窝| svipshipincom国产片| 亚洲第一青青草原| 在线观看免费高清a一片| 人体艺术视频欧美日本| 国产 精品1| 国产精品偷伦视频观看了| 欧美日韩亚洲高清精品| 精品一区二区免费观看| 国产淫语在线视频| 亚洲情色 制服丝袜| 国产在线视频一区二区| 欧美乱码精品一区二区三区| 国产成人精品久久二区二区91 | 亚洲欧美一区二区三区黑人| 秋霞在线观看毛片| 国产欧美日韩综合在线一区二区| 少妇精品久久久久久久| √禁漫天堂资源中文www| 国产毛片在线视频| 亚洲成人手机| 久久精品国产亚洲av高清一级| 一二三四在线观看免费中文在| 国产精品无大码| 免费黄网站久久成人精品| 七月丁香在线播放| 久久精品aⅴ一区二区三区四区| 天堂8中文在线网| 午夜福利乱码中文字幕| www.熟女人妻精品国产| 99re6热这里在线精品视频| 精品少妇内射三级| 大话2 男鬼变身卡| 丰满饥渴人妻一区二区三| 欧美日韩福利视频一区二区| 国产在线一区二区三区精| 免费不卡黄色视频| 80岁老熟妇乱子伦牲交| 啦啦啦在线免费观看视频4| 夫妻性生交免费视频一级片| 丝袜脚勾引网站| 91aial.com中文字幕在线观看| 伊人久久大香线蕉亚洲五| 爱豆传媒免费全集在线观看| 亚洲精品一二三| 一二三四中文在线观看免费高清| 国产成人精品久久久久久| 韩国av在线不卡| 国产欧美日韩综合在线一区二区| 久久国产精品男人的天堂亚洲| 成人影院久久| 久久女婷五月综合色啪小说| 9热在线视频观看99| 黄片无遮挡物在线观看| 老熟女久久久| √禁漫天堂资源中文www| 十八禁网站网址无遮挡| 欧美乱码精品一区二区三区| 视频在线观看一区二区三区| 中文字幕制服av| 一本色道久久久久久精品综合| 国产精品久久久人人做人人爽| 久久97久久精品| 国产熟女欧美一区二区| 国产日韩欧美视频二区| 极品人妻少妇av视频| h视频一区二区三区| 青青草视频在线视频观看| 日韩熟女老妇一区二区性免费视频| 不卡av一区二区三区| 免费人妻精品一区二区三区视频| 人人妻,人人澡人人爽秒播 | 中文字幕av电影在线播放| 国产伦人伦偷精品视频| 性色av一级| 日本wwww免费看| 一区福利在线观看| 日日爽夜夜爽网站| 欧美在线一区亚洲| 久久久久久人人人人人| 大码成人一级视频| 久久精品国产亚洲av涩爱| 亚洲综合精品二区| 只有这里有精品99| 伊人久久国产一区二区| 多毛熟女@视频| 国产成人精品福利久久| 曰老女人黄片| 操出白浆在线播放| 一区福利在线观看| 一二三四中文在线观看免费高清| 人成视频在线观看免费观看| 中文字幕制服av| 欧美日韩亚洲国产一区二区在线观看 | 国产亚洲av片在线观看秒播厂| 激情五月婷婷亚洲| 久久女婷五月综合色啪小说| 一二三四在线观看免费中文在| 又大又黄又爽视频免费| 久久狼人影院| 日日摸夜夜添夜夜爱| 亚洲一码二码三码区别大吗| 国产精品蜜桃在线观看| 亚洲精品国产一区二区精华液| 日韩,欧美,国产一区二区三区| 又黄又粗又硬又大视频| 制服诱惑二区| 日韩视频在线欧美| 啦啦啦中文免费视频观看日本| 亚洲av日韩在线播放| 国产一级毛片在线| 国产亚洲欧美精品永久| 国产在线免费精品| 国产精品99久久99久久久不卡 | 日韩精品免费视频一区二区三区| 丁香六月欧美| 色精品久久人妻99蜜桃| 亚洲av成人不卡在线观看播放网 | 最新在线观看一区二区三区 | 大陆偷拍与自拍| 国产乱来视频区| 成人国语在线视频| 91精品三级在线观看| www日本在线高清视频| 99精品久久久久人妻精品| 一区福利在线观看| 精品少妇内射三级| 国产精品国产三级专区第一集| av在线app专区| 国产精品女同一区二区软件| 51午夜福利影视在线观看| 如何舔出高潮| 男女边吃奶边做爰视频| 天天添夜夜摸| 性色av一级| 亚洲av福利一区| 国产成人精品福利久久| 久热爱精品视频在线9| 色婷婷av一区二区三区视频| 亚洲精品一二三| 一本大道久久a久久精品| 国产 一区精品| 国产淫语在线视频| 精品少妇内射三级| 只有这里有精品99| 亚洲第一av免费看| 卡戴珊不雅视频在线播放| 亚洲一区二区三区欧美精品| 国产野战对白在线观看| 久久久久久久精品精品| 伊人亚洲综合成人网| 伊人久久国产一区二区| 91国产中文字幕| 久久久国产欧美日韩av| 免费观看性生交大片5| 电影成人av| 极品少妇高潮喷水抽搐| 久久综合国产亚洲精品| 亚洲一码二码三码区别大吗| 亚洲美女搞黄在线观看| 亚洲国产精品一区三区| 高清黄色对白视频在线免费看| 久久人人97超碰香蕉20202| 在线观看国产h片| 国产免费福利视频在线观看| 熟妇人妻不卡中文字幕| 久久热在线av| 男女下面插进去视频免费观看| 99久久人妻综合| 91老司机精品| 电影成人av| 在线观看人妻少妇| 亚洲,一卡二卡三卡| 亚洲av国产av综合av卡| 午夜影院在线不卡| 久久韩国三级中文字幕| 亚洲精品,欧美精品| 久久狼人影院| av国产久精品久网站免费入址| 如日韩欧美国产精品一区二区三区| 午夜福利乱码中文字幕| 午夜福利影视在线免费观看| 99精品久久久久人妻精品| 亚洲欧美成人精品一区二区|