• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深度學(xué)習(xí)在雷達(dá)目標(biāo)高分辨距離像識(shí)別中的研究綜述

    2020-07-16 18:27:38付哲泉李相平李尚生但波王旭坤
    航空兵器 2020年3期
    關(guān)鍵詞:目標(biāo)識(shí)別深度學(xué)習(xí)雷達(dá)

    付哲泉 李相平 李尚生 但波 王旭坤

    摘 要:雷達(dá)目標(biāo)的高分辨距離像包含了豐富的目標(biāo)信息,基于高分辨距離像的雷達(dá)目標(biāo)識(shí)別一直是軍事領(lǐng)域關(guān)注的重點(diǎn)和難點(diǎn)。隨著深度學(xué)習(xí)逐漸成為各領(lǐng)域的研究熱點(diǎn),基于深度學(xué)習(xí)算法的高分辨距離像目標(biāo)識(shí)別得到了廣泛關(guān)注。與傳統(tǒng)方法相比,深度學(xué)習(xí)算法可以自動(dòng)提取目標(biāo)高分辨距離像數(shù)據(jù)有效的深層特征,達(dá)到更高的識(shí)別準(zhǔn)確率。本文總結(jié)了近期深度學(xué)習(xí)在雷達(dá)目標(biāo)高分辨距離像識(shí)別領(lǐng)域的應(yīng)用和研究情況,介紹了該領(lǐng)域四個(gè)亟待解決的問(wèn)題。

    關(guān)鍵詞: 雷達(dá);深度學(xué)習(xí);高分辨距離像;目標(biāo)識(shí)別; 人工智能

    中圖分類(lèi)號(hào):TJ760;TP18文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào): 1673-5048(2020)03-0037-07

    0 引言

    雷達(dá)對(duì)目標(biāo)的識(shí)別一直是軍事領(lǐng)域關(guān)注的重點(diǎn),目標(biāo)的高分辨距離像(High Resolution Range Profile,HRRP)表示目標(biāo)散射中心在雷達(dá)-目標(biāo)方向上的投影,包含了豐富的目標(biāo)結(jié)構(gòu)特征。由于易獲取、易存儲(chǔ)和易處理的特點(diǎn),HRRP一直作為軍事目標(biāo)識(shí)別的重要數(shù)據(jù)來(lái)源。

    隨著寬帶雷達(dá)的應(yīng)用,雷達(dá)目標(biāo)已經(jīng)由點(diǎn)目標(biāo)變?yōu)轶w目標(biāo),可以通過(guò)提取HRRP的強(qiáng)散射點(diǎn)分布特征對(duì)不同目標(biāo)進(jìn)行分類(lèi)和識(shí)別。前期基于HRRP的雷達(dá)目標(biāo)識(shí)別方法可以總結(jié)為5類(lèi): (1)基于統(tǒng)計(jì)模型的識(shí)別。統(tǒng)計(jì)模型方法以貝葉斯理論為基礎(chǔ),從訓(xùn)練樣本中獲取模型參數(shù),再根據(jù)測(cè)試樣本所對(duì)應(yīng)的各類(lèi)后驗(yàn)概率判定其類(lèi)別。常見(jiàn)的統(tǒng)計(jì)模型有自適應(yīng)高斯分類(lèi)器模型[1]、伽瑪混合模型[2]等。(2)基于流行學(xué)習(xí)的識(shí)別。其思想是根據(jù)某一準(zhǔn)則將高維HRRP向低維特征空間投影,并利用投影系數(shù)作為特征向量進(jìn)行識(shí)別,該方法可以有效降低HRRP特征維數(shù)。主要有主成分分析[3]、線性判別分析[4]等。(3)基于核方法的識(shí)別。核方法是基于Mercer核展開(kāi)定理,通過(guò)非線性映射,把樣本映射到Hilbert空間,從而將非線性可分的HRRP樣本轉(zhuǎn)變?yōu)榫€性可分的HRRP樣本,再利用線性方法解決分類(lèi)問(wèn)題,通常與其他的特征提取方法結(jié)合[5]。(4)基于字典學(xué)習(xí)的識(shí)別。該類(lèi)方法通過(guò)特定的觀測(cè)矩陣求得HRRP的稀疏系數(shù),將該系數(shù)作為目標(biāo)特征進(jìn)行分類(lèi)識(shí)別。該類(lèi)方法的關(guān)鍵在于字典的構(gòu)造,如穩(wěn)健字典學(xué)習(xí)[6]、重構(gòu)判別字典學(xué)習(xí)[7]等。(5)基于HRRP序列的識(shí)別。相鄰姿態(tài)角的HRRP序列在時(shí)間和空間上有較強(qiáng)的連

    續(xù)性,基于隱馬爾科夫模型[8]、多模態(tài)平穩(wěn)序列建模[9]、受限玻爾茲曼機(jī)[10]等方法,利用這種連續(xù)性可以有效提高雷達(dá)目標(biāo)的識(shí)別性能。

    近年來(lái),深度學(xué)習(xí)成為各領(lǐng)域的研究熱點(diǎn),在合成孔徑雷達(dá)、逆合成孔徑雷達(dá)圖像[11-13]和光學(xué)、遙感、紅外等圖像[14-17]的目標(biāo)檢測(cè)、識(shí)別與分類(lèi)方面都得到了廣泛應(yīng)用。雷達(dá)基于HRRP信息的目標(biāo)分類(lèi)識(shí)別亦可通過(guò)深度學(xué)習(xí)算法來(lái)實(shí)現(xiàn)。相比于傳統(tǒng)的識(shí)別方法,深度學(xué)習(xí)算法可以自動(dòng)提取目標(biāo)HRRP數(shù)據(jù)有效的深層特征,以進(jìn)行不同目標(biāo)的分類(lèi)與識(shí)別。

    1 基于CNN的HRRP目標(biāo)識(shí)別

    1.1 CNN基本原理

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)

    是一種包含卷積計(jì)算的前饋神經(jīng)網(wǎng)絡(luò),對(duì)其研究可以追溯到20世紀(jì)60年代Hubel和Wiesel在研究貓腦皮層中用于局部敏感的方向選擇的神經(jīng)元時(shí)提出的一種網(wǎng)絡(luò)結(jié)構(gòu)。由于CNN在計(jì)算過(guò)程中具有平移不變性等特點(diǎn),因此,可以避免對(duì)HRRP數(shù)據(jù)復(fù)雜的預(yù)處理,有利于深度學(xué)習(xí)算法的HRRP目標(biāo)識(shí)別。經(jīng)典的CNN網(wǎng)絡(luò)由卷積層、池化層、全連接層和分類(lèi)器層組成。針對(duì)HRRP的CNN基本框架結(jié)構(gòu)如圖1所示。

    圖1展示了CNN對(duì)一個(gè)數(shù)據(jù)長(zhǎng)度為128的HRRP進(jìn)行10種目標(biāo)的分類(lèi)過(guò)程,網(wǎng)絡(luò)結(jié)構(gòu)依次為卷積層、池化層、卷積層、池化層、全連接層和分類(lèi)器層。

    卷積層的主要作用是對(duì)輸入數(shù)據(jù)的特征進(jìn)行提取,卷積層內(nèi)部可以包含多個(gè)卷積核。圖1中的兩個(gè)卷積層分別包含16個(gè)和32個(gè)卷積核,卷積核的每個(gè)元素都對(duì)應(yīng)著權(quán)重系數(shù)和偏差值。卷積核對(duì)輸入數(shù)據(jù)進(jìn)行卷積計(jì)算并加入偏差值,然后利用激活函數(shù)進(jìn)行激活,得到的卷積層輸出即為從輸入數(shù)據(jù)提取的特征。計(jì)算過(guò)程可以表示為

    xlj=f∑i∈Mjxl-1i*klij+blj(1)

    式中: x表示特征項(xiàng);M表示輸入特征項(xiàng)的集合;k為卷積核;b為偏差值;l是網(wǎng)絡(luò)結(jié)構(gòu)的層序號(hào);i是卷積核序號(hào);j是特征項(xiàng)通道序號(hào);f是激活函數(shù)。卷積層的參數(shù)包括卷積核大小、步長(zhǎng)、填充和激活函數(shù),常用的激活函數(shù)有Sigmoid函數(shù)、Tanh函數(shù)、Relu函數(shù)等,不同的參數(shù)組合賦予卷積層不同的特性。

    池化層的主要作用是對(duì)卷積層提取的特征進(jìn)行選擇和過(guò)濾,通過(guò)下采樣實(shí)現(xiàn)對(duì)特征的選擇和數(shù)據(jù)降維。常用的池化層有最大池化、均值池化以及混合池化等。

    全連接層通常放在卷積神經(jīng)網(wǎng)絡(luò)的后部,位于分類(lèi)器層之前,主要作用是將上一層得到的特征按順序進(jìn)行排列得到一維向量,此時(shí)特征將失去多維結(jié)構(gòu)。全連接層的輸出作為分類(lèi)器層的輸入,通過(guò)分類(lèi)器層的處理后得到整個(gè)CNN的輸出。常用的分類(lèi)器有softmax和支持向量機(jī)(Support Vector Machine,SVM)等。在目標(biāo)識(shí)別問(wèn)題中,CNN的輸出可以是目標(biāo)的類(lèi)別、大小和中心坐標(biāo)等。

    針對(duì)監(jiān)督學(xué)習(xí)的CNN學(xué)習(xí)過(guò)程一般通過(guò)反向傳播(Back Propagation,BP)框架進(jìn)行CNN參數(shù)的迭代更新,通過(guò)使代價(jià)函數(shù)計(jì)算的誤差值最小來(lái)獲得穩(wěn)定的識(shí)別結(jié)果,此時(shí)網(wǎng)絡(luò)訓(xùn)練結(jié)束。一種典型的代價(jià)函數(shù)公式為

    EN=12∑Nn=1∑ck=1tnk-ynk2(2)

    式中: tnk表示第n個(gè)樣本對(duì)應(yīng)標(biāo)簽的第k維;ynk表示網(wǎng)絡(luò)輸出的第n個(gè)樣本的第k維;N表示訓(xùn)練樣本的個(gè)數(shù);c表示待識(shí)別的標(biāo)簽數(shù),對(duì)應(yīng)圖1中的10個(gè)目標(biāo)類(lèi)別。

    1.2 基于CNN的HRRP目標(biāo)識(shí)別研究

    基于深度學(xué)習(xí)的HRRP目標(biāo)識(shí)別研究暫時(shí)沒(méi)有典型的公開(kāi)數(shù)據(jù)庫(kù),不同團(tuán)隊(duì)和研究人員針對(duì)HRRP目標(biāo)識(shí)別的數(shù)據(jù)庫(kù)大多來(lái)源于團(tuán)隊(duì)自己進(jìn)行的模型仿真計(jì)算和暗室測(cè)量。但是不同文獻(xiàn)研究均表明,基于深度學(xué)習(xí)的HRRP目標(biāo)識(shí)別準(zhǔn)確率均高于傳統(tǒng)的分類(lèi)方法。

    Karabayir O等人[18]利用經(jīng)典的CNN模型對(duì)艦船目標(biāo)進(jìn)行分類(lèi)。首先建立了6艘軍艦和4艘民用艦船的模型,然后利用物理光學(xué)法計(jì)算得到不同艦船在X波段的HRRP數(shù)據(jù),即每個(gè)艦船目標(biāo)在方位角[-45°,+45°],俯仰角[+81°,+90°]范圍內(nèi)間隔1°,共910個(gè)HRRP數(shù)據(jù),并對(duì)HRRP數(shù)據(jù)進(jìn)行歸一化處理,使HRRP的幅度保持在[0,1]區(qū)間。每個(gè)目標(biāo)隨機(jī)選擇582個(gè)HRRP作為訓(xùn)練集,100個(gè)作為驗(yàn)證集,剩余的228個(gè)作為測(cè)試集。文獻(xiàn)中CNN模型包括4個(gè)卷積層、2個(gè)最大池化層、1個(gè)Relu激活層和1個(gè)全連接層。最終對(duì)自建HRRP數(shù)據(jù)集的平均識(shí)別準(zhǔn)確率為93.90%,不同艦船目標(biāo)的識(shí)別準(zhǔn)確率為84.56%~97.06%。

    山東大學(xué)的殷和義等人[19]也使用CNN進(jìn)行目標(biāo)分類(lèi)。他們的數(shù)據(jù)集來(lái)源于微波暗室中對(duì)4種飛機(jī)縮比模型的實(shí)際測(cè)量。文章分析了不同激活函數(shù)對(duì)網(wǎng)絡(luò)性能的影響,以及不同卷積核大小、不同學(xué)習(xí)率、不同權(quán)值衰減系數(shù)對(duì)識(shí)別率的影響。與BP神經(jīng)網(wǎng)絡(luò)、SVM分類(lèi)器和KNN分類(lèi)器相比,CNN分類(lèi)法識(shí)別率更高,但耗時(shí)更長(zhǎng)。

    Aalto University的Lundén J和Koivunen V [20]利用CNN模型對(duì)多基地雷達(dá)HRRP的目標(biāo)進(jìn)行分類(lèi),其數(shù)據(jù)集來(lái)源于對(duì)多個(gè)飛機(jī)模型的仿真計(jì)算,并對(duì)HRRP添加白噪聲進(jìn)行了數(shù)據(jù)集的擴(kuò)充。利用不同角度的HRRP數(shù)據(jù)模擬不同基地雷達(dá)的回波信號(hào),將CNN對(duì)不同雷達(dá)(單基地和多基地)HRRP的識(shí)別結(jié)果進(jìn)行融合,將輸出的最高目標(biāo)概率與所設(shè)閾值進(jìn)行比較,以判斷目標(biāo)是已知還是未知目標(biāo)類(lèi)型。實(shí)驗(yàn)結(jié)果表明,該方法在低信噪比情況下有較好的識(shí)別結(jié)果。

    南京理工大學(xué)的蓋晴晴等人[21]提出了一種將HRRP與極化信息相結(jié)合的算法。對(duì)建模得到的3種簡(jiǎn)單目標(biāo)模型利用FEKO軟件計(jì)算得到全極化數(shù)據(jù),根據(jù)極化矩陣、Pauli分解和Freeman分解,分別得到6個(gè)、3個(gè)、3個(gè)特征向量,將計(jì)算得到的12個(gè)特征向量作為CNN模型的輸入,對(duì)目標(biāo)進(jìn)行識(shí)別分類(lèi)?;谌珮O化矩陣HRRP數(shù)據(jù)得到的目標(biāo)識(shí)別準(zhǔn)確率與不同單一極化數(shù)據(jù)相比,提高了5%~9%。文獻(xiàn)同時(shí)對(duì)以極化特征向量的不同組合方式作為數(shù)據(jù)集時(shí)的目標(biāo)分類(lèi)結(jié)果進(jìn)行了仿真分析。Robert Bosch GmbH的Visentin T等人[22]也利用HRRP的極化信息進(jìn)行了目標(biāo)的分類(lèi)實(shí)驗(yàn),其數(shù)據(jù)集來(lái)源于微波暗室中用77 GHz電磁波對(duì)目標(biāo)模型進(jìn)行的全極化測(cè)量。

    南京電子技術(shù)研究所的楊予昊等人[23]建立兩種CNN結(jié)構(gòu)進(jìn)行HRRP的目標(biāo)識(shí)別。結(jié)構(gòu)1將HRRP數(shù)據(jù)變換為二維數(shù)據(jù)后作為網(wǎng)絡(luò)的輸入,結(jié)構(gòu)2則直接將原始HRRP數(shù)據(jù)作為網(wǎng)絡(luò)的輸入。采用某型雷達(dá)對(duì)6種飛機(jī)的實(shí)測(cè)HRRP數(shù)據(jù)驗(yàn)證該方法的有效性。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)的模板匹配法相比,目標(biāo)識(shí)別的準(zhǔn)確率提高了20%。與結(jié)構(gòu)1相比,結(jié)構(gòu)2的識(shí)別準(zhǔn)確率更高,說(shuō)明將一維HRRP數(shù)據(jù)轉(zhuǎn)換為二維格式會(huì)破壞HRRP的內(nèi)部結(jié)構(gòu)信息,不利于有效特征的提取。

    南京理工大學(xué)的王容川等人[24]對(duì)CNN模型進(jìn)行HRRP目標(biāo)識(shí)別時(shí)的姿態(tài)敏感性進(jìn)行分析。文獻(xiàn)數(shù)據(jù)集由5類(lèi)目標(biāo)在小視角迎頭和小視角尾追情況下的HRRP數(shù)據(jù)組成,即只選取一定觀測(cè)角度范圍的HRRP作為仿真數(shù)據(jù)。實(shí)驗(yàn)結(jié)果表明,數(shù)據(jù)信噪比越高,目標(biāo)種類(lèi)越少,識(shí)別準(zhǔn)確率越高。與融合主成分分析和支持向量機(jī)的算法相比,CNN識(shí)別準(zhǔn)確率更高,并且數(shù)據(jù)集角度范圍越大,識(shí)別效果的差別越大,說(shuō)明CNN相比于傳統(tǒng)方法對(duì)姿態(tài)敏感性的適應(yīng)能力更強(qiáng),具有更好的泛化能力。

    各研究團(tuán)隊(duì)依據(jù)所獲取的數(shù)據(jù)集對(duì)基于CNN的HRRP目標(biāo)識(shí)別做了很多研究工作,但是側(cè)重點(diǎn)不盡相同,包括分析不同CNN結(jié)構(gòu)和激活函數(shù)、學(xué)習(xí)率等超參數(shù)對(duì)目標(biāo)識(shí)別準(zhǔn)確率的影響,分析HRRP在不同信噪比或不同角度范圍條件下的識(shí)別準(zhǔn)確率,分析多傳感器HRRP數(shù)據(jù)識(shí)別結(jié)果融合對(duì)準(zhǔn)確率的提高,分析全極化HRRP數(shù)據(jù)對(duì)識(shí)別結(jié)果的影響等。與

    支持向量機(jī)、多層感知機(jī)、K最近鄰、主成分分析法等傳統(tǒng)方法相比,基于CNN的HRRP目標(biāo)識(shí)別均具有更高的識(shí)別準(zhǔn)確率。

    2 基于AE的HRRP目標(biāo)識(shí)別

    2.1 AE基本原理

    自動(dòng)編碼器(Autoencoder,AE)是一種數(shù)據(jù)壓縮的算法,通過(guò)提取輸入數(shù)據(jù)的重要特征來(lái)盡可能復(fù)現(xiàn)輸入信號(hào),進(jìn)而實(shí)現(xiàn)數(shù)據(jù)壓縮。 AE包括編碼和解碼兩個(gè)過(guò)程,即包括一個(gè)由函數(shù)h=f(x)表示的編碼器和一個(gè)由函數(shù)r=g(h)表示的解碼器。但是AE不能簡(jiǎn)單設(shè)置為g(f(x))=x,需要加入一些約束項(xiàng)來(lái)增加提取特征的泛化性和魯棒性。AE的結(jié)構(gòu)示意圖如圖2所示。

    對(duì)AE的改進(jìn)可以得到不同的自動(dòng)編碼器網(wǎng)絡(luò)結(jié)構(gòu)。例如: 在AE的基礎(chǔ)上增加L1的正則化限制可以得到稀疏自動(dòng)編碼器(Sparse Autoencoder,S1AE),L1的作用是約束隱藏層的節(jié)點(diǎn)大部分為零,使隱藏層的特征變得稀疏,減小計(jì)算量。對(duì)AE的輸入層引入隨機(jī)噪聲可以得到去噪自動(dòng)編碼器(Denoise Autoencoder,D1AE),D1AE從加入噪聲的輸入數(shù)據(jù)中重構(gòu)出原始數(shù)據(jù),可以使隱藏層提取特征的魯棒性更好。相對(duì)于原始的AE,增加隱藏層的層數(shù)可以得到深層自動(dòng)編碼器(Deep Autoencoder,D2AE)。 隨著隱藏層數(shù)的增加,AE的學(xué)習(xí)能力得到提升,便于提取更深層的特征。將AE的編碼器部分由卷積層和最大池化層替代,解碼器部分由卷積層和上采樣層替代,AE則變?yōu)榫矸e自動(dòng)編碼器(Convolutional Autoencoder,C1AE),C1AE網(wǎng)絡(luò)可以從圖像數(shù)據(jù)中更好地提取特征。對(duì)D2AE的編碼器層進(jìn)行逐層訓(xùn)練可以得到棧式自動(dòng)編碼器(Stacked Autoencoder,S2AE)。通過(guò)對(duì)以上改進(jìn)模型的組合可以得到更多的網(wǎng)絡(luò)結(jié)構(gòu)。

    2.2 基于不同AE的HRRP目標(biāo)識(shí)別研究

    文獻(xiàn)[25]將稀疏自動(dòng)編碼器和卷積自動(dòng)編碼器融合,利用稀疏卷積自編碼器(Sparse Convolutional Autoencoder,S1C1AE)網(wǎng)絡(luò)對(duì)三種車(chē)輛模型在微波波段下的半空間和全空間HRRP數(shù)據(jù)進(jìn)行分類(lèi)識(shí)別,數(shù)據(jù)集來(lái)源于電磁計(jì)算軟件的仿真計(jì)算。模型的目標(biāo)識(shí)別過(guò)程與CNN基本相同,分為預(yù)處理、特征提取和分類(lèi)三部分。文獻(xiàn)對(duì)數(shù)據(jù)的預(yù)處理是幅度的L2歸一化和基于質(zhì)心對(duì)準(zhǔn)的時(shí)移補(bǔ)償。比較半空間和全空間不同數(shù)據(jù)集下的分類(lèi)識(shí)別結(jié)果,全空間數(shù)據(jù)集的識(shí)別率更高,但半空間數(shù)據(jù)集更貼近實(shí)際情況,與其他模型結(jié)果相比,識(shí)別率有較大提升。比較模型有傳統(tǒng)的線性判別分析(Linear Discriminate Analysis,LDA)、主成分分析(Principal Component Analysis,PCA)、線性支持向量機(jī)(Linear Support Vector Machine,LSVM)和神經(jīng)網(wǎng)絡(luò)模型去噪稀疏自動(dòng)編碼器(Denoise Sparse Autoencoder,D1S1AE)、深度置信網(wǎng)絡(luò)(Deep Belief Network,DBN)。

    西安電子科技大學(xué)的陳渤[26]團(tuán)隊(duì)建立了棧式校正自動(dòng)編碼器模型(Stacked Corrective Autoencoder,S2C2AE),模型的校正特性體現(xiàn)在對(duì)每幀HRRP進(jìn)行求平均。在馬氏距離準(zhǔn)則下,考慮各幀HRRP之間的協(xié)方差矩陣建立損失函數(shù)。對(duì)不同層數(shù)的S2C2AE與S2D1AE、DBN以及傳統(tǒng)方法的識(shí)別結(jié)果進(jìn)行比較。實(shí)驗(yàn)表明,HRRP的平均輪廓具有更平滑、更簡(jiǎn)潔的信號(hào)形式,能提取更抽象有用的層次特征,可以有效解決散斑效應(yīng)和異常值,使模型具有更好的泛化性能。數(shù)據(jù)集來(lái)源于3種飛機(jī)的實(shí)測(cè)數(shù)據(jù),并對(duì)數(shù)據(jù)集進(jìn)行了質(zhì)心對(duì)準(zhǔn)和L2歸一化預(yù)處理。該團(tuán)隊(duì)也對(duì)S2RAE[27](Stacked Robust Autoencoder)、RVAE[28-29](Robust Variational Autoencoder)、RAN[30-31](Recurrent Attentional Network)模型在相同數(shù)據(jù)集下的識(shí)別性能進(jìn)行了詳細(xì)研究。

    南京航空航天大學(xué)的王彩云等人[32]將卷積稀疏編碼器與多分類(lèi)器融合對(duì)HRRP目標(biāo)進(jìn)行識(shí)別。首先利用卷積稀疏編碼器對(duì)HRRP進(jìn)行特征提取,達(dá)到壓縮HRRP數(shù)據(jù)的效果。然后利用隨機(jī)森林分類(lèi)器、樸素貝葉斯分類(lèi)器和最小值分類(lèi)器對(duì)提取的特征進(jìn)行預(yù)分類(lèi),再利用多數(shù)投票法將3個(gè)預(yù)測(cè)結(jié)果進(jìn)行融合,得到最后的識(shí)別結(jié)果。文獻(xiàn)對(duì)5種飛機(jī)目標(biāo)的HRRP仿真數(shù)據(jù)進(jìn)行實(shí)驗(yàn)驗(yàn)證,結(jié)果表明,該模型準(zhǔn)確率較高,對(duì)噪聲的魯棒性較好。南京航空航天大學(xué)的張歡[33]用SVM對(duì)利用S2AE模型對(duì)數(shù)據(jù)降維后的特征進(jìn)行目標(biāo)分類(lèi),分析了S2AE模型不同層節(jié)點(diǎn)數(shù)對(duì)識(shí)別率的影響。雷達(dá)目標(biāo)HRRP數(shù)據(jù)庫(kù)來(lái)自于仿真軟件對(duì)Su27、J6和M2K 3種飛機(jī)的全方位HRRP數(shù)值計(jì)算。海軍工程大學(xué)的張建強(qiáng)等人[34]也做了類(lèi)似研究。

    基于不同AE的HRRP目標(biāo)識(shí)別研究廣泛,主要集中在分析擴(kuò)展和改進(jìn)AE結(jié)構(gòu)對(duì)識(shí)別準(zhǔn)確率的提高,以及不同深度AE結(jié)構(gòu)對(duì)識(shí)別準(zhǔn)確率的影響方面。相比于不同AE結(jié)構(gòu)的組合,引入卷積操作對(duì)目標(biāo)識(shí)別的準(zhǔn)確率提高更明顯,識(shí)別結(jié)果均優(yōu)于傳統(tǒng)方法。

    3 基于改進(jìn)深度學(xué)習(xí)網(wǎng)絡(luò)的HRRP目標(biāo)識(shí)別

    3.1 基于CDNN的HRRP目標(biāo)識(shí)別研究

    電子科技大學(xué)的廖闊等人[35]提出了一種CDNN(Concatenated Deep Neural Networks)網(wǎng)絡(luò)結(jié)構(gòu)。該結(jié)構(gòu)由多個(gè)淺層神經(jīng)子網(wǎng)絡(luò)(Shallow Neural Sub-Networks,SNSN)的隱層連接而成。SNSN的結(jié)構(gòu)如圖3所示。

    SNSN由1個(gè)輸入層、2個(gè)隱藏層和1個(gè)輸出層組成。圖中x表示原始的HRRP數(shù)據(jù),a(k-1)2表示第k-1層SNSN第2層隱藏層的特征,aki表示第k個(gè)SNSN網(wǎng)絡(luò)第i層的特征,{Wki, bki}表示第k個(gè)SNSN網(wǎng)絡(luò)第i層的權(quán)重矩陣和偏差值。文獻(xiàn)將原始HRRP數(shù)據(jù)與上一層SNSN提取的特征進(jìn)行融合作為下一層SNSN的輸入層,以此解決深層神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中可能出現(xiàn)的梯度消失、爆炸和過(guò)擬合的問(wèn)題。數(shù)據(jù)集為4種飛機(jī)目標(biāo)的仿真和實(shí)測(cè)數(shù)據(jù)。在對(duì)數(shù)據(jù)集擴(kuò)充的基礎(chǔ)上進(jìn)行了二級(jí)標(biāo)簽編碼,減少提取特征之間的類(lèi)內(nèi)差異,增加類(lèi)間差異。文獻(xiàn)分析了不同級(jí)聯(lián)層數(shù)對(duì)識(shí)別率的影響,并用多證據(jù)融合理論進(jìn)一步提高了系統(tǒng)的識(shí)別率,與其他算法相比,對(duì)各個(gè)目標(biāo)的識(shí)別率都有較大提高。

    3.2 基于S2AE和ELM融合的HRRP目標(biāo)識(shí)別研究

    文獻(xiàn)[36]提出了一種基于S2AE和正則化極限學(xué)習(xí)機(jī)(Extreme Learning Machine,ELM)的HRRP分類(lèi)識(shí)別方法,充分利用S2AE和ELM各自的優(yōu)點(diǎn)以提高識(shí)別性能。文獻(xiàn)[36]網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

    利用S2AE提取各隱藏層的深層特征,利用ELM快速的學(xué)習(xí)速度和良好的泛化能力減少訓(xùn)練時(shí)間。實(shí)驗(yàn)表明,該模型與其他模型相比識(shí)別率更高,訓(xùn)練時(shí)間更短,并且在小訓(xùn)練樣本的情況下也有很好的識(shí)別性能。文獻(xiàn)提出下一階段可以利用疊加去噪稀疏自動(dòng)編碼器結(jié)構(gòu)和ELM融合,以提高模型對(duì)噪聲的魯棒性。

    在基于ELM的目標(biāo)識(shí)別方面,文獻(xiàn)[37]分析了引入Dropout后對(duì)ELM目標(biāo)識(shí)別能力的影響。實(shí)驗(yàn)結(jié)果表明,引入Dropout可以解決神經(jīng)網(wǎng)絡(luò)過(guò)擬合問(wèn)題,有效提高模型的泛化能力。

    3.3 基于Residual和Inception融合的HRRP目標(biāo)識(shí)別研究

    海軍航空大學(xué)的郭晨等人[38]將Residual網(wǎng)絡(luò)和Inception網(wǎng)絡(luò)結(jié)合,得到一種新的網(wǎng)絡(luò)結(jié)構(gòu),如圖5所示。

    文獻(xiàn)[38]提出一種余弦中心損失函數(shù),以增大類(lèi)間距離、減小類(lèi)內(nèi)距離。仿真結(jié)果表明,該網(wǎng)絡(luò)結(jié)構(gòu)在模型參數(shù)更少的情況下,相比于CNN、S2AE、S2C1AE、S2D1AE等網(wǎng)絡(luò)結(jié)構(gòu),識(shí)別率有較大提升。文獻(xiàn)也分析了信噪比和數(shù)據(jù)集角度不一致對(duì)模型識(shí)別結(jié)果的影響。數(shù)據(jù)集來(lái)源于對(duì)7種艦船模型的仿真計(jì)算和數(shù)據(jù)擴(kuò)充。在此數(shù)據(jù)集基礎(chǔ)上,該團(tuán)隊(duì)還提出了一種基于深度多尺度一維CNN的HRRP識(shí)別方法[39]和基于特征金字塔融合輕量CNN的HRRP識(shí)別方法[40]。文獻(xiàn)[39]建立3種多尺度卷積層和2種多尺度降采樣層,以替換傳統(tǒng)CNN網(wǎng)絡(luò)中的卷積層和下采樣層,同時(shí)建立融合軟最大值和中心損失的損失函數(shù)。利用多尺度卷積核提取HRRP不同精細(xì)度的特征,通過(guò)新的損失函數(shù)減少所提特征的類(lèi)內(nèi)距離。文獻(xiàn)[40]在傳統(tǒng)CNN的基礎(chǔ)上,利用HRRP數(shù)據(jù)多尺度表示構(gòu)建模型輸入,從而保證特征可同時(shí)兼顧目標(biāo)的全局和局部信息,提高特征的魯棒性,兩種方法與CNN和AE模型相比,目標(biāo)識(shí)別準(zhǔn)確率均有較大提升。

    3.4 基于CNN和LSTM融合HRRP目標(biāo)識(shí)別研究

    北京航空航天大學(xué)的張耀天等人[41]融合CNN和長(zhǎng)短期記憶(Long Short Term Memory,LSTM)網(wǎng)絡(luò)結(jié)構(gòu),得到新的深度網(wǎng)絡(luò)結(jié)構(gòu),利用多層CNN對(duì)信號(hào)時(shí)頻特征提取的一維特征與原始HRRP數(shù)據(jù)進(jìn)行拼接,作為L(zhǎng)STM網(wǎng)絡(luò)的輸入進(jìn)行目標(biāo)識(shí)別。文獻(xiàn)[41]的網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

    該文獻(xiàn)分析了不同信噪比情況下,目標(biāo)識(shí)別準(zhǔn)確率的變化情況,數(shù)據(jù)集來(lái)源于錐柱體、柱體、2種不同尺寸的錐體等4種簡(jiǎn)易目標(biāo)在X波段的仿真計(jì)算。

    西安電子科技大學(xué)的陳渤團(tuán)隊(duì)[42]也對(duì)基于LSTM結(jié)構(gòu)的目標(biāo)識(shí)別做了研究,他們考慮HRRP樣本距離單元間的時(shí)序相關(guān)特性,提出了雙向長(zhǎng)短期記憶(Bidirectional Long Short Term Memory,BLSTM)網(wǎng)絡(luò)的HRRP目標(biāo)識(shí)別方法,結(jié)合softmax分類(lèi)器和投票策略融合輸出樣本類(lèi)別,提高了目標(biāo)識(shí)別性能,實(shí)驗(yàn)結(jié)果表明模型較好地克服了HRRP平移敏感性問(wèn)題。印度的Jithesh V [43]也對(duì)基于LSTM的目標(biāo)識(shí)別進(jìn)行了研究。

    以上基于改進(jìn)深度學(xué)習(xí)網(wǎng)絡(luò)的HRRP目標(biāo)識(shí)別方法將性能良好的不同網(wǎng)絡(luò)結(jié)構(gòu)融合,并針對(duì)HRRP數(shù)據(jù)特點(diǎn)做出改進(jìn),在創(chuàng)建更復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)的同時(shí),克服深層網(wǎng)絡(luò)學(xué)習(xí)過(guò)程中梯度消失或爆炸的缺點(diǎn),與簡(jiǎn)單深度學(xué)習(xí)網(wǎng)絡(luò)相比,改進(jìn)的網(wǎng)絡(luò)收斂更快,識(shí)別率更高。4 深度學(xué)習(xí)在HRRP目標(biāo)識(shí)別中面臨的挑戰(zhàn)

    深度學(xué)習(xí)在雷達(dá)HRRP目標(biāo)識(shí)別領(lǐng)域得到了研究人員廣泛的關(guān)注和細(xì)致的研究,同時(shí)也取得了很好的識(shí)別結(jié)果,但仍然存在諸多不足。

    首先,沒(méi)有公開(kāi)的高質(zhì)量數(shù)據(jù)集。深度學(xué)習(xí)訓(xùn)練模型時(shí)需要大量的數(shù)據(jù),對(duì)HRRP的目標(biāo)識(shí)別任務(wù)而言,則需要很多真實(shí)、準(zhǔn)確且標(biāo)注好的HRRP數(shù)據(jù)。在深度學(xué)習(xí)對(duì)圖像識(shí)別的研究領(lǐng)域,經(jīng)過(guò)多年的發(fā)展已經(jīng)有了手寫(xiě)數(shù)字識(shí)別的MNIST數(shù)據(jù)集,物體檢測(cè)、分割的MS-COCO數(shù)據(jù)集,單詞識(shí)別的ImageNet數(shù)據(jù)集,圖像分類(lèi)的CIFAR-10數(shù)據(jù)集等。 但是在HRRP目標(biāo)識(shí)別領(lǐng)域沒(méi)有公開(kāi)統(tǒng)一的數(shù)據(jù)庫(kù),研究人員使用的大多都是自己團(tuán)隊(duì)對(duì)艦船、飛機(jī)、車(chē)輛等目標(biāo)建模數(shù)值計(jì)算和微波暗室測(cè)量的數(shù)據(jù)集,少部分團(tuán)隊(duì)使用的是對(duì)飛機(jī)目標(biāo)的實(shí)測(cè)數(shù)據(jù),并且由于HRRP目標(biāo)識(shí)別應(yīng)用背景特殊的問(wèn)題,各研究團(tuán)隊(duì)不便于將數(shù)據(jù)集公開(kāi),因此不同研究方法和結(jié)論不便于研究人員進(jìn)行比較分析。不同網(wǎng)絡(luò)結(jié)構(gòu)針對(duì)HRRP的特征提取和目標(biāo)識(shí)別很大程度上依賴于所提供的數(shù)據(jù)集。 因此,在基于深度學(xué)習(xí)的HRRP目標(biāo)識(shí)別領(lǐng)域,迫切需要一組公開(kāi)的高質(zhì)量數(shù)據(jù)集以滿足研究需要。

    其次,模型存在過(guò)擬合的問(wèn)題。深度學(xué)習(xí)中的“深”一般是指網(wǎng)絡(luò)層數(shù)的多少,隨著網(wǎng)絡(luò)層數(shù)的增加,模型能提取到數(shù)據(jù)更深層次的特征,但是也帶來(lái)了過(guò)擬合的問(wèn)題。過(guò)擬合是由于訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)不完全一致,訓(xùn)練過(guò)程中出現(xiàn)的測(cè)試誤差明顯大于訓(xùn)練誤差的現(xiàn)象,說(shuō)明此時(shí)網(wǎng)絡(luò)的泛化能力差。一般而言,網(wǎng)絡(luò)結(jié)構(gòu)越復(fù)雜,網(wǎng)絡(luò)參數(shù)越多,過(guò)擬合現(xiàn)象越明顯。現(xiàn)階段解決過(guò)擬合的方法有擴(kuò)充數(shù)據(jù)集、減少網(wǎng)絡(luò)參數(shù)、減少網(wǎng)絡(luò)層數(shù)、數(shù)據(jù)正則化、引入Dropout等。

    再次,模型的遷移能力有待驗(yàn)證。由于基于HRRP的目標(biāo)識(shí)別應(yīng)用背景特殊,一般所需識(shí)別的目標(biāo)都是非合作目標(biāo),而非合作目標(biāo)的HRRP實(shí)測(cè)數(shù)據(jù)往往難以獲取。以非合作目標(biāo)數(shù)值計(jì)算仿真和微波暗室測(cè)量得到的數(shù)據(jù)進(jìn)行模型優(yōu)化與訓(xùn)練,當(dāng)應(yīng)用場(chǎng)景與訓(xùn)練環(huán)境有差別時(shí),模型對(duì)實(shí)際目標(biāo)識(shí)別的準(zhǔn)確率有待驗(yàn)證。

    最后,模型急需工程化應(yīng)用,但效果有待驗(yàn)證。如前所述,基于深度學(xué)習(xí)的HRRP目標(biāo)識(shí)別取得了很好的識(shí)別效果,但是由于模型的訓(xùn)練環(huán)境與實(shí)際應(yīng)用場(chǎng)景之間存在較大差異,深度學(xué)習(xí)模型在新的環(huán)境下能否有效工作很難保證。同時(shí),基于HRRP的目標(biāo)識(shí)別場(chǎng)景一般對(duì)信號(hào)處理的時(shí)效性和可靠性有很高要求,所建立模型的大小是否合適,實(shí)際應(yīng)用時(shí)的計(jì)算時(shí)效能否滿足工程需要也有待驗(yàn)證,將是下一步研究需要重點(diǎn)考慮的問(wèn)題。

    5 結(jié) 束 語(yǔ)

    從以上研究現(xiàn)狀來(lái)看,深度學(xué)習(xí)算法可以自動(dòng)提取HRRP數(shù)據(jù)的有效深層特征,以實(shí)現(xiàn)高準(zhǔn)確率的目標(biāo)識(shí)別,降低了傳統(tǒng)方法中提取目標(biāo)特征時(shí)對(duì)研究人員的依賴。但是,由于沒(méi)有公開(kāi)的高質(zhì)量數(shù)據(jù)集,不同研究團(tuán)隊(duì)提出的深度學(xué)習(xí)算法不便于相互比較和驗(yàn)證,一定程度上限制了深度學(xué)習(xí)在HRRP目標(biāo)識(shí)別上的應(yīng)用和發(fā)展。同時(shí),由于基于HRRP的目標(biāo)識(shí)別一般應(yīng)用于非合作目標(biāo),模型在真實(shí)場(chǎng)景中的識(shí)別能力也有待驗(yàn)證。下一階段,基于深度學(xué)習(xí)的HRRP目標(biāo)識(shí)別可以重點(diǎn)研究新的深度學(xué)習(xí)結(jié)構(gòu)對(duì)識(shí)別效果的改進(jìn),以及算法在實(shí)際場(chǎng)景中的應(yīng)用問(wèn)題。

    參考文獻(xiàn):

    [1] Jacobs S P, OSullivan J A. Automatic Target Recognition Using Sequences of High Resolution Radar Range-Profiles[J]. IEEE Transactions on Aerospace and Electronic Systems, 2000, 36(2): 364-381.

    [2] Copsey K, Webb A. Bayesian Gamma Mixture Model Approach to Radar Target Recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2003, 39(4): 1201-1217.

    [3] Chen B, Liu H W, Bao Z. PCA and Kernel PCA for Radar High Range Resolution Profiles Recognition[C]∥IEEE International Radar Conference, Arlington, 2005.

    [4] Zyweck A, Bogner R E. Radar Target Classification of Commercial Aircraft[J]. IEEE Transactions on Aerospace and Electronic Systems, 1996, 32(2): 598-606.

    [5] Xiong W, Zhang G, Liu S, et al. Multiscale Kernel Sparse Coding-Based Classifier for HRRP Radar Target Recognition[J]. IET Radar, Sonar & Navigation, 2016, 10(9): 1594-1602.

    [6] Liu H W, Feng B, Chen B, et al. Radar High-Resolution Range Profiles Target Recognition Based on Stable Dictionary Learning[J]. IET Radar, Sonar & Navigation, 2016, 10(2): 228-237.

    [7] Zhou D Y. Radar Target HRRP Recognition Based on Reconstructive and Discriminative Dictionary Learning[J]. Signal Processing, 2016, 126: 52-64.

    [8] Du L, Wang P H, Liu H W, et al. Radar HRRP Target Recognition Based on Dynamic Multi-Task Hidden Markov Model[C]∥ IEEE RadarCon (RADAR) , Kansas City, 2011.

    [9] 王鵬輝,夏雙志,潘勉,等. 基于多模態(tài)平穩(wěn)序列建模的雷達(dá)高分辨距離像有限樣本目標(biāo)識(shí)別方法[J]. 光學(xué)學(xué)報(bào),2012, 32(5): 276-285.

    Wang Penghui,Xia Shuangzhi,Pan Mian,et al. A New Method Based on Multimodal Stationary Sequence Modeling for Radar HRRP Target Recognition under Small Training Set Conditions[J]. Acta Optica Sinica, 2012,32(5): 276-285. (in Chinese)

    [10] Zhang S, Dong Y H, Fu H Y, et al. A Spectral Reconstruction Algorithm of Miniature Spectrometer Based on Sparse Optimization and Dictionary Learning[J]. Sensors, 2018, 18(2):644.

    [11] Zhou Y, Wang H P, Xu F, et al. Polarimetric SAR Image Classification Using Deep Convolutional Neural Networks[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(12): 1935-1939.

    [12] Wang L, Scott K A, Xu L L, et al. Sea Ice Concentration Estimation During Melt from Dual-Pol SAR Scenes Using Deep Convolutional Neural Networks: A Case Study[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(8): 4524-4533.

    [13] Pei J F, Huang Y L, Sun Z C, et al. Multiview Synthetic Aperture Radar Automatic Target Recognition Optimization: Modeling and Implementation[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(11): 6425-6439.

    [14] Leclerc M, Tharmarasa R, Florea M C, et al. Ship Classification Using Deep Learning Techniques for Maritime Target Tracking[C]∥ 21st International Conference on Information Fusion, Cambridge, UK, 2018.

    [15] Fu H X, Li Y, Wang Y C, et al. Maritime Ship Targets Recognition with Deep Learning[C]∥37th Chinese Control Conference, Wuhan, China, 2018.

    [16] Xing S H, Zhang S K. Ship Model Recognition Based on Convolutional Neural Networks[C]∥ IEEE International Conference on Mechatronics and Automation (ICMA), Changchun, China, 2018.

    [17] 王金傳,譚喜成,王召海,等. 基于Faster R-CNN深度網(wǎng)絡(luò)的遙感影像目標(biāo)識(shí)別方法研究[J]. 地球信息科學(xué)學(xué)報(bào),2018, 20(10): 1500-1508.

    Wang Jinchuan,Tan Xicheng,Wang Zhaohai,et al. Faster R-CNN Deep Learning Network Based Object Recognition of Remote Sensing Image[J]. Journal of Geo-Information Science,2018, 20(10): 1500-1508. (in Chinese)

    [18] Karabaylr O, Yücedagˇ O M, Kartal M Z, et al. Convolutional Neural Networks-Based Ship Target Recognition Using High Resolution Range Profiles[C]∥The 18th International Radar Symposium, Prague, Czech, 2017.

    [19] 殷和義,郭尊華. 一維卷積神經(jīng)網(wǎng)絡(luò)用于雷達(dá)高分辨率距離像識(shí)別[J]. 電訊技術(shù),2018, 58(10): 1121-1126.

    Yin Heyi,Guo Zunhua. Radar HRRP Target Recognition with One-Dimensional CNN[J]. Telecommunication Engineering,2018, 58(10): 1121-1126. (in Chinese)

    [20] Lundén J, Koivunen V. Deep Learning for HRRP-Based Target Recognition in Multistatic Radar Systems[C]∥2016 IEEE Radar Conference, Philadelphia, USA, 2016.

    [21] 蓋晴晴,韓玉兵,南華,等. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的極化雷達(dá)目標(biāo)識(shí)別[J]. 電波科學(xué)學(xué)報(bào),2018, 33(5): 575-582.

    Gai Qingqing,Han Yubing,Nan Hua,et al. Polarimetric Radar Target Recognition Based on Depth Convolution Neural Network[J]. Chinese Journal of Radio Science,2018, 33(5): 575-582. (in Chinese)

    [22] Visentin T, Sagainov A, Hasch J, et al. Classification of Objects in Polarimetric Radar Images Using CNNs at 77 GHz[C]∥2017 Asia Pacific Microwave Conference (APMC), Kuala Lumpur, Malaysia, 2017.

    [23] 楊予昊,孫晶明,虞盛康,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨距離像目標(biāo)識(shí)別[J]. 現(xiàn)代雷達(dá),2017, 39(12): 24-28.

    Yang Yuhao,Sun Jingming,Yu Shengkang,et al. High Resolution Range Profile Target Recognition Based on Convolutional Neural Network[J]. Modern Radar,2017, 39(12): 24-28. (in Chinese)

    [24] 王容川,莊志洪,王宏波,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的雷達(dá)目標(biāo)HRRP分類(lèi)識(shí)別方法[J]. 現(xiàn)代雷達(dá),2019, 41(5): 33-38.

    Wang Rongchuan,Zhuang Zhihong,Wang Hongbo,et al. HRRP Classification and Recognition Method of Radar Target Based on Convolutional Neural Network[J]. Modern Radar,2019, 41(5): 33-38. (in Chinese)

    [25] Yu S H, Xie Y J. Application of a Convolutional Autoencoder to Half Space Radar HRRP Recognition[C]∥ 2018 International Conference on Wavelet Analysis and Pattern Recognition (ICWAPR), Chengdu, China, 2018.

    [26] Feng B, Chen B, Liu H W. Radar HRRP Target Recognition with Deep Networks[J]. Pattern Recognition, 2017, 61: 379-393.

    [27] 馮博,陳渤,王鵬輝,等. 基于穩(wěn)健深層網(wǎng)絡(luò)的雷達(dá)高分辨距離像目標(biāo)特征提取算法[J]. 電子與信息學(xué)報(bào),2014,36(12): 2949-2955.

    Feng Bo,Chen Bo,Wang Penghui,et al. Feature Extraction Method for Radar High Resolution Range Profile Targets Based on Robust Deep Networks[J]. Journal of Electronics & Information Technology,2014,36(12): 2949-2955. (in Chinese)

    [28] Zhai Y, Chen B, Zhang H, et al. Robust Variational Auto-Encoder for Radar HRRP Target Recognition[C]∥International Conference on Intelligent Science and Big Data Engineering, Dalian, China, 2017: 356-367.

    [29] 翟穎. 基于自編碼模型的雷達(dá)高分辨距離像目標(biāo)識(shí)別方法研究[D]. 西安: 西安電子科技大學(xué),2018.

    Zhai Ying. Study of Radar High Range Resolution Profiles Target Recognition Based on Auto-Encoder[D]. Xian: Xidian University,2018. (in Chinese)

    [30] 徐彬,陳渤,劉宏偉,等. 基于注意循環(huán)神經(jīng)網(wǎng)絡(luò)模型的雷達(dá)高分辨率距離像目標(biāo)識(shí)別[J]. 電子與信息學(xué)報(bào),2016, 38(12): 2988-2995.

    Xu Bin,Chen Bo,Liu Hongwei,et al. Attention-Based Recurrent Neural Network Model for Radar High-Resolution Range Profile Target Recognition[J]. Journal of Electronics & Information Technology,2016, 38(12): 2988-2995. (in Chinese)

    [31] Xu B, Chen B, Wan J W, et al. Target-Aware Recurrent Attentional Network for Radar HRRP Target Recognition[J]. Signal Processing, 2018, 155: 268-280.

    [32] 王彩云,胡允侃,李曉飛,等. 基于卷積稀疏編碼與多分類(lèi)器融合的雷達(dá)HRRP目標(biāo)識(shí)別方法[J]. 系統(tǒng)工程與電子技術(shù),2018, 40(11): 2433-2437.

    Wang Caiyun,Hu Yunkan,Li Xiaofei,et al. Radar HRRP Target Recognition Based on Convolutional Sparse Coding and Multi-Classifier Fusion[J]. Systems Engineering and Electronics,2018, 40(11): 2433-2437. (in Chinese)

    [33] 張歡. 基于射頻隱身的機(jī)載雷達(dá)系統(tǒng)軟件實(shí)現(xiàn)及HRRP目標(biāo)識(shí)別研究[D]. 南京: 南京航空航天大學(xué),2016.

    Zhang Huan. RF Stealth Based Airborne Radar System Simulation and HRRP Target Recognition Research[D]. Nanjing: Nanjing University of Aeronautics and Astronautics,2016. (in Chinese)

    [34] 張建強(qiáng),汪厚祥,楊紅梅. 基于自編碼神經(jīng)網(wǎng)絡(luò)的高分辨率距離像降維法[J]. 解放軍理工大學(xué)學(xué)報(bào):自然科學(xué)版,2016,17(1): 31-37.

    Zhang Jianqiang,Wang Houxiang,Yang Hongmei. Dimension Reduction Method of High Resolution Range Profile Based on Autoencoder[J]. Journal of PLA University of Science and Technology: Natural Science Edition,2016,17(1): 31-37. (in Chinese)

    [35] Liao K, Si J X, Zhu F Q, et al. Radar HRRP Target Recognition Based on Concatenated Deep Neural Networks[J]. IEEE Access, 2018(6): 29211-29218.

    [36] Zhao F X, Liu Y X, Huo K, et al. Radar HRRP Target Recognition Based on Stacked Autoencoder and Extreme Learning Machine[J]. Sensors, 2018, 18(1):173.

    [37] 趙飛翔,劉永祥,霍凱. 一種基于Dropout約束深度極限學(xué)習(xí)機(jī)的雷達(dá)目標(biāo)分類(lèi)算法[J]. 雷達(dá)學(xué)報(bào),2018, 7(5): 613-621.

    Zhao Feixiang,Liu Yongxiang,Huo Kai. A Radar Target Classification Algorithm Based on Dropout Constrained Deep Extreme Learning Machine[J]. Journal of Radars,2018,7(5): 613-621. (in Chinese)

    [38] Guo C, He Y, Wang H P, et al. Radar HRRP Target Recognition Based on Deep One-Dimensional Residual-Inception Network[J/OL]. IEEE Access.DOI: 10.1109/ACCESS.2019.2891594.

    [39] 郭晨,簡(jiǎn)濤,徐從安,等. 基于深度多尺度一維卷積神經(jīng)網(wǎng)絡(luò)的雷達(dá)艦船目標(biāo)識(shí)別[J]. 電子與信息學(xué)報(bào),2019, 41(6): 1302-1309.

    Guo Chen,Jian Tao,Xu Congan,et al. Radar HRRP Target Recognition Based on Deep Multi-Scale 1D Convolutional Neural Network[J]. Journal of Electronics & Information Technology,2019,41(6): 1302-1309. (in Chinese)

    [40] Guo C, Wang H P, Jian T, et al. Radar Target Recognition Based on Feature Pyramid Fusion Lightweight CNN[J]. IEEE Access, 2019,7: 51140-51149.

    [41] 張耀天,吳智昌,魏少明,等. 基于CNN+LSTM的空間目標(biāo)識(shí)別[C]∥第十二屆全國(guó)信號(hào)和智能信息處理與應(yīng)用學(xué)術(shù)會(huì)議,中國(guó)杭州,2018: 1-4.

    Zhang Yaotian,Wu Zhichang,Wei Shaoming,et al. Spatial Target Recognition Based on CNN and LSTM[C]∥The 12th National Academic Conference on Signal and Intelligent Information Processing and Application,Hangzhou,China,2018: 1-4. (in Chinese)

    [42] 徐彬,陳渤,劉家麒,等. 采用雙向LSTM模型的雷達(dá)HRRP目標(biāo)識(shí)別[J]. 西安電子科技大學(xué)學(xué)報(bào): 自然科學(xué)版,2019, 46(2): 29-34.

    Xu Bin,Chen Bo,Liu Jiaqi,et al. Radar HRRP Target Recognition by the Bidirectional LSTM Model[J]. Journal of Xidian University: Natural Science,2019, 46(2): 29-34.

    [43] Jithesh V, Sagayaraj M J, Srinivasa K G. LSTM Recurrent Neural Networks for High Resolution Range Profile Based Radar Target Classification[C]∥2017 3rd International Conference on Computational Intelligence & Communication Technology, Ghaziabad, India, 2017.

    Review of Radar HRRP Target Recognition Based on Deep Learning

    Fu Zhequan*,Li Xiangping,Li Shangsheng,Dan Bo,Wang Xukun

    (Naval Aviation University,Yantai 264001, China)

    Abstract: The HRRP of radar target contains abundant target information,and radar target recognition based on HRRP has always been the focus and difficulty in the military field.With deep learning becoming a research hotspot in various fields,HRRP target recognition based on deep learning has attracted extensive attention. Compared with the traditional me-thods,deep learning can automatically extract the effective deep features of HRRP and achieve higher re-cognition accuracy. In this paper,the application and research of deep learning algorithm in radar target recognition is reviewed,and four issues that need to be solved in this field are analyzed.

    Key words:radar;deep learning;HRRP;target recognition; artificial intelligence

    收稿日期: 2019-06-11

    作者簡(jiǎn)介: 付哲泉(1992-),男,湖北天門(mén)人,博士研究生,研究方向是精確制導(dǎo)技術(shù)及其智能化。

    E-mail:fuzq2413@163.com

    引用格式: 付哲泉,李相平,李尚生,等 . 深度學(xué)習(xí)在雷達(dá)目標(biāo)高分辨距離像識(shí)別中的研究綜述

    [ J].

    航空兵器,2020, 27( 3): 37-43.

    Fu Zhequan,Li Xiangping,Li Shangsheng,et al.Review of Radar HRRP Target Recognition Based on Deep Learning[ J]. Aero Wea-ponry,2020, 27( 3): 37-43.( in Chinese)

    猜你喜歡
    目標(biāo)識(shí)別深度學(xué)習(xí)雷達(dá)
    有雷達(dá)
    大自然探索(2023年7期)2023-08-15 00:48:21
    雷達(dá)
    全自動(dòng)模擬目標(biāo)搜救系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
    動(dòng)態(tài)場(chǎng)景中的視覺(jué)目標(biāo)識(shí)別方法分析
    基于PC的視覺(jué)解決方案在 Delta機(jī)器人抓放中的應(yīng)用
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
    e午夜精品久久久久久久| 超碰97精品在线观看| 国产精品久久久久久精品电影小说| 亚洲精品一卡2卡三卡4卡5卡 | 欧美乱码精品一区二区三区| 亚洲国产精品成人久久小说| 欧美日韩黄片免| 日韩欧美一区视频在线观看| 久久亚洲国产成人精品v| 亚洲男人天堂网一区| 下体分泌物呈黄色| 国产精品香港三级国产av潘金莲 | 精品高清国产在线一区| 久久热在线av| 五月天丁香电影| 桃花免费在线播放| 人妻人人澡人人爽人人| 少妇粗大呻吟视频| 精品人妻在线不人妻| 中文字幕人妻丝袜制服| bbb黄色大片| 桃花免费在线播放| 我要看黄色一级片免费的| 亚洲熟女毛片儿| 亚洲自偷自拍图片 自拍| 亚洲,一卡二卡三卡| 午夜福利影视在线免费观看| 美女视频免费永久观看网站| 搡老岳熟女国产| 色网站视频免费| 最新的欧美精品一区二区| 亚洲欧美成人综合另类久久久| 欧美国产精品一级二级三级| 夜夜骑夜夜射夜夜干| 一级毛片我不卡| 一边摸一边做爽爽视频免费| 亚洲图色成人| 亚洲av综合色区一区| 国产日韩欧美亚洲二区| 大香蕉久久网| 一区在线观看完整版| 成年女人毛片免费观看观看9 | 国产一级毛片在线| 熟女av电影| 国产在线免费精品| 大香蕉久久成人网| 黑人猛操日本美女一级片| 中国国产av一级| 五月天丁香电影| 伊人久久大香线蕉亚洲五| 另类亚洲欧美激情| 夫妻性生交免费视频一级片| 国产精品亚洲av一区麻豆| 亚洲欧美日韩高清在线视频 | 免费av中文字幕在线| 高潮久久久久久久久久久不卡| 一区二区三区四区激情视频| 国产精品免费视频内射| av欧美777| 久久99一区二区三区| 国产成人一区二区三区免费视频网站 | 亚洲av日韩在线播放| 最黄视频免费看| 性少妇av在线| 天堂8中文在线网| 中文乱码字字幕精品一区二区三区| 无遮挡黄片免费观看| 精品少妇黑人巨大在线播放| 1024视频免费在线观看| 夫妻午夜视频| 亚洲精品在线美女| 国产91精品成人一区二区三区 | av天堂在线播放| 亚洲,欧美精品.| 亚洲欧美一区二区三区黑人| 亚洲av国产av综合av卡| 久久热在线av| 妹子高潮喷水视频| 在线观看免费视频网站a站| 五月开心婷婷网| 国产极品粉嫩免费观看在线| 黄色a级毛片大全视频| 国产精品一区二区精品视频观看| 波多野结衣av一区二区av| 成年人免费黄色播放视频| 免费女性裸体啪啪无遮挡网站| 国产国语露脸激情在线看| 亚洲精品av麻豆狂野| 午夜两性在线视频| 亚洲精品一二三| 大话2 男鬼变身卡| 欧美成狂野欧美在线观看| 国产激情久久老熟女| 天天躁日日躁夜夜躁夜夜| 老司机靠b影院| 国产精品久久久人人做人人爽| 少妇被粗大的猛进出69影院| 亚洲五月婷婷丁香| 精品第一国产精品| 建设人人有责人人尽责人人享有的| 欧美变态另类bdsm刘玥| 天天躁夜夜躁狠狠久久av| 各种免费的搞黄视频| 亚洲成人手机| 国产免费又黄又爽又色| 天天操日日干夜夜撸| 国产成人91sexporn| 黑人欧美特级aaaaaa片| 亚洲精品国产av蜜桃| 亚洲第一青青草原| 91国产中文字幕| 日韩大片免费观看网站| 搡老乐熟女国产| 免费日韩欧美在线观看| 国产xxxxx性猛交| 国产欧美日韩一区二区三 | 人成视频在线观看免费观看| 亚洲欧洲日产国产| 少妇 在线观看| 日本91视频免费播放| 免费观看av网站的网址| 国产精品人妻久久久影院| 99久久99久久久精品蜜桃| 久久精品久久久久久久性| 国产欧美日韩精品亚洲av| 又大又爽又粗| 久久久久久久精品精品| 国产视频首页在线观看| 欧美精品亚洲一区二区| 国产精品国产av在线观看| 国产精品欧美亚洲77777| 男人爽女人下面视频在线观看| 波多野结衣av一区二区av| 日韩视频在线欧美| 如日韩欧美国产精品一区二区三区| 国产亚洲午夜精品一区二区久久| 欧美日韩av久久| 国产爽快片一区二区三区| 欧美人与善性xxx| 亚洲精品日韩在线中文字幕| 精品高清国产在线一区| 人妻 亚洲 视频| a级毛片在线看网站| 久久综合国产亚洲精品| 乱人伦中国视频| 国产伦人伦偷精品视频| 我的亚洲天堂| 国产在线观看jvid| 日韩大码丰满熟妇| 午夜91福利影院| 精品国产一区二区三区四区第35| 后天国语完整版免费观看| 久久国产亚洲av麻豆专区| 精品人妻1区二区| 亚洲七黄色美女视频| 免费av中文字幕在线| 婷婷成人精品国产| 亚洲欧美精品自产自拍| 人人妻人人添人人爽欧美一区卜| 亚洲国产毛片av蜜桃av| 国产精品偷伦视频观看了| 啦啦啦在线免费观看视频4| 午夜免费成人在线视频| 亚洲精品自拍成人| xxxhd国产人妻xxx| 日韩精品免费视频一区二区三区| 亚洲人成电影免费在线| 欧美 亚洲 国产 日韩一| 久久精品熟女亚洲av麻豆精品| 大香蕉久久成人网| 国产精品久久久久成人av| 午夜福利乱码中文字幕| 日本一区二区免费在线视频| 国产精品99久久99久久久不卡| 国产成人一区二区在线| 狂野欧美激情性xxxx| 久久久久国产精品人妻一区二区| 老司机影院毛片| 国产亚洲欧美精品永久| 久久久久久人人人人人| cao死你这个sao货| 99国产精品99久久久久| 国产精品香港三级国产av潘金莲 | 韩国精品一区二区三区| 色网站视频免费| 91麻豆av在线| 狂野欧美激情性bbbbbb| 亚洲成av片中文字幕在线观看| 成人手机av| 黄色a级毛片大全视频| 午夜免费成人在线视频| 免费观看人在逋| 国产视频首页在线观看| 啦啦啦啦在线视频资源| 岛国毛片在线播放| 一本色道久久久久久精品综合| 亚洲欧美精品综合一区二区三区| 99re6热这里在线精品视频| 欧美xxⅹ黑人| 50天的宝宝边吃奶边哭怎么回事| 成人国产一区最新在线观看 | 亚洲欧美清纯卡通| 在线观看免费视频网站a站| 欧美精品一区二区大全| 中文字幕高清在线视频| 女人高潮潮喷娇喘18禁视频| 男女免费视频国产| 久久99热这里只频精品6学生| 国产欧美日韩一区二区三区在线| 肉色欧美久久久久久久蜜桃| 在线观看国产h片| 老司机亚洲免费影院| 美女中出高潮动态图| 大型av网站在线播放| 午夜免费鲁丝| 91成人精品电影| 91麻豆精品激情在线观看国产 | 高清视频免费观看一区二区| 午夜老司机福利片| 亚洲自偷自拍图片 自拍| 国产成人一区二区在线| 一区在线观看完整版| 精品少妇内射三级| 91精品三级在线观看| 黄色片一级片一级黄色片| 久久久久网色| 看免费成人av毛片| 亚洲精品乱久久久久久| 亚洲中文字幕日韩| 夫妻性生交免费视频一级片| 黄色a级毛片大全视频| 久久久久久人人人人人| 亚洲欧美一区二区三区黑人| 亚洲国产精品一区三区| 男女无遮挡免费网站观看| 国产精品 国内视频| 两个人看的免费小视频| 国产在线一区二区三区精| 中文字幕人妻丝袜一区二区| 免费不卡黄色视频| 亚洲欧美一区二区三区国产| 99re6热这里在线精品视频| 777米奇影视久久| 黄色视频在线播放观看不卡| 欧美日本中文国产一区发布| 女人精品久久久久毛片| 美女国产高潮福利片在线看| 欧美日本中文国产一区发布| 亚洲国产欧美在线一区| 久久精品久久久久久久性| 亚洲av日韩精品久久久久久密 | 欧美精品亚洲一区二区| www.999成人在线观看| 久久久久视频综合| 欧美精品亚洲一区二区| 亚洲av美国av| 日韩大片免费观看网站| 嫩草影视91久久| 国产成人精品久久二区二区91| 天堂8中文在线网| 天天躁夜夜躁狠狠躁躁| 天天操日日干夜夜撸| 伦理电影免费视频| 一个人免费看片子| 欧美日韩成人在线一区二区| 亚洲欧美中文字幕日韩二区| 亚洲,欧美,日韩| 国产成人一区二区三区免费视频网站 | 精品第一国产精品| 国产成人系列免费观看| 丁香六月天网| bbb黄色大片| 建设人人有责人人尽责人人享有的| 色94色欧美一区二区| 中国国产av一级| 日韩制服丝袜自拍偷拍| 永久免费av网站大全| 成人18禁高潮啪啪吃奶动态图| 三上悠亚av全集在线观看| av有码第一页| av网站在线播放免费| 国产日韩欧美视频二区| 一级毛片黄色毛片免费观看视频| √禁漫天堂资源中文www| 欧美日韩精品网址| 黑丝袜美女国产一区| 大片电影免费在线观看免费| 欧美日韩亚洲高清精品| 欧美精品人与动牲交sv欧美| 中文字幕av电影在线播放| 欧美变态另类bdsm刘玥| 精品国产一区二区久久| 精品久久久精品久久久| 无遮挡黄片免费观看| 亚洲激情五月婷婷啪啪| 日日爽夜夜爽网站| 久久狼人影院| 这个男人来自地球电影免费观看| 亚洲精品国产一区二区精华液| 韩国高清视频一区二区三区| 亚洲国产日韩一区二区| 别揉我奶头~嗯~啊~动态视频 | 亚洲一区中文字幕在线| 亚洲成人国产一区在线观看 | 亚洲午夜精品一区,二区,三区| 亚洲人成网站在线观看播放| 色婷婷av一区二区三区视频| 久久久精品区二区三区| 欧美日韩亚洲综合一区二区三区_| 国产男女内射视频| av不卡在线播放| 97在线人人人人妻| 亚洲中文av在线| 久久人妻福利社区极品人妻图片 | 在线观看国产h片| 在线 av 中文字幕| 丝瓜视频免费看黄片| 亚洲精品美女久久av网站| 麻豆av在线久日| 亚洲精品乱久久久久久| 亚洲欧美一区二区三区久久| 中文字幕亚洲精品专区| 免费在线观看完整版高清| 日韩av在线免费看完整版不卡| 中文精品一卡2卡3卡4更新| 一本综合久久免费| 亚洲精品一区蜜桃| 亚洲成色77777| 国产麻豆69| 日韩免费高清中文字幕av| 精品视频人人做人人爽| 国产成人一区二区三区免费视频网站 | 中文乱码字字幕精品一区二区三区| 国产不卡av网站在线观看| 久久久精品国产亚洲av高清涩受| 国产精品国产三级国产专区5o| 欧美精品一区二区大全| 午夜激情av网站| 丝袜美腿诱惑在线| 又黄又粗又硬又大视频| 免费高清在线观看日韩| 久久久久久亚洲精品国产蜜桃av| 韩国高清视频一区二区三区| 亚洲五月婷婷丁香| 欧美日韩av久久| 国产在线免费精品| 免费一级毛片在线播放高清视频 | 90打野战视频偷拍视频| 久久久久精品国产欧美久久久 | 女性被躁到高潮视频| www.999成人在线观看| 又粗又硬又长又爽又黄的视频| 97在线人人人人妻| 最新的欧美精品一区二区| 91精品国产国语对白视频| av欧美777| 麻豆国产av国片精品| 久久久久久免费高清国产稀缺| 亚洲九九香蕉| 亚洲 欧美一区二区三区| av欧美777| 日本wwww免费看| 亚洲精品一卡2卡三卡4卡5卡 | 青春草视频在线免费观看| 麻豆国产av国片精品| 黄色视频在线播放观看不卡| 久久中文字幕一级| xxxhd国产人妻xxx| 亚洲人成网站在线观看播放| 人人妻人人澡人人看| 亚洲欧美一区二区三区国产| 国产精品av久久久久免费| 黄片播放在线免费| 人妻一区二区av| 大片电影免费在线观看免费| 自线自在国产av| 国产精品国产三级专区第一集| 国产精品久久久久成人av| www.av在线官网国产| 黑人猛操日本美女一级片| 极品少妇高潮喷水抽搐| 亚洲成国产人片在线观看| 国产爽快片一区二区三区| 日韩大码丰满熟妇| 老司机影院成人| videosex国产| 亚洲国产精品一区三区| 成人午夜精彩视频在线观看| 午夜激情久久久久久久| 青春草视频在线免费观看| av片东京热男人的天堂| 在线亚洲精品国产二区图片欧美| 免费在线观看黄色视频的| 亚洲五月色婷婷综合| 欧美日韩亚洲综合一区二区三区_| 黑人欧美特级aaaaaa片| 午夜福利,免费看| 日本猛色少妇xxxxx猛交久久| 亚洲av成人不卡在线观看播放网 | bbb黄色大片| 一级黄色大片毛片| 丝袜人妻中文字幕| 五月天丁香电影| 国产av精品麻豆| xxxhd国产人妻xxx| 国产伦理片在线播放av一区| 多毛熟女@视频| videos熟女内射| 精品熟女少妇八av免费久了| 九色亚洲精品在线播放| 亚洲七黄色美女视频| netflix在线观看网站| 久久鲁丝午夜福利片| 久久ye,这里只有精品| 国产又爽黄色视频| 国产免费现黄频在线看| 人人妻人人添人人爽欧美一区卜| 热99久久久久精品小说推荐| √禁漫天堂资源中文www| 亚洲国产精品国产精品| 最黄视频免费看| 国产精品国产三级国产专区5o| 高清黄色对白视频在线免费看| 99久久99久久久精品蜜桃| 啦啦啦 在线观看视频| 搡老乐熟女国产| 国产精品香港三级国产av潘金莲 | 亚洲午夜精品一区,二区,三区| 老汉色av国产亚洲站长工具| 国产人伦9x9x在线观看| 日韩欧美一区视频在线观看| 亚洲精品国产一区二区精华液| 精品亚洲乱码少妇综合久久| bbb黄色大片| 国产无遮挡羞羞视频在线观看| 日韩一本色道免费dvd| 日本欧美国产在线视频| 国产伦人伦偷精品视频| 亚洲欧美一区二区三区久久| 久久精品国产亚洲av涩爱| av一本久久久久| 国产免费又黄又爽又色| 欧美黄色淫秽网站| 在线观看人妻少妇| 一区二区av电影网| 中文字幕制服av| 亚洲欧美精品自产自拍| 9191精品国产免费久久| 国产精品国产av在线观看| 国产男人的电影天堂91| 国产精品麻豆人妻色哟哟久久| 日韩大码丰满熟妇| 欧美日韩av久久| 欧美亚洲 丝袜 人妻 在线| 亚洲欧美精品综合一区二区三区| 欧美黑人欧美精品刺激| 中文精品一卡2卡3卡4更新| videos熟女内射| 国产熟女午夜一区二区三区| 激情视频va一区二区三区| 视频在线观看一区二区三区| 国产精品一区二区精品视频观看| 久久99一区二区三区| 国产精品99久久99久久久不卡| 男女之事视频高清在线观看 | 国产精品一二三区在线看| 亚洲av国产av综合av卡| 亚洲一区中文字幕在线| 天天操日日干夜夜撸| 黄色怎么调成土黄色| 亚洲av电影在线进入| 国产成人精品久久二区二区免费| 国产一区二区激情短视频 | 午夜福利视频精品| 久久人妻福利社区极品人妻图片 | 高清黄色对白视频在线免费看| 精品少妇一区二区三区视频日本电影| av福利片在线| tube8黄色片| 精品一区在线观看国产| 女人久久www免费人成看片| 欧美人与性动交α欧美软件| 十八禁人妻一区二区| 男人舔女人的私密视频| 精品欧美一区二区三区在线| 久久亚洲国产成人精品v| 国产免费视频播放在线视频| 满18在线观看网站| 亚洲成人免费电影在线观看 | 日韩视频在线欧美| 青青草视频在线视频观看| 亚洲成色77777| 一边摸一边抽搐一进一出视频| 超色免费av| 好男人电影高清在线观看| 可以免费在线观看a视频的电影网站| 人妻 亚洲 视频| 脱女人内裤的视频| 日本a在线网址| 麻豆乱淫一区二区| 18禁黄网站禁片午夜丰满| 少妇精品久久久久久久| 欧美国产精品一级二级三级| 热99久久久久精品小说推荐| 亚洲中文日韩欧美视频| 亚洲成色77777| 亚洲欧美中文字幕日韩二区| 亚洲精品自拍成人| 97人妻天天添夜夜摸| 交换朋友夫妻互换小说| 少妇 在线观看| 人体艺术视频欧美日本| 又紧又爽又黄一区二区| 日本a在线网址| 美女福利国产在线| 久久人妻福利社区极品人妻图片 | 久久精品人人爽人人爽视色| 亚洲精品av麻豆狂野| 精品一品国产午夜福利视频| 少妇人妻久久综合中文| 韩国高清视频一区二区三区| 最新的欧美精品一区二区| 欧美日韩黄片免| 中文字幕人妻熟女乱码| 美女午夜性视频免费| 国产精品欧美亚洲77777| 一区福利在线观看| 日日夜夜操网爽| 国产成人精品在线电影| 精品久久久精品久久久| 久久99精品国语久久久| 国产一级毛片在线| 91麻豆av在线| 赤兔流量卡办理| av天堂久久9| 色网站视频免费| 老司机深夜福利视频在线观看 | 伊人亚洲综合成人网| 欧美精品亚洲一区二区| 久久国产精品大桥未久av| 侵犯人妻中文字幕一二三四区| 久久精品亚洲av国产电影网| 黄色 视频免费看| 99热国产这里只有精品6| 欧美成人精品欧美一级黄| 自拍欧美九色日韩亚洲蝌蚪91| 久久久精品免费免费高清| 亚洲精品国产色婷婷电影| 夫妻性生交免费视频一级片| 高清欧美精品videossex| 欧美在线一区亚洲| 美女视频免费永久观看网站| 亚洲国产av新网站| 另类亚洲欧美激情| 一级毛片女人18水好多 | 夫妻午夜视频| 亚洲,欧美精品.| 一区二区三区乱码不卡18| 免费高清在线观看视频在线观看| 日本91视频免费播放| 欧美日韩视频高清一区二区三区二| 狠狠婷婷综合久久久久久88av| 国产片特级美女逼逼视频| 大话2 男鬼变身卡| 午夜精品国产一区二区电影| 日韩制服骚丝袜av| 免费看不卡的av| 校园人妻丝袜中文字幕| 90打野战视频偷拍视频| 亚洲欧美日韩另类电影网站| 欧美人与性动交α欧美精品济南到| 精品国产超薄肉色丝袜足j| 欧美日韩一级在线毛片| 国产亚洲精品第一综合不卡| 精品久久久久久电影网| 丁香六月天网| 91老司机精品| 免费高清在线观看日韩| 日本av手机在线免费观看| 欧美日韩综合久久久久久| 老司机在亚洲福利影院| 日韩大码丰满熟妇| 亚洲精品国产区一区二| 一级毛片 在线播放| 天天影视国产精品| 国产99久久九九免费精品| 久久国产精品大桥未久av| 国产精品熟女久久久久浪| 精品国产乱码久久久久久小说| 久久久国产欧美日韩av| 国产熟女午夜一区二区三区| 成年动漫av网址| 亚洲情色 制服丝袜| 国产免费福利视频在线观看| 日韩中文字幕欧美一区二区 | 新久久久久国产一级毛片| 精品第一国产精品| 一级毛片黄色毛片免费观看视频| 丝袜在线中文字幕| 亚洲国产中文字幕在线视频| 国产在线视频一区二区| 欧美精品亚洲一区二区| 亚洲天堂av无毛| 国产高清视频在线播放一区 | 国产成人精品久久二区二区91| 久久久久久久国产电影| 黄色片一级片一级黄色片| 丝袜喷水一区| av国产精品久久久久影院| 中文字幕人妻丝袜制服| 久久久久久久大尺度免费视频| 爱豆传媒免费全集在线观看| 少妇被粗大的猛进出69影院| 亚洲自偷自拍图片 自拍| 只有这里有精品99|