• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學(xué)習(xí)的通信輻射源識(shí)別綜述

    2024-09-19 00:00:00王育欣馬宏斌馬宏焦義李雪健侯順虎
    無(wú)線(xiàn)電工程 2024年6期
    關(guān)鍵詞:數(shù)據(jù)驅(qū)動(dòng)深度學(xué)習(xí)

    摘 要:非合作條件下的信號(hào)檢測(cè)、調(diào)制方式識(shí)別及輻射源個(gè)體識(shí)別(Specific Emitter Identification,SEI) 等任務(wù),是開(kāi)展戰(zhàn)場(chǎng)通信偵察的重要環(huán)節(jié)。隨著無(wú)線(xiàn)通信技術(shù)的飛速發(fā)展,輻射源種類(lèi)愈加多樣,信號(hào)體制愈加復(fù)雜,加之惡劣的電磁環(huán)境,給SEI 工作帶來(lái)了極大的挑戰(zhàn)。近年來(lái),隨著深度學(xué)習(xí)的飛速發(fā)展,及其在自然語(yǔ)言處理和計(jì)算機(jī)視覺(jué)等領(lǐng)域的有效應(yīng)用,學(xué)者們逐漸將其應(yīng)用到SEI 任務(wù)中,并取得了豐富的研究成果。鑒于現(xiàn)有文獻(xiàn)缺乏開(kāi)源數(shù)據(jù)集,匯編了可用的開(kāi)源數(shù)據(jù)集,從知識(shí)驅(qū)動(dòng)和數(shù)據(jù)驅(qū)動(dòng)2 個(gè)維度對(duì)SEI 方法進(jìn)行詳盡梳理,包括專(zhuān)家系統(tǒng)方法和深度學(xué)習(xí)技術(shù)。通過(guò)對(duì)比分析揭示了深度學(xué)習(xí)在SEI 任務(wù)中的優(yōu)勢(shì),并針對(duì)當(dāng)前深度學(xué)習(xí)在SEI 領(lǐng)域面臨的問(wèn)題,總結(jié)了未來(lái)SEI 的發(fā)展方向。

    關(guān)鍵詞:通信輻射源;輻射源個(gè)體識(shí)別;深度學(xué)習(xí);數(shù)據(jù)驅(qū)動(dòng);開(kāi)集識(shí)別

    中圖分類(lèi)號(hào):TP18;TN92 文獻(xiàn)標(biāo)志碼:A 開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

    文章編號(hào):1003-3106(2024)06-1337-09

    0 引言

    輻射源個(gè)體識(shí)別(Specific Emitter Identification,SEI)也稱(chēng)特定輻射源識(shí)別,是指通過(guò)提取接收信號(hào)上能體現(xiàn)輻射源個(gè)體差異的特征,實(shí)現(xiàn)對(duì)輻射源個(gè)體的識(shí)別[1]。這種特征只與發(fā)射機(jī)器件的硬件差異有關(guān),與信號(hào)的調(diào)制樣式、信道傳輸特性和接收機(jī)性能等因素?zé)o關(guān),類(lèi)似于指紋唯一性,因此也稱(chēng)為輻射源指紋特征。輻射源指紋特征來(lái)源于發(fā)射機(jī)部件中硬件的固有損傷,例如本地振蕩器的相位噪聲和載波頻偏、調(diào)制器的I / Q 失配以及功率放大器的非線(xiàn)性失真等。

    SEI 技術(shù)應(yīng)用較為廣泛,在軍事應(yīng)用方面,該技術(shù)可在復(fù)雜多變的戰(zhàn)場(chǎng)環(huán)境下,利用非合作通信信號(hào)識(shí)別輻射源個(gè)體屬性,為確定目標(biāo)身份、預(yù)測(cè)戰(zhàn)略意圖以及獲取戰(zhàn)場(chǎng)電磁態(tài)勢(shì)提供重要依據(jù),對(duì)確保通信系統(tǒng)安全、提高軍事通信偵察和對(duì)抗能力具有重要意義[2]。在民用方面,隨著物聯(lián)網(wǎng)的不斷發(fā)展,在萬(wàn)物互聯(lián)的大背景下利用SEI 技術(shù)可從設(shè)備的物理層開(kāi)展身份認(rèn)證,降低無(wú)線(xiàn)通信的克隆隱患,增強(qiáng)無(wú)線(xiàn)通信的安全性。由于無(wú)線(xiàn)通信的需求激增,頻譜資源日漸緊張,SEI 技術(shù)可用于跟蹤非法占用頻譜資源的用戶(hù),實(shí)現(xiàn)頻譜資源的合理分配和高效監(jiān)管[3]。

    早期SEI 方法主要基于專(zhuān)家經(jīng)驗(yàn)特征開(kāi)展研究,特征單一且泛化性能差。近年來(lái),隨著深度學(xué)習(xí)(Deep Learning,DL)的發(fā)展及其在各領(lǐng)域的廣泛應(yīng)用,研究人員開(kāi)始探索將DL 應(yīng)用到信號(hào)識(shí)別領(lǐng)域。2016 年,O’shea 等[4]將卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeural Network,CNN)應(yīng)用于自動(dòng)調(diào)制識(shí)別(AutomaticModulation Recognition,AMR),并在RML2016. 10a 數(shù)據(jù)集開(kāi)展實(shí)驗(yàn)驗(yàn)證。當(dāng)信噪比為0 dB 時(shí),CNN 的調(diào)制識(shí)別準(zhǔn)確率可達(dá)到78% 。2018 年,Merchant 等[5]利用ZigBee 信號(hào)數(shù)據(jù)集,驗(yàn)證了CNN 在SEI 領(lǐng)域的性能,在測(cè)試集上達(dá)到了77. 01% 的分類(lèi)正確率。因此,利用神經(jīng)網(wǎng)絡(luò)提取數(shù)據(jù)的深度特征,識(shí)別信號(hào)的類(lèi)別屬性,在信號(hào)識(shí)別領(lǐng)域具有一定的研究意義與應(yīng)用價(jià)值。

    在以往關(guān)于SEI 的研究綜述中,對(duì)基于深度學(xué)習(xí)的輻射源識(shí)別方法關(guān)注度不足,且文獻(xiàn)綜述不夠全面。此外,現(xiàn)有綜述對(duì)相關(guān)可用數(shù)據(jù)集的系統(tǒng)性介紹較為缺乏,鑒于數(shù)據(jù)和算法是深度學(xué)習(xí)的2 個(gè)核心要素,是執(zhí)行SEI 任務(wù)的基礎(chǔ)和重要工具。針對(duì)上述局限性,本文圍繞數(shù)據(jù)、算法對(duì)基于深度學(xué)習(xí)的通信SEI 進(jìn)行綜述,首先概述了DL 及其在SEI 領(lǐng)域應(yīng)用的發(fā)展歷程,提供了開(kāi)源SEI 數(shù)據(jù)集匯編,進(jìn)一步綜述了基于知識(shí)驅(qū)動(dòng)和數(shù)據(jù)驅(qū)動(dòng)的SEI 方法,并對(duì)目前基于DL 的SEI 研究存在的難點(diǎn)問(wèn)題和未來(lái)的發(fā)展方向進(jìn)行了深入分析。

    1 發(fā)展歷程

    1. 1 深度學(xué)習(xí)發(fā)展歷程

    1950 年,被譽(yù)為“計(jì)算機(jī)科學(xué)之父”的圖靈提出“圖靈測(cè)試”,讓機(jī)器產(chǎn)生智能這一想法開(kāi)始進(jìn)入大眾視野。1956 年,John McCarthy (圖靈獎(jiǎng)得主)、Marvin Minsky(人工智能與認(rèn)知學(xué)專(zhuān)家,圖靈獎(jiǎng)得主)和Claude Shannon(信息論創(chuàng)始人)等學(xué)者以機(jī)器模擬智能為主題,在美國(guó)新罕布什爾州達(dá)特茅斯學(xué)院展開(kāi)大討論,史稱(chēng)“達(dá)特茅斯會(huì)議”。在此次會(huì)議上,“人工智能”的概念被首次提出。20 世紀(jì)70 年代,由于算力和理論的匱乏,人工智能的前沿應(yīng)用難以實(shí)現(xiàn),發(fā)展進(jìn)入低谷;90 年代末,隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展和計(jì)算能力的增強(qiáng),人工智能發(fā)展提速,人工智能技術(shù)的應(yīng)用已逐漸在醫(yī)療保健、電子商務(wù)和社交媒體等行業(yè)落地。

    神經(jīng)網(wǎng)絡(luò)也已具有近80 年的發(fā)展歷史。DL 源于對(duì)人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)的研究,其本質(zhì)是一個(gè)深層神經(jīng)網(wǎng)絡(luò),前層的輸出作為后層的輸入,可實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的多級(jí)表示,并從中自動(dòng)學(xué)習(xí)抽象、深層次的特征。近年來(lái),DL 在圖像分類(lèi)[6-7]、目標(biāo)檢測(cè)[8-9]及自然語(yǔ)言處理[10-11]等領(lǐng)域取得了較為顯著的成果,將其與各領(lǐng)域相結(jié)合是目前較為熱門(mén)的研究方向。DL 包含一系列算法,如前向神經(jīng)網(wǎng)絡(luò)、CNN、循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeural Network,RNN)和自動(dòng)編碼器等,且算法仍在不斷地被創(chuàng)新發(fā)展。

    CNN 是一種典型的深度前饋神經(jīng)網(wǎng)絡(luò),一般包括卷積層、池化層、激活層和連接層,具有局部連接、權(quán)值共享和降采樣等特點(diǎn),可有效處理圖像數(shù)據(jù),得到了廣泛研究與應(yīng)用。1980 年,福島邦彥(鮑爾獎(jiǎng)得主)提出了“Neocognitron”,將人類(lèi)視覺(jué)系統(tǒng)中的思想引入ANN,創(chuàng)造了CNN 的雛形。20 世紀(jì)80 年代末,LeCun 將反向傳播算法引入神經(jīng)網(wǎng)絡(luò),開(kāi)發(fā)了LeNet,并在1998 年將改進(jìn)后的LeNet5 成功應(yīng)用到手寫(xiě)字符識(shí)別系統(tǒng)中。自1998 年開(kāi)始,LeNet[12]、AlexNet[13]、VGG[14]、GoogLeNet[15]以及ResNet[16]等代表性模型相繼提出,并逐漸應(yīng)用于SEI 領(lǐng)域。CNN 的輸出只與前層輸入有關(guān),不考慮其他時(shí)刻輸入的影響,因此在處理與時(shí)序相關(guān)的任務(wù)時(shí)性能會(huì)有所下降。RNN[17]是一種節(jié)點(diǎn)定向連接的遞歸神經(jīng)網(wǎng)絡(luò),中間隱藏層的輸出不僅與當(dāng)前時(shí)刻的輸入有關(guān),還與前一時(shí)刻的輸出有關(guān),因此該網(wǎng)絡(luò)具有記憶功能,能有效挖掘數(shù)據(jù)中的時(shí)序信息和語(yǔ)義信息,在語(yǔ)音識(shí)別、機(jī)器翻譯[18-19]等自然語(yǔ)言處理領(lǐng)域取得了良好的效果。利用RNN 處理長(zhǎng)序列時(shí),在訓(xùn)練過(guò)程中可能存在梯度消失和梯度爆炸的問(wèn)題,由此產(chǎn)生了長(zhǎng)短時(shí)記憶(Long Short Term Memory,LSTM)[20]網(wǎng)絡(luò)。LSTM 引入門(mén)控單元,包括遺忘門(mén)、記憶門(mén)和輸出門(mén),以改善RNN 長(zhǎng)時(shí)依賴(lài)等問(wèn)題,目前較為常用的RNN 模型為LSTM 及其變種。

    1. 2 基于DL 的輻射源識(shí)別研究

    隨著無(wú)線(xiàn)電通信的迅猛發(fā)展,輻射源數(shù)量激增,信號(hào)調(diào)制方式繁多復(fù)雜,傳統(tǒng)的基于專(zhuān)家經(jīng)驗(yàn)的SEI 方法已無(wú)法滿(mǎn)足現(xiàn)實(shí)需求。20 世紀(jì)70 年代,為了從復(fù)雜信號(hào)中有效提取個(gè)體指紋特征,研究人員開(kāi)始將AI 引入SEI 領(lǐng)域。1985 年,英國(guó)海軍研究部將ANN 應(yīng)用于SEI 領(lǐng)域,利用先驗(yàn)知識(shí)建立輻射源數(shù)據(jù)庫(kù),并驗(yàn)證了ANN 的SEI 識(shí)別性能[21],隨后,ANN、專(zhuān)家系統(tǒng)、模糊邏輯和進(jìn)化計(jì)算等被逐漸應(yīng)用到SEI 領(lǐng)域[22-24]。

    近年來(lái),學(xué)者們逐漸將DL 應(yīng)用到SEI 領(lǐng)域,實(shí)現(xiàn)過(guò)程如圖1 所示。具體而言,該過(guò)程涉及對(duì)采集的輻射源信號(hào)進(jìn)行預(yù)處理,以便對(duì)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行處理。預(yù)處理后的輻射源信號(hào)或其變換后的圖片輸入神經(jīng)網(wǎng)絡(luò),通過(guò)卷積操作有效地提取信號(hào)中的隱含特征,將輸出特征送入分類(lèi)器,利用有監(jiān)督學(xué)習(xí)的方法對(duì)輸出特征進(jìn)行分類(lèi),實(shí)現(xiàn)輻射源個(gè)體的準(zhǔn)確識(shí)別。

    2018 年,文獻(xiàn)[25]將I / Q 序列直接輸入CNN提取指紋特征,并證實(shí)了該方法在個(gè)體識(shí)別中的可行性。Merchant 等[26]通過(guò)頻率校正處理輸入信號(hào),以消除設(shè)備相關(guān)的載波頻率偏移,并提出了一種基于CNN 的時(shí)域復(fù)基帶誤差信號(hào)指紋特征提取的框架,該框架在ZigBee 信號(hào)數(shù)據(jù)集上達(dá)到92. 29% 的識(shí)別準(zhǔn)確率。在后續(xù)工作中文獻(xiàn)[26]改進(jìn)了序列預(yù)處理并在網(wǎng)絡(luò)中引入遞歸分量,顯著提高了模型在低信噪比環(huán)境下SEI 性能。因此,DL 在SEI 領(lǐng)域展現(xiàn)出了潛在的研究?jī)r(jià)值,然而該方法面臨訓(xùn)練數(shù)據(jù)不充分、模型過(guò)擬合以及響應(yīng)速度慢等問(wèn)題,當(dāng)前研究工作致力于解決這些問(wèn)題,以進(jìn)一步提升DL在SEI 領(lǐng)域的應(yīng)用效能。

    2 基于DL 的通信輻射源識(shí)別

    2. 1 開(kāi)源通信輻射源數(shù)據(jù)集

    鑒于SEI 領(lǐng)域的特殊性,可用的開(kāi)源數(shù)據(jù)集相對(duì)匱乏,主要源于該領(lǐng)域?qū)?shù)據(jù)的敏感性和保密性要求。因此,研究者在開(kāi)展SEI 相關(guān)研究時(shí)常常面臨數(shù)據(jù)獲取困難的問(wèn)題,也影響了模型泛化能力和實(shí)際應(yīng)用的可靠性。下文簡(jiǎn)要介紹了3 個(gè)SEI 領(lǐng)域的公開(kāi)數(shù)據(jù)集,以便開(kāi)展相關(guān)的實(shí)驗(yàn)和算法驗(yàn)證。

    (1)ORACLE

    ORACLE 數(shù)據(jù)集來(lái)源于文章“ORACLE:Optimized Radio Classification through ConvolutionalNeural Networks”。ORACLE[27]是一種在物理層利用IQ 樣本從大量位相似設(shè)備(相同的硬件、協(xié)議、物理地址和MAC ID)中識(shí)別不同無(wú)線(xiàn)電設(shè)備的方法。該方法采用16 臺(tái)X310 USRP SDRS 設(shè)備發(fā)射信號(hào),同一臺(tái)B210 USRP 設(shè)備接收信號(hào)。在實(shí)驗(yàn)設(shè)置中,接收機(jī)工作中心頻率為2. 45 GHz,采樣速率為5 MS / s,采集到的I / Q 序列被進(jìn)一步劃分為長(zhǎng)度128 的子序列。每臺(tái)設(shè)備收集超過(guò)2 000 萬(wàn)個(gè)樣本,接收機(jī)與發(fā)射機(jī)之間的距離由0. 6 m 逐步增加到19 m,步長(zhǎng)為1. 9 m。ORACLE 數(shù)據(jù)集分為兩部分:數(shù)據(jù)集1 為raw I / Q 信號(hào),數(shù)據(jù)集2 為經(jīng)過(guò)解調(diào)的I / Q 信號(hào),這些數(shù)據(jù)被進(jìn)一步劃分為訓(xùn)練集、測(cè)試集和驗(yàn)證集,以便于模型訓(xùn)練和評(píng)估。

    (2)ADS-B 信號(hào)集

    ADS-B 全稱(chēng)為廣播式自動(dòng)相關(guān)監(jiān)視,是一種以廣播方式實(shí)時(shí)傳輸飛機(jī)的動(dòng)態(tài)飛行信息的技術(shù),包括航跡、速度和經(jīng)緯度等關(guān)鍵參數(shù),并攜帶飛機(jī)唯一識(shí)別信息(ICAO 編碼),以標(biāo)識(shí)飛機(jī)身份,被廣泛應(yīng)用于實(shí)時(shí)監(jiān)測(cè)飛機(jī)的狀態(tài)[28]。ADSB 信號(hào)集具有數(shù)據(jù)規(guī)模大、易于標(biāo)注且開(kāi)源的特點(diǎn),作為SEI 的數(shù)據(jù)集較為合適。ADSB 數(shù)據(jù)集由哈爾濱工業(yè)大學(xué)信息與通信工程實(shí)驗(yàn)室發(fā)布,包含1 661 種類(lèi)別的飛機(jī)長(zhǎng)信號(hào)26 613 條,以及1 713 種類(lèi)別的飛機(jī)短信號(hào)167 234 條[29]。

    (3)FIT / Corte Xlab

    FIT / Corte Xlab 數(shù)據(jù)集由法國(guó)里昂國(guó)立應(yīng)用科學(xué)學(xué)院發(fā)布,并得到了Alcatel-Lucent Bell Labs 的支持。該數(shù)據(jù)集利用22 臺(tái)NI USRP N2932 設(shè)備生成,其中1 臺(tái)設(shè)備作為固定接收端,其余21 臺(tái)設(shè)備負(fù)責(zé)信號(hào)發(fā)射,接收機(jī)中心頻點(diǎn)設(shè)置為433 MHz,采樣率為5 MS / s,接收信號(hào)以I / Q 數(shù)據(jù)流的形式保存。每臺(tái)設(shè)備收集約50 000 個(gè)樣本[30],發(fā)射設(shè)備采用突發(fā)模式工作,無(wú)信號(hào)發(fā)射時(shí)放大器處于關(guān)閉狀態(tài)。研究團(tuán)隊(duì)特別針對(duì)IQ 不平衡和DC 偏移對(duì)設(shè)備進(jìn)行了校準(zhǔn),并將本地振蕩器信號(hào)泄露降至最低。發(fā)送數(shù)據(jù)類(lèi)型包含3 種:QPSK 調(diào)制位的固定序列、QPSK 隨機(jī)調(diào)制位序列以及噪聲序列。發(fā)送類(lèi)型包括固定功率和變功率,其中變功率發(fā)射信噪比為9 ~ 14 dB[31-32]。

    2. 2 基于知識(shí)驅(qū)動(dòng)的輻射源識(shí)別技術(shù)

    知識(shí)驅(qū)動(dòng)主要是指根據(jù)專(zhuān)業(yè)知識(shí)和經(jīng)驗(yàn)來(lái)解決問(wèn)題。早期階段的特征提取采用基于專(zhuān)家經(jīng)驗(yàn)的提取方法,即根據(jù)現(xiàn)有對(duì)輻射源畸變的認(rèn)知,人工提取輻射源指紋特征。基于專(zhuān)家經(jīng)驗(yàn)的特征提取方法可分為以下3 類(lèi):基于信號(hào)參數(shù)、基于數(shù)學(xué)表述以及基于機(jī)理分析[1]。

    由于早期輻射源制造工藝的限制,不同設(shè)備的發(fā)射信號(hào)參數(shù)存在顯著差異,可通過(guò)分析信號(hào)參數(shù)進(jìn)行特征提取。通信信號(hào)可分為暫態(tài)信號(hào)和穩(wěn)態(tài)信號(hào)。暫態(tài)信號(hào)是指設(shè)備開(kāi)關(guān)機(jī)、工作模式切換等過(guò)程中產(chǎn)生的信號(hào),由于無(wú)能量較強(qiáng)的調(diào)制信號(hào)的覆蓋,暫態(tài)信號(hào)富含細(xì)微的指紋特征,但由于其持續(xù)時(shí)間短,且易受外部噪聲的影響,使得信號(hào)捕捉和特征提取變得復(fù)雜。穩(wěn)態(tài)信號(hào)是指發(fā)射設(shè)備在功率穩(wěn)定后發(fā)射的信號(hào)部分,相比之下,此類(lèi)信號(hào)持續(xù)時(shí)間長(zhǎng),易于捕捉,但是細(xì)微特征往往被傳輸信號(hào)淹沒(méi),對(duì)特征提取方法要求較高[33-34]。針對(duì)暫態(tài)特征,美國(guó)空軍工程學(xué)院團(tuán)隊(duì)的Williams 等[35]利用GSM、WiMAX、ZigBee 等信號(hào),提取了瞬時(shí)幅度、相位和頻率等參數(shù)的多種統(tǒng)計(jì)指標(biāo)作為特征,并在信噪比大于12 dB 的條件下實(shí)現(xiàn)90% 以上的GSM 信號(hào)識(shí)別正確率。Reising 等[36]針對(duì)WiFi 信號(hào)和WiMax 信號(hào),從中導(dǎo)字段提取了瞬時(shí)相位的統(tǒng)計(jì)特征,在同型號(hào)多部手機(jī)上取得了良好的識(shí)別效果。國(guó)內(nèi)陸滿(mǎn)君等[37]采用遞歸圖法確定暫態(tài)信號(hào)的起止時(shí)刻,通過(guò)小波變化處理信號(hào),并利用遺傳算法篩選出具有高區(qū)分度的特征,最終利用支持向量機(jī)(Support VectorMachine,SVM)實(shí)現(xiàn)SEI。然而,隨著制造工藝的進(jìn)步,同批次同型號(hào)的輻射源之間硬件差異越來(lái)越小,使得傳統(tǒng)基于專(zhuān)家經(jīng)驗(yàn)的特征提取方法面臨挑戰(zhàn),亟需發(fā)展新的方法以適應(yīng)當(dāng)前的實(shí)際需求。

    基于數(shù)學(xué)表述的SEI 方法側(cè)重于運(yùn)用數(shù)學(xué)工具對(duì)輻射源信號(hào)的個(gè)體特征進(jìn)行抽象表述。常用的工具包括小波變換[38]、希爾伯特變換[39-40]、高階譜估計(jì)[41-43]、經(jīng)驗(yàn)?zāi)B(tài)分解(Empirical Mode Decomposi-tion,EMD)[44]以及壓縮感知[45]等。例如,吳龍文等[38]提出了一種基于同步壓縮小波變換的主信號(hào)抑制技術(shù),并結(jié)合分形理論中的盒維數(shù)作為信號(hào)特征,利用SVM 實(shí)現(xiàn)輻射源個(gè)體分類(lèi),實(shí)驗(yàn)結(jié)果證明了該方法在提升SEI 正確率方面的有效性。類(lèi)似地,文獻(xiàn)[39]將希爾伯特- 黃變換(Hilbert-HuangTransform,HHT)與分形理論相結(jié)合,通過(guò)HHT 獲取信號(hào)時(shí)頻能量譜,并基于分形理論提取差分盒維數(shù)和多重分形維數(shù),組成特征向量輸入SVM。實(shí)驗(yàn)結(jié)果表明該方法在低信噪比和小樣本的條件下仍具有良好的識(shí)別效果。鑒于實(shí)際通信信號(hào)的非平穩(wěn)、非線(xiàn)性和非高斯特性,傳統(tǒng)的功率譜與低階譜可能無(wú)法充分表征信號(hào)的本質(zhì)特征,高階統(tǒng)計(jì)量可用于檢測(cè)和描述系統(tǒng)的非線(xiàn)性特性,故桂云川等[41]提出了基于雙譜特征融合的SEI 方法,將對(duì)角積分雙譜與對(duì)角切片融合作為特征向量,驗(yàn)證了高階譜融合特征在提高SEI 準(zhǔn)確率方面的有效性。2016 年,文獻(xiàn)[44]將EMD 引入SEI,并驗(yàn)證了其相較于傳統(tǒng)算法的性能提升,但EMD 在運(yùn)行時(shí)間和算法效率方面存在一定的局限性。盡管基于數(shù)學(xué)表述的方法能揭示更為復(fù)雜的信號(hào)特征,但識(shí)別性能受限于選取的數(shù)學(xué)工具,且所提取的特征可能僅能從特定角度反映信號(hào)特性,具有一定的局限性。此外,該方法在體現(xiàn)輻射源指紋特征的物理本質(zhì)上存在不足,后續(xù)研究需要進(jìn)一步探索如何結(jié)合物理本質(zhì)和數(shù)學(xué)工具,從而更全面地捕捉輻射源的個(gè)體特征,提高SEI 的準(zhǔn)確性和可靠性。

    機(jī)理分析能夠深入探究信號(hào)產(chǎn)生機(jī)制,是最能揭示輻射源指紋特征本質(zhì)的一種方法。此類(lèi)方法從發(fā)射機(jī)的組成模塊和工作原理出發(fā),建立信號(hào)產(chǎn)生機(jī)理的模型,從而提取更為本質(zhì)的輻射源指紋特征。文獻(xiàn)[46]針對(duì)自激振蕩式和主振放大式2 類(lèi)基本的發(fā)射機(jī),對(duì)核心器件建模并分析,針對(duì)主振放大式發(fā)射機(jī),建立了基于功放泰勒級(jí)數(shù)和沃爾特拉級(jí)數(shù)的模型,并給出了相應(yīng)的特征提取方法。此外,考慮到SEI 依賴(lài)于特定接收機(jī)的局限性,文獻(xiàn)[47]研究了接收機(jī)畸變的機(jī)理和形式,通過(guò)理論分析,證明了發(fā)射機(jī)和接收機(jī)中的濾波器、放大器分量對(duì)信號(hào)整體畸變的影響是等價(jià)的,并通過(guò)實(shí)驗(yàn)驗(yàn)證了不同接收機(jī)對(duì)同一發(fā)射信號(hào)提取特征的差異性。實(shí)驗(yàn)結(jié)果顯示,在不同接收機(jī)條件下,識(shí)別正確率從100% 、95. 5% 顯著下降到20% ,該結(jié)果可為后續(xù)SEI 研究種的接收機(jī)畸變校正提供參考依據(jù)。針對(duì)功放畸變問(wèn)題,何家爍[48]研究了功放系統(tǒng)的非線(xiàn)性特征和行為模型,并深入研究了接收端的非線(xiàn)性處理算法。盡管機(jī)理分析方法在SEI 領(lǐng)域取得了一定的進(jìn)展,但尚未解決多種畸變特征的聯(lián)合提取問(wèn)題,且畸變模型僅體現(xiàn)當(dāng)前的認(rèn)知水平。由于輻射源指紋特征是由多種內(nèi)部器件共同作用的結(jié)果,對(duì)整個(gè)系統(tǒng)的精確建模和分析仍然具有難度。因此,機(jī)理分析方法在揭示輻射源指紋特征的物理本質(zhì)上尚有局限,未來(lái)的研究需要進(jìn)一步深化對(duì)輻射源內(nèi)部機(jī)制的理解,并建立更為全面的模型和分析方法。

    2. 3 基于數(shù)據(jù)驅(qū)動(dòng)的輻射源識(shí)別技術(shù)

    基于數(shù)據(jù)驅(qū)動(dòng)的SEI 技術(shù)主要基于大規(guī)模的監(jiān)督數(shù)據(jù),利用DL 算法進(jìn)行特征提取與識(shí)別,如圖2所示?;冢模?的SEI 任務(wù),本質(zhì)上是將輻射源識(shí)別建模為深度學(xué)習(xí)框架下的分類(lèi)問(wèn)題。在這一框架中,深度學(xué)習(xí)模型通過(guò)學(xué)習(xí)輻射源信號(hào)的特征表示,實(shí)現(xiàn)對(duì)不同個(gè)體輻射源的高精度分類(lèi)。為適應(yīng)無(wú)線(xiàn)電信號(hào)的處理需求,信號(hào)通常以I / Q 數(shù)據(jù)格式存儲(chǔ)。神經(jīng)網(wǎng)絡(luò)模型可以接收I / Q 數(shù)據(jù)作為輸入,這種方法無(wú)需復(fù)雜的預(yù)處理及先驗(yàn)知識(shí),能夠最大程度地保留信號(hào)的原始信息。另一方面,將信號(hào)轉(zhuǎn)換為圖像輸入通常需要先驗(yàn)知識(shí)的支撐,在非合作條件下具有一定的局限性[49]。

    2016 年,O’shea 等[4]首次將I / Q 數(shù)據(jù)輸入CNN 以實(shí)現(xiàn)調(diào)制方式識(shí)別,證明了CNN 在信號(hào)識(shí)別領(lǐng)域的可行性,此后研究人員開(kāi)始探索DL 在SEI領(lǐng)域的適用性。2017 年,美國(guó)國(guó)防先進(jìn)研究計(jì)劃局啟動(dòng)了射頻機(jī)器學(xué)習(xí)項(xiàng)目,射頻指紋識(shí)別是該項(xiàng)目的關(guān)鍵應(yīng)用之一[50]。在該項(xiàng)目支持下,2018 年Riyaz 等[25]證明了直接通過(guò)I / Q 數(shù)據(jù)提取輻射源指紋特征的可行性與有效性,不需要高精度解碼、特征工程以及協(xié)議格式等先驗(yàn)知識(shí)的支撐,并通過(guò)收集不同發(fā)射距離下的信號(hào),證明該方法的識(shí)別性能隨距離的增大而降低。另一項(xiàng)研究[51]指出I / Q 失配參數(shù)與調(diào)制方式無(wú)關(guān),研究者利用CNN 從I / Q 信號(hào)中提取失配參數(shù)來(lái)識(shí)別不同輻射源,并通過(guò)實(shí)驗(yàn)驗(yàn)證該方法相較于傳統(tǒng)特征提取方法更有效。在國(guó)內(nèi),研究者也在利用I / Q 數(shù)據(jù)實(shí)現(xiàn)SEI 方面也取得了一系列成果,文獻(xiàn)[52]改進(jìn)網(wǎng)絡(luò)模型,利用深度殘差網(wǎng)絡(luò)對(duì)實(shí)測(cè)I / Q 信號(hào)進(jìn)行特征提取,并利用ADS-B 數(shù)據(jù)集對(duì)算法性能進(jìn)行了測(cè)試,結(jié)果表明當(dāng)信噪比大于-3 dB 時(shí),該模型識(shí)別性能超過(guò)96% ,優(yōu)于傳統(tǒng)的CNN 和DBN 網(wǎng)絡(luò)模型;張敏等[53]提出了一種基于I / Q 失配的SEI 方法,該方法無(wú)需解調(diào)過(guò)程,且適用于模擬和數(shù)字信號(hào);陳悅等[54]指出,I 路與Q 路數(shù)據(jù)的變化是相對(duì)應(yīng)的,因此構(gòu)造IQ 特征圖并輸入CNN,實(shí)現(xiàn)了93. 05% 的識(shí)別正確率。此外,通過(guò)對(duì)比IQ 圖特征與小波特征、雙譜特征,實(shí)驗(yàn)結(jié)果表明IQ 圖特征具有最高的識(shí)別正確率和泛化能力。針對(duì)小樣本學(xué)習(xí)問(wèn)題,文獻(xiàn)[55]將數(shù)據(jù)增強(qiáng)引入SEI,通過(guò)噪聲擾動(dòng)、幅度和時(shí)延變換、頻率偏移和相位偏移的手段對(duì)I / Q 數(shù)據(jù)進(jìn)行增強(qiáng),并在ADS-B 數(shù)據(jù)集上驗(yàn)證了該方法的有效性。

    鑒于神經(jīng)網(wǎng)絡(luò)在圖像分類(lèi)領(lǐng)域的卓越表現(xiàn),研究者們探索了將信號(hào)轉(zhuǎn)換為二維圖像形式,作為深度學(xué)習(xí)模型的輸入在SEI 領(lǐng)域的應(yīng)用。由于高階譜特征能夠很好地保留信號(hào)的幅度、相位等信息,文獻(xiàn)[56]采用一種改進(jìn)的雙譜特征融合的通信信號(hào)識(shí)別方法,在低信噪比條件下,識(shí)別準(zhǔn)確率可達(dá)95% 。針對(duì)高階譜特征維度較高的問(wèn)題,Ding 等[57]采用了一種監(jiān)督降維方法[58],減少對(duì)冗余信息的識(shí)別,避免維數(shù)災(zāi)難。文獻(xiàn)[59]將差分星座軌跡圖輸入CNN 進(jìn)行特征提取,并在ZigBee 信號(hào)集上進(jìn)行實(shí)驗(yàn)驗(yàn)證,當(dāng)設(shè)備個(gè)數(shù)為54,信噪比為15 dB 時(shí),識(shí)別準(zhǔn)確率達(dá)到了93. 8% 。針對(duì)現(xiàn)有方法的識(shí)別性能隨時(shí)間推移而下降的問(wèn)題,2021 年,謝存祥等[60]提出了一種基于HHT 與對(duì)抗訓(xùn)練的識(shí)別方法,對(duì)接收信號(hào)進(jìn)行希爾伯特變換后選擇不同輻射源信號(hào)的希爾伯特譜區(qū)分度最高的能量值點(diǎn),以此作為CNN的輸入,并通過(guò)對(duì)抗訓(xùn)練提高網(wǎng)絡(luò)的抗噪性能,在輻射源個(gè)數(shù)為5、信噪比為10 dB 時(shí),識(shí)別正確率可達(dá)到71% 。針對(duì)HHT 存在模態(tài)混疊分解不充分的問(wèn)題,韋建宇等[61]首先對(duì)信號(hào)進(jìn)行差分處理,利用變分模態(tài)分解得到模態(tài)分量后進(jìn)行希爾伯特變換,并通過(guò)實(shí)驗(yàn)驗(yàn)證該方法較已有的HHT 個(gè)體識(shí)別方法,不僅計(jì)算復(fù)雜度更低,且信噪比為5 dB 時(shí)具有90% 以上的識(shí)別正確率。針對(duì)利用單一特征提取通信輻射源個(gè)體指紋信息不充分的問(wèn)題,文獻(xiàn)[62]提出一種基于多域特征融合的SEI 方法,將時(shí)域、頻域和積分雙譜特征組合,利用多通道卷積網(wǎng)絡(luò)提取通信輻射源個(gè)體指紋特征,證明了該方法可在低信噪比下顯著提高識(shí)別效果。文獻(xiàn)[63]將遷移學(xué)習(xí)思想引入SEI,提出一種多域遷移的輻射源識(shí)別方法,將不同時(shí)間接收到的信號(hào)作為不同的域,并通過(guò)實(shí)驗(yàn)證明該方法識(shí)別效果較好。隨著網(wǎng)絡(luò)模型的不斷更新,陳浩等[64]采用深度殘差適配網(wǎng)絡(luò),以時(shí)頻圖作為輸入,基于5 臺(tái)通信輻射源數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)驗(yàn)證,當(dāng)信噪比大于15 dB 時(shí),該模型的識(shí)別準(zhǔn)確率達(dá)到了90% 以上。文獻(xiàn)[65]提出了一種基于Trans-former 的輕量化網(wǎng)絡(luò)GLFormer,包括門(mén)控局部注意力單元和門(mén)控滑動(dòng)局部注意力單元,可自動(dòng)過(guò)濾不相關(guān)信息,提取更為關(guān)鍵的輻射源指紋信息從而提高識(shí)別性能,基于50 艘船舶自動(dòng)定位系統(tǒng)的瞬態(tài)和穩(wěn)態(tài)信號(hào)對(duì)GLFormer 的識(shí)別性能進(jìn)行驗(yàn)證,識(shí)別準(zhǔn)確率分別達(dá)到96. 31% 和89. 38% 。針對(duì)小樣本問(wèn)題,丁辰偉等[66]將圖像增強(qiáng)算法應(yīng)用于SEI,包括直方圖修正法、灰度變換法和圖像濾波法,對(duì)稀疏自編碼器提取的特征進(jìn)行特征增強(qiáng),將原有特征與增強(qiáng)后的特征共同輸入CNN 訓(xùn)練,有效提高了小樣本條件下SEI 的準(zhǔn)確率。DL 在圖像識(shí)別領(lǐng)域性能優(yōu)異,提取圖像特征識(shí)別輻射源個(gè)體取得了良好的性能,但是該方法通常需要一定的先驗(yàn)知識(shí),在非合作條件下受限,且圖像依賴(lài)于特定的數(shù)學(xué)工具,可能存在泛化性和魯棒性較差的問(wèn)題。

    3 存在的問(wèn)題

    3. 1 大規(guī)模監(jiān)督真實(shí)數(shù)據(jù)集的不現(xiàn)實(shí)性

    SEI 主要瞄準(zhǔn)非合作目標(biāo),因此該任務(wù)面臨的首要難題是獲取大規(guī)模的真實(shí)數(shù)據(jù)。在可訓(xùn)練數(shù)據(jù)有限的條件下,模型容易出現(xiàn)過(guò)擬合,影響其在實(shí)際應(yīng)用中的泛化性能;其次,由于對(duì)非合作目標(biāo)缺少先驗(yàn)知識(shí),對(duì)信號(hào)的識(shí)別和處理變得復(fù)雜,不僅增加了數(shù)據(jù)標(biāo)注的難度,也對(duì)模型學(xué)習(xí)有效特征提出了更高的要求;再次,非合作條件下采集的數(shù)據(jù)往往存在類(lèi)別不均衡問(wèn)題,常見(jiàn)輻射源的數(shù)據(jù)規(guī)模大,低頻次出現(xiàn)輻射源的數(shù)據(jù)規(guī)模小,可能導(dǎo)致模型對(duì)常見(jiàn)輻射源類(lèi)別的識(shí)別性能較好,而對(duì)罕見(jiàn)類(lèi)別的識(shí)別性能不足;此外,在開(kāi)集識(shí)別的背景下,這種類(lèi)別不均衡問(wèn)題變得更加突出,當(dāng)應(yīng)用環(huán)境的輻射源類(lèi)別數(shù)目比訓(xùn)練集的類(lèi)別數(shù)目多時(shí),模型難以正確識(shí)別新的類(lèi)別,從而限制了SEI 在動(dòng)態(tài)和未知環(huán)境中的適用性。

    3. 2 模型泛化問(wèn)題

    現(xiàn)有基于DL 的通信輻射源識(shí)別研究,用于建立神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練樣本與用于驗(yàn)證模型的測(cè)試樣本來(lái)源于相同時(shí)間和空間環(huán)境,可能導(dǎo)致模型在測(cè)試集上表現(xiàn)良好。但在實(shí)際應(yīng)用中,電磁信號(hào)的獲取環(huán)境與訓(xùn)練集環(huán)境存在顯著差異,因此基于DL的SEI 方法性能會(huì)顯著下降甚至可能完全失效[67-68]。

    此外,現(xiàn)有SEI 研究使用的數(shù)據(jù)集主要包括3 類(lèi):第一類(lèi)是仿真信號(hào),利用GNURadio、Python、Matlab[69-70]等軟件仿真不同輻射源信號(hào),雖然信號(hào)各參數(shù)便于控制,但可能無(wú)法完全模擬真實(shí)電磁環(huán)境的復(fù)雜性;第二類(lèi)是利用開(kāi)源輻射源識(shí)別數(shù)據(jù)集進(jìn)行研究;第三類(lèi)是通過(guò)搭建實(shí)驗(yàn)環(huán)境,收集ADS-B[52]、電臺(tái)以及ZigBee 等輻射源信號(hào),進(jìn)行實(shí)驗(yàn)研究。后2 類(lèi)數(shù)據(jù)可能更接近實(shí)際應(yīng)用,但數(shù)據(jù)集往往受限于特定的信道環(huán)境和噪聲,當(dāng)待測(cè)信號(hào)與訓(xùn)練數(shù)據(jù)集的信道環(huán)境噪聲不一致時(shí),網(wǎng)絡(luò)的識(shí)別性能可能退化。

    4 發(fā)展方向

    4. 1 面向弱/ 無(wú)監(jiān)督數(shù)據(jù)的輻射源識(shí)別研究

    當(dāng)前基于DL 的SEI 研究大多采用有監(jiān)督學(xué)習(xí)方法,利用大量帶標(biāo)簽訓(xùn)練數(shù)據(jù)對(duì)模型參數(shù)進(jìn)行優(yōu)化。但在實(shí)際SEI 任務(wù)中,無(wú)線(xiàn)電信號(hào)采集困難,且缺乏非合作目標(biāo)的先驗(yàn)知識(shí),標(biāo)注成本高;相比于其他領(lǐng)域的公開(kāi)數(shù)據(jù)集,如包含1 420 萬(wàn)張圖片的Im-ageNet 數(shù)據(jù)集,輻射源識(shí)別ORACLE 數(shù)據(jù)集僅包含16 臺(tái)同型號(hào)無(wú)線(xiàn)電設(shè)備的數(shù)據(jù),在類(lèi)別多樣性和數(shù)據(jù)量上都十分不足。為了克服SEI 領(lǐng)域小樣本的挑戰(zhàn),后續(xù)研究可結(jié)合數(shù)據(jù)增強(qiáng)、遷移學(xué)習(xí)、度量學(xué)習(xí)、自監(jiān)督學(xué)習(xí)、one-shot、Few-shot、半監(jiān)督學(xué)習(xí)以及標(biāo)簽噪聲學(xué)習(xí)等方法,提高模型在弱/ 無(wú)監(jiān)督條件下的識(shí)別能力。

    4. 2 面向動(dòng)態(tài)環(huán)境的輻射源識(shí)別研究

    SEI 任務(wù)要求在輻射源類(lèi)型、通信信號(hào)調(diào)制方式、傳輸信道特性和接收機(jī)性能都各不相同的條件下,仍能對(duì)輻射源個(gè)體進(jìn)行有效識(shí)別與分類(lèi)。實(shí)際SEI 任務(wù)中接收到的通信輻射源信號(hào)具有顯著的差異性,而目前已有數(shù)據(jù)集無(wú)法充分覆蓋這種多樣性。此外,隨著新輻射源的出現(xiàn)和已有輻射源設(shè)備的老用性和學(xué)習(xí)能力提出了更高要求。未來(lái)研究需要關(guān)注如何使SEI 系統(tǒng)具備在線(xiàn)學(xué)習(xí)和實(shí)時(shí)更新的能力,以應(yīng)對(duì)輻射源特征的變化,避免災(zāi)難性遺忘,并有效識(shí)別新輻射源,有助于將SEI 技術(shù)應(yīng)用于真實(shí)戰(zhàn)場(chǎng)環(huán)境,為電磁態(tài)勢(shì)感知提供技術(shù)支持。

    5 結(jié)束語(yǔ)。

    非合作條件下的SEI 對(duì)于獲取戰(zhàn)場(chǎng)電磁態(tài)勢(shì)、制定戰(zhàn)略戰(zhàn)術(shù)具有重要作用,不僅能夠?yàn)檐娛聜刹焯峁┣閳?bào),還能有效監(jiān)管和分配頻譜資源。本研究綜述了基于知識(shí)驅(qū)動(dòng)和基于數(shù)據(jù)驅(qū)動(dòng)的SEI 研究進(jìn)展,系統(tǒng)歸納了基于信號(hào)參數(shù)、數(shù)學(xué)工具和機(jī)理分析3 種知識(shí)驅(qū)動(dòng)識(shí)別方法,并對(duì)基于輸入信號(hào)序列和變換域特征的數(shù)據(jù)驅(qū)動(dòng)識(shí)別方法進(jìn)行了分類(lèi)總結(jié)。針對(duì)非合作通信場(chǎng)景,特別是弱/ 無(wú)監(jiān)督場(chǎng)景及開(kāi)集條件下的SEI 技術(shù)做出展望。

    參考文獻(xiàn)

    [1] 李潤(rùn)東. 基于深度學(xué)習(xí)的通信信號(hào)智能盲檢測(cè)與識(shí)別技術(shù)研究[D]. 成都:電子科技大學(xué),2021.

    [2] 劉劍鋒. 基于深度學(xué)習(xí)的通信輻射源個(gè)體識(shí)別關(guān)鍵技術(shù)研究[D]. 鄭州:戰(zhàn)略支援部隊(duì)信息工程大學(xué),2021.

    [3] 潘一葦. 通信輻射源個(gè)體識(shí)別關(guān)鍵技術(shù)研究[D]. 鄭州:戰(zhàn)略支援部隊(duì)信息工程大學(xué),2019.

    [4] O’SHEA T J,CORGAN J,CLANCY T C. ConvolutionalRadio Modulation Recognition Networks[J]. EngineeringApplications of Neural Networks,2016,629:213-226.

    [5] MERCHANT K,REVAY S,STANTCHEV G,et al. DeepLearning for RF Device Fingerprinting in Cognitive Communication Networks[J]. IEEE Journal of Selected Topicsin Signal Processing,2018,12(1):160-167.

    [6] ALEM A,KUMAR S. Deep Learning Models PerformanceEvaluations for Remote Sensed Image Classification[J].IEEE Access,2022,10:111784-111793.

    [7] GAO K L,LIU B,YU X C,et al. Unsupervised MetaLearning with Multiview Constraints for Hyperspectral Image Small Sample Set Classification [J ]. IEEETransactions on Image Processing,2022,31:3449-3462.

    [8] REN S Q,HE K M,GIRSHICK R,et al. Faster RCNN:Towards Realtime Object Detection with Region ProposalNetworks[J]. IEEE Transactions on Pattern Analysis andMachine Intelligence,2017,39(6):1137-1149.

    [9] 崔麗群,曹華維. 基于改進(jìn)YOLOv5 的遙感圖像目標(biāo)檢測(cè)[J]. 計(jì)算機(jī)工程,2024,50(4):228-236.

    [10] LIN Y P,VOSSELMAN G,CAO Y P,et al. Local andGlobal Encoder Network for Semantic Segmentation of Airborne Laser Scanning Point Clouds[J]. ISPRS Journal ofPhotogrammetry and Remote Sensing,2021,176:151-168.

    [11] LANDRIEU L,SIMONOVSKY M. Largescale Point CloudSemantic Segmentation with Superpoint Graphs[C]∥Proceedings of the 2018 IEEE Conference on ComputerVision and Pattern Recognition. Salt Lake City:IEEE,2018:4558-4567.

    [12] LECUN Y,BOTTOU L,BENGIO Y,et al. GradientbasedLearning Applied to Document Recognition [J]. Proceedings of the IEEE,1998,86(11):2278-2324.

    [13] HINTON G E,OSINDERO S,TEH Y W. A Fast LearningAlgorithm for Deep Belief Nets[J]. Neural Computation,2006,18(7):1527-1554.

    [14] SIMONYAN K,ZISSERMAN A. Very Deep ConvolutionalNetworks for Largescale Image Recognition [EB / OL].(2014-09-04)[2023-08-15]. https:∥arxiv. org / abs /1409. 1556.

    [15] SZEGEDY C,LIU W,JIA Y Q,et al. Going Deeper withConvolutions[C]∥2015 IEEE Conference on ComputerVision and Pattern Recognition. Boston:IEEE,2015:1-9.

    [16] HE K M,ZHANG X Y,REN S Q,et al. Deep ResidualLearning for Image Recognition[C]∥Proceedings of theIEEE Conference on Computer Vision and Pattern Recognition. Las Vegas:IEEE,2016:770-778.

    [17] ELMAN J L. Finding Structure in Time[J]. Cognitive Science,1990,14(2):179-211.

    [18] CHEN K H,ZHAO T J,YANG M Y,et al. A Neural Approach to Source Dependence Based Context Model forStatistical Machine Translation[J]. IEEE / ACM Transactions on Audio,Speech,and Language Processing,2018,26(2):266-280.

    [19] AlIBRAHIM R,DUWAIRI R M. Neural Machine Translation from Jordanian Dialect to Modern Standard Arabic[C]∥2020 11th International Conference on Informationand Communication Systems (ICICS). Irbid:IEEE,2020:173-178.

    [20] HOCHREITER S,SCHMIDUHBER J. Long ShorttermMemory[J]. Neural Computation,1997,9(8):1735-1780.

    [21] ROE A L. Artificial Neural Networks for ESM EmitterIdentificationAn Initial Study[C]∥ IEE Colloquium onNeural Networks for Systems:Principles and Applications.London:IEEE,1991:4 / 1-4 / 3.

    [22] FORD B P,MIDDLEBROOK V S. Using a KnowledgeBased System for Emitter Classification and AmbiguityResolution[C]∥Proceedings of the IEEE National Aerospace and Electronics Conference. Dayton:IEEE,1989:1739-1746.

    [23] ROE J,PUDNER A. The Realtime Implementation ofEmitter Identification for ESM[C]∥ IEE Colloquium onSignal Processing in Electronic Warfare. London:IEEE,1994:7 / 1-7 / 6.

    [24] 張葛祥. 雷達(dá)輻射源信號(hào)智能識(shí)別方法研究[D]. 成都:西南交通大學(xué),2006.

    [25] RIYAZ S,SANKHE K,IOANNIDIS S,et al. DeepLearning Convolutional Neural Networks for Radio Identification[J]. IEEE Communications Magazine,2018,56(9):146-152.

    [26] MERCHANT K,NOUSAIN B. Enhanced RF Fingerprintingfor IoT Devices with Recurrent Neural Networks [C]∥2019 IEEE Military Communications Conference. Norfolk:IEEE,2019:590-597.

    [27] SANKHE K,BELGIOVINE M,ZHOU F,et al. ORACLE:Optimized Radio Classification Through ConvolutionalNeural Networks [C]∥ IEEE Conference on ComputerCommunications. Paris:IEEE,2019:370-378.

    [28] CHEN S C,ZHENG S L,YANG L F,et al. Deep Learning forLargescale Realworld ACARS and ADSB Radio SignalClassification[J]. IEEE Access,2019,7:89256-89264.

    [29] TU Y,LIN Y,ZHA H,et al. Largescale Realworld RadioSignal Recognition with Deep Learning [J ]. ChineseJournal of Aeronautics,2022,35(9):35-48.

    [30] MORINE C,CARDOSO L S,HOYDIS J,et al. TransmitterClassification with Supervised Deep Learning [J ].Cognitive Radiooriented Wireless Networks,CrownCom,2019,291:73-86.

    [31] 崔天舒,趙文杰,黃永輝,等. 基于射頻指紋的測(cè)控地面站身份識(shí)別方法[J]. 航天電子對(duì)抗,2021,37(3):6-9.

    [32] 唐曉剛,馮俊豪,張斌權(quán),等. 基于射頻指紋的衛(wèi)星測(cè)控地面站身份識(shí)別方法[J]. 電子與信息學(xué)報(bào),2023,45(7):2554-2560.

    [33] 韋建宇,俞璐. 通信輻射源個(gè)體識(shí)別中的特征提取方法綜述[J]. 通信技術(shù),2022,55(6):681-687.

    [34] 李軍,夏春秋. 基于深度學(xué)習(xí)的輻射源個(gè)體識(shí)別方法綜述[J]. 艦船電子對(duì)抗,2022,45(2):89-94.

    [35] WILLIAMS M D,TEMPLE M A,REISING D R. Augmenting Bitlevel Network Security Using Physical Layer RFDNA Fingerprinting[C]∥2010 IEEE Global Telecommunications Conference GLOBECOM 2010. Miami:IEEE,2010:1-6.

    [36] REISING D R,TEMPLE M A,JACKSON J A. Authorizedand Rogue Device Discrimination Using Dimensionally Reduced RFDNA Fingerprints[J]. IEEE Transactions on Information Forensics and Security,2015,10(6):1180-1192.

    [37] 陸滿(mǎn)君,詹毅,司錫才,等. 通信輻射源瞬態(tài)特征提取和個(gè)體識(shí)別方法[J]. 西安電子科技大學(xué)學(xué)報(bào),2009,36(4):736-740.

    [38] 吳龍文,牛金鵬,王昭,等. 基于同步壓縮小波變換的主信號(hào)抑制技術(shù)[J]. 電子與信息學(xué)報(bào),2020,42(8):2045-2052.

    [39] 韓潔,張濤,王歡歡,等. 基于3DHibert 能量譜和多尺度分形特征的通信輻射源個(gè)體識(shí)別[J]. 通信學(xué)報(bào),2017,38(4):99-109.

    [40] ZHANG J W,WANG F G,DOBRE O A,et al. SpecificEmitter Identification via Hilberthuang Transform in Singlehop and Relaying Scenarios[J]. IEEE Transactions onInformation Forensics and Security,2016,11 (6 ):1192-1205.

    [41] 桂云川,楊俊安,萬(wàn)俊. 基于雙譜特征融合的通信輻射源識(shí)別算法[J]. 探測(cè)與控制學(xué)報(bào),2016,38(5):91-95.

    [42] 任東方,張濤,韓潔. 基于雙譜與特征選擇的通信輻射源識(shí)別算法[J]. 信息工程大學(xué)學(xué)報(bào),2018,19 (4):410-415.

    [43] 王占領(lǐng),張登福,王世強(qiáng). 雷達(dá)輻射源信號(hào)雙譜二次特征提取方法[J]. 空軍工程大學(xué)學(xué)報(bào)(自然科學(xué)版),2014,15(1):48-52.

    [44] 桂云川,楊俊安,呂季杰,等. 基于經(jīng)驗(yàn)?zāi)B(tài)分解的通信輻射源分形特征提取算法[J]. 探測(cè)與控制學(xué)報(bào),2016,38(1):104-108.

    [45] 王志鵬,王星,田元榮,等. 基于壓縮感知的輻射源信號(hào)數(shù)據(jù)級(jí)融合識(shí)別方法[J]. 兵工學(xué)報(bào),2017,38(8):1547-1554.

    [46] 許丹. 輻射源指紋機(jī)理及識(shí)別方法研究[D]. 長(zhǎng)沙:國(guó)防科學(xué)技術(shù)大學(xué),2009.

    [47] 樂(lè)波,王桂良,黃淵凌,等. 接收機(jī)畸變對(duì)輻射源指紋識(shí)別的影響[J]. 電訊技術(shù),2020,60(3):273-278.

    [48] 何家爍. 功放非線(xiàn)性失真的接收端處理技術(shù)研究[D].西安:西安電子科技大學(xué),2022.

    [49] 陳翔,汪連棟,許雄,等. 基于Raw I / Q 和深度學(xué)習(xí)的射頻指紋識(shí)別方法綜述[J]. 雷達(dá)學(xué)報(bào),2023,12 (1):214-234.

    [50] WONG L J,HEADLEY W C,MICHAELS A J. SpecificEmitter Identification Using Convolutional NeuralNetworkbased IQ Imbalance Estimators [J ]. IEEEAccess,2019,7:33544-33555.

    [51] WONG L J,CLARK W H,FLOWERS B,et al. An RFMLEcosystem:Considerations for the Application of DeepLearning to Spectrum Situational Awareness [J]. IEEEOpen Journal of the Communications Society,2021,2:2243-2264.

    [52] 翁琳天然,彭進(jìn)霖,何元,等. 基于深度殘差網(wǎng)絡(luò)的ADSB 信號(hào)輻射源個(gè)體識(shí)別[J]. 航空兵器,2021,28(4):24-29.

    [53] 張敏,羅正華,黃建剛,等. 一種基于I / Q 失配的輻射源指紋提取方法[J]. 電子學(xué)報(bào),2020,48(4):717-722.

    [54] 陳悅,雷迎科,李昕,等. 基于IQ 圖特征的通信輻射源個(gè)體識(shí)別[J]. 信號(hào)處理,2021,37(1):120-125.

    [55] CAI Z R,MA W X,WANG X R,et al. The PerformanceAnalysis of Time Series Data Augmentation Technology forSmall Sample Communication Device Recognition [J ].IEEE Transactions on Reliability,2022,72(2):574-585.

    [56] 王歡歡,張濤. 結(jié)合時(shí)域分析和改進(jìn)雙譜的通信信號(hào)特征提取算法[J]. 信號(hào)處理,2017,33(6):864-871.

    [57] DING L D,WANG S L,WANG F G,et al. SpecificEmitter Identification via Convolutional Neural Networks[J ]. IEEE Communications Letters,2018,22 (12 ):2591-2594.

    [58] XU Y,FENG G,ZHAO Y N. One Improvement to Twodimensional Locality Preserving Projection Method for Usewith Face Recognition[J]. Neurocomputing,2009,73(1/ 3):245-249.

    [59] PENG L N,ZHANG J Q,LIU M,et al. Deep Learningbased RF Fingerprint Identification Using DifferentialConstellation Trace Figure[J]. IEEE Transactions on Vehicular Technology,2020,69(1):1091-1095.

    [60] 謝存祥,張立民,鐘兆根. 基于HilbertHuang 變換與對(duì)抗訓(xùn)練的特定輻射源識(shí)別[J]. 系統(tǒng)工程與電子技術(shù),2021,43(12):3478-3487.

    [61] 韋建宇,彭來(lái)獻(xiàn),俞璐,等. 基于差分-變分模態(tài)分解與全局信息分析網(wǎng)絡(luò)的輻射源個(gè)體識(shí)別方法[J]. 信號(hào)處理,2022,38(10):2092-2101.

    [62] 王檢,張邦寧,張潔,等. 基于多域特征融合的通信輻射源個(gè)體識(shí)別方法[J]. 兵工學(xué)報(bào),2023,44 (4 ):949-959.

    [63] LIU J X,LI J Q,WANG J,et al. Specific Emitter Identification at Different Time Based on Multidomain Migration[C ] ∥ 2022 AsiaPacific Signal and InformationProcessing Association Annual Summit and Conference.Chiang Mai:IEEE,2022:917-922.

    [64] 陳浩,楊俊安,劉輝. 基于深度殘差適配網(wǎng)絡(luò)的通信輻射源個(gè)體識(shí)別[J]. 系統(tǒng)工程與電子技術(shù),2021,43(3):603-609.

    [65] DENG P,HONG S,QI J,et al. A LightweightTransformerbased Approach of Specific Emitter Identification for the Automatic Identification System[J]. IEEETransactions on Information Forensics and Security,2023,18:2303-2317.

    [66] 丁辰偉,孫閩紅,官友廉. 基于小樣本條件的雷達(dá)輻射源個(gè)體識(shí)別算法[J]. 彈箭與制導(dǎo)學(xué)報(bào),2021,41 (3):25-30.

    [67] 桂冠,陶夢(mèng)圓,王誠(chéng),等. 面向特定輻射源識(shí)別的小樣本學(xué)習(xí)方法綜述[J]. 南通大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,22(3):1-16.

    [68] 姚艷艷,俞璐,武欣嶸,等. 面向個(gè)體識(shí)別的通信輻射源特征提取方法綜述[J]. 計(jì)算機(jī)時(shí)代,2020 (9 ):41-44.

    [69] 郭恩澤,張洪德,楊雷,等. 基于改進(jìn)殘差網(wǎng)絡(luò)的雷達(dá)輻射源信號(hào)識(shí)別[J]. 無(wú)線(xiàn)電工程,2022,52 (12 ):2178-2185.

    [70] 姚君宇,許小東. 一種嵌入射頻指紋的半監(jiān)督輻射源識(shí)別方法[J]. 無(wú)線(xiàn)電工程,2019,49(11):939-944.

    作者簡(jiǎn)介。

    王育欣 女,(2001—),碩士研究生。主要研究方向:輻射源個(gè)體識(shí)別、深度學(xué)習(xí)。

    (*通信作者)馬宏斌 男,(1995—),博士,講師。主要研究方向:人工智能、電磁頻譜感知等。

    馬 宏 男,(1976—),博士,教授。主要研究方向:航天測(cè)控通信系統(tǒng)等。

    焦義文 男,(1985—),博士,副教授。主要研究方向:軟件無(wú)線(xiàn)電技術(shù)等。

    李雪健 男,(2000—),碩士研究生。主要研究方向:航天測(cè)控通信系統(tǒng)。

    侯順虎 男,(2000—),碩士研究生。主要研究方向:空間網(wǎng)絡(luò)電磁安全。

    猜你喜歡
    數(shù)據(jù)驅(qū)動(dòng)深度學(xué)習(xí)
    高職圖書(shū)采編外包商選擇模型研究
    數(shù)據(jù)驅(qū)動(dòng)和關(guān)鍵字驅(qū)動(dòng)的研究與應(yīng)用
    軟件(2016年4期)2017-01-20 09:56:35
    基于網(wǎng)絡(luò)與數(shù)據(jù)智能化的數(shù)碼印花產(chǎn)品設(shè)計(jì)定制模式研究
    數(shù)據(jù)驅(qū)動(dòng)理念在大學(xué)英語(yǔ)課程中的應(yīng)用
    青春歲月(2016年20期)2016-12-21 18:48:37
    有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
    大數(shù)據(jù)背景下的警務(wù)模式創(chuàng)新研究
    科技視界(2016年26期)2016-12-17 15:59:49
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    丰满人妻熟妇乱又伦精品不卡| 午夜影院日韩av| 1024香蕉在线观看| 免费看十八禁软件| av天堂久久9| 国产精品一区二区精品视频观看| 久热这里只有精品99| 国产亚洲精品久久久久5区| 午夜老司机福利片| xxxhd国产人妻xxx| 亚洲色图av天堂| 一级a爱片免费观看的视频| 亚洲性夜色夜夜综合| 女警被强在线播放| 99久久99久久久精品蜜桃| 女人被躁到高潮嗷嗷叫费观| 久久久久久久午夜电影 | 国产精品久久视频播放| 又大又爽又粗| 国产精品.久久久| 亚洲av电影在线进入| 国产91精品成人一区二区三区| 精品国产一区二区三区四区第35| 婷婷精品国产亚洲av在线 | 又大又爽又粗| 精品福利永久在线观看| 国产伦人伦偷精品视频| 欧美在线一区亚洲| 国产精品av久久久久免费| 国产精品免费一区二区三区在线 | videosex国产| 露出奶头的视频| 亚洲国产精品一区二区三区在线| 视频在线观看一区二区三区| 别揉我奶头~嗯~啊~动态视频| 18禁黄网站禁片午夜丰满| 美女 人体艺术 gogo| bbb黄色大片| 久久天躁狠狠躁夜夜2o2o| 国产成人影院久久av| 99riav亚洲国产免费| 免费看十八禁软件| 如日韩欧美国产精品一区二区三区| 亚洲熟女精品中文字幕| 一本综合久久免费| 午夜免费鲁丝| 国产免费男女视频| 亚洲成人免费电影在线观看| 飞空精品影院首页| 日韩 欧美 亚洲 中文字幕| 精品人妻熟女毛片av久久网站| 一个人免费在线观看的高清视频| 日韩大码丰满熟妇| 国产激情久久老熟女| 日韩免费高清中文字幕av| 身体一侧抽搐| 亚洲美女黄片视频| 久久精品aⅴ一区二区三区四区| 日韩三级视频一区二区三区| 又大又爽又粗| 亚洲avbb在线观看| 欧美 亚洲 国产 日韩一| av中文乱码字幕在线| 女人久久www免费人成看片| 亚洲一区二区三区欧美精品| 视频在线观看一区二区三区| 久久久精品国产亚洲av高清涩受| www.熟女人妻精品国产| 国产亚洲精品一区二区www | 99久久国产精品久久久| 亚洲 欧美一区二区三区| 欧美亚洲日本最大视频资源| a级片在线免费高清观看视频| 中亚洲国语对白在线视频| 女人被狂操c到高潮| 夜夜躁狠狠躁天天躁| 在线观看免费高清a一片| 欧美不卡视频在线免费观看 | 久久精品成人免费网站| 天天操日日干夜夜撸| 免费看十八禁软件| 女警被强在线播放| 十分钟在线观看高清视频www| 老司机午夜福利在线观看视频| 精品少妇久久久久久888优播| 看片在线看免费视频| 高清欧美精品videossex| 国产精品一区二区精品视频观看| 少妇粗大呻吟视频| 精品国产超薄肉色丝袜足j| 国产又爽黄色视频| 亚洲熟妇中文字幕五十中出 | 一夜夜www| 国产国语露脸激情在线看| av天堂久久9| 国产亚洲精品一区二区www | 一级作爱视频免费观看| 操美女的视频在线观看| 中文字幕色久视频| 侵犯人妻中文字幕一二三四区| 亚洲成人国产一区在线观看| 热99re8久久精品国产| 天天躁日日躁夜夜躁夜夜| 午夜影院日韩av| 亚洲国产精品一区二区三区在线| 两个人看的免费小视频| 婷婷精品国产亚洲av在线 | 一边摸一边做爽爽视频免费| 国产三级黄色录像| 成年女人毛片免费观看观看9 | 丝袜美腿诱惑在线| 高清在线国产一区| 久久久久久久国产电影| 男女免费视频国产| xxx96com| 国产日韩欧美亚洲二区| 中国美女看黄片| 高潮久久久久久久久久久不卡| 999久久久国产精品视频| 久久国产精品大桥未久av| 亚洲精品乱久久久久久| 久久香蕉精品热| 黄色视频不卡| 色婷婷av一区二区三区视频| 女性被躁到高潮视频| 国产高清激情床上av| 国产成人精品无人区| 亚洲熟女精品中文字幕| 国产国语露脸激情在线看| 国内久久婷婷六月综合欲色啪| 最新美女视频免费是黄的| 国产成人精品久久二区二区免费| 国产亚洲精品一区二区www | 亚洲熟妇熟女久久| 欧美激情极品国产一区二区三区| 国产三级黄色录像| 极品教师在线免费播放| 日本a在线网址| 久久久久久久久久久久大奶| 十八禁人妻一区二区| 后天国语完整版免费观看| 国产精品 欧美亚洲| 手机成人av网站| 久久国产乱子伦精品免费另类| 久久久水蜜桃国产精品网| 亚洲一区二区三区欧美精品| 18禁观看日本| 999久久久精品免费观看国产| 欧美日韩亚洲高清精品| 丁香欧美五月| 精品人妻熟女毛片av久久网站| 亚洲av熟女| 久久久国产成人免费| 99久久精品国产亚洲精品| 正在播放国产对白刺激| 亚洲专区字幕在线| 国产一区二区三区视频了| tube8黄色片| 90打野战视频偷拍视频| 青草久久国产| 黄色a级毛片大全视频| 国产精品免费视频内射| 国产成人系列免费观看| 99精品欧美一区二区三区四区| 91av网站免费观看| 国产精华一区二区三区| 熟女少妇亚洲综合色aaa.| 一级毛片高清免费大全| 少妇 在线观看| 亚洲第一av免费看| 久久精品人人爽人人爽视色| 久久精品国产亚洲av高清一级| 99香蕉大伊视频| 国产aⅴ精品一区二区三区波| 熟女少妇亚洲综合色aaa.| 精品少妇久久久久久888优播| 精品高清国产在线一区| 麻豆成人av在线观看| 国产蜜桃级精品一区二区三区 | 欧美不卡视频在线免费观看 | 99久久国产精品久久久| 黄网站色视频无遮挡免费观看| 国产精品一区二区在线观看99| 国产精品久久电影中文字幕 | 又大又爽又粗| 久久精品亚洲熟妇少妇任你| av有码第一页| 国产日韩一区二区三区精品不卡| 一级a爱片免费观看的视频| 久久精品亚洲av国产电影网| 一边摸一边抽搐一进一出视频| 亚洲精品美女久久久久99蜜臀| 成人国语在线视频| 日韩免费av在线播放| 亚洲国产精品一区二区三区在线| 在线国产一区二区在线| 免费在线观看完整版高清| 日本wwww免费看| 黄色成人免费大全| 中文字幕另类日韩欧美亚洲嫩草| 亚洲色图综合在线观看| 日韩欧美一区二区三区在线观看 | 激情视频va一区二区三区| 日韩视频一区二区在线观看| 午夜免费鲁丝| 国产xxxxx性猛交| 欧美日韩视频精品一区| 欧美精品亚洲一区二区| 午夜免费观看网址| 丝袜人妻中文字幕| 日本撒尿小便嘘嘘汇集6| 最近最新中文字幕大全电影3 | 18禁裸乳无遮挡动漫免费视频| 夜夜躁狠狠躁天天躁| 麻豆成人av在线观看| 精品亚洲成a人片在线观看| 丰满的人妻完整版| 狠狠婷婷综合久久久久久88av| 三级毛片av免费| 欧美久久黑人一区二区| 一级a爱视频在线免费观看| 久久国产乱子伦精品免费另类| 国产成人精品在线电影| 69精品国产乱码久久久| 最近最新中文字幕大全电影3 | 亚洲精品国产区一区二| 欧美老熟妇乱子伦牲交| 国产亚洲欧美精品永久| 国产精品影院久久| 99香蕉大伊视频| 国产精品一区二区精品视频观看| 免费观看人在逋| 看免费av毛片| 午夜福利,免费看| 18禁裸乳无遮挡动漫免费视频| 国产成人欧美| 欧美日韩成人在线一区二区| 成年人午夜在线观看视频| 视频区欧美日本亚洲| 亚洲精品国产一区二区精华液| 成人国产一区最新在线观看| 亚洲色图 男人天堂 中文字幕| 亚洲国产精品合色在线| 欧美激情高清一区二区三区| 在线观看免费高清a一片| 另类亚洲欧美激情| 自拍欧美九色日韩亚洲蝌蚪91| 亚洲专区中文字幕在线| 亚洲熟女精品中文字幕| 亚洲三区欧美一区| 亚洲av欧美aⅴ国产| 午夜91福利影院| 亚洲久久久国产精品| 法律面前人人平等表现在哪些方面| 国产深夜福利视频在线观看| 亚洲人成电影免费在线| 亚洲精品国产区一区二| 日韩人妻精品一区2区三区| 99久久99久久久精品蜜桃| 人人妻人人爽人人添夜夜欢视频| 黑人猛操日本美女一级片| 91成人精品电影| 99香蕉大伊视频| 亚洲五月色婷婷综合| 午夜亚洲福利在线播放| 美国免费a级毛片| 热99久久久久精品小说推荐| 最新的欧美精品一区二区| 国产精品美女特级片免费视频播放器 | 另类亚洲欧美激情| 一夜夜www| av网站在线播放免费| 丝袜美足系列| 大型黄色视频在线免费观看| 亚洲第一av免费看| 露出奶头的视频| 老司机福利观看| 国产免费男女视频| 涩涩av久久男人的天堂| 黑丝袜美女国产一区| x7x7x7水蜜桃| 成人精品一区二区免费| 女人高潮潮喷娇喘18禁视频| 国产有黄有色有爽视频| 国产人伦9x9x在线观看| 飞空精品影院首页| 狠狠婷婷综合久久久久久88av| 国产高清国产精品国产三级| 丰满饥渴人妻一区二区三| 天堂动漫精品| 亚洲欧美激情综合另类| 免费日韩欧美在线观看| 国产xxxxx性猛交| 成人手机av| 日日夜夜操网爽| 大型黄色视频在线免费观看| 国产成人精品在线电影| 两人在一起打扑克的视频| netflix在线观看网站| 亚洲欧美色中文字幕在线| 中文字幕另类日韩欧美亚洲嫩草| 精品午夜福利视频在线观看一区| 欧美激情久久久久久爽电影 | 亚洲精品久久午夜乱码| 国产精品综合久久久久久久免费 | а√天堂www在线а√下载 | 女人被躁到高潮嗷嗷叫费观| 老汉色av国产亚洲站长工具| 亚洲成a人片在线一区二区| 午夜福利影视在线免费观看| 一区二区日韩欧美中文字幕| 国产成人av教育| 亚洲精品国产区一区二| 国产精品久久视频播放| 黄色成人免费大全| 亚洲精华国产精华精| 两性午夜刺激爽爽歪歪视频在线观看 | 黑丝袜美女国产一区| 国产精品电影一区二区三区 | 热re99久久国产66热| 99在线人妻在线中文字幕 | 99精国产麻豆久久婷婷| 亚洲av成人一区二区三| 黄色视频,在线免费观看| 在线观看免费高清a一片| 99在线人妻在线中文字幕 | 欧美激情高清一区二区三区| 高潮久久久久久久久久久不卡| 极品少妇高潮喷水抽搐| 亚洲一区高清亚洲精品| 丁香欧美五月| 欧美黄色淫秽网站| 国产野战对白在线观看| 国产精品亚洲av一区麻豆| 亚洲少妇的诱惑av| 国产精品亚洲av一区麻豆| 国产男靠女视频免费网站| 99久久国产精品久久久| 亚洲伊人色综图| 中亚洲国语对白在线视频| 在线国产一区二区在线| 亚洲伊人色综图| 久久久久久久午夜电影 | 午夜老司机福利片| 亚洲精品国产色婷婷电影| 国产成+人综合+亚洲专区| 午夜视频精品福利| 老汉色av国产亚洲站长工具| 首页视频小说图片口味搜索| 亚洲欧美一区二区三区久久| 亚洲伊人色综图| 国产亚洲精品久久久久5区| 国产成人啪精品午夜网站| 一边摸一边做爽爽视频免费| 1024香蕉在线观看| 久久性视频一级片| 一级毛片高清免费大全| 久久人人97超碰香蕉20202| cao死你这个sao货| 中文字幕av电影在线播放| 国产成人系列免费观看| 一进一出抽搐动态| 黑人操中国人逼视频| 午夜福利乱码中文字幕| 一区在线观看完整版| 久久 成人 亚洲| 亚洲少妇的诱惑av| 在线观看午夜福利视频| 精品卡一卡二卡四卡免费| 他把我摸到了高潮在线观看| 午夜精品久久久久久毛片777| 国产精品1区2区在线观看. | 高清毛片免费观看视频网站 | 可以免费在线观看a视频的电影网站| 777久久人妻少妇嫩草av网站| 宅男免费午夜| 午夜精品在线福利| 亚洲情色 制服丝袜| 午夜影院日韩av| 一区二区三区精品91| 国产激情欧美一区二区| 午夜福利欧美成人| a在线观看视频网站| 咕卡用的链子| 午夜福利一区二区在线看| x7x7x7水蜜桃| 97人妻天天添夜夜摸| 久久久水蜜桃国产精品网| 久久精品国产99精品国产亚洲性色 | 成年人免费黄色播放视频| 国产激情欧美一区二区| 老司机影院毛片| 91九色精品人成在线观看| 国产精品av久久久久免费| 高清欧美精品videossex| 久久精品国产亚洲av高清一级| 一边摸一边抽搐一进一出视频| 精品福利永久在线观看| 久久香蕉精品热| 午夜精品在线福利| www.自偷自拍.com| 狂野欧美激情性xxxx| 精品国产一区二区三区四区第35| 国产片内射在线| 亚洲视频免费观看视频| 精品久久久久久久久久免费视频 | 成人免费观看视频高清| 好看av亚洲va欧美ⅴa在| 国内毛片毛片毛片毛片毛片| 色老头精品视频在线观看| 老鸭窝网址在线观看| 亚洲欧美日韩另类电影网站| 久久久国产成人免费| 久久人人97超碰香蕉20202| 日本撒尿小便嘘嘘汇集6| 十八禁网站免费在线| 精品久久久久久久久久免费视频 | 久久人妻熟女aⅴ| a级毛片黄视频| 一边摸一边抽搐一进一小说 | 免费观看a级毛片全部| 国产高清视频在线播放一区| 国产麻豆69| 天天躁狠狠躁夜夜躁狠狠躁| www.熟女人妻精品国产| 男女床上黄色一级片免费看| 一区二区三区国产精品乱码| 男女之事视频高清在线观看| 亚洲精品一卡2卡三卡4卡5卡| 男人的好看免费观看在线视频 | 91精品三级在线观看| 国产成人av激情在线播放| 精品人妻熟女毛片av久久网站| 一级毛片高清免费大全| 国产亚洲精品久久久久5区| 好看av亚洲va欧美ⅴa在| 精品免费久久久久久久清纯 | 操出白浆在线播放| 在线视频色国产色| 成人18禁在线播放| 99在线人妻在线中文字幕 | 色精品久久人妻99蜜桃| 飞空精品影院首页| 亚洲一区高清亚洲精品| 精品人妻在线不人妻| 国产精品免费大片| 国产精品国产av在线观看| 成人18禁高潮啪啪吃奶动态图| 99re6热这里在线精品视频| 中文字幕高清在线视频| 最近最新中文字幕大全免费视频| 成人特级黄色片久久久久久久| 成人黄色视频免费在线看| www.自偷自拍.com| 男人操女人黄网站| 亚洲午夜精品一区,二区,三区| 露出奶头的视频| 人人妻人人添人人爽欧美一区卜| 久久精品熟女亚洲av麻豆精品| 日本vs欧美在线观看视频| 动漫黄色视频在线观看| 黄频高清免费视频| 国精品久久久久久国模美| 国产不卡一卡二| 久99久视频精品免费| 动漫黄色视频在线观看| 精品福利永久在线观看| 亚洲av片天天在线观看| 人妻 亚洲 视频| a在线观看视频网站| 国产激情欧美一区二区| 他把我摸到了高潮在线观看| 亚洲第一欧美日韩一区二区三区| 国产在线一区二区三区精| 久99久视频精品免费| 精品国产超薄肉色丝袜足j| 免费看十八禁软件| 在线十欧美十亚洲十日本专区| 人人妻人人澡人人爽人人夜夜| 国产99久久九九免费精品| 精品国产美女av久久久久小说| 国产精品欧美亚洲77777| 国产淫语在线视频| 国产单亲对白刺激| 在线视频色国产色| 国产97色在线日韩免费| 精品人妻1区二区| 免费在线观看亚洲国产| 99久久人妻综合| 久久这里只有精品19| 黑人巨大精品欧美一区二区蜜桃| 国产国语露脸激情在线看| 免费在线观看影片大全网站| 亚洲成国产人片在线观看| 91麻豆精品激情在线观看国产 | 免费在线观看影片大全网站| 老司机午夜福利在线观看视频| 亚洲第一青青草原| 亚洲欧美一区二区三区久久| 在线观看午夜福利视频| 国产精品影院久久| 色尼玛亚洲综合影院| 成年人免费黄色播放视频| av不卡在线播放| 91国产中文字幕| 国产男靠女视频免费网站| av一本久久久久| 欧美日韩中文字幕国产精品一区二区三区 | 久久精品成人免费网站| 伊人久久大香线蕉亚洲五| 欧美另类亚洲清纯唯美| 欧美激情极品国产一区二区三区| 成年人午夜在线观看视频| 国产欧美日韩一区二区精品| 搡老岳熟女国产| 黄色丝袜av网址大全| 男女床上黄色一级片免费看| 亚洲色图综合在线观看| 女人久久www免费人成看片| 国产在线精品亚洲第一网站| 精品视频人人做人人爽| 亚洲精品乱久久久久久| 精品亚洲成a人片在线观看| 国产极品粉嫩免费观看在线| 黄色 视频免费看| 在线观看免费日韩欧美大片| 亚洲午夜精品一区,二区,三区| 国内毛片毛片毛片毛片毛片| 亚洲色图综合在线观看| 天堂动漫精品| 亚洲精品av麻豆狂野| 亚洲中文av在线| 久久人人爽av亚洲精品天堂| 久久天堂一区二区三区四区| 校园春色视频在线观看| 精品亚洲成a人片在线观看| 欧美丝袜亚洲另类 | 男男h啪啪无遮挡| 国产精品一区二区在线观看99| 国产成+人综合+亚洲专区| 久久久久久久精品吃奶| 一级a爱视频在线免费观看| 国产精华一区二区三区| 亚洲国产欧美日韩在线播放| 久9热在线精品视频| 老熟妇仑乱视频hdxx| 免费不卡黄色视频| 欧美在线黄色| 国产片内射在线| 精品人妻熟女毛片av久久网站| 啦啦啦视频在线资源免费观看| 免费高清在线观看日韩| 高清欧美精品videossex| 精品国产一区二区三区久久久樱花| 91大片在线观看| 日本精品一区二区三区蜜桃| 成人精品一区二区免费| 久久99一区二区三区| 亚洲成人免费电影在线观看| 欧美日韩视频精品一区| 老熟妇仑乱视频hdxx| e午夜精品久久久久久久| 天天影视国产精品| 国产精品 欧美亚洲| 国产精品国产av在线观看| 亚洲情色 制服丝袜| 日韩三级视频一区二区三区| 色综合婷婷激情| 天堂中文最新版在线下载| 精品福利观看| 久久午夜亚洲精品久久| 久久精品国产a三级三级三级| 首页视频小说图片口味搜索| 精品视频人人做人人爽| 久久午夜综合久久蜜桃| 成年人免费黄色播放视频| 91九色精品人成在线观看| 亚洲av熟女| 国产乱人伦免费视频| 国产熟女午夜一区二区三区| 老熟女久久久| 丰满人妻熟妇乱又伦精品不卡| 99国产综合亚洲精品| 不卡一级毛片| 法律面前人人平等表现在哪些方面| 精品久久久久久久毛片微露脸| 激情视频va一区二区三区| 老司机福利观看| 国产成人精品在线电影| 老熟妇乱子伦视频在线观看| 制服诱惑二区| 波多野结衣av一区二区av| 黄色丝袜av网址大全| 五月开心婷婷网| 99精品久久久久人妻精品| 免费在线观看日本一区| 美女高潮到喷水免费观看| 美国免费a级毛片| 亚洲一区二区三区欧美精品| 午夜精品国产一区二区电影| 在线av久久热| av视频免费观看在线观看| 免费在线观看日本一区| 久久中文字幕人妻熟女| 亚洲欧美激情在线| 国产成人一区二区三区免费视频网站| 精品一区二区三卡| 欧美久久黑人一区二区| 黄片小视频在线播放| 欧美日韩国产mv在线观看视频| 国产精品九九99| 正在播放国产对白刺激| 91成年电影在线观看| 亚洲精品成人av观看孕妇| 性少妇av在线|