• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于CGDNN的低信噪比自動(dòng)調(diào)制識別方法

    2024-08-15 00:00:00周順勇陸歡胡琴彭梓洋張航領(lǐng)

    摘 要:針對非協(xié)作通信環(huán)境中,自動(dòng)調(diào)制識別(automatic modulation recognition,AMR)在低信噪比下泛化能力有限、分類精度不高的問題,提出一種由卷積神經(jīng)網(wǎng)絡(luò)、門控循環(huán)單元和深度神經(jīng)網(wǎng)絡(luò)組成的模型—CGDNN(convolutional gated recurrent units deep neural networks)。首先對I/Q采樣信號進(jìn)行小波閾值去噪,降低噪聲對信號調(diào)制識別的影響;然后用CNN和GRU提取信號空間和時(shí)間特征;最后,通過全連接層進(jìn)行識別分類。與其他模型對比,驗(yàn)證CGDNN模型在提高AMR性能的同時(shí),顯著降低了計(jì)算復(fù)雜度。實(shí)驗(yàn)結(jié)果顯示,CGDNN模型在RML2016.10b數(shù)據(jù)集上的平均識別準(zhǔn)確率達(dá)到了64.32%,提高了-12 dB~0 dB的信號分類精度,該模型大幅減少了16QAM與64QAM的混淆程度,在18 dB時(shí)達(dá)到了93.9%的最高識別準(zhǔn)確率。CGDNN模型既提高了低信噪比下AMR的識別準(zhǔn)確率,也提高了模型訓(xùn)練的效率。

    關(guān)鍵詞:自動(dòng)調(diào)制識別; 小波閾值去噪; 卷積神經(jīng)網(wǎng)絡(luò); 門控循環(huán)單元; 深度神經(jīng)網(wǎng)絡(luò)

    中圖分類號:TN92 文獻(xiàn)標(biāo)志碼:A

    文章編號:1001-3695(2024)08-034-2489-07

    doi:10.19734/j.issn.1001-3695.2023.11.0581

    Low signal-to-noise ratio automatic modulationrecognition method based on CGDNN

    Zhou Shunyonga,b, Lu Huana,b, Hu Qina,b, Peng Ziyanga,b, Zhang Hanglinga,b

    (a.School of Automation & Information Engineering, b.Artificial Intelligence Key Laboratory of Sichuan Province, Sichuan University of Science &; Engineering, Yibin Sichuan 644000, China)

    Abstract:To overcome AMR’s limited generalization and low classification accuracy in non-cooperative communication contexts with low signal-to-noise ratio, this paper proposed a model named CGDNN,which integrated CNN, GRU and deep neural networks. To mitigate noise impact on modulation detection, this paper initially denoised I/Q sampled signal using wavelet thresholding. Subsequently, this paper utilized CNN and GRU for extracting spatial and temporal features from signals before proceeding to classification through fully connected layers. Besides enhancing AMR performance, the CGDNN model significantly reduced computational complexity compared to competitors. Experiment results demonstrate an average recognition accuracy of 64.32% on the RML2016.10b dataset, with an enhancement in signal classification accuracy from -12 dB to 0 dB. Moreover, the model substantially decreased confusion between 16QAM and 64QAM, achieving a peak recognition accuracy of 93.9% at 18 dB. CGDNN model effectively improved AMR detection accuracy under low signal-to-noise ratio conditions and enhanced model training efficiency.

    Key words:automatic modulation recognition; wavelet threshold denoising; convolutional neural networks; gated recurrent unit; deep neural network

    0 引言

    自動(dòng)調(diào)制識別通過對發(fā)射信號源采用的通信技術(shù)和調(diào)制方案進(jìn)行識別分類,以此分析檢測到的無線電信號并獲取相關(guān)有效信息。因此,自動(dòng)調(diào)制識別使得接收機(jī)在非合作通信場景下自動(dòng)識別信號調(diào)制方案成為可能,并廣泛應(yīng)用于軍事和民用領(lǐng)域,例如無線電頻譜檢測[1]、認(rèn)知無線電[2]和自適應(yīng)調(diào)制器。它作為信號檢測和解調(diào)之間的橋梁,能夠?qū)邮招盘栒{(diào)制類型進(jìn)行調(diào)制模式識別。

    傳統(tǒng)的機(jī)器調(diào)制識別的方法分為基于似然(likelihood-based,LB)的方法和基于特征(feature-based,F(xiàn)B)的方法[3]。LB方法通過評估接收信號的似然函數(shù)并將似然比與預(yù)定義的閾值比較來作出決策,最大限度地減少了錯(cuò)誤分類的概率,但其計(jì)算復(fù)雜度很高[3];FB方法通過仔細(xì)選擇手工制作的特征,利用機(jī)器學(xué)習(xí)算法進(jìn)行分類,可以實(shí)現(xiàn)接近最佳的性能。這種方法可以在特定任務(wù)中取得高精度,但在一般情況下可能面臨挑戰(zhàn),因?yàn)槭謩?dòng)設(shè)計(jì)的特征無法全面反映各種現(xiàn)實(shí)世界通信信道的影響。

    較早的信號調(diào)制模式識別主要采用人工識別的方法,利用相關(guān)儀器人工觀察和判斷信號的時(shí)頻域特性。但這種方法依賴于研究人員的專業(yè)知識水平和識別經(jīng)驗(yàn),無法保證調(diào)制識別的準(zhǔn)確度。尤其是在信噪比較低的情況下,存在信號與噪聲難以區(qū)分、多路徑干擾等原因,使信號的質(zhì)量下降,接收端的信號變得模糊,難以正確解調(diào)和識別。

    目前,深度學(xué)習(xí)(deep learning,DL)在自然語言處理、計(jì)算機(jī)視覺和機(jī)器人[4]等各應(yīng)用領(lǐng)域取得了巨大的成功。與傳統(tǒng)方法相比,應(yīng)用在AMR方法的DL在識別精度和復(fù)雜性方面表現(xiàn)出了更高的性能。O’Shea等人[5]首次將DL應(yīng)用在AMR中,提出卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN),顯示出了CNN對復(fù)值時(shí)間無線電信號域的適應(yīng)及改進(jìn)性能,證明了CNN在低信噪比下對大型且密集編碼的時(shí)間序列進(jìn)行盲時(shí)間學(xué)習(xí)是可行的。Daldal等人[6]提出將深度長短期記憶網(wǎng)絡(luò)(long short-term memory network,LSTM)模型應(yīng)用于數(shù)字調(diào)制信號。West等人[7]應(yīng)用卷積長期短期深度神經(jīng)網(wǎng)絡(luò)(CLDNN),十分有效地提高了識別精度。Huang等人[8]通過門控循環(huán)單元(gated recurrent unit,GRU)獲取信號時(shí)間信息并擴(kuò)展信號特征維度,以得到滿意的分類性能。

    近年來,DL在AMR領(lǐng)域取得了重大進(jìn)展。在高信噪比下,現(xiàn)有的AMR模型獲取了高識別精度,在AMR模型之前應(yīng)用信號去噪算法是提高AMR性能的方法之一[9],但信道環(huán)境的復(fù)雜性和多種噪聲特性使得AMR在低信噪比下分類精度很難提高,導(dǎo)致了低信噪比下的調(diào)制識別充滿挑戰(zhàn)。因此,本文提出了一種結(jié)合小波變換和DL的CNN、GRU及DNN(deep neural network)組成AMR模型,來通過基于小波變換的自適應(yīng)閾值實(shí)現(xiàn)對輸入信號的去噪,再使用CGDNN對調(diào)制信號進(jìn)行識別,顯著提高低信噪比下的識別準(zhǔn)確性。

    1 信號模型與小波去噪

    1.1 信號模型

    無線通信系統(tǒng)一般包括發(fā)射機(jī)、信道和接收機(jī),如圖1所示。本文考慮的是單輸入單輸出通信系統(tǒng)(SISO),接收信號r(t)表示為

    r(t)=s(t)c(t)+n(t)(1)

    其中:s(t)表示發(fā)射信號;表示卷積運(yùn)算;c(t)是發(fā)射無線信道的時(shí)變脈沖響應(yīng),如式(2)所示;n(t)表示信道干擾,指均值為零的加性高斯白噪聲(AWGN)。

    c(t)=aδ(t-τ)(2)

    其中:a是信號幅度;δ表示脈沖函數(shù);t是時(shí)間間隔;τ表示信道多徑延遲。

    模數(shù)轉(zhuǎn)換器以fs=1/Ts的速率對接收信號r(t)進(jìn)行n次采樣,生成離散時(shí)間觀測信號r(n)。離散信號r(n)分解為同相分量rI(n)和正交分量rQ(n),信號表示為

    r(n)=rI(n)+j×rQ(n)(3)

    其中:j表示虛數(shù)單位,即j2=-1。

    式(4)描述了現(xiàn)實(shí)世界中真實(shí)環(huán)境的各種因素,表示為

    r(t)=ejnLo(t)∫τ0τ=0(s(nClk(t-τ))h(τ)+nAdd(t))dt(4)

    其中:nLo是殘余載波隨機(jī)游走過程;nClk是隨機(jī)游走重采樣;h(t-τ)表示時(shí)間相關(guān)的非恒定信道脈沖響應(yīng);nAdd(t)是可能添加的噪聲,包括AWGN或其他噪聲[5]。

    接收信號r(t)在AMR中通常處理為IQ分量來表達(dá)信號,IQ分量表示為

    I=A cos φQ=A sin φ(5)

    其中:A表示接收信號r(t)是瞬時(shí)幅度;φ是相位。

    自動(dòng)調(diào)制識別對接受到的無線通信信號的調(diào)制方式進(jìn)行分類,本質(zhì)上是一個(gè)多分類任務(wù)[10]。調(diào)制分類主要是識別接收信號的特征信息并確定其調(diào)制類型。調(diào)制識別算法一般是根據(jù)設(shè)定模型的速度和識別準(zhǔn)確性來評估的?,F(xiàn)有的AMR方法一般是在高信噪比的條件下實(shí)現(xiàn)高精度,但這與現(xiàn)實(shí)環(huán)境不符。在低信號電平下,基于深度學(xué)習(xí)的AMR會因?yàn)楦鞣N背景噪聲而大大增加對調(diào)制分類的難度,例如頻率選擇性衰落、本地振蕩器偏移、多普勒偏移、加性高斯白噪聲、脈沖噪聲、同信道干擾等。因此,對低信噪比下的調(diào)制識別分類是一項(xiàng)具有挑戰(zhàn)性的任務(wù)。本文為了提升低信噪比下的準(zhǔn)確性,使其更加接近現(xiàn)實(shí)環(huán)境,在原始信號中加入小波域去噪,從而降低噪聲對調(diào)制分類的影響。

    1.2 小波去噪

    Donoho[11]提出小波閾值去噪算法,通過選定的閾值函數(shù)修改信號的小波分解系數(shù)來消除信號噪聲。原始信號經(jīng)過小波分解,能量分布在少數(shù)小波系數(shù)上,這些小波系數(shù)顯著地分布在各個(gè)分解尺度上[12]。然后對小波變換后的小波系數(shù)進(jìn)行變換,選擇軟閾值去噪算法,通過自適應(yīng)地選擇閾值函數(shù)對信號進(jìn)行去噪。最后對處理后的小波系數(shù)進(jìn)行小波逆變換,重新合成去噪后的信號。算法流程如圖2所示。

    考慮一個(gè)信號xi,含高斯隨機(jī)噪聲zi~N(0,σ2),其噪聲信號表示為

    yi=xi+zi i=0,1,…,N-1(6)

    在噪聲信號yi中,找到原始信號xi的近似值i,從而最小化均方誤差。

    ‖x-‖1N∑N-1i=0xi-i2(7)

    其中:x=[x0…xN-1]T及=[0…N-1]T。令W表示正交小波變換,式(6)可以寫成

    dj=cj+εj(8)

    那么d=Wy,c=Wx及ε=Wz?;谛〔ㄩ撝等ピ氲倪^程表示為

    u=Wy=D(u,λ)=W-1()(9)

    小波變換可以通過多尺度變換在時(shí)域和頻域上顯示信號的特征,連續(xù)小波變換W方程表示為

    WT(a,τ)=1a∫∞-∞f(t)·ψ(t-τa)dt(10)

    其中:a為尺度參數(shù),控制小波函數(shù)的縮放;τ為平移參數(shù),反映了某一時(shí)刻的信號信息;f(t)為原始信號。

    離散小波變換是將連續(xù)小波變換離散化,從而找到相互正交的基函數(shù),通過離散小波變換,將原始信號分解為低頻分量和高頻分量兩個(gè)部分。通過低通濾波器的信號系數(shù)稱為近似分量,而高通濾波器的系數(shù)稱為細(xì)節(jié)分量。近似分量包含原始信號的大部分能量,對細(xì)節(jié)分量進(jìn)行閾值處理可以減少信號中的噪聲,通過逐層分解,以獲取不同尺度上的信號。因子a對信號進(jìn)行采樣,對應(yīng)相應(yīng)尺度變化。離散小波變換方程表示為

    f(x)=1N[Tφ(0,0)φ0,0(x)+∑J-1j=0∑2j-1k=0Tψ(j,k)ψj,k(x)](11)

    其中:Tφ(0,0)和Tψ(j,k)分別表示近似系數(shù)和細(xì)節(jié)系數(shù),表示為

    Tφ(0,0)=〈f(x),φ0,0(x)〉=1N∑N-1x=0f(x)φ(x)(12)

    Tψ (j,k)=〈f(x),ψj,k (x)〉=1N∑N-1x=0f(x)ψ*j,k (x)(13)

    通過小波變換得到含噪信號y的小波系數(shù)u,考慮到多貝西小波(Daubechies wavelet)主要應(yīng)用在離散型的小波轉(zhuǎn)換,其不但可以去除信號噪聲,并且該小波作為稀疏基引入的光滑誤差不易被察覺,使得小波重構(gòu)過程中得到的信號比較光滑。因此小波基函數(shù)選擇“Db6”,即小波階數(shù)為6的緊支集正交小波,然后通過正交小波進(jìn)行非線性去噪運(yùn)算得到去噪后的小波系數(shù),λ表示閾值,根據(jù)自適應(yīng)的閾值應(yīng)用于小波系數(shù)上,再將其傳遞給閾值函數(shù)。最后進(jìn)行小波逆變換W-1獲得估計(jì)值。

    選擇合適的閾值函數(shù)和閾值大小是小波閾值去噪的關(guān)鍵問題。小波閾值函數(shù)最常見的是硬閾值函數(shù)和軟閾值函數(shù)。硬閾值通過比較小波系數(shù)的絕對值與一個(gè)給定的閾值,將小于閾值的系數(shù)置零,而將大于閾值的系數(shù)保持不變,但這意味著硬閾值去噪完全消除了那些被認(rèn)為是噪聲的小波系數(shù),而保留了那些被認(rèn)為是信號的系數(shù),這可能會導(dǎo)致信號在去噪后出現(xiàn)較多失真,從而丟失一些信息;軟閾值函數(shù)在硬閾值的基礎(chǔ)上引入平滑過渡,對于小于閾值的系數(shù),軟閾值去噪將其減小到零,并對大于閾值的系數(shù)進(jìn)行縮放,這樣可以更好地保留信號的主要特征并減少失真,得到整體連續(xù)性較好的小波系數(shù)[13]。因此,本文選擇軟閾值函數(shù)進(jìn)行去噪,其表達(dá)式為

    uλ=[sign(u)](u-λ) u≥λ

    0 u<λ(14)

    其中:sign為符號函數(shù);u是小波系數(shù)的值;uλ是小波系數(shù)設(shè)定的閾值。實(shí)驗(yàn)采用自適應(yīng)閾值的方法,其工作機(jī)制是根據(jù)不同信噪比調(diào)整閾值大小,并通過不同的噪聲效應(yīng)來選擇閾值。當(dāng)信號相對較強(qiáng)時(shí),選擇的閾值較小,以保留更多細(xì)節(jié);當(dāng)信號較弱時(shí),閾值選擇較大,以減小噪聲的影響。將設(shè)定的小波閾值去噪算法運(yùn)用在各種調(diào)制信號上以消除其噪聲的影響,圖3展示了不同調(diào)制信號在信噪比為-2 dB條件下原始信號示例與去噪之后的效果。

    2 AMR模型

    本文提出了一種基于DL的AMR網(wǎng)絡(luò)模型—CGDNN,由卷積神經(jīng)網(wǎng)絡(luò)、門控循環(huán)單元及全連接深度神經(jīng)網(wǎng)絡(luò)組成。首先通過flatten層和dense層組成的神經(jīng)網(wǎng)絡(luò)對I/Q樣本進(jìn)行參數(shù)估計(jì)得到相位參數(shù),并利用lambda層和multiply層對參數(shù)進(jìn)行變換得到輸出。然后將變換后的參數(shù)數(shù)據(jù)作為CGDNN的輸入,具有64個(gè)濾波器的CNN對信號I/Q序列進(jìn)行空間特征提取,128個(gè)單元的GRU對信號I/Q序列進(jìn)行時(shí)間特征提取,最后分類由dense層完成,其隱藏神經(jīng)元數(shù)量與調(diào)制方式數(shù)量一致。CGDNN結(jié)構(gòu)框架如圖4所示。

    2.1 參數(shù)估計(jì)與變換

    在前面信號模型中所提到的采樣I/Q樣本受各種通道噪聲干擾,以及不完善的硬件條件的影響,這些都可能會導(dǎo)致接收信號的時(shí)間移位、線性混合和旋轉(zhuǎn)[14]。為了降低這些不利因素的影響,在文獻(xiàn)[14]的啟發(fā)下,通過對I/Q信號數(shù)據(jù)進(jìn)行參數(shù)估計(jì)和參數(shù)變換以提取相位偏移信息,并對相位參數(shù)進(jìn)行變換,調(diào)整信號的特征使問題變得更簡單。在選擇性地去除或減弱不必要部分的同時(shí)突出信號特征,使其更容易分析,以此提高調(diào)制識別準(zhǔn)確率。

    flatten層對輸入信號尺寸為2×128的I/Q樣本展平為一維張量,來滿足dense層的輸入維度,dense層對張量中的數(shù)據(jù)進(jìn)行相關(guān)線性變換以得到相位參數(shù)。通過自定義層進(jìn)行參數(shù)變換,應(yīng)用lambda層對得到的相位參數(shù)調(diào)用函數(shù)計(jì)算其余弦值和正弦值,multiply層對輸入信號和之前所得的余弦和正弦進(jìn)行逐元素相乘,再利用add層和subtract層對相乘的結(jié)果進(jìn)行逐元素相加和相減,將所得結(jié)果連接并打印為張量作為CGDNN結(jié)構(gòu)的輸入。

    2.2 卷積神經(jīng)網(wǎng)絡(luò)

    CNN作為一種前饋神經(jīng)網(wǎng)絡(luò),由多層神經(jīng)網(wǎng)絡(luò)組成,其神經(jīng)元可以響應(yīng)周圍單元的部分覆蓋,在局部特征提取方面具有明顯的優(yōu)勢。CNN主要由卷積層和池化層等結(jié)構(gòu)組成。卷積層作為CNN的基本組成,使用卷積濾波器從輸入數(shù)據(jù)中提取信號空間特征,其目的是學(xué)習(xí)特征并與可學(xué)習(xí)內(nèi)核進(jìn)行卷積,卷積運(yùn)算可以表示為

    X(i,j)=∑m∑nx(m+i,n+i)ω(m,n)+b(15)

    其中:X(i,j)表示卷積輸出;x是輸入矩陣;ω是大小為m×n的權(quán)重矩陣;b為偏置。

    在實(shí)驗(yàn)中提出的CGDNN模型,一共包含兩個(gè)卷積模塊,即Conv2D(64)和Conv2D(15)。第一個(gè)卷積模塊對應(yīng)組成為64個(gè)2×8卷積核,以提取信息的空間特征,且使用零填充,使輸入和輸出的特征圖大小相同。第二個(gè)卷積模塊由15個(gè)1×5的卷積核構(gòu)成,以進(jìn)一步壓縮提取的特征,同樣使用零填充,保持其特征圖高度不變,對其卷積層的輸出進(jìn)行批量歸一化處理。兩個(gè)卷積模塊都使用了修正線性單元激活函數(shù)ReLU,通過引入非線性變換,增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力。批量歸一化層(batch normalization,BN)對每個(gè)批次的特征進(jìn)行歸一化處理,減少了內(nèi)部協(xié)變量偏移,在訓(xùn)練期間不斷改變特征分布,提高了網(wǎng)絡(luò)模型的泛化能力。在第一個(gè)卷積模塊中加入的最大池化層減小了特征圖的空間大小,將每個(gè)區(qū)域中最顯著特征提取出來,同時(shí)減少了模型參數(shù)數(shù)量。

    2.3 門控循環(huán)單元

    GRU是循環(huán)神經(jīng)網(wǎng)絡(luò)中一種改進(jìn)結(jié)構(gòu),通過引入“門”機(jī)制和記憶單元,檢測調(diào)制信號序列內(nèi)的時(shí)間變化,具有學(xué)習(xí)長期依賴關(guān)系的能力。其基本結(jié)構(gòu)如圖5所示。

    圖中各種分量的計(jì)算式表示為

    更新門:zt=σ(Wzxt+Rzht-1+bz)(16)

    重置門:rt=σ(Wrxt+Rrht-1+br)(17)

    隱藏狀態(tài):t=tanh(Whxt+Rh(rtht-1)+bh)(18)

    輸出門:ht=(1-zt)ht-1+ztt(19)

    其中:σ表示信號激活函數(shù);矩陣W、R和b分別是輸入權(quán)重、循環(huán)權(quán)重和每個(gè)分量的偏差的集合。其中更新門可以更新信息和隱藏層的狀態(tài),在保證網(wǎng)絡(luò)精度的同時(shí)減少了網(wǎng)絡(luò)參數(shù)。

    實(shí)驗(yàn)設(shè)計(jì)的GRU層提取128個(gè)單元的信號時(shí)間特征,GRU作為序列模型循環(huán)神經(jīng)網(wǎng)絡(luò)的一種變體,能夠有效地提取序列數(shù)據(jù)的時(shí)間相關(guān)性特征,具有抵抗梯度爆炸和消失的優(yōu)點(diǎn)。在模型中,對GRU層的輸出進(jìn)行批量歸一化后提高模型穩(wěn)定性,再利用全局平均池化層將時(shí)間序列維度降至1,通過減少特征圖的維度,從而減少了模型的參數(shù)數(shù)量,降低了計(jì)算成本。同時(shí)應(yīng)用了非線性激活函數(shù)—高斯誤差線性單元GELU,允許網(wǎng)絡(luò)學(xué)習(xí)復(fù)雜的非線性關(guān)系。

    2.4 全連接層

    CGDNN模型的分類層由dense層和softmax組成,通過dense層完成調(diào)制信號的分類識別,其激活函數(shù)設(shè)置為softmax,將輸出轉(zhuǎn)換為類別的概率分布。dense層實(shí)際是一個(gè)卷積層,主要利用卷積核和偏置的初始化以提高網(wǎng)絡(luò)的性能和收斂效果,對其進(jìn)行正則化處理防止過擬合,從而更好地適應(yīng)訓(xùn)練數(shù)據(jù)。其中使用偏置的作用是增加模型的靈活性,同時(shí)也增加dense層每個(gè)神經(jīng)元的可學(xué)習(xí)參數(shù)數(shù)量,以提高模型的表達(dá)能力。

    算法1為基于深度學(xué)習(xí)的AMR算法的偽代碼實(shí)現(xiàn)過程。其輸入為張量形狀大小2×128的信號I/Q樣本,輸出為調(diào)制識別的分類結(jié)果。首先對輸入數(shù)據(jù)進(jìn)行參數(shù)估計(jì)與參數(shù)變換來突出信號特征,同時(shí),定義了兩個(gè)卷積模塊和GRU網(wǎng)絡(luò)層,分別用以提取信號的空間特征和時(shí)間特征,最后通過dense層完成調(diào)制分類。

    算法1 基于深度學(xué)習(xí)AMR算法

    輸入:主輸入張量形狀大小為2×128,附加輸入張量形狀大小為1×128。

    輸出:分類結(jié)果。

    # 輸入?yún)?shù)估計(jì)

    x1=Flatten() //I/Q信號樣本展平為一維張量

    x1=Dense(activation="linear") //進(jìn)行線性變換得到相位參數(shù)

    # 參數(shù)變換

    cos1=Lambda(cos)(x1)

    sin1=Lambda(sin)(x1) //計(jì)算余弦和正弦值

    x11=逐元素乘法操作(input1, cos1)

    x12=逐元素乘法操作(input2, sin1)

    x21=逐元素乘法操作(input2, cos1)

    x22=逐元素乘法操作(input1, sin1) /*分別對兩個(gè)維度應(yīng)用余弦和正弦變換*/

    y1=Add(x11, x12)

    y2=Subtract(x21, x22)

    x33=Concatenate(y1, y2) //拼接

    define block1: //提取空間特征

    XCV=Conv2D(x)

    XBN=BatchNorm(XCV)

    Xmax=MaxPool2D(XBN)

    end define

    define block2: //提取空間特征

    XCV=Conv2D(Xmax)

    XBN=BatchNorm(XCV)

    return XBN

    end define

    define GRU: //提取時(shí)間特征

    XGRU=CuDNNGRU(x)

    XBN=BatchNorm(XGRU)

    XGELU=GELU(XBN)

    return XGELU

    end define

    begin:

    step1:

    輸入?yún)?shù)估計(jì)

    step2:

    x3=Block1(x33)

    x3=Block2(x3)

    step3:

    x4=GRU(x3)

    step4:

    x5=Dense(x4)

    return x5 //輸出分類結(jié)果

    end

    2.5 激活函數(shù)

    激活函數(shù)能夠提高網(wǎng)絡(luò)的非線性能力,表1提供了網(wǎng)絡(luò)模型中所用的激活函數(shù),如線性單元ReLU、高斯誤差線性單元GELU和softmax。在CNN結(jié)構(gòu)中使用了整流線性激活函數(shù)ReLU,以加快收斂速度。該激活函數(shù)能解決網(wǎng)絡(luò)中梯度消失的問題,從而極大地提高網(wǎng)絡(luò)的正確性。該函數(shù)是一個(gè)分段線性函數(shù),只保留正數(shù)部分,其具有一個(gè)理想特性,即在經(jīng)過ReLU激活后表現(xiàn)為稀疏狀態(tài),其優(yōu)越性能就來源于這種稀疏性[15]。ReLU函數(shù)產(chǎn)生的負(fù)值會被稀疏,并且這種稀疏性呈動(dòng)態(tài)變化趨勢。在進(jìn)行梯度訓(xùn)練時(shí),網(wǎng)絡(luò)會通過自動(dòng)調(diào)節(jié)稀疏比率,以確保激活數(shù)據(jù)中存在合理數(shù)量的非零值。這樣的處理將復(fù)雜特征轉(zhuǎn)換為稀疏特征,從而使這一部分特征更具有魯棒性。

    GELU作為一種基于高斯誤差函數(shù)的激活函數(shù),相較于激活函數(shù)ReLU更加平滑,在梯度傳播中也更加穩(wěn)定,因此更容易收斂于訓(xùn)練過程。其引入的非線性變換使得網(wǎng)絡(luò)能學(xué)習(xí)更復(fù)雜的映射,從而能夠更好地提高訓(xùn)練性能。GELU通過非線性輸入進(jìn)行加權(quán),而ReLU對輸入進(jìn)行門控[16]。這里的兩種激活函數(shù)都很少出現(xiàn)梯度消失的現(xiàn)象,因此,能更好地支持深層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化。softmax激活函數(shù)將上一層的數(shù)據(jù)進(jìn)行歸一化,對其進(jìn)行多分類的目標(biāo)預(yù)測,使得模型在訓(xùn)練過程中學(xué)習(xí)適當(dāng)?shù)臋?quán)重。

    2.6 模型復(fù)雜度

    通過計(jì)算神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的參數(shù)總數(shù)來衡量模型復(fù)雜度。模型總參數(shù)量為63 958,模型參數(shù)會影響模型的內(nèi)存使用情況,也決定了模型的大小。表2提供了構(gòu)建網(wǎng)絡(luò)模型的參數(shù)和詳細(xì)結(jié)構(gòu)。

    對于模型的復(fù)雜度,需要平衡濾波器數(shù)量和網(wǎng)絡(luò)深度以達(dá)到最佳性能。在保持網(wǎng)絡(luò)訓(xùn)練結(jié)果的同時(shí),通過增加網(wǎng)絡(luò)的寬度和深度,可以有效提高網(wǎng)絡(luò)質(zhì)量。網(wǎng)絡(luò)模型的計(jì)算量可以通過調(diào)整卷積層中的卷積核數(shù)量和大小來降低。特別是在模型計(jì)算方面,較大空間濾波器的卷積往往會導(dǎo)致昂貴的計(jì)算成本。

    在具體實(shí)現(xiàn)中,第一個(gè)卷積層采用64個(gè)大小為2×8的卷積核,雖然選擇的卷積核相對較大,但通過更多的參數(shù),使得模型能夠?qū)W習(xí)到更多更復(fù)雜的特征。而第二個(gè)卷積層的卷積核大小為1×5,參數(shù)減少到原來的5/16,同時(shí)也壓縮了卷積核數(shù)量,這種設(shè)計(jì)在進(jìn)一步提取特征的同時(shí)減小了特征圖數(shù)量,從而有效降低了模型的計(jì)算量,提高了網(wǎng)絡(luò)訓(xùn)練的高效性。這種平衡和調(diào)整確保模型在性能和計(jì)算效率之間取得最佳平衡。

    3 實(shí)驗(yàn)與討論

    3.1 實(shí)驗(yàn)數(shù)據(jù)集

    仿真實(shí)驗(yàn)在RML2016.10b[17]數(shù)據(jù)集上進(jìn)行,其數(shù)據(jù)輸入維度為2×128。它包含1 200 000個(gè)信號,具有十種調(diào)制類型方式,包括八種數(shù)字信號BPSK、QPSK、8PSK、16-QAM、64-QAM、CPFSK、GFSK、4PAM和兩種模擬信號WBFM、AM-DSB,每個(gè)數(shù)據(jù)樣本由128個(gè)采樣IQ樣本點(diǎn)組成,其中每個(gè)復(fù)雜時(shí)間樣本的實(shí)部和虛部是分開的。RML2016.10b數(shù)據(jù)集是使用GNU無線電動(dòng)態(tài)信道模型分層塊構(gòu)建的,其中包括采樣率偏移、中心頻率偏移、選擇性衰落和加性高斯白噪聲等阻礙效應(yīng)。每個(gè)調(diào)制信號有信噪比為-20~18 dB,增量為2 dB。將實(shí)驗(yàn)數(shù)據(jù)集按6∶2∶2隨機(jī)選擇為訓(xùn)練集、驗(yàn)證集和測試集。損失函數(shù)是分類交叉熵,優(yōu)化器為Adam,網(wǎng)絡(luò)訓(xùn)練的批量大?。╞atch size)為1 024,訓(xùn)練輪數(shù)(epoch)為1 000。實(shí)驗(yàn)設(shè)置若驗(yàn)證損失在50個(gè)epochs內(nèi)未減少,則停止訓(xùn)練過程。

    3.2 仿真環(huán)境設(shè)置

    仿真環(huán)境設(shè)置如表3所示。

    3.3 實(shí)驗(yàn)結(jié)果

    圖6表示了在不同SNR下每類調(diào)制信號的分類識別準(zhǔn)確率。從圖中可以得知,不同調(diào)制信號在相同信噪比下性能有所不同。在信噪比較低時(shí),AM-DSB的識別精度明顯高于其他調(diào)制方式。在-4 dB時(shí)PAM4、QAM64、GFSK三種調(diào)制方式就達(dá)到90%以上,PAM4甚至達(dá)到了98%。0 dB下除WBFM,其他調(diào)制信號的識別精度均達(dá)到90%以上,隨著信噪比的增加,識別精度逐漸平穩(wěn)并趨于100%。

    如圖7所示,實(shí)驗(yàn)將本文的算法結(jié)構(gòu)與其他幾種算法進(jìn)行了比較。對比實(shí)驗(yàn)選擇CNN1[5]、IC-AMCNet[18]、MCLDNN[19]、CGDNet[20]、ResNet[21]、MCNET[22]。從圖中不同網(wǎng)絡(luò)結(jié)構(gòu)的分類準(zhǔn)確率可以明顯看出,其準(zhǔn)確率隨著信噪比的增加而增加并逐漸趨于穩(wěn)定。CGDNN結(jié)構(gòu)的分類識別準(zhǔn)確率整體均高于其他網(wǎng)絡(luò)結(jié)構(gòu),在SNR為18 dB時(shí),最大識別準(zhǔn)確率可達(dá)93.9%,在所有對比模型中表現(xiàn)最好。在-18~-8 dB的低信噪比條件下,CGDNN結(jié)構(gòu)的識別準(zhǔn)確率明顯優(yōu)于其他網(wǎng)絡(luò),這也驗(yàn)證了小波閾值去噪方法的有效性,在低信噪比情況下對調(diào)制信號的分類識別得到了提升。在評估CGDNN性能方面,除分析其平均識別準(zhǔn)確率之外,還可根據(jù)計(jì)算復(fù)雜度來分析評估,計(jì)算復(fù)雜度包括學(xué)習(xí)參數(shù)數(shù)量、訓(xùn)練時(shí)間等元素。

    如表4所示,可以了解到CGDNN模型參數(shù)數(shù)量在遠(yuǎn)小于其他網(wǎng)絡(luò)模型的情況下,平均識別準(zhǔn)確率得到了不同程度的提升。盡管CGDNN模型訓(xùn)練時(shí)間大于CNN1、IC-AMCNet和CGDNet,但隨著參數(shù)數(shù)量大幅減少且識別準(zhǔn)確率的提高,CGDNN訓(xùn)練時(shí)間是可以接受的。與MCLDNN基準(zhǔn)高精度模型相比,在降低模型計(jì)算復(fù)雜度和訓(xùn)練時(shí)間的同時(shí)提高了識別精度。

    3.4 去噪效果分析

    表5比較了-12 dB、-10 dB、-8 dB、-6 dB、-4 dB、-2 dB和0 dB下不同模型的調(diào)制識別結(jié)果??梢钥闯?,CGDNN與除MCLDNN的其他模型在低信噪比下最大依次增加了6.8%、7.42%、5.47%、6.51%、7.66%、7.96%。在0 dB時(shí)識別精度小于MCLDNN模型0.27%,但CGDNN架構(gòu)在低信噪比下整體表現(xiàn)比MCLDNN更好。根據(jù)實(shí)驗(yàn)所得結(jié)果,低信噪比下的識別準(zhǔn)確率有了一定幅度的提高,也說明了提出的小波閾值去噪方法對調(diào)制信號的去噪有較好的效果。

    圖8顯示了信噪比為-4 dB條件下,不同網(wǎng)絡(luò)模型的混淆矩陣?;煜仃嚤硎静煌{(diào)制格式的錯(cuò)誤分類,預(yù)測精度越高,對角線上的結(jié)果越高,對應(yīng)的藍(lán)色也會越深(參見電子版),顯示了預(yù)測標(biāo)簽與實(shí)際標(biāo)簽的一致程度。因?yàn)锳M-DSB和WBFM都有一個(gè)靜默期,在靜默期間信號幾乎為零,網(wǎng)絡(luò)只能對無效的信號進(jìn)行隨機(jī)分類,所以從圖中可以看出,調(diào)制格式的錯(cuò)誤分類主要在AM-DSB和WBFM之間。CGDNN對這兩類調(diào)制格式的預(yù)測精度是明顯優(yōu)于ResNet和IC-AMCNet模型的。CGDNN在低信噪比下相比其他模型提升了大多數(shù)調(diào)制格式的分類性能。例如,BPSK、CPFSK和GFSK的識別準(zhǔn)確率分別為85%、90%和91%,與其他六種模型分類性能相比最大提高了13%。除此之外,16QAM與64QAM也很容易混淆,因?yàn)槠湔{(diào)制類型非常相似,在進(jìn)行分類識別時(shí)很難區(qū)分。在對I/Q樣本進(jìn)行小波閾值去噪之后減小了對調(diào)制類型的噪聲影響,CGDNN模型準(zhǔn)確識別了70%的16QAM與91%的64QAM,兩者之間的混淆顯著減少,超過了其他模型對這兩種調(diào)制類型的識別能力。

    4 結(jié)束語

    為了解決低信噪比下自動(dòng)調(diào)制識別準(zhǔn)確率的問題,本文先對數(shù)據(jù)進(jìn)行小波閾值去噪,通過利用軟閾值函數(shù)進(jìn)行自適應(yīng)閾值調(diào)整,消除對采樣的I/Q數(shù)據(jù)樣本的噪聲影響,從而降低在低信噪比下噪聲對調(diào)制格式識別的阻礙。然后,使用CGDNN對去噪后的調(diào)制信號進(jìn)行識別。該網(wǎng)絡(luò)由CNN、GRU和DNN組成。CNN和GRU分別提取信號的空間特征和時(shí)間特征,最后由DNN對提取特征后的調(diào)制信號進(jìn)行分類。通過這種方法,實(shí)現(xiàn)了高精度分類性能,提高了低SNR情況下的自動(dòng)調(diào)制識別準(zhǔn)確率。從RML2016.10b數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果來看,實(shí)現(xiàn)了高精度分類識別,最高識別準(zhǔn)確率達(dá)到了93.9%,在低信噪比下,信噪比為-12~0 dB時(shí)的自動(dòng)調(diào)制識別準(zhǔn)確率提升為0.36%~8.44%,同時(shí)也大大降低了計(jì)算復(fù)雜度和訓(xùn)練時(shí)間。未來計(jì)劃繼續(xù)在現(xiàn)有模型基礎(chǔ)上融合更多特征,以進(jìn)一步提高各種調(diào)制類型在低信噪比下的分類性能。

    參考文獻(xiàn):

    [1]Ji Mingrui, Huang Chenzhao, Luo Ruisen. Automatic modulation recognition based on spatio-temporal features fusion[C]//Proc of the 12th IEEE International Conference on Electronics Information and Emergency Communication. Piscataway, NJ: IEEE Press, 2022: 89-93.

    [2]Zhang Fuxin, Luo Chunbo, Xu Jialang, et al. An autoencoder-based I/Q channel interaction enhancement method for automatic modulation recognition[J]. IEEE Trans on Vehicular Technology, 2023, 72(7): 9620-9625.

    [3]周宇航, 侯進(jìn), 李嘉新, 等. 基于頻域疊加和深度學(xué)習(xí)的頻譜信號識別[J]. 計(jì)算機(jī)應(yīng)用研究, 2023, 40(3): 874-879. (Zhou Yuhang, Hou Jin, Li Jiaxin, et al. Spectrum signal identification based on frequency-domain superposition and deep learning[J]. Application Research of Computers, 2023, 40(3): 874-879.)

    [4]Tunze G B, Huynh-The T, Lee J M, et al. Sparsely connected CNN for efficient automatic modulation recognition[J]. IEEE Trans on Vehicular Technology, 2020,69(12): 15557-15568.

    [5]O’Shea T J, Corgan J, Clancy T C. Convolutional radio modulation recognition networks[C]//Proc of the 17th International Conference on Engineering Applications of Neural Networks. Cham: Springer, 2016: 213-226.

    [6]Daldal N, Yldrm , Polat K. Deep long short-term memory networks-based automatic recognition of six different digital modulation types under varying noise conditions[J]. Neural Computing and Applications, 2019, 31: 1967-1981.

    [7]West N E, O’shea T. Deep architectures for modulation recognition[C]//Proc of IEEE International Symposium on Dynamic Spectrum Access Networks. Piscataway, NJ: IEEE Press, 2017: 1-6.

    [8]Huang Sai, Dai Rui, Huang Juanjuan, et al. Automatic modulation classification using gated recurrent residual network[J]. IEEE Internet of Things Journal, 2020, 7(8): 7795-7807.

    [9]Rodzin S, Bova V, Kravchenko Y, et al. Deep learning techniques for natural language processing[M]//Artificial Intelligence Trends in Systems. Cham: Springer, 2022: 121-130.

    [10]Gao Yan, Ma Shengyu, Shi Jian, et al. An optimised multi-channel neural network model based on CLDNN for automatic modulation recognition[J]. International Journal of Wireless and Mobile Computing, 2023, 24(2): 144-158.

    [11]Donoho D L. De-noising by soft-thresholding[J]. IEEE Trans on Information Theory, 1995, 41(3): 613-627.

    [12]Halidou A, Mohamadou Y, Ari A A A, et al. Review of wavelet denoising algorithms[J]. Multimedia Tools and Applications, 2023, 82: 1-31.

    [13]吳光文, 王昌明, 包建東, 等. 基于自適應(yīng)閾值函數(shù)的小波閾值去噪方法[J]. 電子與信息學(xué)報(bào), 2014, 36(6): 1340-1347. (Wu Guangwen, Wang Changming, Bao Jiandong, et al. Wavelet threshold denoising method based on adaptive threshold function[J]. Journal of Electronics and Information, 2014, 36(6): 1340-1347.)

    [14]Zhang Fuxin, Luo Cunbo, Xu Jialang, et al. An efficient deep lear-ning model for automatic modulation recognition based on parameter estimation and transformation[J]. IEEE Communications Letters, 2021, 25(10): 3287-3290.

    [15]Liu Xingyu, Zhen Zonglei, Liu Jia. Hierarchical sparse coding of objects in deep convolutional neural networks[J]. Frontiers in Computational Neuroscience, 2020, 14: 578158.

    [16]Chen Junjia, Pan Zhibin. Saturated non-monotonic activation functions[EB/OL]. (2023-05-25). https://arxiv.org/abs/2305.07537.

    [17]O’shea T J, West N. Radio machine learning dataset generation with GNU radio[C]//Proc of the 6th GNU Radio Conference. 2016: 69-74.

    [18]Hermawan A P, Ginanjar R R, Kim D S, et al. CNN-based automa-tic modulation classification for beyond 5G communications[J]. IEEE Communications Letters, 2020, 24(5): 1038-1041.

    [19]Xu Jialang, Luo Chunbo, Parr G, et al. A spatiotemporal multi-channel learning framework for automatic modulation recognition[J]. IEEE Wireless Communications Letters, 2020,9(10): 1629-1632.

    [20]Njoku J N, Morocho-Cayamcela M E, Lim W. CGDNet: efficient hybrid deep learning model for robust automatic modulation recognition[J]. IEEE Networking Letters, 2021, 3(2): 47-51.

    [21]Liu Xiaoyu, Yang Diyu, El Gamal A. Deep neural network architectures for modulation classification[C]//Proc of the 51st Asilomar Conference on Signals, Systems, and Computers. Piscataway, NJ: IEEE Press, 2017: 915-919.

    [22]Zhang Fuxin, Luo Cunbo, Xu Jialang, et al. Deep learning based automatic modulation recognition: models, datasets, and challenges[J]. Digital Signal Processing, 2022, 129: 103650.

    国产精品国产三级国产av玫瑰| 联通29元200g的流量卡| av国产精品久久久久影院| 少妇人妻 视频| 高清黄色对白视频在线免费看 | 久久久a久久爽久久v久久| 亚洲精品第二区| 高清av免费在线| 大码成人一级视频| 久久99热这里只有精品18| 久久久国产一区二区| av在线播放精品| 热99国产精品久久久久久7| 国产成人aa在线观看| 女的被弄到高潮叫床怎么办| 男女无遮挡免费网站观看| 性高湖久久久久久久久免费观看| 国产免费一级a男人的天堂| 久久久久久久久久久免费av| 99久久精品一区二区三区| 内地一区二区视频在线| 51国产日韩欧美| 99热这里只有是精品在线观看| 在线观看免费高清a一片| 女人十人毛片免费观看3o分钟| 免费观看无遮挡的男女| 亚洲国产精品一区三区| 欧美一区二区亚洲| 午夜福利视频精品| 国模一区二区三区四区视频| 亚洲欧美日韩卡通动漫| 国产免费视频播放在线视频| 性色avwww在线观看| 久久国内精品自在自线图片| 人妻少妇偷人精品九色| 久久精品夜色国产| 嫩草影院入口| 青春草亚洲视频在线观看| 亚洲精品日韩av片在线观看| 91狼人影院| 天堂俺去俺来也www色官网| 国产黄片视频在线免费观看| 色吧在线观看| av又黄又爽大尺度在线免费看| 午夜福利在线在线| 大陆偷拍与自拍| 亚洲精品成人av观看孕妇| 欧美日韩视频高清一区二区三区二| 婷婷色麻豆天堂久久| 国产免费福利视频在线观看| 国产精品欧美亚洲77777| 一本—道久久a久久精品蜜桃钙片| 视频区图区小说| freevideosex欧美| 国产免费一级a男人的天堂| 91狼人影院| 国产精品一区二区三区四区免费观看| 男人添女人高潮全过程视频| 国产精品国产av在线观看| 亚洲综合精品二区| 国产亚洲欧美精品永久| 亚洲伊人久久精品综合| 久久精品国产自在天天线| 欧美xxⅹ黑人| 欧美区成人在线视频| 亚洲精品一二三| 美女中出高潮动态图| 成人美女网站在线观看视频| av黄色大香蕉| 国产成人aa在线观看| 青春草国产在线视频| 亚洲国产毛片av蜜桃av| 久久久久久久久久久免费av| 欧美日韩精品成人综合77777| 欧美性感艳星| 亚洲欧美中文字幕日韩二区| 亚洲人与动物交配视频| 久久国内精品自在自线图片| 午夜老司机福利剧场| 男男h啪啪无遮挡| 小蜜桃在线观看免费完整版高清| 国产91av在线免费观看| 秋霞在线观看毛片| 晚上一个人看的免费电影| 男人狂女人下面高潮的视频| 嘟嘟电影网在线观看| 熟妇人妻不卡中文字幕| 国产成人aa在线观看| 在线免费十八禁| 简卡轻食公司| 男人爽女人下面视频在线观看| 亚洲国产最新在线播放| 六月丁香七月| 高清欧美精品videossex| 日韩 亚洲 欧美在线| 国产av国产精品国产| 91在线精品国自产拍蜜月| 多毛熟女@视频| 高清不卡的av网站| 大香蕉97超碰在线| 一级av片app| 国产成人a区在线观看| 亚洲性久久影院| 欧美xxⅹ黑人| 日产精品乱码卡一卡2卡三| 国产精品偷伦视频观看了| 亚洲一级一片aⅴ在线观看| 91久久精品国产一区二区三区| 欧美国产精品一级二级三级 | 亚洲精品日韩在线中文字幕| 3wmmmm亚洲av在线观看| 少妇人妻久久综合中文| 亚洲国产精品专区欧美| 亚洲伊人久久精品综合| 亚洲av男天堂| 亚洲av.av天堂| 日日撸夜夜添| 又粗又硬又长又爽又黄的视频| 国产高清国产精品国产三级 | 久久精品国产亚洲av天美| 国产精品蜜桃在线观看| 亚洲精品国产av蜜桃| 欧美高清性xxxxhd video| 国产久久久一区二区三区| 午夜免费男女啪啪视频观看| 亚洲,欧美,日韩| 久久久久久久久久人人人人人人| 国产一区二区三区综合在线观看 | 国产一级毛片在线| 九九爱精品视频在线观看| 亚洲图色成人| 午夜免费观看性视频| 亚洲国产精品国产精品| 99久久人妻综合| 观看免费一级毛片| 夜夜爽夜夜爽视频| 国产精品不卡视频一区二区| 国产精品99久久久久久久久| 亚洲av中文字字幕乱码综合| 高清视频免费观看一区二区| 国产成人午夜福利电影在线观看| av专区在线播放| 伦精品一区二区三区| 久久精品国产亚洲av涩爱| 看免费成人av毛片| 肉色欧美久久久久久久蜜桃| 身体一侧抽搐| av在线观看视频网站免费| 99久久精品热视频| 精品国产乱码久久久久久小说| freevideosex欧美| 身体一侧抽搐| 亚洲精品,欧美精品| xxx大片免费视频| 嫩草影院新地址| 大香蕉97超碰在线| 熟女人妻精品中文字幕| 99热6这里只有精品| 国产精品久久久久久精品古装| 99热这里只有是精品在线观看| 一级av片app| 晚上一个人看的免费电影| 干丝袜人妻中文字幕| 国产精品久久久久久久久免| 国产在线一区二区三区精| 涩涩av久久男人的天堂| 日日摸夜夜添夜夜添av毛片| 久久人妻熟女aⅴ| 国产永久视频网站| 欧美精品人与动牲交sv欧美| 寂寞人妻少妇视频99o| 国产乱人视频| 一区在线观看完整版| 日韩中文字幕视频在线看片 | 国产精品久久久久久久久免| 黄色欧美视频在线观看| 久久久久久久国产电影| 尤物成人国产欧美一区二区三区| 国产欧美日韩精品一区二区| 婷婷色麻豆天堂久久| 日韩不卡一区二区三区视频在线| 国产精品秋霞免费鲁丝片| 色哟哟·www| 女人十人毛片免费观看3o分钟| 18禁裸乳无遮挡免费网站照片| 啦啦啦啦在线视频资源| 男女无遮挡免费网站观看| 亚洲av成人精品一区久久| 日日摸夜夜添夜夜添av毛片| 交换朋友夫妻互换小说| 这个男人来自地球电影免费观看 | 亚洲精品aⅴ在线观看| 在线看a的网站| 国产高潮美女av| 国产精品国产三级国产av玫瑰| 校园人妻丝袜中文字幕| 国产一级毛片在线| 日韩在线高清观看一区二区三区| 亚洲欧美成人精品一区二区| 久久av网站| 夜夜爽夜夜爽视频| 亚洲不卡免费看| 一本久久精品| 免费大片18禁| 中国三级夫妇交换| 国产 一区精品| 男女边摸边吃奶| 欧美精品一区二区大全| 男女免费视频国产| 成年免费大片在线观看| 卡戴珊不雅视频在线播放| 日韩三级伦理在线观看| 成人毛片a级毛片在线播放| 精品亚洲成a人片在线观看 | 涩涩av久久男人的天堂| 久久99热6这里只有精品| 韩国高清视频一区二区三区| 欧美xxxx性猛交bbbb| 综合色丁香网| 有码 亚洲区| 我的女老师完整版在线观看| 我的老师免费观看完整版| 婷婷色综合大香蕉| 五月玫瑰六月丁香| 欧美日韩视频高清一区二区三区二| 亚洲四区av| 免费在线观看成人毛片| 免费人成在线观看视频色| 夫妻性生交免费视频一级片| 国产午夜精品久久久久久一区二区三区| 国产精品一及| 日韩成人av中文字幕在线观看| 国产亚洲精品久久久com| 婷婷色av中文字幕| 久久久欧美国产精品| 国产有黄有色有爽视频| 国产精品成人在线| 国产精品免费大片| 一区二区三区乱码不卡18| 精品亚洲成国产av| 成人高潮视频无遮挡免费网站| 亚洲av欧美aⅴ国产| 色吧在线观看| 国产精品久久久久久av不卡| 精品99又大又爽又粗少妇毛片| 中文字幕人妻熟人妻熟丝袜美| 岛国毛片在线播放| 国产精品无大码| 伦理电影免费视频| 下体分泌物呈黄色| 女的被弄到高潮叫床怎么办| 久热这里只有精品99| 久久久久久久久久人人人人人人| 在线观看免费日韩欧美大片 | a级毛色黄片| 女性生殖器流出的白浆| 亚洲天堂av无毛| 亚洲,一卡二卡三卡| 韩国高清视频一区二区三区| 人妻 亚洲 视频| 在线观看av片永久免费下载| 自拍欧美九色日韩亚洲蝌蚪91 | 亚洲国产色片| 成人一区二区视频在线观看| 国产乱人视频| 深爱激情五月婷婷| 欧美成人精品欧美一级黄| 三级经典国产精品| 草草在线视频免费看| 日韩人妻高清精品专区| 成人国产av品久久久| 欧美zozozo另类| 国产日韩欧美亚洲二区| 国产精品.久久久| 国产午夜精品久久久久久一区二区三区| 99九九线精品视频在线观看视频| 晚上一个人看的免费电影| 久久女婷五月综合色啪小说| 日本vs欧美在线观看视频 | 麻豆乱淫一区二区| 欧美+日韩+精品| 久久久国产一区二区| 亚洲精品国产av蜜桃| 亚洲精品视频女| 水蜜桃什么品种好| 欧美丝袜亚洲另类| 国产在线视频一区二区| 亚洲av男天堂| 在线免费观看不下载黄p国产| 亚洲av中文字字幕乱码综合| 欧美bdsm另类| 国内精品宾馆在线| 小蜜桃在线观看免费完整版高清| 在线观看一区二区三区| 国产乱人视频| 亚洲综合色惰| 久久久久久人妻| 男女边摸边吃奶| 春色校园在线视频观看| 大陆偷拍与自拍| 国精品久久久久久国模美| 99久久精品一区二区三区| 久久久成人免费电影| 国产一级毛片在线| 亚洲熟女精品中文字幕| 一级av片app| 亚洲av国产av综合av卡| 日本欧美国产在线视频| 日本免费在线观看一区| 国语对白做爰xxxⅹ性视频网站| 国产一区二区三区综合在线观看 | 18禁裸乳无遮挡免费网站照片| 十八禁网站网址无遮挡 | 秋霞在线观看毛片| 男女啪啪激烈高潮av片| 狂野欧美激情性bbbbbb| 边亲边吃奶的免费视频| 成年人午夜在线观看视频| 99视频精品全部免费 在线| 欧美zozozo另类| 人人妻人人爽人人添夜夜欢视频 | 啦啦啦中文免费视频观看日本| 亚洲欧美成人精品一区二区| 国产精品一区二区在线不卡| 蜜桃在线观看..| 国产精品三级大全| 欧美97在线视频| 亚洲av男天堂| 国产 一区 欧美 日韩| 搡女人真爽免费视频火全软件| 成人二区视频| 日本午夜av视频| 性色av一级| 午夜福利在线在线| 天堂俺去俺来也www色官网| 男女边摸边吃奶| 简卡轻食公司| 中文字幕av成人在线电影| 国产老妇伦熟女老妇高清| 人体艺术视频欧美日本| 97热精品久久久久久| 精品视频人人做人人爽| 一级a做视频免费观看| 夜夜爽夜夜爽视频| 免费久久久久久久精品成人欧美视频 | 伊人久久国产一区二区| 久久久久久伊人网av| 国产精品伦人一区二区| 欧美日韩精品成人综合77777| 国产精品久久久久久精品古装| 蜜臀久久99精品久久宅男| 最近的中文字幕免费完整| 日韩欧美 国产精品| 女性被躁到高潮视频| 插逼视频在线观看| 免费观看的影片在线观看| 老司机影院毛片| 在线观看免费高清a一片| www.av在线官网国产| 免费观看性生交大片5| 内射极品少妇av片p| 青青草视频在线视频观看| 少妇的逼水好多| 精品久久国产蜜桃| 午夜免费男女啪啪视频观看| 亚洲av电影在线观看一区二区三区| 国产又色又爽无遮挡免| 欧美性感艳星| 亚洲欧美日韩东京热| 色视频在线一区二区三区| 麻豆成人av视频| 超碰av人人做人人爽久久| 亚洲,欧美,日韩| 国产综合精华液| 日韩在线高清观看一区二区三区| 青青草视频在线视频观看| 国产成人一区二区在线| av国产精品久久久久影院| 成人高潮视频无遮挡免费网站| 嫩草影院新地址| 国产成人freesex在线| 在线观看美女被高潮喷水网站| 欧美老熟妇乱子伦牲交| 久久久久久久精品精品| 女人久久www免费人成看片| 少妇猛男粗大的猛烈进出视频| 女人久久www免费人成看片| 少妇猛男粗大的猛烈进出视频| 亚洲色图av天堂| 嫩草影院入口| av.在线天堂| 国产亚洲精品久久久com| 制服丝袜香蕉在线| 欧美精品亚洲一区二区| 婷婷色麻豆天堂久久| 久久久久性生活片| 亚洲精品日韩av片在线观看| 久久久久久人妻| 亚洲伊人久久精品综合| 国产一区有黄有色的免费视频| 777米奇影视久久| 国产免费又黄又爽又色| 97在线视频观看| 欧美高清成人免费视频www| 成人18禁高潮啪啪吃奶动态图 | 一级毛片 在线播放| 最近最新中文字幕大全电影3| 97超视频在线观看视频| 久久婷婷青草| 久久ye,这里只有精品| 91狼人影院| 久久99热这里只频精品6学生| 十八禁网站网址无遮挡 | 久久精品国产亚洲av天美| 日本vs欧美在线观看视频 | 成年美女黄网站色视频大全免费 | 嫩草影院入口| 天堂中文最新版在线下载| 五月天丁香电影| 国产免费一级a男人的天堂| 水蜜桃什么品种好| 国产午夜精品久久久久久一区二区三区| 国产精品久久久久久精品古装| 3wmmmm亚洲av在线观看| 极品少妇高潮喷水抽搐| 国产精品国产三级国产av玫瑰| 欧美一级a爱片免费观看看| 精品一区二区免费观看| 国产欧美日韩一区二区三区在线 | 22中文网久久字幕| a级毛色黄片| 婷婷色综合大香蕉| 精品亚洲成国产av| 国产亚洲午夜精品一区二区久久| 国产精品不卡视频一区二区| 日日摸夜夜添夜夜爱| 国产白丝娇喘喷水9色精品| 一区二区三区免费毛片| 三级国产精品欧美在线观看| 午夜激情福利司机影院| 婷婷色综合大香蕉| 国产 一区 欧美 日韩| 高清av免费在线| 亚洲欧美成人精品一区二区| 一二三四中文在线观看免费高清| 高清午夜精品一区二区三区| 久久久久精品性色| 亚洲欧美日韩无卡精品| 久久精品国产a三级三级三级| 久久久久视频综合| 国产精品人妻久久久久久| 日本爱情动作片www.在线观看| 亚洲成色77777| 毛片女人毛片| 免费高清在线观看视频在线观看| 精品99又大又爽又粗少妇毛片| 一级毛片 在线播放| 亚洲丝袜综合中文字幕| 色视频在线一区二区三区| 一个人看的www免费观看视频| 国产亚洲精品久久久com| 男女啪啪激烈高潮av片| 久久久久久久大尺度免费视频| 99热网站在线观看| 久久久精品免费免费高清| 中国美白少妇内射xxxbb| 偷拍熟女少妇极品色| 女性生殖器流出的白浆| 一本一本综合久久| 国产精品偷伦视频观看了| 久久久久久人妻| av又黄又爽大尺度在线免费看| 久久久欧美国产精品| av在线播放精品| 一级毛片黄色毛片免费观看视频| 97精品久久久久久久久久精品| av免费观看日本| 精品亚洲成国产av| 日韩强制内射视频| 不卡视频在线观看欧美| 亚洲欧美清纯卡通| 国产极品天堂在线| 亚洲人成网站在线播| av又黄又爽大尺度在线免费看| 蜜桃在线观看..| 国产免费视频播放在线视频| 两个人的视频大全免费| 亚洲成人一二三区av| 日本wwww免费看| 联通29元200g的流量卡| 校园人妻丝袜中文字幕| 欧美日韩一区二区视频在线观看视频在线| 国产美女午夜福利| 在线观看一区二区三区| 男女无遮挡免费网站观看| 天堂8中文在线网| .国产精品久久| 丝袜脚勾引网站| 一区在线观看完整版| 一个人免费看片子| 成人影院久久| av福利片在线观看| 久久精品夜色国产| 国产精品av视频在线免费观看| 国产淫语在线视频| 啦啦啦中文免费视频观看日本| 欧美三级亚洲精品| 欧美xxxx性猛交bbbb| 欧美bdsm另类| 亚洲丝袜综合中文字幕| 女人十人毛片免费观看3o分钟| 日本黄大片高清| 啦啦啦啦在线视频资源| 丰满人妻一区二区三区视频av| 男女无遮挡免费网站观看| 国产亚洲午夜精品一区二区久久| 亚洲av中文字字幕乱码综合| 免费av中文字幕在线| av专区在线播放| 成人影院久久| 人妻一区二区av| 啦啦啦中文免费视频观看日本| 欧美激情极品国产一区二区三区 | 只有这里有精品99| 亚洲人与动物交配视频| 亚洲av欧美aⅴ国产| 久久人人爽人人片av| av播播在线观看一区| 国产v大片淫在线免费观看| 国内揄拍国产精品人妻在线| 尤物成人国产欧美一区二区三区| 日韩三级伦理在线观看| 久久婷婷青草| 亚洲精品国产色婷婷电影| 亚洲精华国产精华液的使用体验| 国产精品女同一区二区软件| 国产精品.久久久| 18禁裸乳无遮挡免费网站照片| av.在线天堂| 亚洲精品第二区| 少妇人妻一区二区三区视频| 女的被弄到高潮叫床怎么办| 亚洲国产av新网站| 少妇精品久久久久久久| 久久人人爽人人爽人人片va| 国产免费又黄又爽又色| 国产亚洲午夜精品一区二区久久| 亚洲欧美成人精品一区二区| 日韩成人av中文字幕在线观看| 亚洲中文av在线| 国产精品久久久久成人av| 亚洲av国产av综合av卡| 欧美3d第一页| 精品一区二区免费观看| 精品久久久噜噜| 多毛熟女@视频| 精品少妇黑人巨大在线播放| 91精品伊人久久大香线蕉| 日本免费在线观看一区| 亚洲国产色片| freevideosex欧美| 一级av片app| 少妇被粗大猛烈的视频| 国产在线一区二区三区精| 各种免费的搞黄视频| a级一级毛片免费在线观看| 免费大片18禁| 女人久久www免费人成看片| 欧美成人a在线观看| h日本视频在线播放| 性色avwww在线观看| 高清午夜精品一区二区三区| av不卡在线播放| 夜夜看夜夜爽夜夜摸| 99久久精品国产国产毛片| 人人妻人人澡人人爽人人夜夜| 欧美zozozo另类| 免费大片黄手机在线观看| 免费大片18禁| 亚洲国产精品999| 欧美日韩视频高清一区二区三区二| 免费大片黄手机在线观看| 美女内射精品一级片tv| 欧美日韩综合久久久久久| 一本一本综合久久| 成年美女黄网站色视频大全免费 | 久久女婷五月综合色啪小说| 国产黄片视频在线免费观看| 久热这里只有精品99| 国产精品免费大片| 欧美老熟妇乱子伦牲交| 中文资源天堂在线| 亚洲av电影在线观看一区二区三区| 伦精品一区二区三区| 一级毛片久久久久久久久女| 中文字幕久久专区| 亚州av有码| 在线观看人妻少妇| 一本—道久久a久久精品蜜桃钙片| 亚洲av不卡在线观看| 看非洲黑人一级黄片| 国产日韩欧美亚洲二区| 国产精品三级大全| 久久亚洲国产成人精品v| 卡戴珊不雅视频在线播放| 欧美三级亚洲精品| 在线免费观看不下载黄p国产| 国产真实伦视频高清在线观看| 狠狠精品人妻久久久久久综合| 亚洲av.av天堂| av专区在线播放| 欧美性感艳星| 亚洲成人av在线免费| 久久久久网色| 日本黄大片高清|