• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于空間屬性特征的毫米波雷達(dá)身體干擾識(shí)別

    2024-11-22 00:00:00蔡嘉怡初萍莊倫濤陽召成
    關(guān)鍵詞:特征提取

    摘 要:手勢(shì)識(shí)別中,身體的移動(dòng)容易被誤判為手勢(shì)動(dòng)作,對(duì)手勢(shì)識(shí)別造成干擾。因此,針對(duì)存在的身體干擾問題,提出了基于空間屬性特征的身體干擾識(shí)別算法。在對(duì)毫米波雷達(dá)接收信號(hào)進(jìn)行預(yù)處理后,首先分別對(duì)一維距離像和二維距離角度譜提取一維潛在目標(biāo)和二維潛在目標(biāo),并對(duì)二維潛在目標(biāo)進(jìn)行連通域標(biāo)記。然后,基于潛在目標(biāo)及連通域提取出用于區(qū)分身體干擾和手勢(shì)目標(biāo)的空間屬性特征。最后,采用支持向量機(jī)(support vector machine, SVM)分類器進(jìn)行身體干擾識(shí)別。實(shí)驗(yàn)結(jié)果表明,所提方法能有效區(qū)分身體干擾和手勢(shì)目標(biāo),單幀預(yù)測(cè)下準(zhǔn)確率為97.3%,多幀預(yù)測(cè)下準(zhǔn)確率為98.94%。

    關(guān)鍵詞: 毫米波雷達(dá); 手勢(shì)識(shí)別; 身體干擾; 空間屬性特征; 特征提取

    中圖分類號(hào): TN 959 文獻(xiàn)標(biāo)志碼: A""" DOI:10.12305/j.issn.1001-506X.2024.10.14

    Millimeter-wave radar body interference recognition based on

    spatial attribute features

    CAI Jiayi, CHU Ping ZHUANG Luntao, YANG Zhaocheng

    (College of Electronics and Information Engineering, Shenzhen University, Shenzhen 518000, China)

    Abstract: In gesture recognition, the movement of the body is easily misjudged as a gesture action, which interferes the gesture recognition. Therefore, in view of the existing body interference problem, a body interference recognition algorithm based on spatial attribute features is proposed. After preprocessing the received signal of millimeter-wave radar, firstly, the one-dimensional potential targets and the two-dimensional potential targets are extracted from the one-dimensional range image and the two-dimensional range angle spectrum, and the connected domains are labeled for the two-dimensional potential targets. Then, based on the potential targets and the connected domains, the spatial attribute features used to distinguish between body interference and gesture targets are extracted. Finally, the support vector machine (SVM) classifier is used for body interference recognition. Experimental results show that the proposed method can effectively distinguish body interference from gesture targets, and the accuracy rate reaches 97.3% under single-frame prediction and 98.94% under multi-frame prediction.

    Keywords: millimeter-wave radar; gesture recognition; body interference; spatial attribute features; feature extraction

    0 引 言

    近年來,手勢(shì)識(shí)別技術(shù)因其廣泛的應(yīng)用場(chǎng)景而備受關(guān)注,其應(yīng)用領(lǐng)域主要包括日常生活、汽車、娛樂、醫(yī)療等領(lǐng)域,例如可以用于幫助聾啞人正常交流1、控制機(jī)器人23、輔助自動(dòng)駕駛4及虛擬現(xiàn)實(shí)游戲5。手勢(shì)識(shí)別技術(shù)可以大致分為5種類型:基于穿戴設(shè)備技術(shù)、基于視覺技術(shù)、基于Wi-Fi信號(hào)技術(shù)67、基于超聲波技術(shù)89和基于雷達(dá)的手勢(shì)識(shí)別技術(shù)。其中:基于穿戴設(shè)備的手勢(shì)識(shí)別技術(shù)包括慣性傳感器(加速度計(jì)、陀螺儀)1011、肌電傳感器1213和多傳感器等;基于視覺的手勢(shì)識(shí)別技術(shù)包括紅綠藍(lán)(red-green-blue, RGB)相機(jī)14、紅外相機(jī)1516和Kinect深度相機(jī)1718等。在這些傳感器技術(shù)中,穿戴設(shè)備要求使用者長(zhǎng)期穿戴,影響用戶體驗(yàn),且不易攜帶,使用成本高;視覺技術(shù)易受光線影響,在強(qiáng)光和弱光環(huán)境下成像質(zhì)量較差;Wi-Fi信號(hào)帶寬較小,工作頻段較低,易受封閉空間中多徑效應(yīng)干擾,從而降低手勢(shì)識(shí)別的準(zhǔn)確率和魯棒性;超聲波技術(shù)的作用范圍較短,性能隨距離增加而明顯下降,同時(shí)還存在噪聲干擾等問題。

    相比之下,雷達(dá)傳感器具有許多優(yōu)勢(shì),如不受光線、天氣、煙塵、雨霧、聲音等外界環(huán)境的影響,能夠全天時(shí)、全天候工作,同時(shí)具有較強(qiáng)的抗干擾能力和穿透能力。此外,雷達(dá)傳感器還具有非接觸和保護(hù)個(gè)人隱私的優(yōu)點(diǎn)。因此,在人機(jī)交互領(lǐng)域,基于雷達(dá)的手勢(shì)識(shí)別技術(shù)成為國(guó)內(nèi)外的研究熱點(diǎn)之一。

    而在實(shí)際手勢(shì)識(shí)別應(yīng)用中,不可避免地存在身體干擾,由于手勢(shì)目標(biāo)和身體干擾信號(hào)的相似性,這些干擾會(huì)導(dǎo)致誤判并使手勢(shì)識(shí)別的準(zhǔn)確率降低。目前,研究人員已經(jīng)展開了一系列基于雷達(dá)的手勢(shì)識(shí)別研究。例如,文獻(xiàn)[19]提取距離多普勒角軌跡,構(gòu)建了一個(gè)輕量級(jí)循環(huán)前向傳播的長(zhǎng)短時(shí)記憶(long-short term memory, LSTM)網(wǎng)絡(luò)進(jìn)行識(shí)別。文獻(xiàn)[20]利用脈沖無線電超寬帶(impulse radio ultra-wideband, IR-UWB)雷達(dá)研究了身體位置對(duì)于手勢(shì)速度識(shí)別和分類的影響。文獻(xiàn)[21]提出一種基于變分自編碼器和混合先驗(yàn)的雷達(dá)手勢(shì)識(shí)別方法以實(shí)現(xiàn)手勢(shì)的聚類和分類,可以處理雷達(dá)信號(hào)中的噪聲、背景環(huán)境和未知手勢(shì)或背景運(yùn)動(dòng)的影響。文獻(xiàn)[22]使用基于Transformer編碼器的分類器對(duì)手勢(shì)進(jìn)行分類,并采用基于相對(duì)馬氏距離的方法檢測(cè)分布外的手勢(shì)樣本,從而提高了系統(tǒng)的可靠性。文獻(xiàn)[23]提出一種基于新型多流卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)的雷達(dá)空中書寫手勢(shì)識(shí)別方法,將雷達(dá)信號(hào)分為3個(gè)子流,分別提取距離、速度和角度的特征,并進(jìn)行特征融合,實(shí)現(xiàn)手勢(shì)的識(shí)別。文獻(xiàn)[24]提取角度距離聯(lián)合時(shí)序特征進(jìn)行手勢(shì)識(shí)別,該三維矩陣特征包含方位角、距離和速度信息,并提出一種基于CNN-LSTM網(wǎng)絡(luò)的手勢(shì)分類模型,能夠有效地利用特征中的時(shí)空信息。文獻(xiàn)[25]利用具有兩個(gè)間隔較遠(yuǎn)的接收器的干涉雷達(dá)來獲取手勢(shì)的徑向和橫向微運(yùn)動(dòng)特征,并提出一種頻域后干涉預(yù)處理方法,降低了頻譜圖的噪聲水平,并抑制了干擾的交叉項(xiàng)。文獻(xiàn)[26]基于車載毫米波雷達(dá)提出一種動(dòng)態(tài)手勢(shì)識(shí)別網(wǎng)絡(luò),利用三維卷積網(wǎng)絡(luò)實(shí)現(xiàn)了多幀雷達(dá)圖像的特征融合和拼接,并利用Transformer模塊進(jìn)行位置和序列編碼,提高了時(shí)空特征的表達(dá)能力。文獻(xiàn)[27]提出一種基于多分支殘差神經(jīng)網(wǎng)絡(luò)的毫米波雷達(dá)微手勢(shì)識(shí)別方法,解決了毫米波雷達(dá)特征提取和融合不足以及算法復(fù)雜度過大的問題。文獻(xiàn)[28]將距離時(shí)間圖和多普勒時(shí)間圖兩個(gè)特征圖進(jìn)行融合得到特征融合圖,并通過設(shè)計(jì)殘差網(wǎng)絡(luò)對(duì)特征圖進(jìn)行手勢(shì)識(shí)別。文獻(xiàn)[29]提出一種基于時(shí)間距離參數(shù)的手勢(shì)識(shí)別方法,利用3個(gè)超寬帶雷達(dá)的多角度觀測(cè),提高手勢(shì)的可區(qū)分性和魯棒性,并提出一種基于平均密度函數(shù)的特征提取方法,從時(shí)間距離矩陣中提取出手勢(shì)的動(dòng)態(tài)特征。然而,在當(dāng)前基于雷達(dá)傳感器的手勢(shì)識(shí)別研究中,手勢(shì)目標(biāo)和身體干擾之間的區(qū)分問題仍未得到充分解決,這限制了手勢(shì)識(shí)別技術(shù)在實(shí)際應(yīng)用中的進(jìn)一步推廣和應(yīng)用。因此,本文旨在討論如何有效區(qū)分手勢(shì)目標(biāo)和身體干擾,以此提高系統(tǒng)的識(shí)別性能和可靠性。

    相比其他頻段的微波雷達(dá),多輸入多輸出(multiple input multiple output, MIMO)毫米波雷達(dá)具有波長(zhǎng)短、帶寬大的特點(diǎn),具有高距離分辨力、高角度分辨力,可獲得目標(biāo)的細(xì)節(jié)結(jié)構(gòu)特征,利于檢測(cè)與識(shí)別。

    目前,空間屬性特征已被成功應(yīng)用在基于毫米波雷達(dá)的人數(shù)檢測(cè)方面30。本文針對(duì)毫米波雷達(dá)手勢(shì)識(shí)別中的身體干擾問題,提出一種基于空間屬性特征的身體干擾識(shí)別算法。首先,通過潛在目標(biāo)提取算法提取一維潛在目標(biāo)和二維潛在目標(biāo)。然后,通過連通域標(biāo)記算法對(duì)二維潛在目標(biāo)進(jìn)行連通域標(biāo)記。綜合潛在目標(biāo)的特點(diǎn),選取了15個(gè)基于潛在目標(biāo)之間的相對(duì)位置關(guān)系以及相互之間形成的連通域關(guān)系所得到的空間屬性特征,用于區(qū)分手勢(shì)目標(biāo)和身體干擾。最后,采用支持向量機(jī)(support vector machine, SVM)分類器進(jìn)行目標(biāo)和干擾的分類識(shí)別。

    1 信號(hào)模型

    本文所使用的雷達(dá)為Socionext公司生產(chǎn)的60 GHz MIMO雷達(dá)SC1220AT2,其芯片實(shí)物圖如圖1所示。

    該雷達(dá)芯片可以在連續(xù)波或頻移鍵控連續(xù)波(frequency shift keying continuous wave, FSKCW)或調(diào)頻連續(xù)波(frequency modulated continuous wave, FMCW)模式下工作。在本文中,選擇FMCW模式,采用NT=2個(gè)發(fā)射天線(TX1,TX2)和NR=4個(gè)接收天線(RX1,1,RX1,2,RX2,1,RX2,2),發(fā)射天線之間的陣元間距為d2=5.54 mm,接收天線之間的陣元間距為d1=2.35 mm。TX1和TX2以交替的方式發(fā)射電磁波,采用時(shí)分復(fù)用技術(shù),因此可以等效虛擬成8個(gè)虛擬陣元。在水平方向(E方向)上,每個(gè)方向包含4個(gè)接收天線,在垂直方向(H方向)上,每個(gè)方向包含2個(gè)接收天線。其等效虛擬陣列如圖2所示。

    線性調(diào)頻連續(xù)波信號(hào)是一種頻率隨時(shí)間線性增加的信號(hào),可以表示為

    ST(t)=AT·exp-j2πfct+Bt22Tc+0(1)

    式中:AT為發(fā)射信號(hào)的幅度;fc為載波頻率;Tc為調(diào)頻信號(hào)的持續(xù)時(shí)間;B表示帶寬;t∈[0,Tc]表示快時(shí)間;0表示發(fā)射信號(hào)的初始隨機(jī)相位。假設(shè)目標(biāo)為多散射點(diǎn)模型,雷達(dá)信號(hào)經(jīng)過G個(gè)散射點(diǎn)反射回來形成回波,第k個(gè)接收天線采集到的回波信號(hào)表示為

    SR(k,t)=

    ∑Gg=1Ag·exp-j2π(fc(t-τg,k)+B(t-τg,k22Tc+0(2)

    式中:τg,k=[2(rg+vgt~)+dksin θg]/c 為回波信號(hào)與發(fā)射信號(hào)之間產(chǎn)生的延時(shí),c為光速,dk表示RX~,k與RX~,1之間的陣元間隔,k∈[1,NE]為E方向的接收天線序號(hào),t~為慢時(shí)間;Ag表示第g個(gè)目標(biāo)散射點(diǎn)的接收信號(hào)幅度;rg,θg,vg分別表示第g個(gè)目標(biāo)散射點(diǎn)距離雷達(dá)的距離、角度和多普勒速度。由于手勢(shì)目標(biāo)距離雷達(dá)的距離較近,目標(biāo)回波的延時(shí)較小,即(Btτg,k+Bτ2g,k)/(2Tc)0。因此,對(duì)回波信號(hào)進(jìn)行混頻并化簡(jiǎn),可以得到中頻信號(hào):

    SIF(k,t)=SR(k,t)ST(k,t)*

    ∑Gg=1AgAT·expj4πfcrgcexpj4πBrgtcTc·

    expj4πfcvgt~cexpj2πfcdksin θgc(3)

    式中:[·]*表示共軛操作。

    在快時(shí)間和慢時(shí)間維對(duì)中頻信號(hào)進(jìn)行采樣,可以得到一幀雷達(dá)三維立方體數(shù)據(jù)塊Y~p,分別為快時(shí)間維慢時(shí)間維天線維,其中的某個(gè)元素可以表示為

    Y~p(n~,m,k)=

    ∑Gg=1AgAT·expj4πfcrg

    expj4πBrgn~TscTcexpj4πfcvgmTfcexpj2πfcdksin θgc(4)

    式中:t=n~Ts是快時(shí)間采樣;Ts表示快時(shí)間采樣間隔;n~∈[1,N~]表示一個(gè)線性調(diào)頻信號(hào)內(nèi)的快時(shí)間采樣序號(hào),N~表示一個(gè)線性調(diào)頻信號(hào)的采樣點(diǎn)數(shù);t~=mTf表示慢時(shí)間采樣;Tf表示線性調(diào)頻信號(hào)的重復(fù)時(shí)間;m∈[1,M]是線性調(diào)頻信號(hào)序號(hào),M表示一幀內(nèi)的線性調(diào)頻信號(hào)個(gè)數(shù);p表示幀的序號(hào)。

    對(duì)雷達(dá)三維立方體數(shù)據(jù)塊Y~p沿著距離維做快速傅里葉變換(fast Fourier transform, FFT)可以得到距離譜Yp,其中的某個(gè)元素可以表示為

    Yp(n,m,k)=∑N~n~=1Y~p(n~,m,k)·exp-j2πnn~N(5)

    式中:n∈[1,N]為FFT的序號(hào),也表示距離單元索引;N表示快時(shí)間維傅里葉變換的點(diǎn)數(shù),也表示距離單元個(gè)數(shù)。

    2 信號(hào)預(yù)處理

    在雷達(dá)系統(tǒng)中,接收機(jī)接收到回波信號(hào)后,經(jīng)低噪放大器抑制噪聲、放大,再由采樣器采樣得到雷達(dá)回波數(shù)字信號(hào)。本文將SC1220AT2雷達(dá)的輸出信號(hào)設(shè)置為距離FFT頻譜數(shù)據(jù)。

    在進(jìn)行特征提取前,需要對(duì)接收數(shù)據(jù)進(jìn)行信號(hào)預(yù)處理,其流程圖如圖3所示。

    為了去除雜波的干擾,首先需要對(duì)回波輸出信號(hào)進(jìn)行距離維雜波抑制;然后,對(duì)雜波抑制后的信號(hào)沿著慢時(shí)間維和天線維進(jìn)行非相干積累,得到一維距離像;接著,通過單位平均恒虛警率(cell-averaging constant 1 alarm rate, CA-CFAR31)檢測(cè)方法對(duì)一維距離像進(jìn)行距離維目標(biāo)檢測(cè)。此外,還需使用最小方差無偏估計(jì)Capon超分辨角度估計(jì)算法對(duì)雜波抑制后的信號(hào)在目標(biāo)所在的距離單元上進(jìn)行角度估計(jì),以獲得目標(biāo)物體的方位信息。

    2.1 距離維雜波抑制

    在實(shí)際環(huán)境中,雷達(dá)回波信號(hào)中不僅包含手勢(shì)目標(biāo)信號(hào),還包含微動(dòng)態(tài)干擾目標(biāo)信號(hào)(如身體各部位的微小運(yùn)動(dòng))、靜態(tài)物體和背景雜波、發(fā)射機(jī)泄漏信號(hào)和噪聲,因此需要進(jìn)行距離維雜波抑制。

    針對(duì)靜態(tài)物體和背景雜波、發(fā)射機(jī)泄漏信號(hào)這類在一段時(shí)間內(nèi)相對(duì)穩(wěn)定的信號(hào),在系統(tǒng)開始前,采集一段時(shí)間內(nèi)不含目標(biāo)的背景信號(hào),并對(duì)這段時(shí)間內(nèi)的信號(hào)在時(shí)間維和慢時(shí)間維上取平均,獲得一幀相對(duì)穩(wěn)定可靠的背景靜態(tài)雜波。將這個(gè)背景信號(hào)作為初始背景雜波信號(hào),可表示為

    CNp(n,m,k)=1Np·1M∑Npp=1∑Mm=1Yp(n,m,k)(6)

    式中:CNp(n,m,k)為平均后的初始背景雜波;Np表示靜態(tài)背景雜波初始化所積累的幀數(shù)。

    針對(duì)身體等軀干帶來的微動(dòng)態(tài)干擾信號(hào)以及靜態(tài)背景雜波可能隨時(shí)間變化的問題,本文采用運(yùn)動(dòng)平均自適應(yīng)雜波抑制算法進(jìn)行雜波抑制。該算法包含兩步,首先是迭代估計(jì)雜波信號(hào),每一幀的雜波估計(jì)都會(huì)根據(jù)雷達(dá)回波信號(hào)以及前面的雜波估計(jì)進(jìn)行更新迭代,可表示為

    Cp(n,m,k)=αCp1(n,m,k)+(1-α)Yp(n,m,k)(7)

    其次,利用所估計(jì)的雜波進(jìn)行減除,每一幀經(jīng)過雜波抑制后的信號(hào)都為該幀雷達(dá)回波信號(hào)減去雜波估計(jì),可表示為

    Y-p(n,m,k)=Yp(n,m,k)-Cp1(n,m,k)(8)

    式中:Y-p(n,m,k)表示的是第p幀經(jīng)過雜波抑制后的雷達(dá)三維數(shù)據(jù);Cp1(n,m,k)表示的是雜波估計(jì);Cp(n,m,k)表示的是利用第p幀雷達(dá)信號(hào)更新迭代后的雜波估計(jì);α∈(0,1)表示的是雜波抑制系數(shù)。

    2.2 距離維目標(biāo)檢測(cè)

    為了提高信噪比,將雜波抑制后的信號(hào)Y-p沿著慢時(shí)間維和天線維進(jìn)行非相干積累,得到一維距離像,即

    y-(n)=∑Mm=1∑Kk=1|Y-p(n,m,k)|(9)

    式中:|·|表示絕對(duì)值運(yùn)算符,用于獲取雷達(dá)信號(hào)的幅度。

    接著,采用CA-CFAR檢測(cè)器對(duì)一維距離像進(jìn)行距離維目標(biāo)檢測(cè)。為了進(jìn)一步提高檢測(cè)準(zhǔn)確性,通過連續(xù)N次檢測(cè),并根據(jù)門限進(jìn)行判斷:超過門限為1,否則為0。將N次檢測(cè)結(jié)果相加,若其值超過某個(gè)門限T,則判定為存在目標(biāo),從而降低虛警率。

    通過目標(biāo)檢測(cè),得到了目標(biāo)所在的距離單元D={n1,n2,…,nND},其中ND表示檢測(cè)到的目標(biāo)距離單位個(gè)數(shù)。

    2.3 超分辨率角度估計(jì)

    為了提取手勢(shì)目標(biāo)的角度信息,使用Capon超分辨角度估計(jì)算法對(duì)目標(biāo)所在的距離單元D進(jìn)行角度估計(jì)。首先,提取第n個(gè)距離單元內(nèi)的慢時(shí)間維和天線維切片,記為

    A(n)=Y-p(n,1,1)Y-p(n,2,1)…Y-p(n,M,1)

    Y-p(n,1,2)Y-p(n,2,2)…Y-p(n,M,2)

    Y-p(n,1,K)Y-p(n,2,K)…Y-p(n,M,K)(10)

    然后,對(duì)該切片數(shù)據(jù)計(jì)算其協(xié)方差矩陣,并利用相鄰的多個(gè)距離單元進(jìn)行平滑,即:

    R(n)=1M(2NN+1)∑n+NNn~=n-NNA(n~)AH(n~)(11)

    式中:NN為協(xié)方差矩陣的平滑的相鄰距離單元個(gè)數(shù),上標(biāo)H表示共軛轉(zhuǎn)置。最后,對(duì)每個(gè)角度進(jìn)行搜索,獲得E方向上的距離角度圖P,P的第n行和第列的元素可以計(jì)算如下:

    P(n,)=1aH()R1(n)a(),n∈D(12)

    式中:a()=[ ej2πd2sin Θλ,…,ej2πdKsin Θλ]為導(dǎo)向矢量,∈[1,N]表示角度Θ的索引,N表示角度估計(jì)時(shí)搜索的角度個(gè)數(shù)。通過以一定的步長(zhǎng)從-60°到+60°掃描Θ,可以獲得距離角度譜。

    3 基于空間屬性特征的身體干擾識(shí)別算法

    本文提出的算法框圖如圖4所示。由于不同的目標(biāo)在空間中的分布特性有差異,因此本文使用候選目標(biāo)(手勢(shì)或身體干擾)在空間中的分布情況作為空間屬性特征,以區(qū)分身體干擾和手勢(shì)目標(biāo)。首先,對(duì)式(9)得到的一維距離像提取一維潛在目標(biāo),對(duì)式(12)得到的距離角度譜提取二維潛在目標(biāo),并記錄其位置和幅值信息;接著,對(duì)二維潛在目標(biāo)進(jìn)行連通域標(biāo)記;然后,對(duì)一維潛在目標(biāo)、二維潛在目標(biāo)以及二維潛在目標(biāo)連通域進(jìn)行空間屬性特征提取;最后,使用SVM分類器進(jìn)行干擾和目標(biāo)的分類識(shí)別。

    3.1 潛在目標(biāo)提取

    本文通過潛在目標(biāo)提取算法獲得候選目標(biāo),并統(tǒng)計(jì)其分布情況。其中,潛在目標(biāo)是在一定范圍內(nèi)的局部最大值,所提出的潛在目標(biāo)提取算法包括一維潛在目標(biāo)提取算法和二維潛在目標(biāo)提取算法。一維潛在目標(biāo)提取算法僅需在距離維上設(shè)置一個(gè)保護(hù)窗,記錄距離維的位置和幅值,而二維潛在目標(biāo)提取算法需要在距離維和角度維上分別設(shè)置一個(gè)保護(hù)窗,記錄距離維和角度維的位置及幅值。潛在目標(biāo)提取算法的具體步驟如下。

    步驟 1 設(shè)置保護(hù)窗、一個(gè)閾值和待提取潛在目標(biāo)的數(shù)目。

    步驟 2 尋找信號(hào)幅度的最大值,并記錄其位置和幅度值。

    步驟 3 將以最大值為中心的保護(hù)窗內(nèi)的數(shù)據(jù)全部置零,將置零后的信號(hào)作為后續(xù)潛在目標(biāo)提取的信號(hào)。

    步驟 4 重復(fù)執(zhí)行步驟2和步驟3,直到找到的最大幅度值大于閾值或者提取到的潛在目標(biāo)數(shù)目達(dá)到設(shè)定的數(shù)目,結(jié)束潛在目標(biāo)的提取。

    (1) 一維潛在目標(biāo)提取

    一維距離像y-(n)的潛在目標(biāo)屬于一維數(shù)據(jù),通過一維潛在目標(biāo)提取算法,可得到一維距離像潛在目標(biāo)的位置和幅值信息。一維潛在目標(biāo)提取的結(jié)果示意圖如圖5所示,圖中標(biāo)注為深藍(lán)色正方形符號(hào)的數(shù)據(jù)即為提取出的一維潛在目標(biāo)。

    (2) 二維潛在目標(biāo)提取

    距離角度譜P屬于二維數(shù)據(jù),通過二維潛在目標(biāo)提取算法,可得到距離角度譜的潛在目標(biāo)數(shù)據(jù)。二維潛在目標(biāo)提取的結(jié)果如圖6所示。

    3.2 連通域標(biāo)記

    為了獲得更多能夠區(qū)分手勢(shì)目標(biāo)和身體干擾的空間屬性特征,本文對(duì)二維潛在目標(biāo)進(jìn)行連通域標(biāo)記。在連通域標(biāo)記過程中,以二維潛在目標(biāo)的位置為中心點(diǎn),并以設(shè)定的保護(hù)窗窗長(zhǎng)wn和wθ作為長(zhǎng)和寬,將該區(qū)域的二值圖像置為1,從而生成潛在目標(biāo)重構(gòu)圖像。然后,將二值化后的潛在目標(biāo)圖像進(jìn)行連通域標(biāo)記,得到已標(biāo)記的連通域分量矩陣、連通域分量的個(gè)數(shù)Nconn、同一個(gè)連通域分量所占的面積Nlabel=[N1,N2,…,Nconn]及同一個(gè)連通域分量的位置集合Li=R1θ1

    R2θ2

    RNiθNi,i∈[1,Nconn]。

    其中,RNi和θNi分別表示連通域中位置點(diǎn)的距離和角度。

    連通域標(biāo)記后的結(jié)果示意圖如圖7所示,圖7(a)為距離角度圖,圖7(b)為相應(yīng)得到的連通域圖像。其中,相同顏色的位置表示同一個(gè)連通域分量。

    連通域標(biāo)記算法的具體步驟如下。

    步驟 1 從左到右,從上至下依次遍歷潛在目標(biāo)圖像中的每個(gè)位置。

    步驟 2 如果該位置已經(jīng)遍歷過,則繼續(xù)向下遍歷,否則轉(zhuǎn)向步驟3。

    步驟 3 將該位置點(diǎn)作為生長(zhǎng)種子,并標(biāo)記該位置點(diǎn)為label,然后根據(jù)八鄰域關(guān)系把符合條件的位置都?jí)喝霔V小?/p>

    步驟 4 彈出棧頂位置,并將該位置標(biāo)記為label,然后再根據(jù)八鄰域關(guān)系把符合條件的位置點(diǎn)壓入棧中。

    步驟 5 重復(fù)步驟4,直到棧為空;此時(shí),獲得了潛在目標(biāo)圖像中的一個(gè)連通區(qū)域,并且該連通區(qū)域已標(biāo)記為label。

    步驟 6 重復(fù)步驟2,直至遍歷完整圖像。

    3.3 空間屬性特征提取

    經(jīng)過對(duì)潛在目標(biāo)及潛在目標(biāo)連通域進(jìn)行分析可以發(fā)現(xiàn),身體干擾和手勢(shì)目標(biāo)在潛在目標(biāo)的空間屬性特征上存在明顯差異。具體而言,身體的雷達(dá)散射截面積較大,因此由身體干擾數(shù)據(jù)提取出來的潛在目標(biāo)數(shù)量多且集中,潛在目標(biāo)連通域的數(shù)量較多,其總面積和最大面積較大。相比之下,手勢(shì)目標(biāo)的雷達(dá)散射截面積較小,并且有手臂和部分身體的存在,因此由手勢(shì)數(shù)據(jù)提取出來的潛在目標(biāo)數(shù)量較少且比較分散,潛在目標(biāo)連通域的數(shù)量較少,其總面積和最大面積較小。同時(shí),由于身體干擾和手勢(shì)目標(biāo)的數(shù)量特征不同,面積特征也有明顯區(qū)別,其潛在目標(biāo)在能量上也會(huì)表現(xiàn)出差異。因此,可以利用這些空間屬性特征來區(qū)分手勢(shì)目標(biāo)和身體干擾。

    基于上述分析,本文提出空間屬性特征,包括一維距離像潛在目標(biāo)的間距特征和能量特征、二維角度譜潛在目標(biāo)的間距特征和能量特征,以及距離角度譜潛在目標(biāo)的連通域特征,即潛在目標(biāo)之間的相對(duì)位置關(guān)系和相互之間形成的連通域關(guān)系。

    對(duì)于一維距離像提取的潛在目標(biāo),提取了5個(gè)空間屬性:

    f1=∑Kp1-1i=1∑Kp1j=i+1|Djp1-Dip1|(Kp1-1)2(13)

    f2=∑Kp1i=2|Dip1-D1p1|Kp1-1(14)

    f3=∑Kp1i=2Zip1|Dip1-D1p1|Kp1-1(15)

    f4=max(|Dip1-D1p1|),i∈[2,4](16)

    f5=∑Kp1i=2|Dip1-D1p1|Kp1-1(17)

    式中:Kp1表示一維潛在目標(biāo)的數(shù)量;Dip1表示第i個(gè)一維潛在目標(biāo)的位置;Zip1表示第i個(gè)一維潛在目標(biāo)的幅值;f1為全部一維潛在目標(biāo)之間的間距和;f2表示與最大一維潛在目標(biāo)的間距和;f3表示一維潛在目標(biāo)的加權(quán)平均能量;f4表示前5個(gè)最大一維潛在目標(biāo)與最大潛在目標(biāo)之間的最大間距;f5表示與最大一維潛在目標(biāo)之間的平均間距。

    對(duì)于二維角度譜提取的潛在目標(biāo),提取其5個(gè)空間屬性特征:

    f6=

    ∑Kp2-1i=1∑Kp2j=i+1 (Rip2-Rjp22ip2-θjp2β2(Kp2-1)2(18)

    f7=∑Kp2i=2 (Rip2-R1p22ip2-θ1p2β2Kp2-1(19)

    f8=∑Kp2i=1[Zip2 (Rip2-R1p22ip2-θ1p2β2](Kp2-1)·∑Kp2i=1Zip2(20)

    f9=max( (Rip2-R1p22ip2-θ1p2β2),

    i∈[2,4](21)

    f10=∑Kp2i=2|Rip2-R1p2|Kp2-1(22)

    式中:Kp2表示二維潛在目標(biāo)的數(shù)量;(Rip2,θip2)表示第i個(gè)二維潛在目標(biāo)的位置;Zip2表示第i個(gè)二維潛在目標(biāo)的幅值;β表示平衡距離和角度的加權(quán)因子;f6為全部二維潛在目標(biāo)之間的間距和;f7表示與最大二維潛在目標(biāo)的間距和;f8表示二維潛在目標(biāo)的加權(quán)平均能量;f9表示前5個(gè)最大二維潛在目標(biāo)與最大潛在目標(biāo)之間的最大間距;f10表示與最大二維潛在目標(biāo)之間的平均間距。

    對(duì)于二維角度譜的潛在目標(biāo)連通域,提取其5個(gè)空間屬性特征:

    f11=Nconn(23)

    f12=sum(Nlabel)(24)

    f13=max(Nlabel)(25)

    f14=∑Nconni=1∑Nij=1P(Li(j,1),Li(j,2))(26)

    f15=∑Nji=1P(Lj(i,1),Lj(i,2)), j=arg max(Nlabel)(27)

    式中:f11表示二維潛在目標(biāo)的連通域數(shù)量;f12表示連通域的總面積;f13表示最大連通域分量的面積;f14表示潛在目標(biāo)連通域的總能量;f15表示最大連通域分量的能量。

    通過以上對(duì)空間屬性特征的提取,最終生成空間屬性特征向量F=[f1,f2,f3,f4,f5,f6,f7,f8,f9,f10,f11,f12,f13,f14,f15]。為了驗(yàn)證這些特征的有效性,對(duì)實(shí)驗(yàn)中的一組身體干擾數(shù)據(jù)和手勢(shì)目標(biāo)數(shù)據(jù)分別提取了上述15個(gè)空間屬性特征,分布對(duì)比圖如圖8所示。

    在圖8中,每個(gè)三維特征分布對(duì)比圖由3個(gè)特征組成,其中手勢(shì)目標(biāo)和身體干擾用不同顏色進(jìn)行區(qū)分。由圖8可以觀察到,身體干擾與手勢(shì)目標(biāo)在空間屬性特征上存在明顯的差異,這是由不同類型的目標(biāo)與環(huán)境的相對(duì)分布決定的,身體干擾和手勢(shì)動(dòng)作的潛在目標(biāo)在數(shù)量和面積上有著各自的特點(diǎn),導(dǎo)致其在相對(duì)位置關(guān)系和能量上都有明顯區(qū)別。同時(shí),得到的連通域也會(huì)相應(yīng)表現(xiàn)出數(shù)量、面積和能量上的差異。這表明空間屬性特征是一種有效的特征,因此可聯(lián)合以上15個(gè)特征對(duì)手勢(shì)目標(biāo)和身體干擾進(jìn)行分類和識(shí)別。

    3.4 基于SVM分類器的干擾識(shí)別

    SVM分類器是一種二分類模型,通過在特征空間內(nèi)找到一個(gè)劃分超平面,即最優(yōu)分類面,正確劃分?jǐn)?shù)據(jù)樣本且?guī)缀伍g隔最大,以此來解決二分類問題。圖9為最優(yōu)分類面示意圖。

    對(duì)于線性可分的訓(xùn)練數(shù)據(jù)集,劃分超平面可以描述為ωTx+b=0。其中,ω為法向量,決定了超平面的方向,b為最優(yōu)分類面偏移,決定了超平面與原點(diǎn)之間的距離。最優(yōu)分類面可以由法向量和偏移唯一確定,因此SVM分類器的任務(wù)就是確定最優(yōu)分類面的參數(shù)ω和b,使獲得的超平面距離所有樣本之和最大,具有最好的泛化性能。當(dāng)訓(xùn)練樣本線性不可分時(shí),可以使用核函數(shù)將原始空間映射到另一個(gè)特征空間,使樣本在映射后的特征空間中線性可分,從而將線性SVM分類器轉(zhuǎn)換為非線性分類器。

    根據(jù)提取出的15個(gè)空間屬性特征,可以發(fā)現(xiàn)本文的訓(xùn)練樣本是線性不可分的,因此在使用SVM分類器時(shí),需要先使用核函數(shù)將樣本數(shù)據(jù)映射到高維空間。本文采用高斯核函數(shù),將樣本數(shù)據(jù)映射到無限維。分類器選用二分類模型,首先提取15個(gè)空間屬性特征,然后對(duì)特征向量進(jìn)行最大最小值歸一化,最后訓(xùn)練SVM非線性分類器模型執(zhí)行分類和識(shí)別任務(wù)。

    4 實(shí)驗(yàn)驗(yàn)證

    實(shí)驗(yàn)采用的雷達(dá)安裝方式為側(cè)裝,距離地面的高度為1 m。數(shù)據(jù)采集時(shí),人站在距離雷達(dá)0.5 m的位置進(jìn)行手勢(shì)動(dòng)作或身體干擾動(dòng)作。本文的雷達(dá)參數(shù)設(shè)置如下:調(diào)頻范圍為57.1~63.9 GHz,工作中心頻率為60.5 GHz,帶寬設(shè)置為6.8 GHz,距離分辨率為2.37 cm,調(diào)頻時(shí)間設(shè)置為110 μs,幀率設(shè)置為40 Hz,每幀設(shè)置4個(gè)線性調(diào)頻信號(hào),每個(gè)調(diào)頻信號(hào)的采樣點(diǎn)數(shù)為64,距離維度FFT的點(diǎn)數(shù)設(shè)置為128。

    在實(shí)驗(yàn)中,將手勢(shì)目標(biāo)記為正類,身體干擾記為負(fù)類。對(duì)于身體干擾,本文考慮了以下6種干擾情況:靜止?fàn)顟B(tài)、微動(dòng)狀態(tài)、運(yùn)動(dòng)狀態(tài)下的正前方身體干擾、靜止?fàn)顟B(tài)、微動(dòng)狀態(tài)、運(yùn)動(dòng)狀態(tài)下的側(cè)向身體干擾。正前方身體干擾位置指人體在雷達(dá)正前方,方位角為0°~60°,且在雷達(dá)探測(cè)范圍內(nèi);側(cè)向身體干擾位置指人體在雷達(dá)探測(cè)范圍內(nèi),但處于雷達(dá)視角的側(cè)面,方位角為60°~90°。本文靜止、微動(dòng)和運(yùn)動(dòng)狀態(tài)的定義如下:靜止?fàn)顟B(tài)——人體的位置和動(dòng)作保持相對(duì)靜止;微動(dòng)狀態(tài)——人體的位置相對(duì)不動(dòng),但手部、軀干等部位有輕微運(yùn)動(dòng);運(yùn)動(dòng)狀態(tài)——人體的位置發(fā)生變動(dòng)。實(shí)驗(yàn)場(chǎng)景如圖10所示,其中圖10(a)為實(shí)驗(yàn)者正常做手勢(shì)的示意圖;圖10(b)為靜止?fàn)顟B(tài)下的正前方身體干擾實(shí)驗(yàn)示意圖;圖10(c)~圖10(e)為微動(dòng)狀態(tài)下的身體干擾實(shí)驗(yàn),分別展示了實(shí)驗(yàn)者進(jìn)行轉(zhuǎn)身、俯身、抬手動(dòng)作的示意圖;圖10(f)為運(yùn)動(dòng)狀態(tài)下的身體干擾實(shí)驗(yàn)場(chǎng)景。對(duì)于手勢(shì)目標(biāo),采集了23 000幀數(shù)據(jù);對(duì)于6種身體干擾情況,分別采集了10 000幀數(shù)據(jù)樣本。共計(jì)7組數(shù)據(jù),全部數(shù)據(jù)樣本幀數(shù)為83 000幀。將本文提出的15個(gè)空間屬性特征分別輸入不同的分類器中進(jìn)行訓(xùn)練和測(cè)試,并比較在不同分類器下的識(shí)別準(zhǔn)確率。分類器選取常見的傳統(tǒng)機(jī)器學(xué)習(xí)算法,包括線性判別、K最近鄰(K-nearest neighbors, KNN)、樸素貝葉斯、決策樹以及SVM分類器。

    將6種身體干擾情況和正常手勢(shì)數(shù)據(jù)進(jìn)行混合,作為SVM分類器訓(xùn)練和測(cè)試的數(shù)據(jù)。實(shí)驗(yàn)采用五折交叉驗(yàn)證的方式,最終得到的結(jié)果如表1所示。由表1可知,相對(duì)于其他分類器,SVM分類器在混合干擾下具有最高的準(zhǔn)確率,模型參數(shù)較小,預(yù)測(cè)時(shí)間較短,適合在有限的嵌入式硬件資源下實(shí)現(xiàn)。

    實(shí)驗(yàn)測(cè)試手勢(shì)目標(biāo)與每一種身體干擾混合情況下的準(zhǔn)確率,以及手勢(shì)目標(biāo)與所有身體干擾混合情況下的綜合準(zhǔn)確率。實(shí)驗(yàn)采用五折交叉驗(yàn)證的方式,將身體干擾實(shí)驗(yàn)數(shù)據(jù)集分成5份,依次將其中4份作為訓(xùn)練集,剩下1份為測(cè)試集,進(jìn)行實(shí)驗(yàn)驗(yàn)證,最終得到的平均測(cè)試結(jié)果如表2所示。從表2的實(shí)驗(yàn)結(jié)果可以觀察到,本文所提出的15個(gè)空間屬性特征在不同身體干擾狀態(tài)下均能實(shí)現(xiàn)較高且接近的識(shí)別準(zhǔn)確率,在所有狀態(tài)混合下的身體干擾情況下,識(shí)別準(zhǔn)確率達(dá)到了97.3%。其中,在靜止?fàn)顟B(tài)下的身體干擾相對(duì)于其他兩種狀態(tài)下的身體干擾準(zhǔn)確率較低,這可能是因?yàn)樵谕耆o止?fàn)顟B(tài)下,靜止的身體干擾目標(biāo)容易被靜態(tài)雜波抑制消除,進(jìn)而使身體目標(biāo)的連通域能量、連通域個(gè)數(shù)、潛在目標(biāo)的間距特征等與手勢(shì)目標(biāo)的對(duì)應(yīng)特征發(fā)生混淆,進(jìn)而導(dǎo)致準(zhǔn)確率降低。

    保存混合干擾下訓(xùn)練得到的模型,并利用多幀累計(jì)進(jìn)行平滑預(yù)測(cè),結(jié)果如表3所示。在15幀的多幀平滑預(yù)測(cè)下,其準(zhǔn)確率提高到了98.94%,同時(shí)延時(shí)也較小。實(shí)驗(yàn)測(cè)試的高準(zhǔn)確率充分驗(yàn)證了本文所提空間屬性特征的有效性。

    5 結(jié) 論

    本文基于MIMO毫米波雷達(dá)展開了手勢(shì)目標(biāo)和身體干擾的分類識(shí)別研究,提出一種基于空間屬性特征的身體干擾算法。該算法包括一維潛在目標(biāo)提取、二維潛在目標(biāo)提取、連通域標(biāo)記、空間屬性特征提取以及SVM分類器識(shí)別,并在實(shí)際手勢(shì)以及干擾數(shù)據(jù)上進(jìn)行實(shí)驗(yàn)驗(yàn)證。實(shí)驗(yàn)結(jié)果顯示,所提方法在單幀預(yù)測(cè)下的識(shí)別準(zhǔn)確率為97.3%,在多幀預(yù)測(cè)下的識(shí)別準(zhǔn)確率可以達(dá)到98.94%,這表明該方法能夠有效地區(qū)分手勢(shì)目標(biāo)和身體干擾。

    參考文獻(xiàn)

    [1] GURBUZ S Z, GURBUZ A C, MALAIA E A, et al. ASL recognition based on kinematics derived from a multi-frequency RF sensor network[C]∥Proc.of the IEEE Sensors, 2020.

    [2] CHEN F Y, LYU H H, PANG Z B, et al. Wristcam: a wearable sensor for hand trajectory gesture recognition and intelligent human-robot interaction[J]. IEEE Sensors Journal, 2019, 19(19): 84418451.

    [3] PLESHKOVA S G, BEKVARSKI A B, ZAHARIEV Z T. Based on artificial intelligence and deep learning hand gesture recognition for interaction with mobile robots[C]∥Proc.of the 10th National Conference with International Participation, 2019.

    [4] OHN-BAR E, TRIVEDI M M. Hand gesture recognition in real time for automotive interfaces: a multimodal vision-based approach and evaluations[J]. IEEE Trans.on Intelligent Transportation Systems, 2014, 15(6): 23682377.

    [5] LEITE D A T Q, DUARTE J C, OLIVEIRA J C, et al. A system to interact with CAVE applications using hand gesture recognition from depth data[C]∥Proc.of the 16th Symposium on Virtual and Augmented Reality, 2014: 246253.

    [6] HE W F, WU K S, ZOU Y P, et al. WiG: wifi-based gesture recognition system[C]∥Proc.of the 24th International Confe-rence on Computer Communication and Networks, 2015.

    [7] VENKATNARAYAN R H, MAHMOOD S, SHAHZAD M. Wifi based multi-user gesture recognition[J]. IEEE Trans.on Mobile Computing, 2019, 20(3): 12421256.

    [8] PITTMAN C, WISNIEWSKI P, BROOKS C, et al. Multiwave: Doppler effect based gesture recognition in multiple dimensions[C]∥Proc.of the Conference on Human Factors in Computing Systems Conference Extended Abstracts on Human Factors in Computing Systems, 2016: 17291736.

    [9] ZHOU F F, LI X Y, WANG Z H. Efficiently user-independent ultrasonic-based gesture recognition algorithm[C]∥Proc.of the IEEE Sensors, 2019.

    [10] 江浩. 基于智能腕表的手寫識(shí)別研究[D]. 上海: 上海交通大學(xué), 2020.

    JIANG H. Research on handwriting recognition based on smart watches[D]. Shanghai: Shanghai Jiao Tong University, 2020.

    [11] CHOI E S, BANG W C, CHO S J, et al. Beatbox music phone: gesture-based interactive mobile phone using a tri-axis accelerometer[C]∥Proc.of the IEEE International Conference on Industrial Technology, 2005: 97102.

    [12] PAUDYAL P, LEE J, BANERJEE A, et al. Dyfav: dynamic feature selection and voting for real-time recognition of fingerspelled alphabet using wearables[C]∥Proc.of the 22nd International Conference on Intelligent User Interfaces, 2017: 457467.

    [13] RODRIGUEZ D, PIRYATINSKA A, ZHANG X. A neural decision forest scheme with application to EMG gesture classification[C]∥Proc.of the Science and Information Computing Conference, 2016: 243252.

    [14] LI Y, WANG X G, LIU W Y, et al. Deep attention network for joint hand gesture localization and recognition using static RGB-D images[J]. Information Sciences, 2018, 441: 6678.

    [15] 施向軍, 王星堯. 基于紅外傳感器和隱馬爾可夫模型的動(dòng)態(tài)手勢(shì)識(shí)別[J]. 電子器件, 2018, 41(5): 12861290.

    SHI X J, WANG X R. Dynamic gesture recognition based on infrared sensor and hidden Markov model[J]. Chinese Journal of Electron Devices, 2018, 41(5): 12861290.

    [16] FANG B Y, CO J, ZHANG M. DeepASL: enabling ubiquitous and non-intrusive word and sentence-level sign language translation[C]∥Proc.of the 15th ACM Conference on Embedded Network Sensor Systems, 2017.

    [17] 趙愛芳, 裴東, 王全州, 等. 復(fù)雜環(huán)境中多信息融合的手勢(shì)識(shí)別[J]. 計(jì)算機(jī)工程與應(yīng)用, 2014, 50(5): 180184.

    ZHAO A F, PEI D, WANG Q Z, et al. Gesture recognition with multi-information fusion in complex environments[J]. Computer Engineering and Applications, 2014, 50(5): 180184.

    [18] LIU K, CHEN C, JAFARI R, et al. Multi-HMM classification for hand gesture recognition using two differing modality sensors[C]∥Proc.of the IEEE Dallas Circuits and Systems Conference, 2014.

    [19] YANG Z C, ZHENG X B. Hand gesture recognition based on trajectories features and computation-efficient reused LSTM network[J]. IEEE Sensors Journal, 202 21(15): 1694516960.

    [20] DAIM T J, LEE R M A. The effect of body position on IR-UWB radar sensor-based hand gesture speed recognition and classification system[C]∥Proc.of the IEEE International Conference on Automatic Control and Intelligent Systems, 2022: 158162.

    [21] STADELMAVER T, SANTRA A, WEIGEL R, et al. Radar-based gesture recognition using a variational autoencoder with deep statistical metric learning[J]. IEEE Trans.on Microwave Theory and Techniques, 202 70(11): 50515062.

    [22] CHOI J, PARK C, KIM J. FMCW radar-based real-time hand gesture recognition system capable of out-of-distribution detection[J]. IEEE Access, 202 10: 8742587434.

    [23] AHMED S, KIM W, PARK J, et al. Radar-based air-writing gesture recognition using a novel multistream CNN approach[J]. IEEE Internet of Things Journal, 202 9(23): 2386923880.

    [24] CHEN Q, LI Y W, CUI Z Y, et al. A hand gesture recognition method for mmwave radar based on angle-range joint temporal feature[C]∥Proc.of the IEEE International Geoscience and Remote Sensing Symposium, 2022: 26502653.

    [25] WANG X R, LI W L, CHEN V C. Hand gesture recognition using radial and transversal dual micromotion features[J]. IEEE Trans.on Aerospace and Electronic Systems, 202 58(6): 59635973.

    [26] DONG L F, MA Z X, ZHU X C. Dynamic gesture recognition network based on vehicular millimeter wave radar[J]. Transactions of Beijing Institute of Technology, 2023, 43(5): 493498.

    [27] TONG P P, WENG C E, BI X, et al. Micro gesture recognition of the millimeter-wave radar based on multi-branch residual neural network[C]∥Proc.of the SAE Intelligent and Connected Vehicles Symposium, 2022.

    [28] WANG Y, ZHANG J, ZHAO X C, Research on hand gesture recognition based on millimeter wave radar[C]∥Proc.of the 3rd International Conference on Consumer Electronics and Computer Engineering, 2023: 205209.

    [29] SHARMA R R, KUMAR K A, CHO S H. Novel time-distance parameters based hand gesture recognition system using multi-UWB radars[J]. IEEE Sensors Letters, 2023, 7(5): 6002204.

    [30] YANG Z C, HUANG X Z. Cascaded regional people counting approach based on two-dimensional spatial attribute features using MIMO radar[J]. IEEE Geoscience and Remote Sensing Letters, 202 19: 3508005.

    [31] 杜鵬飛, 張祥軍. 單元平均恒虛警率檢測(cè)中的一個(gè)新結(jié)論[J]. 現(xiàn)代雷達(dá), 2007, 29(2): 6062.

    DU P F, ZHANG X J. A new conclusion in CA-CFAR detection[J]. Modern Radar, 2007, 29(2): 6062.

    作者簡(jiǎn)介

    蔡嘉怡(2000—),女,碩士研究生,主要研究方向?yàn)槔走_(dá)信號(hào)處理。

    初 萍(1983—),女,講師,博士,主要研究方向?yàn)槔走_(dá)信號(hào)處理。

    莊倫濤(1998—),男,碩士,主要研究方向?yàn)槔走_(dá)信號(hào)處理。

    陽召成(1984—),男,副教授,博士,主要研究方向?yàn)槔走_(dá)信號(hào)處理、陣列信號(hào)處理、壓縮感知、自動(dòng)目標(biāo)識(shí)別。

    猜你喜歡
    特征提取
    特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
    基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
    電子制作(2019年15期)2019-08-27 01:12:00
    基于Daubechies(dbN)的飛行器音頻特征提取
    電子制作(2018年19期)2018-11-14 02:37:08
    基于DNN的低資源語音識(shí)別特征提取技術(shù)
    Bagging RCSP腦電特征提取算法
    一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
    基于DSP的直線特征提取算法
    基于改進(jìn)WLD的紋理特征提取方法
    淺析零件圖像的特征提取和識(shí)別方法
    基于CATIA的橡皮囊成形零件的特征提取
    欧美日韩精品成人综合77777| 又爽又黄无遮挡网站| 久久久久久久久久久丰满 | 午夜免费男女啪啪视频观看 | 深夜a级毛片| 一进一出好大好爽视频| 我要看日韩黄色一级片| 成人特级av手机在线观看| 久久这里只有精品中国| 男人舔女人下体高潮全视频| 久久久久久久久大av| 精品国产三级普通话版| 99国产极品粉嫩在线观看| 午夜免费男女啪啪视频观看 | 色尼玛亚洲综合影院| 午夜精品一区二区三区免费看| 99精品在免费线老司机午夜| 国产精品电影一区二区三区| 99热精品在线国产| 在线播放无遮挡| 成人国产综合亚洲| 一级黄色大片毛片| 久久热精品热| 大型黄色视频在线免费观看| 男女边吃奶边做爰视频| 男人和女人高潮做爰伦理| 精品人妻一区二区三区麻豆 | 又紧又爽又黄一区二区| 国产精品久久久久久精品电影| а√天堂www在线а√下载| 精品无人区乱码1区二区| 国产精品一区二区免费欧美| 亚洲电影在线观看av| 精品一区二区免费观看| 午夜老司机福利剧场| 久久久久性生活片| 国产精品一区二区免费欧美| 三级国产精品欧美在线观看| 国产亚洲91精品色在线| 在线免费十八禁| 久久久久久久亚洲中文字幕| 99视频精品全部免费 在线| 国内揄拍国产精品人妻在线| 亚洲国产精品成人综合色| 中出人妻视频一区二区| 成人高潮视频无遮挡免费网站| 亚洲乱码一区二区免费版| 国产综合懂色| 99视频精品全部免费 在线| 国产精品一区二区性色av| 久久久色成人| 91在线精品国自产拍蜜月| 麻豆国产97在线/欧美| 一级毛片久久久久久久久女| 国产精品女同一区二区软件 | 国产精品久久久久久久久免| 又黄又爽又刺激的免费视频.| 国产精品不卡视频一区二区| 国产视频一区二区在线看| 国产精品久久久久久亚洲av鲁大| 午夜a级毛片| 国产黄a三级三级三级人| 亚洲七黄色美女视频| 日韩亚洲欧美综合| 成人亚洲精品av一区二区| 啦啦啦观看免费观看视频高清| 美女被艹到高潮喷水动态| 看免费成人av毛片| 国产高潮美女av| 精品久久久久久久久亚洲 | 久久久久精品国产欧美久久久| 成人国产综合亚洲| 国产精品,欧美在线| 日本一二三区视频观看| 亚洲人成网站高清观看| 国产爱豆传媒在线观看| 欧美一区二区国产精品久久精品| 麻豆精品久久久久久蜜桃| 国产成人一区二区在线| 久久精品国产自在天天线| 日韩av在线大香蕉| 国产又黄又爽又无遮挡在线| 色哟哟哟哟哟哟| 波多野结衣高清作品| 好男人在线观看高清免费视频| 大又大粗又爽又黄少妇毛片口| 99久久久亚洲精品蜜臀av| 国产一区二区在线av高清观看| 国产真实乱freesex| 亚洲av中文字字幕乱码综合| 国产精品无大码| 少妇裸体淫交视频免费看高清| 亚洲一区高清亚洲精品| 国产黄片美女视频| 亚洲18禁久久av| 久久午夜亚洲精品久久| 看黄色毛片网站| 婷婷精品国产亚洲av在线| av在线天堂中文字幕| 啦啦啦啦在线视频资源| h日本视频在线播放| 国产免费av片在线观看野外av| 国模一区二区三区四区视频| 联通29元200g的流量卡| 国产高清不卡午夜福利| 欧美日韩精品成人综合77777| а√天堂www在线а√下载| 免费黄网站久久成人精品| 国产亚洲精品综合一区在线观看| 麻豆成人av在线观看| 一进一出好大好爽视频| 搡老妇女老女人老熟妇| 欧美日韩亚洲国产一区二区在线观看| 在线天堂最新版资源| 天堂动漫精品| 99热这里只有是精品在线观看| 日韩国内少妇激情av| 久久精品国产自在天天线| 国模一区二区三区四区视频| 淫妇啪啪啪对白视频| 国产高潮美女av| 日韩强制内射视频| 国产精品久久电影中文字幕| 变态另类成人亚洲欧美熟女| 日韩中字成人| 一区二区三区高清视频在线| 日韩在线高清观看一区二区三区 | 国产亚洲精品久久久久久毛片| 深夜a级毛片| 亚洲精品粉嫩美女一区| 97热精品久久久久久| 欧美3d第一页| 99热精品在线国产| 精品不卡国产一区二区三区| 美女免费视频网站| 欧美日韩中文字幕国产精品一区二区三区| 一边摸一边抽搐一进一小说| 成年女人毛片免费观看观看9| 免费一级毛片在线播放高清视频| 国语自产精品视频在线第100页| 校园春色视频在线观看| 欧美色视频一区免费| 国产精品一区www在线观看 | 欧美一区二区精品小视频在线| 国产主播在线观看一区二区| 我要看日韩黄色一级片| 欧美色视频一区免费| 黄色丝袜av网址大全| 久久久久久久久久成人| 男女啪啪激烈高潮av片| 亚洲国产欧洲综合997久久,| 欧美xxxx黑人xx丫x性爽| 久久草成人影院| 免费av观看视频| 我的老师免费观看完整版| 日韩强制内射视频| 在线播放国产精品三级| 国产精品久久久久久亚洲av鲁大| 最近最新免费中文字幕在线| 天堂av国产一区二区熟女人妻| 国产一区二区三区av在线 | or卡值多少钱| 直男gayav资源| 国产女主播在线喷水免费视频网站 | 国产探花极品一区二区| 一进一出好大好爽视频| 久久精品国产亚洲网站| 亚洲专区国产一区二区| a级毛片a级免费在线| 中出人妻视频一区二区| 国产免费一级a男人的天堂| 亚洲性夜色夜夜综合| 亚洲久久久久久中文字幕| 国产午夜福利久久久久久| 精品久久国产蜜桃| 精品久久久久久成人av| 在线观看av片永久免费下载| 欧美激情在线99| 又黄又爽又刺激的免费视频.| 日日啪夜夜撸| 嫁个100分男人电影在线观看| 午夜视频国产福利| 国产精品av视频在线免费观看| 日韩亚洲欧美综合| 国产精品国产高清国产av| 国产精品国产三级国产av玫瑰| 国产精品一区www在线观看 | 久久国内精品自在自线图片| 国产午夜精品论理片| 男女做爰动态图高潮gif福利片| 最近在线观看免费完整版| 久久久久久久久久成人| 久久人人爽人人爽人人片va| 极品教师在线视频| 日韩欧美 国产精品| 一个人免费在线观看电影| 午夜久久久久精精品| 97碰自拍视频| 高清毛片免费观看视频网站| 欧美人与善性xxx| 91麻豆精品激情在线观看国产| 可以在线观看的亚洲视频| 国产毛片a区久久久久| 亚洲精品色激情综合| xxxwww97欧美| 麻豆久久精品国产亚洲av| 午夜亚洲福利在线播放| 免费人成在线观看视频色| 亚洲自拍偷在线| 日韩高清综合在线| 亚洲va日本ⅴa欧美va伊人久久| 99久久中文字幕三级久久日本| 非洲黑人性xxxx精品又粗又长| 国产乱人伦免费视频| 久久精品综合一区二区三区| 精品人妻一区二区三区麻豆 | 日本色播在线视频| 久久6这里有精品| 色尼玛亚洲综合影院| 此物有八面人人有两片| 国产亚洲精品久久久com| 国产伦在线观看视频一区| 久久久久久久久大av| 欧美色欧美亚洲另类二区| 18+在线观看网站| 国内精品美女久久久久久| 久久久久久久久久成人| 神马国产精品三级电影在线观看| 精品国产三级普通话版| 少妇裸体淫交视频免费看高清| 国产精品久久久久久久久免| 日本黄色视频三级网站网址| 丰满乱子伦码专区| 校园春色视频在线观看| 免费在线观看影片大全网站| 校园人妻丝袜中文字幕| 九色国产91popny在线| 人人妻,人人澡人人爽秒播| 99久久无色码亚洲精品果冻| 国产探花在线观看一区二区| 久久国产乱子免费精品| 亚洲欧美清纯卡通| 国产精品不卡视频一区二区| 久久婷婷人人爽人人干人人爱| 亚洲成人久久爱视频| 欧美日韩瑟瑟在线播放| 亚洲熟妇中文字幕五十中出| 欧美3d第一页| 亚洲中文字幕日韩| or卡值多少钱| 极品教师在线视频| 人妻制服诱惑在线中文字幕| av国产免费在线观看| 99国产精品一区二区蜜桃av| 精品99又大又爽又粗少妇毛片 | 天堂动漫精品| 麻豆国产av国片精品| 国产伦精品一区二区三区四那| 日韩精品青青久久久久久| 综合色av麻豆| xxxwww97欧美| 不卡视频在线观看欧美| 精品久久久久久久久亚洲 | 精品福利观看| 成人国产麻豆网| 国产成人影院久久av| 免费在线观看日本一区| 免费看a级黄色片| 欧美成人a在线观看| 国产成人a区在线观看| 91久久精品电影网| 色播亚洲综合网| 国产亚洲精品综合一区在线观看| 高清日韩中文字幕在线| 毛片女人毛片| 深爱激情五月婷婷| 色精品久久人妻99蜜桃| 中文在线观看免费www的网站| 免费观看在线日韩| 精品久久国产蜜桃| 中文字幕精品亚洲无线码一区| 亚洲国产精品合色在线| 一进一出好大好爽视频| 午夜精品久久久久久毛片777| 又黄又爽又刺激的免费视频.| 在线观看66精品国产| 在线观看av片永久免费下载| 综合色av麻豆| 一级av片app| 看免费成人av毛片| 国产伦精品一区二区三区视频9| 男插女下体视频免费在线播放| 精品久久久久久久人妻蜜臀av| 午夜影院日韩av| 毛片一级片免费看久久久久 | 免费看光身美女| 国产精品一及| 午夜激情福利司机影院| 日韩国内少妇激情av| 久久久久久伊人网av| 别揉我奶头~嗯~啊~动态视频| 国产免费男女视频| 99热网站在线观看| 久久久久久久久久久丰满 | 亚洲自拍偷在线| 一区二区三区四区激情视频 | 精品一区二区三区av网在线观看| 他把我摸到了高潮在线观看| 国产精品永久免费网站| 久久这里只有精品中国| 欧洲精品卡2卡3卡4卡5卡区| 精品国产三级普通话版| 亚洲不卡免费看| av国产免费在线观看| 成年免费大片在线观看| 村上凉子中文字幕在线| 日本黄色片子视频| 国产三级在线视频| 色视频www国产| 又粗又爽又猛毛片免费看| 久9热在线精品视频| av天堂中文字幕网| 欧美成人一区二区免费高清观看| av福利片在线观看| 中国美女看黄片| 国产乱人伦免费视频| 两个人视频免费观看高清| 国产精品不卡视频一区二区| 久久久久久大精品| 成人精品一区二区免费| 亚洲av日韩精品久久久久久密| 联通29元200g的流量卡| 国产成人福利小说| 亚洲av中文字字幕乱码综合| 亚洲熟妇熟女久久| 亚洲av中文字字幕乱码综合| a级毛片a级免费在线| 国产激情偷乱视频一区二区| 久久久久久大精品| 91在线观看av| 我要搜黄色片| 亚洲最大成人中文| 一个人观看的视频www高清免费观看| 国产精品亚洲美女久久久| 国产一区二区三区在线臀色熟女| 久久久久久久久中文| 琪琪午夜伦伦电影理论片6080| 免费在线观看日本一区| 成年女人永久免费观看视频| 波多野结衣巨乳人妻| 成年女人永久免费观看视频| 在线国产一区二区在线| 美女xxoo啪啪120秒动态图| 国产精品人妻久久久久久| 久久人人爽人人爽人人片va| 国产精品野战在线观看| 噜噜噜噜噜久久久久久91| 真人做人爱边吃奶动态| or卡值多少钱| 国产精品99久久久久久久久| 一区二区三区四区激情视频 | 在线国产一区二区在线| a级毛片a级免费在线| 少妇的逼水好多| 久久久久久久午夜电影| 久久久久久久亚洲中文字幕| 一a级毛片在线观看| 在线看三级毛片| 日韩一本色道免费dvd| 一夜夜www| 天堂影院成人在线观看| 深夜a级毛片| 午夜激情欧美在线| 老司机午夜福利在线观看视频| 久久久久久久久久久丰满 | 亚洲国产欧美人成| 欧洲精品卡2卡3卡4卡5卡区| 国产真实伦视频高清在线观看 | 亚洲av中文av极速乱 | 欧美区成人在线视频| 偷拍熟女少妇极品色| 美女被艹到高潮喷水动态| 天堂动漫精品| 天堂影院成人在线观看| 久久亚洲精品不卡| 亚洲avbb在线观看| 婷婷色综合大香蕉| 免费看日本二区| 最好的美女福利视频网| 狂野欧美白嫩少妇大欣赏| 悠悠久久av| 好男人在线观看高清免费视频| 女同久久另类99精品国产91| 日日干狠狠操夜夜爽| 老司机深夜福利视频在线观看| 亚洲国产欧洲综合997久久,| 麻豆av噜噜一区二区三区| 免费在线观看影片大全网站| 日本一二三区视频观看| 国产精品一区二区三区四区免费观看 | 精品久久久久久,| 麻豆国产av国片精品| 国产精品电影一区二区三区| 99久久中文字幕三级久久日本| 亚洲国产精品久久男人天堂| 午夜福利欧美成人| aaaaa片日本免费| 成人毛片a级毛片在线播放| 午夜免费激情av| 日本熟妇午夜| 日韩欧美一区二区三区在线观看| 最新在线观看一区二区三区| 男女啪啪激烈高潮av片| 亚洲国产色片| 1000部很黄的大片| 女人十人毛片免费观看3o分钟| 国产伦精品一区二区三区四那| 国产高清激情床上av| 日韩 亚洲 欧美在线| 变态另类成人亚洲欧美熟女| 免费大片18禁| 欧美最黄视频在线播放免费| 国内揄拍国产精品人妻在线| 精品无人区乱码1区二区| av天堂中文字幕网| 日韩欧美免费精品| 成人欧美大片| 亚洲一级一片aⅴ在线观看| 成人亚洲精品av一区二区| 午夜福利在线在线| 最近在线观看免费完整版| 日本黄色视频三级网站网址| 亚洲黑人精品在线| 国产伦一二天堂av在线观看| 国产黄a三级三级三级人| 一本精品99久久精品77| 国产不卡一卡二| 色视频www国产| 欧美+亚洲+日韩+国产| 极品教师在线视频| av在线蜜桃| 欧美xxxx性猛交bbbb| 午夜福利18| 女的被弄到高潮叫床怎么办 | 亚洲图色成人| 天堂√8在线中文| 亚洲成av人片在线播放无| 狠狠狠狠99中文字幕| 亚洲经典国产精华液单| 国内精品宾馆在线| 大型黄色视频在线免费观看| 国产精品久久久久久久久免| 精品久久久久久,| 欧美丝袜亚洲另类 | 久久精品国产亚洲av涩爱 | 午夜视频国产福利| 精华霜和精华液先用哪个| 丝袜美腿在线中文| 久久精品国产亚洲av涩爱 | 乱码一卡2卡4卡精品| 日韩中字成人| 两人在一起打扑克的视频| 国产高潮美女av| 男女视频在线观看网站免费| 亚洲,欧美,日韩| 色哟哟·www| 亚洲人成网站高清观看| 国产精品久久久久久精品电影| 特大巨黑吊av在线直播| 亚洲精品一区av在线观看| 99精品久久久久人妻精品| 亚洲电影在线观看av| 精品久久久久久久末码| 国产免费男女视频| 国产精品自产拍在线观看55亚洲| 精品久久久久久久人妻蜜臀av| 久久久久久久午夜电影| 欧美精品啪啪一区二区三区| 亚洲欧美清纯卡通| 日日啪夜夜撸| 日本在线视频免费播放| 国产一区二区激情短视频| 国产精品99久久久久久久久| 午夜免费激情av| 亚洲精品亚洲一区二区| 国产精品久久电影中文字幕| 99在线人妻在线中文字幕| 国产精品亚洲美女久久久| 欧美xxxx黑人xx丫x性爽| 久久久久久九九精品二区国产| 欧美中文日本在线观看视频| 精品国产三级普通话版| 99精品在免费线老司机午夜| 亚洲七黄色美女视频| 免费观看在线日韩| 美女高潮的动态| 香蕉av资源在线| 免费一级毛片在线播放高清视频| 成人午夜高清在线视频| 国产午夜福利久久久久久| 麻豆精品久久久久久蜜桃| 久久精品国产亚洲av香蕉五月| 99热精品在线国产| 国产高清有码在线观看视频| 亚洲第一区二区三区不卡| 日本撒尿小便嘘嘘汇集6| 日本 av在线| 国产探花在线观看一区二区| 69人妻影院| 国产一级毛片七仙女欲春2| 亚洲成a人片在线一区二区| 亚洲美女视频黄频| 国产精品野战在线观看| 色播亚洲综合网| 国产高潮美女av| 如何舔出高潮| 变态另类丝袜制服| 国产毛片a区久久久久| 麻豆国产av国片精品| 一级a爱片免费观看的视频| 老师上课跳d突然被开到最大视频| 综合色av麻豆| 小说图片视频综合网站| x7x7x7水蜜桃| 久久精品国产清高在天天线| 午夜日韩欧美国产| www.www免费av| 久久久午夜欧美精品| 欧美高清性xxxxhd video| 亚洲国产欧美人成| 国产精品98久久久久久宅男小说| 99精品久久久久人妻精品| 午夜福利欧美成人| 日日摸夜夜添夜夜添小说| 亚洲aⅴ乱码一区二区在线播放| 我的老师免费观看完整版| 极品教师在线视频| 国产成人福利小说| h日本视频在线播放| 国产成人av教育| 国产免费av片在线观看野外av| 中文字幕高清在线视频| 最近最新免费中文字幕在线| av天堂在线播放| 国产综合懂色| 日本免费a在线| 永久网站在线| 亚洲精品456在线播放app | 午夜日韩欧美国产| 日韩高清综合在线| 国产精品无大码| 黄色欧美视频在线观看| 欧美成人性av电影在线观看| 国产精品综合久久久久久久免费| 成人亚洲精品av一区二区| 亚洲国产欧美人成| 一级黄色大片毛片| 美女高潮的动态| 日本精品一区二区三区蜜桃| 人妻制服诱惑在线中文字幕| 国产精品一区www在线观看 | 免费一级毛片在线播放高清视频| 亚洲五月天丁香| 人人妻,人人澡人人爽秒播| 一本精品99久久精品77| 少妇裸体淫交视频免费看高清| 国产一区二区三区视频了| 成熟少妇高潮喷水视频| 有码 亚洲区| .国产精品久久| xxxwww97欧美| 亚洲18禁久久av| 国产精品一区二区三区四区免费观看 | 精品无人区乱码1区二区| 91麻豆精品激情在线观看国产| 成人永久免费在线观看视频| 日韩亚洲欧美综合| 久久亚洲精品不卡| netflix在线观看网站| 桃红色精品国产亚洲av| 一级a爱片免费观看的视频| 日韩一区二区视频免费看| 国模一区二区三区四区视频| 色在线成人网| 精品一区二区三区av网在线观看| 欧美zozozo另类| 亚洲 国产 在线| 欧美国产日韩亚洲一区| 十八禁网站免费在线| 亚洲成av人片在线播放无| 岛国在线免费视频观看| 黄色配什么色好看| 欧美在线一区亚洲| 国产精品98久久久久久宅男小说| 成年人黄色毛片网站| 午夜福利高清视频| 久久久久性生活片| eeuss影院久久| 尤物成人国产欧美一区二区三区| 欧美黑人欧美精品刺激| 欧美高清成人免费视频www| 狠狠狠狠99中文字幕| 黄色日韩在线| 91久久精品国产一区二区成人| 免费无遮挡裸体视频| 日本欧美国产在线视频| 国产乱人视频| 91麻豆av在线| 免费电影在线观看免费观看| 免费一级毛片在线播放高清视频| 搡老妇女老女人老熟妇| 亚洲人成网站在线播放欧美日韩| 能在线免费观看的黄片| 亚洲精品日韩av片在线观看| 精品人妻一区二区三区麻豆 |