摘 要:手勢(shì)識(shí)別中,身體的移動(dòng)容易被誤判為手勢(shì)動(dòng)作,對(duì)手勢(shì)識(shí)別造成干擾。因此,針對(duì)存在的身體干擾問題,提出了基于空間屬性特征的身體干擾識(shí)別算法。在對(duì)毫米波雷達(dá)接收信號(hào)進(jìn)行預(yù)處理后,首先分別對(duì)一維距離像和二維距離角度譜提取一維潛在目標(biāo)和二維潛在目標(biāo),并對(duì)二維潛在目標(biāo)進(jìn)行連通域標(biāo)記。然后,基于潛在目標(biāo)及連通域提取出用于區(qū)分身體干擾和手勢(shì)目標(biāo)的空間屬性特征。最后,采用支持向量機(jī)(support vector machine, SVM)分類器進(jìn)行身體干擾識(shí)別。實(shí)驗(yàn)結(jié)果表明,所提方法能有效區(qū)分身體干擾和手勢(shì)目標(biāo),單幀預(yù)測(cè)下準(zhǔn)確率為97.3%,多幀預(yù)測(cè)下準(zhǔn)確率為98.94%。
關(guān)鍵詞: 毫米波雷達(dá); 手勢(shì)識(shí)別; 身體干擾; 空間屬性特征; 特征提取
中圖分類號(hào): TN 959 文獻(xiàn)標(biāo)志碼: A""" DOI:10.12305/j.issn.1001-506X.2024.10.14
Millimeter-wave radar body interference recognition based on
spatial attribute features
CAI Jiayi, CHU Ping ZHUANG Luntao, YANG Zhaocheng
(College of Electronics and Information Engineering, Shenzhen University, Shenzhen 518000, China)
Abstract: In gesture recognition, the movement of the body is easily misjudged as a gesture action, which interferes the gesture recognition. Therefore, in view of the existing body interference problem, a body interference recognition algorithm based on spatial attribute features is proposed. After preprocessing the received signal of millimeter-wave radar, firstly, the one-dimensional potential targets and the two-dimensional potential targets are extracted from the one-dimensional range image and the two-dimensional range angle spectrum, and the connected domains are labeled for the two-dimensional potential targets. Then, based on the potential targets and the connected domains, the spatial attribute features used to distinguish between body interference and gesture targets are extracted. Finally, the support vector machine (SVM) classifier is used for body interference recognition. Experimental results show that the proposed method can effectively distinguish body interference from gesture targets, and the accuracy rate reaches 97.3% under single-frame prediction and 98.94% under multi-frame prediction.
Keywords: millimeter-wave radar; gesture recognition; body interference; spatial attribute features; feature extraction
0 引 言
近年來,手勢(shì)識(shí)別技術(shù)因其廣泛的應(yīng)用場(chǎng)景而備受關(guān)注,其應(yīng)用領(lǐng)域主要包括日常生活、汽車、娛樂、醫(yī)療等領(lǐng)域,例如可以用于幫助聾啞人正常交流[1]、控制機(jī)器人[23]、輔助自動(dòng)駕駛[4]及虛擬現(xiàn)實(shí)游戲[5]。手勢(shì)識(shí)別技術(shù)可以大致分為5種類型:基于穿戴設(shè)備技術(shù)、基于視覺技術(shù)、基于Wi-Fi信號(hào)技術(shù)[67]、基于超聲波技術(shù)[89]和基于雷達(dá)的手勢(shì)識(shí)別技術(shù)。其中:基于穿戴設(shè)備的手勢(shì)識(shí)別技術(shù)包括慣性傳感器(加速度計(jì)、陀螺儀)[1011]、肌電傳感器[1213]和多傳感器等;基于視覺的手勢(shì)識(shí)別技術(shù)包括紅綠藍(lán)(red-green-blue, RGB)相機(jī)[14]、紅外相機(jī)[1516]和Kinect深度相機(jī)[1718]等。在這些傳感器技術(shù)中,穿戴設(shè)備要求使用者長(zhǎng)期穿戴,影響用戶體驗(yàn),且不易攜帶,使用成本高;視覺技術(shù)易受光線影響,在強(qiáng)光和弱光環(huán)境下成像質(zhì)量較差;Wi-Fi信號(hào)帶寬較小,工作頻段較低,易受封閉空間中多徑效應(yīng)干擾,從而降低手勢(shì)識(shí)別的準(zhǔn)確率和魯棒性;超聲波技術(shù)的作用范圍較短,性能隨距離增加而明顯下降,同時(shí)還存在噪聲干擾等問題。
相比之下,雷達(dá)傳感器具有許多優(yōu)勢(shì),如不受光線、天氣、煙塵、雨霧、聲音等外界環(huán)境的影響,能夠全天時(shí)、全天候工作,同時(shí)具有較強(qiáng)的抗干擾能力和穿透能力。此外,雷達(dá)傳感器還具有非接觸和保護(hù)個(gè)人隱私的優(yōu)點(diǎn)。因此,在人機(jī)交互領(lǐng)域,基于雷達(dá)的手勢(shì)識(shí)別技術(shù)成為國(guó)內(nèi)外的研究熱點(diǎn)之一。
而在實(shí)際手勢(shì)識(shí)別應(yīng)用中,不可避免地存在身體干擾,由于手勢(shì)目標(biāo)和身體干擾信號(hào)的相似性,這些干擾會(huì)導(dǎo)致誤判并使手勢(shì)識(shí)別的準(zhǔn)確率降低。目前,研究人員已經(jīng)展開了一系列基于雷達(dá)的手勢(shì)識(shí)別研究。例如,文獻(xiàn)[19]提取距離多普勒角軌跡,構(gòu)建了一個(gè)輕量級(jí)循環(huán)前向傳播的長(zhǎng)短時(shí)記憶(long-short term memory, LSTM)網(wǎng)絡(luò)進(jìn)行識(shí)別。文獻(xiàn)[20]利用脈沖無線電超寬帶(impulse radio ultra-wideband, IR-UWB)雷達(dá)研究了身體位置對(duì)于手勢(shì)速度識(shí)別和分類的影響。文獻(xiàn)[21]提出一種基于變分自編碼器和混合先驗(yàn)的雷達(dá)手勢(shì)識(shí)別方法以實(shí)現(xiàn)手勢(shì)的聚類和分類,可以處理雷達(dá)信號(hào)中的噪聲、背景環(huán)境和未知手勢(shì)或背景運(yùn)動(dòng)的影響。文獻(xiàn)[22]使用基于Transformer編碼器的分類器對(duì)手勢(shì)進(jìn)行分類,并采用基于相對(duì)馬氏距離的方法檢測(cè)分布外的手勢(shì)樣本,從而提高了系統(tǒng)的可靠性。文獻(xiàn)[23]提出一種基于新型多流卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)的雷達(dá)空中書寫手勢(shì)識(shí)別方法,將雷達(dá)信號(hào)分為3個(gè)子流,分別提取距離、速度和角度的特征,并進(jìn)行特征融合,實(shí)現(xiàn)手勢(shì)的識(shí)別。文獻(xiàn)[24]提取角度距離聯(lián)合時(shí)序特征進(jìn)行手勢(shì)識(shí)別,該三維矩陣特征包含方位角、距離和速度信息,并提出一種基于CNN-LSTM網(wǎng)絡(luò)的手勢(shì)分類模型,能夠有效地利用特征中的時(shí)空信息。文獻(xiàn)[25]利用具有兩個(gè)間隔較遠(yuǎn)的接收器的干涉雷達(dá)來獲取手勢(shì)的徑向和橫向微運(yùn)動(dòng)特征,并提出一種頻域后干涉預(yù)處理方法,降低了頻譜圖的噪聲水平,并抑制了干擾的交叉項(xiàng)。文獻(xiàn)[26]基于車載毫米波雷達(dá)提出一種動(dòng)態(tài)手勢(shì)識(shí)別網(wǎng)絡(luò),利用三維卷積網(wǎng)絡(luò)實(shí)現(xiàn)了多幀雷達(dá)圖像的特征融合和拼接,并利用Transformer模塊進(jìn)行位置和序列編碼,提高了時(shí)空特征的表達(dá)能力。文獻(xiàn)[27]提出一種基于多分支殘差神經(jīng)網(wǎng)絡(luò)的毫米波雷達(dá)微手勢(shì)識(shí)別方法,解決了毫米波雷達(dá)特征提取和融合不足以及算法復(fù)雜度過大的問題。文獻(xiàn)[28]將距離時(shí)間圖和多普勒時(shí)間圖兩個(gè)特征圖進(jìn)行融合得到特征融合圖,并通過設(shè)計(jì)殘差網(wǎng)絡(luò)對(duì)特征圖進(jìn)行手勢(shì)識(shí)別。文獻(xiàn)[29]提出一種基于時(shí)間距離參數(shù)的手勢(shì)識(shí)別方法,利用3個(gè)超寬帶雷達(dá)的多角度觀測(cè),提高手勢(shì)的可區(qū)分性和魯棒性,并提出一種基于平均密度函數(shù)的特征提取方法,從時(shí)間距離矩陣中提取出手勢(shì)的動(dòng)態(tài)特征。然而,在當(dāng)前基于雷達(dá)傳感器的手勢(shì)識(shí)別研究中,手勢(shì)目標(biāo)和身體干擾之間的區(qū)分問題仍未得到充分解決,這限制了手勢(shì)識(shí)別技術(shù)在實(shí)際應(yīng)用中的進(jìn)一步推廣和應(yīng)用。因此,本文旨在討論如何有效區(qū)分手勢(shì)目標(biāo)和身體干擾,以此提高系統(tǒng)的識(shí)別性能和可靠性。
相比其他頻段的微波雷達(dá),多輸入多輸出(multiple input multiple output, MIMO)毫米波雷達(dá)具有波長(zhǎng)短、帶寬大的特點(diǎn),具有高距離分辨力、高角度分辨力,可獲得目標(biāo)的細(xì)節(jié)結(jié)構(gòu)特征,利于檢測(cè)與識(shí)別。
目前,空間屬性特征已被成功應(yīng)用在基于毫米波雷達(dá)的人數(shù)檢測(cè)方面[30]。本文針對(duì)毫米波雷達(dá)手勢(shì)識(shí)別中的身體干擾問題,提出一種基于空間屬性特征的身體干擾識(shí)別算法。首先,通過潛在目標(biāo)提取算法提取一維潛在目標(biāo)和二維潛在目標(biāo)。然后,通過連通域標(biāo)記算法對(duì)二維潛在目標(biāo)進(jìn)行連通域標(biāo)記。綜合潛在目標(biāo)的特點(diǎn),選取了15個(gè)基于潛在目標(biāo)之間的相對(duì)位置關(guān)系以及相互之間形成的連通域關(guān)系所得到的空間屬性特征,用于區(qū)分手勢(shì)目標(biāo)和身體干擾。最后,采用支持向量機(jī)(support vector machine, SVM)分類器進(jìn)行目標(biāo)和干擾的分類識(shí)別。
1 信號(hào)模型
本文所使用的雷達(dá)為Socionext公司生產(chǎn)的60 GHz MIMO雷達(dá)SC1220AT2,其芯片實(shí)物圖如圖1所示。
該雷達(dá)芯片可以在連續(xù)波或頻移鍵控連續(xù)波(frequency shift keying continuous wave, FSKCW)或調(diào)頻連續(xù)波(frequency modulated continuous wave, FMCW)模式下工作。在本文中,選擇FMCW模式,采用NT=2個(gè)發(fā)射天線(TX1,TX2)和NR=4個(gè)接收天線(RX1,1,RX1,2,RX2,1,RX2,2),發(fā)射天線之間的陣元間距為d2=5.54 mm,接收天線之間的陣元間距為d1=2.35 mm。TX1和TX2以交替的方式發(fā)射電磁波,采用時(shí)分復(fù)用技術(shù),因此可以等效虛擬成8個(gè)虛擬陣元。在水平方向(E方向)上,每個(gè)方向包含4個(gè)接收天線,在垂直方向(H方向)上,每個(gè)方向包含2個(gè)接收天線。其等效虛擬陣列如圖2所示。
線性調(diào)頻連續(xù)波信號(hào)是一種頻率隨時(shí)間線性增加的信號(hào),可以表示為
ST(t)=AT·exp-j2πfct+Bt22Tc+0(1)
式中:AT為發(fā)射信號(hào)的幅度;fc為載波頻率;Tc為調(diào)頻信號(hào)的持續(xù)時(shí)間;B表示帶寬;t∈[0,Tc]表示快時(shí)間;0表示發(fā)射信號(hào)的初始隨機(jī)相位。假設(shè)目標(biāo)為多散射點(diǎn)模型,雷達(dá)信號(hào)經(jīng)過G個(gè)散射點(diǎn)反射回來形成回波,第k個(gè)接收天線采集到的回波信號(hào)表示為
SR(k,t)=
∑Gg=1Ag·exp-j2π(fc(t-τg,k)+B(t-τg,k)22Tc+0(2)
式中:τg,k=[2(rg+vgt~)+dksin θg]/c 為回波信號(hào)與發(fā)射信號(hào)之間產(chǎn)生的延時(shí),c為光速,dk表示RX~,k與RX~,1之間的陣元間隔,k∈[1,NE]為E方向的接收天線序號(hào),t~為慢時(shí)間;Ag表示第g個(gè)目標(biāo)散射點(diǎn)的接收信號(hào)幅度;rg,θg,vg分別表示第g個(gè)目標(biāo)散射點(diǎn)距離雷達(dá)的距離、角度和多普勒速度。由于手勢(shì)目標(biāo)距離雷達(dá)的距離較近,目標(biāo)回波的延時(shí)較小,即(Btτg,k+Bτ2g,k)/(2Tc)0。因此,對(duì)回波信號(hào)進(jìn)行混頻并化簡(jiǎn),可以得到中頻信號(hào):
SIF(k,t)=SR(k,t)ST(k,t)*≈
∑Gg=1AgAT·expj4πfcrgcexpj4πBrgtcTc·
expj4πfcvgt~cexpj2πfcdksin θgc(3)
式中:[·]*表示共軛操作。
在快時(shí)間和慢時(shí)間維對(duì)中頻信號(hào)進(jìn)行采樣,可以得到一幀雷達(dá)三維立方體數(shù)據(jù)塊Y~p,分別為快時(shí)間維慢時(shí)間維天線維,其中的某個(gè)元素可以表示為
Y~p(n~,m,k)=
∑Gg=1AgAT·expj4πfcrgc·
expj4πBrgn~TscTcexpj4πfcvgmTfcexpj2πfcdksin θgc(4)
式中:t=n~Ts是快時(shí)間采樣;Ts表示快時(shí)間采樣間隔;n~∈[1,N~]表示一個(gè)線性調(diào)頻信號(hào)內(nèi)的快時(shí)間采樣序號(hào),N~表示一個(gè)線性調(diào)頻信號(hào)的采樣點(diǎn)數(shù);t~=mTf表示慢時(shí)間采樣;Tf表示線性調(diào)頻信號(hào)的重復(fù)時(shí)間;m∈[1,M]是線性調(diào)頻信號(hào)序號(hào),M表示一幀內(nèi)的線性調(diào)頻信號(hào)個(gè)數(shù);p表示幀的序號(hào)。
對(duì)雷達(dá)三維立方體數(shù)據(jù)塊Y~p沿著距離維做快速傅里葉變換(fast Fourier transform, FFT)可以得到距離譜Yp,其中的某個(gè)元素可以表示為
Yp(n,m,k)=∑N~n~=1Y~p(n~,m,k)·exp-j2πnn~N(5)
式中:n∈[1,N]為FFT的序號(hào),也表示距離單元索引;N表示快時(shí)間維傅里葉變換的點(diǎn)數(shù),也表示距離單元個(gè)數(shù)。
2 信號(hào)預(yù)處理
在雷達(dá)系統(tǒng)中,接收機(jī)接收到回波信號(hào)后,經(jīng)低噪放大器抑制噪聲、放大,再由采樣器采樣得到雷達(dá)回波數(shù)字信號(hào)。本文將SC1220AT2雷達(dá)的輸出信號(hào)設(shè)置為距離FFT頻譜數(shù)據(jù)。
在進(jìn)行特征提取前,需要對(duì)接收數(shù)據(jù)進(jìn)行信號(hào)預(yù)處理,其流程圖如圖3所示。
為了去除雜波的干擾,首先需要對(duì)回波輸出信號(hào)進(jìn)行距離維雜波抑制;然后,對(duì)雜波抑制后的信號(hào)沿著慢時(shí)間維和天線維進(jìn)行非相干積累,得到一維距離像;接著,通過單位平均恒虛警率(cell-averaging constant 1 alarm rate, CA-CFAR[31])檢測(cè)方法對(duì)一維距離像進(jìn)行距離維目標(biāo)檢測(cè)。此外,還需使用最小方差無偏估計(jì)Capon超分辨角度估計(jì)算法對(duì)雜波抑制后的信號(hào)在目標(biāo)所在的距離單元上進(jìn)行角度估計(jì),以獲得目標(biāo)物體的方位信息。
2.1 距離維雜波抑制
在實(shí)際環(huán)境中,雷達(dá)回波信號(hào)中不僅包含手勢(shì)目標(biāo)信號(hào),還包含微動(dòng)態(tài)干擾目標(biāo)信號(hào)(如身體各部位的微小運(yùn)動(dòng))、靜態(tài)物體和背景雜波、發(fā)射機(jī)泄漏信號(hào)和噪聲,因此需要進(jìn)行距離維雜波抑制。
針對(duì)靜態(tài)物體和背景雜波、發(fā)射機(jī)泄漏信號(hào)這類在一段時(shí)間內(nèi)相對(duì)穩(wěn)定的信號(hào),在系統(tǒng)開始前,采集一段時(shí)間內(nèi)不含目標(biāo)的背景信號(hào),并對(duì)這段時(shí)間內(nèi)的信號(hào)在時(shí)間維和慢時(shí)間維上取平均,獲得一幀相對(duì)穩(wěn)定可靠的背景靜態(tài)雜波。將這個(gè)背景信號(hào)作為初始背景雜波信號(hào),可表示為
CNp(n,m,k)=1Np·1M∑Npp=1∑Mm=1Yp(n,m,k)(6)
式中:CNp(n,m,k)為平均后的初始背景雜波;Np表示靜態(tài)背景雜波初始化所積累的幀數(shù)。
針對(duì)身體等軀干帶來的微動(dòng)態(tài)干擾信號(hào)以及靜態(tài)背景雜波可能隨時(shí)間變化的問題,本文采用運(yùn)動(dòng)平均自適應(yīng)雜波抑制算法進(jìn)行雜波抑制。該算法包含兩步,首先是迭代估計(jì)雜波信號(hào),每一幀的雜波估計(jì)都會(huì)根據(jù)雷達(dá)回波信號(hào)以及前面的雜波估計(jì)進(jìn)行更新迭代,可表示為
Cp(n,m,k)=αCp-1(n,m,k)+(1-α)Yp(n,m,k)(7)
其次,利用所估計(jì)的雜波進(jìn)行減除,每一幀經(jīng)過雜波抑制后的信號(hào)都為該幀雷達(dá)回波信號(hào)減去雜波估計(jì),可表示為
Y-p(n,m,k)=Yp(n,m,k)-Cp-1(n,m,k)(8)
式中:Y-p(n,m,k)表示的是第p幀經(jīng)過雜波抑制后的雷達(dá)三維數(shù)據(jù);Cp-1(n,m,k)表示的是雜波估計(jì);Cp(n,m,k)表示的是利用第p幀雷達(dá)信號(hào)更新迭代后的雜波估計(jì);α∈(0,1)表示的是雜波抑制系數(shù)。
2.2 距離維目標(biāo)檢測(cè)
為了提高信噪比,將雜波抑制后的信號(hào)Y-p沿著慢時(shí)間維和天線維進(jìn)行非相干積累,得到一維距離像,即
y-(n)=∑Mm=1∑Kk=1|Y-p(n,m,k)|(9)
式中:|·|表示絕對(duì)值運(yùn)算符,用于獲取雷達(dá)信號(hào)的幅度。
接著,采用CA-CFAR檢測(cè)器對(duì)一維距離像進(jìn)行距離維目標(biāo)檢測(cè)。為了進(jìn)一步提高檢測(cè)準(zhǔn)確性,通過連續(xù)N次檢測(cè),并根據(jù)門限進(jìn)行判斷:超過門限為1,否則為0。將N次檢測(cè)結(jié)果相加,若其值超過某個(gè)門限T,則判定為存在目標(biāo),從而降低虛警率。
通過目標(biāo)檢測(cè),得到了目標(biāo)所在的距離單元D={n1,n2,…,nND},其中ND表示檢測(cè)到的目標(biāo)距離單位個(gè)數(shù)。
2.3 超分辨率角度估計(jì)
為了提取手勢(shì)目標(biāo)的角度信息,使用Capon超分辨角度估計(jì)算法對(duì)目標(biāo)所在的距離單元D進(jìn)行角度估計(jì)。首先,提取第n個(gè)距離單元內(nèi)的慢時(shí)間維和天線維切片,記為
A(n)=Y-p(n,1,1)Y-p(n,2,1)…Y-p(n,M,1)
Y-p(n,1,2)Y-p(n,2,2)…Y-p(n,M,2)
Y-p(n,1,K)Y-p(n,2,K)…Y-p(n,M,K)(10)
然后,對(duì)該切片數(shù)據(jù)計(jì)算其協(xié)方差矩陣,并利用相鄰的多個(gè)距離單元進(jìn)行平滑,即:
R(n)=1M(2NN+1)∑n+NNn~=n-NNA(n~)AH(n~)(11)
式中:NN為協(xié)方差矩陣的平滑的相鄰距離單元個(gè)數(shù),上標(biāo)H表示共軛轉(zhuǎn)置。最后,對(duì)每個(gè)角度進(jìn)行搜索,獲得E方向上的距離角度圖P,P的第n行和第列的元素可以計(jì)算如下:
P(n,)=1aH()R-1(n)a(),n∈D(12)
式中:a()=[ ej2πd2sin Θλ,…,ej2πdKsin Θλ]為導(dǎo)向矢量,∈[1,N]表示角度Θ的索引,N表示角度估計(jì)時(shí)搜索的角度個(gè)數(shù)。通過以一定的步長(zhǎng)從-60°到+60°掃描Θ,可以獲得距離角度譜。
3 基于空間屬性特征的身體干擾識(shí)別算法
本文提出的算法框圖如圖4所示。由于不同的目標(biāo)在空間中的分布特性有差異,因此本文使用候選目標(biāo)(手勢(shì)或身體干擾)在空間中的分布情況作為空間屬性特征,以區(qū)分身體干擾和手勢(shì)目標(biāo)。首先,對(duì)式(9)得到的一維距離像提取一維潛在目標(biāo),對(duì)式(12)得到的距離角度譜提取二維潛在目標(biāo),并記錄其位置和幅值信息;接著,對(duì)二維潛在目標(biāo)進(jìn)行連通域標(biāo)記;然后,對(duì)一維潛在目標(biāo)、二維潛在目標(biāo)以及二維潛在目標(biāo)連通域進(jìn)行空間屬性特征提取;最后,使用SVM分類器進(jìn)行干擾和目標(biāo)的分類識(shí)別。
3.1 潛在目標(biāo)提取
本文通過潛在目標(biāo)提取算法獲得候選目標(biāo),并統(tǒng)計(jì)其分布情況。其中,潛在目標(biāo)是在一定范圍內(nèi)的局部最大值,所提出的潛在目標(biāo)提取算法包括一維潛在目標(biāo)提取算法和二維潛在目標(biāo)提取算法。一維潛在目標(biāo)提取算法僅需在距離維上設(shè)置一個(gè)保護(hù)窗,記錄距離維的位置和幅值,而二維潛在目標(biāo)提取算法需要在距離維和角度維上分別設(shè)置一個(gè)保護(hù)窗,記錄距離維和角度維的位置及幅值。潛在目標(biāo)提取算法的具體步驟如下。
步驟 1 設(shè)置保護(hù)窗、一個(gè)閾值和待提取潛在目標(biāo)的數(shù)目。
步驟 2 尋找信號(hào)幅度的最大值,并記錄其位置和幅度值。
步驟 3 將以最大值為中心的保護(hù)窗內(nèi)的數(shù)據(jù)全部置零,將置零后的信號(hào)作為后續(xù)潛在目標(biāo)提取的信號(hào)。
步驟 4 重復(fù)執(zhí)行步驟2和步驟3,直到找到的最大幅度值大于閾值或者提取到的潛在目標(biāo)數(shù)目達(dá)到設(shè)定的數(shù)目,結(jié)束潛在目標(biāo)的提取。
(1) 一維潛在目標(biāo)提取
一維距離像y-(n)的潛在目標(biāo)屬于一維數(shù)據(jù),通過一維潛在目標(biāo)提取算法,可得到一維距離像潛在目標(biāo)的位置和幅值信息。一維潛在目標(biāo)提取的結(jié)果示意圖如圖5所示,圖中標(biāo)注為深藍(lán)色正方形符號(hào)的數(shù)據(jù)即為提取出的一維潛在目標(biāo)。
(2) 二維潛在目標(biāo)提取
距離角度譜P屬于二維數(shù)據(jù),通過二維潛在目標(biāo)提取算法,可得到距離角度譜的潛在目標(biāo)數(shù)據(jù)。二維潛在目標(biāo)提取的結(jié)果如圖6所示。
3.2 連通域標(biāo)記
為了獲得更多能夠區(qū)分手勢(shì)目標(biāo)和身體干擾的空間屬性特征,本文對(duì)二維潛在目標(biāo)進(jìn)行連通域標(biāo)記。在連通域標(biāo)記過程中,以二維潛在目標(biāo)的位置為中心點(diǎn),并以設(shè)定的保護(hù)窗窗長(zhǎng)wn和wθ作為長(zhǎng)和寬,將該區(qū)域的二值圖像置為1,從而生成潛在目標(biāo)重構(gòu)圖像。然后,將二值化后的潛在目標(biāo)圖像進(jìn)行連通域標(biāo)記,得到已標(biāo)記的連通域分量矩陣、連通域分量的個(gè)數(shù)Nconn、同一個(gè)連通域分量所占的面積Nlabel=[N1,N2,…,Nconn]及同一個(gè)連通域分量的位置集合Li=R1θ1
R2θ2
RNiθNi,i∈[1,Nconn]。
其中,RNi和θNi分別表示連通域中位置點(diǎn)的距離和角度。
連通域標(biāo)記后的結(jié)果示意圖如圖7所示,圖7(a)為距離角度圖,圖7(b)為相應(yīng)得到的連通域圖像。其中,相同顏色的位置表示同一個(gè)連通域分量。
連通域標(biāo)記算法的具體步驟如下。
步驟 1 從左到右,從上至下依次遍歷潛在目標(biāo)圖像中的每個(gè)位置。
步驟 2 如果該位置已經(jīng)遍歷過,則繼續(xù)向下遍歷,否則轉(zhuǎn)向步驟3。
步驟 3 將該位置點(diǎn)作為生長(zhǎng)種子,并標(biāo)記該位置點(diǎn)為label,然后根據(jù)八鄰域關(guān)系把符合條件的位置都?jí)喝霔V小?/p>
步驟 4 彈出棧頂位置,并將該位置標(biāo)記為label,然后再根據(jù)八鄰域關(guān)系把符合條件的位置點(diǎn)壓入棧中。
步驟 5 重復(fù)步驟4,直到棧為空;此時(shí),獲得了潛在目標(biāo)圖像中的一個(gè)連通區(qū)域,并且該連通區(qū)域已標(biāo)記為label。
步驟 6 重復(fù)步驟2,直至遍歷完整圖像。
3.3 空間屬性特征提取
經(jīng)過對(duì)潛在目標(biāo)及潛在目標(biāo)連通域進(jìn)行分析可以發(fā)現(xiàn),身體干擾和手勢(shì)目標(biāo)在潛在目標(biāo)的空間屬性特征上存在明顯差異。具體而言,身體的雷達(dá)散射截面積較大,因此由身體干擾數(shù)據(jù)提取出來的潛在目標(biāo)數(shù)量多且集中,潛在目標(biāo)連通域的數(shù)量較多,其總面積和最大面積較大。相比之下,手勢(shì)目標(biāo)的雷達(dá)散射截面積較小,并且有手臂和部分身體的存在,因此由手勢(shì)數(shù)據(jù)提取出來的潛在目標(biāo)數(shù)量較少且比較分散,潛在目標(biāo)連通域的數(shù)量較少,其總面積和最大面積較小。同時(shí),由于身體干擾和手勢(shì)目標(biāo)的數(shù)量特征不同,面積特征也有明顯區(qū)別,其潛在目標(biāo)在能量上也會(huì)表現(xiàn)出差異。因此,可以利用這些空間屬性特征來區(qū)分手勢(shì)目標(biāo)和身體干擾。
基于上述分析,本文提出空間屬性特征,包括一維距離像潛在目標(biāo)的間距特征和能量特征、二維角度譜潛在目標(biāo)的間距特征和能量特征,以及距離角度譜潛在目標(biāo)的連通域特征,即潛在目標(biāo)之間的相對(duì)位置關(guān)系和相互之間形成的連通域關(guān)系。
對(duì)于一維距離像提取的潛在目標(biāo),提取了5個(gè)空間屬性:
f1=∑Kp1-1i=1∑Kp1j=i+1|Djp1-Dip1|(Kp1-1)2(13)
f2=∑Kp1i=2|Dip1-D1p1|Kp1-1(14)
f3=∑Kp1i=2Zip1|Dip1-D1p1|Kp1-1(15)
f4=max(|Dip1-D1p1|),i∈[2,4](16)
f5=∑Kp1i=2|Dip1-D1p1|Kp1-1(17)
式中:Kp1表示一維潛在目標(biāo)的數(shù)量;Dip1表示第i個(gè)一維潛在目標(biāo)的位置;Zip1表示第i個(gè)一維潛在目標(biāo)的幅值;f1為全部一維潛在目標(biāo)之間的間距和;f2表示與最大一維潛在目標(biāo)的間距和;f3表示一維潛在目標(biāo)的加權(quán)平均能量;f4表示前5個(gè)最大一維潛在目標(biāo)與最大潛在目標(biāo)之間的最大間距;f5表示與最大一維潛在目標(biāo)之間的平均間距。
對(duì)于二維角度譜提取的潛在目標(biāo),提取其5個(gè)空間屬性特征:
f6=
∑Kp2-1i=1∑Kp2j=i+1 (Rip2-Rjp2)2+θip2-θjp2β2(Kp2-1)2(18)
f7=∑Kp2i=2 (Rip2-R1p2)2+θip2-θ1p2β2Kp2-1(19)
f8=∑Kp2i=1[Zip2 (Rip2-R1p2)2+θip2-θ1p2β2](Kp2-1)·∑Kp2i=1Zip2(20)
f9=max( (Rip2-R1p2)2+θip2-θ1p2β2),
i∈[2,4](21)
f10=∑Kp2i=2|Rip2-R1p2|Kp2-1(22)
式中:Kp2表示二維潛在目標(biāo)的數(shù)量;(Rip2,θip2)表示第i個(gè)二維潛在目標(biāo)的位置;Zip2表示第i個(gè)二維潛在目標(biāo)的幅值;β表示平衡距離和角度的加權(quán)因子;f6為全部二維潛在目標(biāo)之間的間距和;f7表示與最大二維潛在目標(biāo)的間距和;f8表示二維潛在目標(biāo)的加權(quán)平均能量;f9表示前5個(gè)最大二維潛在目標(biāo)與最大潛在目標(biāo)之間的最大間距;f10表示與最大二維潛在目標(biāo)之間的平均間距。
對(duì)于二維角度譜的潛在目標(biāo)連通域,提取其5個(gè)空間屬性特征:
f11=Nconn(23)
f12=sum(Nlabel)(24)
f13=max(Nlabel)(25)
f14=∑Nconni=1∑Nij=1P(Li(j,1),Li(j,2))(26)
f15=∑Nji=1P(Lj(i,1),Lj(i,2)), j=arg max(Nlabel)(27)
式中:f11表示二維潛在目標(biāo)的連通域數(shù)量;f12表示連通域的總面積;f13表示最大連通域分量的面積;f14表示潛在目標(biāo)連通域的總能量;f15表示最大連通域分量的能量。
通過以上對(duì)空間屬性特征的提取,最終生成空間屬性特征向量F=[f1,f2,f3,f4,f5,f6,f7,f8,f9,f10,f11,f12,f13,f14,f15]。為了驗(yàn)證這些特征的有效性,對(duì)實(shí)驗(yàn)中的一組身體干擾數(shù)據(jù)和手勢(shì)目標(biāo)數(shù)據(jù)分別提取了上述15個(gè)空間屬性特征,分布對(duì)比圖如圖8所示。
在圖8中,每個(gè)三維特征分布對(duì)比圖由3個(gè)特征組成,其中手勢(shì)目標(biāo)和身體干擾用不同顏色進(jìn)行區(qū)分。由圖8可以觀察到,身體干擾與手勢(shì)目標(biāo)在空間屬性特征上存在明顯的差異,這是由不同類型的目標(biāo)與環(huán)境的相對(duì)分布決定的,身體干擾和手勢(shì)動(dòng)作的潛在目標(biāo)在數(shù)量和面積上有著各自的特點(diǎn),導(dǎo)致其在相對(duì)位置關(guān)系和能量上都有明顯區(qū)別。同時(shí),得到的連通域也會(huì)相應(yīng)表現(xiàn)出數(shù)量、面積和能量上的差異。這表明空間屬性特征是一種有效的特征,因此可聯(lián)合以上15個(gè)特征對(duì)手勢(shì)目標(biāo)和身體干擾進(jìn)行分類和識(shí)別。
3.4 基于SVM分類器的干擾識(shí)別
SVM分類器是一種二分類模型,通過在特征空間內(nèi)找到一個(gè)劃分超平面,即最優(yōu)分類面,正確劃分?jǐn)?shù)據(jù)樣本且?guī)缀伍g隔最大,以此來解決二分類問題。圖9為最優(yōu)分類面示意圖。
對(duì)于線性可分的訓(xùn)練數(shù)據(jù)集,劃分超平面可以描述為ωTx+b=0。其中,ω為法向量,決定了超平面的方向,b為最優(yōu)分類面偏移,決定了超平面與原點(diǎn)之間的距離。最優(yōu)分類面可以由法向量和偏移唯一確定,因此SVM分類器的任務(wù)就是確定最優(yōu)分類面的參數(shù)ω和b,使獲得的超平面距離所有樣本之和最大,具有最好的泛化性能。當(dāng)訓(xùn)練樣本線性不可分時(shí),可以使用核函數(shù)將原始空間映射到另一個(gè)特征空間,使樣本在映射后的特征空間中線性可分,從而將線性SVM分類器轉(zhuǎn)換為非線性分類器。
根據(jù)提取出的15個(gè)空間屬性特征,可以發(fā)現(xiàn)本文的訓(xùn)練樣本是線性不可分的,因此在使用SVM分類器時(shí),需要先使用核函數(shù)將樣本數(shù)據(jù)映射到高維空間。本文采用高斯核函數(shù),將樣本數(shù)據(jù)映射到無限維。分類器選用二分類模型,首先提取15個(gè)空間屬性特征,然后對(duì)特征向量進(jìn)行最大最小值歸一化,最后訓(xùn)練SVM非線性分類器模型執(zhí)行分類和識(shí)別任務(wù)。
4 實(shí)驗(yàn)驗(yàn)證
實(shí)驗(yàn)采用的雷達(dá)安裝方式為側(cè)裝,距離地面的高度為1 m。數(shù)據(jù)采集時(shí),人站在距離雷達(dá)0.5 m的位置進(jìn)行手勢(shì)動(dòng)作或身體干擾動(dòng)作。本文的雷達(dá)參數(shù)設(shè)置如下:調(diào)頻范圍為57.1~63.9 GHz,工作中心頻率為60.5 GHz,帶寬設(shè)置為6.8 GHz,距離分辨率為2.37 cm,調(diào)頻時(shí)間設(shè)置為110 μs,幀率設(shè)置為40 Hz,每幀設(shè)置4個(gè)線性調(diào)頻信號(hào),每個(gè)調(diào)頻信號(hào)的采樣點(diǎn)數(shù)為64,距離維度FFT的點(diǎn)數(shù)設(shè)置為128。
在實(shí)驗(yàn)中,將手勢(shì)目標(biāo)記為正類,身體干擾記為負(fù)類。對(duì)于身體干擾,本文考慮了以下6種干擾情況:靜止?fàn)顟B(tài)、微動(dòng)狀態(tài)、運(yùn)動(dòng)狀態(tài)下的正前方身體干擾、靜止?fàn)顟B(tài)、微動(dòng)狀態(tài)、運(yùn)動(dòng)狀態(tài)下的側(cè)向身體干擾。正前方身體干擾位置指人體在雷達(dá)正前方,方位角為0°~60°,且在雷達(dá)探測(cè)范圍內(nèi);側(cè)向身體干擾位置指人體在雷達(dá)探測(cè)范圍內(nèi),但處于雷達(dá)視角的側(cè)面,方位角為60°~90°。本文靜止、微動(dòng)和運(yùn)動(dòng)狀態(tài)的定義如下:靜止?fàn)顟B(tài)——人體的位置和動(dòng)作保持相對(duì)靜止;微動(dòng)狀態(tài)——人體的位置相對(duì)不動(dòng),但手部、軀干等部位有輕微運(yùn)動(dòng);運(yùn)動(dòng)狀態(tài)——人體的位置發(fā)生變動(dòng)。實(shí)驗(yàn)場(chǎng)景如圖10所示,其中圖10(a)為實(shí)驗(yàn)者正常做手勢(shì)的示意圖;圖10(b)為靜止?fàn)顟B(tài)下的正前方身體干擾實(shí)驗(yàn)示意圖;圖10(c)~圖10(e)為微動(dòng)狀態(tài)下的身體干擾實(shí)驗(yàn),分別展示了實(shí)驗(yàn)者進(jìn)行轉(zhuǎn)身、俯身、抬手動(dòng)作的示意圖;圖10(f)為運(yùn)動(dòng)狀態(tài)下的身體干擾實(shí)驗(yàn)場(chǎng)景。對(duì)于手勢(shì)目標(biāo),采集了23 000幀數(shù)據(jù);對(duì)于6種身體干擾情況,分別采集了10 000幀數(shù)據(jù)樣本。共計(jì)7組數(shù)據(jù),全部數(shù)據(jù)樣本幀數(shù)為83 000幀。將本文提出的15個(gè)空間屬性特征分別輸入不同的分類器中進(jìn)行訓(xùn)練和測(cè)試,并比較在不同分類器下的識(shí)別準(zhǔn)確率。分類器選取常見的傳統(tǒng)機(jī)器學(xué)習(xí)算法,包括線性判別、K最近鄰(K-nearest neighbors, KNN)、樸素貝葉斯、決策樹以及SVM分類器。
將6種身體干擾情況和正常手勢(shì)數(shù)據(jù)進(jìn)行混合,作為SVM分類器訓(xùn)練和測(cè)試的數(shù)據(jù)。實(shí)驗(yàn)采用五折交叉驗(yàn)證的方式,最終得到的結(jié)果如表1所示。由表1可知,相對(duì)于其他分類器,SVM分類器在混合干擾下具有最高的準(zhǔn)確率,模型參數(shù)較小,預(yù)測(cè)時(shí)間較短,適合在有限的嵌入式硬件資源下實(shí)現(xiàn)。
實(shí)驗(yàn)測(cè)試手勢(shì)目標(biāo)與每一種身體干擾混合情況下的準(zhǔn)確率,以及手勢(shì)目標(biāo)與所有身體干擾混合情況下的綜合準(zhǔn)確率。實(shí)驗(yàn)采用五折交叉驗(yàn)證的方式,將身體干擾實(shí)驗(yàn)數(shù)據(jù)集分成5份,依次將其中4份作為訓(xùn)練集,剩下1份為測(cè)試集,進(jìn)行實(shí)驗(yàn)驗(yàn)證,最終得到的平均測(cè)試結(jié)果如表2所示。從表2的實(shí)驗(yàn)結(jié)果可以觀察到,本文所提出的15個(gè)空間屬性特征在不同身體干擾狀態(tài)下均能實(shí)現(xiàn)較高且接近的識(shí)別準(zhǔn)確率,在所有狀態(tài)混合下的身體干擾情況下,識(shí)別準(zhǔn)確率達(dá)到了97.3%。其中,在靜止?fàn)顟B(tài)下的身體干擾相對(duì)于其他兩種狀態(tài)下的身體干擾準(zhǔn)確率較低,這可能是因?yàn)樵谕耆o止?fàn)顟B(tài)下,靜止的身體干擾目標(biāo)容易被靜態(tài)雜波抑制消除,進(jìn)而使身體目標(biāo)的連通域能量、連通域個(gè)數(shù)、潛在目標(biāo)的間距特征等與手勢(shì)目標(biāo)的對(duì)應(yīng)特征發(fā)生混淆,進(jìn)而導(dǎo)致準(zhǔn)確率降低。
保存混合干擾下訓(xùn)練得到的模型,并利用多幀累計(jì)進(jìn)行平滑預(yù)測(cè),結(jié)果如表3所示。在15幀的多幀平滑預(yù)測(cè)下,其準(zhǔn)確率提高到了98.94%,同時(shí)延時(shí)也較小。實(shí)驗(yàn)測(cè)試的高準(zhǔn)確率充分驗(yàn)證了本文所提空間屬性特征的有效性。
5 結(jié) 論
本文基于MIMO毫米波雷達(dá)展開了手勢(shì)目標(biāo)和身體干擾的分類識(shí)別研究,提出一種基于空間屬性特征的身體干擾算法。該算法包括一維潛在目標(biāo)提取、二維潛在目標(biāo)提取、連通域標(biāo)記、空間屬性特征提取以及SVM分類器識(shí)別,并在實(shí)際手勢(shì)以及干擾數(shù)據(jù)上進(jìn)行實(shí)驗(yàn)驗(yàn)證。實(shí)驗(yàn)結(jié)果顯示,所提方法在單幀預(yù)測(cè)下的識(shí)別準(zhǔn)確率為97.3%,在多幀預(yù)測(cè)下的識(shí)別準(zhǔn)確率可以達(dá)到98.94%,這表明該方法能夠有效地區(qū)分手勢(shì)目標(biāo)和身體干擾。
參考文獻(xiàn)
[1] GURBUZ S Z, GURBUZ A C, MALAIA E A, et al. ASL recognition based on kinematics derived from a multi-frequency RF sensor network[C]∥Proc.of the IEEE Sensors, 2020.
[2] CHEN F Y, LYU H H, PANG Z B, et al. Wristcam: a wearable sensor for hand trajectory gesture recognition and intelligent human-robot interaction[J]. IEEE Sensors Journal, 2019, 19(19): 84418451.
[3] PLESHKOVA S G, BEKVARSKI A B, ZAHARIEV Z T. Based on artificial intelligence and deep learning hand gesture recognition for interaction with mobile robots[C]∥Proc.of the 10th National Conference with International Participation, 2019.
[4] OHN-BAR E, TRIVEDI M M. Hand gesture recognition in real time for automotive interfaces: a multimodal vision-based approach and evaluations[J]. IEEE Trans.on Intelligent Transportation Systems, 2014, 15(6): 23682377.
[5] LEITE D A T Q, DUARTE J C, OLIVEIRA J C, et al. A system to interact with CAVE applications using hand gesture recognition from depth data[C]∥Proc.of the 16th Symposium on Virtual and Augmented Reality, 2014: 246253.
[6] HE W F, WU K S, ZOU Y P, et al. WiG: wifi-based gesture recognition system[C]∥Proc.of the 24th International Confe-rence on Computer Communication and Networks, 2015.
[7] VENKATNARAYAN R H, MAHMOOD S, SHAHZAD M. Wifi based multi-user gesture recognition[J]. IEEE Trans.on Mobile Computing, 2019, 20(3): 12421256.
[8] PITTMAN C, WISNIEWSKI P, BROOKS C, et al. Multiwave: Doppler effect based gesture recognition in multiple dimensions[C]∥Proc.of the Conference on Human Factors in Computing Systems Conference Extended Abstracts on Human Factors in Computing Systems, 2016: 17291736.
[9] ZHOU F F, LI X Y, WANG Z H. Efficiently user-independent ultrasonic-based gesture recognition algorithm[C]∥Proc.of the IEEE Sensors, 2019.
[10] 江浩. 基于智能腕表的手寫識(shí)別研究[D]. 上海: 上海交通大學(xué), 2020.
JIANG H. Research on handwriting recognition based on smart watches[D]. Shanghai: Shanghai Jiao Tong University, 2020.
[11] CHOI E S, BANG W C, CHO S J, et al. Beatbox music phone: gesture-based interactive mobile phone using a tri-axis accelerometer[C]∥Proc.of the IEEE International Conference on Industrial Technology, 2005: 97102.
[12] PAUDYAL P, LEE J, BANERJEE A, et al. Dyfav: dynamic feature selection and voting for real-time recognition of fingerspelled alphabet using wearables[C]∥Proc.of the 22nd International Conference on Intelligent User Interfaces, 2017: 457467.
[13] RODRIGUEZ D, PIRYATINSKA A, ZHANG X. A neural decision forest scheme with application to EMG gesture classification[C]∥Proc.of the Science and Information Computing Conference, 2016: 243252.
[14] LI Y, WANG X G, LIU W Y, et al. Deep attention network for joint hand gesture localization and recognition using static RGB-D images[J]. Information Sciences, 2018, 441: 6678.
[15] 施向軍, 王星堯. 基于紅外傳感器和隱馬爾可夫模型的動(dòng)態(tài)手勢(shì)識(shí)別[J]. 電子器件, 2018, 41(5): 12861290.
SHI X J, WANG X R. Dynamic gesture recognition based on infrared sensor and hidden Markov model[J]. Chinese Journal of Electron Devices, 2018, 41(5): 12861290.
[16] FANG B Y, CO J, ZHANG M. DeepASL: enabling ubiquitous and non-intrusive word and sentence-level sign language translation[C]∥Proc.of the 15th ACM Conference on Embedded Network Sensor Systems, 2017.
[17] 趙愛芳, 裴東, 王全州, 等. 復(fù)雜環(huán)境中多信息融合的手勢(shì)識(shí)別[J]. 計(jì)算機(jī)工程與應(yīng)用, 2014, 50(5): 180184.
ZHAO A F, PEI D, WANG Q Z, et al. Gesture recognition with multi-information fusion in complex environments[J]. Computer Engineering and Applications, 2014, 50(5): 180184.
[18] LIU K, CHEN C, JAFARI R, et al. Multi-HMM classification for hand gesture recognition using two differing modality sensors[C]∥Proc.of the IEEE Dallas Circuits and Systems Conference, 2014.
[19] YANG Z C, ZHENG X B. Hand gesture recognition based on trajectories features and computation-efficient reused LSTM network[J]. IEEE Sensors Journal, 202 21(15): 1694516960.
[20] DAIM T J, LEE R M A. The effect of body position on IR-UWB radar sensor-based hand gesture speed recognition and classification system[C]∥Proc.of the IEEE International Conference on Automatic Control and Intelligent Systems, 2022: 158162.
[21] STADELMAVER T, SANTRA A, WEIGEL R, et al. Radar-based gesture recognition using a variational autoencoder with deep statistical metric learning[J]. IEEE Trans.on Microwave Theory and Techniques, 202 70(11): 50515062.
[22] CHOI J, PARK C, KIM J. FMCW radar-based real-time hand gesture recognition system capable of out-of-distribution detection[J]. IEEE Access, 202 10: 8742587434.
[23] AHMED S, KIM W, PARK J, et al. Radar-based air-writing gesture recognition using a novel multistream CNN approach[J]. IEEE Internet of Things Journal, 202 9(23): 2386923880.
[24] CHEN Q, LI Y W, CUI Z Y, et al. A hand gesture recognition method for mmwave radar based on angle-range joint temporal feature[C]∥Proc.of the IEEE International Geoscience and Remote Sensing Symposium, 2022: 26502653.
[25] WANG X R, LI W L, CHEN V C. Hand gesture recognition using radial and transversal dual micromotion features[J]. IEEE Trans.on Aerospace and Electronic Systems, 202 58(6): 59635973.
[26] DONG L F, MA Z X, ZHU X C. Dynamic gesture recognition network based on vehicular millimeter wave radar[J]. Transactions of Beijing Institute of Technology, 2023, 43(5): 493498.
[27] TONG P P, WENG C E, BI X, et al. Micro gesture recognition of the millimeter-wave radar based on multi-branch residual neural network[C]∥Proc.of the SAE Intelligent and Connected Vehicles Symposium, 2022.
[28] WANG Y, ZHANG J, ZHAO X C, Research on hand gesture recognition based on millimeter wave radar[C]∥Proc.of the 3rd International Conference on Consumer Electronics and Computer Engineering, 2023: 205209.
[29] SHARMA R R, KUMAR K A, CHO S H. Novel time-distance parameters based hand gesture recognition system using multi-UWB radars[J]. IEEE Sensors Letters, 2023, 7(5): 6002204.
[30] YANG Z C, HUANG X Z. Cascaded regional people counting approach based on two-dimensional spatial attribute features using MIMO radar[J]. IEEE Geoscience and Remote Sensing Letters, 202 19: 3508005.
[31] 杜鵬飛, 張祥軍. 單元平均恒虛警率檢測(cè)中的一個(gè)新結(jié)論[J]. 現(xiàn)代雷達(dá), 2007, 29(2): 6062.
DU P F, ZHANG X J. A new conclusion in CA-CFAR detection[J]. Modern Radar, 2007, 29(2): 6062.
作者簡(jiǎn)介
蔡嘉怡(2000—),女,碩士研究生,主要研究方向?yàn)槔走_(dá)信號(hào)處理。
初 萍(1983—),女,講師,博士,主要研究方向?yàn)槔走_(dá)信號(hào)處理。
莊倫濤(1998—),男,碩士,主要研究方向?yàn)槔走_(dá)信號(hào)處理。
陽召成(1984—),男,副教授,博士,主要研究方向?yàn)槔走_(dá)信號(hào)處理、陣列信號(hào)處理、壓縮感知、自動(dòng)目標(biāo)識(shí)別。