• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于隨機(jī)投影的快速稀疏表示人體動(dòng)作識(shí)別方法

    2016-02-16 07:30:38吳建寧徐海東王佳境
    關(guān)鍵詞:訓(xùn)練樣本識(shí)別率類別

    吳建寧 徐海東 王佳境 凌 雲(yún)

    (福建師范大學(xué)數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院,福州 350007)

    基于隨機(jī)投影的快速稀疏表示人體動(dòng)作識(shí)別方法

    吳建寧*徐海東 王佳境 凌 雲(yún)

    (福建師范大學(xué)數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院,福州 350007)

    為有效解決體域網(wǎng)人體行為動(dòng)作遠(yuǎn)程識(shí)別系統(tǒng)低功耗和快速準(zhǔn)確識(shí)別的問(wèn)題,提出一種基于隨機(jī)投影的快速稀疏表示人體行為動(dòng)作識(shí)別的方法。該方法基于壓縮感知隨機(jī)投影方式壓縮數(shù)據(jù),獲取待測(cè)試樣本鄰近類中較少最近鄰訓(xùn)練樣本,構(gòu)建測(cè)試樣本稀疏表示時(shí)的訓(xùn)練樣本集,以期達(dá)到最優(yōu)線性重構(gòu)測(cè)試樣本;在降低傳感器裝置功耗和稀疏表示識(shí)別算法計(jì)算復(fù)雜度基礎(chǔ)上,捕捉人體行為動(dòng)作本質(zhì)特征信息,提高多類別動(dòng)作識(shí)別率。采用國(guó)際公開(kāi)可穿戴傳感器動(dòng)作識(shí)別數(shù)據(jù)庫(kù)WARD多類別動(dòng)作數(shù)據(jù),驗(yàn)證所提算法的有效性。實(shí)驗(yàn)結(jié)果表明,當(dāng)數(shù)據(jù)壓縮率為50%,所提算法能夠獲得最高平均識(shí)別率(92.78%),比傳統(tǒng)稀疏表示分類算法獲得的動(dòng)作識(shí)別率提高近5%,并顯著降低其相應(yīng)的運(yùn)行時(shí)間,能準(zhǔn)確稀疏表示多類別人體行為動(dòng)作信號(hào),有效降低稀疏表示分類算法的計(jì)算法復(fù)雜度和運(yùn)行時(shí)間,明顯提高多類別動(dòng)作識(shí)別率,為構(gòu)建快速稀疏表示動(dòng)作識(shí)別提供一個(gè)新的思路和方法。

    體域網(wǎng);隨機(jī)投影;稀疏表示;鄰近類;動(dòng)作識(shí)別

    引言

    基于體域網(wǎng)遠(yuǎn)程監(jiān)測(cè)人體活動(dòng)狀況,對(duì)于遠(yuǎn)程診斷、治療、評(píng)價(jià)人體步態(tài)及健康狀態(tài)變化具有重要意義[1]。快速、準(zhǔn)確識(shí)別人體動(dòng)作變化是基于體域網(wǎng)遠(yuǎn)程監(jiān)測(cè)人體活動(dòng)的關(guān)鍵技術(shù),也是目前相關(guān)研究的重要內(nèi)容,其基本思路主要是通過(guò)可穿戴傳感器裝置采集人體運(yùn)動(dòng)信號(hào),并通過(guò)互聯(lián)網(wǎng)將其傳送至遠(yuǎn)端數(shù)據(jù)處理中心進(jìn)行分析及鑒別。如何有效降低傳感器裝置功耗和快速準(zhǔn)確識(shí)別人體動(dòng)作是當(dāng)前相關(guān)研究的熱點(diǎn)問(wèn)題,目前研究大多將這兩個(gè)問(wèn)題分別考慮研究,未能將兩者結(jié)合來(lái)綜合、全面地考慮體域網(wǎng)遠(yuǎn)程人體活動(dòng)監(jiān)測(cè)系統(tǒng),探尋有效的人體活動(dòng)識(shí)別方法。

    近年來(lái),數(shù)據(jù)壓縮方法在基于體域網(wǎng)遠(yuǎn)程監(jiān)測(cè)人體活動(dòng)研究中受到廣泛關(guān)注和重視。該方法的核心思想主要是:將傳感器裝置采集的數(shù)據(jù)在無(wú)線傳輸前壓縮,降低數(shù)據(jù)傳輸量和功耗;在遠(yuǎn)端將壓縮數(shù)據(jù)重構(gòu)恢復(fù),進(jìn)行分析和識(shí)別。目前,一種新的數(shù)據(jù)壓縮方法——壓縮感知(compressed sensing,CS)理論[2]在相關(guān)研究中受到廣泛關(guān)注和應(yīng)用,其基本思路主要是將人體運(yùn)動(dòng)信號(hào)考慮為在某一個(gè)正交空間上具有稀疏性(或可壓縮性),利用隨機(jī)投影壓縮方法,獲取遠(yuǎn)低于奈奎斯特采樣頻率的數(shù)據(jù),并以較高概率重構(gòu)恢復(fù)原始信號(hào)。研究發(fā)現(xiàn),壓縮感知隨機(jī)投影方法比傳統(tǒng)數(shù)據(jù)降維方法(如主成分分析、線性判別分析等)具有較低的計(jì)算復(fù)雜性,比較適合應(yīng)用于計(jì)算和存儲(chǔ)資源有限的傳感器裝置上。特別地,隨機(jī)投影數(shù)據(jù)壓縮方法無(wú)需獲取數(shù)據(jù)任何先驗(yàn)知識(shí),有助于隨機(jī)選擇測(cè)量矩陣和壓縮重構(gòu)解決方案。壓縮感知應(yīng)用于基于體域網(wǎng)遠(yuǎn)程監(jiān)測(cè)人體活動(dòng)研究中的另一個(gè)關(guān)鍵問(wèn)題就是壓縮重構(gòu),對(duì)于準(zhǔn)確識(shí)別人體行為動(dòng)作模式至關(guān)重要。目前,研究思路主要分兩個(gè)步驟實(shí)現(xiàn),首先采用壓縮感知重構(gòu)算法恢復(fù)原始運(yùn)動(dòng)信號(hào),然后設(shè)計(jì)模式識(shí)別算法對(duì)其進(jìn)行鑒別,其過(guò)程耗時(shí),難以快速、準(zhǔn)確識(shí)別人體行為動(dòng)作模式變化[3]。如何采用壓縮數(shù)據(jù)快速分類,是上述研究近年來(lái)相關(guān)領(lǐng)域探討的熱點(diǎn)問(wèn)題。目前,一種基于壓縮數(shù)據(jù)分類方法在圖像識(shí)別、人臉識(shí)別等應(yīng)用領(lǐng)域得到廣泛重視,其基本思想主要是考慮壓縮數(shù)據(jù)包含原始信號(hào)的結(jié)構(gòu)信息,利用少量壓縮數(shù)據(jù)作為樣本數(shù)據(jù)來(lái)實(shí)現(xiàn)信號(hào)分類[4],其關(guān)鍵技術(shù)主要體現(xiàn)為如何準(zhǔn)確稀疏表示數(shù)據(jù)來(lái)進(jìn)行分類。

    近年來(lái),新興的稀疏表示理論在機(jī)器學(xué)習(xí)、機(jī)器視覺(jué)和模式識(shí)別等領(lǐng)域得到廣泛關(guān)注,為基于稀疏表示信號(hào)分類提供了理論基礎(chǔ)。Wright等學(xué)者首次基于稀疏表示理論,提出了稀疏表示分類算法(sparse representation based classifier,SRC)[5],其基本思想是將模式識(shí)別問(wèn)題轉(zhuǎn)化為信號(hào)稀疏表示問(wèn)題,也就是在測(cè)試樣本所屬類的訓(xùn)練樣本數(shù)足夠多的情況下,該類測(cè)試樣本可由所屬類訓(xùn)練樣本線性組合,無(wú)需考慮其他類的樣本數(shù)據(jù)。當(dāng)線性組合表示系數(shù)足夠稀疏時(shí),SRC算法對(duì)數(shù)據(jù)特征空間的選取并不敏感,與傳統(tǒng)模式識(shí)別方法(如最近鄰NN、最近子空間NS、支持向量機(jī)SVM等)相比,具有較高的識(shí)別精度和魯棒性,在生物特征識(shí)別等相關(guān)領(lǐng)域得到廣泛應(yīng)用[6-7]。近年來(lái),一些學(xué)者嘗試將稀疏表示分類算法應(yīng)用于體域網(wǎng)人體行為動(dòng)作識(shí)別中,探尋解決傳感器裝置低功耗、快速準(zhǔn)確識(shí)別問(wèn)題的有效方法[8-10]。諸如,文獻(xiàn)[10]提出一種基于隨機(jī)投影的動(dòng)作識(shí)別方法(sparse representation classification with random projection,SRC-RP),嘗試對(duì)隨機(jī)投影壓縮樣本數(shù)據(jù)進(jìn)行稀疏表示分類,以降低傳感節(jié)點(diǎn)的能量開(kāi)銷和提高動(dòng)作識(shí)別率。研究發(fā)現(xiàn),使用所有類的訓(xùn)練樣本稀疏表示測(cè)試樣本, 計(jì)算復(fù)雜度大,并且非所屬類訓(xùn)練樣本會(huì)干擾算法的識(shí)別精度和魯棒性。目前研究的一個(gè)關(guān)鍵問(wèn)題就是如何尋找一個(gè)局部稀疏表示的動(dòng)作模式識(shí)別算法,也就是利用測(cè)試樣本少數(shù)鄰近樣本而非所有訓(xùn)練樣本稀疏表示測(cè)試樣本,從而降低計(jì)算復(fù)雜度,其關(guān)鍵點(diǎn)是如何尋找準(zhǔn)確稀疏表示測(cè)試樣本的少數(shù)同類別的近鄰訓(xùn)練樣本[11]。當(dāng)前,基于優(yōu)化過(guò)完備字典的稀疏表示分類算法在相關(guān)研究領(lǐng)域受到廣泛關(guān)注,它旨在通過(guò)對(duì)樣本訓(xùn)練學(xué)習(xí),獲取準(zhǔn)確稀疏表示測(cè)試樣本的過(guò)完備字典,從而解決降低計(jì)算復(fù)雜度和提高識(shí)別率的問(wèn)題。Huang等提出一種基于原型表示的快速稀疏表示算法,嘗試?yán)肒-SVD算法構(gòu)造一個(gè)較小且滿足稀疏表示條件的過(guò)完備字典,將稀疏表示問(wèn)題轉(zhuǎn)化為一個(gè)l1最小化范數(shù)問(wèn)題[12]。但研究發(fā)現(xiàn),K-SVD算法缺乏嚴(yán)格的理論支撐,基于其優(yōu)化算法獲得的過(guò)完備字典難以準(zhǔn)確稀疏表示測(cè)試樣本,影響稀疏表示分類算法性能。陳才扣等提出了一種快速的稀疏表示分類算法,旨在解決傳統(tǒng)SRC算法計(jì)算復(fù)雜度高的問(wèn)題,其基本思路是通過(guò)K最近鄰(K-nearest neighbor,KNN)算法,尋找一個(gè)較小訓(xùn)練樣本集來(lái)稀疏表示測(cè)試樣本,嘗試在降低算法復(fù)雜度的基礎(chǔ)上提高算法識(shí)別率[13]。目前相關(guān)研究?jī)H考慮采用K最近鄰方法尋找快速稀疏表示分類算法,而忽略體域網(wǎng)遠(yuǎn)程監(jiān)測(cè)人體動(dòng)作系統(tǒng)在低功耗基礎(chǔ)上快速識(shí)別人體動(dòng)作模式的實(shí)際解決問(wèn)題的方法。

    為全面、綜合解決體域網(wǎng)遠(yuǎn)程監(jiān)測(cè)人體行為動(dòng)作研究中低功耗和快速準(zhǔn)確識(shí)別的問(wèn)題,本研究提出了一種基于隨機(jī)投影的快速稀疏表示人體動(dòng)作識(shí)別的方法(fast sparse representation classification based on random projection,F(xiàn)SRC-RP)。該方法的基本思路是:基于壓縮感知隨機(jī)投影壓縮數(shù)據(jù),構(gòu)建快速稀疏表示動(dòng)作模式識(shí)別算法,也就是基于隨機(jī)投影壓縮數(shù)據(jù),獲取待測(cè)試樣本m個(gè)鄰近類中的k(k≤m)個(gè)最近鄰訓(xùn)練樣本,構(gòu)建測(cè)試樣本稀疏表示的訓(xùn)練樣本集,以期達(dá)到最優(yōu)線性重構(gòu)測(cè)試樣本,從而在降低傳感器裝置功耗的基礎(chǔ)上,提高動(dòng)作識(shí)別率。在實(shí)驗(yàn)中,采用公開(kāi)的可穿戴人體日常行為識(shí)別數(shù)據(jù)庫(kù)WARD的多種行為動(dòng)作信號(hào),并與近年相關(guān)研究的SRC算法比較,從而驗(yàn)證所提算法的有效性和優(yōu)越性。

    1 基于隨機(jī)投影的快速稀疏表示人體動(dòng)作識(shí)別方法

    1.1 隨機(jī)投影

    隨機(jī)投影(random projection,RP)是一種利用隨機(jī)投影矩陣實(shí)現(xiàn)高維數(shù)據(jù)降維的數(shù)據(jù)壓縮方法,具有計(jì)算復(fù)雜度低等優(yōu)點(diǎn)[14]。假設(shè)傳感器裝置(或節(jié)點(diǎn))采集的人體運(yùn)動(dòng)信號(hào)為x∈Rn1,利用隨機(jī)投影矩陣A∈Rmn,可將原始信號(hào)x投影到一個(gè)m(m≤n)維子空間中,即

    (1)

    式中,y∈Rm1為投影壓縮數(shù)據(jù),其計(jì)算復(fù)雜度僅為O(mn)。

    在實(shí)際應(yīng)用中,投影矩陣的選取對(duì)于體域網(wǎng)人體運(yùn)動(dòng)信號(hào)壓縮和重構(gòu)至關(guān)重要。為準(zhǔn)確從m維測(cè)量值y中以高概率重構(gòu)恢復(fù)原始信號(hào)x,投影矩陣A須滿足約束等距條件(restrictedisometryproperty,RIP),即對(duì)于任意一個(gè)s-稀疏信號(hào)x,存在一個(gè)RIP常數(shù)δs∈(0,1),使得下式成立,即

    (2)

    式中,Λ?{1,…,n},且|Λ|≤s,AΛ為A中由索引Λ所指示的相關(guān)列構(gòu)成的子矩陣。

    為有效合理地使用體域網(wǎng)傳感裝置硬件系統(tǒng)的有限計(jì)算資源,選用滿足RIP性質(zhì)的稀疏二進(jìn)制矩陣(僅含0和1元素,且每列元素1的位置可隨機(jī)分布)作為隨機(jī)投影矩陣進(jìn)行數(shù)據(jù)壓縮,為后續(xù)構(gòu)建快速稀疏表示分類算法提供可靠的數(shù)據(jù)。

    1.2 構(gòu)建稀疏表示人體動(dòng)作識(shí)別模型

    假設(shè)由L個(gè)傳感節(jié)點(diǎn)(包含一個(gè)3軸的加速度數(shù)據(jù)和2軸的陀螺儀)構(gòu)建的體域網(wǎng)采集K類人體動(dòng)作模式,若傳感器節(jié)點(diǎn)j在t時(shí)刻采集的動(dòng)作信號(hào)表示為

    (3)

    采集h時(shí)間的傳感器節(jié)點(diǎn)j采集的動(dòng)作信號(hào)表示為

    (4)

    那么,由L個(gè)傳感節(jié)點(diǎn)采樣值構(gòu)成一維動(dòng)作向量,表示為

    (5)

    由第i類動(dòng)作模式對(duì)應(yīng)的訓(xùn)練集中所有一維動(dòng)作向量構(gòu)成過(guò)完備字典中的一個(gè)列向量,即

    (6)

    式中,ni表示第i類動(dòng)作模式的訓(xùn)練樣本數(shù)目,m=5Lh。

    這樣,由所有K種動(dòng)作類別構(gòu)成的過(guò)完備字典可以表示為

    (7)

    式中,n=n1+n2+…+nk。

    假設(shè)第i類動(dòng)作樣本vkt的所有訓(xùn)練樣本可線性表示為

    (8)

    式中,αi=[αi1,αi2,…,αini]T∈Rni1為待識(shí)別動(dòng)作樣本vkt的表示系數(shù)。

    考慮到vkt為未知類別動(dòng)作樣本,將其線性表示為所有K種動(dòng)作類別構(gòu)成的過(guò)完備字典,即

    (9)

    式中,α=[0,…0,αi1,…,αini,0,…,0]T∈Rn1為所有系數(shù),其中非零元素應(yīng)集中于測(cè)試樣本所屬類的訓(xùn)練樣本Vi上。

    由于m

    (10)

    上述l0最優(yōu)化問(wèn)題為NP問(wèn)題,難以直接求解?;趧?dòng)作數(shù)據(jù)的稀疏性特點(diǎn),可將式(10)等價(jià)于求解下列l(wèi)1最優(yōu)化問(wèn)題:

    (11)

    考慮到噪聲的干擾,式(9)可表示為

    (12)

    式中,ε為觀測(cè)噪聲,其稀疏表示系數(shù)的求解問(wèn)題可表示為

    (13)

    獲得稀疏表示系數(shù)后,即可根據(jù)表示系數(shù)判定待識(shí)別動(dòng)作樣本類別。由于稀疏表示向量的非零系數(shù)主要集中于測(cè)試樣本所屬類別的訓(xùn)練樣本集中,從線性表示角度來(lái)看,較大系數(shù)對(duì)應(yīng)的訓(xùn)練樣本為所求測(cè)試樣本所屬的動(dòng)作類別。為此,SRC算法通過(guò)計(jì)算待識(shí)別動(dòng)作向量與每一類別中所有訓(xùn)練樣本的線性加權(quán)的差值來(lái)判定測(cè)試樣本所屬類別,有

    (14)

    若差值越小,表明所屬類訓(xùn)練樣本對(duì)所選取的測(cè)試樣本貢獻(xiàn)越大,即可判定測(cè)試樣本所屬動(dòng)作類別,有

    identity(vkt)=arg minri(vkt)

    (15)

    式中,identity(vkt)為測(cè)試樣本vkt所屬動(dòng)作類別。

    1.3 基于隨機(jī)投影的快速稀疏表示分類算法

    1.3.1 重新構(gòu)造訓(xùn)練樣本集

    基于隨機(jī)投影壓縮數(shù)據(jù)構(gòu)建快速稀疏表示動(dòng)作識(shí)別模型的關(guān)鍵之處,在于尋找盡可能少的訓(xùn)練樣本來(lái)最優(yōu)線性重構(gòu)測(cè)試樣本。首先,在傳感器節(jié)點(diǎn)j上,利用隨機(jī)投影矩陣Aj對(duì)待識(shí)別動(dòng)作向量vj,kt進(jìn)行隨機(jī)投影,即

    (16)

    在遠(yuǎn)端數(shù)據(jù)處理中心,由L個(gè)傳感器節(jié)點(diǎn)構(gòu)成的待識(shí)別動(dòng)作向量為

    (17)

    式中,d=d1+d2+…+dL。

    將矩陣A∈Rdm表示為由隨機(jī)投影矩陣Aj的對(duì)角線元素構(gòu)成的對(duì)角矩陣,則式(17)可表示為

    (18)

    同時(shí),采用相同隨機(jī)投影矩陣壓縮訓(xùn)練樣本集, 則基于隨機(jī)投影的人體動(dòng)作識(shí)別模型可表示為

    (19)

    若稀疏系數(shù)β保持足夠稀疏,則可基于壓縮感知理論,采用l1最小化范數(shù)問(wèn)題求解。

    然而,使用訓(xùn)練樣本集中所有類的訓(xùn)練樣本對(duì)測(cè)試樣本進(jìn)行稀疏表示時(shí)計(jì)算量較大,且樣本集中可能包含有一些對(duì)重構(gòu)測(cè)試樣本貢獻(xiàn)較小的動(dòng)作類別,會(huì)降低動(dòng)作識(shí)別準(zhǔn)確率。為此,筆者假設(shè)測(cè)試樣本線性表示的訓(xùn)練樣本來(lái)自于與測(cè)試樣本同類的訓(xùn)練樣本,其他類訓(xùn)練樣本對(duì)重構(gòu)該測(cè)試樣本的貢獻(xiàn)為0。也就是說(shuō),F(xiàn)SRC-RP算法首先尋求其可能歸屬的m個(gè)鄰近類別,然后利用KNN近鄰方法尋找該動(dòng)作向量可能歸屬類的k個(gè)最近鄰訓(xùn)練樣本,重新構(gòu)造用于測(cè)試樣本稀疏表示的訓(xùn)練樣本集,減少不相干類別的訓(xùn)練樣本干擾,提高動(dòng)作識(shí)別的準(zhǔn)確性,同時(shí)降低稀疏表示分類的計(jì)算開(kāi)銷。

    1.3.2 簡(jiǎn)化KNN近鄰算法

    采用KNN近鄰方法搜尋一個(gè)測(cè)試樣本m個(gè)鄰近類,即首先計(jì)算該測(cè)試樣本點(diǎn)與所有類別的訓(xùn)練樣本點(diǎn)之間的距離,然后通過(guò)比較這些距離的大小,從中找出k個(gè)訓(xùn)練樣本點(diǎn)。假設(shè)xk,nn=[x1,x2,…,xk]為測(cè)試樣本點(diǎn)對(duì)應(yīng)的k個(gè)最近鄰樣本點(diǎn),L=[l(x1),l(x2),…,l(xk)]為k個(gè)最鄰近樣本點(diǎn)對(duì)應(yīng)的類別標(biāo)簽,通過(guò)對(duì)比k個(gè)最鄰近樣本的類別標(biāo)簽,可以確定測(cè)試樣本點(diǎn)對(duì)應(yīng)的m個(gè)鄰近類別為c1,c2,…,cm。為有效降低尋找測(cè)試樣本的m個(gè)鄰近類的k個(gè)最近鄰樣本點(diǎn)的計(jì)算量,提出一種簡(jiǎn)化KNN近鄰方法,其步驟描述如下。

    步驟1:求解訓(xùn)練集中每類動(dòng)作樣本的中心樣本點(diǎn),有

    (20)

    式中,i為類序號(hào),ni為第i類動(dòng)作類別的訓(xùn)練樣本數(shù)目。

    步驟2:采用歐式距離計(jì)算測(cè)試樣本、所有類的中心樣本點(diǎn)的距離,即

    (21)

    式中,Cij為第i類中心樣本點(diǎn)中第j個(gè)特征值,m為特征向量維數(shù)。

    步驟3:根據(jù)步驟2計(jì)算測(cè)試樣本與各類中心樣本點(diǎn)之間的歐式距離,選出m個(gè)近鄰中心樣本點(diǎn)所對(duì)應(yīng)的類別標(biāo)簽,即為測(cè)試樣本點(diǎn)的m個(gè)鄰近類別。

    步驟4:計(jì)算第i類所有訓(xùn)練樣本與測(cè)試樣本的歐式距離,比較其大小選取其中k個(gè)最小的樣本點(diǎn)作為該類的訓(xùn)練樣本。重復(fù)上述步驟,直到找到測(cè)試樣本m個(gè)鄰近類的k個(gè)近鄰樣本點(diǎn)為止。

    為此,可得到FSRC-RP算法的訓(xùn)練樣本集為

    (22)

    (23)

    基于壓縮感知理論,通過(guò)求解l1最小化范數(shù)的優(yōu)化問(wèn)題,可求解得到式(23)的稀疏表示系數(shù),即

    (24)

    求解出稀疏系數(shù)β后,通過(guò)計(jì)算各類動(dòng)作樣本的重構(gòu)殘差,并選擇殘差最小的動(dòng)作類別作為待識(shí)別動(dòng)作向量vkt的最終識(shí)別結(jié)果。

    1.3.3 本研究算法步驟

    步驟1:初始訓(xùn)練樣本集V=[v11,v12,…,vKnK],測(cè)試樣本vkt,每個(gè)傳感器節(jié)點(diǎn)的隨機(jī)投影矩陣Aj,誤差容忍參數(shù),SCI閾值τ。

    步驟2: 構(gòu)造訓(xùn)練樣本集和測(cè)試樣本集。訓(xùn)練樣本集:在每個(gè)傳感節(jié)點(diǎn)上,利用隨機(jī)投影矩陣Aj壓縮數(shù)據(jù);在遠(yuǎn)端數(shù)據(jù)處理中心,利用各個(gè)節(jié)點(diǎn)的隨機(jī)投影矩陣和初始訓(xùn)練樣本集構(gòu)建訓(xùn)練樣本集AV。基于測(cè)試樣本vk,t構(gòu)建測(cè)試樣本Avkt。

    步驟3: 將訓(xùn)練樣本集中的每列向量歸一化處理。

    步驟5: 通過(guò)l1范數(shù)最小化問(wèn)題求解測(cè)試樣本稀疏表示系數(shù),有

    步驟6: 計(jì)算各動(dòng)作類別的重構(gòu)殘差,有

    1.4 算法驗(yàn)證

    1.4.1 數(shù)據(jù)獲取

    在本研究中,選用了美國(guó)加州伯克利大學(xué)人體日常行為動(dòng)作識(shí)別數(shù)據(jù)庫(kù)WARD(Wearable Action Recognition Database)的人體運(yùn)動(dòng)數(shù)據(jù)[15]。該數(shù)據(jù)庫(kù)將可穿戴多傳感節(jié)點(diǎn)放置于人體腰部、左手腕、右手腕、左腳踝、右腳踝的解剖部位上,采集20名受試者(13名男性和7名女性)在自然狀態(tài)下的13種動(dòng)作數(shù)據(jù)(包括站、坐、躺、向前走、逆時(shí)針走、順時(shí)針走、向左轉(zhuǎn)、向右轉(zhuǎn)、上樓、下樓、慢跑、跳、推輪椅)。每一個(gè)動(dòng)作要求每名受試者重復(fù)采集5次,共采集到1 300個(gè)動(dòng)作樣本。其中,每個(gè)傳感裝置包含一個(gè)3軸的加速度計(jì)和一個(gè)2軸的陀螺儀,數(shù)據(jù)采樣頻率為20 Hz。選取其中常用的9種行為動(dòng)作(向前走、向左轉(zhuǎn)、向右轉(zhuǎn)、上樓、下樓、跑、跳、站、坐)進(jìn)行仿真實(shí)驗(yàn)。

    1.4.2 數(shù)據(jù)預(yù)處理

    利用滑動(dòng)窗口(sliding window)方式提取數(shù)據(jù)庫(kù)中的運(yùn)動(dòng)數(shù)據(jù),根據(jù)數(shù)據(jù)采樣頻率選取滑動(dòng)窗口長(zhǎng)度為1 s,即在采樣頻率為20 Hz的樣本中選取一段為20個(gè)采樣點(diǎn)的運(yùn)動(dòng)數(shù)據(jù)作為一個(gè)動(dòng)作樣本。每個(gè)采樣點(diǎn)包含一個(gè)三維加速度數(shù)據(jù)和二維陀螺儀數(shù)據(jù),從而由5個(gè)傳感器節(jié)點(diǎn)構(gòu)成的訓(xùn)練樣本維數(shù)m=500。

    1.4.3 算法評(píng)價(jià)

    為了客觀、準(zhǔn)確地評(píng)價(jià)本算法的性能,采用留一交叉驗(yàn)證方法評(píng)價(jià)其多類別動(dòng)作識(shí)別性能,其具體方法為:將所有20名受試者的動(dòng)作數(shù)據(jù)平均分成20份,依次將每名受試者的動(dòng)作數(shù)據(jù)選為測(cè)試集,剩下19名受試者的動(dòng)作數(shù)據(jù)作為訓(xùn)練集,重復(fù)上述過(guò)程,獲得最終平均動(dòng)作識(shí)別率。在實(shí)驗(yàn)仿真時(shí),誤差容忍參數(shù)選取為0.03,SCI閾值τ選取為0.4。首先測(cè)試待識(shí)別動(dòng)作向量鄰近類別數(shù)目對(duì)FSRC-RP算法識(shí)別性能的影響,其中稀疏二進(jìn)制隨機(jī)投影矩陣中每一列的非零元素個(gè)數(shù)設(shè)為2;然后比較本算法與傳統(tǒng)最近鄰NN算法、SRC-RP算法以及文獻(xiàn)[13]的識(shí)別算法在不同壓縮比下的動(dòng)作識(shí)別率和識(shí)別時(shí)間,其中數(shù)據(jù)壓縮比定義為

    CR=d/m

    (25)

    式中,d表示投影壓縮數(shù)據(jù)的動(dòng)作向量維數(shù),m表示原始動(dòng)作向量維數(shù)。

    CR越大,表示原始動(dòng)作向量的壓縮程度就越小。此外,為進(jìn)一步驗(yàn)證隨機(jī)投影矩陣對(duì)本算法動(dòng)作識(shí)別性能的影響,選擇3種常用的隨機(jī)矩陣(高斯隨機(jī)矩陣、伯努利隨機(jī)矩陣和稀疏二進(jìn)制矩陣)作為本算法的隨機(jī)投影矩陣??紤]到隨機(jī)矩陣中元素選取的不確定性,每種隨機(jī)矩陣均分別產(chǎn)生5次,選擇5次隨機(jī)矩陣的平均結(jié)果作為最終的動(dòng)作識(shí)別率。通過(guò)實(shí)驗(yàn)仿真,根據(jù)SRC-RP算法和FSRC-RP算法在所選取數(shù)據(jù)壓縮比為50%狀況下的9種日常行為動(dòng)作類別的混淆矩陣,驗(yàn)證本算法的有效性和優(yōu)越性。

    2 結(jié)果

    圖1給出了數(shù)據(jù)壓縮比為50%時(shí)本算法(FSRC-RP)性能隨測(cè)試樣本鄰近類別數(shù)目的變化狀況。可以看到,基于FSRC-RP算法的動(dòng)作識(shí)別率隨著鄰近類數(shù)目的增加而增大,當(dāng)鄰近類數(shù)目為5時(shí),算法識(shí)別率呈下降趨勢(shì)。這可能是由于當(dāng)所選取的鄰近類數(shù)目較少時(shí),測(cè)試樣本所屬的動(dòng)作類別可能并沒(méi)有被包含在所尋求的鄰近類中,隨著鄰近

    類數(shù)目的增加,算法識(shí)別率也隨之上升。但當(dāng)鄰近類數(shù)目較大時(shí),所尋求的鄰近類中包含較多的與測(cè)試樣本不相關(guān)的動(dòng)作類別,導(dǎo)致算法識(shí)別性能下降。上述結(jié)果表明,合理選擇測(cè)試樣本的鄰近類數(shù)目,可有效提高FSRC-RP算法的動(dòng)作識(shí)別率。

    圖1 不同鄰近類下的動(dòng)作識(shí)別率變化情況Tab.1 The activity recognition rates of our method versus the variation of the training sample sizes

    為驗(yàn)證本算法的有效性和優(yōu)越性,用SRC-RP算法[8]、文獻(xiàn)[13]的算法以及傳統(tǒng)最近鄰NN算法進(jìn)行比較分析。對(duì)于本算法FSRC-RP、SRC-RP以及文獻(xiàn)[13]方法中的動(dòng)作向量稀疏系數(shù)的重構(gòu)問(wèn)題,采用SPGL1工具箱[16]中的基追蹤去噪算法進(jìn)行求解。圖2給出了當(dāng)鄰近類數(shù)目為6、訓(xùn)練樣本數(shù)為60時(shí)的4種分類器平均識(shí)別率隨不同壓縮比變化的狀況??梢钥吹剑鞣诸惼鲃?dòng)作識(shí)別率隨數(shù)據(jù)壓縮比增大而增大。當(dāng)達(dá)到一定的投影維數(shù)時(shí),各分類算法性能趨于穩(wěn)定。相比而言,本算法能夠獲得最高平均識(shí)別率(92.78%),明顯高于SRC-RP算法、文獻(xiàn)[13]方法及NN算法動(dòng)作識(shí)別率5%。結(jié)果表明,本算法能夠在測(cè)試樣本可能歸屬類的所有訓(xùn)練樣本中,尋求k個(gè)最能稀疏表示測(cè)試樣本的訓(xùn)練樣本點(diǎn),可有效降低算法計(jì)算復(fù)雜度,提高動(dòng)作識(shí)別率。

    圖2 4種分類器在不同壓縮比下的動(dòng)作識(shí)別率Fig.2 The activity recognition rates of four classification algorithms on different compression rate

    表1給出了上述4種分類算法在不同壓縮比狀況下識(shí)別9種動(dòng)作類別的運(yùn)行時(shí)間。從表1可以發(fā)現(xiàn),基于各分類算法運(yùn)行的動(dòng)作識(shí)別時(shí)間均隨數(shù)據(jù)壓縮比的增加(也就是所要處理的動(dòng)作特征向量維數(shù)越大)而增加?;谙∈璞硎镜膭?dòng)作識(shí)別方法比較而言,本算法運(yùn)行的平均時(shí)間僅為31.970 3s,明顯低于傳統(tǒng)SRC-RP算法和文獻(xiàn)[13]方法的平均運(yùn)行時(shí)間,表明本算法采用較小訓(xùn)練樣本集稀疏表示測(cè)試樣本,能有效降低識(shí)別算法的計(jì)算復(fù)雜度。

    表1 不同壓縮比下各分類器的動(dòng)作識(shí)別時(shí)間

    Tab.1 The activity recognition runtime of each classification algorithms on different compression rate

    壓縮比動(dòng)作識(shí)別時(shí)間/sSRC-RP文獻(xiàn)[13]方法FSRC-RPNNCR=10%67.382028.941127.72950.2089CR=30%96.062929.262628.72950.2735CR=50%134.199231.918930.39710.4286CR=70%168.563734.880033.71970.4814CR=90%222.661143.101139.27560.6524平均時(shí)間137.773833.620731.97030.4090

    圖3 不同壓縮比下不同隨機(jī)投影矩陣下的動(dòng)作識(shí)別率Fig.3 The activity recognition rates of different random projection matrices on different compression rate

    在相同實(shí)驗(yàn)條件下,選取3種不同的隨機(jī)投影矩陣(包括高斯隨機(jī)矩陣、伯努利隨機(jī)矩陣以及稀疏二進(jìn)制矩陣),在不同壓縮比狀況下動(dòng)作識(shí)別率的變化狀況如圖3所示??梢钥吹?,對(duì)于不同的隨機(jī)投影矩陣而言,基于本算法的動(dòng)作識(shí)別率均隨數(shù)據(jù)壓縮比增加而增加,3種隨機(jī)矩陣幾乎獲得相同的動(dòng)作識(shí)別率。但稀疏二進(jìn)制隨機(jī)矩陣能夠通過(guò)減少矩陣中每列非零元素的數(shù)目,進(jìn)一步降低體域網(wǎng)傳感裝置計(jì)算資源和功耗[17]。上述結(jié)果表明,稀疏二進(jìn)制隨機(jī)矩陣有助于降低本算法的計(jì)算復(fù)雜度,提高動(dòng)作識(shí)別率。

    此外,表2、3分別給出基于SRC-RP算法和FSRC-RP算法在數(shù)據(jù)壓縮比為50%時(shí)的9種動(dòng)作類別的混淆矩陣。從結(jié)果來(lái)看,基于FSRC-RP算法可獲得最優(yōu)動(dòng)作識(shí)別率92.11%,而基于SRC-RP算法僅獲得87.22%的動(dòng)作識(shí)別率,前者明顯高于后者。結(jié)果表明,本算法能夠充分利用隨機(jī)投影矩陣,捕獲不同動(dòng)作的內(nèi)在特征信息,有效提高了動(dòng)作識(shí)別率。

    表2 基于SRC-RP算法的9種動(dòng)作的混淆矩陣

    Tab.2 The confusion matrix of nine activities based on SRC-RP algorithm

    類別向前走向左轉(zhuǎn)向右轉(zhuǎn)上樓下樓跳跑站坐識(shí)別率向前走804219007180%向左轉(zhuǎn)194000005094%向右轉(zhuǎn)009410004194%上樓320806714180%下樓2001481111081%跑000339220092%跳001220923092%站013110088688%坐0102001128484%

    表3 基于FSRC-RP算法的9種動(dòng)作的混淆矩陣

    Tab.3 The confusion matrix of nine activities based on FSRC-RP algorithm

    類別向前走向左轉(zhuǎn)向右轉(zhuǎn)上樓下樓跳跑站坐識(shí)別率向前走932400001093%向左轉(zhuǎn)099000001099%向右轉(zhuǎn)109800001098%上樓400882600088%下樓801682102082%跑000009415094%跳001120942094%站101000289789%坐030000059292%

    3 討論

    實(shí)驗(yàn)結(jié)果表明,本算法能夠充分基于隨機(jī)投影壓縮數(shù)據(jù),尋找到盡可能少的訓(xùn)練樣本的最優(yōu)線性重構(gòu)測(cè)試樣本,構(gòu)建快速稀疏表示動(dòng)作識(shí)別模型,有效降低傳感系統(tǒng)功耗,提高動(dòng)作識(shí)別率。

    基于稀疏表示構(gòu)建人體動(dòng)作識(shí)別模型,關(guān)鍵之處在于無(wú)需考慮非所屬類的樣本數(shù)據(jù),選取盡可能少的所屬類訓(xùn)練樣本來(lái)線性重構(gòu)測(cè)試樣本?;跈C(jī)器學(xué)習(xí)理論的測(cè)試樣本與其相鄰的某個(gè)訓(xùn)練樣本點(diǎn)的類別標(biāo)簽一致性假設(shè),筆者嘗試尋求待識(shí)別動(dòng)作向量可能歸屬的m個(gè)鄰近類別,也就是測(cè)試樣本的鄰近類,然后基于鄰近類的多個(gè)訓(xùn)練樣本點(diǎn)稀疏表示測(cè)試樣本,判定待識(shí)別動(dòng)作向量所屬類別。本研究與文獻(xiàn)[11]提出的基于局部稀疏表示的分類算法不同,本算法采用待識(shí)別動(dòng)作樣本的鄰近類而非鄰近點(diǎn)構(gòu)建的訓(xùn)練樣本集,克服了局部稀疏表示分類算法的局限性[18]。正如圖1所示,本算法能夠通過(guò)所求的局部近鄰樣本構(gòu)建的訓(xùn)練樣本來(lái)線性重構(gòu)測(cè)試樣本,提高了動(dòng)作識(shí)別率。此外,圖1的結(jié)果與文獻(xiàn)[13]的研究結(jié)果相似,但本算法采用不同于文獻(xiàn)[13]的尋找m個(gè)鄰近類別訓(xùn)練樣本的選取方法。本算法既未使用鄰近類的所有樣本,也未使用按順序選取的前k個(gè)樣本,而是依據(jù)KNN分類算法準(zhǔn)則,從鄰近動(dòng)作類別中選取最優(yōu)稀疏重構(gòu)測(cè)試樣本的訓(xùn)練樣本作為局部訓(xùn)練樣本集,能夠?qū)⒉煌悇e的訓(xùn)練樣本分別歸屬一個(gè)獨(dú)立線性子空間中,避免各動(dòng)作類別的訓(xùn)練樣本集之間的相互干擾,有效降低測(cè)試樣本因不同類別訓(xùn)練樣本線性表示時(shí)產(chǎn)生的誤判,提高了基于稀疏表示動(dòng)作的識(shí)別算法性能,相應(yīng)實(shí)驗(yàn)結(jié)果如圖2和表2、3所示,本算法的動(dòng)作識(shí)別性能明顯優(yōu)于傳統(tǒng)的NN算法、SRC算法和文獻(xiàn)[13]方法的動(dòng)作識(shí)別性能。此外,本算法僅利用每個(gè)鄰近類別較少的k個(gè)近鄰樣本稀疏表示測(cè)試樣本,有效降低本算法的時(shí)間復(fù)雜度和計(jì)算復(fù)雜度,相應(yīng)的實(shí)驗(yàn)結(jié)果如表1所示,基于本算法的動(dòng)作識(shí)別時(shí)間明顯低于傳統(tǒng)SRC算法和文獻(xiàn)[13]方法的動(dòng)作識(shí)別運(yùn)行時(shí)間。 從表2、3的結(jié)果發(fā)現(xiàn),采用本算法能夠較好識(shí)別向前走、上樓和下樓等區(qū)分度差的動(dòng)作模式,這可能是由于本算法能夠獲得與測(cè)試樣本屬于同一局部子空間的k個(gè)訓(xùn)練樣本進(jìn)行線性重構(gòu),獲取更本質(zhì)的動(dòng)作模式差異信息,有效提高動(dòng)作識(shí)別算法的性能。

    此外,從圖3的結(jié)果可以看到,采用稀疏二進(jìn)制隨機(jī)矩陣,能夠獲得與高斯、伯努利隨機(jī)矩陣幾乎相同的動(dòng)作識(shí)別性能。更重要的是,稀疏二進(jìn)制隨機(jī)矩陣能夠有效控制矩陣中每列非零元素?cái)?shù)目,有效減少傳感器節(jié)點(diǎn)的計(jì)算資源,易于設(shè)計(jì)簡(jiǎn)單系統(tǒng)架構(gòu)的傳感器節(jié)點(diǎn)硬件電路系統(tǒng),降低系統(tǒng)功耗。

    4 結(jié)論

    在本研究中,提出了一種基于隨機(jī)投影的快速稀疏表示人體動(dòng)作的識(shí)別方法。該方法能夠基于壓縮感知隨機(jī)投影矩陣壓縮數(shù)據(jù),有效降低體域網(wǎng)傳感節(jié)點(diǎn)功耗,并且基于隨機(jī)投影壓縮數(shù)據(jù),能有效尋找最優(yōu)線性表示測(cè)試樣本的較少訓(xùn)練樣本集,構(gòu)建快速稀疏表示動(dòng)作識(shí)別模型,有效提高多類別動(dòng)作模式識(shí)別性能,為基于體域網(wǎng)遠(yuǎn)程監(jiān)測(cè)人體行為動(dòng)作提供一個(gè)新的方法和思路。今后的工作主要是嘗試基于體域網(wǎng)多傳感數(shù)據(jù)的時(shí)空相關(guān)性,探尋在高壓縮比狀況下提高動(dòng)作識(shí)別率的有效分類算法。

    [1] 宮繼兵, 王睿, 崔莉. 體域網(wǎng)BSN的研究進(jìn)展及面臨的挑戰(zhàn) [J]. 計(jì)算機(jī)研究與發(fā)展, 2010, 47(5): 737-753.

    [2]DonohoDL.Compressedsensing[J].IEEETransonInformationTheory, 2006, 52(4): 1289-1306.

    [3]AkimuraD,KawaharaY,AsamiT.Compressedsensingmethodforhumanactivitysensingusingmobilephoneaccelerometers[C] //IshizukaH. 2012NinthInternationalConferenceonNetworkedSensingSystems.Antwerp:IEEE, 2012: 1-4.

    [4]DavenportM,DuarteM,WakinM,etal.Thesmashedfilterforcompressiveclassificationandtargetrecognition[C] //ProceedingsofSPIEComputationalImagingV.SanJose:SPIE, 2007: 326-330.

    [5]WrightJ,YangA,GaneshA,etal.Robustfacerecognitionviasparserepresentation[J].IEEETransonPatternAnalysisandMachineIntelligence, 2009, 31(2): 210-227.

    [6]PilllaiJK,PatelVM,ChellappaR,etal.Secureandrobustirisrecognitionusingrandomprojectionsandsparserepresentations[J].IEEETransonPatternAnalysisandMachineIntelligence, 2011, 33(9): 1877-1893.

    [7]HangXiyi,WuFangxiang.Sparserepresentationforclassificationoftumorsusinggeneexpressiondata[J].JournalofBiomedicineandBiotechnology, 2009, 2009:403689.

    [8]ZhangMi,SawchukAA.HumanDailyactivityrecognitionwithsparserepresentationusingwearablesensors[J].IEEEJournalofBiomedicalandHealthInformatics, 2013, 17(3): 553-560.

    [9] 吳建寧, 伍濱. 構(gòu)建基于小波熵的自訓(xùn)練半監(jiān)督支持向量機(jī)分類模型評(píng)價(jià)老年人步態(tài) [J]. 中國(guó)生物醫(yī)學(xué)工程學(xué)報(bào), 2013, 5(5): 588-594.

    [10] 肖玲, 李仁發(fā), 羅娟. 體域網(wǎng)中一種基于壓縮感知的人體動(dòng)作識(shí)別方法 [J]. 電子與信息學(xué)報(bào), 2013, 35(1): 119-125.

    [11]LiChunguang,GuoJun,ZhangHonggang.Localsparserepresentationbasedclassification[C] //The20thInternationalConferenceonPatternRecognition.Istanbul:IEEE, 2010: 649-652.

    [12]HuangJiabin,YangMH.Fastsparserepresentationwithprototypes[C] //IEEEconferenceonComputerVisionandPatternRecognition.SanFrancisco:IEEE, 2010: 3618-3625.

    [13] 陳才扣, 喻以明, 史俊. 一種快速的基于稀疏表示分類器 [J]. 南京大學(xué)學(xué)報(bào): 自然科學(xué)版, 2012,48(1): 70-76.

    [14] 劉紅, 劉蓉, 李書玲. 基于隨機(jī)投影的加速度手勢(shì)識(shí)別 [J]. 計(jì)算機(jī)應(yīng)用, 2015,35(1): 189-193.

    [15]YangY,JafariR,ShankarS,etal.Distributedrecognitionofhumanactionsusingwearablemotionsensornetworks[J].JournalofAmbientIntelligenceandSmartEnvironments, 2009, 1(2): 1-5.

    [16]BergEV,FriedlanderMP.SPGL1:asolverforlarge-scalesparsereconstruction[EB/OL].http://www.cs.ubc.ca/labs/scl/spgl1, 2015-04-01/2015-08-29.

    [17] 吳建寧, 徐海東. 用塊稀疏貝葉斯學(xué)習(xí)算法重構(gòu)識(shí)別體域網(wǎng)步態(tài)模式 [J]. 計(jì)算機(jī)應(yīng)用, 2015, 5(5): 1492-1498.

    [18]ChengHong,LiuZicheng,YangJie.Sparsityinducedsimilaritymeasureforlabelpropagation[C] //IEEEConferenceonComputerVision.Kyoto:IEEE, 2009: 317-324.

    A Fast Sparse Representation Classification Method for Human Activity Recognition Based on Random Projection

    Wu Jianning*Xu Haidong Wang Jiajing Ling Yun

    (CollegeofMathematicsandComputerScience,FujianNormalUniversity,Fuzhou350007,China)

    In this paper, a fast sparse representation classification method for human activity recognition based on random projection was proposed, in order to minimize the energy consumption and accurately recognize human activities from wireless body sensor networks-based telemonitoring system of human daily activity. The basic idea of the proposed method is that the random projection way of compressed sensing theory is used to reduce the amount of sampling on sensor nodes within body sensor network, and then the smaller number of nearest neighbor training samples within the neighbor classes of testing sample, which can optimally liner reconstruction testing sample, are obtained to construct the training sample set of the sparse representation of testing sample. Thus, a fast sparse representation classification algorithm with superior performance of generalization can be developed for capturing valuable features of human activity and improving the recognition rate on the basis of the lower energy consumption and computation complexity of algorithm. The multi-class activity data from international open wearable sensor action recognition database WRAD was selected to evaluate the effectiveness of our method. The experimental results showed that, when the data compression rate was 50%, the proposed algorithm could obtain the highest average recognition rate (92.78%), which was increased by approximately 5% compared with that of the traditional sparse representation classification algorithms. Meanwhile, the operating time of our proposed algorithm was significantly reduced compared with the above traditional methods.We believed that the proposed algorithm could not only effectively reduce the computational complexity and its running time but also significantly enhance the human activity recognition accuracy, providing a new idea and method for developing the fast sparse representation classification algorithm for activity recognition.

    body sensor network (BSN); random projection; sparse representation; neighborhood classes; activity recognition

    10.3969/j.issn.0258-8021. 2016. 01.005

    2015-09-16, 錄用日期:2015-10-13

    福建省自然科學(xué)基金(2013J01220);福建省高等學(xué)校教學(xué)改革研究專項(xiàng)(JAS14674);福建師范大學(xué)2014年研究生教育改革研究項(xiàng)目(MSY201426)

    R318

    A

    0258-8021(2016) 01-0038-09

    *通信作者(Corresponding author), E-mail: jianningwu@fjnu.edu.cn

    猜你喜歡
    訓(xùn)練樣本識(shí)別率類別
    基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
    人工智能
    基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
    提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
    寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
    融合原始樣本和虛擬樣本的人臉識(shí)別算法
    基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
    高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
    服務(wù)類別
    論類別股東會(huì)
    商事法論集(2014年1期)2014-06-27 01:20:42
    久久久久久久精品精品| 久久精品久久久久久久性| 欧美高清性xxxxhd video| 欧美高清成人免费视频www| 高清午夜精品一区二区三区| 国产精品一及| 一区二区三区乱码不卡18| 美女视频免费永久观看网站| 亚洲性久久影院| 身体一侧抽搐| 五月玫瑰六月丁香| 国产精品久久久久成人av| 欧美极品一区二区三区四区| 成人高潮视频无遮挡免费网站| 日产精品乱码卡一卡2卡三| 高清av免费在线| 国产在视频线精品| 在线观看人妻少妇| 免费观看在线日韩| 又粗又硬又长又爽又黄的视频| av国产久精品久网站免费入址| 嘟嘟电影网在线观看| 欧美日本视频| 蜜臀久久99精品久久宅男| 色哟哟·www| 性色avwww在线观看| 韩国av在线不卡| 亚洲丝袜综合中文字幕| 亚洲激情五月婷婷啪啪| 国产高潮美女av| 永久免费av网站大全| 在线观看一区二区三区| av卡一久久| 久久久久久久大尺度免费视频| 日韩成人伦理影院| 深夜a级毛片| 亚洲国产精品一区三区| 亚洲精品456在线播放app| 欧美日本视频| 日本午夜av视频| 久久人人爽av亚洲精品天堂 | av.在线天堂| 久久精品久久久久久噜噜老黄| 午夜免费鲁丝| 国产视频内射| 尾随美女入室| 国产真实伦视频高清在线观看| 久久ye,这里只有精品| 熟女人妻精品中文字幕| 人妻 亚洲 视频| 永久免费av网站大全| 国产亚洲欧美精品永久| 乱系列少妇在线播放| 精品一区二区三卡| 22中文网久久字幕| 精品一区二区免费观看| 色哟哟·www| 美女内射精品一级片tv| 精品人妻一区二区三区麻豆| 国产爱豆传媒在线观看| 精品久久国产蜜桃| 51国产日韩欧美| 日韩一区二区视频免费看| 交换朋友夫妻互换小说| 国产精品一区二区在线不卡| 美女视频免费永久观看网站| 久久久久久久久久久免费av| 国产精品国产三级国产av玫瑰| 亚洲va在线va天堂va国产| 免费黄频网站在线观看国产| 纵有疾风起免费观看全集完整版| 男女国产视频网站| 免费看日本二区| 中国美白少妇内射xxxbb| 日产精品乱码卡一卡2卡三| 成人18禁高潮啪啪吃奶动态图 | 欧美性感艳星| 特大巨黑吊av在线直播| 精品酒店卫生间| 久久国产乱子免费精品| 久久午夜福利片| 久久久久久久久久久丰满| 人人妻人人澡人人爽人人夜夜| 日韩不卡一区二区三区视频在线| 国产成人免费无遮挡视频| a 毛片基地| 亚洲精品第二区| 干丝袜人妻中文字幕| 干丝袜人妻中文字幕| av线在线观看网站| 免费人成在线观看视频色| 一个人看视频在线观看www免费| 国产在线免费精品| 久久人妻熟女aⅴ| 只有这里有精品99| 男女下面进入的视频免费午夜| 又粗又硬又长又爽又黄的视频| 一级二级三级毛片免费看| videossex国产| 男人爽女人下面视频在线观看| 久热久热在线精品观看| 日本欧美视频一区| 国产午夜精品一二区理论片| 亚洲中文av在线| 2022亚洲国产成人精品| 深夜a级毛片| 国产色婷婷99| 久久久久久久亚洲中文字幕| 男人添女人高潮全过程视频| 日韩在线高清观看一区二区三区| 国产在线男女| 亚洲在久久综合| 成人亚洲欧美一区二区av| 高清黄色对白视频在线免费看 | 黄色一级大片看看| 亚洲av欧美aⅴ国产| 蜜臀久久99精品久久宅男| 色吧在线观看| 超碰av人人做人人爽久久| 99热6这里只有精品| 日韩成人伦理影院| 亚洲一级一片aⅴ在线观看| av女优亚洲男人天堂| 在线播放无遮挡| 欧美bdsm另类| 精品一区二区三区视频在线| 美女高潮的动态| 国产色婷婷99| 午夜福利在线在线| 99热网站在线观看| 久久6这里有精品| 国产精品久久久久久精品古装| 精品一品国产午夜福利视频| 欧美区成人在线视频| 成人国产麻豆网| 国产精品久久久久久av不卡| 超碰97精品在线观看| 不卡视频在线观看欧美| 99视频精品全部免费 在线| 七月丁香在线播放| 18禁在线无遮挡免费观看视频| 国产v大片淫在线免费观看| 免费看不卡的av| 我的老师免费观看完整版| 日本wwww免费看| 日本av手机在线免费观看| 国产成人a∨麻豆精品| 婷婷色综合www| 欧美 日韩 精品 国产| 人人妻人人看人人澡| 午夜福利在线观看免费完整高清在| 少妇人妻一区二区三区视频| 一本色道久久久久久精品综合| 午夜免费鲁丝| 国产人妻一区二区三区在| 免费黄网站久久成人精品| 国产精品人妻久久久久久| 国产有黄有色有爽视频| 自拍偷自拍亚洲精品老妇| 美女国产视频在线观看| 国产男女内射视频| 亚洲国产最新在线播放| 国产精品久久久久久精品古装| 亚洲丝袜综合中文字幕| 交换朋友夫妻互换小说| 一本—道久久a久久精品蜜桃钙片| 黄色怎么调成土黄色| 久久精品夜色国产| 久久久a久久爽久久v久久| 欧美日韩综合久久久久久| 日本午夜av视频| 久久精品久久精品一区二区三区| 欧美xxxx性猛交bbbb| 日本欧美视频一区| h日本视频在线播放| 亚洲av中文av极速乱| 哪个播放器可以免费观看大片| 国产欧美另类精品又又久久亚洲欧美| 免费观看性生交大片5| 久久精品夜色国产| 免费少妇av软件| 欧美激情极品国产一区二区三区 | 97超视频在线观看视频| 免费av中文字幕在线| 国产片特级美女逼逼视频| 中文字幕人妻熟人妻熟丝袜美| 日韩人妻高清精品专区| 男男h啪啪无遮挡| 国产色婷婷99| 九九久久精品国产亚洲av麻豆| 男人爽女人下面视频在线观看| 久久久久久久久久成人| 国产精品三级大全| 亚洲av在线观看美女高潮| 身体一侧抽搐| 嫩草影院新地址| 99热这里只有是精品50| 少妇被粗大猛烈的视频| 狂野欧美激情性bbbbbb| 成人亚洲欧美一区二区av| 亚洲精品国产成人久久av| 亚洲av综合色区一区| 日韩成人伦理影院| 亚洲欧美精品专区久久| 日韩av免费高清视频| 高清黄色对白视频在线免费看 | 高清日韩中文字幕在线| 欧美另类一区| 国产69精品久久久久777片| 性高湖久久久久久久久免费观看| 久久99精品国语久久久| 观看美女的网站| 青春草国产在线视频| 国产伦理片在线播放av一区| 欧美亚洲 丝袜 人妻 在线| 菩萨蛮人人尽说江南好唐韦庄| 精品久久久精品久久久| 丝袜喷水一区| 亚洲国产高清在线一区二区三| 精品午夜福利在线看| 久久国内精品自在自线图片| 午夜精品国产一区二区电影| 日韩,欧美,国产一区二区三区| 免费观看a级毛片全部| 久久97久久精品| 中文字幕精品免费在线观看视频 | 人妻系列 视频| 免费看不卡的av| 2022亚洲国产成人精品| 久久人人爽人人爽人人片va| 国产亚洲精品久久久com| 又黄又爽又刺激的免费视频.| 亚洲成人av在线免费| 色吧在线观看| 在现免费观看毛片| 国产成人精品一,二区| 国产免费一级a男人的天堂| 亚州av有码| 2021少妇久久久久久久久久久| 新久久久久国产一级毛片| 人体艺术视频欧美日本| 自拍欧美九色日韩亚洲蝌蚪91 | 在线免费十八禁| 亚洲丝袜综合中文字幕| 日韩人妻高清精品专区| 国产精品爽爽va在线观看网站| 最近的中文字幕免费完整| av视频免费观看在线观看| 久久99精品国语久久久| 青春草亚洲视频在线观看| 老司机影院成人| 精品一品国产午夜福利视频| 国内少妇人妻偷人精品xxx网站| a级毛片免费高清观看在线播放| 国产精品99久久99久久久不卡 | 国产真实伦视频高清在线观看| 亚洲精品国产成人久久av| 国产精品久久久久久久久免| 人妻制服诱惑在线中文字幕| 在线观看一区二区三区| 大片免费播放器 马上看| 直男gayav资源| 人体艺术视频欧美日本| 一级毛片 在线播放| 一本久久精品| 国产淫语在线视频| 成人午夜精彩视频在线观看| 女人久久www免费人成看片| 亚洲成人中文字幕在线播放| 人人妻人人添人人爽欧美一区卜 | 人人妻人人看人人澡| 欧美亚洲 丝袜 人妻 在线| 国产综合精华液| 久久久久久久国产电影| 亚洲色图av天堂| 久久99热这里只有精品18| 性色avwww在线观看| 午夜免费观看性视频| 国产午夜精品久久久久久一区二区三区| 男女国产视频网站| 亚洲欧美日韩另类电影网站 | av在线蜜桃| 97在线视频观看| 少妇熟女欧美另类| 国产伦在线观看视频一区| 日产精品乱码卡一卡2卡三| 国产综合精华液| 如何舔出高潮| 免费av不卡在线播放| 欧美国产精品一级二级三级 | 精品人妻一区二区三区麻豆| 久久国产精品大桥未久av | 国产亚洲午夜精品一区二区久久| 中文乱码字字幕精品一区二区三区| 久久婷婷青草| 午夜福利在线在线| 色视频在线一区二区三区| 久热久热在线精品观看| 一个人看的www免费观看视频| 国产成人免费观看mmmm| 欧美成人一区二区免费高清观看| 欧美一级a爱片免费观看看| 一区二区三区精品91| 18禁在线无遮挡免费观看视频| 秋霞伦理黄片| 黄片wwwwww| 免费观看的影片在线观看| 久久国产精品男人的天堂亚洲 | 日韩三级伦理在线观看| 国产精品久久久久成人av| 国产成人精品一,二区| 男女啪啪激烈高潮av片| 欧美日韩视频高清一区二区三区二| 超碰97精品在线观看| 青春草视频在线免费观看| 亚洲激情五月婷婷啪啪| 成人漫画全彩无遮挡| 极品教师在线视频| 看十八女毛片水多多多| 国产欧美另类精品又又久久亚洲欧美| 亚洲av免费高清在线观看| 免费黄频网站在线观看国产| 永久免费av网站大全| 中国国产av一级| 少妇 在线观看| 久久久久久久久久久免费av| 五月玫瑰六月丁香| 婷婷色av中文字幕| h日本视频在线播放| xxx大片免费视频| 99热6这里只有精品| 国产在线免费精品| 一本—道久久a久久精品蜜桃钙片| 国产中年淑女户外野战色| 午夜视频国产福利| 街头女战士在线观看网站| 一区二区三区免费毛片| 精品一区二区三卡| 深夜a级毛片| 欧美日韩国产mv在线观看视频 | 国产精品人妻久久久影院| 在线免费观看不下载黄p国产| 女人久久www免费人成看片| 国产一区亚洲一区在线观看| 99热全是精品| 亚洲色图av天堂| 午夜激情久久久久久久| 国产精品国产三级国产专区5o| 国产黄片美女视频| 国产伦精品一区二区三区视频9| 国产淫片久久久久久久久| 久久久欧美国产精品| 欧美日韩视频精品一区| 一区二区三区乱码不卡18| 亚洲,欧美,日韩| 我的女老师完整版在线观看| 亚洲欧美清纯卡通| av视频免费观看在线观看| 日本vs欧美在线观看视频 | 啦啦啦啦在线视频资源| 黑丝袜美女国产一区| 在线观看国产h片| 亚洲国产精品国产精品| 日韩av不卡免费在线播放| 久久国产亚洲av麻豆专区| 国产高清三级在线| 国产精品福利在线免费观看| 一级毛片我不卡| 日韩在线高清观看一区二区三区| 99热国产这里只有精品6| 国产精品久久久久久精品电影小说 | 欧美成人精品欧美一级黄| 男女免费视频国产| 国产一区亚洲一区在线观看| 麻豆乱淫一区二区| 黄色配什么色好看| 国产亚洲午夜精品一区二区久久| 伊人久久国产一区二区| 欧美日韩综合久久久久久| 久久人人爽av亚洲精品天堂 | 欧美另类一区| 国产久久久一区二区三区| 国产免费福利视频在线观看| 国产精品精品国产色婷婷| av线在线观看网站| 国产极品天堂在线| 久久 成人 亚洲| 亚洲精品456在线播放app| 午夜福利网站1000一区二区三区| 伦理电影免费视频| 国产欧美日韩一区二区三区在线 | 在线亚洲精品国产二区图片欧美 | 大又大粗又爽又黄少妇毛片口| 国产 一区精品| 夜夜骑夜夜射夜夜干| 国产免费视频播放在线视频| 国产在线男女| 中国三级夫妇交换| 国产精品蜜桃在线观看| 国产极品天堂在线| 简卡轻食公司| 大香蕉久久网| 舔av片在线| 精品久久久噜噜| 91aial.com中文字幕在线观看| 老司机影院成人| 亚洲国产高清在线一区二区三| 91精品伊人久久大香线蕉| 内射极品少妇av片p| 777米奇影视久久| 涩涩av久久男人的天堂| 日韩中字成人| 国产中年淑女户外野战色| 国产精品一区二区性色av| 午夜福利影视在线免费观看| 网址你懂的国产日韩在线| 人人妻人人添人人爽欧美一区卜 | 亚洲精品乱码久久久久久按摩| 亚洲va在线va天堂va国产| 亚洲在久久综合| 黑人猛操日本美女一级片| 黄色欧美视频在线观看| 日本午夜av视频| 精品人妻熟女av久视频| 国产成人freesex在线| 亚洲精品色激情综合| 亚洲图色成人| 亚洲精品自拍成人| 99久久综合免费| 免费黄频网站在线观看国产| 一区在线观看完整版| 最近2019中文字幕mv第一页| 国产av精品麻豆| 久久精品久久精品一区二区三区| 欧美一级a爱片免费观看看| 亚洲天堂av无毛| 乱系列少妇在线播放| 全区人妻精品视频| 观看美女的网站| 国产成人a区在线观看| 又大又黄又爽视频免费| 少妇人妻精品综合一区二区| 欧美人与善性xxx| 欧美国产精品一级二级三级 | 亚洲丝袜综合中文字幕| 国产精品一及| 婷婷色av中文字幕| 男女啪啪激烈高潮av片| 亚洲综合精品二区| 久久久久久久久久成人| 丰满乱子伦码专区| 国产成人精品一,二区| 最新中文字幕久久久久| 精品人妻熟女av久视频| 美女脱内裤让男人舔精品视频| 欧美性感艳星| 国产日韩欧美在线精品| 最黄视频免费看| 免费黄色在线免费观看| 亚洲欧美精品自产自拍| 免费观看性生交大片5| 嫩草影院新地址| 黄色视频在线播放观看不卡| 精品国产露脸久久av麻豆| av卡一久久| 看免费成人av毛片| 舔av片在线| 日韩一区二区视频免费看| 亚洲精品乱久久久久久| 国产深夜福利视频在线观看| 亚洲激情五月婷婷啪啪| 久久国内精品自在自线图片| 免费看光身美女| 狂野欧美激情性xxxx在线观看| 亚洲av成人精品一区久久| 一区在线观看完整版| 啦啦啦啦在线视频资源| 自拍偷自拍亚洲精品老妇| 建设人人有责人人尽责人人享有的 | 三级国产精品欧美在线观看| 卡戴珊不雅视频在线播放| 人人妻人人爽人人添夜夜欢视频 | 免费播放大片免费观看视频在线观看| 热re99久久精品国产66热6| 亚洲精品久久久久久婷婷小说| 久久精品国产亚洲网站| 亚洲av日韩在线播放| 国模一区二区三区四区视频| 高清视频免费观看一区二区| 日日撸夜夜添| 又爽又黄a免费视频| 日韩中字成人| 香蕉精品网在线| 蜜臀久久99精品久久宅男| 免费在线观看成人毛片| 永久免费av网站大全| 色婷婷久久久亚洲欧美| 永久网站在线| 日韩欧美精品免费久久| 免费av不卡在线播放| 一二三四中文在线观看免费高清| 黄色一级大片看看| 国产高清有码在线观看视频| 成人高潮视频无遮挡免费网站| 国产精品爽爽va在线观看网站| 在线播放无遮挡| 一级二级三级毛片免费看| 亚洲人成网站在线观看播放| 九色成人免费人妻av| 国产成人a区在线观看| 国产亚洲91精品色在线| 青春草视频在线免费观看| 精品久久国产蜜桃| 赤兔流量卡办理| 成人特级av手机在线观看| 国产精品国产av在线观看| 精品久久久久久久久av| 亚洲av中文字字幕乱码综合| 国产精品爽爽va在线观看网站| 国产午夜精品一二区理论片| 一级毛片电影观看| 久久久欧美国产精品| 欧美性感艳星| 欧美+日韩+精品| 国产高清国产精品国产三级 | 亚洲精品国产成人久久av| 人妻 亚洲 视频| 一边亲一边摸免费视频| 国产 一区 欧美 日韩| 七月丁香在线播放| videos熟女内射| 久久久久久伊人网av| 老女人水多毛片| xxx大片免费视频| 另类亚洲欧美激情| 日本猛色少妇xxxxx猛交久久| 老女人水多毛片| 黑人高潮一二区| 99热这里只有是精品50| 亚洲av福利一区| 青春草视频在线免费观看| 日本猛色少妇xxxxx猛交久久| 国产伦精品一区二区三区四那| 91久久精品国产一区二区三区| 蜜桃在线观看..| 黑人猛操日本美女一级片| 91精品一卡2卡3卡4卡| 天堂8中文在线网| 免费看光身美女| 91精品国产国语对白视频| 网址你懂的国产日韩在线| 大片免费播放器 马上看| 一个人看的www免费观看视频| 国产高清有码在线观看视频| 久久久久国产网址| 卡戴珊不雅视频在线播放| 欧美区成人在线视频| 午夜福利影视在线免费观看| 日本黄大片高清| 亚洲,一卡二卡三卡| 色综合色国产| 六月丁香七月| 九九在线视频观看精品| 插阴视频在线观看视频| 大陆偷拍与自拍| 一区二区三区免费毛片| 精品熟女少妇av免费看| 女性被躁到高潮视频| 中文字幕av成人在线电影| 国产精品国产三级国产专区5o| 国产 一区精品| 内地一区二区视频在线| 亚洲伊人久久精品综合| 国产一区有黄有色的免费视频| 有码 亚洲区| 亚洲精品一二三| 亚洲精品久久午夜乱码| 成人亚洲精品一区在线观看 | 久久久a久久爽久久v久久| 啦啦啦在线观看免费高清www| 免费黄频网站在线观看国产| 亚洲内射少妇av| 熟女av电影| 国产黄片视频在线免费观看| 性高湖久久久久久久久免费观看| av卡一久久| av.在线天堂| 欧美精品亚洲一区二区| 街头女战士在线观看网站| 九九爱精品视频在线观看| 日韩三级伦理在线观看| 国产午夜精品一二区理论片| 日韩成人av中文字幕在线观看| 国产精品一区二区在线观看99| 婷婷色综合www| 91午夜精品亚洲一区二区三区| 香蕉精品网在线| 一本—道久久a久久精品蜜桃钙片| 一级毛片aaaaaa免费看小| 国产视频首页在线观看| 国产一区二区三区综合在线观看 | 男人狂女人下面高潮的视频| 亚洲av成人精品一二三区| 久久久久久久亚洲中文字幕| 欧美精品国产亚洲| 成人午夜精彩视频在线观看| 久久99热这里只频精品6学生| 国产av精品麻豆| 熟女人妻精品中文字幕| 精品人妻视频免费看| 国产v大片淫在线免费观看| 国产成人免费观看mmmm| 美女中出高潮动态图| 丰满迷人的少妇在线观看| 国产欧美亚洲国产|