• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于圖像識(shí)別的中老年人下肢動(dòng)作運(yùn)動(dòng)參數(shù)提取方法研究

      2018-01-20 18:35:07任彥軍黃麗敏
      現(xiàn)代電子技術(shù) 2018年1期
      關(guān)鍵詞:圖像識(shí)別

      任彥軍+黃麗敏

      摘 要: 針對(duì)傳統(tǒng)的運(yùn)動(dòng)參數(shù)提取方法一直存在提取誤差大、耗時(shí)長(zhǎng)的問(wèn)題,提出基于圖像識(shí)別技術(shù)的中老年人下肢動(dòng)作運(yùn)動(dòng)圖像參數(shù)提取方法,使人體運(yùn)動(dòng)行為識(shí)別能力得到提升。首先,結(jié)合中老年人下肢運(yùn)動(dòng)速度特征和三維運(yùn)動(dòng)形狀的時(shí)空梯度自相關(guān)特征,計(jì)算出邊緣梯度方向空間分布與梯度之間的自相關(guān)性,將時(shí)空自相關(guān)特征與視頻運(yùn)動(dòng)特征相結(jié)合,使特征識(shí)別具備相應(yīng)的數(shù)據(jù)條件;其次,人體下肢動(dòng)作的視頻圖像數(shù)據(jù)是典型的時(shí)間序列數(shù)據(jù),因此,基于人體骨架局部特征,利用訓(xùn)練數(shù)據(jù)能夠構(gòu)造完備字典,完成數(shù)據(jù)編碼,運(yùn)用時(shí)域金字塔匹配法對(duì)編碼后的向量進(jìn)行下肢動(dòng)作運(yùn)動(dòng)圖像特征參數(shù)提取與識(shí)別。實(shí)驗(yàn)結(jié)果證明,利用基于圖像識(shí)別技術(shù)對(duì)中老年人下肢動(dòng)作運(yùn)動(dòng)圖像參數(shù)實(shí)現(xiàn)了準(zhǔn)確有效的提取。

      關(guān)鍵詞: 圖像識(shí)別; 下肢動(dòng)作; 自相關(guān)性; 運(yùn)動(dòng)行為識(shí)別; 時(shí)域金字塔匹配法; 參數(shù)提取

      中圖分類號(hào): TN911.73?34; TP391 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2018)01?0071?05

      Abstract: The traditional motion parameter extraction method has big extraction error and long time?consumption. Therefore, an image recognition based motion parameter extraction method of lower limbs movement for elderly people is proposed to improve the recognition ability of human motion behavior. On the basis of the speed characteristics of lower limbs movement for the middle?aged and elderly people and the spatiotemporal gradient correlation characteristic of the three?dimensional motion shape, the autocorrelation between the spatial distribution and gradient in the edge gradient direction is solved. The spatiotemporal autocorrelation characteristic and video motion feature are combined to satisfy the corresponding data condition of the feature recognition. Because the video image data of human lower limbs movement acts as the typical time series data, the training data is used to construct the complete dictionary according to the local feature of the human skeleton to realize the data encoding. The time domain pyramid matching method is adopted to extract and recognize the characteristic parameter of the lower limbs motion image for the encoded vector. The experimental results show that the proposed method based on image recognition technology can extract the image parameters of the lower limbs movement for the middle?aged and elderly people effectively.

      Keywords: image recognition; lower limbs movement; autocorrelation; motion behavior recognition; time domain pyramid matching method; parameter extraction

      0 引 言

      近年來(lái),隨著各類智能設(shè)備的發(fā)展與廣泛應(yīng)用,人們對(duì)人體運(yùn)動(dòng)行為的識(shí)別研究也越加重視,并已漸漸成為機(jī)器視覺(jué)領(lǐng)域中的一項(xiàng)重要研究課題[1]。在日常生活中,人們已漸漸熟悉并適應(yīng)了在各個(gè)領(lǐng)域中對(duì)視頻監(jiān)控的運(yùn)用。此外,如人機(jī)交互、基于步態(tài)與人臉的生物鑒定、手勢(shì)識(shí)別、人臉識(shí)別等機(jī)器視覺(jué)技術(shù)的應(yīng)用也被人們熟知[2?4]。文獻(xiàn)[5]指出對(duì)于機(jī)器視覺(jué)技術(shù)也愈發(fā)重視,為人體運(yùn)動(dòng)行為識(shí)別技術(shù)的發(fā)展帶來(lái)了十分有利的契機(jī)。

      解析圖像場(chǎng)景中的目標(biāo)行為是機(jī)器視覺(jué)研究的主要目的,行為理解的首要步驟就是要識(shí)別人體運(yùn)動(dòng),因此學(xué)術(shù)界非常重視人體運(yùn)動(dòng)識(shí)別的研究??梢院?jiǎn)單地將人體運(yùn)動(dòng)行為識(shí)別問(wèn)題視為關(guān)于隨時(shí)間變化的運(yùn)動(dòng)圖像特征的分類問(wèn)題,即匹配測(cè)試圖像序列與帶標(biāo)簽的代表特定行為訓(xùn)練圖像序列,問(wèn)題的關(guān)鍵在于如何獲取樣本數(shù)據(jù)中代表特定行為的圖像序列以及如何測(cè)量訓(xùn)練圖像序列[6?7]。由于每個(gè)人執(zhí)行統(tǒng)一動(dòng)作時(shí),其速率是不同的,因此,文獻(xiàn)[8]提出當(dāng)匹配模板與行為圖像序列相配時(shí),相同動(dòng)作行為在時(shí)間和空間尺度上出現(xiàn)變化時(shí),對(duì)應(yīng)行為也會(huì)發(fā)生變化的情況需要得到有效處理。endprint

      為了能更加準(zhǔn)確地了解人體運(yùn)動(dòng)行為識(shí)別問(wèn)題,本文提出基于圖像識(shí)別技術(shù)的中老年人下肢動(dòng)作運(yùn)動(dòng)參數(shù)提取方法。首先,將基于三維運(yùn)動(dòng)形狀的時(shí)空梯度自相關(guān)特征與中老年人下肢運(yùn)動(dòng)速度特征相結(jié)合,在計(jì)算邊緣梯度方向的同時(shí),也求解梯度間的自相關(guān)性,再通過(guò)時(shí)空自相關(guān)特征和視頻運(yùn)動(dòng)特征實(shí)現(xiàn)級(jí)聯(lián),為特征提取奠定數(shù)據(jù)基礎(chǔ);其次,由于人體下肢動(dòng)作的視頻圖像數(shù)據(jù)為時(shí)間序列數(shù)據(jù),以人體骨架局部特征為基礎(chǔ),通過(guò)訓(xùn)練數(shù)據(jù)構(gòu)造超完備字典,并對(duì)數(shù)據(jù)實(shí)現(xiàn)編碼,編碼后的向量采用時(shí)域金字塔匹配法進(jìn)行下肢動(dòng)作運(yùn)動(dòng)圖像特征參數(shù)提取[9?10]。

      1 中老年人下肢動(dòng)作運(yùn)動(dòng)參數(shù)提取過(guò)程

      1.1 基于時(shí)空梯度和運(yùn)動(dòng)速度的人體圖像特征

      通過(guò)拓展SIFT和HOG由一階到二階梯度自相關(guān)統(tǒng)計(jì)特征,從而獲取時(shí)空梯度自相關(guān)特征,其很難分離肢體運(yùn)動(dòng)形狀近似行為,因此本文提出一種結(jié)合時(shí)空梯度特征與運(yùn)動(dòng)速度特征的提取方法。

      平移不變的圖像特征可以通過(guò)梯度自相關(guān)法獲取,通過(guò)該方法可以檢測(cè)出豐富的圖像信息,在辨識(shí)度方面比直方圖更具優(yōu)勢(shì)。假定[I]表示一個(gè)圖像區(qū)域,圖像區(qū)域[I]中的一個(gè)位置向量由[r=x,y]表示,[?I?x,?I?y]是所有像素點(diǎn)處的梯度,則可分別描述梯度大小與梯度方向角度為:

      [n=?I2?x+?I2?y, θ=arctan?I?x,?I?y] (1)

      式中:[n]和[θ]分別表示梯度大小及梯度方向角度;[?]表示常數(shù)。

      像素點(diǎn)[r]的梯度在局部領(lǐng)域內(nèi)的自相關(guān)性函數(shù)可通過(guò)該點(diǎn)梯度方向向量[f]以及梯度大小[n]計(jì)算得出,即:

      [Rd0,…,dN,a1,…,aN=Iωnr+a1,…,nr+aNfd0rfd1r+a1…fdNr+aNdr] (2)

      式中:[R?]表示梯度相關(guān)函數(shù);[ai=a1,…,aN]代表其他像素點(diǎn)至參考點(diǎn)[r]的位移向量;梯度方向向量[f]的第[di]個(gè)元素由[fdi]表示,[di]代表梯度方向向量元素個(gè)數(shù),其中[di=d0,…,dN,]且[fd0r]表示像素點(diǎn)的梯度向量函數(shù);[N]代表參數(shù);[ω]代表權(quán)重系數(shù)。

      式(2)表示兩種梯度相關(guān)性:從位移向量[ai]得到的空間相關(guān)性和從元素值[fdi]得到的方向相關(guān)性。

      為使孤立的噪聲點(diǎn)得到有效抑制,將權(quán)重系數(shù)值設(shè)置為最小,則可描述實(shí)際梯度自相關(guān)函數(shù)公式為:

      [RN=0d0=r∈Inrfd0rRN=0d0,d1,a1=r∈Iminnr,nr+a1fd0rfd1r+a1] (3)

      式(3)代表在參數(shù)[N=0,N=1]階時(shí)的梯度自相關(guān)特征,[nr]表示像素點(diǎn)梯度函數(shù)。

      平移不變性是該特征最主要的特點(diǎn),所以在人體運(yùn)動(dòng)行為識(shí)別領(lǐng)域中可以應(yīng)用此方法,時(shí)空梯度的[N]階自相關(guān)函數(shù)可利用二維的梯度自相關(guān)函數(shù)進(jìn)行計(jì)算,具體公式如下所示:

      [RNa1,a2,…,aN=wmr,…,mr+aN? hr?…?hr+aNdr] (4)

      式中:[w]表示時(shí)空區(qū)域內(nèi)的權(quán)重系數(shù)值;[mr]表示空間時(shí)域內(nèi)的梯度向量;[hr]表示梯度編碼向量;[?]表示向量張量外積。

      中老年人不同種類的下肢運(yùn)動(dòng)行為不僅在時(shí)空運(yùn)動(dòng)形狀上的產(chǎn)生不同,也在運(yùn)動(dòng)速度特征上存在差異。數(shù)字圖像特征可由圖像矩實(shí)現(xiàn)表述,當(dāng)數(shù)字圖像在各個(gè)方向發(fā)生轉(zhuǎn)換時(shí),圖像的重心依然不發(fā)生改變。因此,能夠求解出運(yùn)動(dòng)圖像中的人體重心,依據(jù)重心點(diǎn)的移動(dòng)位置計(jì)算垂直和水平方向的速度特征值,將該速度特征當(dāng)作運(yùn)動(dòng)圖像中的運(yùn)動(dòng)特征。具體圖像矩可作如下定義:

      [Mx_order,y_order=x,yIx,yxx_orderyy_order] (5)

      式中:[x_order]代表像素點(diǎn)[x]的矩;[y_order]代表像素點(diǎn)[y]的矩;[Ix,y]表示像素點(diǎn)[x,y]處的像素值。利用圖像零階距[M0,0]代表人體所在圖像域面積[A,]則:

      [A=M0,0=x,yIx,y] (6)

      則運(yùn)動(dòng)目標(biāo)重心[x,y]根據(jù)下列公式計(jì)算:

      [x=M1,0A=x,yIx,yxA, y=M0,1A=x,yIx,yyA] (7)

      式中:[M1,0]代表[x=1]階次圖像矩;[M0,1]代表[y=1]階次圖像矩。則第[k]幀圖像中人體重心位置是[xk,yk]。

      設(shè)置人體行為數(shù)據(jù)集的幀率為[g,]則兩幀圖像的時(shí)間距離為[t=1g,]按照以下公式求解垂直方向[Vyk、]水平方向[Vxk]的瞬時(shí)速度和總速度[Vk]:

      [Vyk=yk+1-ykt=yk+1-yk?g] (8)

      [Vxk=xk+1-xkt=xk+1-xk?g] (9)

      [Vk=xk+1-xk2+yk+1-yk2t=xk+1-xk2+yk+1-yk2?g] (10)

      式中:[xk+1,yk+1]代表第[k+1]幀圖像的人體重心位置;[t]代表時(shí)間間隔。

      通過(guò)上述步驟獲取了時(shí)空自相關(guān)特征和人體運(yùn)動(dòng)速度特征向量,為下肢運(yùn)動(dòng)圖像參數(shù)的特征提取識(shí)別提供數(shù)據(jù)支持。

      1.2 基于時(shí)間域金字塔匹配式運(yùn)動(dòng)參數(shù)特征提取

      作為典型的時(shí)間序列數(shù)據(jù),人體下肢動(dòng)作視頻數(shù)據(jù)需要在提取空間特征與時(shí)間特征的條件下保全原數(shù)據(jù)里的空間及時(shí)間性質(zhì)。如果視頻數(shù)據(jù)的時(shí)序性丟失,那么不同速度下做出的同一動(dòng)作可能會(huì)出現(xiàn)誤判,因此需對(duì)視頻時(shí)間域特征實(shí)現(xiàn)進(jìn)一步提取。

      首先利用構(gòu)造字典訓(xùn)練數(shù)據(jù),獲得一組能夠表征訓(xùn)練數(shù)據(jù)的整個(gè)特征空間超完備的基;再利用構(gòu)造的字典完成所有數(shù)據(jù)編碼,所有數(shù)據(jù)通過(guò)構(gòu)造基向量來(lái)表征數(shù)據(jù);最后,通過(guò)編碼后的向量提取出視頻動(dòng)作的時(shí)域特征。

      聚類方法是構(gòu)造字典最簡(jiǎn)單便捷的一種方法,其基本原理就是聚類,在特征空間里將數(shù)據(jù)聚成[K]簇,其中[K]表示給定數(shù)值。假設(shè)[X=x1,x2,…,xm]是待處理的數(shù)據(jù)集合, [m]是數(shù)據(jù)點(diǎn)總量,其中[xi∈Rn,]并引入數(shù)據(jù)點(diǎn)[μk,]而[k=1,2,…,K,mμk∈Rn,]即[K]個(gè)聚類中心點(diǎn)。找到一組數(shù)據(jù)中心點(diǎn)[μk,]即是[K?means]聚類的最終目的,同時(shí)滿足全部數(shù)據(jù)點(diǎn)與中心點(diǎn)[μk]的距離和最小。endprint

      所有數(shù)據(jù)的中心點(diǎn)均可以通過(guò)[K-1]編碼方式進(jìn)行描述。將所有待聚類的數(shù)據(jù)點(diǎn)特征向量[xi]代入一組二元向量集合,[rik∈0,1,]其中[k=1,2,…,K]。判斷每一個(gè)二元變量[rik]的第[i]個(gè)數(shù)據(jù)點(diǎn)是否屬于第[k]個(gè)聚類中心,則:

      [rik=1,k=k00,k≠k0] (11)

      式中:[k0]代表聚類中心[k]的點(diǎn)。定義最終代價(jià)函數(shù),計(jì)算所有點(diǎn)與其對(duì)應(yīng)的聚類中心點(diǎn)值,可描述為:

      [J=i=1mk=1Krikxi-μk2] (12)

      式中:[ri]表示第[i]個(gè)數(shù)據(jù)點(diǎn)的二元變量。首先隨機(jī)選擇[μk]的初始值,設(shè)定[μk]值不變,[rik]為變量條件對(duì)[J]進(jìn)行優(yōu)化;設(shè)定[rik]值不變,[μk]為變量條件對(duì)[J]最小化,重復(fù)以上過(guò)程直至[rik]值優(yōu)化完成,實(shí)現(xiàn)對(duì)[μk]的求解,則:

      [μk=irikxinrik] (13)

      式中[n]表示迭代過(guò)程次數(shù)。

      本文利用構(gòu)造字典中的單詞表征處理特征向量[xi,]選用局部約束線性編碼模型,則:

      [C=argminci=1Nxi-Dci2+λli⊙ci2s.t. ITci=1, ?i] (14)

      式中:[C]代表特征向量編碼集合;[c]為集合中的特征向量;[ci]表示集合中第[i]個(gè)特征向量;[D]代表構(gòu)造的字典集合;[λ]為常量;[li]代表局部性質(zhì)的變量;[IT]為約束項(xiàng)參數(shù)。

      時(shí)間域金字塔匹配法是將原始數(shù)據(jù)場(chǎng)景引入到空間域金字塔場(chǎng)景中,再將視頻人體下肢動(dòng)作識(shí)別應(yīng)用到場(chǎng)景中與時(shí)間域金字塔進(jìn)行匹配。

      設(shè)定需進(jìn)行對(duì)比的兩個(gè)特征集合為[X,][Y,]針對(duì)特征集合存在不同尺度的分割,[0~R]是分割尺度的層級(jí)數(shù)。假設(shè)[HRX]和[HRY]分別是第[R]層兩個(gè)特征向量[X]和[Y]的直方圖特征。分布于區(qū)域內(nèi)的兩個(gè)向量集合匹配數(shù)據(jù)交集點(diǎn)為:

      [?R=i=12dlminHRXi,HRYi] (15)

      式中:[2dl]表示分割區(qū)域的數(shù)據(jù)量;[HRXi]與[HRYi]分別表示兩個(gè)向量集合在區(qū)域[i]的分布數(shù)量。

      通過(guò)不同尺度對(duì)特征向量進(jìn)行分割操作,獲取不同時(shí)間維度上的特征向量,將其通過(guò)時(shí)間域金字塔匹配,得到人體下肢運(yùn)動(dòng)參數(shù)特征向量。

      2 仿真實(shí)驗(yàn)及結(jié)果分析

      為有效實(shí)現(xiàn)中老年人下肢運(yùn)動(dòng)圖像參數(shù)特征的提取,本文以提取視頻圖像序列中人體運(yùn)動(dòng)速度特征為基礎(chǔ),利用金字塔匹配法對(duì)圖像特征向量進(jìn)行匹配后獲取下肢運(yùn)動(dòng)圖像參數(shù),通過(guò)以下兩個(gè)實(shí)驗(yàn)驗(yàn)證本文方法的可行性。

      實(shí)驗(yàn)1:實(shí)驗(yàn)給出3幅中老年人不同下肢運(yùn)動(dòng)圖像,利用本文人體運(yùn)動(dòng)速度特征提取法及光流法對(duì)圖像中下肢運(yùn)動(dòng)圖像區(qū)域進(jìn)行準(zhǔn)確劃分,具體實(shí)驗(yàn)效果如圖1~圖9所示。

      實(shí)驗(yàn)中給出中老年人下肢動(dòng)作圖1,分別利用光流法及本文人體運(yùn)動(dòng)速度特征提取法對(duì)下肢動(dòng)作特征進(jìn)行提取。

      圖2為利用光流法對(duì)下肢運(yùn)動(dòng)圖像進(jìn)行處理后的結(jié)果,從圖中可觀察出,雖然對(duì)運(yùn)動(dòng)狀態(tài)的特征進(jìn)行了提取,但圖像區(qū)域并不是下肢運(yùn)動(dòng)特征區(qū)域,因此,光流法對(duì)運(yùn)動(dòng)特征提取效果并不好。

      圖3為利用本文人體運(yùn)動(dòng)速度特征提取法進(jìn)行的下肢運(yùn)動(dòng)特征區(qū)域處理效果圖,可明確地看出利用本文方法能較為準(zhǔn)確地將中老年人下肢運(yùn)動(dòng)區(qū)域提取出來(lái)。

      實(shí)驗(yàn)給出圖4及圖7兩幅不同的下肢動(dòng)作圖像,運(yùn)用光流法對(duì)兩幅圖像進(jìn)行下肢運(yùn)動(dòng)區(qū)域特征處理,具體如圖5和圖8所示,可觀察出光流法不能準(zhǔn)確地提取出中老年人下肢運(yùn)動(dòng)的特征區(qū)域。利用本文運(yùn)動(dòng)速度特征提取法對(duì)兩幅圖像處理后的效果圖如圖6及圖9所示,效果圖顯示本文方法對(duì)下肢動(dòng)態(tài)運(yùn)動(dòng)特征提取較為準(zhǔn)確,表明本文方法可行性較高。

      實(shí)驗(yàn)2:為了能夠準(zhǔn)確地提取下肢運(yùn)動(dòng)圖像數(shù)據(jù),本文利用金字塔匹配法與稀疏二值圖像特征數(shù)據(jù)提取法對(duì)下肢運(yùn)動(dòng)圖像數(shù)據(jù)實(shí)現(xiàn)有效提取,比較兩種方法的差異性。實(shí)驗(yàn)給出6組圖像特征數(shù)據(jù),在有限時(shí)間內(nèi)對(duì)這6組圖像特征數(shù)據(jù)進(jìn)行有效參數(shù)提取,并輸出圖像,比較參數(shù)提取時(shí)間及輸出圖像質(zhì)量差異。具體數(shù)據(jù)如表1所示。

      通過(guò)表1能夠看出實(shí)驗(yàn)給出的6組下肢運(yùn)動(dòng)圖像實(shí)驗(yàn)數(shù)據(jù),運(yùn)用本文金字塔方法對(duì)圖像有效參數(shù)提取時(shí)間為1 s之內(nèi),耗時(shí)較少;利用稀疏二值圖像數(shù)據(jù)提取法對(duì)有效參數(shù)進(jìn)行處理時(shí),耗時(shí)較長(zhǎng),基本在4 s以上,因此對(duì)后續(xù)圖像處理影響較大。另一方面,從輸出圖像質(zhì)量來(lái)看,比較這兩種方法的數(shù)據(jù)可以看出,利用本文方法輸出的圖像清晰度較高。因此對(duì)比可看出本文方法性能較為優(yōu)越。

      3 結(jié) 論

      人體肢體運(yùn)動(dòng)分析在計(jì)算機(jī)圖像處理技術(shù)領(lǐng)域中是諸多學(xué)者研究的重點(diǎn)問(wèn)題,本文提出基于圖像識(shí)別技術(shù)對(duì)中老年人下肢運(yùn)動(dòng)圖像參數(shù)進(jìn)行有效提取。首先,將空間運(yùn)動(dòng)形狀的梯度自相關(guān)特征與肢體運(yùn)動(dòng)速度特征相結(jié)合,求解出梯度自相關(guān)函數(shù)及運(yùn)動(dòng)特征速度函數(shù),為運(yùn)動(dòng)圖像特征提取奠定數(shù)據(jù)基礎(chǔ);然后,通過(guò)訓(xùn)練圖像特征數(shù)據(jù)構(gòu)造字典,并通過(guò)字典中的單詞表征圖像特征向量;最后,利用金字塔匹配法實(shí)現(xiàn)了對(duì)下肢運(yùn)動(dòng)圖像特征參數(shù)的有效提取。

      參考文獻(xiàn)

      [1] 劉雨嬌,范勇,高琳,等.基于時(shí)空深度特征的人體行為識(shí)別算法[J].計(jì)算機(jī)工程,2015,41(5):259?263.

      LIU Yujiao, FAN Yong, GAO Lin, et al. Human action recognition algorithm based on spatial temporal depth feature [J]. Computer engineering, 2015, 41(5): 259?263.

      [2] 任子良,秦勇,黎志雄.基于擴(kuò)展卡爾曼濾波的人體行為識(shí)別算法[J].電子設(shè)計(jì)工程,2016,24(2):15?17.endprint

      REN Ziliang, QIN Yong, LI Zhixiong. Activity events recognition algorithm based on extended Kalman filter [J]. Electronic design engineering, 2016, 24(2): 15?17.

      [3] 侯遠(yuǎn)韶,張瑤.機(jī)器視覺(jué)中圖像分割問(wèn)題研究[J].洛陽(yáng)理工學(xué)院學(xué)報(bào)(自然科學(xué)版),2016,26(2):76?80.

      HOU Yuanshao, ZHANG Yao. Study on image segmentation in machine vision [J]. Journal of Luoyang Institute of Science and Technology (natural science edition), 2016, 26(2): 76?80.

      [4] 張生軍,吳仕勛,王宏剛,等.無(wú)標(biāo)記手勢(shì)識(shí)別中基于混合特征的手部分割研究[J].重慶交通大學(xué)學(xué)報(bào)(自然科學(xué)版),2016,35(5):185?192.

      ZHANG Shengjun, WU Shixun, WANG Honggang, et al. Hand segment using multi?feature fusion method in unmarked hand gesture recognition [J]. Journal of Chongqing Jiaotong University (natural sciences), 2016, 35(5): 185?192.

      [5] 紀(jì)彬,張建平,周大志,等.一種基于簡(jiǎn)單特征量信息的快速行為識(shí)別算法[J].黑龍江科學(xué),2016,7(17):1?3.

      JI Bin, ZHANG Jianping, ZHOU Dazhi, et al. A fast behavior recognition algorithm based on simple information of characteristic quantity [J]. Heilongjiang science, 2016, 7(17): 1?3.

      [6] 胡榮,羅小青,何尚平.遠(yuǎn)程視頻圖像人體運(yùn)動(dòng)特征監(jiān)控仿真研究[J].計(jì)算機(jī)仿真,2016,33(6):298?301.

      HU Rong, LUO Xiaoqing, HE Shangping. Simulation study on the human motion characteristics monitoring of remote video image [J]. Computer simulation, 2016, 33(6): 298?301.

      [7] 王佳欣,魏濤.基于圖像融合技術(shù)的運(yùn)動(dòng)目標(biāo)圖像識(shí)別研究[J].微電子學(xué)與計(jì)算機(jī),2016,33(8):158?162.

      WANG Jiaxin, WEI Tao. Research on image recognition of moving target based on image fusion technology [J]. Microelectronics & computer, 2016, 33(8): 158?162.

      [8] 徐珩,賀飛越.模板匹配跟蹤的哈希增強(qiáng)算法[J].計(jì)算機(jī)應(yīng)用與軟件,2016,33(7):167?171.

      XU Heng, HE Feiyue. Hash enhancement algorithm for template matching tracking [J]. Computer applications and software, 2016, 33(7): 167?171.

      [9] 許梅梅,肖瓊琳,王璐,等.基于空間梯度信息的自適應(yīng)邊緣算法優(yōu)化[J].計(jì)算機(jī)工程,2016,42(8):233?236.

      XU Meimei, XIAO Qionglin, WANG Lu, et al. Optimization of adaptive edge algorithm based on spatial gradient information [J]. Computer engineering, 2016, 42(8): 233?236.

      [10] 魯雯,崔子冠,干宗良,等.基于空時(shí)域特征的視覺(jué)顯著圖生成算法[J].電視技術(shù),2015,39(17):1?4.

      LU Wen, CUI Ziguan, GAN Zongliang, et al. Visual saliency map algorithm using spatiotemporal features [J]. Video engineering, 2015, 39(17): 1?4.endprint

      猜你喜歡
      圖像識(shí)別
      支持向量機(jī)的艦船圖像識(shí)別與分類技術(shù)
      淺談圖像識(shí)別技術(shù)在打擊綠通假證逃費(fèi)中的應(yīng)用
      深度學(xué)習(xí)在艦船前方障礙物圖像識(shí)別中的應(yīng)用
      基于Resnet-50的貓狗圖像識(shí)別
      電子制作(2019年16期)2019-09-27 09:34:50
      高速公路圖像識(shí)別技術(shù)應(yīng)用探討
      圖像識(shí)別在物聯(lián)網(wǎng)上的應(yīng)用
      電子制作(2018年19期)2018-11-14 02:37:04
      圖像識(shí)別在水質(zhì)檢測(cè)中的應(yīng)用
      電子制作(2018年14期)2018-08-21 01:38:16
      一種基于TuriCreate和OpenCV的實(shí)時(shí)圖像識(shí)別系統(tǒng)設(shè)計(jì)
      基于圖像識(shí)別的田間玉米稈識(shí)別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)
      淺談模式識(shí)別在圖像識(shí)別中的應(yīng)用
      合水县| 黔江区| 灵寿县| 错那县| 临湘市| 灵石县| 丁青县| 北票市| 郸城县| 梧州市| 秀山| 伊宁市| 梓潼县| 鹰潭市| 阜南县| 丰县| 乌兰县| 新密市| 黄陵县| 喀喇沁旗| 彰化市| 铁力市| 高台县| 津市市| 绿春县| 巴南区| 靖宇县| 荔波县| 庆城县| 玛纳斯县| 高邮市| 封丘县| 嘉峪关市| 九龙城区| 连南| 张家界市| 邓州市| 凤庆县| 兴隆县| 运城市| 成安县|