• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      模擬視覺初級(jí)皮層機(jī)制的移動(dòng)鏡頭下的目標(biāo)檢測

      2014-04-29 00:00:00唐文峰

      摘 要:本文提出一種新的針對(duì)移動(dòng)鏡頭下的運(yùn)動(dòng)目標(biāo)檢測仿生算法,通過模擬人眼的視覺感知實(shí)現(xiàn)移動(dòng)鏡頭下的目標(biāo)檢測,首先用3DGabor濾波器組提取目標(biāo)的運(yùn)動(dòng)能量,接著用大尺度的環(huán)繞消除大量的背景信息,然后提取目標(biāo)的運(yùn)動(dòng)和空間顯著圖,通過目標(biāo)的運(yùn)動(dòng)顯著圖與運(yùn)動(dòng)能量得到目標(biāo)運(yùn)動(dòng)區(qū)域,最后將運(yùn)動(dòng)區(qū)域與目標(biāo)的空間顯著圖相結(jié)合提高目標(biāo)輪廓的完整性。人工模擬實(shí)驗(yàn)和真實(shí)視頻實(shí)驗(yàn)表明本文仿生算法的有效性。

      關(guān)鍵詞:運(yùn)動(dòng)目標(biāo)檢測;3DGabor濾波器;環(huán)繞抑制;空間顯著圖;運(yùn)動(dòng)顯著圖

      中圖分類號(hào):TP391.41

      計(jì)算機(jī)視覺技術(shù)已經(jīng)廣泛應(yīng)用到各行各業(yè),而運(yùn)動(dòng)目標(biāo)檢測在其中有著重要的意義,現(xiàn)有運(yùn)動(dòng)目標(biāo)檢測算法依據(jù)使用的模型可以分為兩大類:一是計(jì)算機(jī)視覺;二是仿生物模型。人類視覺感知的高效性促使一些研究人員設(shè)計(jì)仿生物的運(yùn)動(dòng)目標(biāo)檢測模型。F.Raudies和H.Neumann[1]通過模擬各個(gè)視皮層神經(jīng)元的工作機(jī)制設(shè)計(jì)雙通路結(jié)構(gòu)模型,實(shí)現(xiàn)背側(cè)通路和腹側(cè)通路的相互作用,類似的還有其它學(xué)者提出的視覺模型[2-3]。也有些研究人員計(jì)算視頻序列的顯著性時(shí)融入運(yùn)動(dòng)特征。例如Mancas等人提出的異常檢測模型。人眼在識(shí)別物體是否運(yùn)動(dòng),是通過判斷目標(biāo)物體相對(duì)參照物產(chǎn)生的位移即相對(duì)速度。與之前方法的出發(fā)點(diǎn)不同,本文提出一種新的解決思路,通過模擬人眼的視覺特性感知物體的相對(duì)速度實(shí)現(xiàn)移動(dòng)鏡頭下運(yùn)動(dòng)目標(biāo)的檢測。

      1 方法

      本文算法具體的實(shí)現(xiàn)步驟:采用3DGabor濾波器組提取場景中物體的運(yùn)動(dòng)能量;用大尺度的環(huán)繞抑制去除大量的同質(zhì)區(qū)域;基于運(yùn)動(dòng)能量分別提取目標(biāo)的運(yùn)動(dòng)和空間顯著圖,通過運(yùn)動(dòng)顯著圖與運(yùn)動(dòng)能量的交集得到目標(biāo)的運(yùn)動(dòng)區(qū)域;將運(yùn)動(dòng)區(qū)域與空間顯著性進(jìn)行求和以增加目標(biāo)輪廓的完整性。

      1.1 運(yùn)動(dòng)信息的提取

      1.1.1 模擬簡單與復(fù)雜細(xì)胞。視覺感知系統(tǒng)中V1皮層包含的簡單和復(fù)雜細(xì)胞對(duì)光柵刺激具有方向選擇性,視網(wǎng)膜上光刺激能夠使神經(jīng)元興奮的區(qū)域稱為神經(jīng)元的感受野或者是經(jīng)典感受野(CRF)。本文采用Nicolat Petkov提出采用時(shí)空相結(jié)合的3DGabor濾波器模擬V1皮層的簡單細(xì)胞響應(yīng)

      與圖像序列I(x,y,t)進(jìn)行卷積得到V1簡單細(xì)胞的響應(yīng)。將兩個(gè)相位正交的簡單細(xì)胞作為復(fù)雜細(xì)胞的輸入,得到視頻序列中物體的運(yùn)動(dòng)能量Ev,θ(x,y,t)。

      1.1.2 環(huán)繞抑制。本文利用大范圍的環(huán)繞去除圖像序列中因鏡頭移動(dòng)造成大部分的同質(zhì)背景區(qū)域。同時(shí)本文還采用無方向的環(huán)繞提取目標(biāo)的空間信息。

      運(yùn)動(dòng)能量Ev,θ(x,y,t)與環(huán)繞抑制核函數(shù)wv,(θ),k1,k2卷積得到抑制項(xiàng)Sv,θ(x,y,t),環(huán)繞抑制運(yùn)動(dòng)能量 是由運(yùn)動(dòng)能量Ev,θ(x,y,t)與抑制項(xiàng)的差值經(jīng)半波整流得到。為了能抑制分布范圍較廣的背景信息,本文在構(gòu)建wv,(θ),k1,k2時(shí)乘以一個(gè)縮放因子η調(diào)節(jié)環(huán)繞在空間范圍的尺寸。本文選用不同方向、速度的3DGabor濾波器進(jìn)行多尺度的操作。將各個(gè)尺度下的 進(jìn)行疊加得到最終的運(yùn)動(dòng)能量 。

      1.2 提取目標(biāo)顯著性

      本文基于多尺度運(yùn)動(dòng)能量提取4類特征信息,這些信息根據(jù)3DGabor速度大小分為:空間特性和運(yùn)動(dòng)特性。同時(shí)在提取環(huán)繞抑制能量時(shí)本文采用有方向與無方向兩種時(shí)空濾波器,分別得到運(yùn)動(dòng)目標(biāo)的方向特性和強(qiáng)度特性,綜合上述兩種特性分別得到四種特征信息。

      本文采用動(dòng)態(tài)權(quán)重相加的方式融合上述特征,將空間上的強(qiáng)度和方向信息疊加得到SI,運(yùn)動(dòng)方向和運(yùn)動(dòng)強(qiáng)度相加得到MI。權(quán)重WS,WM計(jì)算公式如下:

      文本認(rèn)為顯著圖Smap主要描述了目標(biāo)的動(dòng)態(tài)顯著圖,同時(shí)為了不丟失大量的空間特性,將空間強(qiáng)度TSI生成的顯著圖作為目標(biāo)的空間信息。

      1.3 目標(biāo)檢測

      為了檢測到移動(dòng)鏡頭下的運(yùn)動(dòng)目標(biāo),本文將運(yùn)動(dòng)能量 和Smap分別進(jìn)行二值化,由兩個(gè)掩膜相與得到目標(biāo)所處的運(yùn)動(dòng)區(qū)域MA,為了進(jìn)一步得到目標(biāo)完整的輪廓信息,將二值化后的空間顯著圖TSI與MA求并集作為最終的檢測結(jié)果。

      2 實(shí)驗(yàn)結(jié)果與分析

      2.1 模擬實(shí)驗(yàn)

      本文先采用人工光柵實(shí)驗(yàn)驗(yàn)證大尺度的環(huán)繞可以去掉大量的背景運(yùn)動(dòng)。本文將獨(dú)立運(yùn)動(dòng)的小棒視為運(yùn)動(dòng)目標(biāo),分散的光柵模擬大量的背景運(yùn)動(dòng)(此時(shí)假設(shè)場景中任意位置的速度都是相同的),實(shí)驗(yàn)結(jié)果如圖1所示實(shí)驗(yàn)中光柵的速度Gv=2,獨(dú)立小棒的速度Bv=1,兩者的速度方向均為0度。從實(shí)驗(yàn)結(jié)果中我們看出大范圍的環(huán)繞可以去除分散的光柵,由于受到環(huán)繞抑制的影響,檢測后的目標(biāo)形狀與原始的目標(biāo)有所差別,但依然保留了目標(biāo)大部分的信息,圖1中最后一行是實(shí)驗(yàn)中采用的環(huán)繞。

      圖1 人工光柵實(shí)驗(yàn)

      2.2 真實(shí)視頻

      本文除了采用人工光柵的模擬實(shí)驗(yàn),同時(shí)利用自然環(huán)境下拍攝的車載視頻進(jìn)行實(shí)驗(yàn)。檢測結(jié)果中發(fā)現(xiàn)本文的方法可以檢測到與背景速度不相同的運(yùn)動(dòng)目標(biāo),然而目標(biāo)輪廓依然存在“空洞”。本文通過3DGabor與環(huán)繞抑制相結(jié)合的方法提取目標(biāo)的運(yùn)動(dòng)能量,由于環(huán)繞可以去除大量的同質(zhì)區(qū)域,導(dǎo)致得到的運(yùn)動(dòng)能量只保留目標(biāo)的邊緣信息,同時(shí)文中通過無方向的環(huán)繞得到空間顯著圖,該顯著圖中最突出的是目標(biāo)的邊緣信息,因此根據(jù)上述兩個(gè)因素依然無法保證目標(biāo)輪廓信息的完整性。

      3 結(jié)束語

      本文通過模擬人的視覺感知系統(tǒng)實(shí)現(xiàn)移動(dòng)鏡頭下的運(yùn)動(dòng)目標(biāo)檢測,人工光柵和真實(shí)視頻實(shí)驗(yàn)表明本文方法的有效性,然而文本的方法不能保證目標(biāo)輪廓的完整性,同時(shí)鏡頭中由于景深造成某些運(yùn)動(dòng)目標(biāo)無法檢測到,這些問題在以后的工作中將繼續(xù)解決。

      參考文獻(xiàn):

      [1]Raudies,F(xiàn)lorian,and Heiko Neumann.\"A neural model of the temporal dynamics of figure–ground segregation in motion perception.\"Neural Networks,(2010):160-176.

      [2]Andrew Browning,N,Stephen Grossberg,and Ennio Mingolla.\"Cortical dynamics of navigation and steering in natural scenes:Motion-based object segmentation,heading,and obstacle avoidance.\"Neural Networks,2009:1383-1398.

      [3]Culibrk,Dubravko,et al.\"Salient motion features for video quality assessment.\"Image Processing,IEEE Transactions on,2011:948-958.

      作者單位:中南民族大學(xué)生物醫(yī)學(xué)工程學(xué)院 圖像處理實(shí)驗(yàn)室,武漢 430070

      龙川县| 福建省| 沁阳市| 大英县| 孟州市| 景谷| 望江县| 普格县| 广西| 安塞县| 宁海县| 前郭尔| 大丰市| 祁门县| 濉溪县| 新建县| 沙湾县| 昭通市| 长白| 禄劝| 准格尔旗| 津市市| 安溪县| 仪征市| 吴忠市| 措美县| 苏尼特左旗| 禹州市| 姜堰市| 岑巩县| 赤城县| 沾化县| 闵行区| 平塘县| 深泽县| 黎城县| 河北区| 遵义县| 广德县| 乌兰浩特市| 烟台市|