葛曉葉,喬棟
(山西大同大學(xué)煤炭工程學(xué)院,山西大同037003)
基于OTSU的細(xì)胞神經(jīng)網(wǎng)絡(luò)視頻對象分割算法
葛曉葉,喬棟
(山西大同大學(xué)煤炭工程學(xué)院,山西大同037003)
結(jié)合CNN的特點(diǎn),提出了一種基于OTSU算法的細(xì)胞神經(jīng)網(wǎng)絡(luò)視頻對象分割算法,通過仿真實(shí)驗(yàn)證明了此算法的可行性。本算法是對差分圖像合并算法的一種改進(jìn),原理簡單,易實(shí)現(xiàn),處理速度快且精度高。
細(xì)胞神經(jīng)網(wǎng)絡(luò);視頻對象分割;OTSU算法;閾值
隨著多媒體技術(shù)的迅猛發(fā)展,視頻對象分割技術(shù)廣泛應(yīng)用于交通流檢測、電視會議、視頻檢索等領(lǐng)域,具有重要的研究意義和應(yīng)用價值。在視頻對象分割中要進(jìn)行大量計(jì)算,因此必須滿足視頻對象分割的實(shí)時性,才能保證其實(shí)用價值。
細(xì)胞神經(jīng)網(wǎng)絡(luò)是大型非線性模擬電路,其芯片整體運(yùn)算的速度已達(dá)兆兆級,具有實(shí)時信號處理能力[1]。將細(xì)胞神經(jīng)網(wǎng)絡(luò)應(yīng)用于視頻對象分割中,可以實(shí)現(xiàn)分割精度高、速度快。
OTSU即最大類間方差法,根據(jù)圖像的灰度特性,選取分割閾值,將圖像分為兩部分,一部分為目標(biāo)對象(即前景),一部分為背景。對圖像Ⅰ(x,y),設(shè)T為目標(biāo)與背景的分割閾值,T從灰度值的最小值依次取到最大值,當(dāng)使目標(biāo)和背景的方差最大時,T就是所需閾值,即最佳閾值。其中,方差是度量圖像灰度分布均勻性的,其值越大,構(gòu)成目標(biāo)和背景的差別就越大,若目標(biāo)和背景有部分錯分,會導(dǎo)致兩部分差別變小,因此,使類間方差最大可使錯分概率最小化[2]。
細(xì)胞神經(jīng)網(wǎng)絡(luò)是局部聯(lián)接的非線性模擬電路,其芯片的整體運(yùn)算速度可達(dá)兆兆級,且神經(jīng)元的狀態(tài)和輸出的關(guān)系是分段線性的,可高速并行處理數(shù)據(jù)。一個M×N規(guī)模的細(xì)胞神經(jīng)網(wǎng)絡(luò)是指個數(shù)為M×N的細(xì)胞排列成M行N列,其中細(xì)胞是基本電路單元,每個細(xì)胞只連接周圍半徑范圍內(nèi)的神經(jīng)元。一個簡單的二維細(xì)胞神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,其中C(i,j)表示第i行、第j列的細(xì)胞,如圖1所示:
圖1 CNN結(jié)構(gòu)
近些年來,CNN的研究取得了較多成果,在很多領(lǐng)域得到了廣泛的應(yīng)用,尤其在圖像處理領(lǐng)域的實(shí)際應(yīng)用最廣。在細(xì)胞神經(jīng)網(wǎng)絡(luò)模板庫中有許多實(shí)現(xiàn)不同圖像處理功能的模板,用細(xì)胞神經(jīng)網(wǎng)絡(luò)處理器可以用來實(shí)現(xiàn)CNN通用編程,并且其基本操作組合起來也可以實(shí)現(xiàn)復(fù)雜功算法的設(shè)計(jì),用來實(shí)現(xiàn)圖像合成、運(yùn)動預(yù)測等復(fù)雜的操作。
象素作為數(shù)字圖像最基本的單位,在細(xì)胞神經(jīng)網(wǎng)絡(luò)中,每一個象素點(diǎn)對應(yīng)一個CNN細(xì)胞,每一個細(xì)胞即為一個復(fù)雜的動力學(xué)系統(tǒng)。細(xì)胞神經(jīng)網(wǎng)絡(luò)的功能由CNN模板決定,將細(xì)胞神經(jīng)網(wǎng)絡(luò)應(yīng)用于處理圖像中就是對模板的設(shè)計(jì),更改模板的參數(shù)用來實(shí)現(xiàn)各種處理圖像的方法。具體操作:第一步,根據(jù)問題選擇合適的CNN模型,第二步,根據(jù)要求設(shè)計(jì)CNN算法,并且設(shè)計(jì)實(shí)現(xiàn)具體功能的CNN模板,第三步,進(jìn)行實(shí)驗(yàn)來調(diào)整模板參數(shù),以求達(dá)到最佳實(shí)驗(yàn)效果。
本文中介紹的算法是基于OTSU的細(xì)胞神經(jīng)網(wǎng)絡(luò)視頻對象分割算法,該算法是基于檢測變化區(qū)域的方法,適用于運(yùn)動目標(biāo)背景靜止的視頻序列。本算法是對文獻(xiàn)[3]中的差分圖像合并算法的一種改進(jìn),利用閾值模板替代邊緣檢測模板,在達(dá)到較好目標(biāo)分割效果的基礎(chǔ)上,迭代次數(shù)減少,運(yùn)算時間縮短。在算法中,實(shí)驗(yàn)所用的前一幀、當(dāng)前幀和后一幀分別取視頻序列中第n-i幀,第n幀和第n+i幀三幅圖像,其中當(dāng)前幀中的運(yùn)動目標(biāo)即是所要進(jìn)行分割的對象。如果視頻中運(yùn)動目標(biāo)的變化平緩,可以將前后相隔的幀數(shù)i做適當(dāng)?shù)脑黾印?/p>
算法具體步驟如下:
1)利用CNN差分模板,分別對原始灰度圖像的第n-i幀和第n幀、第n幀和第n+i幀分別進(jìn)行幀間差分操作,輸出的兩幅灰度圖像即可得到幀間圖像的運(yùn)動區(qū)域;
2)根據(jù)OTSU算法利用公式(1),計(jì)算灰度閾值。利用CNN閾值模板,根據(jù)值分別將第一步得到的兩幅灰度圖像的前景象素點(diǎn)和后景象素點(diǎn)區(qū)分開,并對其進(jìn)行二值化操作,輸出結(jié)果為二值圖像;
3)利用CNN負(fù)片模板、膨脹模板、空洞填充模板,對第二步所得的二值圖像進(jìn)行負(fù)片運(yùn)算、膨脹操作、空洞填充操作,使運(yùn)動區(qū)域更加完整。
4)利用CNN邏輯與操作模板,對第三步得到的兩幀圖像進(jìn)行邏輯與運(yùn)算,獲得運(yùn)動目標(biāo)所在區(qū)域;
5)利用CNN目標(biāo)分割模板,將運(yùn)動目標(biāo)從當(dāng)前幀中分割出來。
以上用到的細(xì)胞神經(jīng)網(wǎng)絡(luò)模板在圖像處理功能上是獨(dú)立的,并不依賴于本算法,也可應(yīng)用于其它細(xì)胞神經(jīng)網(wǎng)絡(luò)的相關(guān)算法。
利用Matlab軟件和CNN Visual Mouse Platform(細(xì)胞神經(jīng)網(wǎng)絡(luò)仿真系統(tǒng))對本算法進(jìn)行了仿真實(shí)驗(yàn)。在實(shí)驗(yàn)中,將視頻序列中第130幀、第135幀和第140幀作為前一幀、當(dāng)前幀和后一幀來進(jìn)行分割實(shí)驗(yàn),三幀視頻序列圖像的背景是靜止的,其灰度圖像如圖2所示。
圖2 依次為第130、135、140幀的灰度圖像
1)幀間差分運(yùn)算
利用CNN差分模板分別將第130幀和第135幀、第135幀和第140幀圖像進(jìn)行差分運(yùn)算,得到運(yùn)動區(qū)域。結(jié)果如圖3。
圖3 兩圖依次為第130和135幀、第135和140幀的差分效果圖
2)閾值模板運(yùn)算
利用CNN閾值模板將差分后的圖像的前景象素點(diǎn)和后景象素點(diǎn)區(qū)分開,并將圖像進(jìn)行二值化。結(jié)果如圖4。
圖4 閾值模板操作效果圖
3)負(fù)片操作、空洞填充操作和膨脹操作
將上步得到的二值圖像進(jìn)行負(fù)片操作,可得運(yùn)動區(qū)域的輪廓,結(jié)果如圖5。但負(fù)片操作后得到的運(yùn)動區(qū)域邊緣有些不是閉和的,為了使空洞填充得到良好的效果,要首先對圖5進(jìn)行兩次膨脹操作,然后再進(jìn)行空洞填充,最后結(jié)果如圖6。
圖5 負(fù)片模板操作效果圖
圖6 圖像處理和空洞填充后效果圖
4)邏輯與操作
將圖6中的兩幅圖進(jìn)行邏輯與操作,即得到的就是目標(biāo)區(qū)域。結(jié)果如圖7:
圖7 邏輯與操作后效果圖
5)目標(biāo)分割運(yùn)算
利用CNN目標(biāo)分割模板進(jìn)行運(yùn)動對象分割操作,得到運(yùn)動目標(biāo)。結(jié)果如圖8。
圖8 第135幀中的運(yùn)動目標(biāo)
雖然進(jìn)行的仿真實(shí)驗(yàn),但是本算法執(zhí)行所需的時間也可以根據(jù)ACE16K(細(xì)胞神經(jīng)網(wǎng)絡(luò)芯片)的特征參數(shù)[3]進(jìn)行估算。在ACE16K芯片上,完成一次灰度圖像處理所需時間為1.2 μs,完成一次二值圖像處理所需時間為0.144 μs,由此可得本文算法運(yùn)算時間如表1所示??伤愕茫舅惴ㄔ贏CE16K上運(yùn)行所需的總運(yùn)算時間為11.616 μs,而在ACE16K上,文獻(xiàn)[3]中的差分圖像合并算法運(yùn)行所需的總運(yùn)算時間為26.016 μs。
由實(shí)驗(yàn)結(jié)果可見,基于OTSU的細(xì)胞神經(jīng)網(wǎng)絡(luò)視頻對象分割算法可以將運(yùn)動對象從背景靜止的視頻序列圖像中分割出來,驗(yàn)證了本算法的可行性,而且具有一定的分割精度,并且縮短了運(yùn)算時間,達(dá)到了預(yù)期效果。
表1 本文算法運(yùn)算時間
細(xì)胞神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)接近真正的生物視覺神經(jīng)系統(tǒng),且具有分布式處理和并行計(jì)算的特點(diǎn),因此細(xì)胞神經(jīng)網(wǎng)絡(luò)在圖像處理方面的應(yīng)用具有廣闊的前景。本文的算法是將CNN應(yīng)用于靜態(tài)背景視頻對象分割的算法中,用OTSU算法來選取合適的閾值,作為劃分象素的依據(jù),從而完成運(yùn)動目標(biāo)的分割。在保證分割效果的前提下,減少了模板使用次數(shù),提高了效率。
[1]王懷穎.細(xì)胞神經(jīng)網(wǎng)絡(luò)在圖像處理中的應(yīng)用技術(shù)研究[D].南京:南京航空航天大學(xué),2007:50-64.
[2]陽樹洪.灰度圖像閾值分割的自適應(yīng)和快速算法研究[D].重慶:重慶大學(xué),2014:35-41.
[3]孟蜀鍇.細(xì)胞神經(jīng)網(wǎng)絡(luò)在視頻運(yùn)動對象分割中的應(yīng)用[D].上海:上海大學(xué),2004:62-67.
(編輯:王璐)
Cellular Neural Network Video Object Segmentation Based on OTSU
Ge Xiaoye,Qiao Dong
(Coal Mine and Engineering College of Shanxi Datong University,Datong Shanxi 037003)
Combining with the features of CNN,this paper puts forward a kind of video object segmentation algorithm based on OTSU algorithm,and through simulation experiments to prove its feasibility.The algorithm is the improvement of subtraction merged image algorithm.The algorithm is simple and easy to implement,and it has high accuracy and fast speed.
cellular neural network;video object segmentation;OTSU algorithm;threshold
Q2
A
2095-0748(2015)21-0083-03
10.16525/j.cnki.14-1362/n.2015.21.36
2015-10-12
葛曉葉(1983—),女,山西大同人,研究生,畢業(yè)于中北大學(xué)計(jì)算機(jī)應(yīng)用專業(yè),助教,現(xiàn)就職于山西大同大學(xué)。