鄧曉軍,李玉龍,滿君豐,歐陽旻
(湖南工業(yè)大學(xué) 計(jì)算機(jī)與通信學(xué)院,湖南 株洲412007)
傳統(tǒng)的視頻編碼器[1~3](例如:H.264)不適合無線視覺傳感器網(wǎng)絡(luò),因?yàn)闊o線視覺傳感器網(wǎng)絡(luò)具有較高的編碼復(fù)雜度,而且無線視覺傳感器網(wǎng)絡(luò)的壽命受限于儲存在電池中的初始能量[4,5]。隨著環(huán)境能量采集技術(shù)的不斷發(fā)展,無線視覺傳感器網(wǎng)絡(luò)的壽命可以得到更好的延長[6~8]。
Islam T 等人[9]針對無線視覺傳感器網(wǎng)絡(luò)當(dāng)前的趨勢和未來發(fā)展方向進(jìn)行了研究,對無線視覺傳感器網(wǎng)絡(luò)的架構(gòu)進(jìn)行了全面的討論。Khursheed K 等人[10]提出無線視覺傳感器網(wǎng)絡(luò)遠(yuǎn)程應(yīng)用的高效數(shù)據(jù)壓縮技術(shù),改變編碼來適用于進(jìn)一步減少數(shù)據(jù)量,通過采用合適的編碼方法來實(shí)現(xiàn)高效的數(shù)據(jù)壓縮。Pinto A 等人[11]提出一種無線多媒體傳感器網(wǎng)絡(luò)能源消耗和延遲分析算法,通過采用三種不同的操作方案用于無線視覺傳感器網(wǎng)絡(luò)的分析。向輝等人[12]提出視覺傳感器網(wǎng)絡(luò)兼顧區(qū)域覆蓋的目標(biāo)多重覆蓋算法,基于有向感知模型,利用虛擬勢場使節(jié)點(diǎn)在待監(jiān)測區(qū)域自組織地進(jìn)行位置移動(dòng)和感知方向轉(zhuǎn)變,優(yōu)先覆蓋的同時(shí)最大程度地覆蓋整個(gè)待監(jiān)測區(qū)域,有效地利用了網(wǎng)絡(luò)資源。
本文提出的無線視覺無線傳感器網(wǎng)絡(luò)采用了壓縮感知的技術(shù),可以有效解決編碼復(fù)雜度高的問題,并利用能量聚合方案來有效地延長網(wǎng)絡(luò)的壽命。
視覺傳感器采用壓縮感知模式將收集到的視覺信息編碼成視頻,它可利用兩個(gè)各幀中的空間冗余和相鄰幀之間的時(shí)間冗余[13,14]。幀圖象組的模式是IPP...PIPP...,如圖1 所示。
圖1 幀圖象組Fig 1 Frame image group
假定該視頻的I 幀被表示為xI∈G,xI可以通過一個(gè)M×N矩陣的算子進(jìn)行測量,并且yI=ΨxI,yI∈G。xI的一個(gè)稀疏表示xI在某些轉(zhuǎn)換域中使用N×N 的轉(zhuǎn)換矩陣H,因此,在測量向量中可以采用凸優(yōu)化問題[15,16]來得到vI
P 幀是首先采用差值公式dxi=xI-xP來進(jìn)行編碼,其中xI是I 幀中的最后一個(gè)。由于時(shí)間相關(guān)性,dxi較xP稀疏得多,可以用較少的測量值來得出。從視覺傳感器i 所接收到的視頻由于壓縮所引起的源失真可以被建模為
其中,ri為傳感器i 的壓縮感測的測量速率,而ω,Di和r'i則由視頻特性來確定。
考慮到每個(gè)傳感器在壓縮上和感測上的功率消耗,得到測量速度的線性函數(shù)
式中 α 為傳感器i 的常系數(shù)。
圖2 為基于壓縮傳感的視覺器將得到的數(shù)據(jù)隊(duì)列傳輸?shù)綌?shù)據(jù)匯聚中心的系統(tǒng)模型。
圖2 數(shù)據(jù)匯聚的系統(tǒng)模型Fig 2 System model of data aggregation
假設(shè)存在n 個(gè)視覺傳感器節(jié)點(diǎn),并在網(wǎng)絡(luò)中有一個(gè)數(shù)據(jù)的匯聚節(jié)點(diǎn),參考圖2 的系統(tǒng)模型。網(wǎng)絡(luò)中存著n 數(shù)據(jù)鏈路,定義速度向量V={v1,…,vn},考慮一個(gè)時(shí)間時(shí)隙系統(tǒng)且假定一個(gè)持續(xù)時(shí)間為T,在其每一個(gè)時(shí)隙t 中,在數(shù)據(jù)傳輸過程中每個(gè)節(jié)點(diǎn)花費(fèi)給它的上行鏈路的能量假設(shè)為Pi(t)<Pmax,假設(shè)總帶寬為W,且在時(shí)隙中分配給傳感器i的帶寬為
式中 s(t)為在時(shí)間的信道狀態(tài),傳感器i 的傳輸速率用v(i)來表示,其取決于所分配的帶寬和功率以及信道狀態(tài)。Gi(t)表示在時(shí)間間隔t 中傳感器i 的視覺數(shù)據(jù)隊(duì)列的壓縮,表達(dá)式如下
在視覺傳感器網(wǎng)絡(luò)中假設(shè)每個(gè)節(jié)點(diǎn)通過收集到的能量進(jìn)行供電,并且搭載了最大存儲量的可充電電池,在時(shí)隙中t 傳感器i 的可用能源為
總能量消耗取決于傳感器節(jié)點(diǎn)i 在進(jìn)行數(shù)據(jù)傳輸和壓縮上的消耗量,且須滿足如下約束
式中 Pv,i(t)為用于數(shù)據(jù)傳輸所消耗的能量,Pr,i(t)為用于數(shù)據(jù)壓縮所消耗的能量。
定義在時(shí)隙t 中通過傳感器i 所收集到的能量大小為ES(i,t),在時(shí)隙t 中收集到的能量能夠在下一個(gè)時(shí)隙中使用,并且在傳感器i 的能量隊(duì)列的演變?nèi)缦?/p>
在視覺傳感器網(wǎng)絡(luò)中,為了合理利用電池的能量,避免傳感器能源的過度消耗,引入了能量控制下的虛擬數(shù)據(jù)隊(duì)列
虛擬數(shù)據(jù)隊(duì)列表示在用盡電池能量的情況下,除了視覺傳感器正常工作狀態(tài)下所能收集到的數(shù)據(jù)隊(duì)列外,還能用剩余的能量所采集到的數(shù)據(jù)隊(duì)列。在下一節(jié)中將應(yīng)用于數(shù)據(jù)傳輸?shù)目刂扑惴ㄖ小?/p>
數(shù)據(jù)傳輸控制技術(shù)包括了三部分:感測速率和壓縮功率控制;數(shù)據(jù)傳輸?shù)墓β屎蛶挿峙?數(shù)據(jù)隊(duì)列的更新。
每一個(gè)時(shí)隙的大小取決于系統(tǒng)狀態(tài)的瞬時(shí)值,對于感測速率和壓縮功率控制,假設(shè)在時(shí)隙t 中選擇一個(gè)感測速率ri,可以得到下列問題的最優(yōu)解
式中 H(·)為一個(gè)在最優(yōu)化和視覺數(shù)據(jù)隊(duì)列的平均長度之間用來控制權(quán)衡的系統(tǒng)參數(shù)。
在時(shí)隙t 中對于所有傳感器選擇一個(gè)發(fā)送功率和帶寬,可以得到下列問題的最優(yōu)解
為了驗(yàn)證本文提出的基于壓縮感知與能量聚合的視覺傳感器數(shù)據(jù)傳輸技術(shù)的效果,通過Matlab 7.0 軟件進(jìn)行算法仿真,其中仿真網(wǎng)絡(luò)由視覺傳感器所組成,網(wǎng)絡(luò)節(jié)點(diǎn)有200 個(gè),能夠收集的最大視覺數(shù)據(jù)隊(duì)列大小為400 bytes,節(jié)點(diǎn)的接收能耗設(shè)定為10 nJ/bit,發(fā)射能耗設(shè)定為40 nJ/bit,設(shè)置節(jié)點(diǎn)進(jìn)行信號處理和功率放大的能耗為20 nJ/bit。在進(jìn)行數(shù)據(jù)采集的過程中,設(shè)定其他節(jié)點(diǎn)干擾而產(chǎn)生的能量消耗為5 nJ/bit,視頻數(shù)據(jù)的采集范圍為500 m×500 m,傳感器的感測半徑都為50 m。所有算法的仿真條件與仿真平臺一致,在沒說明的情況下仿真實(shí)驗(yàn)的配置保持不變。
在實(shí)驗(yàn)中采用對比算法有文獻(xiàn)[10]中Khursheed K 提出的算法,文獻(xiàn)[11]中Pinto A 所提出的算法,進(jìn)行了數(shù)據(jù)傳輸速率、數(shù)據(jù)壓縮率、網(wǎng)絡(luò)能量消耗量的實(shí)驗(yàn)對比。
圖3 顯示了在持續(xù)時(shí)間T=600 s 的過程中,本文方法與對比文獻(xiàn)的方法在數(shù)據(jù)傳輸速率上的大小。本文采用基于壓縮感知的數(shù)據(jù)傳輸技術(shù),進(jìn)行了感測速率和壓縮功率的控制,在一定程度上提升了網(wǎng)絡(luò)的數(shù)據(jù)傳輸速率,相比較文獻(xiàn)[10,11]的方法,本文的方法最終得到的數(shù)據(jù)傳輸速率為2.86 kbps/s,文獻(xiàn)[11]的數(shù)據(jù)傳輸速率為2.16 kbps/s,而文獻(xiàn)[11]的數(shù)據(jù)傳輸速率為2.21 kbps/s。相比之下,本文的方法在提升數(shù)據(jù)傳輸速率上具有明顯的優(yōu)勢,而且數(shù)據(jù)傳輸速率隨著時(shí)間的增長有較為明顯的增長趨勢。
圖4 顯示了在持續(xù)時(shí)間T=600 s 的過程中,本文方法與對比文獻(xiàn)的方法在壓縮率上的大小。從圖中可以看出:隨著時(shí)間的增長,文獻(xiàn)[10,11]在500 s 前壓縮率都有逐漸增長的趨勢,當(dāng)持續(xù)時(shí)間過了500 s 之后,文獻(xiàn)[10]的壓縮率的增長趨勢逐漸減緩,而文獻(xiàn)[11]的壓縮率則開始下降,本文的方法在整個(gè)過程中壓縮率都有明顯地增長趨勢,而且相比另外兩種算法平均數(shù)據(jù)壓縮率分別提升了43%,76%。因此,本
其中,W(t)為在時(shí)隙t 中的帶寬,Pmax(t)為時(shí)隙t 中的最大功率,D(W(t),P(t),s(t))為在時(shí)隙t 中的網(wǎng)絡(luò)容量函數(shù)。
根據(jù)方程解最終得到的最優(yōu)感測速率ri表示為文的方法在數(shù)據(jù)壓縮上也具有一定的優(yōu)勢。
圖3 數(shù)據(jù)傳輸速率Fig 3 Data transmission rate
圖4 數(shù)據(jù)壓縮率Fig 4 Data compression ratio
圖5 是網(wǎng)絡(luò)的能量消耗情況,在進(jìn)行這個(gè)實(shí)驗(yàn)時(shí),是通過逐漸增加網(wǎng)絡(luò)的節(jié)點(diǎn)數(shù)量,再得到整個(gè)網(wǎng)絡(luò)的能量消耗量,從而比較算法的節(jié)能效果。從圖中可以看出,從能量消耗總量來說,文獻(xiàn)[11]最多,本文的能量消耗量最少,因?yàn)楸疚牟捎昧四芰咳诤系姆椒?,通過能量采集和能量約束方法來進(jìn)行節(jié)能調(diào)度。本文方法的最終能量消耗量最大達(dá)到了426 J,文獻(xiàn)[10,11]則分別為553,612 J,與本文方法的比值分別為130%,144%,因此,本文的方法可以為網(wǎng)絡(luò)節(jié)省更多的能量。
圖5 網(wǎng)絡(luò)能量消耗總量Fig 5 Total network energy consumption
本文提出一種基于壓縮感知與能量聚合的視覺傳感器數(shù)據(jù)傳輸技術(shù),介紹了視覺傳感器失真和功耗模型、視頻數(shù)據(jù)傳輸模型,以及能量聚合模型,對本文所采用的數(shù)據(jù)傳輸和數(shù)據(jù)壓縮方法進(jìn)行了建模。在文中數(shù)據(jù)傳輸技術(shù)主要針對感測速率和壓縮功率控制、數(shù)據(jù)傳輸?shù)墓β屎蛶挿峙湟约皵?shù)據(jù)隊(duì)列的更新進(jìn)行展開,提升了視覺數(shù)據(jù)的傳輸速率和壓縮率。
[1] You L,Su X,Han Y T.Dynamic resource allocation for compressive-sensing-based wireless visual sensor networks with energy harvesting[J].Applied Mechanics and Materials,2013,303:187-190.
[2] Pudlewski S,Melodia T.The Art of Wireless Sensor Networks[M].Berlin/Heidelberg:Springer,2014:529-565.
[3] Xiang S,Cai L.Transmission control for compressive sensing video over wireless channel[J].IEEE Transactions on Wireless Communications,2013,12(3):1429-1437.
[4] Marwah K,Wetzstein G,Bando Y,et al.Compressive light field photography using overcomplete dictionaries and optimized projections[J].ACM Transactions on Graphics (TOG),2013,32(4):46.
[5] Xu J,Jiang X L,Yu X Y.Based on compression sensing of video coding in robot servo system[J].Applied Mechanics and Materials,2013,241:1913-1917.
[6] Liu H,Song B,Qin H,et al.Dictionary learning based reconstruction for distributed compressed video sensing[J].Journal of Visual Communication and Image Representation,2013,24(8):1232-1242.
[7] Kuriyakose N,DivakaraMurthy H S,Jose A.Energy efficiency analysis of compressed sensing video streaming for wireless multimedia sensors[J].IJRCCT,2013,2(8):667-672.
[8] Kavitha P.Compressed-sensing-enabled video streaming for wireless multimedia sensor networks[J].Middle-East Journal of Scientific Research,2014,20(1):108-113.
[9] Almalkawi I T,Guerrero Zapata M,Al-Karaki J N,et al.Wireless multimedia sensor networks:Current trends and future directions[J].Sensors,2010,10(7):6662-6717.
[10]Khursheed K,Imran M,Ahmad N,et al.Efficient data reduction techniques for remote applications of a wireless visual sensor networks[J].International Journal of Advanced Robotic Systems,2013,10:1-9.
[11]Pinto A,Zhang Z,Dong X,et al.Energy consumption and latency analysis for wireless multimedia sensor networks[C]∥Global Telecommunications Conference,GLOBECOM 2010,IEEE,2010:1-5.
[12]向 輝,彭 力,劉 剛,等.視覺傳感器網(wǎng)絡(luò)兼顧區(qū)域覆蓋的目標(biāo)多重覆蓋[J].計(jì)算機(jī)學(xué)報(bào),2012,29(9):3428-3431.
[13]Mirza M J,Anjum N.Association of moving objects across visual sensor networks[J].Journal of Multimedia,2012,7(1):2-8.
[14]Pandremmenou K,Kondi L P,Parsopoulos K E.Optimal power allocation and joint source-channel coding for wireless DS-CDMA visual sensor networks using the Nash bargaining solution[C]∥2011 IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP),IEEE,2011:2340-2343.
[15]Karakaya M,Qi H.Distributed target localization using a progressive certainty map in visual sensor networks[J].Ad Hoc Networks,2011,9(4):576-590.
[16]Jang S W,Cha S H.An approach to segmenting initial object movement in visual sensor networks[J].International Journal of Distributed Sensor Networks,2014,7(2):1-12.