楊丁 楊雪 曾潔 蔡堅 何振宇
摘 要:本設(shè)備針對不同應(yīng)用場景,利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)預(yù)先在云服務(wù)器或GPU訓(xùn)練出多種不同模型及對應(yīng)特征碼,并將其轉(zhuǎn)換為ZYNQ的可執(zhí)行代碼。隨后ZYNQ針對當(dāng)前處理場景和需求獲得處理結(jié)果,再利用以邊緣計算模型為核心的處理方式,將結(jié)果通過網(wǎng)口或串口遠(yuǎn)程傳輸?shù)絇C端,與PC端的模型進(jìn)行和特征碼進(jìn)行匹配。當(dāng)處理環(huán)境或需求有所變化時,通過網(wǎng)口或串口遠(yuǎn)程操控,更換ZYNQ平臺的可執(zhí)行代碼,從而實現(xiàn)針對不同應(yīng)用環(huán)境的監(jiān)測和實時傳輸。
關(guān)鍵詞:ZYNQ;人工智能;
1 引言
隨著人工智能技術(shù)的發(fā)展,人們開始將這項技術(shù)應(yīng)用到視頻監(jiān)控中,通過智能化的方式來獲取車、行人、動物的相關(guān)信息。與此同時,視頻數(shù)據(jù)的網(wǎng)絡(luò)傳輸也就變得愈加地頻繁和重要。據(jù)預(yù)測,到2020年全球?qū)?60億的物聯(lián)網(wǎng)設(shè)備,網(wǎng)絡(luò)傳輸?shù)膲毫M(jìn)一步加大[1]。目前,視頻傳輸大多數(shù)仍然采用云計算模型為核心的集中處理方式,這樣的傳輸方式有如下問題:1、傳輸延遲較高;2、增加了云計算平臺服務(wù)器的處理負(fù)擔(dān);3、儲存和管理了大量冗余視頻數(shù)據(jù),增加了儲存節(jié)點(diǎn)的能耗[2]。針對這些問題,有學(xué)者嘗試將視頻數(shù)據(jù)進(jìn)行壓縮處理再傳輸,也有研究通過硬件設(shè)計實現(xiàn)視頻數(shù)據(jù)的多路傳輸。但實驗表明,這些設(shè)計并沒有從根本上解決網(wǎng)絡(luò)負(fù)載的問題,甚至?xí)斐梢曨l數(shù)據(jù)的丟失。
針對這一問題,當(dāng)前很多研究人員提出了采用邊緣計算為核心的方式來進(jìn)行實時監(jiān)測。邊緣計算是一種在靠近物或數(shù)據(jù)源頭的網(wǎng)絡(luò)邊緣提供智能服務(wù)的新型計算模型,與設(shè)備的近距離使得它能夠節(jié)省網(wǎng)絡(luò)流量、提高響應(yīng)速度。
2 硬件簡介
本設(shè)計采用的是Eaglego系列是威視銳科技基于XILINX的高性能 Zynq 7020芯片,可以滿足實時性苛刻的推理計算需求。實現(xiàn)深度學(xué)習(xí)模型的自動轉(zhuǎn)換 FPGA 代碼,可以幫助用戶快速將訓(xùn)練后的模型轉(zhuǎn)換到硬件部署,實現(xiàn)快速算法驗證。ZYNQ EP將 SoC 集成處理系統(tǒng)(PS)和可編程邏輯器件(PL)包含在單個芯片上。ZYNQ EPP 芯片的總體框圖如圖2-6所示,其中,PS 集成了兩個 ARM?的 Cortex?-A9 MPCore 的?應(yīng)用處理器,AMBA?互連,內(nèi)部存儲器,外部存儲器接口和外設(shè)。這些外設(shè)主要包括 USB 總線接口,以太網(wǎng)接口,SD/ SDIO接口,I2C總線接口,SPI總線接口,CAN總線接口,UART接口,GPIO等。PS可以獨(dú)立運(yùn)行并在上電或復(fù)位下啟動。
此外ZYNQ7020開發(fā)板的其主要參數(shù)如下:可編程邏輯單元:約85K,約130萬ASIC門;LUTs:53200;觸發(fā)器:106400;RAM:506KB;DSP模塊:220;內(nèi)存:512MB ,32bit數(shù)據(jù)總線;USB:一路USB調(diào)試串口;HDMI:1路HDMI高清輸出接口,支持1080P顯示;TF:1路TF卡接口,標(biāo)配8G內(nèi)存卡;WIFI:802.11a/b/g;Ethernet:1路10/100/1000Mbps以太網(wǎng)接口;調(diào)試接口:1個14Pin雙排調(diào)試接口,間距2mm;通用擴(kuò)展:27Pin Microdunio兼容接口,支持40余種擴(kuò)展模塊;視覺傳感器:SONY 1080P高清圖像傳感器。
3 實現(xiàn)過程
如圖2所示,本設(shè)計首先通過攝像頭對所需數(shù)據(jù)進(jìn)行采集,再將采集到的數(shù)據(jù)傳輸?shù)絑YNQ進(jìn)行邊緣計算處理,生成特征碼。將特征碼傳輸?shù)絇C端,與預(yù)先在云端或GPU訓(xùn)練好的模型及對應(yīng)的特征碼進(jìn)行匹配,并在PC端顯示匹配結(jié)果。當(dāng)所需處理的環(huán)境或要求有所變化時,可通過PC端對ZYNQ進(jìn)行遠(yuǎn)程的代碼及模型更新,從而可以針對不同的環(huán)境和要求進(jìn)行智能監(jiān)測和傳輸。
4 結(jié)論
人工智能技術(shù)與視頻監(jiān)控系統(tǒng)的結(jié)合,突破了傳統(tǒng)監(jiān)控的時間和地域的局限,為我們的生活帶來了極大的便利,但大量的人工智能視頻監(jiān)測系統(tǒng),給我們的網(wǎng)絡(luò)傳輸帶來了極大的壓力。隨著物聯(lián)網(wǎng)成為新一輪科技發(fā)展制高點(diǎn),邊緣計算給物聯(lián)網(wǎng)領(lǐng)域中的海量數(shù)據(jù)傳輸、實時服務(wù)響應(yīng)等復(fù)雜挑戰(zhàn)提供了新的解決方案,因此受到了國內(nèi)外政府、工業(yè)界和學(xué)術(shù)界的高度關(guān)注和認(rèn)可。本設(shè)計針對當(dāng)前監(jiān)控視頻流數(shù)據(jù)傳輸過慢、數(shù)據(jù)量過大的問題,提出了一種基于ZYNQ的面向邊緣計算的通用型智能監(jiān)測系統(tǒng)。
通過實驗證明,本設(shè)計通過在深度學(xué)習(xí)的Caffe框架上結(jié)合卷積神經(jīng)網(wǎng)絡(luò)的相關(guān)理論知識,能夠在對監(jiān)測視頻中的對象有效識別的前提下,大大降低數(shù)據(jù)傳輸量。一般的監(jiān)控系統(tǒng),每秒傳輸?shù)臄?shù)據(jù)約為150M到180M之間,而本設(shè)計通過特征碼的方式進(jìn)行傳輸,其傳輸數(shù)據(jù)大小不足1KB;而且本系統(tǒng)在沒有檢測對象存在時,并不進(jìn)行數(shù)據(jù)的傳輸,因此,本設(shè)計能夠大大的降低網(wǎng)絡(luò)的負(fù)載。此外,隨著人工智能時代的發(fā)展,在未來的生活和和生產(chǎn)中,將會有更多的場所需要實現(xiàn)快速高效的智能監(jiān)測,例如:人體行為識別、學(xué)生作弊檢測、自然災(zāi)害監(jiān)測等多個領(lǐng)域,同時傳輸?shù)臄?shù)據(jù)量也會愈加增大。本設(shè)計提出的通用型的智能監(jiān)測系統(tǒng),相較于當(dāng)前基于云計算的視頻監(jiān)控系統(tǒng),無疑更能滿足于未來多種環(huán)境下的智能監(jiān)測需求。
參考文獻(xiàn):
[1]施巍松,孫輝,曹杰,張權(quán),劉偉.邊緣計算:萬物互聯(lián)時代新型計算模型[J].計算機(jī)研究與發(fā)展,2017,54(05):907-924.
[2]劉蕾.船舶監(jiān)控視頻數(shù)據(jù)的壓縮與傳輸方法研究[J].艦船科學(xué)技術(shù),2018,40(12):40-42.