劉蘇剛,蔣 剛+,朱 昊,陳清平,徐文剛,黃 璜
(1.成都理工大學(xué) 機(jī)電工程學(xué)院,四川 成都 610059; 2.成都陵川特種工業(yè)有限責(zé)任公司 科技管理部,四川 成都 610105)
隨著科技的快速發(fā)展,對目標(biāo)物體識別精度以及復(fù)雜環(huán)境下適應(yīng)能力的要求不斷提高,結(jié)合深度學(xué)習(xí)框架的目標(biāo)監(jiān)測系統(tǒng)成為了當(dāng)前研究的熱點(diǎn)。目前,基于深度學(xué)習(xí)的目標(biāo)檢測算法主要分為兩大類別,一類是由Faster R-CNN[1]為代表的two-stage目標(biāo)檢測算法,該類算法擁有較高的識別精度但不能滿足實(shí)時(shí)性的要求,無法較好地進(jìn)行目標(biāo)檢測工程化應(yīng)用,另一類是由SSD(single shot multibox detector)[2]、YOLO(you only look once)[3-5]系列為代表的one-stage目標(biāo)檢測算法,該類算法能夠滿足實(shí)時(shí)性的工程化應(yīng)用條件。高楊等[6]提出多層特征融合算法,相較于Faster R-CNN犧牲了一定的檢測速度換來了精度的提高。嚴(yán)開忠等[7]對YOLOV3進(jìn)行改進(jìn),有效提升了目標(biāo)檢測速度,但導(dǎo)致精度降低。羅建華等[8]則通過改進(jìn)YOLOV3,在不影響檢測速度情況下提高道路目標(biāo)檢測精度。薛志峰等[9]將YOLOV3與STM32結(jié)合,實(shí)現(xiàn)手勢交互的工程化應(yīng)用,但交互過程受外界環(huán)境影響較大。
為了達(dá)到昏暗復(fù)雜環(huán)境下檢測精度與速度的平衡,實(shí)現(xiàn)工程應(yīng)用。本文在YOLOV4[10]輕量型目標(biāo)檢測算法上進(jìn)行改進(jìn),融入圖像增強(qiáng)算法,在滿足目標(biāo)檢測速度要求的同時(shí),提升了昏暗復(fù)雜環(huán)境下的目標(biāo)檢測精度,同時(shí)能解決目標(biāo)漏檢與誤檢問題。改進(jìn)后的算法與zed雙目相機(jī)結(jié)合,為監(jiān)測系統(tǒng)的建立提供視覺支持,建立了針對昏暗復(fù)雜環(huán)境的智能化實(shí)時(shí)目標(biāo)監(jiān)測系統(tǒng)。
監(jiān)測系統(tǒng)的建立分為多源數(shù)據(jù)采集階段、圖像處理階段、數(shù)據(jù)決策階段、工程實(shí)現(xiàn)階段。監(jiān)測系統(tǒng)整體架構(gòu)如圖1所示。
監(jiān)測系統(tǒng)實(shí)時(shí)采集由zed雙目相機(jī)所獲取的圖像深度點(diǎn)云數(shù)據(jù)以及目標(biāo)檢測信息,目標(biāo)檢測信息是由zed雙目相機(jī)所獲取的每幀圖像通過進(jìn)入昏暗復(fù)雜環(huán)境下目標(biāo)檢測模型進(jìn)行目標(biāo)識別得到。當(dāng)數(shù)據(jù)采集完成后系統(tǒng)進(jìn)行數(shù)據(jù)決策,建立MYSQL數(shù)據(jù)庫連接及底層通信管道,發(fā)送決策指令實(shí)現(xiàn)智能化監(jiān)測相關(guān)功能。
監(jiān)測系統(tǒng)在昏暗復(fù)雜環(huán)境下進(jìn)行目標(biāo)檢測,圖像增強(qiáng)算法將zed雙目相機(jī)采集的每幀圖像進(jìn)行去噪、輪廓增強(qiáng)及對比度增強(qiáng),讓檢測目標(biāo)的細(xì)節(jié)信息更加豐富,幫助目標(biāo)檢測模型更好地進(jìn)行目標(biāo)識別,提高系統(tǒng)的魯棒性與實(shí)用性。
監(jiān)測系統(tǒng)運(yùn)動過程中,受外部復(fù)雜環(huán)境的干擾,圖像獲取會產(chǎn)生一定不可避免的噪聲突變點(diǎn),系統(tǒng)需進(jìn)行噪聲突變點(diǎn)的消除,本文采用中值濾波法進(jìn)行噪聲突變點(diǎn)的濾除。
本文是對彩色圖像進(jìn)行圖像增強(qiáng),彩色圖像分為R、G、B這3個(gè)通道。令f(i,j) 為獲取二維圖像所對應(yīng)的像素值,進(jìn)行像素值歸一化,使0≤f(i,j)≤255。 將監(jiān)測系統(tǒng)實(shí)時(shí)傳入的圖像進(jìn)行噪聲突變點(diǎn)消除,即
fout=median(f1,f2,f3,…,f9)
(1)
式(1)中,采用3×3的運(yùn)算區(qū)域,fout為濾波后得到的像素值,f1,f2,f3,…,f9為運(yùn)算區(qū)域中排序好的像素值,通過median()函數(shù)取出中間值進(jìn)行賦值操作,有效消除噪聲突變點(diǎn)。
式(1)后,得到去噪后的圖像信息。為了進(jìn)一步加強(qiáng)目標(biāo)物體的邊緣輪廓,需進(jìn)行相應(yīng)目標(biāo)邊緣輪廓的增強(qiáng),也就是圖像的銳化操作。計(jì)算二維圖像函數(shù)f(x,y) 的一階偏導(dǎo),用差分形式近似代替一階偏導(dǎo),可得
(2)
(3)
(4)
(5)
式(5)中,a=1,通過上式可以計(jì)算出此時(shí)邊緣信息增強(qiáng)后的圖像函數(shù)h(x,y), 使圖像中目標(biāo)物體輪廓更加清晰。
在昏暗復(fù)雜環(huán)境下,需對圖像進(jìn)行對比度增強(qiáng),使該特定環(huán)境下未顯示的目標(biāo)細(xì)節(jié)信息呈現(xiàn)出來。本文采用直方圖均衡化進(jìn)行后續(xù)圖像處理,處理的彩色圖像為24位,每個(gè)單通道各占8位,因此單通道的灰度級為256種,統(tǒng)計(jì)圖像數(shù)據(jù)中不同灰度級像素個(gè)數(shù)可得
Count(k)=mk
(6)
式(6)中,0≤k≤255,mk表示不同通道下,灰度級為k的像素總個(gè)數(shù),Count(k)表示統(tǒng)計(jì)的灰度級為k的像素總個(gè)數(shù),計(jì)算灰度級概率分布可得
(7)
通過式(7)可得到圖像灰度級出現(xiàn)概率,然后進(jìn)行相應(yīng)累加概率計(jì)算可得
(8)
式(8)中,0≤n≤255,在這之后利用累加概率計(jì)算新的灰度級然后進(jìn)行灰度級像素個(gè)數(shù)重新分配,可得新的映射灰度級
(9)
式(9)得到對比度增大后新的灰度級,進(jìn)行灰度級k的像素與hk的像素映射,映射完成后,系統(tǒng)得到對比度增強(qiáng)后的圖像信息。
監(jiān)測系統(tǒng)實(shí)時(shí)傳入的圖像通過圖像增強(qiáng)算法,能夠?qū)崿F(xiàn)噪聲突變點(diǎn)去除、圖像邊緣信息增加及對比度增強(qiáng),從而為監(jiān)測系統(tǒng)后續(xù)的目標(biāo)檢測提供相應(yīng)的圖像數(shù)據(jù)支持。
YOLOV4-tiny是相較于YOLOV4的一種輕量型目標(biāo)檢測算法。該目標(biāo)檢測算法為達(dá)到較高的目標(biāo)檢測速度,降低了骨架網(wǎng)絡(luò)(CSPDarknet53-Tiny)復(fù)雜度,使骨架網(wǎng)絡(luò)由3個(gè)CBL(conv batch normalization leaky rectified linear unit)結(jié)構(gòu)以及由3個(gè)CSP(cross stage partial connections)[11]與池化層組成的CSP_body結(jié)構(gòu)所構(gòu)成。激活函數(shù)替換為LeakyRelu(leaky rectified linear unit)。從骨架網(wǎng)絡(luò)中引入兩個(gè)有效特征層進(jìn)入FPN(feature pyramid networks)[12]結(jié)構(gòu)后由YOLO-head輸出最終結(jié)果。YOLOV4-tiny結(jié)構(gòu)如圖2所示。
監(jiān)測系統(tǒng)為提高目標(biāo)檢測精度,對YOLOV4-tiny目標(biāo)檢測模型進(jìn)行了一定的改進(jìn)。在YOLOV4-tiny目標(biāo)檢測算法的兩層特征層的基礎(chǔ)上增加兩層更淺層特征層,將從骨架網(wǎng)絡(luò)中獲取到的四層有效特征層進(jìn)行提取和疊加操作,使目標(biāo)檢測過程中更多目標(biāo)特征被融合,從而達(dá)到增大感受野的同時(shí)保留圖像更多的細(xì)節(jié)信息。通過改進(jìn)FPN結(jié)構(gòu)可以使監(jiān)測系統(tǒng)在實(shí)際的目標(biāo)檢測過程中獲取到更多的目標(biāo)物體的特征,不丟失圖像的一些細(xì)節(jié)信息,這樣系統(tǒng)就能夠比較好地判別目標(biāo)物體的類別,提高目標(biāo)物體的識別準(zhǔn)確率。針對昏暗復(fù)雜環(huán)境,監(jiān)測系統(tǒng)能夠較大程度保留周圍環(huán)境中目標(biāo)的特征,使模型更好地滿足實(shí)際工程的要求,F(xiàn)PN改進(jìn)結(jié)構(gòu)如圖3所示。
為了能夠進(jìn)行昏暗復(fù)雜環(huán)境下的目標(biāo)檢測工作,在目標(biāo)檢測模型中引入特定圖像增強(qiáng)算法。在目標(biāo)檢測前進(jìn)行圖像增強(qiáng),有助于實(shí)際目標(biāo)檢測工作的進(jìn)行,引入圖像增強(qiáng)算法流程如圖4所示。
監(jiān)測系統(tǒng)通過將實(shí)時(shí)傳入的每幀圖像進(jìn)行圖像增強(qiáng)之后,主要達(dá)到以下3種效果,分別為①去除圖像中噪聲信息,防止不必要的外部環(huán)境強(qiáng)烈干擾,從而保證在圖像獲取過程中圖像質(zhì)量不受到影響;②增加目標(biāo)物體相應(yīng)的邊緣信息,使目標(biāo)物體的輪廓更加的清晰,有利于目標(biāo)檢測模型的特征提?。虎郾┞陡酀摬卦诨璋祻?fù)雜環(huán)境中圖像的細(xì)節(jié)信息,使監(jiān)測系統(tǒng)在不借助外部光照輔助的情況下能夠正常地進(jìn)行目標(biāo)檢測工作,有助于監(jiān)測系統(tǒng)的檢測視野不受到昏暗復(fù)雜環(huán)境的影響。通過以上3點(diǎn)能夠達(dá)到在保持系統(tǒng)的魯棒性的同時(shí),提高系統(tǒng)的隱蔽性與安全性。
改進(jìn)的目標(biāo)檢測算法為滿足監(jiān)測系統(tǒng)進(jìn)行實(shí)時(shí)目標(biāo)監(jiān)測工程化應(yīng)用的要求,保留了YOLOV4-tiny目標(biāo)檢測算法的原有的骨架網(wǎng)絡(luò),使系統(tǒng)本身能夠達(dá)到較高的目標(biāo)檢測速度。為彌補(bǔ)原目標(biāo)檢測模型的目標(biāo)檢測精度不高的缺點(diǎn),優(yōu)化原有FPN網(wǎng)絡(luò)結(jié)構(gòu),從而使改進(jìn)后的算法模型達(dá)到目標(biāo)檢測過程中速度與精度的雙向平衡。為讓系統(tǒng)適應(yīng)昏暗復(fù)雜環(huán)境,引入圖像增強(qiáng)算法,使系統(tǒng)適應(yīng)特定復(fù)雜環(huán)境的能力提高?;璋祻?fù)雜環(huán)境下目標(biāo)檢測算法流程如圖5所示。
監(jiān)測系統(tǒng)在進(jìn)行目標(biāo)檢測過程中,實(shí)時(shí)傳入的每幀圖像為系統(tǒng)的目標(biāo)檢測模型提供相應(yīng)的數(shù)據(jù)支持。為了完成每幀圖像的獲取工作,將改進(jìn)后的目標(biāo)檢測算法與zed雙目相機(jī)進(jìn)行相應(yīng)的算法融合。zed雙目相機(jī)采集到的每幀圖像數(shù)據(jù)經(jīng)過改進(jìn)后的目標(biāo)檢測模型實(shí)現(xiàn)實(shí)時(shí)目標(biāo)檢測。zed雙目相機(jī)與優(yōu)化算法的融合流程如圖6所示。
圖6中,系統(tǒng)獲取zed雙目相機(jī)所捕捉的每幀圖像,先進(jìn)行相應(yīng)尺寸變換,將圖像轉(zhuǎn)換為(416,416)的尺寸格式,以滿足目標(biāo)檢測模型輸入圖像尺寸要求,之后圖像通過顏色通道轉(zhuǎn)換后再轉(zhuǎn)為Image圖像格式進(jìn)入目標(biāo)檢測模型。當(dāng)每幀圖像傳入模型之后還要進(jìn)行相應(yīng)的圖像數(shù)據(jù)歸一化以及維度順序變換以滿足目標(biāo)檢測模型對圖像數(shù)據(jù)的特定要求。當(dāng)圖像識別完成,經(jīng)顏色通道轉(zhuǎn)換,利用OpenCV進(jìn)行實(shí)時(shí)顯示,進(jìn)而觀察優(yōu)化算法與zed雙目相機(jī)融合之后實(shí)時(shí)目標(biāo)檢測效果。
監(jiān)測系統(tǒng)利用zed雙目相機(jī)獲取圖像的深度點(diǎn)云數(shù)據(jù)進(jìn)行監(jiān)測目標(biāo)的距離與方位角的計(jì)算,從而完成相應(yīng)的數(shù)據(jù)采集工作。
OLeft與ORight為zed雙目相機(jī)左右相機(jī)的光心,本文將zed雙目相機(jī)的左相機(jī)光心作為初始空間坐標(biāo)原點(diǎn),空間坐標(biāo)為 (0,0,0), 令P點(diǎn)相對于左相機(jī)光心的空間坐標(biāo)點(diǎn)為 (x,y,z), 空間P點(diǎn)對應(yīng)左右相機(jī)的目標(biāo)像素點(diǎn)為PLeft(xl,yl)、 PRight(xr,yr), zed雙目相機(jī)的焦距d與左右相機(jī)的基線lbase都可由相機(jī)本身獲取。本文根據(jù)視差測量法,利用三角形相似原理求解出空間P點(diǎn)的z的取值,如圖7(a)所示
(10)
式(10)中dvisual=xl-xr, 通過相應(yīng)x、y、z的等式關(guān)系,結(jié)合空間點(diǎn)P在左相機(jī)所對應(yīng)的目標(biāo)像素點(diǎn),可分別求出x,y的取值
(11)
(12)
通過式(10)~式(12)分別求出x、y、z的取值。獲取到的P(x,y,z) 坐標(biāo)值,是P相對于左相機(jī)光心的坐標(biāo)取值,在此完成對于監(jiān)測目標(biāo)空間點(diǎn)的三維重構(gòu),如圖7(b)所示。
目標(biāo)空間坐標(biāo)點(diǎn)P相對于原點(diǎn)OLeft的取值分別為x、y、z,原點(diǎn)OLeft的三維空間坐標(biāo)為 (0,0,0), 由此可計(jì)算空間坐標(biāo)點(diǎn)P距zed雙目相機(jī)的左相機(jī)原點(diǎn)OLeft的距離
(13)
空間點(diǎn)P的坐標(biāo)點(diǎn)經(jīng)過三維重建后,將空間點(diǎn)P(x,y,z) 映射到XOLeftY二維平面上,本文將X軸方向作為方位角計(jì)算的參考正方向,在XOLeftY二維平面內(nèi)進(jìn)行目標(biāo)物體坐標(biāo)方位角的求解,可得
(14)
通過式(14)計(jì)算出目標(biāo)物體相對于坐標(biāo)原點(diǎn)OLeft的方位角,方位角的取值范圍0°≤angle_object≤360°。
昏暗復(fù)雜環(huán)境下,監(jiān)測系統(tǒng)在混合路況場景進(jìn)行智能化目標(biāo)監(jiān)測任務(wù)時(shí),通過對目標(biāo)空間點(diǎn)的三維重構(gòu)求解出方位角和目標(biāo)距離,從而完成相應(yīng)的數(shù)據(jù)采集,為監(jiān)測系統(tǒng)之后的數(shù)據(jù)決策提供相應(yīng)的數(shù)據(jù)支持。
監(jiān)測系統(tǒng)需將獲取到的目標(biāo)距離與方位角以及經(jīng)過目標(biāo)檢測后的目標(biāo)檢測信息進(jìn)行融合,經(jīng)過數(shù)據(jù)決策后形成相應(yīng)的決策指令實(shí)現(xiàn)智能化目標(biāo)監(jiān)測,決策控制流程如圖8所示。
決策控制過程,主要實(shí)現(xiàn)預(yù)警信號收發(fā)、預(yù)警指示燈開閉、異常數(shù)據(jù)存儲和智能避障功能,從而構(gòu)建出一個(gè)智能化的監(jiān)測系統(tǒng)。針對異常數(shù)據(jù)的存儲,本文用到了MYSQL數(shù)據(jù)庫作為異常數(shù)據(jù)存儲的媒介,從而完成相應(yīng)異常數(shù)據(jù)的存儲,在異常數(shù)據(jù)存儲之后,系統(tǒng)授權(quán)用戶還能進(jìn)行相關(guān)異常數(shù)據(jù)的共享,其它功能則是依靠底層STM32主控端與上層搭建相應(yīng)的通信管道實(shí)現(xiàn)。系統(tǒng)為保證數(shù)據(jù)的完整性與安全性,將決策指令采用相應(yīng)的通信協(xié)議通過通信管道下發(fā)底層,從而實(shí)現(xiàn)監(jiān)測系統(tǒng)的自動控制。
監(jiān)測系統(tǒng)進(jìn)行分析的實(shí)驗(yàn)結(jié)果包括圖像處理階段中目標(biāo)檢測模型所得的實(shí)驗(yàn)結(jié)果以及由OpenCV實(shí)時(shí)顯示監(jiān)測系統(tǒng)的測試結(jié)果。通過以上實(shí)驗(yàn)結(jié)果分析確保監(jiān)測系統(tǒng)能夠完成昏暗復(fù)雜環(huán)境下目標(biāo)監(jiān)測的任務(wù)。
訓(xùn)練平臺采用的顯卡為GeForce RTX 2080Ti,CPU為i9-10900X,操作系統(tǒng)為64位ubuntu 16.04。訓(xùn)練中batch_size設(shè)置為8,訓(xùn)練epoch設(shè)置為100,num_workers設(shè)置為4,輸入圖片尺寸格式為(416,416),CUDA為10.0.130。測試平臺采用的配置為Intel(R) Core(TM) i7-9750H CPU @ 2.60GHz 2.59 GHz,操作系統(tǒng)為Windows 10。訓(xùn)練與測試平臺深度學(xué)習(xí)框架采用pytorch1.2.0,編程語言為Python。
本文提出的目標(biāo)檢測改進(jìn)算法模型與YOLOV4-tiny目標(biāo)檢測算法模型經(jīng)100個(gè)epoch訓(xùn)練完成后,均處于穩(wěn)定收斂狀態(tài)。改進(jìn)模型的total_loss:5.0675,val_loss:4.9257,均低于YOLOV4-tiny模型的total_loss:5.3310和val_loss:5.1688。改進(jìn)的算法模型權(quán)重大小為26.8 MB,適合在硬件移植使用,具有較好的實(shí)用價(jià)值。
為解決昏暗復(fù)雜環(huán)境下的目標(biāo)檢測問題,本文提出了針對昏暗復(fù)雜環(huán)境的改進(jìn)算法,該算法在該環(huán)境的實(shí)際測試過程中能夠較好識別出目標(biāo)物體,有效地解決該環(huán)境下的目標(biāo)檢測問題。本文為提高對比效果,將YOLOV4-tiny目標(biāo)檢測算法也與圖像增強(qiáng)算法進(jìn)行融合,各模型測試效果對比如圖9所示。
通過圖9測試效果對比可以看出在昏暗復(fù)雜環(huán)境下改進(jìn)的算法模型相對于YOLOV4-tiny算法模型,目標(biāo)檢測精度有較大提升,相比于融合了圖像增強(qiáng)的YOLOV4-tiny算法模型,目標(biāo)檢測精度也有一定提升。并且改進(jìn)后的算法模型有效解決了目標(biāo)檢測過程中目標(biāo)誤檢、漏檢問題。測試結(jié)果表明改進(jìn)后的算法模型適用于實(shí)際工程化應(yīng)用。
本文對目標(biāo)檢測模型進(jìn)行模型評估過程中,將MAP(mean average precision)作為目標(biāo)檢測精度的評估指標(biāo),將FPS(frames per second)作為目標(biāo)檢測速度的評估指標(biāo)。本文為全面分析改進(jìn)算法模型性能,引入YOLOV4模型參與評估,保證評估數(shù)據(jù)的完整性。本文對各類別AP(average precision)值對比分析見表1。
表1 各類別AP值對比分析
通過表1可以看出,融合圖像增強(qiáng)算法之后YOLOV4和YOLOV4-tiny算法模型相較與原來的算法模型,在一些類別的檢測精度上都有一定程度的提升,改進(jìn)的算法模型相較于YOLOV4-tiny算法模型在5種類別的AP值上都有較為顯著的提升。
本文為進(jìn)行目標(biāo)檢測的FPS評估,選用了測試集中100張測試圖片。經(jīng)測試,YOLOV4模型測試總用時(shí)為7.83 s,當(dāng)融入圖像增強(qiáng)算法后,總用時(shí)為8.69 s,YOLOV4-tiny模型測試總用時(shí)為4.57 s,當(dāng)融入圖像增強(qiáng)算法后,總用時(shí)為5.26 s,本文所提出的改進(jìn)算法在測試過程中的總用時(shí)為5.55 s。
目標(biāo)檢測模型性能評估見表2。
表2 目標(biāo)檢測模型性能評估
在昏暗的復(fù)雜環(huán)境下,本文所提出的改進(jìn)算法模型相較于YOLOV4-tiny目標(biāo)檢測模型的平均精度提升了14.79%,較融合了圖像增強(qiáng)算法的YOLOV4-tiny平均精度提升了3.06%。改進(jìn)算法模型的檢測速度能達(dá)到18 FPS,比YOLOV4目標(biāo)檢測模型高出5 FPS,能滿足實(shí)際工程應(yīng)用中的實(shí)時(shí)性要求。
監(jiān)測系統(tǒng)底層中的STM32主控端的模塊化代碼編寫采用C語言,經(jīng)過實(shí)際的測試發(fā)現(xiàn),能實(shí)現(xiàn)系統(tǒng)所需要的功能。在此基礎(chǔ)上通過OpenCV進(jìn)行實(shí)時(shí)顯示監(jiān)測系統(tǒng)測試結(jié)果,從而保證監(jiān)測系統(tǒng)運(yùn)行效果可視化。監(jiān)測系統(tǒng)實(shí)物及測試效果如圖10所示。
圖10監(jiān)測系統(tǒng)測試結(jié)果表明,監(jiān)測系統(tǒng)有較好的識別精度以及決策控制能力,能夠完成昏暗復(fù)雜環(huán)境下的目標(biāo)檢測任務(wù),實(shí)現(xiàn)智能化目標(biāo)監(jiān)測。
本文為進(jìn)行昏暗復(fù)雜環(huán)境下混合路況的目標(biāo)檢測,提出了一種基于YOLOV4-tiny的改進(jìn)算法。該改進(jìn)算法相較于改進(jìn)前的YOLOV4-tiny算法模型既提高了監(jiān)測系統(tǒng)在昏暗復(fù)雜環(huán)境下目標(biāo)檢測精度,又解決了目標(biāo)誤檢與漏檢問題,同時(shí)能保證系統(tǒng)的魯棒性、隱蔽性與安全性,滿足系統(tǒng)進(jìn)行實(shí)時(shí)目標(biāo)監(jiān)測的工程化要求。本文將改進(jìn)算法模型融入zed雙目相機(jī)中,進(jìn)行多源數(shù)據(jù)的采集工作,監(jiān)測系統(tǒng)將獲取到的數(shù)據(jù)經(jīng)數(shù)據(jù)決策后,建立數(shù)據(jù)庫連接與底層通信管道,能夠?qū)崟r(shí)進(jìn)行異常數(shù)據(jù)存儲及底層控制,進(jìn)而實(shí)現(xiàn)昏暗復(fù)雜環(huán)境下混合路況的目標(biāo)監(jiān)測工程化。