王 翔, 肖建力
(上海理工大學(xué) 光電信息與計(jì)算機(jī)工程學(xué)院,上海 200093)
?
基于視頻的交通參數(shù)檢測(cè)綜述
王 翔, 肖建力
(上海理工大學(xué) 光電信息與計(jì)算機(jī)工程學(xué)院,上海 200093)
為使智能交通系統(tǒng)發(fā)揮作用,必須對(duì)流量、密度及速度等交通流的核心參數(shù)進(jìn)行檢測(cè),目前已經(jīng)有許多常見(jiàn)的方法,但在實(shí)際的檢測(cè)中,使用一種檢測(cè)方法只能檢測(cè)出部分參數(shù),未能夠?qū)崿F(xiàn)全部參數(shù)的檢測(cè),尤其是密度參數(shù)非常難以檢測(cè).現(xiàn)有的密度檢測(cè)方法大部分集中在局部場(chǎng)景的交通密度檢測(cè)上,對(duì)于連續(xù)場(chǎng)景的交通密度檢測(cè)很少涉及.現(xiàn)主要綜述了流量、密度及速度3個(gè)方面的檢測(cè)方法,并重點(diǎn)關(guān)注僅通過(guò)視頻數(shù)據(jù)能夠方便地檢測(cè)出多個(gè)交通參數(shù)的文獻(xiàn).
智能交通系統(tǒng); 視頻; 交通參數(shù); 檢測(cè)
智能交通系統(tǒng)在現(xiàn)代城市生活中發(fā)揮著至關(guān)重要的作用,它對(duì)于保證城市交通的平穩(wěn)運(yùn)行、保障人民的安全出行起著不可替代的作用.要使智能交通系統(tǒng)發(fā)揮作用,首先必須獲得交通流的核心參數(shù),具體包括流量、密度及速度等.對(duì)于這些核心參數(shù)的檢測(cè),已經(jīng)有許多常見(jiàn)的方法.根據(jù)使用的傳感器種類(lèi)可以分為基于環(huán)形線圈的檢測(cè)方法[1-4]、基于超聲波的檢測(cè)方法[5-6]以及基于紅外檢測(cè)的方法[7-8].
環(huán)形線圈檢測(cè)器常用來(lái)檢測(cè)交通流量、速度及占有率等交通參數(shù).該方法的工作原理是利用埋在車(chē)道路面下的環(huán)型線圈,當(dāng)有車(chē)輛通過(guò)環(huán)型線圈時(shí),環(huán)型線圈的電磁感應(yīng)會(huì)發(fā)生變化,從而引起諧振回路的諧振頻率變化,通過(guò)對(duì)諧振頻率的計(jì)數(shù)采樣后,分析出是否有車(chē)輛通過(guò)[1].環(huán)形線圈檢測(cè)具有成本低、安裝方便、靈敏度高及受氣候影響小等優(yōu)點(diǎn).但是,在實(shí)際運(yùn)用中,環(huán)形線圈容易因道路變形、施工等因素而損壞,其維護(hù)成本高,而且維護(hù)量大[2-4].另外,環(huán)形線圈對(duì)交通參數(shù)的檢測(cè)存在局限性,它僅能檢測(cè)交通速度、車(chē)輛類(lèi)型等參數(shù).
超聲波檢測(cè)主要用來(lái)檢測(cè)高速公路上車(chē)輛的速度和流量[5].超聲波檢測(cè)器是由一個(gè)控制單元和一個(gè)探針組成.探針用于發(fā)送和接收信號(hào),通過(guò)探針發(fā)射一束超聲波,再接收從車(chē)輛或地面的反射波,根據(jù)反射波返回時(shí)間的差別來(lái)判斷是否有車(chē)輛通過(guò),從而計(jì)算出交通流量.此外,基于位置固定的、成組的超聲波檢測(cè)器可以分別檢測(cè)出車(chē)輛通過(guò)各檢測(cè)器的時(shí)間,從而檢測(cè)出車(chē)輛的速度[6].超聲波檢測(cè)器具有檢測(cè)簡(jiǎn)便、可移動(dòng)及壽命長(zhǎng)等優(yōu)點(diǎn),但檢測(cè)精度不高,且檢測(cè)精度很容易受檢測(cè)環(huán)境的影響.
紅外檢測(cè)器是具有良好應(yīng)用前景的懸掛式或路側(cè)式交通檢測(cè)器,它常被用來(lái)檢測(cè)交通流量.紅外檢測(cè)器一般采用反射式檢測(cè)技術(shù).反射式檢測(cè)器探頭包括一個(gè)紅外發(fā)光管和一個(gè)紅外接收管,其工作原理是通過(guò)調(diào)制脈沖發(fā)生器產(chǎn)生調(diào)制脈沖,再由紅外探頭向道路上輻射,當(dāng)有車(chē)輛通過(guò)時(shí),從車(chē)體反射回來(lái)的紅外線脈沖會(huì)被探頭的接收管接收,由紅外解調(diào)器解調(diào),再經(jīng)過(guò)選通、放大、整流和濾波后觸發(fā)驅(qū)動(dòng)器輸出一個(gè)檢測(cè)信號(hào)[7-8].這種檢測(cè)方法具有快速準(zhǔn)確、輪廓清晰的特點(diǎn).但是,檢測(cè)精度易受氣候條件以及大氣中的懸浮顆?;蚍蹓m影響.
以上常見(jiàn)的交通參數(shù)檢測(cè)方法,可以檢測(cè)出流量、速度、密度3大核心交通參數(shù)中的一種或兩種,但是,無(wú)法同時(shí)實(shí)現(xiàn)對(duì)3大參數(shù)的全部檢測(cè).尤其對(duì)于密度檢測(cè)來(lái)說(shuō),往往只能檢測(cè)出斷面上的密度,對(duì)于路段層面上的密度檢測(cè)來(lái)說(shuō)無(wú)法實(shí)現(xiàn).基于路段層面的密度檢測(cè)一直是智能交通領(lǐng)域的一個(gè)難點(diǎn).近些年,不少學(xué)者開(kāi)始將研究的方向瞄準(zhǔn)基于視頻的交通參數(shù)檢測(cè).究其原因,一是因?yàn)槟壳敖煌ūO(jiān)控?cái)z像頭的安裝已經(jīng)十分普及,大量的監(jiān)控視頻數(shù)據(jù)還沒(méi)有發(fā)揮應(yīng)有的作用;二是分布在道路上的攝像頭已經(jīng)組成了攝像頭網(wǎng)絡(luò),為實(shí)現(xiàn)路段層面的密度檢測(cè)提供了很好的數(shù)據(jù)支撐.為此,本文將對(duì)基于視頻數(shù)據(jù)進(jìn)行交通參數(shù)檢測(cè)的方法進(jìn)行重點(diǎn)回顧,分別從流量檢測(cè)、速度檢測(cè)、密度檢測(cè)3個(gè)方面對(duì)相關(guān)的文獻(xiàn)進(jìn)行探討和分析.
基于視頻的交通流量檢測(cè)的方法相對(duì)速度和密度檢測(cè)方法來(lái)說(shuō)比較普遍,大體上包括基于目標(biāo)檢測(cè)的光流法[9-13]、幀間差分法[14-19]、背景差分法[20-24]等.
1.1 光流法
計(jì)文平等[9]提出了一種基于虛擬線圈數(shù)據(jù),使用光流法的車(chē)流量檢測(cè)方法.該方法通過(guò)設(shè)置虛擬線圈,取相鄰2幀圖像并通過(guò)光流法進(jìn)行多次迭代計(jì)算出光流場(chǎng)信息,再根據(jù)光流場(chǎng)信息變化來(lái)判斷是否有車(chē)輛,最后對(duì)車(chē)輛數(shù)進(jìn)行統(tǒng)計(jì).該方法對(duì)雙車(chē)道和四車(chē)道的流量進(jìn)行統(tǒng)計(jì),其結(jié)果表明,該方法的檢測(cè)精度高,測(cè)量結(jié)果與實(shí)際結(jié)果相差比較小.光流法可以獲得被測(cè)物體的運(yùn)動(dòng)信息及其三維結(jié)構(gòu)信息,光流法檢測(cè)也可以不用考慮場(chǎng)景信息,適用于視頻檢測(cè)器運(yùn)動(dòng)的情況[10-12].但是,光流法也存在缺陷,光流法是根據(jù)光流信息來(lái)判斷的,而光流是由于圖像的灰度變化引起的,因此,當(dāng)光照變化或者圖像灰度對(duì)比度不夠時(shí),也會(huì)造成光流信息變化,從而造成誤判[13].該方法的具體步驟總結(jié)于算法1.
算法1 基于虛擬線圈的光流法車(chē)流量檢測(cè)算法[9].
步驟1 設(shè)置虛擬線圈,選擇檢測(cè)區(qū)域.
步驟2 取出相鄰的2幀圖像,并通過(guò)光流法迭代n次來(lái)得到圖像的光流場(chǎng)信息,光流法迭代的次數(shù)由噪聲的大小確定,一般迭代次數(shù)達(dá)到10次就可以達(dá)到要求.
步驟3 根據(jù)光流場(chǎng)信息的變化來(lái)判斷是否有車(chē)輛,光流場(chǎng)數(shù)據(jù)發(fā)生變化則表明有車(chē)通過(guò),否則,表示沒(méi)有車(chē)輛通過(guò).最后對(duì)判斷結(jié)果進(jìn)行統(tǒng)計(jì),得到車(chē)流量,并返回步驟2.
1.2 幀間差分法
幀間差分法是對(duì)視頻圖像序列中相鄰2幀圖像作差分,從而獲得運(yùn)動(dòng)目標(biāo)邊緣輪廓的方法.該方法的優(yōu)勢(shì)在于可以適用于多個(gè)運(yùn)動(dòng)目標(biāo),即使攝像機(jī)移動(dòng)也不影響運(yùn)動(dòng)目標(biāo)的檢測(cè)結(jié)果[14-15].該方法主要通過(guò)運(yùn)動(dòng)物體會(huì)在視頻相鄰的2幀圖像之間出現(xiàn)較為明顯的差別將運(yùn)動(dòng)目標(biāo)提取出來(lái).其關(guān)鍵之處在于比較相鄰2幀圖像像素差的絕對(duì)值和設(shè)定的閾值,通過(guò)對(duì)兩者大小的比較來(lái)分析圖像序列運(yùn)動(dòng)特性,從而確定是否有運(yùn)動(dòng)物體[16].幀間差分法的穩(wěn)定性比較好,能夠滿足實(shí)時(shí)性的要求,與光流法相比,幀間差分法不易受到光照的影響,但是,幀間差分法不能夠檢測(cè)出靜止的物體,而且對(duì)于運(yùn)動(dòng)速度過(guò)快的物體會(huì)造成檢測(cè)失誤.另外,該方法無(wú)法很好地區(qū)分圖像中物體重疊的區(qū)域,從而也會(huì)對(duì)檢測(cè)結(jié)果產(chǎn)生影響[17-19].為了彌補(bǔ)幀間差分法的不足,夏麗等[20]采用面積融合法與幀間差分法結(jié)合來(lái)解決問(wèn)題.幀間差分法可以實(shí)現(xiàn)車(chē)輛的計(jì)數(shù),但是,當(dāng)發(fā)生車(chē)輛距離很近、車(chē)輛遮擋等問(wèn)題時(shí),檢測(cè)精度較低.而采用面積融合法與幀間差分法結(jié)合,可以利用面積融合法有效地解決車(chē)輛粘連、車(chē)輛遮擋問(wèn)題,提高了計(jì)數(shù)范圍.其具體步驟總結(jié)于算法2.通過(guò)對(duì)不同路段的大量測(cè)量,其結(jié)果表明,該方法具有較為準(zhǔn)確的精度,但對(duì)于不同的路段環(huán)境,檢測(cè)精度變化有些大.
算法2 面積融合法與幀間差分法相結(jié)合的交通流量檢測(cè)算法[20].
步驟1 讀入視頻,進(jìn)行背景的初始化.
步驟2 采用混合高斯模型結(jié)合貝葉斯決策規(guī)則實(shí)現(xiàn)背景的自適應(yīng)更新,以實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的提取.
步驟3 設(shè)立檢測(cè)區(qū)域,在檢測(cè)區(qū)內(nèi)設(shè)置2條檢測(cè)線,對(duì)相鄰的2幀圖像進(jìn)行幀間差分,若檢測(cè)線的像素差值有變化,則說(shuō)明有車(chē)輛通過(guò).
步驟4 記錄車(chē)輛進(jìn)入和離開(kāi)2條檢測(cè)線的幀號(hào),分別用不同的成員變量來(lái)表示,通過(guò)步驟3的方法對(duì)車(chē)輛駛?cè)牒婉偝鰴z測(cè)線作出判斷.
步驟5 對(duì)車(chē)輛的狀態(tài)進(jìn)行判斷.若當(dāng)前幀的檢測(cè)狀態(tài)為1,而前一幀的檢測(cè)狀態(tài)為0,表示車(chē)輛駛?cè)霗z測(cè)線;反之,為駛出檢測(cè)線.若兩狀態(tài)均為1,則表明車(chē)輛正在通過(guò)檢測(cè)線.對(duì)車(chē)流量進(jìn)行統(tǒng)計(jì).
1.3 背景差分法
背景差分法是指在理想背景的條件下,用當(dāng)前幀與理想背景相減,從而比較精確地獲得運(yùn)動(dòng)物體.背景差分法的基本流程是首先根據(jù)視頻序列得到背景的初始化模型,然后將當(dāng)前幀圖像與背景圖像作差分處理,提取出前景點(diǎn);由于光照變化等影響,背景也會(huì)發(fā)生變化,所以,在運(yùn)動(dòng)檢測(cè)過(guò)程中背景模型要進(jìn)行實(shí)時(shí)更新[21].與光流法相比,背景差分法的計(jì)算量較小、速度快,且滿足實(shí)時(shí)性的要求,但是,該方法對(duì)背景質(zhì)量要求很高,涉及天氣及光照的影響,背景圖像需要不斷地更新[22-24].因此,背景提取是該方法的核心.關(guān)于背景提取的方法主要有統(tǒng)計(jì)中值法、均值法、單高斯模型法及混合高斯背景模型法等.
a. 統(tǒng)計(jì)中值法.
統(tǒng)計(jì)中值法是由中值濾波的方法演變而來(lái)的.中值濾波是一種非線性平滑技術(shù),它將每一像素點(diǎn)的灰度值設(shè)置為該點(diǎn)某鄰域窗口內(nèi)的所有像素點(diǎn)灰度的中值[25].統(tǒng)計(jì)中值法的基本思路如算法3所示.從背景合成的方面來(lái)看,統(tǒng)計(jì)中值法能夠較好地實(shí)現(xiàn)背景的提取,但統(tǒng)計(jì)中值法的運(yùn)算復(fù)雜度較大,所占用的內(nèi)存空間比較多.
算法3 統(tǒng)計(jì)中值法[25].
步驟1 假定在一定時(shí)間段內(nèi)有n幅圖像.
步驟2 將n幅圖像進(jìn)行灰度化,對(duì)每幀圖像上的某個(gè)點(diǎn)作時(shí)間上的采樣,并將該時(shí)段內(nèi)通過(guò)目標(biāo)的像素點(diǎn)視為噪聲,對(duì)其排序.
步驟3 取排在中間的像素點(diǎn)作為背景點(diǎn).
b. 均值法.
均值法是選取某點(diǎn)在一段視頻序列中灰度值的平均值來(lái)代替該點(diǎn)的像素值.將運(yùn)動(dòng)車(chē)輛當(dāng)作噪聲,用車(chē)輛運(yùn)行一段時(shí)間的連續(xù)圖像作平均,就可以得到背景圖像[26-28].與統(tǒng)計(jì)中值法相比,均值法的模型簡(jiǎn)單、計(jì)算量小.但是,考慮到實(shí)際上通過(guò)車(chē)輛的灰度值大小不均,有時(shí)偏大,有時(shí)偏小,從而會(huì)導(dǎo)致背景出現(xiàn)亮暗不均的情況.
c. 單高斯模型法.
單高斯模型法最早是由Wren等提出來(lái)的,其基本思想是利用單個(gè)高斯背景模型來(lái)模擬圖像中的每個(gè)像素,其中,每一個(gè)點(diǎn)的高斯模型都是獨(dú)立的[29].基于該思想,單高斯模型法的基本思路如算法4所示.單高斯模型法適用于處理微小變化和物體運(yùn)動(dòng)緩慢的場(chǎng)景.當(dāng)場(chǎng)景比較復(fù)雜時(shí),單高斯模型法得到的背景不如統(tǒng)計(jì)中值法和均值法,而且模型的穩(wěn)定性不是很好,抗干擾能力不強(qiáng).針對(duì)單高斯背景的不足,目前也有一些改進(jìn)的方法,如陳銀等提出利用mean shift算法修正使背景更接近于真實(shí)背景模型,通過(guò)幀差法檢測(cè)出運(yùn)動(dòng)目標(biāo),并運(yùn)用于流量統(tǒng)計(jì)[30].
算法4 基于單高斯模型的交通流量檢測(cè)算法[29].
步驟1 構(gòu)建初始背景.對(duì)于視頻圖像序列中的每一個(gè)像素點(diǎn),其在視頻序列中的變化可視為隨機(jī)過(guò)程,該過(guò)程可表示為X={x1,x2,x3,…,xn},而且該過(guò)程滿足高斯分布.
步驟2 背景匹配.當(dāng)場(chǎng)景發(fā)生變化時(shí),需要對(duì)新場(chǎng)景的每個(gè)像素點(diǎn)進(jìn)行判斷.這里要設(shè)定一個(gè)閾值,通過(guò)該閾值與每個(gè)點(diǎn)的像素和灰度平均值相減的絕對(duì)值的比較,來(lái)確該點(diǎn)屬于前景還是背景.
步驟3 更新背景模型.運(yùn)用視頻序列提供的實(shí)時(shí)信息來(lái)對(duì)背景模型進(jìn)行更新.
d. 混合高斯背景模型法.
混合高斯模型是一種直觀概率密度模型,具有在一定時(shí)間內(nèi)反映圖像運(yùn)動(dòng)的統(tǒng)計(jì)特性.混合高斯背景模型的基本思想是將每一個(gè)像素點(diǎn)所呈現(xiàn)的特征用K個(gè)狀態(tài)來(lái)表示,K取值越大,處理復(fù)雜場(chǎng)景的能力就越強(qiáng),但運(yùn)算量也隨之變大,影響實(shí)時(shí)效果[31-34].混合高斯模型是一種高級(jí)背景統(tǒng)計(jì)模型,它能夠準(zhǔn)確地反映像素值分布和動(dòng)態(tài)變化.目前已有許多基于混合高斯背景模型實(shí)現(xiàn)交通流量統(tǒng)計(jì)的方法.如田輝[35]提出了一種基于改進(jìn)混合高斯模型的車(chē)流量統(tǒng)計(jì)方法,該方法的流程如圖1所示,整個(gè)算法包含2個(gè)主要部分.第一部分用于構(gòu)建穩(wěn)定的背景模型B.首先算法讀入第一幀圖像,并將第一幀圖像作為最初的背景模型,接著算法繼續(xù)讀入下一幀圖像,并用來(lái)更新背景模型,直到讀取到第T幀圖像,則穩(wěn)定的背景模型構(gòu)建完畢.T值一般根據(jù)實(shí)際的經(jīng)驗(yàn)進(jìn)行人工設(shè)定.假設(shè)整個(gè)視頻一共m幀圖像,從第T+1到第m幀圖像被用來(lái)檢測(cè)交通流量.因此,算法的第二部分即為交通流量檢測(cè)以及背景模型的選擇性更新.從第T+1幀圖像開(kāi)始,如果當(dāng)前圖像矩陣In與背景模型的差異大于設(shè)定的閾值th(如式(1)所示)則需要使用當(dāng)前圖像對(duì)背景進(jìn)行更新,然后再利背景差分法進(jìn)行交通流量檢測(cè);否則,直接利用背景差分法進(jìn)行交通流量檢測(cè).
(1)
通過(guò)對(duì)車(chē)流量統(tǒng)計(jì)結(jié)果分析表明,基于改進(jìn)混合高斯模型的車(chē)流量統(tǒng)計(jì)算法的檢測(cè)精度能夠達(dá)到90%以上,但也存在一定的漏檢率[35],其主要是由于車(chē)輛遮擋、車(chē)輛行駛過(guò)程中的橫向距離較小以及攝像機(jī)角度造成的.總之,該方法彌補(bǔ)了混合高斯模型在背景更新時(shí)會(huì)對(duì)每個(gè)像素點(diǎn)的K個(gè)模型進(jìn)行更新,造成了模型的計(jì)算量非常大的缺陷,采用對(duì)有變化的背景區(qū)域的更新,提高運(yùn)算效率,同時(shí)利用車(chē)輛的質(zhì)心到檢測(cè)線的距離來(lái)判斷車(chē)輛,檢測(cè)精度較高.
圖1 基于改進(jìn)混合高斯模型的車(chē)流量統(tǒng)計(jì)算法
除了上述幾種常見(jiàn)的檢測(cè)方法外,還有一些改進(jìn)的檢測(cè)方法可運(yùn)用于車(chē)流量統(tǒng)計(jì)方法.如Zhang等[36]提出了一種改進(jìn)的前景檢測(cè)方法來(lái)實(shí)現(xiàn)流量檢測(cè),其主要的流程如算法5所示.該方法的優(yōu)點(diǎn)在于硬件需求少、成本低,消除了光照、惡劣天氣對(duì)車(chē)流量檢測(cè)精度的影響.與混合高斯背景建模相比,該方法可以有效地檢測(cè)出與背景顏色相似的運(yùn)動(dòng)對(duì)象,提高了檢測(cè)精度;劉騰飛[37]提出一種針對(duì)車(chē)體遮擋的車(chē)流量統(tǒng)計(jì)算法;何清等[38]通過(guò)利用現(xiàn)有的路面標(biāo)記進(jìn)行圖像對(duì)稱(chēng)分割并計(jì)算圖像灰度值方差來(lái)判斷有無(wú)車(chē)輛通過(guò),進(jìn)而實(shí)現(xiàn)車(chē)流量統(tǒng)計(jì);陳兆學(xué)等[39]提出了運(yùn)用Mean Shift算法實(shí)現(xiàn)視頻車(chē)流量檢測(cè)的方法等.
算法5 改進(jìn)的前景檢測(cè)算法[36].
步驟1 輸入視頻幀,以SCLTP模型作為紋理特征,通過(guò)紋理和顏色特征來(lái)實(shí)現(xiàn)前景檢測(cè).
步驟2 融合紋理和顏色特征實(shí)現(xiàn)背景建模.
步驟3 計(jì)算紋理和顏色距離l.
步驟4 計(jì)算車(chē)流量.如果紋理和顏色距離l大于設(shè)定的閾值,則表示有車(chē)輛通過(guò)并進(jìn)行車(chē)輛計(jì)數(shù).
目前已有一些基于視頻的交通速度檢測(cè)方法[40-44].例如,宋煥生等[40]提出利用幀差法提取灰度圖像序列并選取特征值點(diǎn),通過(guò)特征值點(diǎn)的真實(shí)位置與時(shí)間的關(guān)系,用最小二乘法擬合車(chē)輛速度;張帆[41]運(yùn)用混合高斯模型提取運(yùn)動(dòng)目標(biāo),通過(guò)區(qū)域特征點(diǎn)的方法對(duì)車(chē)輛進(jìn)行跟蹤以獲得運(yùn)動(dòng)軌跡來(lái)實(shí)現(xiàn)速度測(cè)量等.現(xiàn)介紹幾種比較典型的基于視頻的交通速度檢測(cè)方法:基于目標(biāo)跟蹤的交通速度檢測(cè)[42]、基于序列圖像的交通速度檢測(cè)[43]以及基于運(yùn)動(dòng)矢量聚類(lèi)的交通速度檢測(cè)[44].
2.1 基于目標(biāo)跟蹤的交通速度檢測(cè)
基于視頻的交通速度檢測(cè)主要需解決2個(gè)問(wèn)題:一是目標(biāo)車(chē)輛檢測(cè)和跟蹤;二是視頻檢測(cè)器的標(biāo)定.針對(duì)上述問(wèn)題,盧彬等[42]提出了通過(guò)調(diào)用Opencv庫(kù)自帶的運(yùn)動(dòng)目標(biāo)檢測(cè)方法,來(lái)實(shí)現(xiàn)對(duì)目標(biāo)車(chē)輛的檢測(cè)和跟蹤,再依據(jù)公式來(lái)計(jì)算出目標(biāo)的運(yùn)動(dòng)速度,其主要步驟如算法6所示.該方法利用Opencv庫(kù)提供的運(yùn)動(dòng)目標(biāo)跟蹤框架來(lái)實(shí)現(xiàn)行駛車(chē)輛的定位和跟蹤,結(jié)合攝像機(jī)自動(dòng)標(biāo)定結(jié)果獲得車(chē)輛在檢測(cè)的2幀圖像間的行駛距離,從而檢測(cè)出車(chē)輛的行駛速度.速度v的計(jì)算如式(2)所示.
(2)
式中:k為比例系數(shù);l′為車(chē)道線長(zhǎng)度;p表示攝像機(jī)采集幀率;ΔN為幀數(shù)差.
通過(guò)實(shí)驗(yàn)數(shù)據(jù)表明,該方法存在一定的誤差.造成誤差的原因主要有:一是Opencv庫(kù)團(tuán)塊檢測(cè)法需要判斷許多幀才能確定團(tuán)塊;二是由于實(shí)際速度由汽車(chē)經(jīng)過(guò)的測(cè)試距離以及花費(fèi)的時(shí)間所決定,而計(jì)算中所用的幀數(shù)為整數(shù),利用幀數(shù)差求得的通過(guò)測(cè)試距離的時(shí)間有偏差,從而結(jié)果會(huì)有一定的誤差.但該方法比傳統(tǒng)的攝像機(jī)標(biāo)定方法更加靈活,節(jié)省了大量的時(shí)間和計(jì)算量.
算法6 基于目標(biāo)跟蹤的交通速度檢測(cè)算法[42].
步驟1 輸入視頻幀,通過(guò)Opencv自帶的運(yùn)動(dòng)目標(biāo)檢測(cè)處理視頻,利用背景差分法結(jié)合幀差法得到運(yùn)動(dòng)區(qū)域,再經(jīng)過(guò)圖像二值化及形態(tài)學(xué)處理,從而完整地檢測(cè)出運(yùn)動(dòng)目標(biāo).
步驟2 通過(guò)Kalman濾波器預(yù)測(cè)車(chē)輛行駛軌跡在當(dāng)前圖像中的大小和具體位置,完成前后幀的目標(biāo)匹配.
步驟3 完成攝像機(jī)的標(biāo)定,得到圖像坐標(biāo)與車(chē)輛空間坐標(biāo)之間的轉(zhuǎn)換關(guān)系,接著根據(jù)平面坐標(biāo)求得車(chē)輛實(shí)際空間的坐標(biāo),再根據(jù)速度式(2)求得所測(cè)車(chē)輛的速度.
2.2 基于序列圖像的交通速度測(cè)量
視頻圖像法通常將攝像機(jī)安裝在道路中央上方的一定高度,對(duì)來(lái)往的車(chē)輛進(jìn)行直接測(cè)速,這種視頻檢測(cè)的方法只能夠在特定的區(qū)域內(nèi)進(jìn)行測(cè)速,而且檢測(cè)精度受到安裝設(shè)備精度的影響[43].針對(duì)常見(jiàn)車(chē)速測(cè)量方法存在測(cè)速準(zhǔn)確性較低、自主性較差及靈活性不足等問(wèn)題,劉紅亮等[45]建立了車(chē)載自主測(cè)速模型,將車(chē)輛的測(cè)速問(wèn)題轉(zhuǎn)化為序列圖像的匹配問(wèn)題.該方法主要思路為道路表面存在大小不同、形狀各異的顆粒,這些顆粒對(duì)光線的反射能力各有差異,不同強(qiáng)度和角度的反射光經(jīng)過(guò)車(chē)載成像設(shè)備就可以得到路面信息的序列圖像,再借助于圖像匹配技術(shù)便可間接實(shí)現(xiàn)對(duì)車(chē)輛速度的連續(xù)自主測(cè)量[46-47].該方法的基本原理如圖2所示,相鄰幀圖像A′,B′之間擁有共同的地面成像區(qū)域,假定有一點(diǎn)m′處于共同的地面成像區(qū)域內(nèi),通過(guò)對(duì)相鄰2幀圖像A′,B′的序列圖像匹配來(lái)確定點(diǎn)m′的坐標(biāo),從而計(jì)算出點(diǎn)m′的像的運(yùn)動(dòng)速度,再結(jié)合成像設(shè)備透鏡放大倍率求出車(chē)輛的運(yùn)動(dòng)速度.該方法的檢測(cè)精度與GPS(global postioning system)測(cè)速的檢測(cè)精度相近,其測(cè)速誤差基本上控制在±0.5 m/s內(nèi),且速度誤差的均值與方差不大.該方法利用了車(chē)輛運(yùn)行狀態(tài)的連續(xù)性和序列圖像的成像特性,具有測(cè)量精度高、自主性及靈活性好等優(yōu)點(diǎn).該方法的計(jì)算復(fù)雜度低、運(yùn)行效率高,但該方法存在安裝相機(jī)困難,且不適合測(cè)量速度慢的物體等問(wèn)題.
圖2 基于序列圖像的交通速度測(cè)量[45]
2.3 基于運(yùn)動(dòng)矢量聚類(lèi)的交通速度檢測(cè)
與傳統(tǒng)攝像機(jī)相比,無(wú)人機(jī)具有較好的可移動(dòng)性,這使其在交通參數(shù)檢測(cè)中得以運(yùn)用.使用無(wú)人機(jī)可以同時(shí)監(jiān)測(cè)連續(xù)拉伸道路,也可以集中在一個(gè)特定的道路段.無(wú)人機(jī)監(jiān)測(cè)可以快速地為應(yīng)急人員提供有用信息.Ke等[44]提出基于運(yùn)動(dòng)矢量聚類(lèi)的交通速度檢測(cè),該方法主要流程如算法7所示,通過(guò)設(shè)立特征點(diǎn),運(yùn)用光流法追蹤特征點(diǎn)并獲取特征點(diǎn)的運(yùn)動(dòng)矢量,然后對(duì)特征點(diǎn)的運(yùn)動(dòng)矢量聚類(lèi)來(lái)求得交通流的平均速度,而具體某輛車(chē)的速度可以根據(jù)式(3)求得.
(3)
式中:la為標(biāo)記檢測(cè)區(qū)的實(shí)際長(zhǎng)度;lp為標(biāo)記檢測(cè)區(qū)的像素;dp為車(chē)輛行駛的像素距離;f為視頻的幀率;v為車(chē)輛實(shí)際速度.
通過(guò)實(shí)際檢測(cè)數(shù)據(jù)與理論計(jì)算對(duì)比,得到該方法的平均錯(cuò)誤率小于12%,檢測(cè)精度較高.
算法7 基于運(yùn)動(dòng)矢量聚類(lèi)的交通速度檢測(cè)算法[44].
步驟1 選取特征點(diǎn).通過(guò)Shi-Tomasi特征法獲取特征點(diǎn).
步驟2 追蹤特征點(diǎn).運(yùn)用Kanade-Lucas算法獲取特征點(diǎn)運(yùn)動(dòng)到下一幀的運(yùn)動(dòng)矢量.
步驟3 特征點(diǎn)運(yùn)動(dòng)矢量聚類(lèi).使用k-means聚類(lèi)算法對(duì)特征點(diǎn)的運(yùn)動(dòng)矢量進(jìn)行聚類(lèi),求取交通流的平均速度.
步驟4 求取車(chē)輛的實(shí)際速度.利用式(3)求取車(chē)輛的實(shí)際速度.
交通密度是描述交通流特性的重要參數(shù).交通流密度是衡量道路服務(wù)水平的指標(biāo)之一,在研究劃分道路服務(wù)水平、分析交通瓶頸狀況、制定交通管理與控制政策均有重要運(yùn)用[48].交通密度是指在某瞬時(shí)內(nèi),每單位道路長(zhǎng)度上一條車(chē)道或整個(gè)道路上的車(chē)輛數(shù),反映了道路上車(chē)輛的密集程度[49].基于視頻的交通密度參數(shù)檢測(cè)方法較少,Wassantachat等[50]提出利用在線支持向量機(jī)分類(lèi)器結(jié)合背景建模技術(shù)實(shí)現(xiàn)交通密度測(cè)量;Asmaa等[51]提出利用車(chē)輛所占圖像的像素值與整個(gè)圖像的比值代替記錄車(chē)輛數(shù)來(lái)進(jìn)行交通密度測(cè)量等.
樓俊杰等[52]提出基于時(shí)間占有率的交通密度測(cè)量方法.所謂時(shí)間占有率是指在道路觀測(cè)斷面上,車(chē)輛占用的時(shí)間累計(jì)值與測(cè)定時(shí)間的比值,時(shí)間占有率不僅與交通流量有關(guān),還與車(chē)輛的長(zhǎng)短及速度有關(guān)[53].該方法主要是利用時(shí)間占有率與交通密度的關(guān)系來(lái)計(jì)算密度.時(shí)間占有率與交通密度的關(guān)系為w=pt/L.w為交通密度,p為時(shí)間占有率,t為觀測(cè)時(shí)間,L為車(chē)輛長(zhǎng)度與檢測(cè)區(qū)域長(zhǎng)度和.通過(guò)對(duì)多個(gè)車(chē)道的密度測(cè)量后計(jì)算出平均交通密度,其結(jié)果表明,該方法雖然可以檢測(cè)出斷面上的密度,但是,其檢測(cè)的精度不高.該方法的具體步驟如算法8所示.
算法8 基于時(shí)間占有率的交通密度測(cè)量算法[52].
步驟1 讀取視頻圖像,利用背景差分法實(shí)現(xiàn)背景的更新,將圖像進(jìn)行二值化處理,提取出運(yùn)動(dòng)目標(biāo).
步驟2 選擇檢測(cè)區(qū)域,設(shè)置2條比車(chē)身稍長(zhǎng)的檢測(cè)線.當(dāng)車(chē)輛通過(guò)第一條檢測(cè)線時(shí),進(jìn)入檢測(cè)區(qū)域的灰度值會(huì)發(fā)生變化,直到大于閾值時(shí),則判斷有車(chē)輛通過(guò),統(tǒng)計(jì)車(chē)流量.
步驟3 記錄目標(biāo)車(chē)輛通過(guò)2條檢測(cè)線的時(shí)間差,根據(jù)2條檢測(cè)線的像素差以及攝像機(jī)標(biāo)定參數(shù)估算出2條檢測(cè)線的實(shí)際距離,用該距離除以通過(guò)的時(shí)間差來(lái)得到車(chē)輛速度.
步驟4 計(jì)算時(shí)間占有率,根據(jù)時(shí)間占有率與交通密度的關(guān)系來(lái)推導(dǎo)出交通密度.
數(shù)據(jù)資源被認(rèn)為是推動(dòng)社會(huì)向前發(fā)展的重要“能源”.目前交通監(jiān)控?cái)z像頭在道路上的安裝已經(jīng)非常普遍,海量的交通視頻數(shù)據(jù)正在產(chǎn)生.但是,對(duì)于這些視頻數(shù)據(jù)的利用還非常不充分,遠(yuǎn)遠(yuǎn)沒(méi)有發(fā)揮這些視頻數(shù)據(jù)資源的重要價(jià)值.可以預(yù)見(jiàn),將來(lái)對(duì)于交通視頻的研究與分析將會(huì)是一個(gè)十分熱門(mén)的研究領(lǐng)域,如果研究人員能夠直接從視頻數(shù)據(jù)中獲取交通流的流量、密度、速度等信息,這對(duì)于智能交通系統(tǒng)的發(fā)展來(lái)說(shuō),將會(huì)是一個(gè)十分重要的突破,它將解決在目前的交通參數(shù)檢測(cè)方法中還沒(méi)有哪一種方法能夠?qū)崿F(xiàn)一次完成交通流的流量、密度和速度檢測(cè)的難題.由于大量安裝的交通監(jiān)控?cái)z像頭能夠非常便捷地組成攝像頭網(wǎng)絡(luò),這使得通過(guò)同一路段上的攝像頭網(wǎng)絡(luò)所采集到的視頻數(shù)據(jù)檢測(cè)出路段層面的交通密度成為可能,這將進(jìn)一步提升智能交通系統(tǒng)的性能.未來(lái)交通參數(shù)的檢測(cè)方法可以向深度學(xué)習(xí)方向發(fā)展,基于神經(jīng)網(wǎng)絡(luò)技術(shù)可以實(shí)現(xiàn)目標(biāo)特征的檢測(cè),再結(jié)合深度學(xué)習(xí)得到的特征,可以大大提高交通參數(shù)檢測(cè)的精度.另外,遷移學(xué)習(xí)也可運(yùn)用于交通參數(shù)的檢測(cè),遷移學(xué)習(xí)可以從現(xiàn)有的數(shù)據(jù)中遷移知識(shí),用來(lái)幫助將來(lái)的學(xué)習(xí),這樣可以大大提高檢測(cè)效率.總之,未來(lái)的交通參數(shù)檢測(cè)技術(shù)應(yīng)向著智能化、網(wǎng)絡(luò)化、自主學(xué)習(xí)的方向發(fā)展,基于視頻的交通參數(shù)檢測(cè)方法將會(huì)是智能交通系統(tǒng)中更具有潛力的檢測(cè)方法.
[1] 王樹(shù)欣,伍湘彬.地感線圈在交通控制領(lǐng)域中的應(yīng)用[J].電子世界,2005(8):47-48.
[2] 皮曉亮,王正,韓皓,等.基于環(huán)形線圈檢測(cè)器采集信息的交通狀態(tài)分類(lèi)方法應(yīng)用研究[J].公路交通科技,2006,23(4):115-119.[3] CARUSO M J,WITHANAWASAM L S.Vehicle detection and compass applications using AMR magnetic sensors[C]∥Proceedings of the Sensors Expo.Baltimore:Honeywell Inc.Solid State Electronics Center,1999:477-489.
[4] 童亮,李隱,谷云秋,等.基于微型地感線圈檢測(cè)器在交通流量調(diào)查系統(tǒng)中的研究與應(yīng)用[J].公路交通科技(應(yīng)用技術(shù)版),2015(4):271-272.
[5] 馬楓,張慶英.基于以太網(wǎng)的超聲波車(chē)流量自動(dòng)檢測(cè)系統(tǒng)設(shè)計(jì)[J].武漢理工大學(xué)學(xué)報(bào)(交通科學(xué)與工程版),2007,31(1):180-182.
[6] JO Y,JUNG I.Analysis of vehicle detection with WSN-based ultrasonic sensors[J].Sensors,2014,14(8):14050-14069.
[7] 艾紅,孫碩.紅外測(cè)量在車(chē)流量監(jiān)測(cè)中的應(yīng)用[J].紅外技術(shù),2008,30(4):201-204.
[8] IWASAKI Y,MISUMI M,NAKAMIYA T.Robust vehicle detection under various environmental conditions using an infrared thermal camera and its application to road traffic flow monitoring[J].Sensors,2013,13(6):7756-7773.
[9] 計(jì)文平,郭寶龍,丁貴廣.基于虛擬線圈的光流法車(chē)流量檢測(cè)[J].計(jì)算機(jī)仿真,2004,21(1):109-110.
[11] TAN H L,ZHAI Y P,LIU Y,et al.Fast anomaly detection in traffic surveillance video based on robust sparse optical flow[C]∥Proceedings of the 2016 IEEE International Conference on Acoustics,Speech and Signal Processing.Shanghai:IEEE,2016:1976-1980.
[12] DO V D,WOO D M.Multi-resolution estimation of optical flow on vehicle tracking under unpredictable environments[J].Advanced Science and Technology Letters,2016,129:32-36.
[13] 丁簫.基于視頻檢測(cè)技術(shù)的車(chē)流量統(tǒng)計(jì)系統(tǒng)設(shè)計(jì)研究[D].鄭州:鄭州大學(xué),2014.
[14] 郝毫剛.基于五幀差分和背景差分的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)工程,2012,38(4):146-148.
[15] SENGAR S S,MUKHOPADHYAY S.A novel method for moving object detection based on block based frame differencing[C]∥Proceedings of the 2016 3rd International Conference on Recent Advances in Information Technology.Dhanbad,India:IEEE,2016:467-472.
[16] 劉章軍.基于差分圖像的車(chē)流量檢測(cè)算法及實(shí)現(xiàn)[D].成都:西南交通大學(xué),2011.
[17] AL-SMADI M,ABDULRAHIM K,SALAM R A.Cumulative frame differencing for urban vehicle detection[C]∥Proceedings of the SPIE 10011 First International Workshop on Pattern Recognition.Tokyo,Japan:International Society for Optics and Photonics,2016:100110G.
[18] 肖本賢,陸誠(chéng),陳昊,等.基于幀間差分法和不變矩特征的運(yùn)動(dòng)目標(biāo)檢測(cè)與識(shí)別[C]∥第27屆中國(guó)控制會(huì)議論文集.昆明:中國(guó)自動(dòng)化學(xué)會(huì),2008:34-36.
[19] KACHROO P,SHLAYAN N,PAZ A,et al.Model-based methodology for validation of traffic flow detectors by minimizing human bias in video data processing[J].IEEE Transactions on Intelligent Transportation Systems,2015,16(4):1851-1860.
[20] 夏麗.基于視頻檢測(cè)技術(shù)的車(chē)流量統(tǒng)計(jì)算法研究[D].武漢:武漢理工大學(xué),2012.
[21] 郭怡文,袁飛虎.基于背景差分的多車(chē)道車(chē)流量檢測(cè)系統(tǒng)[J].電光與控制,2010,17(9):90-93.
[22] JOUDAKI S,BIN SUNAR M S,KOLIVAND H,et al.Background subtraction methods in video streams:a review[J].Journal of Soft Computing and Decision Support Systems,2016,3(1):53-60.[23] SEENOUVONG N,WATCHAREERUETAI U,NUTHONG C,et al.A computer vision based vehicle detection and counting system[C]∥Proceedings of the 2016 8th International Conference on Knowledge and Smart Technology.Chiangmai,Thailand:IEEE,2016:224-227.
[24] 許倫輝,卜文萍,陳衍平,等.基于幀差法和背景差法融合的車(chē)流量檢測(cè)方法[J].計(jì)算機(jī)仿真,2012,29(2):353-357.
[25] 汪彩霞.視頻交通分析中背景估計(jì)與更新算法研究[D].西安:長(zhǎng)安大學(xué),2010.
[26] 耿秀麗,尤星星,呂文元.基于直覺(jué)模糊C-均值的客戶(hù)聚類(lèi)和識(shí)別方法[J].上海理工大學(xué)學(xué)報(bào),2015,37(1):13-17.
[27] 代建輝.智能交通系統(tǒng)車(chē)輛流量檢測(cè)技術(shù)的研究[D].天津:天津大學(xué),2007.
[28] TIAN B,YAO Q M,GU Y,et al.Video processing techniques for traffic flow monitoring:a survey[C]∥Proceedings of the 2011 14th International IEEE Conference on Intelligent Transportation Systems.Washington,DC,USA:IEEE,2011:1103-1108.
[29] 王小平,張麗杰,常佶.基于單高斯背景模型運(yùn)動(dòng)目標(biāo)檢測(cè)方法的改進(jìn)[J].計(jì)算機(jī)工程與應(yīng)用,2009,45(21):118-120.
[30] 陳銀,任侃,顧國(guó)華,等.基于改進(jìn)的單高斯背景模型運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].中國(guó)激光,2014,41(11):239-247.
[31] 夏海英,何利平,黃思奇.基于時(shí)空分布的混合高斯背景建模改進(jìn)方法[J].計(jì)算機(jī)應(yīng)用研究,2015,32(5):1546-1548.[32] WANG M J,JIN J S,HAN X F,et al.An algorithm of detecting moving foreground based on an improved Gaussian mixture model[C]∥Proceedings of the 11th Chinese Conference on Image and Graphics Technologies.Singapore:Springer,2016:125-136.
[33] ZHANG Y S,ZHAO C H,HE J,et al.Vehicles detection in complex urban traffic scenes using Gaussian mixture model with confidence measurement[J].IET Intelligent Transport Systems,2016,10(6):445-452.
[34] XIA H Y,SONG S X,HE L P.A modified Gaussian mixture background model via spatiotemporal distribution with shadow detection[J].Signal,Image and Video Processing,2016,10(2):343-350.
[35] 田輝.基于視頻的車(chē)流量統(tǒng)計(jì)算法研究[D].大連:大連海事大學(xué),2012.
[36] ZHANG L B,WANG F,HU M,et al.A vehicle counting algorithm using foreground detection in traffic videos[C]∥Proceedings of the 3rd Interna-tional Conference on Multimedia Technology.Paris:Atlantis Press,2013.
[37] 劉騰飛.針對(duì)車(chē)體遮擋的車(chē)流量統(tǒng)計(jì)算法[D].武漢:武漢理工大學(xué),2012.
[38] 何清,陳海進(jìn),施慧華.一種新型多車(chē)道車(chē)流量檢測(cè)算法[J].電視技術(shù),2014,38(19):192-195.
[39] 陳兆學(xué),鄭建立,施鵬飛.基于Mean Shift方法的視頻車(chē)輛檢測(cè)與分割[J].上海理工大學(xué)學(xué)報(bào),2007,29(2):195-199.
[40] 宋煥生,張輝,付洋,等.一種基于視頻的車(chē)輛速度檢測(cè)方法:中國(guó),CN102622895A[P].2012-08-01.
[41] 張帆.基于單目視頻的車(chē)輛對(duì)象提取及速度測(cè)定方法研究[D].昆明:昆明理工大學(xué),2014.
[42] 盧彬,陳域,李冬生,等.基于視頻圖像的車(chē)速檢測(cè)方法[J].電視技術(shù),2014,38(7):199-201.
[43] 金守峰,胡永彪,田明銳,等.基于序列圖像的車(chē)載測(cè)速方法與實(shí)驗(yàn)[J].合肥工業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,36(3):271-274.[44] KE R M,KIM S,LI Z B,et al.Motion-vector clustering for traffic speed detection from UAV video[C]∥Proceedings of the 2015 IEEE First International Smart Cities Conference.Guadalajara,Mexico:IEEE,2015:1-5.
[45] 劉紅亮,陳維義,許中勝.基于序列圖像匹配的車(chē)載自主測(cè)速方法[J].系統(tǒng)工程與電子技術(shù),2015,37(4):964-968.
[46] BOUMEHED M,ALSHAQAQI B,AMRAOUI M.Distance and speed measurement and classification of road traffic[J].International Journal of Applied Engineering Research,2016,11(2):1347-1352.
[47] NAEEM S,SIRAJ S.A framework to select edge detection method using multi-criteria decision making[C]∥Proceedings of the 2013 IEEE International Conference on Systems,Man and Cybernetics.Manchester,United Kingdom:IEEE,2013:730-735.
[48] ARASAN V T,DHIVYA G.混合交通流密度測(cè)定方法研究[J].交通運(yùn)輸系統(tǒng)工程與信息,2010,10(4):50-61.
[49] FU M,XU P,LI X D,et al.Fast crowd density estimation with convolutional neural networks[J].Engineering Applications of Artificial Intelligence,2015,43:81-88.
[50] WASSANTACHAT T,LI Z D,CHEN J,et al.Traffic density estimation with on-line SVM classifier[C]∥Proceedings of the Sixth IEEE International Conference on Advanced Video and Signal Based Surveillance.Washington,DC,USA:IEEE,2009:13-18.
[51] ASMAA O,MOKHTAR K,ABDELAZIZ O.Road traffic density estimation using microscopic and macroscopic parameters[J].Image and Vision Computing,2013,31(11):887-894.
[52] 樓俊杰.基于視頻的交通參數(shù)檢測(cè)與分析[D].大連:大連交通大學(xué),2013.
[53] 敖谷昌,賈元華,張惠玲.基于時(shí)間占有率分析的車(chē)輛折算系數(shù)研究[J].交通運(yùn)輸系統(tǒng)工程與信息,2008,8(3):106-110.
(編輯:石 瑛)
Overview of Video-Based Traffic Parameters Detection
WANG Xiang, XIAO Jianli
(School of Optical-Electrical Information and Computer Engineering,University of Shanghai for Science and Technology,Shanghai 200093,China)
To make the intelligent traffic systems (ITS) work well,it needs to obtain the core traffic parameters,including the flow,speed,density,and so on.There are a lot of methods to detect the core traffic parameters currently.But,none of them can detect all of the core parameters at once.Especially,the density is difficult to be detected.There is only a few methods focusing on detecting the density in a local sense.As for in the global sense,there is not yet any feasible method.The detection methods were summarized from three aspects,such as the flow,density and speed.Those
which suggest that traffic parameters can be easily detected only by the video were studied deeply.
intelligent traffic systems; videos; traffic parameters; detection
1007-6735(2016)05-0479-08
10.13255/j.cnki.jusst.2016.05.011
2016-08-18
國(guó)家自然科學(xué)基金資助項(xiàng)目(61603257,61503250);上海理工大學(xué)國(guó)家級(jí)項(xiàng)目培育基金資助項(xiàng)目(16HJPY-QN03);上海高校青年教師培養(yǎng)資助計(jì)劃(ZZslg15018)
王 翔(1991-),男,碩士研究生.研究方向:智能交通.E-mail:1083703369@qq.com
肖建力(1982-),男,講師.研究方向:智能交通、數(shù)據(jù)挖掘.E-mail:audyxiao@sjtu.edu.cn
TP 391
A
上海理工大學(xué)學(xué)報(bào)2016年5期