谷燕如,黃忠朝
(中南大學(xué)基礎(chǔ)醫(yī)學(xué)院,湖南 長沙 410083)
當(dāng)今發(fā)生的眾多交通事故中,無意識的車道偏離是危及人身安全的主要原因。在駕駛員對周圍車輛不注意或者昏昏欲睡的一瞬間,就可能發(fā)生一次致命的碰撞。為了減少交通事故的發(fā)生和提高安全性,對駕駛員輔助系統(tǒng)(Driver Assistant System,DAS)的研究已經(jīng)在全球范圍內(nèi)進(jìn)行了很多年。
DAS是在駕駛過程中為駕駛員提供幫助或輔助的系統(tǒng),這些系統(tǒng)通過從車輛周圍的傳感器中獲取輸入來計(jì)算某種形式的反饋,然后用于輔助駕駛員。自適應(yīng)巡航控制(Adaptive Cruise Control,ACC)、盲點(diǎn)監(jiān)測(Blind Spot Monitoring,BSM)、車道偏離預(yù)警(蘊(yùn)ane Departure Warning,蘊(yùn)DW)等都是駕駛員輔助系統(tǒng)的示例。
蘊(yùn)DW連續(xù)監(jiān)測車輛在兩側(cè)車道標(biāo)記上的位置,如果車輛與標(biāo)記之間小于一定距離,會(huì)向司機(jī)發(fā)送通知并且采取糾正措施。使用車道檢測和偏離預(yù)警,可以減少因駕駛員注意力不集中、分心和疲勞導(dǎo)致的意外車道偏離,AURORA,AutoVue和A蘊(yùn)VINN都是這一系統(tǒng)的應(yīng)用實(shí)例。
車道檢測系統(tǒng)由不同的模塊組成,如捕獲車道標(biāo)線的視頻或圖片、車道建模、特征提取、車道檢測、車道跟蹤和車道偏離預(yù)警系統(tǒng)等。車道建模用來獲取車道線的數(shù)學(xué)描述,在特征提取步驟中識別特定的車道特征如邊緣、紋理或者顏色等,車道檢測是通過擬合提取出的特征和車道模型來進(jìn)行的,最后使用車道跟蹤模塊跟蹤車道的變更。由于車道檢測及偏離預(yù)警系統(tǒng)運(yùn)行環(huán)境的靈活性,在實(shí)施這一系統(tǒng)時(shí),需要考慮不同的復(fù)雜條件,如道路類型、天氣和駕駛場景等。系統(tǒng)的總體框圖如圖1所示。
圖1 車道檢測和偏離預(yù)警系統(tǒng)框圖
由于車道檢測和偏離預(yù)警系統(tǒng)工作運(yùn)行時(shí)環(huán)境條件的多變,車道檢測成為一項(xiàng)具有挑戰(zhàn)性的任務(wù)。因此在使用該系統(tǒng)時(shí),需要考慮道路類型、路面、環(huán)境因素等不同的情況。
(1)道路類型。車道標(biāo)記之間明顯的不同。車道標(biāo)記可以是明顯的實(shí)線、虛線或分短線、物理障礙物等,也可能什么都沒有。不同于高速路,城市道路的車道標(biāo)記沒有明確的定義,背景中的基礎(chǔ)設(shè)施(如建筑物)或交通參與者都可能使得標(biāo)記不連續(xù)。
(2)路面。結(jié)構(gòu)化道路上涂有車道線,而非結(jié)構(gòu)道路上可能是不清晰的或者對比度很低,這樣會(huì)導(dǎo)致路面外觀更加的惡化。另外,變化的天氣條件、不同的照明情況使得這一問題更加復(fù)雜。
(3)陰影。在照明條件變化的情況下車道檢測很有挑戰(zhàn)性,當(dāng)?shù)缆吠瑫r(shí)有陰影區(qū)域和非陰影區(qū)域時(shí),這一任務(wù)變得更加復(fù)雜。樹、建筑或路面上其他車輛都有可能造成假的道路邊緣。
(4)照明變化。產(chǎn)生的原因有兩個(gè),一是自然光隨時(shí)間和天氣變化;二是人造光由于路燈和車輛的前后燈造成的變化。
(5)夜晚場景。在夜晚,由于可見度降低,車道檢測變得更加艱難。由于沒有陽光,駕駛員需要打開前燈或借助街燈來照亮車前方的道路,利用尾燈來提醒后面車輛的駕駛員。因此,這些燈光造成的噪聲邊緣可能會(huì)使系統(tǒng)在提取車道標(biāo)記時(shí)遇到難題。
預(yù)處理是車道檢測和偏離預(yù)警系統(tǒng)的重要組成部分,有助于減少計(jì)算時(shí)間,提高算法的效果。也可以用于去除因相機(jī)不穩(wěn)定運(yùn)動(dòng)產(chǎn)生的傳感器噪聲和誤差。系統(tǒng)的輸入是相機(jī)獲取的基于RGB的彩色圖像序列,相機(jī)沿車輛中心線安裝在車內(nèi)前方,在不影響司機(jī)視線的前提下獲取前方道路的信息。
要進(jìn)行平滑操作,可以使用均值、中值或高斯濾波器。為了去除噪聲并保留細(xì)節(jié),Xu和蘊(yùn)i使用中值濾波器對圖像進(jìn)行濾波,然后用圖像直方圖對灰度圖像進(jìn)行增強(qiáng)。為了適應(yīng)不同的光照條件,在預(yù)處理階段進(jìn)行自適應(yīng)閾值處理。通過Otsu算法進(jìn)行自適應(yīng)閾值,然后進(jìn)行形態(tài)學(xué)方法去除因二進(jìn)制轉(zhuǎn)換得到的圖像中的斑點(diǎn),如侵蝕、擴(kuò)張等。
引入分段線性拉伸函數(shù)來提高在環(huán)境較暗時(shí)車道圖像的對比度,這一函數(shù)對不同的車道顏色都有很好的魯棒性,有助于在各種照明條件下提高車道檢測的準(zhǔn)確性。在Ostu閾值前使用FIR濾波器有助于消除噪聲以及不均勻的背景照明等因素帶來的影響。然后進(jìn)行形態(tài)學(xué)處理確定相關(guān)的對象,并且為了消除路面污漬,移除了較小的區(qū)域,從而獲得精確的邊界。為了克服亮度變化對車道檢測的影響,采用自聚類算法和模糊c均值算法,根據(jù)道路的亮度分布,這些算法會(huì)計(jì)算出兩個(gè)分布值來區(qū)分明暗分量。
在車道檢測過程中,大部分算法只考慮灰度分量。像素的顏色最初是在RGB色彩空間表示的,RGB值可以轉(zhuǎn)換到Y(jié)CbCr色彩空間。原因在于人的視覺系統(tǒng)對顏色不太敏感,而彩色圖像中最重要的視覺信息保留在圖像的Y分量中,因此只在Y分量上進(jìn)行車道檢測程序,對于色度分量(Cb和Cr),由于人的視覺系統(tǒng)對其不敏感而被丟棄。這可以節(jié)省數(shù)據(jù)存儲(chǔ)空間以及縮短計(jì)算時(shí)間。轉(zhuǎn)化的形式可以描述為:
在這一等式中,顏色的權(quán)重是不一樣的,這會(huì)導(dǎo)致在色彩轉(zhuǎn)換為灰度時(shí)信息的丟失,因此為了提高車道標(biāo)記亮度值的質(zhì)量,灰度轉(zhuǎn)換過程改寫為:
為了減少冗余的圖片數(shù)據(jù)量,輸入圖像應(yīng)該設(shè)定在感興趣區(qū)域上,可以提高系統(tǒng)的速度和準(zhǔn)確率。速度的提高是通過減小待處理圖片大小來實(shí)現(xiàn)的,而通過選取感興趣區(qū)域可以去除與車道標(biāo)記相似的特征從而提高準(zhǔn)確率。當(dāng)車輛向前行駛時(shí),車道線總是在車輛前方,因此在圖像底部選取感興趣區(qū)域比較合適。Dong等人在駕駛場景底部選取圖像四分之一作為感興趣區(qū)域。車引擎蓋和擋風(fēng)玻璃上的刮水器都有可能產(chǎn)生假的邊緣而影響車道檢測的性能,所以這部分需要忽略掉。蘊(yùn)in等人使用常規(guī)和自適應(yīng)ROI初始化,如果可以在上一幀檢測到車道標(biāo)記,則使用自適應(yīng)方法,否則就用常規(guī)方法,即選取圖像底部作為感興趣區(qū)域。
為了節(jié)約處理時(shí)間,Hsiao等人用消失點(diǎn)來確定ROI。當(dāng)相機(jī)安裝在測試車上時(shí),其光軸與車身中心線重合,滾動(dòng)角和傾斜角均為0,道路圖像的消失點(diǎn)出現(xiàn)在垂直方向的中心,于是處理區(qū)域就需要限定在消失點(diǎn)以下的部位,因?yàn)榈缆穲D像中可見的車道一般都位于這一區(qū)域。
當(dāng)幀率相對較高時(shí),車道線在視頻連續(xù)幀中的出現(xiàn)的位置相似。令l表示車道線的長,f表示幀率,ν代表車輛行駛速度,則包含相同車道線的幀數(shù)n可以表示為
同樣的,車輛在連續(xù)兩幀之間的橫向運(yùn)動(dòng)非常小,因此車道位置在這些幀之間也只有很小的差異。這一先驗(yàn)知識可以用來預(yù)測下一幀的車道位置,從而邊緣檢測算法只需要考慮圖像中一小部分區(qū)域,這進(jìn)一步減少了計(jì)算負(fù)擔(dān)。
大部分情況下,輸入圖像的上部都是天空,大部分的車道信息都位于圖像底部,因此總是建議在圖像底部選擇感興趣區(qū)域。
在車道檢測和偏離預(yù)警系統(tǒng)中,車道模型起到十分重要的作用。車道建模用于獲取道路車道標(biāo)記的數(shù)學(xué)描述。到目前為止各種基于視覺的車道檢測技術(shù)提出了不同的車道模型。為了模擬道路,有些算法使用直線,而其他算法使用更復(fù)雜的模型,如拋物線、雙曲線、B樣條曲線和回旋曲線等。
在線性模型中,假設(shè)車道時(shí)直的,即假定檢測范圍內(nèi)的車道標(biāo)記為直線。盡管線性模型很簡單,但是因?yàn)橹辉谡障鄼C(jī)系統(tǒng)有限的檢測范圍內(nèi)可行而限制了它的應(yīng)用。在車道偏離預(yù)警系統(tǒng)中,要求在幾秒前計(jì)算出車輛的軌跡,而對高速公路而言,需要對30~40m或者更長的距離進(jìn)行精確的車道建模,以便捕捉1s的車道跨越邊界的時(shí)間(time to lane crossing,T蘊(yùn)C)。所以在這種情況下,復(fù)雜的車道模型效果會(huì)更好,如基于拋物線或基于樣條的車道模型。
從簡單的直線模型到復(fù)雜的樣條模型,車道標(biāo)記的數(shù)學(xué)描述是通過這些不同的車道模型實(shí)現(xiàn)的。簡單的模型不能十分準(zhǔn)確的表示車道的形狀,而復(fù)雜的模型會(huì)產(chǎn)生較高的計(jì)算成本,同時(shí)會(huì)增加誤檢發(fā)生的可能性。
在智能汽車應(yīng)用系統(tǒng)中,車道檢測是計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn)。車道檢測在車道偏離預(yù)警系統(tǒng)中起著重要的作用。它可以檢測復(fù)雜環(huán)境下的車道標(biāo)記,并可靠地用其估計(jì)車輛相對于車道的位置和軌跡。車道檢測任務(wù)分為以下兩個(gè)步驟:邊緣檢測和車道檢測。
根據(jù)表4及圖1,高風(fēng)險(xiǎn)性(Ⅲ級)區(qū)主要涉及中山區(qū)(2-1、2-2、2-3單元)、低山區(qū)(3-2、3-3單元)、深切丘陵區(qū)(4-1單元)、淺切丘陵區(qū)(6-1單元)等7個(gè)地貌單元;低風(fēng)險(xiǎn)性(Ⅰ級)區(qū)涉及河谷區(qū)(7-1、7-2、7-3、8-1單元)等4個(gè)地貌單元;其余23個(gè)地貌單元均為中風(fēng)險(xiǎn)性(Ⅱ級)。
邊緣檢測方法用來提取每個(gè)閾值特征的邊緣,根據(jù)路面和車道線之間的鮮明對比來定義車道邊界。由于車道邊界以邊緣為特征,所以邊緣檢測是車道檢測中的重要步驟。通過過濾無用的信息并保留重要的結(jié)構(gòu)特性,這一步驟可以顯著減少數(shù)據(jù)量。邊緣檢測后的結(jié)果圖像可以作為閾值圖像的輪廓。為了有效地檢測邊緣,應(yīng)遵循以下標(biāo)準(zhǔn)。
(1)低錯(cuò)誤率:通過檢測圖像中的所有邊緣來實(shí)現(xiàn)低錯(cuò)誤率,同時(shí)不應(yīng)該對非邊緣做出響應(yīng)。
(2)應(yīng)該很好的定位邊緣點(diǎn),即檢測器檢測到的實(shí)際邊緣和邊緣像素之間的距離應(yīng)該是最小的。
(3)對于單邊緣點(diǎn),應(yīng)該只做出一個(gè)響應(yīng)。
以下是邊緣檢測中的主要步驟:①首先對圖像進(jìn)行平滑處理來降低噪音;于邊緣點(diǎn)的檢測。對圖像進(jìn)行局部運(yùn)算,提取所有可能是邊緣點(diǎn)的點(diǎn);③邊緣定位。在上述獲得的候選邊緣點(diǎn)中,通過這一步選擇真正代表車道邊緣的點(diǎn)。有很多種方法可以進(jìn)行邊緣檢測,如Sobel,Canny,轉(zhuǎn)向?yàn)V波器,二維FIR濾波器等。
車道檢測是一個(gè)重要的步驟,將特征提取階段與跟蹤階段聯(lián)系在一起。在車道檢測中,根據(jù)所提取的特征對實(shí)際車道位置進(jìn)行預(yù)測。當(dāng)獲得邊緣圖像后,可以最終確定屬于車道標(biāo)記的邊界。在進(jìn)行車道檢測時(shí),會(huì)做出一些假設(shè),如:①繪制車道標(biāo)記時(shí)比其他部分的顏色更亮;于沿著車道時(shí)標(biāo)記變化的方向小而平滑;③車道標(biāo)記中心的左右兩側(cè)是平行的。
車道檢測有兩種常用方法,一是基于特征的方法,二是基于模型的方法。通過提取道路圖像中的低級特征來定位其中的車道是基于特征的方法常見的應(yīng)用。如J.Niu等人的研究,他們在車道檢測過程中的特征提取有兩步,先是利用改進(jìn)的Hough變換提取小段的車道輪廓,然后使用DBSCAN聚類算法進(jìn)行聚類。
基于模型的方法則通過使用幾何元素,如拋物線、雙曲線、直線等描述車道,由于其簡單性而被廣泛使用。如Jung等人利用車道寬度的時(shí)間一致性和Hough變換來檢測表示車道邊界的兩條平行直線,然后利用加權(quán)最小二乘法將檢測到的車道點(diǎn)擬合成立方體模型。
車道標(biāo)記的檢測不僅是車道偏離預(yù)警系統(tǒng)的必須要完成的任務(wù),也是其他駕駛員輔助系統(tǒng)的重要功能,如基于視覺的前車碰撞和駕駛員行為檢測、前車檢測等。從各項(xiàng)車道檢測技術(shù)的研究中發(fā)現(xiàn),即使霍夫變換存在一些缺點(diǎn),很多研究人員還是用來檢測車道標(biāo)記。其他方法如扇形掃描、共軛高斯模型等,在對抗陰影、車道標(biāo)記遮擋、其他道路標(biāo)記時(shí)。也可以提供穩(wěn)定的車道檢測功能。
使用車道跟蹤技術(shù)來對下一圖像中的車道位置進(jìn)行預(yù)估,使車道偏離檢測系統(tǒng)可以對車輛相對于公路的位置進(jìn)行估測并對車輛的位置信息進(jìn)行更新。由于幀序列之間的時(shí)空連續(xù)性,故連續(xù)的兩幀之間位置不會(huì)有過大偏差。而上一幀獲取的車道位置信息則可以對下一幀的車道進(jìn)行預(yù)測。在進(jìn)行車道跟蹤的過程中,以往的道路幾何知識對新圖像中車道邊界的位置和方向提出了較強(qiáng)的限制??柭鼮V波器,擴(kuò)展卡爾曼濾波器,粒子濾波器,退火粒子濾波器和超粒子濾波器都在車道跟蹤中有較好的應(yīng)用效果。
使用卡爾曼濾波器對目標(biāo)進(jìn)行跟蹤并預(yù)測其特征位置,算法含有兩步:第一步為對系統(tǒng)的狀態(tài)進(jìn)行預(yù)估,而第二步則是通過噪聲測量來精確系統(tǒng)的預(yù)估。由于其具有簡單,易處理和穩(wěn)健性等特點(diǎn),卡爾曼濾波廣泛被應(yīng)用于車道跟蹤分析中——但只能應(yīng)用于線性系統(tǒng)。針對這一缺點(diǎn),擴(kuò)展卡爾曼濾波器通過使用簡單的線性化非線性模型對其進(jìn)行規(guī)避。
使用粒子濾波法對車道進(jìn)行跟蹤具有處理非高斯不確定性和多重假設(shè)的能力。H.Zhao等人使用退火粒子濾波器進(jìn)行車道跟蹤,通過邊緣圖的角度信息來確定粒子權(quán)重。與傳統(tǒng)粒子濾波器相比,在退火粒子濾波器中每幀的計(jì)算時(shí)間都有顯著的縮短。
通過基于可塑模板方法的圖像形狀似然(likelihood of image shape,蘊(yùn)OIS)來對車道進(jìn)行逐幀跟蹤。在跟蹤過程中,上一幀獲取的車道位置信息用來對下一幀的車道進(jìn)行預(yù)測。蘊(yùn)OIS會(huì)輸出包括當(dāng)前車道曲率、方向和偏移量的數(shù)據(jù),這些結(jié)果與卡爾曼濾波器得到的結(jié)果一起用于預(yù)測車輛相對車道的位置。Wang等人對與重采樣粒子濾波器和高斯粒子濾波器的性能進(jìn)行了比較?;谒迫缓瘮?shù)的高斯和粒子濾波器法包含特征圖譜,可以更好地進(jìn)行車道跟蹤。
圖2 車道檢測與跟蹤
Hou等人使用卡爾曼和粒子濾波器進(jìn)行道路跟蹤。蘊(yùn)ee等人用反向透視映射(Inverse Perspective Mapping,IPM)構(gòu)建鳥瞰圖圖像,用閾值來對直線(即車道標(biāo)記)進(jìn)行檢測,用隨機(jī)抽樣一致線性擬合技術(shù)估計(jì)模型的參數(shù)。最終跟蹤階段包含卡爾曼濾波器完成,如圖2所示。Feng等人提出了軌跡規(guī)劃多項(xiàng)式算法用于自動(dòng)車道變換。蘊(yùn)otfy等人提出的車道偏離預(yù)警跟蹤系統(tǒng)則沒有使用卡爾曼濾波器,而是利用IPM構(gòu)建鳥瞰圖,然后使用簡化的霍夫變換來獲取車道邊界。
大多數(shù)跟蹤算法都需借助多種卡爾曼濾波器和粒子濾波器。與卡爾曼濾波器相比,粒子濾波器和其衍生出的其他方法都要求有較高的計(jì)算能力;但在并行計(jì)算系統(tǒng)下它的應(yīng)用效率更高。
車道偏離預(yù)警系統(tǒng)會(huì)不斷對車輛與其任一側(cè)車道標(biāo)記的相對位置進(jìn)行監(jiān)控,并在車輛開始發(fā)生偏移時(shí)警告駕駛員。車道偏離這種危險(xiǎn)情況由以下兩種情況引起:①當(dāng)車輛過于靠近車道邊界時(shí);于車輛的偏離速度過高,即車輛靠近車道邊界的速度過快。
由車道檢測模塊得出的結(jié)果會(huì)被決策模塊用來確定車輛相對于最近車道的位置。決策模塊的原理是用車輛兩側(cè)的車道標(biāo)記來計(jì)算車道中心的位置,當(dāng)車輛開始偏離中心線,就觸發(fā)警報(bào)。為提高車道偏離報(bào)警系統(tǒng)的效率,決策模塊也可采用其他來源的數(shù)據(jù)。例如,通過定向指示設(shè)備的顯示,模塊可以判定車道改變是有意的還是無意的。
在蘊(yùn)ee等人的研究中,車道偏離是基于邊緣分布函數(shù)的對稱軸和局部最大值來進(jìn)行識別的。當(dāng)車輛偏離行駛車道中心時(shí),軸的位置就會(huì)發(fā)生變化。盡管基于的車道偏離識別會(huì)對系統(tǒng)性能有所裨益,但該算法高度依賴于對車道標(biāo)識的識別,且可能在帶有虛線車道標(biāo)記的彎道處產(chǎn)生錯(cuò)誤。因此,為了提高系統(tǒng)的穩(wěn)健性,蘊(yùn)ee和Yi提出了基于邊緣分布函數(shù)的車道偏離識別方法的修正版。新算法中增加了與車道相關(guān)的參數(shù)(如視野中車道邊界的方向和位置),并引入偏離率來確定偏離發(fā)生的時(shí)刻。蘊(yùn)ee和同事考慮了θl和θr以及距離ρl和ρr來定義左右車道邊界。當(dāng)照相機(jī)光軸與車道中心重合時(shí),其值為如果車輛偏離車道中心的值則會(huì)從1偏離。當(dāng)車輛靠近左邊界時(shí),和ρl減少,而θr和ρr增加。當(dāng)車輛接近右邊界時(shí),θr和ρr減小,而ρl和θl增加。使用回歸分析根據(jù)回歸系數(shù)和平方和來判斷車輛是否有偏離車道的可能性。通過融合回歸系數(shù)和殘差平方和以及偏離率,可以使偽邊緣檢測最小化以及確定車道偏離的起點(diǎn)和終點(diǎn)。
Hsiao等人用時(shí)空機(jī)制來識別車道偏離。算法中定義了矩形的臨界框架,超出就會(huì)報(bào)警。駕駛員根據(jù)從左右車道標(biāo)記到警示框的底部的截距dM和dS獲得警報(bào)。如果dM或dS大于影像寬度的四分之一就會(huì)觸發(fā)警報(bào)。當(dāng)車輛靠近車道邊界時(shí),空間機(jī)制就會(huì)發(fā)揮作用。當(dāng)車輛靠近車道邊界的速度過快,時(shí)間警報(bào)機(jī)制會(huì)在空間警告之前觸發(fā)緊急警報(bào)。
文章介紹了各種基于視覺的車道檢測和偏離預(yù)警系統(tǒng)的系統(tǒng),一般來說都包含有車道建模、特征提取、車道檢測與跟蹤和偏離預(yù)警模塊??梢杂^察到,在駕駛員輔助系統(tǒng)中,如偏離預(yù)警、變道輔助、避碰等,車道檢測都起著至關(guān)重要的作用。由于車道標(biāo)記的特征被設(shè)定為邊緣的形式,所以通常應(yīng)用基于特征的車道檢測。在大多數(shù)系統(tǒng)中,檢測車道標(biāo)記時(shí)廣泛使用霍夫變換,這需要大量的計(jì)算時(shí)間。
通過至今為止的文獻(xiàn)調(diào)查,不同的研究團(tuán)隊(duì)提出的不同技術(shù)在檢測率、準(zhǔn)確率和最小誤報(bào)率方面都取得了較好的效果,但是今后車道檢測和偏離預(yù)警系統(tǒng)的研究范圍內(nèi)仍需要達(dá)到以下要求:①系統(tǒng)要有較好的穩(wěn)健性,就是說在所有復(fù)雜條件下都可以準(zhǔn)確地檢測到車道;于車道檢測的方法速度要快,以滿足實(shí)時(shí)監(jiān)測的要求;③系統(tǒng)在車速較快的情況下檢測車道偏離時(shí)誤報(bào)率要降到最低。
[1] M.Chen,T.Jochem,D.Pomerleau,Aurora:A vision based roadway departure warning system[C].in:Proc.IEEE RSJ International Conf.on Intelligent Robots and Systems 95,no.03,1998.
[2] D.Obradovi,Konjovi Z,Pap E,et al.蘊(yùn)inear fuzzy space based road lane model and detection [J].Knowledge-Based Systems,2013,38:37-47.
[3] J.Son,H.Yoo,S.Kim,K.Sohn,Real-time illumination invariant lane detection for lane departure warning system [J].Expert Syst,2015,(4).
[4] Melo J,Naftel A,Bernardino A,et al.Detection and classification of highway lanes using vehicle motion trajectories[J].IEEE Transactions on Intelligent Transportation Systems,2006,7(2):188-200.
[5] 蘊(yùn)an M,Rofouei M,Soatto S,et al.Smart蘊(yùn)DWS:A robust and scalable lane departure warning system for the smartphones[C].International IEEE Conference on Intelligent Transportation Systems.IEEE,2009.
[6] Xu H,蘊(yùn)i H.Study on a Robust Approach of蘊(yùn)ane departure Warning Algrithm[C].20102nd international conference on signal processing system,2010.
[7] Gaikwad V,蘊(yùn)okhande S.蘊(yùn)ane Departure Identification for Advanced Driver Assistance[J].IEEE Transactions on Intelligent Transportation Systems,2015,16(2).
[8] Mu C,Ma X.蘊(yùn)ane Detection Based on Object Segmentation and Piecewise Fitting [J].Telkomnika Indonesian Journal of Electrical Engineering,2014,12(5).
[9] Wang X,Wang Y,Wen C.Robust lane detection based on gradientpairs constraint[J].2011,(3):3181-3185.
[10] Wang J G,蘊(yùn)in C J,Chen S M.Applying fuzzy method to vision-based lane detection and departure warning system[J].Expert Systems with Applications,2010,37(1):113-126.
[11] Wu P C,Chang C Y,蘊(yùn)in C H.蘊(yùn)ane-mark extraction for automobiles under complex conditions [J].Pattern Recognition,2014,47(8):2756-2767.
[12] Dong Y,Xiong J,蘊(yùn)i 蘊(yùn),et al.Robust lane detection and tracking for lane departure warning[C].//International Conference on Computational Problem-Solving.IEEE,2012.
[13] Hsiao P Y,Yeh C W,Huang S S,et al.A Portable Vision-Based Real-Time 蘊(yùn)ane Departure Warning System:Day and Night[J].IEEE Transactions on Vehicular Technology,2009,58(4).
[14] Mccall J C,Trivedi M M.Video-based lane estimation and tracking for driver assistance:survey,system,and evaluation[J].IEEE Transactions on Intelligent Transportation Systems,2006,7(1):20-37.
[15] H.Guan,W.Xingang ,W.Wenqi ,Z.Han,W.Yuanyuan,Real-time lane-vehicle detection and tracking system [C].in:Chinese Control and Decision Conference(CCDC),2016.
[16] H.Aung ,M.H.Zaw,Video based lane departure warning system using hough transform[C].in:International Conf.on Advances in Engineering and Technology(ICAET),Singapore,2010.
[17] J.Niu,J.蘊(yùn)u ,M.Xu ,P.蘊(yùn)v,X.Zhao ,Robust lane detection using two-stage feature extraction with curve fitting [J].Pattern Recognit,2016,(59):225-233.
[18] S.Jung,J.Youn,S.Sull,Efficient lane detection based on spatiotemporal im-ages[J].IEEE Trans.Intell.Transp.Syst,2016,17(1):289-295.
[19] Oussalah M,Zaatri A,Brussel H V.Kalman Filter Approach for蘊(yùn)ane Extraction and Following[J].Journal of Intelligent&Robotic Systems,2002,34(2):195-218.
[20] S.Srivastava,M.蘊(yùn)umb,R.Singal,Improved lane detection using hybrid median filter and modified hough transform[J].Int.J.Adv.Res.Comput.Sci.Softw.Eng,2014,4(1):30-37.
[21] Zhao K,Meuter M,Nunn C,et al.A novel multi-lane detection and tracking system[C].Intelligent Vehicles Symposium.IEEE,2012.
[22] H.蘊(yùn)i,F(xiàn).Nashashibi,Robust real time lane detection based on lane mark seg-ment features and general a priori knowledge[C].in:IEEE International Conf.on Robotics and Biomimetics,Phuket,Thailand,2011.
[23] Zhao H,Teng Z,Kim H H,et al.Annealed Particle Filter Algorithm Used for蘊(yùn)ane Detection and Tracking[J].2013,(1):31-35.
[24] Shin B S,Tao J,Klette R.A superparticle filter for lane detection[J].Pattern Recognition,,2015,48(11):3333-3345.
[25] 蘊(yùn)ee Y,Kim H.Real-time lane detection and departure warning system on embedded platform [C].IEEE,International Conference on Consumer Electronics-Berlin.IEEE,2016:1-4.
[26] Kreucher C,蘊(yùn)akshmanan S,Kluge K.A Driver Warning System Based onthe蘊(yùn)OIS蘊(yùn)aneDetectionAlgorithm[C],1998.
[27] Wang Y,Dahnoun N,Achim A.A novel system for robust lane detection and tracking[J].Signal Processing,2012,92(2):319-334.
[28] Hou C,Hou J,Yu C.An efficient lane markings detection and tracking method based on vanishing point constraints[C].Control Conference.IEEE,2016.
[29] F.You,R.Zhang ,G.蘊(yùn)ie,H.Wang,H.Wen,J.Xu,Trajectory planning and track-ing control for autonomous lane change maneuver based on the cooperative vehicle infrastructure system[J].Expert Syst,2015,42(14).
[30] O.G.蘊(yùn)otfy ,A.A.Kassem,E.M.Nassief,H.A.Ali,M.R.Ayoub,M.A.El-Moursy,M.M.Farag,蘊(yùn)ane departure warning tracking system based on score mechanism[C].in:IEEE 59th International Midwest Symposium on Circuits and Systems(MWSCAS),2016.
[31] 蘊(yùn)ee J W.A Machine Vision System for蘊(yùn)ane-Departure Detection[J].Computer Vision&Image Understanding,2002,86(1):52-78.
[32] 蘊(yùn)ee J W,Yi U K.A lane-departure identification based on 蘊(yùn)BPE,Hough transform,and linear regression[J].Computer Vision and Image Understanding,2005,99(3):359-383.