申小虎,安居白
(1. 大連海事大學(xué)信息科學(xué)與技術(shù)學(xué)院,遼寧 大連 116026;2. 江蘇警官學(xué)院刑事科學(xué)技術(shù)系,江蘇 南京 210031)
雙黃線等交通標(biāo)線定位與重建在交通違章行為的智能判定、統(tǒng)計(jì)車道線污損率等研究領(lǐng)域具有基礎(chǔ)性研究價(jià)值。但由于受到建設(shè)條件的限制,交通監(jiān)控視頻中車道線目標(biāo)容易受到污損、遮擋、惡劣天氣等復(fù)雜監(jiān)控場景的影響,現(xiàn)有檢出與分割方法容易產(chǎn)生較大概率的漏檢與錯(cuò)檢,魯棒性不強(qiáng)。
在交通監(jiān)控視頻中的車道線分類檢出領(lǐng)域,學(xué)者錢將傳統(tǒng)圖像增強(qiáng)算法與深度網(wǎng)絡(luò)模型訓(xùn)練相結(jié)合,端到端的解決復(fù)雜道路場景下的車道線目標(biāo)檢出問題[1]。龐等人則提出一種語義分割神經(jīng)網(wǎng)絡(luò),通過逐層融合車道線邊緣特征同時(shí)建立跨層的語義連接實(shí)現(xiàn)了車道線的準(zhǔn)確分類[2]。目前基于深度學(xué)習(xí)方法下提取的高維特征在目標(biāo)檢測分類上具有良好的性能,但在目標(biāo)精確分割問題上主流算法仍是依賴于低層統(tǒng)計(jì)特征。學(xué)者徐等人通過變形Sobel算子擴(kuò)充雙黃線區(qū)域紋理得到雙黃線區(qū)域位置,進(jìn)而使用Hough直線變換方法對雙黃線進(jìn)行分割[3]。熊等人提出了一種基于彩色檢測線的線間差分與灰度幀差統(tǒng)計(jì)法相結(jié)合的改進(jìn)混合型方法,減少陰影對雙黃線檢測精度的影響[4]。上述方法在目標(biāo)定位均取得了不錯(cuò)的效果,但在目標(biāo)邊緣分割抗噪性較差。同時(shí),基于紋理特征提取和基于詞袋(BOW)模型的對象分類分別在海冰分割、輸電線檢測、地形測繪等領(lǐng)域下的目標(biāo)分割與分類領(lǐng)域取得過良好的結(jié)果[5-11],為解決本文問題提供了豐富的思路。
基于上述討論,本文使用一種由粗至精的策略,依次利用了運(yùn)動(dòng)關(guān)系特征、局部特征、顏色紋理特征和形狀特征來提升監(jiān)控視頻目標(biāo)分割重建的魯棒性。首先,利用基于混合高斯模型的方法去除運(yùn)動(dòng)目標(biāo)干擾,得到輸入視頻的靜態(tài)背景圖像。其次,為去除背景圖像中的環(huán)境噪聲干擾,采用詞袋BOW模型提取雙黃線目標(biāo)Sift特征,并使用多核支持向量機(jī)(SVM)分類器[5]進(jìn)行監(jiān)督學(xué)習(xí)得到僅包含雙黃線目標(biāo)與周邊路面的感興趣區(qū)域。接著,使用基于顏色紋理特征聚類的方法對感興趣區(qū)域圖像中的雙黃線目標(biāo)進(jìn)行分割,并通過形態(tài)學(xué)處理消除磨損式雙黃線的影響。最后,采用基于最小二乘法的曲線擬合方法對雙黃線的截?cái)嗖糠诌M(jìn)行定位重建。本文使用Python進(jìn)行了仿真實(shí)現(xiàn),并對現(xiàn)有方法進(jìn)行了實(shí)現(xiàn)并比較。實(shí)驗(yàn)結(jié)果表明,該方法能夠在殘缺雙黃線條件下有效完成定位與重建,提升了目標(biāo)分割精度與魯棒性。
在智能交通場景中,由于背景像素點(diǎn)具有多峰特性,為解決光線變化、視頻畫面抖動(dòng)帶來的干擾,常常利用混合高斯模型進(jìn)行背景建模。由于任何分布函數(shù)均可由多個(gè)高斯分布函數(shù)的線性的加權(quán)組合進(jìn)行描述,假定視頻幀中坐標(biāo)為(x,y)的像素點(diǎn)p在t時(shí)刻的像素值為Mt,并用k個(gè)高斯分布的加權(quán)混合來描述像素值隨時(shí)間變化的隨機(jī)過程,則其概率分布可表示如下
(1)
其中wt,i為t時(shí)刻混合高斯模型第i個(gè)高斯分布的權(quán)重,η為高斯分布的概率密度函數(shù),具體公式如下
(2)
上述公式中的μ為各彩色通道分量組成的矢量,c為各顏色分量的協(xié)方差矩陣,可具體表示為
(3)
其中E為單位矩陣。與Mt相匹配的高斯分布的各參數(shù)更新過程為
μt,i=(1-ρ)·μt,i+ρ·Mt
(4)
(5)
(6)
其中ρ為參數(shù)更新速率,λ為高斯分布權(quán)值的更新速率,取值范圍均為[0,1]。
Bow模型最初應(yīng)用于大規(guī)模文檔集的文本統(tǒng)計(jì)建模,后延伸至圖像目標(biāo)分類研究領(lǐng)域[9]。Bow模型在圖像分類中,將目標(biāo)圖像分成若干區(qū)域塊,并將它們量化為離散的“視覺單詞”,得到圖像中所有待識(shí)別目標(biāo)的特征向量直方圖后進(jìn)行分類,具體步驟如下:
1)圖像塊的檢測與描述
通常使用SIFT、SUFR等算法提取訓(xùn)練樣本圖像塊中的特征向量,得到具有光照不變性的高魯棒性圖像特征。
2)詞典構(gòu)建
采用非監(jiān)督學(xué)習(xí)的K均值算法構(gòu)建詞典。該方法首先隨機(jī)初始化K個(gè)聚類中心,并計(jì)算各特征點(diǎn)到K個(gè)聚類的歐式距離最小值
(7)
根據(jù)距離計(jì)算結(jié)果將特征點(diǎn)Xi賦與聚類Yk。針對生成的各個(gè)聚類,重新計(jì)算聚類中心。迭代重復(fù)上述操作,直至算法收斂。
3)計(jì)算圖像特征直方圖
將圖像的特征點(diǎn)聚類到生成的聚類中心(詞典),同時(shí)統(tǒng)計(jì)落入每個(gè)詞典中的特征點(diǎn)的個(gè)數(shù),特征匹配上采用快速滑動(dòng)窗口策略,窗口滑過目標(biāo)區(qū)域的同時(shí),提取該目標(biāo)區(qū)域的特征描述符并依次與Bow模型中的視覺單詞進(jìn)行匹配,統(tǒng)計(jì)詞表中每個(gè)單詞在滑動(dòng)窗口區(qū)域圖像中出現(xiàn)的次數(shù),得到詞頻直方圖,即圖像特征直方圖。同時(shí)構(gòu)造視覺單詞到圖像的索引,根據(jù)索引結(jié)果進(jìn)行直方圖匹配得到圖像的分類。
基于灰度級(jí)的圖像分割方法僅適用于灰度圖像,但面對信息更豐富的彩色圖像,可分別處理不同的彩色圖像通道,然后通過各種策略獲得分割結(jié)果。圖像紋理反應(yīng)了圖像灰度在空間維度上的變化關(guān)系,因此在圖像處理領(lǐng)域,顏色共生矩陣往往被用于提取彩色圖像的局部紋理特征信息[15]。
顏色共生矩陣通過計(jì)算水平、垂直、雙方向?qū)蔷€上的像素對出現(xiàn)的聯(lián)合概率密度來定義一個(gè)二階統(tǒng)計(jì)特征,反映了圖像顏色、亮度與相同顏色亮度的像素間的分布特性,即計(jì)算不同獨(dú)立顏色分量的聯(lián)合概率密度的共生矩陣,類似于顏色直方圖特征。顏色共生矩陣可由各顏色空間下的不同分量組成,假定同一顏色空間下的任意兩個(gè)顏色分量為α、β,顏色共生矩陣需對像素顏色分量α中分量值為i,同時(shí)像素顏色分量β中分量值為j的像素點(diǎn)進(jìn)行計(jì)算,具體公式如下
(8)
其中Δx和Δy分別表示像素原點(diǎn)在橫坐標(biāo)和縱坐標(biāo)上的增量。得到顏色紋理特征后,需要對各特征矩陣進(jìn)行統(tǒng)計(jì)。典型常用的四個(gè)不具備相關(guān)性的特征統(tǒng)計(jì)值分別為逆差矩(I)、對比度(C)、能量(S) 和熵(E)[13],其實(shí)現(xiàn)算法如下
(9)
(10)
(11)
(12)
其中p(i,j)代表相同顏色空間下像素對出現(xiàn)的聯(lián)合概率密度,D為各顏色分量的量化級(jí)數(shù),μ和σ分別表示均值和方差。
本文設(shè)計(jì)使用的雙黃線目標(biāo)定位重建算法(MG-BCF)流程如圖1所示,該方法主要分為視頻處理與圖像處理兩個(gè)部分。其中視頻處理部分主要提取視頻場景背景圖像,圖像處理部分則依次執(zhí)行提取ROI區(qū)域、雙黃線分割、目標(biāo)重建三個(gè)步驟。其中在感興趣區(qū)域提取步驟,需對雙黃線樣本進(jìn)行有監(jiān)督的學(xué)習(xí)訓(xùn)練建模。
圖1 本文提出的雙黃線定位與重建方法(MG-BCF)
設(shè)計(jì)使用基于混合高斯模型的平均背景法從動(dòng)態(tài)視頻中提取靜態(tài)背景去除運(yùn)動(dòng)前景目標(biāo),減少背景圖像中干擾因素,有效提升雙黃線等靜態(tài)目標(biāo)的檢測精度。視頻中各視頻幀圖像的每個(gè)像素點(diǎn)的值隨時(shí)間呈現(xiàn)高斯分布,即像素值均圍繞某一中心值(均值)并在一定距離(方差)內(nèi)分布。同時(shí)為應(yīng)對視頻畫面抖動(dòng)、光照短時(shí)間內(nèi)緩慢變化等問題,通常選擇使用混合高斯模型來解決背景像素點(diǎn)的多峰特性問題,主要步驟:
1)取輸入視頻的第一幀圖像的各像素點(diǎn)灰度值設(shè)定為均值的初始值,同時(shí)設(shè)定方差初始值為15,高斯分量個(gè)數(shù)初始值為1,權(quán)重為0.001;
2)將當(dāng)前圖像幀像素點(diǎn)p在t時(shí)刻的像素值Mt與已有的高斯分量依次進(jìn)行匹配
|Mt-μt,i|<2.5σt,i
(13)
如滿足上述匹配條件,參照式(4)-(6)根據(jù)當(dāng)前像素值不斷迭代更新調(diào)整第i個(gè)高斯模型的參數(shù)和權(quán)重。如果不滿足,則進(jìn)入步驟3);
3)建立新的高斯分量模型,并初始化參數(shù)。同時(shí)判斷當(dāng)前高斯分量個(gè)數(shù)是否達(dá)到高斯分量個(gè)數(shù)上限,如果i=k,刪除最小權(quán)值w所對應(yīng)的高斯分量模型;
4)通過判斷各高斯分量的權(quán)值與閾值T得到t時(shí)刻的背景圖像Bt,閾值T設(shè)定為0.75
(14)
5)得到不同時(shí)刻的多個(gè)背景模型后,求多幀背景圖像平均得到最終的視頻背景靜態(tài)圖像。
B=Avg(Bt)
(15)
圖2 從監(jiān)控視頻中提取到的靜態(tài)背景圖像
通過視頻的背景圖像提取,時(shí)序視頻幀計(jì)算問題轉(zhuǎn)變?yōu)殪o態(tài)圖像處理的問題。針對監(jiān)控視頻背景圖像,本文設(shè)計(jì)使用基于Sift特征的Bow詞袋模型對背景圖像的ROI區(qū)域進(jìn)行檢索,即對雙黃線目標(biāo)位置進(jìn)行粗略估計(jì)。由于BOW模型主要基于目標(biāo)的局部特征進(jìn)行檢索分類,而不考慮局部特征間的空間關(guān)系,因此對各類污損條件下不完整車道線圖像漏檢率較低,并且可消除雙黃線目標(biāo)周圍的圖像噪聲。
在目標(biāo)檢索問題上傳統(tǒng)SIFT特征優(yōu)于Dense-SIFT特征的表現(xiàn),因此利用Opencv提取標(biāo)準(zhǔn)Sift特征生成局部特征描述子并利用K均值算法進(jìn)行聚類,迭代計(jì)算得到聚類中心個(gè)數(shù)(詞典中的視覺單詞個(gè)數(shù))為5。作為SVM分類器輸入,所有詞頻直方圖均通過min-max方法進(jìn)行了歸一化處理。同時(shí)ROI區(qū)域匹配上采用滑動(dòng)窗口操作,以1920×1080分辨率的圖片條件下,采用240×120的區(qū)域滑動(dòng)窗口,窗口依照從上至下,從左至右的方向依次滑過背景圖像。對于每一個(gè)滑動(dòng)區(qū)域,使用訓(xùn)練好的SVM進(jìn)行分類;如匹配成功則該窗口區(qū)域定義為ROI區(qū)域。圖3顯示了某候選區(qū)域的匹配過程與最終得到的感興趣ROI區(qū)域。
圖3 從背景圖像中提取感興趣雙黃線區(qū)域
將線性不可分的數(shù)據(jù)映射到高維特征空間并可分時(shí),SVM核函數(shù)的選擇決定了系統(tǒng)的分類精度。作為主流核函數(shù),多項(xiàng)式核函數(shù)和高斯RBF核函數(shù)間存在互補(bǔ)特性,實(shí)驗(yàn)證明,通過將泛化能力較強(qiáng)的多項(xiàng)式核函數(shù)與學(xué)習(xí)能力較強(qiáng)的高斯核函數(shù)結(jié)合起來,得到的混合高斯函數(shù)兼?zhèn)淞己玫耐馔颇芰蛢?nèi)推能力[5]。如式(16)所示,在SVM核函數(shù)的選擇上,本文使用了由多項(xiàng)式核函數(shù)、高斯核函數(shù)組合構(gòu)建混合核函數(shù)用于解決非線性劃分和二維模式分類問題。
Kcom=αKp+(1-α)Kr
(16)
其中Kp、Kr分別表示多項(xiàng)式核函數(shù)和高斯RBF核函數(shù),表示多項(xiàng)式核函數(shù)的權(quán)重系數(shù)。利用交叉驗(yàn)證方法進(jìn)行權(quán)值優(yōu)化,得到=0.89時(shí),驗(yàn)證精度最高。ROI區(qū)域提取結(jié)束后,去除了圖像中例如周邊建筑、路燈等非路面目標(biāo),得到了主要由雙黃線目標(biāo)與路面背景組成的區(qū)域圖像,為下一步進(jìn)行目標(biāo)分割減少了干擾因素。
雙黃線等交通標(biāo)線由于受到對受光照不均勻、污損、積水反光等情況的影響,背景圖像中的雙黃線目標(biāo)可能會(huì)具有不同的顏色信息,同時(shí)還造成二值化圖像中車道線邊緣極不規(guī)則,因此傳統(tǒng)的Candy檢測與Hough變換方法在直線檢出上精確度不高,本文設(shè)計(jì)使用顏色共生矩陣(CCM)提取雙黃線目標(biāo)特征,并進(jìn)行邊緣分割。計(jì)算顏色共生矩陣時(shí),本文將圖像空間顏色分量的量化級(jí)數(shù)定義為16,得到16×16的共生矩陣。為增加紋理特征的光照不變性,未采用亮度顏色分量,同時(shí)考慮到RGB顏色空間下三種顏色分量存在線性相關(guān),本文最終選用RGB空間的R、G,Lab空間的a *、b *與HSI空間的H和S共9個(gè)顏色分量作為顏色聚類空間的組成,定義為[Frr,F(xiàn)rg,F(xiàn)gg,F(xiàn)aa,F(xiàn)ab,F(xiàn)bb,F(xiàn)hh,F(xiàn)hs,F(xiàn)ss]。圖4展示了雙黃線目標(biāo)圖片的各顏色分量。
圖4 雙黃線目標(biāo)圖片各顏色分量
通過對雙黃線圖像樣本的分析,提取ROI區(qū)域內(nèi)有效區(qū)分雙黃線和路面背景的顏色特征。在中心像素的0°、45°、90°與135°四個(gè)方向上分別計(jì)算CCM可得到各顏色分量直方圖,進(jìn)一步根據(jù)式(9)-(12)計(jì)算4個(gè)特征統(tǒng)計(jì)值[14],最終得到36維的特征向量。最后再根據(jù)K均值非監(jiān)督聚類算法,通過計(jì)算不同區(qū)域(點(diǎn))的CCM特征矩陣之間的歐式距離進(jìn)行圖像區(qū)域的分割。
針對分割后圖像中仍存在噪點(diǎn)且部分雙黃線目標(biāo)像素分布較離散的問題,可利用形態(tài)學(xué)處理中的開操作消除分散的路面噪點(diǎn),閉操作來將某些區(qū)域連接在一起擴(kuò)大顏色聯(lián)通區(qū)域集面積,避免因雙黃線磨損所導(dǎo)致的紋理特征不清晰造成目標(biāo)丟失的情況。使用的形態(tài)圖像處理依次進(jìn)行1次開操作與2次閉操作的方式,采用橢圓核結(jié)構(gòu)元素,核大小定義為6×6。雙黃線目標(biāo)的最終分割效果如圖5所示。
圖5 雙黃線部分污損區(qū)域分割的細(xì)節(jié)效果
經(jīng)過顏色紋理特征聚類與形態(tài)學(xué)處理后,雖然能夠消除雙黃線磨損部位對于目標(biāo)分割帶來的影響,但是雙黃線截?cái)嗍讲课灰廊淮嬖?,因此需要根?jù)已有的雙黃線封閉區(qū)域進(jìn)行重建。雙黃線幾何形狀在大多數(shù)條件下為直線,也會(huì)存在彎曲雙黃線的情形,因此本文采用基于最小二乘法的曲線擬合對截?cái)嗖课贿M(jìn)行回歸計(jì)算。設(shè)分割后各連通區(qū)域的質(zhì)心集合為T,離散的質(zhì)心點(diǎn)個(gè)數(shù)為N
T={(xi,f′i)}i∈(1,N)
(17)
擬合多項(xiàng)式函數(shù)與誤差函數(shù)分別為
(18)
(19)
代碼實(shí)現(xiàn)上使用Numpy庫的polyfit函數(shù),同時(shí)為防止高階多項(xiàng)式出現(xiàn)曲線擬合問題,根據(jù)所得到的雙黃線樣本的幾何形態(tài),多項(xiàng)式階數(shù)m設(shè)定為3,質(zhì)點(diǎn)的個(gè)數(shù)不小于4,得到的曲線方程為
y=ax3+bx2+cx+d
(20)
其中a、b、c、d為求得三次多項(xiàng)式函數(shù)的參數(shù)實(shí)數(shù),當(dāng)雙黃線圖像為直線時(shí),a=b=0。根據(jù)前圖例中所得到的擬合曲線如圖6所示。
圖6 計(jì)算得到的三次多項(xiàng)式擬合曲線例
接著通過Hough直線檢測[17]得到雙黃線的邊緣基點(diǎn),根據(jù)基點(diǎn)可將擬合曲線平移投影到雙黃線的邊緣,即
y=a(x±Δx)3+b(x±Δx)2+c(x±Δx)+(d±Δy)
(21)
其中Δx,Δy分別是雙黃線各邊緣與擬合曲線間的偏移橫坐標(biāo)與縱坐標(biāo)。重建后的雙黃線圖像如圖7所示。
圖7 雙黃線重建效果
本文實(shí)驗(yàn)所用雙黃線圖像來源于宿遷市公安局視頻專網(wǎng)與北京多維視通公司提供的交通監(jiān)控視頻數(shù)據(jù),數(shù)據(jù)集對象均為CCD攝像機(jī)采錄的高清視頻,分辨率為1980×1020像素。
使用自定義的數(shù)據(jù)集中的視頻進(jìn)行測試,圖8中分別為殘缺彎曲雙黃線與殘缺直線雙黃線條件下的定位重建結(jié)果。這部分實(shí)驗(yàn)驗(yàn)證表明,本文的算法可針對視頻集中存在遮擋、陰影、磨損等條件下的雙黃線進(jìn)行有效的定位重建,取得了較好的視覺效果。
圖8 雙黃線重建效果
基于BOW模型的ROI區(qū)域檢出是本文所提出的雙黃線定位重建的第一步,特別是當(dāng)雙黃線區(qū)域缺損區(qū)域較多時(shí),其作用非常關(guān)鍵。而感興趣ROI區(qū)域提取的一個(gè)重要參數(shù)是BOW模型中視覺單詞個(gè)數(shù)。視覺單詞數(shù)量決定著目標(biāo)識(shí)別的精確度,而感興趣區(qū)域提取的結(jié)果則直接影響下一步紋理特征提取范圍。本文針對視覺單詞數(shù)量為2~8的條件下,評(píng)估其性能,如圖9所示。
圖9 算法準(zhǔn)確率與計(jì)算時(shí)間的交叉驗(yàn)證
可以看出,召回率和精確度與視覺單詞數(shù)個(gè)數(shù)均呈現(xiàn)正相關(guān)關(guān)系。同時(shí)使用本文所提算法依次測試其性能和計(jì)算時(shí)間。圖9同時(shí)也表明,計(jì)算時(shí)間會(huì)隨著視覺單詞數(shù)量的增加而迅速增加。因此,基于權(quán)衡考慮算法精度與計(jì)算成本的前提下,根據(jù)上述交叉驗(yàn)證方法最終確定視覺單詞的數(shù)量為5。
為驗(yàn)證本文所提出雙黃線定位與重建方法的有效性,將部分視頻中的清晰完整的雙黃線作為基準(zhǔn)模板,并對其進(jìn)行了遮擋或軟件處理模擬殘缺雙黃線用于實(shí)驗(yàn)測試,同時(shí)利用現(xiàn)有數(shù)據(jù)集對重建效果的與精度值(Precision) 與召回率(Recall)進(jìn)行了評(píng)估
Precision=T P/(T P+F P)
(22)
Recall=T P/(T P+F N)
(23)
其中TP為重建后坐標(biāo)預(yù)測正確的像素點(diǎn)數(shù),TP+FP為重建雙黃線范圍內(nèi)的像素點(diǎn)總數(shù),而TP+FN為實(shí)際雙黃線范圍內(nèi)的像素點(diǎn)總數(shù)。
實(shí)驗(yàn)中將本文所提出的算法(MG-BCF)與基于變形Sobel算子擴(kuò)充區(qū)域與霍夫直線變換方法(SO-HLT)[3]、基于線間差分與灰度幀差的統(tǒng)計(jì)算法(LD-GFD)[4]進(jìn)行了比較分析。上述所有算法均使用相同實(shí)驗(yàn)視頻,視頻根據(jù)不同的監(jiān)控點(diǎn)位與雙黃線的幾何形狀進(jìn)行分組,從視頻數(shù)據(jù)集中得到存在缺損的直線雙黃線與彎曲雙黃線的實(shí)驗(yàn)視頻各10組。最終的實(shí)驗(yàn)結(jié)果如圖10所示。
圖10 三種算法的性能比較
圖10表明,本文所提出的算法的分割性能與其它兩種算法相比較,召回率與精度值都有一定程度的提升。其中,針對常見的直線雙黃線,三種算法的精度值均取得了不錯(cuò)實(shí)驗(yàn)結(jié)果。但SO-HLT算法在彎曲雙黃線的實(shí)驗(yàn)中召回率與精度值都較低,這是由于其在算法設(shè)計(jì)中未考慮雙黃線的彎曲形狀所導(dǎo)致。同時(shí)由于LD-GFD算法針對缺損目標(biāo)檢出的魯棒性較低,導(dǎo)致部分缺損區(qū)域未被正確重建,因此雖精度值尚可但召回率不佳。除此之外,通過對召回率與精度值在90%以下的部分實(shí)驗(yàn)組的數(shù)據(jù)集進(jìn)行分析后發(fā)現(xiàn),這是由于監(jiān)控視頻建設(shè)安裝過程中水平俯視角度過大,造成了視頻中的遠(yuǎn)景重建目標(biāo)存在一定的幾何變形。針對這種情況,可通過透視變換原理[15]將原視頻背景圖像進(jìn)行校正,將原圖像坐標(biāo)映射至俯視圖坐標(biāo),進(jìn)一步提升雙黃線重建的精確度。
本文針對視頻監(jiān)控中存在缺損的雙黃線目標(biāo)提出了一種強(qiáng)魯棒性定位與重建方法。該方法采用一種由粗至精的分割策略,依次去除運(yùn)動(dòng)目標(biāo)信息、周邊環(huán)境信息的干擾,通過顏色紋理特征進(jìn)行精確分割后對破損區(qū)域進(jìn)行了擬合重建。
實(shí)驗(yàn)結(jié)果表明,該方法在直線、彎曲雙黃線條件下的正確檢出率分別達(dá)到了94.7%與93.1%,定位重建性能良好,準(zhǔn)確率優(yōu)于現(xiàn)有方法。該方法適用于各種復(fù)雜場景下雙黃線目標(biāo)定位與重建,在交通違章行為檢測、事故定責(zé)等領(lǐng)域具有一定的實(shí)用推廣價(jià)值。