姬廣奧 劉志強(qiáng)
摘要:為了提升車道線檢測(cè)的準(zhǔn)確性和實(shí)時(shí)性,改良車道偏離預(yù)警系統(tǒng)的性能,提出了一種新的車道線識(shí)別算法。首先應(yīng)用投影法對(duì)采集到的圖像設(shè)立感興趣區(qū)域,以此來減少圖像中存在的干擾信息;其次應(yīng)用一種改進(jìn)后的自適應(yīng)高斯濾波算法對(duì)采集所得圖像進(jìn)行平滑處理,減少圖像中不必要的細(xì)節(jié);最后采用邊緣繪制算法進(jìn)行邊緣檢測(cè),在此基礎(chǔ)上,提出一種線段檢測(cè)算法——Edline算法提取邊緣線,對(duì)檢測(cè)到的直線段進(jìn)行篩選和聚類。利用引用計(jì)數(shù)法對(duì)車道線進(jìn)行跟蹤和預(yù)測(cè)。結(jié)果表明,新算法的平均處理時(shí)間為17.1 ms,準(zhǔn)確率為96.19%,將其應(yīng)用在車道偏離預(yù)警系統(tǒng)中可以有效地提高預(yù)警效率,提升預(yù)警的準(zhǔn)確性和響應(yīng)速度。研究結(jié)果豐富了車道線識(shí)別理論,可為車道偏離預(yù)警系統(tǒng)的應(yīng)用及基礎(chǔ)研究提供參考。
關(guān)鍵詞:公路標(biāo)志、信號(hào)、監(jiān)控工程;高斯濾波算法;車道線檢測(cè);Edline;車道線跟蹤
中圖分類號(hào):TP3914文獻(xiàn)標(biāo)識(shí)碼:A
doi: 10.7535/hbgykj.2020yx03006
Abstract:
In order to improve the accuracy and realtime of lane detection and the performance of lane departure warning system, a new lane recognition algorithm was proposed in this paper. Firstly, the projection method was used to set up the region of interest for the collected images, so as to reduce the interference information in them. Then an improved adaptive Gauss filtering algorithm was applied to smooth the collected images and reduce unnecessary details. Finally, edge drawing algorithm was used for edge detection. On this basis, a line segment detection algorithm was proposed: Edline, which extracted the edge line, then filtered and clustered the detected line segments. The lane line was tracked and predicted by using the reference counting method. Experimental results show that the accuracy of the new proposed algorithm reaches 96.19% and the average processing time is 17.1 ms. The efficiency, accuracy and speed of lane recognition have been greatly improved by applying this algorithm to lane departure warning system. The research results enrich the theory of lane line recognition, and provide reference for the application and basic research of lane departure warning system.
Keywords:
highway sign, signal and monitoring works; Gaussian filtering algorithm; lane line detection; Edline; lane line tracking
近年來中國機(jī)動(dòng)車交通事故的發(fā)生數(shù)量呈下降趨勢(shì),但是總量還是比較大[1]。造成交通事故的原因有很多,在眾多原因中,由司機(jī)引起的非故意車道偏離排在第4位。因此對(duì)車道偏離預(yù)警系統(tǒng)的研究成為安全輔助駕駛研究的重點(diǎn),其中對(duì)車道線的檢測(cè)以及實(shí)時(shí)跟蹤是車道偏離預(yù)警系統(tǒng)的重點(diǎn)內(nèi)容。
車道線的檢測(cè)是通過采集圖像中車道線的特征,將車道線與背景分離,獲取車道線相對(duì)于車輛的位置等信息。
國內(nèi)外研究人員針對(duì)車道線檢測(cè)方法主要分為基于特征和基于模型的車道線檢測(cè)方法。車道線的顏色特征、幾何特征、邊緣分布特征等是基于特征檢測(cè)車道線的主要依據(jù)。楊智杰[2]提出通過RGB色彩空間中車道線的特征設(shè)計(jì)轉(zhuǎn)移函數(shù),并以此檢測(cè)道路圖像的車道線區(qū)域,提取出車道線的邊緣點(diǎn)檢測(cè)車道線,但當(dāng)車道線附近干擾較多時(shí),容易引起誤檢。通過建立數(shù)學(xué)模型,并對(duì)模型參數(shù)求解來擬合車道線就是基于模型的車道線檢測(cè)方法。其中錢怡[3]提出了基于Hough變換的車道線檢測(cè)方法,但是這種方法在復(fù)雜道路環(huán)境下的檢測(cè)效果較差。
針對(duì)傳統(tǒng)檢測(cè)技術(shù)的局限性,為滿足車道線檢測(cè)的魯棒性和實(shí)時(shí)性,筆者提出一種基于邊緣繪制線(edge drawing lines,Edline)算法[4]的車道線識(shí)別算法。該方法首先對(duì)采集圖像進(jìn)行預(yù)處理,使用邊緣繪制算法進(jìn)行邊緣檢測(cè),在此基礎(chǔ)上應(yīng)用Edline算法進(jìn)行線段檢測(cè),然后運(yùn)用機(jī)器學(xué)習(xí)概念對(duì)檢測(cè)到的直線段進(jìn)行篩選和聚類,得到一條直線段表示為車道線檢測(cè)結(jié)果。
1車道線檢測(cè)與跟蹤的方法架構(gòu)
在圖像采集階段,主要有2種使用攝像機(jī)的方法:單攝像機(jī)方法[56]和多攝像機(jī)方法[7]。在單攝像機(jī)方法中,將一個(gè)攝像機(jī)固定在擋風(fēng)玻璃后面。在多攝像機(jī)方法中,在車輛的前部和后部使用2個(gè)或多個(gè)攝像機(jī),由于它們提供大量的數(shù)據(jù),因此獲得的圖像精度更高。
車道線檢測(cè)過程中,在對(duì)圖像進(jìn)行預(yù)處理階段,需要對(duì)攝像機(jī)采集到的圖像進(jìn)行增強(qiáng)處理。道路環(huán)境充滿了干擾物和細(xì)節(jié),它們被視為系統(tǒng)的噪音。通過應(yīng)用圖像濾波器(例如高斯濾波器和中值濾波器[8]),執(zhí)行圖像平滑來減少不必要的細(xì)節(jié)。圖像可能包含一些與車道線相似的線。因此,使用感興趣區(qū)域(region of interest,ROI)提取來設(shè)定圖像的有效部分。當(dāng)在較小的圖像上完成工作時(shí),應(yīng)用感興趣區(qū)域可以減少計(jì)算時(shí)間。
車道線邊緣檢測(cè)分為邊緣檢測(cè)和線段檢測(cè)。許多圖像處理技術(shù)被用于邊緣檢測(cè)[910],線段檢測(cè)的方法也很多。其中Hough變換可以在一個(gè)步驟中完成這2項(xiàng)工作。在此基礎(chǔ)上使用跟蹤算法來跟蹤從一幀到另一幀的車道線。這種方法依賴于方程形式y(tǒng)=mx+c中的跟蹤線。使用最小二乘法直線擬合來創(chuàng)建直線方程。利用車道線跟蹤算法對(duì)車道線進(jìn)行實(shí)時(shí)跟蹤,并可在一幀或多幀丟失時(shí)提前判斷車道線的位置。
2車道線識(shí)別算法
首先對(duì)ROI進(jìn)行提取,采用改良的高斯濾波算法[11]進(jìn)行圖像平滑,實(shí)現(xiàn)對(duì)圖像的預(yù)處理。使用邊緣繪制算法進(jìn)行邊緣檢測(cè),然后采用一種實(shí)時(shí)的、非常強(qiáng)大的線段檢測(cè)技術(shù)——Edline算法,進(jìn)行車道線邊緣提取。通過運(yùn)用機(jī)器學(xué)習(xí)概念對(duì)檢測(cè)到的線進(jìn)行篩選和聚類,以此得到一條線段表示車道線。在此基礎(chǔ)上,提出了一種改進(jìn)的參考計(jì)數(shù)算法,用于跟蹤連續(xù)幀之間的車道線,實(shí)現(xiàn)對(duì)車道線的跟蹤。其中車道線的識(shí)別流程圖如圖1所示。
2.1圖像預(yù)處理
在檢測(cè)車道線過程中,首先需要對(duì)采集的圖像進(jìn)行預(yù)處理。設(shè)立感興趣區(qū)域,使處理項(xiàng)最小化,從而有效縮短處理時(shí)間,并且盡可能減小圖像中的干擾因素,提高圖像處理的精度。圖像的預(yù)處理分為感興趣區(qū)域提取和圖像平滑過程2個(gè)階段。
2.1.1ROI的提取
ROI的提取是圖像預(yù)處理的主要階段,在采集到的圖像中存在很多干擾信息,會(huì)影響檢測(cè)的準(zhǔn)確率和處理時(shí)間。對(duì)感興趣區(qū)域的劃分可以過濾掉影響后續(xù)階段的外部因素。利用投影法,設(shè)像素點(diǎn)(α,β)的灰度值為F(α,β),在采集圖像中,高為H,寬為W。方程如下所示:
2.1.2圖像平滑過程
圖像平滑過程可以減少圖像不必要的細(xì)節(jié),從而縮短處理時(shí)間。在此階段,應(yīng)用一種改良的高斯濾波算法,在應(yīng)用傳統(tǒng)高斯濾波算法時(shí),需要對(duì)圖像進(jìn)行加權(quán)平均,每個(gè)像素點(diǎn)的值均由其本身和鄰域內(nèi)的其他像素值加權(quán)平均,并進(jìn)行二維高斯濾波函數(shù)離散化[12],高斯核中的權(quán)值系數(shù)即所得到的函數(shù)值。在應(yīng)用二維高斯濾波進(jìn)行圖像平滑處理的過程中,對(duì)標(biāo)準(zhǔn)差的選取是最重要的,高斯濾波器的頻帶寬度與選取的標(biāo)準(zhǔn)差的大小成正比,即標(biāo)準(zhǔn)差越大,平滑程度就越好。改良的高斯濾波器可動(dòng)態(tài)確定具體的標(biāo)準(zhǔn)差,針對(duì)圖像不同位置像素值的方差,確定不同的高斯核,形成一種自適應(yīng)高斯濾波算法[1314],該算法不需要人為設(shè)定標(biāo)準(zhǔn)差,可以有效提高后期車道線圖像處理的精確度。
在此算法中,高斯核中每個(gè)參數(shù)都將作為圖像像素矩陣某一區(qū)域內(nèi)對(duì)應(yīng)位置灰度值的權(quán)重,根據(jù)自身及其周圍灰度值與高斯核中的參數(shù)對(duì)應(yīng)相乘,求和平均后得到中心點(diǎn)灰度值的平滑結(jié)果。高斯核的確定直接受到標(biāo)準(zhǔn)差影響。在圖像中,如果區(qū)域內(nèi)像素點(diǎn)離散程度越小,相對(duì)應(yīng)的像素值方差就越小,標(biāo)準(zhǔn)差就要越大,則平滑程度就越好。
使用上述自適應(yīng)高斯濾波算法平滑后,圖像中的噪聲抑制效果很明顯,如圖3所示,可以有效提高圖像處理的精準(zhǔn)度。
2.2Edline算法檢測(cè)車道線
為了提高車道線檢測(cè)的速度和精度,提出一種新的車道線檢測(cè)算法——Edline算法。與Hough變換檢測(cè)車道線的過程類似,車道線邊緣檢測(cè)階段可分為邊緣檢測(cè)和線段檢測(cè)2個(gè)階段。
2.2.1邊緣檢測(cè)
邊緣檢測(cè)用于檢測(cè)圖像中亮度發(fā)生急劇變化的點(diǎn)[14]。使用基于圖像一階導(dǎo)數(shù)的算法來確定這些點(diǎn)?,F(xiàn)有的邊緣檢測(cè)器有很多,與這些檢測(cè)器相比,邊緣繪制算法[15]是一種新穎的邊緣檢測(cè)算法,它以像素鏈的形式實(shí)時(shí)生成每一條邊緣。
現(xiàn)存的邊緣檢測(cè)器檢測(cè)到的邊緣像素通常是不連續(xù)、不相交的實(shí)體,而邊緣繪制算法生成的邊緣段是連續(xù)的、干凈的邊緣像素鏈。與其他邊緣檢測(cè)器相比,它的運(yùn)行速度也非???。
給定圖像經(jīng)過預(yù)處理得到平滑圖像,然后通過邊緣繪制執(zhí)行邊緣檢測(cè),如以下3步所示。
2.2.2線段檢測(cè)
Edline算法是在邊緣繪制算法的基礎(chǔ)上,提出的一種基于最小二乘法的線段檢測(cè)方法[16]。
Edline算法由3個(gè)步驟組成。
1)給定一個(gè)灰度圖像,運(yùn)行邊緣繪制算法,生成一組干凈、連續(xù)的像素鏈。
2)遍歷邊緣像素鏈,用最小二乘法進(jìn)行擬合,其原則是偏差絕對(duì)值之和最?。?/p>
3)通過添加更多像素來擴(kuò)展該線段,當(dāng)誤差超過某個(gè)閾值時(shí),生成一個(gè)新的線段。然后,該算法遞歸地處理鏈中所剩余的像素,直到所有像素都被處理完成。
2.3線段的篩選和聚類
在所提出的算法中,使用5個(gè)特征(斜率、截距、起點(diǎn)、終點(diǎn)和長度)來定義線段。這種算法只用2條線段來定義車道:左線和右線,是通過篩選后對(duì)線段進(jìn)行聚類完成的。
2.3.1線段的篩選
對(duì)檢測(cè)到的直線段進(jìn)行篩選是為了方便選擇與車道線相關(guān)的線段并將其傳遞到下一階段。將框架左側(cè)的線與右側(cè)的線分開是有用的,如圖4所示。
分離后,使用3個(gè)特征值(斜率、起始點(diǎn)和長度)執(zhí)行選擇過程。要選擇作為車道線的線段特征的范圍,W表示寬度,m和Sx分別是線段起始點(diǎn)的斜率和坐標(biāo)值,通過實(shí)驗(yàn)數(shù)據(jù)可得特征值,如表1所示。
2.3.2線段的聚類
同一方向上2條車道之間的車道邊界是具有一定厚度的虛線,這使得直線檢測(cè)器將其檢測(cè)為2條平行線,如圖5所示。
2.4車道線的實(shí)時(shí)跟蹤
在車道線檢測(cè)的基礎(chǔ)上,提出了一種改進(jìn)的引用計(jì)數(shù)法,用于跟蹤連續(xù)幀之間的車道線,實(shí)現(xiàn)對(duì)車道線的跟蹤。跟蹤主要是為了達(dá)到2個(gè)目的:從檢測(cè)到的直線中選擇與車道線相關(guān)的直線;如果它們沒有被列出,則預(yù)測(cè)車道線的位置。如果不了解前幾幀中車道線的歷史,就無法達(dá)到這2個(gè)目的。存在車道線信息可用和沒有足夠的信息2種情況。當(dāng)系統(tǒng)運(yùn)行時(shí),因?yàn)槟承赡軙?huì)錯(cuò)過車道線,它可能會(huì)從第1種情況跳到第2種情況。因?yàn)橄噜彆r(shí)刻的情況并不會(huì)發(fā)生突變,這一時(shí)刻的輸出與前一時(shí)刻的輸出相對(duì)接近。
在第n幀中,重點(diǎn)是要確定從前一幀中需要什么信息。每一條被檢測(cè)的直線都由其斜率和截距來確定。為每一條線增加額外的參數(shù):數(shù)值、驗(yàn)證標(biāo)志、斜率誤差和截距誤差。這些參數(shù)在每一幀中都會(huì)更新,并從一幀傳遞到下一幀。此外,它們被收集在一個(gè)稱為跟蹤列表的列表中。
從第1種情況開始,在所有關(guān)于前一幀的信息都可用的情況下,將當(dāng)前幀中檢測(cè)到的直線與跟蹤列表中的直線進(jìn)行比較。因此,在檢測(cè)到的直線中尋找與跟蹤線的最佳匹配,有3種情況。
1)跟蹤線有最佳匹配的檢測(cè)線路,參數(shù)將通過被跟蹤的車道線的檢測(cè)值進(jìn)行更新,逐一遞增。
2)跟蹤線在檢測(cè)到的直線中沒有最佳匹配,跟蹤線的參數(shù)保持原樣,但數(shù)值會(huì)減1。
3)被檢測(cè)到的直線與任何跟蹤線都不匹配,該直線被添加到跟蹤列表中,其數(shù)值、驗(yàn)證標(biāo)志值、斜率誤差和截距誤差為0。
驗(yàn)證標(biāo)志被更新,如果數(shù)值大于設(shè)定閾值,則驗(yàn)證值將從0更改為1。這意味著這條線在許多幀中被檢測(cè)到,并且它與車道線相關(guān)的概率很高。在此階段中,數(shù)值小于閾值的跟蹤線會(huì)從跟蹤列表中刪除。
在第2種情況下,如果沒有足夠的關(guān)于前一幀的信息,則跟蹤列表會(huì)被初始化為空,并且所有檢測(cè)到的線都被添加到跟蹤列表中。如果沒有檢測(cè)到線,則繞過跟蹤階段,直到在圖像中檢測(cè)到線為止。
3實(shí)驗(yàn)結(jié)果與分析
筆者通過車載攝像機(jī)獲取車道線圖像,利用Matlab R2014a在CPU為3.7 GHz,RAM為8 GB的Windows系統(tǒng)上進(jìn)行本文相關(guān)算法的實(shí)驗(yàn),最終被識(shí)別的車道線用實(shí)線標(biāo)注。選擇在不同的條件下進(jìn)行測(cè)試以驗(yàn)證車道線檢測(cè)的效果。無干擾的車道線識(shí)別效果如圖6所示。
圖8展示了不理想條件下車道線的提取結(jié)果,在第87幀和第88幀由于右線信息嚴(yán)重缺失,使右線檢測(cè)出現(xiàn)了一定程度的偏差。但在接下來的車道線跟蹤中,很快又得到了準(zhǔn)確的檢測(cè)結(jié)果,說明即使在檢測(cè)過程中場景發(fā)生一定的變化,也會(huì)在短時(shí)間內(nèi)恢復(fù)穩(wěn)定,表明車道線的跟蹤識(shí)別具有很強(qiáng)的魯棒性。
為了對(duì)比新提出的算法與傳統(tǒng)的Hough變換檢測(cè)識(shí)別車道線的效果,在不同的場景下進(jìn)行了實(shí)驗(yàn)并對(duì)2種算法的效果進(jìn)行對(duì)比。如圖9所示,文獻(xiàn)[3]是采用Hough變換得到識(shí)別結(jié)果,車道線被遮擋,導(dǎo)致單邊漏檢(見圖9 a))。如圖9 c)所示,受到欄桿的干擾,導(dǎo)致誤檢。本研究的車道線識(shí)別算法可以很好地克服干擾,將左右車道線準(zhǔn)確地提取出來。
將場景分為良好環(huán)境條件下的無干擾車道線和受到環(huán)境干擾的有干擾車道線,分別選取2 816個(gè)檢測(cè)樣本和1 147個(gè)檢測(cè)樣本,使用本檢測(cè)算法進(jìn)行檢測(cè),表2為所獲取的樣本在實(shí)驗(yàn)中得到的檢測(cè)結(jié)果,由實(shí)驗(yàn)數(shù)據(jù)可得,在不同的條件下車道線的平均檢出率為96.19%,同時(shí),可以得到?jīng)]有被干擾的樣本線的平均處理時(shí)間為16.6 ms,在存在干擾的被檢測(cè)線的平均處理時(shí)間為18.4 ms,所有車道線平均處理時(shí)間為17.1 ms。
與文獻(xiàn)[3]的Hough變換的車道線識(shí)別準(zhǔn)確率進(jìn)行對(duì)比,如表3所示,筆者提出的算法相較于傳統(tǒng)Hough變換在準(zhǔn)確率和檢測(cè)時(shí)間上都有較大的改善。
4結(jié)語
應(yīng)用所提出的車道線識(shí)別新算法在不同復(fù)雜環(huán)境中進(jìn)行實(shí)驗(yàn),并與傳統(tǒng)車道線識(shí)別算法檢測(cè)效果進(jìn)行對(duì)比分析,結(jié)果表明,新算法比傳統(tǒng)算法具有更好的準(zhǔn)確性,魯棒性好,且具有良好的實(shí)時(shí)性。
1)提出的算法可以準(zhǔn)確地識(shí)別陰雨、夜晚等復(fù)雜環(huán)境下的車道線。
2)在車道線缺失的情況下可以準(zhǔn)確跟蹤和預(yù)測(cè)下一幀車道線,提高了車道線識(shí)別的準(zhǔn)確性。
3)該方法的平均檢出率為96.19%,平均處理時(shí)間為17.1 ms,檢測(cè)性能良好。
綜上所述,筆者提出的車道線實(shí)時(shí)識(shí)別算法可應(yīng)用于車道偏離預(yù)警系統(tǒng)中,對(duì)安全輔助駕駛技術(shù)的發(fā)展具有積極意義。對(duì)干擾路段車道線的識(shí)別速度和精度進(jìn)行優(yōu)化是未來的研究方向。
參考文獻(xiàn)/References:
[1]公安部交通管理局.中華人民共和國道路交通事故統(tǒng)計(jì)年報(bào)[R]. 北京:公安部交通管理局,2018.
[2]楊智杰.基于RGB彩色通道的結(jié)構(gòu)化道路車道線檢測(cè)[J].電子科技,2015,28(1):9598.
YANG Zhijie.Lane detection based on RGB channels[J].Eelectronic Science and Technology,2015,28(1):9598.
[3]錢怡.基于 Hough 變換的車道線檢測(cè)[J]. 山東工業(yè)技術(shù),2017(10):272273.
[4]AKINLAR C, TOPAL C. Edlines: Realtime line segment detection by edge drawing (ed)[C]//2011 18th IEEE International Conference on Image Processing. [S.l.]:IEEE, 2011: 28372840.
[5]IRSHAD A, KHAN A, YUNUS I, et al. Realtime lane departure warning system on a lower resource platform[C]//2017 International Conference on Digital Image Computing: Techniques and Applications (DICTA).[S.l.]: IEEE, 2017: 18.
[6]KORTLI Y, MARZOUGUI M, BOUALLEGUE B, et al. A novel illuminationinvariant lane detection system[C]//2017 2nd International Conference on AntiCyber Crimes (ICACC).[S.l.]: IEEE, 2017: 166171.
[7]BORKAR A, HAYES M, SMITH M T. A new multicamera approach for lane departure warning[C]//International Conference on Advanced Concepts for Intelligent Vision Systems. [S.l.]:[s.n.], 2011: 5869.
[8]顧桂梅,冉建民,周詠.基于高斯中值的鋼軌表面缺陷圖像濾波研究[J]. 鐵道科學(xué)與工程學(xué)報(bào),2018,15(8):19431949.
GU Guimei,RAN Jianmin,ZHOU Yong. Image filtering of rail surface defects based on gaussmedian[J]. Journal of Railway Science and Engineering,2018,15(8):19431949.
[9]KODEESWARI M, DANIEL P. Lane line detection in real time based on morphological operations for driver assistance system[C]//2017 4th International Conference on Signal Processing, Computing and Control (ISPCC).[S.l.]: IEEE, 2017: 316320.
[10]CHO N G, YUILLE A, LEE S W. A novel lineletbased representation for line segment detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 40(5): 11951208.
[11]黃玉龍,張勇剛,李寧,等. 一種改進(jìn)的高斯近似濾波方法[J].自動(dòng)化學(xué)報(bào),2016,42(3):385401.
HUANG Yulong,ZHANG Yonggang,LI Ning,et al. An improved Gaussian approximation filtering method[J]. Acta Automatica Sinica,2016,42(3):385401.
[12]戴嘉程,曾文涵,楊文軍,等.高階高斯濾波和Radon變換結(jié)合的缸體特征提取[J].西安交通大學(xué)學(xué)報(bào),2019,53(4):18.
DAI Jiacheng,ZENG Wenhan,YANG Wenjun,et al. Cylinder surface feature extraction combining highorder Gaussian filter with Radon transform[J]. Journal of Xian Jiaotong University,2019,53(4):18.
[13]邵黨國,鄧陽陽,相艷,等. 基于自適應(yīng)高斯濾波的超聲斑點(diǎn)降噪[J]. 數(shù)據(jù)采集與處理,2017,32(4):746753.
SHAO Dangguo,DENG Yangyang,XIANG Yan,et al. Speckle reduction based on adaptive Gauss filtering[J]. Journal of Data Acquisition and Processing,2017,32(4):746753.
[14]BEHRENS T, SCHMIDT K, MACMILLAN R A, et al. Multiscale contextual spatial modelling with the Gaussian scale space[J]. Geoderma, 2018, 310: 128137.
[15]TOPAL C,AKINLAR C,GENC Y. Edge drawing: A heuristic approach to robust realtime edge detection[C]// 2010 20th International Conference on Pattern Recognition.[S.l.]:[s.n.], 2010:24242427.
[16]AKINLAR C, TOPAL C. EDLines: A realtime line segment detector with a false detection control[J]. Pattern Recognition Letters, 2011, 32(13): 16331642.