摘" 要: 車道線檢測是自動駕駛和高級駕駛輔助系統(tǒng)中的關(guān)鍵技術(shù)之一,對于車輛準(zhǔn)確定位和識別道路信息非常重要。為了提高檢測精度和效率,提出一種基于行列錨點融合的車道線檢測方法。首先,使用主干網(wǎng)絡(luò)ResNet18提取車道線特征錨點,將提取出來的特征錨點進(jìn)行解耦分類處理;然后對其特征錨點分別在行方向和列方向加入水平注意力機制和垂直注意力機制,進(jìn)行通道維度信息和空間維度信息的特征融合,以解決全局關(guān)注計算成本高、局部關(guān)注限制交互領(lǐng)域的問題,與此同時,車道線檢測無視覺問題也得到了極大的改善。在CULane和Tusimple數(shù)據(jù)集上進(jìn)行了廣泛的實驗和測試,結(jié)果表明,所提方法在檢測精度和效率方面表現(xiàn)出綜合優(yōu)勢,取得了良好的檢測效果。
關(guān)鍵詞: 車道線檢測; 行列錨點融合; 自動駕駛; ResNet18網(wǎng)絡(luò); 特征提取; 解耦
中圖分類號: TN911.73?34" " " " " " " " " " " " " 文獻(xiàn)標(biāo)識碼: A" " " " " " " " " " "文章編號: 1004?373X(2024)22?0165?08
Method of lane line detection based on row and column anchor point fusion
Abstract: Lane detection is one of the key technologies in autonomous driving and advanced driver assistance systems, which is very important for vehicle accurate positioning and road information recognition. In order to improve the detection accuracy and efficiency, a lane detection method based on row and column anchor point fusion is proposed. The backbone network ResNet18 is used to extract the feature anchor points of the lane lines, and the extracted feature anchors are decoupled and classified. The horizontal attention mechanism and vertical attention mechanism are added to the feature anchor points in the row direction and column direction, respectively, and the feature fusion of channel dimension information and spatial dimension information is carried out to solve the problem of high computation cost of global attention and limited interaction field of local attention. At the same time, the non?visual problem of lane detection has also been improved greatly. A large number of experiments are conducted on the CULane dataset and Tusimple dataset, and the results show that the proposed method has comprehensive advantages in detection accuracy and efficiency, and has achieved good detection effect.
Keywords: lane line detection; row and column anchor point fusion; autonomous driving; ResNet18 network; feature extraction; decoupling
0" 引" 言
隨著自動駕駛技術(shù)的發(fā)展,車道線檢測變得尤為重要。在自動駕駛和高級駕駛輔助系統(tǒng)中,車道線檢測是至關(guān)重要的技術(shù)之一,換言之,它是確保車輛行駛安全和穩(wěn)定的不可或缺的要素。車道線檢測技術(shù)為車輛提供了在道路上行駛時的定位和導(dǎo)航信息,幫助自動駕駛車輛準(zhǔn)確識別道路上的車道線,以確定車輛在道路上的位置和方向,避免偏離道路,從而提高行駛的安全性。
目前,國內(nèi)外的大多數(shù)研究方法可分為基于傳統(tǒng)圖像處理的車道線檢測算法和基于深度學(xué)習(xí)處理的車道線檢測算法兩種。其中,傳統(tǒng)方法[1?2]通過邊緣檢測濾波[3?5]等方式分割出車道線區(qū)域,結(jié)合霍夫變換[6?7]、改進(jìn)隨機抽樣一致性(RANSAC)算法[8]等進(jìn)行車道線檢測。這類算法需要人工手動調(diào)整濾波算子和參數(shù)曲線,以適應(yīng)特定的街道場景。這種方式工作量大且魯棒性較差,當(dāng)駕駛環(huán)境發(fā)生顯著變化時,車道線檢測效果不佳,適用場景受到限制。近年來,隨著卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,基于深度學(xué)習(xí)處理的方法[9?11]已成為主流?;谏疃葘W(xué)習(xí)處理的方法主要分為基于分割的方法[12?14]、基于檢測的方法[15?17]、基于多項式的方法[18?19]等?;诜指畹姆椒ㄊ菍④嚨谰€檢測理解為圖像分割的任務(wù),對圖像中的每個像素分配正負(fù)樣本像素,正像素為車道線所在位置的點,負(fù)像素為車道線上其他點的位置?;跈z測的方法是通過尋找車道線在圖像中某些行或列的位置的集合,即基于行或列方向上的位置選擇、分類,基于行或列的選擇可以降低計算成本,應(yīng)對嚴(yán)重遮擋和極端光照等具有挑戰(zhàn)性的場景?;诙囗検降姆椒ㄍǔP枰獑l(fā)式方法來解碼預(yù)測或制定大量錨點,從而使用多項式的方式擬合車道線。基于分割的方法精度高但速度慢,基于檢測的方法速度快但精度低,基于多項式的方法在精度和速度方面都落后于基于分割和基于檢測的方法。
為解決上述問題,本文提出了一種基于行列錨點融合的車道線檢測方法。首先使用主干網(wǎng)絡(luò)ResNet18提取車道線特征錨點,將提取出來的特征錨點進(jìn)行解耦分類處理;然后對其特征錨點在行方向和列方向分別加入水平注意力機制和垂直注意力機制進(jìn)行通道維度信息和空間維度信息的特征融合,以避免全局關(guān)注計算成本高、局部關(guān)注限制交互領(lǐng)域的問題,車道線檢測無視覺狀況也得到了極大的改善。
1" 車道線檢測算法設(shè)計
1.1" 網(wǎng)絡(luò)模型架構(gòu)
本文采用行列錨點融合的方式實現(xiàn)車道線快速精準(zhǔn)的檢測。給定RGB圖像作為輸入,首先使用主干網(wǎng)絡(luò)ResNet18提取特征,將提取出來的特征錨點進(jìn)行解耦分類處理,主要分為實際檢測存在的正向車道線點和負(fù)向車道線點。對于正向車道線點,將其進(jìn)行逐行、逐列的分類選擇,在行方向和列方向分別加入水平注意力機制和垂直注意力機制進(jìn)行通道維度信息和空間維度信息的特征融合。最后將檢測到的車道線點進(jìn)行點卷積操作,使所有通道和空間信息進(jìn)行加權(quán)并降維,輸出車道線預(yù)測值,即可檢測出對應(yīng)x軸方向和y軸方向上實際存在的車道線點。對于負(fù)向車道線點,輸出車道線偏置值,使其能夠在遮擋、磨損、昏暗、炫光等復(fù)雜場景下準(zhǔn)確檢測車道線。車道線檢測總體模型框架見圖1。
1.2" 車道線特征提取
提取圖像特征的主要目標(biāo)是捕捉可以描述圖像內(nèi)容和結(jié)構(gòu)的重要信息,這些信息可能是邊緣、角點、紋理、顏色分布或其他局部特征,這種轉(zhuǎn)換是圖像分析、識別、檢測和分類等任務(wù)的基礎(chǔ)。車道線特征提取致力于從道路圖像中提取重要的視覺信息,以輔助車輛導(dǎo)航和環(huán)境感知。這個過程旨在識別和分析道路上的車道線,包括檢測車道線的位置、形狀、方向和顏色等特征。本節(jié)對車道線提取特征進(jìn)行探討,采用ResNet18作為主干網(wǎng)絡(luò)提取每個錨點的特征。ResNet通過引入跨層連接的殘差模塊,解決深度神經(jīng)網(wǎng)絡(luò)中由于增加深度而產(chǎn)生的梯度消失和梯度爆炸問題,提高模型的表達(dá)能力和性能;同時可以保留原始特征,提高模型的精度和泛化能力。模型結(jié)構(gòu)及參數(shù)如表1所示。
ResNet18模型由5個卷積組組成,每個卷積組都包含了一個下采樣操作,用于減小特征圖的大小。首先是第一層卷積,由7×7的卷積核、步長為2或3個填充、歸一化層(BN)、激活函數(shù)(ReLU)和最大池化層構(gòu)成;然后中間是4個卷積層,每個卷積層中有多個building block模塊。本文使用ResNet18提取車道線特征,目的是減小計算量且便于訓(xùn)練,更快獲取特征提取的能力,并將檢測到的特征錨點映射到特征圖中,完成特征圖的輸出。
1.3" 車道線特征融合
1.3.1" 特征解耦模塊
行列特征解耦圖如圖2所示。在車道線檢測中,特征解耦模塊的作用是通過解耦卷積操作,將車道線更有效地提取出來,從而降低計算量并提高模型效率。
通常情況下,車道線在圖像中呈長條狀,而傳統(tǒng)的卷積操作會在整個區(qū)域上進(jìn)行計算,導(dǎo)致計算量較大。為了解決這一問題,將原始的3×3卷積核分解為多個行采集的1×3卷積或多個列采集的3×1卷積,以便對圖像的行和列進(jìn)行逐一掃描,從而更好地捕獲車道線在圖像中的空間信息。行列解耦卷積的計算量公式如下:
[FLOPS1=2×2wh(n×3)n=12whn2] (1)
設(shè)輸入特征圖的大小為h×w×n,其中h和w分別表示特征圖的高度和寬度,n表示輸入通道數(shù)。首先,將輸入特征圖按通道數(shù)n分組,然后對每個通道組進(jìn)行獨立的行和列解耦卷積操作。具體來說,對于每個通道組,分別使用1×3的卷積核在行方向上進(jìn)行卷積操作,使用3×1的卷積核在列方向上進(jìn)行卷積操作。
此外,深度可分離行列解耦卷積操作還可以進(jìn)一步降低計算成本,設(shè)該模塊卷積分組數(shù)與輸入通道數(shù)n相同,其結(jié)構(gòu)如圖3所示。深度可分離行列解耦卷積的計算量公式如下:
[FLOPS2=2×2wh(n×3)+4×wh(n×1)n=4wh(n2+3n)] (2)
由此可知,深度可分離行列解耦卷積的計算量小于行列解耦卷積的計算量,模型更加輕量化。
1.3.2" 注意力模塊
在車道線檢測過程中,為了解決全局關(guān)注計算成本高、局部關(guān)注限制交互領(lǐng)域的問題,文章在逐行、逐列檢測車道線特征錨點時,對逐行檢測使用水平注意力機制,對逐列檢測使用垂直注意力機制,在降低計算成本的同時增強了特征聚合能力,對于車道線檢測無視覺問題有極大的改善。
水平注意力機制和垂直注意力機制結(jié)構(gòu)如圖4所示,其中SDPA是比例的點積關(guān)注,C+R是通道關(guān)注連接并降維。輸入頂部變量X,底部輸出學(xué)習(xí)到的特征映射YH(或YV)。水平注意力是對多頭注意力輸出中的特征進(jìn)行重新加權(quán),而垂直注意力則是對特征通道進(jìn)行重新校準(zhǔn)。
在Vanila Transformer中,多頭SDPA是學(xué)習(xí)每個令牌的依賴關(guān)系。就像集成方法機器學(xué)習(xí),多頭注意力運行SDPA所有時間并行,每個注意力頭都經(jīng)過優(yōu)化獨立,將他們的注意力輸出連接并線性轉(zhuǎn)換為期望維數(shù)。它關(guān)注特征輸出并抑制,通過重新加權(quán)函數(shù)來減少差異。水平注意力的設(shè)計是為了自動、重新加權(quán)多頭注意力的輸出。水平注意力近似最大化所有多頭SDPA輸出的邊際似然,并且計算復(fù)雜度只與維數(shù)有關(guān),與長度無關(guān)。因此水平注意力主要關(guān)注通道維數(shù)的信息,用于強調(diào)或抑制輸入數(shù)據(jù)的不同通道特征的重要性,可以幫助模型更好地理解和利用輸入數(shù)據(jù)的通道信息,提高模型的性能。水平注意力公式如下:
垂直注意力可以看作是一種機制,特征通道的分配偏向于輸入信號中信息量最大的組件,這是通過門控函數(shù)實現(xiàn)的。它專門以一種計算效率高的方式對信道相關(guān)信息進(jìn)行建模,提高網(wǎng)絡(luò)中的特征表示能力。垂直注意力的計算類似于水平注意力,使用輸入特征X作為上下文變量,不同的是,垂直注意力的目的是重新校準(zhǔn)多頭輸出YM的降維。垂直注意力的計算公式如下:
為了捕獲通道依賴關(guān)系,需要確保多通道被允許、被強調(diào),而不是單通道激活。因此,在垂直注意力中,使用Sigmoid激活函數(shù),輸入X和學(xué)習(xí)到的特征YM的通道權(quán)重。垂直注意力的計算類似于擠壓?激勵(SE)模塊;不同之處在于,在SE模塊的壓縮階段,垂直注意力將全局空間信息壓縮到通道描述符中,由于SDPA已經(jīng)嵌入了特征依賴關(guān)系,因此在垂直注意力中不需要壓縮。垂直注意力關(guān)注輸入X給出的上下文信息,它們共同考慮當(dāng)前特征輸出,因此,垂直注意力本質(zhì)上引入了以輸入和多頭SDPA為條件的動態(tài),提高了特征表征的判別能力。所以垂直注意力機制有助于模型更好地理解和利用輸入數(shù)據(jù)的空間結(jié)構(gòu),提高模型的感知能力和準(zhǔn)確性。
通過使用水平注意力機制和垂直注意力機制,模型可以更加靈活地處理不同類型的數(shù)據(jù)和任務(wù),提高模型的表達(dá)和學(xué)習(xí)能力。
1.4" 損失函數(shù)
分類損失、回歸損失以及偏置損失的和為總損失函數(shù)。其中交叉熵?fù)p失作為分類損失函數(shù),在車道線檢測中,可以衡量和預(yù)測車道線類別和真實車道線類別之間的差異,根據(jù)錨點正負(fù)類別的分類來確保模型能夠準(zhǔn)確地分辨出車道線中的不同區(qū)域或物體的情況。交叉熵?fù)p失函數(shù)和分類損失函數(shù)公式如下:
回歸損失采用L1損失函數(shù)回歸車道線像素在網(wǎng)格的位置,公式如下:
在車道線檢測中,存在檢測不準(zhǔn)確的情況,因此在行列上加入偏置損失提高車道線的預(yù)測精度,公式如下:
綜上,總損失函數(shù)的計算公式如下:
[Ltotal=Lcls+αLreg+βLoffset]" " "(13)
式中:[Lcls]為分類損失;[Lreg]為回歸損失;[Loffset]為偏置損失;α、β為損失系數(shù),且α,β∈[0,1]。
2" 實驗設(shè)置與分析
2.1" 實驗環(huán)境配置
實驗環(huán)境配置為:Linux x64操作系統(tǒng),Intel[?] Xeon[?] CPU E5?2609 v4@1.70 GHz處理器,NVIDIA Tesla T4顯卡,16 GB內(nèi)存,編程語言采用Python 3.8,深度學(xué)習(xí)框架是PyTorch。在訓(xùn)練過程中,優(yōu)化器采用Adam,設(shè)初始學(xué)習(xí)率為0.001,batch size為8。
2.2" 數(shù)據(jù)集
2.2.1" CULane數(shù)據(jù)集
CULane數(shù)據(jù)集是一個針對交通車道線檢測的大規(guī)模挑戰(zhàn)性公開數(shù)據(jù)集,其數(shù)據(jù)來自于6輛不同車上安裝的攝像頭,共收集了超過55 h的視頻,提取了133 235幀圖像。這個數(shù)據(jù)集分成三個部分:訓(xùn)練集包含88 880幀圖像,驗證集包含9 675幀圖像,測試集包含34 680幀圖像,主要由表2中9個場景組成。
2.2.2" Tusimple數(shù)據(jù)集
Tusimple是一組在高速公路上進(jìn)行數(shù)據(jù)采集的公開數(shù)據(jù)集,場景單一,位于高速路,天氣晴朗。它由3 268張訓(xùn)練集、35張驗證集、2 782張測試集組成。
2.3" 評價指標(biāo)
本文實驗CULane數(shù)據(jù)集主要采用F1分?jǐn)?shù)作為衡量車道線檢測模型性能的評價指標(biāo)。在計算時,首先將檢測到的車道線看作30個像素寬的目標(biāo)形狀,然后計算真實值與預(yù)測值的交并比(IoU)。當(dāng)IoU大于閾值0.5時,則為TP;當(dāng)IoU小于0.5時,則為FP。具體公式如下:
Tusimple數(shù)據(jù)集主要采用Acc、FP、FN作為衡量車道線檢測模型性能的評價指標(biāo),具體公式如下:
式中:[Cclip]為預(yù)測正確的車道數(shù);[Sclip]為所有的車道數(shù);Fpred為錯誤預(yù)測的車道數(shù);Npred為預(yù)測的車道數(shù);Mpred為漏檢的真實車道數(shù);Ngt為所有真實的車道數(shù)。
2.4" 實驗結(jié)果與分析
2.4.1" 模型對比實驗
將本文方法與其他車道線檢測算法在同一數(shù)據(jù)集上進(jìn)行比較。在CULane數(shù)據(jù)集的9種復(fù)雜場景中,驗證該方法的有效性。本文方法與SAD[14]、CurveLane[20]、PINet[21]、E2E?LMD[22]、ENet[23]、UFSA[15]六種方法在CULane數(shù)據(jù)集上進(jìn)行比較,結(jié)果如表3所示。表中N/A表示相關(guān)論文未提及。本文方法在多個場景中取得了顯著的結(jié)果,通過對其特征錨點分別在行方向和列方向加入水平注意力機制和垂直注意力機制進(jìn)行通道維度信息和空間維度信息的特征融合,更好地解決了車道線檢測在復(fù)雜場景下的檢測效果,F(xiàn)1在一定程度上得到了提升,極大地改善了車道線檢測中無視覺問題。
為了驗證本文方法的有效性,在Tusimple數(shù)據(jù)集上進(jìn)行了多種模型的對比實驗。本文選取了PolyLaneNet[24]、EL?GAN[25]、USFA[15]、SAD[14]、PINet[21]五種方法在F1、Acc、FP、FN、FPS指標(biāo)上進(jìn)行對比,結(jié)果如表4所示。表中N/A表示相關(guān)論文未提及。由表4可知,SAD[14]在精度(Acc)上達(dá)到了96.64%;UFSA[15]在幀速度上達(dá)到了312.5 f/s;本文方法的F1分?jǐn)?shù)上達(dá)到了96.31%,在FP和FN上都有所降低,達(dá)到了良好的效果。本文方法在精度(Acc)和速度上相較于SAD[14]和UFSA[15]表現(xiàn)不佳,但是在F1、FP和FN上都獲得了較好的性能。總的來說,本文方法表現(xiàn)良好,且具有一定的提升空間。
2.4.2" 消融實驗
為了驗證本文方法的可行性,做了4組消融實驗,對比結(jié)果如表5所示。第一組是預(yù)測基礎(chǔ)模型在兩組數(shù)據(jù)集上的精度,可以看到:在CULane數(shù)據(jù)集上,精度為65.74%;在Tusimple數(shù)據(jù)集上,精度為94.57%。第二組是在基礎(chǔ)模型上進(jìn)行解耦操作,在行方向上加入水平注意力,并預(yù)測在兩組數(shù)據(jù)集上的精度,可以看到:CULane數(shù)據(jù)集上,在行方向加入水平注意力比基礎(chǔ)模型上的精度增加了4.49%;Tusimple數(shù)據(jù)集上,在行方向加入水平注意力比基礎(chǔ)模型上的精度增加了0.74%。第三組是在基礎(chǔ)模型上進(jìn)行解耦操作,在列方向加入垂直注意力,并預(yù)測在兩組數(shù)據(jù)集上的精度,可以看到:在CULane數(shù)據(jù)集上,在列方向加入垂直注意力并比基礎(chǔ)模型上的精度增加了5.83%;在Tusimple數(shù)據(jù)集上,在列方向加入垂直注意力比基礎(chǔ)模型上的精度增加了0.79%。第四組是在基礎(chǔ)模型上進(jìn)行解耦操作,同時在行方向和列方向分別加入水平注意力和垂直注意力,并預(yù)測在兩組數(shù)據(jù)集上的精度,可以看到:在CULane數(shù)據(jù)集上,同時在行方向和列方向分別加入水平注意力和垂直注意力比基礎(chǔ)模型上的精度增加了10.19%;在Tusimple數(shù)據(jù)集上,同時在行方向和列方向分別加入水平注意力和垂直注意力比基礎(chǔ)模型上的精度增加了2%。
這四組實驗數(shù)據(jù)表明,在車道線檢測中,對其特征錨點分別在行方向和列方向加入水平注意力機制和垂直注意力機制進(jìn)行通道維度信息和空間維度信息的特征融合,可以有效提高模型的檢測精度。
2.4.3" 可視化實驗
圖5是在CULane數(shù)據(jù)集的檢測結(jié)果圖,它展示了在CULane數(shù)據(jù)集上正常、擁擠、夜晚、無車道、箭頭、陰影、路口、彎道和炫光等9種復(fù)雜場景的檢測結(jié)果。圖6是在Tusimple數(shù)據(jù)集的檢測結(jié)果,它展示了在Tusimple數(shù)據(jù)集上正常、擁擠、陰影、昏暗、彎道和坡道等場景的檢測結(jié)果。通過對可視化實驗結(jié)果的分析,可以明顯看到本文在這兩種數(shù)據(jù)集且不同的復(fù)雜場景下的車道線檢測都達(dá)到了良好的效果,驗證了本文方法可以很好地解決擁擠、夜晚和陰影等無視覺問題。
2.4.4" 實際道路測試
為驗證本文方法的有效性,收集各地區(qū)親朋好友的行車記錄儀拍攝視頻,共計超過5 h的視頻,提取出12 112幀圖像。參照CULane數(shù)據(jù)集進(jìn)行標(biāo)注,見圖7。
將數(shù)據(jù)集分成三個部分:訓(xùn)練集包含8 080幀圖像,驗證集包含895幀圖像,測試集包含3 152幀圖像。選取了彎道、十字路口、正常、夜晚和擁擠5個場景進(jìn)行檢測,檢測結(jié)果如圖8所示。
3" 結(jié)" 語
為了提高網(wǎng)絡(luò)在復(fù)雜場景下的檢測精度和速度,本文提出了基于行列錨點融合的車道線檢測方法。首先使用主干網(wǎng)絡(luò)ResNet18提取車道線特征錨點,將提取出來的特征錨點進(jìn)行解耦分類處理;再對其特征錨點分別在行方向和列方向加入水平注意力機制和垂直注意力機制,進(jìn)行通道維度信息和空間維度信息的特征融合,以避免全局關(guān)注計算成本高、局部關(guān)注限制交互領(lǐng)域的問題,車道線檢測無視覺問題也得到了較好的解決。在Tusimple數(shù)據(jù)集上進(jìn)行了大量實驗,該網(wǎng)絡(luò)的準(zhǔn)確度可達(dá)到96.57%,F(xiàn)1可達(dá)96.31%;在CULane數(shù)據(jù)集多個場景下,如正常、夜晚、無車道、炫光和彎道,車道線檢測都達(dá)到了良好的效果。證明了本文的模型具有良好的檢測性能。后續(xù)將在雪天、霧天、雨天和沙塵暴等更具有挑戰(zhàn)的場景進(jìn)行實驗,開展車道線檢測的研究。
參考文獻(xiàn)
[1] JIANG Y, GAO F, XU G. Computer vision?based multiple?lane detection on straight road and in a curve [C]// 2010 International Conference on Image Analysis and Signal Processing. [S.l.]: IEEE, 2010: 114?117.
[2] KIM Z W. Robust lane detection and tracking in challenging scenarios [J]. IEEE transactions on intelligent transportation systems, 2008, 9(1): 16?26.
[3] 陳初俠,丁勇.基于中值濾波的激光雷達(dá)圖像邊緣特征提取方法[J].激光雜志,2023,44(8):94?98.
[4] 王冬云,唐楚,鄂世舉,等.基于導(dǎo)向濾波Retinex和自適應(yīng)Canny的圖像邊緣檢測[J].光學(xué)精密工程,2021,29(2):443?451.
[5] 余祥偉,薛東劍,陳鳳嬌.融合多尺度邊緣檢測的小波貝葉斯SAR圖像濾波[J].遙感信息,2019,34(5):120?125.
[6] 彭文杰,況潤元,趙艷福,等.基于Gabor濾波和霍夫變換的鄱陽湖流向提取[J].水文,2021,41(4):56?61.
[7] ZHANG J Q, DUAN H B, CHEN J L, et al. Hough laneNet: lane detection with deep hough transform and dynamic convolution [J]. Computers amp; graphics, 2023, 116: 82?92.
[8] 趙夫群,馬玉,戴翀.基于改進(jìn)隨機抽樣一致的點云分割算法[J].科學(xué)技術(shù)與工程,2021,21(22):9455?9460.
[9] WANG Q, HAN T, QIN Z, et al. Multitask attention network for lane detection and fitting [J]. IEEE transactions on neural networks and learning systems, 2020, 33(3): 1066?1078.
[10] QIU Q, GAO H, HUA W, et al. Priorlane: a prior knowledge enhanced lane detection approach based on transformer [C]// 2023 IEEE International Conference on Robotics and Automation. [S.l.]: IEEE, 2023: 5618?5624.
[11] PAN H, HONG Y, SUN W, et al. Deep dual?resolution networks for real?time and accurate semantic segmentation of traffic scenes [J]. IEEE transactions on intelligent transportation systems, 2022, 24(3): 3448?3460.
[12] YANG J, ZHANG L, LU H. Lane detection with versatile atrousformer and local semantic guidance [J]. Pattern recognition, 2023, 133: 109053.
[13] DONG Y, PATIL S, VAN AREM B, et al. A hybrid spatial?temporal deep learning architecture for lane detection [J]. Computer‐aided civil and infrastructure engineering, 2023, 38(1): 67?86.
[14] HOU Y N,MA Z,LIU C X,et al.Learning light weight lane detection CNNs by self attention distillation [C]// 2019 IEEE/CVF International Conference on Computer Vision.Seoul: IEEE, 2019: 1013?1021.
[15] QIN Z, WANG H, LI X. Ultra fast structure?aware deep lane detection [C]// Computer Vision?ECCV 2020: 16th European Conference. Glasgow, UK: Springer, 2020: 276?291.
[16] TABELINI L, BERRIEL R, PAIXAO T M, et al. PolylaneNet: lane estimation via deep polynomial regression [C]// 2020 25th International Conference on Pattern Recognition (ICPR). [S.l.]: IEEE, 2021: 6150?6156.
[17] JI G, ZHENG Y. Automatic lane line detection system based on artificial intelligence [J]. Journal of electric and computer engineering, 2022, 2022: 5284185:1?5284185:10.
[18] FENG Z, GUO S, TAN X, et al. Rethinking efficient lane detection via curve modeling [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2022: 17062?17070.
[19] HAN J, DENG X, CAI X, et al. Laneformer: object?aware row?column transformers for lane detection [J]. Proceedings of the AAAI conference on artificial intelligence, 2022, 36(1): 799?807.
[20] XU H, WANG S J, CAI X Y, et al. Curve lane?NAS: unifying lane?sensitive architecture search and adaptive point blending [C]// 2020 European Conference on Computer Vision.Glasgow: Springer, 2020: 689?704.
[21] KOY,LEE Y,AZAM S,et al.Key points estimation and point instance segmentation approach for lane detection [J]. IEEE transactions on intelligent transportation systems, 2021, 23(7) : 8949?8958.
[22] YOO S, LEE H S, MYEONG H, et al. End?to?end lane marker detection via row?wise classification [C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Seattle: IEEE, 2020: 1006?1007.
[23] HOU Y. Agnostic lane detection [EB/OL]. [2023?11?07]. https://www.researchgate.net/publication/332528412_Agnostic_Lane_Detection/download.
[24] TABELINI L, BERRIEL R, PAIXAO T M, et al.Poly laneNet: lane estimation via deep polynomial regression [C]// 2020 25th International Conference on Pattern Recognition. Milan: IEEE, 2021: 6150?6156.
[25] GHAFOORIAN M, NUGTEREN C, BAKA N, et al. ELGAN: embedding loss driven generative adversarial networks for lane detection [C]// 2018 European Conference on Computer Vision Workshops. Munich: Springer, 2018: 256?272.