摘" 要: 智能駕駛技術(shù)作為新一代智能交通系統(tǒng)的核心之一,受到了廣泛關(guān)注。其中,感知融合技術(shù)在實(shí)現(xiàn)智能駕駛的精準(zhǔn)定位和環(huán)境感知中起著至關(guān)重要的作用。在感知融合中使用的立體匹配算法更是關(guān)乎智能駕駛的安全性和準(zhǔn)確性,是智能駕駛環(huán)境感知領(lǐng)域中重要的技術(shù)環(huán)節(jié)。針對(duì)智能駕駛汽車在硬件方面算力不足,但對(duì)立體匹配算法實(shí)時(shí)性和精度均有較高要求的問(wèn)題,文章基于GwcNet,為智能駕駛環(huán)境感知模塊設(shè)計(jì)了一種輕量化的立體匹配算法。利用ACV模型替代GwcNet立體匹配算法中參數(shù)量、運(yùn)算量最大的3D卷積模塊,使得算法的實(shí)時(shí)性和精度得到提升。為了進(jìn)一步減少網(wǎng)絡(luò)復(fù)雜度,減小ACV模塊中的網(wǎng)絡(luò)參數(shù),提出一個(gè)Fast?ACV模型。最后在KITTI 2015數(shù)據(jù)集中對(duì)立體匹配算法進(jìn)行對(duì)比分析。結(jié)果表明,所提出的輕量化GwcNet立體匹配算法在精度和實(shí)時(shí)性上均優(yōu)于GwcNet算法。
關(guān)鍵詞: 智能駕駛; 輕量化GwcNet; 立體匹配算法; 環(huán)境感知; 感知融合; ACV模型
中圖分類號(hào): TN915?34; U463.6; TP183" " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " "文章編號(hào): 1004?373X(2024)16?0125?05
Research on lightweight GwcNet stereo matching algorithm for intelligent driving
ZHOU Hao, CAO Jingsheng, DONG Yining, LI Gang
(Automotive and Traffic Engineering, Liaoning University of Technology, Jinzhou 121001, China)
Abstract: As one of the core of the new generation of intelligent transportation system, intelligent driving technology has been widely concerned. The perception fusion technology plays a crucial role in realizing the accurate positioning and environment perception of intelligent driving. The stereo matching algorithm used in perception fusion is crucial for the safety and accuracy of intelligent driving, and is an important technical link in the environment perception field of the intelligent driving. In allusion to the problems that the intelligent driving vehicles have the insufficient computing power in hardware, but have high requirements for real?time performance and accuracy of stereo matching algorithm, a lightweight stereo matching algorithm for the intelligent driving environment perception module is designed based on GwcNet. The ACV (attention concatenation volume) is used to replace the 3D convolutional module with the maximum number of parameters and computation in GwcNet stereo matching algorithm, which can improve the real?time performance and accuracy of the algorithm. In order to further reduce the network complexity and minize the network parameters in the ACV module, a Fast?ACV model is proposed. The comparison analysis of the stereo matching algorithm is conducted in the KITTI 2015 dataset. The results show that the proposed lightweight GwcNet stereo matching algorithm is superior to the GwcNet algorithm in both accuracy and real?time performance.
Keywords: intelligent driving; lightweight GwcNet; stereo matching algorithm; environment perception; perceptual fusion; ACV model
0" 引" 言
立體視覺(jué)是機(jī)器感知環(huán)境的重要方法,而立體匹配技術(shù)[1?7]又是立體視覺(jué)技術(shù)中的關(guān)鍵環(huán)節(jié),近年來(lái)許多學(xué)者對(duì)這兩方面進(jìn)行研究。
隨著時(shí)代的發(fā)展,智能駕駛技術(shù)已成為當(dāng)今最熱門(mén)的研究領(lǐng)域[8?9],環(huán)境感知更是智能駕駛中的重要環(huán)節(jié)。但智能駕駛汽車上的移動(dòng)端設(shè)備通常存在算力不足的缺點(diǎn),而智能駕駛環(huán)境感知模塊對(duì)立體匹配算法的實(shí)時(shí)性要求又比較高,因此,設(shè)計(jì)精度高且實(shí)時(shí)性好的立體匹配算法對(duì)智能駕駛環(huán)境感知技術(shù)有重要的意義。深度學(xué)習(xí)的不斷發(fā)展使得立體匹配算法的準(zhǔn)確性在不斷提升,如A. Kendall等人利用端到端的深度學(xué)習(xí)架構(gòu)的GC?Net校正立體圖像回歸視差,使用幾何形狀知識(shí)和深度特征表示成本體積。但連接量忽略了相似性度量,因此需要使用大量3D卷積聚合上下文信息。此外,還提出了可微的soft argmin函數(shù)從代價(jià)體中回歸視差值,省去了額外的正則化或后處理步驟,相對(duì)提高了網(wǎng)絡(luò)運(yùn)行速度[10]。PSM網(wǎng)絡(luò)引入的空間金字塔池化模塊(Spatial Pyramid Pooling, SPP)用于提高圖像中上下文信息的利用率,將像素級(jí)特征擴(kuò)展至多尺度區(qū)域級(jí)特征;另外,使用3D卷積堆疊組成Encoder?Decoder結(jié)構(gòu)來(lái)融合多通道信息,得到最終預(yù)測(cè)視差圖。GwcNet[11]中利用組間相關(guān)性對(duì)多通道的特征圖沿著通道分組,以計(jì)算代價(jià)量,即把左右圖像特征劃分為若干組,分別計(jì)算出相關(guān)圖,進(jìn)而將得到的多個(gè)匹配代價(jià)打包到代價(jià)量中,同時(shí)改進(jìn)PSM提出的3D沙漏堆疊結(jié)構(gòu),降低推理計(jì)算成本,提高性能。
上述提到的立體匹配方法雖然有不錯(cuò)的精度,但都大量使用3D卷積完成特征運(yùn)算,這種成本聚合方式會(huì)消耗大量的運(yùn)算體積和內(nèi)存,在智能汽車上并不適用。引導(dǎo)聚合網(wǎng)絡(luò)(GA?Net)中包含兩種新的卷積網(wǎng)絡(luò)結(jié)構(gòu),分別捕獲局部和全局的成本相關(guān)性,用以取代3D卷積。SGA模塊減小由于遮擋、平滑、反射、噪聲造成的錯(cuò)誤匹配,LGA模塊處理采樣過(guò)程中造成的邊緣模糊或薄結(jié)構(gòu)模糊。AANet[12]的主要目標(biāo)是完全取代3D卷積,同時(shí)達(dá)到更快的推理速度和較高的精度。首先,提出一種基于稀疏點(diǎn)的自適應(yīng)尺度內(nèi)成本聚合(Adaptive Intra?Scale Aggregation, ISA)方法,用于解決在視差不連續(xù)區(qū)域情況下的邊緣模糊性問(wèn)題。另外,通過(guò)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)自適應(yīng)跨尺度成本聚合(Adaptive Cross?Scale Aggregation, CSA),實(shí)現(xiàn)在低紋理或無(wú)紋理區(qū)域的精確視差預(yù)測(cè)。CFNet[13]中給出了一種提高網(wǎng)絡(luò)效率的方式,即在鄰域差異較大時(shí),融合多個(gè)較低分辨率的密集的成本體積,然后讓網(wǎng)絡(luò)接收多種數(shù)據(jù)集不變的幾何場(chǎng)景信息來(lái)擴(kuò)大捕獲圖像全局信息的接收域。另外,針對(duì)不平衡的視差分布,使用級(jí)聯(lián)成本體積表示,并采用基于方差的不確定性估計(jì)自適應(yīng)地調(diào)整下一階段的視差搜索范圍。ACVNet[14]構(gòu)建了一種高效cost volume計(jì)算方法,利用相關(guān)線索生成注意力權(quán)重從而抑制冗余信息,并增強(qiáng)與匹配相關(guān)的信息;加入多級(jí)自適應(yīng)匹配方法提高匹配代價(jià)在不同視差下的區(qū)分程度。ACV模塊可以嵌入到大部分現(xiàn)有網(wǎng)絡(luò)中,實(shí)現(xiàn)聚合網(wǎng)絡(luò)的輕量化以及獲得更高精度。
基于上述研究,本文為智能駕駛環(huán)境感知模塊設(shè)計(jì)一種輕量化立體匹配算法。立體匹配算法基于GwcNet,采用ACV(Attention Concatenation Volume)模型替代GwcNet立體匹配算法中參數(shù)量、運(yùn)算量最大的3D卷積模塊,最終實(shí)現(xiàn)算法的輕量化,大幅提升了算法的運(yùn)行速度,并且達(dá)到了精度要求。
1" GwcNet立體匹配算法
GwcNet通過(guò)分組相關(guān)(Group?wish correlation)方法計(jì)算代價(jià)體,可以為特征相似度計(jì)算提供有效表示,在降低參數(shù)的同時(shí)提高網(wǎng)絡(luò)性能。GwcNet共分為四個(gè)部分,分別為一元特征提取、成本體積構(gòu)建、3D卷積聚合以及視差預(yù)測(cè),其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
一元特征提取部分使用了PSMNet[15]中相同的具有半擴(kuò)張?jiān)O(shè)置且不適用SPP的殘差網(wǎng)絡(luò),第1層級(jí)聯(lián)三個(gè)3×3卷積,在增大感受野的同時(shí)加深網(wǎng)絡(luò)深度,第2~4層是基本的殘差卷積模塊,并將其Concat連接為具有320個(gè)通道的一元特征圖,這部分網(wǎng)絡(luò)共享權(quán)值。
成本體積構(gòu)建是立體匹配技術(shù)的重點(diǎn)和難點(diǎn),經(jīng)典的4D代價(jià)體主要由兩部分組成,一部分是串聯(lián)一元特征,另一部分是分組相關(guān)計(jì)算。串聯(lián)一元特征即將左右視圖壓縮為12個(gè)通道,然后進(jìn)行Concat連接;分組相關(guān)計(jì)算是將左右特征圖分別分為40組,每組8個(gè)通道,按照向量?jī)?nèi)積的方式計(jì)算,減少信息丟失。將這兩個(gè)量concatenate起來(lái),就可以組成一個(gè)4D匹配代價(jià)體(圖像高度H、圖像寬度W、圖像最大視差加1、圖像的特征圖數(shù)目F)作為3D聚合網(wǎng)絡(luò)的輸入,如圖2所示。
3D卷積聚合網(wǎng)絡(luò)由一個(gè)前置沙漏模塊和三個(gè)堆疊的3D沙漏網(wǎng)絡(luò)組成,其將相鄰視差和像素點(diǎn)得到的特征聚合起來(lái),預(yù)測(cè)優(yōu)化后的代價(jià)量,且三個(gè)堆疊沙漏模塊都輸出一個(gè)預(yù)測(cè)視差圖。堆疊沙漏模塊結(jié)構(gòu)如圖3所示,左側(cè)部分表示前置卷積模塊,后面三個(gè)為類似于沙漏形式的卷積模型。沙漏模型包括步長(zhǎng)為2的3D卷積和步長(zhǎng)為1的3D卷積,這兩個(gè)卷積步驟之后進(jìn)行降維,緊接著是兩個(gè)降維后的3D卷積,然后是3D反卷積。文中使用兩個(gè)不同維度的3D反卷積模型恢復(fù)輸入特征圖形的長(zhǎng)度、寬度和維度。另外,沙漏模型外部使用跳躍連接,增強(qiáng)模型特征屬性;內(nèi)部也包含跳躍連接模式,復(fù)合長(zhǎng)度、寬度相同的代價(jià)卷積,提高特征提取的準(zhǔn)確性并增強(qiáng)穩(wěn)定性。最后,通過(guò)多次疊加獲取圖像更高層次的特征信息。
視差預(yù)測(cè)是對(duì)每個(gè)輸出模塊應(yīng)用兩個(gè)3D卷積生成1通道的4D體積,然后對(duì)其進(jìn)行上采樣,轉(zhuǎn)換為具有沿視差維度的softmax函數(shù)的概率體積,這種方法可以使得圖像特征更加清晰。對(duì)于整個(gè)網(wǎng)絡(luò)來(lái)說(shuō),提取左右圖像特征后是構(gòu)建代價(jià)體,將Volume_g和Volume_c直接連接,接下來(lái)就是一系列卷積、相加、激活、反卷積操作,經(jīng)過(guò)沙漏模型最終輸出結(jié)果。
2" 輕量化GwcNet立體匹配算法
GwcNet立體匹配算法由于加入了構(gòu)建4D代價(jià)體的方法,會(huì)使計(jì)算量和參數(shù)量急劇增加,雖然精度高,但是運(yùn)行時(shí)間相對(duì)較慢。因此,可以優(yōu)化其中結(jié)構(gòu)。本文引入ACV?Net中的代價(jià)體構(gòu)建方法,使用ACV(Attention Concatenation Volume)模型替代參數(shù)量、運(yùn)算量最大的3D卷積模塊。ACV模型結(jié)構(gòu)如圖4所示。
構(gòu)建代價(jià)體是立體匹配算法的關(guān)鍵問(wèn)題,通常的方式有兩種:concat和correlation。研究發(fā)現(xiàn),concat方式可以保留相對(duì)豐富的信息,但是需要進(jìn)行復(fù)雜的3D卷積聚合計(jì)算,并且容易丟掉內(nèi)容的相似性;correlation方法可以通過(guò)相關(guān)性計(jì)算反映圖像中相鄰像素的關(guān)系,但是會(huì)損失一些特征信息。GwcNet是對(duì)這兩種方法的混用,取得了良好的表現(xiàn),但是其結(jié)構(gòu)為直接連接兩種類型的代價(jià)體,沒(méi)有考慮各自的特性,導(dǎo)致兩種代價(jià)體參數(shù)之間的互補(bǔ)性降低,仍然需要使用沙漏結(jié)構(gòu)堆疊3D卷積。
成本體積的構(gòu)建和聚合是密切相關(guān)的模塊,可以借鑒ACV模塊中的構(gòu)建方法,使用編碼在相關(guān)量中的相似性信息來(lái)正則化連接量。具體構(gòu)建方法為:利用連接體生成注意力權(quán)重來(lái)濾波注意力連接體。為了得到可靠的連接體,使用多級(jí)補(bǔ)丁匹配體生成更精準(zhǔn)的相似特征,該方法在不同特征層級(jí)使用不同大小的patch,使用具有預(yù)定義大小和自適應(yīng)學(xué)習(xí)權(quán)重的atrous patch來(lái)計(jì)算匹配代價(jià)。
對(duì)GwcNet網(wǎng)絡(luò)引入的ACV模塊包括三個(gè)部分:初始連接體的構(gòu)建(Initial Concatenation Volume Construction)模塊、注意力權(quán)重生成模塊和注意力過(guò)濾模塊。
1) 初始連接體的構(gòu)建模塊
對(duì)于給定的一對(duì)立體圖像,假設(shè)尺寸均為H×W×3,則通過(guò)對(duì)每張圖像的特征提取得到一元特征映射fl和fr,fl(fr)特征圖尺寸為[N×H4×W4],其中N=32;然后將特征圖連接,公式如下:
[Cconcat(⊙,d,x,y)=concatflx,y,frx-d,y] (1)
式中:“⊙”表示元素的乘積;[flx,y]與[frx-d,y]表示像素坐標(biāo)系中該點(diǎn)的特征值;d表示左右圖像的像素視差。將特征值進(jìn)行concat運(yùn)算,得到Cconcat尺寸是[2N×D4×H4×W4],其中D代表最大視差。
2) 注意力權(quán)重生成模塊
一般方法中連接體是通過(guò)計(jì)算每個(gè)像素相似性得到的,但是其在弱紋理區(qū)域表現(xiàn)不好,因此引入了一種MAPM(Multi?Level Adaptive Patch Matching)方法。首先從特征提取模塊得到三個(gè)層級(jí)的特征圖,其對(duì)應(yīng)通道數(shù)分別為l1=64,l2=128,l3=128。對(duì)于每個(gè)層次的每個(gè)像素,使用具有預(yù)定義大小和自適應(yīng)學(xué)習(xí)權(quán)重的atrous patch來(lái)計(jì)算匹配成本。MAPM方法如圖5所示,不同的尺寸適用于不同的目標(biāo),大尺寸可以包含更多上下文信息,區(qū)分高級(jí)別特征圖不同差異的匹配成本。
通過(guò)控制擴(kuò)張率(Rate)可以保證patch范圍和特征圖級(jí)別相關(guān),并且在中心像素的相似性計(jì)算時(shí)使得像素?cái)?shù)量相同,進(jìn)而使左右圖像中對(duì)應(yīng)像素的相似度成為patch中對(duì)應(yīng)像素之間相關(guān)性的加權(quán)和。本文中檢測(cè)的目標(biāo)大小不一、形態(tài)各異,MAPM方法可以提高獲取特征的準(zhǔn)確性。
3) 注意力過(guò)濾模塊
在上述MAPM方法最后,使用3D卷積將特征圖通道維度壓縮為1,就可以獲得注意力權(quán)重A,使用它來(lái)消除初始級(jí)聯(lián)體中的冗余信息,進(jìn)而增強(qiáng)其表示能力。通道i處的注意力連接量[CACV]計(jì)算公式為:
[CACVi=A⊙Cconcati] (2)
式中,注意力權(quán)重A被應(yīng)用于初始串聯(lián)體積的所有通道。
引入的ACV模塊可以替換一般立體匹配算法中4D成本體積的構(gòu)建,本文轉(zhuǎn)換GwcNet中成本體積構(gòu)建方法,提高算法整體效率,從而實(shí)現(xiàn)立體匹配網(wǎng)絡(luò)輕量化。
3" 實(shí)驗(yàn)分析
智能駕駛汽車的移動(dòng)端通常算力比較低,因此本文在GPU RTX 1080 Ti 11 GB環(huán)境下,采用PyTorch深度學(xué)習(xí)框架搭建模型。首先,將GwcNet網(wǎng)絡(luò)在Scene Flow數(shù)據(jù)集上的預(yù)訓(xùn)練模型參數(shù)進(jìn)行遷移,然后在KITTI 2015的立體匹配訓(xùn)練數(shù)據(jù)集上進(jìn)行微調(diào),最后在KITTI 2015測(cè)試數(shù)據(jù)集上得到結(jié)果,驗(yàn)證了GwcNet的可行性。此后,將ACV模塊引入GwcNet進(jìn)行優(yōu)化,得到GwcNet+ACV模型進(jìn)行訓(xùn)練,以獲得更好的測(cè)試結(jié)果。同時(shí),減少標(biāo)準(zhǔn)ACV模塊的卷積層數(shù)和視差預(yù)測(cè)模塊網(wǎng)絡(luò)參數(shù),獲得GwcNet+Fast?ACV模型,再將優(yōu)化前后的模型運(yùn)行結(jié)果進(jìn)行分析。
3.1" 定量分析
本次實(shí)驗(yàn)主要對(duì)比內(nèi)容為GwcNet原模型、引入ACV模塊后和引入Fast?ACV模塊后的網(wǎng)絡(luò)實(shí)驗(yàn)結(jié)果,主要對(duì)比重點(diǎn)關(guān)注的運(yùn)行時(shí)間以及對(duì)于第一幀圖像全部區(qū)域預(yù)測(cè)錯(cuò)誤的像素比例(D1?all)。具體結(jié)果如表1所示。
結(jié)合表1可知,GwcNet精度表現(xiàn)不錯(cuò),整幅圖像中深度信息預(yù)測(cè)錯(cuò)誤的占比為4.28%,但是運(yùn)行時(shí)間比較長(zhǎng),而其運(yùn)行速度約為2.86 f/s。在將代價(jià)匹配和成本聚合模塊采用ACV模塊替換后,運(yùn)行時(shí)間減少了37.14%,運(yùn)行速度得到一定提升而且預(yù)測(cè)錯(cuò)誤率也降低了0.36%。Fast?ACV模型的引入使得運(yùn)行時(shí)間迅速減少為0.051 s,與原模型相比運(yùn)行時(shí)間降低了85.43%;運(yùn)行速度為19.6 f/s,與原模型相比極大地提升了運(yùn)行速度,深度信息預(yù)測(cè)錯(cuò)誤的占比為4.05%,與原模型相比提升了0.23%??梢缘贸觯诹Ⅲw匹配算法中卷積運(yùn)算層占據(jù)大量運(yùn)行內(nèi)存空間,這也是需要提高的地方。另外,由于使用的是卷積層堆疊方式,適當(dāng)減少卷積層數(shù)會(huì)降低模型立體匹配的準(zhǔn)確率,但運(yùn)行速度會(huì)大大提升。綜上所述,本文所提出的輕量化GwcNet模型在精度與實(shí)時(shí)性上均比原模型有一定的提升,特別在實(shí)時(shí)性方面。
3.2" 定性分析
對(duì)實(shí)驗(yàn)結(jié)果的定量分析可以看出運(yùn)行時(shí)間和錯(cuò)誤比例等信息,而定性分析可以直觀地了解深度估計(jì)模型具體表現(xiàn)的差異性。定性分析通過(guò)原圖與深度估計(jì)圖像的互相對(duì)比,即可以肉眼觀察出目標(biāo)距離信息。本文中使用灰度圖的形式對(duì)深度圖加以區(qū)分,以0~255灰度值(白色為255、黑色為0)具體表達(dá)1.7~90 m的距離范圍,距離越近,灰度數(shù)值越大,圖片白色越明顯;距離越遠(yuǎn),顏色越深。圖6為數(shù)據(jù)集原圖和GwcNet+Fast?ACV的運(yùn)行結(jié)果圖。
從圖6中可以看出,對(duì)于第一張圖像,對(duì)向來(lái)車擋風(fēng)玻璃處有著強(qiáng)烈的反光,本文算法可以將這種干擾大大降低,并且清晰地表現(xiàn)出汽車輪廓;第二張圖像車輛密集排列,視差預(yù)測(cè)圖像能明顯地區(qū)分各個(gè)車輛;第三張圖像中較遠(yuǎn)處有汽車以及交通標(biāo)示牌,預(yù)測(cè)結(jié)果也可以表示;第四張圖像上方區(qū)域存在大量樹(shù)木,深度估計(jì)模型也能夠區(qū)分樹(shù)木輪廓。
4" 結(jié)" 論
本文針對(duì)智能駕駛環(huán)境感知模塊,設(shè)計(jì)了一種立體匹配算法。以精度較高的GwcNet為基礎(chǔ),對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn);引入ACV模塊替代GwcNet立體匹配算法中參數(shù)量、運(yùn)算量最大的3D卷積模塊,使得網(wǎng)絡(luò)結(jié)構(gòu)輕量化;并進(jìn)一步優(yōu)化結(jié)構(gòu),使得精度和實(shí)時(shí)性均優(yōu)于原模型。本文提出的輕量化立體匹配算法對(duì)智能駕駛環(huán)境感知系統(tǒng)有一定的實(shí)用價(jià)值。
注:本文通訊作者為曹景勝。
參考文獻(xiàn)
[1] 胡志新,梅紫俊,王濤,等.基于自適應(yīng)窗口和改進(jìn)Census變換的半全局立體匹配算法[J].電光與控制,2023,30(3):33?37.
[2] 范亞博,王國(guó)祥,陳海軍,等.特征融合的雙目立體匹配算法加速研究與實(shí)現(xiàn)[J].導(dǎo)航定位與授時(shí),2022,9(6):133?140.
[3] 黃怡潔,朱江平,楊善敏.基于注意力機(jī)制的立體匹配算法[J].計(jì)算機(jī)應(yīng)用與軟件,2022,39(7):235?240.
[4] 李忠國(guó),吳昊宸,陸軍,等.雙目視覺(jué)立體匹配算法的改進(jìn)[J].機(jī)械設(shè)計(jì)與研究,2022,38(3):27?29.
[5] 楊戈,廖雨婷.基于AEDNet的雙目立體匹配算法[J].華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2022,50(3):24?28.
[6] 王森,危輝,孟令江.基于控制點(diǎn)和RGB向量差聯(lián)合梯度Census變換的立體匹配算法[J].模式識(shí)別與人工智能,2022,35(1):37?50.
[7] 郭乾宇,武一,劉華賓,等.基于損失自注意力機(jī)制的立體匹配算法研究[J].計(jì)算機(jī)應(yīng)用研究,2022,39(7):2236?2240.
[8] 陳曉冬,張佳琛,龐偉凇,等.智能駕駛車載激光雷達(dá)關(guān)鍵技術(shù)與應(yīng)用算法[J].光電工程,2019,46(7):34?46.
[9] 申恩恩,胡玉梅,陳光,等.智能駕駛實(shí)時(shí)目標(biāo)檢測(cè)的深度卷積神經(jīng)網(wǎng)絡(luò)[J].汽車安全與節(jié)能學(xué)報(bào),2020,11(1):111?116.
[10] KENDALL A, MARTIROSYAN H, DASGUPTA S, et al. End?to?end learning of geometry and context for deep stereo regression [C]// 2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy: IEEE, 2017: 66?75.
[11] GUO X, YANG K, YANG W, et al. Group?wise correlation stereo network [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2019: 3273?3282.
[12] XU H, ZHANG J. AANet: adaptive aggregation network for efficient stereo matching [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, WA, USA: IEEE, 2020: 1959?1968.
[13] SHEN Z L, DAI Y C, RAO Z B. CFNet: cascade and fused cost volume for robust stereo matching [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville, TN, USA: IEEE, 2021: 13906?13915.
[14] XU G W, CHENG J D, GUO P, et al. Attention concatenation volume for accurate and efficient stereo matching [C]// 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Orleans, LA, USA: IEEE, 2022: 12971?12980.
[15] WANG H, HUTCHCROFT W, LI Y, et al. PSMNet: position?aware stereo merging network for room layout estimation [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Orleans, LA, USA: IEEE, 2022: 8616?8625.