自動駕駛汽車的可視化因果關(guān)系解讀
未來,神經(jīng)網(wǎng)絡(luò)將廣泛地應(yīng)用在自動駕駛汽車中。但是,神經(jīng)網(wǎng)絡(luò)的缺點(diǎn)是網(wǎng)絡(luò)結(jié)構(gòu)和隱含層神經(jīng)元的機(jī)制與整個(gè)神經(jīng)網(wǎng)絡(luò)的估計(jì)結(jié)果沒有太大的關(guān)聯(lián)。所以,研究在卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上增加一個(gè)視覺關(guān)注網(wǎng)絡(luò)模型,該模型沒有上述神經(jīng)網(wǎng)絡(luò)的缺點(diǎn)。視覺關(guān)注網(wǎng)絡(luò)模型可以提供空間關(guān)注圖(網(wǎng)絡(luò)所關(guān)注的圖像區(qū)域),來解釋視覺關(guān)注網(wǎng)絡(luò)是如何工作的。所以,該視覺關(guān)注網(wǎng)絡(luò)模型分為3部分:(1)編碼器,用于卷積特征提?。唬?)視覺關(guān)注機(jī)制的粗粒度解碼器;(3)視覺關(guān)注機(jī)制的細(xì)粒度解碼器,用于因果關(guān)系的視覺檢測,并細(xì)化空間關(guān)注圖。
編碼器:使用卷積神經(jīng)網(wǎng)絡(luò)提取編碼的視覺特征向量,稱為卷積特征立方體。每個(gè)特征向量具有輸入圖像的部分特征,這些特征是視覺關(guān)注網(wǎng)絡(luò)模型篩選出的特征。
粗粒度解碼器:采用深度學(xué)習(xí)中的軟注意力分析,尋找最優(yōu)的背景向量,稱為卷積特征向量。利用一種標(biāo)準(zhǔn)反向傳播方法進(jìn)行訓(xùn)練。
細(xì)粒度解碼器:改進(jìn)了關(guān)注圖像,并檢測了局部視覺效果。
通過視覺關(guān)注網(wǎng)絡(luò)模型獲得了3個(gè)數(shù)據(jù)集(Comma.ai、Udacity和現(xiàn)代綜合車輛安全系統(tǒng)控制中心(HCE))收集的超過120萬幀(≈16h)的圖像。將圖像分割成200×64的像素,傳送至粗粒度解碼器。訓(xùn)練算法采用優(yōu)化的Adam算法。自動駕駛車輛通過采集圖像,并將圖像輸入到神經(jīng)網(wǎng)絡(luò)中,根據(jù)神經(jīng)網(wǎng)絡(luò)對圖像的識別結(jié)果,來控制車輛轉(zhuǎn)向。
試驗(yàn)結(jié)果表明,引入視覺關(guān)注網(wǎng)絡(luò)模型不會降低控制精度,有助于降低圖像的復(fù)雜程度。
網(wǎng)址:arXiv.org>cs>arXiv:1703.10631
作者:Jinkyu Kim et al
編譯:野晨晨