中圖分類號(hào):U471 收稿日期:2025-04-22 DOI: 10.19999/j.cnki.1004-0226.2025.06.002
Abstract:Artificialiteligencetechnologyrepresentedbydeplearingpromotes therapiddevelopmentoftheautonomous drivingindustry,ndteblackboxproblemofrtificialintellgencenetworksiscomiganimportatobstacletotepopularzatiofu tonomousvehicles.ExplainableArtfcialIntelligence(XAI)technologyisanefectivemethodtosolvethebackboxproblem.Facing theimmaturityofXItechnology,thispaperproposesthedefinitionofXAIforautomaticdriving,andcomprehensivelyanalyesthe relevantcasestudy.FurtherthispaperproposesaframeworkofXAIechnologyforutonomousdriving,andofersanin-depthelucidationofitskeyompoents.ThispaprsystematicallalyesXAItechologiesfoutoomousdriving,isussstetallenges,andlooksforwardtothefutureresearchdirection,hopingtoprovideguidanceandreferenceforthefuturedevelopmentofau tonomous driving and XAI.
Key words:Autonomous driving;ExplainableArtificial Inteligence(XAI);Technical framework;Black box
1前言
以深度學(xué)習(xí)為代表的人工智能技術(shù)是自動(dòng)駕駛領(lǐng)域的核心技術(shù)。深度學(xué)習(xí)構(gòu)建了模擬人腦學(xué)習(xí)機(jī)制的深度神經(jīng)網(wǎng)絡(luò)模型,具備數(shù)據(jù)驅(qū)動(dòng)的高維特征學(xué)習(xí)能力,已在目標(biāo)檢測(cè)、路徑規(guī)劃等自動(dòng)駕駛?cè)蝿?wù)中展現(xiàn)了與人類相當(dāng)甚至更好的性能[1]。
人工智能技術(shù)雖然在自動(dòng)駕駛領(lǐng)域取得了廣泛的認(rèn)同,但它依然受到了一些質(zhì)疑,其中絕大部分質(zhì)疑都聚焦于人工智能技術(shù)的黑箱問(wèn)題。人工智能技術(shù)是典型的黑箱模型,很難對(duì)其內(nèi)部工作原理進(jìn)行深入的洞察和分析,這導(dǎo)致當(dāng)人工智能技術(shù)在實(shí)際運(yùn)行中出現(xiàn)錯(cuò)誤時(shí),錯(cuò)誤點(diǎn)識(shí)別的難度陡然增加。在自動(dòng)駕駛領(lǐng)域,安全穩(wěn)定的系統(tǒng)是極為重要的,它將會(huì)影響交通參與者的生命和財(cái)產(chǎn)安全。然而,人工智能技術(shù)的黑箱性質(zhì)給自動(dòng)駕駛的安全應(yīng)用帶來(lái)了巨大挑戰(zhàn)。
面對(duì)該挑戰(zhàn),學(xué)界和產(chǎn)業(yè)界人士已提出一些措施來(lái)緩解安全問(wèn)題。例如,文獻(xiàn)[2]提出具有充分理由的數(shù)據(jù)采集方案,但該方案在確保充分安全方面是否足夠仍然是一個(gè)懸而未決的問(wèn)題;功能安全標(biāo)準(zhǔn)IS026262雖得到了普遍認(rèn)可[3],但并不是明確針對(duì)數(shù)據(jù)驅(qū)動(dòng)的人工智能系統(tǒng)及其獨(dú)特的特性而制定的;預(yù)期功能安全標(biāo)準(zhǔn)ISO21448可以應(yīng)用于基于人工智能技術(shù)的自動(dòng)駕駛功能[4],但相關(guān)原則和內(nèi)容依然不夠清晰和完善。與自動(dòng)駕駛領(lǐng)域日益涌現(xiàn)的人工智能新技術(shù)相比,人工智能技術(shù)所帶來(lái)的自動(dòng)駕駛安全問(wèn)題研究和探索仍極度缺乏。
可解釋人工智能(ExplainableArtificial Intelligence,XAI)是解決上述問(wèn)題的潛在有效方法。可解釋人工智能技術(shù)可以為人工智能系統(tǒng)的行為提供人類可理解的見解[5],從而使自動(dòng)駕駛相關(guān)參與方受益??山忉屓斯ぶ悄芗夹g(shù)能夠?yàn)槿斯ぶ悄荛_發(fā)人員提供識(shí)別和調(diào)試故障的重要工具[6]??山忉屓斯ぶ悄芗夹g(shù)能夠幫助汽車用戶根據(jù)自動(dòng)駕駛汽車的實(shí)際表現(xiàn)校準(zhǔn)他們對(duì)自動(dòng)駕駛系統(tǒng)的信任度,有效避免自動(dòng)駕駛功能的閑置和濫用[7]??山忉屓斯ぶ悄芗夹g(shù)也能夠幫助政府監(jiān)管機(jī)構(gòu)和保險(xiǎn)公司實(shí)現(xiàn)事故可追溯性,從而更準(zhǔn)確地評(píng)估相關(guān)責(zé)任[8]。隨著自動(dòng)駕駛系統(tǒng)在未來(lái)的逐漸普及,可解釋人工智能技術(shù)將在未來(lái)保障汽車行駛安全中扮演更加重要的角色。
為此,本文對(duì)面向自動(dòng)駕駛的可解釋人工智能技術(shù)進(jìn)行了系統(tǒng)性的研究。基于可解釋人工智能研究現(xiàn)狀,闡述了面向自動(dòng)駕駛的可解釋人工智能定義,并剖析了相關(guān)案例。同時(shí),深入介紹了面向自動(dòng)駕駛的可解釋人工智能技術(shù)框架和核心組成部分。最后,討論了當(dāng)前存在的挑戰(zhàn),展望了未來(lái)的研究方向。
2面向自動(dòng)駕駛的可解釋人工智能定義
當(dāng)前,可解釋人工智能研究尚處于初級(jí)階段,尚未有統(tǒng)一的定義。文獻(xiàn)[9]將可解釋人工智能描述為衡量人類對(duì)人工智能學(xué)習(xí)模型所做決策背后原因的理解程度。文獻(xiàn)[10]將可解釋人工智能定義為人類可以從人工智能系統(tǒng)獲得其預(yù)測(cè)的決策依據(jù)和推斷,從而打破人工智能黑盒子,進(jìn)而建立用戶與人工智能系統(tǒng)之間的信任。為了推動(dòng)可解釋人工智能深人研究和應(yīng)用,我國(guó)于2022年提出了“可解釋、可通用的下一代人工智能方法”重大研究計(jì)劃,意在突破以深度學(xué)習(xí)為代表的人工智能算法黑箱現(xiàn)狀,以建立匹配不同領(lǐng)域的相關(guān)方法體系[11]。由上述可看出,可解釋人工智能技術(shù)雖然還未完全成熟,但核心理念在于瓦解人工智能算法黑箱壁壘,構(gòu)建用戶與人工智能系統(tǒng)充分信任。
最近,自動(dòng)駕駛技術(shù)不斷取得重大突破。端到端自動(dòng)駕駛[12]正逐漸成為自動(dòng)駕駛領(lǐng)域主流技術(shù)方案之一。端到端自動(dòng)駕駛將感知、預(yù)測(cè)和規(guī)劃等任務(wù)整合到統(tǒng)一的深度神經(jīng)網(wǎng)絡(luò)模型中,實(shí)現(xiàn)傳感器信號(hào)輸入后模型直接輸出車輛期望軌跡或期望動(dòng)作。深度神經(jīng)網(wǎng)絡(luò)模型的表現(xiàn)將直接決定自動(dòng)駕駛車輛的安全性。因此,面向自動(dòng)駕駛的可解釋人工智能技術(shù)在當(dāng)前自動(dòng)駕駛最新發(fā)展變化下顯得尤為重要。
鑒于此,如圖1所示,本文將面向自動(dòng)駕駛的可解釋人工智能技術(shù)闡述為:一種可以及時(shí)提供自動(dòng)駕駛系統(tǒng)在不同交通場(chǎng)景下的行動(dòng)決策解釋性信息從而保證系統(tǒng)決策在可接受的安全水平的人工智能技術(shù)。面向自動(dòng)駕駛的可解釋人工智能技術(shù)主要目標(biāo)為增強(qiáng)交通參與者對(duì)基于人工智能的自動(dòng)駕駛系統(tǒng)的理解和信任,提升系統(tǒng)透明度,并賦予系統(tǒng)決策的可審查性和可問(wèn)責(zé)性。
3面向自動(dòng)駕駛的可解釋人工智能案例分析
面對(duì)自動(dòng)駕駛對(duì)可解釋人工智能的迫切需求,不少學(xué)者已開始相關(guān)研究。隨著大語(yǔ)言模型技術(shù)取得顯著進(jìn)展,文獻(xiàn)[13]作為面向自動(dòng)駕駛的可解釋人工智能技術(shù)最新研究成果,介紹了一種基于多模態(tài)大模型的自動(dòng)駕駛可解釋人工智能技術(shù)。如圖2所示,該技術(shù)充分利用多模態(tài)大語(yǔ)言模型對(duì)圖像和文本的強(qiáng)大理解能力,在輸出自動(dòng)駕駛所需的車輛控制信號(hào)基礎(chǔ)上,能夠以擬人化語(yǔ)言描述自動(dòng)駕駛系統(tǒng)當(dāng)前所實(shí)施的動(dòng)作和理由,從而一定程度上消解了自動(dòng)駕駛中人工智能算法的黑箱特性,賦予了自動(dòng)駕駛系統(tǒng)的可解釋性。
用戶問(wèn)題 當(dāng)前么在干么? 車速、方向盤轉(zhuǎn)角等。 期望的控制信號(hào),例如 車輛制多模態(tài)大語(yǔ)言模型但需指出的是,單純依賴多模態(tài)大模型的研究難以構(gòu)建全面的面向自動(dòng)駕駛的可解釋人工智能技術(shù)。多模態(tài)大模型的性能優(yōu)劣本身取決于海量數(shù)據(jù)的訓(xùn)練。如何構(gòu)建高品質(zhì)自動(dòng)駕駛數(shù)據(jù)集是實(shí)現(xiàn)自動(dòng)駕駛可解釋性的重要前提。此外,近期自動(dòng)駕駛事故頻發(fā),正日益凸顯制度保障在自動(dòng)駕駛汽車運(yùn)行安全中的重要性,這也已成為社會(huì)普遍共識(shí)。制度保障是實(shí)現(xiàn)自動(dòng)駕駛可解釋性的重要支撐。綜上所述,如何系統(tǒng)性完整構(gòu)建面向自動(dòng)駕駛的可解釋人工智能技術(shù)依然是當(dāng)前亟待解決的重要難點(diǎn)和痛點(diǎn)問(wèn)題。
4面向自動(dòng)駕駛的可解釋人工智能技術(shù)框架
如圖3所示,本文給出了一種面向自動(dòng)駕駛的可解釋人工智能技術(shù)框架,該框架主要由數(shù)據(jù)治理、模型解釋和制度保障三部分組成。數(shù)據(jù)治理實(shí)現(xiàn)數(shù)據(jù)的有效管理,持續(xù)驅(qū)動(dòng)人工智能模型迭代優(yōu)化。模型解釋是可解釋人工智能技術(shù)的核心,主要由自動(dòng)駕駛系統(tǒng)、通用模型解釋方法和解釋大模型組成。通用模型解釋方法對(duì)自動(dòng)駕駛系統(tǒng)所涉及的人工智能模型進(jìn)行特征因素分析,實(shí)現(xiàn)模型精準(zhǔn)化解釋。解釋大模型是用戶與可解釋人工智能的主要橋梁,實(shí)現(xiàn)人工智能擬人化解釋輸出。制度保障是技術(shù)長(zhǎng)期穩(wěn)定發(fā)展的關(guān)鍵前提。
4.1數(shù)據(jù)治理
數(shù)據(jù)治理是指對(duì)自動(dòng)駕駛系統(tǒng)涉及的數(shù)據(jù)進(jìn)行合理管理。數(shù)據(jù)治理貫穿數(shù)據(jù)全生命周期,涵蓋數(shù)據(jù)采集、數(shù)據(jù)清洗、數(shù)據(jù)標(biāo)注、數(shù)據(jù)轉(zhuǎn)換、數(shù)據(jù)集成與數(shù)據(jù)存儲(chǔ)等多個(gè)環(huán)節(jié),涉及數(shù)據(jù)標(biāo)準(zhǔn)、數(shù)據(jù)質(zhì)量、數(shù)據(jù)安全、數(shù)據(jù)服務(wù)等多項(xiàng)內(nèi)容。
數(shù)據(jù)是構(gòu)建人工智能算法的前提和基石。自動(dòng)駕駛作為當(dāng)前人工智能算法的前沿應(yīng)用領(lǐng)域,也伴隨著海量多樣的數(shù)據(jù)。以小鵬汽車為例,其于2024年5月披露的端到端自動(dòng)駕駛訓(xùn)練數(shù)據(jù)已達(dá)到10億 km 。自動(dòng)駕駛數(shù)據(jù)采集傳感器包含多個(gè)類型,包括且不限于RGB攝像頭、紅外攝像頭、激光雷達(dá)、毫米波雷達(dá)、超聲波雷達(dá)等[14]。自動(dòng)駕駛數(shù)據(jù)涉及環(huán)境感知、場(chǎng)景建圖、軌跡預(yù)測(cè)與規(guī)劃等多項(xiàng)任務(wù)。因此,合理的數(shù)據(jù)治理對(duì)自動(dòng)駕駛和人工智能算法是不可或缺的。
數(shù)據(jù)質(zhì)量直接決定了人工智能算法的優(yōu)劣,從而影響自動(dòng)駕駛系統(tǒng)的實(shí)際性能表現(xiàn)。為此,數(shù)據(jù)治理應(yīng)具備以下能力:
a.敏感數(shù)據(jù)保護(hù)。自動(dòng)駕駛數(shù)據(jù)往往會(huì)涉及不少敏感數(shù)據(jù),例如用戶人臉、車牌信息等個(gè)人隱私數(shù)據(jù)。除個(gè)人數(shù)據(jù)外,自動(dòng)駕駛數(shù)據(jù)也難免包含部分涉及國(guó)家安全信息的內(nèi)容。因此,數(shù)據(jù)的脫敏加密是數(shù)據(jù)治理極為重要的能力。
b.數(shù)據(jù)準(zhǔn)確保障。自動(dòng)駕駛數(shù)據(jù)的真實(shí)與準(zhǔn)確是人工智能算法正確構(gòu)建的前提?;谝?guī)則的邏輯檢查和多方驗(yàn)證能夠有效識(shí)別錯(cuò)誤和無(wú)效數(shù)據(jù),是保障自動(dòng)駕駛數(shù)據(jù)準(zhǔn)確性的重要手段。
c.數(shù)據(jù)及時(shí)傳輸。自動(dòng)駕駛數(shù)據(jù)類型多,數(shù)據(jù)量大,需要及時(shí)的采集和存儲(chǔ)。對(duì)于多傳感器數(shù)據(jù),還需進(jìn)行準(zhǔn)確的時(shí)間匹配。合適的數(shù)據(jù)處理、存儲(chǔ)和匹配策略能夠保證數(shù)據(jù)的快速采集和真實(shí)可用。
d.數(shù)據(jù)標(biāo)準(zhǔn)化。自動(dòng)駕駛系統(tǒng)是一個(gè)持續(xù)迭代進(jìn)化的系統(tǒng),相關(guān)數(shù)據(jù)也會(huì)持續(xù)不斷采集。為此,標(biāo)準(zhǔn)化的數(shù)據(jù)定義和格式是支撐自動(dòng)駕駛系統(tǒng)快速迭代的支柱。
e.數(shù)據(jù)公平。為了避免人工智能算法潛在的偏見行為,基于多樣且合理數(shù)量的數(shù)據(jù)對(duì)人工智能模型進(jìn)行訓(xùn)練是極為必要的,可有效防止人種、性別等相關(guān)歧視行為。
4.2模型解釋
模型解釋是指增強(qiáng)自動(dòng)駕駛系統(tǒng)所涉及的人工智能模型的透明度,以便自動(dòng)駕駛系統(tǒng)所做的決策能夠被理解。上述人工智能模型包括涉及自動(dòng)駕駛環(huán)境感知、決策規(guī)劃和整車控制等所有環(huán)節(jié)的所有人工智能模型。
自動(dòng)駕駛汽車所處的交通環(huán)境是復(fù)雜多變的,并且會(huì)隨著時(shí)間和空間的變化而變化。人工智能模型不僅需要對(duì)汽車物理駕駛條件的變化具有魯棒性,包括且不限于不同的天氣條件、零部件磨損等,而且還需要對(duì)其他道路交通參與者行為的變化具有魯棒性,包括且不限于行人、鄰道汽車等。此外,政府監(jiān)管機(jī)構(gòu)和保險(xiǎn)機(jī)構(gòu)也能夠透明地認(rèn)證和審查自動(dòng)駕駛系統(tǒng),以便厘清潛在交通事故的復(fù)雜責(zé)任關(guān)系。模型解釋通過(guò)對(duì)人工智能模型決策輸出的及時(shí)說(shuō)明解釋,提高了模型透明度,是應(yīng)對(duì)上述要求和挑戰(zhàn)的有效方法。
模型解釋決定了人工智能模型的透明度,是保障自動(dòng)駕駛汽車安全運(yùn)行的核心基石。模型解釋應(yīng)具備以下能力:
a.完備的理解。當(dāng)自動(dòng)駕駛車輛行駛時(shí),保證安全的行駛距離以避免交通事故發(fā)生是極為重要的問(wèn)題。面對(duì)這個(gè)問(wèn)題,僅考慮本車運(yùn)行是遠(yuǎn)遠(yuǎn)不夠的,還需考慮其他交通參與者的可能行動(dòng)。為此,模型解釋不僅需要涉及本車決策,還需對(duì)其他交通參與者,包括車輛、行人等,進(jìn)行未來(lái)可能行動(dòng)的預(yù)測(cè)和解釋。對(duì)交通場(chǎng)景的完備理解是保障交通安全的核心前提。
b.合理的獎(jiǎng)勵(lì)。人工智能模型訓(xùn)練流程可看作在一個(gè)人為設(shè)定的獎(jiǎng)勵(lì)函數(shù)下通過(guò)多次獎(jiǎng)懲以得到一個(gè)表現(xiàn)較佳的模型。合理的獎(jiǎng)勵(lì)函數(shù)蘊(yùn)含了人類對(duì)合理駕駛行為的理解,從而使人工智能模型呈現(xiàn)與人一致的相關(guān)決策。特別是當(dāng)前,自動(dòng)駕駛系統(tǒng)正進(jìn)化為一個(gè)具有自適應(yīng)學(xué)習(xí)并具有強(qiáng)泛化能力的智能體,其獎(jiǎng)勵(lì)函數(shù)的制定必須考慮到未來(lái)更加長(zhǎng)遠(yuǎn)的應(yīng)用場(chǎng)景,不局限于短期的安全駕駛目標(biāo)。
c.魯棒的性能。交通環(huán)境復(fù)雜多樣,具有海量的邊界案例,全面完整的數(shù)據(jù)采集并不現(xiàn)實(shí)。高昂的數(shù)據(jù)采集成本也給真實(shí)數(shù)據(jù)采集增加不少阻力。仿真環(huán)境和合成數(shù)據(jù)的選用成為了選項(xiàng)之一。從仿真環(huán)境中完美遷移到真實(shí)道路場(chǎng)景一直都是學(xué)界和產(chǎn)業(yè)界的關(guān)注熱點(diǎn)。真實(shí)數(shù)據(jù)與仿真數(shù)據(jù)的合理平衡是目前確保人工智能魯棒性能和自動(dòng)駕駛系統(tǒng)安全運(yùn)行的有效途徑。
模型解釋作為面向自動(dòng)駕駛的可解釋人工智能核心要素,實(shí)現(xiàn)模型不同特征因素的精細(xì)化解釋,主要包括以下技術(shù):
a.LIME方法[15]:該方法通過(guò)在選定的樣本點(diǎn)周圍生成新的樣本點(diǎn),并使用新樣本點(diǎn)和黑箱模型的預(yù)測(cè)值來(lái)訓(xùn)練一個(gè)可解釋的模型;該方法主要為局部解釋復(fù)雜的人工智能模型,且是一種與模型無(wú)關(guān)的方法,可應(yīng)用于任何人工智能模型。
b.SHAP方法[15]:該方法借用了博弈論中的 Shapley值概念,核心思想是計(jì)算不同特征對(duì)模型輸出的邊際責(zé)獻(xiàn),從而對(duì)黑盒模型進(jìn)行解釋;該方法以公平性和一致性的理論保證而被廣泛認(rèn)可,可應(yīng)用于幾乎任何人工智能模型。
c.Grad-CAM方法[16]:該方法利用熱力圖的方式實(shí)現(xiàn)深度神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)過(guò)程的可視化,從而能更好地理解深度神經(jīng)網(wǎng)絡(luò);該方法主要針對(duì)卷積類神經(jīng)網(wǎng)絡(luò)。
d.LRP方法[17]:該方法基于梯度反向傳播過(guò)程分析不同輸入特征對(duì)網(wǎng)絡(luò)輸出的影響,從而實(shí)現(xiàn)黑盒模型解釋;該方法主要針對(duì)分層架構(gòu)網(wǎng)絡(luò)進(jìn)行解釋。
4.3制度保障
隨著人工智能技術(shù)的快速迭代與進(jìn)步,人工智能黑箱問(wèn)題已成為未來(lái)自動(dòng)駕駛?cè)嫫占暗闹饕系K。為解決該問(wèn)題,除應(yīng)用上述可解釋人工智能技術(shù)外,相應(yīng)的制度構(gòu)建和保障也不可或缺。人工智能可解釋相關(guān)制度是自動(dòng)駕駛系統(tǒng)研發(fā)和落地踐行以人為本的體現(xiàn),是建立人工智能系統(tǒng)與各利益相關(guān)主體之間信任的必經(jīng)路徑,是避免人工智能系統(tǒng)誤用濫用和維護(hù)相關(guān)方合法權(quán)利的有效手段。
面向自動(dòng)駕駛的人工智能可解釋相關(guān)制度應(yīng)以層次化體系建設(shè),以滿足不同維度需求。自動(dòng)駕駛場(chǎng)景復(fù)雜,不同的利益相關(guān)者眾多,人工智能模型解釋需求多樣。例如,監(jiān)管者需要及時(shí)獲悉人工智能系統(tǒng)是否有潛在的安全風(fēng)險(xiǎn),避免相應(yīng)事故發(fā)生;使用者有權(quán)利了解人工智能系統(tǒng)基本運(yùn)行原理從而建立合理預(yù)期,維護(hù)自身安全;開發(fā)者通過(guò)對(duì)人工智能系統(tǒng)更深入的理解可持續(xù)優(yōu)化模型設(shè)計(jì)和開發(fā),不斷提升系統(tǒng)可靠性。為此,應(yīng)根據(jù)不同利益相關(guān)者的專業(yè)背景和目標(biāo),基于不同相關(guān)者的實(shí)際需求,分類制定人工智能可解釋性的強(qiáng)制性制度和倡導(dǎo)性制度,充分考慮權(quán)利與義務(wù)相結(jié)合,保證基本安全的同時(shí),防正因義務(wù)過(guò)重而阻礙技術(shù)創(chuàng)新,為人工智能技術(shù)的持續(xù)發(fā)展預(yù)留足夠的空間。
面向自動(dòng)駕駛的人工智能可解釋相關(guān)制度應(yīng)以動(dòng)態(tài)化為指導(dǎo)原則,以快速響應(yīng)技術(shù)發(fā)展需求。相較于傳統(tǒng)技術(shù),人工智能技術(shù)的演進(jìn)速度極為迅速。自動(dòng)駕駛當(dāng)前主流的Transformer網(wǎng)絡(luò)結(jié)構(gòu)于2017年才被提出,
2021年就被特斯拉率先應(yīng)用于汽車智能駕駛,隨后國(guó)內(nèi)快速跟進(jìn)并迅速實(shí)現(xiàn)量產(chǎn)落地[18]。在當(dāng)前國(guó)內(nèi)外環(huán)境下,人工智能產(chǎn)業(yè)競(jìng)爭(zhēng)極為激烈,技術(shù)迭代速度迅猛,靜態(tài)化的制度設(shè)計(jì)難以適應(yīng)技術(shù)發(fā)展的快速節(jié)奏。為此,應(yīng)動(dòng)態(tài)化制定人工智能可解釋相關(guān)制度,通過(guò)實(shí)時(shí)技術(shù)跟蹤、應(yīng)用實(shí)情監(jiān)測(cè)和評(píng)估以及海量反饋結(jié)果及時(shí)靈活調(diào)整制度內(nèi)容,以響應(yīng)人工智能技術(shù)發(fā)展和應(yīng)用的實(shí)際需要。
5挑戰(zhàn)與展望
自動(dòng)駕駛技術(shù)已取得令人鼓舞的成果,但可解釋人工智能技術(shù)仍處于初級(jí)階段,許多挑戰(zhàn)亟待解決。
當(dāng)前,可解釋人工智能技術(shù)雖已獲得諸多成果,但相關(guān)方法的穩(wěn)定性尚待探究,仍需要理論基礎(chǔ)更為夯實(shí)的相關(guān)方法。為此,深入挖掘可解釋人工智能的理論基礎(chǔ),特別是從數(shù)學(xué)、統(tǒng)計(jì)學(xué)和物理學(xué)等多學(xué)科角度,探索其底層原理和機(jī)制,是面向自動(dòng)駕駛可解釋人工智能技術(shù)研究的未來(lái)重要方向。
自動(dòng)駕駛場(chǎng)景的復(fù)雜多變性將導(dǎo)致不同場(chǎng)景對(duì)可解釋人工智能的理解和要求存在顯著差異。如何在這些多樣化場(chǎng)景中有效評(píng)估可解釋人工智能方法的有效性,依然是亟待解決的難題。為此,構(gòu)建規(guī)范統(tǒng)一且多維度的可解釋人工智能評(píng)價(jià)體系,將是面向自動(dòng)駕駛可解釋人工智能技術(shù)研究的未來(lái)重要方向。
自動(dòng)駕駛技術(shù)和可解釋人工智能技術(shù)都需要廣泛的跨領(lǐng)域跨國(guó)家協(xié)作。然而,由于安全等原因,不同國(guó)家的數(shù)據(jù)和技術(shù)共享可能存在嚴(yán)格限制,彼此信任缺乏。為此,發(fā)展跨文化人工智能倫理框架,搭建確保個(gè)人隱私和國(guó)家安全的全球結(jié)構(gòu)化透明交流機(jī)制,是面向自動(dòng)駕駛可解釋人工智能技術(shù)研究的未來(lái)重要方向。
6結(jié)語(yǔ)
隨著人工智能技術(shù)迅速發(fā)展,自動(dòng)駕駛汽車有望成為最早普及的具身智能機(jī)器人。面對(duì)人工智能模型黑箱問(wèn)題,可解釋人工智能技術(shù)是保障自動(dòng)駕駛汽車安全行駛的必備方法。本文立足于可解釋人工智能研究尚不成熟的現(xiàn)狀,闡述了面向自動(dòng)駕駛的可解釋人工智能定義,深入剖析了相關(guān)案例,并在此基礎(chǔ)上構(gòu)建了面向自動(dòng)駕駛的可解釋人工智能技術(shù)框架,同時(shí)分析了當(dāng)前的挑戰(zhàn)和未來(lái)的研究方向。
參考文獻(xiàn):
[1] Mathew A,Amudha P,Sivakumari S.Deep learning techniques:anoverview[J].Advanced MachineLearning Technologiesand Applica-tions:Proceedings of AMLTA,2020,2021:599-608.
[2]WillersO,SudholtS,Raafatnia S,etal.Safety concerns and mitigationapproaches regarding the use of deep learning in safety-critical per-ception tasks[C]//ComputerSafety,Reliability,and Security.SAFE-COMP2020 Workshops:DECSoS 2020,DepDevOps2020,USDAI2020,andWAISE 2020,Lisbon,Portugal,September 15,2020,Pro-ceedings39.SpringerInternational Publishing,2020:336-350.
[3]邵廣亞.基于ISO26262的商用車整車控制器設(shè)計(jì)[D].南京:南京林業(yè)大學(xué),2024.
[4]李杰.面向預(yù)期功能安全的智能車行為決策算法研究[D].成都:電子科技大學(xué),2022.
[5]Langer M,OsterD,Speith T,etal.What do we want from explainableartificial intelligence(XAI)?- -astakeholderperspective on XAIandaconceptual model guiding interdisciplinary XAI research[J].Ar-tificialIntelligence,2021,296:103473.
[6]Dwivedi R,Dave D,Naik H,et al.ExplainableAI(XAI):core ideas,techniques,and solutions[J].ACM Computing Surveys,2023,55(9):1-33.
[7]WeitzK,Schiller D,SchlagowskiR,etal.“Do you trust me?\"Increas-inguser-trustbyintegratingvirtual agentsin explainableAI interac-tion design[C]//Proceedings of the 19th ACM International Confer-ence on Intelligent Virtual Agents,2019:7-9.
[8]Deeks A.The judicial demand for explainable artificial intelligence[J].ColumbiaLawReview,2019,119(7):1829-1850.
[9]Das S,Agarwal N,Venugopal D,etal.Taxonomy and survey of interpre-table machine learning method[C]/2O2O IEEE Symposium Series onComputational Intelligence(SSCI).IEEE,2020:670-677.
[10]趙延玉,趙曉永,王磊,等.可解釋人工智能研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(14):1-14.
[11]軼名.可解釋、可通用的下一代人工智能方法重大研究計(jì)劃2022年度項(xiàng)目指南[J].模式識(shí)別與人工智能,2022,35(5):481-482.
[12]陳妍妍,田大新,林椿眄,等.端到端自動(dòng)駕駛系統(tǒng)研究綜述[J].中國(guó)圖象圖形學(xué)報(bào),2024,29(11):3216-3237.
[13]Xu Z,ZhangY,XieE,etal.Drivegpt4:interpretable end-to-end au-tonomous driving via large language model[J].IEEE Robotics and Au-tomationLetters,2024.
[14]李弘揚(yáng),李陽(yáng),王暉杰,等.自動(dòng)駕駛開源數(shù)據(jù)體系:現(xiàn)狀與未來(lái)[J].中國(guó)科學(xué):信息科學(xué),2024,54(6):1283-1318.
[15]張林飛.基于LIME和SHAP的可解釋性老年慢性病預(yù)測(cè)方法[D].??冢汉D洗髮W(xué),2024.
[16]葉欽.基于Grad-CAM的模型解釋方法研究[D].哈爾濱:哈爾濱工程大學(xué),2023.
[17]陳藝元,李建威,邵文澤,等.基于逐層增量分解的深度網(wǎng)絡(luò)神經(jīng)元相關(guān)性解釋方法[J].自動(dòng)化學(xué)報(bào),2024,50(10):2049-2062.
[18]郭俊飛.自動(dòng)駕駛技術(shù)的現(xiàn)狀與未來(lái)發(fā)展趨勢(shì)[J].專用汽車,2024(8):46-48.
作者簡(jiǎn)介:
邊靖?jìng)?,男?992年生,博士研究生,研究方向?yàn)樽詣?dòng)駕駛系統(tǒng)、智能座艙系統(tǒng)。
李振鵬(通訊作者),男,1989年生,博士研究生,高級(jí)工程師,研究方向?yàn)槠囅到y(tǒng)設(shè)計(jì)、智能駕駛算法、操作系統(tǒng)。