孫麗文,李少帥
(河北工業(yè)大學(xué)經(jīng)濟(jì)管理學(xué)院,天津 300401)
在移動(dòng)互聯(lián)網(wǎng)、云計(jì)算等新興理論和技術(shù)共同驅(qū)動(dòng)下,人工智能跨越應(yīng)用紅線,與實(shí)體經(jīng)濟(jì)深度融合,對(duì)社會(huì)經(jīng)濟(jì)發(fā)展和產(chǎn)業(yè)轉(zhuǎn)型升級(jí)產(chǎn)生深刻影響[1]。但是人工智能的數(shù)據(jù)依賴性、算法黑箱性、自主決策性及高度開放性技術(shù)特征使其在為人類社會(huì)帶來好處和便利、推動(dòng)社會(huì)經(jīng)濟(jì)持續(xù)發(fā)展同時(shí),也引發(fā)了數(shù)據(jù)安全、隱私保護(hù)、算法歧視等風(fēng)險(xiǎn)問題[2],給社會(huì)、企業(yè)和個(gè)人層面均帶來嚴(yán)重風(fēng)險(xiǎn)挑戰(zhàn)。這些風(fēng)險(xiǎn)問題多與技術(shù)信任密切相關(guān)、相互交織,在很大程度上可歸結(jié)為技術(shù)信任挑戰(zhàn),如由于算法運(yùn)行存在 “黑箱”,可能連設(shè)計(jì)者也難以完全理解其具體過程,更無從知曉算法運(yùn)行最終結(jié)果以及潛在風(fēng)險(xiǎn)性,導(dǎo)致對(duì)人工智能技術(shù)置信鏈條斷裂,迫切需要通過技術(shù)信任修復(fù)和重構(gòu)置信鏈條。
當(dāng)前學(xué)界對(duì)人工智能風(fēng)險(xiǎn)及技術(shù)信任探討可歸結(jié)為兩個(gè)方面:①以風(fēng)險(xiǎn)為分析重點(diǎn),討論人工智能如何引發(fā)技術(shù)風(fēng)險(xiǎn)、社會(huì)風(fēng)險(xiǎn)、道德風(fēng)險(xiǎn)及法律風(fēng)險(xiǎn)等[3-4]。②以技術(shù)信任為分析重點(diǎn),探討人工智能對(duì)信任的沖擊。如Marcus等[5]認(rèn)為隨著越來越多決策權(quán)力逐漸向不可靠的機(jī)器轉(zhuǎn)移,人類無法充分相信狹義的AI系統(tǒng)。孟筱筱[6]從風(fēng)險(xiǎn)理論出發(fā),認(rèn)為人工智能信任問題與它所蘊(yùn)含的技術(shù)風(fēng)險(xiǎn)、社會(huì)風(fēng)險(xiǎn)、道德風(fēng)險(xiǎn)和法律風(fēng)險(xiǎn)密切相關(guān),因此需要加強(qiáng)人工智能風(fēng)險(xiǎn)治理和信用體系建設(shè)。整體看,現(xiàn)有研究依然呈現(xiàn)碎片化并缺乏深度性,且鮮有將技術(shù)信任置于風(fēng)險(xiǎn)情景下的詳細(xì)探討。人工智能作為最具變革性的新興技術(shù),其獨(dú)特的技術(shù)信任機(jī)制尚未形成。關(guān)于人工智能技術(shù)信任機(jī)制該如何建構(gòu)?應(yīng)涵蓋哪些具體內(nèi)容?又該如何解析該技術(shù)信任機(jī)制及運(yùn)行規(guī)律?以上問題都亟待深入研究。
可見,無論是實(shí)踐運(yùn)用還是理論研究,人工智能風(fēng)險(xiǎn)都與技術(shù)信任共生依存,鑒于其強(qiáng)烈的系統(tǒng)破壞性和長期影響性,探索風(fēng)險(xiǎn)情景下人工智能技術(shù)信任機(jī)制顯得更加緊迫和必要?;诖?,本文對(duì)人工智能技術(shù)信任這個(gè)極具前沿性和重要研究價(jià)值的問題進(jìn)行探討,嘗試建構(gòu)人工智能技術(shù)信任機(jī)制,并進(jìn)一步對(duì)該技術(shù)信任機(jī)制深度解析,以回應(yīng)上述問題。
技術(shù)信任文獻(xiàn)研究表明其內(nèi)涵要視技術(shù)創(chuàng)新發(fā)展和實(shí)際應(yīng)用情景而定。一方面,以McKnight等[7]為代表的學(xué)者認(rèn)為技術(shù)信任指對(duì)技術(shù)本身或者技術(shù)功能的信賴。Paul[8]認(rèn)為技術(shù)信任具有多維結(jié)構(gòu),包括機(jī)密性、身份認(rèn)證性等7個(gè)維度。袁勇等[9]進(jìn)一步將技術(shù)信任從技術(shù)本身拓展至技術(shù)功能,認(rèn)為技術(shù)信任體現(xiàn)為技術(shù)創(chuàng)新發(fā)展使人們對(duì)特定領(lǐng)域或者事物所形成的更高程度信賴,如區(qū)塊鏈技術(shù)能夠?yàn)楸U闲畔⒉槐粍h除和篡改提供解決方案。
另一方面,不同情景下的技術(shù)信任都有具體含義。Markus等[10]認(rèn)為共享經(jīng)濟(jì)情境下,技術(shù)信任是消費(fèi)者對(duì)共享平臺(tái)的技術(shù)設(shè)施與控制機(jī)制在支撐溝通、交易和協(xié)作中重要意義的高度認(rèn)可。技術(shù)信任源于消費(fèi)者與技術(shù)的交互過程,本質(zhì)上屬于依賴關(guān)系。而在電子商務(wù)情景下,技術(shù)信任與控制信任類似,都屬于非雙方信任形式,但與控制信任以提供治理結(jié)構(gòu)為根本保證不同,技術(shù)信任主要提供情景規(guī)范和促進(jìn)條件,更加關(guān)注技術(shù)溝通平臺(tái)的安全性。嚴(yán)中華等[11]認(rèn)為技術(shù)信任是主體相信能夠通過技術(shù)設(shè)施安全和控制機(jī)制實(shí)現(xiàn)交易的信念。風(fēng)險(xiǎn)情景下,技術(shù)信任既是化解特定風(fēng)險(xiǎn)的戰(zhàn)略導(dǎo)向和具體方法,也是對(duì)風(fēng)險(xiǎn)外部因素的內(nèi)心估量。實(shí)際上技術(shù)信任不僅體現(xiàn)為與風(fēng)險(xiǎn)緊密相連性,且更體現(xiàn)為技術(shù)安全可控和科技向善性?;谝陨戏治?,本文將風(fēng)險(xiǎn)情景下技術(shù)信任界定為 “技術(shù)透明度較高、可解釋性較強(qiáng),技術(shù)風(fēng)險(xiǎn)責(zé)任明確,符合人類倫理道德,及由此獲得的社會(huì)公眾對(duì)技術(shù)的肯定和認(rèn)同?!?/p>
探索技術(shù)信任影響因素是建構(gòu)技術(shù)信任機(jī)制的前提和基礎(chǔ)。本文通過對(duì)相關(guān)研究成果梳理和核心觀點(diǎn)提煉,發(fā)現(xiàn)技術(shù)信任主要受技術(shù)進(jìn)步和環(huán)境規(guī)制兩大因素影響。①雖然人工智能風(fēng)險(xiǎn)愈演愈烈,但同時(shí)風(fēng)險(xiǎn)治理技術(shù)手段也在不斷突破創(chuàng)新。作為精準(zhǔn)高效的治理工具,技術(shù)的嵌入使風(fēng)險(xiǎn)治理更加安全透明[12],同時(shí)在該過程中正向反饋不斷積累,置信鏈條得以重構(gòu), “需求-基礎(chǔ)-效果”的正向循環(huán)持續(xù)強(qiáng)化[13]。此外,人工智能本身也是重塑技術(shù)信任的利器,領(lǐng)先企業(yè)開始通過數(shù)據(jù)篩選、算法設(shè)計(jì)及模型優(yōu)化等方式著力解決隱私泄露、算法偏見等問題,以切實(shí)發(fā)展可信任人工智能??梢?,技術(shù)作為相對(duì)穩(wěn)定的 “著力點(diǎn)”,能夠匹配技術(shù)信任內(nèi)在需求,成為影響技術(shù)信任的重要因素;②倫理道德、行業(yè)共識(shí)和法律規(guī)范等成為環(huán)境規(guī)制體系的有機(jī)構(gòu)成,將技術(shù)信任深深烙印于人工智能,持續(xù)調(diào)試和矯正人工智能技術(shù)演進(jìn)方向[6],同時(shí)環(huán)境規(guī)制體系還明確了風(fēng)險(xiǎn)治理失效后的責(zé)任主體及懲處措施,以確保相關(guān)主體為其行為承擔(dān)責(zé)任,從而進(jìn)一步強(qiáng)化社會(huì)公眾的心理認(rèn)同。
對(duì)技術(shù)信任影響因素的相關(guān)探討為人工智能技術(shù)信任機(jī)制構(gòu)建與解析提供了思路,即技術(shù)信任建立不僅需要設(shè)定明確的性能指標(biāo),努力提升技術(shù)安全性、透明性等,且需要外部環(huán)境的有效監(jiān)管。當(dāng)然僅從現(xiàn)有文獻(xiàn)出發(fā)難以獲得技術(shù)信任的完整理論解釋,還要進(jìn)一步結(jié)合人工智能的技術(shù)屬性和實(shí)際發(fā)展情況予以具體考慮。
縱觀現(xiàn)有技術(shù)信任研究并考慮人工智能風(fēng)險(xiǎn)深刻而長遠(yuǎn)的影響,本文認(rèn)為人工智能技術(shù)信任機(jī)制構(gòu)建屬于復(fù)雜的系統(tǒng)性工程,既需要明確主導(dǎo)范式、厘清重要參與者,又要落實(shí)提升技術(shù)性能的目標(biāo),同時(shí)也要建立切實(shí)有效的規(guī)制體系。但已有研究尚不能全面深刻地詮釋人工智能技術(shù)信任機(jī)制的本質(zhì),對(duì)于技術(shù)信任范式如何選擇?技術(shù)信任參與主體如何構(gòu)成?技術(shù)信任目標(biāo)是什么?技術(shù)信任環(huán)境體系如何建立等問題缺乏研究。因此,本文圍繞以上問題,在梳理和凝練既有技術(shù)信任相關(guān)文獻(xiàn)基礎(chǔ)上,擬從主導(dǎo)范式、能動(dòng)主體、核心愿景和規(guī)制體系4個(gè)維度構(gòu)建人工智能技術(shù)信任機(jī)制模型。
技術(shù)信任主導(dǎo)范式主要回應(yīng) “根據(jù)什么實(shí)施技術(shù)信任”的問題。人工智能技術(shù)在與社會(huì)生態(tài)系統(tǒng)交互過程中引發(fā)了嚴(yán)峻的風(fēng)險(xiǎn)挑戰(zhàn),加劇了雙方的矛盾。傳統(tǒng)創(chuàng)新更多聚焦于技術(shù)先進(jìn)性、可行性,以及由技術(shù)商業(yè)化帶來的巨額收益和效率提高,市場成功被視為重要評(píng)價(jià)標(biāo)準(zhǔn),但由于對(duì)創(chuàng)新過程中的人身危害、倫理道德沖突等風(fēng)險(xiǎn)的忽視,無法滿足創(chuàng)新可持續(xù)發(fā)展和社會(huì)公共價(jià)值實(shí)現(xiàn)。不同于傳統(tǒng)創(chuàng)新范式將技術(shù)創(chuàng)新驅(qū)動(dòng)經(jīng)濟(jì)發(fā)展的正向推演邏輯為基本假定,責(zé)任式創(chuàng)新認(rèn)為在創(chuàng)新初期就應(yīng)引入有關(guān)風(fēng)險(xiǎn)及其危害的批判性探討,并在深入推進(jìn)技術(shù)商業(yè)化過程中實(shí)現(xiàn)風(fēng)險(xiǎn)治理和對(duì)技術(shù)的信任[14]。因此,風(fēng)險(xiǎn)情景下人工智能技術(shù)信任迫切需要以責(zé)任式創(chuàng)新為 “羅盤”,讓技術(shù)接受價(jià)值引導(dǎo)。
責(zé)任式創(chuàng)新首次在國家層面提出源于對(duì)納米科學(xué)領(lǐng)域的風(fēng)險(xiǎn)管控和信任需求[15],并由歐盟委員會(huì)在 “地平線2020框架計(jì)劃”中將其確定為 “責(zé)任式創(chuàng)新”[15]。針對(duì)新興技術(shù)引發(fā)的風(fēng)險(xiǎn),責(zé)任式創(chuàng)新以科技創(chuàng)新活動(dòng)雙重性、結(jié)果不確定性為基本假定[16],在關(guān)注技術(shù)先進(jìn)性、可行性和經(jīng)濟(jì)效益基礎(chǔ)上,更加重視對(duì)新興技術(shù)的風(fēng)險(xiǎn)防范,同時(shí)承認(rèn)創(chuàng)新主體能力局限并主張更廣泛利益相關(guān)者的共同參與[17]。責(zé)任式創(chuàng)新作為構(gòu)建人工智能技術(shù)信任機(jī)制的起點(diǎn),為應(yīng)對(duì)化解風(fēng)險(xiǎn),加快實(shí)現(xiàn)人類對(duì)人工智能的技術(shù)信任提供了方向性指引。
技術(shù)信任能動(dòng)主體主要回應(yīng) “人工智能技術(shù)信任機(jī)制的參與主體是誰”的問題。首先,技術(shù)信任機(jī)制需要頂層制度框架搭建。國家和政府具有最強(qiáng)權(quán)威和公信力,不僅從國家層面統(tǒng)領(lǐng)人工智能技術(shù)研發(fā)與治理框架搭建,而且通過設(shè)立專業(yè)管理機(jī)構(gòu),政策發(fā)布和法律規(guī)制等進(jìn)行防控[2],在人工智能技術(shù)信任機(jī)制構(gòu)建過程中具有領(lǐng)導(dǎo)和監(jiān)管作用;其次,技術(shù)信任機(jī)制需要行業(yè)組織的推動(dòng)和協(xié)調(diào)。行業(yè)組織能夠參與到多方服務(wù)、促進(jìn)溝通、關(guān)系協(xié)調(diào)等諸多環(huán)節(jié),發(fā)揮橋梁作用;再次,技術(shù)信任機(jī)制需要行業(yè)相關(guān)企業(yè)自律。企業(yè)以聯(lián)盟、行業(yè)規(guī)范等方式履行行業(yè)自律,綜合實(shí)力強(qiáng)大的科技型企業(yè)更以強(qiáng)烈使命感投身信任機(jī)制構(gòu)建,成為人工智能技術(shù)信任機(jī)制建立的中堅(jiān)力量;第四,技術(shù)信任機(jī)制需要學(xué)界的支持。作為教育者和反思者,學(xué)界在在承擔(dān)知識(shí)生產(chǎn)和傳播同時(shí),積極倡導(dǎo) “責(zé)任式創(chuàng)新”,更加關(guān)注廣泛情景下的新興技術(shù)風(fēng)險(xiǎn)治理[17],為人工智能技術(shù)信任提供智力支持;最后,技術(shù)信任建立還需要社會(huì)公眾的廣泛參與。通過多種正式和非正式渠道對(duì)人工智能技術(shù)信任具體內(nèi)容進(jìn)行監(jiān)督、討論和反饋。
技術(shù)信任核心愿景主要回應(yīng) “技術(shù)信任目標(biāo)是什么”的問題。人工智能技術(shù)信任核心愿景直接決定了技術(shù)能力提升的施力方向。基于技術(shù)信任對(duì)技術(shù)能力從低級(jí)到高級(jí)的需求邏輯,即技術(shù)蘊(yùn)含的經(jīng)濟(jì)價(jià)值得到充分釋放[18],技術(shù)具備較強(qiáng)魯棒性,即使在異常和危險(xiǎn)情況下,依然能夠安全平穩(wěn)運(yùn)行[19],技術(shù)及運(yùn)行原理能夠被認(rèn)知和理解[20],人類能夠在較大程度上掌控技術(shù)創(chuàng)新與應(yīng)用發(fā)展趨勢[21],人類有能力明確技術(shù)責(zé)任主體并予以督促和監(jiān)管[22]。本文提出人工智能技術(shù)信任的5個(gè)核心愿景,即技術(shù)可用性、技術(shù)可靠性、技術(shù)可知性、技術(shù)可控性和技術(shù)可追責(zé)。
(1)技術(shù)可用。人工智能首要目的是增加人類社會(huì)福祉。因此,一方面,技術(shù)可用性意味著人工智能技術(shù)發(fā)展及應(yīng)用要體現(xiàn)人類根本利益至上的原則,其研發(fā)和應(yīng)用應(yīng)維護(hù)人類尊嚴(yán)、保障人類權(quán)利及自由,促進(jìn)技術(shù)紅利得到合理分配,縮小數(shù)字鴻溝,同時(shí)也要降低技術(shù)風(fēng)險(xiǎn)和對(duì)社會(huì)的負(fù)向影響,以及提倡和平使用人工智能,避免致命性智能武器的軍備競賽[23];另一方面,技術(shù)可用性意味著人工智能與人類應(yīng)是和諧共生關(guān)系,人工智能應(yīng)以保障和改善民生為根本出發(fā)點(diǎn),創(chuàng)造出更大數(shù)字福祉,使人類更加健康、快樂和幸福。此外,技術(shù)可用性還意味著包容性和公平正義性。即需要賦能予人,讓弱勢群體也能共享人工智能技術(shù)帶來的巨大紅利。
(2)技術(shù)可靠性。人工智能技術(shù)可靠性體現(xiàn)為在模擬和實(shí)際應(yīng)用情景都能夠抵御惡意網(wǎng)絡(luò)攻擊等突發(fā)因素,實(shí)現(xiàn)運(yùn)行的安全與穩(wěn)定。模擬測試情景下,需要足夠多的硬件系統(tǒng)測試和算法風(fēng)險(xiǎn)測試,尤其針對(duì)醫(yī)療等可能造成人身傷害的行業(yè)領(lǐng)域,不僅必須通過極端的器械可靠性測試,而且要通過對(duì)可能的算法特征引起風(fēng)險(xiǎn)的針對(duì)性測試;實(shí)際應(yīng)用情景下,不僅要考慮正常算法和數(shù)據(jù)輸入情形,也要考慮異常情形下人工智能是否具有較強(qiáng)的容錯(cuò)能力,確保數(shù)字網(wǎng)絡(luò)安全、生命財(cái)產(chǎn)安全及社會(huì)秩序穩(wěn)定。
美國國際互聯(lián)網(wǎng)安全系統(tǒng)公司在20世紀(jì)曾經(jīng)提出了P2DR (Policy Protection Detection Response)、P2DR2 (P2DR + Restore)等安全模型,把信息系統(tǒng)安全解釋為在安全策略引導(dǎo)下,打造以防護(hù)、檢測、響應(yīng)及恢復(fù)為一體的動(dòng)態(tài)循環(huán)。這些模型能夠?yàn)榧夹g(shù)可靠性提供很好的思路借鑒,本文將P2DR模型引入人工智能技術(shù)可靠性分析,結(jié)合人工智能特點(diǎn)對(duì)各要素內(nèi)涵進(jìn)行了重新界定并構(gòu)建適用于人工智能的技術(shù)可靠性模型,如圖1所示。①安全策略是人工智能技術(shù)可靠性的核心,是所有防護(hù)、檢測和響應(yīng)實(shí)施的根本依據(jù)。安全策略的最終目的在于實(shí)現(xiàn)自主性決策和風(fēng)險(xiǎn)治理的平衡,找到兩者的最優(yōu)動(dòng)態(tài)解。②安全檢測是人工智能技術(shù)系統(tǒng)動(dòng)態(tài)響應(yīng)和增強(qiáng)防護(hù)的依據(jù),能夠洞察技術(shù)危險(xiǎn)和漏洞并通過循環(huán)反饋進(jìn)行響應(yīng)。③安全防護(hù)通過定期檢查、訪問控制、監(jiān)視等手段發(fā)現(xiàn)人工智能技術(shù)存在的系統(tǒng)脆弱性等潛在風(fēng)險(xiǎn),常用手段包括數(shù)據(jù)加密、VPN、安全掃描等。④安全響應(yīng),即當(dāng)人工智能算法決策超出人類理解范圍甚至可能產(chǎn)生失控時(shí),需要人類及時(shí)且有效地介入和接管,當(dāng)風(fēng)險(xiǎn)程度極高甚至有可能導(dǎo)致不可逆后果時(shí)必須設(shè)置 “切斷開關(guān)”,以迅速終止人工智能算法。
(3)技術(shù)可知性。人們對(duì)技術(shù)的信任在很大程度上源于對(duì)技術(shù)本身的理解。然而新一代人工智能屬于多層神經(jīng)網(wǎng)絡(luò),不同變量之間關(guān)系千絲萬縷,算法呈現(xiàn)涌現(xiàn)性和自主性的復(fù)雜特征,有時(shí)連研發(fā)人員都無法理解其運(yùn)行方式,導(dǎo)致 “黑箱”現(xiàn)象。 《Science》雜志也認(rèn)為算法 “黑箱”可能會(huì)導(dǎo)致嚴(yán)重的系統(tǒng)性風(fēng)險(xiǎn)并將破解 “黑箱”視為人工智能領(lǐng)域的重大難題[24]。
提升技術(shù)可知性需要兼顧不同主體對(duì)于認(rèn)知性的需求差異。其中研發(fā)人員對(duì)人工智能技術(shù)原理有著最為深層和強(qiáng)烈的認(rèn)知需求,需要深耕可理解、可解釋的算法模型并借助技術(shù)手段將 “機(jī)器理解層次”降維至 “人類理解層次”,使人工智能重回 “人類尺度”,從技術(shù)層面部分解決 “黑箱”問題。其他主體對(duì)技術(shù)可知性需求集中體現(xiàn)為對(duì)人工智能技術(shù)關(guān)鍵環(huán)節(jié)的理解,為此需要政府、學(xué)界及領(lǐng)先企業(yè)共同探索制定技術(shù)操作和解釋標(biāo)準(zhǔn),同時(shí)也應(yīng)為社會(huì)公眾參與創(chuàng)造機(jī)會(huì),確保社會(huì)公眾切實(shí)成為提升技術(shù)可知性的積極參與者。此外,提升技術(shù)可知性也需要對(duì)可能產(chǎn)生較大風(fēng)險(xiǎn)的環(huán)節(jié)提供必要且適當(dāng)?shù)恼f明或解釋 (包括背后的邏輯和數(shù)據(jù)),但同時(shí)應(yīng)避免因過渡透明化或片面強(qiáng)調(diào)技術(shù)的完全可知性,影響甚至阻礙人工智能技術(shù)創(chuàng)新和社會(huì)進(jìn)步,即遵循適度的公開透明性原則。
(4)技術(shù)可控性。技術(shù)可控意味著人工智能創(chuàng)新及規(guī)?;瘧?yīng)用應(yīng)置于人類合理控制之下,能夠根據(jù)技術(shù)及其對(duì)社會(huì)經(jīng)濟(jì)發(fā)展的影響衡量或評(píng)估風(fēng)險(xiǎn)性,并及時(shí)采取技術(shù)管控措施,防止因人工智能對(duì)社會(huì)經(jīng)濟(jì)結(jié)構(gòu)的深度嵌入而無法被有效治理,即出現(xiàn) “科林格里奇”困境[25]。在技術(shù)層面,技術(shù)可控性要求勇闖科技前沿的 “無人區(qū)”、攻克由人工智能高度開放性、自主決策性等形成的 “卡脖子”技術(shù)難關(guān),構(gòu)建技術(shù)風(fēng)險(xiǎn)評(píng)估框架,把風(fēng)險(xiǎn)指標(biāo)化、定量化,為技術(shù)風(fēng)險(xiǎn)測度及方案制定提供借鑒。同時(shí),要通過技術(shù)手段對(duì)高風(fēng)險(xiǎn)人工智能技術(shù)實(shí)施最高等級(jí)管控,如在人工智能技術(shù)系統(tǒng)中嵌入具有可中斷性能力的程序命令或技術(shù)模塊等。在實(shí)踐層面,技術(shù)可控性要求提前制定完備的技術(shù)應(yīng)對(duì)方案和響應(yīng)策略,在最短時(shí)間內(nèi)精準(zhǔn)鎖定風(fēng)險(xiǎn)的技術(shù)根源,將風(fēng)險(xiǎn)損失降至最低。雖然,目前還無法預(yù)測強(qiáng)人工智能能否實(shí)現(xiàn)以及如何實(shí)現(xiàn),但依然不能掉以輕心,應(yīng)謹(jǐn)慎對(duì)待和預(yù)防,因此技術(shù)可控還意味著建立風(fēng)險(xiǎn)警示體系,超前布局對(duì)未來可能形成的強(qiáng)人工智能風(fēng)險(xiǎn)的防范。
(5)技術(shù)可追責(zé)。技術(shù)追責(zé)不僅作為風(fēng)險(xiǎn)治理失敗時(shí)的懲罰機(jī)制,更重要意義在于通過技術(shù)追責(zé)追溯隱患原因并明確責(zé)任,尤其當(dāng)風(fēng)險(xiǎn)侵害導(dǎo)致倫理與法律產(chǎn)生較大沖突時(shí),能通過技術(shù)對(duì)相關(guān)責(zé)任主體實(shí)施問責(zé)并且建立賠償體系,促進(jìn)風(fēng)險(xiǎn)治理的公平合理性并完善技術(shù)信任機(jī)制。 《人工智能白皮書-通往卓越與信任的歐洲之路》中明確指出 “技術(shù)追責(zé)是高風(fēng)險(xiǎn)人工智能監(jiān)管的重要措施,同時(shí)也是構(gòu)建可信任生態(tài)系統(tǒng)的必要環(huán)節(jié)”[26]。實(shí)際中需要政府秉持 “權(quán)責(zé)一致性”的原則,塑造 “成果共享、責(zé)權(quán)同擔(dān)”的責(zé)權(quán)體系[27]。這意味著權(quán)利覆蓋范圍即是風(fēng)險(xiǎn)責(zé)任范疇,如設(shè)計(jì)者需要對(duì)開發(fā)階段的風(fēng)險(xiǎn)隱患擔(dān)責(zé),使用者需要對(duì)使用階段的風(fēng)險(xiǎn)隱患負(fù)責(zé),同時(shí)也意味著即使無法解釋人工智能產(chǎn)生的結(jié)果,使用該人工智能技術(shù)的主體同樣需要對(duì)此負(fù)責(zé)。此外,歐盟 《人工智能白皮書》和國家人工智能標(biāo)準(zhǔn)化總體組 《人工智能倫理風(fēng)險(xiǎn)分析報(bào)告》都要求責(zé)任主體在合理期限內(nèi)留存人工智能設(shè)計(jì)和使用的算法、數(shù)據(jù)等信息,以利于在形成侵害時(shí)審查和明確責(zé)任歸屬[28]。
技術(shù)信任規(guī)制體系主要回應(yīng)技術(shù)信任的外部環(huán)境如何監(jiān)管的問題。監(jiān)管方式囊括社會(huì)習(xí)俗、倫理道德、行業(yè)共識(shí)、法律規(guī)范 (公司法、刑法等)及國際公約等。根據(jù)作用性質(zhì)差異可分為柔性規(guī)則和剛性規(guī)則兩種約束體系,倫理和法律分別成為柔性規(guī)則和剛性規(guī)則的核心內(nèi)容。 “柔性的倫理”和 “剛性的法律”共同構(gòu)成人工智能技術(shù)信任規(guī)制體系兩大支柱。同時(shí),因法律和倫理均存在缺陷,因此需要持續(xù)完善和暢通現(xiàn)有規(guī)制體系,切實(shí)發(fā)揮其風(fēng)險(xiǎn)防范和管控的應(yīng)有作用。
(1)以法律為保障的風(fēng)險(xiǎn)防控體系。法律以國家強(qiáng)制力劃定底線,在大力破除人工智能發(fā)展現(xiàn)實(shí)障礙同時(shí),進(jìn)一步聚焦對(duì)人工智能風(fēng)險(xiǎn)的化解,推動(dòng)發(fā)展負(fù)責(zé)任的人工智能。以法律為保障的風(fēng)險(xiǎn)防控體系需要充分考慮國際競爭、社會(huì)經(jīng)濟(jì)價(jià)值等因素,保證技術(shù)紅利最大化釋放,以形成較強(qiáng)的人工智能產(chǎn)業(yè)競爭力,避免因偶發(fā)性的負(fù)面問題而采取激進(jìn)監(jiān)管。由于法律以風(fēng)險(xiǎn)為導(dǎo)向,其監(jiān)管力度與風(fēng)險(xiǎn)危害等級(jí)相匹配,同時(shí)將人工智能在具體領(lǐng)域 (自動(dòng)駕駛、醫(yī)療等)的風(fēng)險(xiǎn)特征視為技術(shù)溯源依據(jù)和法律制定之根本。因此,采取 “分級(jí)分類”和 “場景規(guī)制”相結(jié)合的監(jiān)管思路成為實(shí)施法律約束、推動(dòng)技術(shù)信任的最佳拍檔。
數(shù)據(jù)和算法既是推動(dòng)人工智能技術(shù)蓬勃發(fā)展的關(guān)鍵 “燃料”,也是引發(fā)風(fēng)險(xiǎn)的 “導(dǎo)火索”,因此數(shù)據(jù)和算法成為立法監(jiān)管重點(diǎn)對(duì)象,而算力的純技術(shù)性使其較少受到法律關(guān)注。數(shù)據(jù)立法與監(jiān)管方面,新興技術(shù)的運(yùn)用使數(shù)據(jù)富含價(jià)值越來越大,但同時(shí)海量數(shù)據(jù)的收集、深度分析及應(yīng)用觸動(dòng)了人類隱私權(quán)、知情權(quán)等根本利益,為此歐盟于2018年頒布 《通用數(shù)據(jù)保護(hù)條例》,不僅直接推動(dòng)人工智能數(shù)據(jù)風(fēng)險(xiǎn)治理的立法進(jìn)程,而且成為美國、印度等國家制定數(shù)據(jù)保護(hù)法律的重要范本。同時(shí),鑒于生物數(shù)據(jù)的特殊性及戰(zhàn)略意義,包括中國、美國等在內(nèi)的許多國家尤其重視針對(duì)生物數(shù)據(jù)的監(jiān)管和風(fēng)險(xiǎn)防范,中國信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)頒布 《信息安全技術(shù) 指紋識(shí)別系統(tǒng)技術(shù)要求》[29]和 《信息安全技術(shù) 虹膜識(shí)別系統(tǒng)技術(shù)要求》[30]。算法立法與監(jiān)管方面,透明和責(zé)任成為關(guān)鍵內(nèi)容,美國、法國和加拿大分別制定法律對(duì)算法透明性和問責(zé)性等內(nèi)容予以規(guī)范。
本文根據(jù)中國信息通信研究院與中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟發(fā)布的 《人工智能治理白皮書》[31],從監(jiān)管維度、法律條文和監(jiān)管內(nèi)容3個(gè)方面歸納人工智能法律監(jiān)管框架,見表1。由于人工智能風(fēng)險(xiǎn)法律風(fēng)險(xiǎn)防控體系初步形成,存在法律條例沖突、違法行為難認(rèn)定、量刑分歧及整體立法進(jìn)程緩慢等問題,需持續(xù)修訂與改進(jìn)。
表1 人工智能的法律監(jiān)管框架
(2)以倫理為導(dǎo)向的社會(huì)規(guī)范體系。由于人工智能具有數(shù)據(jù)依賴性、算法黑箱性及自主決策性等特征[31],加之法律滯后性、 “一刀切”的極端性、作用范圍有限等局限,使技術(shù)信任規(guī)制體系建立不能僅依靠法律規(guī)范,而需要法律和倫理的同心戮力。人工智能本身雖沒有倫理道德品質(zhì),但技術(shù)研發(fā)者可通過算法設(shè)計(jì)、數(shù)據(jù)選擇、模型優(yōu)化等方式賦予其倫理價(jià)值,因此人工智能技術(shù)并非中立,其中飽含人類對(duì)于現(xiàn)在和未來的思考及決定,非常有必要通過充分發(fā)揮倫理道德作用使其接受價(jià)值引導(dǎo),使技術(shù)從誕生便承載一定價(jià)值傾向,讓倫理道德內(nèi)化于人工智能技術(shù)結(jié)構(gòu)之中,釋放向善潛力。
目前,人工智能數(shù)據(jù)安全、算法歧視等風(fēng)險(xiǎn)已成為國際社會(huì)的焦點(diǎn)問題,引發(fā)對(duì)風(fēng)險(xiǎn)治理和技術(shù)信任的倫理反思和討論[32]。國際組織、國家機(jī)構(gòu)及領(lǐng)先企業(yè)紛紛提出倫理原則或框架,以促進(jìn)知識(shí)共享和可信AI構(gòu)建。在國際層面,為確保歐盟具有與人工智能發(fā)展相適應(yīng)的倫理框架,起草了人工智能倫理指南 (AI Ethics Guidelines)[33];在國家層面,英國已經(jīng)成立數(shù)據(jù)倫理和創(chuàng)新中心 (CDEI),視倫理為人工智能創(chuàng)新管理的核心之一并考慮制定普適的倫理體系。中國頂層設(shè)計(jì)政策也要求制定促進(jìn)人工智能發(fā)展的倫理規(guī)范,并于2019年6月份頒布 《新一代人工智能治理原則》,發(fā)展負(fù)責(zé)任的人工智能[34];在企業(yè)層面,Google、騰訊等領(lǐng)先企業(yè)針對(duì)人工智能負(fù)外部性影響,紛紛提出各自的AI價(jià)值觀,并通過設(shè)立內(nèi)部監(jiān)管機(jī)構(gòu)、履行倫理使命,竭盡全力贏得社會(huì)公眾對(duì)人工智能和企業(yè)的信任。本文同樣在 《人工智能治理白皮書》基礎(chǔ)上,從倫理發(fā)布層次、發(fā)布者、倫理原則名稱及核心內(nèi)容4個(gè)方面歸納人工智能倫理規(guī)范體系,見表2。與風(fēng)險(xiǎn)防控體系相比,社會(huì)規(guī)范體系更加靈活,但仍需在打通多層面的倫理認(rèn)知、強(qiáng)化倫理共識(shí)、注重倫理實(shí)際效能等方面付出努力。
表2 人工智能多層次倫理規(guī)范體系
人工智能技術(shù)信任機(jī)制需要以 “責(zé)任式創(chuàng)新”為主導(dǎo)范式,以國家政府、行業(yè)組織、企業(yè)、學(xué)界及社會(huì)公眾為能動(dòng)主體,將可用、可靠、可知、可控和可追責(zé)作為人工智能技術(shù)信任的核心愿景,同時(shí)充分發(fā)揮法律規(guī)范和倫理約束的功能。本文歸納構(gòu)建了人工智能技術(shù)信任機(jī)制模型,如圖2所示。
圖2 人工智能技術(shù)信任機(jī)制——1P3W模型
以貝克[35]和吉登斯[36]為代表的風(fēng)險(xiǎn)社會(huì)理論認(rèn)為風(fēng)險(xiǎn)和信任相互交織,技術(shù)信任的實(shí)現(xiàn)得益于主體、技術(shù)、環(huán)境3個(gè)要素的共同發(fā)力,但人工智能引致的風(fēng)險(xiǎn)破壞了人與機(jī)器之間的置信鏈條,現(xiàn)有主體、技術(shù)和環(huán)境的 “三重奏”既不能為風(fēng)險(xiǎn)情景下人工智能技術(shù)信任重建提供明確且合適的范式依據(jù),亦不能滿足技術(shù)信任機(jī)制研究的細(xì)化與深化,而必須從宏觀層面的要素構(gòu)成深入微觀層面的內(nèi)在交互。為此,需要以責(zé)任式創(chuàng)新為首要導(dǎo)向,充分激活能動(dòng)主體、核心愿景和規(guī)制體系的內(nèi)在交互屬性,釋放科技向善潛能。責(zé)任式創(chuàng)新范式滲透于能動(dòng)主體、核心愿景和規(guī)制體系,促進(jìn)能動(dòng)主體通過協(xié)同克服自身局限,并引導(dǎo)愿景目標(biāo)的相互聯(lián)結(jié)和規(guī)則體系融合。
風(fēng)險(xiǎn)情景下人工智能技術(shù)信任要在治理過程中實(shí)現(xiàn),但由于人工智能屬于綜合性和交叉性極強(qiáng)的復(fù)合型前沿學(xué)科,涉及領(lǐng)域極為廣泛,需要計(jì)算機(jī)科學(xué)、神經(jīng)科學(xué)、社會(huì)科學(xué)等多學(xué)科的深度融合[37]。同時(shí),技術(shù)信任也更加依賴于多元化主體的相互協(xié)同。責(zé)任式創(chuàng)新范式為探索多元主體參與的協(xié)同共治提供了關(guān)鍵性行為準(zhǔn)則:基于主體功能局限性和治理需求 (專業(yè)化、多元化、敏捷化)的多元主體密切合作。
盡管目前許多國家都設(shè)立了相應(yīng)的政府監(jiān)管機(jī)構(gòu),但這些監(jiān)管機(jī)構(gòu)本質(zhì)上屬于政治實(shí)體,難以全面和深刻理解人工智能風(fēng)險(xiǎn)及治理的復(fù)雜性,因此國家政府需要與具備專業(yè)知識(shí)的共同體形成有效聯(lián)動(dòng),打造專業(yè)治理團(tuán)隊(duì),以促進(jìn)技術(shù)信任和提升公信力。同樣地,行業(yè)組織、企業(yè)、學(xué)界以及社會(huì)公眾由于知識(shí)儲(chǔ)備、思維方式等方面的局限,也難以憑借一己之力力挽狂瀾,而唯有通過相互協(xié)同,在風(fēng)險(xiǎn)治理過程中深化交流與合作,進(jìn)一步鞏固和拓展既有知識(shí)體系,才能克服自身局限性并滿足人工智能專業(yè)化、多元化和敏捷化的風(fēng)險(xiǎn)治理需求,從而形成可信賴的治理群落,通過信任于人增強(qiáng)技術(shù)信任。
從純技術(shù)創(chuàng)新和技術(shù)功能升級(jí)而言,由于人工智能技術(shù)創(chuàng)新和功能升級(jí)的內(nèi)在聯(lián)系性,各愿景目標(biāo)并不是孤立存在,而是本質(zhì)上相聯(lián)結(jié)。風(fēng)險(xiǎn)情景下更需要將責(zé)任式創(chuàng)新范式作為實(shí)施愿景目標(biāo)聯(lián)結(jié)的方向,以明晰其內(nèi)在邏輯關(guān)系,形成安全負(fù)責(zé)的人工智能技術(shù)體系。①可用性是其他目標(biāo)實(shí)現(xiàn)的首要前提,唯有可用才能創(chuàng)造價(jià)值,即責(zé)任式創(chuàng)新范式所強(qiáng)調(diào)的技術(shù)領(lǐng)先可行和經(jīng)濟(jì)效益增加[17]。技術(shù)特征、應(yīng)用領(lǐng)域和實(shí)施路徑都對(duì)可靠性、可知性、可控性及追責(zé)產(chǎn)生深刻影響;②可靠性是其他目標(biāo)實(shí)現(xiàn)的安全屏障。一方面從技術(shù)層面防范惡意網(wǎng)絡(luò)攻擊等風(fēng)險(xiǎn),確保人工智能在可用性的基礎(chǔ)上更加安全穩(wěn)定[38];另一方面可靠性往往需要通過足夠多的、嚴(yán)格的、多情景的軟硬件測試以建立相應(yīng)安全模型,同時(shí)其實(shí)施過程也為可知性和可控性奠定了操作基礎(chǔ);③可知性是其他目標(biāo)實(shí)現(xiàn)的關(guān)鍵環(huán)節(jié)??芍院推渌妇澳繕?biāo)均存在聯(lián)系,對(duì)技術(shù)信任具有全局性影響,很大程度決定了人類對(duì)AI的整體信任;④可控性是其他目標(biāo)實(shí)現(xiàn)的應(yīng)有之意。與可知性更多聚焦技術(shù)層面的論述不同,可控性不僅體現(xiàn)在對(duì)人工智能的技術(shù)控制能力,而且體現(xiàn)在對(duì)其風(fēng)險(xiǎn)具有較強(qiáng)的防范治理能力[21]。提升可控性有助于優(yōu)化技術(shù)安全模型、增加可靠性,同時(shí)可控性屬于高級(jí)認(rèn)知性,該過程也必然伴隨認(rèn)知能力的顯著提升;⑤可追責(zé)是其他目標(biāo)實(shí)現(xiàn)的補(bǔ)充和完善。追責(zé)機(jī)制能夠在風(fēng)險(xiǎn)治理失敗時(shí)明確責(zé)任和賠償,迫使各利益相關(guān)者重新審視自身責(zé)任與使命[22],反思如何更好實(shí)現(xiàn)可用、可靠、可知和可控,從而持續(xù)完善技術(shù)信任機(jī)制。
風(fēng)險(xiǎn)情景下,以法律為保障的風(fēng)險(xiǎn)防控體系和以倫理為導(dǎo)向的社會(huì)規(guī)范體系作為技術(shù)信任規(guī)制體系的架海金梁,本質(zhì)上代表著以法律為中心的 “剛性規(guī)則”和以倫理為中心的 “柔性規(guī)則”。責(zé)任式創(chuàng)新認(rèn)為新興技術(shù)的治理和信任獲取需要法律規(guī)范的約束與道德倫理的認(rèn)同[39]。在此基礎(chǔ)上,本文進(jìn)一步認(rèn)為這兩種規(guī)則都有各自的適用范圍和獨(dú)特的作用方式,并在推動(dòng)技術(shù)信任形成的過程中互相配合、促進(jìn)和補(bǔ)充。
一方面,在人工智能技術(shù)發(fā)展的關(guān)鍵要素 (數(shù)據(jù)和算法)和發(fā)展較充分、風(fēng)險(xiǎn)相對(duì)確定的領(lǐng)域 (如自動(dòng)駕駛和醫(yī)療)形成了以法律為主導(dǎo)的融合路徑。法律通過將某些倫理道德法律化,并使之規(guī)范化、制度化,并以國家強(qiáng)制力為背書,運(yùn)用國家強(qiáng)制力來保障規(guī)則體系融合的內(nèi)容能夠順利實(shí)施。如歐盟 《通用數(shù)據(jù)保護(hù)條例》第35條就明確要求數(shù)據(jù)使用者在應(yīng)用人工智能進(jìn)行自動(dòng)化決策處理時(shí),必須評(píng)估數(shù)據(jù)可能帶來的風(fēng)險(xiǎn)影響;另一方面,在人工智能技術(shù)尚不充分、風(fēng)險(xiǎn)錯(cuò)綜復(fù)雜的領(lǐng)域形成了以倫理為主導(dǎo)的融合路徑。倫理將遵守法律作為倫理道德要求來倡導(dǎo),對(duì)違法亂紀(jì)的行為加以譴責(zé),如包括歐盟委員會(huì)高級(jí)專家組發(fā)布的 《可信人工智能倫理指南》、IEEE發(fā)布的 《人工智能設(shè)計(jì)倫理準(zhǔn)則》及 《G20人工智能原則》等許多現(xiàn)行AI倫理都明確指出法律對(duì)倫理作用的充分發(fā)揮有極強(qiáng)的催化效應(yīng)。此外,脫離法律局限性的倫理更易引發(fā)能動(dòng)主體對(duì)風(fēng)險(xiǎn)情景下技術(shù)信任的共鳴與深刻探討,不僅有助于形成發(fā)展負(fù)責(zé)任人工智能的倫理環(huán)境,而且為實(shí)驗(yàn)性規(guī)范立法的起草積攢經(jīng)驗(yàn)[40]。
(1)從主導(dǎo)范式、能動(dòng)主體、核心愿景和規(guī)制體系4個(gè)維度構(gòu)建人工智能技術(shù)信任機(jī)制模型,為風(fēng)險(xiǎn)情景下深入開展人工智能技術(shù)信任研究提供分析框架。由于人工智能技術(shù)信任涉及范圍較廣且高度復(fù)雜,現(xiàn)有研究難以全面深刻反映其邊界和關(guān)鍵構(gòu)成,本文所建立的1P3W模型以責(zé)任式創(chuàng)新為主導(dǎo)范式,在充分借鑒現(xiàn)有責(zé)任式創(chuàng)新研究成果基礎(chǔ)上[15-17],進(jìn)一步把技術(shù)引發(fā)的風(fēng)險(xiǎn)治理納入分析范疇。以國家政府、企業(yè)等為能動(dòng)主體,在明確各自職能的同時(shí),更注重能動(dòng)主體的共同參與及整體效能;以對(duì)技術(shù)能力從低級(jí)到高級(jí)的需求邏輯為依據(jù),將技術(shù)信任的核心愿景歸結(jié)為可用性、可靠性、可知性、可控性和可追責(zé);以環(huán)境監(jiān)管的作用性質(zhì)為依據(jù),將技術(shù)信任規(guī)制體系分為以法律為保障的風(fēng)險(xiǎn)防控體系和以倫理為導(dǎo)向的社會(huì)規(guī)范體系。本文所構(gòu)建的技術(shù)信任模型從多個(gè)維度厘清技術(shù)信任邊界,突出技術(shù)信任關(guān)鍵構(gòu)成,為人工智能技術(shù)信任提供評(píng)估準(zhǔn)則和分析框架,有效彌補(bǔ)現(xiàn)有研究的不足,為實(shí)現(xiàn)人工智能技術(shù)信任提供方向性指引。
(2)解析人工智能技術(shù)信任機(jī)制的運(yùn)行過程,揭示技術(shù)信任內(nèi)在交互規(guī)律,對(duì)于豐富和細(xì)化人工智能技術(shù)信任的現(xiàn)有研究成果,促進(jìn)人工智能技術(shù)信任的深入研究具有重要意義。雖然現(xiàn)有研究已經(jīng)涉足人工智能技術(shù)信任的主體、技術(shù)和環(huán)境要素[2,16,32],但是尚未深入探索各維度的內(nèi)在交互性,同時(shí)也缺乏將各要素納入整體分析范疇的相關(guān)研究。本文將責(zé)任式創(chuàng)新范式引入人工智能技術(shù)信任研究,并詳細(xì)探討各維度如何通過內(nèi)部互動(dòng)推動(dòng)人工智能技術(shù)信任實(shí)現(xiàn),研究發(fā)現(xiàn):責(zé)任式創(chuàng)新范式貫穿整個(gè)技術(shù)信任機(jī)制運(yùn)行過程,滲透于能動(dòng)主體、核心愿景和規(guī)制體系,可充分激活主體、愿景和規(guī)制體系內(nèi)在交互屬性,釋放科技向善潛能。多元主體之間通過相互協(xié)同,共同塑造值得信賴的風(fēng)險(xiǎn)治理群落;五大核心愿景通過相互聯(lián)結(jié),形成安全負(fù)責(zé)的技術(shù)體系;以法律為核心的 “剛性規(guī)則”和以倫理為核心的 “柔性規(guī)則”相互配合、促進(jìn)和補(bǔ)充,通過規(guī)則體系融合為人工智能技術(shù)信任提供剛?cè)岵?jì)的環(huán)境保障。