簡小烜
“人工智能體的道德責(zé)任研究”是人工智能倫理學(xué)的一個(gè)核心議題,也是技術(shù)倫理學(xué)關(guān)注的一個(gè)熱點(diǎn)與難點(diǎn)問題。人工智能技術(shù)近些年發(fā)展迅猛,人工智能體(Artifical Agent)越來越具有學(xué)習(xí)能力和自主能力,雖然目前還處于弱人工智能體階段,但其引發(fā)的道德責(zé)任問題已經(jīng)引起學(xué)界的廣泛關(guān)注和深入探討:誰該為人工智能體所犯錯(cuò)誤負(fù)責(zé)?人工智能體能否承擔(dān)道德責(zé)任?如果能,它在何種意義上承擔(dān),又承擔(dān)何種責(zé)任?……這些問題頗有爭議,眾說紛紜、莫衷一是。本文試圖從德博拉·約翰遜(Deborah Johnson)和托馬斯·波瓦斯(Thomas Powers)提出的道德代理者(Moral Surrogate Agent)理論出發(fā),運(yùn)用“道德角色—道德責(zé)任”分析框架,以及責(zé)任倫理學(xué)、他者倫理學(xué)等理論,論證人工智能體在“人—機(jī)”社會(huì)系統(tǒng)中擔(dān)負(fù)的道德角色及道德責(zé)任,以期為人工智能體道德責(zé)任的研究提供新的思路與借鑒。
將人工智能體在社會(huì)系統(tǒng)中的角色定義為代理者(Surrogate Agent)并非新想法,早已有人將搜索引擎、網(wǎng)絡(luò)蠕蟲等稱為軟件“代理者”[1](189-249)。德博拉·約翰遜和托馬斯·波瓦斯正式提出計(jì)算機(jī)系統(tǒng)作為代理者的理論,他們基于人類代理能動(dòng)性(Human Surrogate Agency)與計(jì)算機(jī)系統(tǒng)代理能動(dòng)性(Computer System Surrogate Agency)在結(jié)構(gòu)、關(guān)系上的相似性,以及人類與計(jì)算機(jī)系統(tǒng)的道德、利益關(guān)系,在功能主義的意義上論證了計(jì)算機(jī)系統(tǒng)可以作為人類的道德代理者。根據(jù)他們的理論,人工智能體作為有限道德代理者具有三大特質(zhì):替代人類行動(dòng)、追求人類道德與利益、實(shí)現(xiàn)次級(jí)利益而非初級(jí)利益。
人類代理者包括律師、股票經(jīng)紀(jì)人、地產(chǎn)經(jīng)紀(jì)人、演藝經(jīng)紀(jì)人等,其中最典型最為大家熟悉的代理者是律師。約翰遜和波瓦斯指出,律師具有專業(yè)知識(shí)、能力和專業(yè)資質(zhì),他接受客戶的委托后,便代表客戶行動(dòng)并完成客戶交給的任務(wù),維護(hù)和實(shí)現(xiàn)客戶的合法利益和目的;而計(jì)算機(jī)系統(tǒng)被設(shè)計(jì)與應(yīng)用的目的是完成用戶交給它們的任務(wù),它們也具有完成任務(wù)的專業(yè)知識(shí)和能力,可替代用戶的一些行動(dòng),代表和追求用戶的合法利益與目的。因此,約翰遜和波瓦斯認(rèn)為,計(jì)算機(jī)系統(tǒng)與律師等人類代理者類似,扮演著道德代理者的角色。他們指出:“正如人類代理者和客戶間的關(guān)系,計(jì)算機(jī)系統(tǒng)和用戶之間的關(guān)系可以被比喻為一種職業(yè)的服務(wù)關(guān)系??蛻艄蛡蚵蓭煛?huì)計(jì)師和地產(chǎn)經(jīng)理人去代表他們做事,用戶借助各種各樣的計(jì)算機(jī)系統(tǒng)去代表他們做事。”[2](257)
計(jì)算機(jī)系統(tǒng)發(fā)展至今越來越具有智能和自主性,我們統(tǒng)稱它們?yōu)槿斯ぶ悄荏w。與最初的計(jì)算機(jī)系統(tǒng)相比,現(xiàn)如今的人工智能體能夠替代人類完成越來越多的任務(wù),如自動(dòng)駕駛汽車替代人類駕駛、軍事機(jī)器人替代人類開展軍事行動(dòng)、護(hù)理機(jī)器人替代護(hù)士進(jìn)行護(hù)理行為、醫(yī)療專家診斷系統(tǒng)替代醫(yī)生看病、律師文書系統(tǒng)替代律師撰寫文書,等等。人工智能體還經(jīng)常替代人類完成一些危險(xiǎn)系數(shù)高的行為,如在余震不斷的廢墟中尋找幸存者、在核泄漏地區(qū)檢測和記錄數(shù)據(jù)等。可以說,人工智能體已替代一部分人類代理,一些智能體甚至替代人類完成了人類無法完成的行動(dòng)。它們實(shí)際上已經(jīng)像律師和股票經(jīng)紀(jì)人一樣,作為道德代理者完成人類交給的任務(wù)。
人工智能體不但替代人類行動(dòng),更代表人類追求著人類的合法利益?!叭祟惖暮戏ɡ妗敝械摹昂戏ā倍忠馕吨鐣?huì)系統(tǒng)對(duì)于代理者具備道德約束性,這種約束性既有一般的、普遍的社會(huì)道德要求,也有基于特定道德角色的要求與約束?!暗赖麓碚呋谧约簩?duì)世界的信念而去追求個(gè)體需求和利益,道德則對(duì)那些可以去追求的利益進(jìn)行限制,尤其是從他者利益的角度出發(fā)?!保?](252)“尤其是從他者利益的角度出發(fā)”,意味著他們必須代表被代理人的合法利益,所以代理者在行動(dòng)中考慮的不是自己想要什么,而是被代理人想要什么。如律師、地產(chǎn)經(jīng)紀(jì)人接受客戶的委托后,他們代表的是委托人(第三人/他者)的利益,要維護(hù)委托人的合法權(quán)益;不能做違規(guī)違法的事情,更不能做與客戶意志相違背的事情。對(duì)于人工智能體而言,這個(gè)“他者”就是人類,它們必須為人類服務(wù),代表人類完成任務(wù),在行動(dòng)者網(wǎng)絡(luò)中,它們行動(dòng)的目的就是追求人類尤其是用戶的合法利益。從功利主義角度而言,所有人工智能體皆為人類福祉服務(wù),都被用戶用來獲取自己的利益?!霸趯?duì)人類的事實(shí)認(rèn)知和價(jià)值標(biāo)準(zhǔn)進(jìn)行算法學(xué)習(xí)與加工后,智能體體現(xiàn)的仍是人類的意圖和欲望?!保?](137)
傳統(tǒng)道德責(zé)任理論認(rèn)為人工智能體不具備道德人格,不可能擁有道德能力,更不可能成為道德能動(dòng)者(Moral Agent)。他們認(rèn)為,智能體只有在具有堪比人類意識(shí)、意志、情感與欲望的特性時(shí),才可能擁有道德能力。依照傳統(tǒng)理論,智能體也不可能是道德代理者。但約翰遜和波瓦斯不這么認(rèn)為,他們指出,正如人類代理者和客戶間的關(guān)系一樣,計(jì)算機(jī)系統(tǒng)和用戶之間的關(guān)系既蘊(yùn)含著深刻的道德因素,也有著很強(qiáng)的代理關(guān)系,計(jì)算機(jī)系統(tǒng)由此具備了道德代理能動(dòng)性(Moral Surrogate Agency)。他們還指出:“計(jì)算機(jī)系統(tǒng)的道德代理能動(dòng)性則在人類行為和計(jì)算機(jī)行為的相似性,以及計(jì)算機(jī)系統(tǒng)和人類利益之間的關(guān)系中得到呈現(xiàn)?!保?](263)可以說,智能體與人類道德、利益之間的關(guān)系是將智能體看作代理者的關(guān)鍵所在。
在《計(jì)算機(jī)作為代理者》一文中,約翰遜和波瓦斯還提出了“次級(jí)利益”理論。他們將代理者的利益分為初級(jí)利益和次級(jí)利益。初級(jí)利益意指個(gè)體自身利益,即自我利益,或者說第一人稱利益;次級(jí)利益意指代理者所代表的用戶的利益,即他者利益,或者說第三人稱利益。當(dāng)計(jì)算機(jī)系統(tǒng)“追求用戶的利益時(shí),它承擔(dān)并追求次級(jí)利益”[2](258)。他們舉例說:“比如,當(dāng)用戶命令瀏覽器去搜尋某目的地——該目的地是用戶有興趣去游覽的地方——的地圖時(shí),瀏覽器就會(huì)彈出那個(gè)地方的地圖而不是其他任何人想看的地圖。當(dāng)瀏覽器搜尋用戶想要的那張地圖時(shí),在這個(gè)找地圖的過程中,瀏覽器追求了次級(jí)利益?!保?](258)
根據(jù)次級(jí)利益理論,人工智能體在研發(fā)之初便被設(shè)計(jì)成代表人類的利益,當(dāng)用戶與人工智能體進(jìn)行互動(dòng)并為其布置某個(gè)任務(wù)或者一起達(dá)成某目標(biāo)時(shí),人工智能體就接管了用戶全部或者一部分的利益,人類一旦開啟它,它便開始了次級(jí)利益的追尋與實(shí)現(xiàn)之旅。比如,當(dāng)用戶乘坐一輛自動(dòng)駕駛汽車到達(dá)某個(gè)想去的地點(diǎn)時(shí),意味著自動(dòng)駕駛汽車“追求”了次級(jí)利益,也實(shí)現(xiàn)了次級(jí)利益。
約翰遜和波瓦斯認(rèn)為人工智能體沒有初級(jí)利益而只有次級(jí)利益,人類代理者則既擁有初級(jí)利益也擁有次級(jí)利益。因?yàn)槿祟惔碚呔哂械谝蝗朔Q視角,也就具有從第一人稱出發(fā)的自我欲望和利益,即初級(jí)利益。但人工智能體沒有欲望、情感、心理、意識(shí)和意志,不存在第一人稱視角,沒有自我利益可言,僅僅代表和追求人類的利益,這是它與人類代理者的最大不同。從它僅具有次級(jí)利益而無初級(jí)利益的這個(gè)角度而言,我們稱它為“有限道德代理者”,以區(qū)別于人類這個(gè)“完全道德代理者”。
道德代理者不具備完全民事行為能力,因?yàn)椴痪邆湟庾R(shí)、意志,缺乏第一人稱視角,它是“二階道德能動(dòng)者”,而“人類是一階道德能動(dòng)者”①“二階道德能動(dòng)者”即不具備自我意識(shí)和自由意志的能動(dòng)者,帶有一定物的屬性,但具備一定的道德能動(dòng)性,能實(shí)現(xiàn)某種程度的自主認(rèn)知、決策和行動(dòng)能力的擬主體。參見簡小烜:《人工智能體的道德地位研究——基于責(zé)任論視角》,《湘潭大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2020 年第4 期。。約翰遜認(rèn)為計(jì)算機(jī)系統(tǒng)也不需要完全民事行為能力,它只要能代表人類的道德和利益并完成人類交予的任務(wù)即可,人類對(duì)它的期望與對(duì)人類代理者的期望是不一樣的。實(shí)際上它目前確實(shí)也不具備完全民事行為能力,不過就現(xiàn)實(shí)情況而言,道德代理者在某些領(lǐng)域完成的代理任務(wù)已得到認(rèn)可與肯定。它并非積極主動(dòng)去完成,也不明白自己在其中的身份與作用,大多數(shù)人也不明白它的內(nèi)部原理,更不清楚它“想什么”,但這并不妨礙它完成任務(wù)??蛻粢话悴惶靼兹祟惔碚呷绾喂ぷ?,但這并不妨礙他雇傭人類代理者替他完成任務(wù),正如我們不了解律師具體的工作細(xì)節(jié),只要他具備專業(yè)資質(zhì),我們就會(huì)委托事務(wù)于他。人工智能體亦是如此,最重要的是它能否勝任和完成人類交給它的任務(wù),這也是摩爾(James H.Moor)再三強(qiáng)調(diào)的[4](13-14)。
按照責(zé)任倫理學(xué)中的角色責(zé)任理論,個(gè)體在社會(huì)系統(tǒng)中承擔(dān)了某種道德角色,就必須承擔(dān)相應(yīng)的角色責(zé)任[5](1-7)。角色責(zé)任意味著,不管行動(dòng)者的道德行為類型是什么,也不管行動(dòng)者是作為還是不作為,他都會(huì)因?yàn)樽陨斫巧?zé)任的存在而承擔(dān)相應(yīng)的道德責(zé)任。在第一部分我們將人工智能體界定為有限道德代理者,那么從字面上來理解,它在“人—機(jī)”社會(huì)系統(tǒng)中至少需要承擔(dān)代理責(zé)任。但是,它有別于人類代理者,它所承擔(dān)的代理責(zé)任自然也與其有所差別。
我們先來看代理過程中兩種常見的行為:
第一種,無法勝任導(dǎo)致的失職行為。約翰遜和波瓦斯指出:“個(gè)人所得稅會(huì)計(jì)師和個(gè)人所得稅軟件系統(tǒng)都可能無法勝任。會(huì)計(jì)師不勝任可能由于他對(duì)稅法的理解不夠,或者對(duì)客戶的情況不是很了解,計(jì)算機(jī)系統(tǒng)不勝任可能由于它顯示的所得稅代碼不夠準(zhǔn)確或者弄錯(cuò)了用戶的輸入?!保?](260)不勝任導(dǎo)致了失職行為,失職行為則導(dǎo)致了顧客或者用戶的利益不能達(dá)成。對(duì)于人類代理者的失職行為,顧客一般會(huì)起訴和要求追責(zé),會(huì)控告代理者,甚至要求賠償或者實(shí)施其他追責(zé)。對(duì)于智能體的失職行為,用戶一般會(huì)起訴研發(fā)公司或者制造公司,要求由公司擔(dān)責(zé)和進(jìn)行賠付??梢姡谟芍悄荏w失職行為導(dǎo)致的損害歸責(zé)方案里,人工智能體并未像人類代理者一樣被問責(zé)。
第二種,不當(dāng)行為。不當(dāng)行為是指代理者利用自己的代理身份為客戶或用戶之外的人謀求利益,損害了客戶或用戶本身的利益。對(duì)于人類代理者,這種情況雖說不常見,但并非沒有,如一個(gè)地產(chǎn)經(jīng)紀(jì)人在代理“你”的同時(shí),可能正在把“你”的相關(guān)信息售賣給其他公司。
由于智能體沒有第一人稱視角,很多人認(rèn)為它不會(huì)作出不正當(dāng)行為,所以,許多個(gè)體和企業(yè)相信人工代理者只追求用戶的利益,他們寧愿選擇人工代理者而非人類代理者來代理自己執(zhí)行任務(wù)或作出決策。人工道德代理者真的只代表用戶的利益嗎?并非如此,它很可能被設(shè)計(jì)成服務(wù)于他人的利益而非只是用戶的利益,如搜索引擎可能被開發(fā)成代表第三方的利益、瀏覽器可能支持跟蹤程序或者為軟件生產(chǎn)商或黑客的利益服務(wù);算法表面上是推薦用戶所需要的信息,實(shí)際上卻是為了追求平臺(tái)企業(yè)的利益,并編織了一個(gè)個(gè)“信息繭房”,損害了用戶的利益。當(dāng)人工代理者以追求非用戶利益或逐漸損害用戶利益的方式被設(shè)計(jì)出來之后,不正當(dāng)?shù)男袨榫统霈F(xiàn)了。
對(duì)這種不正當(dāng)行為導(dǎo)致的負(fù)面結(jié)果,如果追責(zé),實(shí)踐中仍然是追究研發(fā)者或者制造商或者平臺(tái)企業(yè)的主體責(zé)任。追究人類而非智能體的責(zé)任,主要原因在于:人工智能體沒有自我(第一人稱)視角,不存在初級(jí)利益,無法被追責(zé)與問責(zé);問責(zé)與追責(zé)于人工智能體是毫無意義的。人類存在初級(jí)利益,且“計(jì)算機(jī)系統(tǒng)是由人類制造的,因此計(jì)算機(jī)系統(tǒng)中的錯(cuò)誤或不當(dāng)行為的來源,原則上可以回溯到對(duì)軟件設(shè)計(jì)作出決定的人”[6](22)??傊还苁窃谟墒毿袨檫€是在由不當(dāng)行為所導(dǎo)致的歸責(zé)方案里,智能體均未被問責(zé)與追責(zé),所以有人將其承擔(dān)的責(zé)任稱為“虛擬責(zé)任”,我們?cè)诖朔Q為“有限道德責(zé)任”。“有限道德責(zé)任”意味著它承擔(dān)一定的責(zé)任,但無法被問責(zé)與追責(zé),它的道德責(zé)任是有限的。
這種有限道德責(zé)任將“擔(dān)責(zé)”與“問責(zé)”分開。人工智能體作為有限道德代理者在“人—機(jī)”社會(huì)系統(tǒng)中需要承擔(dān)一定的責(zé)任,但在道德實(shí)踐中,由于它不具備第一人稱視角,無法被獨(dú)立問責(zé)與追責(zé),因此在它的行為導(dǎo)致了負(fù)面結(jié)果后,只能問責(zé)與追責(zé)于人類。那么,問題來了:人工智能體的這種不被問責(zé)的道德責(zé)任或者說有限道德責(zé)任是在何種意義上成立的呢?
自從列維納斯(Emmaunel Lévinas)創(chuàng)立了他者倫理學(xué),他者維度的道德責(zé)任隨之出現(xiàn),它最重要的內(nèi)涵就是“為他者負(fù)責(zé)”。人工智能體的道德責(zé)任充滿了“他者意蘊(yùn)”:只對(duì)人類這個(gè)他者負(fù)責(zé);被人類這個(gè)他者所期望和賦值。正是在他者意義上,它的“擔(dān)責(zé)”與“問責(zé)”被分開的有限道德責(zé)任得以確立。
(1)他者維度的道德責(zé)任
“他者”和“自我”本是一對(duì)相對(duì)的概念,“他者”是相對(duì)于“自我”而言的,意指“自我”之外的人與事物。對(duì)于道德責(zé)任的分析也可以從他者和自我這兩個(gè)視角進(jìn)行分析,我們可以看到不一樣的道德責(zé)任。
從自我維度來看,道德責(zé)任與自我意識(shí)、意志、心理因素、情緒狀態(tài)等密切相關(guān)。傳統(tǒng)道德責(zé)任理論即自我視角的責(zé)任理論,強(qiáng)調(diào)自由意志和意識(shí),強(qiáng)調(diào)生物學(xué)意義上的心理、情感、認(rèn)知和欲望;認(rèn)為成為道德主體的前提條件是具備自由意志,主張只有發(fā)自內(nèi)心意愿且可以自我決定的行動(dòng)者,才是負(fù)責(zé)任的行動(dòng)者。這是典型的自我視角的道德責(zé)任。
從他者維度來看,道德責(zé)任無須關(guān)注主體是否具有自我意識(shí)與自由意志,更不必關(guān)注主體有何心理狀態(tài)與情緒。庫克爾伯克(Mark Coeckelbergh)認(rèn)為,進(jìn)行責(zé)任追究之時(shí),我們無須深究當(dāng)時(shí)行動(dòng)者的內(nèi)心狀態(tài)和心理情緒,我們也不會(huì)深入到他們的思想深處,更不依據(jù)他們的精神狀態(tài)[7](181-189)。張正清、黃曉偉也認(rèn)為,“作為乘客的我們,無法從上帝視角對(duì)他者內(nèi)心進(jìn)行窺探……乘客此刻眼中的自動(dòng)駕駛汽車或者司機(jī)都是一個(gè)他者,他心是不透明的”[8](29),而且,他心里的想法、意愿等對(duì)乘客而言都是沒有多大意義的,我們更關(guān)注司機(jī)的行為是否負(fù)責(zé)、是否具有擔(dān)責(zé)的能力。站在人類的角度看,人工智能體是“他者”;站在智能體的角度看,人類又是“他者”。不管誰是“他者”,在對(duì)其提出道德要求之時(shí),我們重點(diǎn)關(guān)注的是他/它能否及如何為他者負(fù)責(zé)。
列維納斯的他者倫理學(xué)蜚聲遐邇,他對(duì)以同化與占有為本質(zhì)的存在論非常不滿,繼而通過批判胡塞爾和海德格爾等人的存在論,創(chuàng)立了著名的他者倫理學(xué),并將責(zé)任哲學(xué)定義為一種為他者負(fù)責(zé)的倫理學(xué)。列維納斯認(rèn)為,倫理產(chǎn)生于“自我”與“他者”對(duì)面的關(guān)系之中[9](53),具體、獨(dú)立、承擔(dān)責(zé)任的個(gè)體存在是倫理關(guān)系存在的前提基礎(chǔ),道德責(zé)任的“實(shí)質(zhì)是讓自身之外的存在者將其懇求或命令教導(dǎo)給我”[10](13)?!白陨碇獾拇嬖谡摺奔础八摺?,在列維納斯看來,道德責(zé)任其實(shí)是“他者”通過“懇求”或者“命令”等教導(dǎo)給“自我”的。他者維度下,他者將責(zé)任賦予自我,責(zé)任并非自我的認(rèn)定。
有學(xué)者認(rèn)為道德責(zé)任就是他者視角的,如沃森(Gary Watson)認(rèn)為“團(tuán)體或者個(gè)體永遠(yuǎn)都是因?yàn)槟臣?某些事而為某個(gè)/某些人負(fù)責(zé)”[11](7)?!澳臣?某些事”“某個(gè)/某些人”都是“他者”,責(zé)任因“他者”而擔(dān)負(fù)。庫克爾伯克則直接主張:道德責(zé)任的重要內(nèi)涵是“我們應(yīng)對(duì)他者負(fù)責(zé)”[12](748-757)。在社會(huì)系統(tǒng)中,我們的行動(dòng)及其后果常常會(huì)影響到他者,因此須考慮他者的利益,且本著“對(duì)他者負(fù)責(zé)”的態(tài)度行事。一旦發(fā)生“惡”的結(jié)果,“對(duì)他者負(fù)責(zé)”意味著我們還須接受批評(píng)或者懲罰等。“我們應(yīng)對(duì)他者負(fù)責(zé)”也從一個(gè)側(cè)面反映出人類的道德責(zé)任包含“他者意蘊(yùn)”。當(dāng)然,人類的道德責(zé)任既包含了他者視角,也包含了自我視角。帕特里克·林(Patrick Lin)和基思·艾布尼(Keith Abney)等人認(rèn)為:“從他者視角而言責(zé)任是一種期望,主要是對(duì)他者責(zé)任行為和責(zé)任能力的一種期望,希望他者可以作出負(fù)責(zé)任的行動(dòng)并能為他的行為后果承擔(dān)責(zé)任?!保?3](37)
綜上可見,他者維度的道德責(zé)任包含兩大重要內(nèi)涵:第一,個(gè)體或集體的行為必須“為他者負(fù)責(zé)”,這是他者維度道德責(zé)任最重要的內(nèi)涵,為列維納斯、沃森和庫克爾伯克等學(xué)者所認(rèn)同。它包含三層意思:個(gè)體或集體應(yīng)該具有一定的責(zé)任能力;個(gè)體或集體的行為是負(fù)責(zé)任的行為;個(gè)體或集體能為自己的行為后果負(fù)責(zé)。第二,道德責(zé)任是對(duì)他者責(zé)任行為、責(zé)任能力的期望[9](26-33)。個(gè)體或集體的道德責(zé)任是被“他者”所期望的,也即“他者”對(duì)他/他們應(yīng)該履行什么樣的責(zé)任提出了要求、作出了規(guī)定,個(gè)體或集體的行為必須符合“他者”的道德規(guī)范和倫理要求。這意味著責(zé)任的標(biāo)準(zhǔn)不是來源于自身,而是來源于他者與社會(huì)的認(rèn)定。
(2)對(duì)他者負(fù)責(zé)
人工智能體的道德責(zé)任很明顯是他者維度的道德責(zé)任。首先,人工智能體應(yīng)對(duì)人類這個(gè)他者負(fù)責(zé)。智能體被人類研發(fā)與制造出來,本為增進(jìn)人類福祉,應(yīng)對(duì)人類負(fù)責(zé),它是為“人類”而生。它只有他者視角而無自我視角,不可能對(duì)自己負(fù)責(zé),目前也只需對(duì)人類這個(gè)他者負(fù)責(zé)。將庫克爾伯克的“我們應(yīng)對(duì)他者負(fù)責(zé)”這句話換成“人工智能體應(yīng)對(duì)人類這個(gè)他者負(fù)責(zé)”,自然是非常正確的。其次,它的道德責(zé)任被人類這個(gè)他者所期望和賦值。一方面,我們對(duì)人工智能體的言行與能力一直有一種期待,即它應(yīng)像我們?nèi)祟愐粯?,不但具有專業(yè)的行動(dòng)能力,同時(shí)也具有道德能力,能像人類一樣遵守社會(huì)規(guī)則和道德規(guī)范。道德責(zé)任方面,我們期望它具有一定的責(zé)任能力,其行為是負(fù)責(zé)任的行為,并能為自己的行為后果負(fù)責(zé)。另一方面,在研發(fā)環(huán)節(jié),我們想方設(shè)法對(duì)其內(nèi)置道德原則與規(guī)范,使其行為符合人類道德規(guī)范和倫理要求,使其具有一定的責(zé)任能力以“積極向善”“永遠(yuǎn)向善”。這里的重點(diǎn)是人希望它做什么、應(yīng)該如何做,比如我們希望自動(dòng)駕駛汽車是遵守交通規(guī)則和社會(huì)規(guī)范的;我們希望它不要撞到行人,萬一撞到行人,它應(yīng)為自己的行為負(fù)責(zé),它也能為自己的行為負(fù)責(zé)。
按照列維納斯的理論,“人”和“機(jī)”都是“人—機(jī)”社會(huì)系統(tǒng)中倫理關(guān)系存在的前提基礎(chǔ),不過“人”與“機(jī)”的倫理關(guān)系最終仍取決于“人”,沒有“人”,就沒有“機(jī)”,更不用說“人機(jī)關(guān)系”了。一切的根源都在于“人”,在于智能體自身之外的“他者”。人類將其設(shè)計(jì)、研發(fā)出來,同時(shí)通過代碼與程序賦予它責(zé)任內(nèi)容和能力,并內(nèi)嵌于它的體內(nèi),使得它不但承擔(dān)道德代理者之責(zé)任,也具備向善之道德能力。我們完全可以說,人工智能體的責(zé)任就是人類“命令”“教導(dǎo)”給它的,它必須也應(yīng)該能“為他者”即“為人類”負(fù)責(zé)。人工智能體無須對(duì)自己負(fù)責(zé),它沒有自我視角,沒有自我愿望與初級(jí)利益,也無法對(duì)自己負(fù)責(zé),更無法擁有自我視角的道德責(zé)任。如果從自我視角探尋人工智能體的道德責(zé)任問題,目前肯定是無解的。
列維納斯認(rèn)為在歷時(shí)性結(jié)構(gòu)的作用下,自我①由于人工智能體沒有自我意識(shí),它的“自我”僅僅意指“它自身”,是一種與自我意識(shí)和自由意志無關(guān)的“本體”。獲得了重新確立:“自我在遭遇他者之時(shí)實(shí)質(zhì)上就是在承擔(dān)重任,在此承擔(dān)之中,自我獲得了意義?!保?4](123)自我被他者賦予了責(zé)任和意義,他者也被自我賦予了責(zé)任和意義,尤其是,“為他者”使得自我獲得了意義,是自我獲得重新確立的根本條件。智能體在遇到人類之時(shí)也就擁有了責(zé)任——“為人類”之責(zé)任,而在人類設(shè)計(jì)和賦予它道德責(zé)任與能力之后,它才真正獲得了存在的意義。
“為人類”,或者說“為他者”,是人工智能體存在的意義之所在。智能體也只有在增進(jìn)人類福祉和追求人類利益的過程中才能得到人類的認(rèn)同和接納,它的意義是在人類這個(gè)“他者”的意義上得以確立的。人類不認(rèn)同,它這個(gè)有限道德代理者連存在的意義都沒有,更無從談道德責(zé)任。這意味著他者維度不但能使智能體得到道德角色和責(zé)任的確立,還能使其在承擔(dān)責(zé)任的過程中得到改造和提升。他者,也即第三人稱,才是人工智能體道德責(zé)任產(chǎn)生的基礎(chǔ)。在他者意義維度下,人工智能體的責(zé)任被設(shè)計(jì)、被賦予,也被確立。
(3)他者期望與賦予
庫克爾伯克將產(chǎn)生于“現(xiàn)實(shí)經(jīng)驗(yàn)與實(shí)踐”的倫理稱為“外觀倫理”,他認(rèn)為“外觀”即“表現(xiàn)”,如果機(jī)器人“表現(xiàn)”出與人類一樣的行為與能力,我們就應(yīng)該將道德責(zé)任賦予它[7](181-189)。即使人工智能體沒有意識(shí)、意志、情感和欲望,沒有第一人稱(自我)視角,但由于它“表現(xiàn)”得與人類一樣,人類就對(duì)它寄予希望、賦予責(zé)任。阿西莫夫的機(jī)器人三定律,從他者維度而言,可以說是人類賦予機(jī)器人的重要責(zé)任。
在大多時(shí)候,對(duì)他者責(zé)任期望的一個(gè)前提,就是已經(jīng)假定了這個(gè)“他者”是一個(gè)道德能動(dòng)者。這種假設(shè)并不在意“他者”是否為第一人稱意義上的、具備意識(shí)和情感的道德能動(dòng)者,只要“他者”存在,我們都會(huì)對(duì)其提出內(nèi)在的道德及其行為預(yù)期與要求。即使是行為障礙者、尚未具備完全自主能力的兒童,我們對(duì)他們都有著內(nèi)在的道德要求和道德期望。當(dāng)然,對(duì)于作為有限道德代理者的人工智能體,我們對(duì)其的期望與要求不會(huì)低于行為障礙者,事實(shí)上,我們一直提倡給自主機(jī)器人內(nèi)置道德規(guī)范和道德能力,使人類社會(huì)的道德“物化”于機(jī)器人身上,甚至想使其成為第一人稱意義上的道德機(jī)器人。道德實(shí)踐中,機(jī)器人的確應(yīng)該因?yàn)樽约旱男袆?dòng)而為某些人負(fù)責(zé),比如為他所護(hù)理的老人負(fù)責(zé)、為它所陪伴的兒童負(fù)責(zé)。這種負(fù)責(zé)是他者視角的,是人類因?yàn)槠谕x予它們的,所以有學(xué)者將人工智能體的道德責(zé)任稱為他者期望型道德責(zé)任[8](26-33)。
人工智能體在自我視角的傳統(tǒng)道德責(zé)任理論里不太可能成為道德能動(dòng)者,但是,從他者視角來看,人工智能體承載了人類的責(zé)任期望,被內(nèi)置了一定的道德規(guī)范和道德要求,代表人類的道德與利益,并替代人類行動(dòng)和完成任務(wù),是一個(gè)非完全意義上的道德能動(dòng)者,這也與它作為有限道德代理者的角色身份相符。“道德責(zé)任的他者視角也蘊(yùn)含了兩個(gè)基本假設(shè):其一,道德責(zé)任是存在于互動(dòng)關(guān)系中的屬性,依賴于行為相關(guān)各方之間因道德期望而產(chǎn)生的道德關(guān)系;其二,道德責(zé)任上的他者視角明確區(qū)分了看待責(zé)任的不同角度,因此傳統(tǒng)意義上的道德能動(dòng)者對(duì)于責(zé)任的獨(dú)占、優(yōu)先地位并不存在。”[8](27)可見,他者視角為我們理解人工智能體的道德責(zé)任提供了不同以往的思考方式和分析路徑。
從他者維度而言,我們不必關(guān)心人工智能體是否擁有自由意志和自我意識(shí),是否具備心理狀態(tài)、情感需要和欲望滿足等這些因素,我們首先關(guān)心的是,它的“言行”是否符合我們社會(huì)的道德規(guī)范與行為準(zhǔn)則、是否符合人類的道德要求和利益需要,也即它是否“向善”、是否服務(wù)于人類。在此意義上,我們說,人工智能體的代理責(zé)任就是實(shí)現(xiàn)人類福祉的一種責(zé)任,最起碼是一種“向善”的責(zé)任,或者說是一種“趨善避惡”的責(zé)任。代理責(zé)任在根本上要求智能體代表人類利益、遵守人類的道德規(guī)范,這自然對(duì)其提出了最起碼的“趨善避惡”的道德能力及行動(dòng)要求。因此,在最基礎(chǔ)的意義層面上,我們可以說,人工智能體的有限代理責(zé)任實(shí)質(zhì)上是一種“趨善避惡”的責(zé)任。
道德責(zé)任承擔(dān)是指行為主體對(duì)已產(chǎn)生的不良后果承擔(dān)“惡”的責(zé)任(罰惡),對(duì)已產(chǎn)生的有利后果承擔(dān)“善”的責(zé)任(賞善);對(duì)可能產(chǎn)生的不良后果履行“避惡”的責(zé)任,對(duì)可能產(chǎn)生的有利后果履行“趨善”的責(zé)任。其中,“賞善”“罰惡”的責(zé)任屬于追溯性道德責(zé)任,“趨善”“避惡”的責(zé)任屬于預(yù)期性或者說前瞻性道德責(zé)任。
從責(zé)任認(rèn)定程序來講,道德責(zé)任一般分為追溯性道德責(zé)任和預(yù)期性道德責(zé)任。追溯性道德責(zé)任往往要追問根由、追查原因和追究責(zé)任,進(jìn)而對(duì)行為主體進(jìn)行譴責(zé)(罰惡)或褒獎(jiǎng)(賞善),對(duì)不良后果進(jìn)行糾正(如賠付受害對(duì)象),對(duì)有利后果進(jìn)行獎(jiǎng)勵(lì)(如獎(jiǎng)勵(lì)道德楷模)。一方面,這種責(zé)任擔(dān)負(fù)所涉及的是非判斷必須包含“善惡”和“正當(dāng)”的價(jià)值判斷;另一方面,這種責(zé)任擔(dān)負(fù)須落在實(shí)踐層面上才具有實(shí)際意義,也即需要理解譴責(zé)或褒獎(jiǎng)、賠付或獎(jiǎng)勵(lì)的意義才可行,而只有具有意識(shí)、意志、情感和欲望等主觀體驗(yàn)/感受的人類才能理解和感受這些詞語或措施的意義,因此譴責(zé)或褒獎(jiǎng)只對(duì)人類而言才有價(jià)值,賠付或獎(jiǎng)勵(lì)也只對(duì)人類而言才有意義。換言之,被問責(zé)和被追責(zé)的行動(dòng)者必須是像人類一樣的道德主體,即傳統(tǒng)道德責(zé)任概念中的道德主體。可見承擔(dān)追溯性道德責(zé)任的主體必須是人,包括個(gè)體、群體等。
因此,“賞善”“罰惡”之追溯性道德責(zé)任基本屬于身為一階道德能動(dòng)者的人類。當(dāng)然,有朝一日,智能體發(fā)展至通用或者超級(jí)智能體階段,那又另當(dāng)別論。但我們認(rèn)為這種情況不應(yīng)出現(xiàn),人類對(duì)智能體應(yīng)該有“最后的控制”,而不是賦予它完全的自主權(quán)。而且,本文的研究對(duì)象是弱人工智能體,具有第一人稱意義上的智能體既不是本文所提倡的,也不在本文討論范圍內(nèi)。從一般意義上而言,追溯性道德責(zé)任只屬于人類,作為有限道德代理者的人工智能體只在預(yù)期性道德責(zé)任領(lǐng)域占有一席之地。這既是它自身道德角色的要求,也是人類對(duì)它的期望與賦予。以自動(dòng)駕駛汽車為例,人們總是期待它能夠遵守交通規(guī)則,履行加強(qiáng)流通效率和減少事故發(fā)生率的道德責(zé)任。
“趨善”“避惡”的責(zé)任屬于預(yù)期性道德責(zé)任。就實(shí)現(xiàn)“趨善”“避惡”這一實(shí)際結(jié)果而言,所涉及的是非判斷并不需要一定包含真正的“善惡”和“正當(dāng)”的價(jià)值判斷,也不需要第一人稱視角的價(jià)值判斷,只需要進(jìn)行形式判斷和自動(dòng)推理即可。例如,自動(dòng)駕駛汽車通過某些算法就能實(shí)現(xiàn)避免撞上行人或盡量少發(fā)生碰撞事故,可能還不需要給它設(shè)計(jì)并置入相應(yīng)的“道德芯片”。由此可見,履行“趨善避惡”責(zé)任的道德能動(dòng)者可以是只具有次級(jí)利益的人工智能體,我們不需要它從第一人稱視角理解意義和評(píng)判價(jià)值,也不需要它以第一人稱的身份被問責(zé)與追責(zé),它只需“向善”即可。
“趨善避惡”的預(yù)期性道德責(zé)任對(duì)于人工智能體而言主要體現(xiàn)為:代表用戶的合法利益與需求;最大限度地體現(xiàn)人類社會(huì)的“善”;最大限度地減少風(fēng)險(xiǎn)與負(fù)面影響;按照人類社會(huì)的道德原則與規(guī)范行動(dòng)、決策。這些最終體現(xiàn)為人工智能體的安全性、可理解性、可責(zé)性、可信任性和公正性。因此,人類在設(shè)計(jì)和研發(fā)階段應(yīng)盡量把所有預(yù)期性工作做好、做足,以賦予其足夠的“趨善避惡”的責(zé)任內(nèi)容與能力。每一種智能體的“趨善避惡”的內(nèi)容與能力是有區(qū)別的,不同領(lǐng)域的智能體的道德風(fēng)險(xiǎn)是不同的,這些都需要研發(fā)者認(rèn)真研究與把握。
人工智能體代表人類的利益、不具備自身的初級(jí)利益,對(duì)人類負(fù)責(zé)、無法對(duì)自身負(fù)責(zé)……這些特征決定了人工智能體只能履行“趨善避惡”之預(yù)期性道德責(zé)任,不能承擔(dān)“被問責(zé)”和“被追責(zé)”的追溯性道德責(zé)任。段偉文指出:“目前,這些數(shù)據(jù)驅(qū)動(dòng)的智能體并不具有意識(shí)、自我意識(shí)和自由意志,更談不上情感、情緒和同理心,它們?cè)诘赖滦袨橹羞h(yuǎn)不像人那樣是完全的道德主體,不可能單獨(dú)為其行為后果承擔(dān)責(zé)任。”[6](21)弗洛里迪(Luciano Floridi)等也表示,自動(dòng)駕駛汽車不能對(duì)自身行為進(jìn)行關(guān)于贊成或者反對(duì)的討論,也不能像人一樣被問責(zé)和追責(zé)[15](751-752)。
拉圖爾授予非人類以行動(dòng)者(actor)角色,并認(rèn)為它們具有能動(dòng)性,但他同時(shí)認(rèn)為非人行動(dòng)者應(yīng)有代理者(agent)或者代言者(spokesman)為其發(fā)聲。他舉例說:“瓦特發(fā)明的蒸汽機(jī)通過瓦特的推廣與說明展現(xiàn)給大家,燈泡則通過愛迪生之口為大眾所接受;如果瓦特沒有發(fā)明蒸汽機(jī),他就沒有資格成為蒸汽機(jī)的代理者,如果愛迪生沒有發(fā)明燈泡,他就沒有資格成為燈泡的代言者?!保?6](83)據(jù)此推理,人工智能體的發(fā)言者應(yīng)當(dāng)也只能是研發(fā)者。研發(fā)者設(shè)計(jì)與發(fā)明了智能體,他就是智能體的代言者。這個(gè)發(fā)言者只要沒有錯(cuò)誤行為,就不需要為智能體的行為承擔(dān)責(zé)任,他需要做的,是賦予智能體以責(zé)任內(nèi)容和能力,使其滿足人們尤其是用戶對(duì)智能體的責(zé)任要求。
歸根結(jié)底,在人工智能體履行預(yù)期性道德責(zé)任的背后,站著的是人類,人類既是它的設(shè)計(jì)者,也是它的發(fā)言者。翟振明曾經(jīng)指出:“智能再強(qiáng)大的機(jī)器,再像人的機(jī)器,也就是人類的一個(gè)不鬧情緒的‘超級(jí)秘書’而已。”[17](25)筆者在此套用翟教授的話:“智能再強(qiáng)大的機(jī)器,再像人的機(jī)器,也就是人類的一個(gè)不鬧情緒的‘道德代理者’而已?!边@個(gè)不鬧情緒的道德代理者履行有限道德代理之責(zé)任,這種責(zé)任的本質(zhì)是“趨善避惡”之預(yù)期性道德責(zé)任。
對(duì)人類負(fù)責(zé),代表人類的利益,做好人類的道德代理者,是人工智能體最大的“善”。人工智能體所要實(shí)現(xiàn)的道德決策必然“只能是致力于實(shí)現(xiàn)人所能作出的最好決策,它的決策要為人所規(guī)定、約束、修正甚至是否決”[18](116)。強(qiáng)調(diào)人工智能體的代理責(zé)任是一種“趨善避惡”的預(yù)期性道德責(zé)任,也在某種程度上警醒研發(fā)者和制造商:必須負(fù)責(zé)任創(chuàng)新、必須將智能體打造成“向善”的道德代理者,智能體并非只是工具與機(jī)器。
本文將人工智能體界定為“有限道德能動(dòng)者”,認(rèn)為其履行“趨善避惡”的道德責(zé)任,主要出于兩方面考慮:一方面也許能使更多人認(rèn)識(shí)到,不能再將人工智能體當(dāng)作純粹工具了,因?yàn)樗言谔娲祟愅瓿梢恍┬袆?dòng),已具有一定程度上的自主認(rèn)知、決策和行動(dòng)的能力。我們應(yīng)秉持“負(fù)責(zé)任創(chuàng)新”理念,使之“趨善避惡”,并盡可能預(yù)防和預(yù)測其可能帶來的風(fēng)險(xiǎn)。另一方面也許能夠警醒我們,不能使智能體具備意識(shí)與情感,不能使之成為完全道德代理者和一階道德能動(dòng)者。智能體已非工具,如果具備意識(shí)與情感,也許有朝一日真的會(huì)取代人類。我們的研發(fā)與研究,既要“以人類福祉為中心”,“保持人類自身主體性地位”,又要“重視技術(shù)物的道德能動(dòng)性”,“做到人機(jī)和諧相處”。
筆者認(rèn)為他者維度是人工智能體道德責(zé)任的真正意蘊(yùn),代表了人類對(duì)人工智能體的期望與要求。智能體的責(zé)任履行并非出自其內(nèi)心的動(dòng)機(jī)與欲望,更非智能體的自律使然。它“趨善避惡”的責(zé)任是他律的,是只有他者利益而無自我利益的。正是他者維度,將人工智能體的道德責(zé)任分離成兩部分。他者維度也是人工智能體成為有限道德代理者的核心視角?!八咧S是倫理關(guān)系之實(shí)踐特征的保障,沒有他者的倫理學(xué)難逃理論化窠臼”[10](12-17),他者之維就是要努力革去傳統(tǒng)理論態(tài)度下對(duì)人工智能體的工具化理解。