李 楠
隨著人工智能時(shí)代的來臨,機(jī)器倫理成為研究熱點(diǎn)。作為計(jì)算機(jī)、認(rèn)知科學(xué)、哲學(xué)、社會(huì)心理學(xué)均有涉及的交叉學(xué)科,機(jī)器倫理研究的目的之一是使人工智能做出有道德的行為,換言之,使其行為可以得到倫理理由的支持。機(jī)器倫理在實(shí)踐上的重要性不言而喻:在自動(dòng)駕駛、機(jī)器人看護(hù)等涉及人類生命安全的領(lǐng)域,隨著人工智能愈加強(qiáng)大,甚至有希望在新場(chǎng)景表現(xiàn)出自主行為,我們當(dāng)然要求這些行為不僅僅是后果最優(yōu)的,而是需要合乎道德,可以被人類社會(huì)在倫理上接受。讓人工智能成為倫理行為主體,有工程技術(shù)方面的障礙,亦有理論方面的難題,而兩方面的問題又往往相互關(guān)聯(lián)。從工程設(shè)計(jì)的方向考慮,程序設(shè)計(jì)者會(huì)考慮自上而下或者自下而上的方案[1](P565),自頂向下又稱基于規(guī)則(principle based)的方案,即以某種方式將人類認(rèn)可的道德準(zhǔn)則編碼為機(jī)器可以處理的產(chǎn)生式規(guī)則(production rules),讓機(jī)器的行動(dòng)方案可以考慮到倫理價(jià)值;自下而上的方案又被認(rèn)為是基于實(shí)例的(case based),不預(yù)設(shè)任何理論,而是試圖通過設(shè)計(jì)滿足局部功能的模塊,進(jìn)而最終產(chǎn)生符合要求的行動(dòng)方案,而設(shè)計(jì)過程則通過對(duì)具體測(cè)試樣例的各種試錯(cuò)和調(diào)整來推進(jìn)。
在哲學(xué)家眼中,這兩個(gè)方案大致對(duì)應(yīng)了元倫理學(xué)的一般論(generalism)與特殊論(particularism)之爭(zhēng)[2]。我們都知道,哲學(xué)問題鮮有無異議的答案,不過,樂觀的或者更為實(shí)際的考慮恐怕是先從容易的、爭(zhēng)議少的地方做起來再說——先別讓機(jī)器替我們決定電車難題,給老年人端水送藥還可行。機(jī)器倫理學(xué)最重要的思想家之一和實(shí)踐先驅(qū)是M.An?derson 和S.L.Anderson(以下簡(jiǎn)稱A&A),他們著眼于機(jī)器人醫(yī)療看護(hù)這一領(lǐng)域,設(shè)計(jì)的機(jī)器倫理系統(tǒng)使用的是基于規(guī)則的方案,倫理規(guī)則被編碼為可計(jì)算的規(guī)則,然后整合入機(jī)器人的“大腦”,最終在機(jī)器人面臨實(shí)際情景時(shí),產(chǎn)生行動(dòng)指令。
一個(gè)自然的問題是:我們?nèi)绾螞Q定哪些規(guī)則或者價(jià)值、目標(biāo)被編碼為機(jī)器指令,誰或者什么說了算?機(jī)器倫理該從哪里來?
需要注意的是,基于規(guī)則并不意味著不使用案例,案例可以用于規(guī)則提取,只不過在機(jī)器人決策時(shí)直接使用的是規(guī)則而非案例。A&A 的系統(tǒng)中,規(guī)則就是基于案例的,而案例的最優(yōu)解由倫理學(xué)家的一致意見提供。Hooker 和Kim(以下簡(jiǎn)稱H&K)則對(duì)A&A 的方式提出質(zhì)疑,并提出一種所謂“非基于直覺的”[3](P130)機(jī)器倫理,以基于道義論的規(guī)范信條為基礎(chǔ),分析其計(jì)算需求,以指導(dǎo)算法和子系統(tǒng)的設(shè)計(jì)。
H&K 認(rèn)為基于專家直覺來提取倫理規(guī)則是不合理的,筆者對(duì)此立場(chǎng)持同情態(tài)度,然而對(duì)基于道義論的機(jī)器倫理系統(tǒng)有更多質(zhì)疑。這將會(huì)在下文具體闡述。另外,筆者認(rèn)為機(jī)器倫理的“規(guī)則”應(yīng)從海量普通人的行為樣本中使用機(jī)器學(xué)習(xí)方法得出,進(jìn)而得到一個(gè)最接近普通人的道德平庸的人工智能行為主體。
A&A 設(shè)計(jì)的系統(tǒng)全稱是“源于案例的基于規(guī)則的行為范式”(Case-Supported Principle-Based Behavior Paradigm)[4](P526),其表征要素有:(1)倫理相關(guān)的特征及其相關(guān)義務(wù),例如,健康是個(gè)倫理相關(guān)的正面特征,而促進(jìn)健康或者使健康程度最大化則是其相關(guān)義務(wù);(2)用整數(shù)序列作為編碼的行動(dòng)選項(xiàng),每個(gè)數(shù)值表示該行動(dòng)達(dá)成相應(yīng)義務(wù)的程度,例如,行動(dòng)a1=(2,0,-1),意思是相關(guān)的義務(wù)有三項(xiàng),a1對(duì)第1 項(xiàng)義務(wù)有+2 的效果,對(duì)第2 項(xiàng)義務(wù)有0效果,對(duì)第3 項(xiàng)義務(wù)有-1 的效果;(3)案例由兩個(gè)行動(dòng)對(duì)每項(xiàng)義務(wù)達(dá)成程度的差異表示,例如考慮機(jī)器人給病人喂藥a1與不喂藥a2這兩個(gè)行動(dòng),在病人到了吃藥時(shí)間這個(gè)場(chǎng)合下,可以構(gòu)成一個(gè)正例,其中a1與a2對(duì)于促進(jìn)病人康復(fù)這個(gè)義務(wù)的差異為一個(gè)正整數(shù),其取值可以與病人病的程度等其他因素相關(guān)。這些表征要素最終用于定義倫理傾向規(guī)則p(a1,a2),形式是一個(gè)析取范式u1∨u2∨…∨un,每個(gè)析取支是從案例中歸納的義務(wù)滿足差異的下界,形如ui:Δd1≥-1∧Δd2≥-4∧Δd3≥0∧Δd4≥1,假設(shè)有四項(xiàng)義務(wù)d1、d2、d3、d4,而這里的意思是選擇a1比a2有更多倫理價(jià)值,需要a2滿足義務(wù)d1的程度不比a1多1度,d2不多于4 度,d4不小于1 度。直觀上,每個(gè)這樣的析取支表達(dá)的是在兩個(gè)行動(dòng)之間,選擇前者比后者在倫理上更合理的條件是需要在何種程度上更滿足一系列相關(guān)的義務(wù)。
從案例抽取出規(guī)則使用的是歸納邏輯的方法,特指一種基于實(shí)例的概念學(xué)習(xí)方式。每個(gè)案例都被設(shè)定為涉及兩個(gè)行為的比較,正面案例被定義為行為1 比2 更合乎道德,反之則為負(fù)面案例。具體的學(xué)習(xí)流程是從最寬容的規(guī)則出發(fā),即將析取范式中所有義務(wù)的下限設(shè)為最低,然后對(duì)每一個(gè)例子,調(diào)整各個(gè)義務(wù)的下限,使之最終與所有例子的倫理取向相符,即,對(duì)于所有的正例,規(guī)則中存在一個(gè)析取支使之為真,對(duì)于所有的負(fù)例,規(guī)則中沒有析取支使之為真。
這些技術(shù)細(xì)節(jié)并不是我們的關(guān)注重點(diǎn),我們需要考慮的是這些案例或者倫理問題的答案是由誰提供的,其中涉及的倫理特征和相關(guān)義務(wù)是如何選擇的。在A&A 的系統(tǒng)中,這些都由職業(yè)倫理學(xué)家提供。A&A 寫道:“我們利用倫理學(xué)家的直覺來告訴我們,在特定義務(wù)的滿足和違反程度,以及在足夠具體的案例中哪些行動(dòng)是可取的,機(jī)器學(xué)習(xí)程序從中得出一個(gè)一般的準(zhǔn)則……我們相信,專業(yè)知識(shí)來自于對(duì)道德問題的長(zhǎng)期深入思考。對(duì)于在倫理困境中該如何選擇,普通人不大可能有最佳判斷?!保?](P479-482)在他們及其合作者最近的理論和實(shí)踐進(jìn)展中,倫理學(xué)家的直覺仍然被自動(dòng)地當(dāng)作一切進(jìn)展的前提——“具有道德價(jià)值的自主系統(tǒng)的行為應(yīng)以明確的、通過倫理學(xué)家的共識(shí)確定的倫理原則為指導(dǎo)”[6](P337),甚至優(yōu)勢(shì)——“[另一項(xiàng)相關(guān)工作]沒有考慮這些優(yōu)先級(jí)的來源,而在本文中,不同行為的倫理后果之間的優(yōu)先級(jí)關(guān)系來自一系列實(shí)例,由倫理學(xué)家的判斷作為指導(dǎo)”[7](P13)??傊?xùn)練樣本反映了職業(yè)倫理學(xué)家的直覺,更準(zhǔn)確地說,是他們的直覺中蘊(yùn)含的針對(duì)特定領(lǐng)域的道德規(guī)范和倫理原則。
依賴專家的倫理直覺顯然是有爭(zhēng)議的,例如H&K 就提出四點(diǎn)批評(píng):一是實(shí)驗(yàn)哲學(xué)家發(fā)現(xiàn)人們的直覺并非總是自洽;二是即使專家的直覺也不比普通人好多少;三是機(jī)器倫理的動(dòng)機(jī)不應(yīng)該只是符合人類直覺,反而應(yīng)該避免人類易犯的錯(cuò)誤;四是專家直覺也會(huì)有分歧,此時(shí)機(jī)器倫理系統(tǒng)無從選擇[3](P131)。這些批評(píng)大體上可以分為兩個(gè)方面,一是對(duì)人類倫理直覺本身的自洽性的質(zhì)疑,二是對(duì)人類倫理直覺的指導(dǎo)性或者規(guī)范性的質(zhì)疑。
盡管筆者也對(duì)使用倫理學(xué)家的直覺作為機(jī)器倫理的唯一基礎(chǔ)持懷疑態(tài)度,但對(duì)于H&K 的論點(diǎn)卻并不完全認(rèn)同。
首先,問題的關(guān)鍵,并不在于直覺是否自洽,而是,直覺來自誰?專家的直覺,或者稱為精英直覺更為妥當(dāng),如何就足以、有資格成為機(jī)器倫理系統(tǒng)的唯一依據(jù)?A&A 援引了道德哲學(xué)家羅斯(W.D.Ross)的觀點(diǎn),后者認(rèn)為“有思想和受過良好教育的人的道德信念是倫理學(xué)的數(shù)據(jù),就像感覺知覺是自然科學(xué)的數(shù)據(jù)一樣”[8](P41)。令人尷尬的是,對(duì)于任何一種觀念,從哲學(xué)史上找到(可以是經(jīng)過特定解讀的)支持似乎都是可能的。所以這種論證并沒有什么分量。事實(shí)上,在當(dāng)代興盛的實(shí)驗(yàn)哲學(xué)領(lǐng)域,對(duì)依賴于專家直覺的哲學(xué)方法論已有種種質(zhì)疑,甚至“諸多的經(jīng)驗(yàn)證據(jù)表明,在涉及到直覺時(shí),專家會(huì)犯和大眾一樣的錯(cuò)誤,專家直覺并不比外行直覺優(yōu)越”[9](P100)。即使我們不踏入實(shí)驗(yàn)哲學(xué)領(lǐng)域的具體紛爭(zhēng),而是站在一個(gè)機(jī)器人的潛在使用者角度考慮,不難心懷疑慮:憑什么我家的機(jī)器人保姆的倫理規(guī)范要被在遙遠(yuǎn)的某所大學(xué)政治哲學(xué)系的某幾位白人男性決定了?也許他們聰明、理性,也許在他們的語境下也是品德高尚,可是想象一下,如果這是二戰(zhàn)時(shí)期德國(guó)的納粹知識(shí)分子呢?而我又恰好是個(gè)猶太人。又或者,這是基地組織的倫理哲學(xué)家,而我又恰好是個(gè)異教徒,還崇拜偶像。
另外,人類倫理直覺本身是否有規(guī)范性,與如何設(shè)計(jì)機(jī)器倫理規(guī)則其實(shí)并不直接相關(guān)。一個(gè)人工智能的倫理行動(dòng)者,是否必須能夠規(guī)避人類的錯(cuò)誤?在路上行駛/行走的時(shí)候,如果我不會(huì)冒著遲到的風(fēng)險(xiǎn)停下來幫助別人,是否非要機(jī)器做到呢?①另外,如果在某個(gè)問題上,專家尚不能達(dá)成一致,我們憑什么要求機(jī)器給出明確結(jié)果,而且這種結(jié)果怎么可能被認(rèn)為是合乎倫理的,畢竟總會(huì)有一批人反對(duì),不是嗎?因此,筆者認(rèn)為,機(jī)器倫理研究的目標(biāo)應(yīng)該弱化或者謙虛地表達(dá)為讓機(jī)器像個(gè)普通人一樣行事,限定在多數(shù)人能達(dá)成一致的領(lǐng)域。而不是像H&K 宣稱的,能夠比人做得更好,或者能解決人都不能達(dá)成一致的爭(zhēng)議。這將在下文進(jìn)行更具體闡述。
H&K 主張基于康德式的道義論為機(jī)器倫理奠基,動(dòng)機(jī)就是完全擺脫不靠譜的人類倫理直覺。他們使用的“道義論”是廣義上的,并非限于康德的學(xué)說,而是指通過康德式的推理得出的精確的倫理法則。首要原則就是“普遍化原則(generalization principle)”[3](P133)——行動(dòng)的理由可以被理性地普遍推廣,我行動(dòng)的理由必須滿足這樣的條件,即每個(gè)人都可以憑此理由同樣行事。以“為上進(jìn)而無償加班到深夜”這個(gè)行為為例,假設(shè)人人都如此行事,那么就不存在誰比誰更上進(jìn)了,因此這種行為動(dòng)機(jī)是不理性的,采取這種行動(dòng)違背普遍化原則。
H&K 還列出兩項(xiàng)原則,一是“尊重自主權(quán)(re?specting autonomy)”[3](P133),即自己的行為不能妨礙到別人的,特別強(qiáng)調(diào)對(duì)他人合理意愿、身體自由的干涉。這個(gè)原則可以由普遍化原則得出,人人互相妨礙則無行為可成功實(shí)施。另一個(gè)是“功利主義原則(utilitarian principle)”[3](P134),H&K 認(rèn)為功利主義原則可以用道義論表達(dá),該原則要求采取行動(dòng)出自這樣一種理性信念,即該行動(dòng)能帶來最大化的功利,而功利需是內(nèi)在善的。以此為出發(fā)點(diǎn),下面的工作就是選擇合適的表征方式,將這些道德律編碼為機(jī)器指令,使其可以產(chǎn)生機(jī)器人的行動(dòng)方案。具體地,H&K 使用了模態(tài)量詞邏輯對(duì)這三項(xiàng)規(guī)則編碼,作為機(jī)器倫理設(shè)計(jì)的起點(diǎn),并宣稱這個(gè)系統(tǒng)雖然沒有完全去除人的因素,但是完全去掉了對(duì)人類道德直覺的依賴。此中技術(shù)細(xì)節(jié)并非本文關(guān)注重點(diǎn)。
筆者對(duì)H&K 系統(tǒng)的批評(píng)主要有兩方面。首先,它并沒有像宣稱的那樣完全脫離人類直覺;其次,道義論產(chǎn)生的行動(dòng)方案是有爭(zhēng)議的。
首先,這些所謂的道義論原則是否真地不依賴于人類直覺?它們自然不屬于數(shù)學(xué)定理或者自然律,那么這些原則的根基在哪里?此處不想涉及哲學(xué)史上圍繞康德學(xué)說的種種爭(zhēng)議,亦無意涉足所謂先天/后天知識(shí)來源。我們僅考慮一下第二個(gè)原則“尊重自主”,這個(gè)原則被H&K 特意挑選出來,其實(shí)有些令人生疑,這里的自主與康德的“為自我立法”概念完全不同,反而,更強(qiáng)調(diào)的是不要干涉他人。事實(shí)上,H&K 后面討論的例子表明,這個(gè)原則中的自主特別適用于是否違背病人意愿讓他吃藥的例子;而這個(gè)例子恰恰也是A&A 詳細(xì)討論過的,“自主”這種倫理相關(guān)的特征,其實(shí)正是根據(jù)倫理學(xué)家的一致意見抽取和設(shè)定出來的。也許H&K 會(huì)說,通過普遍化原則指導(dǎo)下的推理過程,“尊重自主”這樣的原則就不是僅僅依賴于專家直覺或者任何人的直覺,而是有了邏輯和理性的依據(jù)。但是,概念的存在和被認(rèn)可,恐怕就已經(jīng)依賴于直覺了:在古希臘,對(duì)于女性,甚至不存在讓其自主的概念。H&K 也意識(shí)到,在工程師用代碼實(shí)現(xiàn)這種系統(tǒng)時(shí),哪些與倫理價(jià)值相關(guān)的特征被編碼、如何編碼,都依賴于人的經(jīng)驗(yàn)知識(shí)和理性推斷,但他們卻宣稱這些只是客觀事實(shí),而不是價(jià)值判斷本身。這個(gè)觀點(diǎn)并不可靠,因?yàn)樘卣鬟x取很可能也是依賴于人類道德直覺的。病人拒絕服藥,按照道義論系統(tǒng),機(jī)器人通知其監(jiān)護(hù)人并沒有妨害病人的自主權(quán),所以在倫理上是可接受的,那么假設(shè)病人相信其監(jiān)護(hù)人給的藥品有害無益,且事實(shí)上監(jiān)護(hù)人會(huì)從病人的死亡中獲得暴利呢?這些特征是否應(yīng)該以及如何被編碼?這些決定都考驗(yàn)著工程師的知識(shí)和倫理直覺。
H&K 的另一重論證似乎是,對(duì)于某個(gè)特定場(chǎng)景的行動(dòng)選擇,合理性并不直接由專家給出(沒有標(biāo)注樣本),相反,當(dāng)下的結(jié)論是由機(jī)器根據(jù)規(guī)則自行推理得出的,所以人類的直覺并沒有干預(yù)機(jī)器的選擇。這種推理十分牽強(qiáng)。類比一下,假如我按照自己的直覺寫了一條規(guī)則“永遠(yuǎn)不要和十二個(gè)人同席”并給了機(jī)器人編寫了這種程序,那么機(jī)器人在某次看到有十二個(gè)人的時(shí)候,就堅(jiān)持不要落座,這種行為當(dāng)然沒有被我當(dāng)場(chǎng)參與或干預(yù),我甚至完全不需要知情,但是這不能說機(jī)器的這種行動(dòng)方案是不依賴于人類直覺的。
另外,H&K 系統(tǒng)的缺陷還表現(xiàn)在有爭(zhēng)議的問題上。一個(gè)反復(fù)出現(xiàn)的例子是:病人拒絕服藥,機(jī)器人是否該通知其監(jiān)護(hù)人。而且設(shè)定在此情景中藥不是救命的,所以一次不吃不會(huì)有生命危險(xiǎn)或重大健康隱患。據(jù)稱,倫理學(xué)家的一致意見是不通知,因?yàn)檫@違背了病人的自主;然而,據(jù)H&K 的道義論系統(tǒng)分析,通知監(jiān)護(hù)人并沒有違背病人的自主權(quán)??墒牵@怎么能表現(xiàn)出道義論的優(yōu)勢(shì)呢?很容易想象,A&A 可以依此說道義論給出了不正確的結(jié)論。至少,我們可以公允地說,在這個(gè)倫理問題上,存在兩種對(duì)立的意見,也許我們不應(yīng)該完全相信專家直覺,可是我們又憑什么相信機(jī)器給出的明確無疑的答案呢?存在爭(zhēng)議本身,恐怕就是道義論系統(tǒng)的一個(gè)缺陷,因?yàn)樗鼪]有空間容納分歧;可是直覺,似乎總是可以得到不同的澄清和釋義。
基于專家直覺的規(guī)則和完全不用案例的道義論系統(tǒng)都不盡如人意,前者讓人質(zhì)疑為什么少數(shù)幾個(gè)人的直覺就決定了機(jī)器應(yīng)該做什么,后者又過于空泛抽象,似乎不足以反映人們?cè)邗r活世界中的復(fù)雜決策。一個(gè)替代方案是從大量樣本中通過機(jī)器學(xué)習(xí)方法提取出規(guī)則,或者說,構(gòu)造一個(gè)能夠擬合大多數(shù)人決策的模型。但這并不是自下而上的方法,因?yàn)樵陬A(yù)測(cè)階段,機(jī)器所使用的還是習(xí)得的規(guī)則。或許可以稱為從眾的機(jī)器倫理系統(tǒng)。
原則上,如果我們對(duì)于涉及倫理行為的廣泛場(chǎng)景都搜集了大量的數(shù)據(jù)作為訓(xùn)練樣本,使用機(jī)器學(xué)習(xí)或者深度學(xué)習(xí)的方法,我們總可以對(duì)多數(shù)人的行為選擇做出預(yù)測(cè),或許,隨著模型復(fù)雜度的增加,預(yù)測(cè)的準(zhǔn)確性也會(huì)得到提升,甚至不難設(shè)想一個(gè)幾近完美擬合手上所有樣本數(shù)據(jù)的模型。
確實(shí),這種方案在數(shù)據(jù)采集、特征工程方面都會(huì)有實(shí)際的困難,但是這些困難都不是原則性的。一個(gè)真正的難題來自解釋性,或者在當(dāng)前場(chǎng)景中,我們可稱為如何提取人們可以理解并接受的倫理規(guī)則。
首先我們可以盡量選擇具有可解釋性的模型,例如決策樹②這種每次分支都相當(dāng)于一個(gè)規(guī)則的模型,又如基于單個(gè)特征或特征的線性變換的各種模型、樸素貝葉斯模型。而參數(shù)量巨大的模型,例如多層感知機(jī),在這方面就具有劣勢(shì)??墒?,即使是最簡(jiǎn)單的線性模型,假如我們發(fā)現(xiàn)其參數(shù)值不可理解或者反直覺怎么辦?舉個(gè)(可能很不現(xiàn)實(shí)的)例子,假如在電車?yán)Ь持?,用x1 表示因變量體重,x2 表示因變量年齡,用y 表示選擇犧牲個(gè)體的傾向,假如模型完美擬合的結(jié)果就是x1*1.2+x2*5=y怎么辦?如果非要用語言表述,那么大概可以說體重越重、年齡越長(zhǎng)的人,就越該死來救其他人。也許我們會(huì)覺得這是不合理的,但是問題并不在于模型不具有可解釋性,而是我們不認(rèn)可這個(gè)解釋,那么我們后續(xù)的工作是尋找哪里出了問題,也許是特征選擇的問題,也許是樣本的問題,也許我們的倫理規(guī)范就是這樣的,只不過我們嘴上都是偽君子而已。無論如何,模型是可以解釋的。
當(dāng)然,也許我們最終選擇的效果好的模型恰恰就是目前被認(rèn)為是黑盒的深度神經(jīng)網(wǎng)絡(luò),將大量的特征經(jīng)過層層線性和非線性的復(fù)雜到令人頭暈的變換,在遠(yuǎn)超過普通人空間想象力的高維空間找到一個(gè)函數(shù)。這種函數(shù)的參數(shù)量可能達(dá)到千百萬計(jì),不能被人理解。現(xiàn)在效果最佳的各種巨無霸式的語言模型就是如此,而對(duì)其一大詬病就是失去了解釋性。這樣看來,如果倫理模型也是如此,那么就完全背離了機(jī)器倫理的初衷,畢竟我們本意是讓機(jī)器的行為有倫理理由的支持。但是,即使這種極不可能的情況——這個(gè)模型遠(yuǎn)超其他所有簡(jiǎn)單模型并且完美地預(yù)測(cè)大多數(shù)人對(duì)任意倫理場(chǎng)景的選擇——真地發(fā)生了,那么這種不可解釋性,一方面可以借鑒對(duì)深度神經(jīng)網(wǎng)絡(luò)可解釋性的研究成果,畢竟這已經(jīng)不是倫理模型自己的問題了;另一方面,這種完美預(yù)測(cè)本身就帶來一些合理性,或許,就是存在種種我們尚且沒有意識(shí)到的特征以人類難以用自然語言表征的方式對(duì)倫理選擇產(chǎn)生了影響,這本身也可以稱為倫理原則,只不過不是可以被人類目前的概念框架和自然語言系統(tǒng)所表征的。
更多的質(zhì)疑可能來自理論上。
(1)這種“規(guī)則”只是描述性的,不具有規(guī)范性。甚至可能有人說這是犯了“自然主義謬誤”,這是出自摩爾的著名批評(píng),指的是從關(guān)于X 的自然屬性的任何命題中推斷出X 是好的。例如,假設(shè)愉快是一種自然屬性,有人從喝啤酒是愉快的前提下推斷出喝啤酒是好的,就應(yīng)該犯了自然主義謬誤。直觀的想法是,評(píng)價(jià)性結(jié)論至少需要一個(gè)評(píng)價(jià)性前提——關(guān)于事物自然性特征的純粹事實(shí)前提并不包含甚至支持評(píng)價(jià)性結(jié)論。
回應(yīng):在這里我們并不是為倫理原則本身尋求來自自然屬性的根據(jù),相反我們是想找到機(jī)器倫理的根據(jù),而后者最自然的來源就是我們自己遵守的規(guī)范。因而,這里的論證并不是“大多數(shù)人認(rèn)為A是可欲的,所以A 是好的”,而是“大多數(shù)人認(rèn)為A是好的,所以機(jī)器也可以認(rèn)為A 是好的”,一個(gè)從規(guī)范性前提推導(dǎo)出規(guī)范性結(jié)論。
(2)這種機(jī)器倫理并不是我們想要的。如前所述,H&K 就持有這種看法。舉個(gè)更為極端的例子,以一群納粹分子的行為選擇為樣本,很可能得出的倫理規(guī)則蘊(yùn)含殺死所有的猶太人,或者說,當(dāng)猶太人全部死亡時(shí),對(duì)所有人最有好處(按照功利主義的話)。但是,顯然,關(guān)于某個(gè)群體常態(tài)應(yīng)該是有對(duì)錯(cuò)的,相反,模型只關(guān)乎擬合與否,從來不關(guān)乎善惡。而這樣的機(jī)器倫理系統(tǒng)是我們應(yīng)該避免的,即使它真實(shí)反映了一種群體倫理規(guī)范。
回應(yīng):納粹機(jī)器人的倫理原則只是從納粹群體的數(shù)據(jù)得到的,如果擴(kuò)大采樣范圍,很難想象人類普遍的原則會(huì)有這種滅絕種族的價(jià)值觀。不過,我們可以假設(shè),即使這種原則算是個(gè)倫理規(guī)范,那么受審的應(yīng)該是納粹分子,或者我們自己,而不是機(jī)器人。
這種反對(duì)意見背后是對(duì)機(jī)器倫理的目的、動(dòng)機(jī)的不切實(shí)際的要求,這種誤解是要求機(jī)器比人更有道德,機(jī)器看護(hù)必須是所有人心目中道德完美的行動(dòng)者④。之所以說是誤解,我們可以想想到底需要什么樣的機(jī)器人。核心要求是其行為動(dòng)機(jī)可被理解,并且在道德上可以被接受,也就是說是倫理上可接受的,并不是說倫理上優(yōu)越的、能成圣的。
(3)一個(gè)相關(guān)的質(zhì)疑是,這種大多數(shù)人的選擇算不上有導(dǎo)向意義的倫理原則。反對(duì)者也許會(huì)說,即使機(jī)器按照大多數(shù)人的行為行事是可以接受的,但這不等于說它不是不受譴責(zé)的,而我們需要一個(gè)能夠做出道德免責(zé)行為的機(jī)器人。畢竟,大多數(shù)人都棄路人不顧,也許機(jī)器人也可以這么干,但它如果這么干了,那么還是需要負(fù)責(zé)。在這個(gè)意義上,大多數(shù)人的選擇是沒有價(jià)值的。
回應(yīng):一個(gè)辯護(hù)是,機(jī)器人負(fù)責(zé)的程度就應(yīng)該和大多數(shù)人一樣,不應(yīng)被苛責(zé)。事實(shí)上,從眾的機(jī)器倫理恐怕恰恰是最符合實(shí)際情況的,對(duì)普通人群的倫理行為是最貼切的刻畫。一個(gè)來自實(shí)驗(yàn)哲學(xué)的有趣觀察是絕大多數(shù)人都是道德平庸的,意思是“人們的目標(biāo)是和周圍的人在道德水平上持平,既不要太好,也不能太壞”[10](P347)。而且,我們有理由認(rèn)為,大多數(shù)人都算不上是道德敗壞的③。如果是這樣,那么機(jī)器人作為一個(gè)道德平庸的行動(dòng)者,正好擁有人的道德水平,既不是圣人,也不是惡人。這樣的機(jī)器人參與人際交往、開車上路、看護(hù)老人,正如普通的你我他一樣。其行動(dòng)的可解釋性來自人類群體的傾向,其合理性和可接受度最終會(huì)基于我們?nèi)绾卧u(píng)價(jià)自己的行動(dòng)。
至此,我們的結(jié)論是,在理論上和原則上,從眾的規(guī)范是可以被接受的機(jī)器倫理系統(tǒng)。而令人欣慰的是,在工程實(shí)踐方面,這種想法也不是完全空想的。最近,一個(gè)有趣的嘗試由Kim et al.給出,他們使用了“Moral Machine”④收集的樣本作為訓(xùn)練數(shù)據(jù),用層級(jí)貝葉斯模型將特定人群對(duì)倫理困境的答案建模為一個(gè)功利函數(shù),關(guān)鍵設(shè)定是:個(gè)體決策是基于其個(gè)體道德原則的,而道德原則是D 維特征空間的權(quán)重值;功利值就是特征值的加權(quán)和,決定了輸出決策的概率;而個(gè)人道德原則則服從其所屬群體道德原則的正態(tài)分布。這個(gè)模型使用了很少量的樣本(樣本數(shù)量范圍從4 到128)就取得了很好的擬合效果,而且研究者認(rèn)為模型預(yù)測(cè)的信度正確反映了倫理決策的困難程度[11](P199-202)。當(dāng)然,這項(xiàng)工作的有效性是在很小的范圍內(nèi)的,比如,他們只選取了電車?yán)Ь尺@一個(gè)特定的倫理問題,并且樣本全都來自同一個(gè)地區(qū),這似乎預(yù)設(shè)不同地區(qū)居民的群體道德規(guī)范可能是不同的。這幾位作者并沒有將自己的工作稱為機(jī)器倫理規(guī)則的設(shè)計(jì)和提取,而只是謙虛地聲稱提供了人們?nèi)绾芜M(jìn)行道德選擇的描述。不過,如果這種工作可以擴(kuò)展和完善,根據(jù)本文到目前為止的討論,或許我們可以說,如果機(jī)器具有了這樣的大腦,那么他已然是一個(gè)普通的道德行動(dòng)者了。
假設(shè)在未來,我們得到了可以幾乎完美描述人類倫理選擇的模型,那么下一步工作可以由理論家對(duì)特征值或模型參數(shù)給出可解釋的說法,如果這些選擇恰好于某些已知的理論相符,或者可被歸約到某種價(jià)值取向,那么皆大歡喜;如果不能找到,那么最起碼我們可以說這就是最多人選擇的倫理行為,也許這不是圣人之選,但起碼也不應(yīng)受到嚴(yán)厲責(zé)備。簡(jiǎn)言之,從眾的機(jī)器倫理系統(tǒng)最差,也和我們一樣,是道德平庸的。
[注 釋]
①此處指情境主義用來批評(píng)美德倫理學(xué)的著名心理學(xué)實(shí)驗(yàn)“善良的撒馬利亞人”,其中被試被要求盡快趕到指定地點(diǎn),途經(jīng)有研究者安排的需要幫助的路人,實(shí)驗(yàn)結(jié)果表明多數(shù)人都不會(huì)對(duì)路人伸出援手,無論是否接受了較高的倫理道德教育。具體爭(zhēng)議可參見李楠(2015)[12]。
② A&A 的CPB 系統(tǒng)也使用了決策樹模型,但并不是用于提取規(guī)則,而是用于模型預(yù)測(cè)階段。
③感謝梅劍華教授提醒筆者注意這篇文章。
④感謝葉云峰教授對(duì)此處表述的指導(dǎo)。
⑤Moral Machine 是一個(gè)MIT 設(shè)計(jì)的一個(gè)網(wǎng)站https://www.moralmachine.net/hl/zh,上面有各種關(guān)于自動(dòng)駕駛車輛的場(chǎng)景,使用眾包的方式收集用戶關(guān)于其中道德困境的選擇。感興趣的讀者可以一試。