內(nèi)容提要 基于“人是目的”的價值設(shè)定而建立起的“倫理至善”第一原則讓強人工智能設(shè)備的研發(fā)和應(yīng)用首先遭遇道德合法性的論證難題?!坝邢薜牡赖潞戏ㄐ浴睘槠渲\求到了一個倫理存在空間。以致命性自主武器系統(tǒng)(LAWS)為例,“有限性”的前置條件則讓關(guān)于其“道德責(zé)任代理人”的準(zhǔn)確識別與劃分成為首要問題。以道德判斷能力為標(biāo)準(zhǔn),將作為“工具”的機器和作為“具有實踐智慧”的人做明確劃分是準(zhǔn)確識別LAWS責(zé)任代理人的邏輯基礎(chǔ)?;诘赖仑?zé)任代理人的邏輯梳理,即使被完美道德編碼的LAWS作為“非道德”的機器在應(yīng)用中也可能會遭遇“不道德的人”的倫理難題。這是我們可預(yù)見且對國際關(guān)系構(gòu)建和整個人類社會發(fā)展可能產(chǎn)生顛覆性影響的倫理威脅。從這個角度看,謹(jǐn)防出現(xiàn)基于“技術(shù)野蠻”的“寡頭恐怖主義”這一時代命題要求我們盡快對相關(guān)強人工智能設(shè)備給出一套有效的、縝密的預(yù)防性倫理應(yīng)對機制。
關(guān)鍵詞 強人工智能 致命性自主武器 有限的道德合法性 道德主體 寡頭恐怖主義
張亦佳,河海大學(xué)馬克思主義學(xué)院博士研究生、南京財經(jīng)大學(xué)助理研究員
20世紀(jì)70年代,塞爾(John Searle)首次提出了“強人工智能”概念,認(rèn)為“計算機不僅僅是用來研究人的思維的一種工具,只要運行適當(dāng)?shù)某绦?,計算機本身就是有思維的”[1]。業(yè)界認(rèn)為相對于弱人工智能,強人工智能的優(yōu)勢在于“機器可以全面、綜合地復(fù)現(xiàn)人類的所有思維能力,且聰明程度能夠達(dá)到或超過人類”[2]。2022年9月,AlphaGo Zero被證明能夠獨立于人類的經(jīng)驗知識與指令,通過感知領(lǐng)域的深度學(xué)習(xí)和決策領(lǐng)域的不斷強化學(xué)習(xí),最終實現(xiàn)智力的自我進(jìn)化。強人工智能設(shè)備可能帶來的風(fēng)險又一次引發(fā)廣泛關(guān)注和擔(dān)憂。關(guān)涉到戰(zhàn)爭領(lǐng)域,以智能無人作戰(zhàn)為主導(dǎo)的未來戰(zhàn)場將呈現(xiàn)出“零傷亡、高智能和無人制勝”的特點。隨著自主武器系統(tǒng)的深入研發(fā)與實踐應(yīng)用,戰(zhàn)爭形態(tài)的范式轉(zhuǎn)變所引發(fā)的道德困境和挑戰(zhàn)將會是人類未來必須面對的重大倫理議題。自主武器系統(tǒng)的研發(fā)初衷是減少人類戰(zhàn)士在戰(zhàn)場上的傷亡,但是,近來基于強人工智能的致命性自主武器系統(tǒng)(lethal autonomous weapon systems,LAWS)已經(jīng)被研發(fā)出來甚至出現(xiàn)了實戰(zhàn)應(yīng)用案例[1],而以此為代表的強人工智能設(shè)備可能帶來的倫理問題也日益凸顯。由于強人工智能的具體表現(xiàn)形式多樣,本文將以LAWS為例來具體分析此類強人工智能設(shè)備可能面臨的倫理挑戰(zhàn)。
一、強人工智能“倫理至善”的道德合法性難題及其可能性辯護(hù)
整體來說,強人工智能設(shè)備應(yīng)該具備以下特征:須達(dá)到或超越人類智能、可實現(xiàn)“意識自醒”并形成“自己”獨特的行動目標(biāo)、具備較為完整的認(rèn)知能力序列和情境適應(yīng)性能力等[2]。而依照相關(guān)概念,LAWS指的是“一種基于AI技術(shù)且具有自主決策性能的‘殺手機器人(killer robots)武器攻擊平臺,可以在不經(jīng)過人類操作員干預(yù)的情況下,獨立搜索、識別目標(biāo)并自主性地做出攻擊決策,其設(shè)計初衷是寄望于以智能機器人取代人類戰(zhàn)士從事戰(zhàn)場偵察、日常巡邏和執(zhí)行危險性戰(zhàn)斗任務(wù),從而達(dá)到降低人員傷亡、減少戰(zhàn)爭損耗和實現(xiàn)精準(zhǔn)打擊之功效”[3]??梢姡白灾餍?攻擊性”的疊加性能是其區(qū)別于傳統(tǒng)軍事武器類型的最主要標(biāo)志。由于LAWS具有“能夠在沒有任何人類指令輸入或人機互動操作情形下自主選擇攻擊目標(biāo)并開火”的性能[4],至少從表面上看,人就已經(jīng)完全被排斥于一個軍事任務(wù)的閉環(huán)之外。目前關(guān)于LAWS的最大倫理爭議,實際上來自道德責(zé)任的認(rèn)定,即馬蒂亞(Matthias)所提出來的關(guān)于軍用機器人使用中的“道德鴻溝”[5]問題。
在傳統(tǒng)意義上,正義戰(zhàn)爭一貫秉持“如果有可識別的戰(zhàn)爭罪行,就一定有可識別的罪犯”[6]的道德主張,在人工智能高度參與的各項軍事行動中,人們也應(yīng)該要求有明確的、可識別的道德行為主體為各種軍事行動的后果和影響承擔(dān)起直接的道德責(zé)任。誰應(yīng)該為LAWS承擔(dān)道德責(zé)任,LAWS是否要為自己的“自主性”承擔(dān)道德責(zé)任,責(zé)任代理人各方又應(yīng)該承擔(dān)什么樣的道德責(zé)任,以及如何才是真實有效地承擔(dān)道德責(zé)任等問題,是當(dāng)下最具爭議的倫理話題。在開始討論LAWS的道德責(zé)任之前,我們需要對LAWS最基本的前置性問題進(jìn)行辨析,即從邏輯上來講,當(dāng)人們提出“LAWS能否被視作一個獨立的道德行為主體,并能否成為其行為后果的道德責(zé)任代理者”的問題時,實際上就已經(jīng)默認(rèn)了這一基本預(yù)置前提——LAWS是被允許研發(fā)并應(yīng)用于現(xiàn)代性軍事行動當(dāng)中的。這就涉及對LAWS應(yīng)用的道德合法性確證問題,如果有充分論證表明,LAWS是應(yīng)該完全被禁止研發(fā)和應(yīng)用于軍事行動中的,那么其道德責(zé)任問題也就隨之從根本上被消解而成為一個無意義的問題。因此,我們無論對LAWS持支持或反對意見,都必須首先給出關(guān)于其合法性的嚴(yán)謹(jǐn)而完整的道德哲學(xué)論證。
1.關(guān)于道德責(zé)任詰難的一個必要澄清
關(guān)于作為強人工智能的LAWS的研發(fā)及應(yīng)用是否具有道德上的合法性問題,無論我們持何種觀點或許都會招致諸多倫理挑戰(zhàn)。但我們首先要做的是要從一種“責(zé)任鴻溝—道德禁令”互為前提、循環(huán)論證的思維泥潭當(dāng)中擺脫出來。對LAWS的反對意見中,最具普遍性的道德理由及其證成邏輯如下:基于一個道德共識,即作為可以承擔(dān)道德責(zé)任的代理人的一個條件是有能力通過相應(yīng)的痛苦或報酬,受到相應(yīng)的懲罰或獎勵。因此,道德責(zé)任的一個必要條件是要將責(zé)任代理人納入懲罰和獎勵范圍。機器人缺乏諸如痛苦、快樂一類的感知能力,這就意味著任何懲罰方式都無意義。所以,強人工智能設(shè)備就不符合負(fù)責(zé)任代理的資格[1]。同樣,LAWS作為強人工智能設(shè)備的一種,任何對其不道德行為的事后指責(zé)都無意義。如此,在那些已發(fā)生的錯誤選擇行為中就沒有任何主體可以公平地去承擔(dān)災(zāi)難性后果的道德責(zé)任。
那么,我們是否可以以此為全部理論依據(jù)而禁止LAWS參與到戰(zhàn)爭領(lǐng)域中呢?我們必須認(rèn)識到,以上論證根本上隱藏了一種邏輯順序顛倒的無效論證:由于LAWS在道德責(zé)任方面的不確定性,因而不具有研發(fā)和使用上的道德合法性;進(jìn)一步地,又因為LAWS不具有道德上的合法性,所以LAWS的道德責(zé)任討論是可以被消解的。因此可以得出一個結(jié)論:既無法準(zhǔn)確劃分LAWS的道德責(zé)任,其也沒有道德上的合法性。但事實上,道德責(zé)任的歸屬問題并不能構(gòu)成一個關(guān)乎終極價值目的和最高倫理關(guān)懷的道德合法性的說明,它應(yīng)該是一個基于道德合法性探討而隨之出現(xiàn)的二階倫理問題。因此它也不能成為否定LAWS價值性存在的根本依據(jù)。對于上面的論證,一個很簡單的邏輯反詰是:如果有人愿意成為或者我們能夠?qū)で蟮揭粋€道德責(zé)任的實際承擔(dān)者,LAWS是否就具有完全的道德合法性而可以被不加限制、隨心所欲地使用呢?顯而易見,這里的答案仍然是否定的。
實際上,現(xiàn)在大多數(shù)反對LAWS的道德聲音都是出于人們基于“殺人是不對的”這一基本常識性道德判斷,對LAWS可能摧毀生命的天然使命有著一種強烈的道德厭惡和情感抗拒[2]。只要對LAWS功能和主要軍事用途做一個大致了解[3],單就“致命性武器”帶給人們的直觀感受而言,就不難理解為什么很多人對LAWS懷有如此強烈的道德直覺式排斥。這就像一個和平主義者基于對戰(zhàn)爭本身的道德厭惡而對其正義問題嗤之以鼻一樣。如果單純談?wù)摲俏淦骰灾餍詸C器人(即那些被我們稱之為“朋友機器人”的人工智能)的道德合法性問題,比如無人駕駛汽車、仿生智能寵物、機器人醫(yī)生、機器人服務(wù)員等,可能我們會寬容很多。因此我們期待更加理性、慎重、嚴(yán)謹(jǐn)?shù)恼軐W(xué)審視和論證。
2.基于戰(zhàn)爭倫理先在規(guī)定的“有限的道德合法性”立場
到目前為止,我們只是說明了強人工智能在軍事應(yīng)用中的邏輯混亂問題,而仍未給出關(guān)于LAWS的任何道德合法性說明。為LAWS做道德合法性辯護(hù)非常困難的原因很大一部分在于“自主性+致命性武器”的組合而導(dǎo)致的雙重界定難題。從智能性來看,2018年歐盟發(fā)布的由歐委會人工智能高級專家組(AIH-LEG)所起草的《可信任人工智能倫理指南》(Ethics Guidelines for Trustworthy AI)[4],對人工智能所要求的內(nèi)在遵循仍然是“人為自己立法”的規(guī)范性原理。也就是說,包括強人工智能設(shè)備在內(nèi)的所有人工智能的設(shè)計、制造和應(yīng)用都要符合“人是目的”這一道德合法性根基。因此,就形式而言,我們將“規(guī)范者指引”倫理框架的先行構(gòu)建提煉為可信任人工智能倫理規(guī)范的第一個基本原則就是讓“算法”遵循“善法”[1]。但同時,按照“致命性武器”用途的先在性設(shè)定,如果LAWS從其開始構(gòu)想設(shè)計之日,其算法所設(shè)定的目的就是去“針對和殺害人類”(即“朋友機器人”的反面——“殺手機器人”)[2],那么是否基于倫理至善的首要原則為LAWS留有道德合法性的倫理空間,這才是LAWS道德合法性確證的根本性難題。
關(guān)于這一倫理難題的處理方式大概會有兩種:一種是懸置,正如一些軍事家所做的;另一種是迎難而上一探究竟,這是倫理學(xué)者的使命。前者如美國國防部前副部長鮑勃·沃克(Bob Work)[3]曾在2016年接受采訪時公開說道:“未來10年或15年內(nèi),如何授權(quán)機器人(實施殺傷行動)將變得非常清楚……但我非常擔(dān)心美國經(jīng)常圍繞致命性自主武器的‘道德、法律和倫理問題進(jìn)行討論……我們的競爭對手可從來不這么干”[4]。而事實上,五角大樓后來的確懸置了這一問題。近年來,美國多次采用“無人機+導(dǎo)彈”技術(shù)開展了被其稱之為“定點清除”的斬首行動。但是這絕不意味著這些已經(jīng)展開的軍事行動具有充分的道德正當(dāng)性,也絕不意味著國際社會會同意這種情況一直發(fā)生下去。
如果繼續(xù)討論下去,關(guān)于LAWS的道德合法性說明似乎陷入了一種僵局:我們既推翻了現(xiàn)有反對意見的道德論證,似乎又不打算為LAWS的無限制應(yīng)用做道德合法性辯護(hù)。而一個更為嚴(yán)峻的事實是,截至目前,全球已有40多個國家被披露正在設(shè)計、研發(fā)和試圖使用“致命性自主武器”系統(tǒng)[5]。正如有些學(xué)者早已經(jīng)意識到的,“伴隨著人工智能技術(shù)的進(jìn)步與日臻成熟,基于強人工智能技術(shù)的‘自主性已成為現(xiàn)代武器系統(tǒng)的一個重要進(jìn)化趨勢,全面禁止致命性自主武器系統(tǒng)在現(xiàn)實中已不太可能,即便實施了禁令,也很可能不會產(chǎn)生效果”[6]。如果我們回到討論LAWS的倫理場域原點——軍事與戰(zhàn)爭領(lǐng)域,就會發(fā)現(xiàn)如今關(guān)于LAWS道德合法性問題的困境正如我們在討論戰(zhàn)爭正義問題時所遭遇到的道德合法困境一樣——它既無法被全盤否定,又不具有天然的道德合法性[7]。
如果依據(jù)聯(lián)合國《公民權(quán)利與政治權(quán)利國際公約》的規(guī)定,“每個人都有與生俱來的生命權(quán),這項權(quán)利應(yīng)受法律保護(hù),任何人不得隨意剝奪他人的生命”[8],那么戰(zhàn)爭從其出現(xiàn)之日起,就從來沒有獲得過最高的道德合法性辯護(hù)。但事實卻是一部人類史就是一部戰(zhàn)爭史。因此,從這一意義上講,我們只能基于歷史經(jīng)驗與事實,在一定的前提和限制條件下去討論戰(zhàn)爭的道德正當(dāng)問題。“正義戰(zhàn)爭理論是反對和平主義的……然而更重要的是它也反對侵略征服……它是一種限制性的理論。然而,它在限制的同時也許可以——許可限度之內(nèi)的——武力行為。”[9]我們將這樣的道德合法性稱之為相對于“無限”的“有限的道德合法性”。
同樣,如果在有明確的前置條件和限制的嚴(yán)格規(guī)約下,我們或許能為LAWS找到一個適存性的倫理空間?;氐絃AWS關(guān)于“降低人員傷亡、減少戰(zhàn)爭損耗和實現(xiàn)精準(zhǔn)打擊”的研發(fā)初衷,LAWS有限的道德合法性問題或許值得一辯。當(dāng)然,這種辯護(hù)只能是消極的。或許在更消極意義上,就如核武器研發(fā)的辯護(hù)空間僅剩于“以核制核”的威懾倫理之辯護(hù)一樣,LAWS的研發(fā)也可以被看作是在人類道德文明的發(fā)展高度還不足以使人類自身走出戰(zhàn)爭這樣的時代背景下應(yīng)運而生的,它是被用于實現(xiàn)國家之間相互制衡式和平的一種“不得已”手段和方式。無論怎樣,LAWS用途的道德合法性在任何時候都需經(jīng)過嚴(yán)謹(jǐn)?shù)浇蹩燎蟮恼撟C說明才有足夠的理由有限使用。而比起LAWS的可能性空間的討論,更重要的是要對諸如以下這些問題時刻保持一種警醒:人員傷亡的降低、戰(zhàn)爭損耗的減少會不會潛藏著戰(zhàn)爭更加輕易被發(fā)動的可能?精準(zhǔn)打擊要求的科學(xué)技術(shù)是否會使更多的包括科學(xué)家、程序員等在內(nèi)的原本屬于非戰(zhàn)斗人員都卷入戰(zhàn)爭當(dāng)中?LAWS的濫用會不會使人類社會進(jìn)入一種高科技野蠻時代?我們必須清楚地認(rèn)識到降低戰(zhàn)爭準(zhǔn)入門檻的風(fēng)險背后所隱藏的都是對生命無限制的威脅和殺戮之可能。這些可能性也就意味著盡快擬定一整套審慎的、嚴(yán)格的、系統(tǒng)的關(guān)于LAWS的倫理規(guī)約性條款是時代的召喚和要求。
換言之,所謂“有限的道德合法性”,一定要從“有限性”和“道德合法性”兩方面來看:“道德合法性”的確為LAWS尋求到了一個倫理適存空間,但“有限性”的前置性則要求我們對LAWS的倫理適存空間首先要做出系統(tǒng)的、謹(jǐn)慎的、詳細(xì)的論證說明。限制誰?作何限制?由誰來限制?如何限制?這些問題必須一一去思考、回應(yīng)和解答。當(dāng)然,在這些限制條款中,LAWS除了作為一般原則的“算法遵循‘善法”的倫理原則要得到充分的解釋和認(rèn)可[1],它還需要通過各種具體的法則,如自主程度、部署方式、用途范圍、對人的傷害程度、后果預(yù)測、容錯率、責(zé)任代理等各個方面進(jìn)行限制性條款說明。而在所有的這些具體性問題中,道德行動者和責(zé)任人的識別和明確又首當(dāng)其沖,它是所有限制性條款變得有實際意義的前提條件。這就涉及我們接下來要討論的關(guān)于LAWS最主要的倫理難題:由LAWS自主程度所引發(fā)的關(guān)于行為主體與責(zé)任代理人的道德難題。
二、強人工智能道德編碼與道德判斷:責(zé)任代理人難題及其辨析
在為以LAWS為代表的強人工智能設(shè)備找到一個可能性倫理空間以后,我們對LAWS責(zé)任代理人的討論才有意義。但在深入討論“應(yīng)該由誰承擔(dān)什么樣的道德責(zé)任”這個問題之前,我們首先需要明確一個最基本劃分:LAWS的道德責(zé)任主體是機器人自身還是相關(guān)的人或以人為主體的整體性實體。從一般意義上講,當(dāng)我們將道德責(zé)任置于人工智能的語境中去深入討論時,更多的是想要明確人工智能因為各種不確定性因素導(dǎo)致的意外的、災(zāi)難性的后果時能找到明確的實際責(zé)任承擔(dān)者并對其作出相應(yīng)的懲處。因此,在關(guān)于LAWS道德責(zé)任的討論中,如何認(rèn)識、定義和解讀LAWS的“自主性”就成為一個關(guān)于道德責(zé)任主體認(rèn)定的首要問題,它具體涉及的一個問題是:LAWS的“自主性”究竟可以達(dá)到什么程度,它是否會改變?nèi)嗽谲娛滦袆又械臎Q策中心地位?
1.機器人“自主性”的兩種理解方式
強人工智能已經(jīng)出現(xiàn),學(xué)界也在擔(dān)心未來是否會出現(xiàn)完全將人屏蔽在閉環(huán)之外的、交由機器人自主決定的“超人工智能”范式。在強人工智能范式當(dāng)中,雖然AI技術(shù)越發(fā)強大,但機器人作為“工具”的定義始終是清晰的,人的道德決策中心地位也未發(fā)生實質(zhì)變化。而在高度自主化的“超人工智能”范式中,人有可能喪失道德決策中的中心地位而淪為旁觀者或“第三人”。
機器人自主程度可能有多高,LAWS的堅決反對者斯派洛(Sparrow, R.)給出自己的描述:“人工智能武器系統(tǒng)將能夠做出自己的決定,例如確定它們的目標(biāo)或它們接近目標(biāo)的方式,并以一種‘智能方式這樣做。……這些機器的行動是基于某些理由,但這些理由將取決于系統(tǒng)本身的內(nèi)部狀態(tài)——‘欲望、‘信念和‘價值等的倫理敏感性。此外,這些系統(tǒng)本身將具有形成和修正這些信念的重大能力,他們甚至?xí)袕慕?jīng)驗中學(xué)習(xí)的能力?!盵1]依據(jù)斯派洛的設(shè)想,高度自主化的機器人在具體的軍事行動過程中可能會依據(jù)自己的理解,以一種與人類所支持的判斷完全不一致的方式應(yīng)用這些規(guī)則,甚至最終將擁有拒絕人類編程規(guī)則的自主權(quán)。但另一些學(xué)者對此則有著截然相反的觀點:無論如何,“機器人是機器,不是人,沒有自由意志,也不可能做出自主的道德抉擇,它可以形式地執(zhí)行人的蘊含道德要求的指令,但它自己并不懂得任何道德意義……作為物的機器人并不明白什么是倫理問題……它不過是機械地執(zhí)行人的預(yù)制性指令,如只殲滅戰(zhàn)斗人員和摧毀軍事設(shè)施、避開平民百姓等,這里根本就談不上所謂機器人本身的倫理敏感性……而讓機器人‘自主地運用道德規(guī)則來應(yīng)對復(fù)雜的道德情景,即將倫理系統(tǒng)嵌進(jìn)機器人的大腦中,使之可以依據(jù)倫理原則在具體場域中進(jìn)行決策,是一種天真的幻想”[2]。
我們可能無法預(yù)測人工智能的終極樣態(tài)和用途,就像一百多年前萊特兄弟也無法預(yù)測到今天的人類僅僅通過“無人機+機載導(dǎo)彈”的操作就可以輕易置人于死地一樣。對于斯派洛的描述,我們無法保證這種情況絕對不會發(fā)生。如果機器人真的能夠?qū)崿F(xiàn)拒絕人類意志的完全自主行動,那么它可能會對人之為“人”的存在方式和存在本質(zhì)產(chǎn)生一種顛覆性影響。其所涉及的討論范圍也就遠(yuǎn)遠(yuǎn)超出本文主題,到時候可能遠(yuǎn)不止是LAWS的道德責(zé)任問題,而是生物人(自然人)與機器人如何和平相處的倫理問題。拋開我們的異想和假設(shè)成分,從理性認(rèn)知的角度來看,從本質(zhì)上講,現(xiàn)今的基于強人工智能的LAWS仍然是遵循算法規(guī)則,并執(zhí)行代碼指令的?!白灾魑淦飨到y(tǒng)是一個邏輯算法框架”[3],這是現(xiàn)今對以LAWS為代表的強人工智能設(shè)備存在形式的基本認(rèn)知判斷。
2.算法邏輯和道德決策的實質(zhì)
無論機器人技術(shù)如何發(fā)展,上面兩種截然不同的觀點所聚焦的同一個道德問題實際上是:強人工智能設(shè)備究竟能否獲得道德判斷的自主決策能力而成為承擔(dān)自己行為后果的道德代理人?依據(jù)“自主武器系統(tǒng)是一個邏輯算法框架”的基本判斷,機器人獲得道德能力的任務(wù)似乎就落到了程序員身上。將道德規(guī)范或社會所普遍承認(rèn)的正義原則編寫成代碼并植入程序,這就是人們所說的機器人的“道德編碼”?!暗赖戮幋a”不是一個技術(shù)難題,很多技術(shù)專家都明確表示機器人完全能夠滿足人們對它的社會道德要求。
關(guān)于“道德編碼”的實質(zhì)性爭論在于:一種被編纂起來的道德規(guī)范(即所謂“道德法典”)[4]是否可以成為判斷的全部依據(jù)?或者說道德判斷和道德決策的行為依據(jù)是否能夠簡化為一套道德規(guī)則?實際上,關(guān)于道德法典化的爭論不是強智能設(shè)備出現(xiàn)后才有的新問題,它早就廣泛存在于人的道德決策的討論之中。麥克道爾(McDowell)在1979年就已經(jīng)引入了“反法典化命題”的觀點,他寫道:“任何合理的成人道德觀都不允許這樣的編纂,這似乎是非常難以置信的。正如亞里士多德一貫所說,關(guān)于一個人應(yīng)該如何行為的最佳概括只適用于大多數(shù)情況。如果一個人試圖將自己對美德的概念簡化為一套規(guī)則,那么無論他在起草規(guī)則時多么巧妙和深思熟慮,機械地應(yīng)用規(guī)則的情況都會不可避免地出現(xiàn),讓他被認(rèn)為是錯誤的……”[1]
道德判斷與道德決策的依據(jù)和理由是一個龐大而復(fù)雜的倫理學(xué)命題,不同立場、派別的學(xué)者在具體的觀點、細(xì)節(jié)的論證以及相關(guān)術(shù)語的運用上都不盡相同[2]。盡管如此,目前學(xué)界關(guān)于道德判斷還是達(dá)成了一個廣泛共識,即它是理性+(直覺式)情感綜合運用的結(jié)果?!暗赖屡袛嗍且环N極其復(fù)雜的心智活動,其驅(qū)動力不僅在于理性的反思平衡,也在于直覺的情感體驗?!盵3]特別是在一些情況復(fù)雜多變的具體實踐中,人們在緊急狀態(tài)下或道德兩難中做出某種道德決策的關(guān)鍵性因素往往不是源自于一般意義上的道德習(xí)得性知識,而是一種道德認(rèn)知和情感體驗綜合運用的倫理智慧?!暗赖屡袛嗟膶嵺`有一個必要的現(xiàn)象特征或‘它是什么樣的。成功地遵循真正的道德理論可能需要一種廣泛的反思平衡,它要求我們在一般道德原則和我們的道德直覺之間取得適當(dāng)?shù)钠胶?。”[4]
在這一標(biāo)準(zhǔn)下,即便我們不去爭論LAWS的“道德編碼”是否可詳盡所有的道德情景,也不去質(zhì)疑科學(xué)家和程序員對LAWS進(jìn)行道德編碼的技術(shù)手段和能力,僅基于道德判斷對反思平衡能力或?qū)嵺`智慧的要求,我們就可以判斷LAWS絕對無法成為可以為自己行為后果負(fù)責(zé)的道德責(zé)任代理人。那么,在道德責(zé)任代理人的認(rèn)定并制定具體的約束法則之前,必須先在邏輯上做出清楚辨析的一個道德命題是:機器人不是道德人。將“機器”和“人”做一個最基本的區(qū)隔是明辨道德責(zé)任的一個重要前提。因此,在軍事戰(zhàn)爭領(lǐng)域,“機器人對自己負(fù)責(zé)”觀點絕對不被接納,將道德責(zé)任歸咎于機器人的“自主性”是一種極端不負(fù)責(zé)任的行為。
3.去主體化的道德困境:重新審視行動閉環(huán)及其道德代理人
不僅如此,如果按照“自主武器系統(tǒng)是一個邏輯算法框架”的基本判斷,當(dāng)一個完美的邏輯算法框架被建構(gòu)出來時,LAWS在理論上就會成為一個完美的、永不犯錯的任務(wù)執(zhí)行者。那么這里可能會出現(xiàn)一個非常吊詭的現(xiàn)象,一個永不犯錯的、完美的任務(wù)執(zhí)行者最終會做出一個令人指責(zé)的道德行為。熟悉“把槍口向上一厘米”[5]真實案件情況的人可能會更容易理解這種吊詭。一個完全嚴(yán)格聽從命令的邊境衛(wèi)兵依據(jù)國家相關(guān)法律指引而開槍射殺了一名正在試圖翻墻非法越境的平民,事后我們應(yīng)該如何審判這名士兵呢?
如今的道德難題只不過是將這名完全遵照國家法律指令的衛(wèi)兵置換成了完全依據(jù)程式指令的LAWS。如果LAWS能夠完美地識別越境者與意外闖進(jìn)邊界線的其他平民,這里面不存在任何誤殺行為的可能性,那么某種意義上講,LAWS甚至是比邊境衛(wèi)兵更具執(zhí)行力和精準(zhǔn)射擊力的“戰(zhàn)士”。當(dāng)一個錯誤的行為結(jié)果確實發(fā)生,而作為任務(wù)執(zhí)行者的LAWS在指令接收和整個任務(wù)行動過程中又沒有任何過錯,那么錯誤的根源就應(yīng)該從行為開始的地方向前追溯,而非僅指向行為發(fā)生之后的LAWS去追討道德責(zé)任問題。在LAWS的應(yīng)用中,人是否真的被排除在了軍事行動閉環(huán)之外呢?如果LAWS仍然只是指令的執(zhí)行者,那么無論這些指令在邏輯上有多么完美,在設(shè)計上多么精妙,值得反復(fù)去討論的可能就不是在一個行動“閉環(huán)”中人的道德主體地位的喪失,而是要求我們對所謂“閉環(huán)”的范圍和路徑重新做出審視和定義。那就是,我們應(yīng)該在一個可以容納與LAWS有關(guān)的所有道德主體——計劃部署LAWS的國家、參與研發(fā)的科學(xué)家、程序員以及啟動具體指令有關(guān)的研發(fā)、應(yīng)用群體及政治實體提出道德責(zé)任上的要求。而我們要做的則是為這種觀點提出足夠全面充分的論證和說明,以便為相關(guān)國際法準(zhǔn)則的制定、糾正、增補做出理論參考依據(jù)。
現(xiàn)在,我們必須沿著這個方向朝著一個更加棘手的倫理難題繼續(xù)深入下去,即以LAWS為代表的強人工智能當(dāng)下面臨的最現(xiàn)實的道德困境:“非道德的機器”與“不道德的人”結(jié)合而可能催生的時代性倫理難題——基于“技術(shù)野蠻”的寡頭恐怖主義。
三、“非道德的強人工智能”與“不道德的人”:“寡頭恐怖主義”的倫理難題
正如前面我們所糾正的邏輯謬誤,如果說道德代理人的“責(zé)任鴻溝”難題不能成為否定強人工智能設(shè)備道德合法性的依據(jù);那么同樣,道德責(zé)任承擔(dān)者的識別及其道德職責(zé)的明確也不能成為強人工智能設(shè)備被任意使用的充分條件。正如前文的邏輯反詰,關(guān)于LAWS的使用,如果有著十分明確的道德代理人且他(他們)愿意為此承擔(dān)道德后果,LAWS是否就可以被任意使用?答案當(dāng)然是否定的,因為這里潛藏著各種極端恐怖主義的可能??植乐髁x是軍事戰(zhàn)爭領(lǐng)域中“不道德(反道德)的人”的最高存在形式,從手段到目的,恐怖主義活動都毫無正義性可言——“漫無目的地殺害無辜者是恐怖主義活動的關(guān)鍵特征”,而“摧毀平民的精神”則是其主要目的[1]??植乐髁x根源性的惡在于它從根本上否認(rèn)了“人之為人”的生命尊嚴(yán)與生存價值。由于恐怖主義無差別殺戮從根本上消解了“人是目的”的最高設(shè)定,所以其行為是對生命沒有任何敬畏感和道德感的為所欲為,“恐怖主義嚴(yán)重破壞了戰(zhàn)爭規(guī)約和政治法則。它突破了所有的道德限制,以至于根本就不再有限制”[2]。作為一種不具有任何道德限制的極端存在,在恐怖主義的行動中,我們就可以看到幾乎所有挑戰(zhàn)人類文明底線的、最為暴力、血腥和殘忍的作惡形式:壓迫、肉體摧殘與毀滅、集體屠殺等。
1.去責(zé)任化的戰(zhàn)爭與“不道德的人”的誕生
雖然從邏輯上講,關(guān)于“不道德的人”的難題是先于智能戰(zhàn)爭形態(tài)的范式轉(zhuǎn)變而存在于軍事、戰(zhàn)爭領(lǐng)域的,但無法否認(rèn)的一個事實是LAWS“非道德”的存在形式,加上其無人化、自主性和穩(wěn)定精確性的強大功能的確帶來關(guān)于“不道德的人”的新倫理難題。
首先,LAWS的“非道德”性特征意味著它無法對其任務(wù)指令作出關(guān)于對與錯的道德判斷,自然也就不會拒絕錯誤的道德指令;其次,它的穩(wěn)定性和精確性大大增加了軍事行動成功的可能性;最后,這種無人化的作戰(zhàn)方式使得責(zé)任代理人除了“道德名聲”以外幾乎不需要付出任何實質(zhì)上的“道德成本”。如果說傳統(tǒng)恐怖分子在實施恐怖行為時理論上還存在著良知發(fā)現(xiàn)、畏懼死亡、操作失敗等各種可能性,那么LAWS則更像一個沒有任何道德情感、冷靜、高效的“死士”,果斷而堅決地朝著既定目標(biāo)進(jìn)行攻擊。從某種意義上講,技術(shù)手段上的純熟和道德成本的降低可能意味著“漫無目的地殺人”會變得更加容易。而更令人擔(dān)憂的是在一種技術(shù)外衣的包裹和政治目的的道德美化下,這種“不道德的人”會以一種更加隱蔽的方式出現(xiàn)而讓人難以鑒別。因此,盡管可能有人聲稱愿意對LAWS的可能性后果負(fù)責(zé),我們還必須要去謹(jǐn)慎地考慮和判斷LAWS被使用的政治意圖和道德目的究竟是什么?責(zé)任代理人之間的道德責(zé)任劃分和承擔(dān)是否合理?其所針對和打擊的軍事行動目標(biāo)是否恪守戰(zhàn)爭法則中群體識別的道德意義?道德代理人憑一己之力是否可以承擔(dān)得起全部的道德責(zé)任?這就像那些采用一種自殺式恐怖襲擊的人,即便他們從表面上看起來已經(jīng)用一種最高的“責(zé)任形式”——以自己的生命為代價——來宣稱對自己的行為“負(fù)責(zé)”,但這種無差別傷害生命的行徑仍然不會獲得任何道德合法性辯護(hù);人們也不會接受此類行徑僅僅屬于個人行為范疇的辯解,而常常將行為后果的清算與其背后相關(guān)的政治組織相聯(lián)系。
因此,我們要時刻對“不道德的人”保持一種清醒,同時也要深刻意識到在廣泛的道德領(lǐng)域,特別是在軍事領(lǐng)域和戰(zhàn)爭領(lǐng)域,總有一些道德行為的后果是任何代理人都沒有能力也沒有資格能放言承擔(dān)的,當(dāng)然也沒有任何一種戰(zhàn)后正義的方式可以進(jìn)行等價交換、賠償或補救。從這個角度來看,以LAWS為代表的強人工智能設(shè)備的應(yīng)用不僅沒有削弱人的道德主體地位,反而對其道德代理人提出更高的道德能力和倫理敏感性要求。當(dāng)操縱、剝奪他人生命不再需要付出任何代價,且在獲取手段上變得日益簡單可行時,我們就必須嚴(yán)防死守人類靈魂最深處的、隨時蠢蠢欲動的、處于作惡待發(fā)點邊緣的那些權(quán)力、欲望及野心。我們呼吁和主張針對參與包括LAWS在內(nèi)的強人工智能設(shè)備研發(fā)的個體建立起一種更加清晰嚴(yán)格的道德評估、監(jiān)測及責(zé)任懲罰的倫理和行為規(guī)范約束體系。
2.“技術(shù)野蠻+道德推諉”:新型恐怖主義誕生的可能
有學(xué)者認(rèn)為現(xiàn)階段信息化戰(zhàn)爭的特征主要呈現(xiàn)為體系化對抗,這也是未來的趨勢??雌饋硪环N智能化作戰(zhàn)體系的建立與實施所需要的資金投入、技術(shù)支持、體制結(jié)構(gòu)、機制流程保障等所需要的投入較大,但隨著高技術(shù)人才不斷向寡頭企業(yè)集聚,全球有高新技術(shù)企業(yè)已經(jīng)具備了建立這種智能化作戰(zhàn)體系的能力,而且此類組織的數(shù)量呈增長趨勢。也就是說,擁有智能程度更高作戰(zhàn)體系的組織有可能會掌握未來戰(zhàn)爭的主動權(quán),從而也就更加具有未來軍事部署的戰(zhàn)略性優(yōu)勢和更多的國際話語權(quán)力。因此,以先進(jìn)技術(shù)為包裝的外衣下潛藏的“寡頭恐怖主義”只要可能,就必須納入倫理約束機制的理論視野和討論范圍當(dāng)中。
當(dāng)然,技術(shù)至善是我們的最高道德理想。如果人類文明的發(fā)展可以讓其進(jìn)入一種“自由人聯(lián)合體”的理想社會形態(tài)當(dāng)中,那么戰(zhàn)爭也就在自我消解中實現(xiàn)了最高正義,整個人類社會內(nèi)部、人類社會與自然界都呈現(xiàn)出一種和諧共生的理想生命狀態(tài)。但是縱觀人類歷史,人類社會的發(fā)展歷史實際上是一直與戰(zhàn)爭相伴的,從遠(yuǎn)古時代的徒手戰(zhàn)爭,到農(nóng)業(yè)社會的冷兵器戰(zhàn)爭,到工業(yè)社會的熱兵器戰(zhàn)爭、機械戰(zhàn)、信息戰(zhàn),再到如今智能化程度更高、博弈性更強、功能更豐富、作戰(zhàn)效果更佳的強人工智能戰(zhàn)爭。基于這樣的現(xiàn)實考量,軍事技術(shù)毫無疑問地將會成為影響或者顛覆未來國際秩序的一種重要手段。而通過技術(shù)制衡來達(dá)到國際關(guān)系的動態(tài)平衡與和平狀態(tài)則是人類社會在可預(yù)見的時間范圍內(nèi)的一種相對理想狀態(tài)。而LAWS的無限制研發(fā)和使用的最糟糕結(jié)局莫過于一種依托LAWS實現(xiàn)技術(shù)制霸,從而衍生出一種寡頭恐怖主義新形態(tài)。
試想如果寡頭組織和某種國家形式結(jié)合,將自己的開戰(zhàn)權(quán)與LAWS的自主攻擊性結(jié)合起來,那么一種被寡頭組織和某種國家形式所支持和默許的機器暗殺與一種“絕對不對稱”的戰(zhàn)爭技術(shù)之把控的現(xiàn)實環(huán)境相結(jié)合就讓國家層面的“道德腐敗”有了可滋生的土壤。一個國家必須只為其正義而戰(zhàn),有發(fā)動戰(zhàn)爭的正確理由是不夠的,發(fā)動戰(zhàn)爭背后的實際動機還必須在道德上是適當(dāng)?shù)?。唯一允許的正確意圖是看到訴諸戰(zhàn)爭的正當(dāng)理由得到鞏固和深化。這種“戰(zhàn)爭和政治的總體性”恐怖主義的現(xiàn)代性表現(xiàn)形式[1]就會以一種更加具體的、基于“技術(shù)野蠻”的寡頭恐怖主義形式呈現(xiàn)出來。
當(dāng)今世界大國之間的相互制衡已經(jīng)促成了相對穩(wěn)定的國際秩序。但是,“非道德”LAWS研發(fā)和使用則對國際社會提出了更高的道德要求。我們不能將全部希望都寄托于寡頭組織及其潛在的、有可能與某種國家形式結(jié)合的新形態(tài)有足夠的審慎公正的理性能力和友好共情的情感能力,在LAWS研發(fā)與使用上實現(xiàn)一種完全合乎國際正義要求的道德自治,而更期冀于一套具有權(quán)威性的、行之有效的約束機制能夠盡快建立完善。
四、結(jié)語
近來,以ChatGPT為代表的通用人工智能引發(fā)了廣泛關(guān)注,特別是其語言理解能力和表達(dá)生成能力在得到廣泛贊譽的同時,也給學(xué)術(shù)界和業(yè)界帶來了“倫理惶恐”。如果說人類對于強人工智能設(shè)備的研發(fā)和廣泛應(yīng)用應(yīng)該保持一種“倫理上的謹(jǐn)慎”,那么對于包括軍事機器人在內(nèi)的可能對人類“非道德”的強人工智能設(shè)備的倫理態(tài)度則應(yīng)該慎之又慎。未來,強人工智能的深度發(fā)展甚至超人工智能的出現(xiàn)將不斷挑戰(zhàn)人類道德決策中心地位,這在傳統(tǒng)的人文主義倫理觀中幾乎無法找到答案。而從人類社會發(fā)展來看,技術(shù)上所謂的“道德中立”在與權(quán)力、資本和欲望的角力中是否能夠得以保持,戰(zhàn)爭形態(tài)的智能化對國際秩序重構(gòu)將產(chǎn)生怎樣的實質(zhì)性影響等問題也都深刻地困擾著當(dāng)代學(xué)者。
基于對LAWS所引發(fā)的倫理問題的思考以及以ChatGPT為代表的新技術(shù)的橫空出世,在不久的將來,技術(shù)裹挾下的各種新型強人工智能設(shè)備將會不斷出現(xiàn),這是倫理學(xué)界必須去面對的一個時代性命題。我們要從智能化軍事武器的發(fā)展,特別是致命性自主武器系統(tǒng)的研發(fā)和應(yīng)用出發(fā),并從ChatGPT的出現(xiàn),去持續(xù)研究強人工智能時代人類社會智力、政治、技術(shù)與人性之間的角逐與較量,其中所涉及的最為根本的道德正當(dāng)性問題及其可能會對人類社會構(gòu)成最大的倫理挑戰(zhàn)和威脅則是當(dāng)代倫理學(xué)家必須要做出審視、思考并予以回應(yīng)的話題。但倫理學(xué)家的使命不僅僅要從現(xiàn)有的倫理困境中去解釋和評價它,更需要基于倫理至善的基本價值立場,以一種歷史發(fā)展的哲學(xué)眼光從人類未來發(fā)展的可能性方向去審視和預(yù)判它可能會對人類社會造成的道德威脅和倫理挑戰(zhàn),以提前做出預(yù)防性倫理約束機制和道德限制原則,避免人類社會被技術(shù)“反噬”而走向萬劫不復(fù)的深淵。
〔責(zé)任編輯:吳玲〕
本文為國家社會科學(xué)基金項目“戰(zhàn)爭形態(tài)智能化的倫理約束機制研究”(20CZX057)的階段性成果。
[1]J. R. Searle, "Minds, Brains, and Programs", Behavioraland Brain Sciences, 1980, 3(3) , pp.417-457.
[2]王彥雨:《“強人工智能”爭論過程中的“態(tài)度轉(zhuǎn)換”現(xiàn)象研究》,《科學(xué)技術(shù)哲學(xué)研究》2020年第6期。
[1]目前已經(jīng)部署并投入使用的自主武器系統(tǒng)主要有:美國“宙斯盾”巡洋艦的“方陣”系統(tǒng),它能自動發(fā)現(xiàn)、跟蹤和打擊反艦導(dǎo)彈以及飛機等防空作戰(zhàn)威脅;以色列的“哈比”系統(tǒng),主要用來探測、攻擊并摧毀雷達(dá)發(fā)射器;英國“雷神”噴氣式無人戰(zhàn)斗機,可以自主地對敵人進(jìn)行搜索、識別和定位,但只有在得到任務(wù)指揮官授權(quán)時才能攻擊目標(biāo)。同時,美國在2019年對伊朗革命衛(wèi)隊圣城旅指揮官蘇萊曼尼的“斬首行動”中,已經(jīng)啟用了高度智能化的、能夠自動搜尋鑒別目標(biāo)并發(fā)起攻擊的軍事武器系統(tǒng)——“MQ-9掠食者無人機+地獄火導(dǎo)彈系統(tǒng)”,直接對蘇萊曼尼實施了精準(zhǔn)射殺(美國稱之為“定點清除”)。
[2]王彥雨:《“強人工智能”爭論過程中的“態(tài)度轉(zhuǎn)換”現(xiàn)象研究》,《科學(xué)技術(shù)哲學(xué)研究》2020年第6期。
[3]董青嶺:《新戰(zhàn)爭倫理:規(guī)范和約束致命性自主武器系統(tǒng)》,《國際觀察》2018年第4期。
[4]G. P. Noone, D. C. Noone, "The Debate over Autonomous Weapons Systems", InCase Western Reserve Journal of International Law, 2015, 47(1), p.28.
[5]A. Matthias, "The Responsibility Gap", Ethics and Information Technology, 2004 (6-3), pp.175-183.
[6]邁克爾·沃爾澤:《正義與非正義戰(zhàn)爭》,任輝獻(xiàn)譯,社會科學(xué)文獻(xiàn)出版社2015年版,第261頁。
[1]R. Sparrow, "Killer Robots", Journal of Applied Philosophy, 2007, 24(1), pp.62-77.
[2]D. Purves, R. Jenkins, B. J. Strawser, "Autonomous Machines, Moral Judgment, and Acting for the Right Reasons", Ethic Theory Moral Practice, 2015, 18(4), pp.851-872.
[3]現(xiàn)在人們所談?wù)摰腖AWS,常常是指具有殺傷力和致命性的自主機器人系統(tǒng),甚至有學(xué)者預(yù)測,LAWS有朝一日有能力“自行”做出針對人類生存和死亡的決定。
[4]Ethics Guidelines for Trustworthy AI. URL=http://ec.europa.eu/futurium/ai-alliance-consultation/guidelines.
[1]田海平、鄭春林:《人工智能時代的道德:讓算法遵循“善法”》,《東南大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2019年第5期。
[2]D. Purves, R. Jenkins, B. J. Strawser, "Autonomous Machines, Moral Judgment, and Acting for the Right Reasons", Ethic Theory Moral Practice, 2015, 18, pp.851-872.
[3]鮑勃·沃克(Bob·Work)致力于人機協(xié)同和致命性自主武器的研發(fā),他也是推動美國國防部機器人領(lǐng)域發(fā)展的領(lǐng)軍人物。
[4]保羅·沙瑞爾:《無人軍隊——自主武器與未來戰(zhàn)爭》,朱啟超等譯,世界知識出版社2019年版,第104頁。
[5][6]董青嶺:《新戰(zhàn)爭倫理:規(guī)范和約束致命性自主武器系統(tǒng)》,《國際觀察》2018年第4期。
[7]戰(zhàn)爭的正義問題也是一個極具爭議的問題。從“人是目的”的最高價值設(shè)定來說,戰(zhàn)爭的正義不具備天然的道德合法性,它必然以犧牲生命為代價,其正義性來源于對非正義方的辨別。戰(zhàn)爭正義問題的開端,既是反對和平主義,也是反對侵略和征服的。因此,無論是在一個和平主義者、軍國主義者,還是在一個馬基雅維利主義者那里,戰(zhàn)爭的正義問題或許都是無解的。
[8]參見《公民權(quán)利與政治權(quán)利國際公約》第6條第(1)款的規(guī)定。
[9]邁克爾·沃爾澤:《正義與非正義戰(zhàn)爭》,任輝獻(xiàn)譯,社會科學(xué)文獻(xiàn)出版社2015年版,第2頁。
[1]在某種程度上,LAWS的倫理之“善”的確可以得到解釋,比如它的無人作戰(zhàn)化和目標(biāo)精準(zhǔn)性可以減少雙方士兵不必要的傷亡,同時也能避免對平民和非軍事區(qū)造成不必要的傷害等。
[1]R. Sparrow, "Killer Robots", Journal of Applied Philosophy, 2007, 24(1), pp.62-77.
[2]甘紹平:《自由倫理學(xué)》,貴州大學(xué)出版社2020年版,第255—256頁。
[3]董青嶺:《新戰(zhàn)爭倫理:規(guī)范和約束致命性自主武器系統(tǒng)》,《國際觀察》2018年第4期。
[4]J. McDowell, "Virtue and Reason", The Monist, 1979, 62(3), pp.331-350.
[1]J. McDowell, "Virtue and Reason", The Monist, 1979, 62(3), pp.331-350.
[2]在一些論證細(xì)節(jié)上,關(guān)于反思平衡、道德情感、道德直覺等術(shù)語,不同的學(xué)者有不同的理解方式,比如羅爾斯話語體系下的“反思平衡”是理性與情感的綜合運用,而有一些學(xué)者則認(rèn)為反思平衡是各種理性思維的結(jié)果,它與道德情感(直覺)是并列的關(guān)系;再如有學(xué)者認(rèn)為道德情感與直覺不同,一種廣泛的反思平衡已經(jīng)包括了一般道德規(guī)則與道德理性、道德情感和道德直覺的平衡,因此道德判斷就是一種反思平衡的結(jié)果。而在一些具體的觀點上,不同的學(xué)者也有不同的看法,比如有學(xué)者同意一般道德原則的規(guī)范性,但是主張要與具體環(huán)境、道德情感、道德直覺相結(jié)合做出道德判斷;而有的學(xué)者則從根本上就反對道德一般性原則的存在,甚至將其看作是一種妨礙,等等。
[3]甘紹平:《自由倫理學(xué)》,貴州大學(xué)出版社2020年版,第255—256頁。
[4]J. Griffin, "How We Do Ethics Now", Royal Institute of Philosophy Supplement,1993,35, pp.159-177; Van den Hoven J.,"Computer Ethics and Moral Methodology", Metaphilosophy, 1997, 28(3), pp.234-248.
[5]案件的大致情形可參見柯嵐:《拉德布魯赫公式的意義及其在二戰(zhàn)后德國司法中的運用》,《華東政法大學(xué)學(xué)報》2009年第4期。這里實際上涉及“良知”與“惡法”、“服從”與“正義”、國際法與國家法的沖突等一種非常復(fù)雜的道德情景。
[1][2]邁克爾·沃爾澤:《正義與非正義戰(zhàn)爭》,任輝獻(xiàn)譯,社會科學(xué)文獻(xiàn)出版社2015年版,第180—181頁,第186頁。
[1]邁克爾·沃爾澤:《正義與非正義戰(zhàn)爭》,任輝獻(xiàn)譯,社會科學(xué)文獻(xiàn)出版社2015年版,第186頁。