張 衛(wèi)
隨著人類(lèi)社會(huì)智能化程度的日益加深,人工智能所引發(fā)的倫理問(wèn)題逐漸增多,人工智能倫理研究成為當(dāng)今學(xué)術(shù)界的一個(gè)熱點(diǎn)話(huà)題。從學(xué)科歸屬上看,人工智能倫理屬于技術(shù)倫理的分支領(lǐng)域,但由于人工智能技術(shù)的特殊性,相比于傳統(tǒng)的技術(shù)倫理,人工智能倫理在研究領(lǐng)域、研究視角和研究方法上都具有自身鮮明的特征,原有的技術(shù)倫理研究架構(gòu)已經(jīng)不能完全涵蓋人工智能倫理的研究格局,因此有必要對(duì)當(dāng)今人工智能倫理的研究現(xiàn)狀進(jìn)行反思與總結(jié)??傮w而言,人工智能倫理在繼承傳統(tǒng)技術(shù)倫理“外在主義”(externalism)進(jìn)路的基礎(chǔ)上,進(jìn)一步凸顯出新興的“內(nèi)在主義”(internalism)進(jìn)路的研究特征,形成了“外在主義”和“內(nèi)在主義”兩種進(jìn)路并行發(fā)展的研究格局。其中,“外在主義”進(jìn)路主要關(guān)注的是人工智能的負(fù)面?zhèn)惱韮r(jià)值,目標(biāo)是用倫理來(lái)規(guī)約人工智能的發(fā)展;而“內(nèi)在主義”進(jìn)路則主要關(guān)注的是人工智能的正面?zhèn)惱韮r(jià)值,目標(biāo)是用人工智能來(lái)解決倫理問(wèn)題。由于“外在主義”進(jìn)路是技術(shù)倫理學(xué)的傳統(tǒng)研究路徑,目前依然在人工智能倫理研究領(lǐng)域處于主導(dǎo)地位,而“內(nèi)在主義”則是近些年來(lái)才興起的一種新進(jìn)路,其影響力還不能與前者比肩,但它是未來(lái)人工智能倫理研究的一個(gè)新的理論生長(zhǎng)點(diǎn)。
人工智能倫理的“外在主義”進(jìn)路是受傳統(tǒng)技術(shù)倫理學(xué)影響的結(jié)果,所以,欲理解“外在主義”進(jìn)路的內(nèi)涵,就需要對(duì)傳統(tǒng)技術(shù)倫理學(xué)出現(xiàn)的背景和研究特點(diǎn)有所了解。從邏輯上講,一個(gè)事物通常是從“上手”狀態(tài)變?yōu)椤霸谑帧睜顟B(tài)之時(shí),人們才會(huì)對(duì)它進(jìn)行關(guān)注與研究①[德]馬丁·海德格爾:《存在與時(shí)間》,陳嘉映、王慶節(jié)譯,北京:生活·讀書(shū)·新知三聯(lián)書(shū)店,2014 年,第78—84 頁(yè)。,技術(shù)倫理學(xué)的出現(xiàn)正是根源于現(xiàn)代技術(shù)所造成的嚴(yán)重社會(huì)問(wèn)題,所以,技術(shù)在倫理學(xué)中的出場(chǎng)一開(kāi)始是以負(fù)面形象出現(xiàn)的。作為一門(mén)正式學(xué)科,技術(shù)倫理學(xué)出現(xiàn)通常可追溯到20 世紀(jì)六七十年代,由原子彈爆炸、工程事故和環(huán)境污染等由技術(shù)造成的嚴(yán)重社會(huì)問(wèn)題所引發(fā)①王國(guó)豫:《技術(shù)倫理學(xué)必須機(jī)制化》,《社會(huì)科學(xué)報(bào)》2016 年8 月25 日,第5 版。。技術(shù)倫理學(xué)興起的學(xué)術(shù)推動(dòng)力量主要有兩個(gè),一是技術(shù)哲學(xué)的推動(dòng),二是應(yīng)用倫理學(xué)的推動(dòng)。首先,技術(shù)倫理學(xué)的興起與“人文主義傳統(tǒng)”的技術(shù)哲學(xué)密不可分,“人文主義傳統(tǒng)”的技術(shù)哲學(xué)是從價(jià)值的角度對(duì)技術(shù)的社會(huì)影響進(jìn)行批判性的審視,它與技術(shù)倫理學(xué)在研究對(duì)象、研究旨趣和研究方法上具有很強(qiáng)的一致性,為后者的誕生提供了強(qiáng)有力的理論鋪墊。在技術(shù)哲學(xué)的“經(jīng)驗(yàn)轉(zhuǎn)向”與“倫理轉(zhuǎn)向”的基礎(chǔ)上,技術(shù)倫理學(xué)從技術(shù)哲學(xué)中逐漸分化出來(lái),獲得了相對(duì)獨(dú)立的地位。其次,為了應(yīng)對(duì)當(dāng)今社會(huì)各個(gè)部門(mén)中存在的重大現(xiàn)實(shí)問(wèn)題,倫理學(xué)研究中出現(xiàn)了“應(yīng)用倫理學(xué)”研究范式,諸如核倫理學(xué)、經(jīng)濟(jì)倫理學(xué)、生態(tài)倫理學(xué)、科研倫理學(xué)、技術(shù)倫理學(xué)、工程倫理學(xué)、生命倫理學(xué)、信息倫理學(xué)等一大批分支領(lǐng)域紛紛出現(xiàn),技術(shù)倫理學(xué)是應(yīng)用倫理學(xué)眾多研究領(lǐng)域中的一個(gè)分支②張衛(wèi):《論技術(shù)倫理學(xué)的內(nèi)在研究進(jìn)路》,《科學(xué)技術(shù)哲學(xué)研究》2012 年第6 期。。
相對(duì)而言,由技術(shù)哲學(xué)推動(dòng)的技術(shù)倫理學(xué)研究是從“技術(shù)”到“倫理”,而由應(yīng)用倫理學(xué)推動(dòng)的技術(shù)倫理學(xué)研究是從“倫理”到“技術(shù)”,前者可視為對(duì)技術(shù)倫理學(xué)的“自下而上”式的發(fā)現(xiàn),而后者則是對(duì)技術(shù)倫理學(xué)的“自上而下”式的發(fā)現(xiàn),雖然出發(fā)點(diǎn)不同,但二者殊途同歸,共同促成技術(shù)倫理學(xué)的出現(xiàn)。并且,兩股推動(dòng)力量雖然出發(fā)點(diǎn)不同,但對(duì)技術(shù)所采取的基本立場(chǎng)是一致的,即都對(duì)技術(shù)采取批判的立場(chǎng),試圖用倫理對(duì)技術(shù)的發(fā)展進(jìn)行規(guī)約,把技術(shù)這頭猛獸裝進(jìn)倫理的籠子里,這正是技術(shù)倫理學(xué)“外在主義”進(jìn)路的題中之意。雖然人工智能不論在能動(dòng)性還是自主性方面都具有傳統(tǒng)技術(shù)所無(wú)法比擬的優(yōu)勢(shì),人工智能倫理所關(guān)注的問(wèn)題與傳統(tǒng)技術(shù)倫理學(xué)也不盡相同,但人工智能倫理的出現(xiàn)主要仍是由人工智能所引發(fā)的社會(huì)倫理問(wèn)題引發(fā)的,如社會(huì)失業(yè)擔(dān)憂(yōu)、侵犯人的隱私、算法偏見(jiàn)與歧視、對(duì)人身安全財(cái)產(chǎn)構(gòu)成威脅以及技術(shù)失控等③周程、和鴻鵬:《人工智能帶來(lái)的社會(huì)與倫理挑戰(zhàn)》,《人民論壇》2018 年1 月。,所以,“外在主義”進(jìn)路自然成為人工智能倫理的首選進(jìn)路,并在當(dāng)前的人工智能倫理研究中處于支配性的地位。
人工智能倫理的“外在主義”進(jìn)路主要表現(xiàn)在對(duì)人工智能帶來(lái)的價(jià)值沖突和未來(lái)風(fēng)險(xiǎn)進(jìn)行批判性的反思,并通過(guò)建構(gòu)恰當(dāng)?shù)膫惱碓瓌t、標(biāo)準(zhǔn)和框架對(duì)之加以規(guī)約與管控,簡(jiǎn)言之,在對(duì)人工智能進(jìn)行“倫理審度”的基礎(chǔ)上對(duì)之進(jìn)行“倫理調(diào)適”④段偉文:《人工智能時(shí)代的價(jià)值審度與倫理調(diào)適》,《中國(guó)人民大學(xué)學(xué)報(bào)》2017 年第6 期。。在“倫理審度”方面,當(dāng)前學(xué)界關(guān)注的主要問(wèn)題包括:第一,人工智能對(duì)人之性質(zhì)的本體論挑戰(zhàn)⑤韓水法:《人工智能時(shí)代的人文主義》,《中國(guó)社會(huì)科學(xué)》2019 年第6 期;另參見(jiàn)孫偉平:《關(guān)于人工智能的價(jià)值反思》,《哲學(xué)研究》2017 年第10 期。,第二,奇點(diǎn)來(lái)臨導(dǎo)致的技術(shù)失控以及對(duì)人的超越與取代⑥李河:《從“代理”到“替代”的技術(shù)與正在“過(guò)時(shí)”的人類(lèi)?》,《中國(guó)社會(huì)科學(xué)》2020 年第10 期。,第三,具體領(lǐng)域的倫理難題,如新“電車(chē)難題”、隱私侵犯、算法監(jiān)控、算法偏見(jiàn)、算法殺熟、數(shù)字鴻溝、信息繭房等。在“倫理調(diào)適”方面,目前比較有影響的一些倫理原則包括:美國(guó)《人工智能原則:國(guó)防部應(yīng)用人工智能倫理的若干建議》提出的“負(fù)責(zé)、公平、可追蹤、可靠、可控”原則⑦Defense Innovation Board:AI Principles:Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense.https://media.defense.gov/2019/Oct/31/2002204458/-1/-1/0/DIB_AI_PRINCIPLES_PRIMARY_DOCUMENT.PDF.;歐盟《可信任人工智能倫理指南》提出的“尊重人類(lèi)自主性、避免傷害、公平、可解釋性”原則,具體表現(xiàn)為:“人的能動(dòng)性和監(jiān)督能力、安全性、隱私數(shù)據(jù)管理、透明度、包容性、社會(huì)福祉和問(wèn)責(zé)機(jī)制”⑧High-Level Expertgroup on Artificial Intelligence:Ethicsguidelines for Trustworthy AI.https://apo.org.au/sites/default/files/resource-files/2019-04/apo-nid244266.pdf.;中國(guó)《新一代人工智能治理原則:發(fā)展負(fù)責(zé)任的人工智能》提出的“友好和諧、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開(kāi)放協(xié)作和敏捷治理”原則⑨國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì):《新一代人工智能治理原則:發(fā)展負(fù)責(zé)任的人工智能》,http://www.most.gov.cn/kjbgz/201906/t20190617_147107.htm。。
“外在主義”進(jìn)路的人工智能倫理在打破人工智能的價(jià)值中性論偏見(jiàn)、啟蒙公眾發(fā)現(xiàn)和認(rèn)識(shí)人工智能的負(fù)面社會(huì)后果方面起到了巨大的推動(dòng)作用,提高了全社會(huì)對(duì)人工智能所引發(fā)的倫理問(wèn)題的關(guān)注度。但是,“外在主義”進(jìn)路的人工智能倫理在理論和實(shí)踐中也暴露出一些自身無(wú)法克服的問(wèn)題,具體表現(xiàn)在:第一,很難形成一種公認(rèn)的、普遍有效的人工智能倫理治理原則,不同地區(qū)和國(guó)家的倫理原則之間甚至?xí)l(fā)生沖突,這將會(huì)導(dǎo)致人工智能的實(shí)踐者無(wú)所適從;第二,缺乏體制化的倫理約束機(jī)制,導(dǎo)致責(zé)任追究不能很好地實(shí)施。人工智能的治理是多主體、復(fù)雜性的系統(tǒng)工程,涉及設(shè)計(jì)者、監(jiān)管者和使用者等多個(gè)利益相關(guān)者,很難把責(zé)任歸于某一主體身上,僅靠技術(shù)研發(fā)人員個(gè)人的道德操守很難發(fā)揮倫理對(duì)人工智能的規(guī)約作用;第三,關(guān)注人工智能所產(chǎn)生的結(jié)果導(dǎo)致治理的相對(duì)滯后,等到問(wèn)題出現(xiàn)之后再去進(jìn)行治理,必然會(huì)造成失事前防御良機(jī)的錯(cuò)失;第四,過(guò)于強(qiáng)調(diào)人工智能的負(fù)面后果,會(huì)引起人工智能研發(fā)者的誤解,使得人工智能的研發(fā)者對(duì)倫理產(chǎn)生一定的抵制情緒,從而影響人工智能倫理的實(shí)踐有效性。
除了上述問(wèn)題,“外在主義”進(jìn)路的人工智能倫理還容易忽視這樣一個(gè)事實(shí):盡管人工智能的發(fā)展會(huì)帶來(lái)新的倫理問(wèn)題,但判斷一個(gè)問(wèn)題是否是倫理問(wèn)題還受時(shí)代的倫理觀(guān)念的制約。在不同的倫理觀(guān)念中,同一個(gè)問(wèn)題會(huì)呈現(xiàn)出不同的價(jià)值判斷。比如在奴隸時(shí)代的倫理觀(guān)念中,殉葬在當(dāng)時(shí)貴族的倫理觀(guān)念中會(huì)被認(rèn)為是理所應(yīng)當(dāng)、天經(jīng)地義的事情,而在當(dāng)今倫理觀(guān)念中,這是對(duì)奴隸生命權(quán)的嚴(yán)重踐踏,是絕對(duì)不能容忍的反人道行為。同樣,在環(huán)境倫理觀(guān)念沒(méi)有出現(xiàn)之前,對(duì)環(huán)境的肆意掠奪也不會(huì)被視為違背倫理的行為,所以,“在那些倫理一直被看作是義務(wù)倫理而不是權(quán)利倫理的社會(huì)或歷史階段,亦不能期待用個(gè)人的隱私權(quán)、自主權(quán)、沒(méi)有出生的胎兒的生命權(quán)、人之外的其他動(dòng)物的權(quán)利甚或沒(méi)有生命的自然的權(quán)利來(lái)論證技術(shù)所帶來(lái)的倫理問(wèn)題。這些均說(shuō)明了,從廣義的層次看,倫理問(wèn)題總是受到一定的文化與時(shí)間制約的?!雹倮钗某保骸都夹g(shù)倫理面臨的困境》,《自然辯證法研究》2005 年第11 期。按照同樣的邏輯,隨著倫理觀(guān)念的變化,原來(lái)的倫理問(wèn)題在新的倫理觀(guān)念下將不再是倫理問(wèn)題,如在試管嬰兒技術(shù)剛出現(xiàn)之時(shí),很多人都認(rèn)為這里面存在著倫理問(wèn)題,并對(duì)之加以反對(duì),而隨著時(shí)間的推移,試管嬰兒技術(shù)逐漸被越來(lái)越多的人接受,其倫理爭(zhēng)議也不再像以前那樣強(qiáng)烈。那么,目前人工智能面臨的一些倫理爭(zhēng)議會(huì)不會(huì)也會(huì)隨著時(shí)間的推移而消失呢?目前還不得而知。正如庫(kù)恩所認(rèn)為的那樣,一個(gè)范式下的問(wèn)題在另一個(gè)范式下可能根本不是問(wèn)題或者是個(gè)偽問(wèn)題。不同的倫理觀(guān)念就好比是不同的范式,在一種倫理觀(guān)念中是問(wèn)題在另一個(gè)倫理觀(guān)念中則不再是問(wèn)題。因此,“外在主義”進(jìn)路還需要反觀(guān)自身的倫理前提是否恰當(dāng),反思它是否是落后于時(shí)代,是否是僵化和故步自封的。換言之,倫理觀(guān)念要和人工智能同步協(xié)同進(jìn)化,不能拿過(guò)時(shí)的倫理觀(guān)念作為評(píng)判人工智能的圭臬,否則就會(huì)束縛人工智能的發(fā)展,給人工智能的發(fā)展設(shè)置人為的障礙。
為了克服“外在主義”進(jìn)路的上述局限,技術(shù)倫理領(lǐng)域目前興起了“內(nèi)在主義”的研究進(jìn)路并逐步滲透進(jìn)人工智能倫理領(lǐng)域②Peter-Paul Verbeek,“Materializingmorality:Design Ethics and Technologicalmediation,”Science Technology and Human Values, Vol.31(2006),pp.361-380.?!皟?nèi)在主義”進(jìn)路從基本理念到實(shí)現(xiàn)目標(biāo)都與“外在主義”進(jìn)路存在很大的差異:第一,在人與人工智能的關(guān)系上,“內(nèi)在主義”主張人的能動(dòng)性受到人工智能的居間調(diào)節(jié),而“外在主義”則主張人具有完全自主的能動(dòng)性。第二,在人工智能與倫理的關(guān)系上,“內(nèi)在主義”主張利用人工智能對(duì)倫理問(wèn)題進(jìn)行治理,而“外在主義”則主張利用倫理對(duì)人工智能問(wèn)題進(jìn)行治理。第三,在對(duì)待人工智能的態(tài)度上,“內(nèi)在主義”積極肯定人工智能的正面?zhèn)惱韮r(jià)值,而“外在主義”則批判反思人工智能的負(fù)面?zhèn)惱韮r(jià)值。第四,在人工智能的倫理地位上,“內(nèi)在主義”主張人工智能具有一定的道德能動(dòng)性,而“外在主義”則主張人工智能不具有道德能動(dòng)性。第五,在倫理的任務(wù)上,“內(nèi)在主義”主張倫理應(yīng)該成為人工智能的內(nèi)生要素,而“外在主義”則主張倫理應(yīng)該外在地監(jiān)督人工智能發(fā)展。第六,在關(guān)注的重點(diǎn)上,“內(nèi)在主義”關(guān)注的是上游的人工智能設(shè)計(jì)環(huán)節(jié),而“外在主義”則關(guān)注的是下游的人工智能應(yīng)用環(huán)節(jié)。第七,在實(shí)現(xiàn)的目標(biāo)上,“內(nèi)在主義”主張發(fā)揮人工智能的積極倫理作用,而“外在主義”則主張限制人工智能的消極倫理后果。
根據(jù)上述基本理念,“內(nèi)在主義”進(jìn)路的人工智能倫理研究涉及的主要領(lǐng)域包括:
一是人工智能蘊(yùn)含的積極倫理意義。從歷史經(jīng)驗(yàn)來(lái)看,許多倫理問(wèn)題都是由于技術(shù)水平低下而引起的。由于技術(shù)水平低下,或?qū)е沦Y源供應(yīng)不足,或?qū)е履撤N傷害,不同的主體在爭(zhēng)奪稀缺資源、避免傷害中就會(huì)產(chǎn)生沖突,倫理問(wèn)題就產(chǎn)生于其中。如果資源變得相對(duì)不再稀缺,傷害不再那么多或沒(méi)有傷害,那么倫理問(wèn)題就可能相應(yīng)地得到緩解甚至消除。如早期火車(chē)的發(fā)動(dòng)機(jī)依靠的內(nèi)燃機(jī)技術(shù),動(dòng)力來(lái)自于煤的燃燒,煤在燃燒的過(guò)程中難免會(huì)濺出一些火花,如果火花落到易燃的物質(zhì)上就可能引起事故,歷史上就因?yàn)檫@個(gè)原因發(fā)生過(guò)火車(chē)引燃鐵路邊農(nóng)民堆放的農(nóng)作物的事故,受到損失的農(nóng)民把鐵路公司告上了法庭,在法庭辯論中,法官爭(zhēng)議的焦點(diǎn)是,鐵路公司應(yīng)不應(yīng)該賠償農(nóng)民的損失。這一爭(zhēng)議與落后的發(fā)動(dòng)機(jī)技術(shù)是有關(guān)的,試想,如果火車(chē)動(dòng)力技術(shù)改進(jìn)了,內(nèi)燃機(jī)車(chē)換成了高鐵動(dòng)車(chē),就會(huì)杜絕此類(lèi)事故的發(fā)生,關(guān)于此事故的倫理爭(zhēng)議也就無(wú)從談起。因此,人工智能技術(shù)的進(jìn)步在某種程度可以化解一些由于技術(shù)落后所引發(fā)的倫理問(wèn)題。但由于受“外在主義”進(jìn)路的影響,以至于倫理學(xué)家一想到人工智能,下意識(shí)地就去思考它帶來(lái)的社會(huì)問(wèn)題,但是不應(yīng)該忘記的是,人工智能還可以解決很多社會(huì)倫理問(wèn)題,甚至一些非常棘手的社會(huì)倫理問(wèn)題。因此,人工智能倫理還應(yīng)該從積極的角度來(lái)審視人工智能給人類(lèi)社會(huì)帶來(lái)的正面價(jià)值,如促進(jìn)人類(lèi)解放和全面自由發(fā)展①成素梅:《智能革命與個(gè)人的全面發(fā)展》,《馬克思主義與現(xiàn)實(shí)》2020 年第4 期。,有助于社會(huì)治理體系與治理能力的現(xiàn)代化,有助于社會(huì)公平正義的實(shí)現(xiàn),有助于進(jìn)一步消除性別不平等,有助于改善貧困地區(qū)的落后面貌,有助于提高邊遠(yuǎn)地區(qū)的教育水平,等等。
二是人工智能的道德能動(dòng)性與道德地位研究。隨著人工智能技術(shù)的進(jìn)步,人工智能表現(xiàn)出越來(lái)越強(qiáng)的道德能動(dòng)性,而建立在原有實(shí)踐水平、經(jīng)驗(yàn)基礎(chǔ)之上的倫理學(xué)觀(guān)念可能容納不了這些新現(xiàn)象,從而引發(fā)一些傳統(tǒng)倫理原則無(wú)法應(yīng)對(duì)的新問(wèn)題,這就迫使人們對(duì)原有倫理原則的適用性進(jìn)行反思,對(duì)原來(lái)的倫理觀(guān)念進(jìn)行調(diào)整,甚至重建新的倫理觀(guān)念。在這方面,人們關(guān)注的核心問(wèn)題是人工智能體是否具有能動(dòng)性以及在什么意義上能夠被視為道德主體或道德客體②閆坤如:《人工智能機(jī)器具有道德主體地位嗎?》,《自然辯證法研究》2019 年第5 期。,該研究將會(huì)改變傳統(tǒng)倫理學(xué)的基本前提,擴(kuò)大道德共同體的范圍,甚至?xí)饌惱韺W(xué)體系的重構(gòu)。從倫理學(xué)發(fā)展史的角度看,傳統(tǒng)倫理學(xué)是關(guān)于“人”的倫理學(xué),其中沒(méi)有“物”的位置,而人工智能所擁有的自主性和能動(dòng)性卻讓人不得不考慮是否應(yīng)該把它視為一種道德能動(dòng)者,是否應(yīng)該賦予它一定的倫理地位,這必將對(duì)傳統(tǒng)倫理學(xué)的理論預(yù)設(shè)和體系架構(gòu)構(gòu)成挑戰(zhàn),從而進(jìn)一步打破傳統(tǒng)的人類(lèi)中心主義倫理觀(guān),拓展倫理學(xué)的理論空間與解釋力。當(dāng)然,在隱喻的意義上把人工智能看作道德行動(dòng)者是簡(jiǎn)單而容易的,而要真正地在學(xué)理層面把道德能動(dòng)性賦予人工智能,并在倫理學(xué)體系中為其找到一個(gè)合適的位置,則是一件十分困難的事情。必須從基本預(yù)設(shè)的層面重新思考“能動(dòng)性”“行動(dòng)者”“道德共同體”“自由”“責(zé)任”等基本概念的含義、反思近代以來(lái)的主客二元論的局限、揭示技術(shù)與自由的內(nèi)在聯(lián)系、廓清價(jià)值和道德價(jià)值的關(guān)系、建立一種新的判斷行動(dòng)者的標(biāo)準(zhǔn)等一系列基礎(chǔ)理論問(wèn)題。當(dāng)然,判斷標(biāo)準(zhǔn)會(huì)因人而異,不同的學(xué)者根據(jù)人工智能的智能水平,賦予其不同的倫理地位,如詹姆斯·摩爾(James H.moor)曾把人工智能分為有倫理影響的能動(dòng)者(ethical-impact agent)、隱性的倫理能動(dòng)者(implicit ethical agent)、明顯的倫理能動(dòng)者(explicit ethical agent)、完全的倫理能動(dòng)者(full ethical agent)四個(gè)類(lèi)別③James H.moor,“The Nature,Importance,and Difficulty ofmachine Ethics,”IEEE Intelligent Systems, Vol321,No.4(2006),pp.18-21.,而溫德?tīng)枴ね呃眨╓endell Wallach)和科林·艾倫(Colin Allen)則把人工智能的道德能動(dòng)性區(qū)分為“操作性道德”(operationalmorality)、“功能性道德”(functionalmorality)和“完全的道德能動(dòng)性”(fullmoral agency)三個(gè)層次①[美]溫德?tīng)枴ね呃?、科林·艾倫:《道德機(jī)器:如何讓機(jī)器人明辨是非》,王小紅主譯,北京:北京大學(xué)出版社,2017 年,第6 頁(yè)。。
三是人工智能的倫理設(shè)計(jì)與道德物化,其主要關(guān)注的是如何把倫理規(guī)范嵌入人工智能的算法中,并通過(guò)嵌有倫理規(guī)范的人工智能助推人類(lèi)做出更好的倫理決策②張衛(wèi):《道德可以被物化嗎?——維貝克“道德物化”思想評(píng)介》,《哲學(xué)動(dòng)態(tài)》2013 年第3 期。。面對(duì)人工智能在實(shí)踐中可能引發(fā)諸如隱私侵犯、算法偏見(jiàn)、信息繭房、不透明設(shè)計(jì)等倫理問(wèn)題,一個(gè)重要的途徑是在人工智能設(shè)計(jì)中嵌入倫理規(guī)范,讓倫理規(guī)范成為人工智能設(shè)計(jì)的內(nèi)生要素,實(shí)現(xiàn)“合乎倫理設(shè)計(jì)”,從而防范人工智能帶來(lái)的道德風(fēng)險(xiǎn)。美國(guó)電氣與電子工程師協(xié)會(huì)發(fā)布《合乎倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)優(yōu)化人類(lèi)福祉的愿景》,它作為該協(xié)會(huì)的框架性指導(dǎo)文件,目的在于指導(dǎo)與規(guī)范人工智能在設(shè)計(jì)上合乎道德標(biāo)準(zhǔn),達(dá)到造福全人類(lèi)的目的,避免算法偏見(jiàn)等潛在風(fēng)險(xiǎn),從而實(shí)現(xiàn)“道德算法”的目標(biāo),即“那些在道德上可接受的算法或合乎倫理的算法,它們使自主系統(tǒng)的決策具有極高的可靠性和安全性?!雹劾顐?、孫保學(xué):《給人工智能一顆“良芯(良心)”——人工智能倫理研究的四個(gè)維度》,《教學(xué)與研究》2018 年第8 期。“合乎倫理設(shè)計(jì)”與當(dāng)前技術(shù)倫理學(xué)研究領(lǐng)域中的“道德物化”(materializingmorality)思想密切相關(guān)。它是指通過(guò)恰當(dāng)?shù)募夹g(shù)設(shè)計(jì),將抽象的道德理念體現(xiàn)在技術(shù)人工物的結(jié)構(gòu)和功能之中,從而使技術(shù)人工物的使用對(duì)人的決策和行為產(chǎn)生道德意義上的引導(dǎo)和規(guī)范作用的過(guò)程?!暗赖挛锘彪m然主要關(guān)注的是物理空間的技術(shù),但其理念可以拓展到人工智能領(lǐng)域,在智能算法中同樣可以嵌入道德規(guī)范,讓智能算法幫助人類(lèi)做出更優(yōu)的決策和助推人的行為向善。
從上述分析可知,“外在主義”進(jìn)路是把倫理作為手段來(lái)治理人工智能所引發(fā)的負(fù)面后果,倫理是治理的手段,人工智能是治理的對(duì)象;而“內(nèi)在主義”進(jìn)路則是把人工智能作為手段來(lái)解決倫理難題,人工智能是治理的手段,倫理難題是治理的對(duì)象,二者的手段與目標(biāo)恰好實(shí)現(xiàn)了互換。盡管如此,兩種研究進(jìn)路仍然存在著許多共性,它們擁有共同的學(xué)理基礎(chǔ),之間并非相互對(duì)立和排斥的關(guān)系,而是相互補(bǔ)充與嵌套的關(guān)系。
第一,二者具有相同的學(xué)理基礎(chǔ)。不論是“外在主義”進(jìn)路還是“內(nèi)在主義”進(jìn)路,它們首先面臨的問(wèn)題都是自身的合法性問(wèn)題,如果不能對(duì)人工智能本身究竟有無(wú)倫理之問(wèn)題做出一個(gè)肯定的回答,則人工智能倫理這一概念及由這一概念所代表的這門(mén)學(xué)科就不成立。因此,兩種研究進(jìn)路要想成立,其首要工作就是論證人工智能為何是負(fù)載倫理價(jià)值的,否則人工智能就無(wú)法成為倫理學(xué)的合法研究對(duì)象。如果同“技術(shù)中性論”所認(rèn)為的那樣,人工智能僅僅是一種價(jià)值中立的工具,其善惡屬性完全取決于使用者的目的和使用方式,那么人工智能倫理就沒(méi)有存在的必要。因此,盡管學(xué)界在技術(shù)與倫理的關(guān)系上存在著多種觀(guān)點(diǎn),如技術(shù)與倫理排斥論、技術(shù)與倫理無(wú)涉論和技術(shù)具有倫理價(jià)值等④王前:《技術(shù)倫理通論》,北京:中國(guó)人民大學(xué)出版社,2011 年,第23—25 頁(yè)。,但人工智能倫理要想成立,必須旗幟鮮明地批駁技術(shù)工具論,打破技術(shù)是價(jià)值中立的論斷,建立技術(shù)本身是負(fù)載(倫理)價(jià)值的立場(chǎng),這是開(kāi)展人工智能倫理研究的共同基礎(chǔ)。
技術(shù)中性論是一種普遍流行的觀(guān)念,目前在普通公眾中有很大的市場(chǎng)。它的基本觀(guān)點(diǎn)是,技術(shù)只是一種工具,其本身不負(fù)載價(jià)值,其價(jià)值屬性取決于使用方式;其理由是,技術(shù)是一種純粹的手段,它是一種普適性、客觀(guān)性的因果法則,獨(dú)立于任何價(jià)值體系之外,其運(yùn)行與政治、文化、倫理等社會(huì)環(huán)境無(wú)關(guān)。換言之,在技術(shù)中性論這里,手段本身與使用目的是可以嚴(yán)格二分的,手段可以獨(dú)立于任何目的,同時(shí)也可以應(yīng)用于任何目的。技術(shù)中性論的思想根源深深扎根在近代的“價(jià)值中立論”之中。在近代自然科學(xué)興起之時(shí),伽利略等科學(xué)先驅(qū)倡導(dǎo)科學(xué)的價(jià)值中立是為了與神學(xué)信仰劃清界限,為弱小的自然科學(xué)提供庇護(hù)之所,后來(lái)休謨提出“是與應(yīng)當(dāng)”的二分,則進(jìn)一步強(qiáng)化了科學(xué)的價(jià)值中立性,而隨著孔德、斯賓塞等實(shí)證主義的興起,價(jià)值中立觀(guān)念開(kāi)始向社會(huì)科學(xué)滲透,最終在韋伯這里形成了明確的“價(jià)值中立”的方法論原則。
價(jià)值中立論在保護(hù)科學(xué)研究的客觀(guān)性、自主性方面確實(shí)起到了積極作用,但由于其內(nèi)在缺陷,也受到了諸多批評(píng),尤其是當(dāng)今由于技術(shù)化的加深而引發(fā)諸多社會(huì)倫理問(wèn)題的時(shí)代,如果仍然堅(jiān)持技術(shù)中性論,它就會(huì)成為技術(shù)研發(fā)人員推脫社會(huì)責(zé)任的借口,把責(zé)任推給技術(shù)的使用者,其危害不容忽視。如美國(guó)步槍協(xié)會(huì)就通過(guò)技術(shù)中性論來(lái)反駁禁槍人群的訴求,一些網(wǎng)絡(luò)直播平臺(tái)運(yùn)營(yíng)者宣稱(chēng)“技術(shù)無(wú)罪”為自己辯護(hù)的背后也是技術(shù)中性論的體現(xiàn)①?gòu)埿l(wèi):《技術(shù)倫理學(xué)何以可能?》,《倫理學(xué)研究》2017 年第2 期。。實(shí)際上,對(duì)技術(shù)中性論的批判一直都是現(xiàn)代性批判、工具理性批判、生態(tài)批判等理論的題中之意,尤其是經(jīng)典技術(shù)哲學(xué)家的理論,如海德格爾的“座架”理論、埃呂爾的“技術(shù)自主”理論、芒福德的“巨機(jī)器”理論、馬爾庫(kù)塞的“單向度”理論、哈貝馬斯的“科技意識(shí)形態(tài)”理論、尤納斯的“責(zé)任倫理”理論等都已經(jīng)對(duì)技術(shù)中性論進(jìn)行了深入的批判,這些理論對(duì)于認(rèn)清技術(shù)中性論的片面性起了重要作用。
反駁“技術(shù)中性論”的要害在于打破“手段與目的二分”的謬誤。任何工具的發(fā)明,都是以實(shí)現(xiàn)某種目的為前提的,沒(méi)有無(wú)目的的技術(shù)發(fā)明。在這一點(diǎn)上,中國(guó)哲學(xué)關(guān)于人性論的爭(zhēng)論可以給人一定的啟發(fā)。告子認(rèn)為,“性猶湍水也,決諸東方則東流,決諸西方則西流。人性之無(wú)分于善不善也,猶水之無(wú)分于東西也?!雹跅畈骸睹献幼g注》,北京:中華書(shū)局,2008 年,第200 頁(yè)。而孟子則認(rèn)為,“水信無(wú)分于東西。無(wú)分于上下乎?人性之善也,猶水之就下也?!雹蹢畈骸睹献幼g注》,第200 頁(yè)。告子的觀(guān)點(diǎn)就如技術(shù)中性論的觀(guān)點(diǎn):一把刀可以用來(lái)殺人,也可以用來(lái)救人,因此刀本身是沒(méi)有善惡的,而孟子的觀(guān)點(diǎn)則相反:刀是可以殺人也可以救人,但“切割”是二者共同的屬性,就如水不論是往東流還是往西流,都是往下流一樣。從這個(gè)角度來(lái)看,即便刀的使用方式可以多種多樣,但“切割”這種技術(shù)目的是刀這種技術(shù)手段本身就具有的。換言之,按照麥克盧漢“媒介即信息”的觀(guān)點(diǎn),“切割”就是刀這種媒介本身所具有的信息,它與刀這種形式是無(wú)法分割的。
第二,二者是相互補(bǔ)充的關(guān)系。任何事物都存在兩面性,人工智能與倫理的關(guān)系也是如此,既然人工智能能夠帶來(lái)倫理問(wèn)題,也能夠解決倫理問(wèn)題,應(yīng)該采取辯證的視角,既采取“外在主義”進(jìn)路對(duì)人工智能的負(fù)面?zhèn)惱韮r(jià)值進(jìn)行反思與規(guī)約,也采取“內(nèi)在主義”進(jìn)路對(duì)人工智能的積極倫理價(jià)值進(jìn)行分析與利用,否則就會(huì)陷入片面的、絕對(duì)的形而上學(xué)思維的束縛之中,其結(jié)果要么是盲目地崇拜人工智能,從而走向極端的科學(xué)主義或科技萬(wàn)能論,要么是盲目的抵制人工智能,從而阻礙人工智能的創(chuàng)新和社會(huì)的發(fā)展。只有辯證地看待人工智能與倫理的關(guān)系,把“外在主義”和“內(nèi)在主義”兩種研究進(jìn)路結(jié)合起來(lái),對(duì)人工智能與倫理關(guān)系的認(rèn)識(shí)才是完整的。因此,在人工智能與倫理的關(guān)系問(wèn)題上,應(yīng)該堅(jiān)持一種雙向互動(dòng)的立場(chǎng),既不能一味地死守過(guò)時(shí)的倫理原則,阻礙人工智能的進(jìn)步,也不能完全不顧倫理原則,放任人工智能的隨意發(fā)展,在人工智能發(fā)展與倫理原則之間保持一種動(dòng)態(tài)的平衡。
二者的互補(bǔ)性還體現(xiàn)在“外在主義”進(jìn)路和“內(nèi)在主義”進(jìn)路分別是人工智能倫理的底線(xiàn)和上線(xiàn)??萍紓惱淼闹笇?dǎo)原則分為消極的指導(dǎo)原則(如尊重原則和無(wú)害原則)和積極的指導(dǎo)原則(如客觀(guān)性原則和增進(jìn)公眾福祉),前者是科技倫理的底線(xiàn)原則,后者是科技倫理的上線(xiàn)原則④段偉文:《科技倫理:從理論框架到實(shí)踐建構(gòu)》,《天津社會(huì)科學(xué)》2008 年第4 期。。據(jù)此,也可為人工智能倫理設(shè)置一個(gè)底線(xiàn)和上線(xiàn),“外在主義”的人工智能倫理只是讓人工智能符合相應(yīng)的倫理規(guī)范,可視為底線(xiàn),而“內(nèi)在主義”則要求人工智能還要助推人類(lèi)遵守相應(yīng)的倫理規(guī)范,可視為上線(xiàn)。這就好比說(shuō),前者只是要求一個(gè)人遵守倫理規(guī)范,后者則不但要求這個(gè)人自己遵守倫理規(guī)范,還要監(jiān)督和協(xié)助他人遵守倫理規(guī)范,所以前者的要求相對(duì)較低,是底線(xiàn),而后者的要求則相對(duì)較高,是上線(xiàn)。在這個(gè)意義上,“外在主義”人工智能倫理可稱(chēng)為消極的或批判性的人工智能倫理,“內(nèi)在主義”人工智能倫理可以稱(chēng)為積極的或建設(shè)性的人工智能倫理。
從另外一個(gè)角度來(lái)看,批判性的人工智能倫理是“部門(mén)倫理”意義上的技術(shù)倫理,而建設(shè)性的人工智能倫理是“研究綱領(lǐng)”意義上的技術(shù)倫理。正如科學(xué)哲學(xué)有“關(guān)于科學(xué)的哲學(xué)”(philosophy of science)和“科學(xué)的哲學(xué)”(scientific philosophy),技術(shù)哲學(xué)有“部門(mén)哲學(xué)”的技術(shù)哲學(xué)和“研究綱領(lǐng)”的技術(shù)哲學(xué)兩種傳統(tǒng),“前者作為部門(mén)哲學(xué)、哲學(xué)的分支學(xué)科、哲學(xué)關(guān)注的特殊領(lǐng)域,從屬于一種或幾種哲學(xué)傳統(tǒng)和哲學(xué)綱領(lǐng),后者作為一種新的哲學(xué)傳統(tǒng)、哲學(xué)視角、哲學(xué)眼光,本身就是一種哲學(xué)綱領(lǐng)”①吳國(guó)盛:《技術(shù)哲學(xué)經(jīng)典讀本》,上海:上海交通大學(xué)出版社,2008 年,第1 頁(yè)。,技術(shù)倫理也可以是“部門(mén)倫理”意義上的技術(shù)倫理和“研究綱領(lǐng)”意義上的技術(shù)倫理。所謂“研究綱領(lǐng)”意義上技術(shù)倫理,即把技術(shù)倫理作為一般倫理學(xué)來(lái)看待,從技術(shù)的視角對(duì)倫理學(xué)體系進(jìn)行改造,把技術(shù)編織進(jìn)倫理學(xué)的理論體系之中,重建倫理學(xué)體系,即技術(shù)時(shí)代的倫理學(xué)或技術(shù)的倫理學(xué)。所謂“部門(mén)倫理”意義上的技術(shù)倫理學(xué),即把技術(shù)作為倫理學(xué)的研究對(duì)象,把倫理學(xué)的理論和方法應(yīng)用于技術(shù)領(lǐng)域,屬于倫理學(xué)的一個(gè)分支或部門(mén)。由于“外在主義”進(jìn)路的人工智能主要關(guān)注倫理原則的應(yīng)用,因此更接近于“部門(mén)倫理”意義上的技術(shù)倫理,而“內(nèi)在主義”進(jìn)路的人工智能涉及倫理學(xué)理論體系的調(diào)整,因此更接近于“研究綱領(lǐng)”意義上的技術(shù)倫理。
第三,二者是相互嵌套的關(guān)系?!皟?nèi)在主義”進(jìn)路的初衷雖然是好的,但是它本身也引發(fā)了諸多的倫理爭(zhēng)議,如在利用人工智能來(lái)規(guī)范人類(lèi)行為中,如果沒(méi)有一個(gè)合理的限度,就會(huì)對(duì)人的自由和尊嚴(yán)產(chǎn)生威脅和挑戰(zhàn),這無(wú)疑需要進(jìn)行倫理的反思,而這正是“外在主義”進(jìn)路所從事的工作,因此“內(nèi)在主義”進(jìn)路本身就轉(zhuǎn)變?yōu)椤巴庠谥髁x”進(jìn)路的研究對(duì)象,這是“內(nèi)在主義”進(jìn)路嵌套進(jìn)“外在主義”進(jìn)路的表現(xiàn)。與此同時(shí),“內(nèi)在主義”進(jìn)路所主張的在人工智能設(shè)計(jì)中嵌入道德規(guī)范,在一定程度上緩和了人工智能與倫理的沖突,減少了人工智能引發(fā)倫理問(wèn)題的可能性,而這正是“外在主義”進(jìn)路所要達(dá)到的目標(biāo),“內(nèi)在主義”進(jìn)路的實(shí)踐在某種意義上實(shí)現(xiàn)了本屬于“外在主義”進(jìn)路的目標(biāo),這是“外在主義”進(jìn)路嵌套進(jìn)“內(nèi)在主義”進(jìn)路的表現(xiàn)。因此,在這種意義上,兩種研究進(jìn)路的區(qū)分只具有理論上的意義,在實(shí)際的研究活動(dòng)中,兩種進(jìn)路往往是交叉在一起的,如人工智能的倫理設(shè)計(jì),里面既有通過(guò)設(shè)計(jì)解決倫理問(wèn)題的“內(nèi)在主義”進(jìn)路的影子,也有對(duì)設(shè)計(jì)進(jìn)行倫理規(guī)約的“外在主義”進(jìn)路的影子。
總之,如果把人工智能倫理比作一只飛鳥(niǎo),那么“外在主義”進(jìn)路和“內(nèi)在主義”兩種進(jìn)路就好比是人工智能倫理的“雙翼”,缺少任何一翼都會(huì)使人工智能倫理研究框架變得不完整。兩種進(jìn)路的同時(shí)存在,歸根結(jié)底還是因?yàn)榧夹g(shù)的“雙刃劍”效應(yīng),人工智能既能為人類(lèi)帶來(lái)福祉,也會(huì)給人類(lèi)帶來(lái)傷害,因此,既應(yīng)該看到它的積極倫理意義,也應(yīng)該關(guān)注它的消極倫理意義,這是人工智能倫理“外在主義”和“內(nèi)在主義”兩種進(jìn)路之所以互補(bǔ)存在的內(nèi)在根據(jù),也是馬克思辯證思維和矛盾分析方法的體現(xiàn)。既不能被膚淺的技術(shù)主義所蒙蔽,也不能陷入消極的技術(shù)悲觀(guān)主義的泥潭,既不能死守過(guò)時(shí)的倫理觀(guān)念而阻礙人工智能的發(fā)展,也不能完全不顧倫理要求而由人工智能任性發(fā)展。當(dāng)然,就當(dāng)前人工智能倫理的研究格局而言,“外在主義”進(jìn)路仍然是當(dāng)前的主導(dǎo)進(jìn)路,處于支配地位,而作為人工智能倫理的一個(gè)新的理論生長(zhǎng)點(diǎn),“內(nèi)在主義”進(jìn)路目前還處于發(fā)展之中,其研究力量和影響力還比較弱小,與“外在主義”進(jìn)路還不能比肩,但是“內(nèi)在主義”進(jìn)路的人工智能倫理價(jià)值與影響是不容忽視的,它促使人們重新審視傳統(tǒng)倫理學(xué)的基本預(yù)設(shè)與理論框架,重新審視道德共同體的范圍與人工智能體的倫理地位,甚至重構(gòu)倫理學(xué)的話(huà)語(yǔ)體系。