計(jì)海慶
(上海社會(huì)科學(xué)院哲學(xué)研究所,上海 200235)
人類中心主義,又被稱為“人類中心論”,主張將人類利益置于首要地位,強(qiáng)調(diào)人類利益是所有物種行為的價(jià)值尺度。關(guān)于人類中心主義的界定很多,綜而觀之,主要是指以人類的利益、價(jià)值作為評(píng)判事物、行為的尺度和標(biāo)準(zhǔn)。古希臘哲學(xué)家普羅塔哥拉提出的“人是萬(wàn)物的尺度”,可以說(shuō)是最早的人類中心主義思想,可見(jiàn)人類中心主義思想由來(lái)已久。艾薩克·阿西莫夫(Isaac Asimov)的機(jī)器人三大定律是人類中心主義思想體現(xiàn)在機(jī)器人領(lǐng)域的典型代表,其實(shí)質(zhì)性內(nèi)涵為:在人機(jī)發(fā)生沖突時(shí),機(jī)器人應(yīng)該為人類的利益作出犧牲;只有在保護(hù)人類和服從人類的前提條件之下,它才能去盡可能保護(hù)自己;它不可能為了保護(hù)自己而傷害人類。
學(xué)界對(duì)人類中心主義和非人類中心主義一直存在探討與爭(zhēng)論。在生態(tài)倫理領(lǐng)域,關(guān)于非人類中心主義的呼聲較高;在人工智能倫理領(lǐng)域,關(guān)于人類中心主義的呼聲則較高。簡(jiǎn)小烜所撰寫的《人工智能道德風(fēng)險(xiǎn)的防控與治理》一書對(duì)人工智能道德風(fēng)險(xiǎn)的防控與治理進(jìn)行了較為系統(tǒng)、深入的探討,該書告訴我們,為何在人工智能倫理領(lǐng)域,關(guān)于人類中心主義的呼聲會(huì)更高。該書主要從以下四個(gè)方面體現(xiàn)了作者所持有的人類中心主義視角與立場(chǎng)。
漢斯·尤納斯(Hans Jonas)于 1979 年指出:在科學(xué)技術(shù)迅速發(fā)展的今天,技術(shù)性質(zhì)已發(fā)生改變,不再是人類為了達(dá)到某個(gè)目的而使用的工具,具有自身的發(fā)展目的,是一種“獨(dú)立的力量”[1]5;在技術(shù)的影響下,行為者、行為與行為后果,已經(jīng)發(fā)生改變,不再是近距離性質(zhì)的;技術(shù)革命帶來(lái)的負(fù)面影響是世界性的,并具有長(zhǎng)遠(yuǎn)性,不再局限于某一個(gè)地方,也不再局限于當(dāng)下。鑒于技術(shù)的新特性以及傳統(tǒng)倫理學(xué)的歷史局限性,他提出“未來(lái)倫理”“整體性倫理”,強(qiáng)調(diào)人類對(duì)現(xiàn)在和將來(lái)的責(zé)任,并以長(zhǎng)遠(yuǎn)性和整體性為道德原則,以盡可能減少或消除人類社會(huì)、技術(shù)等發(fā)展過(guò)程中的風(fēng)險(xiǎn)因素。毋庸置疑,尤納斯的責(zé)任倫理是持人類中心主義立場(chǎng)的。
《人工智能道德風(fēng)險(xiǎn)的防控與治理》一書對(duì)人類利益和責(zé)任的強(qiáng)調(diào)是非常明顯的。該書指出,人工智能所導(dǎo)致的道德風(fēng)險(xiǎn)就是其從各個(gè)方面對(duì)人類利益、福祉造成的損害。就目前而言,人工智能技術(shù)帶來(lái)的隱私泄露、算法歧視、數(shù)字鴻溝等風(fēng)險(xiǎn)層出不窮,而隨著人工智能對(duì)人類就業(yè)的負(fù)面影響,大量重復(fù)性工作將被人工智能所取代,這也將影響到部分人社會(huì)價(jià)值的實(shí)現(xiàn)。從未來(lái)性而言,如人類與人工智能的結(jié)合,即人機(jī)融合智能,能夠改造人類自身生理結(jié)構(gòu)中存在的缺陷,兼具人和機(jī)的優(yōu)勢(shì),這雖然提高了人類的身體素質(zhì),但對(duì)人類的自由意志、尊嚴(yán)、地位等都是一種打擊或侵犯,影響到人類自主性的實(shí)現(xiàn),在某種程度上消解或減弱了人類的主體性和道德地位。
整體而言,該書較為深入地討論了人工智能對(duì)人類主體地位、道德責(zé)任、隱私權(quán)、安全等帶來(lái)的負(fù)面影響和風(fēng)險(xiǎn),探討了人工智能算法所導(dǎo)致的歧視與不公等風(fēng)險(xiǎn)問(wèn)題,同時(shí)也深刻指出了造成道德風(fēng)險(xiǎn)的主要因素:人工智能體自主性的增強(qiáng)、技術(shù)世界工具理性和價(jià)值理性的沖突、人類責(zé)任的彌散和逃避、相關(guān)倫理規(guī)制的缺乏、法律法規(guī)的滯后與缺失、監(jiān)管體系的不完善、技術(shù)自身的局限性等。該書基于人類中心主義視角的探討比較深入和系統(tǒng)。
該書還重點(diǎn)探討了人工智能在道德責(zé)任領(lǐng)域帶來(lái)的風(fēng)險(xiǎn)。由于人工智能體已具有一定的自主性,在人機(jī)交互中,人類對(duì)它的決策行為只具有一定程度的控制性,人工智能體對(duì)自身的行為也不具有完全控制性,那么,按照傳統(tǒng)道德責(zé)任理論,由人工智能體行為帶來(lái)的損害結(jié)果,人類無(wú)法為之負(fù)責(zé),人工智能體更無(wú)法為之負(fù)責(zé),這就產(chǎn)生了道德責(zé)任困境。面對(duì)此責(zé)任困境,一部分學(xué)者主張應(yīng)該采用非人類中心主義視角進(jìn)行研究,提出將人工智能體界定為道德責(zé)任主體,以使其承擔(dān)責(zé)任。然而人工智能體沒(méi)有意識(shí)、情感,感受不到情緒,更認(rèn)識(shí)不到被批評(píng)或被表?yè)P(yáng)的意義所在,問(wèn)責(zé)對(duì)它沒(méi)有意義。作者清醒意識(shí)到此點(diǎn),也指出這種觀點(diǎn)其實(shí)造成了“人工智能體在理論上具有道德主體地位,在現(xiàn)實(shí)中卻又不能承擔(dān)道德責(zé)任”[2]57的悖論,因此并不贊成由人工智能體承擔(dān)責(zé)任,而是主張由人類來(lái)承擔(dān)責(zé)任,人類才是永遠(yuǎn)的被追責(zé)者。人的因素在科學(xué)技術(shù)活動(dòng)中是首要的,任何非人的元素都不可能脫離人而獨(dú)立發(fā)揮作用[3]。人,創(chuàng)造了人工智能;人與機(jī)的交互,亦來(lái)源于人,人是第一位的責(zé)任主體。
作者還指出,責(zé)任困境甚至導(dǎo)致了人類責(zé)任的彌散,人們經(jīng)常把責(zé)任推給人工智能體,比如人們經(jīng)常抱怨的“導(dǎo)航把我?guī)уe(cuò)了地方”。為解決這些問(wèn)題,作者提出構(gòu)建前瞻性責(zé)任倫理,否則負(fù)責(zé)任創(chuàng)新和人工智能向善無(wú)從談起。道德責(zé)任問(wèn)題本身是人工智能倫理領(lǐng)域的一個(gè)前沿問(wèn)題,作者站在人類利益視角進(jìn)行討論,但同時(shí)也毫不留情地指出人類自身存在的問(wèn)題——對(duì)責(zé)任的逃避,強(qiáng)調(diào)人類并不能因?yàn)槿斯ぶ悄荏w的自主性而忽視自身責(zé)任。這既是對(duì)人類未來(lái)的考慮,也是基于人類整體的考慮,是對(duì)尤納斯責(zé)任倫理的繼承與創(chuàng)新。“為了避開(kāi)整體上最大的惡,為了追求善,人類應(yīng)當(dāng)履行實(shí)質(zhì)責(zé)任。只有這樣,才能確保人類的福祉和未來(lái)?!保?]
關(guān)于人工智能體道德地位的探討很多。傳統(tǒng)理論認(rèn)為,自由意志、自我意識(shí)是基本前提,人工智能體并不具備,不能成為道德主體,不具備道德地位,更不能承擔(dān)道德責(zé)任。實(shí)用理論則傾向于摒棄非凡的自我意識(shí)和自由意志,而從人工智能體的自主性和意向性等類人屬性出發(fā)(實(shí)體論),或者從人機(jī)之間的關(guān)系出發(fā)(關(guān)系論),深入論證人工智能體能夠成為道德主體,從而具備道德地位,能夠承擔(dān)道德責(zé)任[5]?!度斯ぶ悄艿赖嘛L(fēng)險(xiǎn)的防控與治理》一書則摒棄了極端的二值邏輯(要么主張把人工智能體作為工具來(lái)對(duì)待,要么主張把人工智能體當(dāng)作自然人來(lái)對(duì)待),并將傳統(tǒng)理論與實(shí)用理論相結(jié)合來(lái)進(jìn)行研究。作者首先分析了人工智能體的道德能動(dòng)性,如理性、自主性、意向性,論證其是人工道德能動(dòng)者;接著分析了人工智能體特殊的人格性、物的屬性和不完整的社會(huì)性,認(rèn)為其在本質(zhì)上有別于人類,它是二階道德能動(dòng)者,人類是一階道德能動(dòng)者;最后得出結(jié)論——作為人機(jī)交互系統(tǒng)中的二階道德能動(dòng)者,人工智能體具有非完全道德主體的道德地位,其道德地位低于人類。
從現(xiàn)實(shí)情況而言,在大多數(shù)人的心中,人類的地位高于動(dòng)植物以及人工智能體的地位,這毋庸置疑。而一階道德能動(dòng)者和二階道德能動(dòng)者的區(qū)分并不僅僅是對(duì)應(yīng)著道德責(zé)任的完全和非完全。至關(guān)重要的是,這種區(qū)分還意味著人工智能體對(duì)人類而言處于從屬地位,其擬主體性由人類賦予,說(shuō)到底它是人類的創(chuàng)造物和服務(wù)者。因此,人工智能體基于其擬主體性所實(shí)現(xiàn)的道德決策也必然只能是致力于實(shí)現(xiàn)人所能作出的最好決策,它的決策要為人所規(guī)定、約束、修正甚至是否決[6]。
布魯諾·拉圖爾(Bruno Latour)的行動(dòng)者網(wǎng)絡(luò)理論(ANT)有著明顯的去人類中心化的特性。這種特性首先就表現(xiàn)在他將人類與非人的身份和地位并置。按照拉圖爾的說(shuō)法,行動(dòng)者網(wǎng)絡(luò)沒(méi)有所謂的中心,也沒(méi)有主客體的對(duì)立,每個(gè)節(jié)點(diǎn)都是一個(gè)主體、一個(gè)可以行動(dòng)的行動(dòng)者,彼此之間是相互影響的主體間性關(guān)系;非人的行動(dòng)者通過(guò)有資格的“代言人”(agent)來(lái)獲得主體的地位、資格和權(quán)利,以至可以共同營(yíng)造一個(gè)相互協(xié)調(diào)的行動(dòng)之網(wǎng)[7]18。這可以看出,拉圖爾對(duì)非人行動(dòng)者賦予與人一樣的道德主體的地位,試圖消除人類社會(huì)與自然之間的二分法,這與奧爾多·利奧波德(Aldo Leopold)土地倫理學(xué)的非人類中心主張一致。利奧波德的土地倫理提出“土地共同體”的概念,認(rèn)為人、土壤、空氣、水、動(dòng)植物等構(gòu)成了土地共同體,而人和土壤、空氣、水等一樣,都是共同體中的平等一員[8]157,這在某種程度上也消除了人類的中心地位,消除了人與自然的對(duì)立。
在試圖消除二元論的學(xué)者中,有人非常贊同拉圖爾的對(duì)稱性原則。廣義對(duì)稱性原則在一定程度上實(shí)現(xiàn)了科學(xué)研究一直訴求的公正性、客觀性,這也是人類社會(huì)向往已久的生存原則;其實(shí)踐中所主張的科學(xué)研究的主客體身份的模糊性恰恰印證了人類社會(huì)訴求的人與人、人與物之間的平等性[9]。二元論是一種“強(qiáng)不對(duì)稱性”態(tài)度,拉圖爾卻又走向另一種極端,即“強(qiáng)對(duì)稱性”,強(qiáng)調(diào)人類與非人類的完全對(duì)稱。但是,將人與非人置于完全對(duì)等的道德地位,既不符合現(xiàn)實(shí)情況,也存在理論弊端。有學(xué)者就指出:“當(dāng)從表象轉(zhuǎn)向?qū)嵨?,從符?hào)轉(zhuǎn)向具體的現(xiàn)實(shí),從作為文本的世界到作為物體的世界,非人元素的能動(dòng)性作用便不再明晰。在這些轉(zhuǎn)換的過(guò)程中,人與非人元素在能動(dòng)性上的等同事實(shí)上并未如拉圖爾所愿,成為一個(gè)確定的本體論條件?!保?0]
如果說(shuō)ANT 在理論上消解了人類與非人類的主客體之分,那么目前的人工智能技術(shù)正在從實(shí)踐上實(shí)現(xiàn)這種消解。在當(dāng)今技術(shù)社會(huì),人與物一樣被符號(hào)化、數(shù)字化、信息化,只是一個(gè)符號(hào)、一組數(shù)字、一組圖像,人的尊嚴(yán)、自由、精神和隱私被技術(shù)排擠,人之為人的主體性、主觀能動(dòng)性正在被技術(shù)消解,人正在成為海德格爾所說(shuō)的技術(shù)座架下的“無(wú)靈”之物,一部分人越來(lái)越具有“機(jī)器性”“機(jī)械性”。這引起了學(xué)術(shù)界的高度重視和深入研究。這再次從社會(huì)實(shí)踐角度證明,人與非人元素在網(wǎng)絡(luò)中、在人機(jī)交互系統(tǒng)中的身份和地位具有對(duì)等性確實(shí)是不可思議的。
科學(xué)技術(shù)活動(dòng),包括人工智能體的研發(fā),都是為人類福祉和利益而開(kāi)展的。將人工智能體置于與人類平等的地位,確實(shí)是去人類中心化了,但這明顯違背我們的初衷。而且,將人工智能體賦予與人類一樣的道德主體地位,這會(huì)加大人工智能體給人類帶來(lái)的道德風(fēng)險(xiǎn)。一旦某一天它們具有真正的生命,具有如人類一樣的意識(shí)、意志與自由,那它們要的可能遠(yuǎn)非平等。也許它們要做的第一件事,就是讓人類成為它們的服務(wù)者,也許是工具,也許是寵物,也許什么都不是,因?yàn)樗鼈儾恍枰祟愡@種弱者了。無(wú)論如何,至少?gòu)睦碚撋?,人類?yīng)該防止這種可能性。
所以,拉圖爾的“強(qiáng)對(duì)稱性”原則應(yīng)該被打破。皮克林就表示:我們要追隨行動(dòng)者網(wǎng)絡(luò)理論的精神和方法,但不能完全照搬[11]?!度斯ぶ悄艿赖嘛L(fēng)險(xiǎn)的防控與治理》一書亦認(rèn)可此觀點(diǎn),因此采用了弱人類中心主義態(tài)度。人類中心主義有強(qiáng)弱之分,強(qiáng)人類中心主義只強(qiáng)調(diào)人類的利益和福祉,弱人類中心主義在強(qiáng)調(diào)人類福祉的同時(shí),也會(huì)顧及非人元素的利益與福祉,主張尊重自然、動(dòng)植物、人工智能體等?;谌跞祟愔行闹髁x態(tài)度,作者承認(rèn)人工智能體具有一定的道德地位,但未將這種地位絕對(duì)化;認(rèn)可其在人機(jī)交互系統(tǒng)中的重要作用,但不將它與人類的能動(dòng)性等同。人工智能體確實(shí)已不同于純粹的工具,我們應(yīng)認(rèn)識(shí)到其在人機(jī)交互系統(tǒng)中的重要社會(huì)作用,承認(rèn)其具備一定的道德地位,這種主張一方面切合實(shí)際,在理論上也未給予人工智能體以凌駕于人類之上的可能性,另一方面則有利于人類的生存與發(fā)展。從奇點(diǎn)論視角來(lái)看,人類中心主義主張也許可以避免未來(lái)人類的滅亡。
總而言之,我們應(yīng)該認(rèn)識(shí)到物的能動(dòng)性和擬主體性,重視物的作用與價(jià)值,重視人類責(zé)任和實(shí)現(xiàn)人機(jī)和諧相處。對(duì)服務(wù)于人類利益的人工智能體,我們應(yīng)持尊重的態(tài)度,不管它有無(wú)意識(shí)與情感。但同時(shí),我們應(yīng)該深刻地認(rèn)識(shí)到人的主體性地位正在遭到技術(shù)無(wú)情的消解,我們應(yīng)采取措施預(yù)防和消減道德風(fēng)險(xiǎn),更不能自降地位和身份。這是《人工智能道德風(fēng)險(xiǎn)的防控與治理》一書將人工智能體界定為“二階道德能動(dòng)者”以及認(rèn)為其具備“非完全道德主體”地位的重要原因,也體現(xiàn)了人類中心主義在人工智能倫理研究中的重要地位之所在。
人工智能體原本便是為了人類的發(fā)展與繁榮而被研發(fā)與應(yīng)用的,這意味著,它需要全力服務(wù)于人類,也需要遵守人類的道德規(guī)范與行為準(zhǔn)則,這便有了對(duì)人工智能體的倫理道德設(shè)計(jì)。在人工道德能動(dòng)者的倫理設(shè)計(jì)方面,作者分析了目前常見(jiàn)的三種進(jìn)路,即自上而下、自下而上,以及混合進(jìn)路;同時(shí)也指出還面臨諸多挑戰(zhàn),如人工道德能動(dòng)者實(shí)現(xiàn)難、道德認(rèn)知和選擇難、計(jì)算機(jī)算力局限等。但人工智能體的道德設(shè)計(jì)在設(shè)計(jì)目標(biāo)方面一直未形成統(tǒng)一的意見(jiàn),學(xué)者們對(duì)設(shè)計(jì)成完全道德主體還是一般的道德行為體也都意見(jiàn)不一,而在具體的設(shè)計(jì)中,確實(shí)面臨很多難以解決的具體問(wèn)題。如,如何將個(gè)人利己行為和為他人負(fù)責(zé)行為之間的博弈進(jìn)行編碼,是基于康德的義務(wù)論還是基于邊沁的功利論?它們各有優(yōu)點(diǎn),又各有缺點(diǎn),我們很難找到一個(gè)完備的推理與判斷的系統(tǒng)模型。同時(shí),道德設(shè)計(jì)還涉及情感、情緒、經(jīng)驗(yàn)等方面,產(chǎn)生的信息復(fù)雜而量大,目前的計(jì)算機(jī)算力尚難以滿足這一要求。
《人工智能道德風(fēng)險(xiǎn)的防控與治理》一書的態(tài)度很明確:人工智能體道德設(shè)計(jì)要實(shí)現(xiàn)的不是完全道德主體,而是有限道德能動(dòng)者。作者認(rèn)為,將人工智能體設(shè)計(jì)成完全道德主體,正如將它的道德地位置于與人類平等的地位,均會(huì)增加道德風(fēng)險(xiǎn)。有朝一日,萬(wàn)一人工智能體具備了意識(shí)、意志和欲望,那么它所要的可能遠(yuǎn)非平等[2]82。作者還指出,因?yàn)橥耆赖轮黧w具有情感、意識(shí)、意志和欲望,一旦脫離人類的控制,人類文明很可能終結(jié)于這個(gè)“完全道德主體”,這不是大家所希望看到的。因此,作者不但反對(duì)賦予人工智能體與人類一樣的道德地位,而且認(rèn)為在人工智能倫理領(lǐng)域,采用非人類中心主義的觀點(diǎn)和視角是不適宜的。人工智能倫理不同于生態(tài)倫理,人工智能體也不同于自然中的植物與動(dòng)物,它已經(jīng)具有一定的智能和擬人性,甚至“超人”的能力?!爸悄堋币馕吨c人一樣的自主性與創(chuàng)造性,如果再賦予它意識(shí)、情感,也許某一天,它會(huì)讓人類成為它的服務(wù)者。非人類中心主義適合于生態(tài)倫理,但不一定適合于人工智能倫理。生態(tài)系統(tǒng)中的動(dòng)物、植物、土壤、空氣、水等,不同于人機(jī)交互系統(tǒng)中的人工智能體,它們不存在可以超越人、控制人的可能性,但人工智能體可能存在。利奧波德的土地倫理不存在給予生態(tài)系統(tǒng)中的動(dòng)植物以統(tǒng)治人類的機(jī)會(huì),但非人類中心主義的人工智能倫理則很有可能給予人工智能體以此機(jī)會(huì)。
所以,作者指出,人機(jī)交互領(lǐng)域必須堅(jiān)持“以人為本”的原則與底線,所有人工智能體的研發(fā)必須以人類福祉為中心。確實(shí),在人工智能倫理領(lǐng)域,非人類中心主義會(huì)大大提升非人元素的“物格”的地位,而造成人的“人格”的貶損。如前所述,目前的人工智能已經(jīng)在某種程度上帶來(lái)人類的物化、機(jī)器化,“它在以其強(qiáng)大的智能技術(shù)范式重筑社會(huì)基礎(chǔ)設(shè)施、重塑人們的社會(huì)生產(chǎn)方式和生活方式的過(guò)程中,正在‘分裂’出自己的對(duì)立面,甚至發(fā)展成為一種新的外在的異己力量”[12]。人類的創(chuàng)造性和能動(dòng)性已經(jīng)受到一定程度的損傷,信息繭房、依賴機(jī)器決策等便是例證。無(wú)論如何,在研發(fā)設(shè)計(jì)方面,我們不能賦予人工智能體與人類一樣的角色,這意味著不能給予它控制、主宰人類命運(yùn)的機(jī)會(huì),哪怕一點(diǎn)點(diǎn)機(jī)會(huì)也不能給予。我們并非不可以采用拉圖爾的行動(dòng)者網(wǎng)絡(luò)理論,而是應(yīng)對(duì)它有所超越。
人類應(yīng)該擁有一個(gè)欣欣向榮的未來(lái),而不是一個(gè)被人工智能體統(tǒng)治的世界,人工智能體應(yīng)只為人類福祉而研發(fā)。該書在結(jié)語(yǔ)部分亦做了強(qiáng)調(diào):我們所設(shè)計(jì)的人工智能體,應(yīng)將保護(hù)人類權(quán)益作為第一準(zhǔn)則,要尊重人類道德價(jià)值觀,且一定是安全和“向善”的[2]160。從中可見(jiàn)作者立場(chǎng)的堅(jiān)定、態(tài)度的謹(jǐn)慎與負(fù)責(zé)任,這也秉承了《新一代人工智能治理原則》(2019)中的原則與要求。
無(wú)論是《新一代人工智能治理原則》,還是《新一代人工智能倫理規(guī)范》(2021),都指出人工智能的研發(fā)是為了增加人類福祉?!蛾P(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》(2022)中,第一條倫理原則就是“增進(jìn)人類福祉”[13]?!度斯ぶ悄艿赖嘛L(fēng)險(xiǎn)的防控與治理》一書一直秉持這一思想。該書指出,加強(qiáng)人工智能道德風(fēng)險(xiǎn)的防控和治理是一項(xiàng)系統(tǒng)工程,涉及研發(fā)、制造、使用等各個(gè)環(huán)節(jié),應(yīng)從倫理規(guī)約、制度建設(shè)、文化培育等維度著手,多管齊下。在科技研發(fā)環(huán)節(jié),重在完善人工智能從業(yè)機(jī)構(gòu)與倫理道德研究、教育、監(jiān)督機(jī)構(gòu)之間的長(zhǎng)期溝通交流機(jī)制,不斷提高科技從業(yè)人員的倫理道德水平,引導(dǎo)研發(fā)人員增強(qiáng)風(fēng)險(xiǎn)防控意識(shí),完善人工智能倫理審查機(jī)制,建立有效監(jiān)管體系。在研發(fā)初始環(huán)節(jié),應(yīng)預(yù)測(cè)和評(píng)估人工智能產(chǎn)品可能引發(fā)的道德風(fēng)險(xiǎn),并將人類社會(huì)的倫理規(guī)范和道德要求植入人工智能體體內(nèi),使其成為有限道德能動(dòng)者,從設(shè)計(jì)源頭進(jìn)行防控;同時(shí)完善多主體道德責(zé)任制度,尤其重視前瞻性道德責(zé)任制度,以實(shí)現(xiàn)預(yù)防原則的約束作用。在應(yīng)用環(huán)節(jié),同樣需要繃緊倫理道德風(fēng)險(xiǎn)防控這根弦,應(yīng)構(gòu)建“負(fù)責(zé)任創(chuàng)新”框架,尋求風(fēng)險(xiǎn)的最大化規(guī)避,完善和普及與人工智能相關(guān)的法律法規(guī),引導(dǎo)社會(huì)公眾以正確的價(jià)值觀念看待和運(yùn)用人工智能技術(shù),并推動(dòng)全社會(huì)共同參與人工智能倫理治理;要防止人工智能被非法利用進(jìn)而危害社會(huì),確??萍佳邪l(fā)活動(dòng)始終在倫理道德的軌道上平穩(wěn)運(yùn)行。這些措施與制度都是從人類利益和福祉出發(fā)的,作者從始至終都堅(jiān)持著人類中心主義立場(chǎng)與態(tài)度。
在這個(gè)因人工智能技術(shù)帶來(lái)巨大經(jīng)濟(jì)效益和社會(huì)進(jìn)步動(dòng)力的時(shí)代,我們應(yīng)正確分析和理性看待人工智能所帶來(lái)的道德風(fēng)險(xiǎn)問(wèn)題,全面認(rèn)識(shí)技術(shù)的兩面性,通過(guò)實(shí)踐與理論的結(jié)合,采取各種手段和方法進(jìn)行風(fēng)險(xiǎn)的防控和治理,趨利避害,讓人工智能積極 “向善”,從而實(shí)現(xiàn)它的安全與可控。這對(duì)人類社會(huì)的發(fā)展、文明的進(jìn)步以及個(gè)人幸福指數(shù)的提升都有著重要而實(shí)際的意義。歸根結(jié)底,我們的理論或應(yīng)用研究,應(yīng)服務(wù)于人類的權(quán)益和福祉。如果人類本身都受到了威脅,不能生存,談?wù)撊斯ぶ悄艿母l頉](méi)有任何現(xiàn)實(shí)意義。
正如邁克斯·泰格馬克在《生命3.0:人工智能時(shí)代人類的進(jìn)化與重生》中所說(shuō),隨著人工智能自主性的增強(qiáng),極好的可能性和巨大的風(fēng)險(xiǎn)同時(shí)存在[14]XXXIII。因此,基于人類中心主義立場(chǎng),對(duì)人工智能導(dǎo)致的道德風(fēng)險(xiǎn)的防治便意味著:在時(shí)間上,要求我們不僅對(duì)當(dāng)下利益負(fù)責(zé),更要對(duì)未來(lái)影響負(fù)責(zé),并強(qiáng)調(diào)對(duì)人類整體負(fù)責(zé);在空間上,要求我們不但對(duì)人負(fù)責(zé),還要對(duì)人工智能負(fù)責(zé);在責(zé)任主體方面,不僅對(duì)現(xiàn)在的人類負(fù)責(zé),更要對(duì)未來(lái)的人類負(fù)責(zé)。
隨著土地倫理理論、動(dòng)物權(quán)利理論等的相繼出現(xiàn),非人類中心主義理論越來(lái)越受到學(xué)者們的重視,但人類社會(huì)其實(shí)并不存在一種真正意義上的非人類主義理論。首先,我們無(wú)法真正站在人工智能體的立場(chǎng)去思考和行為,“子非魚(yú),焉知魚(yú)之樂(lè)”。斯克魯頓反對(duì)非人類中心主義,認(rèn)為一個(gè)合理的動(dòng)物倫理觀應(yīng)該建立在以人類為中心的等級(jí)制上[15]109。其次,非人類中心主義在某種意義上就是人類中心主義,它們殊途同歸,最終仍是為了人類的福祉和利益。避免傷害自然的唯一理由是為了避免傷害人類自身[16]4。利奧波德的土地倫理,也是基于這樣一種考慮:如果我們破壞了生態(tài)系統(tǒng),也就破壞了人類賴以生存的環(huán)境和系統(tǒng);要實(shí)現(xiàn)人和自然的和諧共存,就應(yīng)該確認(rèn)植物、動(dòng)物、水和土壤在一種自然狀態(tài)中持續(xù)存在的權(quán)利[8]。這其實(shí)仍然是以人類為中心的一種考慮。正如人與人之間的關(guān)系,如果一個(gè)個(gè)體過(guò)于注重自身利益而完全無(wú)視甚至損害他人的利益,他自身的個(gè)體利益最后可能也無(wú)法保證。
另外,非人類中心主義理論也有著自身的困境。利奧波德的土地倫理美譽(yù)度很高,被認(rèn)為“開(kāi)創(chuàng)了生態(tài)整體主義以及非人類中心主義環(huán)境倫理學(xué)”[17],但在“義務(wù)論方面,它沒(méi)有將人類價(jià)值放于優(yōu)先位置,導(dǎo)致當(dāng)出現(xiàn)多種義務(wù)時(shí)難于抉擇的困境”[17]。或許我們要盡力打破人類中心主義與非人類中心主義之間的二元對(duì)立,為實(shí)現(xiàn)全人類長(zhǎng)期福祉的最大化的政策提供強(qiáng)有力的倫理辯護(hù)?;诖耍说谩卮模≒eter Wenz)提出了環(huán)境協(xié)同論,認(rèn)為從長(zhǎng)遠(yuǎn)角度看,非人類中心主義和多元人類中心主義的思考是相互強(qiáng)化的[18],主張我們應(yīng)該把人類中心主義和非人類中心主義視為協(xié)同論的兩個(gè)方面。而站在協(xié)同治理的視角看,人類中心主義和非人類中心主義可以是倫理治理(“一體”)中的“兩面”。如果我們擁有一個(gè)適當(dāng)?shù)木氯祟愔行闹髁x,那么在實(shí)踐中人類中心主義與非人類中心主義將走向趨同[19]。