潘 靜,駱 軍
(蘇州科技大學(xué) 馬克思主義學(xué)院,江蘇 蘇州 215000)
“死神似乎無(wú)處不在。農(nóng)民講述著家人的疾病,城里的醫(yī)生對(duì)這種突如其來(lái)的疾病深感困惑和無(wú)奈?;疾〉娜藭?huì)突然、莫名其妙地死亡。后來(lái),不僅是成人,甚至小孩在玩耍時(shí)也會(huì)突然倒下,并在短短幾個(gè)小時(shí)后死去。整個(gè)村莊彌漫在一種奇怪的寂靜之中?!盵1]這是蕾切爾·卡遜(Rachel Carson)在《寂靜的春天》(SientSpring)開(kāi)篇中描述的場(chǎng)景。相似的場(chǎng)景再現(xiàn)于2019年底,肆虐全球的重大突發(fā)公共衛(wèi)生災(zāi)害事件——新型冠狀病毒肺炎(COVID-19)亦使人們陷入一片恐懼的寂靜之中,其來(lái)勢(shì)之洶涌、傳播之猛烈前所未見(jiàn)。人類(lèi)抵御災(zāi)難的能力與其所遭受災(zāi)難的困難程度,在歷史的推演進(jìn)化中此消彼長(zhǎng)、周而復(fù)始。反思?xì)v史可見(jiàn),在“無(wú)知”境遇下做出的道德抉擇尤為關(guān)鍵,其承擔(dān)的風(fēng)險(xiǎn)不亞于遠(yuǎn)在巴西的蝴蝶輕扇翅膀所引起的風(fēng)暴。
面對(duì)技術(shù)被人強(qiáng)化后,人為主導(dǎo)力量的人類(lèi)世(Anthropocene),傳統(tǒng)道德顯露出捉襟見(jiàn)肘的生存困境。在麥金太爾(Alasdair MacIntyre)所言的道德低落淪為災(zāi)難的當(dāng)代,如何使道德的應(yīng)有之義不落言筌,追尋美德復(fù)歸至亞里士多德時(shí)代的“好的生活”,這一倫理訴求是當(dāng)代倫理學(xué)為發(fā)揮實(shí)存道義不得不回答的問(wèn)題。人類(lèi)憂(yōu)慮技術(shù)應(yīng)用帶來(lái)的道德難題,但同樣道德難題應(yīng)當(dāng)且能夠使用技術(shù)來(lái)幫助解決。因此,訴諸人類(lèi)道德增強(qiáng)(moral enhancement)來(lái)提升道德認(rèn)知繼而優(yōu)化道德行為是20世紀(jì)以來(lái)倫理學(xué)家做出的積極探索。
從“生物醫(yī)學(xué)道德增強(qiáng)”(Biomedical Moral Enhancement,以下簡(jiǎn)稱(chēng)BME)到“人工智能道德增強(qiáng)”(AI Moral Enhancement,以下簡(jiǎn)稱(chēng)AIME),對(duì)于道德增強(qiáng)的方案學(xué)界各抒己見(jiàn),在探索與爭(zhēng)鳴中,必須厘清與思考的基本問(wèn)題是:(1)道德如何被增強(qiáng)?(可行性)(2)如果增強(qiáng)是何種意義上的增強(qiáng)?道德是何種意義上的道德?(現(xiàn)實(shí)性)(3)為解決“道德大問(wèn)題”而使用的道德工具(BME或AIME)是否存在產(chǎn)生新的“道德大問(wèn)題”的風(fēng)險(xiǎn)?(可能性)
綜合分析道德增強(qiáng)的實(shí)踐可行性、道德增強(qiáng)原則的現(xiàn)實(shí)性以及實(shí)踐道德增強(qiáng)技術(shù)的可能性,我們?cè)噲D提出一種人類(lèi)道德增強(qiáng)的倫理新進(jìn)路——?jiǎng)訖C(jī)同一的交互者。
傳統(tǒng)的西方倫理思想以人與人之間的道德關(guān)系為研究對(duì)象,倫理學(xué)(ethics)是對(duì)人類(lèi)道德生活進(jìn)行系統(tǒng)思考和研究的學(xué)科。[2]當(dāng)科學(xué)技術(shù)與生物醫(yī)學(xué)共同構(gòu)建起“好的生活”的多樣化愿景時(shí),BME便以道德客體的形式進(jìn)入了哲學(xué)研究。
英格瑪·佩爾松(Ingmar Persson)和朱里安·薩夫列斯庫(kù)(Julian Savulescu)是BME的支持者,他們認(rèn)為高技術(shù)時(shí)代產(chǎn)生的核武器、生化武器,尤其是占有武器的恐怖組織采取的恐怖行動(dòng)加劇了全球的不平等,再加上人類(lèi)的集體活動(dòng)讓生態(tài)環(huán)境遭到破壞、污染,由此引發(fā)了一系列問(wèn)題。在他們看來(lái),這些問(wèn)題在現(xiàn)代已經(jīng)是關(guān)系到人類(lèi)存亡的重大問(wèn)題,這些關(guān)于惡的“道德大問(wèn)題”(moral mega-problems)是由現(xiàn)代科學(xué)技術(shù)的發(fā)展和濫用造成的。[3]BME是佩爾松和薩夫列斯庫(kù)基于“道德大問(wèn)題”而提出的解決方案,簡(jiǎn)言之,BME相對(duì)于傳統(tǒng)道德能更加有效地制止由現(xiàn)代技術(shù)放大的人類(lèi)惡的行為。他們認(rèn)為,如果我們想要繼續(xù)生存在這個(gè)星球上,就必須要采取強(qiáng)制性的技術(shù)干預(yù),即強(qiáng)制道德生物增強(qiáng)(CMBE);托馬斯·道格拉斯(Thomas Douglas)從功利主義視角來(lái)論證了BME在道德上是應(yīng)當(dāng)?shù)?。戴維·德格拉齊亞(David DeGrazia)贊同道格拉斯的觀點(diǎn),認(rèn)為自愿實(shí)施這些技術(shù)干預(yù)在道德上是應(yīng)該的并且是被允許的,即自愿道德生物增強(qiáng)(VMBE)。
BME的可行途徑是通過(guò)藥物、非侵入性的腦刺激、基因修飾等生物醫(yī)學(xué)的方式來(lái)增強(qiáng)人類(lèi)的道德感,提升人類(lèi)的道德判斷能力。已經(jīng)有諸多實(shí)驗(yàn)可以驗(yàn)證道德與這些途徑存在一定程度的相關(guān)性。如:在“信任游戲”中,人體內(nèi)產(chǎn)生的后葉催產(chǎn)素(Oxytocin)水平的高低可以影響參與者之間的信任程度。[4]實(shí)驗(yàn)顯示,人類(lèi)反社會(huì)人格的形成與單胺氧化酶A(MAOA)活性的高低相關(guān),相較其他人而言,體內(nèi)MAOA活性較低的成年人,產(chǎn)生反社會(huì)情緒風(fēng)險(xiǎn)的可能性更高。[5]血清素(Serotonin)可以選擇性地影響人們?cè)诿鎸?duì)道德難題時(shí)所做的道德決定,從而提升其公平意識(shí),使其更傾向于選擇合作。在“電車(chē)難題”(trolley problem)的困境中,血清素能夠影響參與者的道德判斷能力。在“最后通牒博弈”游戲(ultimatum bargaining game)中,血清素增多也會(huì)提升游戲參與者對(duì)公平意識(shí)的重視,繼而能按照理性人的假設(shè),使方案得以公平通過(guò)。
盡管BME可能在三方面發(fā)揮效果:讓受試者更有同理心、減少暴力攻擊行為、提升道德反思能力。[6]但如果想從根本上改善受試者的道德動(dòng)機(jī),讓他的道德行動(dòng)趨向于更高的道德標(biāo)準(zhǔn),進(jìn)一步提升推理判斷能力,道德增強(qiáng)顯而易見(jiàn)地還面臨著諸多的挑戰(zhàn)。例如,道德增強(qiáng)是否意味著道德進(jìn)化?早在達(dá)爾文創(chuàng)造性地提出“進(jìn)化論”之前,古希臘哲學(xué)家對(duì)于生命的起源進(jìn)化就有了深切的哲學(xué)思考。泰勒斯(Thales)的水起源說(shuō)、阿那克西曼德(Anaximander)的“阿派朗”本原論、阿那克西米尼(Anaximenes)的氣本原說(shuō)等都在一定程度上啟示著人們對(duì)生物進(jìn)化演變的推測(cè)和思考。奧古斯丁(Saint Augustine)認(rèn)為,一切生命狀態(tài)的展開(kāi)都經(jīng)歷了漫長(zhǎng)的進(jìn)化歷程。現(xiàn)代學(xué)者胡安·恩里克斯(Juan Enriquez)提出,在未來(lái),人類(lèi)將不單單是如現(xiàn)在般的簡(jiǎn)單存在物,生物醫(yī)學(xué)增強(qiáng)技術(shù)(包括基因操作、組織再生技術(shù)等)將使人類(lèi)進(jìn)化成新物種,他稱(chēng)其為“進(jìn)化人”。技術(shù)可以干預(yù)人類(lèi)的進(jìn)化,使人接近成為完美的道德人,但同樣在這一過(guò)程中,技術(shù)的批量化實(shí)施,是否將人置于了同農(nóng)作物或者是牲畜般的被管制、被道德的地位。麥金泰爾認(rèn)為,美德的意義來(lái)自于實(shí)踐,[7]在這一意義上,技術(shù)的直接干預(yù)使美德的習(xí)得脫離了實(shí)踐的土壤,卓越品質(zhì)的形成缺失了道德獲得的過(guò)程體驗(yàn),具備了即得性。因此,生物醫(yī)學(xué)技術(shù)增強(qiáng)之后的普遍道德只能是無(wú)根之木,難以林林成森。再者,人的道德究竟是本具有的還是可制造的,人的自由意志如何得以彰顯,等等,[8]都是一些難以解釋的難題,就研究現(xiàn)狀而言,諸如此類(lèi)的問(wèn)題無(wú)論在何種立場(chǎng)上都很難獲得有效辯護(hù)。
經(jīng)過(guò)分析,我們可以看到,BME的風(fēng)險(xiǎn)較大,頗具爭(zhēng)議,而人工智能作為道德增強(qiáng)的另一條路徑進(jìn)入我們的視野。人工智能道德增強(qiáng)是通過(guò)“人工道德建議者(AMA)”“客觀”的道德表征能力與強(qiáng)大的信息獲取能力協(xié)助人類(lèi)提高道德認(rèn)知水平的道德增強(qiáng)方式。[9]在現(xiàn)階段,我們的討論主要圍繞“強(qiáng)”人工智能與“弱”人工智能展開(kāi)。
1.“徹底增強(qiáng)”指的是“強(qiáng)”人工智能視域下的道德增強(qiáng)技術(shù),這一技術(shù)旨在通過(guò)將人類(lèi)的道德決策權(quán)一勞永逸地交由人工智能道德決策機(jī)器來(lái)處理,以便解決存在于人類(lèi)社會(huì)中的一切道德選擇難題?!皬?qiáng)”人工智能發(fā)展進(jìn)化的終極目的是使人工智能機(jī)器成為完美的道德決策者。埃里克·迪特里希(Eric Dietrich)擁護(hù)“徹底增強(qiáng)”的人工智能技術(shù),對(duì)人工智能產(chǎn)品的未來(lái)應(yīng)用持樂(lè)觀的態(tài)度,他認(rèn)為人自身的道德本性根本而言是脆弱的,人工智能技術(shù)能夠促進(jìn)人類(lèi)的道德進(jìn)步,人類(lèi)所研發(fā)的道德機(jī)器甚至可以制造一輪風(fēng)暴似的“新哥白尼式革命”(Copernicus revolution)。他堅(jiān)持人工智能道德決策機(jī)器是“人類(lèi)本性中最好的天使”。[10]這一觀點(diǎn),并將這些“天使”視為“智人2.0”。就目前來(lái)看,甚至在將來(lái)的很長(zhǎng)一段時(shí)間,這些機(jī)器的認(rèn)知能力與道德判斷水平都是人類(lèi)自身難以企及的。道德決策機(jī)器使人類(lèi)將自身的決策權(quán)外放給人工智能的算法決策系統(tǒng),人類(lèi)可以借助不同的應(yīng)用模式做出不同的決策,甚至這些決策可以直接控制我們的行為,以致于我們不需要承受任何心理上的思慮和行為上的努力。例如,已有通過(guò)人機(jī)耦合的方式在我們的大腦中植入芯片的操作,道德決策機(jī)器通過(guò)直接或間接的方式指揮我們的道德行動(dòng)。[11]
然而,理想狀態(tài)的“強(qiáng)”人工智能也面臨諸多困境。(1)面對(duì)倫理學(xué)的多元主義,其理想原初狀態(tài)的道德規(guī)范以何為準(zhǔn)則是難以確定的問(wèn)題,即元倫理學(xué)一直爭(zhēng)論不休的難題,義務(wù)論、功利主義抑或德性倫理學(xué)等,我們很難就一種方案一致?lián)碜o(hù);(2)即便道德規(guī)范趨于統(tǒng)一,但在“強(qiáng)”人工智能進(jìn)行普遍決策的過(guò)程中,人類(lèi)自身德行和技能的習(xí)得過(guò)程逐漸喪失,扼殺了道德進(jìn)步的可能,使道德進(jìn)步陷入了固步自封的困境;(3)人工智能這一工具能否作為道德主體仍是我們尚未探索明晰的領(lǐng)域,完全將道德決策外包給“強(qiáng)”人工智能,道德主體所應(yīng)承擔(dān)的道德責(zé)任劃分亦是我們目前無(wú)法解決的難題;(4)即便人工智能道德決策機(jī)器可以作為道德主體,但做道德決策的過(guò)程,不止包含推理與判斷的程式化語(yǔ)言,自主的道德決策主體必定要保持自身的情感性,理性與情感都是道德主體做出道德決策時(shí)不可或缺的必要條件,系統(tǒng)化的道德判斷缺少了非理性的情感體驗(yàn)。為此,我們可以懷疑道德決策機(jī)器的道德判斷是否可能。
因此可以說(shuō),徹底增強(qiáng)很難作為道德增強(qiáng)較好的可行性方案。
2.“輔助增強(qiáng)”指的是“弱”人工智能視域下的道德增強(qiáng)技術(shù)。作為道德決策的輔助增強(qiáng)技術(shù),它將監(jiān)測(cè)影響主體做出道德推理和判斷的各類(lèi)因素,包括生理(體內(nèi)激素水平、情緒等)、環(huán)境(氣溫、人群等)諸方面的因素。根據(jù)這些因素,對(duì)其恰當(dāng)表達(dá),識(shí)別影響因素中的偏見(jiàn)成分并且讓決策者意識(shí)到偏見(jiàn)的存在,然后根據(jù)決策者的道德價(jià)值觀推薦適合的建議?!叭酢比斯ぶ悄堋拜o助增強(qiáng)”在輔助人類(lèi)選擇最為合適的道德決策方案時(shí),不僅可以保持道德本身所具有的價(jià)值多元性,還可以進(jìn)一步促使決策者深入反思,改善決策者道德推理判斷能力的不足,從而增強(qiáng)人類(lèi)的道德自主性。[12]
道德增強(qiáng)技術(shù)借助于AMA實(shí)現(xiàn),而對(duì)于AMA的編程有三種方式:(1)自上而下,道德原則被用做選擇行動(dòng)的規(guī)則,但其存在著很難為一切機(jī)器不斷更新的現(xiàn)實(shí)任務(wù)提供一般理論的問(wèn)題;(2)自下而上,尋求提供教育的環(huán)境,通過(guò)經(jīng)驗(yàn)學(xué)習(xí)選擇恰當(dāng)?shù)牡赖滦袨椋珯C(jī)器尚不清楚道德準(zhǔn)則如何適用于具體的場(chǎng)景;(3)混合,結(jié)合以上兩者。
摩爾(J.H. Moor)則將AMA的模式劃分為如下三類(lèi):(1)隱性的道德代理人(Implicit moral agents,簡(jiǎn)稱(chēng)IMA),無(wú)法區(qū)分道德行為和不道德行為;然而,它們的設(shè)計(jì)涉及安全或關(guān)鍵可靠性問(wèn)題,以用來(lái)避免不道德行為,如銀行轉(zhuǎn)移金錢(qián)的自動(dòng)柜員機(jī);(2)顯性的道德代理人(Explicit moral agents,簡(jiǎn)稱(chēng)EMA),可以將具體倫理原則應(yīng)用于具體情況,處理有關(guān)各種情況的倫理信息,并作出明確的道德判斷;(3)完全的道德代理人(Full moral agents,簡(jiǎn)稱(chēng)FMA),像人類(lèi)一樣的存在,擁有意識(shí)與自由意志。
在一定意義上,我們所希望實(shí)現(xiàn)的AIME是混合模式的EMA,已經(jīng)應(yīng)用到醫(yī)學(xué)倫理學(xué)領(lǐng)域的MeEthEx系統(tǒng)與此相近。該系統(tǒng)綜合了羅爾斯(John Rawls)關(guān)于正義的反思平衡理論(reflexive equilibri-um)、羅斯(William Ross)的顯見(jiàn)義務(wù)原則(prima facie duty)以及邊沁(Jeremy Bentham)的功利主義思想。[13]我們可以在羅德里克·弗斯(Roderick Firth)著名的理想觀察者(ideal observer, 簡(jiǎn)稱(chēng)IO)上寄予更高的厚望,他在《倫理絕對(duì)主義和理想的觀察者》一書(shū)中提出“理想觀察者”的設(shè)想,夏普(F.C.Sharp)也表達(dá)了對(duì)此觀點(diǎn)的支持和認(rèn)同。他們從理論上虛構(gòu)了一個(gè)理想化的角色,假定其擁有最全面的知識(shí)和全部的理性,并且能做出最正確的道德判斷。該模型的特征是:(1)對(duì)于非倫理事實(shí)無(wú)所不知(omniscient);(2)無(wú)所不感(omnipercipient),能通過(guò)視覺(jué)或想象等所有可能存在的方式認(rèn)知這些信息;(3)不受情感左右;(4)不偏不倚;(5)始終如一;(6)其他如常。全知全能的“理想觀察者”是絕對(duì)主義中的一個(gè)完美模型,為避免陷入道德專(zhuān)家主義的窠臼,應(yīng)嘗試從道德認(rèn)知的觀念視角出發(fā),構(gòu)建一個(gè)動(dòng)機(jī)同一的交互者來(lái)作為另一種方案。
借助IO的全知全能視角,簡(jiǎn)·德克爾(Jan Deckers)和朗西斯科·勞拉(Francisco Lara)基于人工智能的當(dāng)前進(jìn)展和未來(lái)發(fā)展趨勢(shì),構(gòu)想了一個(gè)合“理性”的蘇格拉底式的技術(shù)系統(tǒng),以輔助人類(lèi)做出合“理性”的道德決策。德克爾和勞拉對(duì)此系統(tǒng)規(guī)制了六項(xiàng)要求:(1)提供外在經(jīng)驗(yàn)支持;(2)提高道德概念的清晰度;(3)理解邏輯論證的整體結(jié)構(gòu);(4)檢驗(yàn)道德判斷是否符合實(shí)際現(xiàn)狀;(5)提高對(duì)自身局限的道德認(rèn)識(shí);(6)建議決策者如何執(zhí)行最佳的道德決定。
概而言之,該系統(tǒng)將通過(guò)計(jì)算機(jī)、虛擬現(xiàn)實(shí)設(shè)備或腦機(jī)接口(Brain-Computer Interface)技術(shù)等方式,從關(guān)于科學(xué)、語(yǔ)言學(xué)、邏輯學(xué)以及人們?nèi)绾嗡伎己屯评淼臄?shù)據(jù)庫(kù)中接收信息。此外,它還將從倫理專(zhuān)家、委員會(huì)收集信息,在傳感器的幫助下,它將監(jiān)測(cè)道德主體的周遭環(huán)境,然后交由系統(tǒng)處理所有這些信息,并遵循上述六項(xiàng)要求,通過(guò)虛擬語(yǔ)音助理(類(lèi)似于Discord bot maker一般的智能聊天機(jī)器人)與道德主體進(jìn)行對(duì)話(huà),其內(nèi)容指向包括:為什么做這個(gè)決定?你因?yàn)槭裁催@么想?還有其他原因嗎?你說(shuō)的這句話(huà)具體是什么意思?可以再詳細(xì)具體地表述一遍嗎?你是否知道你目前的身體狀況/環(huán)境不適合做出這個(gè)決定?[11]其過(guò)程類(lèi)似于蘇格拉底式的助產(chǎn)術(shù),智者循循善誘地展示道德決策可能產(chǎn)生的后果,并服務(wù)于道德決策主體,且不直接干預(yù)主體的道德決定權(quán),確保道德主體進(jìn)行了充分的道德考量后自行做出道德決策。
盡管蘇格拉底式的道德增強(qiáng)系統(tǒng)盡可能全面地考慮了做出道德決策的必要條件,但卻忽視了最為關(guān)鍵的道德動(dòng)機(jī)。只有少數(shù)合“理性”的康德主義者才能契合合“理性”的蘇格拉底式道德機(jī)器,而在休謨主義者看來(lái),作為大多數(shù)的普通人,道德動(dòng)機(jī)源自于人生而有之的自然欲望。當(dāng)代休謨主義者運(yùn)用目的原則來(lái)駁斥康德主義者的純粹理性作為道德動(dòng)機(jī)的觀點(diǎn),即假設(shè)人們有欲望A,并且認(rèn)為道德行為B的實(shí)施可以實(shí)現(xiàn)欲望A,那么人們就會(huì)擁有做行為B的道德動(dòng)機(jī)。
換言之,道德主體既然要產(chǎn)生實(shí)施道德行為的動(dòng)機(jī),其自身狀態(tài)必然要處于一種在主觀上被激發(fā)的情境,即要有與主體產(chǎn)生感性影響的情感刺激。唐納德·戴維森(Donald Davidson)從休謨主義者的理論基點(diǎn)出發(fā),創(chuàng)造性地對(duì)休謨式“信念(belief)—欲望(desire)”這一道德情境展開(kāi)描述:“無(wú)論何時(shí),只要某人出于欲望A實(shí)施了道德行為B,都能夠表述為:(1)某人對(duì)某類(lèi)特定道德行為具有認(rèn)同的態(tài)度(pro-attitude);(2)某人相信自己實(shí)施的道德行為B屬于那類(lèi)特定道德行為?!盵14]在此,(2)指的就是信念(belief),(1)是處于特定情境的心靈狀態(tài)(情感、道德原則、價(jià)值標(biāo)準(zhǔn)等)。由此可見(jiàn),要做出切實(shí)合理的道德判斷,(1)與(2)都有著不可或缺的重要作用。
休謨主義者反對(duì)康德主義者的傳統(tǒng)觀點(diǎn),認(rèn)為道德動(dòng)機(jī)是為了滿(mǎn)足“自然欲望”,并非是出于對(duì)實(shí)踐理性法則的服從。前者主張道德動(dòng)機(jī)是“信念”與“自然欲望”的合理結(jié)合,而后者則視行為背后的價(jià)值信念是激發(fā)道德動(dòng)機(jī)的實(shí)踐理性源泉。[15]而面對(duì)已有的“自然欲望”,蘇格拉底式道德機(jī)器是否能發(fā)揮其道德增強(qiáng)的功用仍未可知,為此,構(gòu)建動(dòng)機(jī)同一的交互者則是蘇格拉底式道德機(jī)器的未來(lái)“合理”性的優(yōu)化所在。例如,“嚴(yán)肅游戲(serious game)”作為尚未在道德領(lǐng)域普及開(kāi)的新型學(xué)習(xí)形式,其應(yīng)用或許有助于幫助道德主體習(xí)得趨于主體更高水平的道德動(dòng)機(jī),至少在醫(yī)療領(lǐng)域,從醫(yī)療決策支持系統(tǒng)(CDSS)到“嚴(yán)肅游戲”的發(fā)展,JDOC、GeriatriX等應(yīng)用已趨于成熟。
在科技昌明的時(shí)代背景下,科技正以迅猛的態(tài)勢(shì)乘時(shí)代之東風(fēng)高歌猛進(jìn),人類(lèi)無(wú)法回退到?jīng)]有高科技的時(shí)代。面對(duì)技術(shù)衍生出的一系列現(xiàn)代倫理問(wèn)題,我們必須要回歸到技術(shù)的本身去尋求倫理答案。人文道德的價(jià)值應(yīng)當(dāng)在與高技術(shù)融合前行的進(jìn)程中得以彰顯,倫理學(xué)甚至更需要以前瞻性的視角來(lái)規(guī)避技術(shù)發(fā)展可能帶來(lái)的問(wèn)題。毫無(wú)疑問(wèn),人工智能站在高技術(shù)的風(fēng)口滿(mǎn)足人類(lèi)的欲求,為人類(lèi)謀求福祉,人工智能道德增強(qiáng)則是在摒棄了傳統(tǒng)道德增強(qiáng)的理論基礎(chǔ)上,使欲求與德行相適應(yīng)發(fā)展的一條可能路徑。在這一進(jìn)路中,我們所倡導(dǎo)的和諧、民主、公正、誠(chéng)信、友善等價(jià)值動(dòng)機(jī)可借助動(dòng)機(jī)同一的交互者輔助實(shí)現(xiàn),盡管在技術(shù)與理論上存在著諸多困難,但我們可以預(yù)見(jiàn)的是,在不久的將來(lái),“向善”的道德機(jī)器必將在各方的共同努力下建成,進(jìn)而服務(wù)于人類(lèi)社會(huì),人機(jī)共生、和諧發(fā)展的未來(lái)圖景需要科技工作者與人文學(xué)者共同描繪,這一道德圖景亦將對(duì)我國(guó)新時(shí)代道德文化的發(fā)展建設(shè)大有助益。