經(jīng)過近幾年的討論,人工智能(Artificial Intelligence,簡稱AI)倫理,作為緊迫性全球?qū)嵺`議題和應(yīng)用倫理領(lǐng)域,大致形成了初步的基于全球共識的一些可行性建議。這是一個(gè)令人鼓舞的良好發(fā)展態(tài)勢。但是,應(yīng)該清醒地看到,人們關(guān)于AI倫理目標(biāo)以及方法問題的討論,仍然圍繞“倫理風(fēng)險(xiǎn)防范\"“AI向善造福人類\"這兩個(gè)不同方向,爭論不休、莫衷一是,未能取得實(shí)質(zhì)性進(jìn)展①。有些特別關(guān)鍵的方法問題,例如,通過動(dòng)物類比定義AI(“智能新物種”)道德地位的方法,也尚未引起足夠重視。筆者認(rèn)為,AI倫理基于人們對AI技術(shù)特性的認(rèn)知。不同的認(rèn)知導(dǎo)致了對AI倫理風(fēng)險(xiǎn)和AI向善意義的不同的甚至根本對立的判斷。為此,有必要透過對AI倫理目標(biāo)的“差異化發(fā)生”進(jìn)行梳理,澄清AI倫理的方法問題。
一、AI倫理目標(biāo)的差異化發(fā)生
2017年10月,在利雅得舉行的未來投資倡議會(huì)議上,沙特阿拉伯方面宣布授予機(jī)器人索菲婭(Sophia)“榮譽(yù)公民身份”。這一事件招致機(jī)器人學(xué)和AI領(lǐng)域多位頂級專家的反對。喬安娜·布賴森(JoannaBryson)指出,不能像對待人一樣地對待機(jī)器人或AI,因?yàn)椤皺C(jī)器人應(yīng)該成為奴隸”。她在接受采訪時(shí)說:“這件事究竟關(guān)乎什么呢?它關(guān)乎擁有一個(gè)你可以隨意開關(guān)的所謂平等者。如果人們認(rèn)為可以通過購買而獲得一個(gè)公民身份,那會(huì)對人們產(chǎn)生什么影響呢?”②如果將人性特征賦予給AI機(jī)器或機(jī)器人,不僅會(huì)導(dǎo)致“人的獨(dú)立性”的喪失,而且會(huì)導(dǎo)致資源和責(zé)任分配上的糟糕決策③
Facebook首席科學(xué)家楊立昆(Yann LeCun)稱“索菲婭”為“貨物崇拜式AI\"或“徒有其表的AI”。倫理學(xué)家諾埃爾·夏基(Noel Sharkey)反對媒體關(guān)于此類AI主題的炒作,認(rèn)為政府和決策者應(yīng)該以AI的現(xiàn)實(shí)為基礎(chǔ),而不是被AI宣傳術(shù)所誤導(dǎo)①。顯然,這些反對意見超出了對“索菲婭事件”本身的討論,而進(jìn)一步擴(kuò)展到對AI倫理目標(biāo)的全面審度。
AI倫理目標(biāo)涉及人與AI類人之間應(yīng)該如何互動(dòng)的問題,人類應(yīng)該如何對待不同的AI類人?AI類人應(yīng)該如何更好地為人類服務(wù)?與此相關(guān),有兩種確立AI倫理目標(biāo)的方法:一,基于人與AI的能動(dòng)型(types of agency)的不同②;二,基于人與AI的能動(dòng)型的類同。前者的重點(diǎn)在“人-際\"互動(dòng),后者的重點(diǎn)在“人-機(jī)\"互動(dòng)。兩種方法使得AI倫理目標(biāo)的“差異化\"得以發(fā)生。
以“索菲婭爭議”為例,AI倫理目標(biāo)分為三個(gè)問題域:第一,基于人與AI類人之“不同”,問題圍繞“人類在面對‘索菲婭’時(shí)應(yīng)當(dāng)如何正當(dāng)行動(dòng)”展開,它仍然屬于“人-際\"互動(dòng)的倫理問題,這一層次的AI倫理目標(biāo)旨在規(guī)范與AI有關(guān)的人類行動(dòng)者的行動(dòng);第二,基于人與AI類人之“類同”,問題圍繞“如何讓索菲婭表現(xiàn)得合乎人類道德”展開,它屬于“人-機(jī)”互動(dòng)的倫理問題,這一層次的AI倫理目標(biāo)旨在規(guī)范AI類人(行動(dòng)者)的行動(dòng);第三,將前兩個(gè)問題域重疊,即基于人與AI類人的既“不同”又“類同”的特性,問題圍繞“人-際”和“人-機(jī)”雙中心展開,這一層次的倫理目標(biāo)既涉及人類倫理規(guī)范又涉及機(jī)器道德規(guī)范,還涉及“涉人”規(guī)范和“涉AI”規(guī)范的協(xié)調(diào)適配(耦合)問題。
AI倫理目標(biāo)在上述三個(gè)不同的問題域中,呈現(xiàn)為一種“差異化發(fā)生”的問題關(guān)聯(lián)。而AI倫理目標(biāo)的“合理性偏差”,涉及三個(gè)基本要素:(1)人類的偏好問題。即人類總是基于不同道德前提看待AI發(fā)展,這使得基于“人-際\"努力(特別是通過“人類道德完善”和全球商談)解決棘手的AI倫理問題變得非常困難。不過,人類心智的不斷進(jìn)化足以支持這一倫理目標(biāo)。這顯然已經(jīng)成為一種攸關(guān)全球人類福祉的共同信念。(2)AI類人的“風(fēng)土因素”③和人的脆弱性問題。以自動(dòng)駕駛汽車為例,道路及駕駛的地方性風(fēng)尚、習(xí)俗和個(gè)人習(xí)慣,會(huì)使得AI類人的自動(dòng)駕駛系統(tǒng)在道德算法的置入問題上,要適應(yīng)人類地方和社區(qū)風(fēng)土的差異性,如個(gè)人情感、傳統(tǒng)習(xí)慣、歷史語境和地方性文化的影響。這使得人與AI或機(jī)器類人的交互性互動(dòng),要面對不可回避的人類脆弱性、依賴性的影響。(3)人與AI的協(xié)調(diào)適應(yīng)問題。對于“人-際”層面、“人-機(jī)”層面的道德改變而言,相互適應(yīng)性并不是一蹴而就的,它關(guān)涉合理的人類道德形態(tài)和AI倫理生態(tài)的構(gòu)建要面向復(fù)雜且反復(fù)的實(shí)踐性博弈:要么改造AI(讓其更適合人類特有的心智互動(dòng)),要么適應(yīng)AI帶來的改變。而問題的關(guān)鍵在于,在大多數(shù)情況下讓AI適應(yīng)人類是正確的選擇,但在有些情況下,我們主動(dòng)適應(yīng)AI的發(fā)展可能是最好的選擇。當(dāng)然,調(diào)整AI的社會(huì)和文化適應(yīng)性以構(gòu)建良好的“人-機(jī)”互動(dòng),并進(jìn)一步推動(dòng)“人-際”層面的道德進(jìn)步,應(yīng)該成為倫理上默認(rèn)的更好選擇。
上述問題域的討論,對于澄清AI倫理目標(biāo)而言,隱含著類比方法的引入。它通過規(guī)定明確的層次關(guān)系,能獲得關(guān)于AI倫理目標(biāo)的實(shí)踐性認(rèn)知前提。AI倫理目標(biāo)在類比層次上,可分為四種實(shí)踐性類比認(rèn)知:工具類比說、動(dòng)物類比說、奴仆類比說、人的類比說④。
“工具類比說”是指“AI應(yīng)該是工具性存在”。AI或機(jī)器人不論如何像人一樣認(rèn)知和行動(dòng),它本質(zhì)上是人類創(chuàng)造的一種服務(wù)于特定人類目的的“工具”,不可能具備自我意識和自由意志,充其量屬于“智能新工具”范疇。如果有人說,AI具備主體性或類人性,甚至渲染AI將完全取代和統(tǒng)治人類,這種說法實(shí)際上是出于一種AI宣傳術(shù)的需要。在這個(gè)意義上,AI倫理目標(biāo)的一個(gè)重要維度,是描述AI作為新工具的道德意義,特別是通過描述現(xiàn)實(shí)主義的AI工具化展現(xiàn),揭穿AI宣傳術(shù)幻覺。
“動(dòng)物類比說”是指“AI應(yīng)該是和動(dòng)物一樣的存在”。因此,可以“用動(dòng)物來思考機(jī)器人”①。這提供了一個(gè)看待AI倫理目標(biāo)的新視角:一方面,AI與其說是“人工智能”,不如說是“人工愚蠢”(硅基生命遠(yuǎn)不具備碳基生命的行動(dòng)靈敏性);另一方面,需要重新定義我們生活中出現(xiàn)的AI新力量,從對人類工作性質(zhì)的影響以及對許多人情感生活的關(guān)鍵作用看,AI類人和機(jī)器人像動(dòng)物一樣重要。在這個(gè)意義上,AI倫理目標(biāo)的另一個(gè)重要維度,是定義AI作為“智能新物種”的存在意義,特別是通過對AI作為類(動(dòng)物)物種功能的澄清,破除人們關(guān)于“機(jī)器會(huì)接管人類”的擔(dān)憂。
“奴仆類比說”是指“AI應(yīng)該是像仆人(奴隸)一樣的存在”。喬安娜·J·布賴森為這個(gè)論斷附加了一個(gè)三段論推理。大前提:在沒有任何人被非人化對待的前提下,有仆人的生活好過無仆人的生活。小前提:不是人的AI類人,可以是一個(gè)“仆人”。結(jié)論:“人擁有‘機(jī)器仆人'”的想法是對的,但“‘機(jī)器仆人'也是人”的想法是錯(cuò)的②。在此推論意義上,AI倫理目標(biāo)就有了一個(gè)重要維度,即展開AI作為“智能新仆人”的道德意義,從而為“倫理即服務(wù)”的功能性道德建構(gòu)開辟道路③。
“人的類比說”是指“AI應(yīng)該是像人一樣的存在”。AI類人以人為它所“類”的對象,盡管到目前為止呈現(xiàn)的最高級形態(tài)還只是一種“弱主體性”特征,但它關(guān)聯(lián)到人類的偏好、人的脆弱性和社會(huì)適應(yīng)性。因此,在一種類比的意義上,人類特性幾乎全部映射在我們創(chuàng)造的AI和機(jī)器類人的功能性目標(biāo)上。在這一意義上,AI倫理學(xué)在“人-際”“人-機(jī)”以及兩者重疊的問題域上,展開了“人類-類人”與倫理之間關(guān)聯(lián)性問題的綜合論域,從而為AI作為一種“智能新人”進(jìn)人人類社會(huì)和人類生活開辟道路。
綜上,AI倫理目標(biāo)的“差異化發(fā)生”,不論是在“問題域\"層次上的展開,還是在“類比”層次上的拓展,都既基于人們對實(shí)際AI及其產(chǎn)品的實(shí)踐性認(rèn)知,又源自不斷改變著或更新著的人們已有的認(rèn)知。它以人的道德進(jìn)步(完善)與機(jī)器倫理的耦合為目標(biāo)前沿,催生了機(jī)器人學(xué)(Robotics)、機(jī)器倫理學(xué)(Machine Ethics)、機(jī)器人倫理學(xué)(Robot Ethics)、計(jì)算道德理論(Computational Morality)和眾多4 AI+ ”分支學(xué)科或研究領(lǐng)域的出現(xiàn)。AI倫理目標(biāo)的合理性偏差,幾乎滲透到一切與AI相關(guān)聯(lián)的研究領(lǐng)域,一方面使“人-際”互動(dòng)層面的AI“弱主體性”④成為關(guān)注重點(diǎn),另一方面特別凸顯了“人-機(jī)”交互性層面上的“人工道德行動(dòng)者”(Artificial Moral Agents,簡稱AMAs)的社會(huì)文化意義。
二、目標(biāo)與方法的契合:主體性與人工道德行動(dòng)者
AI倫理目標(biāo)在AI的可代理功能、能動(dòng)性、行動(dòng)者特性和類人特性等方面與人類道德體系有很強(qiáng)關(guān)聯(lián)。實(shí)現(xiàn)AI倫理目標(biāo)的方法不能脫離人類道德體系的價(jià)值參照,又與人類道德體系的建構(gòu)本身有著本質(zhì)上的不同。因此,考察AI倫理目標(biāo)與方法之間的契合點(diǎn),必須探究AI主體性及其作為人工道德代理者的方法問題。AI倫理目標(biāo)與“主體性類型”和人工道德行動(dòng)者緊密相關(guān),上述四種類比(工具類比、動(dòng)物類比、仆人類比、人的類比)為分析AI倫理目標(biāo)和方法的契合提供了一個(gè)現(xiàn)實(shí)可感的“修辭運(yùn)用”。
(一)物化
用\"物化”一詞描述倫理目標(biāo),在修辭上會(huì)令人感到有些“異怪”。但是,當(dāng)人們思考如何才能把“道德”嵌入技術(shù)人工物之中去,“通過技術(shù)的設(shè)計(jì)、使用和廣泛布置,來使得人們按照道德的期許去行動(dòng)”③,這時(shí),就會(huì)產(chǎn)生一個(gè)我們在日常生活世界中能夠得到充分領(lǐng)會(huì)的“倫理目標(biāo)”。維貝克引用并討論了拉圖爾“汽車減速帶”例子 .(D ,認(rèn)為那里其實(shí)已經(jīng)內(nèi)嵌了一個(gè)安全規(guī)訓(xùn)的腳本。通過這些例子,可能會(huì)更直觀地了解漢斯·阿克特豪斯(Hans Achterhuis)提出的著名的“道德物化”概念。
按照荷蘭學(xué)派道德物化理論的邏輯思路,“物化”的倫理目標(biāo)在AI倫理的“工具類比”中可以更具優(yōu)勢。人類如何設(shè)計(jì)和使用AI才是合乎道德的?用“物化”的修辭回應(yīng)這一倫理目標(biāo),會(huì)產(chǎn)生兩種方法。
一是把問題加以轉(zhuǎn)化,即轉(zhuǎn)化為如何設(shè)計(jì)和使用能夠體現(xiàn)道德物化目的或“技術(shù)道德化”目的的智能機(jī)器,并使“機(jī)器\"附加上一個(gè)能夠?qū)崿F(xiàn)道德目的和倫理“合約化目的”的“好工具”。這一維度的AI倫理目標(biāo),是在“工具類比”的意義上探究如何讓AI講道德,它與以往人們理解的作為價(jià)值中立的工具觀不同,可以稱這一方法是可兼容規(guī)則驅(qū)動(dòng)和價(jià)值驅(qū)動(dòng)的一種新工具主義“強(qiáng)方法”②。
二是把問題加以拓展,即拓展為人類如何看待、使用和體驗(yàn)由技術(shù)道德化而來的道德機(jī)器。這一維度的方法又可區(qū)分為批判方法(即通過現(xiàn)象學(xué)批判、社會(huì)批判,特別是工具理性批判,說明AI作為智能機(jī)器對生活意義的影響)和建構(gòu)方法(即由技術(shù)的價(jià)值敏感性所導(dǎo)致的社會(huì)建構(gòu))。這一維度的AI倫理目標(biāo)是圍繞如何看待AI作為“新工具\(yùn)"這一主導(dǎo)性問題展開的,它受到人們關(guān)于現(xiàn)代技術(shù)本質(zhì)的技術(shù)觀的影響,可以稱這一方法是與影響評估和動(dòng)機(jī)生產(chǎn)相關(guān)聯(lián)的一種新工具主義“弱方法”。
“工具類比說”不論“強(qiáng)”“弱”,并不討論棘手的AI主體性問題,它只關(guān)心“將技術(shù)道德化”的工具性問題。它不再把AI看成是一種價(jià)值中立的工具。因而,和以往人們熟知的工具主義不同,它主張把AI視為一種可以“內(nèi)嵌價(jià)值”和“實(shí)現(xiàn)道德目的”的道德化工具,屬于新工具主義的范疇。目前人類對AI的日常實(shí)踐認(rèn)知,絕大多數(shù)是以AI作為可代理的工具性類比。因此,AI倫理目標(biāo)在常識層面由“人-物”二分的“工具方法”所驅(qū)動(dòng),它的實(shí)質(zhì)是確立AI可代理的“合規(guī)性”。
(二)動(dòng)物化
用“動(dòng)物化”一詞描述倫理目標(biāo),在修辭上與“工具類比”有著某種程度的重疊之處。我們在支配動(dòng)物和讓動(dòng)物為人類提供功能性服務(wù)方面,實(shí)際上蘊(yùn)含著把動(dòng)物當(dāng)作工具看待和使用。但是,“動(dòng)物類比”有其獨(dú)特的提問題方式。例如,動(dòng)物是否有道德地位?人對動(dòng)物是否有道德義務(wù)?人類擁有能力,能避免不必要的對動(dòng)物造成的傷害和最大限度地增進(jìn)動(dòng)物的福利,這不應(yīng)該成為人類對動(dòng)物的集體責(zé)任嗎?如何定義人類與其他動(dòng)物之間的友誼?此類問題,隨著環(huán)境倫理學(xué)關(guān)于人類對非人類生命的道德義務(wù)的討論,逐漸成為動(dòng)物解放論和動(dòng)物權(quán)利論的基礎(chǔ)性問題。
上述問題中,產(chǎn)生了諸如道德地位與道德權(quán)利、道德行動(dòng)者和道德承受者之類具有解釋力的概念。把AI與動(dòng)物做類比,將促進(jìn)人類認(rèn)識到人與這個(gè)充滿非凡的“智能生物(AI)”或“智能物種”之間的親緣關(guān)系,認(rèn)識到人類對它們負(fù)有真正的責(zé)任—因?yàn)槿祟惪梢远冶仨氉龅酶?。人類?yīng)該像對待動(dòng)物一樣對待AI嗎?應(yīng)該把道德關(guān)懷給予無生命的AI機(jī)器嗎?用“動(dòng)物化”的修辭回應(yīng)這一倫理目標(biāo),同樣會(huì)產(chǎn)生兩種方法。
一種是倫理學(xué)義務(wù)論方法。AI倫理目標(biāo)指向人類監(jiān)管的用意在于,從人類與動(dòng)物的歷史關(guān)系中能比較好地學(xué)會(huì)把一些AI和機(jī)器人視為工具和設(shè)備,而把其中另一些AI和機(jī)器人視為我們的伙伴③。這意味著,法律和倫理中關(guān)于人類對動(dòng)物的集體責(zé)任可以為AI倫理目標(biāo)提供指引。比如,我們擁有不虐待AI和機(jī)器人的義務(wù);對AI和機(jī)器人的責(zé)任出自我們對于人類的責(zé)任。一種康德義務(wù)論的辯護(hù),會(huì)把“人類應(yīng)該關(guān)心動(dòng)物”的論證,轉(zhuǎn)換成“人類應(yīng)該關(guān)心我們創(chuàng)造的‘AI新物種’”的論證。這涉及尊重AI的義務(wù)和不可逾越人和人類性的內(nèi)在要求。
另一種是倫理學(xué)后果論方法。視動(dòng)物是AI和機(jī)器人,提供了如何重構(gòu)AI和機(jī)器人技術(shù)的一個(gè)后果論的思想維度。這種動(dòng)物類比,可以幫助擺脫機(jī)器人即將取代人類的執(zhí)念 ,使我們能夠以一種不屈服于道德恐懼或強(qiáng)決定論敘事的方式來思考如何讓AI和機(jī)器人更好地服務(wù)于人類,最大化人類福祉。
從能動(dòng)性層次看,動(dòng)物和智能機(jī)器分別屬于兩種類型的物種:動(dòng)物是碳基自然物種,AI和機(jī)器人是硅基智能新物種。因此,“動(dòng)物類比說”遭遇的最大挑戰(zhàn)是:到目前為止,AI和機(jī)器人許多方面是作為生物生命體的動(dòng)物不可類比的。歐洲中世紀(jì)的宗教法庭審判動(dòng)物,宣布老鼠傳播瘟疫的罪行,今天看來似乎非?;恼Q,但在當(dāng)時(shí)的人們看來,(從神的立場出發(fā))老鼠是“眾靈之一”,它的罪行理應(yīng)受到審判。如果由此思考審判AI或機(jī)器人并追究其責(zé)任的可能性,就顯得更加荒誕了?!皠?dòng)物類比\"盡管面臨挑戰(zhàn),但它提供了一種新的規(guī)范倫理學(xué)(義務(wù)論與后果論)方法以回應(yīng)人類對“AI新力量”的應(yīng)對。
(三)仆人化
用“仆人化”一詞描述倫理目標(biāo),在修辭上回到了AI和機(jī)器人的語義本源,特別是“機(jī)器人”(ro-bot)一詞的原初含義。奴仆類比的關(guān)鍵在于,擁有“部分自主決策權(quán)”或“弱主體決策權(quán)”的“奴仆”,在法律上可能會(huì)被定義為“人可非人”的客體,因而,不能擁有獨(dú)立的權(quán)利和責(zé)任。人類現(xiàn)有的倫理和法律并不支持將權(quán)利和責(zé)任賦予無生命之物(包括無生命的智能機(jī)器)。但是,當(dāng)AI和機(jī)器人有部分的自我意識,能夠自主地做出道德決策,那么,AI作為人工道德行動(dòng)者是否應(yīng)該擁有權(quán)利和責(zé)任?人類主體可以像購買、擁有、使用、轉(zhuǎn)讓奴隸一樣,處置他們的AI產(chǎn)品和服務(wù)嗎?此類問題引發(fā)了科學(xué)家、社會(huì)學(xué)家和哲學(xué)家的廣泛討論和爭議。
“仆人化”的倫理目標(biāo)可歸結(jié)為“倫理即服務(wù)”的基本定位。它通過“主-奴\"類比AI的“弱主體性”,旨在將主人道德(人類倫理原則)轉(zhuǎn)譯為“以AI為奴”的具體服務(wù),以“數(shù)字化服務(wù)工具”(將倫理嵌入AI產(chǎn)品與服務(wù)的全生命周期)展現(xiàn)可信AI產(chǎn)品和服務(wù)。它的積極方面是利于推動(dòng)AI倫理的實(shí)踐和落地。然而,由于仆人類比面臨倫理標(biāo)準(zhǔn)的抽象性、不確定性和多樣性限制,將倫理轉(zhuǎn)化為服務(wù)工具(涵蓋了透明、公平、責(zé)任、隱私、信任、安全等)會(huì)受到不同國家的文化、風(fēng)俗、習(xí)慣的影響,這導(dǎo)致AI倫理從概念轉(zhuǎn)化為實(shí)踐存在著較大的理論難題。如果“倫理即服務(wù)”的信念是一種“仆人化”的倫理信念,那么,它在底層架構(gòu)上面臨根本詰難:“機(jī)器人應(yīng)該為奴”嗎?“人類創(chuàng)造AI是否隱蔽地支持新奴隸制”?用\"仆人化”的修辭回應(yīng)這一倫理目標(biāo),會(huì)產(chǎn)生三個(gè)層次的方法問題。
第一,倫理工具論層次上的方法問題。通常有兩種實(shí)現(xiàn)“仆人化”的倫理工具論方法進(jìn)路:一是“自上而下的進(jìn)路”,指的是將支配人們正當(dāng)行動(dòng)的道德規(guī)則和倫理指令(既適用于義務(wù)論,又適用于后果論或功利論)嵌人AI或機(jī)器人,從而通過AI倫理工具創(chuàng)造聽命于人類主體道德命令的作為“弱主體性”的道德機(jī)器或人工道德行動(dòng)者;二是“自下而上的進(jìn)路”,是指遵循機(jī)器學(xué)習(xí)和大模型訓(xùn)練(通過模擬訓(xùn)練)讓AI和機(jī)器人自主學(xué)會(huì)面對特定道德情景并做出合適響應(yīng)。
第二,機(jī)器人學(xué)層次的方法問題。一個(gè)無情感的AI和機(jī)器人能夠成為人類的仆人嗎?這是機(jī)器人學(xué)的一個(gè)棘手的難題。如果把機(jī)器決策理解為“弱主體決策”,那么生成式AI基于數(shù)據(jù)訓(xùn)練而產(chǎn)生的意向性,更像是一種“主-仆\"框架下的意向性。機(jī)器人學(xué)面臨機(jī)器意向性和人的意向性的類比問題。從進(jìn)化心理學(xué)的角度看,人類主體的獨(dú)特性在于其意向性認(rèn)知系統(tǒng)是一種“商議系統(tǒng)”,“弱主體決策”在不開啟這種“商議系統(tǒng)”的意義上就是一種以服務(wù)或服從為主的“仆人化”的決策。
第三,政治哲學(xué)層次的方法問題。分為人類中心論和機(jī)器人權(quán)利論等主張。這一層面的方法與機(jī)器人學(xué)存在高度的重疊。比如說,很多機(jī)器人學(xué)家預(yù)測,AI和機(jī)器人可能會(huì)有情感,它們也需要得到保護(hù),會(huì)形成自身利益的觀念。有人主張,必須盡快制訂“機(jī)器人權(quán)利法案”,因?yàn)槿祟愋枰獙ψ约貉邪l(fā)的AI和機(jī)器人的權(quán)利進(jìn)行辯護(hù),以免日益滋長起來的新奴隸制價(jià)值圖式和世界圖景重新占據(jù)支配地位,人類可能會(huì)因此重新回到野蠻時(shí)代。這一層次的討論,會(huì)產(chǎn)生一種基于自由主義、社群主義、平等主義、女性主義、儒家人文主義、馬克思主義等政治哲學(xué)方法論基礎(chǔ)上的關(guān)于機(jī)器人權(quán)利問題和新奴隸制問題的批判性思考。
與人類倫理相比,AI在行動(dòng)者層面更多考慮“仆人類比”。AI倫理目標(biāo)在社會(huì)世界層面由“主一奴\"辯證法所驅(qū)動(dòng),它的實(shí)質(zhì)是確立AI行動(dòng)者的“合意性”。這種合意性暴露了人類對智能機(jī)器服務(wù)的“他性”定位:人類從自身存在的高貴化出發(fā)忽視并排斥AI和機(jī)器人的權(quán)利。這是否意味著一種“既要—又要—還要\"的矛盾糾結(jié)——我們既要AI像仆人一樣服務(wù)于人類,又要AI的“弱主體”決策權(quán)在自主性范圍內(nèi)不剝奪人類的商議性決策權(quán),還要通過AI政治保持關(guān)于古老的等級觀點(diǎn)和奴隸價(jià)值學(xué)的幻想,并試圖在智能時(shí)代延續(xù)其合法化統(tǒng)治。
(四)類人化
用\"類人化”一詞描述倫理目標(biāo),在修辭上著眼于道德人格的AI生成、道德能動(dòng)性的人格化和人類化模擬。AI類人和機(jī)器類人作為人工道德行動(dòng)者以“人”為“類”,因而,在“人的類比”中將工具類比、動(dòng)物類比、仆人類比予以綜合,并展現(xiàn)一個(gè)超越性類人化的維度。這一趨勢,在生成式AI的迭代升級中已初步顯露,而在即將到來的通用AI(AGI)和超級AI中將會(huì)成為與人類價(jià)值對齊的道德主體。從倫理和價(jià)值的視角看,人類總是依據(jù)一系列概念框架和觀念預(yù)設(shè)而生活。很多時(shí)候我們并不總是能夠看得清楚這些框架和預(yù)設(shè)——但是,它們真實(shí)地存在并塑造了人類看待世界和理解自我的特有方式。這些概念邏輯網(wǎng)絡(luò)及其架構(gòu)在類人化的AI和機(jī)器人的能動(dòng)性框架中,以同樣的方式存在、生成并發(fā)揮作用。隨著生物與機(jī)械的整合,碳基生命與硅基生命的會(huì)聚將最大限度地拓展AI類人化的極限,人類與AI類人的界限因此會(huì)變得模糊。特別是仿生機(jī)器人技術(shù)、“腦機(jī)接口技術(shù)”與AI的融合,會(huì)推動(dòng)AI類人的發(fā)展,有可能會(huì)開創(chuàng)一個(gè)AI-For的新軸心時(shí)代。AI和機(jī)器人會(huì)成為自主責(zé)任主體的道德行動(dòng)者。我們會(huì)面臨一個(gè)重大的倫理目標(biāo)上的抉擇:AI類人和機(jī)器類人應(yīng)該被納入人類社區(qū)的成員嗎?應(yīng)該將它們視為人類的道德朋友嗎(或者是道德陌生人)?從制造技術(shù)而非生物學(xué)角度說,我們是否會(huì)否認(rèn)機(jī)器人成為人類子女后代的權(quán)利?
“人的類比”是一個(gè)綜合性類比。人的自我認(rèn)識既可以在工具層面或動(dòng)物層面展開,也可以在“仆人”層面或“人類性”的層面展開。哲學(xué)意義上“人是目的”的論斷并不排斥社會(huì)生活意義上“人是工具(手段)\"的權(quán)衡。因此,由“人的類比”所展開的AI類人化的倫理目標(biāo)與“學(xué)做人”(學(xué)以成人)的哲學(xué)論域存在一致性。用“類人化”的修辭回應(yīng)AI“學(xué)做人”的倫理目標(biāo),會(huì)產(chǎn)生以下四個(gè)層面的方法進(jìn)路問題:
其一,人機(jī)交互的方法進(jìn)路。人機(jī)交互性是以破除“人機(jī)相分”“人物相分”的道德景觀為前提的。這是一種將世界圖景的框架重構(gòu)于“人機(jī)融合”“人機(jī)交互”基礎(chǔ)上的偉大的解放運(yùn)動(dòng),也是由人和AI的互動(dòng)共同展現(xiàn)的一種讓人類處于開放狀態(tài)的倫理世界觀和文明觀的建構(gòu)。雖然目前人機(jī)交互的方法還只是一種初步的邏輯框架,但那些創(chuàng)造AI類人或機(jī)器類人的科學(xué)家在討論哲學(xué)的時(shí)候,應(yīng)該是比較深刻地理解AI類人化的哲學(xué)意義和人機(jī)交互的方法論意義。人機(jī)交互的方法進(jìn)路,使得類人化獲得并展開了一個(gè)開放性架構(gòu)的倫理工程學(xué)的“智能新工具”。
其二,心智哲學(xué)和認(rèn)知主義方法進(jìn)路。AI類人化的倫理目標(biāo)擴(kuò)展了智能的新概念。人類智能不是唯一的智能形式,它只是眾多智能中的一個(gè)。AI亦如此。心智哲學(xué)和認(rèn)知主義方法進(jìn)路,并不關(guān)心AI是否會(huì)比人更聰明,它關(guān)心的重點(diǎn)是:人工道德行動(dòng)者是否類似多樣化的“智能新物種”?因此,不同的智能是否可以形成一種互補(bǔ)的甚至是共同進(jìn)化的心智形態(tài)?例如,AI可以在微觀和宏觀層面上運(yùn)作,從發(fā)現(xiàn)蛋白質(zhì)如何折疊,到了解整個(gè)地球系統(tǒng),都展現(xiàn)超人類的邏輯理解能力,但是,這并不表明它在幫助人類個(gè)體如何過一種有意義的生活方面能夠替代或超越人類的心智能力。盡管如此,不可否認(rèn),一種心智哲學(xué)的方法進(jìn)路需要探究:AI如何與人類心智形成共鳴并讓我們超越自我、獲得自由?
其三,作為中介視角的“奇點(diǎn)主義”的方法進(jìn)路。AI類人化的倫理目標(biāo)催生了奇點(diǎn)主義的世界圖景。雷·庫茲韋爾在《奇點(diǎn)更近》中將“類人化”以一種“新皮質(zhì)類比”的方式進(jìn)行了詮釋。他把
AI深度學(xué)習(xí)描繪為“新皮質(zhì)魔力的數(shù)字化再現(xiàn)”①,它是擴(kuò)展大腦新皮質(zhì)到云端的“中介”;它打破了人與機(jī)器、生物與非生物的區(qū)別,是將我們的智能以“指數(shù)級算力”(人類思維能力將擴(kuò)展數(shù)百萬倍)延展到整個(gè)宇宙??梢杂梦锢韺W(xué)中的“奇點(diǎn)”來隱喻AI類人化的未來。因此,“奇點(diǎn)主義”方法進(jìn)路是從AI的中介性角度,重新定義創(chuàng)造力和語言的本質(zhì),并由此帶來了對人的概念的重塑或再造。
其四,作為人類史視角的“生存論哲學(xué)”的方法進(jìn)路。從人類史視角看,如同書面語言第一次出現(xiàn)時(shí)催生了哲學(xué)、倫理體系,AI類人化在催生新文明方面將會(huì)發(fā)揮類似的作用?!邦惾嘶笔辜夹g(shù)統(tǒng)治進(jìn)展到“超人類生存”或“后人類生存”的問題視域。生成式AI已經(jīng)打破了以人類為中心的智能概念,AI類人擁有了新生的本真感。我們需要在面對“智能新人”同伴或后代時(shí)思考存在的意義,需要從AI類人關(guān)于如何“活”的感受(或內(nèi)在體驗(yàn))中去尋找共鳴。在這個(gè)意義上,說“AI是一項(xiàng)哲學(xué)事件”②,就需要從“生存論層次”展開AI類人化的本原倫理批判。
三、在一個(gè)包容的治理框架中定位方法:關(guān)于方法問題的三個(gè)建議
從AI倫理目標(biāo)出發(fā)探問方法問題,內(nèi)含一個(gè)重要的擔(dān)憂——它更傾向于去開啟對AI倫理風(fēng)險(xiǎn)防范問題的重點(diǎn)關(guān)注。當(dāng)我們說要讓AI革命普惠所有人時(shí),其實(shí)強(qiáng)調(diào)的是一種憂思,即AI革命必須以有效防范倫理風(fēng)險(xiǎn)為前提。面對倫理目標(biāo)的差異化發(fā)生,需要在一個(gè)集體的、包容的治理框架下定位方法問題。它包括“預(yù)防性框架優(yōu)先的方案”“政治商談架構(gòu)的方案”和“倫理工具創(chuàng)新的方案”三個(gè)建議。
第一個(gè)建議:“預(yù)防性方案優(yōu)先”的建議。
在一個(gè)集體的、包容的治理框架下,擺在第一位的方法問題,應(yīng)該是在倫理目標(biāo)的“差異化發(fā)生”中明確“最為優(yōu)先的選項(xiàng)”。相對于“建設(shè)性方案”可能陷入的非包容性治理困境而言,建議將“預(yù)防性方案”放在最為優(yōu)先選項(xiàng)的位置。
倫理方法離不開倫理目標(biāo)。目標(biāo)總是對“路線圖”和方法選擇起決定作用。類似于GPS和北斗導(dǎo)航的指引,它最終決定AI倫理風(fēng)險(xiǎn)防范和AI向善造福人類的基礎(chǔ)框架和實(shí)踐方案。關(guān)于AI倫理目標(biāo)的觀點(diǎn)分歧主要在于:人們所說的AI倫理目標(biāo),到底應(yīng)該是一種預(yù)防性目標(biāo)(以預(yù)防性目標(biāo)為主)還是一種建設(shè)性目標(biāo)(以建設(shè)性目標(biāo)為主)?預(yù)防性目標(biāo)重點(diǎn)在于回答AI不應(yīng)該做什么,以及我們不應(yīng)該讓AI做什么。它內(nèi)含將“不應(yīng)該做\"強(qiáng)化為“不可做”或“不能做”的倫理目標(biāo),以規(guī)避AI倫理風(fēng)險(xiǎn)。建設(shè)性目標(biāo)重點(diǎn)在于回答:AI應(yīng)該做什么,或者,我們應(yīng)該讓AI做什么。它內(nèi)含將“應(yīng)該做”弱化為“可以做”或“能做”的倫理目標(biāo),以達(dá)到造福人類的AI向善目的。預(yù)防性目標(biāo)決定了“以預(yù)防性方案為主”的方法進(jìn)路,它強(qiáng)調(diào)將預(yù)防性方案放在第一優(yōu)先選項(xiàng)的位置,它有可能導(dǎo)致對某些重大建設(shè)性議題的排除。同樣,建設(shè)性目標(biāo)決定了以“建設(shè)性方案為主”的方法進(jìn)路,它有可能導(dǎo)致對一些重大預(yù)防性目標(biāo)的忽視。
有鑒于世界各國都將人類福祉原則視為第一原則,而各國關(guān)于福祉的理解又各不相同,因此,當(dāng)面對“應(yīng)該讓AI做什么”難于達(dá)成一致的現(xiàn)實(shí)時(shí),人類福祉的實(shí)現(xiàn)便與通常的情況大為不同。通常情況下,“福祉的實(shí)現(xiàn)主要源于努力而非限制”③。但在AI倫理討論中,由于“讓AI向善造福人類的努力”遭遇“共識坍塌”的危機(jī)而有可能會(huì)危及人類生存及尊嚴(yán),情況可能正好相反,即福祉的內(nèi)涵應(yīng)該更多地強(qiáng)調(diào)以預(yù)防性方案(倫理風(fēng)險(xiǎn)防范與規(guī)避)為主,而審慎對待建設(shè)性方案。也就是說,在“AI應(yīng)該做什么”的建設(shè)性努力中,各國或各利益方“各行其是”,且各自爭取自身利益最大化,最后會(huì)導(dǎo)致一種“非包容性框架”的野蠻生長。為了防止這一方案可能導(dǎo)致“最壞道德圖景”,我們應(yīng)該將 AI倫理的優(yōu)先項(xiàng)放在“AI不應(yīng)該做什么”的預(yù)防性事項(xiàng)上。這并不意味著對\"讓AI造福人類”的建設(shè)性目標(biāo)的排除,而是通過過濾風(fēng)險(xiǎn)以便能夠更好地達(dá)成“建設(shè)性目標(biāo)”。
第二個(gè)建議:“政治商談方案架構(gòu)”的建議。
AI倫理目標(biāo)本身有很強(qiáng)的政治蘊(yùn)涵,關(guān)注AI倫理風(fēng)險(xiǎn)防范需要組織構(gòu)建新的全球政治商談方案,該方案應(yīng)該以安全底線、影響評估和治理責(zé)任的對話商談為基礎(chǔ)架構(gòu)。
AI倫理方法與目標(biāo)之間的契合,繞不開政治議題。AI領(lǐng)域的創(chuàng)新部署速度極為迅速,對行業(yè)和區(qū)域經(jīng)濟(jì)的影響和沖擊非常大。特別是在當(dāng)前全球競爭背景下,世界各國希望推動(dòng)開放、包容的AI發(fā)展格局,以應(yīng)對全球AI發(fā)展與安全、監(jiān)管與自由、權(quán)利與責(zé)任的棘手難題。AI模型帶來的選擇,給人們生活、工作、學(xué)習(xí)和交往帶來廣泛深遠(yuǎn)影響,對金融、醫(yī)療、教育、安全等領(lǐng)域的機(jī)會(huì)平等產(chǎn)生了重要影響。這些選擇關(guān)乎全人類的集體理性、集體責(zé)任和整體福祉,尤其需要以人類命運(yùn)共同體理念為指導(dǎo)尋求AI發(fā)展的全球合作和包容性治理,以凝聚人類共同的決心、勇氣和努力。這需要以一種充滿智慧的政治商談方案來推動(dòng)全球AI的發(fā)展,讓AI倫理目標(biāo)的實(shí)現(xiàn)成為推動(dòng)社會(huì)經(jīng)濟(jì)進(jìn)步和人類共同繁榮的重要力量。因此,人類社會(huì)必須始終將控制權(quán)掌握在人類自己的手中。AI倫理方法作為政治商談方案的基礎(chǔ)性架構(gòu)圍繞三個(gè)議題展開:如何守住AI安全倫理底線,如何正確看待AI倫理影響評估,如何有效落實(shí)AI治理責(zé)任。
AI倫理風(fēng)險(xiǎn)主要指技術(shù)失控風(fēng)險(xiǎn)和技術(shù)之用(誤用或?yàn)E用)風(fēng)險(xiǎn)?!笆刈I安全倫理底線”作為一條預(yù)防性原則,既要防范AI失控帶來的風(fēng)險(xiǎn),又要防范人類對AI之用(誤用或?yàn)E用)帶來的風(fēng)險(xiǎn)。AI倫理影響評估是確保安全底線的具體方法。它的第一條就是安全性評估,包括AI是否會(huì)完全取代人、奴役人(將人變成物化的工具、寵物和奴隸)的評估,也包括對AI之用的評估,涉及數(shù)據(jù)安全、隱私、公平性、可解釋性和偏見(人類偏見和算法偏見)等。安全底線和倫理影響評估作為“全球AI倫理治理工具”,必須具備通用性,必須通過一種全球政治商談(對話)的架構(gòu),發(fā)揮其作為倫理方法的功能。這為AI治理責(zé)任的落實(shí)尋找到一套可操作的商談程序,為AI治理的法律進(jìn)路預(yù)備道路。
基于上述考慮,我們認(rèn)為全球框架的政治商談不能缺少科技審度觀的政治智慧的參與。因此,通過馬克思主義技術(shù)倫理批判的實(shí)踐審度①(尤其是進(jìn)一步拓展馬克思技術(shù)物化理論資源),參與全球AI倫理風(fēng)險(xiǎn)防范的商談和對話,對于構(gòu)建AI全球政治商談的價(jià)值觀基礎(chǔ),至為關(guān)鍵。人類作為責(zé)任主體不能放棄自己的集體責(zé)任??鐕萍季揞^,行業(yè)頂流科學(xué)家,有影響力的卓越政治家和新潮 AI產(chǎn)品的用戶,單獨(dú)任何一方或者一國,都不能獨(dú)立成為AI治理的責(zé)任主體。在這個(gè)意義上,只有通過全球政治商談方案的架構(gòu),讓人類聯(lián)合成為一個(gè)整體,共同尋找AI安全問題、影響評估問題和治理責(zé)任落實(shí)問題的解決之道,才是一種符合全人類共同價(jià)值的倫理方法所要求的。
第三個(gè)建議:“倫理工具創(chuàng)新”的建議。
AI倫理體系架構(gòu)的核心是道義創(chuàng)新,它要求AI倫理工具創(chuàng)新在“智能新工具”“智能新物種”“智能仆人”和“智能新人”的諸種倫理目標(biāo)框架中堅(jiān)持道義創(chuàng)新的絕對優(yōu)先性。
AI倫理目標(biāo)源于人類的工具性需要。然而,當(dāng)AI“分有”了人的一部分核心能力并將其發(fā)揮到新高度時(shí),它就不再是傳統(tǒng)意義上的工具,而是作為人工道德行動(dòng)者意義上的“智能新工具”。它化身為“智能新物種”和“智能仆人”,甚至化身為類人化的人工道德行動(dòng)者,展開了與人類互動(dòng)的社會(huì)性維度。AI倫理工具創(chuàng)新的本質(zhì)就是創(chuàng)造道德機(jī)器,一般分為兩種方法:一是作為道義創(chuàng)新的AI和機(jī)器人倫理;二是作為美德創(chuàng)新的AI和機(jī)器人倫理。它們構(gòu)成了AI倫理方法的最為常見的方法進(jìn)路②。當(dāng)AI被拋入一種“智能新工具”“智能新物種”“智能仆人”的“倫理場域”中,不僅作為人工行動(dòng)者的機(jī)器要受到AI倫理的規(guī)定,這片“場域”本身也深刻地受到了AI規(guī)范性框架的重構(gòu)。因此,當(dāng)人類開始創(chuàng)造道德機(jī)器時(shí),這種復(fù)雜的相互作用就帶來了“倫理工具”的推陳出新。
倫理工具創(chuàng)新是指創(chuàng)造“人工道德行動(dòng)者”(AMAs)。根據(jù)AMAs道德責(zé)任的驅(qū)動(dòng)類型不同,分為規(guī)則驅(qū)動(dòng)的“外顯道德行動(dòng)者”和數(shù)據(jù)驅(qū)動(dòng)的“完全道德行動(dòng)者”。目前,“完全道德行動(dòng)者”引發(fā)廣泛興趣,因?yàn)檫@個(gè)層面上的研究已經(jīng)牽涉到對新興認(rèn)知科學(xué)或AI科學(xué)與傳統(tǒng)倫理學(xué)之間關(guān)系的整體性考察。“人-物”關(guān)系、“人-機(jī)”關(guān)系、“人-AI”關(guān)系、“人與人”關(guān)系都將圍繞人工道德行動(dòng)者這一“AI倫理工具”而被重新定義。
AI倫理工具創(chuàng)新圍繞“能動(dòng)性\"(Agency)和“尊重”展開。道德機(jī)器或AMAs分為兩大方法進(jìn)路:一是美德機(jī)器進(jìn)路;二是道義機(jī)器進(jìn)路。前者構(gòu)成了美德倫理工具創(chuàng)新,其核心是“能動(dòng)性”,遵循的基本原則是將“善優(yōu)先于正當(dāng)”的原則寫人AMAs道德算法,并創(chuàng)制倫理工具。后者構(gòu)成了道義倫理工具創(chuàng)新,其核心是“尊重”,它遵循的基本原則是將“正當(dāng)優(yōu)先于善”的原則寫人AMAs道德算法。美德工具創(chuàng)新從其兼容后果論的維度上,除了提升AI能動(dòng)性和自主性的品質(zhì)外,它也關(guān)注AI向善、造福人類的價(jià)值對齊。道義工具創(chuàng)新以涵蓋明晰、普適的權(quán)利和義務(wù)為主,如機(jī)器人 ΔNAO(1) 。從其未來展現(xiàn)的兼容美德進(jìn)路的可能看,混合進(jìn)路的AMAs必須堅(jiān)持以道義論倫理工具創(chuàng)新為絕對優(yōu)先性。因?yàn)槿魏涡问降腁I倫理工具創(chuàng)新,都必須以承諾全人類視野中具有絕對命令功能的普遍道義訴求為前提。
四、結(jié)語
從自動(dòng)駕駛汽車“蘿卜快跑”上路,到DeepSeek大模型進(jìn)入“尋常百姓家”,可以看到:那些以往通常為人類所執(zhí)行的任務(wù),現(xiàn)在正在被AI所代理。因此,這里首先遇到的,似乎是一個(gè)不言而喻的關(guān)于人類心智與AI之間在主體性和行動(dòng)者層面的可代理關(guān)系。
我們回到最初出發(fā)的AI語義的“元點(diǎn)”。AI主體性作為Agent,也可以直譯為“代理者”,而更多的時(shí)候它會(huì)被翻譯為“類人”“能動(dòng)者”“行動(dòng)者”。這些中文詞可以在同等詞義層面使用。這是一個(gè)非常奇妙且耐人尋味的語義現(xiàn)象。我們可以用描述人類駕駛員的方式描述“蘿卜快跑”,也可以用同人類助手工作的方式詢問DeepSeek,還可以通過生成式AI制作自己想要的視頻。在上述各場景中,AI表現(xiàn)出的能動(dòng)性,其實(shí)就是它的類人的“類性”,以及行動(dòng)者的行動(dòng)性和代理者的可代理性。漢語語境下出現(xiàn)的這些語義層面的微妙差異,其實(shí)早已經(jīng)表征了AI倫理目標(biāo)的“差異化發(fā)生”。這賦予了AI以物化、動(dòng)物化、仆人化和類人化的不同形態(tài)。而AI作為“智能新工具”的類比貫穿諸形態(tài)之中。
正如基辛格所說:“與以往技術(shù)截然不同的是,人工智能很可能會(huì)改變社會(huì)的軌跡和歷史的進(jìn)程。”②如此,今天尤其需要在一個(gè)集體的、包容的全球治理框架中定位方法問題。盡管非常困難,但是,AI技術(shù)的工具性的、動(dòng)物性的、仆人化的和人類學(xué)的規(guī)定,已然充滿了對其規(guī)定的“解構(gòu)性”“顛覆性”的自我否定,這已經(jīng)將AI置于一種無時(shí)不在的普遍性的商談對話的道德圖景之中了。
在AI倫理上的抉擇必須正確看待與“目標(biāo)的差異化”相對應(yīng)的方法問題的系統(tǒng)性發(fā)生。一方面要正視一種滋長起來的本體性“不安”——它呈現(xiàn)對既有秩序觀念的顛覆和對人類喪失其控制性地位的擔(dān)憂;另一方面要勇敢面對AI“現(xiàn)象級”的困擾——這些困擾主要包括對其呈現(xiàn)的系統(tǒng)性社會(huì)風(fēng)險(xiǎn)的擔(dān)憂。兩種擔(dān)憂,從“本體視角”和“現(xiàn)象視角\"表明AI倫理風(fēng)險(xiǎn)深刻隱蔽在AI倫理框架的應(yīng)用類型之下。它昭示著人們對問題的診治必須突破“智能新工具論”的視角,亟需從道德形態(tài)出發(fā)來審查人工智能倫理風(fēng)險(xiǎn)及其防范問題。
(責(zé)任編輯盧虎)