馮永剛 臧琰琰
內(nèi)容提要 人工智能時(shí)代的美好生活不能離開道德。道德既是人工智能理性的整合器、人工智能發(fā)展的導(dǎo)引器,也是人工智能犯罪的抑制器。人工智能在讓人類享受技術(shù)發(fā)展帶來的普惠性紅利的同時(shí),也引發(fā)了人類價(jià)值迷失、道德秩序紊亂、道德責(zé)任消弭、道德自由衰落、道德信任缺失等一系列道德迷思。為此,要通過強(qiáng)化人對(duì)自身存在意義的認(rèn)知、培養(yǎng)人的人文關(guān)懷意識(shí)、提高道德推理能力來捍衛(wèi)人的道德主體地位,使人類成為智能時(shí)代道德的運(yùn)用者和審視者;要設(shè)定人工智能研發(fā)和使用的道德圭臬,促使價(jià)值理性回歸,實(shí)現(xiàn)工具理性和價(jià)值理性的平衡;要通過優(yōu)化算法設(shè)計(jì)、規(guī)范算法使用、強(qiáng)化算法監(jiān)督等多種途徑構(gòu)建完善的算法法律法規(guī)體系,確保算法合法、公正、透明,從而有效維護(hù)智能時(shí)代的道德秩序;要將道德原則嵌入智能機(jī)器設(shè)計(jì),賦予人工智能道德感,從“關(guān)系轉(zhuǎn)向”的視角重塑和諧共融的新型人機(jī)關(guān)系,進(jìn)而形成人工智能發(fā)展和人類福祉增進(jìn)的雙贏局面。
關(guān)鍵詞 人工智能 道德困境 道德責(zé)任 人機(jī)關(guān)系
馮永剛,山東師范大學(xué)教育學(xué)部教授
臧琰琰,山東師范大學(xué)教育學(xué)部博士研究生
人工智能是利用計(jì)算機(jī)的深層算法,通過模擬人類的神經(jīng)網(wǎng)絡(luò)對(duì)數(shù)據(jù)庫開展深度學(xué)習(xí),進(jìn)而能夠像人類那樣進(jìn)行分析、判斷和決策的實(shí)體或程序。牛津大學(xué)信息哲學(xué)教授盧西亞諾·弗洛里迪(Luciano Floridi)認(rèn)為,人工智能是繼哥白尼革命、達(dá)爾文革命、神經(jīng)科學(xué)革命之后人類自我認(rèn)知的“第四次革命”[1]。目前,人工智能時(shí)代已然到來,人工智能技術(shù)已滲透并廣泛應(yīng)用于智能制造、商業(yè)服務(wù)、教育娛樂、醫(yī)療護(hù)理、智慧家居等領(lǐng)域,給人類的生產(chǎn)生活、精神文化帶來巨大影響。尤其是2022年OpenAI發(fā)布的超1750億參數(shù)量的人工智能通用大模型ChatGPT(Chat Generative Pre-trained Transformer)火速出圈,“這是繼推出深度學(xué)習(xí)技術(shù)后又一里程碑式的技術(shù)革命”[1]。生成式人工智能產(chǎn)品呈現(xiàn)井噴式發(fā)展態(tài)勢(shì),OpenAI的GPT-4、Anthropic的Claude2、百度的“文心一言”、阿里巴巴的“通義千問”等大模型相繼問世,文本創(chuàng)作、代碼編輯、方案設(shè)計(jì)、作業(yè)輔導(dǎo)等功能都被囊括其中,并且在很多專業(yè)測(cè)試中,生成式人工智能產(chǎn)品的表現(xiàn)甚至已經(jīng)優(yōu)于人類。在與醫(yī)療、工業(yè)、教育等行業(yè)的融合共生中,生成式人工智能正改變著人類社會(huì)的生產(chǎn)生活方式,《2023年中國生成式AI企業(yè)應(yīng)用研究》預(yù)測(cè),2035年中國約85%的企業(yè)將采用生成式人工智能[2]。當(dāng)前,AI大模型正向通用人工智能邁進(jìn),并對(duì)人類道德產(chǎn)生前所未有的沖擊。我們要充分認(rèn)識(shí)人工智能時(shí)代道德的地位和價(jià)值,厘清人工智能發(fā)展使人類面臨的道德難題。人類唯有找準(zhǔn)自己的角色,努力尋求道德困境的破解之道,才能創(chuàng)建人工智能時(shí)代的美好生活。
一、人工智能時(shí)代道德的地位和價(jià)值
道德是人固有的內(nèi)在價(jià)值尺度,對(duì)于調(diào)節(jié)人的思想觀念、行為方式和人際關(guān)系具有十分重要的作用??焖侔l(fā)展的人工智能技術(shù)不僅不能代替道德,反而更加依賴道德。只有在道德的調(diào)節(jié)、規(guī)約和指引下,人類才能使人工智能保持工具理性和價(jià)值理性的均衡,使之始終朝著促進(jìn)人類福祉的方向發(fā)展,降低智能犯罪的潛在風(fēng)險(xiǎn)。
1.道德是人工智能理性的整合器
馬克斯·韋伯(Max Weber)認(rèn)為,現(xiàn)代社會(huì)存在工具理性和價(jià)值理性兩種理性邏輯,人工智能亦同時(shí)具有這兩種理性。其中,人工智能的工具理性強(qiáng)調(diào)其對(duì)于既定目標(biāo)實(shí)現(xiàn)的經(jīng)濟(jì)性和有效性,而價(jià)值理性強(qiáng)調(diào)其研發(fā)及應(yīng)用中的合目的性和合道德性。目前,人工智能技術(shù)日趨成熟,被廣泛應(yīng)用于工業(yè)、商業(yè)、教育、醫(yī)療等領(lǐng)域,表現(xiàn)出了推動(dòng)經(jīng)濟(jì)社會(huì)發(fā)展的革命性力量。在這一過程中,人工智能的工具理性愈發(fā)膨脹,不斷侵蝕著價(jià)值理性,極有可能成為人工智能時(shí)代社會(huì)的宰制力量。人工智能的存在價(jià)值和終極目的是促進(jìn)人類發(fā)展、增進(jìn)人類福祉。如果人工智能的發(fā)展只重視工具理性,而忽視人自身的價(jià)值,就可能出現(xiàn)很多為了達(dá)到目的而僭越道德規(guī)范、破壞道德秩序的行為,讓人類社會(huì)面臨前所未有的道德困境和巨大的潛在風(fēng)險(xiǎn)。因此,人類需要對(duì)人工智能兩種理性的關(guān)系予以認(rèn)真審視,促使人工智能的發(fā)展始終指向其存在的終極目的。
人工智能是人類智慧的結(jié)晶,人類是人工智能的操控者。所以,當(dāng)前人工智能價(jià)值理性的失衡是人類自身導(dǎo)致的。實(shí)現(xiàn)人工智能價(jià)值理性的復(fù)歸,前提是人要做出相應(yīng)的改變。道德是人固有的內(nèi)在尺度。正是因?yàn)橛械赖碌膶傩裕祟惒拍懿粩嗟刈晕曳此?,才能不斷修正、調(diào)整自己的價(jià)值觀念和行為方式。通過道德的自省,人類才能主動(dòng)逃離被人工智能異化的風(fēng)險(xiǎn),發(fā)揮道德實(shí)踐主體的力量,優(yōu)化人工智能的研發(fā)和應(yīng)用的全過程,使其為人類的發(fā)展服務(wù)。而且,價(jià)值理性和工具理性并不是非此即彼的對(duì)立關(guān)系,二者相涉相融、難以分割[3]。所以,人類要充分發(fā)揮道德的匡正作用,防止人工智能工具理性誤入歧途,促進(jìn)其價(jià)值理性的回歸,充分整合人工智能的工具理性和價(jià)值理性,使人工智能成為智性和德性交融的統(tǒng)一體。
2.道德是人工智能發(fā)展的導(dǎo)引器
從屬性看,技術(shù)和道德的范疇不同,前者屬于事實(shí)問題,后者屬于價(jià)值問題。所以,有人認(rèn)為技術(shù)是中立的,與道德無關(guān)。然而,這只是從本體論角度得出的結(jié)論。如果從認(rèn)識(shí)論的角度看,技術(shù)的研究應(yīng)用屬于人的實(shí)踐活動(dòng)。既然實(shí)踐的主體是人,縱使技術(shù)本身隸屬于科學(xué)范疇,其應(yīng)用過程也必然蘊(yùn)含實(shí)踐主體的目的和價(jià)值訴求。誠如美國科學(xué)哲學(xué)家希拉里·普特南(Hilary Putnam)所說,“每一個(gè)事實(shí)都有價(jià)值負(fù)載,每一個(gè)價(jià)值也都負(fù)載事實(shí)”[1]。人工智能技術(shù)的研發(fā)和應(yīng)用過程也是人踐行某種價(jià)值理念的過程。所以,道德是能夠?qū)θ斯ぶ悄艿陌l(fā)展產(chǎn)生影響的。
“道德的基礎(chǔ)不是對(duì)個(gè)人幸福的追求,而是對(duì)整體的幸福,即對(duì)部落、民族、階級(jí)、人類的幸福的追求。”[2]所以,無論什么時(shí)候人類都不能置他人、社會(huì)的利益于不顧,而一味追求自己的個(gè)人幸福,這不僅是道德是否允許的問題,而且是由人的存在狀況決定的是否可能的問題。道德可以從“真”“善”“美”三個(gè)維度對(duì)人工智能的發(fā)展予以引領(lǐng)[3],確保人工智能使用目的的合理性和使用途徑的正當(dāng)性,為其注入能夠?qū)崿F(xiàn)長久理性發(fā)展的生命動(dòng)力。同時(shí),人工智能技術(shù)自身的特性決定了必須以道德進(jìn)行規(guī)約。目前的智能機(jī)器已經(jīng)具有了一定的分析、判斷和行動(dòng)的自主性,而且未來還將朝著通用人工智能和超人工智能的方向發(fā)展,如若沒有道德的規(guī)約,任其發(fā)展,很有可能會(huì)引發(fā)技術(shù)濫用,導(dǎo)致隱私泄露、倫理失序、社會(huì)不公等諸多問題,屆時(shí)人工智能可能不僅不會(huì)給人類帶來普惠的紅利,反而會(huì)將人類置于被人工智能反噬的危險(xiǎn)境地。
3.道德是人工智能犯罪的抑制器
在人工智能時(shí)代,智能機(jī)器大量涌入人類日常生活,既給人們帶來極大便利,也帶來日益增大的風(fēng)險(xiǎn)。近年來,智能機(jī)器傷人或人類利用智能機(jī)器實(shí)施犯罪的事件越來越多。前者是機(jī)器本身的設(shè)計(jì)缺陷導(dǎo)致的,隨著技術(shù)的日益成熟或能得到解決;而后者是人有意實(shí)施的犯罪行為,和技術(shù)本身無關(guān),故不能通過發(fā)展技術(shù)杜絕。由于人工智能犯罪有別于傳統(tǒng)犯罪形式,在主體、罪過和行為的認(rèn)定方面存在很大困難,而且智能機(jī)器未來發(fā)展存在太多的不確定性,當(dāng)前還不能以明確的法律條文對(duì)人們利用人工智能的行為做出強(qiáng)制性規(guī)定。種種原因?qū)е履壳搬槍?duì)人工智能犯罪的立法還處在探索階段,但是人工智能犯罪已經(jīng)出現(xiàn)。2017年9月,浙江省紹興市出現(xiàn)了全國首例利用人工智能實(shí)施犯罪的案件,犯罪分子利用智能機(jī)器來識(shí)別驗(yàn)證碼,竊取公民個(gè)人信息,進(jìn)而實(shí)施網(wǎng)絡(luò)詐騙[4]。而且,針對(duì)人工智能犯罪的立法流程較長,而人工智能犯罪手段的更新速度卻非常快,所以用現(xiàn)有的法律手段很難達(dá)到遏制人工智能犯罪的目的。在此情況下,道德對(duì)法律的彌補(bǔ)作用顯得尤為重要。
人是共生性的存在。即使在人工智能時(shí)代,人只要在社會(huì)中生存就需要與他人建立各種關(guān)系,只是關(guān)系的存在空間和形態(tài)發(fā)生了變化。隨著交往空間向虛擬世界延伸,人們不僅和身邊的人建立關(guān)系,而且可能和另一個(gè)空間的素未謀面的人建立關(guān)系。然而,不管是哪個(gè)空間的關(guān)系都可能受利益驅(qū)動(dòng),利益是開展交往活動(dòng)的前提。而道德超越了法律的覆蓋范圍,其調(diào)整領(lǐng)域囊括了一切社會(huì)關(guān)系。道德是人固有的內(nèi)在尺度,如同人們內(nèi)心的一桿秤,可幫助人們更加理性地認(rèn)識(shí)人與人之間的利益關(guān)系,并自主地調(diào)節(jié)行動(dòng),使自己的欲求趨于理性;同時(shí)它還能影響社會(huì)輿論,借由輿論的感召力引導(dǎo)人們提高思想覺悟,進(jìn)而自覺地規(guī)范行為。在人工智能時(shí)代,道德的價(jià)值就在于讓人審視自己使用人工智能的方式和行為,看其是否符合道德標(biāo)準(zhǔn),是否侵犯他人的權(quán)益,然后主動(dòng)調(diào)節(jié)自己的行為,從而為構(gòu)建智能時(shí)代安全穩(wěn)定的社會(huì)秩序發(fā)揮積極的促進(jìn)作用。
二、人工智能時(shí)代的道德迷思
生活在人工智能時(shí)代的人們,雖然享受到了智能技術(shù)發(fā)展帶來的物質(zhì)方面的空前紅利,但同時(shí)面臨著與技術(shù)化生存相伴而來的前所未有的道德問題。早在100多年前,馬克思就警示道:“在我們這個(gè)時(shí)代,每一種事物好像都包含有自己的反面。我們看到,機(jī)器具有減少人類勞動(dòng)和使勞動(dòng)更有成效的神奇力量,然而卻引起了饑餓和過度的疲勞?!夹g(shù)的勝利,似乎是以道德的敗壞為代價(jià)換來的。”[1]智能機(jī)器全面融入人類生活,可能使人類產(chǎn)生價(jià)值迷失,弱化人類的道德責(zé)任和道德自由,進(jìn)而影響人與人之間道德信任的建立,對(duì)整個(gè)社會(huì)道德秩序的穩(wěn)定帶來不利影響。
1.智能神話催生價(jià)值迷失和價(jià)值困惑
進(jìn)入人工智能時(shí)代后,在工作領(lǐng)域,很多職業(yè)被智能機(jī)器所取代,給人類的主體地位、存在價(jià)值帶來巨大沖擊;在生活領(lǐng)域,人們陷于各種智能軟件構(gòu)建的虛擬空間中難以自拔,人工智能創(chuàng)造的智能神話和泛濫的非主流信息,使價(jià)值迷失和價(jià)值困惑日漸萌生。
其一,智能機(jī)器代替人類勞動(dòng)令人類產(chǎn)生價(jià)值危機(jī)。由于智能機(jī)器在數(shù)據(jù)的接收、運(yùn)算等方面的能力遠(yuǎn)高于人類,可不知疲倦地準(zhǔn)確地完成任務(wù)指令,且長期運(yùn)行成本要遠(yuǎn)低于人力成本,所以越來越多的職業(yè)正在被智能機(jī)器代替。雖然人類從沉重、煩瑣的勞動(dòng)中解放了出來,有了更多的時(shí)間和精力去追尋自己的興趣,但是這也弱化了人自身之于國家和社會(huì)的意義。人的價(jià)值是在勞作中體現(xiàn)出來的。“人一旦失去操勞,在很大程度上也就失去了意義賴以產(chǎn)生的大地”[2]。除了少部分智能機(jī)器的研發(fā)設(shè)計(jì)人員和高層管理人員,大多數(shù)人都可能淪為“無用階級(jí)”。于是,有人在心底會(huì)滋生出一種“無用感”,開始自我否定,對(duì)自己存在的價(jià)值和意義產(chǎn)生懷疑。雖然人的身體得到了解放,但是心靈背負(fù)了枷鎖。在這樣的生存狀態(tài)下,即便物質(zhì)生活再豐富,人的精神世界也是貧瘠的。在人工智能時(shí)代,人類面臨前所未有的價(jià)值危機(jī)。
其二,智能平臺(tái)低俗信息泛濫令人類產(chǎn)生價(jià)值困惑。在人工智能時(shí)代,每個(gè)人都可成為信息的生產(chǎn)者和傳播者。很多網(wǎng)紅、“大V”為了賺取流量、吸粉,刻意傳播負(fù)面新聞,發(fā)布惡俗視頻。智能平臺(tái)的信息篩查機(jī)制還不健全,對(duì)有些信息的合法合規(guī)性難以判斷,導(dǎo)致很多有悖于社會(huì)主流道德觀念的信息也被上傳至網(wǎng)絡(luò)。在虛擬的網(wǎng)絡(luò)空間中,高尚道德、底線道德和違背道德的信息出現(xiàn)的頻率和優(yōu)先級(jí)并非由道德層級(jí)的高低決定,而是由賦值市場的競爭結(jié)果決定。一如“壞消息法則”所指出的那樣,負(fù)面、低俗信息的傳播速度遠(yuǎn)遠(yuǎn)超過體現(xiàn)社會(huì)主流道德觀念的信息,主流價(jià)值的滲透和教化作用遠(yuǎn)遠(yuǎn)無法消除惡俗負(fù)面信息帶來的消極影響。如今,刷微博、快手、抖音等已經(jīng)成為很多人打發(fā)閑暇時(shí)光的主要方式。在智能平臺(tái)上形形色色的信息、短視頻的長期影響下,人們內(nèi)心自覺或不自覺地滋生出焦慮感和虛無感,并在人生觀念、道德認(rèn)知等方面產(chǎn)生很多困惑,對(duì)于人生的追求、活著的意義、道德價(jià)值等問題找不到明確的答案,出現(xiàn)了智能時(shí)代的價(jià)值迷失。
2.算法偏見妨礙道德秩序的穩(wěn)定
算法是一種逐步解決問題或完成任務(wù)的方法[3],是人工智能的核心。人工智能時(shí)代任何問題的解決都可以歸結(jié)為算法。在這個(gè)由數(shù)據(jù)構(gòu)成的世界里,人類變得越來越依賴算法。然而,算法并不是價(jià)值無涉的。受政治內(nèi)嵌和資本介入的影響,算法推薦可能會(huì)加速負(fù)面低俗信息傳播[4],固化人們狹隘的道德認(rèn)知。算法決策可能得出帶有歧視、偏見的不公論斷,侵犯特定群體的切身利益。在道德認(rèn)知狹隘化導(dǎo)致道德共識(shí)難以形成和特定群體因受到不公對(duì)待而產(chǎn)生抵抗情緒的雙重作用下,社會(huì)道德秩序的穩(wěn)定也受到影響。
其一,算法推薦阻礙了道德共識(shí)的形成。道德共識(shí)是不同行為主體達(dá)成的對(duì)于道德生活的應(yīng)然狀態(tài)的共同認(rèn)識(shí)。道德共識(shí)的形成對(duì)于個(gè)體精神生活的平靜和整個(gè)社會(huì)道德秩序的穩(wěn)定都至關(guān)重要。如今,為了提高流量,很多數(shù)字媒體類手機(jī)應(yīng)用在信息推送時(shí)都選擇基于用戶畫像的個(gè)性化算法推薦機(jī)制。根據(jù)用戶的個(gè)人數(shù)據(jù)和瀏覽習(xí)慣為其建立“數(shù)字檔案”,向用戶推送與其興趣相符的信息,最大程度滿足用戶的閱讀期待。然而,算法推薦忽視了推送信息本身的道德價(jià)值,導(dǎo)致有的用戶深陷低俗、拜金等挑戰(zhàn)道德底線的信息構(gòu)成的封閉媒介空間中,在瀏覽同類重復(fù)信息的過程中不斷強(qiáng)化自己固有的道德認(rèn)知,削弱了批判性思維的能力,失去了走出信息牢籠、與他人建立道德共識(shí)的機(jī)會(huì),影響了整個(gè)社會(huì)范圍內(nèi)道德共識(shí)的達(dá)成。
其二,算法決策損害了社會(huì)的公平正義。算法具有強(qiáng)大的計(jì)算能力且更加精確,能夠排除情緒干擾和主觀偏見,致使很多人錯(cuò)誤地認(rèn)為,同人類決策相比,算法決策更加公平公正,故而提倡在教育、醫(yī)療、司法等很多領(lǐng)域以算法決策取代人類決策。然而,大多數(shù)人對(duì)算法的運(yùn)行并不了解,算法并非如人們想的那樣公正。算法以數(shù)據(jù)為基礎(chǔ),人工智能基于網(wǎng)絡(luò)上已有資源進(jìn)行數(shù)據(jù)收集,這些數(shù)據(jù)體現(xiàn)著發(fā)布者的道德準(zhǔn)則、價(jià)值觀念,其中可能會(huì)存在性別歧視、種族歧視、階層歧視等問題。一旦這些數(shù)據(jù)被收入程序代碼,就會(huì)導(dǎo)致算法決策對(duì)特定群體產(chǎn)生偏見和歧視。如美國目前使用的輔助量刑和罪犯再犯風(fēng)險(xiǎn)評(píng)估的COMPAS等軟件在算法決策中對(duì)有色人種有嚴(yán)重的種族歧視[1]。歧視現(xiàn)象隱藏于人工智能算法“公正”的外衣下,使得社會(huì)公正日趨失調(diào),加深了人工智能時(shí)代的社會(huì)危機(jī),成為人類不能忽視的重要問題。
3.角色替代肇致道德責(zé)任的消弭
責(zé)任是行為主體對(duì)在特定社會(huì)關(guān)系中的義務(wù)的承擔(dān),道德責(zé)任是人們?cè)谝欢ㄉ鐣?huì)關(guān)系中對(duì)自己行為產(chǎn)生的后果在道義上的相應(yīng)承擔(dān)[2]。人類的社會(huì)屬性決定了其對(duì)國家、社會(huì)、集體和他人負(fù)有不可推卸的道德責(zé)任。然而,伴隨著智能機(jī)器使用范圍的擴(kuò)大和能力的提高,人類越來越多地把自身角色規(guī)定的任務(wù)交由智能機(jī)器來完成,隨即引發(fā)了很多值得思考的道德問題。
其一,智能機(jī)器是否具備代替人類承擔(dān)道德責(zé)任的能力。早在20世紀(jì)初,漢斯·約納斯(Hans Jonas)、喬爾·費(fèi)因伯格(Joel Feinberg)等人就曾對(duì)科學(xué)技術(shù)給人類社會(huì)帶來的正反兩方面的影響進(jìn)行了反思。他們提出承擔(dān)責(zé)任需要滿足三個(gè)必要條件:一是自身行為給他人和社會(huì)帶來影響;二是行為的產(chǎn)生受行為主體的控制;三是行為主體能夠在一定程度上預(yù)見行為的后果[3]。雖然現(xiàn)階段的智能機(jī)器已能夠模擬人類的情感思維、神經(jīng)機(jī)制和認(rèn)知行為,具有了自主應(yīng)對(duì)道德問題的能力,但有學(xué)者認(rèn)為,人工智能體只有弱自主性,它們即使具備道德能力也并不能理解道德行為和道德準(zhǔn)則的關(guān)系,不能預(yù)見行為導(dǎo)致的后果[4]。按照約納斯的責(zé)任判定標(biāo)準(zhǔn),人工智能體仍然不能獨(dú)立承擔(dān)道德責(zé)任。然而,也有學(xué)者認(rèn)為,人工智能體具有顯著的自動(dòng)化特征,可以承擔(dān)與其智能水平和自治能力相適應(yīng)的道德責(zé)任,如果將其排除在道德責(zé)任之外,可能會(huì)造成“責(zé)任空?qǐng)觥盵5]??梢?,對(duì)于人工智能體究竟能否承擔(dān)道德責(zé)任,學(xué)界尚有爭議。因此,當(dāng)人類將自己的角色任務(wù)轉(zhuǎn)交給智能機(jī)器時(shí),一旦出現(xiàn)責(zé)任事故,如何判斷責(zé)任歸屬就成為一大問題。
其二,人工智能體的過度使用弱化了人的道德責(zé)任。人類社會(huì)中的每個(gè)人都不是孤立的,只要在社會(huì)中生活就要和其他組織、個(gè)人建立各種關(guān)系,扮演各種角色并承擔(dān)相應(yīng)的道德責(zé)任。在人履行責(zé)任的過程中,各種關(guān)系不斷得到維系和鞏固。而人往往身處于不同的群體中,是多個(gè)角色的集合體,需承擔(dān)多重道德責(zé)任。盡管這些責(zé)任在很大程度上束縛了人類,使人不能率性而為,阻礙了自身的“逍遙”,但這些責(zé)任是人之為人所不能推卸的。正是人身上擔(dān)負(fù)的責(zé)任促使人努力進(jìn)取、積極向上,讓人在履職盡責(zé)的過程中提升個(gè)體人格、彰顯社會(huì)價(jià)值。然而,隨著智能機(jī)器功能的日趨完善,人們?cè)絹碓蕉嗟貙⒆约旱呢?zé)任轉(zhuǎn)交給智能機(jī)器,如人工智能醫(yī)生可對(duì)病人的病情進(jìn)行快速診斷,人工智能教師可對(duì)學(xué)生進(jìn)行精準(zhǔn)指導(dǎo),人工智能保姆可對(duì)空巢老人給予照顧,等等。的確,智能機(jī)器可以代替我們完成我們的社會(huì)角色規(guī)定的很多任務(wù)。但是,仍有很多任務(wù)是智能機(jī)器無法完成的。因?yàn)橹悄軝C(jī)器是“冰冷”的,當(dāng)我們完全把自己的道德責(zé)任讓渡給智能機(jī)器時(shí),即使工作被完成得再好,我們也不能達(dá)到他人和社會(huì)對(duì)我們角色的期待。如果師生間的關(guān)愛、醫(yī)患間的信任、親人間的溫情不存在了,那么人的道德責(zé)任也將因智能機(jī)器的過度使用而被消解。
4.技術(shù)侵入引發(fā)道德自由的讓渡
自由是人的本質(zhì)屬性。只有僅因自身本性的必然性而存在,行為僅由自身決定的東西才可被稱為自由的;反之,如果一物的存在及行為是由他物所決定的,該物便不能被稱為自由的[1]。而道德自由是人們不受干涉地做出道德選擇和決定的能力。人工智能時(shí)代技術(shù)的侵入在很大程度上源于人類將自己的道德自由讓渡給智能機(jī)器。
其一,智能機(jī)器干預(yù)人的道德行為。道德行為產(chǎn)生的過程是人為自己立法的過程。在信奉某種道德原則并生成內(nèi)部動(dòng)機(jī)后,人便會(huì)基于所信奉的道德原則自主做出“應(yīng)該做什么”“不應(yīng)該做什么”的選擇。只有發(fā)自內(nèi)心地認(rèn)為某種行為本身是正確的、應(yīng)該做的,做出這種行為的人才是真正有道德的人;如果是因?yàn)榭释驊峙滦袨榈慕Y(jié)果而被動(dòng)做出行為,即使行為產(chǎn)生的結(jié)果是好的,該行為主體也不能被看作有道德的。而在智能化的生存空間中,智能機(jī)器可在人毫無察覺的情況下收集到人的身心特征、社交生活、興趣愛好、經(jīng)濟(jì)狀況等各方面的數(shù)據(jù),人所有的行為幾乎都能被記錄下來。這就意味著在行為發(fā)生之前,人就已經(jīng)意識(shí)到了自己的行為會(huì)被監(jiān)控、該行為的發(fā)生會(huì)引發(fā)什么樣的結(jié)果。所以,在人工智能的促逼下,人為了得到或避免預(yù)知的結(jié)果可能做出違背主觀意愿的行為。
其二,智能機(jī)器限制人的意志自由。朱利安·薩沃斯庫(Julian Savulescu)把人工智能看作繼教育-宗教、生物醫(yī)學(xué)之后增強(qiáng)人類道德的第三種方式[2]。而且,其作用機(jī)制不同于教育-宗教,不需要長期的影響和滲透才能對(duì)人的道德發(fā)展發(fā)揮作用;其作用機(jī)制也不同于生物醫(yī)學(xué),不需要運(yùn)用藥物對(duì)人的身體和精神進(jìn)行控制。智能機(jī)器被植入道德建議的程序后,不僅能幫助人們進(jìn)行道德反思,向人們提供道德建議,指導(dǎo)人們的行為[3],而且具有快速增強(qiáng)人類道德和免于藥物副作用的雙重優(yōu)勢(shì),因此受到很多人的追捧。但是也有很多學(xué)者對(duì)利用人工智能來增強(qiáng)人類道德的方式提出了質(zhì)疑。且不論人工智能“變異”的潛在危險(xiǎn)和被植入的道德建議程序是否可行,單就人類依靠智能機(jī)器進(jìn)行道德判斷、做出道德選擇這一點(diǎn)來看,這實(shí)則是對(duì)人類意志自由的侵犯。當(dāng)智能機(jī)器監(jiān)控人的思想和欲望,從外部對(duì)人的思想是否道德進(jìn)行審查,并強(qiáng)制性地讓人遠(yuǎn)離非道德的行為時(shí),即便產(chǎn)生的結(jié)果是好的,也是以人犧牲本質(zhì)性的自由權(quán)利為代價(jià)的,人的道德自由意志就被智能機(jī)器綁架了[1]。
5.虛擬交往阻抑道德信任的建立
道德信任是交往雙方對(duì)彼此道德素質(zhì)和行為能力的心理期待,是對(duì)對(duì)方可否值得依賴的認(rèn)知判斷。道德信任不僅可以激發(fā)個(gè)體完善的內(nèi)在動(dòng)力,對(duì)于促進(jìn)群己和諧、增進(jìn)普遍社會(huì)信任也具有重要意義[2]。進(jìn)入人工智能時(shí)代后,智能機(jī)器的大量使用改變了傳統(tǒng)的交往主體,降低了交往關(guān)系的透明度,數(shù)據(jù)大量采集導(dǎo)致的個(gè)人隱私“前臺(tái)化”趨勢(shì)則增加了科技犯罪的可能性,使人們對(duì)潛在風(fēng)險(xiǎn)變得更加敏感,從而阻抑了交往雙方道德信任的建立。
其一,交往主體的復(fù)雜改變了道德信任的載體。交往是道德信任存在的載體。在傳統(tǒng)社會(huì)中,交往是在物理環(huán)境中的人際、群體間和組織間的交往。進(jìn)入人工智能時(shí)代后,智能機(jī)器全面融入人類生活,并充當(dāng)起生產(chǎn)者、陪護(hù)者、教育者等各種社會(huì)角色。數(shù)字化表征的虛擬人也頻繁地出現(xiàn)在大眾視野中。人工智能技術(shù)的發(fā)展使虛擬人形態(tài)、表情乃至聲音,都與真人越來越相似,虛擬人的應(yīng)用正向傳媒、娛樂、醫(yī)療、教育、養(yǎng)老等領(lǐng)域快速延伸。真實(shí)人類和智能機(jī)器、虛擬人正在形成嶄新的交往關(guān)系,即交往關(guān)系突破了真實(shí)物理環(huán)境的時(shí)空界限和人與人的對(duì)象界限,已經(jīng)拓展到現(xiàn)實(shí)和虛擬融合的時(shí)空,在真實(shí)和虛擬的流動(dòng)空間中,人、智能機(jī)器、虛擬人可共同參與建立復(fù)合性的交往關(guān)系。人工智能時(shí)代的交往較之前有了更多的不確定性,既表現(xiàn)為交往關(guān)系的偶發(fā)性和無感知性,也表現(xiàn)為交往主體間部分責(zé)任和義務(wù)的難以明確[3]。這意味著人工智能從根本上顛覆了原有的交往關(guān)系,在傳統(tǒng)和當(dāng)下的倫理框架下出現(xiàn)了很多無法解決的道德難題[4],例如在新型復(fù)合性的交往關(guān)系中道德信任難以建立。
其二,智能犯罪的發(fā)生引發(fā)了道德信任的危機(jī)。人工智能時(shí)代,虛擬世界成為重要的生活空間。在虛擬世界中去軀體化、數(shù)字化的存在方式使人可以脫離現(xiàn)實(shí)世界的參照去構(gòu)造多種不同的虛擬身份,強(qiáng)大的真實(shí)感和沉浸感使人無法擺脫對(duì)虛擬世界的依賴,給人的精神和心理狀態(tài)帶來嚴(yán)重影響,使人們?cè)谡鎸?shí)世界的思想和行為方式也發(fā)生改變。身份隱匿性使人產(chǎn)生即便違法也不易被發(fā)現(xiàn)的僥幸心理,增加了僭越道德、法律紅線的概率。以“虛擬”符號(hào)身份和“不在場”的方式與對(duì)方隔空交往,由于感受不到對(duì)方作為活生生的人的反應(yīng),犯罪者負(fù)罪感減輕了,他們即使給對(duì)方造成身心傷害,也可能增加再次犯罪的可能性。另外,人工智能時(shí)代各種智能設(shè)備的正常運(yùn)轉(zhuǎn)多以海量數(shù)據(jù)采集為基礎(chǔ),其中涉及大量的個(gè)人隱私數(shù)據(jù),如人臉、指紋、虹膜等身份信息以及活動(dòng)軌跡、消費(fèi)記錄等。經(jīng)智能數(shù)據(jù)分析系統(tǒng)分析后,看似無關(guān)的數(shù)據(jù)就會(huì)相互聯(lián)系,反映出被分析對(duì)象的性格、價(jià)值欲求、興趣愛好等方面的特征,使智能設(shè)備甚至比對(duì)象自己還了解他。一旦這些數(shù)據(jù)泄露,犯罪分子就可能乘虛而入,給人們的生命和財(cái)產(chǎn)安全造成威脅。多重虛擬身份和過度的數(shù)據(jù)采集,加大了智能犯罪的風(fēng)險(xiǎn),進(jìn)而也加劇了道德信任的危機(jī)。
三、人工智能時(shí)代道德迷思之解蔽
人工智能技術(shù)將人類帶入了一個(gè)新的技術(shù)化生存的時(shí)代。然而,技術(shù)化生存和人類的福祉并非總是正向的關(guān)系[5]。為了使人工智能和人類社會(huì)始終能彼此適應(yīng)、相互促進(jìn),我們一方面要通過道德教育幫助教育對(duì)象強(qiáng)化道德責(zé)任,提高德性修養(yǎng),使其能更好地應(yīng)對(duì)智能機(jī)器給人類社會(huì)帶來的倫理道德挑戰(zhàn),另一方面要完善智能時(shí)代的倫理原則,規(guī)約人工智能的發(fā)展,構(gòu)建和諧共生的新型人機(jī)關(guān)系。
1.珍視人性:捍衛(wèi)人的道德主體地位
鑒于人是智能機(jī)器的研發(fā)者、擁有者和使用者,要想走出道德困境、規(guī)避風(fēng)險(xiǎn),最為關(guān)鍵的是促進(jìn)人的改變,通過教育使人充分認(rèn)識(shí)人類的道德主體地位,珍視人類在德性、情感等方面的獨(dú)有優(yōu)勢(shì),不斷提高自身的道德判斷力,主動(dòng)承擔(dān)起自己的道德責(zé)任,自覺遵守人工智能時(shí)代的道德倫理規(guī)范,成為智能時(shí)代道德的運(yùn)用者和審視者。
第一,要強(qiáng)化人對(duì)自身存在意義的認(rèn)知。個(gè)體要想擺脫人工智能引發(fā)的自我價(jià)值危機(jī),唯有依靠自己。只有主觀認(rèn)知改變了,人才會(huì)主動(dòng)走出使人沉淪的物欲世界,去探尋人生的價(jià)值意義。而道德教育以促使人德性發(fā)展并收獲美好生活為終極目的,它直接作用于人的思想,是促使人思想改變的最有效方式。因此,要通過道德教育使人充分認(rèn)識(shí)到人類自身的優(yōu)勢(shì)。智能機(jī)器的所有行為都由人的邏輯指令引發(fā),它們自身既沒有自由意志,也沒有任何情緒體驗(yàn)。而人的所有行為都是自我選擇的結(jié)果,并且人在行動(dòng)的過程中會(huì)產(chǎn)生豐富的情感體驗(yàn)。人可以感受到領(lǐng)導(dǎo)的期許、同伴的鼓舞,可以體會(huì)到勝利時(shí)的欣喜、失敗時(shí)的頹喪。至少在可見的未來,人工智能難以擁有這些感性要素,也無法從人類身上剝奪這些要素。另外,人的組織協(xié)調(diào)能力、審美創(chuàng)造能力等也是優(yōu)于人工智能的。所以,在人工智能時(shí)代,人不能總是盯著自己的弱勢(shì),而應(yīng)該努力去挖掘并展示自己的優(yōu)勢(shì),彰顯道德主體地位的能動(dòng)性,這樣才能確證自身價(jià)值,彰顯人之存在的意義。
第二,要培養(yǎng)人的人文關(guān)懷意識(shí)。智能化手段和信息技術(shù)的應(yīng)用,在為人類搭建虛擬活動(dòng)空間的同時(shí),也拉開了真實(shí)世界中人與人之間的距離。日常生活中,面對(duì)面坐在一起的兩個(gè)人各自低頭看著手機(jī)、沉默不語的景象已屢見不鮮。越來越多的人將自己本應(yīng)承擔(dān)的責(zé)任如對(duì)子女的陪伴、對(duì)老人的照顧交由智能機(jī)器人代勞。人與人之間的關(guān)懷和責(zé)任正在被弱化、消解。但是,人是共生性的存在,彼此間具有以生命存在為基礎(chǔ)的道德聯(lián)結(jié)。人正是通過不斷發(fā)展關(guān)懷、責(zé)任等道德屬性來實(shí)現(xiàn)自我人格的不斷提升。所以,為破解智能機(jī)器大量使用對(duì)人際關(guān)懷、道德責(zé)任的消弭,人工智能時(shí)代的教育要向其本真回歸,通過師生相互敞開自己的生命空間、滿懷善意和敬畏開展教育性的真理探問[1],來喚醒學(xué)生的生命自覺,讓其體悟應(yīng)該承擔(dān)的責(zé)任和應(yīng)該給予他者的關(guān)懷,從而在扮演自身角色的過程中不斷促進(jìn)自我道德的完善和生命的成長。
第三,提高人明辨是非的道德推理能力。在人工智能時(shí)代,個(gè)性化算法推薦在促使信息高效傳播的同時(shí),也將人困在了“信息繭房”中,人們不再探尋真相到底如何,進(jìn)入了基于立場挑選事實(shí)的后真相時(shí)代。并且,人工智能時(shí)代是一個(gè)人人都可在虛擬空間自由發(fā)聲的時(shí)代,人們往往受情緒左右,盲目地發(fā)布、轉(zhuǎn)發(fā)信息,導(dǎo)致真相被虛假信息掩蓋,不僅影響了個(gè)人的道德推理和判斷力,也給整個(gè)社會(huì)的核心價(jià)值理念的傳播帶來不利影響。因此,要通過教育提高人的理智理性,培養(yǎng)人追求真理的精神和敢于為真相發(fā)聲的勇氣,使人不再受不良媒體的煽動(dòng)和誤導(dǎo),做人云亦云的追隨者,而是對(duì)接收信息的來源、依據(jù)、完整性等進(jìn)行批判性的分析,將真相從虛假信息中剝離出來,突破后真相時(shí)代的藩籬,當(dāng)遇到復(fù)雜的道德場景時(shí),不再僅僅跟著感覺走,而是基于事實(shí)真相來確定立場,通過富有邏輯的道德推理做出正確的道德判斷。
第四,強(qiáng)化人自覺遵守智能時(shí)代道德規(guī)范的意識(shí)。人是智能機(jī)器的研發(fā)和使用主體,伴隨智能機(jī)器使用而來的風(fēng)險(xiǎn),與其說是技術(shù)本身造成的,不如說是使用技術(shù)的人造成的[1]。因此,開展與科技倫理相關(guān)的道德教育至關(guān)重要。一方面,既要教會(huì)普通大眾各種智能機(jī)器的使用方法,更要讓其牢固樹立安全、道德、負(fù)責(zé)任地使用人工智能的意識(shí),在智能時(shí)代自覺遵守道德規(guī)范。智能時(shí)代背景下信任社會(huì)的建立需要每個(gè)人的參與和努力。另一方面,要教育影響人工智能時(shí)代技術(shù)安全的“關(guān)鍵少數(shù)”,包括人工智能研發(fā)一線的技術(shù)人員、為人工智能研究項(xiàng)目出資的企業(yè)家、制定人工智能有關(guān)政策法規(guī)的政府官員等[2],加強(qiáng)對(duì)以上關(guān)鍵少數(shù)人員的科技倫理教育,使其始終站在人類整體利益的制高點(diǎn),堅(jiān)守人工智能始終為人類服務(wù)的道德原則,避免算法偏見和非法濫用帶來的歧視和危險(xiǎn),使人工智能為增進(jìn)人類福祉發(fā)揮更加積極的作用。
2.科技向善:設(shè)定人工智能的道德邊界
隨著人工智能功用的不斷提升,工具理性遮蔽價(jià)值理性的勢(shì)頭已然出現(xiàn)了。近代以來,工具理性貶抑價(jià)值理性,致使人異化的例子不勝枚舉。人工智能的發(fā)展尤其充滿未知性。如果未來的人工智能突破“奇點(diǎn)”,產(chǎn)生自主意識(shí),脫離人類的控制,那么人類社會(huì)將面臨巨大災(zāi)難。因此,人類需要為人工智能的研發(fā)和使用設(shè)定道德邊界,促使價(jià)值理性回歸,實(shí)現(xiàn)工具理性和價(jià)值理性的平衡。
一方面,完善人工智能研發(fā)的道德原則。人工智能正以指數(shù)級(jí)增長的速度發(fā)展,不斷突破既有的應(yīng)用場域,人們很難準(zhǔn)確預(yù)測(cè)其未來發(fā)展的邊界和潛藏的危險(xiǎn)。人類需要為人工智能發(fā)展提供指導(dǎo)性的道德原則,以匡正智能機(jī)器發(fā)展引發(fā)的偏差,彌補(bǔ)其漏洞。20世紀(jì)中期,艾薩克·阿西莫夫(Isaac Asimov)提出“機(jī)器人三定律”(Three Laws of Robotics)。近年來,各國人工智能行業(yè)學(xué)會(huì)也相繼提出了人工智能發(fā)展的道德原則。2017年1月,人工智能研究者在美國加州的阿西洛馬召開了“阿西洛馬會(huì)議”,提出了《阿西洛馬人工智能原則》(“Asilomar Artificial Intelligence Principles”)。歐盟于2019年4月發(fā)布了《可信賴人工智能倫理準(zhǔn)則》(“Ethics Guidelines for Trustworthy AI”)。2019年5月,國際科技法協(xié)會(huì)(ITechLaw)組織來自16個(gè)國家的多學(xué)科專家小組編寫出版了《負(fù)責(zé)任的人工智能:全球政策框架》(Responsible AI: A Global Policy Framework)。然而,這些道德原則大多都是從限制或消極預(yù)防的角度提出的,鮮有為人工智能發(fā)展提供積極的道德支持[3]。2021年9月,中國國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《新一代人工智能倫理規(guī)范》,列出了人工智能特定活動(dòng)應(yīng)遵守的18項(xiàng)具體的倫理要求,為從事人工智能相關(guān)活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)等提供了倫理指引[4]。2021年11月,聯(lián)合國教科文組織發(fā)布首份人工智能倫理問題全球性協(xié)議《人工智能倫理問題建議書》,這部以國際法為依據(jù)、采取全球方法制定的準(zhǔn)則性文書,將引導(dǎo)全球人工智能技術(shù)向負(fù)責(zé)任的方向發(fā)展。今后,為了使人工智能在以人為本的前提下得到快速健康發(fā)展,應(yīng)整合科技、倫理、法律等領(lǐng)域的多學(xué)科力量,構(gòu)建多方參與、協(xié)同共治的科技倫理體制,逐漸完善人工智能行業(yè)的倫理道德標(biāo)準(zhǔn)。
另一方面,恪守人工智能使用的道德界限。雖然人工智能在計(jì)算速率、學(xué)習(xí)能力等方面具有人無可比擬的優(yōu)越性,但在某些方面是永遠(yuǎn)不可能代替人的。尤其在情感、精神方面,人工智能的作用是非常有限的。人工智能教師能精準(zhǔn)地輔導(dǎo)學(xué)生,但不能代替教師對(duì)學(xué)生進(jìn)行關(guān)懷和鼓勵(lì);智能陪伴機(jī)器人能和兒童做各種智力游戲,但不能代替父母對(duì)兒女施以親子之愛。所以,應(yīng)該從道德責(zé)任履行的角度為智能機(jī)器劃定使用邊界,辨明哪些工作是可以由智能機(jī)器代替人去完成的,哪些工作仍是需要人自己去做的。人不能放棄自己作為技術(shù)使用者的主體責(zé)任,否則人與人的真實(shí)的天然情感將被程式化的技術(shù)所遮蔽,人們將既沒有在真實(shí)世界中很好地履行自己所承擔(dān)社會(huì)角色的義務(wù),也失去了在互相交流中獲得的情感回饋,必然得不償失。
3.算法規(guī)制:維系智能時(shí)代的道德秩序
當(dāng)前,算法權(quán)力持續(xù)擴(kuò)張,發(fā)達(dá)國家的教育、醫(yī)療、金融等很多行業(yè)的決策都依靠算法得出。因此,為了避免算法引發(fā)的社會(huì)風(fēng)險(xiǎn),維護(hù)穩(wěn)定的社會(huì)道德秩序,必須對(duì)算法應(yīng)用的各個(gè)環(huán)節(jié)予以規(guī)制。公正、道德的制度具有穩(wěn)定秩序和培育德性的功能。在智能時(shí)代,要構(gòu)建公正、完善的算法法律法規(guī)體系,使算法設(shè)計(jì)、使用、監(jiān)督等各環(huán)節(jié)都有法可依,使算法公正、透明,最大限度降低潛在風(fēng)險(xiǎn),確保人工智能切實(shí)為人類福祉服務(wù)。
第一,優(yōu)化算法設(shè)計(jì),確保源頭向善。算法引發(fā)的歧視、偏見等問題很大程度上和算法本身的模型有關(guān)。算法設(shè)計(jì)者要強(qiáng)化科技倫理意識(shí),將以人為本的道德準(zhǔn)則嵌入算法設(shè)計(jì)程序中,使算法模型不斷優(yōu)化,杜絕算法設(shè)計(jì)者故意甚至惡意操縱算法的行為發(fā)生。算法以數(shù)據(jù)為基礎(chǔ)。如果算法的數(shù)據(jù)來源存在問題,最終得到的將是帶有偏見、歧視色彩的結(jié)果。因此,算法設(shè)計(jì)者要對(duì)數(shù)據(jù)的來源、內(nèi)容、處理過程進(jìn)行認(rèn)真審查,保證所用數(shù)據(jù)的真實(shí)性、完整性、通用性和準(zhǔn)確性,盡可能避免得出對(duì)特定群體有歧視的結(jié)論,給社會(huì)的公平公正帶來負(fù)面影響。從事算法設(shè)計(jì)的企業(yè)應(yīng)當(dāng)承擔(dān)算法公開和解釋的義務(wù),要提高算法的透明度,使算法服務(wù)的接受者了解算法的設(shè)計(jì)目的、運(yùn)行方式、潛在風(fēng)險(xiǎn)等,防止在毫無察覺的情況下侵犯個(gè)人隱私。
第二,規(guī)范算法使用,保護(hù)公眾利益。算法使用者可能直接操控算法并作用于普通大眾,因此,算法使用者本身是否具有善良意志,算法運(yùn)行過程是否規(guī)范與社會(huì)公眾利益息息相關(guān)。目前,國家已經(jīng)出臺(tái)了相關(guān)法律法規(guī)對(duì)算法使用進(jìn)行治理。如2021年12月,國家網(wǎng)信辦等四部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確要求,算法推薦服務(wù)提供者應(yīng)當(dāng)堅(jiān)持主流價(jià)值導(dǎo)向,積極傳播正能量,不得利用算法推薦服務(wù)從事違法活動(dòng)或者傳播違法信息,應(yīng)當(dāng)采取措施防范和抵制傳播不良信息[1],為短視頻、社交、電商平臺(tái)等算法推薦的主要使用者劃出了“紅線”,從源頭上減少負(fù)面低俗信息的消極影響,同時(shí)賦予用戶自主選擇的權(quán)利,用戶可自主關(guān)閉算法推薦服務(wù)。這對(duì)于促進(jìn)社會(huì)核心價(jià)值理念信息的傳播、培育公眾的道德共識(shí)具有重要意義。此外,算法使用者應(yīng)本著負(fù)責(zé)任的態(tài)度,在數(shù)據(jù)收集時(shí)遵循準(zhǔn)確、夠用的原則,避免數(shù)據(jù)采集過度從而侵犯用戶的隱私權(quán)。算法使用過程中要加強(qiáng)對(duì)數(shù)據(jù)的審查,剔除帶有偏見的數(shù)據(jù),同時(shí)要遵守?cái)?shù)據(jù)的存儲(chǔ)和使用規(guī)范,防止數(shù)據(jù)泄露威脅用戶的人身和財(cái)產(chǎn)安全。
第三,強(qiáng)化算法監(jiān)督,降低算法風(fēng)險(xiǎn)。政府相關(guān)部門要設(shè)立專門的算法治理機(jī)構(gòu)和分類分級(jí)監(jiān)管機(jī)制,對(duì)算法進(jìn)行全鏈條動(dòng)態(tài)監(jiān)管,使算法相關(guān)產(chǎn)業(yè)負(fù)責(zé)任、可持續(xù)地發(fā)展。一旦發(fā)現(xiàn)違反規(guī)定的行為,就要對(duì)相關(guān)責(zé)任主體予以處罰甚至追究刑事責(zé)任。算法設(shè)計(jì)、使用的相關(guān)單位和部門應(yīng)強(qiáng)化算法倫理責(zé)任,在內(nèi)部設(shè)立算法倫理委員會(huì),按照目前國際國內(nèi)通用的算法設(shè)計(jì)、使用規(guī)范定期自主開展風(fēng)險(xiǎn)防控審查,盡早發(fā)現(xiàn)算法設(shè)計(jì)存在的技術(shù)漏洞和算法使用中可能引發(fā)的技術(shù)、倫理風(fēng)險(xiǎn),確保算法始終為人服務(wù)。另外,還應(yīng)組織技術(shù)專家、科技倫理學(xué)家成立第三方機(jī)構(gòu),對(duì)算法的設(shè)計(jì)、使用開展事前和事中審查,從而對(duì)技術(shù)不確定性引發(fā)的各類風(fēng)險(xiǎn)進(jìn)行有效防范,對(duì)算法使用不當(dāng)造成的不良影響進(jìn)行及時(shí)干預(yù)。
4.和諧共生:創(chuàng)造人機(jī)共融的美好未來
人工智能發(fā)展帶來了巨大的紅利,也伴生著一系列道德風(fēng)險(xiǎn)。為了實(shí)現(xiàn)人工智能推動(dòng)經(jīng)濟(jì)社會(huì)發(fā)展和保持社會(huì)道德秩序穩(wěn)定的雙贏局面,并促進(jìn)人機(jī)協(xié)調(diào)、可持續(xù)發(fā)展,建立和諧共生的人機(jī)關(guān)系已經(jīng)勢(shì)在必行。
第一,要賦予人工智能道德感,構(gòu)建人機(jī)共通的價(jià)值體系[1]。早在1960年,控制論領(lǐng)域的創(chuàng)始人、傳奇數(shù)學(xué)家諾伯特·維納(Norbert Wiener)就曾說:“如果我們使用一種我們無法有效干預(yù)其操作的機(jī)器來實(shí)現(xiàn)我們的目的……我們最好確定,機(jī)器所執(zhí)行的目的就是我們真正想要的目的?!盵2]最令人擔(dān)憂的問題恰恰在于人工智能的發(fā)展充滿極大的不確定性,智能機(jī)器未來可能會(huì)脫離人類控制,做出違背人類社會(huì)倫理道德的事情。想要避免這種潛在危險(xiǎn),唯一的辦法就是讓智能機(jī)器擁有人類社會(huì)普遍認(rèn)可的價(jià)值理念,當(dāng)智能機(jī)器充分了解了人類的價(jià)值觀,就不會(huì)做出危害人類的事情[3]。為此,人類首先要思考,在智能機(jī)器全方位融入人類生產(chǎn)生活、精神文化世界之后,人類的道德情境會(huì)發(fā)生哪些新的變化,潛藏哪些道德風(fēng)險(xiǎn)。人類自身需針對(duì)這些新的變化主動(dòng)對(duì)原有的道德規(guī)范做出調(diào)整。其次,要通過合乎道德規(guī)范的算法設(shè)計(jì)將人類社會(huì)普遍認(rèn)可的道德原則嵌入智能機(jī)器的設(shè)計(jì)中,賦予其“道德感”。要讓智能機(jī)器進(jìn)行逆向強(qiáng)化學(xué)習(xí)(inverse reinforcement learning,IRL),通過直接觀察人類行為并參考有關(guān)人類行為反應(yīng)的書面和視頻信息,通過道德算法對(duì)人類之間的利益沖突予以權(quán)衡。一旦懷有不良企圖者給智能機(jī)器發(fā)送違背道德的指令,智能機(jī)器就做出應(yīng)有反應(yīng),并拒絕執(zhí)行。
第二,要從“關(guān)系轉(zhuǎn)向”的視角重塑人和智能機(jī)器的新型關(guān)系。通常,人們總是從人類中心的視角來看待人和智能機(jī)器的關(guān)系,將其看作滿足人類需求的工具。然而,人與智能機(jī)器可實(shí)現(xiàn)人機(jī)耦合、人機(jī)交互和人機(jī)互補(bǔ)已是不爭的事實(shí)。人能給智能機(jī)器發(fā)送行動(dòng)指令控制其行為,智能機(jī)器亦可以用其分析結(jié)果影響人的決策和行為。這使得人工智能時(shí)代的人機(jī)關(guān)系已經(jīng)超越主客二元的人機(jī)關(guān)系。技術(shù)哲學(xué)家彼得-保羅·維貝克(Peter-Paul Verbeek)認(rèn)為,智能人造物在某些情境下是可以表現(xiàn)出道德行為,起到類似主體作用的[4]。人與智能機(jī)器構(gòu)成了一種前所未有的主體與類主體關(guān)系,或者說是跨人際主體間關(guān)系[5]。某一存在物是否具有道德地位不是取決于其主觀或內(nèi)在屬性,而在于可觀察到的客觀的外在關(guān)系[6]。并且,人工智能體是可以識(shí)別人類情緒并予以適當(dāng)回應(yīng)的。例如,有些老人長期接受人形護(hù)理機(jī)器人的照顧和陪伴,就會(huì)對(duì)機(jī)器人產(chǎn)生情感依戀。所以,人和智能機(jī)器建立伙伴關(guān)系(buddy relationship)是一種最為理想的狀態(tài)[7]。當(dāng)類人機(jī)器人通過頻繁的人機(jī)交互和廣泛的切入點(diǎn)全面融入人類生活后,它們將成為人類的新伙伴[8]。因此,人類需要從關(guān)系視域出發(fā),以道德為指向,既要善待自己,也要善待人工智能體,唯有人機(jī)和諧共處,才能為人類贏得一個(gè)更加美好的未來。
〔責(zé)任編輯:洪峰〕
本文為國家社會(huì)科學(xué)基金一般課題“學(xué)校立德樹人的長效機(jī)制研究”(BEA190108)的階段性成果。
[1]盧西亞諾·弗洛里迪:《第四次革命:人工智能如何重塑人類現(xiàn)實(shí)》,王文革譯,浙江人民出版社2016年版,第99頁。
[1]馮永剛、屈玲:《ChatGPT運(yùn)用于教育的倫理風(fēng)險(xiǎn)及其防控》,《內(nèi)蒙古社會(huì)科學(xué)》2023年第4期。
[2]曲蓉:《這一年,人工智能“生成”精彩》,《人民日?qǐng)?bào)海外版》2023年12月28日。
[3]馮永剛、陳穎:《智慧教育時(shí)代教師角色的“變”與“不變”》,《中國電化教育》2021年第4期。
[1]希拉里·普特南:《理性、真理與歷史》,李小兵、楊莘譯,遼寧教育出版社1988年版,第248頁。
[2]《普列漢諾夫哲學(xué)著作選集》第1卷,生活·讀書·新知三聯(lián)書店1962年版,第551頁。
[3]陳彬:《歷史與現(xiàn)實(shí):科學(xué)技術(shù)與道德之間關(guān)系的二維考察》,《理論學(xué)刊》2015年第10期。
[4]王春:《紹興警方偵破全國首例利用AI犯罪案》,《法制日?qǐng)?bào)》2017年9月26日。
[1]《馬克思恩格斯文集》第2卷,人民出版社2009年版,第580頁。
[2]于澤元、那明明:《人工智能時(shí)代教育目的的轉(zhuǎn)向》,《中國電化教育》2022年第1期。
[3]貝赫魯茲·佛羅贊:《計(jì)算機(jī)科學(xué)導(dǎo)論》,呂云翔等譯,機(jī)械工業(yè)出版社2020年版,第149頁。
[4]郭小平、秦藝軒:《解構(gòu)智能傳播的數(shù)據(jù)神話:算法偏見的成因與風(fēng)險(xiǎn)治理路徑》,《現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報(bào))》2019年第9期。
[1]李本:《美國司法實(shí)踐中的人工智能:問題與挑戰(zhàn)》,《中國法律評(píng)論》2018年第2期。
[2]余源培等:《哲學(xué)辭典》,上海辭書出版社2009年版,第298頁。
[3]H. Jonas, The Imperative of Responsibility: In Search of an Ethics for the Technological Age, Chicago: The University of Chicago Press, 1984, p.90.
[4]程承坪:《論人工智能的自主性》,《上海交通大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2022年第1期。
[5]曲蓉:《破解人工智能道德治理中的責(zé)任難題》,《中國社會(huì)科學(xué)報(bào)》2021年12月22日。
[1]斯賓諾莎:《倫理學(xué)》,賀麟譯,商務(wù)印書館1983年版,第4頁。
[2]J. Savulescu, H. Maslen, "Moral Enhancement and Artificial Intelligence: Moral AI?", J. Romportl, E. Zackova, J. Kelemen(eds.), Beyond Artificial Intelligence. Topics in Intelligent Engineering and Informatics, vol.9, Springer, 2015, p.80.
[3]黃各:《人工智能道德增強(qiáng):能動(dòng)資質(zhì)、規(guī)范立場與應(yīng)用前景》,《中國社會(huì)科學(xué)院大學(xué)學(xué)報(bào)》2022年第5期。
[1]陳萬球:《技術(shù)侵入:道德自由的傳統(tǒng)與超越》,《倫理學(xué)研究》2020年第3期。
[2]肖祥:《公民道德信任建立析論》,《中國特色社會(huì)主義研究》2019年第6期。
[3]楊先順、莫莉:《人工智能傳播的信任維度及其機(jī)制建構(gòu)研究》,《學(xué)術(shù)研究》2022年第3期。
[4]唐漢衛(wèi):《人工智能時(shí)代教育將如何存在》,《教育研究》2018年第11期。
[5]曾建平、黃以勝:《信息技術(shù)問題的道德治理》,《華東師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2022年第2期。
[1]王果、李建華:《人工智能時(shí)代“他-我”師生關(guān)系的建構(gòu)——在教育性對(duì)話中深化責(zé)任、關(guān)懷和人格感召》,《中國教育學(xué)刊》2021年第7期。
[1]馮建軍:《網(wǎng)絡(luò)公民教育:智能時(shí)代道德教育的新要求》,《倫理學(xué)研究》2022年第3期。
[2]何懷宏:《人物、人際與人機(jī)關(guān)系——從倫理角度看人工智能》,《探索與爭鳴》2018年第7期。
[3]孫偉平、李揚(yáng):《論人工智能發(fā)展的倫理原則》,《哲學(xué)分析》2022年第1期。
[4]《〈新一代人工智能倫理規(guī)范〉發(fā)布》,2021年9月26日,https://www.safea.gov.cn/kjbgz/202109/t20210926_177063.html。
[1]張璁:《規(guī)范算法推薦,保障用戶知情權(quán)選擇權(quán)》,《人民日?qǐng)?bào)》2022年1月6日。
[1]王東、張振:《人工智能倫理風(fēng)險(xiǎn)的鏡像、透視及其規(guī)避》,《倫理學(xué)研究》2021年第1期。
[2]N. Wiener, "Some Moral and Technical Consequences of Automation", Science, 1960, 131(6), pp.1355-1358.
[3]S. Russell, "Should We Fear Supersmart Robots?", Scientific American, 2016, 314(6), pp.58-59.
[4]P.-P. Verbeek, "Materializing Morality: Design Ethics and Technological Mediation", Science, Technology, & Human Values, 2006,31(3), pp.361-380.
[5]程廣云:《從人機(jī)關(guān)系到跨人際主體間關(guān)系——人工智能的定義和策略》,《自然辯證法通訊》2019年第1期。
[6]David J. Gunkel, "Perspectives on Ethics of AI: Philosophy", Markus D. Dubber, Frank Pasquale, and Sunit Das(eds.), The Oxford Handbook of Ethics of AI, Oxford: Oxford University Press, 2020, p.547.
[7]Misun Chu and Seoungho Ryu, "How to Embrace Artificial Intelligence? Focusing on Goffmans Theory", International Conference E-Society, 2019, pp.243-250.
[8]Cathrine Hasse and Dorte Marie S?ndergaard(eds.), Designing Robots, Designing Humans, London and New York: Routledge, 2020, p.2.