陳小平
(中國科學(xué)技術(shù)大學(xué) 計(jì)算機(jī)學(xué)院,安徽 合肥 230026)
隨著人工智能第三次浪潮帶來的重要進(jìn)展,人工智能倫理挑戰(zhàn)已成為當(dāng)前國內(nèi)外普遍關(guān)注的一個(gè)焦點(diǎn),一些組織和機(jī)構(gòu)開展了相關(guān)議題的研討,發(fā)布了一批人工智能倫理準(zhǔn)則的建議。中國人工智能學(xué)會(huì)對(duì)人工智能倫理問題高度重視,于2018年年中開始組建人工智能倫理專委會(huì)。在2019全球人工智能技術(shù)大會(huì)上,5月26日舉行了“全球視野下的人工智能倫理”論壇,在國際上首次提出了人工智能倫理體系規(guī)劃問題,這意味著人工智能倫理建設(shè)開始進(jìn)入第三階段,而人工智能倫理體系的關(guān)鍵問題研究提上了議事日程。正如中國人工智能學(xué)會(huì)理事長李德毅院士在論壇致辭中指出的那樣,本次論壇具有里程碑意義。
人工智能倫理建設(shè)已經(jīng)歷了兩個(gè)階段。第一階段是人工智能倫理必要性的討論,從專業(yè)角度說,耶魯大學(xué)Wendell Wallach等美國學(xué)者起了帶頭作用,在國際上引起了普遍重視;從更廣泛的背景看,尤瓦爾·赫拉利的《人類簡史》發(fā)揮了重要的推動(dòng)作用。第二階段是人工智能倫理準(zhǔn)則的討論,歐盟走在前面,中國和其他一些國家也積極參與其中。
在第二階段,歐盟人工智能倫理高級(jí)專家組提出了人工智能倫理的7條準(zhǔn)則[1],包括:確保人的能動(dòng)性和監(jiān)督性、保證技術(shù)穩(wěn)健性和安全性、加強(qiáng)隱私和數(shù)據(jù)管理、保證透明度、維持人工智能系統(tǒng)使用的多樣性、非歧視性和公平性、增強(qiáng)社會(huì)福祉、加強(qiáng)問責(zé)制。我國清華大學(xué)人工智能與安全項(xiàng)目組提出了6條準(zhǔn)則[2]:福祉原則、安全原則、共享原則、和平原則、法治原則、合作原則。據(jù)不完全統(tǒng)計(jì)[3-15],迄今已有40多個(gè)機(jī)構(gòu)或組織提出了各自的人工智能倫理準(zhǔn)則建議。總體上看,所有這些準(zhǔn)則建議是基本一致的。
因此本文認(rèn)為,人工智能倫理準(zhǔn)則討論階段已達(dá)成共識(shí)而基本結(jié)束了。在這些共識(shí)的基礎(chǔ)上,人工智能倫理建設(shè)需要進(jìn)入第三階段,即人工智能倫理體系的討論。
那么,“人工智能倫理體系”與“人工智能倫理準(zhǔn)則”有什么不同?展開人工智能倫理體系的討論有什么必要性和緊迫性?我認(rèn)為,以下4個(gè)關(guān)鍵問題,是倫理準(zhǔn)則無法回答,人工智能倫理體系建設(shè)無法回避的。不解決這些問題,就不可能建立完整、有效的人工智能倫理體系。
第一,人工智能倫理體系的運(yùn)作機(jī)制問題。任何倫理準(zhǔn)則都不可能自我執(zhí)行,都必須借助于倫理體系中的一系列相互配合的運(yùn)作機(jī)制才能得到落實(shí)。這就如同法律條文制定得再好,也不可能自我執(zhí)行,必須在完整的法制體系中才可以得到落實(shí),而法制體系是由立法、司法、執(zhí)法等機(jī)制組成的。沒有完整的法制體系的支撐,必然出現(xiàn)有法不依的問題。當(dāng)然,倫理體系與法制體系是十分不同的,不可能完全照抄法制體系的“模板”,所以必須開展人工智能倫理體系的討論,尤其是運(yùn)作機(jī)制的討論。
第二,人工智能倫理準(zhǔn)則的場(chǎng)景落地問題。已經(jīng)提出的人工智能倫理準(zhǔn)則,大部分屬于反映普世價(jià)值的原則。當(dāng)把這些準(zhǔn)則應(yīng)用于具體的實(shí)際場(chǎng)景,就需要細(xì)化為可操作的具體規(guī)定,否則必然停留在口號(hào)的層面上無法落地。例如,無人駕駛可以有兩種本質(zhì)不同的應(yīng)用場(chǎng)景。一種是完全無人駕駛交通系統(tǒng),這種交通系統(tǒng)中只有無人駕駛汽車,沒有有人駕駛汽車,行人必須嚴(yán)格遵守與普通道路交通完全不同的規(guī)則。另一種應(yīng)用場(chǎng)景是混合交通系統(tǒng),其中無人駕駛汽車和有人駕駛汽車同時(shí)存在,行人遵守普通道路交通規(guī)則。這兩種交通系統(tǒng)雖然都是無人駕駛的應(yīng)用場(chǎng)景,它們所面臨的技術(shù)和倫理風(fēng)險(xiǎn)卻是非常不同的。在混合交通系統(tǒng)中,人工智能技術(shù)面臨著難度和復(fù)雜度更大的挑戰(zhàn),而其中大部分最難的挑戰(zhàn)在無人駕駛交通系統(tǒng)中是不存在的。因此,在人工智能倫理體系中,需要為兩種交通系統(tǒng)制定非常不同的監(jiān)管規(guī)定,即使這兩種交通系統(tǒng)符合相同的人工智能倫理準(zhǔn)則。
第三,人工智能倫理風(fēng)險(xiǎn)的預(yù)測(cè)判別問題。世界上所有民航局都規(guī)定了禁帶物品清單,同時(shí)強(qiáng)制實(shí)行登機(jī)安檢,以檢測(cè)乘客和乘務(wù)人員是否攜帶了禁帶物品。在人工智能倫理體系中,也需要有對(duì)應(yīng)于“禁帶物品清單”的某種“違禁物清單”,以便有針對(duì)性地進(jìn)行風(fēng)險(xiǎn)監(jiān)督和管控。顯然,人工智能倫理準(zhǔn)則只是一些原則,并不包含人工智能的“違禁物清單”,比如“安全原則”不可能具體指出哪些人工智能技術(shù)是不安全的,“公平性原則”不可能具體指出哪些人工智能技術(shù)是不公平的。同時(shí),人工智能處于不斷發(fā)展之中,不可能一勞永逸地列出完整的“違禁物清單”。所以,只能在人工智能倫理體系中建立某種常態(tài)化機(jī)制,該機(jī)制能夠預(yù)測(cè)、判別任何一項(xiàng)人工智能技術(shù)有什么風(fēng)險(xiǎn)、風(fēng)險(xiǎn)多大、是否應(yīng)該禁用等等。這種機(jī)制過去并不存在,這是人類面臨的一個(gè)全新課題。
第四,重大社會(huì)問題綜合創(chuàng)新的動(dòng)力機(jī)制問題。倫理學(xué)的基本落腳點(diǎn)圍繞著“正確的和錯(cuò)誤的行為”[16-17];也就是說,倫理并非只關(guān)心“不做錯(cuò)事”,也關(guān)心“要做好事”??墒窃谄袢斯ぶ悄軅惱淼挠懻撝校婪讹L(fēng)險(xiǎn)的一面得到了普遍重視和廣泛討論,而推動(dòng)社會(huì)進(jìn)步和經(jīng)濟(jì)發(fā)展的一面卻沒有受到足夠重視,這已成為人工智能倫理體系建設(shè)的最大短板。有一種觀點(diǎn)認(rèn)為,推動(dòng)經(jīng)濟(jì)發(fā)展、社會(huì)進(jìn)步的問題,應(yīng)該并且已經(jīng)由人工智能研究和產(chǎn)業(yè)化承擔(dān)了,無需人工智能倫理的介入。這種觀點(diǎn)是不符合當(dāng)今社會(huì)現(xiàn)實(shí)和未來發(fā)展態(tài)勢(shì)的。例如,根據(jù)民政部等部門的統(tǒng)計(jì),中國有2.5億個(gè)家庭需要家政服務(wù),而現(xiàn)有家政服務(wù)人員不到1700萬。根據(jù)中國老齡辦2016年調(diào)查,中國失能和半失能老人總數(shù)已達(dá)4000萬,而且每年增加800萬。類似問題在發(fā)達(dá)國家也不同程度地存在著。目前,這些問題難以找到有效的解決辦法,因?yàn)楝F(xiàn)存科技和產(chǎn)業(yè)創(chuàng)新(innovation)的主要?jiǎng)恿C(jī)制是商業(yè)化,而商業(yè)化機(jī)制應(yīng)對(duì)老齡化等社會(huì)問題的效力是嚴(yán)重不足的,未來這種情況將越來越嚴(yán)重。因此,有必要在商業(yè)化機(jī)制之外,增加一種新型的綜合創(chuàng)新機(jī)制,即借助于人工智能技術(shù)的倫理性創(chuàng)新。
人工智能倫理體系的一種基礎(chǔ)架構(gòu)如圖1所示。這個(gè)架構(gòu)并不包含人工智能倫理體系的全部內(nèi)容,而是重點(diǎn)回答上面指出的4個(gè)關(guān)鍵問題。
圖 1 人工智能倫理機(jī)制構(gòu)架Fig. 1 A dynamics frameword of the AI ethics system
按照流行觀點(diǎn),人工智能創(chuàng)新生態(tài)包含3個(gè)主要環(huán)節(jié),即“社會(huì)需求”“研究”與“應(yīng)用”,它們形成一個(gè)循環(huán)演進(jìn)的閉環(huán),即需求推動(dòng)研究,成熟的研究成果經(jīng)過商業(yè)化途徑實(shí)現(xiàn)實(shí)際應(yīng)用,而實(shí)際應(yīng)用又可引發(fā)新的需求。這個(gè)閉環(huán)正是人工智能倫理體系的作用對(duì)象,而人工智能倫理體系建立之后,整個(gè)人工智能生態(tài)的構(gòu)成和運(yùn)作機(jī)制也將大大改變和升級(jí)。
人工智能倫理通過3個(gè)層次發(fā)揮作用:上層為人工智能倫理的基本使命;中層為人工智能倫理準(zhǔn)則;下層為針對(duì)具體應(yīng)用場(chǎng)景的可操作的監(jiān)督治理規(guī)定。
在圖1所示的人工智能倫理體系基礎(chǔ)架構(gòu)中,我們將人工智能倫理的基本使命定義為“為增進(jìn)人類福祉和萬物和諧共存提供倫理支撐”。這個(gè)使命本身也是一條倫理準(zhǔn)則,但相對(duì)于其他準(zhǔn)則,它的價(jià)值具有更大的普遍性和穩(wěn)定性,它的內(nèi)涵概括了其他倫理準(zhǔn)則的內(nèi)涵,而其他倫理準(zhǔn)則未必能概括基本使命的內(nèi)涵。因此,基本使命可用于指導(dǎo)人工智能研究與應(yīng)用,以及中層倫理準(zhǔn)則的制定、改進(jìn)和完善,而其他倫理準(zhǔn)則未必可以或未必需要用來指導(dǎo)倫理性研究。另外,人工智能倫理性研究不太可能改變基本使命的內(nèi)涵,卻可以影響和改變其他倫理準(zhǔn)則的內(nèi)涵??傊?,人工智能倫理的基本使命可以視為“倫理準(zhǔn)則的準(zhǔn)則”,也就是人工智能的基本價(jià)值觀。
中層的倫理準(zhǔn)則即在人工智能倫理建設(shè)第二階段中達(dá)成共識(shí)的那些價(jià)值原則。這些倫理準(zhǔn)則是基本使命的具體體現(xiàn),并為實(shí)施細(xì)則的制定和科技研究實(shí)踐提供引導(dǎo)。
為了將倫理準(zhǔn)則落實(shí)到一個(gè)個(gè)具體的應(yīng)用場(chǎng)景中,需要制定針對(duì)性、強(qiáng)制性、可操作的實(shí)施細(xì)則,即一套完整的監(jiān)督治理規(guī)定。每一個(gè)應(yīng)用場(chǎng)景都由一套對(duì)應(yīng)的規(guī)定加以約束,不同的應(yīng)用場(chǎng)景可以有不同的規(guī)定。針對(duì)一個(gè)具體的應(yīng)用場(chǎng)景,一套規(guī)定往往包含下列多方面的具體要求和規(guī)范:產(chǎn)品標(biāo)準(zhǔn)(企業(yè)標(biāo)準(zhǔn))、技術(shù)標(biāo)準(zhǔn)(團(tuán)體標(biāo)準(zhǔn)/國家標(biāo)準(zhǔn)/國際標(biāo)準(zhǔn))、行規(guī)、產(chǎn)業(yè)政策、法規(guī)等。這些不同方面的規(guī)定是由不同的機(jī)構(gòu)制定和監(jiān)管的,包括企業(yè)、標(biāo)準(zhǔn)化組織、行業(yè)組織、政府部門和法制機(jī)構(gòu),這些規(guī)定之間存在復(fù)雜的相互關(guān)系。例如,企業(yè)制定的產(chǎn)品標(biāo)準(zhǔn)的指標(biāo)不得低于標(biāo)準(zhǔn)化組織制定的技術(shù)標(biāo)準(zhǔn)的指標(biāo)。產(chǎn)品標(biāo)準(zhǔn)和技術(shù)標(biāo)準(zhǔn)是針對(duì)一類具體產(chǎn)品或服務(wù)的,而行規(guī)和產(chǎn)業(yè)政策是針對(duì)整個(gè)行業(yè)的,所以它們是互補(bǔ)的。法規(guī)是從法律層次做出的規(guī)定,具有最高的強(qiáng)制性和權(quán)威性,通常不是針對(duì)特定產(chǎn)品和服務(wù)的,甚至可以不針對(duì)具體行業(yè)。
從作為倫理實(shí)施細(xì)則的規(guī)定的構(gòu)成可以看出,人工智能倫理建設(shè)不可能由某一領(lǐng)域的專家完成,而是必須涉及一系列相關(guān)方,從企業(yè)、大學(xué)和科研機(jī)構(gòu)、標(biāo)準(zhǔn)化組織、行業(yè)組織、政府機(jī)構(gòu)到法律部門,需要所有這些相關(guān)方的相互協(xié)調(diào)和共同努力。在相關(guān)方的協(xié)調(diào)中,不僅需要遵守共同的倫理準(zhǔn)則,而且需要遵守倫理體系基礎(chǔ)架構(gòu)對(duì)各自角色的定位和相互關(guān)系的約定。
實(shí)現(xiàn)人工智能倫理基本使命的一項(xiàng)必要前提是確保人工智能的倫理底線,即確保人工智能研究和應(yīng)用的風(fēng)險(xiǎn)處于可控范圍內(nèi)。綜合看來,人工智能有以下3種風(fēng)險(xiǎn)。第一,技術(shù)誤用:由于人工智能技術(shù)不夠成熟、不夠人性化或缺乏足夠的倫理約束等原因,給使用者帶來直接的損害,比如數(shù)據(jù)隱私問題、安全性問題和公平性問題等。第二,技術(shù)失控:即人類失去對(duì)人工智能技術(shù)的控制而出現(xiàn)嚴(yán)重的后果。例如,現(xiàn)在不少人擔(dān)心,將來人工智能會(huì)全面超過人類的智慧和能力,以至于統(tǒng)治人類。第三,應(yīng)用失控:人工智能技術(shù)在某些行業(yè)的普遍應(yīng)用帶來嚴(yán)重的負(fù)面社會(huì)效果,如導(dǎo)致很多人失業(yè)。
目前全球不存在相關(guān)機(jī)構(gòu)和充分的研究力量,能夠?qū)@3種風(fēng)險(xiǎn)進(jìn)行預(yù)測(cè)和判別。因此,有必要在人工智能創(chuàng)新生態(tài)中,增設(shè)一種新型研究模式和部門——人工智能倫理性研究,這種研究的一個(gè)核心職能是承擔(dān)對(duì)3種風(fēng)險(xiǎn)的預(yù)測(cè)和判別,也就是擔(dān)任人工智能風(fēng)險(xiǎn)底線的守護(hù)者。因此,在未來人工智能創(chuàng)新生態(tài)中,“研究”將被劃分為兩個(gè)相對(duì)獨(dú)立的部門,一個(gè)是傳統(tǒng)的科技研究/技術(shù)性研究部門,一個(gè)是倫理性研究部門,它們之間存在相互支持的關(guān)系。
人工智能風(fēng)險(xiǎn)預(yù)測(cè)判別研究與傳統(tǒng)的科技研究之間存在本質(zhì)區(qū)別。技術(shù)學(xué)科的研究歷來以“潛在應(yīng)用”為目的,自然科學(xué)研究則以“求知”為目的,而人工智能風(fēng)險(xiǎn)預(yù)測(cè)判別研究的基本職能是依據(jù)倫理準(zhǔn)則,通過科學(xué)手段,探明某項(xiàng)技術(shù)的風(fēng)險(xiǎn)及其嚴(yán)重性,從而為是否應(yīng)該禁用該技術(shù)提供可靠依據(jù)。因此,風(fēng)險(xiǎn)預(yù)測(cè)判別研究以“潛在禁用”為主要目的。由此可見,建立人工智能倫理研究部門是絕對(duì)必要的。在圖1中,有一個(gè)從倫理研究到倫理準(zhǔn)則、到實(shí)施細(xì)則、到應(yīng)用場(chǎng)景再到倫理研究的閉環(huán),這個(gè)閉環(huán)反映了人工智能倫理研究在整個(gè)創(chuàng)新生態(tài)中的作用。
針對(duì)3種風(fēng)險(xiǎn),人工智能風(fēng)險(xiǎn)預(yù)測(cè)判別研究的主要任務(wù)及其必要性概述如下。
關(guān)于第一種倫理風(fēng)險(xiǎn),事實(shí)上已經(jīng)在現(xiàn)有人工智能和其他技術(shù)的應(yīng)用中存在著,這種情況的嚴(yán)重性被普遍低估了,也沒有受到有效的監(jiān)督與管控。因此,針對(duì)數(shù)據(jù)隱私、安全性、公平性等倫理問題,亟需加強(qiáng)人工智能和相關(guān)技術(shù)的倫理體系建設(shè),加強(qiáng)專業(yè)隊(duì)伍的建設(shè),加強(qiáng)針對(duì)具體倫理問題的研究,設(shè)置更高標(biāo)準(zhǔn)的相關(guān)規(guī)定,實(shí)行有效的監(jiān)管和治理,這些應(yīng)成為當(dāng)前人工智能倫理研究與治理的重點(diǎn)任務(wù)。
第二種風(fēng)險(xiǎn)的近期緊迫性不強(qiáng),但長期嚴(yán)重性絕不可低估。傳統(tǒng)技術(shù)都不是自主的,而人工智能可以具有完全自主性。完全自主性意味著,人工智能可以完全獨(dú)立于人類而實(shí)現(xiàn)現(xiàn)實(shí)世界中復(fù)雜任務(wù)的感知、決策和行動(dòng)。有分析認(rèn)為,具有類似于人的自我意識(shí)的完全自主的人工智能系統(tǒng)一旦研制出來,就會(huì)獨(dú)立地自我繁殖和自我進(jìn)化,并突破任何倫理規(guī)范和人類控制[18]。果真如此,允許這樣的人工智能系統(tǒng)被研發(fā)出來,就意味著人類將被人工智能統(tǒng)治,也就意味著任何人工智能倫理準(zhǔn)則都淪為空談。當(dāng)然,現(xiàn)有哲學(xué)分析還不是充分的科學(xué)論證,所以這種可能性尚未得到證實(shí),但有必要認(rèn)真對(duì)待。對(duì)于這種風(fēng)險(xiǎn)進(jìn)行預(yù)測(cè)和判別,是一項(xiàng)極其艱巨、復(fù)雜且無先例的工作,關(guān)系到人類長期生存的安全底線。
第三種風(fēng)險(xiǎn)目前沒有嚴(yán)重表現(xiàn),但潛在風(fēng)險(xiǎn)肯定是有的。以工業(yè)生產(chǎn)為例,一些勞動(dòng)密集型產(chǎn)業(yè)已經(jīng)在部分地區(qū)普遍出現(xiàn)了“用工難”現(xiàn)象,但這種現(xiàn)象并不是由于人工智能、機(jī)器人等新技術(shù)的應(yīng)用引起的,而是由于大量崗位的工作性質(zhì)已經(jīng)變成了簡單操作的機(jī)械性重復(fù),這種作業(yè)是不符合人性的。未來的必然趨勢(shì)是,愿意承擔(dān)這種工作的人將越來越少,因而對(duì)人工智能、機(jī)器人技術(shù)產(chǎn)業(yè)應(yīng)用的需求將越來越強(qiáng),于是在一些行業(yè)中人工替代率將越來越高。如果無法解決再就業(yè)問題,就可能引起應(yīng)用失控,產(chǎn)生極其嚴(yán)重的社會(huì)后果。由此可見,對(duì)這種風(fēng)險(xiǎn)的預(yù)測(cè)和判別是極其復(fù)雜、極其困難的,需要多學(xué)科合作和長期努力。
人工智能的根本價(jià)值在于增加人類的福祉。在本文建議的人工智能倫理體系中,這條原則被列為基本使命,而且所有已經(jīng)提出的倫理建議都包含這條準(zhǔn)則。人類福祉的一個(gè)集中體現(xiàn),是幫助解決社會(huì)面臨或?qū)砻媾R的重大問題,例如:氣候變暖、環(huán)境污染、人口老齡化、資源分布不均、經(jīng)濟(jì)發(fā)展不均衡、產(chǎn)業(yè)少人化等。
這些重大社會(huì)問題有三個(gè)基本特點(diǎn):第一,從本性上看,現(xiàn)有商業(yè)化機(jī)制不適合解決這類問題;第二,目前也不存在其他有效的應(yīng)對(duì)手段;第三,這類問題的解決方案往往不是純技術(shù)性的,而是綜合性的,并且人工智能技術(shù)可以在其中發(fā)揮重要作用。那么,人工智能倫理如何為解決重大社會(huì)問題發(fā)揮重要作用?目前,對(duì)這個(gè)問題的研究是整個(gè)人工智能倫理建設(shè)中最為薄弱、最為欠缺的一環(huán)[19]。
本文認(rèn)為,在人工智能倫理體系中的“倫理性研究”部門,應(yīng)該包含兩項(xiàng)基本職能。一項(xiàng)是上文提出的“風(fēng)險(xiǎn)預(yù)測(cè)判別”,另一項(xiàng)是“倫理性創(chuàng)新”。作為一種全新機(jī)制,倫理性創(chuàng)新將為重大社會(huì)問題的應(yīng)對(duì)提供研究支撐,其主要工作任務(wù)如下。
第一,社會(huì)變化主客觀數(shù)據(jù)的采集分析。在科技和產(chǎn)業(yè)創(chuàng)新飛速發(fā)展的時(shí)代,民眾的生活、工作和心理狀態(tài)也在快速變化,而且不同群體的主觀感受、教育觀念、就業(yè)傾向、消費(fèi)觀念、生活態(tài)度和人機(jī)關(guān)系認(rèn)知等等也處于不斷變化之中。目前,社會(huì)對(duì)這些信息的把握是十分有限的,這種狀況對(duì)于社會(huì)的健康發(fā)展是十分不利的,亟需加以改變。因此,開發(fā)相應(yīng)的人工智能和大數(shù)據(jù)等技術(shù),及時(shí)充分地收集反映這些變化的指標(biāo)數(shù)據(jù),并與傳統(tǒng)的產(chǎn)業(yè)和社會(huì)統(tǒng)計(jì)數(shù)據(jù)相結(jié)合,通過系統(tǒng)性分析得出社會(huì)狀況的科學(xué)判斷,對(duì)于維持社會(huì)平穩(wěn)運(yùn)行,更加合理地進(jìn)行政策決策和規(guī)劃制定,具有極其重大的現(xiàn)實(shí)意義,同時(shí)也為更好地應(yīng)對(duì)重大社會(huì)問題奠定了必要基礎(chǔ)。
第二,社會(huì)發(fā)展可能態(tài)勢(shì)的分析預(yù)測(cè)。在未來某個(gè)時(shí)段,完全可能出現(xiàn)大量工作被機(jī)器取代、大批工作年齡人口無工可做的情況。這種情況下的社會(huì)結(jié)構(gòu)、經(jīng)濟(jì)運(yùn)行機(jī)理和社會(huì)發(fā)展動(dòng)力,與當(dāng)下社會(huì)是根本不同的。因此,在應(yīng)對(duì)某些重大社會(huì)問題的過程中,未來人類很可能進(jìn)入一個(gè)全新的社會(huì)文明階段。為了保證這種社會(huì)演化符合人類的根本利益,保證宇宙萬物的和諧共存,人類完全有必要未雨綢繆,而不應(yīng)被動(dòng)地隨波逐流。對(duì)未來社會(huì)發(fā)展可能態(tài)勢(shì)進(jìn)行分析預(yù)測(cè),是社會(huì)長期發(fā)展規(guī)劃的必要基礎(chǔ)。這種分析預(yù)測(cè)是非常困難的,需要多學(xué)科合作,而人工智能技術(shù)可以在其中發(fā)揮重要作用。
第三,重大社會(huì)問題解決方案的創(chuàng)新設(shè)計(jì)。人類面臨的重大社會(huì)問題,往往難以就事論事地得到解決,需要通過綜合性創(chuàng)新找出化解之道[20]。然而面對(duì)如此高維復(fù)雜的問題,單純依靠人工智能技術(shù)和其他相關(guān)技術(shù)手段,是不可能自動(dòng)求解的。因此,有必要探索人機(jī)合作的求解模式,而人工智能技術(shù)可以顯著提升人機(jī)合作問題求解的水平和性能。例如,利用人工智能“暴力法”[21]中的“假設(shè)推理”方法,可以進(jìn)行人機(jī)合作式問題求解,而且在高維復(fù)雜應(yīng)用場(chǎng)景中已有成功案例,假設(shè)推理發(fā)現(xiàn)了單純依靠人或機(jī)器都無法發(fā)現(xiàn)的有效的解決方案。因此,針對(duì)重大社會(huì)問題,借助人工智能技術(shù),通過人機(jī)合作方式,完全可能發(fā)現(xiàn)以往無法發(fā)現(xiàn)的綜合創(chuàng)新方案。在未來科技和產(chǎn)業(yè)革命時(shí)代,這將是人工智能倫理體系為人類做出的巨大貢獻(xiàn)。
在人工智能倫理準(zhǔn)則達(dá)成的基本共識(shí)的基礎(chǔ)上,本文提出人工智能倫理體系規(guī)劃問題,重點(diǎn)討論解決倫理準(zhǔn)則無法解答而倫理體系必須解決的4個(gè)關(guān)鍵問題——運(yùn)行機(jī)制問題、場(chǎng)景落地問題、風(fēng)險(xiǎn)預(yù)測(cè)判別問題和發(fā)展動(dòng)力問題,并對(duì)這些問題提出了初步解決方案。
人工智能倫理體系的運(yùn)行機(jī)制由它的基礎(chǔ)架構(gòu)決定,該架構(gòu)規(guī)定了倫理體系的主要部門以及它們之間的相互關(guān)系,其中包括場(chǎng)景落地的機(jī)制。本文建議,在人工智能創(chuàng)新生態(tài)中增設(shè)一個(gè)新型研究部門——倫理性研究,它有兩項(xiàng)基本職能:人工智能風(fēng)險(xiǎn)預(yù)測(cè)判別和應(yīng)對(duì)重大社會(huì)問題的倫理性創(chuàng)新。根據(jù)這些分析和建議,在未來人工智能時(shí)代,社會(huì)進(jìn)步和經(jīng)濟(jì)發(fā)展將進(jìn)入“雙輪驅(qū)動(dòng)”模式,以傳統(tǒng)的商業(yè)化創(chuàng)新和新設(shè)立的倫理性創(chuàng)新作為兩個(gè)不同而相互關(guān)聯(lián)的動(dòng)力機(jī)制。
總之,人工智能倫理建設(shè)面臨一系列挑戰(zhàn),不是將一般倫理學(xué)原則、方法和規(guī)則具體化到人工智能就可以奏效的。如何建立這樣的人工智能倫理體系,仍需要相關(guān)各方緊密合作,進(jìn)行長期、艱苦的探索。
致謝筆者在與下列學(xué)者和專業(yè)人士的相關(guān)交流中受益良多:李德毅院士、趙汀陽、陳嘉映、王蓉蓉、宋曉剛、郝玉成、于劍、王衛(wèi)寧、潘天佑、秦宇、Jeroen van den Hoven、Wendell Wallach、劉曉力、蘇彥捷、孫周興、王國豫、宋冰、劉哲、梁正、Steve Angle。