李珍珍,嚴(yán) 宇,孟天廣
(1,2,3.清華大學(xué),北京 100084)
第四次工業(yè)革命正深刻改造著人類社會(huì)及其治理體系。隨著人工智能對新聞、駕駛、養(yǎng)老、司法、政府、制造等領(lǐng)域的嵌入和滲透愈益深入,技術(shù)的負(fù)面效果如歧視、支配、“黑箱”與安全風(fēng)險(xiǎn)等引發(fā)了社會(huì)的普遍擔(dān)憂。人工智能技術(shù)在全球范圍內(nèi)的快速迭代,既顯著提升了人類福祉,也催生了諸多倫理爭論并使之成為全球科技發(fā)展與治理的前沿議題。面對人工智能技術(shù)的飛速進(jìn)步及其對人類社會(huì)產(chǎn)生的深遠(yuǎn)影響,學(xué)術(shù)團(tuán)體、公眾、政府及科技企業(yè)(尤其是其中的頭部企業(yè))日益重視人工智能的倫理面向,界定核心倫理價(jià)值標(biāo)準(zhǔn),并尋找倫理問題的解決思路和方案,從而引領(lǐng)和規(guī)范人工智能技術(shù)的研發(fā)、供給與應(yīng)用。
所謂“人工智能倫理”,是指“當(dāng)前在人工智能技術(shù)開發(fā)和應(yīng)用中,依照理想中的人倫關(guān)系、社會(huì)秩序所確立的,相關(guān)主體應(yīng)予以遵循的標(biāo)準(zhǔn)或原則”①陳磊、王柏村、黃思翰等:《人工智能倫理準(zhǔn)則與治理體系:發(fā)展現(xiàn)狀和戰(zhàn)略建議》,《科技管理研究》2021年第6期。。人工智能倫理作為科技倫理的一部分,是21世紀(jì)以來繼納米倫理和生命科學(xué)技術(shù)倫理之后的又一個(gè)科技倫理研究焦點(diǎn)。尤其是新冠病毒肺炎疫情暴發(fā)以來,人工智能技術(shù)在疫情分析、病毒溯源、人口流動(dòng)監(jiān)控、健康信息管理、線上辦公等領(lǐng)域發(fā)揮著不可缺少的作用,這不僅加快了人工智能技術(shù)滲透經(jīng)濟(jì)社會(huì)的進(jìn)程,還加速了各國針對人工智能倫理問題所開展的政策和立法議程。我國作為人工智能產(chǎn)業(yè)大國,近年來對人工智能倫理的重視也已上升到國家層面,加強(qiáng)相關(guān)政策的研究,逐步制定相關(guān)法律法規(guī)和倫理規(guī)范,并以算法推薦為開端啟動(dòng)了對人工智能技術(shù)及其應(yīng)用的監(jiān)管。與此同時(shí),近年來學(xué)術(shù)界呼吁將人工智能倫理議題提上研究議程。②沈向洋、龔克、喬杰等:《認(rèn)識及應(yīng)對新興技術(shù)帶來的倫理問題》,《科技導(dǎo)報(bào)》2021年第2期。既有研究從風(fēng)險(xiǎn)生成、應(yīng)用領(lǐng)域、算法技術(shù)等多元視角闡述了人工智能帶來的倫理挑戰(zhàn),并圍繞核心目標(biāo)、公共政策、技術(shù)優(yōu)化、人機(jī)關(guān)系等方面提出了相應(yīng)的治理思路。
人工智能是第四次工業(yè)革命的引領(lǐng)性技術(shù),全面提高了人類經(jīng)濟(jì)社會(huì)的運(yùn)轉(zhuǎn)效率。然而,科技與倫理緊密交織,現(xiàn)代科學(xué)技術(shù)活動(dòng)也是一場開拓性的社會(huì)倫理試驗(yàn),技術(shù)的研究和應(yīng)用使得其倫理向度在科技時(shí)代得以空前延伸和拓展。③劉大椿、段偉文:《科技時(shí)代倫理問題的新向度》,《新視野》2000年第1期。當(dāng)科技發(fā)展與社會(huì)倫理之間存在的張力,與人類在宗教信仰、傳統(tǒng)文化、身心健康、信息隱私、環(huán)境保護(hù)等方面的傳統(tǒng)觀念產(chǎn)生沖突與碰撞,科技的倫理問題隨之顯現(xiàn)??v觀人類社會(huì)的發(fā)展歷程,從蒸汽機(jī)到電力和內(nèi)燃機(jī),到互聯(lián)網(wǎng)和計(jì)算機(jī),再到今天的自動(dòng)化和人工智能,每一次重大的技術(shù)突破都會(huì)給人類社會(huì)與自然環(huán)境帶來風(fēng)險(xiǎn)和挑戰(zhàn),譬如失業(yè)、安全風(fēng)險(xiǎn)、生態(tài)破壞等。④莫宏偉:《強(qiáng)人工智能與弱人工智能的倫理問題思考》,《科學(xué)與社會(huì)》2018年第1期。特別是第三次工業(yè)革命以來,原子能、微電子、航天、海洋、生物、新材料、新能源、電子計(jì)算機(jī)等領(lǐng)域的技術(shù)在極大地推動(dòng)人類社會(huì)全方位變革的同時(shí),也在不斷地沖擊著傳統(tǒng)的價(jià)值觀念。事實(shí)上,20世紀(jì)60年代中后期,在核技術(shù)和環(huán)境惡化的威脅下,科技活動(dòng)的倫理問題已經(jīng)成為社會(huì)和學(xué)術(shù)研究普遍關(guān)注的問題。⑤朱葆偉:《關(guān)于技術(shù)倫理學(xué)的幾個(gè)問題》,《東北大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版)2008年第4期。簡言之,科技發(fā)展不是價(jià)值無涉的,技術(shù)與價(jià)值的矛盾構(gòu)成了科技倫理學(xué)形成的基礎(chǔ)。
21世紀(jì)的社會(huì)是人類歷史上當(dāng)之無愧的技術(shù)社會(huì),然而有不少觀點(diǎn)對其前景表示深刻擔(dān)憂。2000年,美國計(jì)算機(jī)科學(xué)家比爾·喬伊在《為什么未來不需要我們》一文中預(yù)言,納米技術(shù)、基因工程和機(jī)器人對人類社會(huì)存在潛在威脅,有可能會(huì)使人類成為瀕危物種。⑥Bill Joy, “Why the Future Doesn't Need Us,” April 1,2000,https://www.wired.com/2000/04/joy-2/.同年,納米技術(shù)、生物技術(shù)和機(jī)器人被美國《發(fā)現(xiàn)》雜志評為21世紀(jì)威脅人類生存的重大危險(xiǎn)。⑦王國豫、龔超、張燦:《納米倫理:研究現(xiàn)狀、問題與挑戰(zhàn)》,《科學(xué)通報(bào)》2011年第2期。在人工智能倫理成為研究熱點(diǎn)之前,科技倫理的研究焦點(diǎn)是納米技術(shù)倫理和生命科學(xué)技術(shù)倫理。⑧侯劍華、周莉娟:《中西方技術(shù)倫理研究前沿的可視化分析與比較》,《科學(xué)與社會(huì)》2016年第4期。納米技術(shù)的倫理研究始于21世紀(jì)初,源自人們對納米技術(shù)潛在危害的恐懼。納米技術(shù)可以在原子和分子的尺度上對物質(zhì)進(jìn)行操縱,在電子信息、航空航天、生物醫(yī)藥、工業(yè)制造、能源環(huán)保等方面得到了廣泛應(yīng)用。然而,納米技術(shù)也存在著廣泛的倫理爭議,譬如納米材料的毒性問題、納米技術(shù)帶來的風(fēng)險(xiǎn)承擔(dān)與利益分配問題,以及將納米技術(shù)用于人類能力增強(qiáng)、武器制造、隱私監(jiān)控問題等。①陳子薇、馬力:《納米技術(shù)倫理問題與對策研究》,《科技管理研究》2018年第24期;張燦:《國外納米倫理學(xué)研究熱點(diǎn)問題評析》,《國外社會(huì)科學(xué)》2016年第2期。另一個(gè)引發(fā)巨大倫理爭議的技術(shù)來自生命科學(xué)領(lǐng)域,其討論熱度至今未減。自1978年人類首個(gè)試管嬰兒誕生以來,轉(zhuǎn)基因技術(shù)、克隆技術(shù)、人類胚胎干細(xì)胞技術(shù)等生命科學(xué)技術(shù)迅速發(fā)展??茖W(xué)家成功地將此類技術(shù)用于創(chuàng)造、修改人類生命的實(shí)驗(yàn),成為各國普遍關(guān)注的熱點(diǎn),人們對之在歡呼之余也充斥著批判與懷疑。②樊春良、張新慶、陳琦:《關(guān)于我國生命科學(xué)技術(shù)倫理治理機(jī)制的探討》,《中國軟科學(xué)》2008年第8期。腦死亡移植、輔助生殖和克隆人技術(shù)引發(fā)了社會(huì)對死亡判定、生育權(quán)利和人類尊嚴(yán)的多維思考,③田妍、周程:《生命科學(xué)技術(shù)將步向何方?——林真理〈被操作的生命:科學(xué)話語的政治學(xué)〉評介》,《科學(xué)與社會(huì)》2019年第2期。而當(dāng)前CRISPR/Cas9技術(shù)可以精確地對基因組特定位點(diǎn)進(jìn)行修改,使我們不得不思考用技術(shù)編輯人類基因的紅線在哪里。
繼納米技術(shù)和生命科學(xué)技術(shù)之后,人工智能技術(shù)的快速迭代及其廣泛應(yīng)用引發(fā)了科技倫理新一輪的討論與反思。人工智能的概念自1956年在達(dá)特茅斯會(huì)議上被首次提出以來,相關(guān)研究幾經(jīng)沉浮。進(jìn)入21世紀(jì),尤其是2010年以來,得益于數(shù)據(jù)的海量積累、算力的顯著提升、算法的優(yōu)化升級,人工智能全面復(fù)興且實(shí)現(xiàn)了迅猛發(fā)展,并于2016年發(fā)生了計(jì)算機(jī)程序Alpha Go擊敗圍棋高手李世石這一人工智能發(fā)展史上的標(biāo)志性事件。目前,人工智能仍處于爆發(fā)式發(fā)展階段,機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、模式識別、知識圖譜、計(jì)算機(jī)視覺、自然語言處理等技術(shù)日新月異,在智能檢索、圖像處理、語音識別、機(jī)器翻譯、語義理解、人機(jī)交互等任務(wù)上不斷取得突破,帶來了智能音箱、機(jī)械手臂、無人駕駛汽車、服務(wù)機(jī)器人、新聞推送APP等應(yīng)用產(chǎn)品。
當(dāng)前,人工智能倫理已成為倫理學(xué)研究的新興領(lǐng)域。事實(shí)上,早在20世紀(jì)中葉,“控制論之父”諾伯特·維納就預(yù)見到自動(dòng)化技術(shù)的潛在風(fēng)險(xiǎn)。④章文光、賈茹:《人工智能的社會(huì)倫理困境:提升效率、輔助與替代決策》,《東岳論叢》2021年第8期。21世紀(jì)初,未來學(xué)家雷·庫茲韋爾認(rèn)為,到2045年計(jì)算機(jī)會(huì)超越人類。⑤[美]雷·庫茲韋爾:《奇點(diǎn)臨近:當(dāng)計(jì)算機(jī)智能超越人類》,李慶誠、董振華、田源譯,北京:機(jī)械工業(yè)出版社,2011年。近年來,來自各個(gè)領(lǐng)域的專家學(xué)者仍然對人工智能“可能的心智”表達(dá)了擔(dān)憂,認(rèn)為人工智能有可能對人類生存造成威脅。⑥[美]約翰·布羅克曼:《AI的25種可能》,王佳音譯,杭州:浙江人民出版社,2019年。無獨(dú)有偶,喬納森·諾蘭執(zhí)導(dǎo)的《西部世界》虛構(gòu)了機(jī)器人意識覺醒、反抗人類以奪取控制權(quán)的故事。此外,不同領(lǐng)域的知名人士,譬如物理學(xué)家史蒂芬·霍金、哲學(xué)家尼克·波斯特洛姆、特斯拉CEO埃隆·馬斯克,都曾對人工智能最終發(fā)展出自主意識、脫離人類控制提出過警示。
對于人工智能發(fā)展所導(dǎo)致的后果,人們擔(dān)憂具有自我意識的強(qiáng)人工智能和超人工智能的潛在威脅,思考人類命運(yùn)是否會(huì)被機(jī)器所控制。目前,我們?nèi)蕴幱谒^的機(jī)器無自主意識的弱人工智能階段,⑦莫宏偉:《強(qiáng)人工智能與弱人工智能的倫理問題思考》,《科學(xué)與社會(huì)》2018年第1期。但即便是在弱人工智能時(shí)代,因技術(shù)引發(fā)的倫理問題也層出不窮,譬如數(shù)據(jù)泄露和隱私侵犯、信息偽造和內(nèi)容造假、算法歧視和算法獨(dú)裁、產(chǎn)品事故問責(zé)困難等問題。更何況,當(dāng)前智能技術(shù)幾乎滲透到人類社會(huì)的各個(gè)方面,社交、家居、制造、零售、交通、醫(yī)療、城市管理等領(lǐng)域無不充斥著人工智能的身影,智能家居、智能支付、精準(zhǔn)推送、自動(dòng)駕駛、無人超市、智能客服、城市大腦等人工智能應(yīng)用屢見不鮮。技術(shù)的普遍滲透更是引發(fā)了社會(huì)對人工智能取代人類勞動(dòng)力、損害人類自主性的擔(dān)憂。
對于當(dāng)前弱人工智能技術(shù)衍生的倫理問題,既有文獻(xiàn)從多元視角對現(xiàn)有問題及其機(jī)制進(jìn)行了分析。從風(fēng)險(xiǎn)視角看,趙志耘等認(rèn)為當(dāng)前人工智能倫理風(fēng)險(xiǎn)表現(xiàn)在人類決策自主性、隱私保護(hù)、社會(huì)公平、安全責(zé)任歸屬以及生態(tài)等方面的破壞或失衡;①趙志耘、徐峰、高芳等:《關(guān)于人工智能倫理風(fēng)險(xiǎn)的若干認(rèn)識》,《中國軟科學(xué)》2021年第6期。譚九生和楊建武認(rèn)為人工智能技術(shù)風(fēng)險(xiǎn)生成于算法技術(shù)黑箱、價(jià)值理性與工具理性之間難以協(xié)調(diào),以及人類自身在風(fēng)險(xiǎn)認(rèn)知與應(yīng)對能力上的有限性。②譚九生、楊建武:《人工智能技術(shù)的倫理風(fēng)險(xiǎn)及其協(xié)同治理》,《中國行政管理》2019年第10期。從應(yīng)用視角看,既有文獻(xiàn)對智能駕駛的責(zé)任歸屬問題、③司曉、曹建峰:《論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車和智能機(jī)器人為切入點(diǎn)》,《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2017年第5期。智能司法的司法公正問題、④羅洪洋、李相龍:《智能司法中的倫理問題及其應(yīng)對》,《政法論叢》2021年第1期。信息推送服務(wù)的“信息繭房”問題、⑤彭蘭:《導(dǎo)致信息繭房的多重因素及“破繭”路徑》,《新聞界》2020年第1期。機(jī)器人看護(hù)的受護(hù)者尊嚴(yán)問題⑥Amanda Sharkey, “Robots and human dignity: a consideration of the eff ects of robot care on the dignity of older people,” Ethics and Information Technology, Vol.16,No.1, 2014, pp.63-75.等方面加以探討。從算法視角看,算法是驅(qū)動(dòng)人工智能快速發(fā)展的引擎,郭毅認(rèn)為算法社會(huì)無法回避隱私數(shù)據(jù)泛濫、知識權(quán)力的不對稱、黑箱運(yùn)作以及算法妨害,基于算法的決策有可能會(huì)放大人類社會(huì)既有的不平等、不透明、操縱。⑦郭毅:《“人吃人”:算法社會(huì)的文化邏輯及其倫理風(fēng)險(xiǎn)》,《中國圖書評論》2021年第9期。對于人工智能倫理問題的治理,既有文獻(xiàn)圍繞著倫理治理的核心目標(biāo)、公共政策、技術(shù)優(yōu)化、人機(jī)關(guān)系調(diào)整等提出了應(yīng)對方案。薛瀾和趙靜認(rèn)為政府在人工智能與新興產(chǎn)業(yè)發(fā)展和監(jiān)管上應(yīng)該建立起以敏捷為核心的治理框架;⑧薛瀾、趙靜:《走向敏捷治理:新興產(chǎn)業(yè)發(fā)展與監(jiān)管模式探究》,《中國行政管理》2019年第8期。賈開和蔣余浩認(rèn)為,智能時(shí)代的公共政策選擇應(yīng)該著力于完善算法和數(shù)據(jù)的治理體系與治理機(jī)制、創(chuàng)新社會(huì)治理制度以及構(gòu)建全球治理機(jī)制。⑨賈開、蔣余浩:《人工智能治理的三個(gè)基本問題:技術(shù)邏輯、風(fēng)險(xiǎn)挑戰(zhàn)與公共政策選擇》,《中國行政管理》2017年第10期。
概言之,人工智能作為21世紀(jì)的代表性技術(shù),雖然極大地促進(jìn)了經(jīng)濟(jì)社會(huì)的發(fā)展,但其伴生的倫理問題已成為當(dāng)下科技倫理研究的焦點(diǎn)與前沿議題。隨著人工智能技術(shù)在社會(huì)各領(lǐng)域的逐步推廣,人工智能的倫理問題將進(jìn)一步凸顯。在此背景下,如何界定人工智能的倫理原則,對于引領(lǐng)與規(guī)范人工智能發(fā)展具有戰(zhàn)略性意義。
科技發(fā)展往往伴隨著人文反思。隨著人工智能在社會(huì)各領(lǐng)域的應(yīng)用和推廣,人工智能的價(jià)值日益得到社會(huì)認(rèn)可,但相關(guān)倫理問題,如算法濫用、自動(dòng)駕駛事故、個(gè)人隱私侵犯等,也引發(fā)了社會(huì)各界的廣泛關(guān)注,世界主要國家和相關(guān)機(jī)構(gòu)已逐步提出相關(guān)倫理原則。事實(shí)上,有關(guān)人工智能倫理原則的討論可追溯到艾薩克·阿西莫夫1942年發(fā)表的短篇小說《轉(zhuǎn)圈圈》,其中提出了著名的“阿西莫夫三定律”:一是機(jī)器人不得傷害人類,也不得坐視人類受到傷害;二是機(jī)器人必須服從人類的命令,除非這與第一定律相沖突;三是機(jī)器人必須保護(hù)自身的存在,除非這與第一或第二定律相沖突。“阿西莫夫三定律”具有啟發(fā)性意義,是后續(xù)所有人工智能技術(shù)倫理準(zhǔn)則的基礎(chǔ)。①Lea Rothenberger, Benjamin Fabian, Elmar Arunov, “Relevance of ethical guidelines for artificial intelligence-a survey and evaluation,” Proceedings of the 27th European Conference on Information Systems (ECIS), 2019.
自2010年以來,為規(guī)范人工智能的研發(fā)與應(yīng)用,國際組織、政府機(jī)構(gòu)、科技公司、科技社群、學(xué)術(shù)團(tuán)體等利益相關(guān)主體一直致力于編制規(guī)范性文件,頒布人工智能倫理的原則、倡議和指南。在國際組織方面,2019年經(jīng)濟(jì)合作與發(fā)展組織發(fā)布了“負(fù)責(zé)任地管理可信人工智能”的原則,包含包容性增長、以人為本、透明性、穩(wěn)健性、責(zé)任等元素。2021年聯(lián)合國教科文組織發(fā)布《人工智能倫理問題建議書》,這是全球?qū)用媸讉€(gè)人工智能倫理的規(guī)范框架,旨在促進(jìn)智能技術(shù)造福人類、社會(huì)、環(huán)境以及生態(tài)系統(tǒng)。
在政府方面,2019年美國白宮發(fā)布題為《維持美國在人工智能領(lǐng)域領(lǐng)導(dǎo)地位》的行政令,強(qiáng)調(diào)減少使用人工智能技術(shù)的阻礙,同時(shí)保護(hù)美國的技術(shù)、經(jīng)濟(jì)和國家安全、公民自由、隱私和價(jià)值觀。②“Maintaining American Leadership in Artificial Intelligence,” February 11, 2019, https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence.2019年歐盟發(fā)布《可信AI倫理指南》,指出人工智能從業(yè)人員在開發(fā)、部署和使用人工智能系統(tǒng)時(shí),要遵守四項(xiàng)倫理原則——尊重人類自主、防止傷害、公平以及可解釋性。③High-Level Expert Group on Artificial Intelligence, “Ehics Guidelines for Trustworthy AI,” April 8, 2019, file:///Users/lizhenzhen/Downloads/ai_hleg_ethics_guidelines_for_trustworthy_ai-en_87F84A41-A6E8-F38C-BFF661481B40077B_60419.pdf.
在科技企業(yè)方面,谷歌、微軟、IBM等主要的人工智能大型企業(yè)公布了各自的倫理原則和方針。譬如,微軟在2018年出版的《計(jì)算未來:人工智能及其社會(huì)角色》中提出人工智能應(yīng)遵循六大原則,即系統(tǒng)公平、可靠與安全、隱私與保障、包容、透明以及負(fù)責(zé)。④沈向陽、[美]施博德:《計(jì)算未來:人工智能及其社會(huì)角色》,北京:北京大學(xué)出版社,2018年,第26頁。
在科技社群方面,美國計(jì)算機(jī)協(xié)會(huì)、電氣與電子工程師協(xié)會(huì)等專業(yè)協(xié)會(huì)也就合乎倫理的人工智能提出建議。譬如,美國計(jì)算機(jī)協(xié)會(huì)倡導(dǎo)算法開發(fā)和部署要落實(shí)知情、訪問與救濟(jì)機(jī)制、可問責(zé)、解釋等七個(gè)原則。
在學(xué)術(shù)研究方面,除相關(guān)學(xué)術(shù)論文日益增多之外,涉及人工智能倫理治理的學(xué)術(shù)會(huì)議也逐漸增加,還有會(huì)議專門以人工智能的公平、問責(zé)制、透明度為主題。⑤斯坦福大學(xué)以人為本人工智能研究院:《人工智能指數(shù)2021年年度報(bào)告》,2021年4月,https://aiindex.stanford.edu/wpcontent/uploads/2021/04/2021-AI-Index-Report_Chinese-Edition.pdf。此外,《牛津人工智能倫理手冊》于2020年出版,其中討論了責(zé)任、透明、種族和性別、機(jī)器代人、自主性等問題。
在這場全球性智能倫理倡議的熱潮中,中國作為人工智能大國,也提出了相應(yīng)的倫理原則與治理框架。2019年6月,國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出人工智能發(fā)展的相關(guān)各方應(yīng)遵循和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理八個(gè)基本原則。2021年9月發(fā)布的《新一代人工智能倫理規(guī)范》提出了增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確??煽乜尚拧?qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)六項(xiàng)基本要求。2021年以來,伴隨著中央網(wǎng)信辦等部門啟動(dòng)算法綜合治理與推薦管理,部分倫理要求隨著人工智能相關(guān)立法與監(jiān)管活動(dòng)在一定程度上得以付諸實(shí)踐。
據(jù)不完全統(tǒng)計(jì),全球范圍內(nèi)人工智能的倫理原則或倡議已超過百項(xiàng),組成了人工智能倫理治理的“軟體系”。①賈開、薛瀾:《人工智能倫理問題與安全風(fēng)險(xiǎn)治理的全球比較與中國實(shí)踐》,《公共管理評論》2021年第1期。對此,有研究機(jī)構(gòu)以現(xiàn)有倫理指南為研究材料,從中總結(jié)出社會(huì)各界對人工智能倫理的關(guān)切要點(diǎn)。譬如,波士頓人工智能倫理實(shí)驗(yàn)室開發(fā)了一個(gè)工具箱,用于便捷地呈現(xiàn)已有的倫理原則。實(shí)驗(yàn)室研究人員分析了2015—2020年間發(fā)布的百余份相關(guān)文件,將人工智能倫理歸納為自主、無害、受益和公正四大類。②參見波士頓人工智能倫理實(shí)驗(yàn)室官網(wǎng):https://aiethicslab.com/big-picture/。另一份由斯坦福大學(xué)發(fā)布的報(bào)告對人工智能技術(shù)相關(guān)的新聞媒體報(bào)道和博客進(jìn)行分析,發(fā)現(xiàn)這些文本包含了人權(quán)、人類價(jià)值、責(zé)任、人類控制、公平、歧視、透明度、可解釋性、安全保障、問責(zé)制、隱私等要素。③斯坦福大學(xué)以人為本人工智能研究院:《人工智能指數(shù)2021年年度報(bào)告》,2021年4月,https://aiindex.stanford.edu/wpcontent/uploads/2021/04/2021-AI-Index-Report_Chinese-Edition.pdf。本文通過梳理相關(guān)研究成果,提煉出人工智能倫理的核心關(guān)切,具體呈現(xiàn)為六個(gè)關(guān)鍵的“簇”(見表1)。
表1 人工智能倫理框架 ④Jessica Fjeld, Nele Achten, Hannah Hilligoss, Adam Christopher Nagy, Madhulika Srikumar, “Principled Artificial Intelligence:Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI,” Berkman Klein Center Research Publication,2020;Anna Jobin, Marcello Ienca, Eff y Vayena, “The Global Landscape of AI Ethics Guidelines,” Nature Machine Intelligence, Vol.1,2019,pp. 389-399.
人類自主決定原則是指人工智能不能妨礙人的選擇或?qū)θ诉M(jìn)行操縱,其中關(guān)鍵要素包括自由、同意、選擇、賦權(quán)和人類尊嚴(yán)。這一原則強(qiáng)調(diào)的是人類在與人工智能系統(tǒng)交互時(shí),不能處于被控制、被決策的地位。2019年11月10日,浙江某小學(xué)給學(xué)生佩戴一種智能“頭環(huán)”產(chǎn)品,立即引發(fā)全網(wǎng)熱議。該頭環(huán)號稱可通過檢測學(xué)生的腦電波來判斷學(xué)生上課和寫作業(yè)時(shí)的注意力——專注亮紅燈,走神亮藍(lán)燈,學(xué)生的注意力集中情況以每10分鐘一次的頻率發(fā)送給老師和家長。事件曝光后,該地教育機(jī)構(gòu)對外表示已介入調(diào)查,并決定停用相關(guān)設(shè)備。①《小學(xué)生監(jiān)測頭環(huán)引爭議 智能產(chǎn)品進(jìn)校園緣何飽受爭議》,2019 年 11 月 11 日,https://baijiahao.baidu.com/s?id=1649869 206702624757&wfr=spider&for=pc。這起新聞事件是濫用人工智能進(jìn)行監(jiān)視與控制、違反了自主決定原則的典型例子。與此原則背道而馳的另一個(gè)典型事件是被平臺困住的外賣騎手。外賣平臺依托算法系統(tǒng)接連“吞噬”配送時(shí)間,不斷逼近外賣員的勞動(dòng)力極限,導(dǎo)致不少外賣騎手為了避免超時(shí)與差評不惜“以命送餐”,在送餐過程中超速、闖紅燈甚至逆行。②《外賣騎手,困在系統(tǒng)里》,2020年9月8日,https://mp.weixin.qq.com/s/Mes1RqIOdp48CMw4pXTwXw。在效率至上的評價(jià)機(jī)制之下,平臺的算法化身為“數(shù)字監(jiān)工”,而外賣配送員不過是數(shù)據(jù)紅海之中的一個(gè)個(gè)數(shù)據(jù)點(diǎn),人在算法的統(tǒng)治下毫無選擇空間,難以獲得“人是目的”意義上的人類尊嚴(yán)。
安全可靠原則指的是人工智能使用起來應(yīng)是安全、可靠、不作惡的。對于人工智能不可傷害人類的要求,自阿西莫夫提出機(jī)器人三定律起即存在。安全性有多個(gè)維度,既包括人工智能技術(shù)本身是遵從程序指令的、不會(huì)傷害生物或破壞環(huán)境,也包括人工智能技術(shù)要能抵御外界威脅,譬如需要具備一定彈性、能夠抵御漏洞和網(wǎng)絡(luò)攻擊、保護(hù)隱私和個(gè)人數(shù)據(jù)等。以人工智能的核心技術(shù)——機(jī)器學(xué)習(xí)——的安全性為例,在模型訓(xùn)練與預(yù)測過程中,以下三方面值得注意:一是攻擊者可能進(jìn)行數(shù)據(jù)投毒污染訓(xùn)練數(shù)據(jù)集,進(jìn)而影響模型訓(xùn)練結(jié)果;二是攻擊者可能在正常模型中插入后門,即模型的隱藏模式,當(dāng)輸入特定樣本時(shí),攻擊者就可以觸發(fā)模型后門從而操控預(yù)測結(jié)果;三是攻擊者還可能在樣本中注入一些罕見樣本或者擾動(dòng)生成的惡意樣本,使深度神經(jīng)網(wǎng)絡(luò)輸出錯(cuò)誤結(jié)果。③陳宇飛、沈超、王騫等:《人工智能系統(tǒng)安全與隱私風(fēng)險(xiǎn)》,《計(jì)算機(jī)研究與發(fā)展》2019年第10期。不可靠的人工智能系統(tǒng)有可能威脅使用者的生命安全,譬如曾有報(bào)道指出亞馬遜智能音箱對用戶進(jìn)行危險(xiǎn)行為誘導(dǎo)——當(dāng)人們向智能音箱詢問關(guān)于心臟心動(dòng)周期的信息時(shí),智能音箱卻對用戶說人類的心臟跳動(dòng)加速了自然資源過度消耗,建議用戶自殺。安全可靠原則是人工智能發(fā)展與應(yīng)用的底線原則,關(guān)乎人類核心利益。
人工智能治理面臨的最大挑戰(zhàn)或許是技術(shù)的復(fù)雜性與不透明。人工智能的不透明有諸多來源,包括:企業(yè)為了維護(hù)商業(yè)機(jī)密和競爭優(yōu)勢而有意自我保護(hù);編寫、閱讀和設(shè)計(jì)代碼是一項(xiàng)專門技能,大多數(shù)人并不具備此項(xiàng)技能因而無法理解;代碼通常是團(tuán)隊(duì)共同生產(chǎn)的多組件系統(tǒng),有時(shí)甚至連程序員也不了解整個(gè)系統(tǒng)。④Jenna Burrell,“How the Aachine ‘Thinks’: Understanding Opacity in Machine Learning Algorithms,”Big Data & Society,Vol.3, No.1, 2016.當(dāng)然,其中除了商業(yè)利益與專業(yè)壁壘的因素之外,還有代碼本身的因素——機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)等算法,天然地是復(fù)雜、不透明、難以理解的。這些復(fù)雜模型雖然對于復(fù)雜系統(tǒng)的分析和預(yù)測特別有用,但是它們的輸入經(jīng)常比傳統(tǒng)模型多得多,而且其內(nèi)在機(jī)制本身就是不為人所理解的黑盒子,即人們常說的“輸入→黑箱→輸出”過程中間的神秘環(huán)節(jié)。因此,透明公開原則的關(guān)鍵要素還包括可理解性、可解釋性、數(shù)據(jù)和算法開源、知情權(quán)、定期報(bào)告等,這些關(guān)鍵詞代表著人工智能系統(tǒng)從“黑箱”走向透明的可能路徑。
隱私是現(xiàn)代社會(huì)需要捍衛(wèi)的價(jià)值和需要保護(hù)的權(quán)利,隱私保護(hù)經(jīng)常與數(shù)據(jù)權(quán)利和數(shù)據(jù)安全等關(guān)鍵詞一同出現(xiàn)。在智能時(shí)代,無處不在的傳感器極大地增強(qiáng)了對隱私的直接監(jiān)控能力,各式各樣智能產(chǎn)品和應(yīng)用不斷侵蝕人類的私密空間,其超強(qiáng)的分析能力配以數(shù)據(jù)關(guān)聯(lián)能力能夠輕易地描繪出用戶的完整畫像。①鄭志峰:《人工智能時(shí)代的隱私保護(hù)》,《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2019年第2期。例如,斯坦福大學(xué)的人工智能研究小組通過分析約會(huì)網(wǎng)站上的用戶頭像圖片,提取出不同性取向人群的臉部特征,由此訓(xùn)練出來的深度神經(jīng)網(wǎng)絡(luò)模型可以判斷圖片主人的性取向,窺探個(gè)人隱私。除了濫用算法進(jìn)行個(gè)人隱私的計(jì)算與推斷,智能時(shí)代的個(gè)人信息泄露亦是重大挑戰(zhàn)。因此,對于當(dāng)前技術(shù)環(huán)境中的個(gè)人信息濫用和泄露問題,如何完善立法以保障數(shù)據(jù)主體擁有知情、訪問、限制處置、反自動(dòng)化決策等各項(xiàng)權(quán)利,以及在技術(shù)上使用一系列隱私增強(qiáng)技術(shù)來進(jìn)行數(shù)據(jù)的傳輸與處理,都是實(shí)現(xiàn)隱私保護(hù)原則要面對的關(guān)鍵任務(wù)。
公平公正原則至少存在于兩個(gè)方面。一是決策的公平性。盡管人工智能開發(fā)者可能不帶有性別、種族、外貌、財(cái)富、政治取向等方面的歧視與偏見,但是當(dāng)機(jī)器學(xué)習(xí)算法被用于數(shù)據(jù)分析,并把已有數(shù)據(jù)和既有歷史作為訓(xùn)練模型的基礎(chǔ)時(shí),算法可能會(huì)輕易習(xí)得并繼承人類的歧視與偏見。當(dāng)前司法領(lǐng)域已經(jīng)開始建立人工智能辦案系統(tǒng),而將智能系統(tǒng)應(yīng)用于輔助司法裁判時(shí),決策公平性尤為重要。一個(gè)反面例子是COMPAS——美國法院使用的一款用來評估罪犯累犯可能性的軟件,研究發(fā)現(xiàn)COMPAS的模型會(huì)系統(tǒng)地高估黑人的累犯風(fēng)險(xiǎn),從而產(chǎn)生歧視。②Jeff Larson, Surya Mattu, Lauren Kirchner and Julia Angwin,“How We Analyzed the COMPAS Recidivism Algorithm,” Pro Publica, May 23, 2016, https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm.此外,決策不公平的現(xiàn)象在我國也逐漸增多,譬如最為典型的莫過于大數(shù)據(jù)“殺熟”。二是社會(huì)經(jīng)濟(jì)后果的公平性。此類不公平的典型例子是智能技術(shù)替代人類勞動(dòng)者所引發(fā)的失業(yè),即“技術(shù)性失業(yè)”或者“機(jī)器代人”。人工智能將批量替代機(jī)械化、重復(fù)性的勞動(dòng),從而導(dǎo)致服務(wù)業(yè)、制造業(yè)、物流業(yè)等行業(yè)中知識水平較低、技術(shù)能力簡單的人類工作者失業(yè)。經(jīng)濟(jì)學(xué)家達(dá)倫·阿西莫格魯及其合作者研究發(fā)現(xiàn),機(jī)器人對就業(yè)具有系統(tǒng)的負(fù)面影響,即在美國每千名工人中增加一個(gè)機(jī)器人,就業(yè)人口比例就會(huì)降低0.2個(gè)百分點(diǎn)。③Daron Acemoglu, Pascual Restrepo, “Robots and Jobs: Evidence from US Labor Markets,” Journal of Political Economy,Vol.128, No.6, 2020, pp.2188-2244.這些失業(yè)者通常為中低收入群體,因此人工智能造成的職業(yè)淘汰可能將進(jìn)一步擴(kuò)大社會(huì)不平等。
責(zé)任擔(dān)當(dāng)原則指的是人工智能技術(shù)在運(yùn)用過程中應(yīng)當(dāng)承擔(dān)的責(zé)任。目前,人工智能技術(shù),尤其是自主無人系統(tǒng),已經(jīng)在交通、醫(yī)療、護(hù)理、制造、服務(wù)、新聞等領(lǐng)域得以普遍運(yùn)用,用于輔助人類進(jìn)行決策。然而,自主無人系統(tǒng)的自動(dòng)化決策也造成了“責(zé)任鴻溝”,即無法厘清誰該為系統(tǒng)決策的后果負(fù)責(zé)。譬如,交通事故中自動(dòng)駕駛汽車的責(zé)任劃分問題最為社會(huì)各界所關(guān)注。當(dāng)人類不主要參與駕駛時(shí),智能系統(tǒng)因技術(shù)缺陷而導(dǎo)致的侵害行為,其法律責(zé)任如何分配?①司曉、曹建峰:《論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車和智能機(jī)器人為切入點(diǎn)》,《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2017年第5期。例如,2016年1月,我國京港澳高速河北邯鄲段,一輛開啟了自動(dòng)駕駛系統(tǒng)的特斯拉Model S轎車撞上正在作業(yè)的道路清掃車,事故造成司機(jī)當(dāng)場死亡。2016年5月在美國佛羅里達(dá)州,駕駛同款特斯拉汽車的車主在使用自動(dòng)駕駛功能時(shí)與一輛正在轉(zhuǎn)彎的卡車相撞,不幸喪生。在此之后,自動(dòng)駕駛系統(tǒng)引發(fā)的交通事故時(shí)有發(fā)生,其責(zé)任界定問題浮出水面。②王樂兵:《自動(dòng)駕駛汽車的缺陷及其產(chǎn)品責(zé)任》,《清華法學(xué)》2020年第2期。歐美國家已經(jīng)注意到自動(dòng)駕駛汽車交通事故責(zé)任歸屬問題,我國也正在積極探索相關(guān)領(lǐng)域的立法,填補(bǔ)相關(guān)規(guī)定和配套法律的空白。據(jù)估計(jì),到2025年我國智能汽車將達(dá)到2800萬輛,我國將成為世界第一大智能汽車市場。③《中國聯(lián)網(wǎng)汽車 2025 年預(yù)計(jì)達(dá) 2800 萬輛 將成世界第一大智能汽車市場》,2020 年 12 月 3 日,https://baijiahao.baidu.com/s?id=1685066040906113462&wfr=spider&for=pc。不久的將來,自動(dòng)駕駛汽車將是最早一批被推向市場的完全自主的機(jī)器。面對可以預(yù)期的歸責(zé)挑戰(zhàn),如何對責(zé)任分配制定新的規(guī)則將變得越來越緊迫。
面對人工智能帶來的喪失自主、妨害安全、不透明、不公平、隱私侵犯、責(zé)任困境等挑戰(zhàn),國際社會(huì)普遍認(rèn)為人工智能的發(fā)展迫切需要倫理價(jià)值的引導(dǎo)與約束,世界主要國家的利益相關(guān)主體也正在采取各類措施應(yīng)對人工智能的倫理挑戰(zhàn)??偨Y(jié)起來,人工智能倫理治理的路徑主要分為兩種:一方面,完善人工智能治理的“硬”約束,即在法律意義上約束和規(guī)范人工智能活動(dòng);另一方面,建立人工智能治理的“軟”約束,包括確認(rèn)人工智能的風(fēng)險(xiǎn)及其治理的目標(biāo)、機(jī)制、方案等不具有法律約束的倡議。④賈開、薛瀾:《人工智能倫理問題與安全風(fēng)險(xiǎn)治理的全球比較與中國實(shí)踐》,《公共管理評論》2021年第1期。兩種措施建立起一個(gè)完善的人工智能倫理體系。當(dāng)前,全球人工智能倫理治理格局以軟性倡議為主,但是各國也正逐步建立人工智能監(jiān)管的硬性約束。
人工智能治理法律有利于規(guī)范人工智能應(yīng)用場景、明確人工智能權(quán)責(zé)歸屬、培育人工智能倫理意識、為人工智能的開發(fā)和使用提供價(jià)值標(biāo)準(zhǔn)。例如,美國《深度偽造責(zé)任法案》、法國《數(shù)字共和法》、加拿大《自動(dòng)化決策指令》、歐盟《關(guān)于制定機(jī)器人民事法律規(guī)則的決議》與《反虛假信息行為準(zhǔn)則》等,均對人工智能加以規(guī)范。在我國,2021年陸續(xù)頒布的《中華人民共和國個(gè)人信息保護(hù)法》《中華人民共和國數(shù)據(jù)安全法》《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》將網(wǎng)絡(luò)空間管理、數(shù)據(jù)保護(hù)、算法安全綜合治理作為主要監(jiān)管目標(biāo)。然而,一些非成熟技術(shù)領(lǐng)域的倫理立法尚處于初步階段:一方面,人工智能技術(shù)仍處于快速發(fā)展階段,倉促立法不利于法律條文的穩(wěn)定性,也可能會(huì)限制新技術(shù)的發(fā)展;另一方面,人工智能倫理的社會(huì)共識仍在凝聚階段,相關(guān)倫理規(guī)范還須經(jīng)受實(shí)踐檢驗(yàn)。在此情況下,緩置立法工作,用行政文件和行業(yè)規(guī)范暫替法律條文,為規(guī)范性立法提供前期經(jīng)驗(yàn)支持或成為可行路徑。
人工智能倫理風(fēng)險(xiǎn)滲透在產(chǎn)品開發(fā)與應(yīng)用的各個(gè)環(huán)節(jié),所涉問題高度復(fù)雜,內(nèi)含諸多價(jià)值判斷。目前,研發(fā)人員往往缺乏專業(yè)倫理知識,難以承擔(dān)關(guān)鍵倫理選擇的責(zé)任。在此背景下,在人工智能利益相關(guān)方內(nèi)部成立專門處理人工智能倫理問題的治理機(jī)構(gòu),成為加強(qiáng)人工智能倫理治理的基礎(chǔ)性環(huán)節(jié)。當(dāng)前,相關(guān)機(jī)構(gòu)已經(jīng)逐漸在國家、企業(yè)與社會(huì)團(tuán)體等組織層面成立。在國家層面,美國于2018年5月成立“人工智能專門委員會(huì)”以審查聯(lián)邦機(jī)構(gòu)在人工智能領(lǐng)域的投資和開發(fā);①中國信通院:《全球人工智能治理體系報(bào)告(2020)》,2020 年 12 月,http://www.caict.ac.cn/kxyj/qwfb/ztbg/202012/P02020 1229534156065317.pdf。法國于2019年4月組建了“人工智能倫理委員會(huì)”,旨在監(jiān)督軍用人工智能的發(fā)展;②中國信通院:《全球人工智能治理體系報(bào)告(2020)》,2020 年 12 月,http://www.caict.ac.cn/kxyj/qwfb/ztbg/202012/P02020 1229534156065317.pdf。在我國,國家科技倫理委員會(huì)于2019年7月宣布組建,旨在對包括人工智能在內(nèi)的一系列科技倫理問題展開制度化治理。③《習(xí)近平主持召開中央全面深化改革委員會(huì)第九次會(huì)議》,2019年7月24日,http://www.xinhuanet.com/2019-07/24/c_12102 12685.htm。在企業(yè)層面,人工智能倫理委員會(huì)已成為全球主要科技公司履行人工智能倫理責(zé)任、強(qiáng)化企業(yè)自律的“標(biāo)配”和基礎(chǔ)機(jī)制,④曹建峰:《人工智能倫理治理亟需邁向?qū)嵺`階段》,2021 年 4 月 13 日,http://www.legaldaily.com.cn/index/content/2021-04/13/content_8479153.htm。微軟、谷歌、IBM、曠視等國內(nèi)外大型科技公司均設(shè)立了相關(guān)委員會(huì)或者小組,作為人工智能治理事項(xiàng)的決策機(jī)制。在社會(huì)團(tuán)體層面,我國人工智能學(xué)會(huì)于2018年組建了人工智能倫理專委會(huì),該機(jī)構(gòu)設(shè)置了多個(gè)人工智能倫理課題,并組織了一系列專題研討。⑤《AI時(shí)代,倫理探索要跟上》,2019 年 7 月 28 日,http://www.banyuetan.org/kj/detail/20190718/100020003313621156343 1247056911166_1.html。上述不同類型的倫理委員會(huì)依托專家的多元知識背景和專業(yè)技能,對人工智能發(fā)展過程中的倫理問題進(jìn)行識別、展開協(xié)商、形成判斷、作出決策和推動(dòng)執(zhí)行,從而充分發(fā)揮專家在人工智能倫理中的作用。
自2015年以來,各類組織和研究機(jī)構(gòu)一直致力于編制人工智能倫理的規(guī)范性文件,因而呈現(xiàn)出倫理原則“爆炸”甚至“泛濫”的現(xiàn)象。⑥斯坦福大學(xué)以人為本人工智能研究院:《人工智能指數(shù)2021年年度報(bào)告》,2021年4月,https://aiindex.stanford.edu/wpcontent/uploads/2021/04/2021-AI-Index-Report_Chinese-Edition.pdf。不少行業(yè)觀察家批評這些頗有“各自為政”意味的抽象原則基本無助于指導(dǎo)企業(yè)在研發(fā)實(shí)踐中面臨的實(shí)際倫理難題,呼吁人工智能倫理治理應(yīng)從宏觀的“原則”盡快轉(zhuǎn)向更具可操作性的“標(biāo)準(zhǔn)”。①Reid Blackman, “A Practical Guide to Building Ethical AI,” Havard Business Review, October 15, 2020, https://hbr.org/2020/10/a-practical-guide-to-building-ethical-ai; Andrew Burt, “Ethical Frameworks for AI Aren’t Enough,” Havard Business Review,November 9, 2020, https://hbr.org/2020/11/ethical-frameworks-for-ai-arent-enough.基于此,從2018年開始,全球的人工智能倫理治理開始從原則大爆炸階段逐步過渡到共識尋求階段與倫理實(shí)踐階段,②曹建峰:《人工智能倫理治理亟需邁向?qū)嵺`階段》,2021 年 4 月 13 日,http://www.legaldaily.com.cn/index/content/2021-04/13/content_8479153.htm。這意味著各相關(guān)機(jī)構(gòu)開始從眾多倫理原則中提煉出共識性通則,并不斷探索如何將其轉(zhuǎn)化為標(biāo)準(zhǔn)細(xì)則。這種轉(zhuǎn)化主要包括兩方面:一是推動(dòng)制定和發(fā)布人工智能標(biāo)準(zhǔn)規(guī)范。譬如2018年1月,我國國家人工智能標(biāo)準(zhǔn)化總體組和專家咨詢組宣告成立,并計(jì)劃成立人工智能與社會(huì)倫理道德標(biāo)準(zhǔn)化研究專題組,以推動(dòng)形成一批國家標(biāo)準(zhǔn)立項(xiàng)建議。③《國家人工智能標(biāo)準(zhǔn)化總體組和專家咨詢組成立》,2018年1月19日,http://www.cesi.cn/201801/3535.html。二是加強(qiáng)技術(shù)研發(fā),為人工智能標(biāo)準(zhǔn)規(guī)范的落地保駕護(hù)航。近年來,諸如聯(lián)邦學(xué)習(xí)、對抗測試、形式化驗(yàn)證、公平性評估等技術(shù)工具不斷得到關(guān)注與研發(fā);④吳文峻、黃鐵軍、龔克:《中國人工智能的倫理原則及其治理技術(shù)發(fā)展》,《工程學(xué)》(Engineering)2020年第3期。這些技術(shù)一方面能夠在標(biāo)準(zhǔn)制定階段幫助決策者評估模擬何種標(biāo)準(zhǔn)將更契合企業(yè)實(shí)際與符合人類共同利益,另一方面在標(biāo)準(zhǔn)實(shí)施階段則為企業(yè)依標(biāo)行事、標(biāo)準(zhǔn)評估者收集證據(jù)提供了技術(shù)抓手。
社會(huì)公眾是人工智能的服務(wù)對象,更是人工智能倫理治理的參與者和監(jiān)督者。公眾監(jiān)督主要通過公眾向企業(yè)、新聞媒體、行業(yè)協(xié)會(huì)、政府進(jìn)行反饋來實(shí)現(xiàn)。實(shí)現(xiàn)公眾監(jiān)督需要滿足兩個(gè)條件:一是公眾具備人工智能的倫理自覺。公眾在與人工智能的互動(dòng)中,能夠?qū)ζ渫黄苽惱淼男袨橛兴X察,從而進(jìn)行自我調(diào)節(jié),掌握智能社會(huì)中的主動(dòng)權(quán)。人工智能倫理的社會(huì)教育有助于實(shí)現(xiàn)這一目標(biāo)。比如,美國在奧巴馬政府時(shí)期發(fā)布的一系列算法歧視調(diào)研報(bào)告有效推動(dòng)了公眾對相關(guān)問題的認(rèn)知;⑤賈開:《人工智能與算法治理研究》,《中國行政管理》2019年第1期。在我國,面對隱私讓渡、深度偽裝、網(wǎng)絡(luò)詐騙等智能媒介帶來的風(fēng)險(xiǎn),已有聲音呼吁要提升公眾的智能媒介素養(yǎng)來強(qiáng)化公眾對智能信息的解讀、應(yīng)用與批判。⑥黃曉勇:《充分重視智能媒介素養(yǎng)的提升》,《光明日報(bào)》2021年11月19日,第11版。二是公眾擁有暢通的監(jiān)督反饋渠道。公眾能夠向人工智能產(chǎn)品的責(zé)任方,如生產(chǎn)企業(yè)、銷售平臺等反饋反倫理事件,這些反饋需要相關(guān)機(jī)構(gòu)加以接收處理;如果反饋渠道不暢通,行業(yè)組織、政府需要向公眾提供相關(guān)監(jiān)督渠道。
倫理培訓(xùn)指對相關(guān)責(zé)任主體提前說明、解釋在人工智能發(fā)展過程中可能涉及的倫理道德風(fēng)險(xiǎn)。關(guān)于人工智能發(fā)展的倫理道德風(fēng)險(xiǎn)的擔(dān)憂與討論、質(zhì)疑與爭議從未停止,未來社會(huì)的人工智能將不僅僅作為技術(shù)化的工具被人使用,更會(huì)逐漸具有類似于人類思維的能力,甚至可能在某些方面實(shí)現(xiàn)對人類思維的超越。彼時(shí),人類面臨的問題將不僅是大量程式化的工作崗位消失帶來的失業(yè)、職業(yè)認(rèn)知升級轉(zhuǎn)型等問題,還包括如何重新從身體、精神兩個(gè)方面“放置”自我。對此,國內(nèi)外高校的計(jì)算機(jī)科學(xué)專業(yè)紛紛在近年開設(shè)了人工智能倫理課程,旨在培養(yǎng)負(fù)責(zé)任的技術(shù)人才。我國各地在人工智能議題實(shí)施過程中,如在青少年科技教育中,也已或多或少地、有意識地插入了倫理內(nèi)容,通過促進(jìn)潛在責(zé)任主體對人工智能技術(shù)倫理維度的認(rèn)知,規(guī)范他們在人工智能開發(fā)及應(yīng)用過程中的態(tài)度與行為,有效消解潛在風(fēng)險(xiǎn)。
人工智能倫理治理是全球性議題,關(guān)乎全人類的發(fā)展、創(chuàng)新和未來,需要全世界人民攜手共進(jìn)、抓住機(jī)遇、應(yīng)對挑戰(zhàn)。將人工智能用于推動(dòng)人類、社會(huì)、生態(tài)及全球可持續(xù)發(fā)展已經(jīng)成為全球性共識,這一愿景的達(dá)成需要在世界各國政府、產(chǎn)業(yè)、學(xué)術(shù)機(jī)構(gòu)之間建立起全球性的人工智能倫理治理網(wǎng)絡(luò),推動(dòng)各方在治理的原則、法律、政策、標(biāo)準(zhǔn)等維度展開對話與協(xié)商。①Seán S. óhéigeartaigh、Jess Whittlestone、Yang Liu 等:《克服人工智能倫理與治理的跨文化合作阻礙》,2020 年 5 月 26日,https://attachment.baai.ac.cn/share/aies/cn-overcoming-barriers-to-cross-cultural-cooperation-in-ai-ethics-andgovernance-2020-05-26.pdf。21世紀(jì)已經(jīng)來到第三個(gè)十年,人工智能的發(fā)展勢頭愈發(fā)迅猛,革命性的人工智能實(shí)踐已經(jīng)對人類的生產(chǎn)和生活產(chǎn)生了重大影響或沖擊,世界各國應(yīng)該樹立“全人類命運(yùn)共同體”的意識,求同存異、開源集智,以高度協(xié)作的姿態(tài)直面問題。我國一直在人工智能治理的國際合作方面采取積極主動(dòng)的態(tài)度,搭建了許多供各國坦誠交流經(jīng)驗(yàn)、溝通分歧、共話未來的開放性高端平臺,取得了一定成效。未來我國應(yīng)繼續(xù)發(fā)揮正面作用,與世界各國在合作中實(shí)現(xiàn)共贏。
當(dāng)人類社會(huì)逐步邁入智能社會(huì),人們在享受人工智能帶來的社會(huì)經(jīng)濟(jì)價(jià)值的同時(shí),也面臨著諸如歧視、支配、黑箱、操縱等一系列新生倫理問題。人工智能倫理是21世紀(jì)最關(guān)鍵的科技倫理之一。人工智能倫理作為一國人工智能發(fā)展規(guī)劃的重要部分,指導(dǎo)、支撐與規(guī)范人工智能產(chǎn)業(yè)與活動(dòng),關(guān)乎“發(fā)展什么樣的人工智能”這個(gè)戰(zhàn)略性問題。②賈開、薛瀾:《人工智能倫理問題與安全風(fēng)險(xiǎn)治理的全球比較與中國實(shí)踐》,《公共管理評論》2021年第1期。本文基于既有文獻(xiàn)的梳理,發(fā)現(xiàn)自主決定、安全可靠、透明公開、隱私保護(hù)、公平公正、責(zé)任擔(dān)當(dāng)六個(gè)維度是人工智能倫理的核心價(jià)值。此外,諸如人類福祉、社會(huì)經(jīng)濟(jì)與生態(tài)的可持續(xù)發(fā)展、對話協(xié)作、和諧友好等也出現(xiàn)于現(xiàn)有倫理指南中,但相關(guān)討論相對有限。
人工智能倫理治理存在剛性約束和軟性倡導(dǎo)兩大治理路徑。當(dāng)前人工智能倫理治理以推薦算法為開端,亟待向個(gè)人信息收集與濫用、公共區(qū)域人臉識別、社區(qū)監(jiān)控等領(lǐng)域延伸,厘清這些領(lǐng)域的公民權(quán)利和人工智能應(yīng)用之間的界限,將倫理價(jià)值標(biāo)準(zhǔn)操作化并細(xì)化監(jiān)管依據(jù),在具體的治理場景中落實(shí)原理原則。概言之,人工智能倫理治理應(yīng)在我國人工智能發(fā)展規(guī)劃下,以六大核心價(jià)值為方向,在倫理矛盾突出的重點(diǎn)領(lǐng)域以敏捷為核心、結(jié)合軟硬兩種手段進(jìn)行實(shí)驗(yàn)式治理,從而實(shí)現(xiàn)“倫理先行、依法依規(guī)、敏捷治理、立足國情、開放合作”人工智能倫理治理的目標(biāo)。