周慶山,鄭霞,黃國彬
摘要:[目的/意義]人工智能技術(shù)悄然拉開了第四次工業(yè)革命的大幕,為各行各業(yè)的發(fā)展帶來了革命性變化。但該項(xiàng)技術(shù)的法律規(guī)制和標(biāo)準(zhǔn)規(guī)范建設(shè)尚不完善,引發(fā)了全球?qū)τ谌斯ぶ悄軅惱碓瓌t與規(guī)范體系的探索與思考,各國學(xué)(協(xié))會相繼發(fā)布了人工智能倫理規(guī)范或政策文件。本研究全面分析和梳理當(dāng)前認(rèn)可度較高的人工智能倫理原則的核心框架,旨在為各國制定和完善人工智能倫理規(guī)范提供參考。[方法/過程]運(yùn)用網(wǎng)絡(luò)調(diào)研法、內(nèi)容分析法和比較研究法,在綜合考慮影響力、國別和可獲取性等因素的基礎(chǔ)上,選取近年各國學(xué)(協(xié))會已發(fā)布的有關(guān)人工智能倫理原則的權(quán)威政策文件,提煉出其中涉及的人工智能倫理原則的核心框架和主要內(nèi)容。[結(jié)果/結(jié)論]人工智能領(lǐng)域主要包括:造福原則、責(zé)任原則、公平正義原則、安全原則、尊重人的自主性原則、隱私與個(gè)人信息保護(hù)原則、透明性原則和可靠性原則等8項(xiàng)人工智能倫理原則。
關(guān)鍵詞:人工智能;倫理原則;規(guī)范體系
中圖分類號:B82-05
文獻(xiàn)標(biāo)識碼:A
文章編號:1673-8268(2022)05-0009-12
一、研究背景
人工智能(Artificial Intelligence,AI)是探索、模擬和研究人類學(xué)習(xí)、思維和知識存儲等過程,進(jìn)而拓展人類智能的技術(shù)、理論和方法的新興學(xué)科,屬于計(jì)算機(jī)科學(xué)的分支,融合了信息學(xué)、控制學(xué)、語言學(xué)、心理學(xué)等多學(xué)科領(lǐng)域[1]。近年來,人工智能正以指數(shù)級的速度高速增長,但與之匹配的行業(yè)規(guī)范和管理制度卻未能同步發(fā)展。針對人工智能的設(shè)計(jì)與管理,還存在政策取向不清晰、倫理規(guī)制缺失、法律法規(guī)不健全等問題,這導(dǎo)致了人工智能應(yīng)用的不確定性,并對人類倫理道德帶來了相應(yīng)的挑戰(zhàn)。作為一個(gè)涉及多個(gè)學(xué)科的交叉性話題,圍繞人工智能倫理的研究,目前已吸引了包括計(jì)算機(jī)科學(xué)、生物學(xué)、行為科學(xué)、心理學(xué)、醫(yī)學(xué)和哲學(xué),以及圖書情報(bào)與檔案管理等在內(nèi)的多個(gè)學(xué)科的研究人員,圍繞人工智能在設(shè)計(jì)環(huán)節(jié)、測試環(huán)節(jié)和應(yīng)用環(huán)節(jié)等涉及的倫理道德開展研究,各國開始積極探索并紛紛頒布了人工智能倫理原則的行動準(zhǔn)則和政策文件。為此,筆者擬運(yùn)用網(wǎng)絡(luò)調(diào)研法和內(nèi)容分析法等,以近年來各國學(xué)(協(xié))會發(fā)布的有關(guān)人工智能倫理原則的政策文檔為研究對象,對比分析現(xiàn)有人工智能政策文檔中涉及的人工智能倫理原則的核心框架和內(nèi)容構(gòu)成。
二、國內(nèi)外研究現(xiàn)狀
筆者于2021年12月以“人工智能”并含“倫理”及其對應(yīng)的英文“Artificial Intelligence”(或“AI”)并含“ethics”為關(guān)鍵詞,在CNKI、Web of Science等數(shù)據(jù)庫中檢索相關(guān)文獻(xiàn),擬從研究內(nèi)容和研究方法兩個(gè)方面對關(guān)于人工智能倫理規(guī)范內(nèi)容要素的理論研究進(jìn)行梳理和剖析。
(一)研究內(nèi)容
全面分析當(dāng)前關(guān)于人工智能倫理規(guī)范的已有研究發(fā)現(xiàn),從研究內(nèi)容的角度來看,學(xué)者已提出了包含以人為本原則、公正原則、公開透明原則、知情同意原則、責(zé)任原則及安全原則等在內(nèi)的人工智能倫理規(guī)范基本條款(見表1)。
不過,多數(shù)文獻(xiàn)探討的是將人工智能技術(shù)應(yīng)用到其他領(lǐng)域可能引發(fā)的倫理問題及應(yīng)對策略,如人工智能與教育學(xué)、醫(yī)學(xué)、傳播學(xué)等領(lǐng)域結(jié)合時(shí)應(yīng)構(gòu)建的倫理原則,且其提出的人工智能倫理規(guī)范內(nèi)容要素大多是主觀推斷,而對于現(xiàn)有人工智能倫理規(guī)范政策文檔所涉及的內(nèi)容要素關(guān)注度不高,致使研究結(jié)論的深度與廣度均顯不足。
(二)研究方法
從研究方法來看,當(dāng)前已有學(xué)者采用內(nèi)容分析法,以近年來國際或各國發(fā)布的人工智能倫理規(guī)范的政策文檔為研究對象,從中提煉出人工智能社會倫理規(guī)范并加以剖析。為進(jìn)一步梳理現(xiàn)有研究所選政策文檔發(fā)布主體的類型,筆者選取了6篇應(yīng)用歸納法開展人工智能倫理規(guī)范內(nèi)容研究的代表性文獻(xiàn),并按照前述5種人工智能倫理政策文檔發(fā)布機(jī)構(gòu)的類型對其進(jìn)行分析和評述,結(jié)果如表2所示。
分析表2可知,從所選研究樣本的發(fā)布主體來看,文獻(xiàn)1至文獻(xiàn)6所選研究樣本對于前述5類組織機(jī)構(gòu)均有所涉及。但其共性問題是:未考慮人工智能倫理規(guī)范政策文檔制定主體的差異,而是直接、強(qiáng)行地將不同制定主體發(fā)布的人工智能倫理規(guī)范的政策文檔加以橫向比較和內(nèi)容提煉,這一做法會導(dǎo)致將不在同一影響力層面的文本政策混為一談,無法確定不同制定主體因自身肩負(fù)的社會責(zé)任、機(jī)構(gòu)定位等的不同而對人工智能倫理規(guī)范的關(guān)注點(diǎn)、基本認(rèn)知、價(jià)值判斷、動機(jī)立場的區(qū)別,最終得到的研究結(jié)論缺乏說服力、嚴(yán)謹(jǐn)性和可靠性。
三、研究方法
本研究以近年來各國學(xué)(協(xié))會發(fā)布的人工智能倫理規(guī)范文檔為分析對象,創(chuàng)新之處有以下幾方面。第一,研究方法更加規(guī)范嚴(yán)謹(jǐn)。筆者以實(shí)證分析為基礎(chǔ),從各國學(xué)(協(xié))會發(fā)布的人工智能倫理規(guī)范的相關(guān)政策文檔中,更為客觀全面地揭示其核心模塊和內(nèi)容構(gòu)成。第二,研究對象具有高度可比性。在現(xiàn)有同主題的研究中,多數(shù)學(xué)者在選擇人工智能倫理規(guī)范的研究樣本時(shí),只考慮內(nèi)容主題是否與人工智能倫理規(guī)范相關(guān),而不考慮制定主體是否在職能和權(quán)限上處于同一層級,從而導(dǎo)致將不同影響效力和作用范圍的人工智能倫理規(guī)范進(jìn)行比較,缺乏嚴(yán)謹(jǐn)?shù)目杀刃?。本研究所選擇的樣本,其制定主體均為學(xué)(協(xié))會,屬于職能和權(quán)限相同的同類機(jī)構(gòu),從而避免將職能和權(quán)限存在不同的各類制定主體所制定的人工智能倫理規(guī)范進(jìn)行比較,更好地確保樣本的可比性。
具體來說,首先,筆者梳理了人工智能社會倫理規(guī)范相關(guān)主題的研究論文,并對其中涉及的人工智能社會倫理規(guī)范的基本條款進(jìn)行了預(yù)調(diào)研;其次,全面調(diào)研各國學(xué)(協(xié))會的官網(wǎng),獲得其發(fā)布的與人工智能社會倫理規(guī)范相關(guān)的框架、指南與原則;最后,以Ethical IA Resource[22]、Future of Life Institute[23]、鏈接人工智能準(zhǔn)則平臺[24]等網(wǎng)站為線索,對擬選研究樣本進(jìn)行完善和補(bǔ)充,最終選擇了10款由各國學(xué)(協(xié))會發(fā)布的有關(guān)人工智能社會倫理規(guī)范的政策文件作為分析對象。按發(fā)布時(shí)間排序,這10款人工智能社會倫理規(guī)范依次是:《機(jī)器人和機(jī)器人設(shè)備:機(jī)器人及機(jī)器人系統(tǒng)的道德設(shè)計(jì)及應(yīng)用指南》(Robots and Robotic Devices: Guide to the Ethical Design and Application of Robots and Robotic Systems)、《算法透明度和問責(zé)制的聲明》(Statement on Algorithmic Transparency and Accountability)、《AI政策原則執(zhí)行摘要》(AI Policy Principles Executive Summary)、《人工智能和機(jī)器學(xué)習(xí):政策文件》(Artificial Intelligence and Machine Learning: Policy Paper)、《人工智能和數(shù)據(jù)分析的倫理原則》(Ethical Principles for Artificial Intelligence and Data Analytics)、《日本人工智能學(xué)會倫理準(zhǔn)則》(The Japanese Society for Artificial Intelligence Ethical Guidelines)、《以倫理為基準(zhǔn)的設(shè)計(jì):人工智能及自主系統(tǒng)以人類福祉為先的愿景(第一版)》(Ethically Aligned Design:A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems(First Edition)、《人工智能職業(yè)道德和行為準(zhǔn)則》(AAAI Code of Professional Ethics and Conduct)、《負(fù)責(zé)任的人工智能政策框架》(Responsible AI Policy Framework)、《醫(yī)療保健中的增強(qiáng)智能》(Augmented Intelligence in Health Care),詳見表3所示。在此基礎(chǔ)上,運(yùn)用內(nèi)容分析法和比較研究法,對上述政策文檔涉及的人工智能倫理原則的內(nèi)容構(gòu)成進(jìn)行分析比較,剖析當(dāng)前具有較大國際影響力的人工智能倫理原則的核心框架和基本內(nèi)容。
四、人工智能倫理規(guī)范的核心框架與內(nèi)容剖析
(一)人工智能倫理規(guī)范的核心框架
在對本研究所選擇的10款有關(guān)人工智能倫理原則規(guī)范文檔進(jìn)行預(yù)調(diào)研的基礎(chǔ)上,參照與人工智能領(lǐng)域存在交叉的計(jì)算機(jī)科學(xué)、信息技術(shù)[25]和醫(yī)學(xué)[26]等領(lǐng)域構(gòu)建的基本倫理原則,筆者設(shè)計(jì)了造福原則、責(zé)任原則、公平正義原則、安全原則、尊重人的自主性原則、隱私與保護(hù)原則、透明性原則和可靠性原則等8項(xiàng)人工智能倫理原則。在此基礎(chǔ)上,統(tǒng)計(jì)分析了本研究所選擇的10款人工智能倫理政策文件中所涉及的倫理原則數(shù)量(見表4)。從表4可以看出,當(dāng)前人工智能倫理政策文件中多強(qiáng)調(diào)造福原則、責(zé)任原則、公平正義原則、安全原則、尊重人的自主性原則和隱私與保護(hù)原則等,部分政策文件還補(bǔ)充提出了透明性原則、可靠性原則和共同治理原則等內(nèi)容。
(二)人工智能倫理規(guī)范的內(nèi)容剖析
人工智能倫理原則的提出,旨在為人工智能的開發(fā)者、使用者和治理者提供應(yīng)當(dāng)遵循的理念和規(guī)則。為進(jìn)一步探索人工智能倫理原則的內(nèi)容構(gòu)成,筆者全面研讀了本研究所選擇的10款人工智能倫理原則政策文件,并對其中所涉及的人工智能倫理原則的內(nèi)容表述進(jìn)行了對比分析(見表5)。盡管不同政策文件中,對人工智能倫理原則內(nèi)容描述的詳略程度和劃分維度有所區(qū)別,但盡可能全面地涵蓋人工智能倫理原則的核心架構(gòu),并將其深刻嵌入到人工智能產(chǎn)品、技術(shù)和服務(wù)的研發(fā)、應(yīng)用和治理等各個(gè)階段,是各國學(xué)(協(xié))會設(shè)計(jì)和構(gòu)建人工智能倫理原則的基本出發(fā)點(diǎn)和最終歸宿。
1.造福原則
造福(well-being & benefit)原則指的是,人工智能的發(fā)展成果應(yīng)當(dāng)被全人類所共享,改善人類賴以生存的社會和環(huán)境,推動人類和社會繁榮進(jìn)步,增進(jìn)人民和社會福祉[6]。該倫理原則指明了人工智能發(fā)展的首要目標(biāo)和最終歸宿,為人工智能研發(fā)人員在構(gòu)想、設(shè)計(jì)和優(yōu)化人工智能功能模塊和系統(tǒng)程序時(shí)提供了基本遵循。經(jīng)分析,本研究所選擇的10個(gè)分析樣本中,有8款人工智能倫理原則的指南規(guī)范均明確提出,人工智能的研發(fā)需遵循造福人類的基本原則。如政策4指出,人工智能開發(fā)者應(yīng)加強(qiáng)對話和協(xié)商,制定人工智能發(fā)展戰(zhàn)略,保障人工智能為社會公眾帶來福祉,借助人工智能解決教育改革、收入分配及社會服務(wù)等問題,并盡可能規(guī)避其不利影響;政策6和政策9均提出,人工智能創(chuàng)造的經(jīng)濟(jì)價(jià)值應(yīng)當(dāng)造福全人類,并為全人類的和平、安全、美好和共同利益做出貢獻(xiàn)。此外,政策8和政策10提出,設(shè)計(jì)人工智能時(shí)應(yīng)當(dāng)以用戶為中心,并最大限度地保護(hù)基本人權(quán)和人類自主權(quán)。在此過程中,人工智能開發(fā)者的根本目標(biāo)是將人工智能給人類帶來的健康、安全和隱私等方面的威脅最小化;同時(shí),人工智能的發(fā)展還要充分保護(hù)人類環(huán)境,促進(jìn)全球自然環(huán)境的可持續(xù)發(fā)展。
2.責(zé)任原則
責(zé)任(responsibility & accountability)原則指的是,在研發(fā)人工智能時(shí)應(yīng)明確人工智能系統(tǒng)、產(chǎn)品、服務(wù)或功能的責(zé)任主體、責(zé)任分配、關(guān)聯(lián)責(zé)任,以及當(dāng)發(fā)生不利后果時(shí)各責(zé)任主體所需承擔(dān)的后果和義務(wù)。該倫理原則規(guī)定了開發(fā)者在人工智能設(shè)計(jì)和研發(fā)階段務(wù)必遵循的法律法規(guī)和社會責(zé)任,進(jìn)一步明確了人工智能發(fā)展過程中的責(zé)任紅線。本研究所選擇的10個(gè)分析樣本中,有7款人工智能倫理原則的指南規(guī)范均提到了人工智能責(zé)任倫理原則。其中,政策1、政策2和政策6均指出,人類應(yīng)當(dāng)對人工智能負(fù)責(zé),并為每個(gè)人工智能產(chǎn)品或服務(wù)設(shè)立特定責(zé)任人。政策4和政策7對這一原則做出了更為詳盡的闡述,認(rèn)為當(dāng)下應(yīng)確保人工智能相關(guān)法律的明確性。政府需及時(shí)制定適用于算法決策和使用的規(guī)制框架,保障法律運(yùn)作的確定性,將用戶權(quán)益作為第一要義,并要求人工智能的設(shè)計(jì)者、開發(fā)者和使用者加以遵循;此外,當(dāng)前需要進(jìn)一步明確人工智能系統(tǒng)的責(zé)任分配,明確規(guī)定如若發(fā)生安全問題,將由哪些主體承擔(dān)責(zé)任,以及后續(xù)的救濟(jì)或賠償措施。政策9建議在人工智能系統(tǒng)的開發(fā)、部署和使用過程中設(shè)立問責(zé)機(jī)制,即無論在什么情況下,人類都應(yīng)當(dāng)對人工智能的行為及后果負(fù)責(zé)。
3.公平正義原則
公平正義(fairness & justice)原則指的是,以平等、公正的方式設(shè)計(jì)、分配人工智能的產(chǎn)品或服務(wù),進(jìn)而形成全社會平等參與、公平使用人工智能技術(shù)成果的良好風(fēng)范。該原則規(guī)定,人工智能的訓(xùn)練數(shù)據(jù)和決策算法不應(yīng)嵌入開發(fā)人員觀念中固有的偏見或歧視想法,而應(yīng)當(dāng)確保人工智能的產(chǎn)品和服務(wù)被所有人平等享有,鼓勵(lì)提升社會文化的多樣性與包容性。本研究所選擇的10個(gè)分析樣本中,有6款人工智能倫理指南規(guī)范提到了公平正義原則。具體來說,政策2指出,人工智能的開發(fā)者、設(shè)計(jì)者、架構(gòu)師及其他利益相關(guān)者應(yīng)充分了解系統(tǒng)設(shè)計(jì)、實(shí)現(xiàn)和使用過程中可能存在的算法偏見,以及這些偏見給人類社會帶來的潛在威脅。政策6和政策9均指出,人工智能的使用可能會給社會帶來各種性別、年齡、種族等的歧視問題,因此技術(shù)開發(fā)者在設(shè)計(jì)人工智能時(shí),應(yīng)當(dāng)盡可能避免歧視和偏見,確保該技術(shù)以公平的方式被人類使用。政策8闡述了公平正義原則的含義及解決措施,認(rèn)為這一原則的含義包括平等、寬容、尊重他人、公平正義等。人工智能研究者應(yīng)保障社會公眾平等享有人工智能服務(wù)或產(chǎn)品,不因年齡、膚色、身體狀況、種族、家庭狀況、性別、國別、宗教信仰等差異而受到歧視。鑒于此,人工智能的信息技術(shù)應(yīng)具有包容性和可獲取性,盡可能避免對公民權(quán)利帶來的歧視或不公平行為。
4.安全原則
安全(security)原則指的是,在任何情況下都應(yīng)當(dāng)阻止人工智能無意識行為傷害人類,或侵犯人類權(quán)益[5]。該原則強(qiáng)調(diào)人類應(yīng)采取審慎態(tài)度對待人工智能的產(chǎn)品和服務(wù),避免使自身承擔(dān)任何不恰當(dāng)、易受傷的風(fēng)險(xiǎn)[27],確保人工智能在使用過程中安全運(yùn)作和穩(wěn)定可靠。本研究所選擇的10款人工智能倫理原則指南規(guī)范均提到了安全原則。其中,政策2指出,系統(tǒng)涉及的模型、算法、數(shù)據(jù)和決策都應(yīng)被精準(zhǔn)記錄,以便在發(fā)生未知風(fēng)險(xiǎn)時(shí)對系統(tǒng)進(jìn)行審核。同時(shí),人工智能開發(fā)者也應(yīng)使用嚴(yán)謹(jǐn)?shù)目茖W(xué)方法對其算法模型進(jìn)行反復(fù)、定期檢測,記錄所采用的驗(yàn)證方法和結(jié)果并加以公開,用以評估和監(jiān)測算法模型是否存在潛在威脅。政策4認(rèn)為,應(yīng)當(dāng)將安全性放在首要和突出地位。具體來說,在前期部署階段,應(yīng)當(dāng)對人工智能系統(tǒng)進(jìn)行反復(fù)測試,確保人工智能系統(tǒng)與軟硬件環(huán)境安全交互,依照預(yù)期程序穩(wěn)定運(yùn)行。同時(shí)在系統(tǒng)運(yùn)行過程中也應(yīng)當(dāng)設(shè)置必要的監(jiān)控,根據(jù)實(shí)際需要隨時(shí)進(jìn)行算法的更新、優(yōu)化和修正等工作。此外,還應(yīng)確保所有與互聯(lián)網(wǎng)連接的人工智能系統(tǒng)安全穩(wěn)定,以免造成網(wǎng)絡(luò)故障或受到惡意軟件感染。
政策8從避免人工智能對人類造成傷害的角度闡述了安全原則,認(rèn)為在人工智能開發(fā)與設(shè)計(jì)過程中,首先要充分考慮其服務(wù)或產(chǎn)品可能給人類帶來的潛在影響,包括對人工智能使用者的身體或精神傷害、個(gè)人信息泄露、個(gè)人財(cái)產(chǎn)或聲譽(yù)受損等,確保將所有的傷害降到最低。同時(shí),人工智能開發(fā)者可隨時(shí)進(jìn)行系統(tǒng)評估,并向公眾提供風(fēng)險(xiǎn)評估報(bào)告,從而減少潛在的危害行為。政策7還進(jìn)一步指出,開發(fā)者需要充分認(rèn)識人工智能所帶來的潛在影響,避免該技術(shù)的誤用、濫用,將其對人類造成的不利后果的可能性降至最低;此外,提高人工智能系統(tǒng)安全性的關(guān)鍵方法是提高技術(shù)的健壯性、可靠性、可控性和成熟度,應(yīng)當(dāng)采取必要的安全防范措施,且提高系統(tǒng)運(yùn)行的可重現(xiàn)性,即驗(yàn)證人工智能系統(tǒng)在相同條件下重復(fù)運(yùn)行時(shí)能否表現(xiàn)出相同的行為,從而實(shí)現(xiàn)人工智能的系統(tǒng)安全、數(shù)據(jù)安全和外部環(huán)境安全。
5.尊重人的自主性原則
尊重人的自主性(respect for autonomy)原則明確了人工智能對個(gè)人自由和自主的尊重,指的是在承認(rèn)個(gè)體所擁有的價(jià)值和持有的信念的基礎(chǔ)上,賦予具有自主能力的個(gè)人以自主選擇和自由行動的權(quán)力,其內(nèi)涵包括知情同意、尊重人權(quán)與尊嚴(yán)等內(nèi)容[28]。本研究所選擇的10個(gè)分析樣本中,有4款人工智能倫理指南規(guī)范提到了尊重人的自主性倫理原則。其中,政策1和政策3提出,人工智能的自主性應(yīng)當(dāng)有所限制,要盡可能尊重人的自主性,確保個(gè)人可以始終控制人工智能。此外,一是從知情同意的方面來看,政策4指出,在開發(fā)、設(shè)計(jì)或使用人工智能系統(tǒng)時(shí),個(gè)人必須掌握控制權(quán),即能夠隨時(shí)終止系統(tǒng)算法運(yùn)行。同時(shí),人工智能系統(tǒng)應(yīng)具備一定的可擴(kuò)展性,允許人類隨時(shí)更改其決策策略,并納入系統(tǒng)決策支持。二是從尊重人權(quán)與尊嚴(yán)的方面來看,政策7指出,人工智能系統(tǒng)的設(shè)計(jì)應(yīng)當(dāng)尊重、維系和保護(hù)人權(quán),并建議建立統(tǒng)一標(biāo)準(zhǔn)和監(jiān)督機(jī)構(gòu),確保人工智能的使用不侵犯人權(quán)、尊嚴(yán)、隱私和自由。
6.隱私與個(gè)人信息保護(hù)原則
隱私與個(gè)人信息保護(hù)(protection of privacy and personal information)原則規(guī)定,人工智能的設(shè)計(jì)、研發(fā)和應(yīng)用的全流程生命周期都應(yīng)當(dāng)保護(hù)個(gè)人隱私和數(shù)據(jù)安全?!妒澜缛藱?quán)宣言》明確規(guī)定:“任何人的私生活、家庭、住宅和通信不得任意干涉,他的榮譽(yù)和名譽(yù)不得加以攻擊。”[29]當(dāng)下,如何保障隱私安全成為人工智能時(shí)代亟待解決的問題。本研究所選擇的10個(gè)分析樣本中,有5款人工智能倫理規(guī)范提到了隱私與保護(hù)倫理原則。一方面,人工智能系統(tǒng)可對個(gè)人數(shù)據(jù)進(jìn)行獲取、分析和處理;另一方面,個(gè)人也有權(quán)保障個(gè)人隱私,限制人工智能系統(tǒng)對其個(gè)人數(shù)據(jù)的過度訪問、挖掘和利用。具體來說,政策1、政策4和政策6指出,人工智能開發(fā)者必須安全、合理地使用數(shù)據(jù),定期刪除無用數(shù)據(jù)。同時(shí),要設(shè)置加密傳輸和靜態(tài)數(shù)據(jù),通過設(shè)置“訪問權(quán)限”限制特定人員進(jìn)行數(shù)據(jù)訪問。在收集、使用、共享和存儲數(shù)據(jù)時(shí),人工智能開發(fā)者必須遵循必要的隱私政策和個(gè)人數(shù)據(jù)保護(hù)條款。政策8認(rèn)為,人工智能開發(fā)者應(yīng)充分保護(hù)隱私安全,明確用戶數(shù)據(jù)收集的范圍、形式、權(quán)利和責(zé)任。在使用個(gè)人數(shù)據(jù)時(shí),必須以合法目的為前提,不得侵犯個(gè)人或團(tuán)體的權(quán)利。因此,人工智能開發(fā)者做好數(shù)據(jù)隱私安全保護(hù)措施,防止未經(jīng)授權(quán)的訪問和泄露,建立開放透明的政策和程序,讓用戶了解其個(gè)人數(shù)據(jù)使用的目的和途徑,并為用戶提供知情同意許可,及時(shí)審查、糾正和刪除錯(cuò)誤數(shù)據(jù)。此外,政策8指出,當(dāng)前人工智能開發(fā)者經(jīng)常需要面對各類機(jī)密信息,如商業(yè)秘密、客戶數(shù)據(jù)、金融信息、研究數(shù)據(jù)、預(yù)發(fā)表論文及專利申請等。這就要求人工智能開發(fā)者提高保密意識,除政府等權(quán)威機(jī)構(gòu)的特殊要求外,不得隨意披露此類信息。
7.透明性原則
透明性(transparency)原則指的是,將人工智能的運(yùn)作規(guī)則、算法參數(shù)、決策過程和處理結(jié)果以清晰、明確、精準(zhǔn)的方式告知公眾,主要體現(xiàn)在可追溯性和可解釋性兩個(gè)方面。其中,可追溯性指的是與決策過程相關(guān)的數(shù)據(jù)集的產(chǎn)生過程、處理方法和運(yùn)行結(jié)果能夠被精準(zhǔn)地跟蹤、查詢或預(yù)測的能力,以幫助人工智能設(shè)計(jì)者分析、審查其決策的正確性,對系統(tǒng)性能和工作程序做出更好的解釋和更優(yōu)的判斷;可解釋性指的是對涉及人工智能系統(tǒng)技術(shù)研發(fā)和應(yīng)用場景的解釋能力,尤其是當(dāng)人工智能系統(tǒng)對人們的生活產(chǎn)生重大影響時(shí),需要對人工智能系統(tǒng)的決策過程做出適當(dāng)、及時(shí)的解釋,從而幫助利益相關(guān)者更好地理解系統(tǒng)設(shè)計(jì)的基本原則、運(yùn)作原理和適用性。本研究所選擇的10款人工智能倫理原則的指南規(guī)范中,有7款提到了透明性原則。對于可解釋性,政策4認(rèn)為,人工智能所做出的決策應(yīng)該具有可解釋性,特別是當(dāng)決策引發(fā)公共安全或?qū)е缕缫曅袨闀r(shí)。首先,要確保算法決策的可解釋性,即人工智能開發(fā)者能夠?yàn)槿斯ぶ悄芟到y(tǒng)設(shè)計(jì)提供充分解釋,一些具有潛在公共安全隱患的人工智能系統(tǒng)在發(fā)生事故時(shí)提供信息支持。其次,人工智能的服務(wù)提供商需要為用戶提供權(quán)限,支持其獲取人工智能決策支持的充分解釋。對于透明性,政策5指出,首先,人工智能開發(fā)者應(yīng)公開收集得到的數(shù)據(jù)、數(shù)據(jù)使用目的,以及在數(shù)據(jù)處理過程中應(yīng)用的技術(shù)、模型和處理結(jié)果;其次,應(yīng)公開其數(shù)據(jù)和模型的控制措施,檢測是否存在算法歧視,是否需要進(jìn)行算法修正,實(shí)現(xiàn)算法公平。另外,考慮到隱私安全問題,人工智能開發(fā)者不可能全面公開其算法源代碼,這就需要提高人工智能系統(tǒng)的透明性,明晰責(zé)任歸屬。人工智能開發(fā)者還需及時(shí)與用戶溝通,定期為公眾提供系統(tǒng)有效性和可靠運(yùn)作的監(jiān)測結(jié)果,以幫助公眾更好地理解和預(yù)測人工智能系統(tǒng)的決策及影響。
8.可靠性原則
可靠性(reliability)原則指的是,開發(fā)、部署和設(shè)計(jì)人工智能系統(tǒng)或服務(wù)時(shí),所涉及的算法、模型或數(shù)據(jù)真實(shí)可信,可確保人工智能系統(tǒng)能夠在一定時(shí)間、一定條件下穩(wěn)定、高效、無故障地執(zhí)行指定功能的能力。本研究所選樣本中有5款人工智能倫理原則的指南規(guī)范提到了可靠性原則。如政策3指出,開發(fā)人工智能系統(tǒng)要以大型數(shù)據(jù)集為基礎(chǔ),應(yīng)正確理解算法程序涉及的參數(shù)和數(shù)據(jù),保障數(shù)據(jù)的完整性,同時(shí)要確保開發(fā)和改進(jìn)人工智能系統(tǒng)所需數(shù)據(jù)的魯棒性、代表性和可用性。政策6認(rèn)為,人工智能開發(fā)者有義務(wù)以科學(xué)、嚴(yán)謹(jǐn)、可靠的方式開展人工智能系統(tǒng)的開發(fā)和設(shè)計(jì),并向用戶全面、如實(shí)地解釋人工智能系統(tǒng)可能存在的技術(shù)限制和潛在風(fēng)險(xiǎn)。類似地,政策8指出,人工智能開發(fā)者應(yīng)確保其向使用者提供的系統(tǒng)性能、服務(wù)質(zhì)量、潛在風(fēng)險(xiǎn)等信息都是公開透明的,不得提供虛假或誤導(dǎo)性的聲明,不得偽造數(shù)據(jù)資料和實(shí)施行賄受賄及其他惡意行為等。
9.其他
除上述倫理原則外,本研究所選擇的部分分析樣本還提及了其他人工智能倫理原則,用于規(guī)范和優(yōu)化人工智能政策法規(guī)、倫理準(zhǔn)則的修訂與完善。如政策4提出了共同治理原則,認(rèn)為應(yīng)當(dāng)建立更大范圍、更加多元的人工智能倫理全球治理機(jī)制,即在全球和各區(qū)域建立多方利益相關(guān)者的人工智能倫理治理機(jī)構(gòu),邀請民間組織、政府、私營部門、學(xué)術(shù)界和技術(shù)社區(qū)及公眾共同參與,并依托人工智能倫理問題的舉報(bào)機(jī)制和監(jiān)督程序,構(gòu)建科學(xué)合理的人工智能倫理安全保護(hù)框架。政策6提出了溝通原則,認(rèn)為人工智能開發(fā)者應(yīng)當(dāng)與社會公眾建立長效溝通機(jī)制,盡可能提高用戶對人工智能的理解和認(rèn)識,促進(jìn)人工智能產(chǎn)品及技術(shù)的推廣應(yīng)用。政策7提及了效率倫理原則,并建議開發(fā)人員制定相應(yīng)標(biāo)準(zhǔn)作為有效性的衡量指標(biāo),給出各衡量指標(biāo)的獲取方法、解釋維度、誤差范圍、置信區(qū)間和結(jié)果闡述等,并倡導(dǎo)行業(yè)協(xié)會和組織為人工智能系統(tǒng)應(yīng)用的有效性制定測量標(biāo)準(zhǔn),確保人工智能系統(tǒng)的發(fā)展目標(biāo)、風(fēng)險(xiǎn)評估均符合科學(xué)有效的原則;此外,政策7提出了勝任原則,即要求人工智能的開發(fā)者和使用者具備人工智能技術(shù)有效操作、安全運(yùn)行所需的知識和技能,并向有關(guān)專家和用戶提供系統(tǒng)操作方法、前提條件、操作者技能、系統(tǒng)性能衡量方法以及誤操作后果的相關(guān)資料。同時(shí),人工智能使用者應(yīng)當(dāng)及時(shí)接受教育和培訓(xùn),使其在心理、情感和技能等方面適應(yīng)人工智能帶來的影響,更好地享有人工智能的發(fā)展成果。
五、結(jié)論與思考
本研究選取了近年來各國學(xué)(協(xié))會發(fā)布的較有影響力的10款人工智能倫理原則政策文件,試圖剖析人工智能倫理原則的核心框架和主要內(nèi)容。分析認(rèn)為,現(xiàn)有人工智能倫理原則具有一定的合理性,但仍存在一些不足之處有待改進(jìn)和完善。特別是,近年來隨著人工智能技術(shù)日新月異的發(fā)展,所開發(fā)設(shè)計(jì)的各類人工智能產(chǎn)品和服務(wù)越來越趨向于具有類人的思維和行為,這就要求其應(yīng)當(dāng)更加嚴(yán)格地遵守人類基本倫理規(guī)范的約束,如家庭倫理原則(包括將夫妻關(guān)系與家庭利益相結(jié)合,禁止亂倫,對人類自身生產(chǎn)進(jìn)行規(guī)范;要求家庭成員之間相互尊重、相親相愛、敬老愛幼、無私奉獻(xiàn))[30]、交往倫理原則(即“真”與“誠”原則、仁愛與寬容原則、尊重平等原則)[31]以及職業(yè)倫理原則(即自由、責(zé)任、誠實(shí)、平等、公正和守法)[32]等。但根據(jù)筆者研究發(fā)現(xiàn),當(dāng)前由各國學(xué)(協(xié))會發(fā)布的人工智能倫理規(guī)范并沒有涉及有關(guān)家庭倫理、交往倫理及職業(yè)倫理等層面的基本原則,致使人工智能產(chǎn)品或服務(wù)在參與社會實(shí)踐和人機(jī)交往過程中缺乏必要的倫理遵循,進(jìn)而引發(fā)各類社會倫理問題。因此,在制定人工智能倫理原則時(shí),既要考慮為政策執(zhí)行者提供依據(jù)和指導(dǎo),又要綜合分析人工智能產(chǎn)品或服務(wù)的現(xiàn)實(shí)應(yīng)用[33],如將真誠原則、仁愛寬容原則、自由守法原則等納入其中,使其更具普適性和實(shí)用性。
參考文獻(xiàn):
[1]KRITTANAWONG C, ZHANG H, WANG Z, et al. Artificial Intelligence in Precision Cardiovascular Medicine[J]. Journal of the American College of Cardiology,2017(21):2657-2664.
[2]孫偉平.人工智能是倫理道德建設(shè)的“助推器”[J].特區(qū)實(shí)踐與理論,2019(4):98-101.
[3]SWARTE T, BOUFOUS O, ESCALLE P. Artificial Intelligence, Ethics and Human Values: The Cases of Military Drones and Companion Robots[J]. Artificial Life and Robotics,2019(3):291-296.
[4]JOBIN A, IENCA M, VAYENA E. The Global Lands-cape of AI Ethics Guidelines[J]. Nature Machine Intelligence,2019(9):389-399.
[5]鄧國民,李梅.教育人工智能倫理問題與倫理原則探討[J].電化教育研究,2020(6):39-45.
[6]張浩,黃克同.邁向制度化的人工智能倫理[J].人工智能,2019(4):32-38.
[7]蔣潔.風(fēng)險(xiǎn)視域下人工智能倫理的主旨和原則[J].信息通信技術(shù)與政策,2019(6):13-16.
[8]杜靜,黃榮懷,李政璇,等.智能教育時(shí)代下人工智能倫理的內(nèi)涵與建構(gòu)原則[J].電化教育研究,2019(7):21-29.
[9]鄭志峰.人工智能時(shí)代的隱私保護(hù)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2019(2):51-60.
[10]李倫,孫保學(xué).給人工智能一顆“良芯(良心)”——人工智能倫理研究的四個(gè)維度[J].教學(xué)與研究,2018(8):72-79.
[11]楊保軍,杜輝.智能新聞:倫理風(fēng)險(xiǎn)·倫理主體·倫理原則[J].西北師大學(xué)報(bào)(社會科學(xué)版),2019(1):27-36.
[12]李娜,陳君.負(fù)責(zé)任創(chuàng)新框架下的人工智能倫理問題研究[J].科技管理研究,2020(6):258-264.
[13]HO C W L, ALI J, CAALS K. Ensuring Trustworthy Use of Artificial Intelligence and Big Data Analytics in Health Insurance[J]. Bulletin of the World Health Organization,2020(4):263-269.
[14]曹建峰,方齡曼.歐盟人工智能倫理與治理的路徑及啟示[J].人工智能,2019(4):39-47.
[15]張榮,徐飛.人工智能醫(yī)學(xué)倫理問題及對策研究[J].醫(yī)學(xué)與哲學(xué),2020(13):14-19.
[16]KESKINBORA K H. Medical Ethics Considerations on Artificial Intelligence[J]. Journal of Clinical Neuroscience,2019,64:277-282.
[17]ZENG Y, LU E, HUANGFU C. Linking Artificial Intelligence Principles[C/OL]. Proceedings of the AAAI Workshop on Artificial Intelligence Safety (AAAI-Safe AI 2019),2018[2021-09-21].https://arxiv.org/abs/1812.04814.
[18]JESSICA F, ACHTEN N, HILLIGOSS H, et al. Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI[EB/OL].[2021-08-23]. https://dash.harvard.edu/handle/1/42160420.
[19]THILO H. The Ethics of AI Ethics:An Evaluation of Guidelines[J]. Minds and Machines,2020(1):99-120.
[20]BURUK B, EKMEKCI P E, ARDA B. A Critical Perspective on Guidelines for Responsible and Trustworthy Artificial Intelligence[J]. Medicine Health Care and Philosophy,2020(3):387-399.
[21]RYAN M, STAHI B C. Artificial Intelligence Ethics Guidelines for Developers and Users:Clarifying Their Content and Normative Implications[J/OL]. Journal of Information, Communication and Ethics in Society,2021(1):61-68
[2021-09-21].https://www.emerald.com/insight/content/doi/10.1108/JICES-12-2019-0138/full/html.
[22]Ethical AI Resources.Institutes and Fellowships[EB/OL].[2021-09-21].https://ethicalairesources.com/other-resources/.
[23]Future of Life Institute. Summaries of AI Policy Resources[EB/OL].[2021-09-21].https://futureoflife.org/ai-policy-resources/.
[24]準(zhǔn)則列表[EB/OL].[2021-09-21].http://www.linking-ai-principles.org/cnprinciples.
[25]斯皮內(nèi)洛.世紀(jì)道德:信息技術(shù)的倫理方面[M].北京:中央編譯出版社,1998:12-13.
[26]WMA. Declaration of Helsinki[EB/OL].[2021-06-25].https://www.wma.net/what-we-do/medical-ethics/declaration-of-helsinki/.
[27]比徹姆.哲學(xué)的倫理學(xué)[M].雷克勤,郭夏娟,譯.北京:中國社會科學(xué)出版社,1990:26-27.
[28]KANT I. Foundations of the Metpyysics of Morals[M]. Philadelphia: University of Pennsylvanis Press,1977.
[29]格德門德爾·阿爾弗雷德松,阿斯布佐恩·艾德.《世界人權(quán)宣言》——努力實(shí)現(xiàn)的共同標(biāo)準(zhǔn)[M].中國人權(quán)研究會,譯.成都:四川人民出版社,1999.
[30]薛寧蘭.婚姻家庭法定位及其倫理內(nèi)涵[J].江淮論壇,2015(6):133-141.
[31]王倩薷.論現(xiàn)代社會的交往倫理[D].西安:陜西師范大學(xué),2013:43.
[32]王海明.制度倫理的重要原則[J].江海學(xué)刊,2000(3):89-93.
[33]劉繼虎,王琛揚(yáng).智能機(jī)器人法律主體地位之探討[J].重慶郵電大學(xué)學(xué)報(bào)(社會科學(xué)版),2021(2):74-80.
The Core Framework and Content Analysis of Ethical Principles of Artificial Intelligence
ZHOU Qingshan1, ZHENG Xia2, HUANG Guobin3
(1. Department of Information Management, Peking University, Beijing 100871, China;
2. Office of Laboratory Management and Teaching Facilities Development, Renmin University of China, Beijing 100086, China;
3. School of Government, Beijing Normal University, Beijing 100875, China)
Abstract:[Purpose/significance] Artificial intelligence technology quietly opened the curtain of the fourth industrial revolution, bringing revolutionary changes to the development of all walks of life. However, the legal regulations and standard construction of this technology are not yet perfect, which has triggered the global exploration and thinking of artificial intelligence ethics principles and standard systems. National academic/associations have successively issued artificial intelligence ethics codes or policy documents. This research comprehensively analyzes and sorts out the core framework of the current highly recognized artificial intelligence ethical principles, and aims to provide references for countries to formulate and improve artificial intelligence ethical norms. [Method/process] By using the network research method, content analysis method and comparative research method, on the basis of comprehensive consideration of influence, country, availability and other factors, we select the authoritative policy documents related to the ethical principles of artificial intelligence issued by various national academic associations in recent years, and extract the core framework and main contents of the ethical principles of artificial intelligence involved. [Results/conclusion] The field of artificial intelligence mainly includes 8 artificial intelligence ethical principles, including the benefit principle, the responsibility principle, the fairness and justice principle, the safety principle, the respect for human autonomy, the privacy and protection principle, the transparency principle and the reliability principle.
Keywords:artificial intelligence; ethical principles; standard system
(編輯:李春英)