萬巖,楊悅釗,李明慧
(北京郵電大學 經濟管理學院,北京 100876)
1997年,IBM(International Business Machines Corporation)的計算機程序“深藍”在國際象棋賽場上戰(zhàn)勝了棋王卡斯帕羅夫。2011年,IBM超級電腦沃森在智力競猜電視節(jié)目中擊敗人類對手,此后,沃森快速發(fā)展為通用人工智能平臺。2016年和2017年,AlphaGo連續(xù)擊敗世界圍棋冠軍李世石和柯潔,引起巨大轟動,這兩場“人機大戰(zhàn)”成為人工智能發(fā)展史上新的里程碑。可以說,人工智能是當今最具前瞻性和先導性的信息技術之一。然而,它在取得重大突破的同時,也帶來了諸多倫理問題:算法黑箱、產品問責、大數據隱私風險、就業(yè)替代……這些潛在危害使人類處于威脅和風險之中。
為應對人工智能的倫理挑戰(zhàn),學者們開始進行該領域的研究。Muehlhauser等[1]認為,人類的價值觀是復雜的、難以明確的,而理想偏好價值理論能夠體現出個人或群體的價值偏好,該理論可用于指導人工智能的倫理設計。Anderson等[2]基于羅斯的表面義務論,創(chuàng)建了一個基于案例和原則的CPB范式(Case-supported Principle-based Behavior Paradigm)。該范式從倫理學家一致同意的案例行為中提煉表面義務的實現原則,以指導人工智能體的行為。Allen等[3]總結了人工智能倫理設計的三種方法,分別是自上而下的方法(top-down approaches)、自下而上的方法(bottom-up approaches)以及兩者相結合的方法(hybrid approaches)。自上而下的方法要在人工智能中預先設定一系列倫理準則,不過,目前還沒有一套統一的、能夠完全適用于所有場景的倫理準則。自下而上的方法不設定具體的倫理準則,而是訓練人工智能學習具有道德的人類行為。該方法的實施具有一定難度,因為學習的過程需要嘗試并可能會犯錯。兩者相結合的方法將自上而下和自下而上的方法結合起來,但是,人工智能是否需要具備情感、意識或思想才能夠作出道德決策,是該方法需要討論的問題。
對于人工智能倫理問題,目前尚未有公認的解決思路和解決方案。隨著人工智能應用場景更加廣泛,對人工智能倫理的研究不再局限于人工智能的倫理設計、主體界定、價值敏感性等議題,而呈現出多學科參與、研究主題分散化的趨勢。對該領域進行系統的知識結構與跨學科研究議題的梳理,有利于整體把握研究動向。那么,21世紀以來,國外人工智能倫理研究的知識基礎、研究前沿是什么?人工智能倫理涉及的主要學科有哪些?不同學科的主要研究內容是什么?未來如何開展跨學科的研究與合作?筆者擬基于Web of Science核心數據庫,通過文獻計量的方法分析和討論這些問題。
近年來,以人工智能倫理為議題的會議層出不窮,會議主題如“Machine Ethics” “EthicALife”“AI,Ethics,and (Quasi)Human Rights”“Roboethics”等[4]。此外,國外發(fā)展的機器倫理,往往與機器人倫理在概念上不加區(qū)分[5]?;诖耍疚牡难芯糠秶ㄈ斯ぶ悄軅惱怼C器人倫理和機器倫理,統稱人工智能倫理。
根據布拉德福文獻離散規(guī)律,本研究以收錄論文影響力較大、學術性與規(guī)范性較強的Web of Science核心數據庫為樣本來源數據庫。檢索2000年至2019年10月25日的文獻。高級檢索的檢索式為:TS = (“artificial intelligence” OR AI OR robot OR machine) AND TS = (ethic* or moral* or “moral agency”) OR TS = (roboethics),文獻類型選擇文章(article)、會議論文(proceedings paper)和綜述(review),共收集2 314篇文獻,去重后共獲得樣本研究文獻2 306篇。
本研究運用CiteSpace 5.5.R2,以Web of Science核心數據庫中人工智能倫理相關文獻為研究對象,從以下三個方面開展研究:(1)文獻時間分布特征分析;(2)文獻共被引網絡聚類分析,旨在得到可視化的聚類視圖、作為知識基礎的高被引文獻以及作為研究前沿的施引文獻,進一步探索該領域的知識結構;(3)學科共現分析和關鍵詞共現分析,旨在探究該領域的主要學科。同時,依托信息模型(information-model),擬從信息、技術、人、社會四個方面展現人工智能倫理研究的整體概覽,并從跨學科的角度探討不同學科的研究議題與合作關系。
2000至2019年,國外人工智能倫理相關文獻的數量呈上升趨勢,并大致可以分為三個階段(如圖1所示)。第一階段:2000至2004年,文獻數量較少且上升趨勢平緩,說明該段時間內,人工智能倫理尚未引起廣泛關注。第二階段:2005至2009年,roboethics[6]和machine ethics[7]被相繼提出,這一階段文獻數量增長幅度加快。第三階段:2010年至今,文獻數量陡然上升,該階段人工智能倫理受到廣泛關注,越來越多的學者對其進行研究。
文獻共被引是指兩篇文獻被同一篇文獻引用的現象,分析共被引網絡中的聚類及關鍵節(jié)點,可以揭示研究領域的知識結構[8]。知識結構包括知識基礎和研究前沿兩部分,被引文獻是知識基礎,施引文獻是在知識基礎上創(chuàng)造出來的新知識,代表著研究的推進和前沿。本文對人工智能倫理領域進行文獻共被引分析,通過分析可視化的聚類視圖、作為知識基礎的高被引文獻以及作為研究前沿的施引文獻,探討人工智能倫理領域的知識結構。
為使聚類結構顯著且具有良好的說明性,采用閾值插值法篩選出相對重要且具有代表性的文獻。時間切片(time slice)設為3年,三組閾值c|cc|ccv分別為4|4|10,5|5|10,5|5|10,得到文獻共被引網絡聚類分析圖(如圖2所示)。圖中共有96個節(jié)點,228條連線,7個聚類,每個節(jié)點代表一篇被引文獻,節(jié)點大小代表共被引次數,連線表示共被引關系。如圖2和表1所示,每個類的輪廓值(silhouette)都大于0.7,整體輪廓值為0.605 4(標準是大于0.5),整體模塊化系數(modularity Q)為0.645 9(標準是大于0.3),說明聚類結構顯著[8]。
表1 文獻共被引網絡各聚類信息
續(xù)表
從聚類的內容上看,如表1和圖3所示,文獻量的高峰出現在2012年,類#1的時間跨度最長,類#3的平均年份最早,類#2和類#6較新,類#0、類#4和類#5在2010至2018年之間出現。表1列出了每個聚類的前5個標簽,這些標簽從每類施引文獻的摘要中采用CiteSpace自帶的對數似然算法(Log-likelihood Rate,LLR)得出。為了理解每個類的含義以及該領域的知識結構,下面將從知識基礎(被引文獻)和研究前沿(施引文獻)兩個方面進行論述。
高被引文獻是人工智能倫理領域的知識基礎。表2列出了排名前10位的高被引文獻,這些文獻大多為專著。
表2 高被引文獻
被引頻次最高的是Sharkey等[9]的論文GrannyandtheRobots:EthicalIssuesinRobotCarefortheElderly。論文討論了老年護理機器人的6個倫理問題:人類接觸量的減少,老年人被對象化,隱私的喪失,個人自由的喪失,老年人被欺騙和被嬰兒化,以及在什么情況下老年人要取得對機器的控制權?;诖耍髡呓ㄗh制定有遠見和謹慎的指導,確保老年人更多體驗到的是護理機器人的好處,而不是壞處。
排名第二的是Bostrom[10]的著作Superintelligence:Paths,Dangers,Strategies。這本書對超級人工智能可能帶來的危險進行了系統性的研究,作者認為,創(chuàng)造一個超級人工智能將給人類帶來災難性的風險,不過可以采取行動來減少這種風險,創(chuàng)造一個友好的超級人工智能可能會促進許多有益技術的迅速發(fā)展。
排名第三的是Bonnefon等[11]的論文TheSocialDilemmaofAutonomousVehicles。論文通過在線調查發(fā)現,相比于非功利主義編程的自動駕駛汽車(出事故時偏向于拯救乘客),參與者認為基于功利主義編程的自動駕駛汽車(拯救更多生命)是最道德的,但是在購買汽車時,參與者反而偏向于購買前者。這一結果表明,人們按照自身利益行事的時候,可能會引起所有人的最壞結果。
排名第四的是Wallach等[12]的著作MoralMachines:TeachingRobotsRightfromWrong。作者指出,智能機器作出的決策有時候具有道德層面上的影響,應該考慮給予智能機器道德敏感性或者道德決策能力,使其能夠自主地作出道德的決策,并討論了如何實現這一目標(例如工程師和哲學家怎樣進行合作)。
排名第五的是Arkin[13]的著作GoverningLethalBehaviorinAutonomousRobots。作者認為,機器人在戰(zhàn)場上比人類更人道,并探討了在自主機器人系統中實施倫理控制和推理系統的哲學基礎、動機、理論和設計建議,以及自主機器人的戰(zhàn)爭法則。
排名第六的是Lin等[14]的著作RobotEthics:theEthicalandSocialImplicationsofRobotics。書中討論了機器人倫理編程的可能性,軍事機器人使用的倫理問題、相關法律法規(guī)和政策,以及人類與機器人的情感關系。
排名第七的是Anderson等[15]的著作MachineEthics。這本書從哲學家和人工智能研究員兩個角度,闡述了為什么要給機器增加倫理維度,需要什么來增加倫理維度,以及增加倫理維度時可以考慮的幾種方法。
排名第八的是Wynsberghe[16]的論文DesigningRobotsforCare:CareCenteredValue-SensitiveDesign。文章提出了以護理為中心的價值敏感設計,即將護理中的要素作為規(guī)范標準,將護理價值作為基礎價值整合到護理機器人技術中。
排名第九的是Gunked[4]的著作TheMachineQuestion:CriticalPerspectivesonAI,Robots,andEthics。作者在書中討論到我們制造的智能機器是否以及在多大程度上可以被視為具有合法的道德責任和道德考量,他還從另一個相反的角度討論當機器是道德病人(moral patient)的情況。
排名第十的是O′nell[17]的著作WeaponsofMathDestruction:HowBigDataIncreasesInequalityandThreatensDemocracy。作者對大數據的陰暗面提出了批評:如果算法計算出我們成為學生、工人、戀人和罪犯的概率,然后利用這些信息來對付我們,特別是當我們貧窮或者易受傷害的時候,這會增加不平等;此外,自動化新聞推薦使公民只獲取到自己感興趣的政治新聞,這會摧毀民主。
上述文獻中,絕大部分的文獻都系統地闡述了一個特定的人工智能倫理問題(例如老年護理機器人、超級人工智能、自主機器人、以護理為中心的價值敏感設計等)。這些文獻首先提出一個倫理問題,解釋其概念及含義,然后討論解決這一倫理問題的可能性和必要性,最后提出建議以及解決問題的幾種方法。這些文獻構成了人工智能倫理領域的知識基礎。
關于研究前沿,從圖2可以看出,類#0、類#2、類#6輪廓清晰,與其他聚類距離較遠,各自的主題比較明確;而類#1、類#3、類#4、類#5交叉在一起,表明這幾個類存在較多聚類間共引,對應的主題比較相關。
類#0主要討論人們對人工智能的看法和認知。技術的發(fā)展使人工智能應用越來越普及,而人們對人工智能的看法和認知不僅影響人工智能應用的接受程度和使用意愿,還會影響倫理準則的制定。調查發(fā)現,人們厭惡機器作出的道德決策[18],即使這些決策有積極的結果,這種厭惡仍然存在。Bigman等[19]探討了三種增加機器道德決策可接受性的途徑;而當人工智能違反道德時,人們將更多的錯誤歸咎于人工智能本身,而不是組織、程序員或者用戶[20]。Awad等[21]調查了不同國家和地區(qū)的公眾對自動駕駛汽車在道德困境下行為決策的道德感知,總結了全球道德偏好和跨文化倫理差異。
類#2為人工智能治理。人工智能正在改變政府決策方式以及社會運行方式,促使傳統模式發(fā)生變革。為了使人工智能技術在人類的控制范圍內發(fā)展,需要在國家背景和社會背景下討論人工智能的治理。Redden[22]通過案例研究,討論了加拿大政府大數據實踐的風險和挑戰(zhàn),指出兩個目前尚未被重點關注的問題:一是數據化的公私伙伴關系如何限制民主制度;二是信息系統如何改變對公民和社會的理解以及治理方式。Marda[23]在當前印度人工智能政策環(huán)境的背景下,提出從數據、模型到應用三個階段審議機器學習決策局限性的框架。Rahwan[24]提出建立一個算法社會契約(algorithmic social contract),一個由機器中介的各種人類利益相關者之間的契約,并提出了循環(huán)中的社會(society-in-the-loop)框架,用于協商受人工智能系統影響的各種利益相關者的價值觀,并監(jiān)測他們對協議的遵守情況。Winfield等[25]認為,道德治理對于建立公眾對機器人和人工智能的信任至關重要,并提出了一個道德治理的框架,該框架將道德、標準、法規(guī)、負責任的研究和創(chuàng)新以及公眾參與等諸多要素聯系了起來。
類#6是輪廓值最高的類,并且與其他類的聯系最少,該類主要討論人工智能和大數據在醫(yī)療應用中的倫理問題。該領域的主要問題是,當偏差和偏見值存在于數據集中,或者數據被操縱和誤解時,人工智能可能輸出不公平或不準確的預測結果,從而影響醫(yī)療決策。Williams等[26]認為,數據質量和相關性是人工智能精準醫(yī)療成功的關鍵,Park等[27]強調訓練數據、測試數據、結果的透明度和可解釋性以及算法和數據的共享是保證醫(yī)學人工智能倫理的主要內容。Pesapane等[28]認為,應該區(qū)分數據分析(人工智能設備的輸出)和決策,計算機通過大數據分析輸出的結果應該與醫(yī)生的專業(yè)知識、醫(yī)生與患者的互動和同理心、患者的偏好和價值觀相結合,最終得出綜合的醫(yī)療決策結果。
類#1、類#3、類#4和類#5討論的主題比較相關,集中在機器人以及人機交互的倫理問題方面。類#1主要討論人與機器人互動的接受性,人們對機器人的社會反應、概念化以及產生同理心的現象。例如,使用社交機器人作為自閉癥兒童治療師的輔助工具在道德上是可以接受的,但是人們反對在沒有治療師的情況下使用機器人[29],并且應該避免用機器人取代治療師[30]。類#3是年代最早的聚類,哲學方面的討論比較多,涉及到分別用義務論、功利主義、美德倫理學等哲學理論來討論機器(人)的倫理問題和倫理框架。例如,有部分學者認為,基于美德倫理學的道德框架有利于實現自主的人工道德代理人,Tonkens[31]討論了這樣的機器人是否符合美德倫理學的核心原則。Coeckelbergh[32]認為,現在以及未來的機器人將不符合義務論、權利論或功利主義方法所設定的高標準,并提出一種基于社會關系的道德考量方法,該方法將重點從權利和財產轉變?yōu)殛P系來重構道德考量問題。類#4側重于運用問卷調查、案例研究、訪談以及文獻綜述的方法,研究護理機器人和陪伴機器人的倫理問題。例如,Jenkins等[33]通過焦點小組訪談發(fā)現,盡管監(jiān)視器會侵犯老年人的自主性,但一些參與者還是愿意讓機器人以某種方式監(jiān)控老年人,這可能是因為其將老年人的安全視為更重要的因素。類#5主要討論機器人和人工智能系統的倫理設計。隨著機器人和人工智能系統的自主決策能力不斷增強,要建立相應的機制確保它們的行為符合安全和倫理道德的要求。Ienca等[34]的研究表明,缺乏倫理考量可能是阻礙智能輔助技術(IAT)從實驗室設計到臨床應用的決定性因素。Torresen[35]對有關機器人和人工智能系統倫理設計和操作的文獻進行了綜述。Vanderelst等[36]運用仿真理論提出了機器人實施倫理行為的方法,并將該方法運用在NAO機器人上。在簡單的測試場景中,該方法能夠防止人類受到傷害。
綜上所述,高被引文獻提出并系統地闡述了不同場景下的人工智能倫理問題,為后續(xù)研究奠定了知識基礎。而研究前沿集中在人們對人工智能的看法和認知、人工智能治理、人工智能和大數據在醫(yī)療應用中的倫理問題、機器人以及人機交互的倫理問題這四個方面。
為了更全面地概述人工智能倫理的研究現狀,筆者進行了人工智能倫理多學科研究概覽與啟示研究。首先運用CiteSpace進行學科共現分析,得到人工智能倫理領域的主要學科;然后,將該領域的關鍵詞整合到信息模型,得到人工智能倫理多學科研究概覽;最后,從跨學科的角度出發(fā),探討不同學科領域的研究議題,以此啟發(fā)不同領域開展研究與合作。
學科共現分析中學科分類為Web of Science中的分類,時間切片為一年。為了突出重點學科,使用最小生成樹(minimum spanning tree)、修剪切片網絡(pruning sliced networks)和修剪合并的網絡(pruning the merged network)進行網絡剪裁,得到學科共現分析圖。如圖4所示,節(jié)點代表學科,節(jié)點大小代表發(fā)文數量多少。結果顯示,人工智能倫理涉及的主要學科有計算機科學、工程學、社會科學、機器人學、倫理學、哲學、商業(yè)和經濟、科學史和哲學、心理學、政府和法律、信息科學與圖書館學……其中,計算機科學的節(jié)點最大,并且其分支學科的節(jié)點最多,這說明人工智能倫理的研究基本圍繞著人工智能技術展開。隨著人工智能應用的普及,人工智能倫理的討論場景更加廣泛。
本研究借助信息模型來研究人工智能技術帶來的倫理問題。信息模型用于對信息及其相關領域進行描述,通過不同領域間的聯系發(fā)現信息技術持續(xù)發(fā)展可能帶來的不良后果[37]。信息模型包含四個方面:信息(information)、技術(technology)、人(people)和社會(society)。這四個方面相互聯系:信息模塊涉及圖書館學和信息科學;技術模塊的核心是計算機科學和工程學;人是心理學家、社會學家、文化人類學家所要研究的[37];在人工智能倫理領域,社會模塊包括哲學、倫理學、公共管理以及法律等學科。
關鍵詞是文章內容的重要體現,將詞頻大于3且具有重要含義的關鍵詞按信息、技術、人和社會四個方面整合到信息模型中,得到人工智能倫理多學科研究概覽(如圖5所示)。其中,英文單詞是樣本文獻中的關鍵詞,中文詞語是根據原始信息模型中四個方面各自屬性[37]及對英文關鍵詞進行歸類得到的?;谌斯ぶ悄?、機器(人)的特殊屬性,關于它們和人進行互動、交流,以及關于它們是否能夠被賦予人的特性是人工智能倫理的重要議題。在信息模型中,它們既可以被當作技術看待,也可以被當成“人”來看待,所以把與之相關的關鍵詞放在了技術和人的連線上。
1.信息
信息模塊中列出了不同的信息類型,這些信息在技術、人和社會之間傳遞。人工智能的應用擴大了信息收集和使用的場景、范圍和數量,帶來了隱私、安全、歧視、數據完整性等問題[38]。在信息收集方面,圖像識別、語音識別、語義理解等人工智能技術在采集用戶信息時涉及到隱私信息、敏感信息的識別和保護。但是,諸如谷歌、亞馬遜等互聯網服務商的隱私政策在信息全面性、語言清晰性、處理公平性方面還不符合通用數據保護條例(GDPR)的規(guī)范[39]。在信息使用方面,算法設計者可能存在的有意無意的偏見,或者使用了有問題的數據集,會導致人工智能系統的決策帶有歧視性。
針對這些倫理問題,需要規(guī)范信息的收集過程和范圍,完善數據保護的法律法規(guī),明確數字權利,制定相應的數據使用標準,這是法律、信息科學與圖書館學等學科的努力方向。此外,企業(yè)應以用戶為中心規(guī)范信息授權、收集、存儲、加工以及二次使用等流程,并關注數據泄露、隱私侵犯的法律后果。
2.技術
技術是人工智能落地和應用的先決條件,技術模塊包含了人工智能倫理討論的各種場景,或在算法上,或在應用上。一方面,如何使得算法更具透明性、可解釋性和可問責性是人工智能倫理的議題之一,這些問題的解決有利于從根源上減少技術帶來的倫理問題。基于此,可解釋人工智能(eXplainable Artificial Intelligence,XAI)近幾年來為何成為研究熱點。有關XAI的探討大致從兩個角度進行:一是諸如線性回歸、決策樹、K-近鄰法、貝葉斯等機器學習模型具有一定的透明度,在一定程度上可以自行解釋;二是為了使機器學習模型更易于解釋,可單獨設計事后解釋技術(post-hoc explainability techniques),運用模型簡化、特征重要性度量、可視化等方法解釋算法黑箱[40]。Selbst等[41]將機器學習決策分為不可預測性(inscrutable)和非直觀性(nonintuitive)兩類,前者需要對規(guī)則進行合理的描述,后者則要解釋為什么是這樣的規(guī)則,這就要求對模型開發(fā)背后的過程進行解釋,而不僅僅解釋模型本身。這些解釋對于確保算法的公平性、識別算法偏差以及確保算法按照預期執(zhí)行是很重要的。倫理法則的缺失可能導致技術開發(fā)失控和技術濫用,沒有倫理道德約束的人工智能可能會超出人類所能控制和支配的范疇,輕則帶來生態(tài)污染、偏見歧視、隱私泄露等問題,重則可能成為壓制、奴役和統治人與社會的“異己”力量[42]。所以,對算法進行監(jiān)管十分必要[43]。
當算法部署到社會中時,很少有決策純粹是技術性的,相反,算法的倫理設計是技術和哲學相互配合的結果[44]??萍紓惱硇枰嬎銠C科學、工程學、機器人學等技術類學科與倫理學、哲學、政府和法律等人文學科的結合,以評估人工智能技術帶來的風險,為人工智能研發(fā)和應用設定倫理原則。同時,企業(yè)可以提供大量真實的數據與最新的應用場景,產學研協同可以有效地對盤根錯節(jié)、有爭議的倫理問題進行多方位思考,科研人員應重視倫理準則與產業(yè)標準的密切聯系,使倫理準則盡快落地。
3.人
人是不同道德感知、道德判斷和道德評價的基本單位,這一模塊包含三個方面的倫理問題。第一,不同性別、年齡、學歷、認知情感傾向、道德敏感性的人對人工智能產品的看法、信任和接受程度具有差異[45-46],從而影響人工智能產品最初進入市場的目標人群和宣傳對象。目前,此類議題的討論場景集中在護理機器人、醫(yī)療機器人、陪伴機器人、社交機器人等,這些機器人在日本、歐美等發(fā)達國家已經進入應用階段。第二,機器(人)的行為和外觀會影響人機交互,特別是兒童[47-48]。在人機交互的過程中,當機器(人)與人類交流、欺騙[49]、合作、共同進化、甚至相愛[50]的時候,人們的認知以及人機關系會發(fā)生變化[51-52];而由機器人外觀引發(fā)的恐怖谷效應(uncanny valley)會使人產生恐懼和厭惡的心理[53]。研究表明,機器(人)行為和外觀對人機交互的影響是獨立的,行為對社會認知的影響更大,外觀對態(tài)度的影響更大[54]。第三,機器(人)的擬人問題,即機器(人)是否能夠具備人的特性(例如情感和認知),是否可以成為社會上[55]、法律上和道德上[56]獨立的個體,以及機器(人)應該具有何種能夠計算的道德能力[57],是極具爭議性的話題。對此,各國標準不一,2017年機器人索菲婭(Sophia)被授予沙特公民身份,成為首個獲得公民身份的機器人。
關于人這一模塊的研究,社會科學、心理學、商業(yè)與經濟等學科可采用實證分析、問卷調查、訪談、案例研究、實驗室實驗等方法,系統分析人工智能產品使用者的信任程度、接受程度以及情感和認知的變化過程[58];同時,由機器(人)外觀和行為帶來的倫理問題,以及機器(人)的擬人問題也需要機器人學、倫理學、心理學、社會學、法律等學科的共同探討。
4.社會
社會模塊為人工智能倫理的研究提供了社會背景和環(huán)境。一方面,由于社會制度、文化背景、種族、宗教等方面的差異,人們對人工智能倫理的理解和要求可能不同,從而對人工智能技術的研發(fā)及應用提出不同的要求和倫理準則[59]。這些要求和倫理原則會直接影響到技術開發(fā)、產品設計和產業(yè)發(fā)展。另一方面,人工智能的強替代性可能拉大貧富差距,甚而影響社會穩(wěn)定:低端崗位可能被取代,擁有人工智能技術能力和資金能力的人卻可能擁有更多的發(fā)展機會,從而獲取更多的財富和權力[60]。
目前,大多數人工智能倫理問題的討論集中在社會層面,特別是對倫理的討論。例如:(1)人工智能獨立作出決策時應遵循的倫理準則。技術有能力在特定情況下無需人工審查和授權即可采取行動,但其行動應遵循一些準則,這些準則還有待明確。目前,主流的方法是基于邏輯推理來設定倫理準則[2,61];此外,Vamderelst等[36]59基于認知仿真理論,提出了一種機器人實施道德行為的方法,通過該方法,機器人能夠模擬動作并預測其后果。(2)人工智能技術開發(fā)的倫理準則。例如,基于價值敏感設計的方法整合利益相關者的價值觀,用于技術早期階段的開發(fā)指導[62];又如,是否可以開發(fā)人工智能軍事武器,是否因為戰(zhàn)爭“正義”就可以在戰(zhàn)爭中使用人工智能[63]等。(3)人工智能技術應用的倫理準則。如問責制和可解釋性兩方面,行業(yè)自律和舉報人制度為問責制提供了一條新的法制路徑[64],而GDPR賦予公民“解釋權”,公民可以質疑算法對其作出的決策,并要求作出解釋[44]51。
要減少人工智能帶來的社會不穩(wěn)定因素以及對人工智能進行治理,需要從經濟政策、社會政策、法律政策、教育培訓[65]等多方面做好應對準備。這需要計算機科學、工程學、社會科學、倫理學、哲學、科學史和哲學、心理學、政府和法律等學科領域的協同。
人工智能倫理多學科研究概覽呈現出不同學科之間的協作關系以及跨學科研究的發(fā)展趨勢,對開展多學科結合的研究具有啟示作用。為了更好地開展人工智能倫理研究,必須促進各學科人才的交流合作,形成多學科交叉的研究團體。
本研究通過文獻共被引網絡聚類分析,梳理了人工智能倫理領域的知識結構;通過學科共現分析和關鍵詞整合,展現了人工智能倫理多學科研究概覽與啟示,得出以下主要結論。
1.人工智能倫理是一個新興的研究領域,近幾年引發(fā)學者的廣泛關注,研究成果豐碩。
2.從知識結構來看,作為知識基礎的文獻系統地闡述了不同場景下的人工智能倫理問題,包括問題提出、概念解釋、解決問題的可能性和必要性,以及解決問題的建議和方法。而研究的前沿集中在人們對人工智能的看法和認知、人工智能治理、人工智能和大數據在醫(yī)療應用中的倫理問題、機器人以及人機交互的倫理問題這四個方面。
3.從學科角度,人工智能倫理涉及的主要學科有計算機科學、工程學、社會科學、機器人學、倫理學、哲學、商業(yè)和經濟、科學史和哲學、心理學、政府和法律、信息科學與圖書館學。此外,本研究將該領域的關鍵詞整合到信息模型,從信息、技術、人和社會四個角度提供了人工智能倫理多學科研究概覽,并以此為基礎,討論了以上不同學科的研究議題與協作關系,說明了跨學科研究的必要性和發(fā)展趨勢,這對于促進該領域研究百花齊放、控制人工智能技術的倫理風險具有重要意義。
未來將以上文分析得出的人工智能倫理多學科研究概覽與啟示為基礎,展開更加深入的研究,例如,人工智能的倫理風險與社會危害識別研究、可信AI的保障途徑與治理策略研究,讓人工智能技術更好地造福人類。