文/閆坤如
從簡單的圖靈測試到世界上第一位具有國籍的機器人公民索菲亞的出現(xiàn),機器人的發(fā)展有失控的風險,難以預測機器人技術(shù)的走向是否能夠被人類準確評估與規(guī)范,也沒有任何的經(jīng)驗或者教訓可以借鑒和吸取。21世紀以來,軍用殺戮機器人在戰(zhàn)場上誤殺無辜生命,無人駕駛汽車致使行人死亡,聊天軟件公開發(fā)表種族歧視、性別歧視的言論,人臉識別涉嫌種族歧視,機器人在虛擬互動中通過“作弊”獲得用戶的隱私信息等負面事件不斷出現(xiàn),引發(fā)人類對于機器人的負面效應(yīng)的思考。機器人技術(shù)出發(fā)點本來是“為己”的,現(xiàn)在卻變成了“異己”的力量,導致“機器人異化”現(xiàn)象出現(xiàn)。機器人帶來失業(yè)風險,福特(Martin Ford)在《機器人崛起:技術(shù)以及失業(yè)的未來威脅》中著重從教育、金融以及醫(yī)療等領(lǐng)域機器人的發(fā)揮說明機器人的社會影響,特別是導致勞動者失業(yè)。有的學者認為智能機器的負面影響已經(jīng)超過了正面的積極作用,智能機器人所帶來的風險超過了它的積極作用。智能機器人所帶來的負面影響和風險給人類生活造成了影響,從失業(yè)風險到信息泄露,機器人的出現(xiàn)不但帶來技術(shù)風險,而且?guī)砩鐣L險、環(huán)境風險,等等,甚至影響人類生命安全。機器人的負面影響及其倫理規(guī)范引發(fā)學者思考。
隨著人工智能的發(fā)展,機器越來越像人,機器不僅僅具有工具屬性,還具有獨特的存在價值,機器人開始挑戰(zhàn)人類的主體性,人類對智能機器的發(fā)展表現(xiàn)出恐慌心理。智能機器不僅僅是簡單的工具與客體,機器人不再局限于人類肢體的延伸與作用的增強,機器人具有自主決策與推理能力,可能具有自由意志與人類情感,這可能威脅到人類的主體地位,引發(fā)人類主體性地位喪失。隨著機器人技術(shù)的突破,智能機器人在社交、知覺、創(chuàng)造力、自然語言理解等方面的能力不斷突破,在帶來巨大的物質(zhì)力量、促進社會進步與人類發(fā)展的同時,也引發(fā)人類主體性地位喪失的可能性與風險。人工智能先驅(qū)明斯基(Marvin Minsky)在《理解人工智能》雜志上發(fā)表《機器人會掌控世界嗎?》來探討機器掌控人類世界的問題。國際象棋被公認是挑戰(zhàn)人類智能的一項運動,1997年,深藍計算機戰(zhàn)勝國際象棋冠軍卡斯帕羅夫也引發(fā)人類對于機器智能超越人類智能的思考。智能機器的發(fā)展正在日益威脅到人類的主體性地位。
機器人的出現(xiàn)與發(fā)展,除了需要解決傳統(tǒng)的倫理問題之外,還引發(fā)一些新的倫理問題。隨著機器人的應(yīng)用,機器誤傷兒童、無人駕駛汽車撞死人事件時有發(fā)生,影響人類安全。機器人傷人、殺人事件時有發(fā)生,威脅人類安全,到底是設(shè)計者還是機器對此類事件負責呢?這帶來機器是否是道德主體的疑問。機器學習與圖像識別技術(shù)讓無人駕駛汽車輕松上路,卻帶來機器設(shè)計道德上的倫理困境的思考。機器人采集數(shù)據(jù)涉及到數(shù)據(jù)共享與隱私之間的悖論。由于不能公平地使用機器人帶來國家與地區(qū)間的經(jīng)濟發(fā)展差異,機器人的使用導致社會不公平現(xiàn)象的出現(xiàn),等等。上述問題都是隨著機器人出現(xiàn)而引發(fā)的新問題。
2017年,瓦拉赫(Wendell Wallach)與阿薩羅(P.Asaro)編輯《機器倫理與機器人倫理》一書,收集了關(guān)于機器倫理與機器人倫理以及道德主體等方面的文章。機器人倫理(Robot ethics)與機器倫理(Machine ethics)在內(nèi)涵界定、研究范疇以及責任主體方面都有差異。
機器人倫理學家弗魯吉奧首次將機器人倫理學縮減為“roboethics”這個單詞,他認為機器人的發(fā)展是由三大基本元素構(gòu)成:人工智能、機器人技術(shù)和倫理學構(gòu)成,其中,機器人技術(shù)是一個研究機器人的設(shè)計、制造、操作和使用的領(lǐng)域。人與機器的區(qū)別是機器人倫理學的研究預設(shè),首先要承認機器人與人相區(qū)別,機器不能成為人,也就不能成為道德主體。機器倫理學與機器人倫理學內(nèi)涵不同,機器倫理學指的是機器具有了人的主體地位之后出現(xiàn)的倫理問題,例如,機器如何表現(xiàn)出符合人類倫理道德的行為,機器傷害人類后如何承擔責任,等等。機器倫理學是人工智能倫理的一部分,涉及到人工智能物的道德行為,人工智能機器作為實際的或潛在的道德主體而存在,不但如此,機器可能具有自主學習能力、具有自我意識、自由意志、人類情感與人類智能。機器具有自由意志、具有道德主體地位,能夠獨立承擔責任是機器倫理學的理論前提。機器與人一樣具有理性,能夠辨識自己的行為,能夠獨立承擔責任的道德主體,因此,可以有針對機器的倫理學,機器倫理學關(guān)注的是機器對人類用戶和其他機器的行為,機器倫理是以機器為責任主體的倫理學。
機器人倫理學與機器倫理學研究范疇有相近之處,機器倫理學是關(guān)于以機器為智能主體的研究。例如,2009年,牛津大學出版社出版了溫德爾·瓦拉赫(Wendell Wallach)與科林·艾倫(Colin Allen)的《道德機器:如何讓機器人明辨是非》,涉及到機器自主行為的倫理后果以及機器自主的最近和潛在發(fā)展,關(guān)注的是像人類倫理一樣的機器道德。機器倫理學的發(fā)展要求在機器上增加一個道德層面的內(nèi)容,提高道德考量比重。2011年,美國康涅狄格州哈特福德大學機器倫理學家邁克爾·安德森(Michael Anderson) 與美國大學哲學系教授蘇珊·安德森(Susan Leigh Anderson)夫婦編著《機器倫理》(Machine Ethics)一書,對機器倫理的本質(zhì)與內(nèi)涵進行詳細分析,機器倫理學研究機器道德,把機器作為具有自由意志,能夠獨立承擔責任,具有道德主體地位,機器與人的地位是完全相同的。機器人倫理學與機器倫理學的研究范疇不同,它指的是人在設(shè)計機器人中的倫理學,機器人倫理學的研究范疇主要包括機器人制造與使用階段的倫理道德問題,以及把人類道德規(guī)范嵌入到機器人的操作系統(tǒng)中等問題,關(guān)注機器人設(shè)計者的道德以及機器人設(shè)計應(yīng)用引發(fā)的人類安全、設(shè)計公平、社會穩(wěn)定以及環(huán)境影響等問題。
機器人倫理強調(diào)人與機器的區(qū)別,機器倫理把機器當作人來看待。學者基于機器與人的區(qū)別關(guān)注機器人倫理。美國加州理工大學哲學系帕特里克·林(Patrick Lin)在《機器人倫理:機械化世界的問題映射》中強調(diào)機器人設(shè)計,關(guān)注在機器人設(shè)計環(huán)節(jié)如何實現(xiàn)價值的嵌入,從而設(shè)計出有道德的機器人,提出設(shè)計具有同情心和無私情懷的機器人的設(shè)想。帕特里克在《機器人倫理2.0:從自駕駛汽車到人工智能》中,認為構(gòu)建機器人倫理要在道德機器的基礎(chǔ)上,增加了法律責任的考量,指出隨著智能機器人的智能水平的不斷提高,智能機器能在一定程度上為其行為負法律責任,并詳細闡述了其法律責任分配的依據(jù),其中就包括了設(shè)計者可能要肩負的法律責任等內(nèi)容。對于機器人倫理來講,研究主要集中在人類負責任和不負責任地使用人工智能技術(shù)。人機關(guān)系是機器人倫理的核心問題,機器人倫理學指的是人在設(shè)計機器人中的倫理學,機器人制造和部署的倫理道德問題,用來處理人們發(fā)明機器人的倫理道德問題。在機器人倫理學家看來,機器不具有人類的主體地位,也不能獨立地承擔責任。當人工智能仍然只是人類決策的輔助工具時,即機器仍由人來控制和干預時,機器作惡可用已有的道德和法律規(guī)則來進行約束,因為此時做出錯誤決策的是人本身而非機器,機器只是人的命令和指令執(zhí)行者而已。機器人倫理學主要關(guān)注的還是機器設(shè)計中的設(shè)計主體責任以及機器應(yīng)用帶來的社會倫理問題,從這個意義來講,機器人倫理學是作為應(yīng)用倫理學的分支存在的。
通過上述分析我們可以知道,機器人倫理學是關(guān)注人工智能設(shè)計以及人工智能給人類帶來的倫理問題,例如,數(shù)據(jù)挖掘倫理、人工智能社會倫理等問題;機器倫理認為人工智能具有自我推理與決策能力,研究機器在決策過程中決策失誤、傷害人類身體以及損害人類利益中的倫理問題。機器人倫理學是設(shè)計、制造以及對待機器人的倫理學,這種倫理學一般針對設(shè)計主體來說的,機器人倫理學屬于“以人為中心”的倫理學,責任主體是人,主要研究設(shè)計者在機器人設(shè)計、利用機器人中的倫理規(guī)范;機器倫理學是機器人具有了人類智能后應(yīng)該遵循的倫理規(guī)范,機器倫理學是“以機器為中心”的倫理學,責任主體是機器。這是機器人倫理學與機器倫理學之間的本質(zhì)差異。
機器人倫理學是一門迅速發(fā)展的跨學科研究,它屬于應(yīng)用倫理學與機器人學的交叉領(lǐng)域,旨在理解機器人技術(shù),尤其是機器人的倫理含義和后果。機器人倫理學是以“人”為責任主體的研究學科。研究機器人倫理應(yīng)該在分析人的機器人倫理立場、機器人倫理的研究進路以及機器人倫理的制度保障等方面進行研究。
2005年,弗魯吉奧與歐普圖(F.Operto)等人在美國電子電氣工程師協(xié)會召開的機器人與自動化國際會議(International Conference on Robotics and Automation)上總結(jié)了對待機器人的三種倫理立場:第一,對機器人倫理沒有興趣;第二,關(guān)注機器人倫理的短期問題;第三,關(guān)注機器人倫理的長期問題。對機器人倫理不感興趣的人認為人類的行為是中性的,不負載價值,因此設(shè)計機器人、利用機器人不存在價值取向,設(shè)計中不存在設(shè)計者的道德責任,因此,沒有必要提倡機器人倫理。對機器人倫理的短期倫理問題感興趣的人認為機器人應(yīng)該區(qū)分為“好”與“壞”兩類。他們覺得機器人必須遵守社會習俗或者參考某些文化價值觀,包括在不同領(lǐng)域“尊重”和幫助人類。對機器人倫理的長期倫理問題感興趣的人從全球性、長期性視角關(guān)注機器人的倫理問題,例如,關(guān)注發(fā)達國家與發(fā)展中國家的“數(shù)字鴻溝”,承認工業(yè)化國家和貧窮國家之間的差距,思考發(fā)達國家是否應(yīng)該改變它們發(fā)展機器人的方式,以便有利于發(fā)展中國家發(fā)展等長期性倫理問題。
瓦拉赫、艾倫與斯密特(I.Smit)提出機器人倫理的兩種進路:即“自上而下進路”與“自下而上進路”。自上而下的倫理學進路建立在找出或者表征做道德決策的一般或者普遍原理的基礎(chǔ)上。自上而下的進路是將規(guī)則轉(zhuǎn)換為道德算法嵌入到機器人設(shè)計中,例如將效果論、功利主義倫理學、康德的道德律令、法律和職業(yè)規(guī)則等嵌入到機器人的設(shè)計中,將人類的道德決策分解為可計算、可管理的模塊或者組件。因為機器具有智能自我推理與決策能力,應(yīng)該通過前攝倫理或者在機器中嵌入人類道德。需要一種“道德算術(shù)”,例如,吉普斯(James Gips)給出基于效果論機器人的“自上而下進路”的嘗試。吉普斯認為在結(jié)果論中,行為由結(jié)果來判斷,為了能夠以結(jié)果論的方式進行道德推理,機器人應(yīng)該具備以下條件:描述世界情境的方法;產(chǎn)生可能行動的方式;一種手段可以預測基于當下情境采取行動而導致的后果;根據(jù)情況的好壞或者可取性來評價它的方法。在此基礎(chǔ)上吉普斯構(gòu)建機器人倫理的評價指標體系,通過分析道德利己主義者與道德利他主義者的差異,將道德分解為機器人可執(zhí)行的算法來思考機器人倫理的自上而下研究進路的實踐路徑。除此之外,吉普斯還給出基于義務(wù)論與美德論的機器人倫理的自上而下的研究進路,義務(wù)論不同于結(jié)果論,在義務(wù)論中行為的評價是基于行為本身,而不是基于行為的結(jié)果。效果論一般不關(guān)注特定的行動實施的理由以及行動實施的主體,但道義論把責任直接歸屬于主體的具體本性,不同種類的主體就會有不同的責任。吉普斯通過把普遍的道德規(guī)范變成具體的道德算法,從而使機器人行為符合道德規(guī)范,這是非常典型的自上而下研究進路,通過倫理原則在機器人中嵌入道德,關(guān)注設(shè)計者的責任與道德。機器人倫理的“自下而上”的研究進路是按照具體的設(shè)計情景來制定具體的設(shè)計標準。人類的道德是動態(tài)的,必須在具體的設(shè)計情景中去把握。必須協(xié)調(diào)好利益相關(guān)者之間的關(guān)系,可以通過計算機模擬測試各種設(shè)計策略,運用博弈論觀點選擇最佳設(shè)計方案。丹尼爾森(Peter Denielson)在《人工道德:虛擬游戲中的道德機器人》中提出“功能性道德”,認為理性是智能體成為道德智能體的前提條件?;魻枺↗osh Dtorrs Hall)也關(guān)注自下而上的道德機器設(shè)計,2007年,他編著了《超越人工智能:創(chuàng)造機器良知》(Beyond AI:Creating the Conscience of the Machine),霍爾認為人工道德智能體需要一個“共謀者擔保協(xié)議”,以便從動態(tài)的情景去設(shè)置道德算法。機器人倫理從動態(tài)的社會機制輸入道德信息,從而對人工道德智能體的整體設(shè)計提供技術(shù)與標準。還有的學者堅持“自上而下”或者“自下而上”相結(jié)合的研究進路。通過普遍性的倫理規(guī)則與具體的道德情境相結(jié)合,構(gòu)建人工道德智能體。
沒有既定的倫理準則與法律制度去遵守和執(zhí)行,機器人具體倫理要求能否在技術(shù)層面真正實現(xiàn)還存在爭議。為了規(guī)范與引導機器人技術(shù)的良性發(fā)展,國家部門、社會組織、行業(yè)學會以及設(shè)計者也從不同視角做出努力。2004年,機器人倫理技術(shù)委員會建立,目的是提出和解決機器人研究和技術(shù)所引發(fā)的以及相關(guān)的緊迫倫理問題。2005年,歐洲機器人學研究網(wǎng)絡(luò)(European Robotics Research Network)資助機器人倫理學工作室(Roboethics Atelier)項目,任務(wù)是繪制第一個機器人倫理學路線圖(Roboethics Roadmap)。機器人倫理路線圖的最終目的是對機器人研發(fā)中涉及的倫理問題提供系統(tǒng)的評估;增加對有關(guān)問題的認識,并促進進一步的研究和跨學科研究。2016年,聯(lián)合國教科文組織與世界科學知識與技術(shù)倫理委員會聯(lián)合發(fā)布報告,討論機器人進步以及帶來的社會與倫理道德問題。2016年,英國標準協(xié)會(BSI)頒布《機器人和機器系統(tǒng)的倫理設(shè)計和應(yīng)用指南》。2017年1月,阿西洛馬會議公布的阿西洛馬人工智能原則(Asilomar AI Principles),從科研問題、倫理價值以及長期問題三個視角保障人工智能的安全與合乎道德。給機器人設(shè)計者帶上“緊箍咒”。美國電氣與電子工程師協(xié)會(簡稱IEEE)在2015年、2017年提出“合乎倫理設(shè)計”(Ethically Aligned Design,簡稱EAD)規(guī)范。呼吁在機器人設(shè)計中嵌入人類規(guī)范與道德價值觀,避免人工智能導致的社會不公平、算法歧視等社會問題。
綜上所述,機器人倫理學不同于機器倫理學,機器人倫理學是以人為責任主體的倫理學,涉及到人類如何設(shè)計機器人,如何將人類道德嵌入機器人以及如何對待機器人的問題,我們應(yīng)該將普遍性的倫理規(guī)則與具體的設(shè)計情景相結(jié)合,發(fā)揮設(shè)計者、行業(yè)協(xié)會、企業(yè)、政府部門等不同設(shè)計主體的作用,通過法律、倫理等不同層面保障機器人的良性發(fā)展,發(fā)揮機器人的積極作用。