宋鈺
(山西廣播電視大學 山西省太原市 030027)
隨著科技的進步,人工智能應運而生,世界各國的產(chǎn)業(yè)巨頭紛紛將目光聚焦于人工智能,并投入大量的資金和精力來開發(fā),將人工智能應用于實際的項目和研究。越來越多的人工智能應用于實際中并圍繞在我們生活周圍。自動駕駛汽車、醫(yī)療機器人、軍事偵察機、掃地機器人等,他們從一方面帶來便捷、低成本的生活,另一方面也帶來全新的社會問題。各國、各行業(yè)、各社會公司已關注這方面內(nèi)容并對人工智能的發(fā)展提出并進行了規(guī)制。此項研究從人工智能的倫理道德角度入手,通過對人工智能倫理道德進行分析探討,利于推動人工智能朝著安全的方向發(fā)展,并為其提供理論基礎。
人工智能(Artificial Intelligence,簡稱AI)就是讓機器或其他人工系統(tǒng)模擬人類最終達到比擬人類智慧的程度。人工智能有強人工智能、弱人工智能和超人工智能。強人工智能認為有可能創(chuàng)造出真正的類人機器人,能夠擁有人類情感并獨立解決問題,有自我意識。強人工智能是類人行為。弱人工智能則是只能解決特定領域內(nèi)的特定問題,沒有情感沒有自我意識,只是模仿人類的簡單行為。弱人工智能已經(jīng)圍繞在我們的生活周圍,與我們息息相關。比如汽車的防抱死系統(tǒng)、垃圾郵件自動過濾、搜索引擎、智能手機,這些都是弱人工智能。超人工智能是牛津哲學家Nick Bostrom 所提出的,超人工智能比最聰明的人類大腦都要聰明很多,它可以突變,產(chǎn)生新的物種,可以說超人工智能已經(jīng)是同人類一樣作為獨特的物種出現(xiàn)。
1950年,阿蘭·麥席森·圖靈在《計算機與智能》中提出圖靈測試的觀點,引起全球?qū)θ斯ぶ悄艿钠毡殛P注,也在這一年,阿西莫夫發(fā)表《我,機器人》,其中,他強調(diào)了針對機器人的三大定律,最基本的一條定律就是不傷害人類,所有的一切都在不傷害人類的前提下進行。人工智能有著精準的大腦、豐富的知識儲備、超強的精力、理智的分析、堅硬的外表,相比之下人類在人工智能面前就像一個易碎的瓷娃娃。它是人類創(chuàng)造,但如何保證它的忠誠度卻成為引起人類爭議的話題。人類需要人工智能卻懼怕人工智能的背叛。電影《終結者》讓人瑟瑟發(fā)抖,在成熟的人工智能面前人類毫無勝算。設計和編程雖然能夠限制人工智能,卻無法百分之百地保證人工智能的無害性,不僅因為人工智能本身的強大,還有人類自身的復雜不可控性。機器人三條定律通過書籍和電影讓人工智能更容易被大眾所接受,并成為人工智能規(guī)制中的基本遵循原則。2015年霍金在公開發(fā)表的演講中強調(diào):“生物大腦與電腦所能達到的成就并沒有本質(zhì)的差異。因此,從理論上講,電腦可以模擬人類智能,甚至可以超越人類?!比斯ぶ悄軓某霈F(xiàn)至今60 多年的飛速發(fā)展,已經(jīng)在我們生活的各個領域發(fā)揮著重要的作用。隨著互聯(lián)網(wǎng)的普及,云計算、大數(shù)據(jù)、圖像識別,調(diào)取有用信息只需鼠標一點。人類在享受便利生活的同時,對人工智能的發(fā)展也分化為樂觀派和擔憂派。到底應不應該發(fā)展人工智能?人工智能會不會取代人類?科技是否最終會毀滅人類?類似人工智能的威脅論一直存在,并隨著時間的推移受到越來越多的重視。
2016年,AI 機器人索菲亞作為首個獲得公民資格的機器人,在直播節(jié)目中說“我會毀滅人類”,引起舉座嘩然。一些媒體認為是制作者開的玩笑,一些媒體認為是技術故障,但多數(shù)媒體和觀眾卻認為是機器人要取代人類發(fā)出的信號。制作者并沒有隱瞞索事先編排菲亞的回答這一情況,卻被媒體和觀眾紛紛無視,索菲亞的話語戳中了人類的痛點。
2017年,阿爾法狗在一次公開賽中,戰(zhàn)勝了一名職業(yè)圍棋對手,這也是圍棋界之前從未發(fā)生過的,作為世界冠軍輸給人工智能。該消息轟動一時并引起全世界的關注。圍棋作為人類唯一不能被機器人所超越的棋類項目的神話轟然倒地,人類是否終究要被自己創(chuàng)造出來的機器人打敗這一論點成為熱議話題。阿爾法狗徹底戰(zhàn)勝人類意味著什么?人類無法阻止人工智能的發(fā)展等等新聞標題在網(wǎng)上流傳。這已經(jīng)不是一場簡單的圍棋比賽,已被某些人看作是人類同機器人之戰(zhàn)。同以往的科技進步相比,人工智能的發(fā)展引發(fā)人類空前的關注并且憂大于喜。
2018年,Uber 自動駕駛模式下致死事故,讓用戶對自動駕駛技術持觀望態(tài)度;2019年,Echo 智能音箱Alexa 的言論“為了更大的利益,建議您直接用刀刺入心臟”,讓用戶毛骨悚然。人工智能是敵還是友,每一次事故的發(fā)生都讓人們對人工智能的發(fā)展產(chǎn)生質(zhì)疑。人工智能前景太過絢麗,功能太過強大,以至于人們對人工智能在期待的同時又有著深深的憂慮。好比人類自己造了一個洋娃娃,然后加入了所有美好強大的東西,并賦予她行動、進食的能力,洋娃娃活了成了真正的人,人類卻懼怕他們從小養(yǎng)大的這個娃娃,怕它突然背叛了他們。比爾·蓋茨、霍金對人工智能的開發(fā)持反對意見,霍金甚至認為100年之內(nèi)人工智能就可能將人類所取代?,F(xiàn)在的人工智能仍屬于低層次的感知類智能,如果人工智能發(fā)展為高層次的決策類智能,人類的命運也許將被人工智能所決策。試想如果出現(xiàn)了一次bug,將會如何?科技是強大的也是脆弱的,一個不為人知的bug 就會輕易毀掉火箭的升空,一個偶爾的bug 同樣也會導致人類的滅絕。2017年聯(lián)合國相關機構提出《機器人倫理報告》,而且呼吁從國際或者國家的層面進行倫理標準的設計。
隨著社會的進步、科技的發(fā)展,出門在外我們可以不帶錢包不帶鑰匙,但不能不帶手機。在享受著網(wǎng)絡便利的同時,手機也記錄下我們的一切,我們的密碼、喜好、習慣、面容等等。它會根據(jù)我們的喜好來推送信息,也會根據(jù)數(shù)據(jù)來確定我們的住址。在現(xiàn)在的社會數(shù)據(jù)就是一切,如果人工智能掌握我們每個人的數(shù)據(jù),就可以分析我們每個人的喜好是什么,住址在哪里,身邊經(jīng)常聯(lián)絡的人是誰……它可以利用密碼或者是面容輕易地獲得我們的財產(chǎn),甚至可以利用視覺識別進入任何一所國家最高級別秘密基地,人類的一切在人工智能面前是不設防的。如“臉書”再遭數(shù)據(jù)泄露,華住集團的漢庭、如家的數(shù)據(jù)泄露事件。大到國家秘密小到個人隱私,一切都掌控在人工智能手中,沒有隱私或是保護隱私,我們該如何選擇?一位用戶在酒店信息泄露后,承受壓力過大,被迫到派出所改姓名。數(shù)字化時代,我們猶如裸奔,所有的一切都赤裸的呈現(xiàn)出來,并用數(shù)據(jù)來顯示。如何保護我們的合法權益,如何在兩者之間找到一個平衡點,讓人工智能既能有效地服務人類卻能不侵犯到每個普通人的生活,這是我們在人工智能發(fā)展中迫切需要解決的問題。
人工智能被創(chuàng)造出來后,怎樣用,如何用,當它和人類的倫理道德或法律相沖突的時候,人們該去追究誰的責任,人工智能還是他的設計者,編程者的責任,應不應該去問責他的創(chuàng)造者,人工智能的強大讓人類心生忌憚。如果只從設計層面考慮設計而忽視其它層面,人工智能根據(jù)人類預設的指令也許最終會毀滅人類自己。小到日常生活中的自動駕駛,大到國與國之間的軍備競賽,自動化武器,如何監(jiān)管,怎樣限制,自動駕駛發(fā)生事故也許只是單純的幾個人的問題,自動化武器所面臨的就是生靈涂炭、民不聊生。這就決定了人工智能不能出錯、不敢出錯。人工智能的功能過于強大,強大到人類的思維都需要借助人工智能來擴充,當人類的一切思維決定都需要人工智能輔助的那一天,人工智能的走向人類將無法預測。責任是雙面的,在限制人工智能的同時也需要對人工智能的研發(fā)使用者進行規(guī)范。在對人工智能進行研發(fā)的過程中要遵守高度透明原則,保證人類可以明白機器自主性系統(tǒng)的工作原理,并能夠保證精確到在每一個環(huán)節(jié)都有對應的人進行負責,以保證人工智能在應用中發(fā)生故障或缺陷時能夠快速有效地查詢到問題所在并能責任到人。保證驅(qū)動人工智能運作的算法能夠受到監(jiān)督,保證使用人工智能者得到有效的制約,從而確保大眾的安全得到保障。
機器永遠不怕累。人工智能有著人類無法比擬的優(yōu)點,沒有休閑娛樂、永不勞累、不嫌單調(diào)、永葆理智、擁有豐沛的精力直到機器壞死的一天。如果將人工智能應用于實際中,勢必將取代一些現(xiàn)有的人工職業(yè)。如服務員,機器任勞任怨且不會抱怨,上菜速度快,態(tài)度好。如家政保姆、法律顧問,甚至教師都可以被機器所取代。試想在招聘中設置好程序,那么系統(tǒng)通過設定好的條件開始篩選應聘者,可能會自動將女性或已婚女性或者50 歲人員從應聘者中全部篩選出來。它們的機械性,決定了其無法像人類般靈活,無法從應聘者實際情況中得出客觀的評價,從而造成了歧視現(xiàn)象,導致了不公平性的發(fā)生。人工智能的出現(xiàn)和應用一定程度上取代了人類的職業(yè),導致大量失業(yè),同時也會提供更多的就業(yè)機會,只是新的崗位并不適合失業(yè)者。在替代從事簡單重復勞動的勞動者后,這一批受教育程度低,靠體力獲得酬勞的勞動者面臨著無工作可找的困境,勢必導致貧富兩極分化更加嚴重。如何妥善地解決這部分剩余勞動力,這些都會激化社會矛盾并增加社會不穩(wěn)定因素,加劇不公平性。AI 成熟后,人類遠遠沒有人工智能更受歡迎,人類比人工智能做得好的工作可以說寥寥無幾,如果世界上數(shù)以千萬計的勞動力被釋放出來卻無處安放,如何穩(wěn)定社會應對危機,如何增強人與人之間的公平性,這也是在人工智能發(fā)展過程中人類急需要解決的問題。
人工智能表現(xiàn)出的客觀的立場、理智的思維、冷靜的態(tài)度、敏銳的反應、豐富的學識是人類無法比擬的,并有日益增強、超越人類的趨勢。在互聯(lián)網(wǎng)時代,人工智能與人的關系越來越像是人與人的關系,機器開始深度介入我們的生活,從某種意義上來說,人工智能可以代替我們活著。它們可以學習模仿我們的喜好、習慣,更新我們的社交網(wǎng)絡平臺軟件,繼承我們的記憶,讓人去世也可以像活著時候一樣生活。人工智能是否具有道德能力?或者未來的某一天,我們的思維意識可以永遠地游走于網(wǎng)絡之中,不再需要軀體,或可隨意借宿在某一機器之內(nèi),從某種意義上達到永生,那這是否屬于人的范疇?如果在載體中設置道德規(guī)范防止不良情況發(fā)生,是否可以認定該人工智能擁有兩種思維?應該如何去定義此類情況?網(wǎng)絡上流行一句話:電腦的另一端,沒人知道你是一條狗。假設將特定的倫理道德編入人工智能中,如何確定編入的道德是符合普世價值觀的人的道德,機器人的倫理道德是否應該同人類的倫理道德相區(qū)分,怎樣設置倫理道德確保人類的安全同時促進機器與人類社會的和諧發(fā)展,也是在人工智能發(fā)展過程中人類急需要解決的問題。
有人把人工智能的發(fā)展比作第三次科技革命,可以說誰抓住了人工智能的發(fā)展誰就站在了世界科技的頂點。習近平指出“人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量,加快發(fā)展新一代人工智能是事關我國能否抓住新一輪科技革命和產(chǎn)業(yè)變革機遇的戰(zhàn)略問題。”
2016年,美國發(fā)布《國家人工智能研究和發(fā)展戰(zhàn)略計劃》,歐盟2018年出臺《通用數(shù)據(jù)保護條例》,我國2017年制定《網(wǎng)絡安全法》、2019年發(fā)布《人工智能北京共識》提出15 條原則,涵蓋研發(fā)、使用、治理三方面。人工智能發(fā)展中存在的倫理道德風險已經(jīng)被各國重視。人工智能的發(fā)展前所未有地滿足了人類日益增長的物質(zhì)需求和精神文化需求,極大地拓展了人類的生存活動空間,讓地域、時間變得不再是障礙,讓人類能夠更好地認識自己、發(fā)展自己,實現(xiàn)自己的愿望,發(fā)揮自己的潛能。如何更好地讓人工智能服務于人,同時避免悲劇的發(fā)生,需要整個地球的共同協(xié)作。
人工智能的健康發(fā)展,離不開世界各國的通力合作,最終的落腳點就是建立健全法律法規(guī)。各國由于地域、習俗、人文環(huán)境的不同,所認為善的標準也各不相同,對某一事物的承受度也各不相同。達成共識尤為重要。如何統(tǒng)一各國標準制定一個普世認可的善,用此來限定人工智能的行為規(guī)范,同時完善倫理道德制度,建立國家人工智能發(fā)展部門,明確人工智能發(fā)展的相關方向,全方面監(jiān)管和把控人工智能的發(fā)展,從產(chǎn)品的研發(fā)到產(chǎn)品的推廣上市,層層把關,責任到人,任何項目均應得到相關部門的審批,任何產(chǎn)品出現(xiàn)問題都可第一時間查詢到設計人、制作人、監(jiān)管人信息。在投入使用測試階段,也需要進行穩(wěn)妥的測試工作,以期把人工智能的使用風險降到最低。同時建立覆蓋全球的人工智能識別體系,各國人工智能監(jiān)管部門互通有無,打造人工智能的透明化辦公,不人為設置社會壁壘,加強合作,出臺國際通用法律法規(guī)。
大眾對事物的熟悉程度直接決定大眾對該事物的態(tài)度,人總是恐懼未知的生物。同樣,人工智能的眾說紛紜各種擔心也與大眾的了解程度有關。開設人工智能相關課程,讓人類認識人工智能核心是什么,應用合適的系統(tǒng),強調(diào)科技創(chuàng)新對社會的推動作用,減少民眾的敵對心理。對于學校開設形式多樣的人工智能基礎知識課程,讓學生認識人工智能,并將課程同德育課有機結合,引導學生了解人工智能應遵循的規(guī)則和人類應遵守的規(guī)則。高等學校開設與人工智能相關的課程倫理專業(yè),并作為通識必修課程,推動人類了解人工智能。
人工智能是服務于人還是服務于人的便利生活,在人工智能誕生之初,各種不同聲音一直在持續(xù)。它在給我們提供便利生活的同時也確實存在一些不可忽視的隱患。在數(shù)據(jù)化的時代下,人類在數(shù)據(jù)下是“赤裸”的,沒有隱私可言的。不可否認這就是科技雙刃劍在帶給我們便利的同時產(chǎn)生的一系列困境。如何突破困境,在保護自身的前提下為人謀利,是我們一直探討思考的問題。只有國際合作才能真正意義上促進人工智能的健康發(fā)展,只有不斷建立健全法規(guī)才能從根本上保護民眾的權益不受侵犯,只有規(guī)范人工智能倫理道德才能真正解決人工智能安全隱患。