胡建華, 葉麗霞
(江西理工大學(xué)應(yīng)急管理與安全工程學(xué)院,江西 贛州 341000)
受知識的局限,傳統(tǒng)經(jīng)驗難以預(yù)測未知風(fēng)險的到來,尤其是隨著知識深度和廣度的拓展及科學(xué)技術(shù)的飛速發(fā)展,社會風(fēng)險全面迅速增長。人類用以往的思維模式和措施去應(yīng)對和治理風(fēng)險,這些措施又反過來形成新的風(fēng)險,風(fēng)險社會由此形成。烏爾里?!へ惪颂岢?,在風(fēng)險面前,科學(xué)負責(zé)“確定風(fēng)險”,而人們依賴“感知風(fēng)險”,這就導(dǎo)致了風(fēng)險的科學(xué)界定與公眾感受之間存在巨大偏差[1]。現(xiàn)代社會中,人們通過科學(xué)人為地界定了很多“標(biāo)準(zhǔn)”,自然災(zāi)害有風(fēng)險等級,人為事故有傷害程度,也正是因為這些風(fēng)險標(biāo)準(zhǔn)降低了人類對風(fēng)險的敏感度。人類以科學(xué)界定風(fēng)險,其實科學(xué)本身也會帶來風(fēng)險,在現(xiàn)代化風(fēng)險社會里,科學(xué)帶來的風(fēng)險也亟須關(guān)注。
21世紀(jì)以來,人類步入一個互聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能共同發(fā)展的時代,人工智能技術(shù)的迅猛發(fā)展引起了社會的廣泛關(guān)注。人工智能作為新一代信息技術(shù),風(fēng)險與收益并存,目前多以智能軟件和智能機器的形式存在于人類的生產(chǎn)生活中。人工智能為社會經(jīng)濟轉(zhuǎn)型升級提供了技術(shù)支撐,培育了新的創(chuàng)業(yè)創(chuàng)新機會,給人類生活帶來了極大的便利,但是對于人工智能這種新興技術(shù),如果不加以引導(dǎo)和規(guī)范,任其野蠻生長,可能會破壞社會穩(wěn)定,成為風(fēng)險社會的重大隱患。因此,人工智能發(fā)展中已存在或未來可能出現(xiàn)的問題,迫切需要我們在風(fēng)險治理的過程中加以重視、引導(dǎo)和規(guī)范。
人工智能概念的出現(xiàn)最早可以追溯到1950年圖靈在《機器能思考嗎?》中提到的“圖靈測試”,該測試為測試機器是否擁有智能提供了一種方法。圖靈作為計算機科學(xué)與人工智能之父,最早提出了他所理解的人工智能:如果一個機器在隔壁和人對話,這個人無法分辨他是機器還是人的時候,它就是人工智能。在1956年美國的達特茅斯會議上,麥卡錫首次提出人工智能概念,從此,人工智能成為一個專業(yè)術(shù)語出現(xiàn)在計算機等領(lǐng)域。麥卡錫認為人工智能就是要讓機器的行為看起來就像是人所表現(xiàn)出的智能行為一樣。其實,人工智能是計算機科學(xué)與自然科學(xué)、社會科學(xué)的交叉學(xué)科,它是在數(shù)據(jù)計算的基礎(chǔ)上研究如何使機器模擬、擁有甚至超越人的智能的、通過機器人等形態(tài)體現(xiàn)出來的一種科學(xué)技術(shù)。人工智能能夠在各種復(fù)雜條件下完成人類甚至人類無法完成的任務(wù),目的在于滿足人類對于更先進的生產(chǎn)和生活的需求。
人工智能技術(shù)的不斷突破和應(yīng)用領(lǐng)域的不斷拓展,使人工智能治理逐漸成為一個研究熱點,人們在使用人工智能的同時會思考其帶來的一些影響,我們必須做好應(yīng)對的準(zhǔn)備。對于人工智能治理的理解,學(xué)術(shù)界還有一定的爭議,有能力說、過程說和方法說,但基本問題比較一致,那就是如何規(guī)范人工智能的發(fā)展,使其符合人類社會的預(yù)期。陳偉光認為人工智能治理是對人工智能研究、開發(fā)、生產(chǎn)和運用過程中可能會出現(xiàn)的公共安全、道德倫理等問題進行協(xié)調(diào)、處理、監(jiān)管和規(guī)范的過程[2]。而汪亞菲等認為人工智能治理的核心是如何規(guī)制算法問題[3]。算法、安全、倫理、法律等問題是學(xué)者們特別關(guān)注的方面,人工智能治理的目標(biāo)是引導(dǎo)和規(guī)范人工智能的技術(shù)方向,使其能夠健康穩(wěn)定發(fā)展,規(guī)避未來風(fēng)險,促進人類經(jīng)濟社會穩(wěn)步向前。因此,所謂人工智能治理,就是指通過政策、法律法規(guī)等方式,對人工智能技術(shù)及因人工智能發(fā)展而可能對社會秩序、倫理道德、價值觀念和法律規(guī)則等產(chǎn)生沖擊而形成的規(guī)制和管理。總體而言,人工智能治理主要涉及以下兩個方面的內(nèi)容。
第一,對人工智能技術(shù)的治理,保障人工智能技術(shù)系統(tǒng)安全、可控。目前人工智能按其應(yīng)用可以分為三個階段:一是弱人工智能階段,指機器人只具備某項特定的認知和用途,如語音識別、人工智能翻譯、掃地機器人等。雖然其用途單一,但是這一領(lǐng)域的發(fā)展最為迅猛,近年來已有大量弱人工智能機器人進入市場。二是強人工智能階段,指具備人類認知水平的人工智能,能在同一系統(tǒng)內(nèi)執(zhí)行多個認知操作,目前這一階段的研究還未取得較好的進展。三是超級機器人階段,它的特征就是完全超越人類的認知,全方位強于人類。人類對機器人是否會毀滅人類的擔(dān)心也來源于此。人們對于機器人的爭論正是因為科技所處的階段與思想所處的階段不一致。技術(shù)是人工智能發(fā)展的基礎(chǔ),技術(shù)治理與管控的基本目標(biāo)是保證系統(tǒng)安全可控。對此我國和世界上很多國家都已經(jīng)出臺了許多相關(guān)戰(zhàn)略和規(guī)劃,確保人工智能初始設(shè)計階段就要在技術(shù)上嚴格把關(guān),保證人工智能安全、可控。
第二,對人工智能產(chǎn)生的社會影響的治理。人工智能影響的對象是整個人類,所以針對人工智能的治理應(yīng)該以人為本,確保人類的利益和主體地位。人工智能的社會影響問題主要是人的價值問題,尤其是人工智能的出現(xiàn)對人的政治和經(jīng)濟主體地位的挑戰(zhàn),表現(xiàn)在未來如何實現(xiàn)人機共處;人工智能的濫用也會帶來人與機器之間的法律責(zé)任問題,人工智能的法律地位與責(zé)任如何確定;怎樣確保人類在人工智能的發(fā)展過程中的主體地位。人工智能的倫理治理目標(biāo)是要先確保人類的安全,機器不會取代、控制和傷害人類,以及機器如何遵循人類已有的道德和價值體系等[4]。尤其是近年來,人工智能的革新在大數(shù)據(jù)和互聯(lián)網(wǎng)的加持下更加突飛猛進,人們對未來超級人工智能潛在風(fēng)險的擔(dān)憂和恐懼不斷加深,要求政府治理人工智能帶來的社會影響的呼聲越來越高。
人工智能走進了每個人的生活,尤其是許多由人類才能勝任的復(fù)雜工作和那些人類無法承受、無法勝任的工作領(lǐng)域,人工智能機器扮演越來越重要的角色。越來越多的人意識到人工智能的發(fā)展隨著人們對它的依賴程度不斷取得新的突破[5]??萍及l(fā)展帶來社會紅利的同時也給治理帶來了巨大挑戰(zhàn),我國已有超過三分之二的人口進入智能網(wǎng)絡(luò)空間,形成了巨大的治理場域。目前人工智能的發(fā)展給人類帶來的挑戰(zhàn)主要集中在技術(shù)、倫理、社會、安全和法律五個方面。
人工智能技術(shù)并非十全十美,人工智能的技術(shù)風(fēng)險主要表現(xiàn)在三個方面:一是技術(shù)失控度引起人類的擔(dān)憂。隨著技術(shù)發(fā)展到一定程度,擁有思想可能不再是人類的專利,當(dāng)人工智能學(xué)習(xí)能力不斷延伸,獲得超越人類的能力時,其可能會對人類的生存造成威脅,甚至取代人類[6]。這種風(fēng)險假設(shè)機器和人類一樣擁有了自主意識、創(chuàng)造性、情感和自我保護行為,那么人類在其面前將會毫無還手之力。二是人工智能技術(shù)缺陷導(dǎo)致的隱患。未來人工智能產(chǎn)品將會根據(jù)數(shù)據(jù)和算法自主進行學(xué)習(xí),在得到計算結(jié)果之后實施行動,但沒有人能保證在這個過程中不存在數(shù)據(jù)缺少或者紕漏,所以其依據(jù)計算結(jié)果的行動有可能會給人類的生命、財產(chǎn)帶來損害。三是科學(xué)技術(shù)是由人創(chuàng)造出來的,則必然有其不足之處。人類是一個有自我意識的個體,其行為具有主觀性,算法或者智能軟件被設(shè)計出來就是為了達到設(shè)計者的初衷,而且人們不能要求一個技術(shù)人員在進行技術(shù)設(shè)計的時候放棄自己的偏好和情感,這也是未來科學(xué)技術(shù)要面臨的一大難點。
與此同時,在治理過程中存在一些技術(shù)困難。一是人工智能技術(shù)本身沒有統(tǒng)一的原理或范式指導(dǎo)人工智能研究,在很多問題上研究者都存在爭論。并且技術(shù)更新?lián)Q代速度迅猛,政府難以制定統(tǒng)一制度去規(guī)范人工智能研究。目前人工智能開發(fā)者眾多且沒有統(tǒng)一的組織,生產(chǎn)人工智能產(chǎn)品的企業(yè)規(guī)模大小不一,難以保證流入市場的產(chǎn)品質(zhì)量。二是各國政府非常關(guān)注人工智能的發(fā)展,也注重社會信息的收集,但是人工智能正處于快速發(fā)展時期,信息更新的速度快、頻率高,各國對信息的采集多是事后采集,對人工智能了解和認識的準(zhǔn)確性、實時性還有待加強。三是人工智能技術(shù)在社會發(fā)展中風(fēng)起云涌,屬于自然科學(xué)、社會科學(xué)、技術(shù)科學(xué)交叉學(xué)科,涉及知識面廣,掌握這一技術(shù)的要求較高。當(dāng)前,信息技術(shù)在任何領(lǐng)域都起著非常重要的作用,信息的處理能力直接決定著組織的運行效率和成本,但我國相關(guān)人才缺口較大。
倫理是指人應(yīng)該遵守的行為規(guī)范和道德準(zhǔn)則,而人工智能面臨的倫理挑戰(zhàn)則是指如何處理好人和人工智能產(chǎn)品之間產(chǎn)生的各種關(guān)系。倫理主要關(guān)心的是在某個情況下某件事情正確與否,倫理是人類普遍具備的能力,但是人工智能并不會充分理解倫理。倫理風(fēng)險主要體現(xiàn)在:一是是否承認人工智能的行為,人類在不同的事情中可能會犯錯,如果人工智能也這樣,人類能接受嗎?比如機器人致害事件如何歸責(zé)等倫理挑戰(zhàn)問題,在人類自身遇到都無法解決的問題情況下,如何讓智能機器人去選擇[7],其做出的選擇又由誰來負責(zé)?又比如智能機器人在手術(shù)上操作失敗,醫(yī)療事故責(zé)任又將落在何處?二是人工智能是否要遵守人類道德,隨著科學(xué)技術(shù)的發(fā)展,人工智能通過深度學(xué)習(xí)會發(fā)現(xiàn)隱含的價值觀和原則,因而可以理解甚至很可能模仿。當(dāng)人工智能的計算學(xué)習(xí)能力遠超人類時,它可以在人類生產(chǎn)生活的各個方面各個階段為人類提供建議,人類如何去判斷人工智能的建議正確與否,人類該不該信任它們?這個時候人工智能是否需要人類道德規(guī)范,人工智能應(yīng)載入誰的道德規(guī)范,又該怎樣實現(xiàn)?三是當(dāng)人工智能達到了人機共生的技術(shù)時,人們該如何對待這些超越人類智力的仿生機器人,是否應(yīng)該賦予它們一些權(quán)利?這些已經(jīng)發(fā)生或即將發(fā)生的倫理問題都是人們爭論不休的焦點,是需要解決的現(xiàn)實挑戰(zhàn),也是人工智能治理成功與否的關(guān)鍵。
人工智能衍生出來的一系列產(chǎn)業(yè)創(chuàng)新、經(jīng)濟轉(zhuǎn)型無疑為各國經(jīng)濟快速健康發(fā)展作出了重大貢獻。人工智能具有提高生產(chǎn)力的巨大潛力,最明顯的是,它可以幫助公司和人們更有效地利用資源,并簡化人類與大量數(shù)據(jù)交互的方式,它還可以啟用全新的業(yè)務(wù)模型和解決舊問題的新方法。當(dāng)然,人工智能在帶來發(fā)展機遇的同時,也帶來了金融風(fēng)險、行業(yè)壟斷、勞務(wù)就業(yè)等負外部效應(yīng),這些負外部效應(yīng)容易引發(fā)社會風(fēng)險危機。一是人工智能一旦介入高風(fēng)險的金融領(lǐng)域,其背后的大數(shù)據(jù)信息很有可能會導(dǎo)致雪崩似的金融災(zāi)難。在全球市場,擁有人工智能先進技術(shù)的企業(yè)為數(shù)不多,極有可能形成技術(shù)壟斷態(tài)勢,他們生產(chǎn)的人工智能及其產(chǎn)品可能會在短時間內(nèi),導(dǎo)致其他行業(yè)的破產(chǎn)或消失。二是機器替人的現(xiàn)象將越來越普遍,目前人工智能帶來的就業(yè)沖擊仍小于經(jīng)濟周期和行業(yè)景氣帶來的影響,但從長遠來看,人工智能的發(fā)展可能帶來產(chǎn)業(yè)結(jié)構(gòu)的巨變。已經(jīng)有相關(guān)學(xué)者研究計算出各行各業(yè)將被人工智能替代的年份,這加劇了人們對人工智能的擔(dān)憂。三是人工智能的發(fā)展可能會加重各國尤為重視的人口失業(yè)問題,大量工廠機器人的開發(fā)與應(yīng)用,大量單一、重復(fù)的工作被人工智能所取代,如亞馬遜的快遞機器人和我國的無人超市。智能革命對就業(yè)的最大沖擊在于,它不僅僅取代體力勞動者,對腦力勞動者也會造成沖擊[8]。在新一代信息化、智能化技術(shù)的推動下,人工智能技術(shù)逐漸應(yīng)用于需要高學(xué)歷及高智商的新聞、金融、醫(yī)療、教育、科研等領(lǐng)域,在其迅猛的發(fā)展中,如果國家和社會并沒有做好相應(yīng)的預(yù)防治理措施,可能會導(dǎo)致較多社會問題的爆發(fā),破壞正常的生產(chǎn)生活秩序。
在對人工智能及其治理的研究中,大部分學(xué)者持樂觀謹慎的態(tài)度看待人工智能的發(fā)展,也有部分學(xué)者認為人工智能會給人類帶來許多威脅,比如引發(fā)世界大戰(zhàn)甚至毀滅人類,這種觀點顯然過于悲觀,但結(jié)合現(xiàn)實卻也有其合理之處。人工智能治理面臨的安全風(fēng)險確實包含諸多方面,如數(shù)據(jù)安全、國防安全、社會安全等。人工智能基于大數(shù)據(jù)進行算法操作,因此存在泄露個人隱私、國家機密等安全風(fēng)險,如經(jīng)常發(fā)生的用戶數(shù)據(jù)被竊取、軍用人工智能武器的線路被入侵等。另外,網(wǎng)絡(luò)信息安全威脅加劇,網(wǎng)絡(luò)攻擊形勢將更加嚴峻,使人工智能的安全問題更加突出,人工智能的大數(shù)據(jù)分析能力一定程度上加劇了數(shù)據(jù)安全問題。人工智能運行的算法本身就是建立在數(shù)據(jù)的收集和分析之上,就像現(xiàn)在利用爬蟲技術(shù)收集信息進行新聞推送,或者各種視頻軟件在媒體預(yù)設(shè)的框架內(nèi)辨別用戶的喜好進行短視頻推送[9]。個人信息在智能時代早已不是秘密,每人每天幾乎都能收到垃圾短信或者垃圾電話,手機上的智能軟件在與人類進行信息交互時,或多或少都會導(dǎo)致個人隱私外泄。人工智能所帶來的安全問題是至關(guān)重要的,其所帶來的不僅僅是用戶個人的信息安全問題,國家也有可能面臨政治和軍事安全威脅,人工智能的安全風(fēng)險可能會給人類社會的和諧穩(wěn)定帶來災(zāi)難,人工智能時代的風(fēng)險治理迫切需要重視人工智能的發(fā)展并提出治理措施。
21世紀(jì)以來人工智能技術(shù)的迅猛發(fā)展,極大地沖擊了現(xiàn)有法律體系和社會治理方式,人工智能產(chǎn)品法律主體界定和責(zé)任劃分等方面的法律法規(guī)的滯后性,可能影響相關(guān)產(chǎn)業(yè)發(fā)展,同時也會帶來巨大的法律風(fēng)險。一是確責(zé)問題。比如在智能機器人致害事件中人類能否起訴機器人?現(xiàn)在各國都在研發(fā)無人駕駛,也產(chǎn)生了一系列法律問題,無人駕駛的汽車與人類駕駛的汽車相撞發(fā)生交通事故,若無人駕駛汽車的駕駛模式無明顯瑕疵,其他參與方均無過錯,事故最終由誰來負責(zé)?這就產(chǎn)生了法律責(zé)任的劃分與承擔(dān)、對人工智能的法律界定、人工智能能否以人的標(biāo)準(zhǔn)被問責(zé)等問題。從法律上來說,無過錯就無責(zé)任,那么執(zhí)行系統(tǒng)運行程序的人工智能如何認定責(zé)任便是一個難題。二是法律失效困境。在人工智能時代,人們是否還有必要參與立法?法律能否保護人們的權(quán)利?在人工智能的環(huán)境下,每個人的習(xí)慣、性格、偏好等都牢牢掌握在技術(shù)人員的手里,這種情況下為了強調(diào)技術(shù)效率,忽視社會參與和社會公平,將煩瑣的立法程序、立法調(diào)查方式拋棄,普通民眾的需求被等同于抽象的數(shù)字,將失去參與民主的途徑[10]。傳統(tǒng)的法律規(guī)則雖然有著程序復(fù)雜、效率不高等不足,但若是一味地用硬規(guī)則“被民主”,會使法律逐漸失去其權(quán)威性和民主性。三是“知情同意”現(xiàn)象。網(wǎng)絡(luò)服務(wù)者雖然告知了用戶獲取權(quán)利的條款,但是這種條款相當(dāng)于霸王條款,只有讓渡自己信息之后才能獲得相應(yīng)的網(wǎng)絡(luò)服務(wù)。最常見的莫過于下載智能軟件后,如果要進入主頁就必須點擊各種授權(quán)條款的“同意”,使個人資料、通訊錄信息被人工智能機器讀取。那些條款用戶無法選擇,企業(yè)卻可以借助條款合理地規(guī)避法律風(fēng)險,造成格式條款的實質(zhì)性作用缺失,那么對個人隱私的保護就流于形式。這些硬性規(guī)則在很大程度上剝奪了人們保護自己隱私的權(quán)力,破壞了整個社會正常運轉(zhuǎn)的民主秩序,引發(fā)法律失信失語現(xiàn)象。
人工智能時代的到來,加劇了社會治理的風(fēng)險,對此國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能治理原則——發(fā)展負責(zé)任的人工智能》,提出了人工智能治理的框架和行動指南,強調(diào)了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理的八條原則[11]。這些治理原則無不是人類在面對如火如荼的人工智能發(fā)展態(tài)勢和對人類命運的期待與擔(dān)憂之下,尋求二者平衡的舉措。人工智能的發(fā)展應(yīng)以維護風(fēng)險社會的穩(wěn)定和人民的幸福生活為前提,這也是人工智能治理的呼聲日益高漲的原因。人工智能治理涉及每一個人,為實現(xiàn)負責(zé)任的人工智能,應(yīng)從不同維度探討風(fēng)險治理舉措。
掌握最先進的人工智能技術(shù)無疑擁有了強大的話語權(quán),對此,美國較早提出將人工智能技術(shù)上升到國家戰(zhàn)略層面。我國也非常重視人工智能技術(shù)的發(fā)展應(yīng)用,早在2015年就提出將人工智能納入國家級的優(yōu)先發(fā)展領(lǐng)域,連續(xù)幾年將人工智能的發(fā)展寫入政府工作報告,推動人工智能與互聯(lián)網(wǎng)、大數(shù)據(jù)的深度融合,成為我國經(jīng)濟健康穩(wěn)定發(fā)展的新增長點和新動能[12]。對于人工智能的發(fā)展,要明確政府的支持和引導(dǎo)作用,借助國家強制力實現(xiàn)對其進行規(guī)范化引導(dǎo)。
第一,建立起制度化的人工智能設(shè)計和運作機制及技術(shù)防控措施,推動建立完善統(tǒng)一的行業(yè)準(zhǔn)則。將人工智能的發(fā)展上升到國家戰(zhàn)略層面已是世界各國的共識,政府相關(guān)部門應(yīng)及時建立與各研究平臺、核心企業(yè)的產(chǎn)學(xué)研合作機制,制定標(biāo)準(zhǔn)化的人工智能規(guī)范和認證體系,確保進入市場的是符合生產(chǎn)和使用倫理規(guī)范的人工智能產(chǎn)品。國家可為人工智能治理的跨學(xué)科研究提供資金支持,并且利用人工智能技術(shù)提升自己的社會管理和治理水平,建立人工智能技術(shù)成果推廣體系,打通人工智能與社會之間的聯(lián)系與溝通,加深政府公職人員和普通群眾對人工智能的了解與運用。人工智能是人類智慧與利益的結(jié)合,如果說企業(yè)開發(fā)利用人工智能的目的是獲取利益,那么在商業(yè)價值和數(shù)據(jù)安全、公民隱私之間,如何規(guī)范企業(yè)行為則在很大程度上影響了數(shù)據(jù)隱私安全。政府推動建立完善統(tǒng)一的行業(yè)準(zhǔn)則,加強企業(yè)的社會責(zé)任宣傳,推動人工智能行業(yè)自我凈化和自我規(guī)范。
第二,利用技術(shù)控制和保護數(shù)據(jù),建立技術(shù)開發(fā)應(yīng)用的監(jiān)管制度。比如,使用輸出擾動法或同態(tài)加密模式解決公民對信息安全的擔(dān)憂。運用輸出擾動法在輸出結(jié)果中加入相應(yīng)的干擾,從而避免原始結(jié)果直接輸出;同態(tài)加密是在數(shù)據(jù)處于加密狀態(tài)下,使用密文對數(shù)據(jù)進行運算后再對結(jié)果進行解密從而得到和明文進行相同運算的結(jié)果,同態(tài)加密是一種最直接有效的數(shù)據(jù)保護技術(shù)[13]。建立健全人工智能開發(fā)應(yīng)用的監(jiān)管制度,加強開發(fā)者對人工智能自身技術(shù)缺陷的監(jiān)督,規(guī)范開發(fā)者的行為[14],同時鼓勵公眾在應(yīng)用環(huán)節(jié)的監(jiān)督,預(yù)留應(yīng)急風(fēng)險方案,減少危機事件帶來的損失。人非圣賢,如果對于技術(shù)人員沒有相關(guān)規(guī)則約束和監(jiān)督,沒有人能預(yù)料這種強大的人工智能技術(shù)會帶來什么災(zāi)難,所以加強開發(fā)應(yīng)用的監(jiān)管勢在必行。
人工智能在未來將深度進入人類的生產(chǎn)生活之中,那么人與人工智能是一個什么樣的關(guān)系,人工智能在人類社會中的地位和責(zé)任如何確定,如何保證人的主體地位不受影響?人類的主體地位和自我判斷力要得到很好的保留,人們就必須具備人工智能的知識,了解其運作的機制及優(yōu)缺點,以保持相對審慎的態(tài)度對待技術(shù)的沖擊[15]。加快普及人工智能認知教育,使人們能夠正確認識人工智能,并積極參與到開發(fā)和使用中去,擁有識別正確信息的能力和態(tài)度。
第一,明確人工智能使用責(zé)任的劃分。從更深層次來看,倫理規(guī)范是技術(shù)、法律與其他相關(guān)原則的基礎(chǔ)。人工智能不同于傳統(tǒng)技術(shù),其具有自主學(xué)習(xí)和決策能力,如果責(zé)任劃分不明確,將會出現(xiàn)“機器替人”的現(xiàn)象,導(dǎo)致多方主體的利益受損。所以應(yīng)當(dāng)加快建立人工智能在設(shè)計、制造和使用中的歸責(zé)制度,明確人工智能創(chuàng)造者、生產(chǎn)者、使用者和消費者之間的權(quán)利和義務(wù),健全相應(yīng)的責(zé)任追究制度,以防在現(xiàn)實使用中出現(xiàn)互相推諉和技術(shù)依賴風(fēng)險。在人工智能的未來發(fā)展中必然會出現(xiàn)人工智能為人類做出決策的情況,這并不意味著人類可以放棄自己應(yīng)負的責(zé)任而歸咎于人工智能,而需要在人與人工智能的合作中重新界定各方利益。
第二,加強自身倫理道德的規(guī)范和教育。人工智能是人類智慧的產(chǎn)物,建立全覆蓋的倫理教育與技術(shù)培訓(xùn)體系,為符合倫理標(biāo)準(zhǔn)的人工智能產(chǎn)品的推廣提供道德和智力保障。首先,可以在學(xué)校的教學(xué)系統(tǒng)中加入倫理教育和人工智能知識普及,學(xué)校的知識普及往往能達到比較理想的效果。其次,要加強對技術(shù)人員的倫理教育,使其能夠自覺地將人本理念融入人工智能的開發(fā)與選擇中。人都是有主觀能動性的,要加強對技術(shù)人員的倫理道德培訓(xùn),使其樹立正確的世界觀、人生觀、價值觀。最后,加強對政府公職人員的培訓(xùn)。政府工作人員作為政府推廣人工智能產(chǎn)品的前沿助手,是人工智能推廣的直接動力,因此要使其在知識、道德、態(tài)度等各方面滿足推廣的要求。
相比人工智能的蓬勃發(fā)展,各國關(guān)于人工智能方面的法律法規(guī)制定具有一定的滯后性和不足。因此,各國應(yīng)盡快健全相關(guān)的法律法規(guī),限定人工智能技術(shù)的法律邊界,防止有人扛著“法無禁止即可為”的名號打法律的擦邊球。
第一,健全人工智能數(shù)據(jù)安全的法律法規(guī),推動人工智能有序健康發(fā)展。應(yīng)積極出臺相關(guān)法律法規(guī),重點加強對人工智能技術(shù)涉及的個人隱私、電子商務(wù)、無人駕駛等領(lǐng)域的立法工作,完善促進人工智能健康發(fā)展的法律框架。對此,我國頒布和出臺了許多相關(guān)法律,比如《電子商務(wù)法》《個人信息保護法》《數(shù)據(jù)安全法》等,這幾項法律都曾在全國人大常委會立法規(guī)劃中被列為一類項目,表明人工智能治理的立法工作具有現(xiàn)實緊迫性。政府部門和監(jiān)管部門也紛紛出臺了相應(yīng)的規(guī)章制度,積極響應(yīng)本領(lǐng)域人工智能的監(jiān)管需要。
第二,規(guī)范人工智能技術(shù)發(fā)展的法律邊界。防止“法無禁止即可為”的濫用,限制一些破壞性的人工智能發(fā)展,比如無人機、殺人機器、黑客入侵等,加大對破壞人工智能健康發(fā)展的懲罰力度。健康有序的行業(yè)需要法律的規(guī)范,法律法規(guī)的制定為人工智能技術(shù)的發(fā)展掃除了制度障礙,減少社會的負面影響。法律法規(guī)的制定原則應(yīng)該包括有序、創(chuàng)新、公平,人工智能是新興技術(shù),其規(guī)制應(yīng)該充分包容創(chuàng)新性的開發(fā)和利用。同時,加強對技術(shù)開發(fā)者、制造者和使用者的法律責(zé)任規(guī)范,明確他們的主體責(zé)任義務(wù)。
構(gòu)建多元主體合作共治的人工智能治理模式,搭建各方主體參與人工智能治理決策的平臺,通過網(wǎng)絡(luò)調(diào)查、民眾傾向性預(yù)測、意見征集等方式,讓不同層次和訴求的主體了解、參與人工智能治理的決策和修訂過程。今天人們要面對的已經(jīng)不是是否接受人工智能的問題,而是如何以科學(xué)理性的方式運用人工智能技術(shù)造福人類。人們應(yīng)該提早研究如何應(yīng)對人工智能帶來的各類社會風(fēng)險問題,人工智能的不同類型、不同行業(yè)甚至不同發(fā)展階段所需要的政策支持、行業(yè)規(guī)范和倫理制約都是不一樣的,這就需要政府、市場和公民等多元主體協(xié)同合作、共同參與,從而構(gòu)建多層次、多樣性的治理模式。對于搭建人工智能治理多方參與模式問題,我國已有相關(guān)實踐探索,比如2017年我國成立了新一代人工智能發(fā)展規(guī)劃推進辦公室,目的是推進新一代人工智能發(fā)展規(guī)劃和重大科技項目的組織實施,各高校、科研院所和企業(yè)專家也組成人工智能相關(guān)委員會,為國家人工智能的部署和實施提供咨詢,這些措施促進了我國人工智能治理的健康發(fā)展。人工智能的發(fā)展應(yīng)該協(xié)同共治,加強不同主體之間的相互協(xié)調(diào),共同推進人工智能健康發(fā)展體系。
人工智能治理更重要的一點在于從整體性、全局性的政策層面進行全球協(xié)商,對人工智能技術(shù)的發(fā)展節(jié)奏和相關(guān)社會變革做出相應(yīng)的戰(zhàn)略部署。受“經(jīng)濟全球化”開放性的發(fā)展,人工智能的影響是全球性的,人工智能的進步主要由民族國家和跨國企業(yè)推動,人工智能技術(shù)的跨國流動性、社會滲透性很強。人工智能的重要性不言而喻,各國政府都出臺相應(yīng)政策以期在本國范圍內(nèi)促進人工智能技術(shù)的快速發(fā)展,但是全球各國的發(fā)展階段、政治制度、經(jīng)濟發(fā)展程度不同,很難保證人工智能技術(shù)的發(fā)展節(jié)奏和發(fā)展方向一致,加之有些大國為了自身利益采取封鎖人工智能研發(fā)技術(shù)等手段,這既不利于全球技術(shù)創(chuàng)新合作共贏,也不利于共同應(yīng)對人工智能的風(fēng)險。如何掌握技術(shù)的發(fā)展節(jié)奏和方向,如何制定相關(guān)標(biāo)準(zhǔn),如何搭建共享合作平臺,如何共擔(dān)人工智能風(fēng)險責(zé)任等問題,都需要各國在平等互助的基礎(chǔ)上加強國際合作,實現(xiàn)信息共享,共同構(gòu)建全球人工智能治理體系。