2017年是人工智能迅猛發(fā)展的一年,技術(shù)在進(jìn)步,不斷取得突破,各行各業(yè)都在和人工智能技術(shù)相結(jié)合。2017年也是人工智能公共政策異常熱鬧的一年,各國的人工智能戰(zhàn)略還在持續(xù)出臺,自動(dòng)駕駛、算法規(guī)制、人工智能倫理等細(xì)分領(lǐng)域的政策、立法、標(biāo)準(zhǔn)在政府、科研機(jī)構(gòu)、行業(yè)公司等多層面逐步展開。
人工智能有望引領(lǐng)一場新技術(shù)革命,帶來全新的或者更深層次的法律、倫理、經(jīng)濟(jì)等社會制度影響和問題,因此需要搭建起政策和技術(shù)之間交流溝通的橋梁和連接,及早讓跨學(xué)科、多元化的參與者共同來推動(dòng)普惠的人工智能發(fā)展,確保人工智能能夠有益于人類社會。
為此,騰訊研究院法律研究中心對2017年全球人工智能政策進(jìn)行了盤點(diǎn),梳理出了具有業(yè)內(nèi)影響力和引領(lǐng)作用的十大政策,為國內(nèi)人工智能政策研究提供參考的同時(shí),也希望有更多跨學(xué)科、多背景的人員參與到人工智能政策法律的討論和制定中來,共同實(shí)現(xiàn)智能網(wǎng)絡(luò)社會的包容性、普惠性和可持續(xù)性。
【概要】2017年1月,未來生命研究院(FLI)召開主題為“有益的人工智能(Beneficial AI)”的阿西洛馬會議。法律、倫理、哲學(xué)、經(jīng)濟(jì)、機(jī)器人、人工智能等眾多學(xué)科和領(lǐng)域的專家,共同達(dá)成了23條人工智能原則,呼吁全世界在發(fā)展人工智能的時(shí)候嚴(yán)格遵守這些原則,共同保障人類未來的利益和安全。包括霍金、伊隆·馬斯克、德米斯·哈薩比斯等在內(nèi)的近四千名各界專家簽署支持這些原則。
【評析】人工智能的發(fā)展引起了國際社會對于倫理問題的關(guān)注,阿西洛馬人工智能原則被稱為人工智能發(fā)展的“23條軍規(guī)”,是目前國際社會對AI倫理相對系統(tǒng)的闡述,具有較大的影響力。但該倫理原則尚處于初期階段,很多問題缺乏廣泛的共識,需要進(jìn)一步探索。我國尚無類似倫理指南,應(yīng)積極構(gòu)建人工智能倫理指南,發(fā)揮引領(lǐng)作用,推動(dòng)普惠和有益人工智能發(fā)展。
【概要】1月12日,美國計(jì)算機(jī)協(xié)會下屬美國公共政策委員會發(fā)布文件,在其中闡述了關(guān)于算法透明和可責(zé)性的七條原則。七大原則分別為:(1)意識:相關(guān)主體應(yīng)意識到算法中可能存在的偏見及潛在危害。(2)獲取和救濟(jì):對算法決策提出質(zhì)疑并獲得救濟(jì)。(3)責(zé)任制:即使無法詳細(xì)解釋算法如何產(chǎn)生結(jié)果,機(jī)構(gòu)也應(yīng)對其所使用算法的決策負(fù)責(zé)。(4)解釋:鼓勵(lì)使用算法決策的組織和機(jī)構(gòu)對算法所遵循的程序和所做出的具體決策進(jìn)行解釋。(5)數(shù)據(jù)來源:算法的構(gòu)建者應(yīng)該對訓(xùn)練數(shù)據(jù)的收集加以描述。(6)可審查性:模型、算法、數(shù)據(jù)和決策應(yīng)被記錄,以便在懷疑有損害的情況下對其進(jìn)行審查。(7)驗(yàn)證和測試:機(jī)構(gòu)應(yīng)使用嚴(yán)格的方法來驗(yàn)證其模型,并記錄方法和結(jié)果。
【評析】隨著人工智能的發(fā)展,算法歧視與算法黑箱的問題逐步進(jìn)步公眾視野。出于包括技術(shù)、經(jīng)濟(jì)和社會等在內(nèi)的很多因素,算法所作出的決策可能是不透明的。該項(xiàng)原則的發(fā)布是解決算法歧視問題的初步嘗試,相信后續(xù)會有更多的致力于解決算法歧視的公共政策出臺,以盡量減少潛在的危害。
【概要】2月16日,歐盟議會投票通過一項(xiàng)決議,就制定《機(jī)器人民事法律規(guī)則》提出具體建議,并要求歐盟委員會提交關(guān)于機(jī)器人和人工智能民事責(zé)任的法律提案。決議提出諸多制度:成立統(tǒng)一的機(jī)器人和人工智能監(jiān)管機(jī)構(gòu);針對更高級的機(jī)器人建立登記制度;引入電子人格以促進(jìn)自主智能機(jī)器人(尤其是無形AI)的登記、保險(xiǎn)和管理;提出強(qiáng)制保險(xiǎn)、賠償基金等新的責(zé)任規(guī)則;提出倫理原則和《機(jī)器人憲章》以保障負(fù)責(zé)任的創(chuàng)新;針對計(jì)算機(jī)和機(jī)器人生成的可版權(quán)作品界定“獨(dú)立智力創(chuàng)造”標(biāo)準(zhǔn)以明確AI智力成果的知識產(chǎn)權(quán)保護(hù)。
【評析】歐盟是以法律理性保障公民權(quán)利的典范,對新技術(shù)和新事物的立法和監(jiān)管探索,走在世界前列。但創(chuàng)新與監(jiān)管歷來存在緊張關(guān)系,需要維持一種平衡狀態(tài)。人工智能有望引領(lǐng)新技術(shù)革命,對人類社會方方面面產(chǎn)生重大影響,其監(jiān)管應(yīng)當(dāng)包容、審慎,結(jié)合實(shí)際發(fā)展和應(yīng)用逐步探索。
【概要】2017年6月,德國交通部下屬的倫理委員會發(fā)布一份《自動(dòng)和聯(lián)網(wǎng)駕駛》報(bào)告,在其中提出了自動(dòng)駕駛汽車需要遵守的20條倫理規(guī)則。這些倫理規(guī)則的核心內(nèi)容包括:(1)保護(hù)個(gè)人優(yōu)先于其他一切功利主義的考慮;(2)當(dāng)危險(xiǎn)情況不能避免時(shí),保護(hù)人類生命優(yōu)先于其他法律利益,為了避免造成人員傷亡,可以給動(dòng)物或者財(cái)產(chǎn)造成損害,這在編程上是被允許的;(3)道德困境之下的決策依賴于現(xiàn)實(shí)的具體情況,不可能被清楚地標(biāo)準(zhǔn)化,因此也不可能被事先編程;(4)在面對不可避免的事故時(shí),禁止基于人身特征(年齡、性別、生理或者心理狀況等)進(jìn)行歧視,同時(shí)不得犧牲不相關(guān)方。
【評析】人工智能倫理是2017年的熱點(diǎn),很多討論都設(shè)定在自動(dòng)駕駛的場景,包括MIT自動(dòng)駕駛道德決策在線問卷、IEEE倫理白皮書和標(biāo)準(zhǔn)等等。但德國系統(tǒng)提出自動(dòng)駕駛的20條倫理規(guī)則在全球范圍內(nèi)尚屬首次。德國連同美國、英國等的自動(dòng)駕駛汽車政策說明在自動(dòng)駕駛領(lǐng)域規(guī)則先行的重要性。但倫理規(guī)則的探索要避免給產(chǎn)業(yè)套上緊箍咒,阻礙創(chuàng)新。
【概要】7月20日,國務(wù)院正式印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,從戰(zhàn)略態(tài)勢、總體要求、資源配置、立法、組織等各個(gè)層面闡述了我國人工智能發(fā)展規(guī)劃。規(guī)劃提出到2020年,我國人工智能總體技術(shù)和應(yīng)用與世界先進(jìn)水平同步;到2025年基礎(chǔ)理論實(shí)現(xiàn)重大突破;到2030年人工智能理論、技術(shù)與應(yīng)用總體均達(dá)到世界領(lǐng)先水平,我國將成為世界主要人工智能創(chuàng)新中心。
【評析】近年來,越來越多的國家認(rèn)同人工智能將帶來下一次產(chǎn)業(yè)革命,美國、英國、歐盟、加拿大、日韓等國家和地區(qū)都提出了各自人工智能戰(zhàn)略?!缎乱淮斯ぶ悄馨l(fā)展規(guī)劃》,是中國繼美國人工智能國家戰(zhàn)略發(fā)布后在人工智能領(lǐng)域的頂層設(shè)計(jì)和戰(zhàn)略部署。與各國戰(zhàn)略相比,我國規(guī)劃突出強(qiáng)調(diào)技術(shù)與應(yīng)用,而相對淡化人工智能發(fā)展的其他方面或問題,包括人力資源與教育、標(biāo)準(zhǔn)、數(shù)據(jù)環(huán)境等。在AI立法與促進(jìn)、教育與人才培養(yǎng)、AI帶來問題應(yīng)對等諸多方面,我們也應(yīng)該積極探索,不僅提升“硬實(shí)力”,也要提升“軟實(shí)力”,從追隨者走向引領(lǐng)者。
【概要】7月19日,韓國國會議員提出《機(jī)器人基本法案》,旨在確定機(jī)器人相關(guān)倫理和責(zé)任的原則,應(yīng)對機(jī)器人技術(shù)的發(fā)展帶來的社會變化。法案規(guī)定政府應(yīng)制定政策,賦予機(jī)器人具有相應(yīng)權(quán)利義務(wù)的電子人格地位,對機(jī)器人進(jìn)行分類、調(diào)查和登記,確定機(jī)器人導(dǎo)致的損害的責(zé)任和賠償方案。法案專設(shè)“機(jī)器人倫理規(guī)范”章節(jié),明確機(jī)器人的相關(guān)倫理原則。此外,法案設(shè)立專門的國家機(jī)器人倫理政策委員會,每三年制定和修改機(jī)器人相關(guān)政策立法。
【評析】2008年,韓國出臺《智能機(jī)器人法》,促進(jìn)機(jī)器人產(chǎn)業(yè)發(fā)展。2017年的該法案更加集中地討論機(jī)器人的法律問題并積極關(guān)注機(jī)器人的倫理規(guī)范。但是,由于該法案中的很多立法內(nèi)容是對韓國現(xiàn)有法律框架的突破性嘗試,目前該法案在韓國進(jìn)展緩慢,有待韓國立法部門及其他相關(guān)部門進(jìn)一步討論。
【概要】9月6日,美國國會眾議院通過一部自動(dòng)駕駛法案(SELF DRIVE ACT);9月28日,美國國會參議院提出另一部自動(dòng)駕駛法案(AV START ACT)。兩部法案略有差異,預(yù)計(jì)2018年將獲美國國會兩院正式通過,成為法律。法案旨在促進(jìn)自動(dòng)駕駛技術(shù)和汽車發(fā)展,規(guī)定美國聯(lián)邦對自動(dòng)駕駛汽車設(shè)計(jì)、制造和性能的立法優(yōu)先權(quán),允許自動(dòng)駕駛汽車在公共道路上測試,顯著增加自動(dòng)駕駛汽車豁免的數(shù)量并逐年提高,成立自動(dòng)駕駛汽車委員會探索自動(dòng)駕駛汽車安全標(biāo)準(zhǔn)。此外,還包括網(wǎng)絡(luò)安全、隱私保護(hù)、消費(fèi)者教育等方面的規(guī)定。
【評析】美國國會正在推動(dòng)的自動(dòng)駕駛汽車法案可以說是全球范圍內(nèi)首個(gè)重大的自動(dòng)駕駛汽車立法,不僅僅會對美國自動(dòng)駕駛汽車技術(shù)和產(chǎn)業(yè)產(chǎn)生重大影響,而且會給世界其他國家和地區(qū)產(chǎn)生示范效應(yīng)。該法案預(yù)計(jì)將在2018年通過,結(jié)束美國各州對自動(dòng)駕駛技術(shù)和汽車的碎片化監(jiān)管狀況。該法案受到了美國科技公司的普遍歡迎,也說明了法律的作用不僅僅是限制,而是可以促進(jìn)甚至加速創(chuàng)新進(jìn)程。
【概要】10月16日,愛沙尼亞政府公布人工智能法案,考慮賦予人工智能法律地位,使其成為人類的代理人,并確定其在事故中的責(zé)任問題。法案提出,目前人工智能的法律地位應(yīng)介于獨(dú)立法律人格(比如公司)和無法律地位的財(cái)產(chǎn)之間。政府希望通過該法案賦予人工智能以代理權(quán),但最終的法律權(quán)利與義務(wù)由被代理人承擔(dān)。
【評析】該法案是全球范圍內(nèi)考慮賦予人工智能代理人法律地位的重要立法,雖然法案還在討論階段,但對于未來各國探索人工智能的法律地位具有積極的借鑒意義。愛沙尼亞國內(nèi)評估機(jī)構(gòu)認(rèn)為該法案如果能夠通過,可以進(jìn)一步促進(jìn)愛沙尼亞本國經(jīng)濟(jì)的數(shù)字化發(fā)展,吸引投資,為人類免除簡單的重復(fù)性勞動(dòng)。此外,愛沙尼亞國內(nèi)也在探討未來是否給予人工智能獨(dú)立的法律地位更為合適,但是其國內(nèi)的技術(shù)專家從人工智能技術(shù)發(fā)展的角度認(rèn)為目前還為時(shí)過早。
【概要】12月11日,紐約市議會通過了算法問責(zé)法案,以解決算法歧視問題,該法案需要市長簽署后才能正式生效。根據(jù)該法案,紐約市將成立一個(gè)由自動(dòng)化決策系統(tǒng)專家和受自動(dòng)化決策系統(tǒng)影響的公民組織代表組成的工作組,專門監(jiān)督市政機(jī)構(gòu)使用的自動(dòng)決策算法的公平性、問責(zé)性和透明度。該小組負(fù)責(zé)推動(dòng)政府決策算法開源,使公眾了解市政機(jī)構(gòu)自動(dòng)化決策的過程,并就如何改進(jìn)算法問責(zé)制和避免算法歧視提出建議。
【評析】該法案是美國規(guī)制算法的重要立法。隨著人工智能技術(shù)不斷發(fā)展,美國的自動(dòng)化決策系統(tǒng)逐漸進(jìn)入政府決策和司法應(yīng)用領(lǐng)域。該法案所提倡的促進(jìn)政府自動(dòng)決策算法的公開透明和可解釋性,將促進(jìn)政府決策中的算法的可信度,為其他國家和地區(qū)制定人工智能算法監(jiān)管規(guī)則提供了有益借鑒。
【概要】12月12日,電氣電子工程師學(xué)會(IEEE)發(fā)布《人工智能設(shè)計(jì)的倫理準(zhǔn)則(第二版)》。新版人工智能倫理準(zhǔn)則進(jìn)一步豐富了倫理事項(xiàng),涵蓋一般原則、價(jià)值嵌入、研究和設(shè)計(jì)的倫理方法、AGI和ASI的安全、個(gè)人數(shù)據(jù)、自主武器、經(jīng)濟(jì)和人道主義問題、法律、情感計(jì)算、教育和知悉的政策、經(jīng)典倫理問題、混合現(xiàn)實(shí)、福祉指標(biāo)等13個(gè)方面,并針對這些倫理事項(xiàng)提出了具體的建議,比如在法律方面,認(rèn)為當(dāng)前技術(shù)發(fā)展還不足以賦予人工智能法律地位。這些建議可以給后續(xù)標(biāo)準(zhǔn)制定等政策工作提供參考。
【評析】第二版準(zhǔn)則將人工智能倫理事項(xiàng)從9個(gè)方面擴(kuò)充到了13個(gè)方面,是來自于學(xué)術(shù)界、產(chǎn)業(yè)界、社會研究領(lǐng)域、政策研究領(lǐng)域以及政府部門的,具有技術(shù)、人文等多學(xué)科背景的數(shù)百名參與者達(dá)成的共識,是全球范圍內(nèi)系統(tǒng)、全面闡述人工智能倫理問題的重要文件,并在不斷發(fā)展和完善。人工智能倫理準(zhǔn)則可以給IEEE正在推動(dòng)的11個(gè)與人工智能倫理相關(guān)的標(biāo)準(zhǔn)制定提供建議。兩者配合,有望將人工智能倫理從抽象原則落實(shí)到具體的技術(shù)研發(fā)和設(shè)計(jì)。但是,其中的倫理要求能否在技術(shù)層面真正實(shí)現(xiàn),當(dāng)前還存在爭議,需要更多探索。