人工智能的出現(xiàn)和發(fā)展根源于人類的本性:恐懼和貪婪。人工智能可能帶來(lái)嚴(yán)重的不平等、失業(yè)、信任危機(jī),對(duì)現(xiàn)有社會(huì)秩序帶來(lái)嚴(yán)重挑戰(zhàn),最終可能失去控制。需要盡早對(duì)人工智能進(jìn)行規(guī)制。規(guī)制的進(jìn)路可以分為用技術(shù)規(guī)制以及用法律規(guī)制兩種途徑。尤其應(yīng)當(dāng)用法律來(lái)規(guī)制人工智能。用法律規(guī)制人工智能又可以分為法律規(guī)制人工智能本身以及法律規(guī)制人工智能背后的人。規(guī)制的原則包括目的正當(dāng)原則、人類善良情感原則、公眾知情原則或者透明原則、政府管控原則、分類管控原則、全程管控原則、預(yù)防原則以及國(guó)際合作原則。應(yīng)當(dāng)盡早制定人工智能促進(jìn)法,確立人工智能發(fā)展的原則、劃定人工智能發(fā)展的底線,并對(duì)現(xiàn)有法律進(jìn)行整理,增加規(guī)制人工智能發(fā)展的有關(guān)內(nèi)容。
工業(yè)革命以前,人類的生活模式幾千年來(lái)一直是微瀾不變的。[1]現(xiàn)代技術(shù)的發(fā)展讓人類不得不在很短時(shí)間內(nèi)應(yīng)對(duì)一次一次的挑戰(zhàn),比如核技術(shù)、太空技術(shù)、生物技術(shù)以及網(wǎng)絡(luò)技術(shù),等等。[2]然而,人工智能帶給人類的沖擊,可能是人類有史以來(lái)面臨的最大變局。樂(lè)觀派所謂“以前那種種挑戰(zhàn)人類不也應(yīng)對(duì)過(guò)來(lái)了”的觀點(diǎn),不知還能否適用于人工智能。人工智能帶來(lái)的自動(dòng)化正在潤(rùn)物細(xì)無(wú)聲地全方位改變我們的社會(huì)和生活,而無(wú)人駕駛汽車、面部識(shí)別解鎖、AlphaGo等獨(dú)立人工智能技術(shù)可能帶來(lái)更大的沖擊。技術(shù)進(jìn)步在給人類社會(huì)帶來(lái)巨大利益的同時(shí),也成為一個(gè)重大的公共危險(xiǎn)源。[3]但是,這些很可能僅僅是開始,就像暴風(fēng)雨來(lái)臨之前樹葉的一絲擺動(dòng)。
人工智能是福是禍?樂(lè)觀派一直宣稱人工智能帶來(lái)的機(jī)遇遠(yuǎn)大于風(fēng)險(xiǎn),人工智能將會(huì)讓人類變得更強(qiáng)大,還將為人類創(chuàng)造出圍繞機(jī)器人的新職業(yè),科學(xué)家有能力保證人工智能被開發(fā)、利用的同時(shí)也能得到更多地控制[4],它僅在特定前提下才有可能挑戰(zhàn)人類,在智慧和認(rèn)知程度上也是不可能全面超越人類的[5]。超智能機(jī)器的發(fā)展是“人類需要做的最后一項(xiàng)發(fā)明”[6](P58-59)?!叭祟悺獧C(jī)器共生體”并非技術(shù)災(zāi)難,反而能使人類從自身生物學(xué)弱點(diǎn)中獲得最終的解放。[4]
與此截然相反,以斯蒂芬·霍金、比爾·蓋茨、埃隆·馬斯克等人代表的悲觀派,則從很早就開始警告人們注意人工智能的安全性及其社會(huì)效益,它的全面發(fā)展可能導(dǎo)致人類的滅絕。[7]人工智能不再是人類的工具或技術(shù),而是擁有高級(jí)智能的創(chuàng)造性力量。人工智能將超越受制于生物進(jìn)化速度的人類,最終擺脫人類的控制,挑戰(zhàn)人類作為地球上最高智能生命的地位。
筆者屬于悲觀派。人工智能的出現(xiàn)和發(fā)展根源在于人類的本性:貪婪和恐懼??倳?huì)有一些技術(shù)或科學(xué)的狂人裹挾著各種算計(jì)突破人類的底線,近期出現(xiàn)的基因編輯嬰兒就是一聲響亮的警鐘。也許很快,與大眾生活密切關(guān)聯(lián)的人工智能法律問(wèn)題就將接踵而至。魔高一丈,道才高一尺。法律規(guī)則的調(diào)整總是具有滯后性。因此要正視其負(fù)面影響,盡快采取措施予以規(guī)制,積極應(yīng)對(duì)人工智能革命對(duì)當(dāng)下社會(huì)秩序的挑戰(zhàn)。要規(guī)制就必然涉及規(guī)制的正當(dāng)性、進(jìn)路與原則。
隨著人工智能在廣度和深度上對(duì)人類活動(dòng)參與程度的日益加深,以巨大便利為誘餌,“機(jī)器吃人”的現(xiàn)象正在以前所未有的速度推進(jìn)。就目前來(lái)看,人工智能可能至少帶來(lái)以下的問(wèn)題。
第一,人工智能會(huì)加劇現(xiàn)有的不平等,繼而帶來(lái)新的不平等。目前,人工智能產(chǎn)品中的算法歧視問(wèn)題已經(jīng)初現(xiàn)端倪。例如,微軟開發(fā)的聊天機(jī)器人Tay在Twitter上發(fā)表的言論已經(jīng)帶有種族歧視和納粹同情色彩。①?gòu)募夹g(shù)上講,這種歧視的產(chǎn)生主要是因?yàn)橛糜谟?xùn)練人工智能的語(yǔ)料庫(kù)中含有歧視性話語(yǔ)。人類固有的歧視和不平等經(jīng)由算法得以自動(dòng)化,而這會(huì)加劇階層固化,并產(chǎn)生新的不平等問(wèn)題。這種不平等導(dǎo)致的優(yōu)等地位是更少數(shù)人的、更加隱秘的、更加巨大的和更加全面的。只有少數(shù)國(guó)家的少數(shù)人有能力推動(dòng)人工智能發(fā)展,人工智能在決策過(guò)程中產(chǎn)生的有意識(shí)或無(wú)意識(shí)的歧視,將會(huì)導(dǎo)致更多的特定人群受到不公正的待遇。更重要的是,小部分掌握相關(guān)技術(shù)和數(shù)據(jù)的人輕易擁有了隱秘的影響,甚至是控制他人的能力,而這種控制和剝削也將以更加無(wú)聲無(wú)息的面目出現(xiàn)。與此同時(shí),大多數(shù)人將隨時(shí)面臨體力和腦力上被替代的風(fēng)險(xiǎn),以及隱私和自由被剝奪的恐懼。國(guó)與國(guó)之間,人與人之間,少數(shù)公司、少數(shù)精英與大眾之間存在著越來(lái)越深的人工智能鴻溝,對(duì)于絕大多數(shù)普羅大眾來(lái)說(shuō),只能毫無(wú)察覺(jué)地被動(dòng)接受,不可能有任何反抗的余地。自由與必然之間的關(guān)系,因人工智能的出現(xiàn)而越發(fā)成了一個(gè)由社會(huì)分層決定的事物:越來(lái)越少的人享有越來(lái)越大的自由,越來(lái)越多的人受到越來(lái)越強(qiáng)的必然性的束縛。[8]人類歷經(jīng)幾千年才基本逃脫的叢林法則很可能會(huì)再次成為地球的通行法則。
第二,人工智能可能帶來(lái)大量的失業(yè)問(wèn)題。人工智能技術(shù)能夠提升工作的自動(dòng)化程度,減輕對(duì)人力勞動(dòng)的需求。美國(guó)白宮在2016年12月20日發(fā)表的《人工智能、自動(dòng)化及經(jīng)濟(jì)》報(bào)告中認(rèn)為,83%的低時(shí)薪(每小時(shí)工資低于20美元)工作者將面臨自動(dòng)化技術(shù)帶來(lái)的壓力。②單單就無(wú)人駕駛來(lái)說(shuō),如果技術(shù)得到了推廣,那目前以駕駛職業(yè)謀生的人都將會(huì)失去工作。這些人當(dāng)中,相當(dāng)數(shù)量的人幾乎無(wú)法再獲得新的謀生技能,而每個(gè)壯年勞動(dòng)者背后都是需要扶養(yǎng)的老人和孩子。失業(yè)帶來(lái)的失敗挫折感以及家庭生活的負(fù)擔(dān),會(huì)帶來(lái)沉重的社會(huì)問(wèn)題。
第三,人工智能可能帶來(lái)嚴(yán)重的信任問(wèn)題。人工智能技術(shù)的發(fā)展會(huì)使得偽造可以達(dá)到亂真的程度。容貌、聲音、筆跡、印章甚至人本身等都可以“假作真時(shí)真亦假”。例如,紐約大學(xué)的研究人員在2018年10月發(fā)表一篇論文宣布,通過(guò)運(yùn)用真實(shí)照片的數(shù)據(jù)集訓(xùn)練神經(jīng)網(wǎng)絡(luò)可以偽造人類的指紋,攻擊者可以反復(fù)試驗(yàn)以提升成功率。③既有人類社會(huì)的有序交往建立在特定身份的基礎(chǔ)之上。如果身份識(shí)別的秩序被破壞,人們之間的信任就會(huì)被破壞,人類社會(huì)的秩序就會(huì)被破壞。
第四,人工智能可能面臨失控的風(fēng)險(xiǎn)。短期看來(lái),人工智能失控的風(fēng)險(xiǎn)主要來(lái)自于人類對(duì)弱人工智能產(chǎn)品的濫用。開發(fā)者與使用者可能基于不正當(dāng)目的開發(fā)、使用人工智能,例如一些極端恐怖組織可能基于非法目的,以極具危險(xiǎn)和破壞性的方式開發(fā)和使用人工智能,給人類帶來(lái)毀滅性的災(zāi)難。另外,歷史經(jīng)驗(yàn)表明,科學(xué)家們雖善于技術(shù)創(chuàng)新,但卻常常無(wú)法控制自己所發(fā)明技術(shù)的使用。例如,科學(xué)家懷著美好的期許發(fā)明了核武器,但最終卻無(wú)法決定是否以及如何使用它。
長(zhǎng)期看來(lái),人工智能很可能不受制于生老病死,脫離生物演化的進(jìn)程。人工智能會(huì)突破工具意義上的使用,走向超級(jí)智能,超越人類的智慧和認(rèn)知水平,擺脫人類的控制,甚至發(fā)動(dòng)“政變”,最終統(tǒng)治和替代人類,成為人類生存最大的威脅。④地球上現(xiàn)有物種都是經(jīng)過(guò)長(zhǎng)期進(jìn)化形成的,在長(zhǎng)期進(jìn)化過(guò)程中,物種之間達(dá)成了動(dòng)態(tài)平衡。而工業(yè)革命帶來(lái)的種種新技術(shù),留給人類調(diào)整自身加以適應(yīng)的時(shí)間太短。世界上現(xiàn)有的各種問(wèn)題,幾乎都是工業(yè)革命帶來(lái)的。人工智能從出現(xiàn)到勃發(fā),人類作為整體的應(yīng)對(duì)時(shí)間將更短。少數(shù)國(guó)家的極少數(shù)人裹挾著整個(gè)人類,最終可能走向不歸路。到最后,那些極少數(shù)人恐怕也無(wú)法逃脫人工智能的統(tǒng)治。人工智能對(duì)人類文明的存在構(gòu)成了根本性的風(fēng)險(xiǎn)。
上述無(wú)論哪種后果單獨(dú)出現(xiàn),都需要小心應(yīng)對(duì),更何況這些后果很可能同時(shí)出現(xiàn)。為了這個(gè)世界上的絕大多數(shù)人,也為了我們的后代,為了整個(gè)人類,必須對(duì)人工智能技術(shù)加以法律規(guī)制。
對(duì)人工智能進(jìn)行規(guī)制,至少有兩條進(jìn)路。
第一條進(jìn)路是通過(guò)技術(shù)來(lái)約束技術(shù)。比如,馬斯克就曾主張,要戰(zhàn)勝AI,就要使人成為AI,使大腦變成設(shè)備。[9]這就是通過(guò)技術(shù)戰(zhàn)勝技術(shù)的進(jìn)路。但是,這條進(jìn)路本身仍然面臨著技術(shù)稀缺性境況下的資源分配困境。如何確保每個(gè)人都能夠成為差不多的AI。如何確保馬斯克不把最厲害的AI用來(lái)武裝自己,而把最爛的AI交給別人,甚至有些人根本就得不到AI,或者他有權(quán)決定給誰(shuí)不給誰(shuí),給什么樣的AI的時(shí)候,或者他來(lái)決定成為AI的人如何行動(dòng)時(shí),他就成了上帝。如何保證他是柏拉圖理想國(guó)中的哲學(xué)王,而不是一個(gè)“希特勒”。而且,當(dāng)人都成了AI,不正說(shuō)明人已經(jīng)被AI戰(zhàn)勝了嗎?再如,??怂固岢鲇谩拔kU(xiǎn)的動(dòng)態(tài)管理”來(lái)管理人工智能[10](P155-167),實(shí)質(zhì)上是想通過(guò)建立專門的人工智能安全管理系統(tǒng)來(lái)管理人工智能,但如何保證人工智能安全管理系統(tǒng)的可靠性?是否需要再建立一套管理系統(tǒng)來(lái)確保其安全性?如此往復(fù),似乎又變成了一個(gè)無(wú)解的循環(huán)。
經(jīng)驗(yàn)表明,技術(shù)戰(zhàn)勝不了技術(shù)。就像核武器戰(zhàn)勝不了核武器、化學(xué)武器戰(zhàn)勝不了化學(xué)武器。技術(shù)主義的進(jìn)路將導(dǎo)致人類陷入無(wú)窮無(wú)盡的競(jìng)爭(zhēng)中,頂多是達(dá)成短暫的恐怖平衡,或者成了少數(shù)人要挾世界的籌碼。雖然科技水平的發(fā)展成熟是解決風(fēng)險(xiǎn)問(wèn)題的重要環(huán)節(jié),但考慮到技術(shù)的復(fù)雜性、不確定性等特點(diǎn),技術(shù)所產(chǎn)生的問(wèn)題往往是無(wú)法僅靠其自身解決的。因此,解決人工智能安全問(wèn)題還需要充分發(fā)揮規(guī)則進(jìn)路的重要作用。
第二條規(guī)則進(jìn)路指通過(guò)法律約束人工智能技術(shù)的發(fā)展。至少?gòu)哪壳皝?lái)看,法律是避免人類社會(huì)落入?yún)擦质澜绲牟欢x擇。
法律對(duì)人工智能的規(guī)制又分為兩個(gè)角度。一個(gè)是從人工智能入手,即規(guī)制人工智能本身。這一角度迄今大致有三種解決途徑:倫理設(shè)計(jì)、限定應(yīng)用范圍以及限制AI的智能水平。[11]倫理設(shè)計(jì)的途徑主要是確保機(jī)器人按照人類預(yù)設(shè)的道德原則和行為規(guī)則進(jìn)行決策和行為。例如,阿西莫夫機(jī)器人三原則就是通過(guò)人類預(yù)設(shè)的道德原則約束機(jī)器人本身。[8]另外,2016年歐洲議會(huì)向歐盟委員會(huì)提出報(bào)告要求制定民事規(guī)范來(lái)限制機(jī)器人的生產(chǎn)和市場(chǎng)流通。其中第50條(f)項(xiàng)建議:“從長(zhǎng)遠(yuǎn)來(lái)看要?jiǎng)?chuàng)設(shè)機(jī)器人的特殊法律地位,以確保至少最復(fù)雜的自動(dòng)化機(jī)器人可以被確認(rèn)為享有電子人(electronic Persons)的法律地位,有責(zé)任彌補(bǔ)自己所造成的任何損害,并且可能在機(jī)器人作出自主決策或以其他方式與第三人獨(dú)立交往的案件中適用電子人格(electronic Personality)?!边@也是通過(guò)人類預(yù)設(shè)規(guī)則從人工智能的角度來(lái)約束人工智能的例子。應(yīng)用范圍的限定則主要是通過(guò)對(duì)一些存在爭(zhēng)議,容易引起安全風(fēng)險(xiǎn)的人工智能技術(shù)的應(yīng)用范圍進(jìn)行限定,以確保人工智能的安全性。限制智能水平主要是從確保人類對(duì)人工智能的控制力出發(fā),建立人工智能的安全標(biāo)準(zhǔn)與規(guī)則,通過(guò)限制其自主程度和智能發(fā)展水平,控制安全風(fēng)險(xiǎn)。
人工智能法律規(guī)制的另一個(gè)角度是從人的角度規(guī)制人工智能,通過(guò)規(guī)制研究、生產(chǎn)人工智能的人,達(dá)到規(guī)制人工智能的目的。到目前為止,人或者人的組織是世界唯一的主體,通過(guò)人來(lái)規(guī)范行為是法律的慣常做法。實(shí)質(zhì)上,除了主張賦予機(jī)器人法律主體地位這一超前性建議之外,前述規(guī)制人工智能本身的諸多規(guī)則仍然要通過(guò)規(guī)制人工智能背后的人類主體來(lái)得以落實(shí)。
上述兩條進(jìn)路都很重要。但是至少?gòu)哪壳翱?,每個(gè)人工智能背后,都能夠追索到具體的自然人或者組織。因此,對(duì)于法律而言,至少在目前,從人的角度規(guī)制人工智能的法律手段更成熟,也更有效率,更能實(shí)現(xiàn)規(guī)制目的。雖然人工智能研發(fā)、生產(chǎn)、流通及使用過(guò)程風(fēng)險(xiǎn)較大,具有秘密性、分散性、不連續(xù)性、不透明性及難以預(yù)計(jì)后果等特點(diǎn)[3],但考慮到人工智能產(chǎn)業(yè)發(fā)展的現(xiàn)狀和趨勢(shì),及其與大型研究機(jī)構(gòu)、大型公司、政府機(jī)構(gòu)等實(shí)力雄厚的團(tuán)體間的密切聯(lián)系,人工智能生產(chǎn)的整個(gè)過(guò)程實(shí)際上與20上世紀(jì)許多科技成果有類似之處,可以視為資本主義和消費(fèi)主義發(fā)展到更高階段的產(chǎn)物。[12]自工業(yè)革命以來(lái),人類的法律已經(jīng)在相關(guān)領(lǐng)域建構(gòu)了許多能夠緩解類似新科技風(fēng)險(xiǎn)的制度,例如信息公開、責(zé)任分擔(dān)、責(zé)任保險(xiǎn)等,可以考慮結(jié)合代碼及其商業(yè)模式的特殊性,靈活運(yùn)用這些現(xiàn)有制度,并將規(guī)制重點(diǎn)放在上述大型機(jī)構(gòu)上??梢?,從人的角度進(jìn)行規(guī)制已有很多可供借鑒的有益經(jīng)驗(yàn),將會(huì)是可行和有效的一種規(guī)制路徑。
現(xiàn)有的對(duì)人工智能進(jìn)行規(guī)制的規(guī)則多限于倫理層面。⑤這毫無(wú)疑問(wèn)是重要的,但是僅僅提出倫理倡議是不夠的,還必須制定具有強(qiáng)制力的法律。由于法律天生的保守、滯后性,現(xiàn)在就必須關(guān)注、著手通過(guò)法律來(lái)約束人工智能背后的人。只有真正重視人工智能的安全問(wèn)題,盡早著手研究如何約束人工智能技術(shù)的研發(fā)、生產(chǎn)、銷售、使用等人的行為,確定相關(guān)人員的行為規(guī)則和法律責(zé)任,劃定法律底線,人工智能才有可能不至于走向人類的反面,或者把悲劇結(jié)果出現(xiàn)的時(shí)間盡量往后推遲。正如國(guó)務(wù)院在《新一代人工智能發(fā)展規(guī)劃》中所提出的,“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力”乃是當(dāng)務(wù)之急。
從人的角度規(guī)制人工智能,是一項(xiàng)精致而系統(tǒng)的工程,既涉及前沿尖端科技,又涉及商業(yè)利益,需要國(guó)際組織、國(guó)家政府以及商業(yè)公司的協(xié)作,形成一套既鼓勵(lì)技術(shù)良性發(fā)展,又落實(shí)事前、事中、事后全程管控的規(guī)則體系。從宏觀角度視之,至少需要有以下八個(gè)原則。
目的正當(dāng)原則主要規(guī)范人工智能研究開發(fā)。人工智能的研究開發(fā)是人工智能的最初源頭,如蛇之七寸,應(yīng)當(dāng)是規(guī)制的關(guān)鍵。目的正當(dāng)原則應(yīng)作為首要原則予以遵守。對(duì)于人工智能的研究與開發(fā),目的正當(dāng)?shù)暮x可以理解為三個(gè)層次。
第一,不能以侵犯人類生命(殺人)為目的研制人工智能,除非得到政府的授權(quán)和監(jiān)督。以殺人為目的的人工智能的研制應(yīng)當(dāng)以禁止為一般性原則,僅在政府授權(quán)并配備可信賴的監(jiān)督管理制度的情況下,才能夠例外地被允許。為此,應(yīng)當(dāng)建構(gòu)起包括研發(fā)授權(quán)審批、數(shù)據(jù)追蹤、決策過(guò)程記錄和說(shuō)明、追究研發(fā)操作人員責(zé)任等內(nèi)容的一系列制度。此外,在公法上,對(duì)于政府的此項(xiàng)授權(quán)與監(jiān)督職能,本身也要受到嚴(yán)格的正當(dāng)程序限制,否則將使得民眾處于技術(shù)信息不對(duì)等的驚恐之中,進(jìn)而對(duì)政權(quán)產(chǎn)生不信任。
第二,不能以顛覆人的主體地位為目的研制人工智能,即使是政府。機(jī)器應(yīng)該服務(wù)于人類,而不是相反。⑥政府在推動(dòng)人工智能技術(shù)發(fā)展的時(shí)候,必須首先在源頭強(qiáng)調(diào)其研發(fā)目的是補(bǔ)充人類能力,而不是取代它們,必須保證人類在任何時(shí)候都能控制智能機(jī)器⑦,而不是被控制。這一原則涉及人類社會(huì)的根本性問(wèn)題,不容挑戰(zhàn)。任何政府也無(wú)權(quán)開展與顛覆人的主體地位相關(guān)的人工智能研發(fā)制造。
值得注意的是,影響機(jī)器人權(quán)利主體地位既有主觀因素,即人們對(duì)機(jī)器人權(quán)利的態(tài)度,也包含客觀要素,即機(jī)器人同人類之間的實(shí)力對(duì)比。[13]在“實(shí)力法則”之下,也許未來(lái)會(huì)出現(xiàn)擁有相當(dāng)自主性的超級(jí)人工智能,人類不得不承認(rèn)人工智能一定的主體地位。為此,立法必須明確人工智能研發(fā)的底線,禁止任何可能引發(fā)顛覆人類主體地位的研制行為。政府應(yīng)當(dāng)持續(xù)加強(qiáng)對(duì)人工智能研發(fā)的管控,始終確保人機(jī)關(guān)系中人類全面的主體地位。當(dāng)人機(jī)利益發(fā)生沖突時(shí),例如當(dāng)人類正在遭遇危險(xiǎn),需要機(jī)器人舍己救人的情況下,必須確保在技術(shù)及法律上,人的生命健康價(jià)值優(yōu)先于機(jī)器人的價(jià)值。也就是說(shuō),對(duì)于涉及人類人身安全的危險(xiǎn)活動(dòng),機(jī)器人不享有緊急避險(xiǎn)權(quán)。[13]
第三,不能以顛覆人類為目的研制人工智能,即使是政府。當(dāng)人類整體利益和人工智能發(fā)生沖突的時(shí)候,要毫不猶豫地維護(hù)人類的利益。智能和自我改善的技術(shù)系統(tǒng)的開發(fā)和使用涉及相當(dāng)大的風(fēng)險(xiǎn)。這些風(fēng)險(xiǎn)可能來(lái)源于濫用或不良設(shè)計(jì),甚至可能來(lái)源于人工智能的自我進(jìn)化。當(dāng)人工智能技術(shù)發(fā)展到高級(jí)程度,無(wú)法預(yù)料或無(wú)意的系統(tǒng)行為將變得越來(lái)越危險(xiǎn)且難以糾正時(shí),并不是所有的系統(tǒng)都能夠與人類利益保持一致⑥,面對(duì)有高度脫離控制風(fēng)險(xiǎn)的人工智能,必須貫徹目的正當(dāng)原則。研制人工智能之初,就應(yīng)當(dāng)明確:研發(fā)一定是為了服務(wù)人類社會(huì),也只能服務(wù)于人類的發(fā)展和福祉。這里的人類意指全體人類的利益,而不是單獨(dú)某個(gè)國(guó)家或政府的利益,因此,禁止任何政府或者個(gè)人為侵犯甚至顛覆人類的目的而研制人工智能。
人類善良情感原則同樣是面向研究開發(fā)者而設(shè)置的原則,人工智能的設(shè)計(jì)者和研制者,是人工智能使用、誤用和行為所產(chǎn)生的情感道德影響的參與者,有責(zé)任和機(jī)會(huì)去塑造人工智能的情感。這一原則可以從積極責(zé)任和消極責(zé)任兩個(gè)方面去理解。一方面,能夠影響人工智能情感的人,有義務(wù)將人類的善良情感賦予人工智能;另一方面,必須禁止賦予人工智能顛覆人類的意識(shí)。任何有此企圖或行為的人,都應(yīng)當(dāng)受到嚴(yán)厲的制裁。
其一,在賦予人工智能情感時(shí),應(yīng)當(dāng)賦予其人類的善良情感。阿西洛馬人工智能原則中的價(jià)值歸屬原則,要求“高度自主的人工智能系統(tǒng)的設(shè)計(jì),應(yīng)該確保它們的目標(biāo)和行為在整個(gè)運(yùn)行中與人類的價(jià)值觀相一致”⑧,超級(jí)人工智能如果能夠具備感情,那么研發(fā)者有義務(wù)將符合人類基本價(jià)值觀的善良情感嵌入系統(tǒng),以確保智能技術(shù)系統(tǒng)在任何情況下,都作出與人類善良積極的情感倫理一致的判斷和決策,成為人類社會(huì)的良好成員,為人類更好地服務(wù)。
其二,不能賦予人工智能顛覆人類的意識(shí)。消極責(zé)任方面,在人工智能研究、制造、流通、使用等的一切環(huán)節(jié),禁止任何可能使人工智能形成顛覆人類意識(shí)的行為。美國(guó)電氣電子工程師協(xié)會(huì)(IEEE)《人工智能設(shè)計(jì)的倫理準(zhǔn)則(第2版)》建議:設(shè)定一些福祉指標(biāo)用以辨別智能技術(shù)系統(tǒng)會(huì)在哪些地方提高人類福祉,并以此為基礎(chǔ),為進(jìn)一步的技術(shù)改進(jìn)和創(chuàng)新指明方向。人工智能的設(shè)計(jì)和制造,旨在減少日常生活中的人工活動(dòng),為人類提供便利,增進(jìn)人類福祉,因此,只有其設(shè)計(jì)能夠符合人類善良的情感道德、價(jià)值和秩序,才可能充分實(shí)現(xiàn)設(shè)計(jì)初衷。高級(jí)人工智能被賦予的意識(shí)和智能,應(yīng)該尊重和改進(jìn)人類社會(huì)存在所依賴的秩序,而不是顛覆人類的此種秩序。
較之過(guò)去的任何科技,人工智能系統(tǒng)的內(nèi)部運(yùn)行方式及各環(huán)節(jié)之間的配合,都更不易為常人所理解[3],因此在該領(lǐng)域更應(yīng)當(dāng)強(qiáng)調(diào)公眾知情原則。理由之一,人工智能是少數(shù)人的游戲,但是卻可能危及整個(gè)人類。理由之二,世界上絕大多數(shù)人在人工智能面前都是待宰羔羊,沒(méi)有任何反抗余地,都是弱者。弱者服從強(qiáng)者的前提,是強(qiáng)者必須接受監(jiān)督。理由之三,算法正在統(tǒng)治世界。某些巨頭掌握的數(shù)據(jù)資源和技術(shù)比政府更多,因此事實(shí)上獲得了比政府更強(qiáng)大的能力和權(quán)力。當(dāng)越來(lái)越多的人依賴定制化的新聞推送時(shí),人工智能可能影響到總統(tǒng)選舉。[14]應(yīng)當(dāng)像監(jiān)督政府公權(quán)力一樣監(jiān)督這些少數(shù)的巨頭,要把人工智能約束到制度的籠子里。
一般公眾對(duì)人工智能的發(fā)展有知情的權(quán)利。人工智能的研究應(yīng)當(dāng)透明、尤其是那些可能顛覆人類的人工智能,應(yīng)當(dāng)公開,可被監(jiān)督。人工智能的本質(zhì)在于算法和數(shù)據(jù)處理[12],公眾的知情權(quán)也主要圍繞這兩個(gè)領(lǐng)域展開。就算法而言,公眾有權(quán)以常人可理解的方式知道算法的制定主體、算法的制定程序、制定規(guī)則、監(jiān)督機(jī)制及責(zé)任機(jī)制等信息。此外,鑒于人工智能技術(shù)對(duì)大數(shù)據(jù)的依賴,公眾應(yīng)有權(quán)知曉其個(gè)人信息的利用和保護(hù)等方面的情況。但是,算法的可解釋性規(guī)則至今仍然存在著巨大爭(zhēng)議,描述神經(jīng)網(wǎng)絡(luò)完成訓(xùn)練的過(guò)程恐怕和描述人類如何進(jìn)行思考一樣困難。因此,要想實(shí)現(xiàn)算法的透明公開,恐怕也要仰賴于在政府的主導(dǎo)下人工智能基礎(chǔ)知識(shí)的普及。
人工智能領(lǐng)域法律法規(guī)的制定也應(yīng)當(dāng)確保公眾的知情參與。通過(guò)更多地了解人工智能相關(guān)技術(shù)的信息,公眾不僅會(huì)對(duì)該技術(shù)更具信心,支持人工智能產(chǎn)業(yè)的發(fā)展,也會(huì)對(duì)立法部門和政府有更多的理解,更有能力處理好人工智能帶來(lái)的問(wèn)題。
在人工智能技術(shù)的發(fā)展中政府應(yīng)該承擔(dān)什么樣的角色,積極地介入管控還是放任市場(chǎng)自我調(diào)節(jié)?向來(lái)推崇自由主義的馬斯克在此問(wèn)題上也一反常態(tài)地認(rèn)為,在人工智能領(lǐng)域,政府監(jiān)管的介入可能是一個(gè)非常明智的選擇?!拔覀儜?yīng)該十分小心地看待人工智能。我猜測(cè)人類下一個(gè)生存威脅恐怕就是人工智能。我越來(lái)越傾向于認(rèn)為對(duì)于人工智能應(yīng)該在國(guó)際或者國(guó)家層面上有相應(yīng)的監(jiān)管措施,以防人類做出不可挽回的傻事來(lái)。”④政府必須采用一種負(fù)責(zé)任的并積極應(yīng)對(duì)的管控方式,建立持續(xù)的管控制度。
各國(guó)政府應(yīng)盡早給予人工智能安全問(wèn)題足夠的重視,運(yùn)用國(guó)家資源對(duì)其進(jìn)行監(jiān)督和管控,提供長(zhǎng)期持續(xù)的資金支持和應(yīng)用鼓勵(lì)。政府應(yīng)當(dāng)主導(dǎo)人工智能管控的研究,投入資金吸引包括技術(shù)專家、社會(huì)治理專家、法律專家等各領(lǐng)域的優(yōu)秀人才,不斷更新和加深對(duì)人工智能的理解,使政府的研究、監(jiān)督、管控能力不低于商業(yè)公司。然后,民眾再通過(guò)監(jiān)督政府來(lái)監(jiān)督人工智能。
人工智能的分類方法很多??紤]到現(xiàn)行法律管控體系較常見的分類方式,可以依據(jù)人工智能生產(chǎn)流程各環(huán)節(jié)進(jìn)行分類?;谌斯ぶ悄茉谘芯俊㈤_發(fā)、銷售、使用等環(huán)節(jié)的風(fēng)險(xiǎn)各不相同,可以為每個(gè)環(huán)節(jié)設(shè)置不同的門檻。
另外一種較現(xiàn)實(shí)的分類是依據(jù)人工智能應(yīng)用的行業(yè)或領(lǐng)域不同,粗略的將其分為生產(chǎn)型人工智能、服務(wù)型人工智能、暴力型人工智能等,前兩者的社會(huì)風(fēng)險(xiǎn)較?。?3],而可以實(shí)施殺人等傷害人類行為的暴力型人工智能,就需要遵守不同的行為準(zhǔn)則,接受類似于槍支、大規(guī)模殺傷性武器一樣更加嚴(yán)格的管控。此種分類又可以再基于生產(chǎn)、服務(wù)于不同的具體行業(yè)而再做細(xì)分。例如進(jìn)行金融服務(wù)的人工智能,一旦系統(tǒng)出現(xiàn)漏洞或者被濫用,帶來(lái)的災(zāi)難可能遠(yuǎn)大于創(chuàng)造的價(jià)值,必須結(jié)合金融業(yè)的復(fù)雜性等風(fēng)險(xiǎn)特點(diǎn),進(jìn)行特別的管制,設(shè)置更為精細(xì)的規(guī)則。
鑒于人工智能技術(shù)與生俱來(lái)的強(qiáng)不透明性,有必要對(duì)具備危險(xiǎn)性的人工智能的研究、設(shè)計(jì)、生產(chǎn)、試驗(yàn)、銷售、流通、使用等整個(gè)流程進(jìn)行管控,訂立規(guī)則。
早在2015年,聯(lián)合國(guó)教科文組織與世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)的報(bào)告就探討了在制造一個(gè)人工智能需要不同的專家和部門合作的情況下,誰(shuí)該為某次操作失誤負(fù)責(zé)的問(wèn)題。報(bào)告提出可以采取責(zé)任分擔(dān)的方式,讓所有參與到人工智能發(fā)明、授權(quán)和分配過(guò)程中的人來(lái)分擔(dān)責(zé)任。[15]有必要在人工智能產(chǎn)品設(shè)計(jì)、制造、流通和使用的整個(gè)流程中建立一種新的責(zé)任分擔(dān)機(jī)制。
首先應(yīng)當(dāng)強(qiáng)調(diào)的是貫穿所有環(huán)節(jié)的透明性,需要確保始終有人能夠?yàn)槿斯ぶ悄芩龅臎Q策和行為以可理解的方式作出解釋。可以考慮從某個(gè)環(huán)節(jié)開始為某些類型的人工智能配備 “黑匣子”,記錄執(zhí)行的每一筆交易的數(shù)據(jù),包括其作出決策的邏輯。⑧要確立全程責(zé)任制,結(jié)合人工智能的技術(shù)標(biāo)準(zhǔn)、資格認(rèn)證以及網(wǎng)絡(luò)安全評(píng)估等制度,明確各環(huán)節(jié)行為人的責(zé)任,確定設(shè)計(jì)者、生產(chǎn)者、使用者等主體各自的權(quán)利、義務(wù)及責(zé)任,進(jìn)行分類分級(jí)管理,實(shí)現(xiàn)事前行為有規(guī)則,事后責(zé)任可追究。例如,對(duì)于研發(fā)制造者而言,有義務(wù)首先運(yùn)用比例原則,審慎衡量研發(fā)制造某人工智能所帶來(lái)的社會(huì)效益和潛在損害間的比例,而后再?zèng)Q定是否以及如何進(jìn)行研發(fā)。對(duì)于特定種類人工智能產(chǎn)品的研發(fā),還應(yīng)當(dāng)經(jīng)由政府批準(zhǔn)、許可或者備案。使用者對(duì)人工智能的使用必須合法,尊重公序良俗,不得濫用,等等。
考慮到人工智能在智識(shí)上超越人類的可能性及由此而引發(fā)的高風(fēng)險(xiǎn),顯然不能等到安全問(wèn)題產(chǎn)生后再考慮解決辦法,需要在理論上和規(guī)則制度建設(shè)上積極做好預(yù)防準(zhǔn)備。
《歐盟人工智能相關(guān)法律規(guī)則之——?dú)W盟機(jī)器人民事法律規(guī)則》中明確規(guī)定機(jī)器人研究活動(dòng)應(yīng)遵循“預(yù)防原則”,預(yù)見結(jié)果的潛在安全影響,并采取適當(dāng)?shù)念A(yù)防措施,與保護(hù)水平成正比,同時(shí)鼓勵(lì)社會(huì)和環(huán)境的進(jìn)步。阿西洛馬人工智能原則在闡述人工智能的風(fēng)險(xiǎn)問(wèn)題時(shí),也提出:“人工智能系統(tǒng)造成的風(fēng)險(xiǎn),特別是災(zāi)難性的或有關(guān)人類存亡的風(fēng)險(xiǎn),必須有針對(duì)性地計(jì)劃和努力減輕可預(yù)見的沖擊?!眹?guó)務(wù)院在《新一代人工智能發(fā)展規(guī)劃》中指出:“在大力發(fā)展人工智能的同時(shí),必須高度重視可能帶來(lái)的安全風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn),確保人工智能安全、可靠、可控發(fā)展?!笨梢?,積極采取措施,避免人工智能可能產(chǎn)生的安全風(fēng)險(xiǎn),已在全球范圍內(nèi)形成基本的共識(shí)。
預(yù)防機(jī)制的形成是系統(tǒng)工程,可以考慮從法律制度建設(shè)、技術(shù)約束機(jī)制、社會(huì)監(jiān)督體系等方面著手規(guī)避風(fēng)險(xiǎn)。在法律制度方面,除前文提到的信息公開、禁止權(quán)利濫用、責(zé)任分擔(dān)、預(yù)防機(jī)制外,還需要嵌入生產(chǎn)環(huán)節(jié),比如對(duì)算法處理的數(shù)據(jù)或生產(chǎn)性資源進(jìn)行管理。[16](P312)在技術(shù)約束方面,可以考慮借鑒工程管理的方式,對(duì)人工智能的研發(fā)建立安全評(píng)估機(jī)制,制定國(guó)家安全標(biāo)準(zhǔn),由專業(yè)技術(shù)人員對(duì)人工智能系統(tǒng)進(jìn)行安全評(píng)估,確定其安全級(jí)別和可能的危險(xiǎn)因素。谷歌和牛津大學(xué)聯(lián)合發(fā)起關(guān)于人工智能系統(tǒng)“自我毀滅裝置(Kill Switch)”的研究,目的是讓人工智能系統(tǒng)處于不間斷的人類監(jiān)管干預(yù)之下,而人工智能機(jī)器本身無(wú)法逃脫這一監(jiān)管干預(yù)。[15]
對(duì)一種新技術(shù)甚至新的社會(huì)形態(tài)的高度依賴,本身就是一種危險(xiǎn)。最根本的預(yù)防是建立人類社會(huì)自我運(yùn)行管理的安全底線備份,即一旦關(guān)閉所有人工智能體系,人類要有最基本的生存能力。
要盡早著手進(jìn)行反人工智能(Counter-AI)的研究。應(yīng)當(dāng)像病毒和反病毒的研究一樣,既要從正面研究其可能的適用空間,也要從反面研究安全應(yīng)對(duì)策略。人工智能的失控可能發(fā)生在以下幾個(gè)方面:第一,人工智能或者自動(dòng)化已經(jīng)廣泛滲透到既有的生產(chǎn)、生活、國(guó)防等設(shè)施設(shè)備之中。即使有99.99%的安全性,出現(xiàn)一次問(wèn)題,都可能是致命的。比如核武器、大壩的監(jiān)控設(shè)備、太空飛行器等。不斷出現(xiàn)的小型可穿戴設(shè)備,同樣存在這樣的問(wèn)題。第二,防范人工智能本身出現(xiàn)的其他風(fēng)險(xiǎn),確保并行的另一套機(jī)制,在關(guān)鍵時(shí)刻可以拔掉人工智能的電源。同理,在軍事行動(dòng)中,敵人可能利用人工智能的弱點(diǎn)發(fā)動(dòng)攻擊。哈佛大學(xué)肯尼迪學(xué)院在研究報(bào)告中建議美國(guó)的國(guó)防和網(wǎng)絡(luò)共同體應(yīng)當(dāng)在反人工智能能力方面尋求領(lǐng)先地位。[2]中國(guó)也非常有必要開展此類研究。
在全球化背景下,國(guó)家間的理解和合作是大勢(shì)所趨,全球治理理論已經(jīng)成為全球化和國(guó)際合作問(wèn)題研究的重要分析工具。在人工智能領(lǐng)域,國(guó)際合作原則已然得到了包括聯(lián)合國(guó)、歐盟、美國(guó)、英國(guó)、日本等諸多組織和國(guó)家的普遍認(rèn)同,⑨合作可以分為幾個(gè)層面。
首先是研究層面科學(xué)家的合作。人工智能的基礎(chǔ)是技術(shù)問(wèn)題,研發(fā)人工智能的科學(xué)家是在技術(shù)層面產(chǎn)生和解決人工智能安全風(fēng)險(xiǎn)的關(guān)鍵環(huán)節(jié)。生產(chǎn)門檻的降低使得研發(fā)的跨國(guó)流動(dòng)性增強(qiáng),應(yīng)當(dāng)著力于解決全球科學(xué)家們都具有足夠的社會(huì)責(zé)任感這一問(wèn)題。
其次是國(guó)際組織及政府間的合作。國(guó)際組織和各國(guó)政府必須積極承擔(dān)起推動(dòng)國(guó)際合作的責(zé)任。人工智能技術(shù)的安全問(wèn)題是不可能在一國(guó)內(nèi)部得到解決的。一旦發(fā)生人工智能的重大安全事故,沒(méi)有國(guó)家能獨(dú)善其身。技術(shù)的發(fā)展限制、應(yīng)用限度、安全標(biāo)準(zhǔn)、倫理規(guī)范等問(wèn)題,必須落實(shí)到具體的制度并得到普遍的遵守才有意義,而只有國(guó)際組織和政府間的合作才能實(shí)現(xiàn)這樣的目標(biāo)。有必要設(shè)立專門的國(guó)際組織,建立一整套人工智能的國(guó)際管控機(jī)制。
最后,企業(yè)間的合作也至關(guān)重要。由于各國(guó)制度差異較大,國(guó)際組織和政府間國(guó)際合作的開展可能受制于很多因素,可能進(jìn)行合作的領(lǐng)域和進(jìn)度都非常不確定。同時(shí),在智能革命中,企業(yè)扮演的角色有時(shí)候比政府還要重要。因此,在世界范圍內(nèi)的企業(yè)之間展開合作,效率可能更高。許多企業(yè)已經(jīng)在此方面展開了積極行動(dòng),例如Google、Facebook、Amazon、IBM以及Microsoft宣布成立“AI合作組織”(Partnership on AI),成立人工智能倫理咨詢委員會(huì),探討人工智能應(yīng)用和研究的倫理邊界,保障人工智能應(yīng)用符合人類社會(huì)的共同利益。[17]
需要注意的是,通過(guò)國(guó)際條約限制人工智能發(fā)展,尤其是在軍事領(lǐng)域的應(yīng)用并不樂(lè)觀。從歷史經(jīng)驗(yàn)來(lái)看,1899年,世界主要軍事大國(guó)在海牙召開和平會(huì)議,其中一項(xiàng)結(jié)果是在五年內(nèi)禁止將飛機(jī)用于軍事用途。雖然其目的是想隨后就發(fā)布永久性禁令,但在1907年舉辦的第二次海牙和平會(huì)議上就推翻了前次會(huì)議的暫時(shí)性禁令,因?yàn)楦鲊?guó)感知到了空戰(zhàn)不可避免。于是所有大國(guó)都開始規(guī)劃轟炸機(jī)的適用。1910年,歐洲大國(guó)的聯(lián)合軍用飛機(jī)艦隊(duì)擁有50架軍用飛機(jī)。到1914年,這一數(shù)字已經(jīng)達(dá)到700架。當(dāng)一戰(zhàn)爆發(fā)時(shí),每個(gè)歐洲交戰(zhàn)國(guó)的首都——除羅馬之外——仍然都遭受到了空襲。唯一真正限制軍用飛機(jī)使用的是技術(shù):初期的飛機(jī)在航程和炸彈運(yùn)輸能力上都很有限。[2](P50)所以,必須做好達(dá)不成國(guó)際條約的充分準(zhǔn)備。
對(duì)人工智能進(jìn)行規(guī)制具有正當(dāng)性。必須從人的角度對(duì)人工智能的研究和應(yīng)用加以規(guī)制。規(guī)制人工智能,需要遵循目的正當(dāng)性原則、人類善良情感原則、公眾知情原則或者透明原則、政府管控原則、分類管控原則、全程管控原則、預(yù)防原則、國(guó)際合作原則等。通過(guò)制定人工智能促進(jìn)法將上述原則通過(guò)立法確立下來(lái),通過(guò)修改既有法律,將上述原則落實(shí)到具體的部門法中。
我國(guó)應(yīng)當(dāng)盡早制定人工智能促進(jìn)法,將上述原則通過(guò)立法的形式確立下來(lái)。要?jiǎng)澏ㄈ斯ぶ悄馨l(fā)展的底線,確保人工智能技術(shù)和商業(yè)的發(fā)展始終在人類的掌控之下。同時(shí),建議對(duì)我國(guó)既有全部立法進(jìn)行整理,將上述原則落實(shí)體現(xiàn)在具體的部門法中。比如,在《道路交通安全法》中增加無(wú)人駕駛汽車的規(guī)范,在《民用航空法》中增加無(wú)人機(jī)的規(guī)范,在《著作權(quán)法》中增加機(jī)器作品的著作權(quán)的規(guī)范,在正在起草的民法典分則中要有關(guān)于個(gè)人信息、數(shù)據(jù)保護(hù)的規(guī)范。
注釋:
①M(fèi)icrosoft silences its new A.I.bot Tay,after Twitter users teach it racism,See https://techcru nch.com/2016/03/24/microsoft-silences-its-new-a-i-bot-tay-after-twitter-users-teach-it-racism/.
②Executive Office of the President.Artificial Intelligence,Automation,and the Economy,See https://obamawhitehouse.archives.gov/sites/whitehouse.gov/files/documents/Artificial-Intelligence-Auto mation-Economy.PDF.
③Philip Bontrager,Aditi Roy,et al.DeepMasterPrints:Generating MasterPrints for Dictionary Attacks via Latent Variable Evolution,See https://arxiv.org/pdf/1705.07386.pdf.
④Aileen Graef,Elon Musk.We Are “Summoning a Demon” with Artificial Intelligence,UPI,See https://perma.cc/M98J-VYNH.
⑤比如,阿西莫夫機(jī)器人三原則、阿西洛馬人工智能原則、美國(guó)電氣電子工程師協(xié)會(huì)(IEEE)《人工智能設(shè)計(jì)的倫理準(zhǔn)則》,等等。
⑥參見美國(guó)電氣電子工程師協(xié)會(huì)(IEEE)《人工智能設(shè)計(jì)的倫理準(zhǔn)則(第2版)》。
⑦參見《歐盟人工智能相關(guān)法律規(guī)則之——?dú)W盟機(jī)器人民事法律規(guī)則》,一般原則之三。
⑧參見《歐盟人工智能相關(guān)法律規(guī)則之——?dú)W盟機(jī)器人民事法律規(guī)則》,一般原則之十二。
⑨2016年聯(lián)合國(guó)發(fā)布《人工智能政策報(bào)告》,表達(dá)了對(duì)人工智能的關(guān)注,并針對(duì)人工智能技術(shù)發(fā)展帶來(lái)的各種問(wèn)題,提出了新的思考方式和解決途徑。報(bào)告呼吁世界各國(guó)加強(qiáng)在人工智能技術(shù)研究與開發(fā)領(lǐng)域的合作,共同應(yīng)對(duì)智能機(jī)器人在就業(yè)、倫理道德以及法律層面帶來(lái)的挑戰(zhàn)?!稓W盟人工智能相關(guān)法律規(guī)則之——?dú)W盟機(jī)器人民事法律規(guī)則》提出要在許多領(lǐng)域大力鼓勵(lì)國(guó)際合作。美國(guó)國(guó)家科學(xué)與技術(shù)委員會(huì)《為人工智能的未來(lái)做好準(zhǔn)備》中強(qiáng)調(diào)了美國(guó)作為人工智能技術(shù)的領(lǐng)先國(guó)家應(yīng)繼續(xù)在全球研究合作方面扮演重要角色,并促進(jìn)國(guó)際標(biāo)準(zhǔn)共識(shí)的達(dá)成。2014年7月創(chuàng)新英國(guó)項(xiàng)目發(fā)布了一份機(jī)器人技術(shù)及自治化系統(tǒng)的2020年國(guó)家發(fā)展戰(zhàn)略(RAS2020 National Strategy),提出提升各國(guó)政府、產(chǎn)業(yè)部門和機(jī)構(gòu)之間的國(guó)際合作,以此鼓勵(lì)更進(jìn)一步的創(chuàng)新并且加強(qiáng)紐帶。日本政府在2015年1月發(fā)布的《新機(jī)器人戰(zhàn)略》中強(qiáng)調(diào)日本在發(fā)展人工智能、機(jī)器人產(chǎn)業(yè)等方面,應(yīng)當(dāng)積極參與國(guó)際交流與合作,提升在國(guó)際標(biāo)準(zhǔn)制定中的話語(yǔ)權(quán)。