文/張富利
人工智能是這個(gè)時(shí)代非同小可的科學(xué)發(fā)現(xiàn),也成為了21世紀(jì)人類社會(huì)最重要的科學(xué)進(jìn)步。在人工智能顛覆人類認(rèn)知的全新時(shí)代,人類與機(jī)器人之間的政策、倫理、法律關(guān)系接踵而至,這意味著地球進(jìn)入了“二元智能時(shí)代”。一個(gè)顯而易見的事實(shí)是,理性化解人工智能所蘊(yùn)含的巨大社會(huì)風(fēng)險(xiǎn),建構(gòu)規(guī)制人工智能發(fā)展的規(guī)范體系,需要法學(xué)理論的深入思考與價(jià)值關(guān)照。
人工智能區(qū)別于既往所有科技的顯著特征是其能夠以前所未有的速度迅速重新對自身進(jìn)行設(shè)計(jì),這遠(yuǎn)遠(yuǎn)超過了受到緩慢生物進(jìn)化規(guī)律限制的人類。風(fēng)險(xiǎn)社會(huì)的種種危機(jī)成為現(xiàn)代政治的核心部分,反思性現(xiàn)代化、預(yù)防原則以及規(guī)避風(fēng)險(xiǎn)路徑的完善也隨之成為當(dāng)代社會(huì)發(fā)展的重要議題。值得注意的是,風(fēng)險(xiǎn)社會(huì)既不否定人類的科學(xué)實(shí)踐,也不否定社會(huì)的發(fā)展,而是強(qiáng)調(diào)重視人類實(shí)踐可能發(fā)生的災(zāi)難性后果,將風(fēng)險(xiǎn)意識(shí)作為審慎的反省批判來看待,從而將風(fēng)險(xiǎn)意識(shí)轉(zhuǎn)向人類如何能有效防范風(fēng)險(xiǎn)的技術(shù)手段、制度安排及機(jī)制實(shí)施的具體舉措上來。人工智能是風(fēng)險(xiǎn)社會(huì)的最主要風(fēng)險(xiǎn)源之一,是政府公共管理的最重要內(nèi)容。它的風(fēng)險(xiǎn)既可能來自“技術(shù)—經(jīng)濟(jì)”的決策,但也有可能來自法律所保護(hù)的科技文明本身,所以,法律選擇的實(shí)質(zhì)應(yīng)是基于風(fēng)險(xiǎn)的決策。
作為一套復(fù)雜的技術(shù)設(shè)計(jì)方式,人工智能既是影響社會(huì)行為的強(qiáng)力規(guī)范,也是產(chǎn)生新價(jià)值的生產(chǎn)機(jī)制,這在制度上的要求便是對新型的經(jīng)濟(jì)利益之合法性進(jìn)行確認(rèn)。然而,技術(shù)將擴(kuò)大貧富差距,科技加速了不平等。大數(shù)據(jù)掌控者們占領(lǐng)了人工智能發(fā)展與應(yīng)用的制高點(diǎn),使日益增多的人成為更加難以保護(hù)自己的隱私和自由并面臨失業(yè)風(fēng)險(xiǎn)的弱者,這種顛覆層級的改變是史無前例的。人工智能將人類社會(huì)帶入了一個(gè)由社會(huì)分層來決定的局面:越來越少的人享有越來越大的自由,越來越多的人受到越來越強(qiáng)的必然性的束縛。人工智能全面滲入社會(huì)治理,為民主制度的異化創(chuàng)造了可能。技術(shù)能力同經(jīng)濟(jì)基礎(chǔ)一樣,對政治制度、法律規(guī)范起到了關(guān)鍵作用。隨著人工智能時(shí)代的到來,通過專制方式來掌控社會(huì)秩序的手段也會(huì)更強(qiáng)大,權(quán)力對人類的巨大誘惑極可能會(huì)讓社會(huì)治理向?qū)V苹?。?quán)力、資本對人工智能的介入,極有可能將人工智能引入侵害制度文明的方向,科技與權(quán)力、資本一旦形成聯(lián)盟,對人類民主秩序的破壞將是毀滅性的。未來人工智能的時(shí)代將通過系統(tǒng)為王的準(zhǔn)則,在資本的強(qiáng)勢介入下,可能導(dǎo)致社會(huì)的等級制被強(qiáng)化,人類長久以來孜孜以求的平等實(shí)現(xiàn)的難度更大,甚至希望渺茫。
法律帶有天然的保守性,具有“克制與謙抑”的特質(zhì),法律也可以被理解為是傾向于保守的社會(huì)規(guī)范,并不倡導(dǎo)激進(jìn)的創(chuàng)新精神,而是以“經(jīng)濟(jì)進(jìn)一步,政治進(jìn)一步”的循環(huán)推進(jìn)方式徐徐發(fā)展。在人工智能時(shí)代,保守傾向的品格使法律滯后于技術(shù)的進(jìn)步和經(jīng)濟(jì)的發(fā)展,導(dǎo)致?lián)屨枷葯C(jī)的人群得到了極大的邊際收益。最典型的便是我國十幾年來電子商務(wù)與互聯(lián)網(wǎng)金融的突飛猛進(jìn),在法律制度缺位的情況下催生了一大批獲利甚豐的先富者,而在國家不斷出臺(tái)相關(guān)規(guī)定健全法律規(guī)制時(shí),所約束的不過是后面的參與者,而先入行者早已利用政策的漏洞賺得盆滿缽滿,此時(shí)的諸多政策反而成了鞏固其壟斷地位的護(hù)身符。先占者又往往乘勝追擊,利用之前政策、法律缺位積累的諸般經(jīng)濟(jì)、數(shù)據(jù)資源優(yōu)勢故伎重施,進(jìn)軍法律尚未介入的各種新領(lǐng)域。這些自詡為時(shí)代弄潮兒、敢為天下先的所謂成功者,最終卻利用了法律的滯后性立于不敗之地,讓循途守轍、安分守己指望勤勞致富的人們與其差距無限拉大。更值得憂慮的問題在于,大數(shù)據(jù)技術(shù)改變了整個(gè)法律體系運(yùn)作于其中的社會(huì)空間,大數(shù)據(jù)擁有者與私人的權(quán)力被重塑,諸多全新無需依賴法律的全新社會(huì)控制方式始料不及地涌現(xiàn),讓現(xiàn)代社會(huì)中的每個(gè)個(gè)體的一切信息都無處可遁,處在被暴露的危險(xiǎn)之下,而這種權(quán)力的擁有者及行使者卻愈見隱秘。顯而易見,在大數(shù)據(jù)時(shí)代,權(quán)利保護(hù)、權(quán)力制衡等最核心的法律價(jià)值遭遇了巨大挑戰(zhàn)。
人工智能的強(qiáng)勢和霸道在于,其發(fā)展的基礎(chǔ)是大數(shù)據(jù),而較早進(jìn)入互聯(lián)網(wǎng)領(lǐng)域的階層成為了“大數(shù)據(jù)掌控者”,那么先進(jìn)入互聯(lián)網(wǎng)領(lǐng)域的嘗鮮者自然成為了人工智能領(lǐng)域的拓荒者。他們憑借互聯(lián)網(wǎng)先占的優(yōu)勢而取得了人工智能的優(yōu)勢,進(jìn)而利用人工智能領(lǐng)域的優(yōu)勢地位輕而易舉地介入包括農(nóng)業(yè)在內(nèi)的所有傳統(tǒng)行業(yè)并以絕對優(yōu)勢大占上風(fēng)。近年來,新型商業(yè)模式運(yùn)作下的“精準(zhǔn)農(nóng)業(yè)定點(diǎn)解決方案”以及“植物云”等科技新概念與日俱增,在新事物的試驗(yàn)階段,國家與社會(huì)均持有觀望的態(tài)度,根據(jù)其結(jié)果再選擇是否介入其中。殊不知,在結(jié)果發(fā)生之時(shí),也即是大數(shù)據(jù)掌控者的優(yōu)勢全面形成之時(shí)。
此外,人工智能對傳統(tǒng)行業(yè)最大的沖擊之一便是失業(yè)問題,大量單一、重復(fù)的工作將迅速被人工智能取代。雖然學(xué)術(shù)界已經(jīng)普遍認(rèn)為人工智能取代普通工作是必然,失業(yè)問題也將隨之而來,但當(dāng)下關(guān)于國家福利政策及相關(guān)法律的制定卻回避了這個(gè)問題,即使是國民收入方案,也僅僅是回應(yīng)了國家的收入及分配規(guī)則。人工智能帶來的失業(yè)潮僅僅是問題的表面,問題的核心在于失去了勞動(dòng)便讓人類失去了生活的意義。人工智能技術(shù)的進(jìn)步不僅未能讓人類如預(yù)想的一樣獲得解放、回歸自然,反而讓人類失去了勞動(dòng)意義進(jìn)而陷入了存在的虛無和迷惑。高科技高福利反而帶來了人的異化。
大數(shù)據(jù)掌控者所掌握的信息量遠(yuǎn)勝于公民個(gè)人。國家在治理現(xiàn)代化的進(jìn)程中,政府必然在信息資源上求助于這些占據(jù)上風(fēng)的大數(shù)據(jù)持有者。工具理性一定程度上消解了司法的意義,智慧管理在實(shí)際上削弱了司法的獨(dú)立地位,智慧應(yīng)用更是分化了司法平等;至于一些地方法院所做的司法大數(shù)據(jù)外包業(yè)務(wù),也侵蝕了司法公信力。在關(guān)涉大數(shù)據(jù)的領(lǐng)域,公私權(quán)力的邊界不再清晰,本該屬于公權(quán)力監(jiān)管的對象反而成為了合作伙伴,在高科技的飛速發(fā)展下,未來大數(shù)據(jù)持有者成為真正的權(quán)力享有者也未可知。掌控人工智能技術(shù)的階層能夠運(yùn)用人工智能技術(shù)解析一切數(shù)據(jù),并依據(jù)這些數(shù)據(jù)而作出對策。技術(shù)的掌控者能夠運(yùn)用人工智能技術(shù)進(jìn)行一切數(shù)據(jù)的解析,可以用之剖析公權(quán)力機(jī)構(gòu)的所有數(shù)據(jù),對政府決策、立法過程、法院判決進(jìn)行數(shù)據(jù)分析,從而迅速生成對策。這種誘導(dǎo)往往是以合理的方式進(jìn)行,可以隱秘到讓人無從覺察。人工智能將這種看不見的力量發(fā)揮到極致,讓法律規(guī)制與行政監(jiān)管無從下手,最終陷入了一個(gè)由“算法”而非法律統(tǒng)治人類社會(huì)的時(shí)代。然而算法作為一種程序,天然就帶有傾向性——它從設(shè)計(jì)出來伊始就是為了達(dá)到設(shè)計(jì)者的設(shè)計(jì)目的。此外,從法律制定的角度來看,人工智能剝奪了普通民眾通過民主協(xié)商制定法律規(guī)則的機(jī)會(huì),因?yàn)樵痉爆嵉牧⒎ǔ绦?、立法調(diào)查在人工智能面前被邊緣化了,人們被迫不斷地接受不能有任何更改和商榷的硬規(guī)則。
現(xiàn)代社會(huì)系統(tǒng)的不確定性和復(fù)雜程度無法通過科學(xué)計(jì)算來描繪和刻畫,其所展開的社會(huì)過程也讓人們無法預(yù)測,這導(dǎo)致現(xiàn)代社會(huì)的一大特點(diǎn)——“測不準(zhǔn)性”。我們的學(xué)術(shù)探討能否為即將到來的時(shí)代重建一個(gè)相對穩(wěn)定的視野并非問題的重心,因?yàn)槿斯ぶ悄軙r(shí)代是一個(gè)正在生成與發(fā)展的過程而非結(jié)果,這個(gè)過程需要通過種種層出不窮的技術(shù)革新等具象表達(dá)方能勾勒清晰。
法的價(jià)值是法的制定的必需,是法的實(shí)施的需求,是防止法的失效的屏障,是校正惡法的準(zhǔn)則,是法的演進(jìn)的動(dòng)因。安全也必然是未來人工智能時(shí)代法律體系的核心價(jià)值。通過對秩序價(jià)值的維護(hù)可以穩(wěn)定整個(gè)社會(huì)秩序,保障主體的合法權(quán)益不受侵害。人工智能遠(yuǎn)遠(yuǎn)超過人類智能甚至一切能力的可能性潛藏著極為嚴(yán)重的后果,這些巨大的風(fēng)險(xiǎn)使得立法者在制定法律規(guī)范時(shí)無法忽視。不僅人工智能的風(fēng)險(xiǎn)規(guī)制是立法者的重要考量因素,人工智能應(yīng)用的安全監(jiān)測、倫理規(guī)則均應(yīng)成為人工智能法律體系建構(gòu)的重要方面。未來的立法體系應(yīng)平衡創(chuàng)新與安全的立法價(jià)值。人工智能的立法體系必然體現(xiàn)鼓勵(lì)創(chuàng)新的價(jià)值導(dǎo)向,將“實(shí)踐理性”上升為“規(guī)劃理性”,在后工業(yè)時(shí)代設(shè)計(jì)出符合社會(huì)發(fā)展規(guī)律的價(jià)值。未來在謀劃國家發(fā)展整體戰(zhàn)略下,應(yīng)對大數(shù)據(jù)、網(wǎng)絡(luò)化、人工智能等一系列改變社會(huì)結(jié)構(gòu)的技術(shù)上作出戰(zhàn)略部署,須制定一套安全標(biāo)準(zhǔn)以防控可能的風(fēng)險(xiǎn),并形成長效的規(guī)制效用和監(jiān)管環(huán)境。
超級人工智能將最終呈現(xiàn)為只有一個(gè)核心主體的系統(tǒng)化內(nèi)存,人工智能體最終超越了擬人模式的初級階段而發(fā)生質(zhì)變,進(jìn)入上帝模式,而人類只有像思考“全能神”一樣去解讀超級人工智能,方能理解其本質(zhì)。但作為人類的產(chǎn)物,出現(xiàn)兩種以上的“全能神”人工智能不可避免,兩種近似于“一神教”的全能超級人工智能一旦出現(xiàn),戰(zhàn)爭便是必然了。故此,作為安全閘門的“哥德爾炸彈”必須被設(shè)置,以保證對人工智能的“阿喀琉斯之踵”的有效攻擊。但悖論隨即出現(xiàn)——若超級人工智能具有自我意識(shí),必然能夠通過自我學(xué)習(xí)找到使“哥德爾炸彈”失效的方法。
科幻大師阿西莫夫的“機(jī)器人三定律”實(shí)際上存在著巨大的缺陷,缺乏明確概念界定的定律模糊之處也導(dǎo)致了巨大漏洞。未來建構(gòu)的難題是機(jī)器倫理學(xué)難以作為機(jī)器倫理的基礎(chǔ)存在。阿西莫夫的三定律并不能成為AI安全研究者抑或機(jī)器倫理學(xué)者們的指導(dǎo)原則,原因在于義務(wù)倫理學(xué)直接套用在人工智能的應(yīng)用領(lǐng)域存在著按圖索驥之弊端,顯然是“拿著中世紀(jì)的地圖來行現(xiàn)代之旅”。實(shí)際上,阿西莫夫三定律本質(zhì)上存在著解釋疑難,又極難自洽,同時(shí)相互之間又是對抗的,而三定律的這些內(nèi)在缺陷無論通過修正還是補(bǔ)丁都很難克服。未來人工智能的倫理設(shè)計(jì)應(yīng)是合作性的、融洽的;而在道德準(zhǔn)則的設(shè)計(jì)技術(shù)上更應(yīng)采用間接規(guī)范的方式,因?yàn)殚g接規(guī)范可以允許失誤,當(dāng)系統(tǒng)誤讀或編錯(cuò)了倫理規(guī)范,能夠有彌補(bǔ)和恢復(fù)的機(jī)制,最終讓一套既合理又科學(xué)的倫理準(zhǔn)則生成。
全球風(fēng)險(xiǎn)社會(huì)下的公共危機(jī)治理,本質(zhì)上是一種文化治理,人類社會(huì)的文明進(jìn)程中要求對社會(huì)系統(tǒng)中的紛紜復(fù)雜的關(guān)系進(jìn)行合理調(diào)整,不斷完善組織能力,提升管理水平,最終達(dá)致社會(huì)整體的有序運(yùn)轉(zhuǎn)、和諧共生。在大數(shù)據(jù)、互聯(lián)網(wǎng)時(shí)代,經(jīng)濟(jì)發(fā)展速度、產(chǎn)業(yè)更新?lián)Q代頻率極快,雖然國家、政府在監(jiān)管方面作出了大量努力,但立法程序繁復(fù)、耗時(shí)冗長,使得法律的滯后性在“互聯(lián)網(wǎng)+”的時(shí)代更加凸顯。而倫理規(guī)范能夠?qū)ι鐣?huì)行為進(jìn)行先行預(yù)設(shè),對當(dāng)下變化的社會(huì)以及未來可能變化的社會(huì)關(guān)系作出相應(yīng)調(diào)整。故此,倫理討論是制定法律和政策的基礎(chǔ),對人工智能的倫理研究應(yīng)當(dāng)先于立法研究。
人工智能行業(yè)的崛起,僅僅實(shí)現(xiàn)單一專業(yè)領(lǐng)域的技術(shù)進(jìn)展是徒勞的,因?yàn)槭穷嵏残约夹g(shù)的技術(shù)突破,只有全方位推進(jìn)源于技術(shù)革新而發(fā)生的綜合性大變革舉措才是根本之道。在明確這一點(diǎn)之后,方能理解人工智能時(shí)代的挑戰(zhàn)并非僅僅限于技術(shù)和產(chǎn)業(yè)上,而更大的挑戰(zhàn)是在經(jīng)濟(jì)、社會(huì)、政治領(lǐng)域的公共政策選擇上。
建立在科層制基礎(chǔ)上的社會(huì)公共治理結(jié)構(gòu),能否恰到好處地應(yīng)對人工智能的發(fā)展和應(yīng)用過程中所激發(fā)的不確定性和不可預(yù)知性,顯然是一個(gè)難以回答又不得不面臨的深層問題。甚至,社會(huì)理性化的進(jìn)程將是科層制的擴(kuò)張的傳統(tǒng)命題也面臨著被顛覆的命運(yùn)。人工智能必須被嚴(yán)密監(jiān)管的原因在于其完全有可能演變?yōu)樯鐣?huì)公共危險(xiǎn)的主要源頭,當(dāng)無人駕駛汽車普及后,行駛過程中一旦失控,便會(huì)造成大規(guī)模連續(xù)性傷害。然而新型的問題并不同于飛行器、大壩甚至核能等20世紀(jì)公認(rèn)的公共危險(xiǎn)源,人工智能本質(zhì)就有極強(qiáng)的開放性,所有的個(gè)人和公司都能夠隨時(shí)隨地進(jìn)行人工智能的研發(fā)應(yīng)用。人工智能生產(chǎn)模式是開放的,未來發(fā)展的不確定性則是必然的,一旦缺乏有效規(guī)制與合理引導(dǎo),便會(huì)步入歧途。對于這樣的新狀況,建立在傳統(tǒng)科層制之上的治理結(jié)構(gòu)頗顯力不從心。人工智能的發(fā)展會(huì)沖擊舊有的治理系統(tǒng),其引發(fā)的全新社會(huì)重大議題也令舊有治理范式捉襟見肘,這就需要一套新的治理體系與更周密的治理工具。人工智能給治理帶來的巨大挑戰(zhàn),一方面反映出現(xiàn)有的治理體系于人工智能應(yīng)對乏力;另一方面人工智能帶來的新議題面臨著治理空白的境地。
美日的政策框架上更側(cè)重于科技創(chuàng)新的推動(dòng),在政策目標(biāo)上保持國家高科技在國際競爭中的優(yōu)勢地位。兩國在對待人工智能的風(fēng)險(xiǎn)性問題和公共安全問題上,監(jiān)管邏輯更傾向于“無需批準(zhǔn)式”的監(jiān)管策略,除非有足夠充分的證據(jù)能夠證明其危險(xiǎn)性,那么所有的高新科技和新商業(yè)運(yùn)作模式都被默認(rèn)為是安全的,也就不得禁止?!稙槿斯ぶ悄艿奈磥碜龊脺?zhǔn)備》作為美國國家戰(zhàn)略性的政策,通過常規(guī)性的應(yīng)對方法來強(qiáng)調(diào)風(fēng)險(xiǎn)評估與成本——收益原則的考量,判斷是否對人工智能技術(shù)的研發(fā)、應(yīng)用加以監(jiān)管。日本于2016年出臺(tái)了《第五期(2016—2020年度)科學(xué)技術(shù)基本計(jì)劃》,是多策并舉推進(jìn)人工智能的快速發(fā)展與應(yīng)用普及。英、法等國采用了“審慎監(jiān)管”的公共政策,著重強(qiáng)調(diào)安全性,新技術(shù)和新的商業(yè)模式在被證明完全無害后方能被允許使用。兩種路徑在應(yīng)對人工智能時(shí)代的治理挑戰(zhàn)上均有所長?!盁o需批準(zhǔn)式監(jiān)管”的優(yōu)勢在于為創(chuàng)新提供了制度動(dòng)力,“審慎監(jiān)管”出于審慎的政策考量而側(cè)重于安全。不過這兩種制度在人工智能的規(guī)制上依然存在不足?!盁o需批準(zhǔn)式監(jiān)管”是事后監(jiān)管,其預(yù)設(shè)的是事后監(jiān)管依賴于合規(guī)性判斷,是及時(shí)、有效的,而這在現(xiàn)實(shí)中顯然會(huì)有疏漏。而“審慎監(jiān)管”的進(jìn)路是奠基于人類行為的普遍因果關(guān)系,人類都無法對人工智能的行為與決策進(jìn)行預(yù)測,那么開發(fā)者更無法證明人工智能的無害運(yùn)行。
在這場史無前例的顛覆人類社會(huì)結(jié)構(gòu)的高科技運(yùn)動(dòng)中,政府的角色不能失位,須為人工智能的研究成果建立合乎公正的分享機(jī)制,避免資源掌控者的個(gè)人、團(tuán)體單獨(dú)受益。一項(xiàng)足以改變?nèi)祟惿詈蜕鐣?huì)結(jié)構(gòu)的高科技蘊(yùn)藏著巨大利益,誰為技術(shù)的掌控者、受益者更必須經(jīng)過審慎的論證,以保證人類社會(huì)的發(fā)展兼具效率與公平。政府的及時(shí)管理,能夠引導(dǎo)人工智能的良性發(fā)展,使之不偏離人類命運(yùn)共同體終極關(guān)懷的軌道。