張潔
【摘要】本文的寫作緣起是在閱讀了華東政法大學(xué)法律學(xué)院著名學(xué)者劉完權(quán)“人工智能時代的‘內(nèi)憂外患與刑事責(zé)任”一文后引友的有關(guān)強弱人工智能產(chǎn)品法律地位的一些思考。在“人工智能時代的‘內(nèi)憂‘外患與刑事責(zé)任”一文中,作者對強弱人工智能產(chǎn)品予以了定義并以刑法學(xué)的視角從刑事責(zé)任入手分別對其法律地位予以了深度剖析。關(guān)于弱人工智能產(chǎn)品,作者認(rèn)為因其不具有辨認(rèn)和控制能力,所以僅僅是人類改造世界的一種工具,不具有獨立的法律地位;而強人工智能產(chǎn)品因其具有辨認(rèn)和控制能力,可以自主決策和行動,所以承認(rèn)其主觀故意和過失等心理狀態(tài),具有獨立的法律地位。本文贊成其關(guān)于弱人工智能產(chǎn)品的觀點,但是,有關(guān)強人工智能產(chǎn)品的法律地位本文進行了一些新的思考:本文認(rèn)為不適宜承認(rèn)強人工強智能產(chǎn)品的法律地位,并且其應(yīng)用僅限于科技研究領(lǐng)域,為“弱人工智能產(chǎn)品”的完善提供技術(shù)支撐,而不能以“產(chǎn)品”的形式投放到市場交易中,予以推廣應(yīng)用。本文將從人類與強人工智能產(chǎn)品的關(guān)系、人類大腦結(jié)構(gòu)與強人工智能產(chǎn)品結(jié)構(gòu)、法律演進發(fā)展的社會性以及人類主觀意識內(nèi)容的社會性、強人工智能產(chǎn)品發(fā)展的科技性及其主觀意識內(nèi)容的算法、程序和深度學(xué)習(xí)性來論述給予強人工智能產(chǎn)品獨立的法律地位是不合理的,也是不可行的。
【關(guān)鍵詞】強人工智能產(chǎn)品強人工智能產(chǎn)品的科技性人類的社會性法律發(fā)展的社會性
一、人類與強人工智能產(chǎn)品的關(guān)系
華東政法大學(xué)劉憲權(quán)在“人工智能時代的‘內(nèi)憂“外患與刑事責(zé)任”一文中從刑法學(xué)的角度指出“以人工智能產(chǎn)品是否具有辨認(rèn)能力和控制能力,可以將其劃分為弱人工智能產(chǎn)品與強人工智能產(chǎn)品。弱人工智能產(chǎn)品不具有辨認(rèn)和控智能力,僅能在設(shè)計和編程的程序范圍內(nèi)實施行為,實現(xiàn)人類設(shè)計和編制程序的目的;強人工智能產(chǎn)品具有辨認(rèn)和控制的能力,能在設(shè)計和編制的程序范圍外實施危害社會的行為,其具有獨立的人格和刑事責(zé)任能力”,其觀點肯定了“強人工智能產(chǎn)品”獨立的法律地位。先不論“強人工智能產(chǎn)品”是否具有獨立的法律地位,本文并不贊成“強人工智能產(chǎn)品”以“產(chǎn)品”的形式流入市場予以大規(guī)模推廣應(yīng)用。2017年4月27日,大名鼎鼎的物理學(xué)家、劍橋大學(xué)教授史蒂芬·霍金(StevenHawking)在北京召開的主題為“天?工?開?物”的全球移動互聯(lián)網(wǎng)大會(GMIC)上發(fā)表了“讓人工智能造福人類及其賴以生存的家園”的演講,其中捉到“強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。我不得不說,是好是壞我們?nèi)圆淮_定。我認(rèn)為人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。但我們并不確定,所以我們無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。的確,我們擔(dān)心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。在人工智能從原始形態(tài)不斷發(fā)展,并被證明非常有用的同時,我也在擔(dān)憂創(chuàng)造一個可以等同或超越人類的事物所導(dǎo)致的結(jié)果:人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設(shè)計自身。人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代。這將給我們的經(jīng)濟帶來極大的破壞。未來,人工智能可以發(fā)展出自我意志,一個與我們沖突的意志?!比斯ぶ悄艿闹鸩綇姶蟠_實會帶來巨大的社會和經(jīng)濟效益,但是,“人類主導(dǎo)型”的社會的穩(wěn)定性更要求我們必須時刻保持清醒的頭腦,堅持辯證的思維,警惕強人工智能產(chǎn)品塑造一個“人工智能社會”,從而顛覆“人類社會”。阿西莫夫的科幻作品中,已經(jīng)開始擔(dān)憂機器控制的世界有可能對人類本身帶來巨大的威脅,因此,其首先提出了“機器人學(xué)三大法則”:①機器人不得傷害人,也不得見人受到傷害而袖手旁觀;②機器人應(yīng)服從人的一切命令,但不得違反第一定律;③機器人應(yīng)保護自身的安全,但不得違反第一、第二定律。仔細思考,其機器人“三大法則”本身就存在著明顯的矛盾:“一方面要求機器人應(yīng)該絕對服從于人,另一方面有要求機器人要具有一定的主觀判斷性,即在人的利益與機器人的利益發(fā)生沖突的情況下,應(yīng)該將人類的利益置于機器人的利益之上”。其矛盾之處正如同“要求一個人既要絕對服從于另一個人,又要有自己獨立的判斷能力”,二者是不可以共存的,若要真正將“強人工智能產(chǎn)品”提到與“人類”相同或者相似的地位,那么這種觀點似乎有點本末倒置的感覺,“人類”相比較其它動物而言,最明顯的特征是其“主觀能動性”,要將“主觀能動性”視為人類的“自然特征”的話,那其“服從性”就是人類的“社會特征”,是在特定的社會歷史時期或者特定的社會環(huán)境場合中形成的??梢?,“強人工智能產(chǎn)品”與“人類”本身就存在著天壤之別,“強人工智能產(chǎn)品”是先有的“服從性”,后有的“主觀能動性”;而“人類”則是先有的“主觀能動性”,后有的“服從性”。人類之所以能夠在地球上居于“主導(dǎo)地位”延續(xù)千萬年,正是其主觀能動性不斷進化的結(jié)果,要想“人類”的主導(dǎo)地位穩(wěn)固地延續(xù)下去,那么這種“主觀能動性”就不能受到任何的挑戰(zhàn),一旦強人工智能產(chǎn)品具備了可以自我進化,自我演變的主觀能動性之后,其一定會以其特有的方式不斷進化,人類將難以阻擋,正如同其它生物無法阻擋人類的進化一樣。因此,為了保證人類的絕對“主導(dǎo)”地位,在強人工智能產(chǎn)品“絕對服從性”與“主觀能動性”不可兼得的前提下,應(yīng)該舍棄強人工智能產(chǎn)品的“主觀能動性”,堅持其“絕對服從性”,其“主觀能動性”的探索僅限于科技研究領(lǐng)域,而不能以“產(chǎn)品”的形式予以推廣應(yīng)用,采用這樣的方式,既不影響我國與外國在人工智能方面的研究競賽,有利于人工智能技術(shù)的不斷提高,又有正確處理“人類”與“強人工智能產(chǎn)品”之間的關(guān)系,維掙“人類主導(dǎo)型”的社會的穩(wěn)定格局。
二、人類大腦結(jié)構(gòu)的復(fù)雜性與強人工智能產(chǎn)品智能復(fù)制的局限性
人類與強人工智能產(chǎn)品存在本質(zhì)區(qū)別,“正如人類的大腦是一個復(fù)雜而精致的系統(tǒng),盡管當(dāng)代神經(jīng)科學(xué)不斷深化我們對人腦的認(rèn)識,我們?nèi)匀徊荒芡耆私獯竽X的運轉(zhuǎn)機制”,對于人類大腦的運轉(zhuǎn)機制尚是一個未知數(shù),又怎敢斷言“機器人”大腦與“人類”大腦相同或者相似呢?因此,實現(xiàn)強人工智能產(chǎn)品完全等同于“人類”是不可能的,即使是在‘‘弱人工智能產(chǎn)品”上,“人工智能”也只能大致效仿“人類智能”的某些方面,而不能精確效仿。2016年5月7日,一位40多歲的企業(yè)家和科技愛好者JOs~ua Brown正坐在TeslaModels Sedan,這時,一輛拖車穿過了其道路。Tesla,一直致力于其自動駕駛系統(tǒng),但是其系統(tǒng)并沒有將白色的拖車于佛羅里達明亮,陽光的天空相區(qū)分。Brown先生也沒有及時地踩住剎車,他的Tesla以每小時74英里的速度立刻被撞死。試想,區(qū)分白色的拖車與明亮陽光的天空對于司機而言是十分簡單的,如果司機未將二者予以區(qū)分,那就是未能盡到合理注意的義務(wù),就會存在過錯,如果其過錯行為導(dǎo)致了財產(chǎn)或者人身損害的發(fā)生,其就應(yīng)該承擔(dān)侵權(quán)責(zé)任。但是,這里“合理注意義務(wù)”理論內(nèi)涵的前提基礎(chǔ)是基于“人”獨特的大腦結(jié)構(gòu)而言的,雖然并不知道人腦的獨特結(jié)構(gòu)是什么??v然自動駕駛系統(tǒng)有類似于人類的設(shè)計,但是,若以這樣的“合理注意義務(wù)”來要求自動駕駛系統(tǒng)的話,是不合理的,甚至有些苛刻。因此,從人類大腦結(jié)構(gòu)的復(fù)雜性與強人工智能產(chǎn)品“智能復(fù)制的局限性”這一角度來看,以“人類大腦結(jié)構(gòu)特征”為前提產(chǎn)生的法律概念無法準(zhǔn)確適用于“強人工智能產(chǎn)品”,因此,承認(rèn)“強人工智能產(chǎn)品”獨立的法律地位是不可行的;
三、法律發(fā)展的社會性、人類發(fā)展的社會性、強人工智能產(chǎn)品發(fā)展的科技性
具體的法律不僅是一種法學(xué)現(xiàn)象,其本質(zhì)是一種社會現(xiàn)象,只不過該社會現(xiàn)象在不同的歷史階段有不同的表現(xiàn),法律的根本屬性是社會性?!胺裳葸M”(Evolution of Law)意指某一個國家或者社會之中的法律制度,在整體上從落后狀態(tài)向先進狀態(tài)的不問斷卻是長期而緩慢的發(fā)展或者進步過程;“法律發(fā)展”也是一個整體性的概念,它指的是與社會經(jīng)濟、政治和文化等全面發(fā)展相適應(yīng)、相協(xié)調(diào)的,包括了法律制度的變遷、法律精神的轉(zhuǎn)換、法律體系的重構(gòu)等在內(nèi)的法律進步過程與趨勢。如果說法律演進表征的是法律制度從現(xiàn)在向過去回溯的整體上的變遷路徑與發(fā)生的動態(tài)過程,那么,“法律發(fā)展”更關(guān)注的是法律制度在當(dāng)下所發(fā)生的以及面向未來所可能發(fā)生的動態(tài)過程。法律作為社會調(diào)整以及控制的技術(shù),是人類對自身社會的性質(zhì)、經(jīng)濟、政治、文化以及其他社會關(guān)系及其客觀規(guī)律的科學(xué)認(rèn)識的結(jié)晶。社會發(fā)展引導(dǎo)與促進法律演進,他們是決定和推動法律演進的最終力量。但是,法律的演進與社會的整體發(fā)展又是相互適應(yīng)的,一方面,法律演進由社會發(fā)展所驅(qū)動,是社會發(fā)展的結(jié)果。沒有經(jīng)濟的發(fā)展、政治的發(fā)展和文化的發(fā)展,法律既無必要,也不可能。另一方面,法律演進對社會發(fā)展也起著引導(dǎo)、保障和推動作用。可見,法律與社會緊密相關(guān),其深深植根于社會整體以及在社會中生活的人類個體。
劉憲權(quán)在文章中提到:“雖然應(yīng)該承認(rèn)強人工智能產(chǎn)品具有成立故意或過失的主觀罪過判斷,應(yīng)與對自然人責(zé)任主體的主觀罪過判斷有所區(qū)別。原因在于,在認(rèn)定自然人責(zé)任主體的主觀罪過時,通常以一般人的認(rèn)識能力作為基本標(biāo)準(zhǔn)并結(jié)合行為人自身的特殊情況進行判斷。自然人責(zé)任主體形成對事物的認(rèn)識是靠學(xué)習(xí)和生活經(jīng)驗積累;而強人工智能產(chǎn)品形成對事物的認(rèn)識是靠程序、算法和深度學(xué)習(xí)而不是靠生活經(jīng)驗的積累,且設(shè)計者設(shè)計大部分強人工智能產(chǎn)品的初衷可能是為了讓其在特定領(lǐng)域中發(fā)揮作用,因此,強人工智能產(chǎn)品的認(rèn)識水平在很大程度上會被局限于特定領(lǐng)域,而缺乏對社會整體的認(rèn)識,其判斷是非善惡的標(biāo)準(zhǔn)也就有可能異于常人?!庇纱丝梢姡祟愔饔^意識內(nèi)容是形成于社會生活中,而強人工智能產(chǎn)品的主觀意識內(nèi)容是形成于算法以及程序中,首先,從二者與法律的聯(lián)系來看,法律與社會的聯(lián)系相比法律與算法和程序的聯(lián)系要更為直接,法律直接反映社會生活內(nèi)容,不管其滯后還是超前,而算法和程序本質(zhì)上是一種自然科學(xué),其是由人類植入到強人工智能產(chǎn)品中,并且這種植入往往需要一定的時間周期來研發(fā)和試驗,就算成功植入,也不町能與社會生活在人類頭腦中所反映的內(nèi)容一模一樣;就算達到一模一樣的理想狀態(tài),強人工智能產(chǎn)品以其自身結(jié)構(gòu)的特殊性,也不可能會完全依照人類的預(yù)期去活動,這樣一來,勢必會在同一社會狀態(tài)下出現(xiàn)兩種差異的“主流意識內(nèi)容”,用反映“人類意識內(nèi)容”的法律來規(guī)制“強人工智能產(chǎn)品”的意識內(nèi)容,無疑是不合理的,也是不公平的,會使人類陷于一種騎虎難下的尷尬境地,擾亂整個社會秩序。因此,鑒于法律演進發(fā)展的社會性以及人類深深植根于社會中,及強人工智能產(chǎn)品發(fā)展的科技性以及強人工智能產(chǎn)品深深植根于算法、程序以及深度學(xué)習(xí)功能中,以反映“社會生活”的“人類主觀意識內(nèi)容”的法律來規(guī)制反映“程序、算法以及深度學(xué)習(xí)功能”的“強人工智能產(chǎn)品的主觀意識內(nèi)容”是不合理的,也是不公正的。因此,從法律演進發(fā)展的社會性、人類發(fā)展的社會性、強人工智能產(chǎn)品發(fā)展的科技性角度來講,均不適宜承認(rèn)人工強智能產(chǎn)品獨立的法律地位,其應(yīng)用僅限于科技研究領(lǐng)域,為“弱人工智能產(chǎn)品”的研發(fā)與推廣應(yīng)用提供技術(shù)支撐,而不能以“產(chǎn)品”的形式投放到市場交易中,予以推廣應(yīng)用。
“弱人工智能產(chǎn)品”不同于“強人工智能產(chǎn)品”,因其不具有辨認(rèn)和控制能力,其完全可以作為一種人類改造世界的新型工具以“產(chǎn)品”的形式投放到市場中,予以推廣應(yīng)用。我們可以將弱人工智能產(chǎn)品看作是人體的延伸,其可以避免一些由于人為失誤與懈怠所造成的損失,也有利于解放勞動力,彌補人類自身技能的不足。與一般的產(chǎn)品相比,弱人工智能產(chǎn)品的優(yōu)勢在于其可以在某一方面完全替代人類自身的行為,達到人類預(yù)期的目的,如果將其合理應(yīng)用,將會實現(xiàn)霍金所言,用“人工智能”造福于人類及其賴以生存的家園。
參考文獻:
[1]張文顯.法理學(xué)[M].北京:高等教育出版社,北京大學(xué)出版社,2016.
[2]柴占祥,聶天心,Jan Becket.自動駕駛,改變未來[M],北京:機械工業(yè)出版社,2017.
[3]劉憲權(quán).人工智能時代的“內(nèi)憂”“外患”與刑事責(zé)任[J],東方法學(xué),2018.
[4]霍金GMIC演講全文:讓人工智能造福人類及其賴以生存的家園[Z].微信公眾號,201 7—11—26.
[5]Kartik Hosanager,Imran Cronk[J].哈佛商業(yè)評論(科技),2016.