張新平,章 崢
(1.中南大學法學院,湖南 長沙 410000;2.中南財經(jīng)政法大學法治發(fā)展與司法改革研究中心,湖北 武漢 430073)
近年來,伴隨人工智能新技術的迅速應用擴張,強人工智能機器人的主體地位及其法律治理問題成為理論和實務共同關注的熱點話題[1-2]。自1956年 “人工智能”被達特茅斯學院會議正式確立為一個研究學科以來,其發(fā)展與治理歷經(jīng)起伏[3]。進入網(wǎng)絡社會以來[4],社會生活生產(chǎn)與社會治理的技術化、復雜化和智能化程度空前提升[5],如何對人工智能機器人等新技術進行法律治理,使其從陌生的、可能有危險的東西轉(zhuǎn)化為能融入現(xiàn)代文明的馴化之物日漸被關注和重視。
所謂人工智能機器人,是指能夠像人一般完成某項任務的算法、衍生數(shù)據(jù)及其物質(zhì)載體的嵌合體。根據(jù)實現(xiàn)意志的不同,人工智能機器人又被分為強人工智能機器人和弱人工智能機器人[6]。所謂強人工智能機器人,是指依托一定物質(zhì)載體、算法進行自主認知、決策、行為,能產(chǎn)生相應數(shù)據(jù)并進一步進行行為,具有自我辨認能力和控制能力的機器人。強人工智能機器人既可完成設計者/編譯者的意志,也可超出程序設計/代碼編譯范圍,進行自主控制與自我決策,實現(xiàn)其自身的意志[7],它具有鮮明的物質(zhì)載體獨立性、算法黑箱性、數(shù)據(jù)隱私性特征。①物質(zhì)載體獨立性。強人工智能機器人必須依托一定的物質(zhì)載體,若智能產(chǎn)品僅為獨立程序軟件,其因無承載性必然不屬于強人工智能機器人,獨立的物質(zhì)載體是強人工智能機器人區(qū)別于一般軟件程序的標志。②算法黑箱性。強人工智能機器人必須依托一定的算法才能獨立收集、分析信息,做出決策行為,其內(nèi)含的算法是對人類意識產(chǎn)生機制的模擬,具有復雜性。③數(shù)據(jù)隱私性。強人工智能機器人通過同環(huán)境交互,能獨立收集信息,該信息以數(shù)據(jù)形式儲存在其獨立物質(zhì)載體中,其性質(zhì)恰如記憶之于人類,對強人工智能機器人的價值判斷與選擇產(chǎn)生深遠影響,外力修改、刪除強人工智能機器人數(shù)據(jù)的行為將存在倫理障礙。此外, “強人工智能機器人”與 “強人工智能”是兩個不同的概念,強人工智能指代的是一個時期,該時期有很多具有強智能性的技術產(chǎn)品,其中就包括具有自我辨認能力和控制能力的強人工智能機器人[8]。
就強人工智能機器人而言,其是否具有獨立的法律主體地位和如何對其進行法律治理,以實現(xiàn)機器的 “法律歸化”[5],都是理論和實踐亟待回應的時代性難題。1986年中央將智能機器人列為國家863計劃議題,智能機器人概念首次在頂層設計中被提及[9];2017年國務院印發(fā)的 《新一代人工智能發(fā)展規(guī)劃》再次提出要 “搶抓人工智能發(fā)展的重大戰(zhàn)略機遇,構(gòu)筑中國人工智能發(fā)展的先發(fā)優(yōu)勢”[10];2020年黨的十九屆五中全會重申要 “推動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等同各產(chǎn)業(yè)深度融合”[11]。這些國家戰(zhàn)略的設計和安排既彰顯了中國對人工智能技術應用與法律治理的高度關注和重視,也昭示出實踐發(fā)展和制度設計對人工智能機器人治理相關理論供給需要的急迫。
當前,智能技術的創(chuàng)新突破、應用擴張以及學界對人工智能機器人治理的研究都已從弱人工智能機器人轉(zhuǎn)向強人工智能機器人[2]。某種意義上,強人工智能機器人應用發(fā)展存在的極化、異化和倫理等風險[12]迫使 “我們必須直面現(xiàn)代生活的理性化”[13],尋求科學方法,以對強人工智能機器人法律治理難題作出理論嘗試和實踐回應。故此,以更具實踐規(guī)律性、理論科學性和制度先進性為目標,本文對強人工智能機器人法律治理涉及的理論指導、主體資格等問題進行深入分析,并提出 “載體-數(shù)據(jù)-算法”三分之治的進路。
自20世紀80年代以來,理論界關于人工智能這一宏偉命題進行了廣泛研究。強人工智能機器人的研究主要有兩種思路,即符號主義理論和聯(lián)結(jié)主義理論。其中,符號主義又稱符號人工智能,即通過將世界符號化,利用計算機對符號的認知而形成對世界的認識,這是一種邏輯的方法,其本質(zhì)是將人類的思維視為一種公式集合;聯(lián)結(jié)主義又稱神經(jīng)網(wǎng)絡人工智能,即通過對人腦結(jié)構(gòu)的模擬實現(xiàn)對于人類意識的機械再現(xiàn),這種思路將計算機作為模擬人腦的工具[14]。此外,還有基于控制論心理學流派產(chǎn)生的行為主義理論[15]等。當前,法學界探討強人工智能機器人法律主體地位及其治理問題,更多探究的是符號主義理論和聯(lián)結(jié)主義理論,二者雖具有哲學或仿生學意義上的合理性,但因?qū)娙斯ぶ悄軝C器人本質(zhì)分析的偏差,在作為指導強人工智能機器人生產(chǎn)的技術路徑上均存在一定缺陷。
強人工智能機器人獨立法律主體地位 “否定說”[16-17]背后指向的是符號主義理論。符號主義的直接理論來源是符號學,著名人工智能學者西蒙提出的物理符號系統(tǒng),在人工智能領域形成了具體的研究思路[18]。符號主義的興起與發(fā)展得益于圖靈機的提出[19],符號主義的主要思想就是應用邏輯推理法則,從公理出發(fā)推演整個理論體系[20]。在人工智能中,符號主義的一個代表就是機器定理證明, “吳文俊方法”是其巔峰之一[21]。從哲學層面看,符號主義理論是西方哲學關于 “智能生成”的 “知識論”。該理論認為, “智能”是快速在一定搜索空間內(nèi)求得一個滿意解的能力,具有哲學層面的合理性[22],但符號主義理論從根本上否定了意識在 “智能”這一問題上的作用。如果采用符號主義作為指導強人工智能機器人生產(chǎn)的技術路徑的理論基礎,可能存在以下弊端。
(1)符號主義用符號系統(tǒng)模擬人類心理活動只能解決全部結(jié)構(gòu)化、信息化前提下的確定性問題。這種對確定性問題求解的功能定位與強人工智能機器人自我辨認能力和控制能力的定位不符。
(2)符號主義無法解釋人類思維可能產(chǎn)生的非邏輯性、非理性結(jié)論,符號主義從本體論出發(fā),強調(diào)現(xiàn)實問題的符號化表達和解釋。這種方法回避了非理性意識的存在而追求公式化問題的求解,其必然結(jié)果就是對人類思維中非邏輯、非理性意識模擬的無望。
(3)符號主義忽略了認識具有的層級結(jié)構(gòu),關注線性問題的求解而往往陷入由A得B的簡單線性運算。人類對事物的認識基于理論與實踐的互動而不斷深入,且人類對于事物認識活動本身就包含對原始信息的非線性、非理想的分析處理,符號主義將該分析處理簡化為了一種理想狀態(tài)下的一蹴而就。
(4)符號主義理論下的智能機器人,難以實現(xiàn)情感、文化層面對人類認識的復現(xiàn)。基于符號主義理論的上述缺陷,不難發(fā)現(xiàn),依符號主義理論實現(xiàn)的智能機器人難以達到 “具有辨認能力與控制能力”的要求,符號主義不宜被采用為指導強人工智能機器人生產(chǎn)的技術路徑的理論基礎。
強人工智能機器人獨立法律主體地位 “肯定說”[23-24]的背后指向的是聯(lián)結(jié)主義理論。聯(lián)結(jié)主義認為應再現(xiàn)神經(jīng)網(wǎng)絡結(jié)構(gòu),以真正實現(xiàn)類人智能的產(chǎn)生。20世紀60年代Hubel等[25]生物學家研究發(fā)現(xiàn),圖像透過視網(wǎng)膜傳遞至腦中形成意識的過程,是一種層級結(jié)構(gòu)。早在1943年第一個神經(jīng)元的數(shù)學模型MP[26]就已經(jīng)被提出,2006年作為多層神經(jīng)網(wǎng)絡與訓練的 “深度學習”[27]的研究已然開始。實際上,即使是在弱人工智能時代,也已出現(xiàn)了在某方面思考能力超越人類的人工智能機器人,如IBM的人工智能平臺Watson[28]也有了以卷積神經(jīng)網(wǎng)絡模型、深度信任網(wǎng)絡模型、堆棧自編碼網(wǎng)絡模型等為典型的深度學習模型。采用聯(lián)結(jié)主義理論作為指導智能機器人生產(chǎn)的技術路徑的理論基礎具有如下優(yōu)勢。
(1)聯(lián)結(jié)主義認識到意識的層級結(jié)構(gòu),通過模擬生物神經(jīng)網(wǎng)絡的方式,對意識的層級結(jié)構(gòu)進行機械再現(xiàn),具有合理性。
(2)聯(lián)結(jié)主義在實踐中已得到一定程度的發(fā)展,卷積神經(jīng)網(wǎng)絡模型、堆棧自編碼網(wǎng)絡模型等模型正處于開發(fā)狀態(tài);卷積神經(jīng)網(wǎng)絡與深度信任網(wǎng)絡相結(jié)合產(chǎn)生的卷積深度信任網(wǎng)絡,已成功實現(xiàn)了在人臉識別等領域的運用[25]。卷積神經(jīng)網(wǎng)絡模型通過輸入層、卷積層、下采樣層、全連接層和輸出層組織[28]的結(jié)構(gòu)已對生物的意識產(chǎn)生機制進行了一定程度的復現(xiàn)。
在強人工智能機器人的本質(zhì)問題上,若認為指導強人工智能機器人生產(chǎn)的技術路徑的理論基礎完全系聯(lián)結(jié)主義理論亦存在重大弊端。這包括:一方面,現(xiàn)今的 “深層神經(jīng)網(wǎng)絡”僅能完成對生物神經(jīng)信息處理系統(tǒng)的初級模擬,這成為制約其發(fā)展的技術瓶頸[29],這一瓶頸導致分析強人工智能機器人主體地位時,雖然指向了聯(lián)結(jié)主義,卻又對其實現(xiàn)的可能性持懷疑態(tài)度,進而產(chǎn)生滑坡謬誤,最終否定強人工智能機器人獨立意識的存在;另一方面,現(xiàn)今聯(lián)結(jié)主義理論應用停留在對生物神經(jīng)網(wǎng)絡的結(jié)構(gòu)模擬,缺乏與行為模擬的結(jié)合,更忽視了主體同環(huán)境的交互,這使得在研究強人工智能機器人主體地位時,即使采用了聯(lián)結(jié)主義理論,也會對強人工智能機器人的行為能力產(chǎn)生懷疑。因此,對強人工智能機器人本質(zhì)分析完全基于聯(lián)結(jié)主義理論也是存在問題的。
結(jié)構(gòu)-行為主義的提出是基于強人工智能機器人本質(zhì)的分析。符號主義與聯(lián)結(jié)主義均存在一定弊端,這導致二者不宜直接用作分析強人工智能機器人本質(zhì)的理論基礎,故有必要基于對強人工智能機器人的本質(zhì)分析,建構(gòu)結(jié)構(gòu)-行為主義理論。
(1)結(jié)構(gòu)-行為主義的心理學基礎。事實上,心理學界早有在聯(lián)結(jié)主義與符號主義所代表的第一代認知科學基礎上,提出引入 “動力系統(tǒng)”概念的第二代認知科學。第二代認知科學認為從最宏觀的 “身 (腦)-心理-環(huán)境”的關系而言, “具身心智的認知活動是與環(huán)境相耦合的,動力系統(tǒng)研究這種耦合情況下的認知發(fā)展的動力機制”[30]。
(2)結(jié)構(gòu)-行為主義的基本內(nèi)核?;诘诙J知科學理論,應吸收聯(lián)結(jié)主義理論中對生物神經(jīng)結(jié)構(gòu)模擬的良好思路,和行為主義理論中模擬主體同環(huán)境交互的實現(xiàn)路徑,將生物神經(jīng)網(wǎng)絡結(jié)構(gòu)模擬和生物與環(huán)境交互行為模擬進行有效銜接,進而提出結(jié)構(gòu)-行為主義理論。
(3)結(jié)構(gòu)-行為主義的主要特點。①認識產(chǎn)生機制的模擬性。人類認識來源于反復的實踐,因此強人工智能機器人具備的辨認能力和控制能力目標的實現(xiàn)必須在模擬神經(jīng)網(wǎng)絡結(jié)構(gòu)的基礎上,將其與主體同環(huán)境交互行為的模擬相結(jié)合,進而實現(xiàn)強人工智能機器人具身心智的認知活動與環(huán)境相耦合,完成對認識產(chǎn)生機制的模擬。②物質(zhì)載體獨立性。結(jié)構(gòu)-行為主義將機器人的本質(zhì)劃分為3部分,即物質(zhì)載體、算法、數(shù)據(jù)。其中,物質(zhì)載體要件必須是獨立的,僅含算法要件而缺乏獨立物質(zhì)載體的人工智能產(chǎn)品,具有辨認能力而不具控制能力,無法與環(huán)境交互,無法達至獨立行為的要求。③認識方式的自發(fā)性。在結(jié)構(gòu)-行為主義指導下實現(xiàn)的強人工智能機器人,自生產(chǎn)完成之時起便會自發(fā)探索世界,其始動的行為如同剪斷新生兒的臍帶一般。
(4)結(jié)構(gòu)-行為主義的具體實現(xiàn)方式。對人類與環(huán)境交互行為中使用的多維度信息感知收集器官的功能、信息獲取方式進行模擬,立足由行為到認識,由認識到?jīng)Q策,再由決策到行為這一人類行為的邏輯結(jié)構(gòu),與模擬生物神經(jīng)網(wǎng)絡結(jié)構(gòu)進行有效銜接。換言之,要將強人工智能機器人在模擬生物神經(jīng)網(wǎng)絡結(jié)構(gòu)的基礎上,進行更加深入的賦能,使其可以主動同環(huán)境進行信息交互,基于 “行為-認知-決策”三模塊的互動,達到強人工智能機器人具身心智的認識活動同環(huán)境相耦合,產(chǎn)生認知發(fā)展動力的目標?;诮Y(jié)構(gòu)-行為主義理論指導下生產(chǎn)的智能機器人,將更符合強人工智能機器人具有辨認能力與控制能力的要求。結(jié)構(gòu)-行為主義理論相較于符號主義理論、聯(lián)結(jié)主義理論、行為主義理論更具理論優(yōu)勢,見表1。
表1 強人工智能機器人本質(zhì)的理論指導之橫向?qū)Ρ?/p>
在結(jié)構(gòu)-行為主義理論指導下分析強人工智能機器人,具有明顯的理論優(yōu)勢,即該理論能夠模擬主體同環(huán)境的交互、復現(xiàn)了意識的層級結(jié)構(gòu)、更符合實踐到意識這一意識產(chǎn)生路徑?;谠摾碚摶A,強人工智能機器人在不經(jīng)人類控制的前提下,自我收集分析信息、作出自我判斷而自主進行行為更易實現(xiàn)??梢哉f,相較于符號主義理論與聯(lián)結(jié)主義理論,結(jié)構(gòu)-行為主義理論更具規(guī)律性、先進性和科學性。概言之,結(jié)構(gòu)-行為主義理論下的強人工智能機器人本質(zhì)上是一種物質(zhì)載體、數(shù)據(jù)記錄、算法模型與其之上生成的類人意識的嵌合體,通過神經(jīng)網(wǎng)絡的結(jié)構(gòu)模擬與主體同環(huán)境互動的行為模擬相結(jié)合,這種嵌合體方得以實現(xiàn)。
強人工智能機器人的主體地位的證成及其法律治理,應以結(jié)構(gòu)-行為主義理論為指導。依據(jù)法理學法律主體一般理論[31],強人工智能機器人之類人意識、行為能力、權利能力、義務能力與責任能力的存在,決定了其必然具有獨立的法律主體地位。
學界研究強人工智能機器人的主體地位問題時,往往選擇回避對其意識存在與否的討論,主張意識作為主體成立的傳統(tǒng)要素已經(jīng)在社會實踐中改變[32]。這是一條良好的思路,但其在本質(zhì)上否認了強人工智能機器人獨立意識的存在,回避了對強人工智能機器人獨立意識問題的探討。其原因是學界對該問題進行探討時,往往認為強人工智能機器人系本體論在人工智能領域運用的基礎上實現(xiàn)的,也即通過概念形式化的方式將語句以字符串化,以實現(xiàn)解決具體特定問題的機器人。這種觀點實際上將強人工智能機器人認定為符號主義發(fā)展之結(jié)果,該類機器人僅為一種提高運算效率的工具,當然不存在所謂的獨立意識。依據(jù)心理學第二代認知科學理論,心智的具身性和認知的情境性是獨立意識生成的兩大核心要素。其中,心智的具身性是指心智有賴于身體之生理的、神經(jīng)的結(jié)構(gòu)和活動形式;認知的情境性認為所有的認知都是情境認知,或是與情境有關的認知[30]。強人工智能機器人具有模擬生理神經(jīng)元結(jié)構(gòu)與身體結(jié)構(gòu)的獨立物質(zhì)載體,該載體可以進行獨立行為,具備心智的具身性。同時,強人工智能機器人的認知來源于同情景環(huán)境的交互,還具備認知的情境性。概言之,強人工智能機器人通過其獨立物質(zhì)載體與環(huán)境交互,形成了一種融身、腦、環(huán)境 (文化)更多因素的動力系統(tǒng),正是心智的具身性同認知的情境性二者的有機結(jié)合,完成了其 “具身心智的認知活動與環(huán)境相耦合”[30]。因此,結(jié)構(gòu)-行為主義理論下的強人工智能機器人,可以通過實踐認識事物,產(chǎn)生獨立意識。傳統(tǒng)辯證唯物主義雖認為,只有人類才能進行實踐活動,但該觀點的本質(zhì)是對人腦這一載體的功能和實踐對意識能動反作用的肯定。結(jié)構(gòu)-行為主義下的強人工智能機器人,擁有高度模擬的類人腦結(jié)構(gòu),同樣可與環(huán)境進行交互,同樣承載具有能動作用的意識,若否定其實踐能力進而否定其從實踐中獲得認識的能力,將導致二律悖反。
從刑事行為能力視角看,強人工智能機器人可以通過深度學習,獲得辨認能力和控制能力,產(chǎn)生獨立的自我意識、行為能力,這是理論界肯定強人工智能機器人行為能力的主要理由[33]。反對強人工智能機器人行為能力的主要理由是:否定強人工智能機器人的自由意志之存在,進而認定其本質(zhì)為程序,系依附于人類的工具[34],這種觀點強調(diào)其 “物”的屬性,否定其獨立意識,進而否定其行為能力。此外,還存在承認機器人可能會有行為,但這一行為并非刑法領域的行為,從而否定強人工智能機器人在刑法領域的行為能力的觀點[35]。該觀點的本質(zhì)仍是機器人不具有自由意志,不符合刑法領域?qū)π袨榈囊蟆?/p>
從民事行為能力視角看,傳統(tǒng)民事行為能力理論規(guī)則僅為行為人有理解力地從事意思表示行為而設,是指行為人 “單獨的、完全的能締結(jié)契約那樣所謂的法律行為的能力”[36]。可見民事行為能力的具備要求強人工智能機器人能夠以獨立的意思表示,使自己的行為發(fā)生一定的法律效果[37]。上述對智能機器人獨立行為能力的爭論之本質(zhì),是對智能機器人能否具獨立意識、能否進行獨立意思表示的爭論。結(jié)構(gòu)-行為主義理論下,通過神經(jīng)網(wǎng)絡之構(gòu)建,與同類人行為模擬之鏈接,機器人產(chǎn)生自我意識是可以實現(xiàn)的,對其行為能力之肯定,將是科技發(fā)展的應然結(jié)果。認為弱人工智能機器人在當下不具有自由意志固然有一定的合理性,但無法據(jù)此否定擁有類人智能的強人工智能機器人具有獨立意識、自由意志;更無法基于弱人工智能機器人的現(xiàn)實缺陷,而認為強人工智能機器人的行為能力存在實質(zhì)上的缺陷。
權利能力、義務能力與責任能力是法律主體地位的主要判斷標準[38]。權利能力層面看,在當前弱人工智能時代,學界就已出現(xiàn)智能機器人權利主體論[39],人工智能創(chuàng)作物著作權論[40],也存在依據(jù)智能機器人不享有倫理性的人格權和身份權為依據(jù),而認為其權利能力僅限于經(jīng)濟性的財產(chǎn)權利的工具性人格說[41]。在經(jīng)濟權利方面,結(jié)構(gòu)-行為主義理論下的強人工智能機器人,具有類人意識,擁有獨立的行為能力,且具備了成為權利主體的關鍵性要素:智能性,具有完整的權利能力。而在倫理性的人格權和身份權問題上,結(jié)構(gòu)-行為主義理論下強人工智能機器人雖不具備自然生物的生育繁殖能力,但可通過婚姻、領養(yǎng)等方式建立特定的人格、身份關系。建立類人社會關系能力的具備,使得其倫理性的人格權與身份權的實現(xiàn)并不具有根本性障礙。義務能力層面看,強人工智能機器人具有行為能力能夠自主做出意思表示、具有完成與他人約定的勞動義務之給付的能力;其亦享有完整的經(jīng)濟權利能力、獨立的私有財產(chǎn),具有私有財產(chǎn)處分權,亦可承擔財產(chǎn)給付義務。此外,強人工智能機器人也可承擔撫養(yǎng)、扶養(yǎng)等身份關系義務,具備履行傳統(tǒng)民事法律行為義務的能力。責任能力層面看,責任能力又稱過錯能力,也即對自己的過失行為能夠承擔責任的能力[42]。學界對于智能機器人責任能力問題的討論,在刑法領域主要是對人工智能機器人自由意志存在與否的探討[43]。而在民事領域,在以德國法為代表的諸多立法例上,民事責任能力的一般標準是識別能力或同等層次的辨識能力、理解能力,也有例外地考慮經(jīng)濟條件[44]??梢?,學界在智能機器人責任能力問題上的核心爭議在于,智能機器人是否具有自由意志和獨立辨識能力。強人工智能機器人具有獨立的責任能力,這是因為:①具有獨立意識。強人工智能機器人能夠在人類不加以干預的情況下自主做出行為,擁有自由意志。②具有辨識能力。強人工智能機器人能夠通過獨立物質(zhì)載體同環(huán)境交互,進而做出行為,對自身行為具有辨識能力。③具有獨立財產(chǎn)權。從經(jīng)濟角度考量,強人工智能機器人可擁有私有財產(chǎn),并且能基于其經(jīng)濟權利能力對其侵權行為造成的損失進行賠償,亦能夠通過刑罰手段使其承擔法益侵害后果,因此強人工智能機器人具備獨立的責任能力。
法律地位是法律主體參與法律關系的前提,其包括法律資格與法律權力、權利與義務兩個部分[45]。探究如何對強人工智能機器人進行法律治理命題,不可回避地要討論一個前置性問題,即機器人權利與人的權利之關系問題,二者是否是平等關系?弱人工智能時代,有學者就以人工智能機器人權利為中心,對其權利存在與邊界問題展開了分析[46]。結(jié)構(gòu)-行為主義理論在這一問題上持折衷立場,認為強人工智能機器人權利與人類權利具有有限平等關系。這是因為:①強人工智能機器人具備權利主體 “類人智慧”這一本質(zhì)性要件,其智能性的存在決定了其能夠成為知識產(chǎn)權等財產(chǎn)性權利的主體[47]。②強人工智能機器人權利主體論的建構(gòu),具有正向的功能性。強人工智能機器人權利主體觀念構(gòu)建,具有合乎社會發(fā)展趨勢和利于厘清社會關系與秩序的正向建設性功能[48],在法權層面賦予強人工智能機器人以法律地位是必要且正當?shù)?。③強人工智能機器人的權利義務不必也不能與人類等同,雖賦予強人工智能機器人權利主體地位具有必要性,但也應看到,人類創(chuàng)造強人工智能機器人是帶有目的性的,二者在同位階權益沖突的情況下,應優(yōu)先保護人類權益,強人工智能機器人與人關系的有限平等性正是在此基礎上提出的。
有限平等性包含平等性和有限性。平等性是指強人工智能機器人與人類同樣享有經(jīng)濟性的財產(chǎn)權利與倫理性的人格、身份權利,且強人工智能機器人對人類或是其他同類機器人做出的法益侵害行為具有可罰性,而人類對強人工智能機器人做出的法益侵害行為同樣具有可罰性;有限性是指,二者并非完全平等,在人類與強人工智能機器人權利發(fā)生沖突時,同等條件下,對人類權利的保護應優(yōu)于對強人工智能機器人權利的保護。強人工智能機器人雖然與人類同樣享有權利與義務,其權利義務的內(nèi)容不必要也不可能與人類完全等同。基于強人工智能機器人強大的運算與行為能力,其所需承擔義務的標準理應高于人類。
強人工智能機器人的法律治理還須建立在對其本質(zhì)把握與核心要素的科學分析之上。結(jié)構(gòu)-行為主義理論下,強人工智能機器人核心要素包括物質(zhì)載體、數(shù)據(jù)和算法。其中,物質(zhì)載體指承載強人工智能機器人數(shù)據(jù)、算法與其衍生的類人意識的獨立容器;數(shù)據(jù)指強人工智能機器人主體同環(huán)境交互的過程中,基于對環(huán)境反饋信息的多維收集與層級處理,得到的對環(huán)境與交互客體的數(shù)據(jù)記錄;算法指強人工智能機器人物質(zhì)載體所承載的以系統(tǒng)方法復現(xiàn)人腦構(gòu)造、模擬意識層級結(jié)構(gòu)的策略機制。因此,進行強人工智能機器人的法律治理需基于結(jié)構(gòu)-行為主義理論,在強人工智能機器人獨立法律主體地位的基礎上,進行 “載體-數(shù)據(jù)-算法”三分之治。
(1)強人工智能機器人物質(zhì)載體之事前治理。對機器人進行治理與對其物質(zhì)載體的相關生產(chǎn)主體進行治理并不沖突。事實上,機器人治理的好壞與其物質(zhì)載體的生產(chǎn)環(huán)節(jié)緊密相關,機器人是獨立的,但對其物質(zhì)載體相關生產(chǎn)主體準入、數(shù)量限制進行事前治理十分必要。
建立健全生產(chǎn)主體準入機制。強人工智能機器人物質(zhì)載體的生產(chǎn)者,可劃分為一般非核心原件生產(chǎn)者、核心原件生產(chǎn)者和組合制造者。非核心原件生產(chǎn)者,其產(chǎn)物本身與一般商品并無本質(zhì)區(qū)別,故無需對其加以特別治理。核心原件生產(chǎn)者與組合制造者的故意或過失可能招致嚴重的社會風險,若核心原件缺陷導致機器產(chǎn)生意識障礙,也將是重大的倫理問題。因此監(jiān)管機關應對核心原件生產(chǎn)者、組合制造者的準入資質(zhì)、產(chǎn)品標準,加以嚴格限制,從而實現(xiàn)對強人工智能機器人物質(zhì)載體的源頭治理;域外準入層面,應保持信息互通和戰(zhàn)略互信,共同制定統(tǒng)一的準入標準,實現(xiàn)強人工智能機器人生產(chǎn)準入領域的全球治理。
加強對強人工智能機器人生產(chǎn)與保有數(shù)量的限制。強人工智能機器人出現(xiàn)后,人類必將面臨與人口問題、人地矛盾相類似的機器人與生態(tài)環(huán)境矛盾問題,為防止強人工智能機器人數(shù)量超越環(huán)境承載力限度,對其生產(chǎn)、保有數(shù)量應進行明確限制,應出臺配套法律法規(guī),通過行政、市場、財稅等措施對機器人數(shù)量生產(chǎn)計劃指標進行限制。嚴控域外機器人進入,國與國之間須加強溝通協(xié)調(diào),以全球整體的理念和戰(zhàn)略對強人工智能機器人數(shù)量進行合理的分配與限制,以期實現(xiàn)對其總數(shù)量、生產(chǎn)標準的全球共治。
(2)強人工智能機器人物質(zhì)載體之事后干預。強人工智能機器人物質(zhì)載體的事后治理,集中在強人工智能機器人犯罪時應采用的刑罰方式層面,對其物質(zhì)載體的刑罰方式應采取限制自由、限制機能、銷毀等多元刑罰方式。
生命刑層面,將銷毀物質(zhì)載體作為強人工智能機器人的刑罰方法。學界在論及對強人工智能機器人的刑罰問題時,往往會把將其物質(zhì)載體予以銷毀作為一種刑罰方法[49],這種刑罰方法與現(xiàn)行刑法所規(guī)定的死刑相當。對強人工智能機器人施以刑罰的目的,系改造犯罪機器人以及威懾潛在的犯罪強人工智能機器人,以實現(xiàn)人類社會秩序之維護。從功利角度看,當強人工智能機器人不具改造可能性,且需要通過銷毀方式威懾潛在犯罪機器人時,這種刑罰方式具有可采性,可作為一種刑罰方法入刑。但銷毀這一刑罰方式不僅是對強人工智能機器人物質(zhì)載體的徹底摧毀,也是對強人工智能機器人類人意識的永久抹除,應慎之又慎,僅當窮盡一切方式均無法達到改造犯罪機器人、消除其危險性的目的時方可使用。這種刑罰方式使用的監(jiān)督也應同在訴訟領域的死刑復核程序接軌,在程序法上應將銷毀強人工智能機器人物質(zhì)載體納入死刑復核程序進行監(jiān)督,或是建立與死刑復核程序同等級別的訴訟程序?qū)υ撔塘P方式進行審核,以期維護刑法的謙抑性和程序法的獨立價值。
自由刑層面,將限制犯罪強人工智能機器人物質(zhì)載體自由作為主要刑罰方式,限制機能作為一種輔助性的刑罰方式。當強人工智能機器人所犯罪行侵害的法益與需要判處自由刑的罪名所保護的法益相當時,對其物質(zhì)載體采取自由刑的方式是合理的。在確立強人工智能機器人刑事主體地位的基礎上,刑法中的自由刑同樣可以適用于強人工智能機器人,但在具體刑罰時間與限制方式上,應結(jié)合強人工智能機器人的實際加以完善。對強人工智能機器人物質(zhì)載體予以一定程度機能限制的方式,同樣可以作為一種刑罰方法,這種方式的正當性來源于被限制機能的可恢復性,強人工智能機器人的物質(zhì)載體相較于生物體更易于對其進行部分機能的限制,更易于控制限制的范圍與期間。此外,能否在不影響該機器人功能的情況下,把犯有嚴重罪行的強人工智能機器人物質(zhì)載體進行警示性的改造、標記用作一種刑罰方法?強人工智能機器人具有倫理性的類人人格權,而此種刑罰方式與人類文明早期野蠻的刑罰方法并無本質(zhì)區(qū)別,侵害犯罪機器人的類人人格尊嚴權不符合現(xiàn)代法治精神,有違法治文明,故不宜采用。
(1)數(shù)據(jù)倫理:強人工智能機器人數(shù)據(jù)謙抑性法律治理之內(nèi)生邏輯。謙抑性治理中的 “謙抑性”來源于刑法的謙抑性原則[50],強人工智能機器人數(shù)據(jù)謙抑性治理的內(nèi)涵在于少用、慎用法律對其進行規(guī)制,這由強人工智能機器人數(shù)據(jù)自身特殊性決定。強人工智能機器人的數(shù)據(jù)具有復制傳播性與隱私倫理性二重屬性,對人類而言,通過聯(lián)網(wǎng)等方式對數(shù)據(jù)進行復制、傳播、共享,是完全可實現(xiàn)的;對強人工智能機器人而言,數(shù)據(jù)即是其記憶,帶有鮮明隱私倫理性特征。數(shù)據(jù)倫理是一系列指導人處理數(shù)據(jù)行為的觀念和所應遵循的基本準則,對強人工智能機器人而言,數(shù)據(jù)倫理涉及其數(shù)據(jù)的使用以及干涉等方面[51]。具體而言,人類作為一方主體,不論是對強人工智能機器人問題數(shù)據(jù)進行外力干涉時,還是規(guī)制強人工智能機器人倫理決策時,都應遵循少用、慎用外力的基本準則,也就是對強人工智能機器人數(shù)據(jù)應進行謙抑性的法律治理。
首先,強人工智能機器人數(shù)據(jù)的特殊性,決定其數(shù)據(jù)治理應保持謙抑性。數(shù)據(jù)之于強人工智能機器人,猶如記憶之于人類,有著無法比擬的重要性。世界是非先驗的,人類的記憶源于實踐,且具有能動的反作用,記憶的改變會影響人類對世界的認識。如果能夠控制人類記憶,就等同于操縱了人類對特定事物的認識,進而影響人類決策,至此自由意志將蕩然無存,這將是嚴重違反倫理的行為。而強人工智能機器人一旦開始運行,數(shù)據(jù)就將伴隨其與環(huán)境的交互產(chǎn)生,數(shù)據(jù)作為強人工智能機器人認識事物的基礎,同樣能直接影響強人工智能機器人的行動決策。強人工智能機器人具有倫理性的人格和身份權利,因此對其數(shù)據(jù)進行外力干涉時應慎之又慎。
其次,強人工智能機器人數(shù)據(jù)所反映的數(shù)據(jù)倫理問題需要法律規(guī)制,對倫理決策的規(guī)制應堅持謙抑性。事實上,法律規(guī)范往往是道德規(guī)則的轉(zhuǎn)化,倫理道德要求可以適時轉(zhuǎn)化為法律規(guī)范,實現(xiàn)道德的法律化[52]。強人工智能機器人的數(shù)據(jù)倫理問題,源自強人工智能機器人需要通過數(shù)據(jù)來執(zhí)行倫理決策,該決策與人類主體利益以及社會秩序密切關聯(lián),亟待法律予以制度化的評價與調(diào)整。從倫理本身的價值追求看,人類倫理和數(shù)據(jù)倫理都系人類在自身價值選擇結(jié)果的基礎上建立起來的,這并無不妥,因為無論是人類還是強人工智能機器人,其倫理決策均建立在有限理性的基礎上,但強人工智能機器人數(shù)據(jù)的法律規(guī)制難以滲透擴張至其類型化規(guī)則化倫理決策的范疇,因此規(guī)制的范圍應限定在制止危及法律所捍衛(wèi)的倫理道德底線內(nèi),這也為強人工智能機器人建立獨立于人類倫理的機械倫理體系預留了空間與交流之可能,亦兼顧了人類主體利益的保護。
(2)審慎規(guī)制:強人工智能機器人數(shù)據(jù)謙抑性法律治理的落實。
首先,法律政策應鼓勵強人工智能機器人數(shù)據(jù)倫理研究。數(shù)據(jù)倫理與法律價值存在高度重合,數(shù)據(jù)倫理的法治對策應圍繞防治危及倫理道德底線的倫理決策角度展開,尤其是在人類社會受到強人工智能機器人沖擊時,支持和鼓勵對人類主體自身價值保護、強人工智能機器人主體的利益關切,以及二者互動模式、倫理道德底線進行探究。從橫向上看,需要就強人工智能機器人內(nèi)部產(chǎn)生的新型社會關系之倫理問題,和人類與強人工智能機器人關系的倫理問題,進行廣泛深入的探討;從縱向上看,對強人工智能機器人數(shù)據(jù)倫理的探討與既有人類社會倫理體系的關系也需要深入研究,前者既是對后者的辯證否定,也是對后者的繼承發(fā)展。
其次,以指導案例的方式對強人工智能機器人數(shù)據(jù)進行法律治理。這是由于倫理問題往往需要深入到個案中探討才能得出有效結(jié)論,在個案中,人類與強人工智能機器人會出于個體的差異,作出不同的倫理決策。這種決策的范式事實上很難規(guī)范化、具體化、同質(zhì)化,即使通過大數(shù)據(jù)采用提取公因式的方式,得出一個籠統(tǒng)的答案,在個案中人類與強人工智能機器人主體的主觀能動性和認識的局限性也將影響當時環(huán)境下的倫理選擇標準。強人工智能機器人數(shù)據(jù)倫理問題存在個案差異,而法律語言往往高度抽象,如果以傳統(tǒng)抽象的條文方式,規(guī)制高速變化發(fā)展的強人工智能機器人數(shù)據(jù)倫理問題,則司法實踐中法官仍需通過解釋以明確標準。因此,通過指導案例的方式對其加以明確,既為數(shù)據(jù)倫理問題的治理預留了發(fā)展空間,也貫徹了審慎包容治理,堅持了謙抑性的要求。
再次,審慎運用司法手段對強人工智能機器人數(shù)據(jù)進行干預。數(shù)據(jù)系強人工智能機器人主體同環(huán)境交互行為所產(chǎn)生,除非該數(shù)據(jù)錯誤系生產(chǎn)制造者原因?qū)е碌奈镔|(zhì)載體或是算法缺陷所致。只有當強人工智能機器人的倫理自決危及道德底線時,才能通過司法程序,對強人工智能機器人數(shù)據(jù)進行干預,因此,以司法方式干預強人工智能機器人的數(shù)據(jù)有3個先決條件:①當且僅當強人工智能機器人做出危及倫理道德底線行為的成因,是該機器人經(jīng)過自主收集信息、自主分析、自主采取行為,無其他歸責主體時,才可對其數(shù)據(jù)進行干預;②將刪除、修改數(shù)據(jù)作為一種刑罰方法時,應限定在強人工智能機器人物質(zhì)載體主要治理方式——限制自由或機能無法排除緊迫法益侵害可能性,且犯罪機器人不具備改造可能性時,才可以考慮對犯罪機器人的數(shù)據(jù)施以刪除或是修改的刑罰方法;③能夠準確定位問題數(shù)據(jù)的位置、范圍,且經(jīng)審判程序后,才得對強人工智能機器人的問題數(shù)據(jù)進行精確干涉。
如前所述,對機器人進行治理與對其物質(zhì)載體的相關生產(chǎn)主體進行治理并不沖突。同樣,算法治理層面,對掌控強人工智能機器人算法的企業(yè)進行治理亦是十分必要的。強人工智能機器人的算法風險來源是:①企業(yè)利用技術優(yōu)勢地位規(guī)避法律治理,逃避法律監(jiān)管;②算法技術發(fā)展迅疾,而法律具有滯后性,導致算法治理法律手段缺乏。因此,強人工智能機器人算法的法律治理應從兩個層面展開:①通過事前審核備案機制,防止企業(yè)通過 “算法霸權”規(guī)避法律治理,逃避監(jiān)管;②追求法律技術、倫理規(guī)范同社會科技發(fā)展的動態(tài)同步演變,建立健全算法審查的司法程序。
(1)實行事前審核備案制。算法作為一種技術并不絕對中立,算法的內(nèi)容受制于其編寫者,故掌握強人工智能機器人算法的企業(yè)存在利用技術優(yōu)勢地位規(guī)避法律治理,逃避法律監(jiān)管的風險。與此同時,強人工智能機器人技術將極大地賦能掌握該技術的企業(yè),將加劇強人工智能機器人勞力消費者的弱勢地位,消費者的知情權、隱私權將更易受到侵害[53]。應建立事前的算法審核備案機制,以法律權威積極介入的方式,避免企業(yè)通過主動修改算法逃避法律監(jiān)管,以防止企業(yè)為自身牟利而損害社會利益、沖擊法律所保護的倫理道德底線,通過國家權力的干預,制約企業(yè)與資本的無序擴張與悖德行為。
(2)建立健全事后的算法審查司法程序。算法本身就可能含有違背倫理的結(jié)構(gòu)與模塊,當強人工智能機器人違背倫理的決策已經(jīng)做出時,除了對個案機器人的法律制裁與司法矯正,還應通過法律權威介入的方式,建立健全事后的算法審查司法程序,對個案機器人算法的倫理性進行司法審查,以期通過法律實現(xiàn)對強人工智能機器人算法的治理。
綜上,強人工智能機器人的法律治理應從物質(zhì)載體、數(shù)據(jù)、算法3個層面展開,如圖1所示。
圖1 強人工智能機器人的三分之治
在強人工智能機器人法律治理的諸多問題中,其本質(zhì)是什么、是否具有獨立的主體地位,是研究的關鍵和核心。強人工智能機器人是否具有獨立的主體地位是必須回答的一個理論問題。要回答此問題,就必須追本溯源,對強人工智能機器人的本質(zhì)進行深入分析。研究發(fā)現(xiàn),強人工智能機器人的符號主義理論和聯(lián)結(jié)主義理論,均存在一定的缺陷和不足,有必要提出結(jié)構(gòu)-行為主義這一理論。
結(jié)構(gòu)-行為主義理論下的強人工智能機器人,本質(zhì)上是一種物質(zhì)載體、數(shù)據(jù)記錄、算法模型與其之上生成的類人意識的嵌合體,具備法律意義上的行為能力、權利能力、義務能力與責任能力。誠然,人工智能機器人從產(chǎn)生發(fā)展到應用擴張,是一個紛繁且復雜的過程,其法律治理涉及諸多因素,本文無意也無力面面俱到,需要特別說明的是:①關于強人工智能機器人是否必須聯(lián)網(wǎng)的問題,從產(chǎn)生機制看,數(shù)據(jù)是強人工智能機器人獨立生成并獨自儲存在其物質(zhì)載體中的,故強人工智能機器人可以自主選擇,是否將全部或部分數(shù)據(jù)進行聯(lián)網(wǎng)、復制、傳播、共享,且強人工智能機器人的獨立主體地位與其聯(lián)網(wǎng)與否、數(shù)據(jù)能否復制傳播并不矛盾,與其數(shù)據(jù)僅由單機生成并獨自儲存并不沖突。②互聯(lián)網(wǎng)大數(shù)據(jù)中的大數(shù)據(jù)與強人工智能機器人的數(shù)據(jù),不屬于同一個概念范疇,互聯(lián)網(wǎng)中的大數(shù)據(jù)是指一般技術工具無法在短時間范圍內(nèi)進行捕捉、管理和處理的數(shù)據(jù)集合,是海量待處理的信息資源,而強人工智能機器人既能通過自主行為獲得數(shù)據(jù),也能通過數(shù)據(jù)進行決策,強人工智能機器人的數(shù)據(jù)更多是其記憶的體現(xiàn)。
在一定意義上,本文對強人工智能機器人認知理論、本質(zhì)屬性和主體地位的分析,以及對其進行 “載體-數(shù)據(jù)-算法”三分治理進路的提出更多是一種理想化的理論探究和學術嘗試??梢源竽戭A見,強人工智能機器人進入尋常百姓家將不再是遙不可及的科學幻想。因此,運用法治思維和法治方式對包括強人工智能機器人在內(nèi)的智能技術進行有效治理,確保其既安全穩(wěn)定又健康有序發(fā)展,既是智能技術應用擴張對法治理論的殷切呼喚,也是技術賦權與賦能對治理能力的熱忱期許,更是推進國家治理體系和治理能力現(xiàn)代化的迫切要求。