秦 平
對外經(jīng)濟貿(mào)易大學(xué),北京 100105
今天,以人工智能為首的信息革命正在極大地改變著世界,人工智能已不是簡單服務(wù)于人類社會的機器,其發(fā)展的最終形態(tài)是逐步向人類本身靠近,很難排除在未來的某一時刻,人工智能達到類人的程度。從法律的層面來看,是否賦予人工智能主體地位,該以什么樣的法律來規(guī)制人工智能擺脫人類意志而行的侵權(quán)行為,是不可忽視的問題。
人工智能之所以存在可罰性問題的原因是強人工智能存在其脫離主體意識而為的侵權(quán)行為,如自動駕駛引發(fā)的車禍,聊天軟件學(xué)會了暴力、侮辱、厭世的反動人工智能、智能機器人非因程序指令傷人或殺人等。對于強人工智能的非程序性侵害事件,損害結(jié)果到底該由誰承擔(dān)?是否應(yīng)該對強人工智能進行懲罰?這些問題都是目前學(xué)界所討論的問題[1]。
部分學(xué)者認為強人工智能的非程序性問題需要由人工智能本身承擔(dān),也即人工智能具有可罰性。但筆者認為人工智能不具有可罰性。
一般認為,在弱人工智能時代,人工智能在法律上仍應(yīng)被界定為權(quán)利客體。但在強人工智能時代,是否應(yīng)當(dāng)有條件或有限度地賦予人工智能法律主體地位。人工智能成為民事法律主體的必要條件與因素,國內(nèi)學(xué)者的研究主要有以下幾個方面。
關(guān)于人工智能能否產(chǎn)生獨立意識問題,大部分學(xué)者認為,從科學(xué)技術(shù)角度來說,強人工智能的發(fā)展雖處于迅猛時期,但讓人工智能擁有類人的主觀情感以及對外部世界的感知和實踐能力是不可能實現(xiàn)的[2]。例如,在情感方面,雖然目前人工智能系統(tǒng)已經(jīng)能夠用多種方式識別人類的情感,但對于數(shù)據(jù)的處理與儲存只是對外部世界的刻板僵化反映。
部分學(xué)者認為,“人”與“人格”從概念上就已被劃分,法律上的人格并不需要自然人格的支撐,[3]因此,賦予人工智能人格未嘗不可,法律主體亦由最先的自然人擴張至法人,那么人工智能加入主體行列并非無法逾越的鴻溝。另一部分學(xué)者認為,人工智能是否享有法律主體地位取決于其發(fā)展的程度,法律只需在人工智能發(fā)展為具有“類人”特征時,將其列入法律主體地位即可[4]。但一些反駁觀點認為,無論人工智能發(fā)展到什么程度,都無法成為法律主體,且人工智能不具有發(fā)展成為“類人”的可能性,當(dāng)此種人工智能存在威脅時,人類會自動阻止此類人工智能的產(chǎn)生。技術(shù)雖然能夠借道德物化的功能來展示自己的某種“自主性”,但是實際上技術(shù)不可能具有自主性,因為技術(shù)所表征出來的意義和功能都是人所賦予,只是使技術(shù)人工物在功能上看上去有“自主性”和“意向性”而已[5]。
在自然人主體資格標(biāo)準的問題上,從古至今主要有理性說、感性說、德性說、神性說四種學(xué)說,大部分國家的法律主體資格標(biāo)準采用的是理性說。理性說,指具有主體資格的存在者擁有辨別對錯、合理預(yù)見和控制行為的能力[6]。理性自然人具備主體資格,也是法律層面上的主體和客體的本質(zhì)區(qū)別。人類的理性源于人的自主意識,而自主意識造就了人類的“自由”,此種自由并非生理上的自由,而是心理上的自由,即具有選擇性。雖然動物也具有自由,但此種自由不具有選擇性,動物無法意識到自己選擇之目的,即不具有“被支配之自由”。因此人類具有理性,而動物不具備??档抡J為:“有理性的生靈叫做人,因為人依其本質(zhì)即為目的本身,而不能僅僅作為手段來使用”即理性使得人存在本身即為目的。[7]人可以改變、創(chuàng)造世界,也可以制定、廢除法律,人的自主性使得其自然而然成為法律之主體。
人工智能卻不具有此理性特征,雖然目前一部分強人工智能具有自主選擇和自主判斷能力,但這些能力并不意味著人工智能與人類具有相同的理性部分。人工智能的運作是靠既定的編碼程序進行運行,無法脫離人類之操作而自主行為,更不具有獨立的辨別對錯、合理預(yù)見的能力,無法通過類似人體的主觀意識去做選擇,因此,其不具備理性特征。
法人乃法律規(guī)定之產(chǎn)物,這主要得益于法人同時具備實體性基礎(chǔ)、實益性基礎(chǔ)和法技術(shù)基礎(chǔ):一是實體性基礎(chǔ),法人之所以具有實體性基礎(chǔ)在于其具有獨立的意志和獨立的財產(chǎn)。法人雖非人,但其本質(zhì)是一個自然人的集合體,其意志是自然人團體意志的體現(xiàn)。同時,法人之所以能脫離自然人獨立地運行,成為交易的主體,在于其擁有獨立財產(chǎn)。法人的獨立意志與獨立財產(chǎn)是法人實體性基礎(chǔ)的構(gòu)成要件。二是實益性基礎(chǔ),指法人之社會價值。早在羅馬時期,簡單商品經(jīng)濟下的法律制度已經(jīng)體現(xiàn)了初級團體人格理論。但直至自由競爭與壟斷并存的資本主義時代的到來,團體制度才顯得尤為重要,法人制度才能夠應(yīng)運而生。因此,實益性基礎(chǔ)被認為是法人制度之根本依據(jù)。三是法技術(shù)基礎(chǔ),即法人之法律基礎(chǔ)。羅馬法的高低人格與有無人格之分是歷史上第一次將人與人格分離的法律,奠定了現(xiàn)如今的法律人格理論。而非人的法人被賦予了人格,即具有了法律上的主體地位,逐步發(fā)展成現(xiàn)今的團體人格的法人制度。故法人之所以具有法律主體地位,是因為其同時具備實體性基礎(chǔ)、實益性基礎(chǔ)和法技術(shù)基礎(chǔ)[7]。
而人工智能,其作為人類社會發(fā)展的工具之一,是否也能與法人一樣具有人格呢?從實體性上來看,目前的人工智能沒有自由意志,其行為乃人的意志,此點與法人類似,隨著科技的發(fā)展,人工智能具有獲得自由意志的可能性極大,擁有獨立的經(jīng)濟基礎(chǔ)也不無可能。因此,人工智能的實體性基礎(chǔ)隨著社會的發(fā)展將呈現(xiàn)現(xiàn)實化。從法技術(shù)基礎(chǔ)上看,由于羅馬法的人與人格分離理論的產(chǎn)生,法技術(shù)基礎(chǔ)也同樣可以適用于現(xiàn)代強人工智能身上,因此也符合法技術(shù)基礎(chǔ)要件。從實益性基礎(chǔ)上看,一是人工智能創(chuàng)造物歸屬問題,二是人工智能侵權(quán)問題。人工智能是以既定的編碼為基礎(chǔ)來運行的,通過黑箱處理后而創(chuàng)造出產(chǎn)物,是一種機械式的表現(xiàn)形式,而當(dāng)代知識產(chǎn)權(quán)所保護的作品,是人的一種“個性”,是人類所獨有的創(chuàng)作表現(xiàn)形式。即便人工智能被賦予主體地位,其對于作品也僅具有虛名無法享受實益,且機械式的作品在法律層面受保護也是不具有任何意義的。有學(xué)者認為,未來強人工智能若賦予獨立意志而擺脫人類預(yù)先設(shè)定的程序獨立行為,其侵權(quán)行為卻由生產(chǎn)者承擔(dān)是不公正的。但若侵權(quán)行為由人工智能自己承擔(dān),將責(zé)任推脫于此種虛擬人格上,失之偏頗,此做法容易促成生產(chǎn)者形成逃避責(zé)任的心理。因此,人工智能被賦予主體地位不具有實益性基礎(chǔ),不能擁有像法人一樣獨立法律人格。
科技的發(fā)展將人工智能擁有獨立意識的可能性提高,擁有獨立意識的人工智能類同于自然人所擁有的理性要素,因而具有可罰性??档略凇兜赖滦卸蠈W(xué)》中對“意志”的界定有三個要素,即理性、選擇、目的。[8]人工智能是否擁有獨立意識,即從以上三個角度展開。
1.人工智能無獨立辨認能力
法律對人的行為的規(guī)范程度通常以人對于自身的辨認能力為基礎(chǔ),[1]具有完全行為能力的人需要承擔(dān)完全的法律責(zé)任,具有限制行為能力或者無行為能力人承擔(dān)相應(yīng)的責(zé)任或無需承擔(dān)責(zé)任。因此,法律責(zé)任主體對其自身的侵權(quán)行為是否具有辨認能力對于其承擔(dān)法律責(zé)任而言是至關(guān)重要的。
人工智能的辨認能力與人類的辨認能力相比較可以看出人工智能的辨認能力是存在缺陷的。人類的辨認能力源于經(jīng)驗、心智、理性,是由生理與心理共同構(gòu)造而形成的,強人工智能的辨認能力源于編碼程序和算法,二者的形成機理完全不一樣。人類的辨別能力來自生理能力和理性判斷,而人工智能的辨別能力是每一次精確計算出來的結(jié)果,在結(jié)果的精確度與正確度上,人工智能可能超越人類,但并不意味著其具有與人類相同的辨認能力。因此對其進行懲罰是毫無意義的。
2.人工智能無獨立思考能力
思考能力是選擇的前提,每一個選擇行為的背后都包含著思考。目前,強人工智能已具備初步的思考能力,但此“思考能力”是對人工智能程序運行過程的一種表述,與實質(zhì)的“思考能力”存在差異。本質(zhì)上人工智能的思考能力依舊是對既定程序的一種處理方式,其不可能脫離基礎(chǔ)程序設(shè)定而自主運行。而思考能力是獨立意識的表現(xiàn)形式之一,無自主性的思考能力的人工智能即不具有獨立意識。即便人工智能具有發(fā)展出自主思考能力的可能性,人類也會因排除人工智能威脅,而阻止人工智能發(fā)展出獨立思考能力。所以人工智能目前所表達的“思考行為”實際上是人類借由人工智能作出的意志表現(xiàn)。[9]
3.人工智能無獨立感知能力
法律以懲罰的形式使不法者產(chǎn)生了生理與心理上的雙重壓力與痛苦。法律制度的設(shè)置正是通過對不法者施加痛苦,迫使其對自身所為產(chǎn)生正確認知,且對不法行為產(chǎn)生悔恨之意。以此標(biāo)準,人工智能倘若具有可罰性,則其必定需要具有感知痛苦和產(chǎn)生負罪感的能力。強人工智能能夠基于大數(shù)據(jù)和內(nèi)部算法的運行形成自我深度學(xué)習(xí)的能力,但對其懲罰的形式有限且難以證明強人工智能是否真正能感受痛苦。諸如刪除數(shù)據(jù)、重新設(shè)定等懲罰形式,由于強人工智能的學(xué)習(xí)轉(zhuǎn)換知識的能力是通過“黑箱技術(shù)”進行加工處理,設(shè)計人員無法知道人工智能經(jīng)過黑箱轉(zhuǎn)換以后會以何種形式輸出數(shù)據(jù)。此種情況下,更無法驗證強人工智能是否擁有外部感知能力以及內(nèi)在情緒形成程序。而對于限制自由等身體罰,需要強人工智能本身能夠了解到自由的概念,若其沒有自由的觀念,便不會由此感受到人身限制所帶來的痛苦。目前來看,人工智能無法感知精神和身體痛苦。
對于人工智能進行財產(chǎn)罰需要分為兩個層次進行討論:第一,以目前法律規(guī)定層面探究。人工智能處于客體地位,其本身屬于主體的財產(chǎn),因此,人工智能不具有獨立財產(chǎn)。對人工智能的財產(chǎn)罰等同于對人工智能的所有者或生產(chǎn)者的財產(chǎn)罰,不符合嚴格意義上的人工智能財產(chǎn)罰概念。第二,即使人工智能擁有獨立財產(chǎn),卻不具備財產(chǎn)罰的實質(zhì)要件。財產(chǎn)罰是對加害者的經(jīng)濟進行壓迫的懲罰形式,而人工智能無法具有類似自然人的理性情緒,無法形成對財產(chǎn)損失上的壓迫心理,這也意味著對人工智能實行財產(chǎn)罰,并無法避免其可能存在的再次侵害行為。從被害者角度討論,由于人工智能無理性情緒,即便被害人得到損害賠償,也無法撫平其內(nèi)心的創(chuàng)傷。被害人得到賠償損害的實質(zhì)不僅是對自己損失的填補,更是通過對加害者的經(jīng)濟壓迫而滿足內(nèi)心“報復(fù)”的快感,但此種“報復(fù)”快感將被人工智能的自身條件所阻斷,并不能滿足被害人心理上的慰藉。
在不久的將來,強人工智能將不斷向類人方向探索,可能產(chǎn)生出擁有自由意志之人工智能。因此,其法律主體地位值得深度探討。筆者認為,即便是擁有獨立意志的人工智能也無法成為法律之主體,人工智能的產(chǎn)生只是為人類建造美好世界的一種手段與工具。如同自然人存在本身即為目的一樣,人工智能存在本身即為手段,所以不應(yīng)當(dāng)賦予其主體地位。從處罰方面來看,對其處罰無異于對一臺機器的處罰,其不具有生理與心理上的痛苦感知能力以及辨認能力,無處罰價值。綜上所述,不論現(xiàn)今的強人工智能還是未來的“類人”人工智能均不適宜賦予法律上的主體地位,因此其也不具有可罰性,其所為的法律行為以客體角度看待即可。