陳 莉
(南陽(yáng)理工學(xué)院,河南 南陽(yáng) 473004)
人工智能(Artificial Intelligence),英文縮寫(xiě)為AI。它是研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門(mén)新技術(shù)科學(xué)。[1]根據(jù)現(xiàn)在大多數(shù)科學(xué)家的觀點(diǎn),人工智能可以分為弱人工智能和強(qiáng)人工智能。弱人工智能是指擅長(zhǎng)處理某種單一認(rèn)知任務(wù)的人工智能,和強(qiáng)人工智能的區(qū)別點(diǎn)在于被人所控制,是工具的一種,屬于工具型智能。強(qiáng)人工智能是指脫離了人所控制的,具有獨(dú)立的推理能力和解決問(wèn)題的能力,具有知覺(jué)和自主意識(shí)的智能機(jī)器。強(qiáng)人工智能并不是對(duì)人類(lèi)的簡(jiǎn)單模仿,而是具有與人類(lèi)對(duì)等的人格結(jié)構(gòu),是超越工具型智能而達(dá)到第一人稱主體世界內(nèi)容的涌現(xiàn)的新型主體。[1]
隨著人工智能技術(shù)的飛速發(fā)展,可以預(yù)見(jiàn)人工智能將在農(nóng)業(yè)、工業(yè)和服務(wù)業(yè)各個(gè)領(lǐng)域被廣泛應(yīng)用。例如在交通運(yùn)輸、醫(yī)療健康、對(duì)話看護(hù)方面的人工智能產(chǎn)品將以成本低效率高的優(yōu)勢(shì)在不遠(yuǎn)的將來(lái)替代大多數(shù)人類(lèi)職業(yè)崗位。在這種局面下,跟人工智能產(chǎn)品有關(guān)的侵權(quán)責(zé)任應(yīng)該如何承擔(dān),已經(jīng)成為一個(gè)亟待解決的法律問(wèn)題。
由于弱人工智能和強(qiáng)人工智能之間的區(qū)別有著根本的界限,即其從性質(zhì)上看是屬于人類(lèi)的工具還是屬于獨(dú)立于人類(lèi)的全新型人類(lèi)是不同的,因此在應(yīng)對(duì)的責(zé)任承擔(dān)方面,也有必要分別討論。
侵權(quán)責(zé)任的承擔(dān)主體是以該主體屬于民事主體為前提的,侵權(quán)責(zé)任是民事主體因自己行為對(duì)他人造成了損害后果所要承擔(dān)的民事責(zé)任。因此若人工智能產(chǎn)品不屬于民事主體,則其也不能成為侵權(quán)責(zé)任主體。
1.從科技領(lǐng)域看,人工智能產(chǎn)品暫無(wú)成為民事主體的可能性
(1)人工智能產(chǎn)品技術(shù)上尚無(wú)實(shí)現(xiàn)成為平行人類(lèi)的可能性。目前科技領(lǐng)域,很多人在探討人工智能在應(yīng)用方面,有無(wú)實(shí)現(xiàn)強(qiáng)人工智能,甚至和自然人一樣成為平行人類(lèi)的可能性。大多數(shù)人還是持保守的看法,因?yàn)閺哪壳叭祟?lèi)已掌握的科技看,在技術(shù)上尚無(wú)機(jī)器人發(fā)展成平行人類(lèi)的可能性。從人工智能目前的發(fā)展方向看,無(wú)論它再怎么“自動(dòng)學(xué)習(xí)”“自我改善”,都不會(huì)有“征服”的意志,不會(huì)有“利益”訴求和“權(quán)利”意識(shí)[2]。
(2)讓人工智能產(chǎn)品擁有自主意識(shí)在倫理上缺乏支持?;艚鹪?jīng)表達(dá)過(guò)對(duì)機(jī)器人擁有自主意識(shí)后會(huì)對(duì)人類(lèi)產(chǎn)生威脅的擔(dān)憂。盡管人工智能的短期影響取決于誰(shuí)在控制人工智能,而它的長(zhǎng)期影響則取決于人工智能到底能否受到任何控制[3]。
所以允不允許人工智能擁有自主意識(shí)的產(chǎn)生和延續(xù)涉及到人類(lèi)倫理問(wèn)題,是如何避免人工智能產(chǎn)品的不當(dāng)使用和發(fā)展威脅到人類(lèi)生存的問(wèn)題。所以讓人工智能產(chǎn)品擁有自主意識(shí)還缺乏統(tǒng)一有力的支持。
2.從法律領(lǐng)域看,人工智能產(chǎn)品不應(yīng)具有法律人格
(1)人工智能沒(méi)有在法律關(guān)系中享有權(quán)利承擔(dān)義務(wù)的必要性。法律規(guī)定民事主體享有民事權(quán)利,是為了在保障民事主體生存和發(fā)展的前提下,保護(hù)民事主體的財(cái)產(chǎn)權(quán)和人身權(quán)。對(duì)人工智能產(chǎn)品的保護(hù)可以將其看作財(cái)產(chǎn)的一部分,以法律關(guān)系中的客體形式予以保護(hù)。如果法律規(guī)定的義務(wù)人工智能機(jī)器人沒(méi)有自主意識(shí)選擇是否遵守,那么法律也沒(méi)有調(diào)整機(jī)器人行為的必要性,其就是一個(gè)工具型產(chǎn)品,只能是法律關(guān)系的客體。如果法律規(guī)定的義務(wù)機(jī)器人有選擇是否遵守的自主意識(shí),那么這種人工智能的破壞力是存在的,對(duì)人類(lèi)的威脅也是存在的。智能機(jī)器人的研發(fā)者應(yīng)該避免出現(xiàn)這種情況。應(yīng)該用法律去調(diào)整機(jī)器人研發(fā)的方向,而不是用法律約束機(jī)器人。
(2)人工智能產(chǎn)品沒(méi)有獨(dú)立的意思能力。要想成為民事主體具有獨(dú)立的法律人格,需要具有獨(dú)立自主地作出意思表示的能力。在現(xiàn)有技術(shù)條件下,人工智能的發(fā)展雖然表現(xiàn)到Alphago可以擊敗圍棋世界冠軍,能夠獨(dú)立自主判斷路況進(jìn)行自動(dòng)駕駛,甚至可以給出醫(yī)療方案,但這并不代表其具有作出意思表示作為民事主體參與民事法律關(guān)系的能力。例如有機(jī)器人針對(duì)提問(wèn)者的問(wèn)題能夠?qū)Υ鹑缌?,但是這些是設(shè)計(jì)者提前針對(duì)該問(wèn)題設(shè)置好了回答程序,其并沒(méi)有自主意識(shí),并不具有成為民事主體的內(nèi)在需求。
民事主體獨(dú)立進(jìn)行民事行為是以對(duì)將要進(jìn)行的行為性質(zhì)具有判斷能力及對(duì)該行為所帶來(lái)后果具有認(rèn)識(shí)能力為前提的,弱人工智能時(shí)代顯然不具備這一特質(zhì)。
人工智能產(chǎn)品侵權(quán)責(zé)任是指因人工智能產(chǎn)品的應(yīng)用造成他人損害時(shí),侵權(quán)責(zé)任該如何承擔(dān)的問(wèn)題,目前學(xué)界對(duì)此并沒(méi)有統(tǒng)一認(rèn)識(shí),我國(guó)也沒(méi)有相關(guān)的法律規(guī)定。
1.人工智能產(chǎn)品侵權(quán)責(zé)任的責(zé)任主體
人工智能產(chǎn)品不能成為民事主體,也不能成為侵權(quán)責(zé)任的責(zé)任主體。人工智能產(chǎn)品有關(guān)的責(zé)任主體應(yīng)該包括人工智能產(chǎn)品的生產(chǎn)者、銷(xiāo)售者及使用者。因?yàn)檎缥锲分氯藫p害的原因,要么是設(shè)計(jì)、制造環(huán)節(jié)上存在問(wèn)題,要么是使用和管理環(huán)節(jié)上存在問(wèn)題。因此由生產(chǎn)者、銷(xiāo)售者及使用者作為責(zé)任主體是合適的。
2017年5月德國(guó)通過(guò)了一項(xiàng)關(guān)于無(wú)人駕駛汽車(chē)的法律,并對(duì)無(wú)人駕駛汽車(chē)發(fā)生交通事故責(zé)任的分配進(jìn)行了規(guī)定:如果事故發(fā)生在人工駕駛階段,由駕駛?cè)顺袚?dān)責(zé)任;如果事故發(fā)生在自動(dòng)駕駛階段,或由于系統(tǒng)失靈釀成的事故,則由汽車(chē)制造商承擔(dān)責(zé)任[4]。由此我們可以看出德國(guó)對(duì)無(wú)人駕駛汽車(chē)發(fā)生交通事故的處理實(shí)際上是不同情況下對(duì)產(chǎn)品責(zé)任和機(jī)動(dòng)車(chē)交通事故責(zé)任的分別適用。
德國(guó)關(guān)于無(wú)人駕駛汽車(chē)的侵權(quán)責(zé)任劃分還是有借鑒意義的,但是無(wú)人駕駛汽車(chē)并不能適用于所有人工智能產(chǎn)品。
(1)由人工智能產(chǎn)品的生產(chǎn)者和銷(xiāo)售者承擔(dān)侵權(quán)責(zé)任。若人工智能產(chǎn)品發(fā)生侵權(quán)的原因可以確定是因?yàn)楫a(chǎn)品的設(shè)計(jì)或制造存在一定的可能致人損害的風(fēng)險(xiǎn),即人工智能產(chǎn)品存在缺陷,則根據(jù)《侵權(quán)責(zé)任法》第43條的規(guī)定,即被侵權(quán)人可以選擇由產(chǎn)品的生產(chǎn)者或者銷(xiāo)售者的任一方承擔(dān)責(zé)任。產(chǎn)品的生產(chǎn)者或銷(xiāo)售者先行承擔(dān)責(zé)任后可以向有過(guò)錯(cuò)的另一方追償。
(2)由人工智能產(chǎn)品的使用者承擔(dān)侵權(quán)責(zé)任。若人工智能產(chǎn)品本身并沒(méi)有致人損害的風(fēng)險(xiǎn),損害的發(fā)生可以確定是由于人工智能產(chǎn)品的使用者造成的,則應(yīng)由人工智能產(chǎn)品的使用者承擔(dān)侵權(quán)責(zé)任。
(3)由生產(chǎn)者、銷(xiāo)售者和產(chǎn)品使用者之間承擔(dān)連帶責(zé)任。若人工智能產(chǎn)品侵權(quán)責(zé)任無(wú)法確定是什么原因引起的,為了使被侵權(quán)人能夠行使賠償請(qǐng)求權(quán),比較合理的責(zé)任分配方式應(yīng)當(dāng)由生產(chǎn)者、銷(xiāo)售者和產(chǎn)品使用者之間承擔(dān)連帶責(zé)任。即被侵權(quán)人可以要求產(chǎn)品的生產(chǎn)者、銷(xiāo)售者或者產(chǎn)品的使用者共同承擔(dān)侵權(quán)責(zé)任。
首先,連帶責(zé)任有利于被侵權(quán)人行使賠償請(qǐng)求權(quán)。對(duì)于被侵權(quán)人來(lái)說(shuō),要界定清楚損害發(fā)生的原因是由人工智能產(chǎn)品本身的性能引起的,還是由使用者不當(dāng)操作引起的,并不是件容易的事。而被侵權(quán)人若要請(qǐng)求賠償,必須能夠確定引起損害發(fā)生的具體的侵權(quán)人。因此為了使被侵權(quán)人能夠及時(shí)的行使賠償請(qǐng)求權(quán),有必要要求人工智能產(chǎn)品的生產(chǎn)者、銷(xiāo)售者和使用者共同承擔(dān)責(zé)任。
其次,關(guān)于連帶責(zé)任是否對(duì)生產(chǎn)者、銷(xiāo)售者、使用者過(guò)于嚴(yán)苛的問(wèn)題。在損害的發(fā)生是由于人工智能產(chǎn)品的使用者的過(guò)錯(cuò)引起的情況下,要求生產(chǎn)者、銷(xiāo)售者承擔(dān)責(zé)任,會(huì)不會(huì)使生產(chǎn)者、銷(xiāo)售者的責(zé)任過(guò)于嚴(yán)苛。正如有些觀點(diǎn)認(rèn)為即使是最細(xì)心的設(shè)計(jì)者、編程者以及制造者都沒(méi)有辦法控制或者預(yù)測(cè)人工智能系統(tǒng)在脫離之后將會(huì)經(jīng)歷些什么,將法律責(zé)任歸于開(kāi)發(fā)者顯然是違背公理的。
科技的發(fā)展在給產(chǎn)品生產(chǎn)者銷(xiāo)售者帶來(lái)利潤(rùn),給產(chǎn)品使用者帶來(lái)便捷的同時(shí),也通常以犧牲社會(huì)資源、安全、環(huán)境等為代價(jià)的,因此要求產(chǎn)品的生產(chǎn)者、銷(xiāo)售者和使用者承擔(dān)連帶責(zé)任,以使被侵權(quán)人所遭受的損失有更大的幾率得到補(bǔ)償,也是法律公平的體現(xiàn)。
2.人工智能產(chǎn)品侵權(quán)責(zé)任的歸責(zé)原則
(1)人工智能產(chǎn)品的生產(chǎn)者和銷(xiāo)售者承擔(dān)責(zé)任時(shí)適用無(wú)過(guò)錯(cuò)責(zé)任原則。從《中華人民共和國(guó)侵權(quán)責(zé)任法》(以下簡(jiǎn)稱《侵權(quán)責(zé)任法》)第41條可以看出對(duì)于缺陷產(chǎn)品生產(chǎn)者、銷(xiāo)售者承擔(dān)的是無(wú)過(guò)錯(cuò)責(zé)任。普通產(chǎn)品責(zé)任以無(wú)過(guò)錯(cuò)責(zé)任原則作為歸責(zé)原則,是因?yàn)槿毕莓a(chǎn)品本身具有一定的致人損害的危險(xiǎn)性,當(dāng)損害發(fā)生時(shí),實(shí)際上是損害發(fā)生危險(xiǎn)性的現(xiàn)實(shí)化,作為缺陷產(chǎn)品的生產(chǎn)者和銷(xiāo)售者有義務(wù)為這種危險(xiǎn)承擔(dān)侵權(quán)責(zé)任。
人工智能產(chǎn)品作為一種新型的人類(lèi)工具,雖然本身具有深度學(xué)習(xí)能力,及在某些領(lǐng)域有著人類(lèi)不可比擬的優(yōu)勢(shì),但究其性質(zhì)而言,仍然屬于被人類(lèi)支配,由人類(lèi)制造的產(chǎn)品。且由于人工智能產(chǎn)品本身的高度智能化,通常不需要使用者一直控制操作,因此人工智能產(chǎn)品的安全性要求不僅不比普通產(chǎn)品低,甚至要比普通產(chǎn)品更高。因此在人工智能產(chǎn)品有關(guān)的侵權(quán)責(zé)任方面,也以無(wú)過(guò)錯(cuò)責(zé)任原則作為歸責(zé)原則是比較妥當(dāng)?shù)摹_@可以促使人工智能產(chǎn)品的制造者對(duì)人工智能產(chǎn)品的安全性負(fù)有高度注意義務(wù)。
(2)人工智能產(chǎn)品的產(chǎn)品使用者承擔(dān)責(zé)任時(shí)適用歸責(zé)原則應(yīng)視情況而定。人工智能產(chǎn)品的使用者承擔(dān)侵權(quán)責(zé)任的情形,是否需要使用者對(duì)損害的發(fā)生主觀上有過(guò)錯(cuò)為前提條件,應(yīng)當(dāng)考慮人工智能產(chǎn)品的危險(xiǎn)性而定。若該產(chǎn)品本身或者產(chǎn)品的操作行為具有一定的危險(xiǎn)性,如無(wú)人駕駛汽車(chē),那么產(chǎn)品使用者承擔(dān)責(zé)任的歸責(zé)事由主要是因?yàn)槲kU(xiǎn)可能現(xiàn)實(shí)化而給他人帶來(lái)?yè)p害,則此時(shí)就不用考慮產(chǎn)品使用者主觀上是否有過(guò)錯(cuò),而適用無(wú)過(guò)錯(cuò)責(zé)任原則。若該人工智能產(chǎn)品的使用不具有危險(xiǎn)性,如銀行使用人工智能技術(shù)幫助核對(duì)帳目,此時(shí)產(chǎn)品使用者承擔(dān)責(zé)任的歸責(zé)事由應(yīng)當(dāng)是產(chǎn)品使用者對(duì)損害的發(fā)生具有主觀上的故意或者過(guò)失。
3.人工智能產(chǎn)品侵權(quán)責(zé)任的構(gòu)成要件
(1)造成了他人損害。損害自然應(yīng)該包括財(cái)產(chǎn)損害和人身?yè)p害。這里值得探討的是“他人”是否應(yīng)包括人工智能產(chǎn)品的使用者。凡是因該產(chǎn)品的使用所有損害的人都應(yīng)當(dāng)包括在內(nèi),不用區(qū)分是否為人工智能產(chǎn)品的使用者。因?yàn)槿魮p害的發(fā)生非因使用者的過(guò)錯(cuò)造成的,應(yīng)當(dāng)適用《侵權(quán)責(zé)任法》產(chǎn)品責(zé)任的規(guī)定,當(dāng)然要賠償商品使用者的損失。若損害的發(fā)生是由使用者自己的過(guò)錯(cuò)造成的,則該損失由使用者承擔(dān)或分擔(dān)。
(2)人工智能產(chǎn)品在應(yīng)用中。人工智能產(chǎn)品侵權(quán)責(zé)任應(yīng)該發(fā)生在該產(chǎn)品已經(jīng)由生產(chǎn)者交付到使用者手中后,若尚未進(jìn)入流通領(lǐng)域時(shí)發(fā)生損害,則不能按產(chǎn)品責(zé)任標(biāo)準(zhǔn)要求該產(chǎn)品的生產(chǎn)者和銷(xiāo)售者承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任。
(3)因果關(guān)系。被侵權(quán)人的損害應(yīng)當(dāng)是由于人工智能產(chǎn)品的應(yīng)用引起的。即該損害或者由于人工產(chǎn)品本身具有一定的危險(xiǎn)性,該危險(xiǎn)現(xiàn)實(shí)化導(dǎo)致了被侵權(quán)人的損害;或者由于該人工智能產(chǎn)品使用人在使用過(guò)程中的不當(dāng)使用造成了被侵權(quán)人的損害??傊?,被侵權(quán)人的損害和人工智能產(chǎn)品的應(yīng)用之間存在因果關(guān)系。
如前所述,人工智能產(chǎn)品的快速發(fā)展,仍局限于弱人工智能領(lǐng)域,即本質(zhì)屬性仍屬于人類(lèi)控制的工具;以現(xiàn)有人類(lèi)掌握的科技尚不能突破人工智能產(chǎn)品可以具有自主意識(shí)和真實(shí)情感成為平行人類(lèi)的界限,故本文對(duì)人工智能產(chǎn)品具有法律人格持否定態(tài)度,對(duì)因人工智能產(chǎn)品產(chǎn)生的侵權(quán)責(zé)任也以產(chǎn)品的生產(chǎn)者、銷(xiāo)售者和使用者為責(zé)任主體;并針對(duì)人工智能產(chǎn)品侵權(quán)責(zé)任分配的有關(guān)問(wèn)題提出了自己的看法。
參考文獻(xiàn):
[1]溫正.精通MATLAB智能算法[M].北京:清華大學(xué)出版社,2015(5).
[2]翟振明.“強(qiáng)人工智能”將如何改變世界——人工智能的技術(shù)飛躍與應(yīng)用倫理前瞻[J].人民論壇(學(xué)術(shù)前沿),2016(7):22-33.
[3]http://www.huffingtonpost. com/stephenhawking/artificial-intelligence_b_5174265.html.
[4]德國(guó)通過(guò)首部關(guān)于自動(dòng)駕駛汽車(chē)的法律[N].環(huán)球網(wǎng)國(guó)際新聞 http://world.huanqiu.com/hot/2017-05/10663821.htm.2017-10-27.