周 鑫
人工智能產(chǎn)品法律地位、侵權(quán)責(zé)任形態(tài)及責(zé)任保險(xiǎn)探賾
周鑫
(重慶大學(xué)法學(xué)院與銅仁學(xué)院銅仁市文化科技產(chǎn)業(yè)創(chuàng)新研究中心聯(lián)合博士后站,重慶 404100)
在人工智能侵權(quán)案件中,由被害人來證明人工智能存在過錯(cuò)與否顯然不公平,應(yīng)該適用無過錯(cuò)責(zé)任的歸責(zé)原則。管理人唯一免責(zé)事由就是生產(chǎn)瑕疵,此時(shí)責(zé)任推向生產(chǎn)者與銷售者。而生產(chǎn)者和銷售者的免責(zé)事由適用產(chǎn)品責(zé)任,即證明現(xiàn)有技術(shù)尚不足以發(fā)現(xiàn)該產(chǎn)品瑕疵。人工智能與其生產(chǎn)者、管理人之間的侵權(quán)責(zé)任分擔(dān),要在責(zé)任承擔(dān)、損害賠償和技術(shù)發(fā)展之間尋求一個(gè)平衡點(diǎn)。人工智能發(fā)生侵權(quán)事故時(shí),損害賠償由人工智能自身的保險(xiǎn)賠付金、基金和報(bào)酬承擔(dān),不足部分由侵權(quán)責(zé)任承擔(dān)者補(bǔ)充賠償,而管理人和生產(chǎn)者不承擔(dān)連帶責(zé)任。
大數(shù)據(jù);自動駕駛;侵權(quán)責(zé)任;人工智能
自20 世紀(jì)上半葉以來,人工智能在世界范圍內(nèi)呈現(xiàn)加速發(fā)展的趨勢,逐漸出現(xiàn)在機(jī)器視覺、人臉識別、自動規(guī)劃、智能搜索、智能控制等領(lǐng)域。人工智能的發(fā)展在帶來巨大福利的同時(shí),也帶來了人類的恐懼。法律界人士的擔(dān)憂是人工智能產(chǎn)品發(fā)生的法律責(zé)任如何承擔(dān)?其中最重要的一個(gè)方面是:人工智能產(chǎn)品能否獨(dú)立承擔(dān)責(zé)任?如何承擔(dān)責(zé)任?例如,美國東部時(shí)間2018年3月19日,一輛優(yōu)步自動駕駛汽車在亞利桑那州坦佩市的公共道路上與一名行人相撞,致該行人死亡。這一事件迅速發(fā)酵,人們追問,自動駕駛真的安全嗎?倘若自動駕駛汽車發(fā)生交通事故,究竟由誰承擔(dān)法律責(zé)任?是車輛的所有者?還是車輛的制造者?抑或其他責(zé)任者?問題的棘手之處在于人工智能產(chǎn)品具有自主思維能力,可以自我決策、自我執(zhí)行,其應(yīng)否自我承擔(dān)責(zé)任?這里擬從人工智能產(chǎn)品的法律地位出發(fā),探討人工智能產(chǎn)品的責(zé)任承擔(dān)及其責(zé)任保險(xiǎn)問題。
人工智能是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。高級人工智能產(chǎn)品具有自己的思維,能夠做出并執(zhí)行決策,已經(jīng)具有一個(gè)“人”的能力。人工智能產(chǎn)品的法律地位與其性質(zhì)密切相關(guān)。在探討人工智能產(chǎn)品的法律地位之前,必須對人工智能產(chǎn)品的性質(zhì)進(jìn)行研究。
關(guān)于人工智能產(chǎn)品的性質(zhì),學(xué)界主要有工具說、電子奴隸說、代理說等三種觀點(diǎn)[1],在法律上分別對應(yīng)著三種法律地位。工具說認(rèn)為,人工智能產(chǎn)品只是人類身體的一種延伸,是為人類服務(wù)的一種工具,并非獨(dú)立的主體。在這一觀點(diǎn)之下,人工智能產(chǎn)品不是一個(gè)法律上的獨(dú)立主體,既無行為能力,亦無權(quán)利能力,對應(yīng)之法律地位可以稱為“非法律主體說”。電子奴隸說認(rèn)為,人工智能產(chǎn)品服務(wù)于人類,完全聽從人類的指揮,雖然能夠做出一定的行為,但它沒有權(quán)利做出行為,除非人類對其作出指示。也就是說,人工智能只具備行為能力而不具備權(quán)利能力,并且它的行為后果完全歸屬于其管理人,并不具有獨(dú)立的法律地位,類似于羅馬法中的“奴隸”,不過是沒有情感和肉體的電子奴隸而已。在這種觀點(diǎn)之下,人工智能產(chǎn)品亦不是一個(gè)獨(dú)立的法律主體,對應(yīng)之法律地位可稱為“無權(quán)利能力的法律主體”。代理說認(rèn)為,人工智能產(chǎn)品只是代替人類為之,是一個(gè)獨(dú)立的主體,有權(quán)利亦有能力做出一定的行為,其行為具有一定的獨(dú)立性,但行為結(jié)果歸屬于人類,與人類之間是代理關(guān)系。在這種觀點(diǎn)之下,人工智能產(chǎn)品在法律上是一個(gè)獨(dú)立的主體,既有權(quán)利能力,又有行為能力,只是無法承擔(dān)自己行為的后果,對應(yīng)之法律地位可以稱為“具有權(quán)利能力和行為能力的法律主體”。
上述三種關(guān)于人工智能產(chǎn)品的觀點(diǎn),似均有缺陷。
1.工具說主張人工智能產(chǎn)品只是人類身體的一種延伸,這一觀點(diǎn)明顯與高智能產(chǎn)品的現(xiàn)狀不相符合。如果人工智能產(chǎn)品只是人類身體的延伸,是一種工具,那么,其智力不應(yīng)超過人類。目前似乎已經(jīng)存在一些智力超過人類的機(jī)器人,譬如在圍棋對弈中,機(jī)器人阿爾法狗完勝柯潔,計(jì)算能力遠(yuǎn)勝人類。據(jù)說阿爾法狗還在飛速進(jìn)化,它一天要和自己對弈五萬局,這在人類顯然不可能實(shí)現(xiàn)。這種學(xué)說的弊端在于忽略了人工智能的自主性,人工智能技術(shù)目前已經(jīng)發(fā)展到可以獨(dú)立表達(dá)自己意思并作出行為的階段,如特斯拉汽車可實(shí)現(xiàn)無人駕駛。在這一點(diǎn)上,人工智能早已超越傳統(tǒng)的工具。因此,人工智能產(chǎn)品絕不僅僅是人類的一種工具。由于性質(zhì)認(rèn)定的錯(cuò)誤,其所支持的“非法律主體說”也便失去了依據(jù)。
2.代理說認(rèn)為人工智能產(chǎn)品只是一個(gè)代理人,其行為結(jié)果歸于所有人或使用人。這一學(xué)說大體是可以接受的,這一學(xué)說支持下的“具有權(quán)利能力與行為能力的法律主體”亦有一定的合理性。不過,這一學(xué)說忽略了的一個(gè)問題是,人工智能產(chǎn)品雖然具有權(quán)利能力和行為能力,但不具有承擔(dān)責(zé)任的能力,這使得它與普通的法律主體有所區(qū)別。仔細(xì)分析可以發(fā)現(xiàn),人工智能產(chǎn)品的法律地位類似于未成年人的法律地位。沒有民事責(zé)任能力是未成年人行為能力受到限制的重要原因。法律之所以將未成年人作為限制民事行為能力人,除了受其自身年齡、智力發(fā)展?fàn)顩r的制約之外,很重要的一個(gè)原因是其沒有承擔(dān)責(zé)任的能力,“即使具有完全的判斷能力,倘若不具備承擔(dān)責(zé)任的能力,便不應(yīng)承認(rèn)該主體為完全行為能力人。”[2]現(xiàn)代民商事法律上,承擔(dān)責(zé)任的主要形式是財(cái)產(chǎn)。未成年人處于求學(xué)狀態(tài),一般沒有獨(dú)立的財(cái)產(chǎn),也不能獨(dú)立承擔(dān)責(zé)任,故而,其行為應(yīng)當(dāng)受到限制。人工智能產(chǎn)品亦不具有承擔(dān)責(zé)任的能力,在這一視角上,可以將其法律地位定位為類似于未成年人的法律地位。人工智能產(chǎn)品是沒有情感和肉體的機(jī)器,不需要財(cái)產(chǎn),設(shè)計(jì)者也不會為其設(shè)計(jì)出財(cái)產(chǎn)歸屬程序。依照代理說,其在交易過程中獲得的財(cái)產(chǎn)應(yīng)當(dāng)歸于被代理人,故其不可能具有財(cái)產(chǎn)。倘若不具有財(cái)產(chǎn),也便不具有承擔(dān)責(zé)任的能力。在這一點(diǎn)上,人工智能產(chǎn)品的法律地位似可比擬于未成年人。
3.電子奴隸說承認(rèn)人工智能產(chǎn)品是一個(gè)主體,但認(rèn)為其完全聽從人類指揮,不具有權(quán)利能力,比之工具說雖有進(jìn)步,但其仍然忽視了現(xiàn)代人工智能產(chǎn)品已經(jīng)具有自我思考、判斷并作出行為的能力。鑒于人工智能產(chǎn)品能夠自我思考和做出行為,難說它是完全聽從于人類的電子奴隸。在法律地位的問題上,電子奴隸說不承認(rèn)人工智能產(chǎn)品的權(quán)利能力。如果人工智能產(chǎn)品沒有權(quán)利能力,則意味著人工智能產(chǎn)品做出的行為無法獲得法律的承認(rèn),從而導(dǎo)致人工智能產(chǎn)品的運(yùn)用受到極大的限制,這顯然與時(shí)代潮流相違背,故“電子奴隸說”支持下的“無權(quán)利能力的法律主體”之觀點(diǎn)亦難獲得認(rèn)可。但也有學(xué)者認(rèn)為:“在實(shí)踐層面,當(dāng)前人工智能主體性構(gòu)成要件尚不完備,人工智能非主體性更有利于強(qiáng)化設(shè)計(jì)、管理等人員的謹(jǐn)慎義務(wù),有利于受害人合法權(quán)益保護(hù)?!盵3]
人工智能產(chǎn)品侵害他人權(quán)益的事件時(shí)有出現(xiàn)。2017年,網(wǎng)絡(luò)上出現(xiàn)了“兒童邪典視頻”,視頻制作者在制作視頻時(shí)利用兒童熟悉的卡通形象,加入色情、暴力等危害未成年人的內(nèi)容,再通過人工智能的算法推薦給未成年人,從而導(dǎo)致未成年人權(quán)益受損。在這一侵權(quán)過程中,視頻制作者自然難脫干系,但是人工智能的算法推送亦起到了推波助瀾的作用,理應(yīng)承擔(dān)相應(yīng)責(zé)任。2016年3月,谷歌制造的一輛無人駕駛汽車與一輛公共汽車發(fā)生剮蹭,谷歌公司承認(rèn)自動駕駛汽車應(yīng)當(dāng)承擔(dān)責(zé)任。作為人工智能的主要代表,自動駕駛汽車面對公共汽車這樣的龐然大物尚能發(fā)生事故,面對其他物體自然也可能發(fā)生事故。由于少年兒童的身高與判別能力均有不足,未來自動駕駛汽車最主要的侵害對象很可能是少年兒童。人工智能產(chǎn)品侵權(quán)的法律責(zé)任認(rèn)定可以仿效未成年人責(zé)任的形式,即替代責(zé)任。替代責(zé)任是指“責(zé)任人為他人的行為和為人之行為以外的自己管領(lǐng)的對象所致?lián)p害負(fù)有的侵權(quán)賠償責(zé)任形態(tài)”。[4]替代責(zé)任的主要表現(xiàn)形式是監(jiān)護(hù)人對未成年人的行為后果替代承擔(dān)責(zé)任,即未成年人做出一定的行為需要承擔(dān)后果,但沒有承擔(dān)責(zé)任的能力,其法律后果由監(jiān)護(hù)人替代承擔(dān)。
如前所述,財(cái)產(chǎn)是承擔(dān)民事責(zé)任的基礎(chǔ),人工智能產(chǎn)品沒有獨(dú)立的財(cái)產(chǎn)無法獨(dú)立承擔(dān)責(zé)任,但其責(zé)任又必須有人承擔(dān),如此,只能尋求其他主體替代其承擔(dān)責(zé)任。這與未成年人責(zé)任的替代承擔(dān)非常相似。對此,已經(jīng)有學(xué)者表示:“如果智能機(jī)器人實(shí)際上‘代理或者代表’某個(gè)法律主體從事行為或者進(jìn)行決策,那么可以比照父母對未成年人子女的責(zé)任或者說監(jiān)護(hù)人對被監(jiān)護(hù)人的責(zé)任,或者雇主對雇員的責(zé)任,讓部署智能機(jī)器人的人承擔(dān)替代責(zé)任?!盵5]由誰來替代人工智能產(chǎn)品承擔(dān)責(zé)任呢?人工智能產(chǎn)品致人損害的情形大致可以分為三類:一是由于人工智能產(chǎn)品使用者操作失誤導(dǎo)致的損害,即人工智能產(chǎn)品本身不存在問題,損害的發(fā)生是使用者操作失誤造成的;二是人工智能產(chǎn)品制造者的人為失誤造成的損害,即使用者的操作不存在問題,而損害的發(fā)生是由于制造者的設(shè)計(jì)失誤造成的;三是因無法解釋之原因造成的損害。即使用者的操作和制造者的設(shè)計(jì)均不存在問題,損害的發(fā)生是由于人工智能產(chǎn)品的自我判斷失誤造成的。在這三種情況下,承擔(dān)替代責(zé)任的主體應(yīng)當(dāng)有所不同。
首先,人工智能產(chǎn)品使用者操作失誤造成的損害,應(yīng)當(dāng)由操作者承擔(dān)責(zé)任,此時(shí)不適用未成年人的替代責(zé)任。損害由使用者操作失誤造成,意味著人工智能產(chǎn)品對此沒有過錯(cuò),過錯(cuò)完全在操作者本人,操作者具有財(cái)產(chǎn),能夠承擔(dān)責(zé)任,應(yīng)承擔(dān)自己責(zé)任而非未成年人的替代責(zé)任。人工智能產(chǎn)品制造者設(shè)計(jì)失誤造成的損害,應(yīng)當(dāng)由制造者承擔(dān)責(zé)任,可以用未成年人替代責(zé)任的理論予以解釋。
其次,產(chǎn)品質(zhì)量致人損害,適用產(chǎn)品質(zhì)量法,人工智能產(chǎn)品屬于產(chǎn)品的一種,當(dāng)然應(yīng)由產(chǎn)品制造者承擔(dān)最終責(zé)任,這是來自產(chǎn)品質(zhì)量法理論的解釋。但是,這一解釋可能遭遇一些困難,其原因是,要求承擔(dān)責(zé)任需要由原告證明產(chǎn)品存在缺陷,而證明人工智能產(chǎn)品特別是人工智能產(chǎn)品系統(tǒng)層面的缺陷相當(dāng)困難。如果不能證明,制造者將不承擔(dān)責(zé)任。對此,倘若適用未成年人的替代責(zé)任理論解釋,或許是一條更為有效的解釋進(jìn)路。未成年人替代責(zé)任理論的解釋可以是:人工智能產(chǎn)品具有特殊性,不同于作為“物”而存在的其他產(chǎn)品。作為“物”的產(chǎn)品不是法律主體,自然不能承擔(dān)責(zé)任。人工智能產(chǎn)品是一類特殊的法律主體,作為一類法律主體,本應(yīng)承擔(dān)責(zé)任,只是因?yàn)闆]有承擔(dān)責(zé)任的能力,才由制造者承擔(dān)責(zé)任。
再次,人工智能產(chǎn)品的責(zé)任與未成年人的責(zé)任有一定的類似性,產(chǎn)品制造者類似于監(jiān)護(hù)人,人工智能產(chǎn)品類似于未成年人,監(jiān)護(hù)人因未能履行監(jiān)護(hù)職責(zé)而承擔(dān)對未成年人的替代責(zé)任,制造者則因制造失誤而承擔(dān)對人工智能產(chǎn)品的替代責(zé)任。因無法解釋的原因造成的損害應(yīng)當(dāng)由制造者和使用者共同承擔(dān)責(zé)任,其責(zé)任承擔(dān)可以用未成年人的替代責(zé)任進(jìn)行解釋。此種損害的造成,并非制造者的制造缺陷或使用者的操作失誤造成,多數(shù)情況下是人工智能產(chǎn)品自主決策造成的。高智能的人工智能產(chǎn)品,能夠自主學(xué)習(xí)新的信息,利用新的數(shù)據(jù)做出決策,甚至能夠修改人類對其設(shè)定的規(guī)則,其自我決策造成的損害很難歸因于人類。這便如一個(gè)未成年人隨著年齡的增長已經(jīng)具備了獨(dú)自決策、獨(dú)自行為的能力,依照誰決策誰負(fù)責(zé)的原則,其應(yīng)當(dāng)獨(dú)立承擔(dān)責(zé)任,但其沒有承擔(dān)責(zé)任的能力。
此外,與未成年人的情況非常相似,高智能的人工智能產(chǎn)品沒有責(zé)任能力,其責(zé)任應(yīng)由他人替代?!傲⒆阌诹x務(wù)本位的賦權(quán)理念,賦予智能機(jī)器人限制權(quán)利能力,利用救濟(jì)代理和責(zé)任替代的路徑彌補(bǔ)其權(quán)利行使的不能和責(zé)任承擔(dān)的不足?!盵6]由誰來替代承擔(dān)責(zé)任呢?顯然,人工智能產(chǎn)品的制造者和使用者是與該產(chǎn)品聯(lián)系最密切的主體,應(yīng)當(dāng)由他們承擔(dān)責(zé)任。不過,人工智能產(chǎn)品的制造者應(yīng)當(dāng)承擔(dān)較大份額的責(zé)任,因?yàn)?,制造者比使用者更有能力預(yù)見損害結(jié)果的發(fā)生。
人工智能產(chǎn)品造成的損害應(yīng)當(dāng)由其他主體替代承擔(dān),其中,產(chǎn)品的制造者是主要的責(zé)任承擔(dān)者。然而,如果責(zé)任過重,必然阻礙制造者發(fā)展人工智能的積極性。為此,必須有相關(guān)制度幫助責(zé)任主體承擔(dān)人工智能產(chǎn)品的風(fēng)險(xiǎn),這一制度便是保險(xiǎn)制度。重要的問題是保險(xiǎn)應(yīng)當(dāng)保障何人?亦即,誰應(yīng)當(dāng)作為被保險(xiǎn)人?既有的思路認(rèn)為,人工智能產(chǎn)品或許可以作為被保險(xiǎn)人。例如,英國汽車技術(shù)和航空法案規(guī)定,“在自動駕駛模式下,被保險(xiǎn)人的車輛如果發(fā)生事故,則保險(xiǎn)公司必須負(fù)責(zé)賠償事故造成的損失。當(dāng)然,保險(xiǎn)公司享有對制造商的代位求償權(quán),如果車輛在自動駕駛狀態(tài)下發(fā)生事故,而制造商對此負(fù)有責(zé)任,那么保險(xiǎn)公司賠償受害人損失后有權(quán)從制造商處獲得賠償?!盵7]這一立法思路,似將人工智能產(chǎn)品作為被保險(xiǎn)人進(jìn)行保障。這一思路的理論基礎(chǔ)類似于未成年人理論。在該理論之下,未成年人是一個(gè)具有權(quán)利能力和行為能力的法律主體,且在保險(xiǎn)關(guān)系中不需要承擔(dān)責(zé)任,因此可以作為被保險(xiǎn)人存在。
人工智能產(chǎn)品具有類似于未成年人的法律地位,可以類推為被保險(xiǎn)人。然而,將人工智能產(chǎn)品作為被保險(xiǎn)人進(jìn)行保障,有可能阻礙人工智能產(chǎn)品的發(fā)展。依照英國的做法,將人工智能產(chǎn)品作為被保險(xiǎn)人,在發(fā)生事故之后,保險(xiǎn)公司直接對受害人進(jìn)行賠付。倘若制造者對此事故負(fù)有責(zé)任,則保險(xiǎn)公司賠付完畢之后,可以行使對制造者的代位追償權(quán),最終的責(zé)任承擔(dān)者仍是人工智能產(chǎn)品的制造者。倘若責(zé)任過重,勢必打擊制造者發(fā)展人工智能產(chǎn)品的積極性,從而阻礙了人工智能產(chǎn)品的發(fā)展。在保險(xiǎn)產(chǎn)品設(shè)計(jì)上,既能保護(hù)制造者信心,又能保證受害人獲得賠償?shù)脑O(shè)計(jì),應(yīng)當(dāng)是將責(zé)任的最終承擔(dān)者作為被保險(xiǎn)人,即將制造者和使用者作為被保險(xiǎn)人。如上所述,人工智能產(chǎn)品所涉責(zé)任最終由產(chǎn)品制造者和使用者替代承擔(dān),消弭責(zé)任之保險(xiǎn)產(chǎn)品自然應(yīng)當(dāng)從根本著手,將責(zé)任的最終承擔(dān)者作為保障對象。若以責(zé)任的最終承擔(dān)者作為保障對象,由于沒有任何主體對事故之責(zé)任再次負(fù)責(zé),保險(xiǎn)公司也便不能行使代位追償權(quán)。故而,制造者和使用者的信心可以獲得充分保障。
綜上所述,依未成年人理論,未成年人完全可以作為被保險(xiǎn)人,然而在人工智能產(chǎn)品的保險(xiǎn)問題上,應(yīng)當(dāng)改變未成年人保險(xiǎn)的做法,將人工智能產(chǎn)品的制造者和使用者作為被保險(xiǎn)人。探討人工智能產(chǎn)品的法律責(zé)任,應(yīng)從人工智能產(chǎn)品的法律地位開始。人工智能產(chǎn)品不具有承擔(dān)責(zé)任的能力,這與未成年人極其相似,故而,本文對其法律地位做出了類似于未成年人的解釋。人工智能產(chǎn)品產(chǎn)生的責(zé)任需要由制造者或使用者替代承擔(dān),這種承擔(dān)方式可類比于未成年人的責(zé)任承擔(dān)。為了消弭責(zé)任,必須建立人工智能產(chǎn)品的保險(xiǎn)制度。人工智能產(chǎn)品責(zé)任保險(xiǎn)的設(shè)計(jì)應(yīng)當(dāng)以制造者和使用者作為被保險(xiǎn)人,如此方能消除對人工智能產(chǎn)品發(fā)展的阻礙。
[1]袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017(5):24.
[2]梁鵬.大學(xué)生網(wǎng)貸風(fēng)險(xiǎn)的法律控制[J].中國青年社會科學(xué),2016(5):17.
[3]付其運(yùn).人工智能非主體性前提下侵權(quán)責(zé)任承擔(dān)機(jī)制研究[J].法學(xué)雜志,2021(4):33.
[4]楊立新.侵權(quán)法論[M].北京:人民法院出版社,2013:863.
[5]司曉.論人工智能的民事責(zé)任:以自動駕駛汽車和智能機(jī)器人為切入點(diǎn)[J].法律科學(xué),2017(5):21.
[6]姜曉婧.智能機(jī)器人民事主體制度構(gòu)建[J].科技與法律,2019(1):15.
[7]王靖茹.自動駕駛汽車事故責(zé)任問題研究[J].河北大學(xué)學(xué)報(bào),2017(4):9.
Legal Status of Artificial Intelligence Products, Infringement Responsibility Form and Liability Insurance
Zhou Xin
In artificial intelligence infringement cases, it is obviously unfair to certificate whether artificial intelligence is faulty or not. It should apply non-fault responsibility. The only exemption of the manager is to produce a defect, and the responsibility is responsible to the producer and the seller. The exemption of producers and sellers is applicable to product responsibility, that is, to prove that the prior art is not enough to find the product. Artificial intelligence and its producers, the infringement responsibility between manners help us to seek a balance between responsibility, damages and technology development. When an infringement accident occurs, damage compensation is borne by artificially intelligent self-insurance payment, fund and compensation, and the deficiencies are supplemented by the infringement responsibility, and the manager and producer do not assume joint responsibility.
Big data; Auto-pilot; Tort liability; Artificial intelligen
2021-07-02
中國博士后第63批科學(xué)基金面上資助項(xiàng)目(2018M633635XB);貴州省社會科學(xué)界聯(lián)合會基金課題(LHKT2019YB03)
周鑫(1981—),男,江蘇連云港人,重慶大學(xué)法學(xué)院與銅仁學(xué)院銅仁市文化科技產(chǎn)業(yè)創(chuàng)新研究中心聯(lián)合博士后,主要從事人工智能法學(xué)理論研究。
10.13685/j.cnki.abc. 000588
D923
A
1671-9255(2021)04-0048-04
安徽商貿(mào)職業(yè)技術(shù)學(xué)院學(xué)報(bào)2021年4期