胡夢(mèng)楠
人工智能是指經(jīng)過研發(fā)用于模仿和拓展人類智能的一門嶄新的科學(xué)技術(shù)。隨著智能時(shí)代的到來,人工智能產(chǎn)品已經(jīng)進(jìn)入我們的生活,其在提高教育質(zhì)量、保護(hù)生態(tài)環(huán)境等方面發(fā)揮著舉足輕重的作用,并推動(dòng)社會(huì)不斷發(fā)展進(jìn)步,使人類歷史開始書寫新篇章。但由于配套法律的不完善,導(dǎo)致一系列與人工智能機(jī)器相關(guān)的法律問題,引起社會(huì)關(guān)注。
隨著國(guó)內(nèi)首例——特斯拉自助駕駛車禍案的發(fā)生,人工智能一詞引起了社會(huì)的廣泛關(guān)注。2016年1月,一輛特斯拉Models在京港澳高速路段行駛過程中,因未及時(shí)檢測(cè)到有一輛開著閃爍燈的道路清掃車停在其左前方這一突發(fā)情況,并未轉(zhuǎn)換車道仍按預(yù)定速度行駛,從而發(fā)生車輛碰撞事故。此案例中,特斯拉汽車能否作為獨(dú)立的責(zé)任主體承擔(dān)責(zé)任?在刑法領(lǐng)域,界定人工智能機(jī)器的刑事責(zé)任問題成為理論界亟待解決的重要問題之一。
(一)不具備辨認(rèn)能力與控制能力
人工智能機(jī)器目前尚未具備與刑法主要規(guī)制的“人”一致的辨認(rèn)能力。其所進(jìn)行的違規(guī)操作和正確操作模式,在技術(shù)程序設(shè)置中只是錯(cuò)誤代碼和正常代碼的區(qū)別。人工智能機(jī)器中人為輸入進(jìn)去的復(fù)雜代碼與算數(shù)程序,不能被當(dāng)作刑事責(zé)任能力中的辨認(rèn)要素。因此,人工智能機(jī)器根本沒有能力認(rèn)識(shí)“犯罪行為”的性質(zhì)及其帶來的嚴(yán)重后果。人工智能機(jī)器同時(shí)也不具備刑法意義上的控制能力?,F(xiàn)在的智能機(jī)器仍完全受程序控制,與刑法所要求的控制能力具有天壤之別。
(二)人工智能機(jī)器的行為受人類主觀心態(tài)支配
自然人對(duì)人工智能機(jī)器的研發(fā)和適用過程進(jìn)行全程控制。2017年7月,國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,人工智能正式上升至國(guó)家戰(zhàn)略層面。立足國(guó)家政策層面,生產(chǎn)者在操作中對(duì)人工智能機(jī)器輸入算法程序,設(shè)置不同的操作模式,使其具有特定的效用,呈現(xiàn)出國(guó)家與自然人的主觀態(tài)度。同時(shí),使用者和管理者在操控智能機(jī)器時(shí),可選擇不同的模式設(shè)定,用于不同的生產(chǎn)生活場(chǎng)景,實(shí)現(xiàn)自身利益最大化。因此,人工智能機(jī)器所產(chǎn)生的一切合法或違法行為,都是其生產(chǎn)者、使用者與管理者主觀心態(tài)的客觀外在表現(xiàn)形式,其本身沒有進(jìn)行自我選擇的權(quán)利。
從刑罰的預(yù)防功能來看,人工智能機(jī)器沒有類似于動(dòng)物所具有的疼痛感與相應(yīng)的承受能力,針對(duì)人工智能適用現(xiàn)有的刑罰措施,達(dá)不到任何類似于人類在相同情況下的反應(yīng)。從刑罰的改造功能來看亦是如此,進(jìn)行教育的前提是被教育改造的罪犯是思想自由、能夠獨(dú)立思考的生物,教育的目的則是消除他們的犯罪思想,使他們樹立正確的價(jià)值觀。然而,人工智能機(jī)器作為一個(gè)由人操控、自身毫無辨認(rèn)與控制能力的機(jī)器,即使如相關(guān)學(xué)者提出的對(duì)其進(jìn)行“刪除數(shù)據(jù)”等改造行為,也與我國(guó)現(xiàn)有的改造觀念大相徑庭。
人工智能機(jī)器無法作為刑事責(zé)任主體承擔(dān)刑事責(zé)任,為避免發(fā)生逃罪或漏罪等現(xiàn)象,探尋創(chuàng)造、監(jiān)管或使用人工智能機(jī)器的主體,確立多元化的責(zé)任機(jī)制,規(guī)定違法阻卻事由,才是刑法穩(wěn)定性與歉抑性所要求的題中之義。
(一)人工智能機(jī)器制造商或銷售商
這種責(zé)任主體范圍的認(rèn)定,是將人工智能機(jī)器作為一種產(chǎn)品。由于人工智能機(jī)器的制造者與銷售者沒有履行其應(yīng)盡的檢查義務(wù)導(dǎo)致智能產(chǎn)品出現(xiàn)瑕疵或缺陷,或者在故意或明知的情況下設(shè)定違法程序,借助智能機(jī)器人實(shí)現(xiàn)違法犯罪構(gòu)成要件,導(dǎo)致人工智能機(jī)器在使用過程中引發(fā)刑法意義上的結(jié)果。
(二)人工智能機(jī)器的所有者或?qū)嶋H使用者
這類責(zé)任主體范圍的認(rèn)定,是將人工智能機(jī)器視為一種犯罪工具,即人工智能機(jī)器直接實(shí)施犯罪,而所有者或?qū)嶋H使用者作為間接主犯在幕后進(jìn)行操控。人工智能機(jī)器的所有者負(fù)有正確使用與嚴(yán)加監(jiān)管的義務(wù),這也就意味著,即使將智能機(jī)器人借給他人使用,也應(yīng)承擔(dān)嚴(yán)格審核借用人資格、具體了解其用途的義務(wù)。
(三)確定違法阻卻事由
智能機(jī)器人作為當(dāng)代人工智能技術(shù)發(fā)展的結(jié)晶,本身高度復(fù)雜,難以控制,即使進(jìn)行了嚴(yán)格細(xì)致的檢測(cè)與實(shí)驗(yàn),也無法徹底消除安全風(fēng)險(xiǎn)。但凡出現(xiàn)違法的情況,就動(dòng)用刑法來解決,雖然能暫時(shí)確保社會(huì)的安全,卻阻止了人工智能技術(shù)的進(jìn)步,使人類利益大大縮水,還會(huì)破壞刑法的歉抑性與穩(wěn)定性,造成社會(huì)混亂。因此,在商榷人工智能機(jī)器的刑事責(zé)任問題時(shí),必須確立違法阻卻事由,以確保司法公正。
(作者單位:河南大學(xué))