許鐘靈 吳情樹
內(nèi)容提要: 與時俱進地因應(yīng)人工智能時代的過失刑事風(fēng)險, 抽釘拔楔之道需要明確人工智能體不具有刑事責(zé)任主體地位, 由人工智能體的研發(fā)者、 使用者承擔刑事責(zé)任。 “新過失論” 能夠?qū)徤鞔_定人工智能體研發(fā)者、 使用者注意義務(wù)和結(jié)果避免義務(wù)的邊界, 同時兼顧被容許的危險、 危險分配理論和信賴原則, 從根本上保證人工智能體向有益于人類的正確方向發(fā)展, 使刑法理論契合人工智能帶來的變革。 人工智能體研發(fā)者、 使用者均違反直接的結(jié)果預(yù)見義務(wù)和結(jié)果回避義務(wù)時, 可能承擔共同過失犯罪的刑事責(zé)任。 人工智能體研發(fā)者的監(jiān)督過失行為通過人工智能體使用者的行為間接導(dǎo)致了危害后果時, 可能承擔監(jiān)督過失犯罪的刑事責(zé)任。
順循文明的發(fā)展軌跡, 人類社會先后經(jīng)歷了以蒸汽技術(shù)為基礎(chǔ)的第一次技術(shù)革命、 以電力技術(shù)為本體的第二次技術(shù)革命以及以計算機及其信息技術(shù)為標志的第三次技術(shù)革命, 當前進入了大數(shù)據(jù)、 云計算等并駕齊驅(qū)的第四次技術(shù)革命, 即人工智能時代。 這既是經(jīng)濟社會發(fā)展的強烈需求所致, 又是技術(shù)服務(wù)于時代使命之宗旨的必然結(jié)果。 在這場技術(shù)革命浪潮中, 世界各國逐漸把發(fā)展人工智能技術(shù)作為科技戰(zhàn)略的重點, 力圖在新一輪國際科技競爭中掌握主導(dǎo)權(quán)。 當前, 我國在 《新一代人工智能發(fā)展規(guī)劃》 中大致勾勒了人工智能發(fā)展的政策框架, 在國家層面進行積極戰(zhàn)略部署, 明確提出我國人工智能發(fā)展 “三步走” 的戰(zhàn)略目標和 “三個全面” 的重要任務(wù)。①我國人工智能發(fā)展 “三步走戰(zhàn)略”: 第一步, 到2020 年人工智能總體技術(shù)和應(yīng)用與世界先進水平同步, 人工智能產(chǎn)業(yè)成為新的重要經(jīng)濟增長點, 人工智能技術(shù)應(yīng)用成為改善民生的新途徑, 有力支撐進入創(chuàng)新型國家行列和實現(xiàn)全面建成小康社會的奮斗目標。 第二步, 到2025 年人工智能基礎(chǔ)理論實現(xiàn)重大突破, 部分技術(shù)與應(yīng)用達到世界領(lǐng)先水平, 人工智能成為帶動我國產(chǎn)業(yè)升級和經(jīng)濟轉(zhuǎn)型的主要動力, 智能社會建設(shè)取得積極進展。 第三步, 到2030 年人工智能理論、 技術(shù)與應(yīng)用總體達到世界領(lǐng)先水平, 成為世界主要人工智能創(chuàng)新中心, 智能經(jīng)濟、 智能社會取得明顯成效, 為躋身創(chuàng)新型國家前列和經(jīng)濟強國奠定重要基礎(chǔ)。 參見國務(wù)院: 《新一代人工智能發(fā)展規(guī)劃》, 中國政府網(wǎng): http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm., 2019 年11 月24 日訪問。 我國人工智能發(fā)展的重心在于鼓勵技術(shù)研發(fā)方面, 對于人工智能應(yīng)用所帶來的法律風(fēng)險、 技術(shù)風(fēng)險等, 尚缺乏整體認識和積極部署。
“這是最好的時代, 也是最壞的時代?!?人工智能在給我們帶來高效化、 便利化的 “最好時代”的同時, 也給我們帶來了法律風(fēng)險、 倫理風(fēng)險、 技術(shù)風(fēng)險并存的 “最壞時代”。 然而迄今為止, 各國關(guān)于人工智能體可能帶來刑事風(fēng)險的應(yīng)對還未形成自臻的規(guī)則系統(tǒng), 面對人工智能體②“人工智能” 是一門研究、 開發(fā)用于模擬、 延伸和擴展人的智能的理論、 方法、 技術(shù)及應(yīng)用的技術(shù)科學(xué), 只有相關(guān)的實體即“人工智能體” 才能成為探討刑事責(zé)任的基礎(chǔ)和前提。 既有研究所指的 “人工智能” “智能機器人” “人工智能產(chǎn)品” 等均為本文探討的 “人工智能體”, 為忠實原文措辭, 筆者在引用時仍保留原文的表述。的犯罪案件, 仍然依托于權(quán)責(zé)裁量。 本文擬立足于對人工智能體刑事責(zé)任主體地位之詰問, 以 “新過失論”為基礎(chǔ), 建構(gòu)由違反注意義務(wù)的研發(fā)者、 使用者為主體架構(gòu)的刑法教義學(xué)體系, 并結(jié)合被容許的危險理論、 危險分配理論和信賴原則等多維角度合理限定過失犯的處罰范圍, 探討人工智能體犯罪的歸責(zé)路徑, 尋找增進人工智能的發(fā)展福利與防范潛存的刑事風(fēng)險之間的平衡點。
刑事風(fēng)險是指受刑法保護的法益可能受到犯罪行為嚴重侵犯的風(fēng)險。 這種 “嚴重侵犯” 包括兩種情況: 一是對我國刑法保護的法益造成實際危害。 二是對我國刑法保護的法益沒有造成實害但具有造成實害的可能性。③參見夏勇: 《“風(fēng)險社會” 中的 “風(fēng)險” 辨析 刑法學(xué)研究中 “風(fēng)險” 誤區(qū)之澄清》, 載 《中外法學(xué)》 2012 年第2 期。德國學(xué)者烏爾里?!へ惪嗽?《風(fēng)險社會》 一書中提出: “風(fēng)險的來源……是期望于對自然的控制能夠日趨完美……”④薛曉源、 劉國良: 《全球風(fēng)險世界: 現(xiàn)在與未來——德國著名社會學(xué)家、 風(fēng)險社會理論創(chuàng)始人烏爾里希·貝克教授訪談錄》,載 《馬克思主義與現(xiàn)實》 2005 年第1 期。人工智能時代的風(fēng)險, 正是貝克所描繪的風(fēng)險社會的另一種表現(xiàn)形式, 這種風(fēng)險的形式表現(xiàn)為人為的風(fēng)險。 人類創(chuàng)造了使自己的生產(chǎn)生活更加便捷的人工智能體, 并且期望設(shè)計出完美的制度框架以控制可能危及人類自身的風(fēng)險。 然而, 由于目前的人工智能技術(shù)存在著不可避免的缺陷, 各國先后涌現(xiàn)多起由人工智能技術(shù)引發(fā)的刑事案件, 一時間爆發(fā)了聚焦于人工智能技術(shù)的廣泛的社會聲討。⑤2016 年, 邯鄲一輛特斯拉自動駕駛汽車未能按照程序設(shè)定躲避障礙物, 從而撞上前車并導(dǎo)致車主身亡。 2018 年3 月, 美國亞利桑那州坦佩市發(fā)生了一起Uber 無人車撞死行人的事故。 自2013 年起至2018 年6 月止, 駕乘特斯拉汽車于開啟自動駕駛模式下發(fā)生了涵蓋美國、 中國等國家的9 起交通事故。
人工智能體時代的過失刑事風(fēng)險可以分為人工智能體本身的過失刑事風(fēng)險和人類利用人工智能體創(chuàng)造的過失刑事風(fēng)險。⑥本文所討論的過失刑事風(fēng)險僅指人工智能體自身引發(fā)的過失刑事風(fēng)險和由于人工智能體的研發(fā)者、 使用者沒有履行各自的注意義務(wù), 繼而引發(fā)的過失刑事風(fēng)險。人工智能體研發(fā)者或者人工智能體使用者故意利用人工智能體實施犯罪行為時, 人工智能體本身就是研發(fā)者或者使用者的犯罪工具, 這種犯罪與通常的犯罪沒有什么區(qū)別,可以直接適用刑法的有關(guān)規(guī)定予以定罪處罰。 但是, 對于人工智能體本身的過失而導(dǎo)致的犯罪, 則由于過失犯歸責(zé)的判斷標準等傳統(tǒng)過失理論的歸責(zé)困境長期存在, 且無論是科幻泰斗阿西莫夫提出的 “機器人三原則”,⑦“機器人三原則” 是指: 第一, 機器人不得傷害人類, 或看到人類受到傷害而袖手旁觀; 第二, 機器人必須服從人類的命令, 除非這條命令與第一條相矛盾; 第三, 機器人必須保護自己, 除非這種保護與以上兩條相矛盾。還是日本學(xué)者新保史生教授提出的 “機器人使用八原則”⑧“機器人使用八原則” 是指: 第一, 人類優(yōu)先原則; 第二, 服從命令原則; 第三, 保護秘密原則; 第四, 限制利用原則; 第五, 安全保護原則; 第六, 公開透明性原則; 第七, 個人參加原則; 第八, 責(zé)任原則。都無法保證人工智能體的研發(fā)者、 設(shè)計者制造出對人類法益完全沒有侵害的人工智能體。 因此, 人類在應(yīng)對人工智能體研發(fā)者或者人工智能體使用者過失導(dǎo)致人工智能體產(chǎn)生的刑事風(fēng)險時顯得力有不逮, 這便使得人工智能時代的過失犯罪常常出現(xiàn)歸責(zé)間隙。
筆者認為, 對人工智能時代的過失刑事風(fēng)險進行刑法規(guī)制的正當根據(jù)就在于在法律制度缺位的情況下調(diào)和兩種人之間產(chǎn)生的差距。 一種是擁有與人工智能相關(guān)的數(shù)據(jù)、 技術(shù)資源優(yōu)勢的人, 他們利用人工智能體創(chuàng)造風(fēng)險、 定義風(fēng)險并從風(fēng)險中獲益 (侵害者); 另一種是作為人工智能風(fēng)險對象的人, 他們循途守轍安分守己, 卻無力參與決策進程, 不得不成為被人工智能技術(shù)攻擊的 “目標”(受害者)。 如何權(quán)衡與回應(yīng)人工智能技術(shù)的發(fā)展和由此引發(fā)的過失刑事風(fēng)險的沖突, 乃是既有刑法學(xué)所關(guān)切的理論與現(xiàn)實命題。 解決以上問題的關(guān)鍵在于否定人工智能體本身具有單獨的刑事責(zé)任主體地位以及合理配置人工智能體研發(fā)者、 使用者的刑事責(zé)任。
以是否擁有推理能力和解決問題的能力為分類標準, 可以將人工智能體分為弱人工智能體、 強人工智能體和超強人工智能體。 弱人工智能體, 指的是具備一定推理能力和解決特定問題能力的人工智能體。 這些人工智能體雖然可以在設(shè)計和編制的程序范圍內(nèi)像人類一樣思考甚至進行深度學(xué)習(xí), 但其實現(xiàn)的只是創(chuàng)造者的意志。 強人工智能體意為達到人類水平的、 能夠獨立應(yīng)對外界環(huán)境挑戰(zhàn), 具有自主認知、 思考能力的人工智能體。 如果某一人工智能體 “已經(jīng)跨越了 ‘奇點’, ……在所有領(lǐng)域都比最聰明的人類大腦更智能”⑨高銘暄、 王紅: 《互聯(lián)網(wǎng)+ 人工智能全新時代的刑事風(fēng)險與犯罪類型化分析》, 載 《暨南學(xué)報 (哲學(xué)社會科學(xué)版)》 2018 年第9 期。則是超強人工智能體。 此時的人工智能體開始脫離人類的控制。 學(xué)者們對弱人工智能體不具有刑事責(zé)任主體地位的認識基本是一致的; 而對于強人工智能體是否具有刑事責(zé)任主體地位, 學(xué)者們莫衷一是; “人工智能奇點” 是否能夠到來仍是一個未知數(shù),超強人工智能的出現(xiàn)與否具有不可預(yù)測性, 對于超強人工智能可能帶來的刑事風(fēng)險, 并非現(xiàn)階段的刑法亟需回應(yīng)的問題。 因此, 本文探討的是強人工智能體是否具有刑事責(zé)任主體地位。
劉憲權(quán)教授等學(xué)者從應(yīng)然層面將人工智能體作為刑事責(zé)任主體, 并提倡針對其特點設(shè)立特殊的刑罰處罰方式。 理由之一, 強智能機器人與人一樣具有辨認和控制能力。 強智能機器人通過 “電子眼” “電子耳” 認識到事實層面的行為, 并通過程序和算法對行為的性質(zhì)、 后果、 意義進行辨認。其有可培養(yǎng)的控制能力和極其快速的處理能力、 反應(yīng)速度, 能夠憑借大數(shù)據(jù)與高速運算能力, 在自主意識和意志的支配下對行為做出精準的控制。 理由之二, 強智能機器人比單位更接近于自然人,更有理由成為刑事責(zé)任主體。 單位是一個集合體, 單位內(nèi)部成員的辨認能力和控制能力是通過單位整體表達, 在整體意志支配下實施嚴重危害社會的行為; 而強智能機器人能夠在獨立的自主意識和意志支配下實施嚴重危害社會的行為, 不需要通過其他主體作為辨認能力和控制能力的表達媒介。理由之三, 強智能機器人能夠接受刑罰處罰。 因現(xiàn)行刑罰種類在強智能機器人身上完全無法奏效而否定其刑事責(zé)任主體地位的邏輯陷入了由果溯因的邏輯怪圈。 正確的邏輯鏈條是: 考慮強智能機器人是否具備刑事責(zé)任能力, 從而確定其能否成為刑事責(zé)任主體, 在其符合犯罪構(gòu)成要件時考慮應(yīng)否對其進行刑罰處罰以及采用何種刑罰方式對其進行處罰。 增設(shè) “刪除數(shù)據(jù)、 修改程序、 永久銷毀”的刑罰種類能夠達到犯罪預(yù)防的目的, 解決無法適用現(xiàn)行刑罰種類的人工智能犯罪的問題。⑩當前以劉憲權(quán)、 張金鋼、 馬治國、 田小楚為代表的諸多刑法學(xué)者積極主張強人工智能體作為刑事責(zé)任主體認定。
綜合上述 “肯定說” 學(xué)者的基本觀點: 強人工智能體的辨認能力和控制能力都可以通過相關(guān)人員的參與輸入, 具備與刑事責(zé)任主體同樣的辨認能力和控制能力。 在探討強人工智能體是否能成為刑事責(zé)任主體時, 應(yīng)把目光聚焦在何為自然人和單位作為刑事責(zé)任主體的共同點上, 如果強人工智能體具備這一必備要件, 其就有成為刑事責(zé)任主體的可能性。 應(yīng)當先考慮強人工智能體是否能夠成為刑事責(zé)任主體, 再考慮能通過何種刑罰方式處罰。
筆者是強人工智能體刑事責(zé)任主體地位 “否定說” 的支持者, 并認為, 雖然強人工智能體刑事責(zé)任主體地位 “肯定說” 的觀點言之鑿鑿, 但從其理由與結(jié)論的邏輯關(guān)系理性地分析, 有很多值得商榷之處。
其一, 人工智能體不具有真正的辨認和控制能力。 人類的 “智能” 和人工智能體的 “智能” 來源不同: 人類的 “智能” 來源于無特定目的自然選擇, 人工智能體的 “智能” 來源于研發(fā)者帶有特定目的的預(yù)先程序設(shè)計和算法編制。 自然人的辨認能力和控制能力與人工智能的辨認能力和控制能力也不同: 人類的辨認能力和控制能力是物種進化的結(jié)果, 人工智能體的辨認能力和控制能力的產(chǎn)生依賴于人類精密的制造和加工過程。 因此人工智能體缺乏感知對自己的行為在刑法上的意義、 性質(zhì)、 后果的辨認能力和控制能力。 其二, 對人工智能體進行刑罰處罰達不到刑罰的目的。 無論是刪除數(shù)據(jù), 還是修改程序, 抑或最嚴厲的永久銷毀的 “刑罰種類”, 都既不能阻止人工智能體再次實施犯罪, 達到特殊預(yù)防的目的, 也不能規(guī)誡其他人工智能體不要重蹈覆轍, 達到一般預(yù)防的目的?!笆狗缸锶耸軇儕Z性痛苦是刑罰的懲罰性質(zhì)與內(nèi)在屬性”,1①張明楷: 《刑法學(xué)》 (第五版), 法律出版社2016 年版, 第56 頁。而增設(shè)的刑罰種類在本質(zhì)上均忽略了依托于數(shù)據(jù)和算法的人工智能體缺乏對刑罰實質(zhì)意義的認識。 其三, 人工智能體和單位不具有可類比性。 單位本身有獨立于其自然人組成人員的特殊利益, 因此, 將單位擬制為法律主體符合法律主體利己性②道德行為性通常表現(xiàn)出 “利他” 屬性, 而法律行為通常具有 “利己主義” 的典型特征, “利己” 是對法律主體最基本的人性假設(shè)。 自然人在法律意義上具有利己性, 單位符合法律主體利己性的前提假設(shè), 因此將單位擬制為法律主體。的前提假設(shè)。 人工智能體服務(wù)于人類社會的存在目的體現(xiàn)了其工具性的根本價值, 而工具性價值又決定了其具有天然的利他屬性。
人工智能體不具有刑事責(zé)任主體在生活過程中逐漸形成的感覺和情緒, 即缺乏內(nèi)心感知和情感因素。 根據(jù)費爾巴哈的 “心理強制說”, 如果在法律上規(guī)定有犯罪必有刑罰, 刑事主體就會為了避免刑罰所產(chǎn)生的“痛苦”, 而選擇因抑制犯罪行為所導(dǎo)致的“小的不愉快”。③參見張明楷: 《刑法的基本立場》 (修訂版), 商務(wù)印書館2019 年版, 第17 頁。人工智能體只能基于預(yù)先設(shè)定的精密程序?qū)邮盏降母鞣N信息進行識別、 分析和總結(jié), 無法基于內(nèi)心感知來權(quán)衡比較實施犯罪帶來的 “小的愉快” 與犯罪后所帶來的受刑罰處罰的 “痛苦”, 從而作出評判和行為選擇。 人工智能體缺乏內(nèi)心感知, 不知道自己可以克制自己的行為, 因此, 當人工智能體實施了惡的行為時, 不能對自己的行為負責(zé)。 人工智能體也無法感知違反法律規(guī)范的消極后果, 進而選擇是否違反法律規(guī)范, 因此也無法用法律懲罰。 無獨有偶, 維特根斯特也否定強人工智能體的刑事責(zé)任主體地位。 他提出“即使機器能夠模擬人的腦電波, 也不足以產(chǎn)生人的思維。”④參見孟令鵬: 《論維特根斯坦關(guān)于人工智能的基本觀點》, 載 《山東社會科學(xué)》 2012 年第5 期。休伯特則從人的思維不可能被數(shù)字計算機程序化、 形式化的角度來否定強人工智能。⑤[美] 休伯特·德雷福斯: 《計算機不能做什么——人工智能的極限》, 寧春巖譯, 三聯(lián)書店1986 年版, 第293 頁。 轉(zhuǎn)引自周銘川: 《強人工智能刑事責(zé)任之否定》, 載 《上海政法學(xué)院學(xué)報》 (法治論叢) 2019 年第2 期。趙秉志教授以“相對自由意志” 為判斷標準, 認為由于強人工智能體不具有相對的自由意志, 無論強人工智能體發(fā)展到何種高級程度, 其存在的意義仍然是一種工具價值, 不會因為追求自由意志而偏離為人類服務(wù)的軌道。⑥參見趙秉志、 詹奇瑋: 《現(xiàn)實挑戰(zhàn)與未來展望: 關(guān)于人工智能的刑法學(xué)思考》, 載 《暨南學(xué)報 (哲學(xué)社會科學(xué)版)》, 2019 年第1 期。
總之, 強人工智能體由于缺乏和自然人一樣的情感因素和內(nèi)心感知, 盡管可以利用大數(shù)據(jù)、 云計算等現(xiàn)代信息技術(shù), 對事物作出準確的反應(yīng)和判斷, 但其對行為性質(zhì)和意義以及可能造成的后果上缺乏感知, 也無法對此作出決定實施與否的選擇, 而且本身也無法感受來自刑罰懲罰的痛苦, 對其所謂的譴責(zé)或者非難將失去意義, 使得其本身無法單獨成為刑事責(zé)任的歸責(zé)主體。
否定了人工智能體的刑事責(zé)任主體地位, 也就意味著不能對人工智能體單獨進行刑事歸責(zé)和直接判處刑罰。 筆者基于 “以自然人為中心” 的立場, 引入 “新過失論”, 對人工智能體的研發(fā)者、使用者的過失責(zé)任進行刑法規(guī)制, 確保具體案件中刑事責(zé)任承擔的清晰性。 如果人工智能體的研發(fā)者在研發(fā)人工智能體時, 人工智能體的使用者在使用人工智能體時違背各自的注意義務(wù), 且不適用信賴原則, 則有可能對人工智能體造成的危害結(jié)果承擔過失刑事責(zé)任。
以結(jié)果無價值論為本質(zhì)的 “舊過失論” 認為, 只要行為人對危害結(jié)果的發(fā)生具有預(yù)見可能性,且行為與危害結(jié)果間成立刑事法律上的因果關(guān)系, 那么行為人就成立過失犯罪。 也就是說 “舊過失論” 單純考慮行為人的結(jié)果預(yù)見可能性, 只要在構(gòu)成要件該當性和違法性階層上一致, 則責(zé)任階層是故意還是過失在所不問。 譬如, 高速交通工具的運營、 礦山開采等極大地推動社會進步的活動,其本身蘊藏著越來越多的法益侵害危險。 在這些活動中, 行為人對其行為可能產(chǎn)生的危害社會的結(jié)果都有一定的預(yù)見可能性, 在不考慮行為人對危害結(jié)果能否有回避可能性的情況下, 按照 “舊過失論” 的觀點, 行為人都應(yīng)構(gòu)成過失犯罪。 以 “舊過失論” 的標準來認定過失犯罪的做法擴大了過失犯的處罰范圍且與社會公平正義、 經(jīng)濟效率理念相悖。 在社會發(fā)展的新情況、 人們的新觀念下,“新過失論” 應(yīng)運而生。 “新過失論” 主張, 不能追究能夠預(yù)見危害結(jié)果, 并且履行了結(jié)果回避義務(wù)的行為人的過失刑事責(zé)任。 “新過失論” 跳出了傳統(tǒng)過失理論僅在責(zé)任階層討論注意義務(wù)的窠臼,自此, 對過失犯罪的研究, 逐步及于違法性及該當性的領(lǐng)域。 “新過失論” 要求人工智能體的研發(fā)者、 使用者在研發(fā)、 使用人工智能體時遵循各自相關(guān)的注意義務(wù), 在技術(shù)可行的情況下利用 “大數(shù)據(jù)在宏觀層面能夠預(yù)測未來社會的發(fā)展方向、 在微觀層面能夠為各行各業(yè)提供重要指引的優(yōu)勢”,⑦姚萬勤: 《大數(shù)據(jù)時代人工智能的法律風(fēng)險及其防范》, 載 《內(nèi)蒙古社會科學(xué)》 (漢文版) 2019 年第2 期。借助算法和程序收集、 分析和使用數(shù)據(jù), 加以深度學(xué)習(xí), 預(yù)測人工智能體可能帶來的社會所不容許的危害結(jié)果, 并且有效避免結(jié)果的發(fā)生。 這就確保了人類對風(fēng)險的絕對控制力, “把風(fēng)險意識轉(zhuǎn)向人類如何能有效防范風(fēng)險的技術(shù)手段、 制度安排及機制實施等方面”。⑧劉巖: 《風(fēng)險意識啟蒙與反思性現(xiàn)代化——貝克和吉登斯對風(fēng)險社會出路的探尋及其啟示》, 載 《江海學(xué)刊》 2009 年第1 期。
根據(jù) “新過失論”, 探討人工智能體研發(fā)者、 使用者的注意義務(wù)和結(jié)果避免義務(wù)的判斷應(yīng)當以其所處時代的人工智能技術(shù)發(fā)展水平為判斷標準。
1. 注意義務(wù)和結(jié)果避免義務(wù)的來源
根據(jù) “新過失” 理論, 過失必須同時具備行為的注意義務(wù)和結(jié)果的避免義務(wù), 這些義務(wù)的來源是設(shè)置過失犯罪義務(wù)內(nèi)容的前提。 人工智能技術(shù)自身的功能價值由技術(shù)規(guī)范所決定, 其所產(chǎn)生的社會價值則由社會規(guī)范所決定。 因此, 人工智能體研發(fā)者、 使用者注意義務(wù)和結(jié)果回避義務(wù)的來源包含技術(shù)規(guī)范和社會規(guī)范。 社會規(guī)范即相關(guān)領(lǐng)域的法律法規(guī)、 相關(guān)行業(yè)規(guī)范、 倫理道德規(guī)范以及研發(fā)者、 使用者的承諾。 首先, 相關(guān)領(lǐng)域的法律法規(guī)是注意義務(wù)的來源, 學(xué)界幾乎沒有爭議, 但對于相關(guān)行業(yè)規(guī)范是否為注意義務(wù)的來源, 學(xué)界眾口不一。 學(xué)者儲陳城反對將行業(yè)規(guī)范納入注意義務(wù)的來源, 他提出, 由于刑法所保護的利益和行業(yè)規(guī)范所保護的利益并不完全重合, 所以行業(yè)規(guī)范和刑法上的注意義務(wù)的標準并不一致。 行業(yè)標準是非國家組織所制定的, 所以其制定的標準缺乏民主主義的正當性。⑨參見儲陳城: 《人工智能時代刑法歸責(zé)的走向——以過失的歸責(zé)間隙為中心的討論》, 載 《東方法學(xué)》 2018 年第3 期。學(xué)者劉憲權(quán)認為, 盡管相關(guān)行業(yè)規(guī)范沒有體現(xiàn)由立法機關(guān)制定法律的民主性, 但是對研發(fā)者設(shè)計和編制程序的過程起到約束作用才是判定人工智能體的研發(fā)者有無預(yù)見可能性應(yīng)當考慮的因素。⑩參見劉憲權(quán): 《涉人工智能犯罪中研發(fā)者主觀罪過的認定》, 載 《比較法研究》 2019 年第4 期。如果人工智能體研發(fā)者或者使用者具備了上述的注意義務(wù)之后, 還同時要求其具備結(jié)果的回避義務(wù), 只有違背結(jié)果回避義務(wù), 發(fā)生了危害社會的結(jié)果, 才能構(gòu)成相應(yīng)的過失犯罪。
筆者主張相關(guān)行業(yè)規(guī)范是人工智能體研發(fā)者、 使用者注意義務(wù)和結(jié)果回避義務(wù)的來源之一。 因為相關(guān)行業(yè)規(guī)范作為一種具有行為約束力的內(nèi)部準則, 能夠強化研發(fā)者、 使用者的風(fēng)險意識和責(zé)任意識, 并內(nèi)化為自我控制的行動, 從源頭上防范人工智能技術(shù)帶來的刑事風(fēng)險。 其次, 倫理道德規(guī)范作為注意義務(wù)和結(jié)果回避義務(wù)的來源, 能夠確保人工智能體研發(fā)者、 使用者秉持科技倫理優(yōu)先的原則, 在正確的價值理念指引下保障人工智能體 “向善”, 促進人類社會有序發(fā)展。 最后, 研發(fā)者、使用者的承諾也應(yīng)當是研發(fā)者、 使用者注意義務(wù)和結(jié)果回避義務(wù)的來源。 從研發(fā)者的承諾可以推知研發(fā)者已經(jīng)預(yù)見人工智能體可能引發(fā)的風(fēng)險, 從使用者的承諾可以推知使用者已經(jīng)預(yù)見到了未按照人工智能體的操作說明來使用人工智能體可引發(fā)的危險。 如果將研發(fā)者、 使用者的承諾排除在注意義務(wù)的范圍之外, 相當于忽略了認定研發(fā)者、 使用者構(gòu)成過于自信的過失的可能性。
2. 注意義務(wù)和結(jié)果避免義務(wù)的內(nèi)容
(1) 人工智能體注意義務(wù)的設(shè)置不能偏離人類命運終極關(guān)懷的軌道。①霍金在2017 年接受英國雜志社采訪時曾經(jīng)說過: “一個超智能的人工智能在完成目標方面與我們的目標不一致, 我們就會陷入困境?!?如果人工智能技術(shù)的發(fā)展不能實現(xiàn)人類優(yōu)先原則, 其發(fā)展有可能會給人類未來的生存發(fā)展帶來毀滅性的打擊。人類給人工智能體設(shè)定的功能并非價值無涉的, 它們恰恰體現(xiàn)了一定的目標。 “任何法學(xué)理論總是倚賴關(guān)于人的理論”,②Iredell Jenkins.Social Order and the Limits of Law: a Theoretical Essay, New Jersey: Princeton University Press, 1980, p.49.因此研發(fā)者和使用者所有注意義務(wù)和結(jié)果回避義務(wù)的內(nèi)容都應(yīng)當建立在有益于人類的基礎(chǔ)上, 而不能是優(yōu)先考慮人工智能技術(shù)發(fā)展的利益。 當人工智能體有可能實施的犯罪行為所侵害的法益涉及人的生命、 自由等人類相關(guān)的重大法益時, 應(yīng)當對研發(fā)者、 使用者賦予較高的注意義務(wù)和結(jié)果回避義務(wù);如果該犯罪只不過關(guān)乎與人類無關(guān)的相當輕微的法益時, 應(yīng)當相應(yīng)地減少研發(fā)者、 使用者的注意義務(wù)和結(jié)果回避義務(wù)。 這也印證了烏爾里?!へ惪藢︼L(fēng)險社會的探尋, “在自然和傳統(tǒng)失去它們的無限效力并依賴于人的決定的地方, 才談得上風(fēng)險”。③[德] 烏爾里?!へ惪恕?約翰內(nèi)斯·威爾姆斯: 《自由與資本主義》, 路國林譯, 浙江人民出版社2001 年版, 第56 頁。
(2) 研發(fā)者的注意義務(wù)和結(jié)果回避義務(wù)包括源頭控制、 雙重監(jiān)督和明確提示。 源頭控制是指人工智能體研發(fā)者在研發(fā)過程中植入控制程序, 始終保持對人工智能體的控制能力, 對研發(fā)的人工智能體可能帶來的社會危害或不穩(wěn)定因素有足夠的認識并且努力消除。 雙重監(jiān)督包括研發(fā)時的監(jiān)督和繼續(xù)監(jiān)督。 研發(fā)時的監(jiān)督是指研發(fā)者在研發(fā)時應(yīng)當設(shè)置安全性測評, 排除研發(fā)當時所能預(yù)見的安全隱患, 確保研發(fā)的人工智能體向安全可控的方向發(fā)展。 繼續(xù)監(jiān)督是指若發(fā)現(xiàn)尚未投入使用的人工智能體存在可能致人損害的缺陷, 人工智能體研發(fā)者應(yīng)當通過技術(shù)手段修補缺陷, 阻止人工智能體實施危害活動; 若發(fā)現(xiàn)已經(jīng)投入使用的人工智能體出現(xiàn)研發(fā)時難以預(yù)料的危害, 人工智能體研發(fā)者應(yīng)當采取必要的召回措施以防止損害結(jié)果進一步擴大。 明確提示是指因人工智能體的類型不同而對人工智能體使用者的操作要求也有所不同, 人工智能體研發(fā)者必須明確提示人工智能體使用者在使用中應(yīng)保持何種類型、 何種程度的注意義務(wù), 并對使用過程中可能存在的安全隱患作出預(yù)警。
(3) 人工智能體使用者的注意義務(wù)和結(jié)果回避義務(wù)是謹慎詢問、 合理使用和及時報告。 謹慎詢問是指由于使用者作為非專業(yè)領(lǐng)域人士, 對于人工智能這項尚未成熟的技術(shù)還不具備足夠的相關(guān)技術(shù)知識和能力, 不能判斷自己的行為可能對法益所造成的風(fēng)險,④詳見Engisch, 1930, 306 ff.; Jescheck/Weigend, AT 5, § 55I3c. 轉(zhuǎn)引自[德] 克勞斯·羅克辛: 《德國刑法學(xué)總論》 (第1 卷), 王世洲譯, 法律出版社2005 年版, 第721 頁。為了確保安全、 規(guī)范地使用人工智能體, 應(yīng)當謹慎地詢問人工智能體研發(fā)者, 盡快掌握相關(guān)知識和能力, 將人工智能體的使用風(fēng)險控制在提前預(yù)測的范圍內(nèi)。⑤參見[德] 漢斯·海因里?!ひ惪?、 托馬斯·魏根特: 《德國刑法教科書》 (總論), 徐久生譯, 中國法制出版社2001 年版,第697 頁。合理使用是指人工智能體使用者遵照人工智能體設(shè)定的合法用途和使用規(guī)范來使用人工智能體, 以保證人工智能體在研發(fā)者設(shè)定的安全有序的程序下運行。 及時報告是指在人工智能體使用者在使用過程中發(fā)現(xiàn)人工智能體潛存的技術(shù)瑕疵可能對人類造成損害或者可能被應(yīng)用于非正當?shù)纳鐣康臅r應(yīng)當及時向有關(guān)人員報告。
“數(shù)字化世界密集性和復(fù)雜性的背后, 風(fēng)險將如影隨形。”⑥馬長山: 《人工智能的社會風(fēng)險及其法律規(guī)制》, 載 《法律科學(xué)》 2018 年第6 期。人工智能技術(shù)的發(fā)展是時代的大勢所趨, 如果將與人工智能技術(shù)的發(fā)展相伴而生的風(fēng)險都作為違法來對待, 社會將停滯不前, 所以為了促進社會生產(chǎn)的發(fā)展, 就必須在一定程度上容許危險的存在。 “新過失論” 為防止過苛追究人工智能體研發(fā)者、 使用者的過失刑事責(zé)任, 在認定研發(fā)者、 使用者的過失刑事責(zé)任時基于被容許的危險理論和危險分配的理論并設(shè)定不同的結(jié)果預(yù)見義務(wù)和結(jié)果避免義務(wù), 把原來由研發(fā)者、 使用者所承擔的所有危險在一定條件下分配給受害人。 適用被容許的危險理論對研發(fā)者、 使用者以及危險活動的其他參與者進行危險分配以上述主體在危險活動中負擔各自的注意義務(wù)為前提條件。
廣義的理解認為, 被容許的危險之所以存在, 是為我們的日常生活所必需的。 狹義的理解將被容許的危險理解為具有引起危害結(jié)果的實質(zhì)危險, 認為該危險為了救濟其他利益而不得不容許存在。⑦參見黎宏: 《過失犯研究》, 載劉明祥主編: 《過失犯研究: 以交通過失和醫(yī)療過失為中心》, 北京大學(xué)出版社2010 年版, 第14-15 頁。本文所討論的是狹義的被容許的危險。 許多不可避免的危險行為隨著社會生活的復(fù)雜化而日益增多, 實施了此類對社會發(fā)展具有必要性與有用性的危險行為的行為人, 如果遵守了其行為所必需的規(guī)則, 就不能認為其是過失犯罪。 根據(jù)被容許的危險理論, 對社會有益的、 不可缺少的行為, 即便其自身是侵害法益的危險行為, 但在合理的范圍之內(nèi), 也應(yīng)承認這種危險行為的合法性。 英國學(xué)者安東尼·吉登斯曾言: “風(fēng)險總是要規(guī)避的, 但是積極的冒險精神正是一個充滿活力的經(jīng)濟和充滿創(chuàng)新的社會中最積極的因素?!雹郲英] 安東尼·吉登斯: 《失控的世界: 風(fēng)險社會的肇始》, 載周紅云編譯: 《全球化與風(fēng)險社會》, 社會科學(xué)文獻出版社2005年版, 第56 頁。誠哉斯言, 人類在擁抱人工智能技術(shù)帶來的高福利的同時, 不可避免地要在一定程度上容許 “理性冒險”。 被容許的危險理論展示的是一種比較權(quán)衡, 應(yīng)當注意的是,這種比較應(yīng)當以行為實施時, 行為本身具有的危險性與可預(yù)見的被害法益的價值、 發(fā)生結(jié)果的危險性、 侵害法益的蓋然性等相比,⑨參見[日] 前田雅英: 《刑法總論講義》 (第六版), 曾文科譯, 北京大學(xué)出版社2017 年版, 第258 頁。可預(yù)見的被害法益的價值越大, 被害法益的價值越高, 發(fā)生結(jié)果的危險性越大, 則被容許的危險理論的適用范圍越窄。
社會全體成員為了得到技術(shù)紅利就必然要付出代價, 這一代價就是技術(shù)的發(fā)展所必然蘊含的危險。⑩參見前引⑩, 劉憲權(quán)文。為了更好地平衡與人工智能體實施的活動相關(guān)的參與者之間復(fù)雜的利益, 處理好風(fēng)險承擔的復(fù)雜法律關(guān)系, 如何分配已知和未知的風(fēng)險成為亟待解決的一個問題。 所謂危險分配理論, 指活動參與者在從事危險活動時應(yīng)當在互相信賴的基礎(chǔ)上, 予以合理地分配危險, 共同承擔危險后果。 一方面, 應(yīng)當根據(jù)活動的危險程度合理地確定各參與者應(yīng)該分配的危險。 對于在涉人工智能體的活動中, 為了保護人工智能體研發(fā)者的創(chuàng)造積極性, 所有的活動參加者都應(yīng)當擁有并且負有部分注意義務(wù), 共同承擔休戚與共的責(zé)任, 而非僅僅由人工智能體研發(fā)者承擔。 如果人工智能體實施的危害行為是由于被害人或者第三人的故意或重大過失所致, 在人工智能體研發(fā)者、 使用者已經(jīng)承擔注意義務(wù)的前提下, 應(yīng)當將危險歸屬于被害人或第三人。 另一方面, 應(yīng)當根據(jù)參與者的能力合理地確定參與者應(yīng)該分擔的危險。 一般而言, 能力越強, 應(yīng)當為其賦加的注意義務(wù)就越多, 其應(yīng)當容忍的危險也越多。 如果某一參與者在參與危險活動中對危險的發(fā)生不具有預(yù)測以及避免的能力, 則不能依據(jù)危險分配理論分配其所應(yīng)當承擔的危險。 以人工智能體的研發(fā)者為例, 與其他活動參與者相比, 其屬于擁有人工智能技術(shù)的人員, 具備直接控制人工智能系統(tǒng)的專業(yè)能力的現(xiàn)實條件, 因此有必要為其制定更多的注意義務(wù), 在危險的分配中也應(yīng)當配置更多的危險。
“新過失論” 為了進一步限制過失犯罪的處罰范圍, 不得不將信賴原則引入。 信賴原則關(guān)切的是, 行為人合理地信賴他人能夠遵守規(guī)則并采取適當?shù)男袆樱?但是由于其他參與人辜負了行為人的信賴而與自己的行動相結(jié)合發(fā)生構(gòu)成要件的結(jié)果, 就不應(yīng)認為行為人應(yīng)當承擔責(zé)任。 信賴原則最早適用于交通運輸領(lǐng)域, 后來逐步被擴張適用于企業(yè)責(zé)任事故、 醫(yī)療事故等對防止危險具有分工合作關(guān)系的所有領(lǐng)域。
對人工智能領(lǐng)域的過失刑事風(fēng)險進行規(guī)制亦可適用信賴原則。 人工智能體研發(fā)者的信賴基于兩個方面: 一是基于對人工智能技術(shù)的信賴。 當研發(fā)者研發(fā)出用于正當社會目的并且不存在導(dǎo)致法益侵害危險的人工智能體, 人工智能體卻在程序規(guī)則外活動, 并且引發(fā)了具有嚴重社會危害性的實害結(jié)果, 此時則不應(yīng)追究研發(fā)者的過失刑事責(zé)任。 二是基于對人工智能體使用者的信賴。 人工智能體研發(fā)者信賴人工智能體使用者履行了謹慎詢問、 合理使用和及時報告的注意義務(wù), 但是使用者并沒有盡到注意義務(wù), 進而使得人工智能體實施了犯罪活動, 產(chǎn)生的危害結(jié)果就不可歸責(zé)于研發(fā)者的過失。 人工智能體使用者的信賴同樣基于兩個方面, 一是基于對人工智能技術(shù)的信賴。 當人工智能體使用者履行了所有為其設(shè)定的注意義務(wù), 但是人工智能體超出程序規(guī)則實施了犯罪行為, 就不應(yīng)認為使用者對人工智能體的犯罪存在過失的罪過形式。 二是基于對人工智能體研發(fā)者的信賴。 “非專業(yè)人士對專家系統(tǒng)這一抽象體系建立起普遍信賴是風(fēng)險社會的基本特征之一?!雹偃~良芳、 馬璐瑤: 《風(fēng)險社會視閾下人工智能犯罪的刑法應(yīng)對》, 載 《浙江學(xué)刊》 2018 年第6 期。而隨著社會分工越來越精細化, “人們對 ‘社會體系的信任’, 表現(xiàn)為對各行各業(yè)的 ‘專家體系’ 的充分信任……專業(yè)知識成為人們安全感的重要基礎(chǔ)?!雹趨⒁娗耙埽?薛曉源、 劉國良文。因此, 人工智能體使用者對人工智能體研發(fā)者的信賴有利于普通大眾更好地把握科技發(fā)展的契機, 系統(tǒng)地處理科技引致的危險和不安全感。
信賴原則的適用需要存在社會相當性: 第一, 有完善的社會分工制度。 在人工智能體研發(fā)者和人工智能體使用者之間存在合理的權(quán)責(zé)分工負責(zé)體制, 明確設(shè)定各自的注意義務(wù), 能夠建立分工合作的制度信賴。 第二, 存在實質(zhì)的相互信賴關(guān)系。 在人工智能體出現(xiàn)了不適當行為的具體先兆時,不能合理地期待人工智能體可以在其研發(fā)者和使用者的高度信賴之下從事適當行為。 例如人工智能體以往從事相應(yīng)行為的時候過失頻率較高、 出現(xiàn)反常行動的可能性大等情況。 第三, 具有實質(zhì)的控制權(quán)限。 如果人工智能體研發(fā)者或者使用者不具有實質(zhì)上保證某項危險不發(fā)生或者對阻止危險發(fā)生的現(xiàn)實支配權(quán)限, 就不能視為對危險領(lǐng)域具有 “控制權(quán)限” 的行為人。 因此, 當人工智能體研發(fā)者或使用者與危險控制權(quán)限發(fā)生實際脫節(jié), 只擁有形式上的控制權(quán)限的過失領(lǐng)域不能適用信賴原則。
強人工智能體研發(fā)者和使用者的過失刑事責(zé)任具體又分為以下情形: 第一種情形, 強人工智能體研發(fā)者、 使用者違反直接的結(jié)果預(yù)見義務(wù)和結(jié)果回避義務(wù)時, 可能承擔一般過失犯罪的刑事責(zé)任。 例如, 人工智能體研發(fā)者在研發(fā)強人工智能體時因為應(yīng)當預(yù)見該人工智能體存在可能發(fā)生致人損害的結(jié)果卻沒有預(yù)見, 或者已經(jīng)認識到研發(fā)的人工智能體可能發(fā)生危害結(jié)果, 但過高估計自己避免結(jié)果的能力而怠于采取結(jié)果避免措施, 并且由此發(fā)生了刑法構(gòu)成要件性法益的侵害后果; 人工智能體使用者由于疏忽大意的過失或者過于自信的過失, 沒有按照人工智能體的規(guī)范操作流程使用人工智能體并且導(dǎo)致了刑法構(gòu)成要件性法益侵害的后果。 第二種情形, 人工智能體研發(fā)者違反間接的結(jié)果預(yù)見義務(wù)和結(jié)果回避義務(wù)時, 可能接受監(jiān)督過失犯罪的譴責(zé)。3○人工智能體研發(fā)者的監(jiān)督包括事前組織相關(guān)危險評估, 事中督促人工智能體使用者按照操作規(guī)程執(zhí)行, 事后及時完善相關(guān)程序。 監(jiān)督過失非難的起點來源于監(jiān)督者違反了預(yù)見自己的行為將引起被監(jiān)督者造成危害結(jié)果的義務(wù), 且沒有采取一定的措施避免被監(jiān)督者的過失行為引發(fā)的結(jié)果。
人工智能體研發(fā)者在研發(fā)人工智能體時因過失使得人工智能體存在缺陷, 且人工智能體使用者在使用該人工智能體的過程中違反了該人工智能體的規(guī)范操作流程, 人工智能體在此情形下造成的危害結(jié)果應(yīng)當由具有共同過失的人工智能體研發(fā)者和使用者共同承擔, 以過失共同犯罪來定罪處罰。
雖然我國刑法并未對 “共同過失犯罪” 有明文肯定, 但是 “共同過失犯罪” 的相關(guān)法理適用可在一些具體條文和司法解釋中窺探一二。 根據(jù)我國 《刑法》 第二十五條的規(guī)定, 立法者不但沒有否認 “共同過失犯罪” 這一概念, 甚至進一步明確 “共同過失犯罪” 的處罰方式不同于共同故意犯罪。 有學(xué)者提出, 立法之所以肯定 “共同過失犯罪” 這個客觀現(xiàn)象和概念, 但卻不認為 “共同過失犯罪” 是共同犯罪, 是綜合考慮了在制定現(xiàn)行刑法的時代背景下, 我國刑法理論界對于 “共同過失犯罪” 基本呈現(xiàn)一邊倒的否定態(tài)度, 且我國司法審判實踐中極少出現(xiàn)由于否定 “共同過失犯罪” 而造成冤錯案件的情況。④參見王博: 《過失共同犯罪研究》, 西南政法大學(xué)2011 年博士學(xué)位論文。另外, 2000 年《最高人民法院關(guān)于交通肇事刑事案件具體應(yīng)用法律若干問題的解釋》 第五條第二款⑤2000 年11 月15 日 《最高人民法院關(guān)于交通肇事刑事案件具體應(yīng)用法律若干問題的解釋》 第五條第二款: “交通肇事后, 單位主管人員、 機動車輛所有人、 承包人或者乘車人指示肇事人逃逸, 致使被害人得不到救助而死亡的, 以交通肇事罪的共犯論處。”也肯定了 “共同過失犯罪”。 理由如下: 第一, 共同故意犯罪要求意思聯(lián)絡(luò)形成于著手實行犯罪之前或者實行犯罪的過程中。 該款中單位主管人員、 機動車輛所有人、 承包人或者乘車人與肇事人的意思聯(lián)絡(luò)存在于犯罪已經(jīng)實行完畢的既遂形態(tài)中, 所以該款不能解釋為共同故意犯罪。 第二, 承繼的共同犯罪要求共同犯罪只能存在于犯罪既遂之前, 但是繼續(xù)犯是例外。 繼續(xù)犯在繼續(xù)期間, 雖然犯罪已經(jīng)達到既遂, 只要行為仍然處于繼續(xù)狀態(tài)的, 加入共同犯罪的行為人也可以成立共同犯罪。 但交通肇事罪不是繼續(xù)犯, 所以該款不能解釋為承繼的共同犯罪。 由此可見, 我國并沒有否認 “過失共同犯罪”。
人工智能體研發(fā)者的監(jiān)督過失行為通過人工智能體使用者的行為間接導(dǎo)致了危害后果成為發(fā)動監(jiān)督過失的直接依據(jù)。
在監(jiān)督過失中, 監(jiān)督者與被監(jiān)督者是共同過失犯罪還是過失競合犯罪的爭議, 大多數(shù)觀點認為是過失競合, 少數(shù)觀點認為是共同過失。 主張監(jiān)督過失是過失競合的學(xué)者主要是從監(jiān)督者和被監(jiān)督者的地位、 是否是 “注意義務(wù)共同體” 以及危害結(jié)果的效力角度來論述。 從監(jiān)督者和被監(jiān)督者地位來看, 人工智能體研發(fā)者和人工智能體使用者處于不平等的地位。 處于被監(jiān)督者地位的人工智能體使用者應(yīng)當接受處于監(jiān)督地位的人工智能體研發(fā)者為代表的 “專家系統(tǒng)” 的規(guī)劃指引和監(jiān)督管理。共同的注意義務(wù)是共同過失犯罪一個重要的主觀因素, 從監(jiān)督者和被監(jiān)督者注意義務(wù)可知, 由于人工智能體研發(fā)者與人工智能體使用者之間并沒有構(gòu)成一個 “注意義務(wù)共同體”, 因此, 監(jiān)督過失不是共同過失犯罪, 而是過失競合的表現(xiàn)形式。⑥參見袁登明、 吳情樹: 《論競合過失與共同過失》, 載 《云南大學(xué)學(xué)報法學(xué)版》 2003 年第2 期; 李蘭英、 馬文: 《監(jiān)督過失的提倡及其司法認定》, 載 《中國刑事法雜志》 2005 年第5 期。就危害結(jié)果對監(jiān)督者與被監(jiān)督者的不同的效力而言,人工智能體研發(fā)者的過失必須借助人工智能體使用者的行為才能造成危害結(jié)果, 而人工智能體使用者的過失可以獨立地產(chǎn)生危害結(jié)果。⑦參見譚淦: 《監(jiān)督過失的一般形態(tài)研究》, 載 《政法論壇》 2012 年第1 期。
依筆者之見, 監(jiān)督過失是數(shù)個行為人的過失并存的競合。 在涉及人工智能體監(jiān)督過失情形中,人工智能體研發(fā)者和人工智能體使用者都是應(yīng)采取某種防止行動卻沒有采取, 最終導(dǎo)致了結(jié)果發(fā)生, 但二者的注意對象內(nèi)容不同。 人工智能體使用者的注意對象是危害結(jié)果, 其應(yīng)當預(yù)見自己的行為直接產(chǎn)生的結(jié)果, 并且不得由于過失行為導(dǎo)致這一結(jié)果的發(fā)生; 人工智能體研發(fā)者的注意對象是被監(jiān)督者的行為, 其應(yīng)當預(yù)見自己的行為將引起被監(jiān)督者的過失行為, 并避免被監(jiān)督者實施過失行為。 根據(jù)西原春夫教授提出的并存的競合和重疊的競合的劃分方法, 如果過失競合的各行為人的行為可以單獨成為結(jié)果發(fā)生的獨立原因的, 稱為并存的競合; 如果只有一方的過失能獨立導(dǎo)致結(jié)果發(fā)生的, 并且可以防止他方對于結(jié)果發(fā)生的, 稱為重疊的競合。 在人工智能體監(jiān)督過失犯罪中, 人工智能體使用者處于獨立地位, 人工智能體研發(fā)者如果采取適當?shù)男袨椋?則可以防止人工智能體使用者的過失行為導(dǎo)致結(jié)果發(fā)生, 因此監(jiān)督過失屬于重疊的競合。
雖然我國刑法理論中只有疏忽大意的過失和過于自信的過失這兩種過失形態(tài), 沒有明確監(jiān)督過失這一過失形態(tài), 但是隱含著監(jiān)督過失責(zé)任內(nèi)容的因子, 監(jiān)督過失分別符合疏忽大意的過失和過于自信的過失的基本特征概念。 監(jiān)督者能夠預(yù)見自己不履行監(jiān)督義務(wù)的行為可能引起被監(jiān)督者的過失行為從而發(fā)生危害社會的結(jié)果, 因為疏忽大意而沒有預(yù)見, 這種情況契合疏忽大意的過失的心理特征。 監(jiān)督者已經(jīng)預(yù)見自己不履行監(jiān)督義務(wù)可能導(dǎo)致被監(jiān)督者的過失行為, 從而造成危害結(jié)果, 但輕信自己的技術(shù)、 經(jīng)驗等能夠避免, 這種情況與過于自信的過失的心理特征沒有本質(zhì)差別。
“科學(xué)技術(shù)總是涉及風(fēng)險觀念”,⑧Anthony Giddens, Runaway World: How Globalization Is Reshaping Our Lives. New York: Routledge Press, 2000, p.45.以人工智能、 大數(shù)據(jù)和云計算為代表的日新月異的科學(xué)技術(shù)在一步步地改善人類社會生活面貌, 同時也增加了大量的不確定性、 未來性的風(fēng)險。 涉人工智能犯罪是人工智能時代產(chǎn)生的新樣態(tài)的犯罪, 新舊事物之間的關(guān)系從來都是 “藕斷絲連” 的, 因此, 對于涉人工智能犯罪的研究仍需要以現(xiàn)行刑法規(guī)定為切入點, 以前瞻性的回應(yīng)與規(guī)范之維彌合科技發(fā)展和風(fēng)險社會之間的鴻溝。 “預(yù)防犯罪比懲罰犯罪更高明”,⑨[意] 貝卡利亞: 《論犯罪與刑罰》, 黃風(fēng)譯, 中國大百科全書出版社2002 年版, 第104 頁。引入“新過失論” 有利于強化人工智能體研發(fā)者、 使用者的規(guī)范意識, 更能有效控制與消解人工智能時代的過失刑事風(fēng)險, 為轉(zhuǎn)型時期以人工智能為代表的新興技術(shù)在技術(shù)價值和法律價值這兩個價值世界之間的碰撞中產(chǎn)生的 “轉(zhuǎn)型” 效應(yīng)提供有效的創(chuàng)新激勵, 實現(xiàn)以人類的安全和福祉為目標的人工智能刑事法治。