凡銳麗
(鄭州升達經(jīng)貿(mào)管理學院,鄭州 451191)
人工智能技術(shù)下的刑法學問題是近年來司法管理制度中新出現(xiàn)的一種現(xiàn)象,主要表現(xiàn)為內(nèi)部風險、外部風險等刑法風險問題。應(yīng)結(jié)合風險問題的發(fā)生特點與規(guī)律,提出最佳的風險應(yīng)對措施,全面提高人工智能技術(shù)下的刑法應(yīng)用效果,為人工智能技術(shù)在刑法學中的應(yīng)用提供技術(shù)保障。
近年來,在大數(shù)據(jù)、信息技術(shù)、智能算法等技術(shù)快速發(fā)展的過程中,人工智能技術(shù)得到了廣泛的應(yīng)用,其技術(shù)水平也實現(xiàn)了飛躍式的發(fā)展。但隨之衍生出很多內(nèi)部刑事風險問題與安全問題,主要表現(xiàn):一是人工智能技術(shù)的應(yīng)用,經(jīng)常會受到一些不法分子的攻擊,或者采用人工智能系統(tǒng)進行違法操作,出現(xiàn)了海量的信息泄露現(xiàn)象,導致很多的保密信息被人為地泄露出來,無法保障數(shù)據(jù)信息的安全性。二是在人工智能技術(shù)管理的過程中,如果不能合理使用信息數(shù)據(jù),將導致用戶的個人信息無法正常應(yīng)用。且在人工智能技術(shù)下,一些犯罪人員利用大數(shù)據(jù)技術(shù),肆意侵害集體和個人的利益,如果此類問題不能得到及時遏制,將會給國家和個人造成嚴重的經(jīng)濟損失。三是在人工智能技術(shù)內(nèi)部系統(tǒng)的運行過程中存在很多運算方法方面的漏洞,給人工智能系統(tǒng)帶來很多錯誤決策,一旦引發(fā)問題,就會出現(xiàn)數(shù)據(jù)外區(qū)現(xiàn)象,很容易影響人們對價值觀念的正確認識。因此就需要刑法的及時介入,確保人工智能系統(tǒng)的良好運行,預(yù)防各種風險問題的發(fā)生。
人工智能刑法問題可表現(xiàn)在外部風險方面:首先是濫用人工智能技術(shù)的刑事風險。人工智能技術(shù)的應(yīng)用存在很多利弊,如正當使用,就能給人們的生產(chǎn)與生活帶來便利,具有積極的影響。如果不能正常使用,將會給計算機系統(tǒng)帶來很多風險問題。利用人工智能技術(shù)進行犯罪具有一定的特殊性,其犯罪的基礎(chǔ)成本較低,一般情況下只使用計算機、網(wǎng)絡(luò)技術(shù)就能夠?qū)φw的網(wǎng)絡(luò)系統(tǒng)造成威脅,而且掌握人工智能技術(shù)水平的不法分子,還能制造出人工智能產(chǎn)品,如:2017年的時候,網(wǎng)絡(luò)犯罪分子就利用計算機專業(yè)知識識別驗證碼,獲取到一些網(wǎng)絡(luò)公司的賬號和登陸密碼,從而獲取到群眾的信息,倒賣其信息并且對群眾進行詐騙。在分析這個犯罪案例的時候發(fā)現(xiàn),如若犯罪分子采用人工智能技術(shù)進行相關(guān)的犯罪活動,不僅犯罪的成本很低,還會誘發(fā)嚴重的信息安全事件。其次,人工智能技術(shù)的不完善也給人們使用人工智能技術(shù)帶來風險。在使用與管理人工智能技術(shù)的工作中,如果存在智能技術(shù)或設(shè)計漏洞,將會誘發(fā)很多外部風險問題。如:采用人工智能技術(shù)與交通工具相互整合,會形成無人駕駛的模式,可以為人們提供高質(zhì)量的服務(wù)。但是,如果人工智能技術(shù)的設(shè)計與開發(fā)存在問題,在無人駕駛的過程中會出現(xiàn)交通事故問題,將會誘發(fā)嚴重的后果,表明人工智能技術(shù)可將內(nèi)部風險轉(zhuǎn)換成為外部風險,給人們使用人工智能技術(shù)帶來很多安全風險。
1.3.1 刑法應(yīng)該促進人工智能技術(shù)的良好發(fā)展
刑法的出臺主要是為了維護社會正常秩序,而這個目的與人工智能技術(shù)服務(wù)于人、改善社會生活的目的是相互一致的,無論在何種狀況下,刑法都不應(yīng)該對智能技術(shù)的發(fā)展形成桎梏,相反,刑法應(yīng)該對智能技術(shù)起到良好的引導作用,將社會的發(fā)展作為導向,使人工智能技術(shù)向著良性的方向發(fā)展,起到一定的推動作用和促進作用,從根本上促進人工智能技術(shù)的發(fā)展。
1.3.2 刑法應(yīng)該服務(wù)于人
人工智能技術(shù)的應(yīng)用不能增加人們的負擔,這個觀念應(yīng)該貫徹在刑法領(lǐng)域中。在刑法領(lǐng)域內(nèi),服務(wù)于人的思想主要體現(xiàn)在刑事責任的規(guī)則方面,雖然人工智能技術(shù)的應(yīng)用行為與風險問題的責任及開發(fā)使用者有直接的聯(lián)系,但是不能將責任單純歸于開發(fā)與使用者,應(yīng)該考慮到智能技術(shù)的實際應(yīng)用情況,明確具體的負責人。
人工智能技術(shù)的應(yīng)用經(jīng)常會出現(xiàn)一些問題,在刑法方面不能單一的分析出現(xiàn)問題的原因,還需明確具體的刑法理念與原則,其中最為重要的就是罪刑法定準則。目前,將保障人權(quán)作為內(nèi)涵、罪刑法定的這個原則屬于較為重要的底線。在未來的發(fā)展過程中,人工智能技術(shù)的應(yīng)用一旦出現(xiàn)問題,還是要將罪刑法定作為基本準則。如果在某個項目中將濫用人工智能的做法當做統(tǒng)一條款,將會誘發(fā)“口袋罪名”,造成群眾的隱私信息泄露問題,導致公共風險和國家安全問題。在此過程中,刑法就應(yīng)該保持一定的謙抑性,如:在人工智能技術(shù)應(yīng)用期間,要借助計算機的基礎(chǔ)設(shè)備與技術(shù),很可能發(fā)生機器人問題、著作權(quán)保護問題等,在此情況下,機器人的法人、著作權(quán)等歸屬于人類,可以按照具體的犯罪行為與實際情況界定,盡量避免一些不正確的司法手段干擾人工智能技術(shù)的使用與發(fā)展,例如:“刑法萬能”的錯誤認知。要正確地將非刑事法律的作用發(fā)揮出來,從而有效規(guī)避使用人工智能技術(shù)時所存在的問題[1]。
在人工智能技術(shù)的應(yīng)用期間,經(jīng)常會出現(xiàn)公民信息安全泄露問題。在此情況下,除了要增強人工智能技術(shù)使用者與管理者的技能水平,強化數(shù)據(jù)的安全保護力度,還要將刑法的作用發(fā)揮出來,全面保護公民信息的安全性,預(yù)防出現(xiàn)信息泄露現(xiàn)象??紤]到公民信息的保護,在刑法方面應(yīng)強化侵犯公民信息安全的懲罰力度,明確公民信息安全隱患的發(fā)生特點,有效地界定公民信息,并提出保護公民信息安全的具體做法[2]。
我國人工智能技術(shù)得到了快速發(fā)展,為避免使用中出現(xiàn)問題,應(yīng)結(jié)合實際情況在法律方面對使用者進行約束與管理。建議國家出臺相關(guān)的法律法規(guī),禁止影響人工智能技術(shù)的情況發(fā)生,確保各種信息的安全性。由于人工智能技術(shù)的應(yīng)用有利有弊,在為人們帶來便利的同時,仍存在很多安全隱患問題。在此情況下,應(yīng)該結(jié)合人工智能技術(shù)的發(fā)展,制定完善的準入制度,全面開展監(jiān)督與管理工作,強化人工智能技術(shù)監(jiān)管的力度,有效掌控人工智能技術(shù)的應(yīng)用范圍與領(lǐng)域。同時,在刑法方面應(yīng)該從內(nèi)部與外部方面給予人工智能技術(shù)一定的約束,強化宣傳力度,使從事人工智能技術(shù)的人員學會自律,完善自我的約束機制。為有效規(guī)范人工智能技術(shù)的應(yīng)用行為,在實際工作中應(yīng)制定完善的刑法制度框架,人工智能技術(shù)開發(fā)者與管理者要樹立正確觀念,約束自身行為,促進人工智能技術(shù)的健康發(fā)展。還可以采用刑事立法的形式,設(shè)置人工智能技術(shù)的禁止令,禁止在一些不安全的條件下使用人工智能技術(shù),一旦違反規(guī)則,就要處罰技術(shù)的使用者與管理者,并追究其責任。在立法過程中,應(yīng)積極提出法律監(jiān)督的建議與規(guī)則,預(yù)防人工智能技術(shù)應(yīng)用中發(fā)生潛在的風險問題[3-4]。