摘要:人工智能技術(shù)在近幾十年高速發(fā)展,取得了不小的進(jìn)展,給人類生活帶來(lái)了翻天覆地的變化。但發(fā)展過(guò)快帶來(lái)的負(fù)面影響也不可小覷,尤其是造成的倫理問(wèn)題,人類在享受科技帶來(lái)的便利的同時(shí),也要未雨綢繆,引導(dǎo)人工智能技術(shù)更好地為人類服務(wù)。本文首先分析了人工智能技術(shù)可能存在的一系列倫理問(wèn)題,然后提出了預(yù)防措施。
關(guān)鍵詞:人工智能;倫理規(guī)范;法律體系
隨著計(jì)算機(jī)技術(shù)的高速發(fā)展,人工智能技術(shù)幾十年間不斷取得突破,給人類的生活帶來(lái)了極大的便利,成為二十世紀(jì)中期以來(lái)尤為受人矚目的高新科技。但與此同時(shí),由于高新技術(shù)發(fā)展中存在著巨大的不確定性,隨之而來(lái)的是倫理、社會(huì)、法律等各個(gè)方面的問(wèn)題,其中以倫理問(wèn)題最為嚴(yán)峻,這些問(wèn)題往往是兩難困境,并且相互影響,復(fù)雜關(guān)聯(lián)。因此,對(duì)現(xiàn)人工智能技術(shù)中的倫理問(wèn)題進(jìn)行研究,形成準(zhǔn)確的認(rèn)知與理解才能更好地應(yīng)對(duì)其他各個(gè)方面的問(wèn)題,使人工智能技術(shù)向著更有利于人類發(fā)展的方向健康發(fā)展。
一、人工智能技術(shù)中的法律倫理問(wèn)題
(一)動(dòng)搖人類主體地位
人是技術(shù)的主體,機(jī)器智能由人類創(chuàng)造,但是人工智能技術(shù)發(fā)展之迅速以至于不少專家學(xué)者認(rèn)為用不了幾十年,人工智能就要進(jìn)入強(qiáng)人工智能階段,強(qiáng)人工智能認(rèn)為智能機(jī)器可以具備意識(shí)、思考、感情等能力,而不僅僅是工具,再加上強(qiáng)人工智能的智慧能力遠(yuǎn)遠(yuǎn)超過(guò)人類,這必將嚴(yán)重威脅到人類的主體地位。
(二)沖擊人類道德及竊取人類隱私
人工智能技術(shù)發(fā)展到現(xiàn)在,各種隱私泄露事件就已經(jīng)層出不窮,當(dāng)iPhone的面部識(shí)別技術(shù)發(fā)布時(shí),便有研究人員指出,面部特征有可能泄露個(gè)人的政治觀點(diǎn)和隱私。當(dāng)我們使用各種網(wǎng)頁(yè)、手機(jī)軟件時(shí),我們便留下了各種各樣的數(shù)字足跡,可以說(shuō)人類一定程度上集體忘記了我們的隱私被竊取這件事。可以想象,當(dāng)人工智能的智能程度越來(lái)越高,到2050年,人工智能足以欺騙人類,可以作為人類的戀人、伴侶,并且這將成為社會(huì)常態(tài),人工智能將比人類自己更了解自己。
(三)人工智能的過(guò)錯(cuò)歸責(zé)
近年來(lái),無(wú)人駕駛、智能化機(jī)器人在工廠、醫(yī)院、學(xué)校等公共領(lǐng)域不斷發(fā)揮作用并受到人類認(rèn)可,但是機(jī)器也會(huì)畢竟受程序控制,難免發(fā)生“意外”,那么該如何對(duì)人工是能使用責(zé)任倫理,誰(shuí)該為機(jī)器人的意外承擔(dān)責(zé)任使是我們要始終思考的問(wèn)題。2015年曾有專家指出,人工智能機(jī)器人的操作失靈應(yīng)該由所有與該機(jī)器人的創(chuàng)造有關(guān)的人分擔(dān)責(zé)任。但事實(shí)上這種責(zé)任的具體劃分仍是一個(gè)難以解決的問(wèn)題,2018年Uber自動(dòng)駕駛汽車撞死路人,無(wú)論是研究人員、制造者還是消費(fèi)者都有不可推卸的責(zé)任,但是技術(shù)是中性的,是不具有善惡之分的,亦不存在任何目的,因此,對(duì)人工智能的責(zé)任倫理還需要更深的研究和探索。
(四)環(huán)境倫理問(wèn)題凸顯
人類對(duì)人工智能產(chǎn)品的需求量越來(lái)越大,人們無(wú)限制開采環(huán)境資源、而面對(duì)環(huán)境污染確視而不見的趨勢(shì)也愈發(fā)明顯。有關(guān)部門曾統(tǒng)計(jì)過(guò),地球周圍覆蓋大量太空垃圾,多達(dá)3000噸,并且這個(gè)數(shù)字仍在不斷攀升。人類以自我為中心的觀念造成生態(tài)保護(hù)意識(shí)的缺失,長(zhǎng)此以往,人類必將面臨更大的危機(jī)。
二、人工智能技術(shù)法律倫理問(wèn)題的應(yīng)對(duì)舉措
(一)避免盲目的商業(yè)化
人工智能技術(shù)在幾十年里取得的了巨大的發(fā)展進(jìn)步,這樣的發(fā)展速度遠(yuǎn)超人類進(jìn)化的速度,每一樣新事物的發(fā)展都不能是孤立的,必須要有社會(huì)、文化、倫理、觀念、法律等各方各面的發(fā)展與之相匹配。然而人工智能技術(shù)的過(guò)快發(fā)展并沒(méi)有與其他方面很好地結(jié)合,科研人員注重技術(shù)創(chuàng)新,商業(yè)領(lǐng)域注重商業(yè)價(jià)值,消費(fèi)者注重提高生活質(zhì)量,前景看似一片大好,卻忽略了其安全性等一系列重要問(wèn)題。
在安全性沒(méi)有得到保證的情況下盲目將人工智能技術(shù)與人工智能產(chǎn)品商業(yè)化,無(wú)疑是給人們的安全埋下重大隱患。2016年法航一架飛機(jī)航行過(guò)程中,飛行員中途開啟了自動(dòng)駕駛,而由于氣溫過(guò)低,自動(dòng)駕駛系統(tǒng)失去控制,最終墜機(jī),所有人員無(wú)一幸存。
在弱人工智能階段尚且如此,在未來(lái)如果真的進(jìn)入強(qiáng)人工智能階段,當(dāng)人工智能產(chǎn)品的智能化程度更高,若程序出現(xiàn)問(wèn)題,那造成的危害更是難以估量。因此,人工智能技術(shù)不能一味地盲目發(fā)展、盲目商業(yè)化,在發(fā)展的同時(shí)一定要平衡好方方面面,否則產(chǎn)生的倫理問(wèn)題將是人類難以承受的額。
(二)構(gòu)建完善的倫理規(guī)則
人工智能與人類之間的倫理學(xué)問(wèn)題不同于人與人、人與自然之間的倫理學(xué)問(wèn)題,而是人與人創(chuàng)造的產(chǎn)品之間的新的關(guān)聯(lián)。這是一種新的倫理,當(dāng)人工智能不僅僅是人類的工具,二者地位平等時(shí),如何處理人與人工智能之間可能產(chǎn)生的各種情感、各種羈絆?雖然就當(dāng)前的人工智能發(fā)展水平看來(lái),其無(wú)法理解人類的倫理規(guī)則,但若不能未雨綢繆,提前制定好倫理約束,以現(xiàn)在的發(fā)展速度繼續(xù)任由其發(fā)展下去,未來(lái)社會(huì)人類可能面對(duì)的問(wèn)題會(huì)更多更嚴(yán)重并且難以解決。因此 ,對(duì)于人與機(jī)器共存的時(shí)代而言,倫理約束必不可少。
(三)構(gòu)建完備的法律體系
要想推動(dòng)人工智能技術(shù)來(lái)服務(wù)人類,進(jìn)一步提升人類文明的發(fā)展程度,一個(gè)很重要的前提是人類不能失去以人為主的立場(chǎng),現(xiàn)階段,人工智能還沒(méi)有完善的法律來(lái)對(duì)其進(jìn)行約束,倫理軟約束雖重要,法律硬約束也必不可少。
對(duì)于人工智能技術(shù)及應(yīng)用,最基本的是要制定相關(guān)科研人員以及商業(yè)從業(yè)人員各種行為規(guī)范,從源頭上警醒人們不要鋌而走險(xiǎn),濫用人工智能技術(shù)實(shí)行違法犯罪。要制定風(fēng)險(xiǎn)防控相關(guān)法律,對(duì)于可能出現(xiàn)的各種風(fēng)險(xiǎn)走出有效地防范。還要制定錯(cuò)誤責(zé)任認(rèn)定相關(guān)法律,是責(zé)任認(rèn)定有法可依,比如無(wú)人駕駛出現(xiàn)問(wèn)題的責(zé)任劃分,隱私泄露責(zé)任劃分等。羅馬不是一日建成的,完備的法律體系的建立,需要制定長(zhǎng)久的計(jì)劃來(lái)保障實(shí)施,需要全球各個(gè)國(guó)家齊心協(xié)力,這是整個(gè)人類的共同責(zé)任。
三、總結(jié)
科技發(fā)展對(duì)人類應(yīng)該起到促進(jìn)作用而不是反作用,科技應(yīng)該是人類生活的工具而不能凌駕于人類之上。人類對(duì)于高新科技的追求從未止步,但絕不能忘記保持清醒理智的頭腦,對(duì)科技的發(fā)展及應(yīng)用的正確認(rèn)知才能讓科技發(fā)展的成果更好地服務(wù)于人類,更不能為了一己私欲,利用人工智能去做一些危害他人、危害社會(huì)的事情。
面對(duì)人工智能技術(shù)的飛躍,我們應(yīng)該理性思考,不斷地提出問(wèn)題、解決問(wèn)題,不斷對(duì)其優(yōu)化,引導(dǎo)技術(shù)始終朝著更有利于人類文明進(jìn)步的方向發(fā)展。為此,全人類要共同努力,加強(qiáng)國(guó)際間交流合作,共同制定合理完備的人工智能技術(shù)發(fā)展規(guī)劃、發(fā)展要求以及完備的法律法規(guī),加強(qiáng)科學(xué)管理與監(jiān)管。同時(shí)要形成廣泛認(rèn)同的倫理道德約束,無(wú)論是科研人員、商業(yè)人員還是消費(fèi)者都要齊心協(xié)力,使技術(shù)更好造福人類。
參考文獻(xiàn):
[1]酈全民. 科學(xué)哲學(xué)與人工智能[J]. 自然辯證法通訊, 2001, 23(2):17-22.
[2]王曉陽(yáng). 人工智能能否超越人類智能[J]. 自然辯證法研究, 2015(07):106-112.
[3]蔡曙山, 薛小迪. 人工智能與人類智能——從認(rèn)知科學(xué)五個(gè)層級(jí)的理論看人機(jī)大戰(zhàn)[J]. 北京大學(xué)學(xué)報(bào):哲學(xué)社會(huì)科學(xué)版, 2016(4):145-154.
[4]王東浩. 人工智能體引發(fā)的倫理困境探賾[J]. 人工智能體.
[5]郭騰飛. 人工智能的哲學(xué)思考[D]. 山西大學(xué).
作者簡(jiǎn)介:
趙丹(1997—),女,河南漯河人,成都市雙流區(qū)四川大學(xué)訴訟法學(xué)專業(yè) 碩士研究生。
(本論文受“四川大學(xué)法學(xué)院研究生科研創(chuàng)新項(xiàng)目”資助,課題名稱《未成年人刑事司法分流及觸法干預(yù)機(jī)制實(shí)證研究》,編號(hào):sculaw20200108)