摘 要:人工智能從提出到現(xiàn)在雖然僅有60余年,但是其發(fā)展卻令人震驚。從無人問津到時下熱點。如今我們在現(xiàn)實生活中已經(jīng)離不開人工智能,它彌漫進(jìn)入了我們的生活,成為了我們生活中不能缺少的存在。技術(shù)的功能越大,其帶來的問題也越多。本文從人工智能的發(fā)展?fàn)顩r出發(fā),闡述人工智能帶給人類的倫理困境,提出解決良策。
關(guān)鍵詞:人工智能;倫理思考
一、人工智能的倫理困境
人工智能是一種新興的科學(xué)技術(shù),隸屬于計算機(jī)和神經(jīng)網(wǎng)絡(luò)的交叉學(xué)科。溫斯頓定義為“人工智能是一門關(guān)于知識的學(xué)科——如何闡述知識,如何獲取知識,如何利用知識的科學(xué)” [1]。由此可見,人工智能是擁有巨大的知識儲備器,人類可以在其中運(yùn)用操作指令獲取想要的知識,在這一過程中,人工智能充當(dāng)了人的角色。在現(xiàn)實生活中哪些地方我們應(yīng)用了人工智能技術(shù)呢?小到每天使用的手機(jī)中的app推薦,大到無人駕駛技術(shù)。我們無時無刻都在享受人工智能技術(shù)帶給我們的便利與愉悅,我們也無時無刻都感受到了人工智能帶給我們腦力勞動的減少和工作效率的增加??墒蔷驮谌斯ぶ悄芗夹g(shù)給我們帶來這些種種好處的同時人工智能技術(shù)也給我們的傳統(tǒng)倫理帶來了沖擊,像人權(quán)倫理問題、經(jīng)濟(jì)倫理問題、責(zé)任倫理問題、科技的異化問題、隱私的倫理保護(hù)問題等等都會給我們帶來倫理的挑戰(zhàn),這些倫理問題值得我們認(rèn)真研究。
1.人權(quán)問題
人權(quán)是每個人都應(yīng)該享有的權(quán)利,其中最重要的是人人平等的平等權(quán),平等概念植根于中國文化脈搏之中。如孔子的“有教無類”,即教學(xué)不分階級,人人應(yīng)該享有平等的受教育權(quán),把它擴(kuò)展到社會中去,得出只有人人平等,社會才是合理的社會?,F(xiàn)代人權(quán)談“人權(quán)包括生命權(quán)、自由權(quán)、財產(chǎn)權(quán)、尊嚴(yán)權(quán)及追求幸福的權(quán)利。”[2]人權(quán)是其他一切權(quán)利的基礎(chǔ),執(zhí)政者所必須倡導(dǎo)、執(zhí)行的權(quán)利。此外,它還是自由的前提,人類已經(jīng)普遍認(rèn)同了人權(quán)價值觀。由于人權(quán)范圍及其廣泛,不同學(xué)者的價值取向側(cè)重也有所不同。有些學(xué)者票種于人權(quán)的法律特性,有些專家認(rèn)同人權(quán)的倫理屬性。但總體上講,基本上所有學(xué)者都承認(rèn)人權(quán)是一個廣泛的歷史范疇,包含以上所有屬性。因此,我們對人權(quán)的理解也應(yīng)該是全面的,不光看到人權(quán)的倫理價值屬性、普世價值屬性,而且也要看到人權(quán)作為其他權(quán)利基礎(chǔ)的根本屬性。那么人工智能這種技術(shù)主體具有人權(quán)嗎?答案與否這將決定其他問題的走向。
2.責(zé)任界定問題
無人駕駛汽車是人工智能技術(shù)的重要應(yīng)用,改變了人類生活圖示,也催生了很多社會問題,首當(dāng)其沖的就是責(zé)任界定問題。我們深知,人類開車也會出現(xiàn)交通事故,也要承擔(dān)法律責(zé)任,所以人工智能的無人駕駛技術(shù)出現(xiàn)事故從情理中可以理解,但在法律層面人工智能無法承擔(dān)責(zé)任,走進(jìn)壁壘。這是由于人工智能不具備人權(quán),沒有公認(rèn)的法律主體身份,自然不能承擔(dān)責(zé)任與義務(wù)。此外在無人駕駛利于還有一個難題,即死亡算法問題。如無人駕駛在道路正常行駛時,車上有一位急需救助的老人,此時馬路上有個兒童違反交通規(guī)則奔跑,機(jī)器如何選擇?對這一問題的終極討論在生命何以有價值?由于不同國家、不同文化下的個人背景各不相同,答案自然也是千差萬別,所以無法給出一個統(tǒng)一且普遍認(rèn)同的回答。何況依靠人類把算法植入內(nèi)部的無人駕駛。這些具有爭議性的問題在于沒有形成合理的倫理規(guī)則和實踐準(zhǔn)則去引導(dǎo)無人駕駛技術(shù)。面對這些問題,我們不該后退,而是積極尋求新范式去引領(lǐng)和規(guī)范技術(shù)發(fā)展,避免機(jī)器陷入選擇性困境,阻礙社會的發(fā)展。
3.隱私倫理問題
隱私權(quán)是維護(hù)公民正常生活,不受侵害的權(quán)利。美國學(xué)者路易斯·布蘭迪斯從侵權(quán)行為法的角度,建立了隱私權(quán)的存在依據(jù),并主張隱私權(quán)是一種“不受干擾的權(quán)利”[3]??墒请S著人工智能技術(shù)的發(fā)展,交往關(guān)系在信息時代的擴(kuò)大,電子計算機(jī)的普及,人們在現(xiàn)實生活中的信息幾乎是透明的,因此現(xiàn)代社會中的人類幾乎沒有隱私可言。不難發(fā)現(xiàn),如果你想,你可以知道任何一個人的聯(lián)系方式,同理幾乎任何人都可以知道你的聯(lián)系電話、家庭住址、個人興趣等等。新的時代背景下,我們深深的了解隱私倫理問題的重要性,捍衛(wèi)隱私倫理問題的價值,使個人生活不受侵?jǐn)_的愿景。信息時代的大數(shù)據(jù)分析是個人泄密的主要原因,如何處理海量信息考察了人工智能的發(fā)展程度,也是人工智能發(fā)展都得以進(jìn)行的原料,但是我們也應(yīng)該重視數(shù)據(jù)的采集給人類隱私倫理問題帶來威脅。
二、人工智能技術(shù)倫理風(fēng)險的應(yīng)對之策
踐行“以人為本”的人道主義思想是人工智能技術(shù)倫理問題的應(yīng)對之策。這一思想根植于中國文化的脈搏之中。最早提出的人是管仲,為勸誡君主善待人民,因為人民在國家得以發(fā)展的基礎(chǔ)??v古貫今,“以人為本概念同樣適用于科學(xué)技術(shù)的發(fā)展。最重要的問題是發(fā)展科技,需不需要犧牲人民福祉?對這一問題做出否定回答是以人為本思想的理論應(yīng)用。這就需要我們關(guān)注人類福祉,人的愿景與需求。盡管人工智能技術(shù)在各個領(lǐng)域便利了人類生活,人們也需要思考人類終極福祉。
面對這樣的問題政治哲學(xué)早已給出了回答。政治哲學(xué)中的功利主義代表邊沁提出判斷一種行為的正當(dāng)性要去考察它產(chǎn)生了多少快樂,催生了多少痛苦,根據(jù)比例關(guān)系就可以衡量善惡、好壞。所以這種學(xué)說認(rèn)為在電車難題中犧牲一個老人的生命,挽救多個學(xué)生的生命是合理的。但我們不禁思考,數(shù)量真的是衡量行為正義、道德公論的標(biāo)準(zhǔn)嗎?另一派義務(wù)論者代表康德其著作《道德底形上學(xué)之奠基》②中提出一個理性主義的義務(wù)論:“道德并不是建基在欲望之上,而是在理性意志之上?!绷x務(wù)論者認(rèn)為衡量人的行為正義與否不在與結(jié)果獲利與否,而在于行動動機(jī),并提出改善每個人道德的道德目標(biāo)。因此,人工智能于人類的利弊不應(yīng)該直接肯定回答或者給出負(fù)面答案,而是應(yīng)該思考怎樣對待和利用這項技術(shù)。在這些考量中,最重要的就是其發(fā)展要遵循以人為本的準(zhǔn)則,因為科技的發(fā)展本身就是為了增進(jìn)人民的幸福指數(shù),把人從雙重勞動中解放出來。也就是說科技的發(fā)展不能超過人這個因素,而應(yīng)該始終把人類幸福作為其發(fā)展創(chuàng)新的前提。這有踐行以人為本的原則,明確人類優(yōu)先的規(guī)范,才能讓技術(shù)和人和諧發(fā)展。
參考文獻(xiàn)
[1][美]P.H.溫斯頓.人工智能[M].北京:科學(xué)出版社,1983.
[2][英]約翰·洛克.人權(quán)[M].吉林:吉林出版集團(tuán)股份有限公司,2018.
[3][美]路易斯·布蘭迪斯.隱私權(quán)[M].北京:北京大學(xué)出版社,2014.
項目基金:本文系黑龍江大學(xué)文科類哲學(xué)學(xué)院碩士重點項目,項目編號:YJSCX2019-047HLJU 項目名稱:人工智能的唯物史觀審視
作者簡介:
葛黎明(1993-),女,漢族,黑龍江大慶,黑龍江大學(xué)碩士研究生,方向:馬克思唯物史觀