崔志根
摘 要:人工智能的研發(fā)與應(yīng)用是為了給人類與人類社會帶來福利,促進人的自由全面發(fā)展的同時,也給個人、社會乃至國家層面帶來已經(jīng)顯現(xiàn)或隱性的倫理困境,筆者將從人權(quán)困境、安全困境、責任困境三個方面對困境分別進行梳理和闡述,為探尋困境的根源和解決方案提供前提,以避免技術(shù)鴻溝,共享技術(shù)紅利,實現(xiàn)包容、普惠和可持續(xù)發(fā)展。
關(guān)鍵詞:人工智能;人權(quán)困境;安全困境;責任困境
分類號:B82-057;TP18
一、人權(quán)困境
人權(quán)這一問題是在近代才提出來,其普遍意義的概念得以確認也是在聯(lián)合國成立之后的事情。《聯(lián)合國憲章》和《世界人權(quán)宣言》等國際文書的通過,標志著人權(quán)觀念成為世界公認的意識形態(tài)。對人權(quán)的解釋也有法理學、政治學、哲學等多個維度,在哲學層面可理解為人之為人的權(quán)利,強調(diào)的人區(qū)別于動物的尊嚴與價值。人是有思想的人,與動物的不同,追求自我價值實現(xiàn),人的最高級需求便是自我實現(xiàn),成為一個完善人格、全面發(fā)展具有價值的人。
1.個人自由全面發(fā)展與片面化發(fā)展之間的矛盾
人工智能技術(shù)在兩者之間的矛盾體現(xiàn)在生產(chǎn)和生活兩方面。生產(chǎn)方面人工智能替代人類勞動可能導致人類身體機能與智力的蛻化。首先,科學技術(shù)發(fā)展導致人的被剝削程度加重;其次,社會分工的細化、行業(yè)門檻的提高導致的人的日常工作、學習更加專注于某一方面的提升,缺失了全面發(fā)展的條件與意愿,甚至喪失了基本自理能力;最后,科學技術(shù)的精細分工,專業(yè)化程度加深,對現(xiàn)代人造成強大的工作壓力和精神壓力造成大面積的生存焦慮,也正是科學技術(shù)發(fā)展對人的異化體現(xiàn)。
生活方面造成精神的膚淺與思想的匱乏??茖W技術(shù)發(fā)展導致人的消費和需要畸形,人們的消費觀念被消費主義思想占據(jù),科技產(chǎn)品引發(fā)人的符號消費與攀比消費,求新、求異的消費觀念被喧囂塵上的產(chǎn)品所引導、控制,使人失去自我,失去自主選擇權(quán)。人失去了對日常生活的正確認識并被裹挾其中而不自知,喪失了合理批判社會現(xiàn)實的能力,失去了自由、創(chuàng)造力和超越性,成為馬爾庫塞筆下“單向度的人”。
2.主體性問題
所謂的主體性只是近代歷史和近代哲學發(fā)展的產(chǎn)物,由于科學技術(shù)的發(fā)展,人類得以從自然、愚昧中解放出來,成為獨立、自主、有意識的能動性的人。獨立性、自主性、能動性和創(chuàng)造性作為主體性的四個基本表征,是人在具體實踐中所展現(xiàn)出來的:人的自我意識、自我決策、自我認同、自我超越,通過改造客觀世界與主觀世界實現(xiàn)自我的價值與尊嚴,實現(xiàn)人的主體性存在。但是,人工智能在生產(chǎn)、生活中的普及,會削弱人在自然界、人類社會中的主體地位,出現(xiàn)主體性危機。
一方面,人類喪失決策權(quán)力使我們的主體地位受到前所未有的挑戰(zhàn)。人工智能所具有的高效信息收集、分析、推理、決策能力是人類所難以企及的,通過人工智能對數(shù)據(jù)進行分析,得出“最優(yōu)解”是專家系統(tǒng)、金融投資分析等人工智能產(chǎn)品的目的,人們利用“最優(yōu)解”來做出決策,便是喪失了完全的自主決策權(quán)的先驗條件。另一方面,人工智能滲透的生產(chǎn)、生活的方方面面,而其技術(shù)準入門檻高,創(chuàng)新難度大,而日常被人工智能輔助下的大部分人類喪失能動性與創(chuàng)造性而成為無用的階層,正如尤瓦爾·赫拉利在《人類簡史》中提到的“人工智能技術(shù)的快速發(fā)展必然導致無用的階層的興起”。
3.人際關(guān)系的擴大化與人際孤島之間的矛盾
人工智能技術(shù)實現(xiàn)了人際關(guān)系的擴大化,互聯(lián)網(wǎng)把世界連起來,即使身在大洋彼岸也可以通過郵箱、聊天軟件接收到對方的文字、聲音、圖像。與此同時,人際孤島的問題也逐漸顯現(xiàn):越來越多的人信奉“孤獨是人生的歸宿”,選擇獨身、獨居,甚至與虛擬人物結(jié)婚,“宅文化”盛行,個體與外界的隔離、小圈子與外界隔離,人活成一個孤島。
首先,人際關(guān)系擴大化分散了與身邊人建立親密關(guān)系的精力。人工智能時代下萬物互聯(lián),新媒體的運用使人際網(wǎng)絡(luò)廣度拓展,社交范圍的擴大,人們更容易跨越距離,找到與自己志趣相投的群體,然而由此造成的信息繭房、自我封閉,同質(zhì)化強化也伴隨著風險:走向狹隘與偏激,甚至影響人的思維模式、扭曲認知。其次,虛擬社群降低了人際交往的欲望,反而更愿意接受機器。人工智能機器人的設(shè)計充分利用大數(shù)據(jù)的算法推薦及深度學習,能夠比人更加“善解人意”,從而更好的滿足人的需求,繼而降低現(xiàn)實人際交往的欲望和必要性。最后,遠程虛擬溝通技術(shù)會進一步拉大了人與人交往的鴻溝,強化人際孤島效應(yīng)。虛擬現(xiàn)實和遠程交往技術(shù)的發(fā)展使交往行為的真實性、正確性蒙上了迷霧,真誠性也難以得到確證,而面對面交流可能趨于日漸式微。人與人之間的信任被消磨,建立親密關(guān)系的難度增大,進一步強化人際孤島。
二、安全困境
人工智能的安全問題是業(yè)界最關(guān)注的問題之一,安全是人類最基本的生理需求,只有在保證人身、心理安全的前提下,一切便利、效率才有意義。本章將從個人安全、社會穩(wěn)定、國家安全三個層面就隱私安全、分配公平、軍事運用為切入點展開,對人工智能可能帶來的安全隱患進行分析與探討。
1.大數(shù)據(jù)信息收集與個人隱私泄露之間的矛盾
人工智能的應(yīng)用與推廣需要海量的個人信息數(shù)據(jù)作為前提與支撐??梢哉f,正是由于近幾年互聯(lián)網(wǎng)、大數(shù)據(jù)的迅速發(fā)展,才促成了人工智能技術(shù)第三次浪潮的興起。大數(shù)據(jù)的使用、算力的提高和算法的突破,可謂是驅(qū)動人工智能技術(shù)發(fā)展的“三駕馬車”,人工智能才得以快速發(fā)展、廣泛應(yīng)用,并呈現(xiàn)出深度學習、跨界融合、人機協(xié)同、群智開放、自主操控等新特征。人工智能越是“智能”,就越需要獲取、存儲、分析更多的信息數(shù)據(jù),進而通過學習、模擬以提高自身在某個領(lǐng)域的能力。大數(shù)據(jù)要求對相關(guān)數(shù)據(jù)進行收集,醫(yī)療護理需要被服務(wù)對象的醫(yī)療數(shù)據(jù),教育需要教育數(shù)據(jù),必然會對個人的隱私造成侵犯,而獲取和處理海量的個人信息數(shù)據(jù),不可避免會涉及個人隱私保護這一重要倫理問題。
2.科技成果創(chuàng)造與公平合理共享之間的矛盾
公正作為一種評價社會制度的道德標準, 始終有著不容忽視的重要價值。對于公平,羅爾斯強調(diào)機會公平,應(yīng)該給予弱勢群體足夠的重視與幫助。習近平總書記強調(diào)讓發(fā)展紅利惠及人民群眾,共享發(fā)展成果。但由于市場機制的作用,社會資源分配存在馬太效應(yīng),從而導致了社會不平等現(xiàn)象的加劇。
可能導致人工智能成果公平惠及人類的影響因素貫穿了AI產(chǎn)品從研發(fā)設(shè)計到運營的全過程,每個環(huán)節(jié)都有偏離公平的杠桿,“失之毫厘,差之千里”,對技術(shù)紅利的公平分配和使用產(chǎn)生負面影響。如設(shè)計與應(yīng)用過程中的算法偏見問題:性別歧視、種族歧視、行業(yè)歧視等等,AI產(chǎn)品與服務(wù)設(shè)計階段、分配過程中將受眾標簽化、圈層化;分配結(jié)果上貧富差距拉大成難以逾越的鴻溝,如擁有財富和權(quán)利的階層利用人機融合、芯片植入等技術(shù)實現(xiàn)體能強化、智力增強,而社會底層的普通人別無選擇反而被人工智能替代成為“無用的階層”。
3.人工智能軍事方面的運用導致國家間的安全困境
人工智能時代下,智能科技的快速發(fā)展加快了新一輪軍事革命的進程,新時代的國防和軍隊建設(shè),面臨全方位深層次的改革創(chuàng)新與重塑。軍事領(lǐng)域的競爭正加速走向智權(quán)時代,戰(zhàn)爭的制勝機理將完全改變,戰(zhàn)爭形態(tài)、作戰(zhàn)方式、作戰(zhàn)能力等都會發(fā)生巨大變革。中國兵器科學研究院科技委副主任吳明曦預(yù)見:“未來,雖然大型有人作戰(zhàn)平臺會一直存在,但大多處于后臺和防區(qū)外,而在作戰(zhàn)前沿,戰(zhàn)場上有生力量的直接對抗將顯著減少,精確制導彈藥、蜂群武器、仿生機器人、機器人部隊作戰(zhàn),將成為常態(tài)?!盵1]
機器人作戰(zhàn)在大大降低傷亡率的同時,倫理問題也成為深思的話題。智能化降低傷亡成本的同時是否會增加軍備競賽的風險?自動化武器或自主武器是否有權(quán)利決定殺死誰?如何確保不會殺死平民、傷及無辜?機器如何正確判斷士兵投降還是詐降?如何解決程序算法的潛在安全風險?給用來殺戮的武器限定人道主義原則,本身就是對程度進行把控的難題。因此對于軍事領(lǐng)域人工智能化的變革應(yīng)該慎之又慎,以維護國際安全與長治久安。
三、責任困境
由于人工智能本身具有安全風險,當其出現(xiàn)事故、對人造成傷害時,其具有的自主性、不可預(yù)測性等特征可能給責任承擔提出挑戰(zhàn),使得受害人的損害無法獲得彌補。該如何定責也人工智能倫理研究的重要議題,歐盟、英國等開始考慮出臺新的責任規(guī)則,如通過保險、賠償基金等方式來分擔事故的損害,但對于責任困境的解決任重道遠。
1.責任主體地位的探討與確定
關(guān)于人工智能地位各方學者、專家眾說紛紜、各持己見:新工具主義者的代表人物布賴森(J.J.Bryson)認為其不具備承擔責任的能力,應(yīng)該將機器人設(shè)計成奴隸,人類避免同情心泛濫,浪費不必要的人力、時間、資源成本,不具有主體地位;而持有機器倫理觀點的代表人物瓦拉赫和艾倫在其合著的《道德機器》一書中主張將倫理規(guī)則植入到機器之中,設(shè)計生產(chǎn)有倫理道德觀念的智能體。甘克爾也認同,如果智能機器人達到布魯克斯所形容的狀態(tài),卻仍然把它們當做機器看待就是不道德的表現(xiàn)。
在探討是否認同賦予人工智能主體地位方面,首先要將人工智能體的設(shè)計為人類所接受,人具有排他性,在倫理道德方面對其他物種更明顯,如機器人的“人形化”是機器人外形設(shè)計的必然趨勢,尤其是以與人溝通交流為目的的具有人格的機器人,他們不僅需要與人類有肢體交流還需要面部表情的交流。其次,人之所以是人,能作為一個道德主體被對待,正是因為人具有自我意識、欲望、情感,而之所以能有這些情感,與人產(chǎn)生共情心理,能夠體會到客體的情緒;如果說情感是心靈的表達,那么理性就是大腦的外部展現(xiàn)。人工智能體應(yīng)該具備倫理決策與理性思維,需要其行為表現(xiàn)符合倫理道德規(guī)范,在遇到倫理問題時能夠做出合理的判斷。這需要在提高智能機器人思維能力的同時,完善其所遵循的倫理算法。
2.法律責任問題
2017年國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中要求“要建立保障人工智能健康發(fā)展的法律法規(guī),開展與人工智能應(yīng)用相關(guān)的法律問題研究,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責任等,為新技術(shù)的快速應(yīng)用奠定基礎(chǔ)?!币虼耍紫葘θ斯ぶ悄芊芍黧w地位進行界定成為學界的重點研究課題。
從法律的進化變遷方面來看,法律文本與規(guī)定是隨著社會現(xiàn)實不斷變化和修正的,具備自主意識的強人工智能擔任一定社會角色融入人類生產(chǎn)尤其是日常生活中時,法律應(yīng)當與時俱進,保持開放、靈活的態(tài)度,接納人工智能,在不同的場域?qū)θ斯ぶ悄苁┬胁煌姆梢?guī)范,優(yōu)化對人工智能時代下的人工智能體運用與人機關(guān)系,不僅利于促進人工智能產(chǎn)業(yè)健康發(fā)展,更有利于保障人類社會的平穩(wěn)運行,增加便利性,提高人類的生活質(zhì)量和水平。
3.道德責任問題
關(guān)于道德責任問題,亞里士多德在《尼各馬可倫理學》第三卷中,至少提出了以下幾個論點:(1)承擔責任的行為必須在我們的能力范圍之內(nèi);(2)該行為必須出于行為者本身的意愿,而不能是被迫的;(3)承擔責任行為的起始因不能是出于無知。[2]從這三個責任主體應(yīng)當承擔責任的條件來對人工智能體能否承擔責任進行分析,人工智能體即使在被承認道德主體的前提下仍舊不能確定能否承擔道德責任。
所謂承擔道德責任更多是對道德主體主觀內(nèi)心上的懲罰,有來自內(nèi)在的羞愧之感,也有來自外界的道德審判。道德高尚的人往往以嚴格的道德準則要求自己,如果做了自己認為不道德的事情,會有自責、羞愧等情緒,無法原諒自己的行為,也就是內(nèi)在的自我懲罰。而外在道德審判是通過謾罵譴責、甚至侮辱等方式,對其造成心理、精神方面的懲罰;或刺激喚醒其羞恥心,使其形成愧疚、自責等情感反饋。無論是內(nèi)在還是外在,都需要以具有情感、良知、良善為前提。因此人工智能能否“通情理”對于人的處境“感同身受”具有了情感,是其承擔道德責任的前提要件。
參考文獻
[1]吳明曦.現(xiàn)代戰(zhàn)爭正在加速從信息化向智能化時代邁進[J].科技中國,2020(05):9-14.
[2][古希臘]亞里士多德.尼各馬可倫理學[M].廖申白,譯注.北京:商務(wù)印書館,2009:71-77.
(北京郵電大學 馬克思主義學院 北京 100876)