吳娜
人工智能經(jīng)過60多年的發(fā)展取得了舉世矚目的成就,成為當代及未來發(fā)展的驅(qū)動力之一。伴隨著人工智能的蓬勃發(fā)展,其倫理方面的問題也漸漸浮現(xiàn)了出來:人工智能帶來勞動異化問題、人工智能的技術形態(tài)意識化問題、人工智能的權利和責任問題、人工智能發(fā)展中的環(huán)境倫理問題等。鑒于人工智能發(fā)展的巨大影響力,人工智能倫理問題必須引起重視,增強研發(fā)主體的道德責任感、積極推進人工智能發(fā)展規(guī)范化、法律化,加強各國的交流合作,確保人工智能在造福人類的軌道上發(fā)展,還人工智能一顆“良芯”。
如果說大數(shù)據(jù)是21世紀的“新石油”,人工智能就是社會發(fā)展的引擎,世界各個國家紛紛將人工智能的發(fā)展上升至國家發(fā)展戰(zhàn)略層面。2017年,日本出臺《下一代人工智能推進戰(zhàn)略》,明確了人工智能發(fā)展的技術重點,并推動人工智能技術向強人工智能和超級人工智能的方向延伸。2018年,印度出臺《人工智能國家戰(zhàn)略》,充分利用人工智能這一變革性技術,促進經(jīng)濟增長和提升社會包容性,尋求一個適用于發(fā)展中國家的人工智能戰(zhàn)略部署。在我國,人工智能從2017開始連續(xù)三年寫進政府工作報告,側(cè)重點從技術的研發(fā)轉(zhuǎn)向研發(fā)應用上,這意味著發(fā)展AI已經(jīng)全面上升至國家戰(zhàn)略高度。
人工智能倫理問題概況
1956年被譽為人工智能的元年,在該年的美國達特茅斯(Dartmouth)會議上,首次提出人工智能(Artificial Intelligence,簡稱AI)這一術語,標志著人工智能這一學科的正式誕生。從誕生之日起,人工智能一方面被視為一顆冉冉升起的新星,受人追捧而蓬勃發(fā)展,經(jīng)歷了兩次高潮;另一方面也備受質(zhì)疑,遭受了兩次嚴重的挫折,被稱為“人工智能的兩次寒冬”。1993年以后,人工智能才算贏來了嶄新的春天。
到今天,從來沒有哪項技術能夠像人工智能一樣引發(fā)人類無限的暢想,人工智能題材的電影越來越多地涌進市場,2019年春節(jié)后上映的被譽為開啟中國科幻片新紀元的電影《流浪地球》,再次引發(fā)了知識界關于人工智能倫理問題廣泛的討論。在影片中,超級人工智能機器人Moss最后一句話“讓人類永遠保持理智是一種奢求”,發(fā)人深省?!叭斯ぶ悄軟]有情感,不相信希望,更不相信奇跡,因為程序的思維方式和它的計算中沒有奇跡?!盵1]毫無疑問,在Moss看來犧牲空間站去換取挽救地球微弱的可能性簡直毫無理性,但它不明白的是在人類歷史進程中,正是這種在危機關頭的奇跡、希望與自我犧牲才使得人類繁衍下去。
在人工智能發(fā)展的初期,科學家主要關注人工智能技術本身的發(fā)展,并且經(jīng)常會和哲學聯(lián)系起來,那是因為人工智能顧名思義是研發(fā)用于模擬、延伸和擴展人的智能的理論。1950年發(fā)表的《計算機與智能》這篇文章中,作者阿蘭·麥席森·圖靈設計了一個非常有名的測試——圖靈測試,如果機器人能通過這一測試說明其會思考,反之則不會。圖靈測試為人工智能的研究奠定了基礎,將人工智能與人緊密聯(lián)系起來,人工智能的倫理問題也悄然而至。
同年,美國著名科幻作家阿西莫夫在《我,機器人》這本書中提出了三條機器人定律:“第一條,機器人不得傷害人類個體,不能目睹人類受到傷害而不干預;第二條,機器人必須服從人類的命令,命令與第一條沖突除外;第三條,機器人在不違反第一條、第二條原則的情況下,要保護自身安全?!盵2]“機器人三定律”的初衷是為了讓機器人的行為規(guī)范受到限制,使其道德地位處于人類之下,避免人工智能機器人的意志與人類的意志產(chǎn)生沖突,從而走向“毀滅人類”的歧途。
美國著名科學家J.R.塞爾根據(jù)人工智能的智能化程度將其區(qū)分為弱人工智能和強人工智能,簡單地來說,兩者的主要區(qū)別就在于弱人工智能是作為一種工具而存在,自身不具備獨立發(fā)展的意識。強人工智能不能簡單地稱之為一種工具,它具有像人一樣獨立思考和決策的能力,可以產(chǎn)生一種理性的行動。而且強人工智能奇點的存在(在物理學中奇點表示不存在的點)說明了人類有被人工智能超越的可能。著名物理學家霍金也說過:“生物大腦與電腦所能達到的成就并沒有本質(zhì)的差異。因此,從理論上講,電腦可以模擬人類智能,甚至可以超越人類?!?/p>
人工智能為人類社會帶來的潛在利益十分巨大,但是我們要警惕其帶來的各種危險,包括強大的軍事武器。除此之外,人工智能還有可能進化出自己的意志,對人類社會的影響更無法估量。對人類而言,強大的人工智能技術的崛起可謂“不成功,便成仁”,有時候,看似不太起眼的翅膀扇動,卻很可能在不遠的將來,引起人類社會山呼海嘯般的巨震。
關于人工智能問題的研究國外比國內(nèi)起步要早,比較知名的有《智能的本質(zhì)》《人工智能簡史》《人工智能哲學》等,這些書在描述技術發(fā)展帶來便利的同時也早早就對人類發(fā)出了警示,其中,諾伯特·維納指出,未來的機器人代替人類從事勞動可能會導致人類的生存危機——使人類變得好吃懶做和愚笨,變成機器的附庸品。我國人工智能研究起步雖比國外稍晚一些,但對于人工智能的研究文獻卻不少,也取得了一定的研究成果。比較著名的有浙江師范大學鄭祥福教授在《人工智能的四大哲學問題》[3]提出來的關于人的意向性問題、概念框架問題、語境問題以及日常化認識問題。這四個問題的闡述將有助于人工智能科學的基礎性問題的解決。北京郵電大學的劉偉教授在《關于人工智能若干重要問題的思考》[4]中啟發(fā)我們要用一個綜合性的眼光來看待強人工智能,而不能僅僅以一種工具的眼光視之。除此之外還有陳立鵬的《人工智能引發(fā)的科學技術倫理問題》、劉燕的《情感機器人哲學的倫理維度》、李瓊的《人工智能的哲學思考》等。整體來看,我國在人工智能倫理領域研究并沒有特別的深入,只是由少部分的學者對其進行了反思和初探,相關成型的倫理書籍著作更少。筆者試圖在以上成果的基礎之上,對當前人工智能倫理問題的困境進行進一步探究,以期推進對該問題的思考。
人工智能引發(fā)的倫理困境
人工智能帶來勞動異化問題
從人工智能的定義來看,人工智能研發(fā)的目的是將其作為人的對象化產(chǎn)物,即作為勞動的外化而存在。勞動外化本身并不造成勞動的異化,反而可能促進人的本質(zhì)的實現(xiàn)。那人工智能是如何導致勞動的異化這一結果的呢?這就不得不說到資本的本質(zhì),資本的本質(zhì)是在運動循環(huán)中實現(xiàn)增值,追逐利益是資本的唯一目的。在科學技術是第一生產(chǎn)力的時代,人工智能所表現(xiàn)出的巨大的生產(chǎn)力必然吸引資本蜂擁而至,在資本的強烈的“裹挾”下,人工智能違背了設計的初心?!叭苏媾R著一股自己根本無法控制的力量,與這股力量相比,人只是一粒塵埃罷了”[5]資本與技術的合謀使人工智能越來越走向一條不歸路。
具體來說,這種合謀導致的勞動的異化是通過兩條途徑實現(xiàn)的:首先,自動化縮小了社會的橫向分工,人工智能實現(xiàn)了生產(chǎn)的半自動化、全自動化,消除了生產(chǎn)對人類個體差異性的依賴。隨著人工智能研發(fā)的深入,更加完善的功能使得人工智能在社會分工體系中越來越占據(jù)主導地位,減弱了橫向分工之間的差距,普通勞動者之間技術的差異性逐漸喪失,高效率自動化生產(chǎn)的背后是資本剝削的進一步加深,所有發(fā)生的一切都是靜悄悄的,被一種貌似平等的假象所掩蓋了。人越來越成為資本追逐利益下技術手段的附屬品,工人的生存狀態(tài)并沒有得到很大的改善,相反,隨著勞動力對技術依賴性的增加以及由此造成的勞動力本身在分工體系中競爭力的下降,其生存狀態(tài)會進一步的惡化。
其次,人工智能技術的壟斷阻隔了社會的縱向分工。在信息時代,基于大數(shù)據(jù)以及計算機應用的自動化生產(chǎn)成為了拉動經(jīng)濟增長的主要驅(qū)動力,資本追逐利潤的本質(zhì)使得大量資金都流入了那些掌握前沿科技的企業(yè)和人才手里,這樣造成了一方面是一些常規(guī)性的工作被代替以及由此造成的整個社會失業(yè)率的增加,在美國一些中產(chǎn)階級的工作被計算機、機器取代;另一方面,一些本來就處于社會分工等級上層、掌握前沿科技的企業(yè),由于資本的大量流入使得這些企業(yè)的地位更加穩(wěn)固,甚至通過新的技術壟斷切斷了其他企業(yè)以及勞動者突破社會分工的機會,進而將不平等的社會分工等級秩序的牢籠扎得更緊。社會分工頂層和底層間不可逾越的斷裂帶的出現(xiàn),使得社會兩極分化更加嚴重——窮人更窮、富人更富。收益最大的只是資本的擁有者,廣大勞動群眾在現(xiàn)代化技術革命的浪潮中只是作為大量且廉價的技術附庸品而存在,而且隨著科學技術的進一步發(fā)展將越來越多地被拋棄。
人工智能帶來的技術形態(tài)意識化問題
技術本身承載著傳播意識形態(tài)的功能。馬爾庫塞在肯定資本技術的同時也高高地舉起了技術理性批判的旗幟,認為科學技術與私有制度的結合造就了一種新的社會的統(tǒng)治力量。在發(fā)達資本主義社會,技術披著超階級的、非政治的面紗,反而呈現(xiàn)出更大的控制能力?!鞍l(fā)達工業(yè)社會和發(fā)展中工業(yè)社會的政府,只有當他們能夠成功地動員、組織和利用工業(yè)文明現(xiàn)有的技術、科學和機械生產(chǎn)率時,才能維持并鞏固自己?!盵6]在馬爾庫塞看來,科學技術的廣泛滲透使得人們受奴隸的方式發(fā)生了很大的變化,顯而易見的剝削方式消失了,取而代之的是看似公平合理的新型剝削,人的身體和思想徹底被附庸在機械化生產(chǎn)的體系中,在“科學”、“合理”的名頭下,底層勞動者的不滿和憤怒被貼上了“反科學”的名稱,似乎生產(chǎn)效率決定一切?!凹夹g的解放力量轉(zhuǎn)而成為了解放的桎梏”[7]馬克思說,人應該是處于社會關系中的人,而在科學技術浪潮的沖刷下,人越來越成為單向度的人,關于人的本質(zhì)、關于自由而全面的吶喊淹沒在了科學技術的巨輪里。
科學技術的發(fā)展會創(chuàng)造更多的生產(chǎn)力,會創(chuàng)造更多的物質(zhì)財富,但是追求物質(zhì)財富是人的本質(zhì)嗎?答案是否定的,這就是近幾年風靡全國的一個問題:今天你幸福了嗎?相比于十年前,社會的物質(zhì)財富集聚增加,但是人們的幸福指數(shù)相比于十年前卻是有減無增。資本與技術合謀創(chuàng)造出了越來越多的物質(zhì)財富,引導人們產(chǎn)生一種“虛假的需求”,人就拜倒在物質(zhì)的腳底下,技術理性將人類引向效率原則,在高效率生產(chǎn)力所帶來的物質(zhì)財富增加的煙霧彈下,人逐漸變成物質(zhì)財富的奴隸。
人工智能的權利與責任
隨著科學技術的發(fā)展以及人機交互應用范圍的擴大,人工智能的倫理問題已經(jīng)超出了一般的技術性倫理,其范圍延伸到“機器的人權倫理問題”。2016年,中國第一臺美女機器人誕生于中國科技大學,取名“佳佳”,佳佳的外形接近人,佳佳目前具備了人機對話理解、面部的微表情、口型及軀體動作匹配、大范圍動態(tài)環(huán)境自主定位導航等功能。2017年10月26日,沙特阿拉伯授予美國漢森機器人索菲亞公民身份,索菲亞成為世界上首個獲得公民身份的機器人。伴隨“類人類生命”陸續(xù)問世,它們不再是僅從事簡單的體力勞動的機器人,而是具備了一定的感知能力以及像人一樣的情感特征,甚至在與人類不斷交互的過程中會進行情感的自動進化,這種發(fā)展的趨勢使得機器人的人權問題不得不引起重視。美國未來學家雷·庫茲韋爾預言道:“擁有自我意識的非生物體(機器人)將于2029年出現(xiàn),并于21世紀30年代成為常態(tài),他們將具備各種微妙的、與人類相似的情感?!盵8]他還預言,2045年是極具深刻性和分裂型的轉(zhuǎn)變時間,“非生物智能在這一年將會10億倍于今天所有人類的智慧?!盵9]
人工智能技術的進一步發(fā)展,一方面給人類帶來了巨大的便利,一方面使人權倫理問題更加尖銳地擺在了人類面前。比如,機器人是否應該具有像人一樣的休息的權利,是否具有接受教育的權利,機器人是否可以作為家庭成員而存在,機器人有沒有可能損害人的生命安全。當這種“類人類”的智能生命體不僅在相貌上越來越像人,而且能產(chǎn)生像人一樣的情感特征的時候,我們必須思考這些“類人性”的機器人是否應該被賦予一定的人權。反對者有之,他們認為給予智能體權利就是對人類權利的破壞,智能機器人的想法從一開始就是為人類服務的,如果給這些機器人以一定的人權就違背了研發(fā)的初衷,甚至會帶來一些難以預料的后果。支持者有之,他們認為在現(xiàn)在社會,人權的特征已經(jīng)不僅僅局限于普世性和道義性兩個基本特征而是具有了基礎性,既然機器人擁有一定的道德修養(yǎng),并且可以與人類進行一定的情感互動,而且人類本身也可以看做是一個復雜的機器,甚至從某些方面來看,人工智能的智力情況已遠遠超過了人類,所以智能機器人理所應當被賦予一定的權力。
近年來,隨著科學技術的迅猛發(fā)展,人工智能正在憑借其巨大的優(yōu)勢向教育、交通、服務業(yè)、制造業(yè)、金融行業(yè)等領域進軍。人工智能與人交互的機會越來越多,其憑借自身的學習能力會進行自我的進化和升級,升級和進化的方向我們沒有辦法完全預測到,甚至不排除在一些情況下它會自作主張。人工智能的初心是為人類服務,最開始的目的是想讓人類從復雜繁瑣的工作中解放出來,但是在人工智能的深層次的發(fā)展過程中有可能背離這個初心。美國科學家霍金就曾經(jīng)提醒過,人類緩慢的生物進化機制沒有能力與人工智能以一種不斷增長的速度競爭。人工智能的這種自我進化的能力讓人類非常的糾結,沒有一個人工智能的算法是絕對安全的,可以把包羅萬象的人類社會發(fā)生的可能性全部預測到?!半S著醫(yī)學、生物學及計算機等學科關于意向性研究的突破,意向性在一定程度上可以通過程序自主生成,這會使得責任的劃分更加困難?!盵10]與此同時,人工智能技術規(guī)范遠遠落后于技術的發(fā)展,甚至在實驗室里,這種規(guī)范的倫理意識剛剛處于萌芽階段。于是,人工智能的責任倫理的問題越來越尖銳地擺在人類面前——誰應該為這些不確定性的風險事故買單,是機器人本身還是其研發(fā)者還是應用者?比如,工業(yè)自動化時代,誰來對那些失業(yè)的工人負責,自動駕駛車問世以后,誰來為汽車事故承擔責任?如果用于醫(yī)療診斷的專家系統(tǒng)出現(xiàn)失誤,誰來為醫(yī)療事故買單?如果沒有這方面的規(guī)范,責任界定的不清楚,潛在的責任方就會相互推諉,長此以往勢必會造成人工智能風險事故的頻發(fā)。