馬帥超
摘? ?要:現(xiàn)如今,機器人在各行各業(yè)當中得到廣泛應用。隨著強人工智能技術的不斷發(fā)展,機器人在未來可能擁有更多的自主性。機器人的倫理問題也受到了越來越多的關注。那么,擁有自主學習、決策能力的機器人是否就要對它的行為承擔相應的責任?是否也具有道德地位?機器人道德地位的確立也產(chǎn)生了不同的分歧。面對這種復雜的人機關系,我們必須進行有倫理的思考。
關鍵詞:強人工智能;機器人;道德地位
1? ? 機器人倫理問題的出現(xiàn)
2017年10月26日,沙特阿拉伯授予了機器人“索菲亞”公民身份,“索菲亞”因此也成為史上首個獲得公民身份的機器人?!八鞣苼啞钡某霈F(xiàn),引起了廣泛的討論。從倫理學來看,擁有“公民”身份的機器人是否是道德上的行動者,是否因此具有了相應的道德地位值得商榷。面對這種具備自主性的機器人,機器人的道德地位問題引發(fā)了人們的爭議。
機器人倫理這個詞語首次出現(xiàn)在2004年1月第一屆機器人倫理學國際研討會上,這次研討會也是人們正式對機器人倫理問題展開研究的標志。而在“機器人倫理”這個詞語出現(xiàn)之前,人們對機器人可能產(chǎn)生的倫理問題就開始了討論。艾薩克·阿西莫夫(Isaac Asimov)在1985年出版的《機器人與帝國》一書中認為,應該以人類的根本利益作為機器人倫理的出發(fā)點與落腳點。機器人本身就是人類制造出來為自己服務的,機器人即便擁有道德判斷與行為也完全是人類進行設計并賦予機器人的,雖然機器人確實可以自行做出一些道德判斷,但它們判斷的依據(jù)是預先編制好的軟件程序,其產(chǎn)生的道德責任更多的是主體人的責任。
由于對機器人的定位和對機器人未來發(fā)展不同的預期,對于機器人道德地位的討論,人們產(chǎn)生了諸多分歧觀點。一些學者從人類道德地位的確立所必須具備的條件出發(fā),強調了意識、理性和自由意志等屬性,機器人的行為如何獨立和自主終將是人類行為的產(chǎn)物,其設計都有意鑲入設計者的意識行為。而一些學者則注重其行為,機器人只要表現(xiàn)出道德的行為就承認機器人的道德地位。此外,一些學者借助于動物倫理的觀點,用社會關系的方法來確立機器人的道德地位。面對諸多的分歧,我們必須進一步探討機器人的倫理問題。
2? ? 機器人道德地位的爭論
意識是確立道德地位的必要條件。因為,一個人需要有意識才能表現(xiàn)出道德或不道德,在面對道德指責或贊揚時也必須依靠道德意識承擔相應的道德責任。假如缺乏了意識,就將進入“道德虛無主義”。而一些學者認為道德是必要的。我們并沒有更多直接的證據(jù)或洞察其他生物的思想,我們應該基于某些可觀察行為,關注機器人所表現(xiàn)出來的道德行為。
一部分科學家試圖從計算機的領域去研究意識,自主性機器人的實現(xiàn)是將意識轉化為一種計算。意識計算也就是在計算機領域為智能機器輸入一個定義好的電腦指令,從而使它可以控制整個智能機器,從根本上來講,它屬于一個物理符號系統(tǒng)。雷·庫茲韋爾(Ray Kurzweil)與伯克利大學哲學教授約翰·塞爾(John Searle)支持“強大的人工智能”的觀點,他認為一臺合乎邏輯的編程好的電腦可以具有意識。美國塔夫茨大學教授丹尼爾·丹尼特(Daniel Dennett)認為,人也不過是一臺有靈魂的機器而已,人可以有智能,人工智能有可能有思維和意識的。上述對于意識的研究,可能是通過硬性計算機編程植入到機器人當中,使機器人看起來是具有意識的。而另外一些科學家和倫理學家則通過對孩童的發(fā)育過程著手研究。在倫理學中,擁有道德地位就應該視其為道德責任的承擔者。而對于一個心智沒有發(fā)展成熟的小孩,其并不具有理解能力和意識,其責任也應該由其監(jiān)護人來承擔。研究者們正在利用多模式的途徑模擬人類孩童的發(fā)展模式來進行機器人的研究,如同小孩兒的理解力和意識發(fā)展一樣,自主學習型的機器人也是從無意識到擁有意識逐漸發(fā)展和培養(yǎng)起來的。這種能力是建立在機器人自己的能力和它們觀察別人的舉動而獲得的抽象能力之上,機器人在發(fā)展和培養(yǎng)過程中通過自主的學習將擁有自己獨有的意識能力。那么,人類的理解力和意識似乎并不能作為依據(jù)來否定機器人的理解力和意識行為。當人們感覺到它們的意識和行為是值得信賴的,那么機器人擁有意識的這一可能性也將成立,于是也就滿足了意識這一必要的條件。這也似乎為機器人道德地位的確立提供了可能性。
理性作為道德地位的必要條件,也被人們所爭論。一個人只有擁有理性,才能夠知道自己該采取什么合適的方法來達到目的。理性往往是通過道德情感、道德信念表達出來的。這就要求機器人必須有能力去檢測道德上的重要信息并有道德推理的能力。這種能力并不是決策和認知過程,而是基于某種道德標準所做的正確判斷能力,并且能夠運用恰當?shù)睦碛蓙斫忉屝袨榈恼_性。邁克爾·安德森(Michael Anderson)和蘇珊·利·安德森(Susan Leigh Anderson)提出:我們所需要的是機器的行為方式與在這種情況下道德的正確行為一致,并且能夠通過引用可接受的道德原則來證明其行為。假如人類運用理性時會受到情感等原因的干擾,在做出道德判斷時還不具有純粹的理性。那么,在某種程度上來說機器人顯然比人類更加理性。因為,機器人的行為結果完全是基于理論而做出的邏輯推理結果。
自由意志也可能是道德地位的必要條件,在機器人倫理問題中也用“自主”來表述自由的概念。一些人認為機器人永遠不可能擁有自由意志。因為自主機器人雖然可以自行做出一些決定,但它們在進行判斷時的依據(jù)則是預先編制好的軟件程序,那么機器人的自主并不意味著它們在進行抉擇時是自由的。經(jīng)典的可選擇的其他可能性原則(Principle of Alternative Possibilities,PAP)認為,行為的可選擇性是體現(xiàn)人的自由意志的一個重要方面,而道德責任與自由意志的聯(lián)系也是通過它來實現(xiàn)的。如果自主機器人在進行抉擇時并沒有可選擇性,那其行為就是不自由的,也就不用承擔道德責任。而一些學者則傾向于忽視人工道德主體自由意志的條件。弗洛里迪( Floridi)和桑德斯(Sanders)聲稱:“人類道德主體確實有自由意志,而事實上,沒有達成廣泛的共識?!本拖駲C器一樣,人類也可以被認為是按照特定的方式行事,因此,機器人缺乏自由意志,也不能因為機器人是預先設計或編程好的程序這一理由來否定機器人的道德地位。
如果上述的討論,還僅僅局限于傳統(tǒng)的道德觀上,分析道德地位與道德相關的屬性之間的探討。那么在《日趨發(fā)展的道德關系》(Growing Moral Relations)一書中,馬克·康科爾伯格(Mark Coeckelbergh)創(chuàng)造性地提出以關系的方法考察道德地位,將決定道德地位的要素推進到多元化,以此論證機器人有道德地位的可能性。他認為道德地位是伴隨著實體之間的關系出現(xiàn)的?!瓣P系”是一種綜合作用的產(chǎn)物,不能被實體或實體的某種屬性所定義。在確定機器人道德地位的時候,人們需要知道機器人是如何自然地、物質地、社會地嵌入人類生活中的。但是,當我們在思考機器人的道德地位的時候,一種關系性結構已經(jīng)在那里預先存在著,這使我們認為機器人就只是“機器”,而不是把它看作我們的“同伴”。顯然已經(jīng)有了一種實在的人機關系,并且也存在著其他可能的關系同時約束著這一具體的關系。關系式的方法使得人們要用一個“正確”的方式去看待機器人,需要從根本上、道德上考慮機器人,其道德地位是生長在關系之中的,而不是在關系之前就先驗地存在的。當一個完全自主的機器人出現(xiàn)在我們面前,所建構的人與機器人的關系在很大程度上取決于人們?nèi)绾握務摍C器人是“機器”還是“同伴”的問題;取決于人類如何與機器人生活在一起;取決于人類社會中技術的發(fā)展,尤其是強人工智能技術的發(fā)展。也正是這些因素激發(fā)機器人道德地位的討論。
3? ? 機器人發(fā)展所面臨的現(xiàn)實問題
當然,機器人道德地位的確立不僅面臨的是理論問題,也面臨著許多現(xiàn)實挑戰(zhàn)。諸如人在面臨道德行為選擇時,作為主體的個人表現(xiàn)出的是不同的道德價值判斷并承擔相應的道德責任,但是,無論人做出什么樣荒謬的道德行為,也并不能就此取消人的道德地位。而機器人其道德行為選擇一旦被人們所質疑,也就因此取消其道德地位的存在。這不僅僅是局限于目前強人工智能技術,也是出于人們對人工智能的偏見。
通常,人們對他人的期望往往比對自己的高,對機器人的要求比對他人的要求更高。那么,人們會因為智能機器沒有做出人們期望的那種行為時,質疑其道德行為能力。在道德原則的多樣性上,人對機器的期望也與對人的期望不同。例如,在電車難題的研究中,對那些不管是用義務論還是后果論的人來說都持比較開放的態(tài)度。但對于智能機器人,就顯得沒有那么寬容。甚至在這個難題的解答中,機器人應該給出一個更加讓我們折服的答案。機器人道德地位的確立趨向于我們怎樣“看待”機器人的問題上。也更強調面對這種人機關系,人類如何把自己的道德狀態(tài)或者道德期望映射到其他主體上。如實的責任期望不是基于智能機器人的進化或者改變,而是基于我們改變自身的映射關系。
4? ? 結語
科技的創(chuàng)新發(fā)展是現(xiàn)代化潮流不可逆轉的,人類無力拒絕一個新世界,也無法拒絕技術化的未來,而科技的創(chuàng)新升級也會給社會帶來意料之外的負擔。如,人們在發(fā)明汽車時,也未曾想到200多年后的今天會出現(xiàn)“停車”問題。當然,強人工智能作為未來科技的發(fā)展方向,這種大趨勢也是不可逆的。總之,機器人在未來的發(fā)展如何發(fā)揮應有的積極作用,很大一部分原因取決于機器人的倫理設計是否成功,這就需要科學家、哲學家等聯(lián)合起來共同努力。
[參考文獻]
[1]蘇令銀.人工道德主體:哲學假設與認識論挑戰(zhàn)[J].西南民族大學學報:人文社科版,2018,39(3):62-68.
[2]王東浩.機器人倫理問題研究[D].天津:南開大學,2014.
[3]呂雪梅.以關系的方式探索“機器人”的道德地位—兼論道德思維范式的轉變[J].內(nèi)蒙古大學學報:哲學社會科學版,2014,46(5):30-35.
[4]張正清,黃曉偉.作為“他者”而承擔道德責任的智能機器—一種人工智能成為道德能動者的可能性[J].道德與文明,2018(4):26-33.
[5]DEBORAH G,JOHNSON.Computer systems:moral entities but not moral agents[M].Holland:Kluwer Academic Publishers,2006.