周華明
Real Story
機器人法則
提到機器人法則,你第一時間想到的,可能是科幻作家阿西莫夫在短篇小說集《我,機器人》中描述的機器人三定律:一,機器人不得傷害人類,或袖手旁觀坐視人類受到傷害;二,除非違背第一法則,否則機器人必須服從人類的命令;三,除非違背第一、二法則,否則機器人必須保護(hù)自己。
阿西莫夫的機器人三定律就因其高度的概括性和嚴(yán)密的邏輯而為人稱道,被許多科幻作品引用并發(fā)揚光大。連現(xiàn)代人工智能的研究亦多考慮此法則,甚至將其應(yīng)用在實際開發(fā)中。但阿西莫夫設(shè)計法則的本意并非要證明其完美無缺,恰恰相反,他在小說中不斷探討上述法則的局限性,引導(dǎo)讀者思考這樣的問題:機器人與人類到底應(yīng)當(dāng)以怎樣的方式共處?機器人是否可能擁有靈魂,而不只是徒具人類外形的機器?如果一個機器人有了靈魂,那么它是否仍應(yīng)服從這些法則?
在《機器紀(jì)元》中所設(shè)置的二法則,隱含了與阿西莫夫的機器人三定律完全不同的意味。機器人三定律并未限制機器人的自我完善和自我發(fā)展,而是明確規(guī)定了機器人對人類的從屬地位?!稒C器紀(jì)元》的二法則別出心裁:一方面,沒有要求機器人必須完全服從人類;另一方面,不能傷害的對象并未指定人類,而是要求不得傷害任何生命。一個具有了自己的意志和靈魂的機器人是不是生命?如果必須在傷害人類和傷害這樣的機器人之間做選擇的話,應(yīng)當(dāng)如何選擇?
電影中的人類采用了簡單粗暴的辦法:限制機器人的應(yīng)用、限制機器人的自我發(fā)展,不讓機器人去考慮人與機器人孰輕孰重,更不讓機器人有機會發(fā)展出自己的意志與靈魂。
False Tale
無所適從的定義
其實,無論阿西莫夫的機器人三定律,還是《機器紀(jì)元》的二法則,都有一個很明顯的問題:以不得傷害人類為例,這條法則沒有定義清楚什么是傷害,怎樣的程度是傷害,怎樣就不是??赡芤恍┤擞X得在機器人的監(jiān)督下鍛煉身體有益身心健康,而另一些人卻會覺得每天被機器人逼著跑步讓人身心俱疲。那么機器人該怎么做?是聽任主人疏于鍛煉,身體受損,還是逼迫主人運動?
其次,這些法則也沒有定義清楚,如果機器人陷入了不得不傷害人類的情況時,應(yīng)當(dāng)如何判斷。例如,假設(shè)未來機器人替代人類成為汽車司機,當(dāng)機器人司機在駕車時,發(fā)現(xiàn)有人沖上了馬路,剎車已經(jīng)來不及了,不改變方向會撞傷他,而改變方向會導(dǎo)致車輛撞上障礙物傷害乘車者,那么機器人應(yīng)該如何反應(yīng)?
這就是機器人三定律及其他類似法則所碰到的問題。人類的道德、倫理、社會習(xí)慣、心理差異,很難用簡單的語言概括成型,就連人類自己都為此傷透腦筋,更何況只能遵循邏輯來判斷的機器人呢?
蹣跚學(xué)步的倫理
《機器紀(jì)元》及類似的電影,其實恰好反映了近年來學(xué)界對人工智能研究的一些憂慮。不久前,還有不少學(xué)者在呼吁人們小心“奇點降臨”,即如果機器人具有了真正的自我意識,可能會借助電腦的高性能和互聯(lián)網(wǎng)的傳播性,迅速超越人類的智力,并在極短的時間內(nèi)將觸手伸到世界的每個角落。于是,電影《終結(jié)者》中毀滅人類的天網(wǎng)就會由此誕生。
隨著人工智能研究的推進(jìn),機器倫理學(xué)也開始成為人類需要思考的東西??茖W(xué)家們發(fā)現(xiàn),我們很難用類似法則的方式來定義機器倫理。正如前文所述,這些法則的高度概括性反而讓它們無法適用于現(xiàn)實。
合理的對機器人的倫理思考,可能應(yīng)是從小處出發(fā),根據(jù)機器人或人工智能適用的范圍和需要處理的情況,逐條進(jìn)行定義和限制。就像父母教育小孩子,都是從早晚刷牙、飯前洗手這樣的小處著眼,如果你要教育孩子做一個好人,不能只讓他記住“做一個好人”這句話,而應(yīng)當(dāng)從日常行為教導(dǎo)他怎樣做一個好人。