胡婉 黑龍江大學法學院
人工智能的發(fā)展對人類社會的發(fā)展起到了加速推動作用,特別是智能機器人的發(fā)展,對于對抗人口老齡化的進展、醫(yī)學領域對于人體組織的更換、大工業(yè)化下的人力資源的節(jié)省等,在各個行業(yè)都起著至關重要的作用。有報道稱,機器人在失控條件下對人類進行強制性攻擊事件已不鮮見?;艚鹫f,人工智能的進化未必是良性的,一旦機器人達到能夠自我進化的關鍵階段,我們便無法預測他們與人類的目標是否相同。機器人能夠通過“暴力學習”的方式,頃刻間形成算法和數據,而人類由于自身的特點完全不具備此種能力。人工智能比人類進化速度更要快的多,機器人有著自己的演化方式,無法預測機器人在未來是否對人類造成傷害甚至如同科幻電影般互相殘害。比如說機器人傷人或者殺人事件,1989 年發(fā)生了一起智能機器人傷人事件,IBM“深藍”由于被象棋大師打敗惱羞成怒釋放電流殺死人類。機器人與人之間需要建立一種良性關系,或者說,我們需要讓機器人符合人類社會的道德倫理規(guī)范,才能保障人類的權益不被侵害。
1942年科幻小說家阿西莫夫創(chuàng)造出了“機器人學三大定律”,該定律在當時背景下有一定的前瞻性和預警性。后來又加了第零定律,機器人必須保護人類的整體利益不受傷害。三大定律具有濃烈的功利主義色彩,立場自然是為了人類的生存以及社會的發(fā)展。機器人在醫(yī)學、科研、工業(yè)等領域所創(chuàng)造的價值遠遠大于人對機器人投入的價值。而在情感上,由于機器人的工具屬性,致使人類面對機器人時的歧視心理,加之機器人具備人沒有的“超能力”,人類對此產生恐懼。在面對人類在陷入人文理性與工具理性的對立分裂時,人類更趨于走向對工具理性屈服。人與機器人之間必須有一個“度”,即機器人的發(fā)展需要自由,人類社會的生存同樣需要保護。不要因為恐懼與不信任而限制機器人的發(fā)展。只要存在于合理范圍內,可以賦予它自由的權利。人類應當尊重和保護機器人,從整體上看問題,對機器人如何發(fā)展應給予正確的指引。
2017年機器人“Sophia”在沙特獲得了公民身份,界內爭議不斷。賦予權利首先要面對的問題是,機器人是否成為法律中的主體以及應否賦予特殊人格。機器人不是一個生命體,不像人一樣有意思能力和行為能力。它的權利更多地存在于社會倫理、科學技術與人類安全的范疇。而機器人的工具價值決定了為人類服務,從這個角度上看,并不適合賦予機器人“特殊權利”。但是機器人的確需要 “監(jiān)護人”去看護,幫助它行使權利、履行義務,代替它承擔責任。這既能使機器人權益真正實現,也能為機器人的侵權行為擔責。
面對突如其來的變化,人類社會也因機器人越發(fā)的越智能化而產生社會風險。在機器人社會化應用改變傳統“人—物”法律關系的情況下,法律治理必須優(yōu)先于科技倫理,以應對權利概念的崩塌。
第一,明確機器人的權利,并將機器人的權利范圍明確劃分。任何權利的擴張都會給社會帶來風險,尤其是比人類“聰明得多”的機器人,應當將權利裝進制度的“牢籠”里。因此,需要盡早制定相關法律,以閉合列舉的方式限定機器人的權利范圍。
第二,綜合多方利益,加強規(guī)范之間有機結合。制定規(guī)則時要綜合考慮多方利益,整合利益最大化規(guī)則。找到利益的交叉點,將倫理規(guī)則融入到法律規(guī)范中,制定統一的法律規(guī)則,將規(guī)則推向國際化。
第三,建立登記制度,按照不同類型對機器人分類監(jiān)管。由于機器人種類不同,智能化越高的機器人產生的風險越大。應按照不同的標準進行分別管理,并需設置登記制度予以分類登記。要以行業(yè)自治的角度,在技術層面上進行規(guī)制。優(yōu)化機器人的監(jiān)管效率,減少機器人社會化應用中的潛在風險。
機器人給我們的生活所帶來的究竟是一個福音還是一道魔咒,不同人有著不同的認識。人類和機器人的能力在不同的軌道上,人類需要在不同的賽道和維度上超越機器人,而不是懼怕利益受損而限制機器人的發(fā)展。