• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      警惕人類的掘墓者:腦機(jī)融合、阿爾法狗抑或虛擬現(xiàn)實(shí)
      ——兼與翟振明教授商榷

      2017-04-02 01:29:55,
      關(guān)鍵詞:腦機(jī)虛擬世界意志

      ,

      (1.華南師范大學(xué) 公共管理學(xué)院,廣東 廣州 510006; 2.東莞理工學(xué)院 馬克思主義學(xué)院,廣東 東莞 523808)

      警惕人類的掘墓者:腦機(jī)融合、阿爾法狗抑或虛擬現(xiàn)實(shí)
      ——兼與翟振明教授商榷

      陳曉平1,肖鳳良2

      (1.華南師范大學(xué) 公共管理學(xué)院,廣東 廣州 510006; 2.東莞理工學(xué)院 馬克思主義學(xué)院,廣東 東莞 523808)

      從腦機(jī)融合“人”是否屬于人類正反兩個(gè)方面,來論證腦機(jī)融合計(jì)劃的不正當(dāng)性,為此引入兩條基本原則,即人類中心主義和自我意識的唯一性。無論從人類中心主義的立場還是從人類尊嚴(yán)的角度,都應(yīng)該拒絕腦機(jī)融合。人工智能的發(fā)展必須受到限制,以避免人類被人工智能超越或控制;虛擬現(xiàn)實(shí)的發(fā)展也必須受到限制,以避免現(xiàn)實(shí)世界喪失唯一性。現(xiàn)實(shí)世界在本體論上優(yōu)先于虛擬世界,虛擬現(xiàn)實(shí)必須要遵守虛擬局部化、虛擬自愿和虛擬無害三條倫理原則。大自然讓人類優(yōu)于機(jī)器人,至少表現(xiàn)在大自然的因果鏈條上,是自然人創(chuàng)造了機(jī)器人而不是相反,這使自然人有能力把一切威脅人類生存的技術(shù)手段扼制在端倪之中。

      腦機(jī)融合;阿爾法狗;虛擬現(xiàn)實(shí);人類中心主義;自我意識;人工智能

      一、“腦機(jī)融合”計(jì)劃能夠挽救人類嗎?

      2017年4月,美國著名企業(yè)家和科學(xué)家埃隆-馬斯克(Elon Musk)宣布,他將在現(xiàn)有的太空探索技術(shù)公司(SpaceX)和環(huán)保電動(dòng)汽車公司(Tesla)之外成立第三家公司Neuralink,用以開發(fā)腦機(jī)接口技術(shù),旨在防止出現(xiàn)人類被人工智能超越和控制的局面。馬斯克的計(jì)劃可謂“先下手為強(qiáng)”,提早讓人成為所謂的“超級人工智能”,以此在人工智能發(fā)展的浪潮中立于不敗之地。馬斯克在接受采訪時(shí)表示:人類只有一個(gè)選擇,即成為AI(人工智能)。他認(rèn)為人腦和計(jì)算機(jī)可以融合無間,人類甚至無法察覺自己在運(yùn)用AI思考;因此,腦機(jī)融合之后,人類仍然存在,只是存在方式和能力有所不同。

      早在2016年1月,馬斯克與著名物理學(xué)家史蒂芬·霍金和著名科學(xué)家、企業(yè)家比爾·蓋茨,一道獲“阻礙技術(shù)創(chuàng)新”獎(jiǎng)提名,因?yàn)樗麄內(nèi)硕枷蛉藗儼l(fā)出警告:人工智能技術(shù)將威脅人類的存在。馬斯克曾發(fā)推文稱,人工智能的潛在威脅大于核武器?;艚鹨沧恼f,盡管人工智能的短期影響取決于控制它的人,但長期影響卻取決于它究竟能否被控制。蓋茨表示,“在這個(gè)問題上,我認(rèn)同埃隆·馬斯克和其他人的理念。我不明白有些人為什么不擔(dān)心?!?/p>

      馬斯克試圖發(fā)展的腦機(jī)融合或腦機(jī)接口(Brain-Computer Interface ,簡稱“BCI”) ,是一種連接大腦和外部設(shè)備的實(shí)時(shí)通信系統(tǒng)。BCI 系統(tǒng)可以把大腦發(fā)出的信息直接轉(zhuǎn)換成能夠驅(qū)動(dòng)外部設(shè)備的命令 ,并代替人的肢體或語言器官實(shí)現(xiàn)人與外界的交流以及對外部環(huán)境的控制。換言之 ,BCI 系統(tǒng)可以代替人的外圍神經(jīng)和肌肉組織 ,實(shí)現(xiàn)人與計(jì)算機(jī)之間或人與外部環(huán)境之間的通信和互動(dòng)。

      神經(jīng)科學(xué)的研究表明 ,在大腦產(chǎn)生動(dòng)作意識之后和動(dòng)作執(zhí)行之前 ,或者主體受到外界刺激之后 ,其神經(jīng)系統(tǒng)的電活動(dòng)會發(fā)生相應(yīng)的改變。神經(jīng)電活動(dòng)的這種變化可以通過一定的手段檢測出來,并作為動(dòng)作即將發(fā)生的特征信號。通過對這些特征信號進(jìn)行分類識別 ,分辨出引發(fā)腦電變化的動(dòng)作意圖,再用計(jì)算機(jī)語言進(jìn)行編程,把人的思維活動(dòng)轉(zhuǎn)變成命令信號驅(qū)動(dòng)外部設(shè)備,實(shí)現(xiàn)在沒有肌肉和外圍神經(jīng)直接參與的情況下人腦對外部環(huán)境的控制;當(dāng)然,其中也包括外部環(huán)境對人腦的反饋程序。這就是 BCI 的基本工作原理。

      對于馬斯克的“腦機(jī)融合”計(jì)劃,筆者認(rèn)為,盡管其動(dòng)機(jī)是正確的,即避免人類被人工智能所取代,但其手段是錯(cuò)誤的甚至是背道而馳的,即提早讓人類成為所謂的“超級人工智能”。我們不妨把馬斯克所欲求的那種“超級人工智能”稱為腦機(jī)融合“人”?,F(xiàn)在的問題是:腦機(jī)融合“人”是否屬于人類?如果是,那么腦機(jī)融合技術(shù)就是讓一種人取代另一種人,似乎是無可厚非的;如果不是,那么我們則有明顯理由反對腦機(jī)融合技術(shù)。筆者先從后一角度來反駁腦機(jī)融合計(jì)劃,然后再從前一角度加以反駁;前一角度只是似乎無可厚非,實(shí)則是有可厚非的。這兩個(gè)角度的反駁合在一起,便構(gòu)成對腦機(jī)融合計(jì)劃具有決定性的“二難推論”。為了使我們的討論更加透徹,下面對問題本身給予進(jìn)一步的澄清。

      首先,一個(gè)人(指正常人)之所以為人的基本要素是他有自我意識。然而,腦機(jī)融合技術(shù)將改變自然人的自我意識而成為腦機(jī)融合“人”的自我意識,這意味著自然人將被腦機(jī)融合“人”所取代。也許有人會提出質(zhì)疑:自我意識的核心是自由意志,腦機(jī)融合“人”只是把其中自然人的意志翻譯成計(jì)算機(jī)程序然后付諸執(zhí)行,并沒有改變自然人的自由意志。對此,筆者的回答是:人的意志是以人的欲望、情感和認(rèn)知為基礎(chǔ)的,當(dāng)人的執(zhí)行方式從意識-身體改變?yōu)橐庾R-電腦-器械以后,其欲望、情感和認(rèn)知也會發(fā)生相應(yīng)的變化,進(jìn)而通過反饋?zhàn)饔脤ζ渥杂梢庵疽约白晕乙庾R產(chǎn)生影響。

      這個(gè)問題還可以追問下去。意識-電腦-器械這種主體-客體關(guān)系早已存在,因?yàn)殡娔X早已成為人腦的輔助手段了。例如,我在頭腦中構(gòu)思了一篇文章,利用鍵盤在電腦上寫出來,然后在電腦上發(fā)布一個(gè)指令就讓打印機(jī)這種器械把那篇文章打印出來。自然人的這種行為方式與腦機(jī)融合“人”的行為方式有什么本質(zhì)區(qū)別嗎?筆者提請大家注意,在這一過程中,人的身體如眼睛和手指仍然起著中介作用。一般而論,人的身體(特別是感覺器官)有一種特殊的功能:既把主體和客體分離開來,又把主體和客體聯(lián)系起來。然而,腦機(jī)融合“人”則把身體(感覺器官)的這種作用取消了,使人的身體在主體-客體關(guān)系中成為多余的。人腦與電腦直接連通的一個(gè)后果是:人腦的指令可以被電腦程序加以修改。

      其次,接下來的問題是,盡管腦機(jī)融合“人”與自然人之間有這樣的區(qū)別,但是這種區(qū)別足以使腦機(jī)融合“人”失去作為人的資格嗎?筆者的回答在很大程度上是肯定的,因?yàn)槟X機(jī)融合“人”的“自我意識”很可能不是自我意識,理由如下。

      自然人與腦機(jī)融合“人”在自我意識上的最大區(qū)別在于唯一性,前者具有唯一性而后者可能沒有。我們這樣說有兩方面的理由。一方面,當(dāng)人腦的電活動(dòng)被翻譯成電腦程序之后,可以同時(shí)支配兩套不同的器械裝置,用以和外部環(huán)境發(fā)生聯(lián)系,從而形成不同的主體-客體關(guān)系。不同的主體-客體關(guān)系反饋到腦機(jī)融合“人”的意識,從而形成兩種不同的自我意識。如果那兩套不同的器械裝置的功能是大相徑庭的,那便使腦機(jī)融合“人”處于人格分裂的狀態(tài),此時(shí)腦機(jī)融合“人”的自我意識便失去了唯一性。

      另一方面,由兩個(gè)自然人可以構(gòu)成兩個(gè)腦機(jī)融合“人”,雖然這兩個(gè)自然人的大腦電活動(dòng)是不同的,但是編程工程師可以把它們翻譯成相同的計(jì)算機(jī)程序,并連接相同的外部裝置而執(zhí)行相同的動(dòng)作和功能。其結(jié)果是,不同的自由意志卻有著相同的外部動(dòng)作或功能,這便在客觀上取消了自由意志以及自我意識的唯一性??傊?,腦機(jī)融合“人”的意志可以完全地由他人來決定,因而喪失了自由意志,進(jìn)而喪失了自我意識的唯一性。

      我們知道,唯一性是“自我”的應(yīng)有之義,如果失去唯一性,“自我”就不成其自我,而變成“我們”。相應(yīng)地,失去唯一性的“自我意識”就不成其為自我意識。既然腦機(jī)融合“人”的“自我意識”可能不具有唯一性,所以可能不是真正的自我意識,腦機(jī)融合“人”也可能不是真正的人。須強(qiáng)調(diào),“自我具有唯一性”不是一條經(jīng)驗(yàn)原理,而是一條先驗(yàn)原理,其自明性或不可懷疑性只需通過語義分析便可得出。

      第三,是否可以通過制定相關(guān)法律來避免腦機(jī)融合“人”失去自我的唯一性呢?具體地說,人類社會可以制定這樣一條法律:禁止將不同人的腦電活動(dòng)翻譯為相同的計(jì)算機(jī)程序,并且,禁止將同一個(gè)人腦與多種不同的(特別是功能相反的)外部裝置連接起來。筆者的回答是:這一法律只是暫時(shí)在一定程度上可以避免腦機(jī)融合“人”失去唯一性,但是潛在的危險(xiǎn)是不可避免的。只要有個(gè)別編程工程師或器械工程師違反這條法律,那么通過腦機(jī)融合技術(shù)而讓“人”喪失自我意識的事件就會發(fā)生。更嚴(yán)重的是,一旦社會允許腦機(jī)融合技術(shù)的實(shí)施,這項(xiàng)法律立即變?yōu)橐患埧瘴摹檎f明這一點(diǎn),讓我們將腦機(jī)融合技術(shù)與飛機(jī)制造技術(shù)加以比較。

      一般而言,任何科學(xué)技術(shù)都有潛在的危險(xiǎn)性,為了避免發(fā)生危險(xiǎn),人們針對某項(xiàng)或某類科學(xué)技術(shù)的實(shí)施制訂一些法律或規(guī)則。例如,對飛機(jī)技術(shù)的實(shí)施,規(guī)定中包括嚴(yán)格的安全檢查。對于乘客而言,是否乘坐飛機(jī)是經(jīng)過利弊權(quán)衡和自由選擇的結(jié)果。具體地說,我冒著一定的風(fēng)險(xiǎn)乘飛機(jī)旅行,那是因?yàn)椋阂环矫?,飛機(jī)出事的概率比較低;另一方面,乘飛機(jī)給我節(jié)省大量時(shí)間,帶來很大的便利;更重要的是第三個(gè)方面,乘不乘飛機(jī)是由我的個(gè)人意志決定的,即使這次乘了飛機(jī),下一次我還可以選擇不乘,我的自由意志并沒有因此而受到侵害。相比之下,腦機(jī)融合在這三個(gè)方面都與飛機(jī)不可同日而語。

      首先,一旦我們的社會允許實(shí)施腦機(jī)融合技術(shù),那么我的自由意志立刻受到侵害,因?yàn)槲颐媲爸挥袃蓚€(gè)選擇,而且都是我所不情愿的,即:要么我接受腦機(jī)融合手術(shù),從而成為一個(gè)腦機(jī)融合“人”,要么我拒絕腦機(jī)融合手術(shù),仍然是一個(gè)自然人。但是,如果是前者,那么我將承擔(dān)喪失自我意識唯一性從而喪失做人資格的風(fēng)險(xiǎn);如果是后者,那么我將被其他腦機(jī)融合“人”所控制甚至殺害,也將失去自由意志??傊坏┥鐣试S實(shí)施腦機(jī)融合技術(shù),我的自由意志必定受到傷害,其概率幾乎是百分之百。

      其次,一旦社會允許實(shí)施腦機(jī)融合技術(shù),那么不僅自然人可以對自然人實(shí)施這種技術(shù),率先出現(xiàn)的腦機(jī)融合“人”也可對自然人實(shí)施這種技術(shù),因?yàn)槟芰h(yuǎn)低于腦機(jī)融合“人”的自然人根本無法阻止他們這樣做。由于一些腦機(jī)融合“人”是被迫接受這種手術(shù)的,因此他們沒有義務(wù)遵守自然人在自由狀態(tài)下制訂的法律制度,于是他們可以無視那項(xiàng)法律制度,隨心所欲地抹除隨后出現(xiàn)的腦機(jī)融合“人”的唯一性,使越來越多的腦機(jī)融合“人”失去做人的資格。當(dāng)非人的腦機(jī)融合“人”占據(jù)多數(shù)的時(shí)候,腦機(jī)融合“人”便與自然人不屬同一物種,而屬于兩個(gè)不同物種。反之,當(dāng)非人的腦機(jī)融合“人”不占多數(shù)時(shí),雖然腦機(jī)融合“人”從總體上仍屬人類,但其中夾雜不少非人的“人”。對于那些非人的“人”,腦機(jī)融合技術(shù)則構(gòu)成對他們的人格和尊嚴(yán)的侵犯。

      下面兩節(jié)分別從把腦機(jī)融合“人”作為非人類和人類這兩個(gè)角度,來論證腦機(jī)融合計(jì)劃是嚴(yán)重的不正當(dāng)?shù)摹?/p>

      二、從人類中心主義的立場拒絕腦機(jī)融合

      假設(shè)我們面臨的情況是,非人的腦機(jī)融合“人”占居多數(shù),從而使腦機(jī)融合“人”與自然人分屬兩個(gè)不同的物種。所謂非人的腦機(jī)融合“人”就是喪失自我意識唯一性的。這樣的腦機(jī)融合“人”在心靈和身體兩方面都與自然人是不同的:在心靈上二者的區(qū)別在于是否具有唯一性;在身體上,前者比后者多出一部電腦和一套執(zhí)行電腦指令的外部裝置。既然如此,把二者看作不同的物種是恰當(dāng)?shù)摹?/p>

      人類與不同的物種之間是什么關(guān)系?達(dá)爾文的自然選擇理論已經(jīng)給出回答,即優(yōu)勝劣汰,物競天擇。試想,如果我們遇到外星人,他們的能力超過我們,我們只好自認(rèn)倒霉,俯首稱臣或被格殺勿論。反之,如果我們的能力超過外星人,則讓他們俯首稱臣或格殺勿論。再一種可能性就是,我們和外星人能力相當(dāng),相持不下,那么雙方達(dá)成共識,彼此互不侵犯,和平共處。不同物種之間的道德由此而生。這就是說,當(dāng)且僅當(dāng)兩個(gè)不同物種的能力彼此相當(dāng)?shù)臅r(shí)候,他們之間才有講究道德的必要和條件,以使他們不至于在相互殘殺中兩敗俱傷,同歸于盡。

      自然人與腦機(jī)融合“人”這兩個(gè)物種之間是否需要講道德?這取決于二者之間的能力是否相當(dāng)。一般而言,二者能力相當(dāng)?shù)母怕瘦^低,二者之間不講道德而講實(shí)力的概率較大。如果著眼于未來,腦機(jī)融合“人”將超過人類(這正是馬斯克的目標(biāo)),因而腦機(jī)融合“人”將理所當(dāng)然地征服人類;如果著眼于現(xiàn)在,人類的能力則強(qiáng)于腦機(jī)融合“人”,既然后者尚未出世,至少尚不完善,因而人類理所當(dāng)然地征服腦機(jī)融合“人”。當(dāng)務(wù)之急是以立法的方式阻止馬斯克的計(jì)劃,把腦機(jī)融合“人”扼殺在搖籃之中。

      這是人類中心主義的立場和態(tài)度。我們是自然人,根據(jù)達(dá)爾文的自然選擇理論,我們只能采取人類中心主義。需要指出,對于不同物種,我們堅(jiān)持達(dá)爾文主義從而站在人類中心主義的立場上,但這并不意味著在人類這一物種內(nèi)部即在人與人之間,我們也堅(jiān)持達(dá)爾文主義。恰恰相反,在人類社會之內(nèi),我們反對自然選擇理論,而主張以人為的道德規(guī)范來指導(dǎo)和調(diào)節(jié)人與人之間的關(guān)系;這就是說,對于人類社會,我們是反對社會達(dá)爾文主義的。誠然,我們承認(rèn)自然選擇在人類社會之內(nèi)也具有一定的作用,但不是決定性的;只有在人類與其他不同物種之間,自然選擇的作用才是決定性的。

      在人類社會之內(nèi),我們反對達(dá)爾文主義的理由大致如下:人與人在能力上的差別是十分有限的,如果采取優(yōu)勝劣汰的社會達(dá)爾文主義,那么人與人之間的關(guān)系正如霍布斯所說的狼與狼之間的關(guān)系,到處是人群格斗或種族戰(zhàn)爭,勢必造成俱敗俱傷甚至同歸于盡。人是有理性的動(dòng)物,人們能夠意識到這一點(diǎn),因而在理性的指導(dǎo)下確立人與人之間的協(xié)調(diào)共存關(guān)系,這種協(xié)調(diào)關(guān)系就是道德規(guī)范。因此,在人類社會內(nèi)部起主要作用的不是自然選擇,而是社會選擇,社會選擇的主要依據(jù)是道德規(guī)范和基于道德規(guī)范的法律體系。

      在人類社會之外即在人類與其他物種之間,筆者堅(jiān)持自然選擇的達(dá)爾文主義。對此,有人或許提出質(zhì)疑:我們與其他動(dòng)物不是同一自然物種,但我們對其他動(dòng)物也講道德,如不準(zhǔn)虐待動(dòng)物。在這里,筆者提請大家注意,這不是人對動(dòng)物講道德,而是人對人講道德。因?yàn)槿藗儗?dòng)物有同情心,一個(gè)人虐待動(dòng)物便傷害了其他人的感情,因此人與人之間定下不許虐待動(dòng)物的道德規(guī)范。再提請大家注意,人對動(dòng)物的同情心不屬于道德范疇,屬于心理本能的范疇。事實(shí)上,許多人都有不忍心看殺雞宰牛的心理本能,但這在道德上并不妨礙他們吃雞牛肉;即使素食主義者在聲稱珍視一切生命的時(shí)候,也不妨礙他們吃糧食和蔬菜??梢?,把人對其他物種的同情等同為道德,很容易淪為偽善。類似地,歡迎作為不同物種的機(jī)器人取代自然人的態(tài)度也是一種偽善。

      概而言之,既然腦機(jī)融合“人”與自然人不是同一物種,因此我們主張,為了避免人類被腦機(jī)融合“人”超越或控制,人類應(yīng)當(dāng)禁止或限制腦機(jī)融合技術(shù)的研究和發(fā)展。*用于治療性的腦機(jī)融合技術(shù)另當(dāng)別論,如給癱瘓病人進(jìn)行適度的“腦機(jī)融合”,以使他們能夠生活自理。不過,治療性腦機(jī)融合技術(shù)必須限制在較低的水平,遠(yuǎn)未達(dá)到“超級人工智能”的水平,因而不宜叫做“腦機(jī)融合”,似應(yīng)叫做“腦機(jī)輔助”。一般而言,本文所討論的各項(xiàng)技術(shù)都應(yīng)區(qū)分治療性應(yīng)用和超越性應(yīng)用,也叫做“消極應(yīng)用”和“積極應(yīng)用”。筆者所反對的是對這些技術(shù)的積極應(yīng)用或超越性應(yīng)用,一般不反對對它們的消極應(yīng)用或治療性應(yīng)用。這是人類中心主義的態(tài)度,也是功利主義的態(tài)度。眾所周知,在道德哲學(xué)中,與功利主義相對的是道義論;不過,在腦機(jī)融合及其相關(guān)問題上,道義論和功利主義可以得出相同的結(jié)論,即拒絕腦機(jī)融合技術(shù)。下面基于道義論的立場加以論證。

      三、從人類尊嚴(yán)的角度拒絕腦機(jī)融合

      再假定我們面臨的情況是,非人的腦機(jī)融合“人”不占居多數(shù),從而使腦機(jī)融合“人”與自然人屬于同一個(gè)物種,即均屬人類。在這種情況下,雖然腦機(jī)融合“人”從總體上仍屬人類,但其中夾雜不少非人的“人”,即沒有自我意識的“人”。不過,我們也可換一個(gè)角度把沒有自我意識的“人”看作人。具體地說,那些人雖然沒有自我意識,但也有某種意識;如果我們把人之為人的要素由具有自我意識改為具有意識,那么腦機(jī)融合“人”仍然具有做人的資格,盡管不屬于自然人,但與自然人同屬人類,或者說,同屬康德所謂的“理性存在者”(rational beings)。

      須指出,在康德那里,理性存在者的“理性”具有特殊含義??档聫?qiáng)調(diào)一個(gè)事實(shí):“這個(gè)事實(shí)就是理性借以決定意志去踐行的德性原理之中的自律——它同時(shí)指明:這個(gè)事實(shí)與意志自由的意識不可分割地聯(lián)系在一起的,甚至與它是二而一的;由此之故,理性存在者的意志,……在實(shí)踐事務(wù)之中,也就是作為存在者本身,它意識到它是一個(gè)能夠在事物的理智秩序中被決定的此在。”[1]44

      在康德看來,理性存在者的理性是實(shí)踐理性,它與道德自律和意志自由是一回事。換言之,理性存在者不是一般的人,而是道德上應(yīng)該成為的那種人,即具有自由意志或自律的人。在康德那里,“地球人”和“理性存在者”之間是一種交叉關(guān)系,有些地球人是理性存在者,有些不是;反之亦然,有些理性存在者是地球人,有些不是,如某種可能的外星人。但是,無論是地球人或外星人,如果要成為理性存在者,那他必須具有自由意志,即在道德上是一個(gè)自律的人。

      顯而易見,康德所說的“自由意志”和“自律”是以自我意識為先決條件的,相應(yīng)地,他所說的“理性存在者”也是以自我意識為先決條件的。因此,那些沒有自我意識的腦機(jī)融合“人”不屬于康德所說的理性存在者,盡管他們屬于人類。事實(shí)上,康德并沒有把理性存在者看作全部的人,而只是應(yīng)當(dāng)成為的人或講道德的人,還有一部分人是不講道德的。不講道德的人是沒有尊嚴(yán)的,是在人格上有缺陷的。

      康德說道:“每一位個(gè)人都將他個(gè)人的、指向他自己的意志限制于這樣一個(gè)條件:與理性存在者的自律符合一致……因?yàn)檫@個(gè)條件依賴于理性存在者的人格,而唯有憑借這個(gè)人格他們才是目的本身。”[1]95康德的道德律令之一是:每個(gè)人都是目的,而不只是手段。由于有些腦機(jī)融合“人”失去唯一性,因而失去自由和自律的必要條件,進(jìn)而失去作為“目的本身”的人格,失去做人的尊嚴(yán)。

      康德進(jìn)一步指出:“這個(gè)喚起敬重的人格理念,將我們本性的崇高性(依照它的天職)陳于我們的眼前,同時(shí)讓我們注意到我們的行動(dòng)與它有欠切合,并且借此平伏自負(fù),因此它甚至對于最為庸常的人類理性也是自然而然的和容易注意到的。”[1]95康德談及兩種人格即崇高的和庸常的,庸常的人格即使沒有達(dá)到崇高,但也會自然而然地發(fā)現(xiàn)自己的欠缺,從而“平伏自負(fù)”,向崇高人格靠攏。真可謂:雖不能至,心向往之。崇高的人格就是理性存在者,庸常的人格就是缺乏自由意志或自律精神的人。

      顯然,失去唯一性的腦機(jī)融合“人”至多可算作庸常的人。當(dāng)然,自然人中也有不少庸常的人,不過,他們可以通過自身的努力而改進(jìn)或完善自己,從而向崇高人格接近或靠攏,以致成為崇高的人。與之相比,腦機(jī)融合“人”卻失去改進(jìn)或完善自己的權(quán)利,因?yàn)樗倪@種權(quán)利從他出生甚至在出生之前就被剝奪了:只要某個(gè)編程工程師或先出生的腦機(jī)融合“人”愿意那樣做,那么該腦機(jī)融合“人”便失去唯一性。庸常的自然人只能埋怨自己,并有自我完善的機(jī)會;與之不同,腦機(jī)融合“人”對于自己與生俱來的庸常性,只能埋怨他們的制造者如馬斯克之流,而沒有自我完善的機(jī)會??梢哉f,馬斯克之流先天地剝奪和侵害了腦機(jī)融合“人”的人格和尊嚴(yán),因而是不道德的。

      至此,我們借助于康德的道義論,從另一個(gè)角度反駁了馬斯克的腦機(jī)融合計(jì)劃:即使把腦機(jī)融合“人”看作人,對腦機(jī)融合“人”的研制也是不道德的,理應(yīng)被禁止。這個(gè)論證與前一節(jié)的功利主義或人類中心主義的論證結(jié)合起來,便構(gòu)成對腦機(jī)融合的具有邏輯決定性的“二難推論”。

      四、阿爾法狗的啟示:應(yīng)對人工智能加以限制

      第二次正式舉行的圍棋人機(jī)大戰(zhàn)——世界排名第一的中國圍棋選手柯潔與美國谷歌的人工智能圍棋選手阿爾法狗的對決,于今年5月23日開始, 5月27日結(jié)束,阿爾法狗以3比0的戰(zhàn)果宣告獲勝。賽后柯潔發(fā)出的感言是:“上一次的時(shí)候,我覺得它還是很接近人的,現(xiàn)在有點(diǎn)像我理解中的圍棋上帝了。”柯潔所說的上一次圍棋人機(jī)大戰(zhàn)是在一年前進(jìn)行的,韓國圍棋高手李世石以一比四的結(jié)局負(fù)于阿爾法狗。當(dāng)時(shí)柯潔曾在微博里放出話來:“就算阿法狗戰(zhàn)勝了李世石,但它贏不了我?!痹谀谴伪荣愔?,幾乎所有圍棋界的高手也都認(rèn)為,阿爾法狗將要輸給李世石。

      如果說,第一次圍棋人機(jī)大戰(zhàn)的結(jié)果只是部分地扭轉(zhuǎn)了人們對機(jī)器圍棋手的看法,那么今年初,人們對機(jī)器圍棋手的評價(jià)基本達(dá)成一致,即人類不如機(jī)器。促成這一觀念轉(zhuǎn)變的是另一個(gè)令人震驚的事實(shí)。從去年年底開始,阿爾法狗的升級版以“Master”的名義在網(wǎng)上與幾乎所有的世界頂級圍棋高手進(jìn)行博弈,創(chuàng)下60場不敗的紀(jì)錄;除一場比賽由于斷電事故而造成平局,其他59場獲勝,其中包括它與柯潔和聶衛(wèi)平等人的對陣。

      其實(shí),對于許多人來說,柯潔與阿爾法狗最近的那場比賽并無懸念,即阿爾法狗必勝。那場比賽的意義似乎是最后驗(yàn)證一下,在圍棋上人類與機(jī)器的差距究竟有多大。賽后柯潔表示他的人生觀被改變了,他說:“阿爾法狗出現(xiàn)之后,我對人生看法都有巨大改變,未來不是我等凡夫俗子可以預(yù)測的。如果對圍棋規(guī)則了解就算知道1%,我可能只能算是知道2%。阿爾法狗對我而言就是100%?!?/p>

      圍棋人機(jī)大戰(zhàn)不僅對圍棋手有教育意義,而且對全人類都有教育意義。在被譽(yù)為人類最高智力游戲的圍棋上,人類敗下陣來,這意味著在其他所有靠智力取勝的領(lǐng)域,人類都將敗于人工智能,包括戰(zhàn)爭。試想,有朝一日人類被機(jī)器人打敗,成為他們的階下囚,那將是一種什么局面?

      有人說,人類是有情感的而機(jī)器人沒有,所以人類永遠(yuǎn)高于機(jī)器。柯潔在微博里也有類似的話:“它始終都是冷冰冰的機(jī)器,與人類相比,我感覺不到它對圍棋的熱情和熱愛。”但我要說,那又怎么樣呢?對于圍棋比賽你還可以這樣自我安慰,如果在戰(zhàn)爭中,人被機(jī)器人打敗并成為他們關(guān)在牢籠里的俘虜,到那時(shí)人連自我安慰的能力都將失去,人的那點(diǎn)情感說滅就被滅了,連同他們的肉體。

      人類該警覺了,不必再做自欺欺人的幻夢。前面提到,不少著名人士如霍金、蓋茨等人多次提醒人們,并建議限制人工智能的發(fā)展,以避免人工智能成為人類的掘墓人。但是許多人覺得這是危言聳聽或杞人憂天,沉浸在盲目樂觀的陷阱里不肯自拔。這種盲目樂觀的情緒除了來自盲目自信以外,還來自道德上的誤導(dǎo)。有人居然提出,機(jī)器人就像我們?nèi)祟惖暮蟠?,我們?yīng)該伸出雙手擁抱他們,歡迎他們超過人類,正如歡迎我們的后代超過父母一樣。

      在第一次圍棋人機(jī)大戰(zhàn)結(jié)束幾天后,翟振明教授發(fā)表文章,對社會上關(guān)于人工智能或機(jī)器人將會超越自然人的擔(dān)憂表示不屑,談道:“像‘機(jī)器人會消滅人類嗎’之類的問題,在我看來都不過是暴露了人們由于概念混亂而導(dǎo)致的摸不著北的狀態(tài),這種狀態(tài)又與不合時(shí)宜的思維陋習(xí)結(jié)合,才將人們帶入無根基的焦慮或者恐懼之中?!盵2]51直到最近,翟振明仍然保持這種看法。*參見翟振明、朱奕如:《“腦機(jī)融合”比人工智能更危險(xiǎn)》,載《南方周末》,2017-05-25。翟振明這么說的主要根據(jù)是什么?他講得很明白,即:像阿爾法狗“這種‘弱人工智能’很可能通過圖靈測試,但這與人的意向性(intentionality)及主體感受內(nèi)容(qualia)不相干,也不會有愛恨情仇、自由意志,而沒有這些,它就不可能產(chǎn)生‘征服’或‘消滅’誰誰的動(dòng)機(jī)?!盵2]51-52這也就是說,由于阿爾法狗沒有征服人類的動(dòng)機(jī),所以他不能征服人類。

      坦率地說,筆者覺得翟振明的這段話是很奇怪的,難道判定機(jī)器人能否征服人類不是看結(jié)果而是看動(dòng)機(jī)?阿爾法狗在圍棋上能否征服人類也不是看結(jié)果而是看動(dòng)機(jī)?如果是這樣,李世石和柯潔便無需同阿爾法狗進(jìn)行比賽就可宣稱取勝了,因?yàn)樵谙碌谝粋€(gè)棋子之前,他們就有戰(zhàn)勝阿爾法狗的動(dòng)機(jī)。如果翟振明的動(dòng)機(jī)決勝論是成立的,蓋茨和霍金關(guān)于人工智能可能征服人類的警告便是多余的,因?yàn)槿祟愒缇蛻延胁槐蝗魏螜C(jī)器人打敗的動(dòng)機(jī)。

      毋庸置疑,對勝負(fù)的判定取決于后果而不是動(dòng)機(jī)。正如前面提到的,當(dāng)人類在戰(zhàn)爭中被機(jī)器人打敗并被關(guān)在牢籠里,人的情感、意志和動(dòng)機(jī)再豐富多彩也是無濟(jì)于事的。因此,翟振明以機(jī)器人沒有征服人類的動(dòng)機(jī)為理由來說明機(jī)器人不值得人類懼怕,簡直是文不對題的。

      另需指出,機(jī)器人有沒有情感、意志或動(dòng)機(jī)的問題,說到底是哲學(xué)上的“他心問題”。包括父母在內(nèi)的其他人是否具有心靈,這個(gè)在日常思維中不成問題的問題,在哲學(xué)中卻是一個(gè)長期引起爭議的問題。自己的父母是否具有心靈尚且如此,機(jī)器人是否有心靈更是一個(gè)有爭議的問題。然而,翟振明卻毫不猶豫地?cái)喽C(jī)器人沒有征服人類的動(dòng)機(jī),這相當(dāng)于拿一個(gè)懸而未決的命題作為論據(jù),在邏輯上叫做“預(yù)期理由”的錯(cuò)誤。除非翟振明不承認(rèn)“他心問題”,但是據(jù)我所知,情況并非如此,筆者從未看到他否認(rèn)“他心問題”的聲明或論證。

      五、一切造人技術(shù)都是不道德的

      翟振明對人工智能做了強(qiáng)和弱的區(qū)分。按他的說法,阿爾法狗還算不上強(qiáng)人工智能而只屬于弱人工智能。弱人工智能沒有情感、意志或動(dòng)機(jī),但強(qiáng)人工智能具有,因而強(qiáng)人工智能可以歸入人類,是人類自身的發(fā)展。正因?yàn)榇?,?qiáng)人工智能即使超越現(xiàn)在的人類也沒有什么可怕的,相反是值得我們歡迎的。

      關(guān)于何為強(qiáng)人工智能,翟振明談道:“所謂的‘強(qiáng)’,其實(shí)指的是超越工具型智能而達(dá)到第一人稱主體世界內(nèi)容的涌現(xiàn),還包括剛才提到的意向性、自由意志等的發(fā)生?!盵2]52翟振明在其另一篇文章說得更為明確:“所謂‘強(qiáng)人工智能’,這是要人工制造具有人類的精神世界或‘第一人稱世界’的自由意志主體。這樣的人造體,就不能被當(dāng)作純粹的工具了,因?yàn)樗鼈兙哂腥烁窠Y(jié)構(gòu),正常人類成員所擁有的權(quán)利地位、道德地位、社會尊嚴(yán)等等,他們應(yīng)該平等地?fù)碛小!盵3]32

      按照翟振明的說法,強(qiáng)、弱人工智能的區(qū)別在于是否具有“‘第一人稱世界’的自由意志主體”,若不具有,則只是工具型的弱人工智能,若具有,則是目的性的強(qiáng)人工智能。翟振明進(jìn)一步給出判別人工智能有無自由意志或有無目的的(至少在原則上的)可操作性標(biāo)準(zhǔn),即:“除非有人以確鑿的證據(jù)向我們證明如何按照量子力學(xué)的原理把精神意識引入了某個(gè)人工系統(tǒng),不管該系統(tǒng)的可觀察行為與人類行為多么相似,我們都不能認(rèn)為該系統(tǒng)真的具有了精神意識?!盵3]33

      從前面關(guān)于“他心問題”的討論我們知道,從確定性知識的角度,我們不可能判定他人或他物是否有心或有自由意志。因此,翟振明以量子力學(xué)作為人工智能是否有心或有自由意志的根據(jù),這在哲學(xué)上是站不住腳的。另一方面,翟振明把人工智能是否有心或自由意志的問題歸結(jié)為是否可用量子力學(xué)原理加以解釋的問題,這是典型的關(guān)于心身問題的物理主義。然而,翟振明在若干場合明確地表達(dá)其反物理主義的立場;直到最近他還宣稱:“物理主義和計(jì)算主義對人類意識的解釋是誤入歧途的”。[4]由此可見,翟振明的理論體系中存在邏輯不協(xié)調(diào)性。

      翟振明在斷定量子機(jī)器人是具有自由意志的強(qiáng)人工智能之后,進(jìn)而斷言量子機(jī)器人就是人的同類,或者說是人們用另一種方式繁殖出來的后代。他說道:“我們主動(dòng)地設(shè)計(jì)制造了這種新型主體存在,不就等于以新的途徑創(chuàng)生了我們的后代嗎?長江后浪推前浪、青出于藍(lán)而勝于藍(lán),人類過往的歷史不都是這樣的、或至少是我們希望的嗎?一旦徹底做到了,為何又恐懼了呢?”[2]53

      雖然看上去翟振明對待量子機(jī)器人的態(tài)度顯得寬容大度,似乎充滿博愛精神,但在筆者看來,那是缺乏理論根據(jù)的。我們知道,現(xiàn)有的基因組合技術(shù)原則上是可以復(fù)制人的,只要知道那個(gè)人的全部基因信息。既然量子技術(shù)是比基因組合技術(shù)更為深刻和先進(jìn)的,因此,從理論上講,通過量子技術(shù)不僅可以制造人,而且可以復(fù)制人,即重復(fù)制造某一個(gè)機(jī)器人或仿造某一個(gè)活人。我們又知道,正如克隆人技術(shù)被普遍禁止,基因組合人技術(shù)也被普遍禁止。類似地,量子機(jī)器人技術(shù)也應(yīng)被列入禁止之列。

      在筆者看來,這些禁令的倫理學(xué)基礎(chǔ)是:復(fù)制人的技術(shù)侵犯了自我人格的唯一性,進(jìn)而侵犯了人的獨(dú)特權(quán)。[5]我們在前面已經(jīng)給出論證,侵犯自我意識的唯一性就是侵犯人類的尊嚴(yán),我們不妨把這一涉及人類尊嚴(yán)的基本權(quán)利叫做“獨(dú)特權(quán)”。由于一切造人技術(shù)都有復(fù)制人的功能,因而都是對自我唯一性的抹殺和對人類獨(dú)特權(quán)的侵犯,至少是潛在的侵犯。據(jù)此,一切造人技術(shù)都是不道德的,都應(yīng)當(dāng)被禁止,其中包括克隆人、基因組合人、量子機(jī)器人以及腦機(jī)融合“人”等技術(shù)手段。

      六、虛擬現(xiàn)實(shí)的潛在威脅及其倫理問題

      翟振明教授是虛擬現(xiàn)實(shí)(Virtual Reality,簡稱VR)的倡導(dǎo)者之一,對虛擬現(xiàn)實(shí)有著深刻的見解;不過,對于虛擬現(xiàn)實(shí)引發(fā)的倫理學(xué)問題,其觀點(diǎn)卻是值得商榷的。廣義的虛擬現(xiàn)實(shí)包括擴(kuò)展現(xiàn)實(shí)(ER),為此,翟振明提出“造世倫理”問題。

      在翟振明看來,解決造世倫理問題是一個(gè)相當(dāng)艱巨的任務(wù),因?yàn)樗钟幸粋€(gè)基本觀點(diǎn),即虛擬世界與現(xiàn)實(shí)世界在本體論上是對等的(以下簡稱為“現(xiàn)實(shí)-虛擬對等觀”)。*參閱翟振明:《虛擬實(shí)在與自然實(shí)在的本體論對等性》,載《哲學(xué)研究》2001年第6期。在現(xiàn)實(shí)-虛擬對等觀的視野里,一旦虛擬世界的行為規(guī)范與現(xiàn)實(shí)世界的行為規(guī)范發(fā)生沖突,誰是誰非就很難判定了,這就是造世倫理問題的根源所在。

      翟振明問道:“在道德和法律層面的單個(gè)的責(zé)任主體,卻在現(xiàn)實(shí)世界和虛擬世界各有一個(gè)不同的角色,最常見的就是性別和年齡的不同。如果一種道德或法律責(zé)任與性別或年齡緊密相關(guān),在虛擬世界內(nèi)部發(fā)生的糾紛在追到現(xiàn)實(shí)世界中的責(zé)任主體時(shí),原來的適用于現(xiàn)實(shí)世界的規(guī)范的適用性就要求按照新的原則進(jìn)行新的解釋。這種新原則到底是什么,如何論證其合理性和普遍有效性?”[3]34

      然而,在筆者看來,如果放棄翟振明的現(xiàn)實(shí)-虛擬對等觀,而采納筆者所持的現(xiàn)實(shí)世界優(yōu)先原則——現(xiàn)實(shí)世界相對于虛擬世界在本體論上是優(yōu)先的,那么翟振明所面臨的“造世倫理”困境便立即化解了。*參閱陳曉平:《也談人與機(jī)器如何相處》,載《科學(xué)文化評論》2016年第2期,第83-97頁。比如,對于他所謂的“雙重責(zé)任主體”的問題,我們應(yīng)以現(xiàn)實(shí)世界的責(zé)任主體為主,相應(yīng)地應(yīng)以現(xiàn)實(shí)世界的道德法律規(guī)范為主要依據(jù)?,F(xiàn)以翟振明所舉的例子來說,一個(gè)現(xiàn)實(shí)世界的中國人有一個(gè)虛擬的替身,并通過虛擬世界和現(xiàn)實(shí)世界之間的某種因果關(guān)系而把現(xiàn)實(shí)世界的一個(gè)美國人殺死,*參見《翟振明談圍棋人機(jī)大戰(zhàn):技術(shù)群體戰(zhàn)勝天賦個(gè)人》,載《長江日報(bào)》2016年3月15日。這便違反了現(xiàn)實(shí)世界的法律。按照現(xiàn)實(shí)世界優(yōu)先原則,那個(gè)中國人應(yīng)當(dāng)承擔(dān)殺死那個(gè)美國人的法律責(zé)任,而無需考慮他的虛擬替身是否違反虛擬世界的法律。

      現(xiàn)實(shí)世界優(yōu)先原則的依據(jù)是現(xiàn)實(shí)世界的唯一性特征,而唯一性特征的至關(guān)重要性來自于自我(即第一人稱主體)的先驗(yàn)的唯一性要求:如果一個(gè)世界不具有唯一性,那么存在于其中的諸多自我也將失去唯一性,致使人的獨(dú)特權(quán)及其尊嚴(yán)受到侵犯。現(xiàn)實(shí)世界與虛擬世界相比,前者具有唯一性而后者沒有,因而現(xiàn)實(shí)世界優(yōu)越于虛擬世界。這樣,我們便得到關(guān)于虛擬現(xiàn)實(shí)的本體論原則,即現(xiàn)實(shí)世界優(yōu)先原則。由現(xiàn)實(shí)世界優(yōu)先原則可以派生出如下三條關(guān)于虛擬現(xiàn)實(shí)的倫理原則。

      為了維持現(xiàn)實(shí)世界的優(yōu)先性,在任何情況下必須能使現(xiàn)實(shí)世界與虛擬世界區(qū)分開來。我們知道,擴(kuò)展現(xiàn)實(shí)包含了虛擬世界與現(xiàn)實(shí)世界的局部混合,在全局的關(guān)照下,這種局部混合是可以被分開的。但是,如果虛擬與現(xiàn)實(shí)的混合是全局性的,那便不再能把二者區(qū)分開來;正如“不識廬山真面目,只緣身在此山中”。為此,我們引入虛擬現(xiàn)實(shí)的第一條倫理原則,可稱之為“虛擬局部化原則”:虛擬世界只是對現(xiàn)實(shí)世界的局部虛擬,并且其界限必須是清晰的。

      虛擬世界只是為人們提供了一種選擇,而且在本體論的權(quán)重上低于現(xiàn)實(shí)世界,因此,在任何情況下都不應(yīng)強(qiáng)迫人們進(jìn)入虛擬世界。為此,我們引入虛擬現(xiàn)實(shí)的第二條倫理原則,可稱之為“虛擬自愿原則”:在任何情況下,人們進(jìn)入虛擬世界都必須是自愿的,并且允許進(jìn)入者隨時(shí)退出虛擬世界。不難看出,前一原則為這一原則提供了必要條件,因?yàn)槿绻B對虛擬世界與現(xiàn)實(shí)世界的區(qū)分都做不到,自愿選擇原則也就無從談起了。

      由現(xiàn)實(shí)世界優(yōu)先原則立即可以得出:任何虛擬世界的建立都必須以無害于現(xiàn)實(shí)世界為先決條件。這可以稱之為“虛擬無害原則”。例如,充滿血腥暴力或扭曲人性的虛擬世界對于現(xiàn)實(shí)世界中人們的道德修養(yǎng)和心身健康是不利的,因此應(yīng)當(dāng)對之嚴(yán)加控制甚至禁止。

      根據(jù)以上三條倫理原則,翟振明所謂的“造世倫理”問題是容易解決的,更確切地說,“造世倫理”問題根本不存在。還以前面提到的那個(gè)例子來說,首先,根據(jù)虛擬無害原則,我們應(yīng)當(dāng)追究現(xiàn)實(shí)世界中那個(gè)中國人的責(zé)任,因?yàn)樗奶摂M替身侵害了現(xiàn)實(shí)世界中的另一個(gè)人。其次,根據(jù)虛擬自愿原則,也應(yīng)當(dāng)追究現(xiàn)實(shí)世界中那位中國人的責(zé)任,因?yàn)樗唇?jīng)現(xiàn)實(shí)世界中另一個(gè)人的同意,就讓他的虛擬替身與之打交道。第三,根據(jù)虛擬局部化原則,還應(yīng)當(dāng)追究有關(guān)機(jī)構(gòu)或部門的責(zé)任,因?yàn)樗鼈儧]有把虛擬現(xiàn)實(shí)限制在足夠小的范圍內(nèi),以致人們無法區(qū)分現(xiàn)實(shí)的人和虛擬的人,在不知情的情況下進(jìn)入虛擬世界并同虛擬的人打交道。

      由此可見,如果以上三條倫理原則得到嚴(yán)格遵守,所謂“造世倫理”問題就不會出現(xiàn),即使出現(xiàn),也很容易分清責(zé)任,加以解決。

      前面指出,“造世倫理”問題得以產(chǎn)生是由翟振明所持的現(xiàn)實(shí)-虛擬對等觀引起的;筆者進(jìn)而認(rèn)為,把虛擬世界與現(xiàn)實(shí)世界等量齊觀,只能是“上帝之眼”所為,這便涉及宗教的創(chuàng)世說。翟振明說道:“在宗教中,人一般被當(dāng)成被造的存在,而在虛擬世界中,每個(gè)人都可以是世界的‘造物主’?!盵4]翟振明把人看作虛擬世界的“造物主”未嘗不可,但在他的現(xiàn)實(shí)-虛擬對等觀的基礎(chǔ)上,人也成為現(xiàn)實(shí)世界的造物主,這便把人的位置擺錯(cuò)了。

      事實(shí)上,基于“上帝之眼”的本體論已經(jīng)受到普特南(H. Putnam)等人的合理批評。[6]

      簡單地說,上帝是全知全能的,誰若以“上帝之眼”看問題,那是一種人格錯(cuò)位,其觀點(diǎn)自然也是錯(cuò)位的。況且,即使他真有一雙上帝之眼,那他更無必要參與人間討論,人們也沒有必要與全知全能的上帝討論問題,因?yàn)樵谏系勰抢?,壓根兒沒有問題。

      與之不同,在筆者看來,現(xiàn)實(shí)世界是唯一的,盡管虛擬世界可以是無窮多的;在這個(gè)意義上,現(xiàn)實(shí)世界優(yōu)于虛擬世界。如果說虛擬世界是人類創(chuàng)造的,那么現(xiàn)實(shí)世界要么是上帝創(chuàng)造的,要么是自然創(chuàng)造的。由于這后兩個(gè)“造物主”與前一個(gè)“造物主”是不對等的,它們所創(chuàng)造的世界也是不對等的。根據(jù)現(xiàn)實(shí)世界優(yōu)先原則,虛擬世界的行為規(guī)范一旦與現(xiàn)實(shí)世界的行為規(guī)范發(fā)生沖突,便令虛擬世界讓路,而以現(xiàn)實(shí)世界為唯一的根據(jù)?;诖?,翟振明所謂的“造世倫理”問題便從根本上消失了。

      七、腦機(jī)融合比人工智能更危險(xiǎn)嗎?

      讓我們再回到腦機(jī)融合問題上來。翟振明教授(與他人合作)最近寫了題為《“腦機(jī)融合”比人工智能更危險(xiǎn)》的文章。[4]雖然繼續(xù)堅(jiān)持不必?fù)?dān)心人工智能超越和控制人類的觀點(diǎn),但卻對腦機(jī)融合技術(shù)表現(xiàn)出憂患意識,指出該項(xiàng)技術(shù)很可能把人類的自我意識徹底抹除,從而終結(jié)人類文明。

      在反對腦機(jī)融合這一點(diǎn)上,筆者贊同翟振明教授,但對其所持理由則是不敢茍同的。其理由可以歸結(jié)為:“人腦是迄今為止我們所知的最為復(fù)雜精巧的東西,在我們還沒有基本摸清其運(yùn)作原理之前,對其進(jìn)行任何加工改造都是極端危險(xiǎn)的行為。”[4]我們看到,翟振明反對腦機(jī)融合的理由是技術(shù)層面的,而不是原則性或方向性的;只是因?yàn)楝F(xiàn)在人們對大腦的知識還比較少,他才反對腦機(jī)融合技術(shù)。試想,如果有朝一日,人們摸清了大腦的運(yùn)作原理,那時(shí)翟振明反對腦機(jī)融合的理由便不成立了。顯然,這種反對腦機(jī)融合的理由只是暫時(shí)有效的,而非永久有效的;而且隨著人類關(guān)于大腦知識的不斷豐富,其理由的有效性越來越弱。

      與之相比,筆者的理由正好相反,不是技術(shù)性的,而是原則性和方向性的,即包括腦機(jī)融合技術(shù)在內(nèi)的任何造人技術(shù)都將使“自我意識”喪失唯一性,從而侵犯人類的尊嚴(yán)和獨(dú)特權(quán)。這意味著,人類對大腦運(yùn)作原理掌握得越多,仿造和控制自我意識的能力越強(qiáng),致使自我意識喪失唯一性的可能性就越大,因此我們愈加應(yīng)該阻止腦機(jī)融合及其他造人技術(shù)。顯然,筆者對腦機(jī)融合的反對理由是永久性的。

      由于筆者與翟振明反對腦機(jī)融合的理由不同,甚至是相反的,這使我們二人對量子機(jī)器人這類所謂“強(qiáng)人工智能”的態(tài)度也是相反的。鑒于量子機(jī)器人可以在基因甚至更深層面上模仿人類,翟振明把量子機(jī)器人歸入人類,并對他們可能超越現(xiàn)在的人類表示歡迎。然而,在筆者看來,量子機(jī)器人可以在基因?qū)用婺7氯祟?,從而使自然人喪失自我的唯一性,正因?yàn)榇耍孔訖C(jī)器人的開發(fā)和研制才需要我們加以反對和阻止?;谕瑯拥睦碛?,筆者也反對克隆人、基因組合人等一切造人技術(shù)。

      至于阿爾法狗這類所謂的“弱人工智能”,翟振明對它們的威脅不屑一顧,只因它們沒有人類的情感、意志或動(dòng)機(jī)。在筆者看來,這個(gè)理由是文不對題的。難道因?yàn)榭聺嵕哂袘?zhàn)勝阿爾法狗的意志或動(dòng)機(jī),柯潔就無需懼怕阿爾法狗在圍棋上的威脅嗎?擺在人們面前的事實(shí)是:無論阿爾法狗是否具有人類的意志或動(dòng)機(jī),它已經(jīng)戰(zhàn)勝全世界的頂級圍棋高手。在這種情況下,主張人類在圍棋上無需擔(dān)心阿爾法狗,除了冠之以“掩耳盜鈴”或“自欺欺人”之外,我們還能給予怎樣的評價(jià)呢?更為嚴(yán)重的是,如果這種局面從圍棋博弈推廣到戰(zhàn)爭博弈,那可就連我們坐下來討論誰勝誰負(fù)的機(jī)會都沒有了。反之,如果人類保持憂患意識,早做防備,杜絕人工智能超越人類的可能性,那么,馬斯克針對人工智能威脅的腦機(jī)融合計(jì)劃便成為不必要的了。前者是因,后者是果;在這個(gè)意義上,人工智能比腦機(jī)融合更危險(xiǎn),而不是翟振明所做的相反評斷。

      筆者與翟振明的分歧歸根結(jié)底是本體論上的。具體地說,翟振明基于上帝之眼而站在現(xiàn)實(shí)-虛擬對等觀的立場上,筆者則基于人類之眼而站在現(xiàn)實(shí)世界優(yōu)先的立場上。在筆者看來,翟振明忽略了一個(gè)最為基本的界限,即自然與人為的區(qū)別。人腦是自然的,電腦是人為的;現(xiàn)實(shí)世界是自然的,虛擬世界是人為的。老子曰:人法地,地法天,天法道,道法自然。明智的人應(yīng)該承認(rèn)自己在大自然面前是渺小的,別把人為的東西超越自然的東西當(dāng)看作理所當(dāng)然的。誠然,在一些次要的方面人們可以也應(yīng)該這樣做,因?yàn)槿吮旧砭褪谴笞匀坏漠a(chǎn)物,大自然的基本規(guī)律就是優(yōu)勝劣汰,物競天擇。但是,翟振明等人居然歡迎人為的機(jī)器(如量子機(jī)器人)來取代大自然生育出來的自然人,那就觸及人為與自然之關(guān)系的底線,因?yàn)槟且巡皇俏锔偺鞊瘢侨伺c天競了。

      根據(jù)“道法自然”的自然主義原理,我們必須承認(rèn):自然人高于機(jī)器人。誰若心甘情愿地讓機(jī)器人來取代自然人,那是對這條哲學(xué)原理的反動(dòng)。也許有人會反問:你斷言自然人高于機(jī)器人,這是不是自欺欺人?我說:不是。首先,大自然讓我們?nèi)祟惛哂跈C(jī)器人,至少表現(xiàn)在大自然的因果鏈條上,自然人比機(jī)器人處于在先的環(huán)節(jié),即:自然人創(chuàng)造了機(jī)器人,而不是相反。自然人對于機(jī)器人的這一優(yōu)越性可以導(dǎo)致能力上的優(yōu)越性,即:人類現(xiàn)在有能力把一切對人類構(gòu)成威脅的機(jī)器人和其他技術(shù)扼制在端倪之中,以防患于未然,除非我們?nèi)祟愒敢庾跃驂災(zāi)?、自取滅亡?/p>

      [1]康德.實(shí)踐理性批判[M].韓水法,譯.北京:商務(wù)印書館,1999.

      [2]翟振明.我們該如何與機(jī)器相處[J].南方人物周刊,2016(8).

      [3]翟振明.虛擬現(xiàn)實(shí)比人工智能更具顛覆性[J].高科技與產(chǎn)業(yè)化,2015(11).

      [4]翟振明,朱奕如.“腦機(jī)融合”比人工智能更危險(xiǎn)[N].南方周末,2017-05-25.

      [5]陳曉平.也談克隆人的尊嚴(yán)問題[J].自然辯證法研究,2009(6).

      [6]普特南.理性、真理與歷史[M].童世駿,李光程,譯.上海:上海譯文出版社,1997:55.

      KeepingVigilanceagainsttheGravediggersofHuman:Brain-ComputerFusion,AlphaGo,orVirtualReality——DiscussionwithProfessorZHAIZhenming

      CHEN Xiaoping1, XIAO Fengliang2

      (1.SchoolofPublicAdministration,SouthChinaNormalUniversity,Guangzhou510006,China;2.SchoolofMarxism,DongguanUniversityofTechnology,Dongguan523808,China)

      It is necessary to introduce two basic principles, namely, anthropocentrism and the uniqueness of self-consciousness, to argue if the project of brain-computer fusion is not just, from the perspective of whether the brain-computer fusion belongs to humankind. Brain-compte fusion should be rejected Whether it is seen from the anthropocentrism’s position or from the perspective of human dignity. The development of artificial intelligence must be limited in order to avoid human’s being transcended or controlled by artificial intelligence; The development of virtual reality must also be limited in order to avoid the loss of uniqueness in the real world. Realistic world takes precedence over virtual world, and virtual reality must follow the principles of partial, voluntary and harmless virtuality. Nature makes mankind better than robots, at least manifested on the causal chain of nature, that is, natural people create robots, not the opposite. From doing this, natural people have the ability to curb all technology means that will threaten human survival to their infant state.

      brain-computer fusion; alpha go; virtual reality; anthropocentrism; self-consciousness; artificial intelligence

      N031

      A

      1008-7699(2017)05-0001-10

      (責(zé)任編輯黃仕軍)

      2017-06-29

      國家社會科學(xué)基金重大項(xiàng)目“基于虛擬現(xiàn)實(shí)的實(shí)驗(yàn)研究對實(shí)驗(yàn)哲學(xué)的超越”(15ZDB016); “現(xiàn)代歸納邏輯的新發(fā)展、理論前沿與應(yīng)用研究”(15ZDB018)

      陳曉平(1952—),男,山西昔陽人,華南師范大學(xué)教授、博士生導(dǎo)師,研究方向?yàn)榭茖W(xué)哲學(xué)、分析哲學(xué)、道德哲學(xué)、心靈哲學(xué)等.

      猜你喜歡
      腦機(jī)虛擬世界意志
      動(dòng)物的“自由意志”
      大自然探索(2023年7期)2023-11-14 13:07:52
      驚世駭俗的“腦機(jī)接口”技術(shù)
      基于ssVEP與眼動(dòng)追蹤的混合型并行腦機(jī)接口研究
      載人航天(2021年5期)2021-11-20 06:04:32
      腦機(jī)結(jié)合的未來
      埃隆·馬斯克的新型腦機(jī)接口為何人開發(fā)?
      英語文摘(2020年11期)2020-02-06 08:53:26
      虛擬世界和真實(shí)世界的紐帶
      虛擬世界大門正啟
      《西廂記》中的理性意志與自由意志
      擁抱虛擬 珍惜現(xiàn)實(shí)
      自由意志的神經(jīng)基礎(chǔ)
      尖扎县| 南投市| 东海县| 东明县| 刚察县| 叙永县| 河东区| 克什克腾旗| 贺州市| 收藏| 阳春市| 金湖县| 安阳县| 东阳市| 桐庐县| 景东| 酒泉市| 汉川市| 紫云| 如东县| 西充县| 永清县| 博白县| 东港市| 奉节县| 大兴区| 连江县| 新余市| 滕州市| 漳浦县| 扎囊县| 车致| 榆林市| 那坡县| 嘉定区| 安庆市| 漠河县| 多伦县| 海原县| 鹤庆县| 沾益县|