• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    技術(shù)物的道德自由何以可能?

    2020-01-07 07:11:54郭延龍湯書昆
    科學與社會 2020年2期
    關(guān)鍵詞:道德主體人類

    郭延龍 湯書昆

    (中國科學技術(shù)大學人文與社會科學學院)

    古今中外的先哲們對類似技術(shù)物概念的道德自由主題進行了不同程度的思考。何謂道德自由?中國儒家孔子提出“從心所欲不逾矩”的道德自由,將自由規(guī)范成人的內(nèi)在德性。朱熹講道德自由稱“德者,得也,行道而有得于心者也”,講究知行合一的自由。在西方,道德自由分為兩種觀念,即行動自由和意志自由。托馬斯·霍布斯(Thomas Hobbes)主張行動自由代替道德自由,用因果關(guān)系作為行動自由的必然內(nèi)核,在因果關(guān)系內(nèi)進行必然的自由行為,并且默認對其行為負責。而康德則用意志自由代替道德自由,解釋道德責任的內(nèi)外雙重性規(guī)定性,強調(diào)道德自由與道德自律相伴而生,只有道德自律內(nèi)化,才可以實現(xiàn)真正的道德自由。[1]黑格爾認為意志能力等價于自由,意志自由并不等同于自由,強調(diào)意志自由在法的框架內(nèi)的進行。不難發(fā)現(xiàn)行動自由中的必然性和意志自由中的依法行事,成為道德自由本身的內(nèi)在限制條件。

    但笛卡爾(René Descartes)認為,人類把機械的身體和非實物的心靈結(jié)合為完美協(xié)調(diào)的整體,但類似機器的技術(shù)物永遠不可能有道德意志,是人類賦予其道德意義。[2]49托馬斯·霍布斯也認為,道德意志不過是有機體特定部分的運動,技術(shù)物仍然無法具備道德自由。直到今天仍有許多哲學家認為人腦中有某種特殊的東西,它給予人腦以道德意志和自由的能力,類似編程的硅芯片永遠達不到這種能力。

    隨著腦機接口、生物芯片等一項項具體會聚技術(shù)的發(fā)展,技術(shù)物的道德自由問題再度進入哲學范疇的考察:重新思考技術(shù)物能否依靠物質(zhì)結(jié)構(gòu)“引向”自由意志的世界,重新審視笛卡爾認為的實物機器永遠不可能有智能的特征,解釋人類自由意志的概念被神秘地視為人類自由行動感覺之下的“某種東西”。[2]49-50本文主要聚焦在以下幾個問題:技術(shù)物有道德主體自由嗎?技術(shù)權(quán)利下技術(shù)物的道德自由指的是什么?物準則的生活世界中技術(shù)物的道德自由程度如何?

    一、技術(shù)物的道德主體自由

    1. 技術(shù)物有道德主體嗎?

    在討論這個問題之前,筆者嘗試將傳統(tǒng)道德主體中人的維度降低到生物的維度審視。在地震等自然災害中,救援犬是道德行為的代理人,被人類訓練成救援失蹤人口的行動者。人類從情感上對救援犬會表達感激,照此來看救援犬具有道德行為。但從狗的角度來看,它僅僅認為這是一種日常訓練的游戲,不認為救人是一種道德行為。也許部分學者會認為人類訓練救援犬本身進行的便是道德行為,人類才是道德行為的主體。問題在于救援犬在道德活動中成為代理人,是整個道德活動的執(zhí)行者,起到了道德代理主體的作用,人類在過程中扮演的不是具體道德行為的執(zhí)行者,而是道德活動解決的策劃者。不可否認,該道德活動由人和代理人共同完成,缺一不可。換言之,假如救援犬沒有完成道德行為,訓練救援犬的人也不會受到社會道德譴責,救援人員也不應該承受這份責任譴責。施惡者是自然災害,本身沒有責任主體,倘若救援犬救出受害人是完成道德活動,社會將表揚救援人員和救援犬。沒有道德責任仍然可以有道德代理關(guān)系,即使道德行為沒有責任,只有義務(wù)和能力。[3]48-49因此,至少我們可以認為道德主體不是人類的專有屬性,道德主體是實現(xiàn)道德活動的主要完成者,包括人和道德代理人。

    道德主體是否具有生物屬性?常規(guī)范疇內(nèi)人是道德主體,技術(shù)物具有機械性和生物性。倫理學對道德價值中心的概念不斷從狹義變?yōu)閺V義,從人類擴大到生物圈。[4]布萊恩·阿瑟(Brian Arthur)在其著作《技術(shù)的本質(zhì)》中提到:“技術(shù)具備能使我們聯(lián)想到生物的某些屬性,當它們感知環(huán)境并產(chǎn)生反應,當它們變得可以自組裝、自構(gòu)成、自修復并能夠‘認知’的時候,它們就越像生物了。技術(shù)越復雜、越‘高技術(shù)’,就越具有生物性?!盵3]232[5]諾伯特·維納(Norbert Wiener)提出的控制論觀點中指出:“生物體的結(jié)構(gòu)是一個可從中預期性能的表象,從理論上講,如果我們能夠制造一臺機器,它的機械結(jié)構(gòu)能夠復制人類生理結(jié)構(gòu),那么,我們就可以有一臺機器,它能復制人類的智力能力?!盵6]2002年米格爾·尼科萊利斯(Miguel Nicolelis)實現(xiàn)了“意念控制”的動物實驗,將一名叫貝拉的猴子腦中的一年活動通過腦機接口導入到機械臂,并控制機械臂的運動行為。隨著基因組研究和納米技術(shù)的發(fā)展,生物正在變成技術(shù)。與此同時,從技術(shù)進化的角度看,技術(shù)也正在變?yōu)樯?。兩者已?jīng)開始接近并糾纏在一起了。[3]225

    當技術(shù)物的道德主體還原至生物層面是否仍未徹底?伴隨技術(shù)哲學的倫理轉(zhuǎn)向和道德主體概念的語義下行,無生命體的技術(shù)物被認為同樣具有道德意蘊。技術(shù)物這些從起源上與自然物體迥異的物體似乎已經(jīng)變成了自然物體。例如人們常常忽視人類賴以居住的建筑物,其密度將影響人們患抑郁癥的程度。布魯諾·拉圖爾(Bruno Latour)通過賦予物質(zhì)的人工物以道德屬性來試圖跨越人與非人實體之間的界限。如減速帶、紅綠燈、安全帶等技術(shù)物,設(shè)計者賦予這些技術(shù)物以道德代理人的身份,通過物質(zhì)框架層面調(diào)節(jié)道德活動,幫助使用者遵守交通規(guī)范及道德活動。學者們對道德主體的定義逐漸從人擴展到生命體甚至到無生命體。從德國古典哲學家康德的人作為理性道德主體,動物倫理學家彼得·辛格(Peter Singer)的動物同樣具有道德地位,到環(huán)境倫理學之父霍爾姆斯·羅爾斯頓(Holmes Rolston)從內(nèi)在價值判斷道德主體,這些討論認為道德行為體所承受道德責任的程度不同,對應著不同屬性的道德主體,認為存在人、物、環(huán)境等不同道德主體。

    誠如維貝克(P. P. Verbeek)的觀點,一旦我們發(fā)現(xiàn)道德并不是人類特有事物時,物質(zhì)“介入”關(guān)于主體的道德判斷就不能被視為對“自由意志”的污染,而是道德的中介。被調(diào)節(jié)的行動不是無道德的而是道德在我們的技術(shù)文化中發(fā)現(xiàn)自己的重要場合。[7]48阿爾伯特·伯格曼(Albert Borgmann)在其著作《真實的美國倫理》中講到,當物品或?qū)嵺`從參與的時間、地點中分離出來的時候,它就獲得了道德的商品化,變成了一個不受約束的客體。[7]60諾伯特·維納認為機器和人類一樣,是一個通過它們自身部分與外部世界的相互作用而具有解釋能力的物質(zhì)實體。機器的工作部件是金屬、塑料、硅和其他材料的“集合”,而人類的工作部件是精巧的小原子和分子。[8]13

    2. 技術(shù)物道德主體自由何謂?

    隨著人工智能技術(shù)的發(fā)展,技術(shù)現(xiàn)象學者開始從人的本體屬性入手。既然能夠承擔責任的道德行為者可以成為道德主體,倘若技術(shù)物可以成為道德行為的承擔者,是否可以認定為道德主體呢?拉圖爾采用類似“語意上行”的方法將世界分為人與非人,以消解主客二元的強對稱框架,用弱對稱原則重新探討道德主體,將技術(shù)物歸類于非人屬性中,甚至認定人工智能物具有類人屬性,人與非人的界限隨著人工智能技術(shù)的程度而發(fā)生變化。技術(shù)哲學荷蘭學派阿特胡斯(Hans Archterhuis)和維貝克等人提出了“道德物化”的觀點,認為技術(shù)人工物具備道德主體的屬性,嘗試探索技術(shù)物的“倫理轉(zhuǎn)向”和“設(shè)計轉(zhuǎn)向”。

    然而,傳統(tǒng)意義上講道德主體自由是指道德主體在道德實踐中根據(jù)自身意志或愿望作出道德選擇的自由。[9]其中暗含了人是道德自由選擇的主體,但隨著人工智能學習技術(shù)物的發(fā)展,如計算機或智能機器人,在從事道德實踐時,也會按照既定的程序預設(shè)或自主學習進行道德自主選擇,傳統(tǒng)道德自由的定義的解釋存在一定的局限性。因此,道德主體不完全指代人,還存在道德代理人的可能性,如計算機或智能機器人等。誠如工程師大衛(wèi)·比靈頓(David Billington)所講,人們談?wù)摷夹g(shù)時,他們通常指的是現(xiàn)代工程的產(chǎn)物:計算機、發(fā)電設(shè)備、汽車、核武器,而非兼具道德意義的技術(shù)。

    與此同時,伴隨計算機技術(shù)、基因技術(shù)、納米技術(shù)、神經(jīng)技術(shù)等會聚技術(shù)的發(fā)展,人類對道德主體的認識開始發(fā)生轉(zhuǎn)變。認為道德主體不一定是道德實體,具有道德意向性和道德行為的技術(shù)物均可視為道德主體,智能機器人和智能軟體等都具備該條件,同樣可以稱為道德主體。斯洛曼(Aaron Sloman)將機器納入到道德主體的范疇,丹尼爾森(Peter Denielson)和霍爾(Josh Storrs hall)認為智能機器具備道德主體地位,福斯特(Heinz von Foerster)引入了“道德智能主體”概念,布瑞(Philip Brey)提出了“準道德主體”的概念[10],弗洛里迪(Luciano Floridi)和桑德斯(Sanders)直接將智能機器認定為道德主體[11]等。諸多學者嘗試突破或拓展既有概念的固化現(xiàn)象,嘗試性地給予新技術(shù)客觀發(fā)展狀態(tài),以合理對話的空間,用其框架內(nèi)類似道德主體自由的概念范疇,探索其道德自由的邊界。

    因此,筆者認為技術(shù)物的道德主體自由一定程度上成就了人的道德主體性,承擔了人類在日常生活中低技術(shù)物的道德活動主體,成為人類道德活動的代理人。但隨著技術(shù)物的更新迭代,道德代理人的主體性逐漸增強,技術(shù)程度越高代理人的道德自主性越強。如微波爐的發(fā)明把女性從廚房中解放出來,但同時也消解了一家人圍繞廚房準備晚餐的幸福回憶,將道德價值轉(zhuǎn)化為了經(jīng)濟價值,促使技術(shù)物商品化,消解了設(shè)計者既定的預設(shè)場景。但在“裝置范式”的規(guī)則下將人的主體性解放出來,一定程度上脫離了持存者的角色,去從事更為復雜的道德活動,人與技術(shù)物共同成就了道德主體的自由現(xiàn)象。

    二、技術(shù)物的技術(shù)權(quán)力自由

    1. 技術(shù)物的技術(shù)權(quán)利自由復蘇

    瑪吉·博登(Maggie Boden)認為人工智能技術(shù)物能夠把人類從單調(diào)乏味的工作中解放出來,去追求更加人文性的活動。社會科學家巴蒂雅·弗里德曼(Batya Friedman)和皮特·卡恩(Peter Kahn)認為使用者把支持工具當成拐杖,用機器的輸出代替自己的判斷思考。例如醫(yī)生通過儀器診斷病人時,某種情況下的生死抉擇依靠機器的信息輸出,技術(shù)權(quán)利削減了醫(yī)生的自主性,醫(yī)生遵從機器對患者做出的評估。此時,責任承擔者是機器還是醫(yī)生?機器的輸出結(jié)果貌似直觀可信,那么機器越會像人一樣體現(xiàn)真正的道德智能,人們默認該技術(shù)擁有道德責任和技術(shù)權(quán)利。因此,人類賦予技術(shù)物的技術(shù)權(quán)利和道德責任,某種程度上與技術(shù)物的工具屬性不匹配,人類甚至主動放棄道德責任,寄托于技術(shù)物身上,將道德責任和技術(shù)權(quán)利綁定在一起。亞里士多德反對在某種恰當?shù)囊饬x上認為人工物具有本質(zhì)的觀點,例如形式和物質(zhì)真實之間的結(jié)合體方面。一個成熟的道德智能體是一個認識到不同觀點會產(chǎn)生不同偏好分級的個體。這個不同的偏好可能無法以一個完全中立、獨立于任何觀點的方式得到解決。[2]52

    另外,溫德爾·拉瓦赫(Wendell Wallach)和科林·艾倫(Colin Allen)從自主性維度和敏感性維度,將技術(shù)物的道德分為兩種,即“操作性道德”和“功能性道德”。處于維度低端的機器系統(tǒng)僅僅具有操作性道德,在設(shè)計者和使用者層面可以解決。當設(shè)計進程在充分考慮倫理價值的前提下進行時,“操作性道德”完全掌控在技術(shù)物設(shè)計者與使用者的手中。隨著機器演變的復雜程度,一種“功能性道德”在技術(shù)上變得可能,它可以使機器自身有能力接近并相應的道德挑戰(zhàn)。[3]12一方面,技術(shù)是自組織的。它可以通過某些簡單規(guī)則自行聚集起來;另一方面,技術(shù)是組我創(chuàng)生的,通過這些來衡量技術(shù)本身。技術(shù)確實是有生命的,不過它們只是珊瑚礁意義上的有機體,其構(gòu)建和繁衍還依然需要人類作為代理人。[3]210[5]但隨著計算機和生命科學技術(shù)的發(fā)展,科學家研發(fā)出“生成式”的人-機接口,使用者通過全感官的方式參與其中,擴展操作性和功能性之間的道德邊界。

    筆者認為在技術(shù)現(xiàn)象哲學的“國度”里,技術(shù)物的道德意向性約等于經(jīng)典哲學世界里的道德屬性,技術(shù)現(xiàn)象哲學將經(jīng)典哲學框架內(nèi)的道德標準擴充到技術(shù)物的范疇內(nèi),采用語義下行的方式,削弱了人作為道德屬性的專屬權(quán),擴展到非人領(lǐng)域的技術(shù)物中,以此換取人類在快速發(fā)展的技術(shù)世界的道德話語權(quán)。用技術(shù)物的道德自由約束技術(shù)物的行為規(guī)范,同時包括設(shè)計技術(shù)物的設(shè)計者和使用者。不能簡單地認為技術(shù)物不具有道德權(quán)利,將其肆意擴張至人類不可控的視域,走向人類中心主義陷阱。另外,也不能夸大技術(shù)物的道德自由,綁架人類道德權(quán)利,走向技術(shù)中心主義陷阱。因此,技術(shù)物的道德活動建立在技術(shù)權(quán)利和道德自由的雙重約束之下。

    2. 技術(shù)物的權(quán)力自由與困境

    艾薩克·阿西莫夫(Isaac Asimov)針對機器人提出了三定律:第一,機器人不可以傷害人,或者因為不作為讓任何人受到傷害;第二,機器人必須遵從人的指令,除非該指令與第一定律相沖突;第三,機器人必須保護自己的生存,條件是那樣做不和第一、第二定律沖突。[2]1隨后又補充了第四定律,即機器人不得傷害人類,或者因為不作為讓人類受到傷害。雖然阿西莫夫在小說中這樣描述,現(xiàn)階段機器人技術(shù)還未發(fā)展至科幻電影中那般程度,但某種程度上也反映了真實世界的訴求,說明人類還是擔心類似機器人這種高技術(shù)物威脅到人類的安全,才會使一部分倫理學家有所擔憂。歷史總是似曾相識,在攝影技術(shù)誕生初期,也曾存在攝影術(shù)能夠攝取人的魂魄的說法,但隨著攝影技術(shù)的快速發(fā)展,形形色色的攝影技術(shù)的產(chǎn)物進入人們的日常行為活動中。可見,技術(shù)科學家和哲學家們爭議的點在于看待技術(shù)本身的角度不同,哲學家認為技術(shù)本身具有社會性,技術(shù)物的使用會影響人類的日常行為,而技術(shù)科學家認為技術(shù)屬于物理結(jié)構(gòu)和技術(shù)功能的范疇,在物質(zhì)框架下進行的工具性活動。但雙方均保留了溝通的空間,不斷揭示它們隱含多元化的、生成性的潛在風險和價值承諾。

    技術(shù)物的道德自由性長期受到二元框架下的質(zhì)疑,但在后現(xiàn)代技術(shù)現(xiàn)象學討論的范疇內(nèi),技術(shù)物的道德自由性建立在去中心化的框架下,消解了主體與客體強對稱的現(xiàn)象,也消解了道德主體和道德客體的表述。用技術(shù)物的道德意向性來代替道德主體性,用人與非人來區(qū)分主體和客體,用弱對稱性代替強對稱性,試圖突破語言學上意義建構(gòu)的桎梏。據(jù)英國《快報》(Express)2019年2月18日最新報道,哥倫比亞大學的創(chuàng)造性機器實驗室構(gòu)造的機器人,出現(xiàn)自我修復意識的苗頭。[12]另外,阿特拉斯機器人(Atlas robot)可以根據(jù)外部環(huán)境自主調(diào)整和修正自身數(shù)據(jù),處理各種復雜的外部情況。[13]

    因此,隨著技術(shù)物的智能程度不同,技術(shù)權(quán)利的道德自由程度存在差異。人類可以控制弱技術(shù)物的行為方式,在經(jīng)典技術(shù)哲學框架下,弱技術(shù)物不具備道德屬性中的能動性,因此沒有道德自由,僅僅在人的參與下助推道德活動。但在后現(xiàn)象學的框架內(nèi),強調(diào)弱技術(shù)物能動性中的“能”,從意向性的能力和趨勢定義弱技術(shù)物具有道德意蘊,可以納入道德自由的范疇內(nèi),用一種弱對稱的關(guān)系將技術(shù)物納入到道德自由可探討的范圍。雙方均認同弱技術(shù)物也會塑造人的認知和行為方式,分歧在于對弱技術(shù)物道德自由程度的界定。高技術(shù)物的技術(shù)權(quán)利自由存在不可控的潛在風險,弱技術(shù)物的技術(shù)權(quán)利自由偏隱性狀態(tài),需要人的參與才能促發(fā)其技術(shù)權(quán)利的自由勢能。

    誠如摩爾定律所認為的那樣,伴隨著技術(shù)革命,社會影響增大,倫理問題也增加。因此,采用技術(shù)物的背后存在一種社會塑造的張力,改變?nèi)说钠沸泻鸵庾R,甚至培養(yǎng)出一種前所未有的行為習慣,存在一種未知技術(shù)權(quán)利塑造下的技術(shù)社會景觀。人類的自主性和對技術(shù)依賴之間有哲學的張力。正如信息技術(shù)基于邏輯延展性,基因技術(shù)基于生命延展性,納米技術(shù)基于材料延展性,神經(jīng)技術(shù)基于心靈延展性,這些被稱為會聚技術(shù)(NBIC)的技術(shù)物擁有建造新物體、新環(huán)境甚至新思維的能力。[14]一步步突破既有框架的限制,在既有框限范圍進行插件式的修復,無論外置式的“道德物化”,還是內(nèi)置式的“道德中介”,都嘗試將技術(shù)物的道德自由“修復”,完成現(xiàn)代化語境意義上的“道德自由”。

    三、技術(shù)物的物準則自由

    1. 技術(shù)物的弱準則自由

    荷蘭技術(shù)哲學家克洛斯(Peter Kroes)和梅耶斯(Anthonie Meijers)提出技術(shù)物的結(jié)構(gòu)-功能的“二重性”,通過物理結(jié)構(gòu)指向技術(shù)功能完成技術(shù)物的設(shè)計,用物質(zhì)框架設(shè)計出非物質(zhì)框架下的技術(shù)功能,幫助人類完成某些道德行為活動,如機器、家電、建筑等。在工程視角下設(shè)計的技術(shù)物,遵循技術(shù)物的弱準則自由,工程師或設(shè)計師給予弱技術(shù)物自由的限度,以替代人類的勞動活動,釋放人類身體的部分自由。弱技術(shù)物憑借物質(zhì)框架約束,同樣起到強制性的道德約束,如道路隔石墩憑借其物質(zhì)屬性和強制性功能,成為強制性調(diào)節(jié)的道德產(chǎn)物。

    另外,詹姆斯·穆爾(James Moor)將倫理智能體分了四個層次,第一層次為“倫理效果智能體”,技術(shù)物所顯現(xiàn)的倫理意向性造成的倫理影響均可歸為此類。第二層次為“隱含式倫理智能體”此類技術(shù)物設(shè)計者可以在技術(shù)設(shè)計方面保障其安全性,不存在負面的倫理影響。第三層次為“顯現(xiàn)式倫理智能體”,此類可以通過內(nèi)置程序進行倫理約束。第四層次為“完備倫理智能體”,此類技術(shù)物可以進行道德判斷和道德決策。[2]26-27前兩種智能技術(shù)物倫理層次處于弱準則自由的范圍內(nèi),屬于物質(zhì)框架約束的智能技術(shù)物,后兩種倫理層次屬于強準則自由的范疇,對道德活動行為具有較強的約束力,技術(shù)物的設(shè)計和使用能夠在物準則自由的既定范圍內(nèi)活動。

    相對高技術(shù)物而言,弱技術(shù)物不具有獨立意志,僅能在設(shè)計和編程的程序范圍內(nèi)實施行為。人類利用弱技術(shù)物進行不良道德行為,人工智能法律研究者劉憲權(quán)稱此行為為“外患”。高技術(shù)物有能力在設(shè)計和編程的程序范圍外,依靠自己的獨立意志實施危害社會的行為,此情形稱為“內(nèi)憂”。[15]此時,通過弱技術(shù)物作為道德中介轉(zhuǎn)譯人類的道德活動,與弱技術(shù)物共同成為“持存者”的道德行動體,實現(xiàn)弱準則自由下的道德活動。

    因此,筆者認為弱技術(shù)物中的道德價值逐漸替代道德自由。技術(shù)物弱準則中的自由消解了人與非人的強對稱性,將技術(shù)物轉(zhuǎn)化成非人的語境,參與到社會行動者網(wǎng)絡(luò)中,并且弱準則的技術(shù)物名單不斷擴大。技術(shù)物需要在特定的形式下為自己的道德行為負責,通過道德自由最大化體現(xiàn)其道德價值,縮小人類的道德責任。在技術(shù)物的弱準則世界中,沒有哪個技術(shù)物對其他技術(shù)物負責,各自在各自的道德價值體系內(nèi)行動,道德責任將被逐漸消解,轉(zhuǎn)換為道德價值代替道德自由,成為物準則世界里道德自由的“貨幣”,人類暫時成為弱技術(shù)物的管理者,享受其帶來便利的同時,也相應地承擔著弱技術(shù)物的道德責任。

    2. 技術(shù)物的強準則自由

    技術(shù)物強準則自由是針對高技術(shù)物的一種物準則。常規(guī)弱技術(shù)物在人的參與下形成第三重身份,即以“持存者”的角色助推道德自由活動。現(xiàn)階段的認知中,離開人的弱技術(shù)物不存在道德自由的概念。但高技術(shù)物自身擁有獨立思考和意識判斷的能力,有可能超出康德因果道德律的約束,有很高的能動性和破壞能力,并且有無法約束的自由行動力,存在很大隱患,因此,對高技術(shù)物要實施強準則自由的約束。以智能機器人為例,通過“寫入”道德程序的芯片,控制技術(shù)物的技術(shù)權(quán)利與行為自由。但高技術(shù)物的內(nèi)部路徑的道德“寫入”仍然存在一定的風險。2007年10月福斯特-米勒公司將遠程遙控裝載機關(guān)槍機器人送至伊拉克戰(zhàn)場。記者諾厄·沙赫特曼(Noah Shachtman)報道了在南非機器人加農(nóng)炮殺死9名士兵,受傷14人的事件,經(jīng)調(diào)查是機械故障造成,但也有不同看法。佐治亞理工學院計算機專家納德·阿金(Ronald Arkin)2007年獲得美國陸軍資助,開始研發(fā)軟件和硬件幫助作戰(zhàn)機器人遵守戰(zhàn)爭的倫理準則。[2]16因此,高技術(shù)物的強準則自由仍需工程師和政策制定者買單,需有責任主體和建構(gòu)性評估程序,參與高技術(shù)物的強準則自由框限權(quán)力制定。

    但筆者認為科學家試圖通過更高級的技術(shù)去解除由高技術(shù)物產(chǎn)生的焦慮,存在自相矛盾性,它引出了對技術(shù)的迷戀和自由技術(shù)引起的焦慮之間某種張力。這可能是因為未來學家通常都害怕技術(shù)會脫離人類控制,更可能是因為擔憂這種技術(shù)會揭露人類自身的一些問題。[2]30技術(shù)集合通過采用或者丟棄某些技術(shù),創(chuàng)造某些機會利基,以及揭示一些新現(xiàn)象來實現(xiàn)進化。[3]229技術(shù)的建構(gòu)不僅來自已有技術(shù)的組合,還來自對自然現(xiàn)象的捕捉和利用。我們必須關(guān)注人類,特別是人類思維在這一組合過程中的巨大作用。新技術(shù)先是精神的建構(gòu),之后才是物質(zhì)的建構(gòu)。我們必須弄清楚技術(shù)怎樣創(chuàng)造出技術(shù),即新技術(shù)從已有技術(shù)整體中涌現(xiàn)出來。[3]18在單個弱技術(shù)物的層級上將物準則自由納入其中,當單個弱技術(shù)物組合成高技術(shù)物時,控制單個弱技術(shù)物的弱準則自由,以緩解高技術(shù)物帶來的強準則自由的“破功”風險。當然,試圖用簡單的數(shù)變消解質(zhì)變的責任與風險,存在可探討的空間。

    四、結(jié) 語

    正如溫德爾·拉瓦赫和科林·艾倫在其著作《道德機器:如何讓機器人明辨是非》中所講的,“在構(gòu)建道德決策機器方面,我們是依然沉浸在科幻世界里,或者更糟,打上那種時常伴隨人工智能科學狂想的烙印嗎?只要我們還在做著關(guān)于人工道德智能體(AMAs)時代的大膽預言,或者還在聲稱會走路、會說話的機器將取代目前作出道德指引的人類‘只是時間問題’,這樣的指責就是合適的?!盵2]4當我們否定技術(shù)物不具有道德自由時,某種程度上限制了類似人工智能技術(shù)的發(fā)展,被人工智能體無法為其行為負道德責任的倫理陷阱所局限。責任和道德不能夠在司法體系混為一談,人工智能體有足夠的信息量、“智能”、自治,只是技術(shù)物道德自由程度和技術(shù)發(fā)展時間問題。相反,將技術(shù)物的道德自由概念納入到新型倫理學范疇,更有利于新興技術(shù)的快速發(fā)展,從技術(shù)產(chǎn)生就植入道德自由與責任,對趨同于人類的技術(shù)物發(fā)展更有利。

    猜你喜歡
    道德主體人類
    頭上的星空與心中的道德律
    十幾歲(2021年24期)2021-11-18 02:18:40
    人類能否一覺到未來?
    論自然人破產(chǎn)法的適用主體
    南大法學(2021年3期)2021-08-13 09:22:32
    人類第一殺手
    好孩子畫報(2020年5期)2020-06-27 14:08:05
    跟蹤導練(五)(2)
    道德是否必需?——《海狼》對道德虛無主義的思考
    1100億個人類的清明
    關(guān)于遺產(chǎn)保護主體的思考
    人類正在消滅自然
    奧秘(2015年2期)2015-09-10 07:22:44
    用道德驅(qū)散“新聞霧霾”
    新聞前哨(2015年2期)2015-03-11 19:29:31
    城市| 轮台县| 敦化市| 新绛县| 双桥区| 吉林省| 厦门市| 醴陵市| 昌平区| 岚皋县| 保德县| 安平县| 东港市| 望奎县| 开化县| 明水县| 仙居县| 浪卡子县| 息烽县| 宾川县| 崇文区| 喀喇沁旗| 永济市| 绥棱县| 邵武市| 福泉市| 景东| 兴宁市| 临漳县| 府谷县| 广德县| 清河县| 土默特左旗| 武胜县| 安阳市| 呈贡县| 济源市| 大竹县| 新余市| 同德县| 密山市|