摘要:在當(dāng)代,人類的命運(yùn)已經(jīng)牢牢地與機(jī)器,尤其是人工智能機(jī)器的發(fā)展關(guān)聯(lián)在一起。與此同時(shí),智能機(jī)器的黑箱化也成為我們迫切需要面對(duì)的一個(gè)問題。這其中,像算法機(jī)制這種對(duì)人們生活產(chǎn)生全方位影響的“機(jī)器”原理,一方面對(duì)于普通人而言幾乎就是一個(gè)難以理解的黑箱結(jié)構(gòu),另一方面又對(duì)我們的日常生活產(chǎn)生直接且重大的影響。然而,試圖通過讓智能機(jī)器變得更“透明”,更具有“可解釋性”,對(duì)于緩解機(jī)器的黑箱狀態(tài)并沒有太大的幫助。人機(jī)之間良好協(xié)作關(guān)系的破壞往往不是由于機(jī)器的黑箱化導(dǎo)致的。人與機(jī)器在人機(jī)協(xié)作中存在各自目的與功能上的差異,因此更合理的思路是在充分理解人與機(jī)器各自功能的基礎(chǔ)上,通過在人機(jī)在協(xié)作過程中建立一種嶄新的,同時(shí)也基于人和機(jī)器各自“趨向性”的目的來保證人機(jī)協(xié)作的順利開展。當(dāng)然,要徹底消除智能機(jī)器黑箱化的威脅,我們需要在考慮人機(jī)功能和目的之差異的基礎(chǔ)上推進(jìn)一種人機(jī)之間嵌入式的協(xié)作機(jī)制,此種機(jī)制有可能通過賦予機(jī)器一種“實(shí)踐智慧”來使其擺脫黑箱化的責(zé)難。
關(guān)鍵詞:人機(jī)協(xié)作;黑箱化;嵌入式人機(jī)協(xié)作系統(tǒng)
中圖分類號(hào):TP249;TP182 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1003-854X(2023)11-0065-07
在今天,人類的快樂與幸福,或者說,人類的命運(yùn)和危機(jī),都已經(jīng)牢牢地與機(jī)器,尤其是人工智能機(jī)器的發(fā)展密切關(guān)聯(lián)在一起。而擁抱或者接受這一點(diǎn)的人迫切需要回應(yīng)的基本問題是,我們應(yīng)當(dāng)如何與機(jī)器進(jìn)行交互(互動(dòng)),我們應(yīng)當(dāng)如何在機(jī)器進(jìn)入我們生活時(shí),處理機(jī)器相對(duì)于人的“異質(zhì)性”?當(dāng)機(jī)器發(fā)展出越來越強(qiáng)大之“超人”能力時(shí),我們?nèi)绾伪WC依然維持與其處于一種“協(xié)作”甚至“操作”關(guān)系而不被機(jī)器所吞噬,并因此避免我們的生活陷入不幸?甚至我們會(huì)十分擔(dān)心,人類所看重的價(jià)值是否會(huì)在機(jī)器能力的迅速發(fā)展過程中被抹除和顛覆?假如我們相信信息哲學(xué)家的判斷,“信息與通信技術(shù)正在極大地改變我們的世界,它們正在創(chuàng)造新的現(xiàn)實(shí),并推動(dòng)著對(duì)世界和生活的方方面面的信息化解讀。……線上的數(shù)字世界正在逐漸溢出到線下世界,并漸漸融入其中”(1),那么,建構(gòu)一種新型人機(jī)協(xié)作關(guān)系似乎迫在眉睫。
一、面對(duì)智能機(jī)器黑箱狀態(tài)的人機(jī)協(xié)作可能性分析
當(dāng)前,人機(jī)協(xié)作中一個(gè)重要且緊迫的困擾是,智能機(jī)器(2)相對(duì)于人來說往往處于黑箱狀態(tài)。(3) 問題在于,我們?nèi)绾文軌虬残牡厥褂靡粋€(gè)完全黑箱化的工具并且與之展開協(xié)作?不過,從技術(shù)發(fā)展歷史來看,我們其實(shí)并不曾停止使用黑箱式的工具或者所謂的準(zhǔn)黑箱式工具。一個(gè)工人不需要知道他所操作的機(jī)器究竟是如何運(yùn)作的,他只需要知道如何操作機(jī)器,以及這樣的操作將會(huì)帶來什么樣的功效。一般來說,做到這些就意味著,他能夠利用工具進(jìn)行工作,或者說,工人與機(jī)器處于一種良好的“協(xié)作”關(guān)系之中——無論如何,工具已然有效地“服務(wù)于”工人的工作。此時(shí),機(jī)器的黑箱化對(duì)于工人并沒有產(chǎn)生可見的威脅,可以說,工人依然“掌控”著機(jī)器。有人可能會(huì)指出,在工業(yè)革命時(shí)期,工人對(duì)于機(jī)器機(jī)制的不了解可能是導(dǎo)致工人在機(jī)器大生產(chǎn)中被機(jī)器所“異化”的一個(gè)原因。但實(shí)際情況是,資本的剝削力量才是給工人帶來危機(jī)的根源,工人和機(jī)器之間的緊張關(guān)系不是因?yàn)楣と瞬粔颉傲私狻睓C(jī)器,而是因?yàn)橘Y本主義生產(chǎn)制度通過機(jī)器來對(duì)工人進(jìn)行殘酷的剝削壓榨。那么,是否這意味著資本家相對(duì)工人而言就有了一個(gè)更加清晰的對(duì)于機(jī)器的“了解”,或者說,機(jī)器對(duì)于工人是黑箱而對(duì)于資本家而言是透明的?情況顯然并非如此。資本家也不需要對(duì)于機(jī)器的“黑箱”狀態(tài)有一個(gè)完全明晰的領(lǐng)會(huì):他們只需要把機(jī)器買回來,然后強(qiáng)迫工人使用機(jī)器進(jìn)行生產(chǎn)進(jìn)而剝削工人的剩余價(jià)值。資本家是機(jī)器的擁有者,但不是機(jī)器專家??梢?,在工業(yè)革命時(shí)期,完全清晰地理解機(jī)器既不是正常使用機(jī)器操作機(jī)器的前提,也不是擁有機(jī)器,利用機(jī)器進(jìn)行剝削的前提。
今天,人們普遍認(rèn)為,在機(jī)器變得更加智能化時(shí),如果我們要讓機(jī)器全面,徹底地進(jìn)入我們的生活,甚至具有改變我們的生活,改變整個(gè)人類生活樣貌的可能,也即,讓一種智能機(jī)器更加密切地作用于我們的生活,我們就不得不警惕這種智能機(jī)器的“黑箱”狀態(tài)。當(dāng)然,智能機(jī)器和工業(yè)革命時(shí)的機(jī)器,其所謂的“黑箱”特質(zhì)是完全不同的。智能時(shí)代的一個(gè)特征是,機(jī)器的“黑箱”狀態(tài)和之前相比,對(duì)于人類(無論是機(jī)器的所有者還是機(jī)器的操作者)可能是一個(gè)更加純粹意義上的“黑箱”,也可能會(huì)是一個(gè)更加重大的威脅。智能機(jī)器這種更加純粹的“黑箱化”趨向來自于技術(shù)本身的高度專業(yè)化和復(fù)雜化。在工業(yè)革命時(shí)代,一個(gè)普通人或許可以通過自學(xué)掌握機(jī)械原理進(jìn)而對(duì)機(jī)器有一個(gè)大致的理解;但在智能化時(shí)代,即使是信息專業(yè)人士,可能也無法完全清晰地說明智能機(jī)器的工作原理,尤其是在進(jìn)入到深度學(xué)習(xí)和大數(shù)據(jù)時(shí)代之后。智能機(jī)器“黑箱化”相對(duì)于普通機(jī)器而言成為一個(gè)更加重大威脅的原因是,在今天的時(shí)代,不僅是人類的生產(chǎn)活動(dòng),而且人類的日常生活,都嚴(yán)重地依賴于此種智能機(jī)器的有效運(yùn)作。這種深度依賴是不斷疊加的,即,人類對(duì)智能機(jī)器的依賴推動(dòng)了智能機(jī)器越發(fā)地強(qiáng)化自身的地位,而這種強(qiáng)化又會(huì)進(jìn)一步增強(qiáng)人對(duì)智能機(jī)器的依賴。
那么,我們要如何應(yīng)對(duì)今天遍布于我們生活中的智能機(jī)器的黑箱化趨勢(shì)?一個(gè)自然的想法是提升智能機(jī)器的透明度,嘗試建立人機(jī)之間更為清晰明確的關(guān)聯(lián)方式,讓更多的人掌握智能機(jī)器的運(yùn)行機(jī)制和底層邏輯。但筆者認(rèn)為這種意義上的透明度的實(shí)現(xiàn)是不可能的。理由是,在我們與智能機(jī)器的“交互”中,我們確實(shí)可以主張一種相對(duì)于機(jī)器操作者的“透明度”,因此,一些智能產(chǎn)品也會(huì)給用戶很詳細(xì)的說明書,上面可能羅列了機(jī)器的性能與詳細(xì)參數(shù)。但這是一種廣義上的透明度,因?yàn)檎G闆r下,我們很難告訴公眾智能機(jī)器的運(yùn)作原理(大多數(shù)人對(duì)此并不感興趣)。畢竟,人機(jī)之間的所謂“接口”和“交互界面”從來都不是以獲得更大透明度為主要目標(biāo)。所有智能機(jī)器產(chǎn)品,其接口在設(shè)計(jì)時(shí)除了讓用戶更容易上手之外,更多的是以機(jī)器自身的目的和高效運(yùn)行為考量的,絕非首先是為了讓使用者能夠更好地理解“機(jī)器”。
對(duì)人工智能機(jī)器的透明度的要求實(shí)際上等于說我們需要一種可解釋的人工智能(explainable AI),而這暗含的一個(gè)預(yù)設(shè)是,只要我們?cè)诮裉爝@個(gè)時(shí)代能夠更好地“理解”人工智能系統(tǒng)的運(yùn)作機(jī)制和決策過程,我們就會(huì)因?yàn)槟軐?duì)其行為進(jìn)行解釋和預(yù)測(cè)而提升對(duì)它的信心,進(jìn)而在一種現(xiàn)實(shí)的層面上更加信任人工智能機(jī)器并展開更緊密的協(xié)作。這里需要澄清的問題是,透明是否等于可解釋性?它是否可以破除機(jī)器尤其是智能機(jī)器的黑箱狀態(tài)?在我看來,透明是一種較為籠統(tǒng)的說法,我們對(duì)智能機(jī)器的透明要求對(duì)應(yīng)的是它所呈現(xiàn)的黑箱狀態(tài),也就是說,我們因著智能機(jī)器黑箱狀態(tài)給我們生活帶來的威脅而想當(dāng)然地認(rèn)為,要消除這種威脅需要機(jī)器實(shí)現(xiàn)某種意義上的“透明”;可解釋性確實(shí)部分地關(guān)聯(lián)于此種透明,例如,對(duì)于專業(yè)人士來說,程序的可解釋性意味著它的運(yùn)行機(jī)制能夠被理解,因而在專業(yè)人士眼中會(huì)變得“透明”,但此種透明性依然不是公眾所理解和要求的應(yīng)對(duì)黑箱化威脅的透明。因此,我們只能說,智能機(jī)器的透明特性通過幫助專業(yè)人員理解機(jī)器、掌控機(jī)器,部分實(shí)現(xiàn)了公眾對(duì)于透明特性解除智能機(jī)器黑箱化狀態(tài)的希望。但在很多時(shí)候,可解釋性并不能真正做到“破除智能機(jī)器黑箱化”所追求的更高層次的目標(biāo),即實(shí)現(xiàn)一種更加健康、良善的人機(jī)協(xié)作。例如,即使我們知道存在著某種通過AI而暗中實(shí)施的不正義(例如算法歧視,算法偏見),我們也很難僅僅通過追求人工智能機(jī)器的可解釋性來解決這個(gè)問題。認(rèn)為一個(gè)可解釋的智能機(jī)器能夠變得更道德,這完全基于一種將道德或者說所謂正當(dāng)簡(jiǎn)化為理性認(rèn)知能力的立場(chǎng),認(rèn)為對(duì)象只要足夠理性,就不會(huì)做壞事;而機(jī)器只要足夠透明,足夠具有解釋力,就能夠避免做壞的事情。但實(shí)際情況是,理性的智能機(jī)器完全可以被濫用來做道德上不正當(dāng)?shù)氖虑槎贿`背自身的“可解釋性”。
針對(duì)智能機(jī)器的可解釋性對(duì)于破除黑箱狀態(tài),以及破除黑箱狀態(tài)給人機(jī)協(xié)作帶來的困擾并沒有太大的作用。有些研究者提出了另外一種應(yīng)對(duì)思路:為了讓人機(jī)協(xié)作更加高效并且讓智能機(jī)器在對(duì)人類的助益之中不會(huì)因著某種黑箱狀態(tài)給人帶來巨大的壓力與威脅感,更為直接意義上的“好的”人機(jī)協(xié)作模式要求機(jī)器尤其是智能機(jī)器具有更高的靈活度,使之可以配合人類的主觀目標(biāo),如此,我們只要保證人機(jī)協(xié)作中的“人”有著良善的目標(biāo),那么,靈活地與之協(xié)調(diào),并努力配合人實(shí)現(xiàn)目標(biāo)的智能機(jī)器似乎就可以在不追求透明狀態(tài)下起到“好的”作用。這里的靈活度指的是,人們希望機(jī)器能夠不斷地依據(jù)實(shí)際情形與協(xié)作對(duì)象的變化對(duì)自身做出調(diào)整。例如,在對(duì)人工智能道德體的設(shè)想中,學(xué)者們就認(rèn)為,“即使人工道德智能體未能進(jìn)到對(duì)所有關(guān)系都起疑的世界中,但在與其他人或計(jì)算系統(tǒng)互動(dòng)的過程中,它們需要具備動(dòng)態(tài)地調(diào)整或摸索著去提高信任程度的能力”。(4)盡管這樣一種判斷是對(duì)于可能的“人工道德智能體”的想象,但也說明,人機(jī)之間的互動(dòng)協(xié)作在未來的一個(gè)方向可能就是智能機(jī)器更高靈活度的實(shí)現(xiàn)。這種靈活度依賴于機(jī)器高速發(fā)展的計(jì)算能力,因?yàn)橛?jì)算能力的提升才有可能帶來實(shí)時(shí)動(dòng)態(tài)的交互可能。然而,更靈活的交互似乎既不意味著機(jī)器在可解釋性上的提升,也不意味著一種良善人機(jī)協(xié)作模式的唾手可得。原因如下:
首先,智能機(jī)器的靈活度與黑箱狀態(tài)的破除沒有關(guān)聯(lián)。智能機(jī)器靈活度的提升往往被認(rèn)為意味著它會(huì)更趁手、更便捷,就像一輛剛剛升級(jí)了最新智能系統(tǒng)的無人駕駛汽車會(huì)標(biāo)榜自己“以更靈活的姿態(tài)滿足用戶的需求”。此時(shí),從人工道德智能體的層面上說,“良好的行為依賴于對(duì)他人的意圖和需求保持敏感性。自主道德智能體將需要知道人們想要什么。在它們與人類的互動(dòng)中,機(jī)器人需要清楚與其角色相關(guān)聯(lián)的社會(huì)習(xí)俗和期待”。(5)智能機(jī)器的靈活性大體與此類似。一種對(duì)于人類的“投其所好”當(dāng)然會(huì)提升我們與機(jī)器之間交互的便利性,進(jìn)而強(qiáng)化我們與機(jī)器的協(xié)作關(guān)系。但盡管在此種情況下,機(jī)器可能成為一個(gè)馴服的“奴隸”,但依然不見得是“透明清晰的”:它依然可能是一個(gè)“黑箱”,并不對(duì)“奴隸主”呈現(xiàn)完全的透明狀態(tài),但作為“奴隸”的智能機(jī)器會(huì)為了更好地服務(wù)“奴隸主”而提升交互性,提升自身的可利用度。同時(shí),這個(gè)“奴隸”會(huì)不斷提升自身的“技能”,變得更加具有靈活度,更加能夠滿足“奴隸主”的需求。此時(shí),這個(gè)靈活的“奴隸”,這個(gè)智能機(jī)器似乎更像是處于一種可“協(xié)作”的黑箱狀態(tài)中。
其次,智能機(jī)器更高的“靈活度”有時(shí)給予人的是一種“虛假的良善協(xié)作”的可能,即更靈活的智能機(jī)器看起來更聽話,實(shí)際上卻在人類的生活中孕育更大的風(fēng)險(xiǎn)。我將這個(gè)風(fēng)險(xiǎn)稱作黑格爾主奴辯證法在智能機(jī)器層面上的具體展開。大致上說,一開始是智能機(jī)器通過提升自身的“靈活度”以便更好地實(shí)現(xiàn)人機(jī)協(xié)作,但隨著智能機(jī)器變得越來越靈活,原先居于主導(dǎo)地位的協(xié)作者(人類)為了更高效地協(xié)作,為了適應(yīng)高速發(fā)展的計(jì)算能力,調(diào)整自身以適應(yīng)進(jìn)而認(rèn)同這種協(xié)作過程,從而讓自身變得更加靈活,并習(xí)慣于對(duì)照智能機(jī)器來調(diào)整自身的協(xié)作目的與協(xié)作方式。具體的發(fā)生進(jìn)程是,盡管機(jī)器的使用者(主人)是在操控(奴役)機(jī)器(奴隸),但是在機(jī)器不斷發(fā)展自身以更好地滿足使用者需求的過程中,它變得越發(fā)靈活,對(duì)于人來說可能也變得越發(fā)不可解釋,越發(fā)“黑箱化”了。而這一“黑箱化”的外在顯現(xiàn)卻可能是,機(jī)器越發(fā)能夠滿足使用者的要求了,而且這種滿足可能還是智能的。久而久之,使用者習(xí)慣了這種機(jī)器的巨大力量與對(duì)使用者需求的滿足,他們雖然可能也想要讓機(jī)器能夠更透明,更加具有可解釋性,但機(jī)器已經(jīng)充滿靈活性地將自身的性能與價(jià)值關(guān)聯(lián)于這種“黑箱結(jié)構(gòu)”,此時(shí),使用者開始發(fā)現(xiàn),一個(gè)能夠進(jìn)行深度交互的靈活機(jī)器(一個(gè)聽話的能干的奴隸)可能正是一個(gè)不可解釋的機(jī)器(一個(gè)心思深沉的奴隸)。而這導(dǎo)致的一個(gè)可能結(jié)果是,為了維持這種交互關(guān)系,作為使用者的主人開始嘗試調(diào)整自身:一方面,使用者將去學(xué)習(xí)接受機(jī)器的黑箱化,甚至將不透明當(dāng)作機(jī)器的本質(zhì)屬性;另一方面,他反而選擇讓自身變得更加可解釋,更加透明,以此來實(shí)現(xiàn)機(jī)器與我們交互時(shí)的“高效靈活”,即為了更好地被服務(wù),人要打開自身。
二、機(jī)器黑箱化與人機(jī)協(xié)作中的目的及功能分配
那么,我們究竟有沒有在人機(jī)協(xié)作過程中應(yīng)對(duì)機(jī)器尤其是智能機(jī)器黑箱化的辦法呢?要實(shí)現(xiàn)這個(gè)目標(biāo),我們首先要搞清楚的一個(gè)問題是,當(dāng)人機(jī)交互要實(shí)現(xiàn)真正意義上的協(xié)作時(shí),交互與協(xié)作的目的到底是什么?或者說,智能機(jī)器性能的不斷提升,智能機(jī)器界面的不斷改進(jìn),最終是為了什么?一般來說,人們會(huì)贊同如下看法:“在人機(jī)交互過程中,信息與通信技術(shù)通常被用于創(chuàng)造、便利與改進(jìn)人類使用者與計(jì)算機(jī)系統(tǒng)之間的交流?!保?)在一些學(xué)者看來,廣義上說,機(jī)器或者說機(jī)器背后的技術(shù),其本質(zhì)就在于實(shí)現(xiàn)各種各樣的屬人目的:“技術(shù)的本質(zhì)就是對(duì)自然的編程,它是一種對(duì)現(xiàn)象的捕捉,并駕馭這些現(xiàn)象為人類的目的服務(wù)。某個(gè)個(gè)體技術(shù)對(duì)許多現(xiàn)象進(jìn)行‘編程,并精心安排策劃這些現(xiàn)象,最后使它們能夠密切配合以完成特定的目的。”(7) 在這個(gè)過程中,無論是對(duì)人機(jī)之間交流的改進(jìn)還是對(duì)世界現(xiàn)象的“編程”,都不是技術(shù)、機(jī)器、智能機(jī)器本身的目的。
然而,一個(gè)進(jìn)一步的問題是,如果在不考慮人的目的的前提下,機(jī)器可能有自身的目的嗎——這個(gè)目的或許會(huì)要求機(jī)器處于黑箱之中?如果機(jī)器有自身的目的,這一目的是以一種什么方式區(qū)分于人的目的?以人工智能為例,倘若作為機(jī)器的人工智能有自身的目的,那么什么是具有此一目的的作為機(jī)器的人工智能“自身”?即,人工智能機(jī)器有沒有一種關(guān)于機(jī)器自身的概念,或者說,人工智能機(jī)器能否將自身認(rèn)同為一個(gè)“統(tǒng)一體”,這種對(duì)自身作為一個(gè)“統(tǒng)一體”的認(rèn)知又能否讓人工智能機(jī)器將自身作為目的?實(shí)際上,筆者認(rèn)為,如果目的僅僅是一個(gè)向著某種狀態(tài)的“趨向”,一個(gè)任務(wù)序列,那么機(jī)器可能相比于人會(huì)具有更強(qiáng)的“目的性”和“整體感”,因?yàn)樵谌斯ぶ悄荏w這樣的存在中,機(jī)器的運(yùn)行機(jī)制本身已然是為了某個(gè)特殊目的而展開的。從這個(gè)角度說,機(jī)器相比于人在“作為趨向的目的論”的意義上只會(huì)更強(qiáng)調(diào)目的。我們總是設(shè)想著,人因?yàn)槟撤N同一性、某種整全性而更可能接近目的;但我們忘記了人類行動(dòng)者很多時(shí)候是脆弱的和難以預(yù)測(cè)的,即使存在著某種意義上的同一性,也不能保證人的目的的始終一致。
這里我們就遇到了另一個(gè)重要的問題,我們能否要求機(jī)器完全以人的目的作為自身的目的,而在這個(gè)過程中,我們又能夠充分信任機(jī)器最終將會(huì)有助于而不是有害于人的目的?在智能機(jī)器出現(xiàn)之前,盡管人們也會(huì)擔(dān)心機(jī)器力量過于強(qiáng)大可能導(dǎo)致一些濫用,進(jìn)而帶來對(duì)于人類整體福祉的危害(例如核武器),但這其中涉及的核心問題還是人的目的本身的問題,或者說是不同的人群將自身不同的目的寄托在機(jī)器身上導(dǎo)致的沖突與危害,而不是機(jī)器自身的可能趨向目的性給人帶來的威脅。有關(guān)機(jī)器的危害的發(fā)生有時(shí)是因?yàn)槔眠@些機(jī)器的人錯(cuò)誤地評(píng)估了自身的目的,或者出于邪惡的動(dòng)機(jī)為自身設(shè)定了一個(gè)邪惡的目的,然后利用機(jī)器來實(shí)現(xiàn)它。然而在智能機(jī)器中,“如果給予多功能機(jī)器以信任,讓它們脫離其設(shè)計(jì)者或主人去運(yùn)行,并設(shè)計(jì)程序,使之靈活地對(duì)真實(shí)或虛擬世界中的環(huán)境做出反應(yīng),那么我們就需要相信它們的行為會(huì)滿足適當(dāng)目的。這超越了傳統(tǒng)的產(chǎn)品安全問題?!绻粋€(gè)自主系統(tǒng)要使傷害最小化,它就必須‘知道其行為可能的有害后果,并且必須根據(jù)其‘知識(shí)去選擇行動(dòng),即使‘知道‘知識(shí)這些術(shù)語只是在隱喻意義上用于機(jī)器”。(8) 從瓦拉赫和艾倫的這個(gè)判斷可以得出如下推論:(1)智能機(jī)器在“脫離設(shè)計(jì)者去運(yùn)行”時(shí),其趨向可能會(huì)與人的目的發(fā)生偏差;(2)這種偏差不等于一般意義上的機(jī)器出現(xiàn)“產(chǎn)品安全問題”,這種偏差可能意味著機(jī)器目的可被獲得與凸顯并有了與人的目的的可能分離。那么,如果我們要完全確定智能機(jī)器會(huì)以人類的目的為自身的目的,會(huì)維持一種健康良善的人機(jī)協(xié)作模式,那么,我們必須讓其擁有某種所謂的關(guān)于人類目的的“知識(shí)”。而在某種深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的意義上,我們還希望機(jī)器能夠自己來獲得這種“知識(shí)”,并且承認(rèn)這種“知識(shí)”對(duì)于其自身的目的是有意義的。這就等于說,在出現(xiàn)了智能機(jī)器目的與人的目的的可能分離之后,我們要努力讓智能機(jī)器的目的重新契合于人的目的。而這意味著,人工智能機(jī)器需要兩種層次上的知識(shí),一種是關(guān)于什么是人類目的的知識(shí);另一種是關(guān)于如何實(shí)現(xiàn)人類目的的知識(shí),或者說,需要一種關(guān)于“協(xié)作”的知識(shí),這后一種知識(shí)(9)的獲得才是此種狀況中人機(jī)協(xié)作得以健康展開的保證,也是我們認(rèn)為黑箱化的機(jī)器可能無法向我們清晰允諾的——黑箱化的機(jī)器可能能夠保證自己是一臺(tái)功能強(qiáng)大的機(jī)器,但無法向我們保證它是一臺(tái)具有“實(shí)踐智慧”的,有助于人機(jī)協(xié)作和人類福祉實(shí)現(xiàn)的“好機(jī)器”。所以,現(xiàn)在的問題是,我們?nèi)绾巫屩悄軝C(jī)器獲得此種“實(shí)踐智慧”從而更好地為人機(jī)協(xié)作服務(wù)?
筆者的一個(gè)基本判斷是,在智能時(shí)代,智能機(jī)器的出現(xiàn)一方面可能因其有更復(fù)雜的不透明目的而對(duì)人的目的產(chǎn)生威脅,進(jìn)而破壞人機(jī)協(xié)作的健康展開;但另一方面,智能也為我們提供了一種給予機(jī)器以“實(shí)踐智慧”,使得它擁有在自身的運(yùn)作過程中自發(fā)地將人類目的當(dāng)作自身之趨向性和目的的可能。借用弗洛里迪在《第四次革命》一書中對(duì)于技術(shù)層級(jí)的劃分,我們可以更好地理解智能機(jī)器如何在不喪失自身可能“趨向性目的”的前提下?lián)碛杏欣谌藱C(jī)協(xié)作、充分考量人的目的的“實(shí)踐智慧”。在弗洛里迪看來,信息與通信技術(shù)是一種被稱為“三級(jí)技術(shù)”的東西,這種技術(shù)的目的在于“將低效率的人類媒介從技術(shù)循環(huán)的回路中去除”(10) ,它是一種溝通人(作為使用者)與二級(jí)技術(shù)(例如,前智能時(shí)代的機(jī)器)的橋梁。以智能家居為例,如果家中有一臺(tái)掃地機(jī)器人,那么它是一種二級(jí)技術(shù);如果以智能的方式將掃地機(jī)器人并入“智能家居”系統(tǒng),使之成為“物聯(lián)網(wǎng)”構(gòu)造中的一部分,那這種智能化就是一種三級(jí)技術(shù)。我們很難想象在“二級(jí)技術(shù)”的層面上實(shí)現(xiàn)人類目的的置入,即,我們很難認(rèn)為一臺(tái)掃地機(jī)器人會(huì)將“人的目的”作為自身的目的,但我們可以將人的目的置入到“三級(jí)技術(shù)”中。實(shí)際上,廠商們往往宣稱,整個(gè)“三級(jí)技術(shù)”構(gòu)架的初衷就是以實(shí)現(xiàn)人的目的(比如家居的智能化)為目的的。智能機(jī)器的“實(shí)踐智慧”可能就體現(xiàn)在此種“三級(jí)技術(shù)”之中。
除了目的,要應(yīng)對(duì)智能機(jī)器可能的黑箱化威脅,實(shí)現(xiàn)基于人類目的的機(jī)器與人的良好協(xié)作,另一個(gè)關(guān)鍵點(diǎn)是,我們需要廓清機(jī)器與人之間的功能分配。功能本就關(guān)聯(lián)于目的,不切實(shí)際地想要實(shí)現(xiàn)超出自身功能的目的會(huì)帶來大麻煩。在今天,機(jī)器,尤其是智能機(jī)器的黑箱化趨向往往伴隨著人機(jī)協(xié)作之中人與機(jī)器各自功用上的混淆與隨之而來的目的錯(cuò)亂。所以,對(duì)于人機(jī)協(xié)作而言,為了實(shí)現(xiàn)良好的協(xié)作以達(dá)到“共同”的目的,人和機(jī)器各自需要干些什么必須得到澄清。當(dāng)然,這種立場(chǎng)預(yù)設(shè)了一個(gè)重要的前提是,人類的思維模式和機(jī)器的思維模式(或者說機(jī)器的運(yùn)行機(jī)制)在很大意義上是不同的。人們通常認(rèn)為,人類的思維模式是一種發(fā)散思維,往往具有更多的創(chuàng)造力;而機(jī)器的運(yùn)行機(jī)制基于一種分析思維,具有更強(qiáng)的邏輯推理能力。無論此種觀點(diǎn)是否成立,必須要承認(rèn)的是,在大多數(shù)人(包括機(jī)器的制造者和人工智能的訓(xùn)練者)看來,機(jī)器和人類在思維模式上是有差異的,因而二者在功能上也應(yīng)當(dāng)是有差異的。
問題是,人機(jī)之間在協(xié)作時(shí)應(yīng)當(dāng)如何依照各自的功能進(jìn)行任務(wù)分配才是合理的,且有助于人機(jī)協(xié)作之目標(biāo)的實(shí)現(xiàn)?過去的想法是,基于人機(jī)之間功能上的差異,機(jī)器將在協(xié)作中完成那些較為低級(jí)的任務(wù),那些不需要?jiǎng)?chuàng)造力的任務(wù),而人類則需要扮演統(tǒng)籌的角色,扮演最后的仲裁者和監(jiān)督者的角色,同時(shí)主導(dǎo)創(chuàng)造性工作。這一點(diǎn)在無人駕駛汽車中體現(xiàn)得尤為明顯。當(dāng)前的無人駕駛汽車技術(shù)已經(jīng)進(jìn)入到一個(gè)極其成熟的階段,但由于倫理責(zé)任上的劃分問題,無論是公共輿論還是汽車廠商抑或是消費(fèi)者,都無法接受無人駕駛汽車的智能系統(tǒng)作為最終“裁定者”的角色。人們更為認(rèn)同的是,無人駕駛汽車要為人類司機(jī)留下最終的“裁定權(quán)”,即,最后需要由人類司機(jī)來對(duì)某些極端狀況進(jìn)行評(píng)估,做出裁定。這意味著,盡管智能機(jī)器的能力在不斷提升,人們依然認(rèn)為,人才是協(xié)作中最后做決定的一方。但一個(gè)機(jī)器進(jìn)步論的支持者可能會(huì)提出如下的問題:假如我們已經(jīng)承認(rèn),深度學(xué)習(xí)培養(yǎng)出來的圍棋選手可以在圍棋的計(jì)量上勝過人類(給出更優(yōu)解),那么,深度學(xué)習(xí)培養(yǎng)出來的汽車駕駛系統(tǒng)為何無法在駕駛策略上勝過人類呢?對(duì)此,一種可能的回應(yīng)是,能力上的“勝過”并不代表一種決策的必然正當(dāng)性,人類的實(shí)踐領(lǐng)域會(huì)受到多種要素的影響(比如各種復(fù)雜的價(jià)值觀念),圍棋策略并不能囊括人類實(shí)踐領(lǐng)域的多樣性。筆者的看法是,這樣的一種反駁即使成立,也無法證明任何東西。因?yàn)椋热粑覀兂姓J(rèn)任何能力上的提升都無法帶來更好的決策機(jī)制,達(dá)到更好的決策后果,那么,我們無異于是在說,在人類的生活領(lǐng)域,并沒有一個(gè)更優(yōu)解可以給出:無論機(jī)器還是人,無論是更聰明的機(jī)器還是更聰明的人,都無法做到這一點(diǎn)。
三、嵌入?yún)f(xié)作:一種面向整體任務(wù)的人機(jī)系統(tǒng)與機(jī)器黑箱化的解決可能
如果我們要開創(chuàng)一種人機(jī)協(xié)作的新局面,即一種機(jī)器通過真正具有某種人類認(rèn)可的實(shí)踐智慧,并且在人類面前消除黑箱化的可能威脅,以更大的比重參與到人類目的的實(shí)現(xiàn)中,我們需要重新思考協(xié)作的方式與條件。人機(jī)協(xié)作本質(zhì)上說,是要組成一個(gè)嶄新的“實(shí)體”,或者叫組合體,為人機(jī)之間建立一種類似于人與人的關(guān)系,并且人類一方能夠保證機(jī)器在協(xié)作過程中不會(huì)有不利于人類的目的、功能、決策、行動(dòng)(而機(jī)器尤其是智能機(jī)器的黑箱化往往無法向人類保證這一點(diǎn))。在這其中,協(xié)作的基本要素包括:(1)總體目標(biāo)的設(shè)定;(2)協(xié)作雙方的互動(dòng),且這個(gè)互動(dòng)乃是以總體目標(biāo)為指向的,或者說,是為了幫助對(duì)方更好地實(shí)現(xiàn)目標(biāo);(3)不同的參與者之間構(gòu)成一個(gè)平等或者正常的關(guān)系,使協(xié)作得以有效延續(xù)。
然而,人們可能會(huì)質(zhì)疑的是,機(jī)器會(huì)進(jìn)行“協(xié)作”嗎?協(xié)作首先是作為一種人類之能力被規(guī)定的。在德目表中,善于協(xié)作、具有德性精神被認(rèn)為是一種好的品格,這意味著,如果我們想要讓機(jī)器與我們協(xié)作,我們需要假設(shè)兩點(diǎn):(1)機(jī)器能夠具有一種“德性”;(2)機(jī)器能夠具有“協(xié)作”這樣一種“德性”。問題是,機(jī)器不一定能夠通過第一重測(cè)試,即它不一定具有我們所謂的“德性”。瓦拉赫與艾倫在《道德機(jī)器》中就明確指出,“人們對(duì)他人‘做正確的事的信任,源自于共享的道德情感基礎(chǔ)。對(duì)于人工道德智能體的設(shè)計(jì)者來說,難就難在如何給一個(gè)‘冷冰冰的、無情的機(jī)器去設(shè)置這樣的穩(wěn)定性”。(11) 換句話說,機(jī)器要獲得德性,需要具備某種情感;而當(dāng)前機(jī)器的“無情感性”又被當(dāng)作某種意義的“德性”(好的特征),這顯然是自相矛盾的:要么否定情感作為德性基礎(chǔ)的設(shè)定,要么否定機(jī)器需要一種德性,或者,直接認(rèn)為機(jī)器的“德性”不同于人類的“德性”,而且,這不同性質(zhì)的“德性”之間,還是可以互相協(xié)作的。如果我們認(rèn)同這種協(xié)作,就意味著我們已經(jīng)放棄了讓機(jī)器通過進(jìn)化的方式獲得與我們“類似”之品格的可能。對(duì)此一個(gè)可能的解釋是,我們希望在當(dāng)下能夠快速獲得“協(xié)作”的效用,而不是要實(shí)現(xiàn)對(duì)智能機(jī)器某種“品格”與“德性”的養(yǎng)成:那太花時(shí)間了,太不確定了。因此,機(jī)器具有善于協(xié)作的“德性”目前來看很難被證明。
其次,人機(jī)之間的協(xié)作是否必定預(yù)設(shè)機(jī)器作為一個(gè)“行動(dòng)者”的可能?筆者認(rèn)為,這也并不是人機(jī)協(xié)作的必要條件。相反,機(jī)器的“行動(dòng)者”預(yù)設(shè)往往伴隨著對(duì)此一行動(dòng)者黑箱狀態(tài)的默認(rèn)。因?yàn)椋瑱C(jī)器的“行動(dòng)者預(yù)設(shè)”所指向的人機(jī)協(xié)作關(guān)系對(duì)照的是人與人的協(xié)作關(guān)系,而一個(gè)人類合作者對(duì)于另一個(gè)人類合作者來說有極大的可能是一個(gè)“黑箱”。此外,如我們?cè)诒疚牡诙糠炙赋龅?,人與機(jī)器之間在目的與功能上的差異也使我們?cè)谠噲D將機(jī)器預(yù)設(shè)為“另一個(gè)行動(dòng)者”時(shí)困難重重。所以筆者的看法是,人機(jī)協(xié)作是可行的:這種可行性并不意味著我們需要將機(jī)器理解為一個(gè)對(duì)等的行動(dòng)者,一個(gè)有著明確目的論趨向的情感性存在,或者一個(gè)可能具身化以呈現(xiàn)自身作為一個(gè)統(tǒng)一體的存在。
因此,我們需要構(gòu)思一種新型的人機(jī)協(xié)作模式,筆者將這種新型的協(xié)作模式稱為“嵌入式”的人機(jī)協(xié)作。它有如下幾個(gè)特征:第一,嵌入式的人機(jī)協(xié)作不需要為機(jī)器在協(xié)作過程中是否具有明確的目的而擔(dān)心。因?yàn)榍度氡揪皖A(yù)設(shè)了人類具有一個(gè)關(guān)于自身的明確目的,機(jī)器只是憑著自身的獨(dú)特功能而嵌入到人類實(shí)現(xiàn)自身目的的進(jìn)程中來的,此時(shí),我們不用擔(dān)心機(jī)器會(huì)因著自身的目的而呈現(xiàn)出對(duì)人有威脅的“黑箱化”趨向。第二,嵌入式的人機(jī)協(xié)作能夠解釋并辯護(hù)今天機(jī)器對(duì)于人的深層次介入,其理由是,嵌入式的人機(jī)協(xié)作意味著今天的智能機(jī)器并不會(huì)在協(xié)作過程中成為人自身的“主宰者”與控制者,人并不會(huì)在人機(jī)協(xié)作過程中喪失自主性。第三,嵌入式的人機(jī)協(xié)作為人機(jī)之間的深度融合提供了一個(gè)空間。我們需要明確的是,嵌入式的人機(jī)協(xié)作并不意味著人消失在機(jī)器中(此時(shí)人面對(duì)機(jī)器的黑箱化與不可解釋性無所適從),也不意味著機(jī)器消失在人中(此時(shí)機(jī)器很難基于自身的獨(dú)特功能而真正在人機(jī)協(xié)作中發(fā)揮創(chuàng)造性的作用),它是在承認(rèn)機(jī)器與人在功能與目的有所差異的前提下,通過一種融貫性的整合,重新構(gòu)造出一種以人機(jī)有效協(xié)作為目標(biāo)的整體,機(jī)器的不可解釋性甚至黑箱化趨向會(huì)在此種嶄新的協(xié)作整體中變得不再具有威脅。此時(shí),機(jī)器尤其是智能機(jī)器就像我們自身的器官一樣。我們想象一下,我們的手臂的運(yùn)作機(jī)制可能對(duì)于人來說也是一個(gè)“黑箱”,但由于我們的手臂深度地嵌入到我們作為人的整體結(jié)構(gòu)中,因此,我們并不會(huì)因?yàn)楦悴磺宄覀冏陨硎直鄣倪\(yùn)作機(jī)制而如臨深淵、惶惶不安。
一個(gè)嵌入式人機(jī)協(xié)作的范例是Iyad Rahwan提出的SITL模型(Society-in-the-loop)。按照Rahwan的解釋,這種模型會(huì)產(chǎn)生“一個(gè)可被解釋的系統(tǒng),它能更好地融入嶄新的算法社會(huì)契約,與人類共生存,而不必成為敵對(duì)的關(guān)系”。(12) 換句話說,這種嵌入模型是將社會(huì)契約作為一種“黏合劑”加入到人機(jī)的協(xié)作當(dāng)中去。我們先不討論這一黏合劑是否有效,首先必須承認(rèn)的一點(diǎn)是,對(duì)于一個(gè)異質(zhì)性的各個(gè)要素進(jìn)入其中的協(xié)作系統(tǒng)來說,要實(shí)現(xiàn)一個(gè)良序的運(yùn)轉(zhuǎn),我們確實(shí)需要一種優(yōu)秀的“黏合劑”。而基于SITL模型的人機(jī)協(xié)作模式,將會(huì)要求把社會(huì)整體的價(jià)值觀嵌入到某種智能機(jī)器中,嵌入到某種協(xié)助社會(huì)治理的算法之中。這種嵌入導(dǎo)致的一個(gè)結(jié)果是,我們能夠在價(jià)值觀的意義上對(duì)智能機(jī)器產(chǎn)生一種認(rèn)同,而這種認(rèn)同的建立類似于人體以及人體中的某個(gè)器官對(duì)于另一個(gè)器官的認(rèn)同,從而黑箱化和可能的不透明在嵌入式黏合中不再具有威脅。
一般認(rèn)為,SITL是一種對(duì)于HITL(human in the loop)的替代。按照HITL方案的基本方針,在設(shè)計(jì)出某個(gè)人機(jī)協(xié)作的模型時(shí),我們需要“讓不同的利益相關(guān)者參與設(shè)計(jì)自動(dòng)學(xué)習(xí)系統(tǒng)或者機(jī)器學(xué)習(xí)系統(tǒng)”,從而共同建構(gòu)一個(gè)協(xié)作方案。在HITL方案中,人作為操作者在人機(jī)協(xié)作的建構(gòu)中扮演著決定性的角色,他們負(fù)責(zé)控制機(jī)器、監(jiān)督機(jī)器,同時(shí),他們也承擔(dān)優(yōu)化程序和維持人機(jī)協(xié)作整體的工作。這實(shí)際上是一種較為陳舊的人機(jī)協(xié)作模式。在HITL系統(tǒng)中,人的作用更大,人承擔(dān)的責(zé)任也更多,他們往往就是那個(gè)負(fù)責(zé)任的實(shí)體存在。然而,隨著技術(shù)的進(jìn)步,當(dāng)機(jī)器和智能機(jī)器開始呈現(xiàn)出人所不能夠清晰領(lǐng)會(huì)的諸多特征時(shí),HITL模型的這種運(yùn)作模式將讓人感到越發(fā)乏力,進(jìn)而陷入一種面對(duì)機(jī)器黑箱化的掌控力消失體驗(yàn)。根本上來說,我們必須要承認(rèn),人作為操作者,其實(shí)很難再僅僅憑借自身的力量黏合自身與人工智能機(jī)器之間的關(guān)系。這類似于如下的狀況,我們想為我們自身安裝一只機(jī)械手臂,我們的大腦要求完全清晰地理解這條機(jī)械手臂的運(yùn)作原理,讓這條機(jī)械手臂能夠符合HITL原則,否則,大腦將認(rèn)為這條機(jī)械手臂處于黑箱狀態(tài)而不可認(rèn)知,進(jìn)而排斥機(jī)械手臂與身體的有效協(xié)作。而按照SITL模型,重要的不是讓大腦控制機(jī)械手臂或者理解接受手臂,重要的是將自身的運(yùn)作機(jī)制,比如,大腦控制身體其他器官的機(jī)制與原理嵌入到這條機(jī)械手臂中,使得大腦能夠在發(fā)現(xiàn)機(jī)械手臂已然被嵌入人體工作機(jī)制的前提下,自主地掌控這條機(jī)械手臂。此時(shí),就算大腦完全不理解此條機(jī)械手臂的運(yùn)作原理,它可能依然不會(huì)將其判定為“異物”。
具體來說,SITL實(shí)際上回答了如下一個(gè)問題,如果我們需要在人機(jī)關(guān)系中進(jìn)行價(jià)值與觀念嵌入,那我們需要嵌入到哪里,或者說,這個(gè)嵌入最后會(huì)得到一個(gè)什么東西。SITL的意義在于,通過社會(huì)契約(價(jià)值)的嵌入,人類的責(zé)任擔(dān)當(dāng)不是消失了,某種程度上反而是加強(qiáng)了,人不用再擔(dān)心自身被機(jī)器左右,被機(jī)器吞噬;同時(shí)機(jī)器會(huì)被要求以此種社會(huì)契約(價(jià)值)為自身的導(dǎo)向,因而機(jī)器也不會(huì)再是一種對(duì)于人類責(zé)任的瓦解,機(jī)器的黑箱狀態(tài)不再構(gòu)成人機(jī)協(xié)作的巨大威脅,畢竟,盡管我們確實(shí)應(yīng)當(dāng)更加努力追求黑箱的澄明與透徹,但這是一個(gè)較為漫長的過程,我們完全可以在實(shí)現(xiàn)人機(jī)協(xié)作有效運(yùn)作的前提下來追求澄明與透徹,并且只有在此時(shí),智能機(jī)器的澄明與透徹對(duì)于人來說才是有意義的。
此外,SITL的嵌入模式還能夠解釋我們與機(jī)器之間的責(zé)任關(guān)系,能夠?qū)C(jī)器作為責(zé)任體納入到責(zé)任考量中來。實(shí)際上,當(dāng)我們說在人機(jī)協(xié)作過程中,人和機(jī)器承擔(dān)著某種“共同責(zé)任”時(shí),這種共同責(zé)任其實(shí)是一個(gè)放大了的責(zé)任體,是一個(gè)以人作為行動(dòng)者和責(zé)任承擔(dān)者的責(zé)任結(jié)構(gòu),機(jī)器在其中往往被忽視,或是被理解為制造者的投射。例如,在自動(dòng)駕駛技術(shù)中,共同責(zé)任中的機(jī)器部分指向的就是軟件設(shè)計(jì)者、汽車生產(chǎn)者的責(zé)任。但在SITL的嵌入模式下,我們可以更認(rèn)真地考慮機(jī)器尤其是智能機(jī)器的“責(zé)任”。人機(jī)協(xié)作中的機(jī)器可以被轉(zhuǎn)化為一種具有了設(shè)計(jì)者“實(shí)踐智慧”的機(jī)器,而它的不透明性與黑箱特質(zhì)在此狀況中不會(huì)對(duì)合作者構(gòu)成威脅,原因在于,共同責(zé)任的存在暗示了人與智能機(jī)器(都有“責(zé)任”)雙方都被嵌入了某種社會(huì)契約(價(jià)值)的維度,他們可以在此一維度的基礎(chǔ)上融合成為一個(gè)嶄新的“整體”。
注釋:
(1)(6)(10) [意]盧西亞諾·弗洛里迪:《第四次革命》,王文革譯,浙江人民出版社2016年版,第49、12、37頁。
(2) 我在這個(gè)地方所說的“智能機(jī)器”除了指那些與AI(人工智能)算法相關(guān)的技術(shù),比如某種推薦算法、某個(gè)基于算法的服務(wù)平臺(tái)之外,還包括那些在其運(yùn)作模式中加入了人工智能技術(shù)的機(jī)器,比如無人駕駛汽車等。
(3) 我所謂的黑箱狀態(tài)是指,當(dāng)智能機(jī)器介入我們的現(xiàn)實(shí)生活,它在作出決策建議或者進(jìn)行價(jià)值判斷時(shí),并不會(huì)告知人類參與者它如此做的詳細(xì)理由,或者,它所給出的理由(比如“基于算法”的緣故)是人類參與者所無法清晰理解的。此時(shí),對(duì)于人類參與者來說,機(jī)器就是在一個(gè)“黑箱狀態(tài)”中作出決策建議和進(jìn)行價(jià)值判斷的。Propublica網(wǎng)站的一篇調(diào)查報(bào)告“機(jī)器偏見”,曾聚焦一個(gè)名為Compas的AI系統(tǒng),此系統(tǒng)基于已有的犯罪記錄,嘗試預(yù)測(cè)被告再次被逮捕的概率。結(jié)果是,黑人被告得到更高分?jǐn)?shù)的概率比白人被告多45%。然而,人們?cè)噲D對(duì)此種結(jié)果進(jìn)行解釋時(shí),發(fā)現(xiàn)這個(gè)AI系統(tǒng)得出此種略帶偏見的結(jié)論并沒有一個(gè)合適的理由,也就是說,AI系統(tǒng)只會(huì)告訴探究者,依據(jù)算法得出的結(jié)論就是黑人被告再次被逮捕的概率更高,至于為什么如此,并沒有(對(duì)于機(jī)器來說也不需要)一個(gè)進(jìn)一步的解釋。
(4)(5)(8)(11) [美]溫德爾·瓦拉赫、 [美]科林·艾倫:《道德機(jī)器——如何讓機(jī)器人明辨是非》,王小紅譯,北京大學(xué)出版社2017年版,第99、142、12—13、106頁。
(7) [美]布萊恩·阿瑟:《技術(shù)的本質(zhì)》,曹東溟、王健譯,浙江人民出版社2014年版,第227頁。
(9) 我們或者可以將其稱為智能機(jī)器的“實(shí)踐智慧”,即智能機(jī)器所掌握的如何讓自己所具有的功能與目的契合于人類目的的智慧。
(12) Iyad Rahwa, Society-in-the-Loop: Programming the Algorithmic Social Contract, Ethics and Information Technology, 2018, 20(5), pp.5-14.
作者簡(jiǎn)介:林建武,南開大學(xué)哲學(xué)院副教授,天津,300071。
(責(zé)任編輯 胡 靜)