文/閆宏秀
人工智能倫理研究的本質(zhì)是對(duì)人與技術(shù)關(guān)系的再度厘清與辨析。在人工智能的背景下,人與技術(shù)的關(guān)系是基于某種信任而形成的一種新型深度融合。這種信任是人與人工智能關(guān)系存在的前提條件。但這種信任除了傳統(tǒng)意義上的人際信任之外,還涉及人對(duì)人工智能以及人工智能系統(tǒng)間的信任。關(guān)于這種信任的哲學(xué)考察,可以借助信任的表征——可信任來(lái)進(jìn)行。即通過(guò)可信任來(lái)解碼人與人工智能的關(guān)系,描繪人工智能倫理的未來(lái)圖景。但這種描繪是否有效呢?對(duì)此,本文將從倫理旨趣、存在邏輯、實(shí)現(xiàn)途徑三個(gè)方面,解析可信任人工智能何以可能,以推進(jìn)人工智能向善。
對(duì)人工智能未來(lái)發(fā)展圖景的倫理描繪是人工智能技術(shù)的發(fā)展目標(biāo)與倫理觀念的有機(jī)融合。因此,人工智能的倫理問(wèn)題研究既應(yīng)包括對(duì)現(xiàn)有倫理問(wèn)題的哲學(xué)反思,也應(yīng)涵蓋對(duì)技術(shù)未來(lái)發(fā)展的一種框定。這種反思與框定源自人類對(duì)技術(shù)倫理旨趣的審度。如,歐盟委員會(huì)在其所發(fā)布的“可信任人工智能的倫理框架”中,以追求人性和善、謀求人類福祉和自由的目標(biāo)為導(dǎo)向,對(duì)人工智能信任機(jī)制建立的原則與路徑進(jìn)行了詳細(xì)闡述,進(jìn)而確??尚湃稳斯ぶ悄艿膶?shí)現(xiàn)。因此,該框架的出發(fā)點(diǎn)不是對(duì)人工智能的發(fā)展是否需要倫理進(jìn)行探討,而是指向人工智能需要以何種倫理為框架,以及如何實(shí)現(xiàn)其倫理目標(biāo)。該框架的目標(biāo)主要是為促進(jìn)和確保人工智能的發(fā)展能合乎倫理,并為實(shí)現(xiàn)技術(shù)方面的穩(wěn)健性提供指南。
就可信任而言,吉登斯在其關(guān)于抽象體系中的信任解讀中,將可信任(trustworthiness)分為“建立在彼此熟悉的個(gè)人之間和基于很長(zhǎng)時(shí)間了解,從而互相從對(duì)方的眼中看出可信度證據(jù)的個(gè)人之間”兩類。這兩類主要在于人與人之間,而“可信任人工智能的倫理框架”中所言的可信任已經(jīng)超出上述兩類,將可信任延伸到了技術(shù)之中。這種延伸一方面體現(xiàn)了基于主客體二元對(duì)立的視角,由作為主體的人對(duì)作為客體的技術(shù)所進(jìn)行的信任度預(yù)判;另一方面則體現(xiàn)了新技術(shù)所蘊(yùn)含的能動(dòng)性對(duì)傳統(tǒng)信任產(chǎn)生的條件、語(yǔ)境等的沖擊。依據(jù)弗洛里迪和桑德斯關(guān)于人工道德行動(dòng)者的判別標(biāo)準(zhǔn),面對(duì)諸如自動(dòng)駕駛等對(duì)人類行為所產(chǎn)生的助推、導(dǎo)引,甚至規(guī)約與牽制等現(xiàn)象,人工智能已經(jīng)呈現(xiàn)出行動(dòng)者所應(yīng)具有的諸多特質(zhì),并和人一樣參與到道德的構(gòu)建之中。
反觀該框架所言的“可信任人工智能”,其包括人對(duì)技術(shù)的態(tài)度和技術(shù)本身的可信任兩個(gè)維度。其中,技術(shù)自身的可信任,即技術(shù)的穩(wěn)健性既是獲得人對(duì)其信任的技術(shù)保障,也是人對(duì)其發(fā)展目標(biāo)的預(yù)設(shè)。因此,可信任是人類對(duì)人工智能發(fā)展旨趣的倫理訴求,也是其本身所應(yīng)遵循的倫理原則。
毫無(wú)疑問(wèn),可信任人工智能的構(gòu)建發(fā)端于人對(duì)技術(shù)倫理旨趣的審度,但技術(shù)的能動(dòng)性又將人類的倫理旨趣與技術(shù)自身的發(fā)展邏輯關(guān)聯(lián)在一起。如果說(shuō)卡普的器官投影說(shuō)是將技術(shù)與人之間進(jìn)行了物化層面的關(guān)聯(lián),那么,伴隨新興技術(shù)的涌現(xiàn),這種關(guān)聯(lián)已經(jīng)不僅僅是將人的功能進(jìn)行物質(zhì)性的外化,而是走向了技術(shù)對(duì)人的嵌入式內(nèi)化,并出現(xiàn)了主體客體化與客體主體化的跡象。如果說(shuō)對(duì)技術(shù)價(jià)值中立說(shuō)的質(zhì)疑揭示出了技術(shù)與倫理之間的內(nèi)在關(guān)聯(lián)性,那么,將技術(shù)道德化的嘗試則是基于技術(shù)能動(dòng)性而走向技術(shù)對(duì)倫理的塑型與構(gòu)建;倫理輔助性設(shè)計(jì)的出現(xiàn)則意味著人類的倫理觀念已經(jīng)被嵌入到具體的技術(shù)實(shí)踐之中。
當(dāng)下智能體、深度學(xué)習(xí)、人機(jī)融合等的發(fā)展,使得人類社會(huì)的泛智能化日趨普遍,人與技術(shù)的關(guān)聯(lián)也日趨內(nèi)化。這種內(nèi)化體現(xiàn)為技術(shù)越來(lái)越逼近人的本質(zhì)。在人與技術(shù)共在的語(yǔ)境中,人自身的本質(zhì)與技術(shù)的本質(zhì)進(jìn)行著倫理維度的構(gòu)連。這種構(gòu)連表現(xiàn)為人對(duì)技術(shù)的倫理審視與技術(shù)對(duì)人類倫理觀念的調(diào)節(jié)兩個(gè)方面。但無(wú)論是這種構(gòu)連的哪個(gè)方面,都涉及人對(duì)技術(shù)的信任度。然而,無(wú)條件的懷疑與無(wú)條件的信任一樣都不是人與技術(shù)共同應(yīng)有的合理方式。
對(duì)可信任人工智能的存在邏輯及其合理性的解析,首先需要對(duì)人工智能信任的合理性展開探討。若對(duì)其信任是不合理的,則其可信任性也就無(wú)從談起,可信任人工智能倫理框架的構(gòu)建也將是無(wú)意義的。而對(duì)其信任是否合理的追問(wèn),則需要先對(duì)其何以產(chǎn)生進(jìn)行考察。因?yàn)槿绻麤](méi)有產(chǎn)生信任人工智能的語(yǔ)境,對(duì)其信任的探討也就不存在。
(一)人工智能信任的語(yǔ)境。從產(chǎn)生的維度來(lái)看,傳統(tǒng)意義上的信任是委托者(人)與受托者(人)之間的某種關(guān)聯(lián),其“產(chǎn)生于心理系統(tǒng)和社會(huì)體系影響的交互之中”,是“減少?gòu)?fù)雜性的一種有效方式”。事實(shí)上,信任的產(chǎn)生可以是目標(biāo)導(dǎo)向性的,即A和B有一個(gè)共同的目標(biāo)C,但A和B之間本來(lái)無(wú)信任可言,但鑒于C目標(biāo),A和B產(chǎn)生了某種信任,但這種信任并非是A認(rèn)為B是值得信任的,或者B認(rèn)為A是值得信任的;信任的產(chǎn)生也可以是任務(wù)導(dǎo)向性的,如A需要完成任務(wù),而B有完成任務(wù)C的能力,進(jìn)而產(chǎn)生了A對(duì)B的某種信任,這種信任可以是A對(duì)B具有完成某種能力的信任,也可以是A對(duì)B的整體性信任。但無(wú)論是目標(biāo)導(dǎo)向性還是任務(wù)導(dǎo)向性,信任所表達(dá)的是“一種態(tài)度,相信某人的行為或周圍的秩序符合自己的愿望。它可以表現(xiàn)為三種期待:對(duì)自然與社會(huì)的秩序性、對(duì)合作伙伴承擔(dān)的義務(wù)、對(duì)某角色的技術(shù)能力”。
在智能革命的背景下,人類對(duì)人工智能有所期待,且這些期待伴隨人工智能的發(fā)展已經(jīng)在人類社會(huì)中逐步被現(xiàn)實(shí)化,并呈現(xiàn)出代替人類某些能力的趨勢(shì)。如基于人工智能系統(tǒng)的導(dǎo)航、自動(dòng)識(shí)別、安防等的研發(fā)與應(yīng)用。與此同時(shí),人工智能以人類合作伙伴的形式參與到人類事物中,與人類共同承擔(dān)某種義務(wù),完成某個(gè)任務(wù)。即人類對(duì)其承擔(dān)的義務(wù)有所期待。如基于人工智能系統(tǒng)的兒童看護(hù)、情感交流等的研發(fā)與應(yīng)用等。因此,人工智能與人的深度融合提供了產(chǎn)生信任的語(yǔ)境,但上述這些現(xiàn)象是否可以被稱作是信任呢?
(二)人工智能信任的出場(chǎng)方式及其存在的判別依據(jù)。一般而言,信任的出現(xiàn)需要滿足“(1)行動(dòng)者(agent)之間的直接交互;(2)在交互環(huán)境中,有共同的規(guī)范和倫理價(jià)值觀;(3)參與交互的各個(gè)部分是可以識(shí)別的”這三個(gè)條件。但在新技術(shù)發(fā)展的背景下,非直接交互的信任開始出場(chǎng),如電子信任。因此,應(yīng)重新審視信任存在的判別依據(jù)。塔迪歐在其關(guān)于電子信任的論述中,指出上述三個(gè)條件并不能成為數(shù)字環(huán)境中存在電子信任的障礙。同樣地,依據(jù)上述三個(gè)條件以及對(duì)電子信任的判別,在人工智能的環(huán)境中,人與人工智能之間的交互與在數(shù)據(jù)環(huán)境中一樣,真實(shí)存在卻并非完全直接的物理式,且可識(shí)別;就共同的規(guī)范和倫理價(jià)值觀而言,阿西洛馬人工智能原則、人工智能合作組織原則等都是對(duì)此的響應(yīng)。
因此,通過(guò)對(duì)信任出現(xiàn)條件的解析可得出:人工智能已經(jīng)呈現(xiàn)了基于任務(wù)導(dǎo)向和目標(biāo)導(dǎo)向的信任意蘊(yùn),雖然這與傳統(tǒng)意義上的信任以及電子信任的出現(xiàn)條件有所不同。但無(wú)論如何,當(dāng)人工智能以(準(zhǔn))智能體的形式展現(xiàn)出其完成任務(wù)、實(shí)現(xiàn)目標(biāo)的能力時(shí),毫無(wú)疑問(wèn),一種策略性信任也隨之而至。這種源自人類對(duì)人工智能的期望,以及人類與人工智能的交互之中所產(chǎn)生的某種信任,恰恰也就是吉登斯所言的與知識(shí)體系、專家系統(tǒng)、抽象系統(tǒng)打交道的過(guò)程中所產(chǎn)生的信任。然而,這樣的信任是否合理呢?
(三)反思人工智能可信任存在的合理性。當(dāng)人工智能創(chuàng)建了信任得以產(chǎn)生的可能條件,并在與人類的交互中呈現(xiàn)出某種關(guān)聯(lián)性的信任時(shí),是否就意味著默認(rèn)了技術(shù)信任的合理性?事實(shí)并非一直如此,哲學(xué)一直在對(duì)此展開反思。
伴隨基于技術(shù)啟蒙與技術(shù)理性的現(xiàn)代性,“外界對(duì)科學(xué)和技術(shù)知識(shí)的態(tài)度又具有某種心理。這種矛盾心理居于所有信任關(guān)系——無(wú)論是抽象體系還是對(duì)個(gè)人的信任關(guān)系——的核心”。這種矛盾心理源自人類對(duì)技術(shù)的依賴以及對(duì)這種依賴的反思。然而,從現(xiàn)實(shí)主義的視角來(lái)看,人必須依賴社會(huì)。社會(huì)以協(xié)作、分工、互助這三種方式對(duì)人的缺陷進(jìn)行了補(bǔ)救。在這種補(bǔ)救中,技術(shù)作為人類需要的一種表征進(jìn)入到對(duì)這些需要的緩和之中,并成為人類社會(huì)的一種必備品。因此,無(wú)論人類對(duì)技術(shù)的信任是否合理,技術(shù)已經(jīng)成為人類在世的方式,并參與到了人類的事務(wù)之中。與此同時(shí),對(duì)技術(shù)的某種信任也悄然而至。但這并不意味著技術(shù)必然是可信任的,也并不意味著對(duì)其的信任就是合理的,對(duì)其的哲學(xué)思考是徒然的。恰恰相反,對(duì)實(shí)然問(wèn)題的思考是哲學(xué)的應(yīng)有之義,且對(duì)這種既有現(xiàn)實(shí)的思考是通向應(yīng)然性的一條有效進(jìn)路。但與以往技術(shù)不同的是,人工智能對(duì)人類事物的參與是以可植入的方式進(jìn)入到與人的深度融合之中,其所呈現(xiàn)出的實(shí)然問(wèn)題,與其說(shuō)是亟需展開人類對(duì)技術(shù)信任問(wèn)題反思,倒不如說(shuō)是亟需展開人類對(duì)自身信任問(wèn)題的反思。因?yàn)楫?dāng)我們說(shuō)“可信任人工智能”包括人類對(duì)人工智能的信任和人類對(duì)自身的信任兩個(gè)方面時(shí),事實(shí)上,這兩個(gè)方面歸根到底是人類對(duì)自身所制造產(chǎn)物是否可以有效應(yīng)對(duì)的解答,即關(guān)于可信任人工智能實(shí)現(xiàn)途徑的探討。
在歐盟的“可信任人工智能的倫理框架”中,將信任視為人工智能發(fā)展的前提條件,但這種信任并不是機(jī)器的一種特性。事實(shí)上,信任不僅僅在于人工智能系統(tǒng)是合乎法律的、合乎倫理的和穩(wěn)健的,還在于信任可被歸因到與人工智能全生命周期中相關(guān)的每個(gè)人和每個(gè)過(guò)程。因此,對(duì)人工智能信任的考察應(yīng)當(dāng)走出外在主義的立場(chǎng)與批判主義的情結(jié),走向倫理學(xué)的后思式批判功能與前思式導(dǎo)引功能有效整合,從內(nèi)在主義與外在主義的融合之中,展開對(duì)可信任人工智能實(shí)現(xiàn)途徑探討。
就該框架的構(gòu)建邏輯而言,其依據(jù)概念闡述、路徑解析、判別依據(jù)界定三者之間的遞進(jìn)層級(jí)關(guān)系,闡述可信任人工智能的實(shí)現(xiàn)途徑。其中,該框架關(guān)于可信任人工智能組成部分的厘清、其所需必要條件的闡釋為后續(xù)其構(gòu)建的展開框定了邊界。關(guān)于技術(shù)和非技術(shù)兩個(gè)方面的構(gòu)建路徑解析為如何走向可信任提供了實(shí)踐維度的保障。即通過(guò)技術(shù)維度的可信任與倫理維度的可信任來(lái)確??尚湃稳斯ぶ悄艿膶?shí)現(xiàn)。其中,技術(shù)維度的可信任是倫理維度可信任的基礎(chǔ)與保障,倫理維度的可信任是技術(shù)發(fā)展的主旨與目標(biāo);而關(guān)于可信任人工智能關(guān)鍵條件的解碼則為可信任的判定提供了可供參考的標(biāo)尺。
就該框架所提出的構(gòu)建路徑而言,其所提出的技術(shù)方法和非技術(shù)方法這兩個(gè)維度,與其關(guān)于可信任人工智能組成部分厘清的邏輯一致。上述方法旨在滿足可信任人工智能的七個(gè)必要條件。這七個(gè)必要條件是基于基本權(quán)而產(chǎn)生的人工智能系統(tǒng)倫理框架的倫理律令,即人類自治、不傷害、公平和可解釋性為基礎(chǔ)而提出的。該倫理律令兼顧了通用倫理原則和人類智能倫理的特殊性兩方面。其中,前三項(xiàng)為技術(shù)倫理學(xué)的通用原則,而可解釋性則是直接指向人工智能倫理,并被視為構(gòu)建用戶對(duì)人工智能信任的關(guān)鍵所在。由人工智能系統(tǒng)的不可解釋性所帶來(lái)的不確定性而引發(fā)的焦慮與恐懼,是對(duì)其質(zhì)疑的核心所在。因此,人工智能倫理的構(gòu)建必須對(duì)不可解釋性進(jìn)行解碼。雖然人工智能系統(tǒng)中算法和模型黑箱使得基于其所作出決策的可信任(即信任度)遭遇質(zhì)疑,但這并不意味著其不可解釋。
這種構(gòu)建路徑將可信任置于技術(shù)、設(shè)計(jì)與倫理的調(diào)節(jié)之中,通過(guò)設(shè)計(jì)走向倫理的構(gòu)建。但類似于甘貝特對(duì)我們能否信任的追問(wèn)一樣,我們?cè)撊绾握_看待“可信任人工智能”中的可信任呢?若我們不能正確地看待可信任,則會(huì)降低該框架的實(shí)踐效用。因此,該框架雖然闡述了實(shí)現(xiàn)可信任人工智能的有效方式,卻未指出看待可信任的正確方式。
信任是人類基于相關(guān)倫理規(guī)則,對(duì)不確定性以及風(fēng)險(xiǎn)作出的主觀判斷,是一方對(duì)另一方的態(tài)度。就人工智能而言,這種判斷不是直接發(fā)生在人際之間,而是發(fā)生在人與技術(shù)的交互之中。一般意義上,人與技術(shù)之間的信任可以還原為人與人之間的信任,但這種還原是基于人對(duì)技術(shù)有能力掌控的前提下。因此,可信任人工智能作為人類對(duì)其的一種倫理訴求,與其相對(duì)應(yīng)的是不可信任的人工智能。但可信任人工智能不是走向盲目的信任,也不是將不可信任盲目地遮蔽,而應(yīng)當(dāng)是:
1.基于有效監(jiān)督的可信任。雖然人際之間最理想的信任模式是受托人在委托人不監(jiān)督的情況下完成任務(wù),但人與人工智能之間的信任則恰恰需要有效監(jiān)督,以避免造成對(duì)人類基本權(quán)的傷害。雖然技術(shù)維度的透明性與可解釋性等有助于提升人工智能的信任度,但人類的有效監(jiān)督是人工智能之所以被視為可信任的根源所在,因?yàn)榭尚湃尉科浔举|(zhì)而言,是人類對(duì)其的一種價(jià)值評(píng)判。
2.基于動(dòng)態(tài)視角的可信任??尚湃问腔谌祟悓?duì)人工智能的倫理訴求而對(duì)技術(shù)未來(lái)發(fā)展作出的框定,關(guān)于其判別標(biāo)準(zhǔn)是基于通用倫理原則的框架而制定的,但這些標(biāo)準(zhǔn)并非靜態(tài)的意義完全枚舉,而是動(dòng)態(tài)式的開放體系。因此,應(yīng)當(dāng)基于技術(shù)的發(fā)展與應(yīng)用來(lái)審視可信任的判別標(biāo)準(zhǔn)。
3.基于批判視角的可信任??尚湃伪旧砭褪菍?duì)不可信任、信任以及錯(cuò)誤信任等的批判性思考,進(jìn)而,對(duì)可信任本身也應(yīng)當(dāng)持有審慎的批判態(tài)度,而不是非此即彼式的斷然。特別在人工智能與人機(jī)交互和深融合情境中,不能因技術(shù)的強(qiáng)勢(shì)性、便利性而忽視其風(fēng)險(xiǎn)性以及人的主體性;也不能因其巨大潛能所蘊(yùn)含的不確定性而忽視其給人類社會(huì)所帶來(lái)的益處。因?yàn)榭尚湃伪旧砭桶谕?、焦慮、承諾與風(fēng)險(xiǎn)。
在人工智能與人的合作中,諸如由人工智能對(duì)人類決策行為的多層級(jí)介入,出現(xiàn)了輔助性、導(dǎo)引性,甚至牽制性等多種合作模式,特別是導(dǎo)引性與牽制性的合作模式,帶來(lái)了新的信任問(wèn)題與信任模式,并將信任的邊界不斷拓寬,而這種拓寬亟需人類為其設(shè)定邊界。因此,信任邊界的重新界定,以及人與技術(shù)之間信任的重新解析成為人工智能倫理構(gòu)建研究的新論域。
該框架將可信任作為一種人工智能未來(lái)圖景的倫理描繪,并為人工智能時(shí)代的人與技術(shù)深度融合提供了有效的倫理導(dǎo)引,但其所擱置或排除的問(wèn)題恰恰是人工智能倫理構(gòu)建必須面對(duì)的終極問(wèn)題。即當(dāng)該框架對(duì)信任的邊界進(jìn)行拓寬時(shí),信任邊界的設(shè)定問(wèn)題即該框架的局限性也隨之而來(lái)。
因此,可信任作為人工智能未來(lái)發(fā)展圖景的一種有效描繪,應(yīng)當(dāng)是在厘清信任邊界的前提下,界定其概念的內(nèi)涵與外延,指出可行的構(gòu)建路徑,制定合理且有效的判斷標(biāo)準(zhǔn),并以理性的方式對(duì)待可信任,進(jìn)而確保可信任人工智能的實(shí)現(xiàn)。