文/成素梅
在由科學(xué)技術(shù)驅(qū)動發(fā)展的當(dāng)今社會,基于計算機的技術(shù)與勸導(dǎo)理論的深度融合所研發(fā)出的各類計算產(chǎn)品,正在不斷地裂變出越來越多的生活可能和新突破。這些計算產(chǎn)品由于蘊含了勸導(dǎo)功能,已經(jīng)在教育、運動、游戲、廣告、金融、社交、社會治理、衛(wèi)生保健、電子商務(wù)、環(huán)境保護、疾病管理、平臺管理、個人的自我管理等各行各業(yè)得到了極其廣泛的應(yīng)用,并取得了顯著的社會效果。問題在于,當(dāng)這些應(yīng)用將過去一個人或群體勸導(dǎo)另一個人或群體改變觀念或行為,轉(zhuǎn)化為交互式計算系統(tǒng)勸導(dǎo)人或群體改變態(tài)度或行為的活動時,勸導(dǎo)就從有形變成無形、從顯性變成隱性、從單一行動變成多態(tài)行動,體現(xiàn)出更強大的勸說力和誘導(dǎo)性。與此同時,具有勸導(dǎo)功能的技術(shù)也會產(chǎn)生許多倫理問題并帶來新的倫理挑戰(zhàn)。因此,我們迫切需要強化倫理治理意識,對勸導(dǎo)式技術(shù)的研發(fā)與應(yīng)用過程進行倫理審視。本文通過對勸導(dǎo)式技術(shù)的產(chǎn)生及其內(nèi)涵的簡要闡述,揭示技術(shù)勸導(dǎo)活動所帶來的倫理問題,探討相應(yīng)的治理原則,以求深化我們對人機交互技術(shù)的倫理理解。
“勸導(dǎo)式技術(shù)”是由美國社會科學(xué)家和行為設(shè)計學(xué)的創(chuàng)始人福格在20世紀(jì)90 年代提出的概念,意指能夠影響乃至改變?nèi)说挠^念、態(tài)度、價值或行為的人機交互技術(shù),或者說,能夠影響和引導(dǎo)用戶的觀念、態(tài)度或行為向著設(shè)計者或機構(gòu)所希望的特定目標(biāo)演變的人機交互技術(shù)。在此基礎(chǔ)上形成的“計算機勸導(dǎo)學(xué)”泛指勸導(dǎo)設(shè)計和基于計算機的技術(shù)相互重疊而產(chǎn)生的一個新的跨學(xué)科領(lǐng)域,是對如何使以計算機為基礎(chǔ)的技術(shù)更具有勸導(dǎo)功能,以及如何更有效地改變用戶的態(tài)度或行為的研究。
就勸導(dǎo)的內(nèi)涵而言,勸導(dǎo)意味著受勸者自愿接受,而自愿接受源于人的內(nèi)驅(qū)力。因此,勸導(dǎo)不是強迫、欺騙、洗腦等。福格將勸導(dǎo)定義為:“在沒有任何強迫或欺騙之前提下,改變?nèi)藗兊膽B(tài)度或行為或者兩者的一種企圖?!痹谶@個定義中,勸導(dǎo)式技術(shù)設(shè)計者是本著為用戶著想的善良動機,將勸導(dǎo)意圖嵌入在人機交互的計算產(chǎn)品中,誘導(dǎo)用戶改變其態(tài)度或行為。
然而,從認(rèn)識論意義上來看,這樣的初衷和目標(biāo)潛在地隱含了家長制的思維方式,認(rèn)為用戶普遍缺乏正確選擇和做事的能力,需要被引導(dǎo)、被提醒乃至被管控。從方法論意義上來看,勸導(dǎo)式技術(shù)預(yù)設(shè)了技術(shù)解決主義的世界觀,把運用技術(shù)來解決人的問題作為優(yōu)先選擇或重要途徑。然而,事實上,勸導(dǎo)式技術(shù)并不總是能夠做到客觀、透明、公平、公正等。在實際應(yīng)用中,已經(jīng)出現(xiàn)了種族仇恨、性別歧視、恐怖組織招募、網(wǎng)絡(luò)犯罪、侵犯隱私、加劇社會不公等許多令人擔(dān)憂的社會后果。
這種情況要求我們必須提高警惕,用批判的眼光來認(rèn)真評估勸導(dǎo)式技術(shù)的研發(fā)與應(yīng)用,特別是監(jiān)督與審查智能化決策系統(tǒng)所優(yōu)化或傳播的價值導(dǎo)向,從而引導(dǎo)設(shè)計者和商家將技術(shù)的研發(fā)與應(yīng)用奠基在堅實的倫理基礎(chǔ)之上,防止和避免勸導(dǎo)式技術(shù)的誤用和濫用。這是因為,就現(xiàn)狀而言,絕大多數(shù)相關(guān)利益方都沒有受到過良好的倫理培訓(xùn),更缺乏系統(tǒng)的倫理知識。我們現(xiàn)有的倫理培訓(xùn)和倫理審查只是在與醫(yī)學(xué)相關(guān)的領(lǐng)域內(nèi)進行,在其他技術(shù)的研發(fā)領(lǐng)域內(nèi)幾乎是空白。許多技術(shù)人員依然持有技術(shù)中立論的觀點,認(rèn)為技術(shù)的善惡在于使用者,而不在于發(fā)明者。比如,刀槍的發(fā)明沒有對錯,刀槍的指向才有對錯。
勸導(dǎo)式技術(shù)對這種技術(shù)中立論、理論倫理與應(yīng)用倫理的二分思維方式及其相應(yīng)的概念框架提出了挑戰(zhàn)。因為勸導(dǎo)式技術(shù)產(chǎn)品的勸導(dǎo)是主動的和場景敏感的,勸導(dǎo)意圖的善惡既與研發(fā)者的動機和動用的勸導(dǎo)方法相關(guān),也與算法系統(tǒng)的技術(shù)限制和人機互動過程中的信息交互等路徑因素相關(guān)。比如,成癮或游戲化項目在以自動獎勵等方式來改變用戶的態(tài)度或行為時,就有可能凌駕于人性之上。因此,揭示勸導(dǎo)式技術(shù)有可能導(dǎo)致的倫理問題成為規(guī)范其發(fā)展的必要環(huán)節(jié)。
在由數(shù)據(jù)驅(qū)動、越來越智能化的算法系統(tǒng)所進行的勸導(dǎo)活動中,算法系統(tǒng)的勸導(dǎo)方式變化多端,足以讓沒有專業(yè)知識的用戶應(yīng)接不暇;算法系統(tǒng)的勸導(dǎo)意圖經(jīng)久不衰,足以促使用戶產(chǎn)生情感共鳴;算法系統(tǒng)的勸導(dǎo)過程隨機應(yīng)變,能夠以潤物細無聲的方式潛在地引導(dǎo)用戶的選擇。問題在于,勸導(dǎo)式技術(shù)的這些優(yōu)勢同時也會帶來下列倫理問題:
首先,技術(shù)勸導(dǎo)有可能變相地掩蓋勸導(dǎo)意圖。在人機交互系統(tǒng)中,執(zhí)行勸導(dǎo)任務(wù)的計算產(chǎn)品既是方法,也是方法的執(zhí)行者。這種雙重身份使得它們既可以借助圖形、音頻、視頻、動畫、仿真模型、超鏈接等形式產(chǎn)生協(xié)同效應(yīng),來獲得最佳勸導(dǎo)效果,也可以利用技術(shù)本身的新穎性和復(fù)雜性來掩蓋其真實的勸導(dǎo)意圖和分散用戶的注意力,使用戶在沒有仔細審核內(nèi)容的情況下接受信息,甚至以默認(rèn)設(shè)置的形式迫使用戶必須接受預(yù)定選項。
其次,技術(shù)勸導(dǎo)有可能潛在地限定用戶的自由選擇權(quán)。在人機交互系統(tǒng)中,計算產(chǎn)品控制著互動方式的展開,用戶只有選擇是否繼續(xù)進行交互的權(quán)力,而沒有要求系統(tǒng)做出澄清或解釋的權(quán)力。技術(shù)勸導(dǎo)在應(yīng)用于一個人時,勸導(dǎo)的成功與否,不是取決于這個人的理性和邏輯推理能力,而是取決于引導(dǎo)其情緒。勸導(dǎo)式技術(shù)在應(yīng)用于“集體”情境和市場時,個人行為不再是自主選擇的結(jié)果,而是成為被“構(gòu)造”的結(jié)果。
再次,技術(shù)勸導(dǎo)有可能使“成癮”成為新的“鴉片”。內(nèi)嵌有勸導(dǎo)功能的數(shù)字環(huán)境,不僅能夠根據(jù)用戶留下的數(shù)字行為特征來自動調(diào)整系統(tǒng)的互動行為,而且廢除了物質(zhì)是被動的和精神是主動的二分觀念,將用戶置于被“解讀”與被“投喂”狀態(tài)。特別是對于沖動等情緒的控制還處于發(fā)育期的少年兒童來說,他們在數(shù)字環(huán)境中癡迷或成癮,不再是意志薄弱或自我放縱的結(jié)果,而是由于勸導(dǎo)式技術(shù)的設(shè)計者利用了兒童的心理脆弱性所造成的,這很有可能將兒童的身心健康置于危險的境地。
最后,算法系統(tǒng)的情感暗示有可能會使人處于不利地位。在人機交互的勸導(dǎo)過程中,當(dāng)算法系統(tǒng)具有了情境感知力時,它們所提供的情感暗示會影響人,但不會產(chǎn)生真實的情感共鳴。這種不對等關(guān)系有可能使人處于不利地位。目前,機器的情感表達是人機交互的道德灰色區(qū)域,迫切需要對其進行系統(tǒng)的倫理學(xué)研究。
在實踐過程中,有效避免產(chǎn)生倫理問題的方式之一是前瞻性地對勸導(dǎo)式技術(shù)產(chǎn)品的設(shè)計意圖、運用的勸導(dǎo)方法、預(yù)期得到的社會結(jié)果,以及產(chǎn)品在應(yīng)用中能夠被合理地預(yù)見到的意外結(jié)果等各個方面進行倫理審查。從勸導(dǎo)倫理和技術(shù)倫理(特別是計算機倫理)的視域來看,勸導(dǎo)式技術(shù)的設(shè)計應(yīng)用應(yīng)該遵守下列四項倫理原則:
其一,雙重隱私原則,意指勸導(dǎo)式技術(shù)的創(chuàng)造者必須至少確保像尊重自己的隱私一樣尊重用戶的隱私。通過勸導(dǎo)式技術(shù)將用戶的個人信息傳遞給第三方時,需要對隱私保護措施進行嚴(yán)格審查。因為勸導(dǎo)式技術(shù)能夠通過互聯(lián)網(wǎng)等收集用戶的信息,并且能夠利用其目標(biāo)用戶的信息更有針對性地勸導(dǎo)。由此,創(chuàng)造者在設(shè)計收集和操縱用戶信息的勸導(dǎo)技術(shù)時,有必要遵守雙重隱私原則。
其二,公開揭示原則,意指勸導(dǎo)式技術(shù)的創(chuàng)造性應(yīng)該公開其動機、方法和預(yù)期結(jié)果,除非這樣的公開會嚴(yán)重破壞其他道德目標(biāo)。因為創(chuàng)造勸導(dǎo)式技術(shù)背后所隱藏的動機必須是符合道德規(guī)范的。勸導(dǎo)式技術(shù)可預(yù)見的所有結(jié)果,在任何時候都不應(yīng)該是不道德的,即使是在沒有技術(shù)的前提下進行勸說,或者,即使所發(fā)生的結(jié)果與勸說本身無關(guān)。勸導(dǎo)式技術(shù)的創(chuàng)造者必須考慮到,要為其產(chǎn)品在實際應(yīng)用中能夠合理地預(yù)計到的后果承擔(dān)責(zé)任。
其三,準(zhǔn)確性原則,意指勸導(dǎo)式技術(shù)一定不能為了達到其勸導(dǎo)目標(biāo)而提供錯誤信息。普通用戶一般都會期待技術(shù)是可靠的和誠信的,他們在實際運用技術(shù)產(chǎn)品的過程中,對技術(shù)的欺騙性并沒有天生的覺察能力,所以,為了確保計算產(chǎn)品的可信性和避免濫用,勸導(dǎo)式技術(shù)的創(chuàng)造必須遵守準(zhǔn)確性原則。
其四,勸導(dǎo)的黃金原則,意指勸導(dǎo)式技術(shù)的創(chuàng)造者絕對不應(yīng)該力圖使人們相信連創(chuàng)造者自己都不同意的那些事情。這也是羅爾斯在他的《正義論》一書中考慮“無知之幕”背后的倫理問題所支持的黃金法則。
這四項設(shè)計原則既是研發(fā)與應(yīng)用勸導(dǎo)式技術(shù)產(chǎn)品的底線原則,也是對整個過程進行倫理審查的基本原則。
勸導(dǎo)式技術(shù)的創(chuàng)造者所遵守的倫理原則只是針對計算產(chǎn)品的設(shè)計和應(yīng)用而言的,沒有涉及具體的技術(shù)細節(jié)問題。實際上,創(chuàng)造者在研發(fā)由數(shù)據(jù)驅(qū)動的算法系統(tǒng)時,不可避免地蘊含著三種偏置:一是作為設(shè)計者背景認(rèn)知的社會文化和風(fēng)俗習(xí)慣所帶來的既存偏置;二是算法系統(tǒng)在訓(xùn)練時由于數(shù)據(jù)的不完整所帶來的數(shù)據(jù)偏置;三是算法系統(tǒng)在人機互動過程中所涌現(xiàn)出來的新生偏置。這是由當(dāng)前運用的機器學(xué)習(xí)算法的基本特征所帶來的。
算法系統(tǒng)的這三大偏置以及計算產(chǎn)品功能的特殊性,使得勸導(dǎo)式技術(shù)帶來了在原有的倫理概念框架內(nèi)或根據(jù)原有的思維方式無法解決的倫理挑戰(zhàn),其中,最明顯的倫理挑戰(zhàn)是“責(zé)任歸屬問題”。勸導(dǎo)式技術(shù)系統(tǒng)是介于設(shè)計者與用戶之間的技術(shù)系統(tǒng),這個系統(tǒng)的復(fù)雜性與相互關(guān)聯(lián)的居間性使得傳統(tǒng)的責(zé)任追溯方式變得困難起來,導(dǎo)致下列四種形式的“歸責(zé)困境”:
其一,歸責(zé)的因果關(guān)系困境。人機交互計算產(chǎn)品的開發(fā)與應(yīng)用涉及多重道德能動者之間的協(xié)作與配合,比如,科學(xué)家、工程師、設(shè)計師、訓(xùn)練師、評估者、決策者、管理者以及監(jiān)管者等形式多樣而分散的實驗小組。硬件與軟件生產(chǎn)都是在公司設(shè)置中進行的,沒有一個能動者能夠?qū)λ械难邪l(fā)決策負(fù)責(zé),通常是多個工程小組分別研制整個計算系統(tǒng)的不同模塊。在這種情況下,如果造成損害,在這些相互關(guān)聯(lián)的多重小組之間找出真正的道德責(zé)任承擔(dān)者不再是一件容易的事情。
其二,歸責(zé)的系統(tǒng)“漏洞”困境。由數(shù)據(jù)驅(qū)動的算法系統(tǒng)必然依賴于關(guān)于現(xiàn)象的某種抽象程度的具體假設(shè),算法的統(tǒng)計本性和訓(xùn)練數(shù)據(jù)的不完整性會導(dǎo)致計算系統(tǒng)出現(xiàn)錯誤分類、統(tǒng)計誤差和不確定的結(jié)果等。當(dāng)機器學(xué)習(xí)專家把這些“漏洞”說成是機器學(xué)習(xí)的基本特征時,開發(fā)者就有可能將由此造成的損害歸因于算法系統(tǒng)的“漏洞”。這樣,算法系統(tǒng)的統(tǒng)計性有可能成為道德能動者推卸責(zé)任的借口,導(dǎo)致用戶不得不被動地承擔(dān)由此造成的損失。這種現(xiàn)象意味著在技術(shù)提供方和用戶之間簽定了一份無形的“不平等條約”。
其三,免責(zé)的所有權(quán)困境。所有權(quán)與責(zé)任是倫理學(xué)和法學(xué)概念,歷史悠久,意義豐富。但計算機行業(yè)的趨勢是強化產(chǎn)權(quán)而回避責(zé)任。比如,軟件版權(quán)授權(quán)采用的拆封許可和點選許可中所設(shè)立的霸王條款;各類APP等服務(wù)條款中的免責(zé)聲明;以商業(yè)機密為理拒絕接受審查;信息物理系統(tǒng)的制造商很可能將責(zé)任轉(zhuǎn)嫁給人機回圈等。這些免責(zé)的所有權(quán)意識或問責(zé)文化的弱化趨勢,賦予技術(shù)公司對規(guī)則的優(yōu)先支配權(quán),將用戶的損害視作是運氣不佳,從而帶來新的社會問題。
其四,歸責(zé)的人造能動者困境。隨著算法的智能化程度的提高,計算系統(tǒng)具有了類似于人的行動能力,體現(xiàn)出人格化的傾向。但計算系統(tǒng)具有行動能力并不意味著本身能夠成為像人一樣的道德能動者。如果我們依然在原有的問責(zé)框架內(nèi),把技術(shù)過程視為類似于人的認(rèn)知活動,讓技術(shù)來承擔(dān)責(zé)任,那么,問責(zé)就會被降格為追溯產(chǎn)品質(zhì)量的優(yōu)劣,而不再是與道德責(zé)任相關(guān)的規(guī)范性概念。
擺脫這四種歸責(zé)困境的思路或許是,超越只限于在道德能動者之間分配責(zé)任或?qū)ふ乙蚬P(guān)系的傳統(tǒng)思維方式,拓展責(zé)任概念的語義和語用范圍,提出新的倫理框架,重塑與勸導(dǎo)式技術(shù)發(fā)展相適應(yīng)的思維方式,建構(gòu)免責(zé)的賠償機制,即將物質(zhì)系統(tǒng)所要承擔(dān)的責(zé)任與應(yīng)該受到的懲罰區(qū)分開來,探索為每個復(fù)雜的智能系統(tǒng)籌建賠償資金池及其合法使用機制等。當(dāng)然,這里主張由物質(zhì)系統(tǒng)來承擔(dān)責(zé)任,既不是將責(zé)任轉(zhuǎn)嫁給物質(zhì)系統(tǒng)來規(guī)避相關(guān)人員的責(zé)任,也不是主張懲罰物質(zhì)系統(tǒng),而是呼吁提出一種有效機制,在責(zé)任難以認(rèn)定的情況下,使受害者能夠獲得相應(yīng)的資金賠償。
綜上所述,勸導(dǎo)式技術(shù)的勸導(dǎo)功能是建立在智能系統(tǒng)具有的自動化決策能力基礎(chǔ)上的。用戶喜歡采納自動化決策的原因之一是,他們普遍認(rèn)為,自動化決策是建立在海量數(shù)據(jù)基礎(chǔ)上的,不僅比人類的決策更迅速更可靠,而且能夠提供超越人類想象力的決策建議。然而,這種認(rèn)知忽視了算法系統(tǒng)特有的偏置和不確定性有可能帶來的決策失誤。因此,道德能動者在設(shè)計技術(shù)勸導(dǎo)產(chǎn)品時,既需要呈現(xiàn)知情同意的選擇標(biāo)志,確保算法系統(tǒng)的勸導(dǎo)意圖、勸導(dǎo)方式以及社會結(jié)果與公認(rèn)價值保持一致,與用戶利益保持一致,以及尊重用戶的自主性,也需要自覺地加強倫理意識和人文教育,統(tǒng)籌安全與發(fā)展的關(guān)系。倫理學(xué)家需要從建構(gòu)追溯相關(guān)責(zé)任人的倫理框架,拓展到建構(gòu)涵蓋智能化的物質(zhì)系統(tǒng)在內(nèi)的倫理框架,從當(dāng)前強調(diào)被動負(fù)責(zé)任的技術(shù)倫理轉(zhuǎn)向積極擔(dān)當(dāng)?shù)募夹g(shù)倫理。法學(xué)家需要系統(tǒng)地探討智能化的算法系統(tǒng)或智能機器是否具有法律主體資格等問題。監(jiān)管部門則需要探索對勸導(dǎo)式技術(shù)全過程的倫理審查機制,來確保智能化社會的健康運行。