■ 耿曉夢 喻國明
隨著大數(shù)據(jù)技術(shù)的發(fā)展、計算能力的提升與深度學(xué)習(xí)算法的成熟,人工智能迎來了又一次的發(fā)展浪潮。從自動駕駛、醫(yī)療機(jī)器人到語音識別、人臉識別,基于深度學(xué)習(xí)的人工智能應(yīng)用在不斷深入。資本紛紛布局人工智能,產(chǎn)業(yè)規(guī)模迅速擴(kuò)張,與此同時,倫理研究也在跟進(jìn)人工智能技術(shù)的發(fā)展。
目前,人工智能技術(shù)已經(jīng)滲透至新聞生產(chǎn)傳播的各個環(huán)節(jié),如算法資訊分發(fā)、機(jī)器人消息寫作等,媒體正在向智能化方向發(fā)展。同樣,人工智能技術(shù)在媒體應(yīng)用中帶來的倫理問題也引起了關(guān)注。本文將從當(dāng)下智能媒體的技術(shù)現(xiàn)實出發(fā),分析智能媒體倫理適用的架構(gòu),從目的—手段的基本邏輯出發(fā)給出智能媒體倫理調(diào)適的價值目標(biāo)和現(xiàn)實路徑。
對技術(shù)倫理的準(zhǔn)確把握建立在正確認(rèn)知技術(shù)發(fā)展的現(xiàn)實情況的基礎(chǔ)之上。探討智能媒體倫理問題需要首先厘清智能媒體的技術(shù)現(xiàn)狀。
計算機(jī)領(lǐng)域的學(xué)者們較為普遍地認(rèn)為人工智能技術(shù)是計算機(jī)科學(xué)的一個分支,是研究模擬、延伸和拓展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的新技術(shù)科學(xué)。①學(xué)者們通常在不同的技術(shù)層次上討論人工智能。
通用人工智能(Artificial General Intelligence,AGI),又稱強(qiáng)人工智能,指可模擬人腦思維和實現(xiàn)人類所有認(rèn)知功能的人工智能,它本身擁有思維,真正有自主意識并且可以確證其主體資格,是有自我意識、自主學(xué)習(xí)、自主決策能力的自主性智能體。這里的“強(qiáng)”主要指的是超越工具型智能而達(dá)到第一人稱主體。當(dāng)強(qiáng)人工智能發(fā)展至其在普遍領(lǐng)域的認(rèn)知均遠(yuǎn)超人類時,就成為超人工智能(Artificial Superintelligence)。波斯特姆(Nick Bostrom)在《超級智能:途徑、危險與戰(zhàn)略》一書中使用“超級智能”來描述機(jī)器智能爆發(fā)后的狀態(tài)。②目前強(qiáng)人工智能研究還基本停留在設(shè)想階段。
狹義人工智能(Artificial Narrow Intelligence,ANI),又稱弱人工智能,主要是指執(zhí)行人為其設(shè)定的任務(wù)的人工智能,它模擬人類智能解決各種問題,是不具有自由意志與道德意識的非自主性智能體。當(dāng)前可實現(xiàn)的人工智能主要是弱人工智能,如自然語言理解、機(jī)器視覺、專家系統(tǒng)、虹膜識別、自動駕駛等。
智能媒體利用人工智能技術(shù)改造新聞生產(chǎn)傳播業(yè)務(wù)鏈條,執(zhí)行新聞線索獲取、新聞寫作編輯、新聞事實審核、新聞分發(fā)推送等特定任務(wù),使媒體能夠看似智能地行動。
斯坦福大學(xué)人工智能與倫理學(xué)教授杰瑞·卡普蘭(Jerry Kaplan)將當(dāng)下的人工智能應(yīng)用實踐總結(jié)為合成智能(Synthetic Intellects)和人造勞動者(Forge Iabors)兩個方向。③智能媒體在這兩個方向上都有所體現(xiàn)。
合成智能是數(shù)據(jù)挖掘與認(rèn)知計算等相關(guān)技術(shù)的集成,即用計算機(jī)軟件和智能算法自動處理分析各類數(shù)據(jù),智能辨識、洞察和預(yù)測,以獲取知識和形成決策。合成智能的使用在媒體實踐中已比較普遍,如通過對用戶網(wǎng)絡(luò)搜索、閱讀偏好等數(shù)據(jù)的分析、挖掘與聚合,對用戶特征進(jìn)行數(shù)字畫像,從中找出有價值的特征,匹配此特征進(jìn)行資訊分發(fā)、廣告推送等。還有不少媒體嘗試引入智能內(nèi)容審核平臺,即基于大數(shù)據(jù)分析,依托自然語言處理、語音轉(zhuǎn)寫、圖像識別等關(guān)鍵技術(shù),建立內(nèi)容過濾平臺,對圖文音視等不同內(nèi)容審核過濾。
人造勞動者是可以模仿或代替人完成特定任務(wù)的自動執(zhí)行系統(tǒng),它同樣是由數(shù)據(jù)驅(qū)動的,其關(guān)鍵在于對數(shù)據(jù)的采集、處理和控制。智能媒體中的人造勞動者表現(xiàn)為機(jī)器人新聞,它們一般按照預(yù)先編好的程序工作,機(jī)器人寫作是通過軟件整理數(shù)據(jù)事實,遵循常用的報道模版,批量生產(chǎn)出有限類別的短新聞。
無論是精準(zhǔn)分發(fā)、智能內(nèi)容審核還是機(jī)器人新聞,都是由數(shù)據(jù)驅(qū)動的媒體智能,智能媒體功能的實現(xiàn)是借助軟件編寫的算法對數(shù)據(jù)的自動認(rèn)知。因此,可以說,智能算法是智能媒體的功能內(nèi)核與技術(shù)本質(zhì)。
以算法為內(nèi)核的數(shù)據(jù)驅(qū)動的智能媒體仍是一種工具,屬于弱人工智能,智能媒體是有限自主的智能體。
一方面,智能媒體的智能程度有限。首先,智能媒體是尚不具備人類智能的通用性,缺乏人的思辨能力、創(chuàng)造能力和情感表達(dá)能力。以機(jī)器新聞寫作為例,其內(nèi)容通常是簡單信息的組合,缺少深度思考和人文關(guān)懷,形式多套用既有模版,所以機(jī)器新聞寫作更多地應(yīng)用于體育賽事、財經(jīng)資訊等高數(shù)據(jù)密度、低語境的新聞報道,鮮少涉及事實調(diào)查報道與新聞評論。其次,智能媒體仍無法超越算法。目前數(shù)據(jù)驅(qū)動的智能媒體所使用的方法本質(zhì)上屬于分類、歸納、試錯等經(jīng)驗與反饋方法,方法論上并無根本突破,高度依賴于已有經(jīng)驗和人對數(shù)據(jù)的標(biāo)注,主要適用于認(rèn)知對象及環(huán)境與過去高度相似或接近的情況,其理解和預(yù)測的有效性依賴于經(jīng)驗的相對穩(wěn)定性,應(yīng)對條件變化的抗干擾能力較為有限。以智能內(nèi)容審核為例,自動審核過濾的基礎(chǔ)是一定數(shù)量的內(nèi)容標(biāo)簽,即需要人工對數(shù)據(jù)進(jìn)行標(biāo)注以“投喂”機(jī)器進(jìn)行學(xué)習(xí)。
另一方面,智能媒體有一定的自主性。首先,智能媒體可在一定條件下實現(xiàn)有限度的自動認(rèn)知、決策和行動功能;其次,隨著智能媒體的技術(shù)提升,人們可能賦予智能體更多的決策權(quán),“技術(shù)黑箱”可能存在,即使是智能媒體的設(shè)計開發(fā)者或許也不能完全理解機(jī)器的自主執(zhí)行過程;最后,智能媒體具有一定的交互性。雖然所謂的人機(jī)互動更多的是功能模擬而非實際發(fā)生的溝通,但人們?nèi)詴谝欢ǔ潭壬蠈⒅悄苊襟w想像成類人主體,對其投射一定的情感,甚至可能產(chǎn)生心理依賴。新華社機(jī)器新聞生產(chǎn)系統(tǒng)被命名為“快筆小新”、今日頭條的寫稿機(jī)器人名叫“張小明”等,通過人格化的稱謂顯示出一定程度的情感需求。
歷史上幾乎每一次重大技術(shù)創(chuàng)新都會帶來風(fēng)險和挑戰(zhàn),人工智能也不例外。智能媒體正在不斷推進(jìn)和實現(xiàn),可能會挑戰(zhàn)傳統(tǒng)道德規(guī)范、法律甚至社會制度。關(guān)注智能媒體的倫理問題,是為了對大規(guī)模風(fēng)險和威脅防患于未然,也是為了引導(dǎo)技術(shù)力量,使智能媒體更為友善。
弱人工智能與強(qiáng)人工智能之間,存在是否具有自主意志與道德意識的不同,必須在認(rèn)清本有界限的基礎(chǔ)上分別制定對應(yīng)的倫理規(guī)則。因此,人工智能倫理的討論首先需要區(qū)別作為一般性技術(shù)倫理和作為特殊技術(shù)倫理的問題。
作為一般性技術(shù)倫理問題的人工智能倫理,是幾乎所有技術(shù)都面臨的技術(shù)設(shè)計和使用層面上的一般性倫理問題,是一般工程倫理,同時適用于弱人工智能和強(qiáng)人工智能;而作為特殊性技術(shù)倫理問題的人工智能倫理,更適用于強(qiáng)人工智能即自主性智能體。
如果從機(jī)器人技術(shù)這一特定視角切入人工智能倫理,上述兩種技術(shù)倫理大致可以對應(yīng)機(jī)器人倫理研究(roboethics)和機(jī)器倫理研究(machine ethics)。機(jī)器人倫理學(xué)將人工智能視為一般技術(shù)進(jìn)行倫理審視,是對與機(jī)器人相關(guān)的人類主體進(jìn)行規(guī)范性約束,也就是說實際上是機(jī)器人的設(shè)計者、制造者、編程者和使用者的人類倫理,而非機(jī)器人自身的倫理,指向人工智能體的外在倫理規(guī)范問題。而機(jī)器倫理學(xué)則關(guān)注如何讓具有人工智能的機(jī)器具有倫理屬性,強(qiáng)調(diào)在機(jī)器中嵌入符合倫理原則的相關(guān)程序,使其自身做出倫理決策或為使用者提供倫理幫助,是一種內(nèi)在于機(jī)器本身的倫理。④
可以看出,人工智能的一般工程倫理與作為特殊技術(shù)的倫理是兩種截然不同的倫理架構(gòu)。兩種倫理架構(gòu)的根本差異在于對人工智能能否以第一人格主體成為道德倫理能動者這一爭議問題的回答。鑒于實踐中人工智能未獲得獨立意識、未發(fā)展成為道德倫理能動者的現(xiàn)實,一般工程倫理仍將與設(shè)計開發(fā)使用人工智能相關(guān)的人視為倫理問題的能動者,從工程倫理、專業(yè)倫理等維度探討相關(guān)主體的行為規(guī)范、責(zé)任分配、權(quán)利權(quán)益等問題,是基于現(xiàn)實性的以人為中心的倫理架構(gòu)。作為特殊技術(shù)的倫理,其邏輯立足點是具有道德判斷和倫理行為能力的智能體可能存在,這是人工智能可以成為道德倫理能動者的前提,是基于可能性的以智能體為中心的倫理架構(gòu)。⑤而目前,這一前提顯然并不存在。因此,作為有限自主的智能體,智能媒體適用的倫理架構(gòu)顯然是一般工程倫理。
計算機(jī)倫理學(xué)創(chuàng)始人摩爾根據(jù)智能體可能具有的價值與倫理影響力將智能體分為四類:有倫理影響的智能體(ethical impact agents)、隱含的倫理智能體(implicit ethical agents)、明確的倫理智能體(explicit ethical agents)、完全的倫理智能體(full ethical agents),也就是倫理影響者、倫理行動者、倫理施動者和倫理完滿者。⑥當(dāng)下的智能媒體無論如何深度學(xué)習(xí)以進(jìn)行自我改善,都不存在自主的道德意識和倫理行為,仍屬于有倫理影響的智能體,只有在極少數(shù)的前沿實驗的智能體勉強(qiáng)算是倫理行動者——設(shè)計者將價值與倫理考量提前嵌入算法程序中,在遇到預(yù)先設(shè)定的問題時自動執(zhí)行。倫理施動者目前還僅是理論探討的假設(shè),倫理完美者則屬科幻。
就現(xiàn)實發(fā)展而言,從智能媒體的價值負(fù)載來看,智能媒體呈現(xiàn)的風(fēng)險與威脅沒有跳出人與人之間的關(guān)系,沒有超越人類已經(jīng)面對過的控制與反控制危機(jī)。一方面,數(shù)據(jù)選取、算法設(shè)計與認(rèn)知決策并非完全客觀,相關(guān)主體的利益不可避免地影響著問題定義與解決方案的選擇;另一方面,智能媒體的功能實現(xiàn)大多需要人機(jī)協(xié)同,數(shù)據(jù)對事實與意義的投射需要借助人的標(biāo)注,相關(guān)主體的價值選擇必然滲透其中。以視頻內(nèi)容的智能審核為例,人工標(biāo)注的數(shù)據(jù)是機(jī)器深度學(xué)習(xí)的重要資源,過濾準(zhǔn)確率的關(guān)鍵在于將人的經(jīng)驗通過人工標(biāo)注融入數(shù)據(jù)之中。因此,業(yè)界的“有多少人工,就有多少智能”的說法是非常中肯的。
可以說,智能媒體帶來的風(fēng)險與危機(jī)仍屬于常規(guī)性問題,與一系列技術(shù)推進(jìn)所遭遇的倫理困境并無實質(zhì)上差異,指向的都是如何避免少數(shù)人掌控技術(shù)后以更便捷、更隱蔽的手段損害他人權(quán)益的問題。
以控制與反控制的一般工程倫理為本質(zhì),智能媒體的常規(guī)性倫理危機(jī)在實踐中有多種具象呈現(xiàn),集中表現(xiàn)為偏見問題、隱私問題、算法設(shè)定認(rèn)知問題等。
偏見問題。智能媒體以“大數(shù)據(jù)+深度學(xué)習(xí)+超級計算”為基本模式,數(shù)據(jù)的質(zhì)量和隱含的信息決定了深度學(xué)習(xí)和超級計算得到的結(jié)果可能存在偏頗,甚至產(chǎn)生“算法歧視”。當(dāng)人向智能體提供了帶有偏見和歧視的數(shù)據(jù)時,智能新聞生產(chǎn)和智能新聞分發(fā)也會帶著這種偏見和歧視。⑦在大部分缺少機(jī)器新聞理性認(rèn)知的受眾看來,機(jī)器生產(chǎn)與機(jī)器篩選更加客觀,因此有偏見的機(jī)器新聞可能會比有偏見的人工新聞產(chǎn)生更大的危害。
隱私問題。智能媒體時代,信息采集的范圍更加廣闊,方式更加隱蔽。從新聞線索自動采集、新聞信息機(jī)器寫作到新聞資訊精準(zhǔn)分發(fā),都依托于海量數(shù)據(jù)的搜集與分析,很容易產(chǎn)生數(shù)據(jù)泄露問題。應(yīng)用于個人的傳感器在進(jìn)行線索采集時監(jiān)測著人的各種行為并形成數(shù)據(jù)記錄,存在個人數(shù)據(jù)非法收集、過度分析的危險;資訊的精準(zhǔn)分發(fā)建立在隱私被讓渡的基礎(chǔ)上,對個人基本信息和閱讀偏好的數(shù)據(jù)挖掘在一定程度上形成了對公民隱私權(quán)的侵犯。
算法設(shè)定認(rèn)知問題。智能媒體中存在一種新的控制權(quán)力,即智能權(quán)力或者說是算法權(quán)力,具有精準(zhǔn)的認(rèn)知與操控力。智能媒體的精準(zhǔn)分發(fā)通過算法,篩選出受眾可能感興趣的新聞并將其推送給受眾,看似滿足了受眾的信息需求,實際上限制了受眾的信息接收,忽略了真實世界的多元性,造成信息的窄化,這就是常被提起的“信息繭房”。⑧在智能媒體創(chuàng)造的擬態(tài)環(huán)境中,信息被算法框定,人的認(rèn)知被算法設(shè)定,其可被理解為是需求滿足意義上的一種隱性“欺騙”。
智能媒體面臨的潛在倫理威脅不會自動消亡,對倫理危機(jī)進(jìn)行調(diào)適成為智能媒體倫理共識的題中應(yīng)有之義。處理倫理挑戰(zhàn)應(yīng)以何種價值選擇為方向?又應(yīng)該遵循怎樣的解決思路?對上述兩個問題的回答是把握智能媒體倫理調(diào)適目的與手段的關(guān)鍵。下面本文將以目標(biāo)—手段為基本邏輯,從價值目標(biāo)和現(xiàn)實路徑兩方面解讀智能媒體倫理調(diào)適的進(jìn)路。
現(xiàn)階段探討智能媒體的倫理調(diào)適,旨在保證優(yōu)先發(fā)展造福人類的智能體,避免設(shè)計開發(fā)出不符合人類價值和利益的智能媒體。在這一大方向下,需要進(jìn)一步明確使智能媒體的發(fā)展更符合人類福祉和公眾利益所應(yīng)該具有的價值目標(biāo)?;趯χ悄苊襟w倫理困境實質(zhì)與具象表現(xiàn)的分析研判,智能媒體進(jìn)行倫理調(diào)適的主要價值訴求有公正性、透明度、可理解和可追責(zé)等。
追求算法決策的公正性。在信息日益不對稱的時代背景下,若對智能新聞生產(chǎn)與傳播中的算法決策持放任態(tài)度,很有可能制造、放大各種偏見與歧視。為了防范算法權(quán)力的誤用、濫用,可以對數(shù)據(jù)和算法程序施加“審計”?;舅悸肥菑闹悄苄侣勆a(chǎn)傳播的結(jié)果及影響中的不公平切入,反向?qū)彶槠錂C(jī)制設(shè)計與執(zhí)行過程中是否存在故意或者不自覺的誤導(dǎo),核實其中存在的不公平、不包容與不準(zhǔn)確,并督促改正。對算法決策公正性的追求還可以借助利益披露機(jī)制,即要求媒體機(jī)構(gòu)作為智能算法的執(zhí)行者主要說明自身在其中的利益,公開自身利益與他人利益、公眾利益可能存在的沖突。倫理審計和利益披露僅是提供了部分可能的選擇,無論采取何種方式,智能媒體需要保證算法決策與算法權(quán)力的公正性。
強(qiáng)化智能系統(tǒng)的透明度、可理解和可追責(zé)。智能媒體新聞生產(chǎn)的機(jī)制與過程通常是不透明的,難以理解和進(jìn)行責(zé)任追溯。這些問題的根源在于深度學(xué)習(xí)仍是典型的“黑箱”,智能系統(tǒng)的認(rèn)知與決策過程十分復(fù)雜,連研發(fā)人員可能都無法完整明晰地理解其機(jī)理。因此當(dāng)智能媒體在新聞生產(chǎn)傳播中出現(xiàn)錯誤,通常難以清楚界定和有效區(qū)分人與機(jī)器、數(shù)據(jù)與算法的責(zé)任。目前,解決問題的有益嘗試已經(jīng)展開:2016年,歐洲議會批準(zhǔn)了《一般數(shù)據(jù)保護(hù)條例》(GDPR),賦予了公眾“解釋權(quán)”,即公眾有權(quán)要求與個人相關(guān)的智能系統(tǒng)對其算法決策做出必要的揭示,要求組織必須在個人數(shù)據(jù)處理活動的所有決策中表現(xiàn)出透明度和問責(zé)制。雖然這項法律目前僅是面向?qū)挿旱挠嬎銠C(jī)及其相關(guān)產(chǎn)業(yè),但在更細(xì)分的智能媒體領(lǐng)域,這一價值訴求同樣強(qiáng)烈且值得關(guān)注。
當(dāng)然,智能媒體倫理調(diào)適的價值目標(biāo)是多元的,不僅限于公正性、透明度、可理解和可追責(zé)這些價值訴求。智能媒體是人工智能技術(shù)在傳媒領(lǐng)域的應(yīng)用,其倫理調(diào)適價值訴求的探討可以借鑒討論且已相對比較成熟的是人工智能價值原則。如2017年在Beneficial AI 大會上提出的“阿西洛馬人工智能原則”,其倡導(dǎo)的倫理和價值原則包括:安全性、故障透明性、司法透明性、負(fù)責(zé)、價值歸屬、人類價值觀、個人隱私、自由和隱私、分享利益、共同繁榮、人類控制、非顛覆及人工智能軍備競賽等。
智能媒體作為有限自主智能體,更多的是倫理影響者,其價值與倫理影響力仍無法獨立地主動施加,而是在人機(jī)交互的關(guān)系與實踐中體現(xiàn),其適用的倫理架構(gòu)是以人為中心的一般工程倫理,重在探討相關(guān)主體的倫理規(guī)范。因此只有把智能媒體置于與人類主體構(gòu)成的行動者網(wǎng)絡(luò)中,明晰行動者之間的倫理關(guān)系,厘清其中的責(zé)任擔(dān)當(dāng)和權(quán)利訴求,才能真正把握倫理調(diào)適的現(xiàn)實路徑。
在拉圖爾的行動者網(wǎng)絡(luò)理論中,廣義的對稱性原則消除了人與非人的界限,網(wǎng)絡(luò)中既可以包括人類行動者也可以包括非人的行動者,非人行動者的意愿可以通過代理者表達(dá)出來。行動者網(wǎng)絡(luò)就是異質(zhì)行動者建立網(wǎng)絡(luò)、發(fā)展網(wǎng)絡(luò)以解決特定問題的過程,它是一個動態(tài)的過程而不是一個靜態(tài)的概念。⑨
以拉圖爾的行動者網(wǎng)絡(luò)來分析人類主體和智能媒體的關(guān)系網(wǎng)絡(luò),智能媒體引發(fā)的價值關(guān)聯(lián)與倫理關(guān)系并不是簡單的人機(jī)二元關(guān)系,而是控制者—智能媒體—一般使用者的多元復(fù)合關(guān)系,一般使用者的“一般”是強(qiáng)調(diào)使用者與控制者無直接共同利益且是技術(shù)應(yīng)用的非主導(dǎo)者和不完全知情者。在此行動者網(wǎng)絡(luò)中,不能簡單地將智能媒體視為控制者和一般使用者間的中介,考慮到非人行動者的意愿由代理者表達(dá),要從控制者—智能媒體整體與一般使用者之間的關(guān)系方面展開分析??刂普摺悄苊襟w是主導(dǎo)者與施加者,一般使用者是受動者,前者的責(zé)任與后者的權(quán)利是倫理關(guān)系網(wǎng)絡(luò)的重要節(jié)點。
通過對智能媒體與相關(guān)主體倫理關(guān)系網(wǎng)絡(luò)的透視,智能媒體倫理調(diào)適呈現(xiàn)出兩條現(xiàn)實路徑——負(fù)責(zé)任的創(chuàng)新與主體權(quán)利保護(hù),即“問責(zé)”和“維權(quán)”。
負(fù)責(zé)任的創(chuàng)新是凸顯主體責(zé)任的責(zé)任倫理調(diào)適,出發(fā)點是強(qiáng)調(diào)人類主體特別是設(shè)計者和控制者在智能媒體創(chuàng)新中的責(zé)任??刂普摺悄苊襟w應(yīng)主動考量其整體對一般使用者、全社會乃至人類的責(zé)任,并在控制者—智能媒體內(nèi)部厘清設(shè)計責(zé)任和控制責(zé)任,以此確保一般使用者的權(quán)利,努力使人類從人工智能中獲益。
主體權(quán)利保護(hù)是基于主體權(quán)利的權(quán)利倫理調(diào)適,出發(fā)點是強(qiáng)調(diào)主體在智能媒體時代的基本權(quán)利,旨在保護(hù)人的數(shù)據(jù)權(quán)利等,試圖制約智能媒體中的算法權(quán)力濫用。權(quán)利保護(hù)路徑的基本邏輯是權(quán)利受損的一般使用者發(fā)出權(quán)利訴求,展開對控制者—智能媒體的責(zé)任追究,進(jìn)而迫使控制者—智能媒體內(nèi)部厘清責(zé)任——區(qū)分智能媒體的控制與設(shè)計責(zé)任。
技術(shù)的發(fā)展需要倫理的介入與匡正。技術(shù)旨在求真,獲得真知;倫理貴在求善,幫助人類在復(fù)雜世界中尋求安身立命之道。⑩
智能媒體倫理的思考應(yīng)基于智能媒體技術(shù)本身的現(xiàn)實發(fā)展。當(dāng)前的智能媒體只是在某些方面具備高于人的能力,并不完全具備自我意識,也無道德意識,僅是工具智能。立足智能媒體仍為有限自主智能體的技術(shù)現(xiàn)實,智能媒體倫理追問適用的倫理架構(gòu)是以人為中心的一般工程倫理,其倫理風(fēng)險與其他技術(shù)面臨的倫理危機(jī)無本質(zhì)區(qū)別,皆為人與人之間的控制與反控制危機(jī)。依據(jù)這一基本判斷,智能媒體倫理調(diào)適的能動主體必然也是人類主體,智能媒體的倫理調(diào)適實質(zhì)上是對與智能媒體相關(guān)的人類主體進(jìn)行規(guī)范性約束。透視人類主體與智能媒體的倫理關(guān)系網(wǎng)絡(luò),得出智能媒體倫理調(diào)適的現(xiàn)實路徑——“問責(zé)”和“維權(quán)”,同樣與其他一般技術(shù)的倫理規(guī)范思路無本質(zhì)區(qū)別。
人工智能技術(shù)的開放性創(chuàng)新仍在繼續(xù),其在傳媒領(lǐng)域的應(yīng)用也將不斷升級,智能媒體的倫理追問還未完成。如果對強(qiáng)智能媒體的實現(xiàn)做適度倫理預(yù)測的話,強(qiáng)智能媒體不僅將更深刻地變革傳媒產(chǎn)業(yè),還將擁有與人類對等的人格結(jié)構(gòu)。此時,作為具有自主意識的特殊技術(shù),強(qiáng)智能媒體可能會帶來新的倫理危機(jī),如:會不會加劇“人工愚蠢”,導(dǎo)致低智能人類的出現(xiàn)?會不會與人類對抗?等。解決這些問題適用的倫理架構(gòu)為以智能體為中心的機(jī)器倫理,也就是打造有道德的智能媒體。機(jī)器倫理的倡導(dǎo)者已描繪了多種可能:自上而下的倫理建構(gòu),將道德規(guī)范轉(zhuǎn)化為邏輯演算,并計算與權(quán)衡實現(xiàn)的功利,使智能體能夠從一般的倫理原則出發(fā)對具體的行為作出倫理判斷;自下而上的倫理建構(gòu),通過機(jī)器學(xué)習(xí)和復(fù)雜適應(yīng)系統(tǒng)的自組織發(fā)展與演化,使智能體能夠從具體的倫理情境生成普遍的倫理原則,并在道德沖突中學(xué)習(xí)道德感知與倫理抉擇的能力。
但應(yīng)該注意到,強(qiáng)人工智能化媒實現(xiàn)的可能性仍存在爭議,可以適度前瞻強(qiáng)智能媒體的倫理危機(jī),但不應(yīng)過分憂慮強(qiáng)智能體對人的反控制,要擺脫未來學(xué)家簡單的樂觀主義與悲觀主義立場,從具體問題入手強(qiáng)化人的控制作用和建設(shè)性參與。盡管未來學(xué)家的樂觀主義或悲觀主義基調(diào)在媒體相關(guān)討論中往往居于主導(dǎo)地位,但這卻帶有極大的盲目性,特別是未來學(xué)家的斷言經(jīng)常在假定與事實之間轉(zhuǎn)換,缺少足夠的證據(jù)。
因此,智能媒體倫理討論更應(yīng)該將對技術(shù)設(shè)計、使用等規(guī)范倫理的思考置于優(yōu)先地位。對偏見問題、隱私問題、算法設(shè)定認(rèn)知問題等具象問題的解析仍需要面向智能媒體應(yīng)用場景的描述性研究。至于強(qiáng)智能媒體未來將帶來何種沖擊,恐怕以我們的想象力暫時還是鞭長莫及。
注釋:
① 黨家玉:《人工智能的倫理與法律風(fēng)險問題研究》,《信息安全研究》,2017年第12期,第1081頁。
② [英]尼克·波斯特洛姆:《超級智能:路線圖、危險性與應(yīng)對策略》,張體偉、張玉青譯,中信出版社2015年版,第22頁。
③ [美]杰瑞·卡普蘭:《人工智能時代》,李盼譯,浙江人民出版社2016年版,第2—6頁。
④ 莫宏偉:《強(qiáng)人工智能與弱人工智能的倫理問題思考》,《科學(xué)與社會》,2018年第1期,第16頁。
⑤ 段偉文:《機(jī)器人倫理的進(jìn)路及其內(nèi)涵》,《科學(xué)與社會》,2015年第2期,第39頁。
⑥ 段偉文:《人工智能時代的價值審度與倫理調(diào)適》,《中國人民大學(xué)學(xué)報》,2017年第6期,第101頁。
⑦ 靖鳴、婁翠:《人工智能技術(shù)在新聞傳播中倫理失范的思考》,《出版廣角》,2018年第1期,第10頁。
⑧ 喻國明、楊瑩瑩、閆巧妹:《算法即權(quán)力:算法范式在新聞傳播中的權(quán)力革命》,《編輯之友》,2018年第5期,第7頁。
⑨ 劉濟(jì)亮:《拉圖爾行動者網(wǎng)絡(luò)理論研究》,哈爾濱工業(yè)大學(xué)碩士學(xué)位論文,2006年,第33頁。
⑩ 陳靜:《科技與倫理走向融合——論人工智能技術(shù)的人文化》,《學(xué)術(shù)界》,2017年第9期,第111頁。