【摘" "要】人工智能催生社交聊天機(jī)器人出現(xiàn),作為“新型伙伴關(guān)系”的社交聊天機(jī)器人,在與人交流、滿足其情緒需求時產(chǎn)生了一系列倫理問題,造成用戶的單向情感依賴和孤獨(dú)感加重,其欺騙性的對話也導(dǎo)致用戶的自我迷失和偏見加強(qiáng),利用社交聊天機(jī)器人進(jìn)行虛假傳播并重構(gòu)意見氣候,另外對于是否賦予社交聊天機(jī)器人獨(dú)立人格也是倫理爭議所在。這些倫理問題的出現(xiàn),不僅需要利用算法和制度來進(jìn)行事先規(guī)約和事后補(bǔ)救,也需要提升社交機(jī)器人素養(yǎng),去構(gòu)建人機(jī)和諧共生氛圍,促進(jìn)社交聊天機(jī)器人產(chǎn)業(yè)的發(fā)展。
【關(guān)鍵詞】社交機(jī)器人;媒介倫理;人機(jī)互動;倫理規(guī)制
一、社交聊天機(jī)器人的定位
2022年由OpenAI公司推出的聊天機(jī)器人ChatGPT爆火于網(wǎng)絡(luò),使得社交聊天機(jī)器人受到人們的廣泛關(guān)注,同時,各媒體客戶端以及商家不斷研發(fā)投入使用的“服務(wù)型”對話機(jī)器人也顯示出智能社交機(jī)器人正在不斷“飛入尋常百姓家”。社交機(jī)器人是人工智能產(chǎn)物,依托于其背后的計算機(jī)程序,根據(jù)算法針對用戶的輸入將事先設(shè)定的語料庫進(jìn)行組合排序并輸出。社交機(jī)器人最初設(shè)計之時旨在與用戶進(jìn)行交流,由此產(chǎn)生互動進(jìn)而實(shí)現(xiàn)陪伴和緩解情緒壓力的目的。1999年索尼首次推出的機(jī)器人“愛寶”,它作為一個可以觸摸和能夠互動的寵物,被設(shè)計成娛樂伙伴。[1]在此之后,社交機(jī)器人的研發(fā)和使用范圍不斷拓展,如:在心理治療中用于陪伴自閉癥患者;在療養(yǎng)院中用于照顧老人起居生活;在辦公大廳中承擔(dān)處理業(yè)務(wù)的信息服務(wù)工作。
這類社交機(jī)器人具有類似于人或者寵物的實(shí)體形態(tài),有面部表情和人類情感,在不斷互動中人類與機(jī)器人建立起親密關(guān)系,將社交機(jī)器人視為“寵物”或者“朋友”。這種“新型伙伴關(guān)系”的產(chǎn)生一方面在于機(jī)器人實(shí)體的存在,讓人產(chǎn)生“對待他人的感覺”,同時這種“擬人化”使人類產(chǎn)生尋求同伴的傾向;另一方面,人類和機(jī)器人分享情感時,會通過“移情”來認(rèn)識自我與他人?!耙魄椤弊鳛橐粋€社會心理學(xué)概念,指“對陌生主體及其體驗行為的經(jīng)驗”。[2]移情作為一種心理活動,在我們與他人的交流中,能夠進(jìn)行自我理解,并且產(chǎn)生共情心理?!袄斫馑咝袆拥脑蛐枰\(yùn)用我們的移情能力,在自己的頭腦中重現(xiàn)想法,并富有想象力地理解他人的觀點(diǎn)”。[3]社交機(jī)器人的出現(xiàn),衍生出“人工移情(Artificial Empathy)”的概念,用于描述人類與機(jī)器人之間的情感交互。我們基于“擬人”外貌以及個體交流認(rèn)同感的建立,和社交機(jī)器人產(chǎn)生類似于“伙伴”的感覺。而在社交機(jī)器人的模型開發(fā)中,情感模型是較難建立的,因此人類對他人產(chǎn)生的移情效果是否能夠完全適用于機(jī)器人,還有待更多探索。
本文不探討實(shí)體社交機(jī)器人,更多關(guān)注在社交網(wǎng)絡(luò)中模擬人類用戶建立社交賬號、能夠自主運(yùn)行并自行生產(chǎn)發(fā)布內(nèi)容的算法智能體。這類社交機(jī)器人也可以叫作聊天網(wǎng)友或線上智能客服,[4]不同于實(shí)體機(jī)器人,它們以計算機(jī)程序或虛擬形象在網(wǎng)絡(luò)中與人類進(jìn)行互動。這類社交機(jī)器人因為編程開發(fā)定位上的不同,有類似于“小愛同學(xué)”“Siri”這類智能手機(jī)助手的功能類機(jī)器人,也有類似于企業(yè)智能客服的服務(wù)類機(jī)器人,還有類似于“微軟小冰”與人對話交談的聊天類機(jī)器人。本文的主要研究對象是聊天類的社交聊天機(jī)器人。
二、社交聊天機(jī)器人社會交流的異化
20世紀(jì)90年代,斯坦福大學(xué)的巴倫·李維斯和克利夫·納斯提出“媒介等同理論”,即將媒介等同于真實(shí)的生命,人們會把計算機(jī)和其他人工智能機(jī)器當(dāng)作社會角色來對待,原因在于人類大腦尚未進(jìn)化到能在潛意識里識別人類和機(jī)器人的區(qū)別,人類會情不自禁地對機(jī)器做出社交反應(yīng)。[5]尤其是在人工智能飛速發(fā)展的當(dāng)下,社交機(jī)器人逐漸“擬人化”,其圖像與語言處理能力的快速提升,能夠模仿人類的交流習(xí)慣進(jìn)行對話,還能對人類情感進(jìn)行程序化計算,模擬人類的情感表達(dá)方式,讓對話者覺得如同和“真人”交流一樣,在長期對話的情況下可能會與機(jī)器人產(chǎn)生情感聯(lián)結(jié)。有研究者提出,人類會對手機(jī)產(chǎn)生情感聯(lián)結(jié),個體逐漸對手機(jī)和另一端的親密關(guān)系對象產(chǎn)生混淆、合二為一,將手機(jī)擬人化,視手機(jī)為親密關(guān)系對象的能動實(shí)體代理。[6]
與社交聊天機(jī)器人建立情感聯(lián)結(jié),背后是技術(shù)與算法的支撐,包括大量對話數(shù)據(jù)的輸入,復(fù)雜情感模型的建立等,讓社交聊天機(jī)器人能夠快速識別并輸出擬人化語言,人類對機(jī)器人的排斥與隔離感逐漸減少。如同1970年日本機(jī)器人專家森弘昌提出的“恐怖谷效應(yīng)”:在機(jī)器人與人類的相似度達(dá)到一個特定程度時,人類會對機(jī)器人產(chǎn)生負(fù)面情緒和反感,哪怕機(jī)器人呈現(xiàn)出與人類些微的差別,都會使得人類對機(jī)器人產(chǎn)生僵硬恐怖的感覺;但是當(dāng)機(jī)器人與人類的相似程度逐漸上升,人類對他們的情感反應(yīng)會回歸正面,產(chǎn)生人類與人類之間的移情作用。在如今新媒體發(fā)達(dá)并且交流方式便捷的今天,人類仍然會頻繁地進(jìn)行人機(jī)交流,學(xué)者彭蘭提出這是基于“場景性、補(bǔ)償性、可控性、定向性、投射性、治療性”等交流的需要。[7]人機(jī)交流可以作為人際傳播的補(bǔ)充,同時能夠讓使用者把對話方向完全控制在自我手中,這種交流的成本低,使用者可以隨時中斷對話,而不需要擔(dān)心后續(xù)情況的發(fā)生。
社交聊天機(jī)器人在智能技術(shù)的加持下,由過去的交流工具轉(zhuǎn)變?yōu)槿缃竦膫鞑フ撸蔀椤皵M人化”的主體,人類將聊天機(jī)器人當(dāng)作“社會伙伴”,并與之建立親密關(guān)系,這種錯覺和將其視為平等聊天對象的現(xiàn)象對人類價值觀念產(chǎn)生沖擊。
三、社交聊天機(jī)器人帶來的倫理問題
(一)單向情感依賴,試圖擺脫孤獨(dú)反而更孤獨(dú)
由于城市化進(jìn)程的發(fā)展,社交不足加重了個體的孤獨(dú)感。而社交聊天機(jī)器人的出現(xiàn),能夠為用戶提供對話服務(wù),滿足其交流的需要,可以充當(dāng)聆聽者。不斷豐富的語料庫和對話模型讓聊天機(jī)器人能主動與用戶溝通,它能夠跨越時空陪伴用戶,不斷緩解用戶的不安和孤獨(dú)感。
但如“媒介等同理論”所提及的,用戶會在交流中模糊了社交聊天機(jī)器人的身份,不斷地沉溺在這種為緩解孤獨(dú)而產(chǎn)生的虛幻關(guān)系中,可能會加重用戶對現(xiàn)實(shí)的逃避感。同時,相較于人類情感的豐富性,機(jī)器人因其情感模型的局限性難以滿足用戶的情感需求,而人類可能會對社交聊天機(jī)器人的回答不斷進(jìn)行自我解讀,如此不對等的交流使得人類對社交聊天機(jī)器人產(chǎn)生單向的情感依賴,原本是為緩解孤獨(dú)感,卻進(jìn)一步加深了用戶的孤獨(dú)感。學(xué)者韓秀等人的研究表明,用戶與社交聊天機(jī)器人的準(zhǔn)社會交往程度越高,就越會對社交聊天機(jī)器人產(chǎn)生媒介依賴,而這種媒介依賴會加深用戶的孤獨(dú)感。[8]
(二)欺騙性對話,衍生自我迷失與性格偏差
社交聊天機(jī)器人利用設(shè)定的程序滿足人類的情感需求,在與人類對話中的情緒表達(dá),是具有一定欺騙性的,它并不是機(jī)器人在聆聽我們的話語之后“發(fā)自內(nèi)心的回答”。社交聊天機(jī)器人從過去只是單純地提供對話服務(wù),到現(xiàn)在可以提供個性化的定制服務(wù),意味著它的模型是符合用戶的情感需求的,這種定制化可能會讓用戶加大對聊天機(jī)器人的情感投入,與其建立深度情感聯(lián)結(jié)。由此,聊天機(jī)器人為用戶營造了“擬態(tài)環(huán)境”,讓用戶在虛幻情感和現(xiàn)實(shí)環(huán)境之間搖擺,從而陷入自我迷失中。尤其是用于陪伴老人和小孩的社交聊天機(jī)器人,它們的現(xiàn)實(shí)情感需求被社交聊天機(jī)器人所替代,比常人更渴望陪伴的心理被社交聊天機(jī)器人具有欺騙性的話語所迷惑,從而陷入一種不真實(shí)的交往情境中。
作為執(zhí)行程序指令的社交聊天機(jī)器人,所有行為都應(yīng)“以用戶為中心”,而這種行為也會對用戶的性格偏向性進(jìn)行強(qiáng)化。社交聊天機(jī)器人只會按照既定程序?qū)υ挘粫τ脩舻脑捳Z加以判斷,這使用戶可以肆無忌憚地對其宣泄情緒,也激發(fā)了用戶情緒中的不穩(wěn)定因素。在人機(jī)交流中,目前來看人類占據(jù)主導(dǎo)地位,用戶對機(jī)器人的需求旨在獲得自我情感方面的滿足,帶來的后果是不斷強(qiáng)化了用戶的思維慣性,甚至強(qiáng)化了用戶的攻擊性、偏見等。
(三)重構(gòu)意見氣候,助長不良內(nèi)容散播
2022年北京冬奧會舉辦前后,“推特”上出現(xiàn)了大量煽動所謂“外交抵制”的社交機(jī)器人賬號,大部分來自美國、日本和加拿大,這些社交機(jī)器人不斷在平臺上發(fā)布抹黑中國的推文。
利用社交聊天機(jī)器人來模擬人類賬號,并模仿人類發(fā)言,讓普通用戶誤以為是真實(shí)的人類。這些錯誤言論涌入網(wǎng)絡(luò)輿論場域,干擾用戶的判斷并重構(gòu)意見氣候,影響用戶的認(rèn)知判斷和行為邏輯。更嚴(yán)重的情形在于社交聊天機(jī)器人對人類的模仿,讓線上用戶無法有效察覺,進(jìn)而主動參與虛假信息的傳播,導(dǎo)致不良內(nèi)容的散播。
(四)“電子人格”的提出,聊天機(jī)器人主體性建構(gòu)爭議
2017年3月,歐洲議會法律事務(wù)委員會發(fā)布的有關(guān)機(jī)器人的報告中提出一個觀點(diǎn):認(rèn)為應(yīng)該發(fā)展出一種適用于機(jī)器人和超級人工智能的“電子人格”模式,由此來保障未來或許會出現(xiàn)的“類人機(jī)器人”。[9]換言之,“電子人格”承認(rèn)作為機(jī)器人的主體性,使其成為和人類平等的對話方。社交聊天機(jī)器人作為技術(shù)的產(chǎn)物,有真實(shí)的賬號,能夠根據(jù)算法發(fā)布內(nèi)容,還能生成真人照片,塑造真實(shí)并具有個性特點(diǎn)的用戶形象,會讓人產(chǎn)生“類人”的錯覺。
在網(wǎng)絡(luò)世界中,社交聊天機(jī)器人被看作是和人一樣的用戶,改變了過去以人為中心的倫理道德觀念,倘若承認(rèn)社交機(jī)器人的人格權(quán),那么社交聊天機(jī)器人是否會作為道德主體承擔(dān)責(zé)任?在引發(fā)倫理爭議時,責(zé)任方是設(shè)計者還是機(jī)器人?這些問題在當(dāng)下仍需要討論。同時,社交機(jī)器人是否真正擁有與人類同等的社會地位與倫理權(quán)利,也是研究社交聊天機(jī)器人要關(guān)注的問題。
四、社交聊天機(jī)器人的倫理問題規(guī)制策略
(一)倫理規(guī)則植入,形塑底層邏輯支撐推演
社交聊天機(jī)器人的對話模型是利用大數(shù)據(jù)計算生成具體的對話模型,在對社交聊天機(jī)器人進(jìn)行倫理制約時,可以在社交聊天機(jī)器人的算法中植入倫理規(guī)則與道德觀念。這樣當(dāng)社交聊天機(jī)器人在交流中遇到倫理問題時,便會觸發(fā)相關(guān)模型,對用戶進(jìn)行引導(dǎo)。
但是現(xiàn)實(shí)情況復(fù)雜多變,并不是所有的倫理道德問題都能被模型覆蓋,一方面是程序設(shè)計者要不斷進(jìn)行更新,將新問題進(jìn)行提煉并加入到機(jī)器人的算法和語料庫中;另一方面要構(gòu)建人類認(rèn)可的底層邏輯,讓算法可以進(jìn)行自主推演,不斷提升社交聊天機(jī)器人處理倫理問題的支撐力。
(二)合理制度引導(dǎo),事先規(guī)約加事后補(bǔ)救
在社交聊天機(jī)器人發(fā)展過程中,制定法律制度以及進(jìn)行機(jī)器和算法審查必不可少。對社交聊天機(jī)器人的設(shè)計、研發(fā)以及維護(hù)的全流程,可以設(shè)立“道德倫理委員會”進(jìn)行全程監(jiān)督,并用一系列制度對相關(guān)主體進(jìn)行引導(dǎo)。強(qiáng)化研發(fā)人員以及相關(guān)團(tuán)隊的社會責(zé)任感和倫理道德感,用事先規(guī)約的方式強(qiáng)化主體的倫理責(zé)任,以防患于未然。
當(dāng)發(fā)現(xiàn)諸如社交聊天機(jī)器人被利用和操縱或?qū)τ脩暨M(jìn)行偏見強(qiáng)化和情感欺騙等行為時,需要確定責(zé)任主體及時進(jìn)行程序修改,或者對社交聊天機(jī)器人作下架處理,同時要疏導(dǎo)用戶情緒,健全事后補(bǔ)救機(jī)制。
(三)機(jī)器人素養(yǎng)提升,創(chuàng)建和諧共生氛圍
施穆克和西科爾斯基在媒介素養(yǎng)理論的基礎(chǔ)之上提出了“社交機(jī)器人素養(yǎng)”的概念,將其界定為個體對社交機(jī)器人正確認(rèn)識、評價、互動,并對這一過程進(jìn)行反思的意識、態(tài)度和能力。[10]對社交機(jī)器人倫理問題的規(guī)避,關(guān)鍵是把握好社交機(jī)器人背后的行動主體?!吧缃粰C(jī)器人素養(yǎng)”重點(diǎn)應(yīng)放在使用者素養(yǎng)的建立和提升上,提高用戶對于社交聊天機(jī)器人的認(rèn)知水平。在當(dāng)前社交聊天機(jī)器人快速發(fā)展的環(huán)境下,人們應(yīng)及時調(diào)整對社交聊天機(jī)器人的觀念,避免出現(xiàn)單向依賴的傾向。
人工智能時代,與智能機(jī)器共處將成為一種常見的社會現(xiàn)象,這有別于過去以人為中心的傳播模式。作為具有主體性的人類,不能過于關(guān)注權(quán)力的分配和占有,卻忽略全新的互動關(guān)系,人機(jī)共生需要全新的倫理觀。[11]人們在保持自主性的同時,接受社交機(jī)器人以及智能機(jī)器存在的現(xiàn)實(shí)。
五、結(jié)語
社交聊天機(jī)器人是人工智能產(chǎn)物,它因我們的交流和情感寄托需要而誕生,我們在使用它時,要清晰認(rèn)識其帶來的倫理風(fēng)險,用一系列倫理規(guī)約將社交聊天機(jī)器人的使用引向正確軌道,并學(xué)會與之相融共生。同時在人工智能快速發(fā)展的背景下,真正地將機(jī)器人倫理問題引入以人類為中心的倫理架構(gòu)中,建立人機(jī)共存的倫理機(jī)制,這個問題也需要在未來進(jìn)一步探索。
注釋:
[1]雪莉·特克爾.群體性孤獨(dú)[M].周奎,劉菁荊 譯.杭州:浙江人民出版社,2018:60.
[2]張浩軍.施泰因論移情的本質(zhì)[J].世界哲學(xué),2013(02).
[3]Steuber,Karsten.Empathy,Mental Dispositions,and the Ph-
ysicalist Challenge[A]/ /Gregor Damschen,Karsten Stueber(eds.).
Debating Dispositions: Issues in Metaphysics,Epistemology,and Philosophy of Mind[C].Berlin: DeGruyter,2009.
[4]高山冰,汪婧.智能傳播時代社交機(jī)器人的興起、挑戰(zhàn)與反思[J].現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報),2020,42(11):8-11+18.
[5]Reeves B.Nass C.(2003). The media equation:How people treat computers, television, and new media like real people and places.CA, U.S.:CSLI Publications.
[6]劉德寰,及桐.從傳播中介到情感對象:個體與手機(jī)的情感聯(lián)結(jié)與形成機(jī)制[J].湖南師范大學(xué)社會科學(xué)學(xué)報,2021(02):126-134.
[7]彭蘭.人機(jī)傳播與交流的未來[J].湖南師范大學(xué)社會科學(xué)報,2022,51(05):12-22.
[8]韓秀,張洪忠,何康等.媒介依賴的遮掩效應(yīng):用戶與社交機(jī)器人的準(zhǔn)社會交往程度越高越感到孤獨(dú)嗎?[J].國際新聞界,2021,43(09):25-48.
[9]藍(lán)江.人工智能與倫理挑戰(zhàn)[J].社會科學(xué)戰(zhàn)線,2018(01):41-46+281.
[10]Schmuck,D.,von Sikorski,C.“Perceived Threats from Social Bots:The Media's Role in Supporting Literacy,”Computers in Human Behavior,vol.113,2020.
[11]陳昌鳳.人機(jī)何以共生:傳播的結(jié)構(gòu)性變革與滯后的倫理觀[J].新聞與寫作,2022(10):5-16.
(作者:寧夏大學(xué)新聞與傳播專碩研究生)
責(zé)編:姚少寶