鄧士昌 許 祺 張晶晶 李象千
·研究構(gòu)想(Conceptual Framework)·
基于心靈知覺理論的AI服務(wù)用戶接受機制及使用促進策略*
鄧士昌1許 祺1張晶晶1李象千2
(1上海對外經(jīng)貿(mào)大學(xué)工商管理學(xué)院, 上海 201620) (2上海體育學(xué)院心理學(xué)院, 上海 200438)
許多企業(yè)采用人工智能服務(wù)應(yīng)答顧客需求, 然而多項研究指出用戶并不總是對此感到滿意。本研究圍繞著用戶對AI的心靈知覺的產(chǎn)生和影響, 探索了驅(qū)動用戶對AI服務(wù)態(tài)度的關(guān)鍵因素及使用促進策略, 包括(1)機理分析層面:用戶與AI早期接觸的線索和體驗因素如何使得人們產(chǎn)生了AI“擅長計算卻缺乏感受”的心靈知覺?(2)調(diào)節(jié)作用層面:不同的用戶內(nèi)部狀態(tài)和AI外部特征怎樣調(diào)節(jié)了這種心靈知覺的形成和激活?(3)促進策略層面:將AI擬動物化和提供技術(shù)援助為何能借助心靈知覺使得用戶在更廣泛的場景中接受來自AI的服務(wù)?本研究試圖在學(xué)理層面構(gòu)建一個基于心靈知覺理論的新型AI服務(wù)接受模型, 為從理論上解釋用戶對AI服務(wù)的矛盾態(tài)度提供心理學(xué)參考; 同時試圖在實踐層面上借助心靈知覺理論提出兩種促進用戶接受AI服務(wù)的路徑方法, 為企業(yè)在服務(wù)中提升AI的應(yīng)用效能提供技術(shù)參考。
人工智能, 心靈知覺, 客戶服務(wù), 刻板印象, 熱情
人工智能并非“萬能鑰匙”。不少消費者表示, 相比冷冰冰的智能客服, 能和真人客服直接溝通讓人更踏實放心?!皩嵲诓恢乐悄芸头菫榱朔奖阆M者解惑, 還是為了方便商家偷懶?”……“現(xiàn)在撥打客服電話, 最煩的就是聽到機器人的聲音, 只想說一句‘轉(zhuǎn)人工’……”
——《智能客服成“標(biāo)配” 用戶體驗參差不齊》《經(jīng)濟參考報》(2019年10月29日)
一切堅固的東西都煙消云散了, 人工智能(artificial intelligence, AI)的出現(xiàn)和發(fā)展打破了許多傳統(tǒng)上被認為是牢不可破的界限。過去幾年, 大數(shù)據(jù)、機器學(xué)習(xí)、自然語言處理和計算機視覺等關(guān)鍵技術(shù)融合到了一起, 將AI推向了更廣泛的應(yīng)用市場。服務(wù)是AI技術(shù)的主要應(yīng)用場景之一, 越來越多的企業(yè)正在采用AI驅(qū)動的虛擬客服替代人工服務(wù)(安永, 2018)。然而, 用戶喜歡被AI服務(wù)嗎?答案是矛盾的。一方面, 許多用戶認為AI簡化了操作程序, 提升了服務(wù)效率(Kaplan & Haenlein, 2019); 另一方面, 不少用戶也反感在服務(wù)中遇到AI, 認為真人客服更能理解自己的需求(Arm Treasure Data, 2019)。為何有時候用戶接受AI服務(wù), 有時候卻又反感?是AI技術(shù)不夠“智能”, 還是用戶對AI心存偏見?這是一個當(dāng)前服務(wù)管理中日趨凸顯、亟待回答的理論和實踐問題。
不得不承認, 當(dāng)前AI技術(shù)遠未成熟, 這是用戶不愿意在大部分服務(wù)中遇到AI的重要原因(林子筠等, 2021)。然而, 多項研究指出, 即使AI表現(xiàn)得和人類一樣出色, 用戶依然有可能不喜歡來自AI的服務(wù)。例如, Luo等人(2019)發(fā)現(xiàn), 雖然在電話銷售中, AI推銷員的表現(xiàn)可以與熟練員工不相上下, 但當(dāng)用戶得知電話那頭是機器人時, 銷售成功率會大大降低。Castelo等人(2019)認為, 用戶對AI的反感并不完全是由于AI的技術(shù)表現(xiàn)不佳, 而是一些心理上的感知造成了用戶并不總是喜歡與AI互動。經(jīng)濟參考報(2019)的采訪也發(fā)現(xiàn): “我反感智能客服, 并不是抵觸技術(shù)進步, 而是當(dāng)面對著理性得一絲不茍的人工智能時, 用戶的情緒互動需求顯然是被壓抑的”。所以, 哪些因素驅(qū)動了用戶對AI服務(wù)的態(tài)度?這不僅是一個AI技術(shù)層面上的問題, 更是一個用戶心理層面上的問題。以此為邏輯起點, 本研究將從心靈知覺理論(mind perception theory)切入, 構(gòu)建一個基于用戶心靈知覺的AI服務(wù)態(tài)度模型, 并在此基礎(chǔ)上提出促進用戶接受AI服務(wù)的方法路徑, 為提升AI服務(wù)的應(yīng)用效能提供參考。
盡管近年來有關(guān)AI的討論在大眾媒體和學(xué)術(shù)期刊上比比皆是, 但要準(zhǔn)確界定AI“是什么”和“不是什么”卻并不容易(Kaplan & Haenlein, 2019)。本研究采納了Russell和Norvig (2016)的觀點, 他們從類比人類智能的角度出發(fā), 認為AI的主要目的是理解智能的本質(zhì), 并在此基礎(chǔ)上通過機器學(xué)習(xí)、自然語言處理、知識表示和推理、計算機視覺等技術(shù)使得機器或程序能夠集成并執(zhí)行智能任務(wù)。換句話說, AI的目標(biāo)是發(fā)展出智能體(agent), 讓機器或程序能夠以與人類相類似的方式做出反應(yīng)。
現(xiàn)在, AI已經(jīng)越來越多地被應(yīng)用于服務(wù)中, 并被企業(yè)和學(xué)界視為服務(wù)創(chuàng)新的主要來源(徐鵬, 徐向藝, 2020)。本研究總結(jié), 應(yīng)用于服務(wù)中的AI可以被分為三類:(1)能夠自動化地提供服務(wù)的虛擬員工。AI程序可以在很少或沒有人為干預(yù)的情況下自動執(zhí)行特定任務(wù), 這使得AI驅(qū)動的虛擬員工可以全天候地滿足客戶需求。例如, 聊天機器人(chatbot)正在為英國國家健康醫(yī)療體系(NHS)的用戶提供醫(yī)療咨詢和建議(O’Hear, 2017); 淘寶、京東和攜程等企業(yè)也大規(guī)模地采用了AI服務(wù)來響應(yīng)用戶需求(科技日報, 2021)。(2)能夠預(yù)測顧客個性化需求的智能程序。人工智能可以從海量的客戶數(shù)據(jù)中獲取洞察力, 幫助企業(yè)創(chuàng)造與顧客日常生活自然相融合的體驗, 從而提高顧客的服務(wù)滿意度。例如, AIda愛搭公司的AI程序可以根據(jù)客戶需求進行智能分析, 為顧客推薦適合他們個人風(fēng)格和購買預(yù)算的服裝產(chǎn)品(科學(xué)中國, 2020)。(3)能夠發(fā)掘潛在商業(yè)機會的優(yōu)化算法。AI驅(qū)動的客戶分析算法可以對更龐大、更復(fù)雜的數(shù)據(jù)集合(文本、語音、圖像等)進行分析, 探尋促使客戶購買的驅(qū)動因素和阻礙因素。例如, Kanetix公司通過AI驅(qū)動的算法在保險推銷前對客戶進行篩選, 從而對那些更有可能購買保險的潛在客戶加大推廣力度(Davenport et al., 2020)??梢? 應(yīng)用于服務(wù)中的AI既可以有一個物理表示(如迎賓機器人), 也可以是完全虛擬的算法。
理論上說, AI可以使得服務(wù)更有效率(Huang & Rust, 2018, 2021), 但是市場調(diào)查表明, 一方面, 許多用戶對蘋果“Siri”、華為“小藝”等虛擬助手愛不釋手(安永, 2018); 另一方面, 在醫(yī)療、銷售和爭議解決等服務(wù)中, 僅有不到五分之一的用戶愿意遇到AI服務(wù)(Arm Treasure Data, 2019)。學(xué)術(shù)研究也取得了類似結(jié)果, Chi等人(2020)和Vla?i?等人(2021)詳細回顧了用戶對AI服務(wù)態(tài)度的研究, 發(fā)現(xiàn)在服務(wù)中, 用戶經(jīng)常會對AI表現(xiàn)出不信任、不滿意和不接受。
可見, 讓用戶接受AI服務(wù)并不是天然的事情, 許多因素影響了用戶對AI服務(wù)的態(tài)度。大量研究對此話題進行了探索。最初, 研究者們沿用經(jīng)典的技術(shù)接受模型(technology acceptance model, TAM或unified theory of acceptance and use of technology, UTAUT)討論用戶對AI的態(tài)度, 認為感知有用性、感知易用性等對AI的績效預(yù)期, 以及使用AI時的努力預(yù)期、社會影響等個體內(nèi)外因素決定了用戶在任務(wù)中使用AI的意愿; 同時, 性別、年齡、使用經(jīng)驗等特征在其間起了調(diào)節(jié)作用(e.g., Go et al., 2020; Venkatesh, 2021)。然而, 有研究者指出將經(jīng)典的TAM或UTAUT不加修改地應(yīng)用到AI領(lǐng)域是有問題的(e.g., Flandorfer, 2012), 因為這些經(jīng)典模型都是在十多年前的技術(shù)背景下開發(fā)的, 它們所探討的那些“新”技術(shù)(如即時通訊、遠程辦公等)在變革性上遠不能和AI相比。AI的許多應(yīng)用涉及了可以達到人類水平的認知和情感能力, 換句話說, AI不僅僅可以輔助人類的工作, 而且有可能替代人類的工作, 而TAM和UTAUT所涉及到的任何一種技術(shù)都不是這樣。因此, 用戶對AI的態(tài)度問題要比TAM和UTAUT描述的復(fù)雜得多。
同感于此, 許多研究者針對AI的特點, 提出了新的理論模型以歸納影響用戶與AI互動的關(guān)鍵因素。例如, 張雁冰等人(2019)從AI與人的相似性入手, 提出了AI的外觀設(shè)計、交互方式、智能水平和情感能力這4個因素影響了用戶與AI的交互, 使得用戶對AI產(chǎn)生快樂、信任或恐懼等感知, 進而導(dǎo)致用戶對AI服務(wù)出現(xiàn)愿意使用、拒絕使用等行為。Xiao和Kumar (2021)從企業(yè)對機器人技術(shù)的采納程度(degree of robotics adoption, DRA)入手, 提出員工對機器人的接受(employee acceptance of robots, EAR)和用戶對機器人的接受(customer acceptance of robots, CAR)聯(lián)合影響了DRA。其中EAR受到企業(yè)特征、員工特征和機器人特征的影響, 而CAR受到用戶特征的影響。Chi等人(2021)回顧并歸納了以往研究中發(fā)現(xiàn)的、可能影響用戶對AI態(tài)度的11種因素, 并將它們分類為三類:(1)人們對機器人的信任傾向、(2)值得信賴的機器人功能與設(shè)計、(3)值得信賴的服務(wù)任務(wù)和情景, 這三類因素共同影響了用戶對社會服務(wù)機器人的互動信任(social service robot interaction trust, SSRIT)。
不難看出, 上面這些理論模型都有著百年前構(gòu)造主義心理學(xué)派的影子, 它們都強調(diào)分析影響用戶對AI服務(wù)態(tài)度的主要“因素”, 有著元素論的傾向。本研究認為, 雖然新近的AI服務(wù)用戶接受模型研究幾乎囊括了所有可能影響用戶對AI態(tài)度的因素(e.g., Chi et al., 2021; Xiao & Kumar, 2021), 然而上面這些研究尚存在兩個方面的不足。第一, Makridakis (2017)提出, 大多數(shù)用戶在接受或拒絕AI時并不持堅定立場, 在任務(wù)中, 用戶對AI的支持和反對因素可能同時存在并相互作用。上面這些模型僅僅解釋了影響用戶接納AI的要素, 但缺乏對這些要素之間是如何互動的描述, 更沒有提煉出一般理論以解釋用戶對AI態(tài)度的動態(tài)性變化。第二, 這些模型大多鼓勵A(yù)I“更像人”, 認為機能上的不足是阻礙人們采納AI的核心原因。雖然AI與人的相似性的確很重要, 然而, 恐怖谷效應(yīng)(the uncanny valley)的存在表明一味地增加AI的類人機能恐怕不是促進用戶接受AI的黃金法則(Mende et al., 2019)。因此, 有必要找出更加“直擊心靈”的方法, 多管齊下地改善用戶對服務(wù)型AI的態(tài)度。
相對于強調(diào)提高AI的類人水平(e.g., 張雁冰等, 2019)和提高人類對AI的信任(e.g., Chi et al., 2021)。Waytz和Norton (2014)提出了一個觀點:人們也許在心靈層面上就認為AI不配與人類相提并論。本研究認為, 這是使得用戶對AI服務(wù)呈現(xiàn)矛盾化態(tài)度的關(guān)鍵心理原因。心靈(mind)是人們將人類與其他非人實體區(qū)分開來的關(guān)鍵要素。Gray等人(2007)和Waytz等人(2010)發(fā)展出了心靈知覺(mind perception)理論, 闡述了人們將“心靈”歸因于兩個維度:能動性(agency, 分析和推理的能力)和感受性(experience, 體驗和共情的能力), 如果人們感受到認知對象缺失了其中任一維度, 尤其是感受性維度, 則人們就會否認對方具有人性, 從而拒絕與對方平等互動。Waytz和Norton (2014)將心靈知覺理論應(yīng)用到了人類與AI關(guān)系的研究中, 他們發(fā)現(xiàn)人們更接受AI從事需要“能力”的工作, 而不愿意接受AI從事需要“感受”的工作。作者們由此指出, 人們也許容忍AI在能動性(智能)上超過人類, 但卻會保留“感受”作為一種獨特的人類特質(zhì)。Stein和Ohler (2017)進一步發(fā)現(xiàn), 在聊天互動中, 如果人們察覺到正在表現(xiàn)出共情能力的對象是由算法操控的(而不是由人操控的), 則人們會經(jīng)歷認知失調(diào), 表現(xiàn)出惡心、厭惡和反感(即恐怖谷反應(yīng))。
其他經(jīng)驗研究也響應(yīng)了這一觀點。Wang和Krumhuber (2018)通過4個實驗研究發(fā)現(xiàn), 雖然賦予AI社會價值(告訴被試AI可以陪伴孤獨者)比賦予AI經(jīng)濟價值(告訴被試AI可以作為收銀員)能增加人們對AI的情感性知覺, 但從絕對值看, 人們對AI的情感性知覺仍然遠遠低于對AI的認知性知覺(原文的Table1和2)。Longoni等人(2019)通過9個實驗研究發(fā)現(xiàn), 由于擔(dān)心AI會忽視自己的獨特性需求, 消費者往往不接受AI單獨給出的醫(yī)療建議, 而只接受AI作為人類醫(yī)生決策時的助手。Castelo等人(2019)通過4個實驗室研究和兩個實地研究, 發(fā)現(xiàn)由于消費者會認為智能算法缺乏執(zhí)行主觀任務(wù)所需的能力, 因此對于那些看起來更加主觀(相對于客觀)的任務(wù), 人們更加不愿意使用智能算法。Wirtz等人(2018)的理論研究指出, 雖然情感計算(affective computing)等技術(shù)使得AI可以感知和回應(yīng)人類情感, 但是人們往往不會對AI表達的情緒做出反應(yīng)(例如很少看見人們與機器吵架), 這是因為在內(nèi)心深處, 用戶會認為AI的情緒是“被操控的”, 而不是“自發(fā)的”。由于人們不認為AI能擁有真正的情感, 因此用戶會拒絕AI在情感?社交類任務(wù)中的深度應(yīng)用??梢? 雖然AI技術(shù)一日千里, 當(dāng)前的情感計算技術(shù)已經(jīng)能使得AI感知和回應(yīng)人類情感, 然而人們依然更傾向于將AI與“能動性”而不是“感受性”聯(lián)系起來, 認為AI不適宜從事更需要“共情”的任務(wù)(例如照顧病人, Waytz & Norton, 2014)。
本研究認為, 心靈知覺理論為分析用戶對AI的矛盾性態(tài)度提供了一個有說服力的理論框架。與上一節(jié)回顧過的“影響因素”類模型結(jié)合起來, 心靈知覺理論可以串聯(lián)起影響用戶接受AI服務(wù)的各種因素, 解釋用戶在不同的場景中對AI的態(tài)度。然而, 目前有關(guān)心靈知覺與AI的用戶接受的研究成果相對零星, 缺乏系統(tǒng)整理, 而且還有可能存在跨文化問題。因此, 有必要在以往研究的基礎(chǔ)上, 繼續(xù)考察用戶對AI的心靈知覺與各種其他因素如何聯(lián)合影響了用戶對AI的接受程度。
AI雖然能幫助企業(yè)降低服務(wù)成本, 但卻未必能提高用戶的服務(wù)滿意度(Huang & Rust, 2018, 2021)。從文獻回顧中可以看出, 其原因可能是由于心靈知覺的影響, 用戶認為AI缺乏“感受”, 所以不愿意在情感?社交類服務(wù)中面對AI。在以往研究的基礎(chǔ)上, 本研究擬就如下問題進行拓展:
第一, 用戶認為AI“擅長計算卻缺乏感受”的心靈知覺是怎么產(chǎn)生的?其影響用戶對AI態(tài)度的心理過程又是怎樣的?目前有關(guān)AI與心靈知覺的研究大多對此語焉不詳, 認為用戶對AI的心靈知覺是自然發(fā)生的(e.g., Castelo et al., 2019; Longoni et al., 2019; Wang & Krumhuber, 2018; Waytz & Norton, 2014)。而且, 雖然當(dāng)前研究初步地描述了“現(xiàn)象”, 但是對其背后心理過程的討論卻并不充分。為何當(dāng)用戶感覺到AI缺乏“感受”時, 人們就會反感AI出現(xiàn)在情感類或主觀性任務(wù)中?這種影響是跨文化的嗎?對于這些問題, 當(dāng)前的研究缺乏進一步探討, 造成了理論的不深入和概念的膚淺。
第二, 是否有其他關(guān)鍵因素調(diào)節(jié)了用戶對AI心靈知覺的形成和激活?以往采用心靈知覺理論探討人類和AI關(guān)系的研究都相對靜態(tài), 認為“AI擅長計算卻缺乏感受”的心靈知覺是人類對機器的固有認知。然而, 心靈知覺對AI服務(wù)接受意愿的影響可能并不絕對, 鄧士昌等人(2020)的前期訪談就發(fā)現(xiàn)了不少例外情況。對于在心靈知覺作用時起了主要調(diào)節(jié)作用的關(guān)鍵因素, 現(xiàn)有研究普遍缺乏深入探討, 這造成了對驅(qū)動用戶接受或反感AI服務(wù)的關(guān)鍵因素理解不充分, 妨礙了一個整體性框架的提出。
第三, 如何借助心靈知覺理論, 使得用戶在更廣泛的場景中接受來自AI的服務(wù)?目前, 相關(guān)研究集中于描述用戶“為什么”不喜歡AI服務(wù), 可是基于心靈知覺理論、提出了如何才能促進用戶在更廣泛的服務(wù)場景中接受AI的研究卻并不多見。Castelo等人(2019)發(fā)現(xiàn)可以增加任務(wù)的感知客觀性以促進用戶在主觀任務(wù)中接受AI, 然而類似的促進策略仍然偏少。這阻礙了進一步提升用戶對AI服務(wù)的接受程度和AI服務(wù)的應(yīng)用效能。
如前所述, 從預(yù)訂餐位到處理投訴, AI在服務(wù)上的功能日趨廣泛, 然而用戶卻并不總是愿意接受來自AI的幫助。在此背景下, 本研究將關(guān)注點放在了用戶接受AI服務(wù)的關(guān)鍵驅(qū)動因素及促進策略上。以心靈知覺理論為牽引, 本研究擬在三個逐漸遞進的層面上展開探索:(1)機理分析層面:用戶與AI早期接觸的線索和體驗因素如何使得人們產(chǎn)生了AI“擅長計算卻缺乏感受”的心靈知覺?(2)調(diào)節(jié)作用層面:不同的用戶內(nèi)部狀態(tài)和AI外部特征怎樣調(diào)節(jié)了這種心靈知覺的形成和激活?(3)促進策略層面:將AI擬動物化和提供技術(shù)援助為何能借助心靈知覺使得用戶在更廣泛的場景中接受來自AI的服務(wù)?上面的研究構(gòu)想可以總結(jié)為圖1。
本研究采用了Wirtz等人(2018)的術(shù)語, 將服務(wù)場景分為認知?分析類(cognitive-analytical)和情感?社交類(emotional-social)。認知?分析類任務(wù)是客觀的、常規(guī)且重復(fù)的、可預(yù)測的和與信息處理有關(guān)的, 例如在醫(yī)療診斷中分析復(fù)雜圖像; 而情感?社交類任務(wù)是主觀的、需要共情的、發(fā)散性的和要求創(chuàng)造性解決問題的, 例如安撫憤怒的顧客。這一分類被當(dāng)前有關(guān)AI在服務(wù)領(lǐng)域中的應(yīng)用的研究普遍采用。Waytz和Norton (2014), 以及Wang和Krumhuber (2018)將AI應(yīng)用場景分為更強調(diào)能動和目的達成的認知類(cognition)和更強調(diào)共情和尋求溫暖的情感類(emotion)。Huang和Rust (2018, 2021)按照AI技術(shù)發(fā)展的先后順序, 將可應(yīng)用于服務(wù)中的AI形態(tài)分為4類:機械的(mechanical)、分析的(analytical)、直覺的(intuitive)和共情的(empathetic)。其中, 前兩類AI服務(wù)形態(tài)是涉及理性計算的、容易取代人類服務(wù)的; 而后兩類AI服務(wù)形態(tài)是涉及情感共鳴的、較難取代人類服務(wù)的。Castelo等人(2019)將服務(wù)場景定義為客觀(objective)和主觀(subjective), 在他們的分類中, 客觀任務(wù)涉及可量化和可測量的事實, 而主觀任務(wù)涉及個人意見或直覺(gut instincts)。雖然Castelo等人(2019)的術(shù)語與Wirtz等人(2018)的術(shù)語在內(nèi)涵上相差不遠, 但Wirtz等人的術(shù)語更直白, 更契合心靈知覺理論中所描述的“能動性”和“感受性”二維度, 因此采用Wirtz等人的術(shù)語更易于理解。
圖1 總體研究框架
如前所述, 諸多理論和實證研究都采用心靈知覺理論探討了用戶對AI服務(wù)的矛盾性態(tài)度, 認為由于人們更傾向于相信AI是算力強大的, 而不是富有情感的, 因此用戶在更強調(diào)“認知?分析”的場景中會更接受AI, 而在更強調(diào)“情感?社交”的場景中更反感AI (e.g., Castelo et al., 2019; Wang & Krumhuber, 2018; Waytz & Norton, 2014; Wirtz et al., 2018)。可是, 目前很少有研究探索了人類對AI這種心靈知覺的來源。Shahid等人(2014)發(fā)現(xiàn)很多兒童會把AI當(dāng)作“朋友”, 而且越年幼的孩子與AI互動越積極; Bylieva等人(2021)也發(fā)現(xiàn)兒童與AI語音助手的互動方式與成年人很不一樣, 兒童會將AI當(dāng)作真人, 采用禮貌口吻, 并詢問一些私人問題。可見, 兒童在與AI互動時并沒有表現(xiàn)出如成年人一般的對AI的心靈知覺。基于這些發(fā)現(xiàn), 本研究將用戶對AI的心靈知覺解釋為一種刻板印象(stereotype), 并認為這種心靈知覺的出現(xiàn)最初只是無心之舉, 但是隨著用戶與AI的不斷互動而逐漸變得根深蒂固, 最終演化為認為AI擅長計算卻不解人性的“人機之大防”。
3.1.1 研究方向1a:影響了用戶形成對AI心靈知覺的體驗和線索因素
Sundar (2008)提出, 在人與機器互動過程中, 各種各樣的體驗(experience)和線索(cues)促使了人們對機器刻板印象的形成。結(jié)合前期訪談(鄧士昌等, 2020), 本研究提出兩類最能影響用戶對AI心靈知覺形成的體驗和線索因素:(a)過去使用AI的經(jīng)驗(體驗), 以及(b)大眾媒體對AI的描繪(線索)。首先是“體驗”因素。Wu和Wen (2021)的分析表明, 由于大多數(shù)用戶并不熟悉AI的研發(fā)過程, 因此人們和AI的早期接觸經(jīng)驗影響了他們對AI的態(tài)度。受到技術(shù)發(fā)展限制, AI在相當(dāng)長一段時間內(nèi)都只能在更需要“認知?分析”能力的場景中提供服務(wù)(例如提供自動訂餐服務(wù)的語音助手), 而在需要“情感?社交”的服務(wù)中長期缺位。因此, 用戶對于從事認知?分析任務(wù)的AI更為熟悉, 而對在情感?社交場景中提供服務(wù)的AI相對陌生。再加上早期AI服務(wù)的技術(shù)表現(xiàn)不佳, 經(jīng)常出現(xiàn)答非所問的情況(中國青年報, 2019), 這自然使得用戶產(chǎn)生了AI服務(wù)“冷冰冰、兜圈子”的刻板印象。
然后是“線索”因素。涵化理論(cultivation theory; Morgan et al., 2015)指出, 大眾媒體創(chuàng)造的符號環(huán)境培養(yǎng)了最廣泛的群體共同意識。無論中外, 許多文學(xué)、電影和游戲作品長期以來都將AI描述為高智能但缺乏情感的機器, 新聞媒體也往往將AI描述為力大無窮但不解人意的“鐵疙瘩” (程林, 2020)。Sundar等人(2016)發(fā)現(xiàn), 人們對AI服務(wù)的接受意愿很大程度上受到了大眾媒體對AI形象描繪的影響。Banks (2020)也發(fā)現(xiàn), 媒體中描繪的機器人形象促使了人們對AI形成一種“機器不通人情”的啟發(fā)式態(tài)度??梢? 用戶對AI“不能共情”的心靈知覺也在相當(dāng)程度上受到了大眾媒體對AI描繪的影響。
在Amiot和Bastian (2015)關(guān)于人與動物關(guān)系的心理學(xué)研究中, 作者認為人們會把自己(人類)的品質(zhì)投射到非人實體上, 從而簡化人們與動物的關(guān)系認知(例如綿羊是溫順的, 狐貍是狡黠的)。傳統(tǒng)上, 只有動物在人們的認知中享有特權(quán)、獲得人們更多的擬人化投射。但是, 隨著AI擁有越來越多的人類智能, 人們也將這套社會感知工具遷移到了AI身上(Amershi, 2020)。本研究推測, 在過去使用AI的經(jīng)驗(體驗)以及大眾媒體對AI描繪(線索)的影響下, 用戶對AI形成了一種“擅長計算卻不能感知”的啟發(fā)式思維捷徑, 這反映了用戶對AI表現(xiàn)的現(xiàn)有經(jīng)驗積累?;谏鲜鐾评? 本研究提出:
過去在情感?社交場景中使用AI受挫的經(jīng)歷和大眾媒體對AI “高智商低情商”的描繪使得用戶形成了AI擅長計算卻缺乏感受的心靈知覺。
3.1.2 研究方向1b:對AI的心靈知覺影響了用戶在不同場景中對AI的態(tài)度
研究命題1a推測, 用戶對AI的心靈知覺實質(zhì)上是一種受到體驗和線索因素影響而形成的、對AI的刻板印象。著名的刻板印象內(nèi)容模型(Stereotype Content Model; Fiske et al., 2002)定義了兩種基本社會知覺, 即熱情(warmth)和能力(competence)。熱情知覺指感知到對方是友好、善良、真誠和溫暖的, 而能力知覺指感知到對方是能干、勝任、自信和熟練的。在Gray等人(2007)和Waytz等人(2010)關(guān)于心靈知覺理論的闡述中, 作者們引用并承襲了刻板印象內(nèi)容模型的觀點, 認為對心靈或“人性”的能動性感知代表了社會知覺中的能力知覺, 而對心靈的感受性感知代表了熱情知覺??梢? “用戶認為AI擅長計算卻缺乏感受”的心靈知覺, 可以理解為刻板印象內(nèi)容模型中所描述的“高能力低熱情”感知。
有關(guān)刻板印象內(nèi)容模型的成熟研究指出, 對他人的“高能力低熱情”感知會影響認知者對認知對象的態(tài)度。Cuddy等人(2011)指出, 對他人的熱情感知與能力感知往往是不對稱的, 熱情感知代表了認知者是否認為他人懷有積極意圖, 也即感知到他人是否是利他的、樂于助人的; 而能力感知代表了認知者是否認為他人有能力去實現(xiàn)這些意圖。所以, 被置于“高能力低熱情”感知的群體會受到認知者的模糊和矛盾判斷。Oleszkiewicz和Lachowicz-Tabaczek (2016)的實證研究發(fā)現(xiàn), 在工作場合中, 對同事的能力和熱情感知影響了對他們的信任、喜愛和尊重。具體地, 對同事的信任會同時受到高能力和高熱情感知的影響; 但是, 對同事的喜愛卻是對他們高熱情感知的結(jié)果, 而對同事的高能力感知僅僅影響了對他們的尊重。換言之, 人們只會對感知為“高能力高熱情”的同事同時產(chǎn)生尊重和喜愛; 而對同事“高能力低熱情”的感知會使得人們認為同事是值得尊重, 但不值得喜愛、以及在情感上不值得依賴的。Sevillano和Fiske (2016)關(guān)于人類對動物刻板印象的研究也指出, 雖然人類對感知到“高能力低熱情”的那些動物(例如獅子、狼和熊)充滿恐懼、尊崇和敬畏; 但從內(nèi)心上, 人類更愿意與那些“高能力高熱情”的動物(例如貓、狗和馬)建立情感聯(lián)系。Fiske (2018)的綜述研究也發(fā)現(xiàn), 人們通常對商人、官員、富人和專業(yè)技術(shù)人員持有“高能力低熱情”感知, 其結(jié)果就是, 人們往往對這些群體持功利主義態(tài)度, 既希望能接近這些群體、利用這些群體的“高能力”; 同時也希望和這些群體保持情感距離、不愿意和他們保持共情。
可見, “用戶認為AI擅長計算卻缺乏感受”的心靈知覺使得人們認為AI是有能力的、可以被利用的; 但在情感上, 該心靈知覺使得人們并不認為AI是值得喜愛的、可以與之建立情感依賴關(guān)系的。Huang和Rust (2018, 2021)的理論研究指出, 在機械性的和分析性的服務(wù)中, 用戶更看重服務(wù)提供者能否做到精確、連貫和有效率(例如準(zhǔn)點接送的出租車司機); 但是在直覺性的和共情性的服務(wù)中, 用戶更關(guān)注服務(wù)提供者能否理解自己的感受、體察自己的想法(例如同情患者的醫(yī)生)。Wirtz等人(2018)也指出, 在“認知?分析”類服務(wù)場景中, 用戶更關(guān)注功能性目標(biāo)的達成, 但是在“情感?社交”類的服務(wù)場景, 用戶會更關(guān)注共情性目標(biāo)的達成(例如讓服務(wù)人員理解自己的感受)。楊亞平等人(2019)發(fā)現(xiàn), 在“高能力低熱情”感知中, 如果一個群體的實際表現(xiàn)和大眾對其持有的刻板印象一致(例如商人是有錢且貪婪的), 那該刻板印象的效應(yīng)啟動會更快、激活程度會更大。由于當(dāng)前AI的共情技術(shù)尚不發(fā)達(Huang & Rust, 2021), 因此用戶對AI“擅長計算卻缺乏感受”的心靈知覺很容易被啟動和放大。其結(jié)果就是, 由于用戶對AI持高能力感知, 所以在主要尋求功能性價值的“認知?分析”類服務(wù)場景中, 用戶可能會對AI有著更積極的態(tài)度, 認為AI的精確、連貫和有效率等機能更能幫助自己達到目的。但是, 由于用戶對AI持低熱情感知, 所以在主要尋求共情性價值的“情感?社交”類服務(wù)場景中, 用戶往往會認為AI和自己“不是同類物種”, 從而主動和AI保持情感和社交距離, 不愿意與AI進行共情性的互動、情感交流和建立依賴關(guān)系?;谏鲜鐾评? 本研究提出:
AI擅長計算卻缺乏感受的心靈知覺使得用戶認為AI雖然有能力, 但并不值得在情感上被依賴和喜愛, 這使得用戶只愿意在認知?分析類任務(wù)中使用AI達到功能性目的, 而不愿意在情感?社交類任務(wù)中與AI建立共情性聯(lián)系。
既然提出用戶對AI“擅長計算卻缺乏感受”的心靈知覺是一種刻板印象, 那就不得不考慮哪些因素調(diào)節(jié)了這種刻板印象的形成與激活, 也即刻板印象可塑性(stereotype malleability)問題。許多關(guān)于此問題的成熟綜述研究(e.g., Blair, 2002; Bodenhausen & Macrae, 2013; Wheeler & Petty, 2001)都指出刻板印象的作用并非對所有人或在所有情況下都會自動發(fā)生, 它的形成與激活受到兩大類因素的影響:認知者的內(nèi)部狀態(tài)(internal states)與認知對象的表現(xiàn)因素(external factors)。研究方向2將考察這兩類因素對前述研究命題1a和1b的調(diào)節(jié)性影響。需要特別指出, 研究方向2并不能窮盡調(diào)節(jié)了用戶對AI心靈知覺形成及激活的所有因素, 這樣的列表將是無限長的。研究方向2的目的是在“刻板印象可塑性”的理論框架下重新考察過去研究中發(fā)現(xiàn)的、影響用戶對AI態(tài)度的主要因素(e.g., Allan et al., 2021; Chi et al., 2021; Xiao & Kumar, 2021; 張雁冰等, 2019)。本研究擬將過去文獻中發(fā)現(xiàn)的影響因素, 納入到基于心靈知覺理論的AI服務(wù)用戶接受模型中, 為今后進一步探明驅(qū)動用戶接受AI服務(wù)的廣泛因素提供來自心靈知覺理論的參考。
3.2.1 研究方向2a:與AI互動時的個體內(nèi)部狀態(tài)調(diào)節(jié)了對AI心靈知覺的形成
許多有關(guān)刻板印象可塑性的研究表明與個體長期或短期目標(biāo)相沖突的刻板印象會在形成時會受到抑制, 例如, 致力于公平目標(biāo)的個體有著較少的性別刻板印象(Moskowitz et al., 1999)。對比到本研究語境中, 本研究推測希望與AI建立“準(zhǔn)友誼” (para-friendship)關(guān)系的個體可能更不容易形成AI“擅長計算卻缺乏感受”的心靈知覺, 因為這種對AI的心靈知覺與這些個體的目標(biāo)相悖。Ki等人(2020)使用“準(zhǔn)友誼”這一術(shù)語來描述某些個體與AI語音助手的互動方式, 他們會和AI助手進行親密交談、分享自己內(nèi)心的想法, 并且尋求AI助手的情感支持。雖然受到技術(shù)限制, 當(dāng)前的AI助手并不能充分理解和準(zhǔn)確回應(yīng)這些人群的情感需求, 但對于懼怕與真人建立情感聯(lián)系的“社恐”人群來說, AI為這些人提供了進行自我表露和尋求社會支持的絕佳對象, 因此與AI建立準(zhǔn)友誼關(guān)系是一種理想的關(guān)系替代(Archer, 2021)。
Ki等人(2020)在研究中證實, 與AI互動時是否感覺到親密(intimacy)、理解(understanding)、享受(enjoyability)和投入(involvement)是驅(qū)使個體是否愿意與AI建立準(zhǔn)友誼關(guān)系的核心要素。本研究推測, 與AI接觸頻率更高的用戶(high-frequency users)可能更容易在與AI互動時體驗到親密和理解, 從而更容易與AI形成準(zhǔn)友誼關(guān)系, 進而更不容易形成AI“擅長計算卻缺乏感受”的心靈知覺。Ramadan等人(2021)的研究表明, 在實際應(yīng)用中, AI并不僅僅只是為用戶提供了功利性好處, 還部分滿足了用戶的情感性需求, 其中, 更頻繁的AI使用能促使用戶對其產(chǎn)生特殊需求(例如請求Alexa語音助手為自己唱歌), 從而使得相當(dāng)部分的高頻AI用戶希望AI能作為自己的朋友, 甚至是生活伴侶。Hermann (2021)的理論研究也指出, 如果消費者經(jīng)常性、更密集、更頻繁地與AI互動, 那AI就越有可能嵌入消費者的社會關(guān)系當(dāng)中, 從而促使消費者與AI建立心靈和情感上的紐帶; 而這種對AI的紐帶和依戀反過來又使得消費者提高了使用AI的時間和互動頻率, 導(dǎo)致消費者對AI出現(xiàn)友誼、依戀、甚至是愛。所以, 本研究假設(shè), AI產(chǎn)品的高頻用戶更容易與AI建立準(zhǔn)友誼關(guān)系, 而這種關(guān)系狀態(tài)會降低用戶認為AI“缺乏熱情”的刻板印象, 進而影響他們對AI心靈知覺的形成。
本研究還推測, 技術(shù)使用自我效能感(technology use self-efficacy)較強的個體可能更容易在與AI的互動過程中體驗到享受和投入, 從而增加這些個體與AI建立準(zhǔn)友誼關(guān)系的可能性。大量研究表明較強的內(nèi)部控制感會抑制刻板印象的形成(e.g., Gordijn et al., 2004), 而技術(shù)使用自我效能感可以引導(dǎo)這種與AI互動時的內(nèi)部控制過程(Hatlevik et al., 2018)。技術(shù)使用自我效能感是一個人相信自己使用新技術(shù)的能力, 這種能力信念獨立于其他自我效能感(Latikka et al., 2019)。Bandura (1997)認為較高的自我效能感提供了一種更強的內(nèi)部控制感, 導(dǎo)致了對未來結(jié)果的積極感知。在此基礎(chǔ)上, Xiao和Kumar (2021)提出, 由于技術(shù)使用自我效能感形成于對新技術(shù)的知識累積和積極經(jīng)驗, 因此這種自我效能感較高的個體通常認為自己更懂技術(shù), 從而也就越愿意沉浸于探索和使用技術(shù)。Turja等人(2019)發(fā)現(xiàn)技術(shù)使用自我效能感較高的個體會對服務(wù)類AI會表現(xiàn)出更高的社會認可度, 這可能是因為這類個體在與AI互動時有著更強的控制感, 更能在與AI交互時體驗到享受和投入。因此, 本研究認為較高的技術(shù)使用自我效能感能促進用戶與AI建立準(zhǔn)友誼關(guān)系, 從而削弱“AI不可感受”的心靈知覺的形成?;谏鲜鐾评? 本研究提出:
較高的AI使用頻率和技術(shù)使用自我效能感使得個體更容易與AI建立準(zhǔn)友誼關(guān)系, 這兩個因素會抑制用戶認為AI擅長計算卻缺乏感受的心靈知覺的形成。
3.2.2 研究方向2b:AI的外部表現(xiàn)因素調(diào)節(jié)了用戶對AI心靈知覺的激活
除了刻板印象的形成, 刻板印象可塑性研究同時也關(guān)注抑制了刻板印象發(fā)揮作用的認識對象外部表現(xiàn)因素。Blair (2002)的綜述研究認為, 如果認知對象有著反刻板印象特征(counter-stereotypical features), 則認知者將出現(xiàn)更少的刻板印象反應(yīng)。例如, Finnegan等人(2015)發(fā)現(xiàn)給被試呈現(xiàn)反性別刻板印象的圖片(女性建筑工人或男性化妝師)能夠抑制性別刻板印象的激活。基于這一邏輯, 本研究推測當(dāng)人們接觸“善解人意的AI”時, 他們以往受過去使用經(jīng)驗和大眾傳媒描繪而形成的、對AI的心靈知覺很有可能將受到抑制。這一構(gòu)想可以用AI的擬人化(anthropomorphism)程度來闡述。擬人化是描述AI類人特征水平的術(shù)語, 這些類人特征不僅包括在外表上與人類相似, 還包括行為和情感上與人類相似(喻豐, 2020)。雖然恐怖谷效應(yīng)使得AI擬人化與人類對AI態(tài)度頗有爭議(喻豐, 許麗穎, 2020), 但總體而言, 許多研究支持人們更愿意與擬人化水平更高的AI接觸。例如, 相比起擁有合成聲音的社交機器人, 人們更信任擁有人類聲音的社交機器人(Xu, 2019); 同時, 人們對擬人化水平更高的AI助手有著更近的心理距離(Li & Sung, 2021)。隨著智能技術(shù)的發(fā)展, AI的擬人化水平越來越高, 因此本研究推測, 如果用戶在與AI互動中接觸到了更多的“反心靈知覺”的例子, 則他們“AI不能感知”的心靈知覺在激活時會受到抑制。
同時, 有關(guān)刻板印象可塑性的研究也認為改變認知對象的刺激線索配置(configuration of stimulus cues)能調(diào)節(jié)認知者的刻板印象激活。Macrae等人(1995)證明刺激線索的微小變化可以對人們的刻板印象激活產(chǎn)生很大影響。例如, 給被試呈現(xiàn)同一位中國女性, 但A組被試看到她在化妝, B組被試看到她在用筷子。雖然刺激對象都一樣, 但是刺激線索的變化使得A組被試表現(xiàn)出了更多有關(guān)女性的刻板印象, 而B組被試表現(xiàn)出了更多有關(guān)中國人的刻板印象。對比到本研究語境中, AI在執(zhí)行任務(wù)時的靈活性程度(flexibility)可能會使得用戶對AI的感知線索發(fā)生轉(zhuǎn)移。Wirtz等人(2018)的理論框架表明, 自助服務(wù)技術(shù)(self-service technology, SST)和AI服務(wù)的關(guān)鍵區(qū)別之一就是SST與用戶的交互較少, 其要求用戶必須按照特定流程操作, 否則將無法工作; 而AI在任務(wù)中可以與用戶靈活互動, 可以引導(dǎo)用戶完成任務(wù)流程, 容錯率較高。Shin和Perdue (2019)的綜述研究表明, 由于SST的靈活性較差, 因此用戶往往把它視為工具, 對它采取居高臨下態(tài)度, 在它出錯時甚至?xí)扇”┝π袨?例如腳踢機器)。所以, 如果AI在執(zhí)行任務(wù)時表現(xiàn)出了較多的SST特征, 則用戶很有可能會將本應(yīng)該具有高度靈活性的AI視為死板的SST, 從而激活“這玩意不通人性”的心靈知覺?;谏鲜鐾评? 本研究提出:
AI的擬人化程度和在任務(wù)中的靈活性程度影響了個體對AI的認知線索, 這兩個因素會抑制用戶認為AI擅長計算卻缺乏感受的心靈知覺的激活。
就如同數(shù)年前的“掃碼支付”一樣, 本研究相信AI在服務(wù)中的廣泛普及是不可逆轉(zhuǎn)的未來趨勢。然而, 上面的研究推理指出, 人們并不總是在所有場景中都接受AI服務(wù)。這一方面固然是由于當(dāng)前的AI技術(shù)本身表現(xiàn)欠佳, 另一方面更是因為人們在心理層面上就對AI服務(wù)有所反感。研究方向1和研究方向2已經(jīng)提出了一些改變用戶“AI擅長計算但不解人意”的心靈知覺的途徑, 但在現(xiàn)實中, 它們要么超出了企業(yè)的掌控范圍(例如改變大眾媒體對AI的描繪), 要么難以在短期內(nèi)實現(xiàn)技術(shù)突破(例如增加AI的擬人化和靈活性水平)。因此, 有必要提出一些其他的、在當(dāng)前環(huán)境中更具有操作性的認知策略, 以促進用戶在更廣泛的服務(wù)場景中接受AI。
本研究將用戶對AI的心靈知覺解釋為一種刻板印象, 它影響了用戶與AI互動時對自己與AI關(guān)系的認知。因此, 在心靈知覺本身難以驟然改變的情況下, 可以從用戶與AI的關(guān)系隱喻入手, 通過精巧地將AI“擬動物化”, 或是在用戶使用AI時提供技術(shù)援助, 從而使得用戶認為“缺乏感受”的AI也能在情感?社交類任務(wù)中發(fā)揮作用。
3.3.1 研究方向3a:將AI擬態(tài)為“高熱情”的動物能增進用戶對AI的感受性認知
Hoffman和Novak (2018)提出, 人們通常依照人類中心的擬人論(human-centric anthropomorphism)來理解自己與智能物品的關(guān)系。這是指人們從自己的角度出發(fā), 將自己(人類)的品質(zhì)推廣到非人物品身上的過程。作者們與Kahneman的“快決策與慢決策”類比, 認為人類中心的擬人論是一種自動化的、經(jīng)驗性的、屬于system 1的過程。Novak和Hoffman (2019)的理論框架表明, 人類中心的擬人論是用戶與AI交互時的自然認知過程, 如果人們能將自己的一些“高熱情”品質(zhì)(如有親和力)投射到智能物品上, 那將增強人們在與其互動時的延伸感, 從而改變認為“AI不能實現(xiàn)共情性需求”的固有認知。當(dāng)前, 絕大多數(shù)AI研發(fā)和應(yīng)用企業(yè)都致力于制造出盡可能像人類的AI。雖然這是AI技術(shù)的“圣杯” (Rubin, 2003), 但是目前的科技水平卻很難達到, 只能創(chuàng)造出“似人非人”的AI。這使得人們在服務(wù)中與這類擬人AI互動時頻頻出現(xiàn)恐怖谷效應(yīng)(Stein & Ohler, 2017)和補償性反應(yīng)(Mende et al., 2019)。因此, 在現(xiàn)有技術(shù)條件下, 讓人類將自己的情感品質(zhì)投射到AI上是很難實現(xiàn)的(Blut et al., 2021)。
本研究提出, 將AI擬態(tài)為具有高熱情品質(zhì)的動物, 可能會緩解當(dāng)前AI “擬人化水平”不足的不利影響, 使得人們更自然地通過人類中心的擬人論將“高熱情”品質(zhì)投射在AI上。Sevillano和Fiske (2016)提出, 人類在與動物漫長的互動過程中建立了一套牢固的、跨文化的動物關(guān)系隱喻, 例如牛是耐勞的、狗是忠誠的。人類雖然認為動物低自己一等, 但并不妨礙人們將一些動物、特別是與人類親近的動物視為“高熱情”的。然而, 將服務(wù)中的AI擬態(tài)為具有高熱情品質(zhì)的動物存在著一個問題。Wirtz等人(2018)指出從事“情感?社交”任務(wù)并不意味著只需要高熱情, 一定的認知?分析能力是從事情感?社交任務(wù)的前提。Huang和Rust (2018, 2021)也提出AI能提供的服務(wù)是按照機械的、分析的、直覺的和共情的順序依次上升的, 也即“情感?社交”任務(wù)是一種更高級的服務(wù)類型。因此, 如果單純地將AI擬態(tài)為動物, 未免會讓人懷疑非人的動物是否具備解決“認知?分析”類任務(wù)的能力。
為了解決這一問題, 本研究推測, 將AI擬態(tài)為具有高熱情品質(zhì)的動物時需要輔以精巧的信息框架, 使得AI雖然在外表上被擬態(tài)為可親近的動物, 但是其內(nèi)核依然提醒用戶正在面對的是“算力超群”的AI。這說起來復(fù)雜, 但并不難實現(xiàn), “電子狗”就是一個簡短而精巧的例子, 既強調(diào)了“電子”的強大分析能力, 又強調(diào)了“狗”的忠誠老實。Coghlan等人(2019)關(guān)于AI擬動物化的研究指出, 雖然受到技術(shù)限制, 當(dāng)前不可能讓機器人在外觀上與真正的動物一模一樣, 但是, 相較于“鋼鐵加電路”形態(tài)的傳統(tǒng)機器人, 人們對擬態(tài)為動物的機器人仍然會有移情、憐憫、同情等情感反應(yīng)。也就是說, 如果將AI擬態(tài)為動物, 雖然人們知道這是假的, 但是仍然會不由自主地對動物形態(tài)的AI產(chǎn)生部分移情。因此, 本研究提出, 借助人類對動物形態(tài)AI的這種部分移情, 可以引導(dǎo)用戶認為當(dāng)前在服務(wù)中出現(xiàn)的并不是蠢萌的動物本身, 而是有著動物般溫情的高算力AI。于是要做到這一點, 就需要精心設(shè)計動物形態(tài)的AI在提供服務(wù)時的信息框架, 做到在將AI擬態(tài)為“高熱情”動物的同時強調(diào)AI本身的高算力。在這方面, 網(wǎng)易云音樂的AI智能服務(wù)程序“西西”和“多多”就提供了一個生動的例子。在用戶尋求幫助時, “西西”和“多多”會告訴用戶:“我們是來自宇宙的馴鹿, 在人工智能的幫助下, 我們學(xué)會了人類的語言, 現(xiàn)在很高興為您服務(wù)”。在這個例子中, 擬態(tài)為具有高熱情品質(zhì)動物的AI喚起了人們的溫暖體驗; 而在理性層面, “西西”和“多多”又告訴用戶, 自己是認知?分析能力卓越的人工智能。如此, 借助人們對擬態(tài)為動物的AI的部分移情, 人們對AI的刻板印象得到了改變, 從而促進了用戶在與AI互動時的感受性認知?;谏鲜鐾评? 本研究提出:
3a通過設(shè)計信息框架, 在展示AI強大算力的同時將其擬態(tài)為具有“高熱情”品質(zhì)的動物, 這樣能調(diào)和“AI擅長計算但缺乏感受”的矛盾感, 促進用戶對AI的感受性認知, 從而增進人們在情感?社交任務(wù)中使用AI的意愿。
3.3.2 研究方向3b:與AI互動時提供技術(shù)援助能減少用戶對AI缺乏感受能力的擔(dān)憂
當(dāng)前, 絕大多數(shù)AI研發(fā)和應(yīng)用企業(yè)都暗示“AI就是人類的化身, 它能做任何人類能做到的事情”。然而, Longoni等人(2019)發(fā)現(xiàn), 由于消費者相信自己的狀況具有特殊性, 而AI提供的服務(wù)是基于統(tǒng)計規(guī)律的、不能感知用戶獨特性的, 因此人們往往不愿意接受AI提供的醫(yī)療服務(wù)。這表明在很多時候, 人類并不把AI視為能獨自決策的“人”。不過, Longoni等人(2019)也發(fā)現(xiàn), 如果AI在醫(yī)療服務(wù)中不是獨自決策, 而是僅僅為人類醫(yī)生的決策提供支持, 則消費者對AI的抗拒將會減弱(Study 9)。這說明人們接受AI作為輔助人們決策的工具。因此, 本研究推測, 如果能引導(dǎo)用戶從技術(shù)角度認識AI, 使得人們建立“AI是在輔助自己決策”的觀念, 則有可能會增進用戶對AI的包容性, 減少用戶對AI缺乏感受性能力的擔(dān)憂。
要做到這一點, 在用戶與AI互動時提供相應(yīng)的技術(shù)援助是必不可少的。許多研究表明, 在用戶使用新技術(shù)時提供相應(yīng)的便利條件(facilitating conditions)有諸多好處, 它可以減少用戶與新技術(shù)互動時的認知成本, 并且讓用戶快速熟悉新技術(shù)的特性(e.g., Mahardika et al., 2019)。Weidemann和Ru?winkel (2021)的研究發(fā)現(xiàn), 如果人機交互沒有按人們預(yù)期進行, 則用戶可能會出現(xiàn)挫折情緒, 拒絕與機器繼續(xù)互動。然而, 如果能夠在人機互動時提供相應(yīng)的技術(shù)援助, 讓人們在互動中的控制感提升, 則人們更有可能將自己視為人機互動中的主體, 增進對機器的包容性。據(jù)此, 本研究建議, 雖然與傳統(tǒng)的自助式服務(wù)設(shè)備(如銀行的ATM機)相比, AI具有高度靈活性, 但是企業(yè)也不應(yīng)該驟然地將AI拋給用戶、讓用戶自己探索, 而是需要提供一些技術(shù)援助, 幫助用戶更有效率地與AI互動。例如, 可以在用戶使用AI時提示“您面前的AI助手是由自然語言處理技術(shù)驅(qū)動的, 您可以正常地與它對話, 但請您語速慢些, 突出關(guān)鍵詞”。如此, 用戶就不會將AI視為“有完全決斷能力的人”, 而是將AI視為能為自己決策提供支持的“助手”, 從而將自己視為互動中的主體, 降低對AI缺乏感受性能力的擔(dān)憂。基于上述推理, 本研究提出:
在用戶與AI互動時提供相應(yīng)的使用提示與技術(shù)援助有助于構(gòu)建AI與人類的聯(lián)合互動模式, 減少用戶對AI缺乏感受性能力的擔(dān)憂, 增進人們在情感?社交任務(wù)中使用AI的意愿。
許多企業(yè)正在采用AI驅(qū)動的虛擬客服作為人工服務(wù)的補充, 它能幫助企業(yè)有效降低服務(wù)成本, 全天候地應(yīng)對大量重復(fù)性問題。但從文獻回顧中可以清楚看出, 用戶并不總是對此持接受態(tài)度。采用新興技術(shù)進行服務(wù)創(chuàng)新固然重要, 然而能否給顧客帶來良好體驗才是企業(yè)服務(wù)的核心競爭力。Becker和Jaakkola (2020)指出, 在服務(wù)中, 企業(yè)的最終目標(biāo)應(yīng)該是最大化地改善客戶的服務(wù)體驗, 而不僅僅是節(jié)省成本和優(yōu)化流程。因此, 如何提高人們對AI服務(wù)的接受程度、提升AI服務(wù)的應(yīng)用效能就成為了當(dāng)前服務(wù)管理的迫切需求。本研究從用戶對AI“能動性”和“感受性”兩方面的知覺入手, 討論了用戶對AI心靈知覺的形成路徑、影響這種心靈知覺激活的調(diào)節(jié)因素、以及促進用戶在更廣泛的場景中接受AI的策略。本研究希望在學(xué)理和實踐兩個層面建構(gòu)理論, 從心理學(xué)角度解釋用戶對AI服務(wù)的矛盾性態(tài)度, 提升未來AI服務(wù)的應(yīng)用效能。
本研究探討了用戶對AI心靈知覺的起源。雖然在客觀上AI與人類互動的能力越來越強, 清華大學(xué)(清華大學(xué)新聞網(wǎng), 2021)甚至迎來了第一位“AI虛擬學(xué)生”華智冰。然而, AI本身的技術(shù)表現(xiàn)是一回事, 用戶的心理感受卻是另一回事, 許多研究表明, 即使AI程序與人類的表現(xiàn)旗鼓相當(dāng), 人們在某些場景中還是更愿意被真人服務(wù)(e.g., Longoni et al., 2019; Luo et al., 2019; 張雁冰等, 2020)。過去一些研究認為用戶這種“AI擅長計算但缺乏感受”的心靈知覺是自發(fā)形成的、是一種天然的“人性感知” (e.g., Castelo et al., 2019; Wang & Krumhuber, 2018; Waytz & Norton, 2014)。但是, 本研究推測用戶對AI的心靈知覺是一種刻板印象, 它形成于用戶與服務(wù)類AI的早期接觸經(jīng)驗中; 甚至或許在用戶接觸AI之前, 人們就通過大眾媒體對AI的描繪, 將AI理解成了“不通人情”的機器。這使得人們將AI視為一種完成任務(wù)的工具, 而不是陪伴身邊的伙伴, 從而驅(qū)動人們在心理上并不希望與AI互動和交流, 阻礙了用戶在情感?社交類型的服務(wù)場景中對AI持正面態(tài)度。
同時, 本研究探討了哪些因素影響了用戶對AI心靈知覺的形成和激活。近年來, 研究用戶對AI服務(wù)接受意愿影響因素的文獻快速增長, 研究者們發(fā)現(xiàn)的影響因素越來越多, Chi等人(2021)的文獻甚至歸納11種之多的因素。無限地堆積影響因素顯然是不可取的, 這樣的列表將越來越長。本研究試圖圍繞著用戶對AI心靈知覺的形成和激活, 重新審視影響用戶對AI態(tài)度的關(guān)鍵因素。本研究借鑒了刻板印象可塑性的研究, 將過去研究中發(fā)現(xiàn)的、影響用戶對AI態(tài)度的因素分為兩類:用戶的內(nèi)部狀態(tài)和AI的表現(xiàn)因素。參考有關(guān)刻板印象調(diào)節(jié)的理論, 本研究推測, 由于與AI的高頻接觸和技術(shù)使用效能感等內(nèi)部狀態(tài)促進了用戶對AI產(chǎn)生準(zhǔn)友誼關(guān)系, 而這與“AI不通人情”的刻板印象相沖突, 因此這些用戶內(nèi)部狀態(tài)因素影響了對AI心靈知覺的形成。另一方面, 由于AI的擬人化和靈活性程度等外部表現(xiàn)提供了反刻板印象的樣例, 因此這些AI外部表現(xiàn)因素影響了用戶對AI心靈知覺的激活。
總體而言, 本研究試圖通過心靈知覺理論建立起一個理論模型, 提供一個新的、歸納用戶對AI服務(wù)態(tài)度的影響因素的動態(tài)框架, 避免今后類似研究的元素化傾向。
當(dāng)前的AI技術(shù)正在變得更加成熟和先進, 部署費用也在逐漸降低, 因此在AI技術(shù)將給服務(wù)企業(yè)帶來巨大優(yōu)勢的現(xiàn)實情境下, 越來越多的企業(yè)將在相當(dāng)程度上采用AI服務(wù)替代人工服務(wù)。許多研究都認為使用AI技術(shù)輔助、甚至代替人力將是未來服務(wù)發(fā)展的必然趨勢(王硯羽等, 2019)??墒? 對企業(yè)來說, 采用新技術(shù)進行服務(wù)創(chuàng)新固然重要, 然而能否給顧客帶來良好體驗才是服務(wù)的核心競爭力(Becker & Jaakkola, 2020)。在著名的SERVQUAL評價體系中, 共情性是衡量服務(wù)質(zhì)量的重要維度, 然而當(dāng)前的AI服務(wù)能否帶來良好的共情體驗?答案也許并不樂觀。因此, 如何促進用戶對AI服務(wù)的接受就成為了一個極具實踐價值的問題。
本研究提出, 受到“AI擅長計算卻缺乏感受”的心靈知覺的影響, 用戶通常只愿意讓AI服務(wù)“執(zhí)行指令”, 卻不愿意與AI服務(wù)“互動交流”, 這使得用戶在情感?社交類服務(wù)場景中對AI的接受度很差。雖然目前不少企業(yè)認識到了需要改善AI “冷冰冰”的形象, 并試圖通過情感計算技術(shù)使得AI程序更有“情商” (例如京東的AI客服“JIMI”)。然而機器人表達的問候和道歉并不是真正的問候和道歉, 實證研究表明, 當(dāng)用戶察覺到AI程序試圖模仿人類反應(yīng)時, 用戶可能會對其更加反感(Stein & Ohler, 2017)??梢? 讓“AI更像人”的擬人化方向也許存在問題。喻豐和許麗穎(2020)指出擬人化的概念是多元化的, 因此本研究推測將AI擬態(tài)為具有“高熱情”品質(zhì)的動物而非人類, 這也許是一種更好的AI擬人化方向。人類對動物建立的關(guān)系隱喻十分牢固且抽象(Amiot & Bastian, 2015; Sevillano & Fiske, 2016), 因此, 借助高熱情的動物形象, 人們能更自然地建立與AI的關(guān)系隱喻(Coghlan et al., 2019), 增加對AI感受性能力的認知, 進而愿意在情感?社交場景中接受AI的服務(wù)。
將AI擬態(tài)為人類還有一個問題, 即企業(yè)默認既然AI是“人”, 那用戶與AI交流就是一件自然的事情, AI可以替代人類做出決策。然而, 心靈知覺理論指出由于人們認為AI缺乏感受, 因此用戶往往不將AI視為人, 從而在與AI的互動中感受到了約束。通過文獻推理, 本研究認為, 企業(yè)需要在用戶與AI的互動中提供技術(shù)支援, 從而促進用戶從“助手”角度看待AI, 建立人類與AI的聯(lián)合互動模式。即讓用戶成為與AI互動中的主體、讓AI成為互動中的輔助者和選項提供者。這樣做能順應(yīng)用戶對AI的心靈知覺, 提高用戶對AI的包容性, 減少用戶對AI缺乏感受能力的擔(dān)憂, 進而降低用戶與AI互動時的約束感, 增進用戶在情感?社交場景中接受AI服務(wù)的意愿。
總之, 本研究試圖借助用戶對AI的心靈知覺, 通過建議將AI擬態(tài)為高熱情的動物而不是真人, 以實現(xiàn)更好的AI擬人化; 以及建議在用戶使用AI時提供技術(shù)援助以提高用戶對AI的包容性, 從而促進用戶在更廣泛的服務(wù)場景中接受AI。本研究希望為企業(yè)在服務(wù)中提高用戶對AI的滿意度、提升AI服務(wù)的應(yīng)用效能提供具有實踐性的路徑參考。
安永. (2018).. https://assets.ey.com/content/ dam/ey-sites/ey-com/en_gl/topics/insurance/insurance-pdfs/ey-chatbot-pov.pdf
程林. (2020). 奴仆、鏡像與它者: 西方早期類人機器人想象., (7), 107–112.
鄧士昌, 田芊, 林曉祥. (2020). 客戶服務(wù)中人工智能情感勝任力模型和測量指標(biāo)構(gòu)建.,(4), 100–110. https://doi.org/10.16060/j.cnki.issn2095- 8072.2020.04.009
經(jīng)濟參考報. (2019).. http://www.xinhuanet.com/money/2019-10/29/ c_1210331478.htm
科技日報. (2021). 人工智能:把根扎牢才能遍地開花. http://digitalpaper.stdaily.com/http_www.kjrb.com/kjrb/html/2021-03/05/content_463602.htm?div=-1
科學(xué)中國. (2020).. http://science.china.com.cn/2020-11/23/ content_41368614.htm
林子筠, 吳瓊琳, 才鳳艷. (2021). 營銷領(lǐng)域人工智能研究綜述.,(3), 89–106. https://doi.org/10. 16538/j.cnki.fem.20200805.301
清華大學(xué)新聞網(wǎng). (2021). 清華大學(xué)迎來國內(nèi)首個原創(chuàng)虛擬學(xué)生“華智冰.” https://www.tsinghua.edu.cn/info/1175/ 84993.htm
王硯羽, 蘇欣, 謝偉. (2019). 商業(yè)模式采納與融合:“人工智能+”賦能下的零售企業(yè)多案例研究.,(7), 186–198. https://doi.org/10.14120/j.cnki.cn11-5057/f.2019.07.020
徐鵬, 徐向藝. (2020). 人工智能時代企業(yè)管理變革的邏輯與分析框架.,(1), 122–129. https://doi.org/ 10.19744/j.cnki.11-1235/f.2020.0010
楊亞平, 徐強, 朱婷婷, 鄭旭濤, 董曉曄, 陳慶偉. (2019). 不同熱情-能力社會群體刻板印象激活效應(yīng)的行為模式:基于刻板印象內(nèi)容模型.,(10), 1143–1156. https://doi.org/10.3724/SP.J.1041.2019.01143
喻豐. (2020). 論人工智能與人之為人., (1), 30–36. https://doi.org/10.16619/j.cnki.rmltxsqy.2020. 01.003
喻豐, 許麗穎. (2020). 人工智能之?dāng)M人化.,(5), 52–60. https://doi.org/10.16783/j. cnki.nwnus.2020.05.007
張雁冰, 方雪, 呂巍. (2020). 人工智能語音助手智能程度對消費者使用意愿的影響研究.,(4), 11–15.
張雁冰, 呂巍, 張佳宇. (2019). AI營銷研究的挑戰(zhàn)和展望.,(5), 75–86.
中國青年報. (2019).http://www.xinhuanet.com/politics/2019-12/05/ c_1125310047.htm
Allan, D. D., Vonasch, A. J., & Bartneck, C. (2021). The doors of social robot perception: the influence of implicit self-theories.. https://doi.org/10.1007/s12369-021-00767-9
Amershi, B. (2020). Culture, the process of knowledge, perception of the world and emergence of AI.,(2), 417–430. https://doi.org/10.1007/s00146-019-00885-z
Amiot, C. E., & Bastian, B. (2015). Toward a psychology of human–animal relations.,(1), 6–47. https://doi.org/10.1037/a0038147
Archer, M. S. (2021). Friendship between human beings and ai robots? In J. von Braun, M. S. Archer, G. M. Reichberg, & M. S. Sorondo (Eds.),(pp. 177–189). Springer International Publishing. https://doi.org/ 10.1007/978-3-030-54173-6_15
Arm Treasure Data. (2019).. https:// www.treasuredata.com/resources/ai-vs-human-customer-service-consumer-preferences/
Bandura, A. (1997).. New York: W. H. Freeman. https://psycnet.apa.org/record/ 1997-08589-000
Banks, J. (2020). Optimus primed: Media cultivation of robot mental models and social judgments.,. https://doi.org/10.3389/frobt.2020.00062
Becker, L., & Jaakkola, E. (2020). Customer experience: fundamental premises and implications for research.,630– 648. https://doi.org/10.1007/s11747-019-00718-x
Blair, I. V. (2002). The malleability of automatic stereotypes and prejudice.,(3), 242–261. https://doi.org/10.1207/S15327957PSPR0603_8
Blut, M., Wang, C., Wünderlich, N. V., & Brock, C. (2021). Understanding anthropomorphism in service provision: a meta-analysis of physical robots, chatbots, and other AI., 632–658. https://doi.org/10.1007/s11747-020-00762-y
Bodenhausen, G. V, & Macrae, C. N. (2013). Stereotype activation and inhibition. In J. Wyer (Ed.),. Psychology Press. https://doi. org/10.4324/9780203763650
Bylieva, D., Bekirogullari, Z., Lobatyuk, V., & Nam, T. (2021). How virtual personal assistants influence children’scommunication. In D. Bylieva, A. Nordmann, O. Shipunova, & V. Volkova (Eds.),(pp. 112–124). Springer International Publishing. https://doi.org/10.1007/978-3-030-65857-1_12
Castelo, N., Bos, M. W., & Lehmann, D. R. (2019). Task-Depe-ndent algorithm aversion.,(5), 809–825. https://doi.org/10.1177/0022243719851788
Chi, O. H., Denton, G., & Gursoy, D. (2020). Artificially intelligent device use in service delivery: A systematic review, synthesis, and research agenda.,(7), 757–786. https://doi.org/ 10.1080/19368623.2020.1721394
Chi, O. H., Jia, S., Li, Y., & Gursoy, D. (2021). Developing a formative scale to measure consumers’ trust toward interaction with artificially intelligent (AI) social robots in service delivery.,(May 2020), 106700. https://doi.org/10.1016/j.chb.2021.106700
Coghlan, S., Vetere, F., Waycott, J., & Barbosa Neves, B. (2019). Could social robots make us kinder or crueller to humans and animals?,(5), 741–751. https://doi.org/10.1007/s12369- 019-00583-2
Cuddy, A. J. C., Glick, P., & Beninger, A. (2011). The dynamics of warmth and competence judgments, and their outcomes in organizations.,, 73–98. https://doi.org/10.1016/j.riob.2011.10.004
Davenport, T., Guha, A., Grewal, D., & Bressgott, T. (2020). How artificial intelligence will change the future of marketing.,(1), 24–42. https://doi.org/10.1007/s11747-019-00696-0
Finnegan, E., Oakhill, J., & Garnham, A. (2015). Counter- stereotypical pictures as a strategy for overcoming spont-an-eous gender stereotypes.,. https://doi.org/10.3389/fpsyg.2015.01291
Fiske, S. T. (2018). Stereotype content: Warmth and competence endure.,(2), 67–73. https://doi.org/10.1177/0963721417738825
Fiske, S. T., Cuddy, A. J. C., Glick, P., & Xu, J. (2002). A model of (often mixed) stereotype content: Competence and warmth respectively follow from perceived status and competition.,(6), 878–902. https://doi.org/10.1037/0022-3514.82.6.878
Flandorfer, P. (2012). Population ageing and socially assistive robots for elderly persons: The importance of sociodemo-g-raphic factors for user acceptance.,, 1–13. https://doi.org/10. 1155/2012/829835
Go, H., Kang, M., & Suh, S. C. (2020). Machine learning of robots in tourism and hospitality: interactive technology acceptance model (iTAM) – cutting edge.,(4), 625–636. https://doi.org/10.1108/TR-02-2019-0062
Gordijn, E. H., Hindriks, I., Koomen, W., Dijksterhuis, A., & van Knippenberg, A. (2004). Consequences of stereotype suppression and internal suppression motivation: A self- regulation approach.,(2), 212–224. https://doi.org/10.1177/014616720325 9935
Gray, H. M., Gray, K., & Wegner, D. M. (2007). Dimensions of mind perception.,(5812), 619–619. https:// doi.org/10.1126/science.1134475
Hatlevik, O. E., Throndsen, I., Loi, M., & Gudmundsdottir, G. B. (2018). Students’ ICT self-efficacy and computer and information literacy: Determinants and relationships.,, 107–119. https://doi.org/ 10.1016/j.compedu.2017.11.011
Hermann, E. (2021). Anthropomorphized artificial intelligence, attachment, and consumer behavior.. https://doi.org/10.1007/s11002-021-09587-3
Hoffman, D. L., & Novak, T. P. (2018). Consumer and object experience in the internet of things: An assemblage theory approach.,(6), 1178–1204. https://doi.org/10.1093/jcr/ucx105
Huang, M.-H., & Rust, R. T. (2018). Artificial intelligence in service.,(2), 155–172. https://doi.org/10.1177/1094670517752459
Huang, M.-H., & Rust, R. T. (2021). Engaged to a robot? The role of ai in service.,(1), 30–41. https://doi.org/10.1177/1094670520902266
Kaplan, A., & Haenlein, M. (2019). Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence.,(1), 15–25. https://doi.org/10.1016/ j.bushor.2018.08.004
Ki, C.-W. (Chloe), Cho, E., & Lee, J.-E. (2020). Can an intelligent personal assistant (IPA) be your friend? Para- friendship development mechanism between IPAs and their users.,, 106412. https://doi.org/10.1016/j.chb.2020.106412
Latikka, R., Turja, T., & Oksanen, A. (2019). Self-efficacy and acceptance of robots.,, 157–163. https://doi.org/10.1016/j.chb.2018.12.017
Li, X., & Sung, Y. (2021). Anthropomorphism brings us closer: The mediating role of psychological distance in User–AI assistant interactions.,, 106680. https://doi.org/10.1016/j.chb.2021. 106680
Longoni, C., Bonezzi, A., & Morewedge, C. K. (2019). Resistance to medical artificial intelligence.,(4), 629–650. https://doi.org/10. 1093/jcr/ucz013
Luo, X., Tong, S., Fang, Z., & Qu, Z. (2019). Frontiers: Machines vs. humans: The impact of artificial intelligence chatbot disclosure on customer purchases.,(6), 937–947. https://doi.org/10.1287/mksc.2019.1192
Macrae, C. N., Bodenhausen, G. V., & Milne, A. B. (1995). The dissection of selection in person perception: Inhibitory processes in social stereotyping.,(3), 397–407. https://doi.org/10. 1037/0022-3514.69.3.397
Mahardika, H., Thomas, D., Ewing, M. T., & Japutra, A. (2019). Experience and facilitating conditions as impediments to consumers’ new technology adoption.,(1), 79–98. https://doi.org/10.1080/09593969.2018.1556181
Makridakis, S. (2017). The forthcoming artificial intelligence (AI) revolution: Its impact on society and firms.,, 46–60. https://doi.org/10.1016/j.futures.2017.03.006
Mende, M., Scott, M. L., van Doorn, J., Grewal, D., & Shanks, I. (2019). Service robots rising: how humanoid robots influence service experiences and elicit compensatory consumer responses.,(4), 535–556. https://doi.org/10.1177/0022243718822827
Morgan, M., Shanahan, J., & Signorielli, N. (2015). Yesterday’snew cultivation, tomorrow.,(5), 674–699. https://doi.org/10.1080/15205436.2015.1072725
Moskowitz, G. B., Gollwitzer, P. M., Wasel, W., & Schaal, B. (1999). Preconscious control of stereotype activation through chronic egalitarian goals.,(1), 167–184. https://doi.org/10. 1037/0022-3514.77.1.167
Novak, T. P., & Hoffman, D. L. (2019). Relationship journeys in the internet of things: a new framework for understan-ding interactions between consumers and smart objects.,(2), 216–237. https://doi.org/10.1007/s11747-018-0608-3
O’Hear, S. (2017).. TechCrunch.
Oleszkiewicz, A., & Lachowicz-Tabaczek, K. (2016). Perceived competence and warmth influence respect, liking and trust in work relations.,(4), 431–435. https://doi.org/10.1515/ppb-2016-0050
Ramadan, Z., Farah, M., & El Essrawi, L. (2021). From Amazon.com to Amazon.love: How Alexa is redefining companionship and interdependence for people with special needs.,(4), 596–609. https:// doi.org/10.1002/mar.21441
Rubin, C. T. (2003).. The New Atlantis. https://www.thenewatlantis.com/publications/ artificial-intelligence-and-human-nature
Russell, S., & Norvig, P. (2016).(3rd ed.). Pearson Education Limited.
Sevillano, V., & Fiske, S. T. (2016). Animals as social objects: groups, stereotypes, and intergroup threats.,(3), 206–217. https://doi.org/10.1027/1016- 9040/a000268
Shahid, S., Krahmer, E., & Swerts, M. (2014). Child–robot interaction across cultures: How does playing a game with a social robot compare to playing a game alone or with a friend?,, 86–100. https:// doi.org/10.1016/j.chb.2014.07.043
Shin, H., & Perdue, R. R. (2019). Self-service technology research: A bibliometric co-citation visualization analysis.,, 101–112. https://doi.org/10.1016/j.ijhm.2019.01.012
Stein, J.-P., & Ohler, P. (2017). Venturing into the uncanny valley of mind—The influence of mind attribution on the acceptance of human-like characters in a virtual reality setting.,, 43–50. https://doi.org/10.1016/j. cognition.2016.12.010
Sundar, S. (2008). The MAIN model: A heuristic approach to understanding technology effects on credibility. In M. J. Metzger & A. J. Flanagin (Eds.),(pp. 73–100). The MIT Press.
Sundar, S. S., Waddell, T. F., & Jung, E. H. (2016).. 2016 11th ACM/IEEE International Conference on Human- Robot Interaction (HRI) (pp.343–350). https://doi.org/ 10.1109/HRI.2016.7451771
Turja, T., Rantanen, T., & Oksanen, A. (2019). Robot use self-efficacy in healthcare work (RUSH): development and validation of a new measure.,(1), 137–143. https://doi.org/10.1007/s00146-017-0751-2
Venkatesh, V. (2021). Adoption and use of AI tools: a research agenda grounded in UTAUT.. https://doi.org/10.1007/s10479-020-03918-9
Vla?i?, B., Corbo, L., Costa e Silva, S., & Dabi?, M. (2021). The evolving role of artificial intelligence in marketing: A review and research agenda.,, 187–203. https://doi.org/10.1016/j.jbusres.2021.01.055
Wang, X., & Krumhuber, E. G. (2018). Mind perception of robots varies with their economic versus social function.,. https://doi.org/10.3389/fpsyg. 2018.01230
Waytz, A., Gray, K., Epley, N., & Wegner, D. M. (2010). Causes and consequences of mind perception.,(8), 383–388. https://doi.org/10. 1016/j.tics.2010.05.006
Waytz, A., & Norton, M. I. (2014). Botsourcing and outsourcing: Robot, British, Chinese, and German workers are for thinking- not feeling-jobs.,(2), 434–444. https://doi.org/ 10.1037/a0036054
Weidemann, A., & Ru?winkel, N. (2021). The role of frustration in human–robot interaction – what is needed for a successful collaboration?,. https://doi.org/10.3389/fpsyg.2021.640186
Wheeler, S. C., & Petty, R. E. (2001). The effects of stereotype activation on behavior: A review of possible mechanisms.,(6), 797–826. https://doi.org/ 10.1037/0033-2909.127.6.797
Wirtz, J., Patterson, P. G., Kunz, W. H., Gruber, T., Lu, V. N., Paluch, S., & Martins, A. (2018). Brave new world: service robots in the frontline.,(5), 907–931. https://doi.org/10.1108/ JOSM-04-2018-0119
Wu, L., & Wen, T. J. (2021). Understanding AI advertising from the consumer perspective.,, JAR-2021-004. https://doi.org/10.2501/ jar-2021-004
Xiao, L., & Kumar, V. (2021). Robotics for customer service: a useful complement or an ultimate substitute?,(1), 9–29. https://doi.org/10.1177/ 1094670519878881
Xu, K. (2019). First encounter with robot Alpha: How individual differences interact with vocal and kinetic cues in users’ social responses.,(11–12), 2522–2547. https://doi.org/10.1177/1461444819851479
User acceptance mechanism and usage promotion strategy of AI services based on mind perception theory
DENG Shichang1, XU Qi1, ZHANG Jingjing1, LI Xiangqian2
(1Management School, Shanghai University of International Business and Economics, Shanghai 201620, China)(2School of Psychology, Shanghai University of Sports, Shanghai 200438, China)
Many enterprises have adopted AI services to respond to customer needs, yet several studies indicate that users are not always satisfied with AI in service. This study explores the key factors that drive users? attitudes toward AI services and usage promotion strategies based on the generation and influence of users? mind perceptions of AI, which including (1) Mechanism analysis: How do the cues and experiential factors of users? early contact with AI lead to the perception that AI is “good at computing but not feeling”? (2) Moderating effects: How do different internal user states and external AI features moderate the formation and activation of this mind perception toward AI? (3) Facilitation strategies: With the reverse utilization of mind perception, how can the mimicry of AI as warmth animals and the provision of technical assistance enable users to accept services from AI in a wider range of scenarios? This study attempts to construct a new model of AI service acceptance based on the theory of mind perception at the theoretical level and provide a psychological reference for theoretically explaining users? ambivalent attitudes toward AI services. At the practical level, this study attempts to propose two pathways to facilitate users' acceptance of AI services with the help of mind perception theory and provide a technical reference for enterprises to enhance the effectiveness of AI applications in their service processes.
artificial intelligence, mind perception, customer service, stereotype, warmth
2021-02-02
*國家自然科學(xué)基金項目(72002123); 教育部人文社會科學(xué)研究項目(19YJC630027)資助。
李象千, E-mail: 2070164L@gmail.com
B849