李思賢 陳佳昕 宋艾珈 王夢琳 段錦云
摘要人工智能(AI)正在逐步滲透至人類社會生活的方方面面,AI的使用能夠在很大程度上節(jié)省時間、精力等諸多資源,但人們對AI提供的各類服務(wù)及建議的接受程度仍然不足。本文從建議接受者(人)的認(rèn)知、情緒、態(tài)度等,建議提出者(AI)的外部特征、 “人格”特征等,以及人-AI互動(系統(tǒng))三個角度討論“影響個體接受AI建議的因素”,并且梳理了相關(guān)理論(技術(shù)接受模型、計算機(jī)為行動者范式、心靈感知理論和預(yù)測加工理論),以解釋個體對AI的建議接受度?;谝陨鲜崂矸治?,我們認(rèn)為,未來研究可關(guān)注AI感知對建議采納機(jī)制及調(diào)節(jié)作用、個體對AI建議偏好情境、對AI角色特征的感知態(tài)度,以及接受AI的心理模型動態(tài)化等角度,更加全面、系統(tǒng)地補充AI在建議采納領(lǐng)域的應(yīng)用。
關(guān)鍵詞人工智能建議;建議采納;人機(jī)互動;建議者-決策者系統(tǒng)
分類號B849
DOI: 10.16842/j.cnki.issn2095-5588.2022.04.002
1人工智能接受度現(xiàn)狀
人工智能(Artificial Intelligence,以下簡稱AI)的廣泛應(yīng)用對經(jīng)濟(jì)和社會產(chǎn)生了重大影響。AI逐漸成為人類勞動的主要輔助者和替代者,從簡單重復(fù)性的工作(如承擔(dān)計數(shù)、搬運等)到復(fù)雜計算、推理性的工作(如金融分析師、管理咨詢師等),AI都承擔(dān)了重要角色(Huang & Rust, 2018)。同時,人類有限的精力、非理性決策和認(rèn)知偏差使人們需要借助一定的外力來保證決策質(zhì)量。由此,AI逐漸以顧問或客服的形式出現(xiàn),代替人工向用戶提供建議,如在網(wǎng)絡(luò)銷售/金融領(lǐng)域中,機(jī)器人顧問的數(shù)量逐年增長(Shanmuganathan, 2020)。與傳統(tǒng)的人力顧問相比,機(jī)器人顧問可以改善金融服務(wù)的時限性和可獲得性、降低管理費用、為用戶提供更廣泛的投資選擇、避免不良動機(jī)等(Belanche et al., 2019)。
然而人們對AI提供的各類服務(wù)及建議的接受程度仍然不足(Hertz & Wiese, 2019; Jung et al., 2018)。這可能與人們對新技術(shù)的接受度有關(guān),每當(dāng)新興技術(shù)產(chǎn)生時,人們總會對新技術(shù)過度恐懼(Orben, 2020)。但AI不同于其他新技術(shù)的獨特之處在于,AI和人類有相似性,人們能夠從AI技術(shù)中感受到和人有關(guān)的部分。基于此,本文試圖回答以下問題:AI的建議在何種程度上被人們所接受,影響人們接受其建議的因素及機(jī)制是什么,以及如何改進(jìn)以促進(jìn)個體對AI建議的采納(如圖1所示)。
在傳統(tǒng)的建議采納研究領(lǐng)域,學(xué)者通常采用建議者-決策者系統(tǒng)(Judge-Advisor System, JAS)對影響建議采納的因素進(jìn)行探究。因此,本文也從JAS系統(tǒng)出發(fā),分別從人(決策者角色)、AI(建議者角色)、以及人-AI互動過程(系統(tǒng))三方面進(jìn)行梳理。本文將AI定義為基于各種技術(shù)實現(xiàn)的對人類智能片段的模擬(Glikson & Woolley, 2020),包括計算機(jī)、機(jī)器人、以及運用于電腦或手機(jī)等的智能系統(tǒng)、算法等。同時,由于有關(guān)人類與AI交互的研究大多以對AI的接受度、偏好程度、使用意愿等作為考察對象,這也是決策者建議采納時考慮的因素(Haran & Shalvi, 2020; Collins et al., 2011),因此本文將對AI的接受度、偏好程度以及使用意愿等作為建議采納的指標(biāo)。
2建議接受者的因素
對于建議接受者(人)而言,是否采納AI的建議,以及對AI建議是否滿意受限于個體長期以來形成的對AI的觀點,較為穩(wěn)定。本文提出個體對AI的認(rèn)知、情感、態(tài)度,以及個體的人格特質(zhì)和先前與AI互動的經(jīng)驗,都會影響到對AI建議的接受度。
2.1認(rèn)知
心靈感知理論提出, 個體對人類和非人類實體均從以下兩個維度進(jìn)行感知: 能動(agency)——思考,計劃和自愿行動的能力;體驗(experience)——感覺情緒,痛苦和愉悅的能力(Gray et al., 2007)。因此,我們將人類對AI的認(rèn)知也從能動性認(rèn)知和體驗性認(rèn)知兩個方面分析。
在能動性認(rèn)知方面,首先,人對AI可解釋性的感知會影響其接受程度。具體來說,通過對AI執(zhí)行任務(wù)過程的解釋,個體提高了對AI的理解, 從而產(chǎn)生信任(Donghee, 2021)。Mercado等人(2016)的研究表明,對于透明度較高的AI系統(tǒng),參與者對該系統(tǒng)的信任度和感知可用性更高,表現(xiàn)更出色;同樣地,一項綜述也表明向用戶解釋系統(tǒng)的運行方式會提高用戶對系統(tǒng)的可理解性感知,從而提高信任度(Schaefer et al., 2016)。除此之外,有學(xué)者提出個體對AI表現(xiàn)期待(performance expectation)和努力期待(effort expectation)的感知也會影響AI接受度(Venkatesh et al., 2003)。前者是指個體相信使用AI能夠有助于其在相應(yīng)任務(wù)上取得成就的程度,后者為個體認(rèn)為使用AI的容易程度,這兩者均可以正向預(yù)測個體對AI的使用意愿(Venkatesh et al., 2003)。由此,當(dāng)個體對AI的能動性認(rèn)知增加時,對AI的使用意愿和接受程度也有所提升。
在體驗性認(rèn)知方面,由于人們認(rèn)為AI的體驗性較低,缺乏體驗情緒的能力,相較于人類,AI更不易受到偏見(如種族歧視)的影響,繼而做出不公正的決策。因此,在涉及到平等、公正的道德決策時,人們更愿意接受AI建議(Bigman et al., 2021)。相反,相比于人類導(dǎo)購,顧客更不愿接受AI導(dǎo)購對享受型商品的推薦,因為該類商品需要有主觀感受和體驗才能做出合理評價,而這正是AI所缺乏的(Wien & Peluso, 2021)。另一方面,Yam等人(2020)的研究發(fā)現(xiàn),相比于低AI體驗性感知,顧客感知到AI體驗性較強(qiáng)時,更能夠容忍AI在服務(wù)過程中犯的錯誤,這可能是由于個體認(rèn)為“體驗性強(qiáng)的機(jī)器人對服務(wù)失敗而感到自責(zé)和后悔”。由此可以看出,相比于能動性認(rèn)知,個體對AI體驗性認(rèn)知和AI接受度之間的關(guān)系更復(fù)雜且不穩(wěn)定,更多取決于情境條件。A9D08A6C-8D3C-4567-A816-1556B9F6C0D8
2.2情感
在建議采納領(lǐng)域,研究者發(fā)現(xiàn)相比于中性情緒,個體體驗到積極情緒時更傾向于采納建議,而體驗到消極情緒時則更不愿采納建議(Gino & Schweitzer, 2008)。情緒同樣可以影響個體對AI的使用意愿和偏好。一方面,研究表明,焦慮是阻礙人們與AI互動意愿的主要情緒(Nomura et al., 2006)。當(dāng)人們?nèi)狈εcAI互動的體驗時,會困惑如何與AI互動、擔(dān)心受傷害,甚至?xí)?dān)心AI對社會造成潛在負(fù)面影響,如搶走人類的工作、對人類造成困擾等,這些都會引發(fā)焦慮,從而影響AI接受度(Nomura et al., 2006)。厭惡是對AI的另一種消極情緒反應(yīng)。部分AI不僅會引起焦慮,還會引起個體產(chǎn)生怪誕、厭惡等消極感受,即“恐怖谷效應(yīng)”(the uncanny effect; Mori, 1970)。有研究者從心靈感知理論出發(fā)對恐怖效應(yīng)提出探究,認(rèn)為這可能與人們對AI的體驗性感知相關(guān)(Gray & Wegner, 2012)。但另一方面,個體在想到AI或?qū)嶋H與AI互動時,不只會產(chǎn)生消極情緒,還會產(chǎn)生積極情緒。如老年人與機(jī)器海豹“帕羅”互動時(Takayanagi et al., 2014),會表現(xiàn)出積極情緒,而積極情緒比消極情緒更能夠預(yù)測對AI的使用意愿(Smith et al., 2020)。
為什么個體會對無生命的AI產(chǎn)生如此生動且豐富的情緒呢?如前所述,根據(jù)心靈感知理論,AI相對其他無生命個體而言,與人類最為接近,具有其獨特性。因此有研究者認(rèn)為,在如下三種條件之下,個體會由于心靈感知而對AI產(chǎn)生特定的情緒:(1)當(dāng)個體對AI的某些方面感到驚訝時;(2)當(dāng)AI按照社會規(guī)則行動時;(3)當(dāng)AI具備似人的特征時(Shank et al., 2019)。在這三種條件下,對AI能動性和體驗性的不同感知,可能會導(dǎo)致個體對AI的不同情緒反應(yīng),進(jìn)而影響到對待AI建議的態(tài)度和接受意愿。同時,個體對AI的情緒可能是復(fù)雜、矛盾的,如既擔(dān)心AI帶來的威脅,又享受AI所帶來的服務(wù)。因此,個體對AI產(chǎn)生的多重情緒如何交互地影響對其建議和決策的接受度,也是人-AI互動中重要的一方面。
2.3人格特質(zhì)
人格特質(zhì)對個體與AI互動的意愿、AI互動的類型都有影響,但是人格特質(zhì)與對AI接受度之間的關(guān)系卻十分復(fù)雜。以大五人格為例,最為穩(wěn)定的預(yù)測因子是宜人性和外傾性,絕大部分研究發(fā)現(xiàn)個體的宜人性和外傾性與AI接受度之間存在顯著正相關(guān)。開放性與AI接受度之間存在較弱的正相關(guān),而對神經(jīng)質(zhì)、盡責(zé)性而言,不同研究者得出的結(jié)果并不一致。此類矛盾的結(jié)果可能與研究者采用的測量方式和選取情景有關(guān),比如,具有高盡責(zé)性個體更不喜歡使用物理界面的社交機(jī)器人,因為有責(zé)任心的人更喜歡文本界面(Looije et al., 2010);并且,由于AI的智能性,很少甚至不再需要有條理的人工輸入就能輸出結(jié)果,這與盡責(zé)性個體的特征相重合,使得盡責(zé)性強(qiáng)的員工產(chǎn)生對工作角色的模糊,因此更不愿意使用AI (Tang et al., 2021)。
除大五人格之外,個體對AI的擬人化傾向也是影響AI建議接受度的重要人格特質(zhì),目前有大量研究關(guān)注到了對AI的擬人化傾向(衡書鵬等, 2019)。擬人化傾向指個體會在多大程度上以人的角度來理解和看待非人類實體 (Epley et al., 2007)。Martin等人(2020)的結(jié)果表明,有較高擬人化傾向的消費者會更加積極地看待AI建議,建議采納率也更高。并且,高擬人化傾向的個體感知AI的共情能力更強(qiáng),預(yù)期與AI的交往更愉快,對AI接受度更高(Pelau et al., 2021)。
2.4態(tài)度
個體如何看待AI是影響其使用意愿的重要因素。根據(jù)技術(shù)接受模型(Technology Acceptance Model, TAM),個體是否執(zhí)行某行為的意圖主要取決于其態(tài)度——一個人對相關(guān)行為的有利或不利評價的程度,同時感知有用性和感知易用性也會影響使用態(tài)度和意愿(Davis, 1989)。W?rn和Ramberg(1996)探討了對AI建議態(tài)度的積極程度與采納AI建議之間的關(guān)系。研究結(jié)果發(fā)現(xiàn),個體對AI提出的建議態(tài)度越積極,則越傾向于采納其建議。在金融領(lǐng)域,Belanche等人(2019)對金融AI建議者的使用意愿進(jìn)行了考察,同樣發(fā)現(xiàn)客戶對AI態(tài)度的積極程度是采納AI建議的最強(qiáng)預(yù)測因素。在醫(yī)療領(lǐng)域的研究發(fā)現(xiàn),當(dāng)人們對AI建議的準(zhǔn)確性和質(zhì)量有所懷疑時,采納AI建議的態(tài)度會更猶豫(Nadarzynski et al., 2019);當(dāng)個體為某領(lǐng)域的專家時,對AI在該領(lǐng)域提出的建議接受度則會下降(Logg et al., 2019)。最近一項研究表明,個體對AI的態(tài)度實際上是矛盾的,即既認(rèn)為AI是有能力的,又擔(dān)心AI的能力對人類產(chǎn)生威脅(Dang & Liu, 2021)。類似地,在中國老年人中的一項調(diào)查發(fā)現(xiàn),感知AI能力強(qiáng)會引發(fā)老人關(guān)于經(jīng)濟(jì)、技術(shù)和隱私方面的擔(dān)憂;而感知AI溫暖性則會減少這些擔(dān)憂(Liu et al., 2021)。
2.5相關(guān)經(jīng)驗
基于職業(yè)、文化程度和年齡的不同,人們對人工智能的熟悉度會不同(Young et al., 2009)。對人工智能是否熟悉影響了人們采用其建議的程度。對創(chuàng)新技術(shù)熟悉度高的用戶由于對技術(shù)有第一手的知識,會更多地從有用性的角度去衡量其價值,對技術(shù)的接受度也更高(Young et al., 2009)。相反,對新技術(shù)熟悉度較低的用戶對AI的了解更模糊和間接,更容易受到主觀規(guī)范(如,他人意見)的影響(Belanch et al., 2019)。研究者發(fā)現(xiàn),參與者與AI進(jìn)行有趣且體驗感強(qiáng)的合作任務(wù)能夠正向影響個體對AI的印象,即在與AI進(jìn)行積極互動后,個體對AI的評價更高、認(rèn)為與AI相處更舒服(Paetzel et al., 2020)。但是,并不是對AI認(rèn)知的所有維度都會隨互動次數(shù)增加而產(chǎn)生線性變化,如感知到的能力、AI的擬人程度和對AI的喜愛度僅在與AI互動的前期會發(fā)生變化,之后基本保持不變;與之相反,感知威脅程度和不適感卻在與AI互動的整個過程中都會發(fā)生變化(Paetzel et al., 2020)。A9D08A6C-8D3C-4567-A816-1556B9F6C0D8
除了個體本身的經(jīng)驗外,來自他人的經(jīng)驗也會對接受和使用AI產(chǎn)生一定作用。這種來自他人的經(jīng)驗,也可以被看作主觀規(guī)范的來源。主觀社會規(guī)范對AI建議的采納有顯著影響(Belanch et al., 2019),主要以社會信息為線索形成一種壓力,使得個體在感知他人意見的基礎(chǔ)上去執(zhí)行某特定行為(Taylor & Todd, 1995)。如果上級或同事認(rèn)為使用AI是正確的,那么盡管個體對AI的熟悉度較低,也會遵從他人的意見和態(tài)度去使用AI。比如在電子金融領(lǐng)域,個體對待新興科技(如AI)的行為就會受到他人評論以及相關(guān)媒體新聞對該技術(shù)報道的影響(Belanche et al., 2019)。
3建議提供者的因素
在交互時,AI首先會通過其外部特征給個體留下第一印象。外部特征主要通過具體表現(xiàn)形式(有無實體、有無形象)和外觀是否擬人化來傳達(dá)。在互動過程中,AI的語言、動作、神態(tài)等會傳達(dá)其“人格”特征,是“冷冰冰的機(jī)器”還是“熱情洋溢的伙伴”。但并不是AI與人類越相似越好,高度擬人化的AI反而會導(dǎo)致“恐怖谷”效應(yīng)的產(chǎn)生。
3.1AI的外部特征
AI的視覺外觀是影響人類對其第一印象的主要因素之一,外觀會影響人們與之互動時的期望,從而影響人們對AI的接受度(de Visser et al., 2016)。相關(guān)研究主要集中在對AI具體表現(xiàn)形式和擬人化外觀方面。
目前,AI的具體表現(xiàn)形式可以分為實體式(有形機(jī)器人)、虛擬式(二維形象)和嵌入式(以用戶看不見的形式嵌入計算機(jī)或其他工具中; Glikson & Woolley, 2020)。相比于無實體AI,實體AI能夠為人類提供更多的感官輸入(如視覺、觸覺等),這些輸入刺激會使人類認(rèn)為其具有更強(qiáng)烈的社會存在感(Lee et al., 2006)。社會存在感與個體感知到的“真正參與到某一社交過程中的程度”有關(guān),即是否感受到被一個社會實體所陪伴的感覺,是社會互動中的重要影響因素,是進(jìn)行態(tài)度改變、說服和建議采納的基點(Wang & Rau, 2019)。一般而言,實體機(jī)器人比虛擬機(jī)器人更具有吸引力、更可信、提供的信息更豐富、更有說服力(Glikson & Woolley, 2020)。但值得注意的是,這種影響有可能取決于參與者當(dāng)時所處的環(huán)境。如研究發(fā)現(xiàn),在三維環(huán)境下,實體機(jī)器人給出的建議要比虛擬機(jī)器人給出的建議更容易被采納;但在二維環(huán)境中,虛擬機(jī)器人的建議更受歡迎(Shinozawa et al., 2005)。這表明,AI呈現(xiàn)形式與任務(wù)所處環(huán)境的一致性會對人類采納建議的傾向產(chǎn)生影響。
由于與人類的相似性,AI外觀的擬人化是研究的熱門話題之一。比如,下巴較短的類人機(jī)器人能夠預(yù)測機(jī)器人的社交性,因此人們也更容易采納短下巴機(jī)器人的建議(Powers & Kiesler, 2006); 增加對服務(wù)型機(jī)器人似人外觀的感知能夠提高顧客對其服務(wù)的滿意度(Yam et al., 2020)。另外,AI擬人化的非言語信息也會對建議采納、說服等社會行為產(chǎn)生影響。這些非言語信息包括身體姿態(tài)(如距離、 凝視、 手勢、 面部表情)和聲音線索(音調(diào)、 音色)等。相比于沒有非語言線索,當(dāng)AI使用非語言線索時,人們會更愿意采納機(jī)器人的建議。如,人們更容易采納發(fā)出男性聲音AI的建議(Powers & Kiesler, 2006); 而男性更愿意聽取女性機(jī)器人的建議進(jìn)行捐贈(Siegel et al., 2009)。使用手勢可以提高建議采納(Chidambaram et al., 2012),但也有研究發(fā)現(xiàn),機(jī)器人同時使用凝視和手勢時說服力才會增強(qiáng),而單獨使用手勢則會削弱機(jī)器人的說服力(Ham et al., 2015)。
根據(jù)心靈感知理論,與人類相似的外表提供的社會線索使得人們將無生命的AI當(dāng)作另一個人類, 認(rèn)為AI具有與人類一般的心智(Wang & Krumhuber, 2018),從而引起個體對其的信任(de Visser et al., 2016)、共情(Pelau et al., 2021)等感受,并促進(jìn)合作(Martin et al., 2020)和進(jìn)一步的交往意愿。
3.2AI的“人格特征”
不少研究者考察了AI的大五人格是否會影響個體對其的接受程度,個體對外傾性高的AI的印象更積極,并且認(rèn)為其更加有趣(Chang et al., 2018);同時,也有研究者認(rèn)為,AI的自動化、系統(tǒng)化和有秩序體現(xiàn)的是盡責(zé)性,在工作場所中能與盡責(zé)性低的員工形成互補(Tang et al., 2021),從而提高其接受度。除大五人格之外,有知識的AI和友善的AI能夠正向預(yù)測個體對AI建議的采納程度(Powers & Kiesler, 2006)。并且,提高AI的自主性能夠通過增強(qiáng)個體對AI的能力和溫暖維度上的感知,從而提高個體使用AI的意愿和行為。具體來說,相比于思維自主性,提高AI感覺自主性和行動自主性在個體對其能力維度上的感知作用更大(Hu et al., 2021)。
并且,對于服務(wù)型機(jī)器人而言,個體對其社交技能的要求更高(Heerink et al., 2010)。比如在商場中,顧客更喜歡外向的導(dǎo)購AI(Ludewig et al., 2012);而在養(yǎng)老院,人們更青睞于富有情感的AI(Cadman & Brewer, 2001)。研究表明,AI展示出的性格特征與參與者的性格相匹配時,參與者會對AI產(chǎn)生更強(qiáng)的偏好(Aly & Tapus, 2015),如當(dāng)計算機(jī)聲音表現(xiàn)出的個性與參與者的個性相匹配時,參與者認(rèn)為計算機(jī)聲音更有吸引力、更可信、更有價值,從而更可能聽從該計算機(jī)的建議而購買產(chǎn)品(Nass & Lee, 2001)。
3.3“恐怖谷”效應(yīng)
“恐怖谷”效應(yīng)最初由Mori(1970)提出,他認(rèn)為個體對機(jī)器人或AI的接受度在一定范圍內(nèi)與AI的擬人化程度呈正相關(guān),然而,當(dāng)AI擬人化程度過高直至接近真人時,個體對其的接受度會顯著下降。不僅如此,Gray和Wegner(2012)認(rèn)為,個體感知AI體驗性過高也會導(dǎo)致恐怖谷效應(yīng)。推究其解釋,研究者認(rèn)為這是個體期待與現(xiàn)實不符的結(jié)果(K?tsyri et al., 2015)。比如,人們普遍認(rèn)為AI本質(zhì)上缺乏體驗性,那么當(dāng)AI具有傳達(dá)體驗性的能力時,如能夠表達(dá)情緒的眼神和語氣,人們就會感受到不安和焦躁(Gray & Wegner, 2012)。類似地,研究發(fā)現(xiàn)相比于擁有自我控制能力的AI,擁有感受能力的AI會讓個體感到更怪誕和陰森。但當(dāng)AI的角色為照料者時,個體的怪誕感受則會減少(Appel et al., 2020)。A9D08A6C-8D3C-4567-A816-1556B9F6C0D8
基于現(xiàn)有研究,學(xué)者提出兩類觀點來解釋“恐怖谷”效應(yīng)(Zhang et al., 2020)。第一類觀點基于進(jìn)化心理學(xué),認(rèn)為“恐怖谷”效應(yīng)來源于AI和機(jī)器人的外觀本身,威脅到人類的存在;第二類觀點則基于認(rèn)知沖突,認(rèn)為當(dāng)AI的表現(xiàn)和自己的期望不吻合時,人們會產(chǎn)生怪誕感受。
4人-AI交互過程
建議采納是個動態(tài)的過程,必須存在接受者和建議者AI的互動才能完成。個體在不同任務(wù)情境、不同交互方式下對AI所提的建議也會有不一樣的評估。
4.1任務(wù)特征
研究者通過操縱建議者(人vs. AI)和任務(wù)類型的匹配,探討任務(wù)類型與建議采納的關(guān)系(Hertz & Wiese, 2019)。結(jié)果發(fā)現(xiàn),無論在何種條件下,在社交任務(wù)中的參與者都更加偏愛人類提出的建議;相反,在分析任務(wù)中的參與者則對AI的建議有更高的遵從率。類似地,另一項研究發(fā)現(xiàn),人們在社交任務(wù)中會更信任與人類相似的AI,而在分析任務(wù)中更信任機(jī)器形式的AI (Hertz & Wiese, 2019)。
也有研究者認(rèn)為,人們會根據(jù)AI執(zhí)行的功能而對AI產(chǎn)生不同心靈感知,如社交任務(wù)中的AI被認(rèn)為更具有體驗性,而在經(jīng)濟(jì)型任務(wù)中的AI則更具有能動性(Wang & Krumhuber, 2018)。這是因為與執(zhí)行經(jīng)濟(jì)型功能的AI相比,人們會認(rèn)為執(zhí)行社交型任務(wù)的AI具有更多的情緒體驗。這也在一定程度上解釋了人類為何會在不同任務(wù)情境下對不同類型AI建議的接受度有所差別。
前文論述了個體對具有不同人格特征AI的偏好,但是這一效應(yīng)也會被任務(wù)特征所影響。如,在康復(fù)中心人們更喜歡外傾性AI,而不是內(nèi)傾性AI; 然而在執(zhí)行安全任務(wù)時, 與外傾性AI相比, 人們更偏好內(nèi)傾性高的AI(Tay et al., 2014)。此外,外傾性個體更喜歡外傾性的AI導(dǎo)游,而內(nèi)傾型個體更喜歡內(nèi)向的AI清潔工。即表明,個體對機(jī)器人個性的偏好取決于機(jī)器人的角色背景和對個別工作的刻板印象(Joosse et al., 2013)。這與建議采納領(lǐng)域中的研究一致,當(dāng)決策者認(rèn)為建議者更聰敏、更準(zhǔn)確或更專業(yè)時,對相應(yīng)建議的采納程度更高(Leong & Zaki, 2018)。
4.2交互方式
人際互動能夠引發(fā)觀點采擇,而人們可以通過觀點采擇而縮小自我與他人之間的差異(Ames et al., 2008)。根據(jù)心靈感知理論,與AI進(jìn)行互動也可以使人類認(rèn)為AI與自身更加相似,具有心智(Waytz et al., 2010)。當(dāng)個體認(rèn)為AI具有心智時,會與其更加親近,從而影響個體對AI的使用意愿(Lee et al., 2020)。
由于最初設(shè)計機(jī)器人是為了幫助人類完成工作、提高效率,因此人們會認(rèn)為機(jī)器人在執(zhí)行任務(wù)時僅僅關(guān)注于動作的完成,而缺乏對動作意圖的認(rèn)識(Kim & Duhachek, 2020)。當(dāng)AI僅注重于動作“怎樣”完成時,表示其能動性達(dá)到了一定水平;但由于缺乏對“為什么”完成動作的認(rèn)知,所以AI缺乏特定的體驗。因此,當(dāng)AI提供的建議聚焦于“怎樣”,而非“為什么”時,個體會產(chǎn)生匹配、符合期待的感受,從而更容易被AI說服(Kim & Duhachek, 2020)。
另外,有學(xué)者認(rèn)為,沉浸體驗(flow experience)也應(yīng)該被添加到研究框架中(Oh & Yoon, 2014),沉浸體驗是指個體所有注意力都集中在當(dāng)下活動上且產(chǎn)生愉快的體驗(Ghani & Deshpande, 1994)。有關(guān)沉浸體驗的研究集中在互聯(lián)網(wǎng)、電視節(jié)目以及計算機(jī)使用方面(Oh & Yoon, 2014),這些研究都發(fā)現(xiàn)沉浸體驗可以提高個體對提供信息的接受程度,或許可以為人類采納AI建議提供新的研究方向。
5影響AI接受度的理論解釋
本文整理了近幾十年較為流行的解釋人機(jī)互動的理論模型,包括經(jīng)典的技術(shù)接受模型、計算機(jī)作為行動者范式,以及認(rèn)知科學(xué)領(lǐng)域的心靈感知理論和預(yù)測加工理論。
5.1技術(shù)接受模型
技術(shù)接受模型(Technology Acceptance Model, TAM; Davis, 1989)是所有人-機(jī)互動模型中廣為接受和使用的模型之一。該模型認(rèn)為,當(dāng)個體感知到使用一個系統(tǒng)能幫助他們在工作上表現(xiàn)更好時,就會傾向于使用該系統(tǒng);同時,如果個體認(rèn)為該系統(tǒng)難以操作,且使用該系統(tǒng)付出的努力超過獲得的益處時,使用意愿會削弱。研究者將前者歸納為感知有用性,將后者命名為感知易用性,并認(rèn)為這兩者是決定個體是否愿意使用該系統(tǒng)的關(guān)鍵因素(Davis, 1989)。感知有用性和感知易用性會通過影響個體對使用系統(tǒng)的態(tài)度,從而進(jìn)一步影響使用意愿,甚至實際的使用行為。
但是,TAM的缺陷在于只關(guān)注個體對機(jī)器功能性的感知,而忽視了社會因素,因此,后續(xù)研究者提出TAM2對原有模型進(jìn)行補充,以適用于更廣的范圍(Venkatesh & Davis, 1996)。TAM2提出了社會影響和認(rèn)知因素兩組概念來提高個體感知到的有用性。前者主要通過個體對使用該系統(tǒng)給自己帶來的影響而改變感知有用性(如采納AI的建議是否會得到他人贊賞),后者通過個體對系統(tǒng)輸出結(jié)果的認(rèn)知而起作用(如采納AI的建議是否能提高工作效率)。
5.2計算機(jī)作為行動者范式
計算機(jī)作為行動者范式(Computers As Social Actors, CASA; Nass et al., 1994)指出,人類會自發(fā)地將計算機(jī)、電視等傳播媒介當(dāng)作社會行動者,并采用相應(yīng)的社會規(guī)則與之互動。這是因為個體會無意識地對媒介傳達(dá)出的社會線索進(jìn)行加工,比如,當(dāng)AI發(fā)出女性聲音時,人們會自發(fā)地認(rèn)為在與女性互動,并采用與女性交往的社會規(guī)范與其交流。同時,CASA的提出者并不認(rèn)為計算機(jī)的擬人化是個體將其當(dāng)作社會行動者的先決條件(Nass & Moon, 2000)。換句話說,個體并不需要認(rèn)為AI擁有心智,也會與其進(jìn)行社會化交互。但是,這一論點也迅速受到了挑戰(zhàn)。研究發(fā)現(xiàn),擬人化傾向——個體在多大程度上將非人類實體當(dāng)作人——會影響到人與計算機(jī)的交互(Lee, 2010)。擬人化傾向低的個體,僅將計算機(jī)看作一種完成任務(wù)的工具,而擬人化傾向高的個體則不然。A9D08A6C-8D3C-4567-A816-1556B9F6C0D8
綜上所述,當(dāng)個體無意識地采用CASA范式時,接受來自AI的建議與接受來自他人的建議一樣,受到建議者特征(如,性別、專業(yè)程度、人格等)和任務(wù)特征(如,計算任務(wù)或社交任務(wù))的影響,同時也會存在以自我為中心對建議進(jìn)行加權(quán)的現(xiàn)象,即不信任AI的建議。
5.3心靈感知理論
Gray等人(2007)提出的心靈感知理論認(rèn)為,個體分別從能動和體驗兩個維度對人類和非人類實體進(jìn)行感知。許多研究通過考察個體對AI能動性和體驗性維度上的感知,探索影響個體接受AI建議或服務(wù)的因素(Yam et al., 2020)。能動是指思考、計劃和自愿行動的能力;體驗則為感覺情緒、痛苦和愉悅的能力。如成年人被認(rèn)為具有高能動性和高體驗性,而嬰兒則被認(rèn)為具有高體驗性和低能動性。由于設(shè)計機(jī)器人/AI的初衷是幫助人類提高生產(chǎn)效率和計算精度(Young & Monroe, 2019),因此AI總是被人們認(rèn)為是具有較高能動性而低體驗性的(Gray & Wegner, 2012)。許多研究者從此角度出發(fā),對影響個體接受AI的程度進(jìn)行大量探索,并做出相應(yīng)的解釋和預(yù)測(Lee et al., 2020)。在建議采納領(lǐng)域,決策者是否采納建議既會受到建議專業(yè)度、合理性的影響(與建議者能動性有關(guān)),也會受到交互過程中感受的影響(與建議者和決策者體驗性有關(guān))。因此,心靈感知理論可以為進(jìn)一步探索與AI相關(guān)的建議采納提供理論基礎(chǔ)。
5.4預(yù)測加工理論
前文中提到,個體對AI的行為模式是具有一定期待的,即在腦海中存在相關(guān)行為框架。當(dāng)AI的表現(xiàn)與期待不相符合時,會引發(fā)個體強(qiáng)烈的情緒反應(yīng)(Shank et al., 2019)、產(chǎn)生不匹配的感受(Kim & Duhachek, 2020)、出現(xiàn)“恐怖谷”效應(yīng)(Mori, 1970),進(jìn)而影響到對AI的接受程度。這些現(xiàn)象可以被預(yù)測加工理論(Predictive Processing; Clark, 2018)所概括。該理論指出,個體會根據(jù)已有的框架對動態(tài)環(huán)境(AI)進(jìn)行永不停息的預(yù)測,如果預(yù)測與實際情況相吻合,則人與環(huán)境(AI)的互動就可以順暢進(jìn)行;如果預(yù)測與實際情況不相符,則會出現(xiàn)“預(yù)測偏差”,使得個體重新架構(gòu)框架或者改變環(huán)境,以達(dá)到預(yù)測與實際相一致。
對于人和AI的互動而言,如果個體認(rèn)為有AI能力做出決策,那么AI做出決策的行為就與個體預(yù)測相一致;如果個體認(rèn)為AI不具有共情能力,而AI對情緒的解讀和傳達(dá)與個體的預(yù)測不一致,此時個體就要采取相應(yīng)的行為或思維方式消除“預(yù)測偏差”,如認(rèn)為AI不可靠或可能對人類產(chǎn)生威脅。
6未來研究展望
通過對文獻(xiàn)的梳理可以發(fā)現(xiàn),有關(guān)個體對AI接受度的研究已經(jīng)取得了一些有意義的成果,但是整體而言相對松散,無法形成明確的結(jié)構(gòu)體系,也缺乏成熟的路徑模型指導(dǎo)如何充分利用AI建議者。因此,本文在梳理現(xiàn)有研究的基礎(chǔ)上,從“AI(建議者)—人(決策者)—系統(tǒng)”的角度整理了相關(guān)研究和理論模型,探討影響人們接受AI建議的因素,并提出亟待探討的未來研究方向,以期為相關(guān)研究提供啟發(fā)。
6.1明確化AI感知對建議采納的機(jī)制及調(diào)節(jié)作用如前所述,人們做不受情感影響的決策時更容易接受AI建議(如公正),但做需要感受性較強(qiáng)的決策時更容易拒絕AI建議(如購物銷售)。這與“AI擅長計算卻缺乏感受”的心靈知覺有關(guān),與心靈感知理論相關(guān)的大部分研究都支持這一觀點。然而,人們?yōu)槭裁磳I有此種感知,其機(jī)理尚不清楚。先前研究認(rèn)為這種感覺是人類自然而然產(chǎn)生的解釋 (鄧世昌等, 2022;Longoni et al., 2019)。這種觀點既缺乏解釋力,也不能為后續(xù)的深層探究提供明確的機(jī)制,因此后續(xù)研究需要進(jìn)一步探究該感知產(chǎn)生的原因和機(jī)制。同時,利用該感知的規(guī)律去探索AI接受度的調(diào)節(jié)作用也是必要的,從而為在適宜的場景下充分、有效利用AI建議者奠定基礎(chǔ)。
6.2清晰化人對AI建議者偏好的情境
未來研究可以探索人們何時可能對AI建議比人類建議更多偏好的情境。例如,需要高度準(zhǔn)確性的建議時,AI建議者可能比人類提供者更受歡迎。另外,當(dāng)人們需要吐露某種隱私或秘密以得到建議時,AI建議者可能也比人類更受歡迎。更重要的是,目前研究中,對AI建議者影響建議采納的研究大部分是基于決策者的人類屬性作為延伸(如性別、專業(yè)程度、人格等)進(jìn)行比較的。但AI不同于人類的部分也可能會促進(jìn)建議采納。如根據(jù)建議采納領(lǐng)域中的面子理論,人們在收到他人建議時面子會受到威脅從而影響建議接受度(Brown & Levinson, 1987)。此領(lǐng)域的相關(guān)研究通常都是以人為主體,人和人之間存在的共同基礎(chǔ)所導(dǎo)致的差異(如社會比較)可能是引起決策者抗拒建議的來源。若將建議者換成AI,由于人和AI缺乏共同基礎(chǔ)(尤其是社會比較的基礎(chǔ)),此時有可能較好地消除面子威脅,讓人們更容易接受建議,做出更優(yōu)決策。
6.3精細(xì)化人在AI不同角色特征下的感知和態(tài)度盡管有研究注意到區(qū)分AI的工具性角色和服務(wù)性角色(Hertz & Wiese, 2019),但有所欠缺的則是對個體主觀感受測量方式的模糊,常常以“態(tài)度”“接受度”等籠統(tǒng)詞匯概括,且測量維度往往是單維的,如“積極/消極”(Dang & Liu et al., 2021)。無法清晰地反映個體對AI矛盾、復(fù)雜的態(tài)度,更無法體現(xiàn)個體如何應(yīng)對AI的廣泛應(yīng)用給人類社會帶來的沖擊。因此,未來研究者可以嘗試從多維角度進(jìn)行分析,更細(xì)致地劃分個體對AI的態(tài)度和建議接受度,可能會得到更一致的結(jié)果。
6.4動態(tài)化AI-人互動過程中的心理模型
后續(xù)研究需要構(gòu)建AI-人互動的心理模型,同時需要探究隨著時間的推移,人與AI的互動如何影響建議采納,以及這種互動如何改變心理模型。從工具性/能動性角度分析,與過去機(jī)器不同,AI需要很少(甚至不需要)人工操控和命令即能完成一系列行動;從服務(wù)性/體驗性角度分析,智能特性使得AI能夠與使用者進(jìn)行情感上的交流互動。這意味著在人與AI的互動中,AI不再是被動的接受方,而人類也不再是唯一的主動發(fā)起方,兩者在交往中的作用是相互的(許為, 2020)。因此后續(xù)研究不僅需要建構(gòu)AI和人的初始心理模型,還需要探究心理模型中的初始屬性如何改變后續(xù)的交互風(fēng)格,以及交互的各個方面如何改變未來的心理模型。此外,AI在工具性方面的主動雖然可以節(jié)省人力資源、提高效率,但同時也意味著會導(dǎo)致部分員工失業(yè);AI在服務(wù)性方面的主動可以為人類提供社會支持、滿足人類情感需求,但具有情緒也意味著對人類社會的威脅。因此,人類也需要不斷地探索相應(yīng)的應(yīng)對方式。A9D08A6C-8D3C-4567-A816-1556B9F6C0D8
參考文獻(xiàn)
鄧士昌, 許祺, 張晶晶, 李象千 (2022). 基于心靈知覺理論的AI服務(wù)用戶接受機(jī)制及使用促進(jìn)策略. 心理科學(xué)進(jìn)展, 30(4), 723-737.
衡書鵬, 趙換方, 孫麗君, 周宗奎 (2019). 虛擬銷售代理的擬人效應(yīng). 心理科學(xué)進(jìn)展, 27(5), 884-904.
許為 (2020). 五論以用戶為中心的設(shè)計:從自動化到智能時代的自主化以及自動駕駛車. 應(yīng)用心理學(xué), 26(2), 108-128.
Aly, A., & Tapus, A. (2015). Towards an intelligent system for generating an adapted verbal and nonverbal combined behavior in human-robot interaction. Autonomous Robots, 40(2), 1-17.
Ames, D. L., Jenkins, A. C., Banaji, M. R., & Mitchell, J. P. (2008). Taking another persons perspective increases self-referential neural processing. Psychological Science, 19(7), 642-644.
Appel, M., Izydorczyk, D., Weber, S., Mara, M., & Lischetzke, T. (2020). The uncanny of mind in a machine: Humanoid robots as tools, agents, and experiencers. Computers in Human Behavior, 102, 274-286.
Belanche, D., Casaló, L. V., & Flavián, C. (2019). Artificial intelligence in FinTech: Understanding roboadvisors adop-tion among customers. Industrial Management and Data Systems, 119(7), 1411-1430.
Bigman, Y. E., Yam, K. C., Marciano, D., Reynolds, S. J., & Gray, K. (2021). Threat of racial and economic inequality increases preference for algorithm decision-making. Computers in Human Behavior, 122, Article 106859.
Brown, P., & Levinson, S. C. (1987). Politeness: Some universals in language usage. Cambridge: University Press.
Cadman, C., & Brewer, J. (2001). Emotional intelligence: A vital prerequisite for recruitment in nursing. Journal of Nursing Management, 9(6), 321-324.
Chang, R. C. S., Lu, H. P., & Yang, P. (2018). Stereotypes or golden rules? Exploring likable voice traits of social robots as active aging companions for tech-savvy baby boomers in Taiwan.? Computers in Human Behavior, 84, 194-210.
Chidambaram, V., Chiang, Y. H., & Mutlu, B. (2012, March). Designing persuasive robots: how robots might persuade people using vocal and nonverbal cues. In Proceedings of the seventh annual ACM/IEEE international conference on Human-Robot Interaction (pp. 293-300).
Clark, A. (2018). A nice surprise? Predictive processing and the active pursuit of novelty. Phenomenology and the Cognitive Sciences, 17(3), 521-534.
Collins, E. C., Percy, E. J., Smith, E. R., & Kruschke, J. K. (2011). Integrating advice and experience: Learning and decision making with social and nonsocial cues. Journal of Personality and Social Psychology, 100(6), 967-982.A9D08A6C-8D3C-4567-A816-1556B9F6C0D8
Dang, J., & Liu, L. (2021). Robots are friends as well as foes: Ambivalent attitudes toward mindful and mindless AI robots in the United States and China.? Computers in Human Behavior, 115, Article 106612.
Davis, F. D. (1989). Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly, 13(3), 319-340.
de Visser, E. J., Monfort, S. S., McKendrick, R., Smith, M. A. B., McKnight, P. E., Krueger, F., & Parasuraman, R. (2016). Almost human: Anthropomorphism increases trust resilience in cognitive agents. Journal of Experimental Psychology: Applied, 22(3), 331-349.
Donghee. (2021). The effects of explainability and causability on perception, trust, and acceptance: Implications for explainable AI.? International Journal of Human-Computer Studies, 146, Article102551.
Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On Seeing Human: A three-factor theory of anthropomorphism.? Psychological Review, 114(4), 864-886.
Ghani, J. A., & Deshpande, S. P. (1994). Task characteristics and the experience of optimal flow in human-computer interaction. The Journal of Psychology: Interdisciplinary and Applied, 128(4), 381-391.
Gino, F., & Schweitzer, M. E. (2008). Blinded by anger or feeling the love: How emotions influence advice taking. Journal of Applied Psychology, 93(5), 1165-1173.
Glikson, E., & Woolley, A. W. (2020). Human trust in artificial intelligence: Review of empirical research. Academy of Management Annals, 14(2), 627-660.
Gray, H. M., Gray, K., & Wegner, D. M. (2007). Dimensions of mind perception. Science, 315(5812), 619-619.
Gray, K., & Wegner, D. M. (2012). Feeling robots and human zombies: Mind perception and the uncanny valley. Cognition, 125(1), 125-130.
Ham, J., Cuijpers, R. H., & Cabibihan, J. J. (2015). Combining robotic persuasive strategies: The persuasive power of a storytelling robot that uses gazing and gestures. International Journal of Social Robotics, 7(4), 479-487.
Haran, U., & Shalvi, S. (2020). The implicit honesty premium: Why honest advice is more persuasive than highly informed advice. Journal of Experimental Psychology: General, 149(4), 757-773.
Heerink, M., Kr?se, B., Evers, V., & Wielinga, B. (2010). Assessing acceptance of assistive social agent technology by older adults: The almere model. International Journal of Social Robotics, 2(4), 361-375.A9D08A6C-8D3C-4567-A816-1556B9F6C0D8
Hertz, N., Wiese, E. (2019). Good advice is beyond all price, but what if it comes from a machine? Journal of Experimental Psychology: Applied, 3(25), 386-395.
Hu, Q., Lu, Y., Pan, Z., Gong, Y., & Yang, Z. (2021). Can AI artifacts influence human cognition? The effects of artificial autonomy in intelligent personal assistants. International Journal of Information Management, 56, Article 102250.
Huang, M. H., & Rust, R. T. (2018). Artificial intelligence in service. Journal of Service Research, 21(2), 155-172.
Joosse, M., Lohse, M., Pérez, J. G., & Evers, V. (2013, May). What you do is who you are: The role of task context in perceived social robot personality. In 2013 IEEE international conference on robotics and automation (pp. 2134-2139). IEEE.
Jung, D., Dorner, V., Glaser, F., & Morana, S. (2018). Robo-advisory: Digitalization and automation of financial advisory.? Business and Information Systems Engineering, 60 (1), 81-86.
K?tsyri, J., F?rger, K., M?k?r?inen, M., & Takala, T. (2015). A review of empirical evidence on different uncanny valley hypotheses: Support for perceptual mismatch as one road to the valley of eeriness. Frontiers in Psychology, 6, 390-406.
Kim, T. W., & Duhachek, A. (2020). Artificial intelligence and persuasion: A construal-level account. Psychological Science, 31(4), 363-380.
Lee, E. J. (2010). What triggers social responses to flattering computers? Experimental tests of anthropomorphism and mindlessness explanations. Communication Research, 37(2), 191-214.
Lee, K. M., Jung, Y., Kim, J., & Kim, S. R. (2006). Are physically embodied social agents better than disembodied socialagents? The effects of physical embodiment, tactile interaction, and peoples loneliness in human-robot interaction. International Journal of Human Computer Studies, 64(10), 962-973.
Lee, S., Lee, N., & Sah, Y. J. (2020). Perceiving a mind in a chatbot: Effect of mind perception and social cues on co-presence, closeness, and intention to use. International Journal of Human-Computer Interaction, 36(10), 930-940.
Leong, Y. C., & Zaki, J. (2018). Unrealistic optimism in advice taking: A computational account.? Journal of Experimental Psychology: General, 147(2), 170-189.
Liu, S. X., Shen, Q., & Hancock, J. (2021). Can a social robot be too warm or too competent? Older Chinese adultsperceptions of social robots and vulnerabilities. Computers in Human Behavior, 125, Article 106942.A9D08A6C-8D3C-4567-A816-1556B9F6C0D8
Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90-103.
Longoni, C., Bonezzi, A., & Morewedge, C. K. (2019). Resistance to medical artificial intelligence. The Journal of Consumer Research, 46(4), 629-650.
Looije, R., Neerincx, M. A., & Cnossen, F. (2010). Persuasive robotic assistant for health self-management of older adults: Design and evaluation of social behaviors. International Journal of Human-Computer Studies, 68(6), 386-397.
Ludewig, Y., D?ring, N., & Exner, N. (2012, September). Design and evaluation of the personality trait extraversion of a shopping robot. In 2012 IEEE RO-MAN: The 21st IEEE international symposium on robot and human interactive communication (pp. 372-379).
Martin, B A. S., Jin, H. S., Wang, D., Nguyen, H., Zhan, K., Wang, Y. X. (2020). The influence of consumer anthropomorphism on attitudes towards artificial intelligence trip advisors. Journal of Hospitality and Tourism Management, 44, 108-111.
Mercado, J. E., Rupp, M. A., Chen, J. Y. C., Barnes, M. J., Barber, D., & Procci, K. (2016). Intelligent agent transparency in human-agent teaming for Multi-UxV management. Human Factors, 58(3), 401-415.
Mori, M. (1970). The uncanny valley. Energy, 7(4), 33-35.
Nadarzynski, T., Miles, O., Cowie, A., & Ridge, D. (2019). Acceptability of artificial intelligence (AI)-led chatbot services in healthcare: A mixed-methods study. Digital Health, 5(1), Article 2055207619871808.
Nass, C., & Lee, K. M. (2001). Does computer-synthesized speech manifest personality? Experimental tests of recognition, similarity-attraction, and consistency-attraction. Journal of Experimental Psychology: Applied, 7(3), 171-181.
Nass, C., & Moon, Y. (2000). Machines and mindlessness: Social responses to computers. Journal of Social Issues, 56(1), 81-103.
Nass, C., Steuer, J., & Tauber, E. R. (1994). Computers are social actors. InProceedings of the SIGCHI conference on human factors in computing systems (pp. 72-78), New York:ACM Press.
Nomura, T., Kanda, T., & Suzuki, T. (2006). Experimental investigation into influence of negative attitudes toward robots on human-robot interaction. AI & Society, 20(2), 138-150.
Oh, J. C., & Yoon, S. J. (2014). Predicting the use of online information services based on a modified UTAUT model. Behaviour & Information Technology, 33(7), 716-729.A9D08A6C-8D3C-4567-A816-1556B9F6C0D8
Orben, A. (2020). Thesisyphean cycle of technology panics. Perspectives on Psychological Science, 15(5), 1143-1157.
Paetzel, M., Perugia, G., & Castellano, G. (2020, March). The persistence of first impressions: The effect of repeated interactions on the perception of a social robot. In Proceedings of the 2020 ACM/IEEE international conference on human-robot interaction (pp. 73-82).
Pelau, C., Dabija, D. C., & Ene, I. (2021). What makes an AI device human-like? The role of interaction quality, empathy and perceived psychological anthropomorphic characteristics in the acceptance of artificial intelligence in the service industry. Computers in Human Behavior, 122, Article 106855.
Powers, A., & Kiesler, S. (2006). The advisor robot: tracing peoples mental model from a robots physical attributes. InProceedings of the 1st ACM SIGCHI/SIGART conference on human-robot interaction (pp. 218-225), Salt Lake City.
Schaefer, K. E., Chen, J. Y., Szalma, J. L., & Hancock, P. A. (2016). A meta-analysis of factors influencing the development of trust in automation: Implications for understanding autonomy in future systems. Human Factors, 58(3), 377-400.
Shank, D. B., Graves, C., Gott, A., Gamez, P., & Rodriguez, S. (2019). Feeling our way to machine minds: Peoples emotions when perceiving mind in artificial intelligence. Computers in Human Behavior, 98, 256-266.
Shanmuganathan, M. (2020). Behavioural finance in an era of artificial intelligence: Longitudinal case study of robo-advisors in investment decisions. Journal of Behavioral and Experimental Finance, 27, Article 100297.
Shinozawa, K., Naya, F., Yamato, J., & Kogure, K. (2005). Differences in effect of robot and screen agent recommendations on human decision-making. International Journal of Human Computer Studies, 62(2), 267-279.
Siegel, M., Breazeal, C., & Norton, M. I. (2009). Persuasive robotics: The influence of robot gender on human behavior. In2009 IEEE/RSJ International conference on intelligent robots and systems (pp. 2563-2568), St. Louis.
Smith, E. R., Sherrin, S., Fraune, M. R., & ?abanovi, S. (2020). Positive emotions, more than anxiety or other negative emotions, predict willingness to interact with robots. Personality and Social Psychology Bulletin, 46(8), 1270-1283.
Takayanagi, K., Kirita, T., & Shibata, T. (2014). Comparison of verbal and emotional responses of elderly people with mild/moderate dementia and those with severe dementia in responses to seal robot, PARO. Frontiers in Aging Neuroscience, 6, 257-262.A9D08A6C-8D3C-4567-A816-1556B9F6C0D8
Tang, P. M., Koopman, J., McClean, S. T., Zhang, J. H., Li, C. H., De Cremer, D., ... & Ng, C. T. S. (2021). When conscientious employees meet intelligent machines: An integrative approach inspired by complementarity theory and role theory.? Academy of Management Journal. Advance online publication.
Tay, B., Jung, Y., & Park, T. (2014). When stereotypes meet robots: the double-edge sword of robot gender and personality in human-robot interaction. Computers in Human Behavior, 38, 75-84.
Taylor, S., & Todd, P. A. (1995). Understanding information technology usage: A test of competing models. Information Systems Research, 5(2), 91-108.
Venkatesh, V., & Davis, F. D. (1996). A model of the antecedents of perceived ease of use: Development and test. Decision Sciences, 27(3), 451-481.
Venkatesh, V., Morris, M. G., Davis, G. B., & Davis, F. D. (2003). User acceptance of information technology: Toward a unified view.? MIS Quarterly, 27(3), 425-478.
W?rn, Y., & Ramberg, R. (1996). Peoples perception of human and computer advice.? Computers in Human Behavior, 12, 17-27.
Wang, B., & Rau, P. L. P. (2019). Influence of embodiment and substrate of social robots on users decision-making and attitude. International Journal of Social Robotics, 11(3), 411-421.
Wang, X., & Krumhuber, E. G. (2018). Mind perception of robots varies with their economic versus social function. Frontiers in Psychology, 9, Article 1230.
Waytz, A., Gray, K., Epley, N., & Wegner, D. M. (2010). Causes and consequences of mind perception. Trends Cognitive Science, 14(8), 383-388.
Wien, A. H., & Peluso, A. M. (2021). Influence of human versus AI recommenders: The roles of product type and cognitive processes. Journal of Business Research, 137, 13-27.
Yam, K. C., Bigman, Y. E., Tang, P. M., Ilies, R., De Cremer, D., Soh, H., & Gray, K. (2020). Robots at work: People prefer—and forgive—service robots with perceived feelings. Journal of Applied Psychology, 106(10), 1557-1572.
Young, A. D., & Monroe, A. E. (2019). Autonomous morals: Inferences of mind predict acceptance of AI behavior in sacrificial moral dilemmas. Journal of Experimental Social Psychology, 85, Article 103870.
Young, J. E., Hawkins, R., Sharlin, E., & Igarashi, T. (2009). Toward acceptable domestic robots: Applying insights from social psychology. International Journal of Social Robotics, 1(1), 95-108.A9D08A6C-8D3C-4567-A816-1556B9F6C0D8
Zhang, J., Li, S., Zhang, J. Y., Du, F., Qi, Y., & Liu, X. (2020). A literature review of the research on the uncanny valley. InInternational conference on human-computer interaction (pp. 255-268).
The Influencing Factors on Peoples Acceptance of Artificial Intelligences AdviceLI Sixian; CHEN Jiaxin; SONG Aijia; WANG Menglin; DUAN Jinyun
(School of Psychology and Cognitive Science, East China Normal University, Shanghai? 200062, China)Abstract
Artificial intelligence (AI) application is gradually infiltrating into daily aspects of human society. AI applications can greatly conserve resources for users, such as time and efforts. But most people are still reluctant to accept the services and suggestions provided by AI applications. Therefore, this paper aims to discuss the factors that influence individualsacceptance of AI advice from three main perspectives. Specifically, by adopting JAS (Judge-Advisor System) paradigm, we discuss it from the decision-maker (human) aspect (e.g., cognition, emotion, attitudes), advisor (AI) aspect (e.g., external features, personality characteristics), as well as human-AI interaction (system) aspect. With the developing stream of intelligent machines, we also sort out relevant theories that explain individualsacceptance of AIs advice, such as Technology Acceptance Model, Computers as Social Actors Paradigm, the Mind Perception Theory and Predictive Processing Theory. Finally, based on the arguments, future research for acceptance of AI applications can focus on more detailed underlying mechanism, situational factors, and build a more dynamic and comprehensive psychological model.
Key words:? artificial intelligences advice; advice-taking; human-robot interaction; judge-advisor systemA9D08A6C-8D3C-4567-A816-1556B9F6C0D8