何貴兵 陳 誠 何澤桐 崔力丹 陸嘉琦 宣泓舟 林 琳
·研究構想(Conceptual Framework)·
智能組織中的人機協(xié)同決策:基于人機內部兼容性的研究探索*
何貴兵 陳 誠 何澤桐 崔力丹 陸嘉琦 宣泓舟 林 琳
(浙江大學心理與行為科學系, 杭州 310028)
智能時代已然來臨。智能技術的發(fā)展正加速推動組織的智能化進程。越來越多的企業(yè)在生產(chǎn)和管理中采用智能技術以提高競爭力。在此背景下, 人機協(xié)同工作日益普遍, 人機協(xié)同決策成為新型組織決策方式。然而, 當前智能組織中的人機協(xié)同決策還面臨信任度低、可控性低、透明度低、協(xié)同度低等一系列問題, 它們阻礙了決策質量、效率和體驗的提升。本項目認為, 人機兼容性, 特別是人機內部兼容性, 如認知兼容性、情感兼容性、價值兼容性等, 或是影響人機協(xié)同決策績效的根本原因。因此, 本項目基于人機內部兼容性理論視角, 綜合采用決策心理學、認知科學、組織行為學等多學科理論與方法, 通過一系列現(xiàn)場研究和模擬實驗, 力圖揭示人機協(xié)同決策中存在的問題及其成因, 探究人機協(xié)同決策中內部兼容性的影響因素和作用機制, 進而提出若干人機協(xié)同決策優(yōu)化方法。項目研究成果將有助于促進人機協(xié)同決策理論與人機兼容性理論的發(fā)展, 提升人機協(xié)同決策績效, 推進組織決策的智能化進程。
智能組織, 人機協(xié)同決策, 內部兼容性, 認知兼容性, 情感兼容性, 價值兼容性
智能時代已然來臨。伴隨著新一輪科技革命和產(chǎn)業(yè)革命, 人類社會正從工業(yè)化時代、信息化時代邁入智能化時代。大數(shù)據(jù)與智能革命正深刻改變著人們的生產(chǎn)、生活和學習方式, 重新定義人們的未來。在智能技術的推動下, 智慧城市、智慧政務、智慧農(nóng)業(yè)、智慧醫(yī)療、智能教育、智慧司法、智能交通等各領域的智能化變革日新月異。與此同時, 越來越多的企業(yè)認識到智能技術對提高組織競爭力的重要性, 因而通過制定戰(zhàn)略、加大投入、培養(yǎng)人才等途徑將智能技術應用于生產(chǎn)、經(jīng)營、管理等各環(huán)節(jié), 企業(yè)組織的智能化趨勢越來越明顯。畢馬威和阿里研究院(2019)在研究報告《百年躍變:浮現(xiàn)中的智能化組織》中將引入智能技術以提升運行效能的組織稱為智能組織(intelligent organization), 并視其為未來組織的發(fā)展方向。2018年, 麥肯錫的一項關于企業(yè)人工智能采用情況的調查發(fā)現(xiàn), 將近50%的受訪者表示其公司已經(jīng)在業(yè)務流程中至少使用了一項人工智能技術, 另有30%的企業(yè)正在試用人工智能技術。
組織智能化引發(fā)了工作方式、管理模式乃至人機關系的深刻變革。首先, 智能體(intelligent agent, 包括智能軟件和硬件)的應用極大提升了業(yè)務流程的自動化水平, 工作方式由人主導轉向人機協(xié)作甚至由智能體主導。其次, 智能體的應用使組織管理模式發(fā)生深刻變革。數(shù)據(jù)、算法和算力成為重要的管理資源, 扁平化、自適應、協(xié)同、精準、高效成為重要的管理特征。另外, 由于新一代智能體具有更強的自主學習能力與問題處理能力, 其與人類工作者的關系亦被重新定義(許為, 葛列眾, 2020)。在組織中, 智能體不再只是人類的“工具”, 其地位與人類成員日漸平等, 真正成為人類的“伙伴”或“同事”, 甚至扮演“領導”、“管理者”的角色(Christoffersen & Woods, 2002; Madhavan & Wiegmann, 2007; Wynne & Lyons, 2018)。越來越多的人類員工將與智能體組成人機團隊(human-agent team)。此類團隊由人機構成, 通過人機間互動協(xié)作共同執(zhí)行組織任務, 從而發(fā)揮各自優(yōu)勢, 更好實現(xiàn)組織任務目標(Scheutz et al., 2017)。
智能體在組織管理決策中也扮演著越來越重要的角色。以往, 組織決策質量主要取決于人類決策者的認知加工能力。然而, 在大數(shù)據(jù)時代, 人們需要面對海量信息, 其認知加工能力的局限性更顯突出, 這使得智能體越來越多地被賦予決策者職能, 以減輕人的認知負荷, 并促進決策優(yōu)化(Chamorro-premuzic & Ahmetoglu, 2016; Davenport & Ronanki, 2018)。智能體在組織決策中承擔著輔助與主導兩種角色。作為決策輔助者, 智能體通過機器學習分析海量信息、挖掘潛在規(guī)律, 為組織做出更優(yōu)決策提供數(shù)據(jù)支持或決策建議(劉文川等, 2019)。作為決策主導者, 智能體被賦予更高決策權限, 能夠主導組織的分配決策(?tting & Maier, 2018)、投資決策(Kaplan & Haenlein, 2019), 甚至是人員招聘、培訓等人事決策(Dineen et al., 2004; Langer et al., 2016; Lee, 2018; Naim et al., 2016)。決策智能體不僅能為企業(yè)解決決策實時性要求高、數(shù)據(jù)量巨大的問題(Harms & Han, 2019), 同時也能促使決策程序標準化, 提升決策公平感, 減少組織沖突, 減輕領導者的管理壓力(?tting & Maier, 2018)。
然而, 在大多數(shù)管理決策中, 人類決策者的智慧和控制需求仍不可或缺, 因此人機協(xié)同決策(Human-agent collaborative decision-making), 即由人類決策者與智能體共同完成決策, 成為智能組織中更常見的決策方式。當然, 在不同決策任務中, 或在決策過程不同階段中, 人機雙方的參與程度和協(xié)作水平會存在差異。在相同決策任務下, 不同水平的人機協(xié)同可能產(chǎn)生不同質量的決策。
一系列研究表明, 當前組織中人機協(xié)同決策的效果并不盡如人意, 人機協(xié)同決策還存在不少問題。一是人類對智能體決策者的信任度與接受度低, 嚴重阻礙了智能體在組織決策中的廣泛應用(Ghislieri et al., 2018); 二是智能體的決策通?;诟叨葟碗s和不透明的算法, 人類往往難以知曉其決策規(guī)則及其內在含義, 以至于人無法在智能體出現(xiàn)異常時及時采取應對措施(Dewhurst & Willmott, 2014; Lee, 2018; ?tting & Maier, 2018); 三是人機協(xié)同決策時, 人類與智能體的決策權分配也是一大難題(Parry et al., 2016); 四是智能體決策所遵循的價值規(guī)則可能不符合人類決策者價值觀和道德準則, 甚至發(fā)生沖突(Yokoi & Nakayachi, 2021)。
顯然, 人機協(xié)同決策的質量、效率與主觀體驗均有待提升(Burton et al., 2020)。我們認為, 出現(xiàn)上述問題的原因, 或與人機兼容性(human-agent compatibility)有關。Bubb (1993)曾將人機兼容性分為外部兼容性(outer compatibility)與內部兼容性(inner compatibility)。外部兼容性反映人機雙方在外部交互界面上的匹配度, 內部兼容性關注雙方在內部系統(tǒng)上的匹配度。我們提出, 人類決策者與智能體間的內部兼容性, 尤其是認知兼容性、情感兼容性和價值兼容性, 是影響人機協(xié)同決策績效的深層次原因。因此, 有必要從人機內部兼容性視角出發(fā), 探討人機協(xié)同決策中存在的問題及成因, 分析認知兼容性、情感兼容性、價值兼容性對人機協(xié)同決策過程和決策績效的潛在影響, 并針對性地提出若干優(yōu)化人機協(xié)同決策的方法, 以提高組織的人機協(xié)同決策質量、效率和體驗, 更好推進組織決策智能化進程。
本項目擬考察智能組織中人機內部兼容性與人機協(xié)同決策過程及決策績效的關系。雖然以往有少量研究涉及認知兼容、人機信任與人機互動的關系, 但探討人機協(xié)同決策中內部兼容性及其各成分的作用, 仍是個新課題??紤]到“人人團隊決策研究”與“人機協(xié)同決策研究”可能存在類比關系, “人機協(xié)同關系”與“人機協(xié)同決策”亦有密切關聯(lián), 因此, 我們主要介紹“人人團隊決策”和“人機協(xié)同關系”領域的相關研究和理論成果。其中, 前者包括團隊共享信息理論、團隊共享心智模型與團隊決策認知過程的STC機制等; 后者包括人機兼容性理論、人機信任理論、技術接受模型等。上述內容對本項目理論構思的形成具有啟發(fā)和借鑒意義。
(1)團隊共享信息理論
組織的重要決策通常由團隊成員共同完成(Larson et al., 1996)。Stasser和Titus (1985)將團隊成員決策前所持有的相關信息分為兩類:共享信息(Shared information)和非共享信息(Unshared information)。前者指全體成員共有的信息; 后者指為各成員獨有的信息。決策開始前, 團隊成員所掌握的決策信息各有不同, 其初始偏好亦存在差異。高質量的團隊決策要求各方成員在決策過程中充分分享信息, 尤其是非共享信息(Lam & Schaubroeck, 2011)。然而, Stasser和Titus (1987)發(fā)現(xiàn), 當進行團隊決策時, 團隊成員往往更關注共享信息, 較少討論非共享信息, 并將這一現(xiàn)象稱為共享信息偏差 (Shared information bias)。共享信息偏差主要表現(xiàn)為三個方面:(1)相較于非共享信息, 共享信息在討論過程中被團隊成員更為頻繁地提及; (2)相較于非共享信息, 共享信息被更早地引入團隊討論; (3)討論結束后, 團隊成員對共享信息的回憶率相對更高(陳婷, 孫曉敏, 2016)。另外, 共享信息偏差的出現(xiàn)受團隊信息分布、決策任務特征、成員特征和信息分享動機等因素的調節(jié)。共享信息理論提示我們, 在人機協(xié)同決策中, 通過增加人機非共享信息的使用率, 或可顯著提升人機協(xié)同決策績效。
(2)團隊共享心智模型
共享心智模型(Shared mental model)指團隊成員關于團隊任務、成員關系、作業(yè)情境等的共同知識結構和認知框架。共享心智模型是團隊協(xié)作的認知基礎, 在此基礎上, 團隊成員彼此互動, 從而完成任務目標(Cannon-Bowers et al., 1993)。共享心智模型由兩部分構成, 一是任務相關模型, 包括關于設備、技術與任務的心智模型; 二是團隊相關模型, 包括關于團隊關系與團隊交互過程的心智模型。共享心智模型理論認為, 彼此一致的心智模型是增強團隊成員適應性、團隊交互有效性和團隊績效表現(xiàn)的重要保障。研究表明, 團隊心智模型的相似性程度可有效預測團隊協(xié)作績效, 成員間心智模型的一致性越高, 團隊績效表現(xiàn)相對越好(Lim & Klein, 2006; Mathieu et al., 2000)。Mohammed和Dumville (2001)進一步指出, 除了認知結構相似性, 團隊成員在價值觀、態(tài)度與信念等方面的相似性也應被視為共享心智模型的重要組成部分。
隨著團隊形式的擴展, 共享心智模型亦被運用于“人類?智能體”團隊中(Demir et al., 2020)。Jonker等人(2010)將“人類?智能體”團隊的共享心智模型定義為人機雙方在心智模型上的相似程度。Fan和Yen (2010)發(fā)現(xiàn), 通過協(xié)助智能體更為準確地評估人類同伴的實時認知負荷, 可顯著改善人機心智模型的共享程度, 進而提升人機團隊的信息交流效率。另外, Scheutz等人(2017)提出了“過程監(jiān)控?共享心智模型?任務績效”的綜合分析框架, 用以分析智能體(如機器人)的心智模型及其在提升“人類?智能體”混合團隊績效上的作用。共享心智模型理論提示我們, 人類決策者與智能體在認知圖式、態(tài)度、價值觀等方面的相似性或是影響人機協(xié)同決策質量的重要因素。
(3)團隊決策認知過程的STC機制
何貴兵(2002)認為, 團隊決策本質上是以團隊交互為基礎的團隊認知適應性變化過程。決策開始后, 團隊成員首先按各方需求定向分享信息和知識(分布式分享, Distributive sharing); 隨后, 依據(jù)決策任務要求, 不斷將他人所分享的信息和知識納入自身的心智模型, 使之發(fā)生適應性轉換和更新(適應性轉換, Adaptive transformation); 之后, 若團隊的認知儲備相較于決策任務要求仍有缺失, 團隊成員將開展更為深入的認知交互, 構建形成現(xiàn)有團隊知識庫中未有的新概念與新聯(lián)結(交互式構建, Interactive construction)。上述認知變化過程被稱為團隊認知的STC (Sharing- Transformation-Construction)演化機制(何貴兵, 2002)。以此模型為基礎, 管文穎(2006)、黃德斌(2007)通過Tinsel Town等團隊投資決策任務, 先后考察了領導風格、時間壓力和反饋方式等對團隊STC演化及最終決策績效的影響。團隊認知的STC演化理論提示我們, 人機協(xié)同決策或需經(jīng)歷人機間知識的分布式分享、適應性轉換與交互式構建等過程, 以實現(xiàn)高認知兼容性。上述過程能否順利展開取決于人機初始知識分布、人機交互方式、決策任務特征等因素。
(1)人機兼容性理論
人機兼容性(Human-agent compatibility)指人類用戶與智能體在工作方式、交互方式、認知方式等方面的相互匹配與適應程度(Flemisch et al., 2008), 由外部兼容性(Outer compatibility)與內部兼容性(Inner compatibility)兩部分構成(Bubb, 1993)。外部兼容性主要關注人類用戶的感覺?運動器官與智能體外部硬件接口的匹配程度(即人機外部交互界面的匹配程度); 內部兼容性主要考察人類用戶與智能體在內部系統(tǒng)上的匹配程度。另外, Coll和Coll (1989)提出了人機“認知兼容性” (Cognitive compatibility)概念, 主要反映人類與智能體在信息處理方式上的匹配程度。Coll和Coll認為, 假若智能體可依照人類的思維方式與目標用戶展開互動, 用戶對其可用性評價和接受意愿將顯著提升。
研究表明, 在決策支持領域, 人機兼容性, 尤其是人機認知兼容性程度, 是影響人機決策績效的重要因素(Burton et al., 2020)。然而, 由于人類決策者通常使用直覺式的信息加工方式, 而智能體主要采取分析式的信息加工方式, 因此, 只有人機雙方共同做出相向調整, 人機認知兼容性與人機協(xié)同決策質量才能得到保障。具體而言, 智能體設計者在開發(fā)過程中需更多了解人類信息加工方式, 適度采納基于啟發(fā)式的決策原則, 并盡可能增加決策算法的透明度, 以提高人類用戶對其建議的接受意愿(Hafenbr?dl et al., 2016)。另一方面, 由于人類在決策過程中時常出現(xiàn)過度自信(Sieck & Arkes, 2005)或過度保守(Lim & O'Connor, 1996) 的情況, 因此, 人類決策者需正視自身的認知偏見并做出相應改變, 以提升人機認知兼容性, 保障人機協(xié)同決策的順利展開。人機兼容性理論提示我們, 人機兼容性, 尤其是人機內部兼容性, 是影響人機協(xié)同決策績效的關鍵因素。
(2)人機信任理論
在“人?人”工作團隊中, 信任是人際可持續(xù)關系的基礎, 建立信任可有效提升團隊成員的工作態(tài)度與行為績效(Dirks & Ferrin, 2001)。伴隨智能技術的快速發(fā)展, 組織的智能化趨勢日益明顯, “人?機”工作團隊不斷涌現(xiàn), 智能體的角色逐漸由“被動”工具向“主動”成員轉變(Mittu et al., 2016)。諸多研究表明, 人類對智能體的信任程度顯著影響其與智能體的交互, 如是否接受智能體提供的數(shù)據(jù)信息與決策建議、是否愿意與智能體共同完成工作任務等(Hancock et al., 2011; Lee & See, 2004)。因此, 理解人機信任的建立與維持過程, 對提升人機協(xié)同決策績效具有重要意義。
目前, 有關人機信任的研究主要關注人類對智能體能力(competence)和可靠性(reliability)等方面的知覺。影響人機信任建立與維持的因素主要包含三類, 即人類因素、機器因素與環(huán)境因素 (Hancock et al., 2011; Schaefer et al., 2016)。其中, 人類因素主要指與人類用戶相關的一系列能力與特質, 如自我效能感、信任傾向等; 機器因素指與智能體相關的若干性能與屬性, 如可靠性、錯誤率、透明度等; 環(huán)境因素指與人機互動相關的一系列團隊與任務特征, 如任務重要性、任務負荷、人機責任分布和依存性等。三類因素共同決策人類用戶對智能體的信任程度。此外, Hancock等人(2011)的元分析結果表明, 機器因素對人際信任的影響相對較大, 環(huán)境因素的影響中等, 人類因素的影響則相對較小。人機信任理論提示我們, 人類決策者對智能體的信任是人機協(xié)同決策得以開展的前提, 信任建立受人類特征、智能體特征、環(huán)境特征等因素的影響。
(3)技術接受模型
Davis等人(1989)所提出的技術接受模型(Technology acceptance model)以理性行為理論(Theory of reasoned action)為基礎, 用于解釋人類用戶對信息技術的接受或拒絕傾向。該模型認為, 人類用戶的行為意圖影響其對特定技術的使用, 而行為意圖取決于其對該技術的態(tài)度傾向。用戶對技術的態(tài)度傾向受兩方面因素影響:其一為感知有用性(Perceived usefulness), 即用戶是否認為該技術能顯著提高當前任務績效; 其二為感知易用性(Perceived ease of use), 即用戶是否認為該技術易于使用。兩者共同決定用戶對特定技術的態(tài)度傾向與使用意圖。假若某技術的感知易用性較低, 即使其感知有用性相對較高, 人類用戶對其的使用意圖亦較為有限。此外, 感知易用性可影響用戶對感知有用性的評估, 且兩者共同受到若干外在因素的作用, 如系統(tǒng)特征、用戶特征、任務特征、組織特征、管理特征等。此后, Davis和Venkatesh (1996)以相關研究為依據(jù), 對技術接受模型做了進一步修訂。他們提出, 感知有用性與感知易用性可直接作用于個體的技術使用意圖, 進而影響其技術使用行為。技術接受模型提示我們, 人類決策者對智能體有用性與易用性的感知將決定其對智能體的使用意愿與互動行為, 進而影響人機協(xié)同決策的最終績效。
以往關于“人?人”團隊決策的研究主要關注團隊共享信息、共享心智模型、團隊決策認知過程演化等內容, 針對“人?機”協(xié)同關系的研究則主要聚焦于人機兼容性、人機信任、技術接受意愿等議題。相關研究表現(xiàn)出以下特征。
首先, 有關人機協(xié)同決策的理論探索與實證支撐有待加強?,F(xiàn)有的團隊決策模型, 如共享信息理論、共享心智模型、團隊決策認知過程的STC機制等, 主要基于對“人?人”團隊決策的研究。隨著組織智能化浪潮的興起, 組織的管理決策職能逐漸由人類成員與智能體共同承擔, 關于“人?機”協(xié)同決策形成機制與影響因素的研究尤為迫切并受研究者關注。雖然有學者嘗試將“人?人”團隊決策理論運用于“人?機”團隊情境, 并取得了初步研究成果, 但考慮到“人?機”交互與“人?人”交互之間存在的重要差異, 以上推廣是否合理仍然存疑。因此, 本項目嘗試重新構建人機內部兼容性理論框架, 并以信息利用協(xié)同、方案形成協(xié)同、方案評估協(xié)同與決策制定協(xié)同為主要維度, 深入考察人機協(xié)同決策的形成過程與相關影響因素。
其次, 現(xiàn)有人機兼容性理論的完備性仍有不足。人機兼容性理論認為, 人機內部兼容性不足, 尤其是人機認知兼容性缺乏, 是引發(fā)人機協(xié)同決策問題(如信任度低、可控性低、透明度低、協(xié)同性低等)的關鍵原因; 調整人類決策者與智能體的認知加工方式, 使兩者更具認知兼容性, 是提高人機協(xié)同決策績效的關鍵途徑。然而, 基于對“事實前提”和“價值前提”共同影響決策的認識以及對智能組織中人機協(xié)同決策過程的多角度分析, 我們認為, 除了人機認知兼容性, 情感兼容性與價值兼容性亦是人機內部兼容性的重要組成部分, 三類兼容性共同對人機協(xié)同決策的質量、效率及主觀體驗等方面產(chǎn)生實質性影響。因此, 本項目擬拓展人機內部兼容性內涵, 構建包含認知兼容性、情感兼容性與價值觀兼容性的人機內部兼容性理論框架, 深入探討三者對人機協(xié)同決策的可能影響及其作用機制。
最后, 基于理論邏輯和實證依據(jù)提出人機協(xié)同決策優(yōu)化方法的研究有待加強。智能組織中的一系列重要決策正逐漸由人類成員與智能體共同完成。因此, 如何提升人機協(xié)同決策績效是一項極具現(xiàn)實意義的研究課題。從理論邏輯看, 我們認為, 人機兼容性尤其是人機內部兼容性, 影響人機協(xié)同過程, 并進而影響人機協(xié)同決策質量、決策效率和決策體驗。然而這一影響機制仍需更多實證研究證據(jù)支持, 特別是情感兼容性和價值兼容性的效應仍需檢驗。本項目擬通過系列現(xiàn)場研究和實驗室模擬實驗, 揭示“內部兼容性?人機協(xié)同行為?人機協(xié)同決策績效”三者關系, 并考察人、機、團隊、任務等因素的影響。在此基礎上, 從提升人機內部兼容性入手, 提出若干改善人機協(xié)同決策績效的方法, 并在真實的組織場景中檢驗其有效性。這些探索, 有助于開拓優(yōu)化人機協(xié)同決策過程和決策績效的新途徑, 也能為決策智能體設計者提供啟示, 從而有利于推進組織決策智能化進程。
以往關于人機內部兼容性的研究主要探討人機認知兼容性在人機協(xié)作任務中的作用。本項目認為, 除了認知兼容性, 情感兼容性與價值兼容性亦是人機內部兼容性的重要組成部分。其中, 情感兼容性指人類與智能體對特定情感事件所做反應的匹配程度, 以及人類對智能體作為協(xié)作伙伴的信任和認同; 價值兼容性指人類與智能體在決策選擇中遵循的價值觀、道德原則等的匹配程度(Yokoi & Nakayachi, 2021)。以往關于情感兼容性的研究主要集中于人機信任, 并認為人機信任有利于提高人類對智能體所提建議的接受度及協(xié)作意愿(Hancock et al., 2011), 但對人機情感反應一致性如何影響協(xié)作過程和協(xié)作績效的研究仍相對缺乏。此外, 關于價值兼容性是否及如何影響人機協(xié)同過程和協(xié)同績效, 還未見實證研究。我們假設, 由上述三類兼容性所構成的內部兼容性是人機協(xié)同的重要基礎, 對人機協(xié)同決策的質量、效率和體驗會產(chǎn)生實質性影響。因此, 本項目擬拓展人機內部兼容性內涵, 構建包含認知兼容性、情感兼容性與價值觀兼容性的人機內部兼容性理論框架, 深入探討三者對人機協(xié)同決策的可能影響及其作用機制。
本項目擬結合決策心理學、認知科學、組織行為學等多學科理論與方法, 通過現(xiàn)場訪談、問卷調查、實驗室模擬與現(xiàn)場實驗等手段, 揭示智能組織人機協(xié)同決策中可能存在的問題及成因(研究一); 并從認知兼容性、情感兼容性、價值觀兼容性三方面出發(fā), 考察人機內部兼容性對人機協(xié)同決策的影響方式與作用機制(研究二); 進而提出若干可提升人機協(xié)同決策績效的優(yōu)化方法, 并在智能組織決策場景中檢驗其有效性(研究三)。
研究一擬在現(xiàn)實的智能組織中考察人機協(xié)同決策可能存在的問題及原因。為此, 首先需開發(fā)關于人機內部兼容性與人機協(xié)同行為的測評工具(子研究1), 并將其運用于企業(yè)現(xiàn)場研究, 從而了解智能體在組織場景中的使用現(xiàn)狀、人類員工和決策者對智能體的使用意愿, 以及人機協(xié)同決策中可能存在的問題與成因(子研究2)。
對人機內部兼容性與人機決策協(xié)同性的有效測量是本項目研究的重要基礎。然而, 目前關于兩者的測評工具仍相對缺乏。因此, 子研究1嘗試以認知兼容性、情感兼容性、價值兼容性為理論框架, 開發(fā)《人機內部兼容性量表》; 以信息收集協(xié)同、方案形成協(xié)同、方案評估協(xié)同與決策制定協(xié)同為主要維度, 開發(fā)《人機決策協(xié)同性量表》。隨后, 子研究2將利用本項目開發(fā)的《人機內部兼容性量表》與《人機決策協(xié)同性量表》, 結合現(xiàn)場訪談、問題調查、量表測試、個案分析等方法, 探討智能體在現(xiàn)實組織中的使用現(xiàn)狀、人類員工對其的使用意愿, 以及人機協(xié)同決策中存在的問題及其成因。
當前, 關于人機內部兼容性如何影響人機協(xié)同決策過程和績效的研究相對缺乏。研究二擬采用實驗室模擬和現(xiàn)場研究等方法深入考察人機內部兼容性與人機協(xié)同決策間的內在關聯(lián)。因此, 研究二中的四項研究分別考察認知兼容性(子研究3)、情感兼容性(子研究4)和價值兼容性(子研究5)對人機協(xié)同決策績效(決策質量、決策效率、決策體驗)的可能影響, 并檢驗若干決策任務特征在其中的調節(jié)作用(子研究6)。
子研究3主要關注認知兼容性如何影響人機協(xié)同決策績效。人機認知兼容性指人類決策者與智能體在信息儲備和信息加工等方面的一致性程度, 主要受人機協(xié)同決策系統(tǒng)中雙方的信息分布、加工方式、加工能力等因素的影響。因此, 子研究3擬通過實驗室模擬決策任務, 考察信息量及其分布以及人機信息加工方式、加工能力對人機協(xié)同決策績效的影響, 并檢驗認知兼容性在其中的中介作用。子研究4主要考察情感兼容性在人機協(xié)同決策形成過程中的可能作用。人機情感兼容性指人類決策者對智能體的信任、認同和共情程度, 其強弱主要取決于人類決策者對智能體能力、可靠性等因素的知覺。因此, 子研究4將在實驗室模擬決策任務下, 探討人類決策者對智能體內外特征的知覺如何形塑其與智能體的情感兼容性, 并進而影響人機協(xié)同決策績效。子研究5重點考察價值兼容性對人機協(xié)同決策的可能影響。人機價值兼容性指人類決策者與智能體算法在價值取向、道德準則等方面的一致性程度, 其高低受人機價值取向、保護性價值觀等因素的制約。因此, 子研究5擬采用實驗室模擬決策方法, 考察人機價值取向、保護性價值觀等因素對價值兼容性以及人機協(xié)同決策績效的影響。子研究6嘗試探討決策任務特征等在人機兼容性影響人機協(xié)同決策中的調節(jié)作用。我們認為, 決策任務的若干特征, 如任務依存性、不確定性等因素或可改變人機兼容性對人機協(xié)同決策績效的影響強弱。因此, 子研究6擬在真實的組織決策場景下, 檢驗任務依存性、決策不確定性等因素對人機兼容性與人機協(xié)同決策績效間關系的調節(jié)作用。
基于研究一和研究二取得的成果, 研究三擬通過現(xiàn)場研究, 檢驗若干優(yōu)化方法, 如增加智能體決策透明度(子研究7)、增設智能體決策結果反饋(子研究8)等對提升人機內部兼容性和人機協(xié)同決策績效的有效性。
智能體決策透明度指智能體所采用的決策規(guī)則向人類用戶開放、為人類用戶理解的程度。我們認為, 當智能體的決策透明度得到保障時, 人機之間的內部兼容性與協(xié)同決策質量亦將明顯改善。另外, 基于以往研究, 我們預期, 通過設置智能體決策結果反饋方式亦可增進人機內部兼容性, 進而提升人機協(xié)同決策的整體績效。子研究7與子研究8擬在現(xiàn)場實驗中對上述假設的可靠性分別予以檢驗。
伴隨智能技術的迅速發(fā)展, 越來越多的企業(yè)試圖將智能技術引入自身的各業(yè)務流程, 智能化組織應運而生。在此背景下, 人機協(xié)同決策逐漸成為組織中新的決策方式。然而, 當前的人機協(xié)同決策仍存在信任度低、可控性低、透明度低、協(xié)同度低等問題, 其決策質量、效率和主觀體驗均有待提升。本項目擬以人機內部兼容性為分析視角, 提出“人機認知兼容性、情感兼容性、價值兼容性是影響人機協(xié)同決策績效的關鍵因素”這一嶄新理論觀點, 在此基礎上, 采用現(xiàn)場訪談、問卷調查、個案研究、實驗室模擬、現(xiàn)場實驗等方法, 揭示智能組織中人機協(xié)同決策存在的問題及成因, 挖掘人機內部兼容性對人機協(xié)同決策的影響機制, 并提出若干可有效改善人機協(xié)同決策績效的優(yōu)化方法(見圖1)。
圖1 人機協(xié)同決策的內部兼容性理論框架
本項目的研究具有理論創(chuàng)新性。以往關于人機內部兼容性的研究主要考察人機認知兼容性對人機協(xié)作行為的影響。我們認為, 除認知兼容性外, 情感兼容性與價值觀兼容性亦是人機內部兼容性的重要組成部分, 它們共同對人機協(xié)同決策績效產(chǎn)生實質性影響。因此, 本項目從三類內部兼容性理論框架出發(fā), 深入考察其在人機協(xié)同決策過程中的作用。該研究視角有望為未來人機協(xié)同決策研究提供新方向。
同時, 本項目研究成果也具有良好的應用前景。本項目從增強人機認知兼容性、情感兼容性、價值兼容性角度切入, 提出優(yōu)化人機協(xié)同決策過程、提升人機協(xié)同決策績效的方法, 并在現(xiàn)場檢驗其有效性, 有望為智能組織改進人機協(xié)同決策提供新途徑, 為決策智能體開發(fā)者提供新啟示, 進而有助于推進組織決策智能化進程。
陳婷, 孫曉敏. (2016). 團隊決策中的共享信息偏差:基于隱藏文檔范式的機制、影響因素探究.(1), 132?142.
管文穎. (2006).(碩士學位論文). 浙江大學, 杭州.
何貴兵. (2002).(博士學位論文). 浙江大學, 杭州.
黃德斌. (2007).(碩士學位論文). 浙江大學, 杭州.
劉文川, 唐堅, 吳超. (2019). 人工智能與領導力: 基于復雜大數(shù)據(jù)支撐的政府決策機制研究., 42?46.
許為, 葛列眾. (2020). 智能時代的工程心理學.(9), 1409?1425.
Bubb, H. (1993). Systemergonomie. In H. Schmidtke (Ed.),(pp. 333?420). München, Germany: CarlHanser.
Burton, J. W., Stein, M. K., & Jensen, T. B. (2020). A systematic review of algorithm aversion in augmented decision making.(2), 220?239.
Cannon-Bowers, J. A., Salas, E., & Converse, S. (1993). Shared mental models in expert team decision making. In N. J. Castellan, Jr. (Ed.),(pp. 221–246). Lawrence Erlbaum Associates, Inc.
Chamorro-Premuzic, T., & Ahmetoglu, G. (2016). The pros and cons of robot managers.,, 2?5.
Christoffersen, K., & Woods, D. D. (2002). How to make automated systems team players. In E. Salas (Ed.),(Vol. 2, pp. 1?12). Bingley, UK: Emerald Group.
Coll, R., & Coll, J. H. (1989). Cognitive match interface design, a base concept for guiding the development of user friendly computer application packages.(4), 227?235.
Davenport, T. H., & Ronanki, R. (2018). Artificial intelligence for the real world.,(1), 108-116.
Davis, F. D., Bagozzi, R. P., & Warshaw, P. R. (1989). User acceptance of computer technology: A comparison of two theoretical models.(8), 982?1003.
Davis, F. D., & Venkatesh, V. (1996). A critical assessment of potential measurement biases in the technology acceptance model: Three experiments.(1), 19?45.
Demir, M., McNeese, N. J., & Cooke, N. J. (2020). Understanding human-robot teams in light of all-human teams: Aspects of team interaction and shared cognition., Article 102436.
Dewhurst, M., & Willmott, P. (2014). Manager and machine: The new leadership equation.(3), 76?86.
Dineen, B. R., Noe, R. A., & Wang, C. (2004). Perceived fairness of web-based applicant screening procedures: Weighing the rules of justice and the role of individual differences.(2-3), 127?145.
Dirks, K. T., & Ferrin, D. L. (2001). The role of trust in organizational settings.(4), 450?467.
Fan, X., & Yen, J. (2010). Modeling cognitive loads for evolving shared mental models in human-agent collaboration.(2), 354?367.
Flemisch, F., Kelsch, J., L?per, C., Schieben, A., & Schindler, J. (2008). Automation spectrum, inner/outer compatibility and other potentially useful human factors concepts for assistance and automation. In D. de Waard, F. O. Flemisch, B. Lorenz, H. Oberheid, & K. A. Brookhuis (Eds.),(pp. 1?16)Maastricht, the Netherlands: Shaker Publishing.
Ghislieri, C., Molino, M., & Cortese, C. G. (2018). Work and Organizational Psychology Looks at the Fourth Industrial Revolution: How to Support Workers and Organizations?, Article 2365.
Hafenbr?dl, S., Waeger, D., Marewski, J. N., & Gigerenzer, G. (2016). Applied decision making with fast-and-frugal heuristics.(2), 215?231.
Hancock, P. A., Billings, D. R., Schaefer, K. E., Chen, J. Y. C., de Visser, E. J., & Parasuraman, R. (2011). A meta-analysis of factors affecting trust in human-robot interaction.(5), 517?527.
Harms, P. D., & Han, G. (2019). Algorithmic leadership: The future is now.(4), 74?75.
Jonker, C., Van Riemsdijk, M., & Vermeulen, B. (2010, May).Proceedings of 9thInternational Conference on Autonomous Agents and Multiagent Systems (AAMAS 2010), Toronto, Canada.
Kaplan, A., & Haenlein, M. (2019). Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence.(1), 15?25.
Lam, S. S., & Schaubroeck, J. (2011). Information sharing and group efficacy influences on communication and decision quality.(3), 509?528.
Langer, M., K?nig, C. J., Gebhard, P., & André, E. (2016). Dear computer, teach me manners: Testing virtual employment interview training.(4), 312?323.
Larson, J. R., Christensen, C., Abbott, A. S., & Franz, T. M. (1996). Diagnosing groups: Charting the flow of information in medical decision-making teams.(2), 315?330.
Lee, J. D., & See, K. A. (2004). Trust in automation: Designing for appropriate reliance.(1), 50?80.
Lee, M. K. (2018). Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management.(1), 1?16.
Lim, B. C., & Klein, K. J. (2006). Team mental models and team performance: A field study of the effects of team mental model similarity and accuracy.(4), 403?418.
Lim, J. S., & O'Connor, M. (1996). Judgmental forecasting with interactive forecasting support systems.(4), 339?357.
Madhavan, P., & Wiegmann, D. A. (2007). Similarities and differences between human-human and human-automation trust: An integrative review.(4), 277?301.
Mathieu, J. E., Heffner, T. S., Goodwin, G. F., Salas, E., & Cannon-Bowers, J. A. (2000). The influence of shared mental models on team process and performance.(2), 273?283.
Mittu, R., Sofge, D., Wagner, A., & Lawless, W. F. (2016).Boston, MA: Springer.
Mohammed, S., & Dumville, B. C. (2001). Team mental models in a team knowledge framework: Expanding theory and measurement across disciplinary boundaries.(2), 89?106.
Naim, I., Tanveer, M. I., Gildea, D., & Hoque, M. E. (2016). Automated analysis and prediction of job interview performance.(2), 191?204.
?tting, S. K., & Maier, G. W. (2018). The importance of procedural justice in human-machine interactions: Intelligent systems as new decision agents in organizations., 27?39.
Parry, K., Cohen, M., & Bhattacharya, S. (2016). Rise of the machines: A critical consideration of automated leadership decision making in organizations.(5), 571?594.
Schaefer, K. E., Chen, J. Y. C., Szalma, J. L., & Hancock, P. A. (2016). A meta-analysis of factors influencing the development of trust in automation: Implications for understanding autonomy in future systems.(3), 377?400.
Scheutz, M., DeLoach, S. A., & Adams, J. A. (2017). A framework for developing and using shared mental models in human-agent teams.(3), 203?224.
Sieck, W. R., & Arkes, H. R. (2005). The recalcitrance of overconfidence and its contribution to decision aid neglect.(1), 29?53.
Stasser, G., & Titus, W. (1985). Pooling of unshared information in group decision making: Biased information sampling during discussion.(6), 1467?1478.
Stasser, G., & Titus, W. (1987). Effects of information load and percentage of shared information on the dissemination of unshared information during group discussion.(1), 81?93.
Wynne, K. T., & Lyons, J. B. (2018). An integrative model of autonomous agent teammate-likeness.(3), 353?374.
Yokoi, R., & Nakayachi, K. (2021). The effect of value similarity on trust in the automation systems: A case of transportation and medical care.,(13), 1269?1282.
Human-agent collaborative decision-making in intelligent organizations: A perspective of human-agent inner compatibility
HE Guibing, CHEN Cheng, HE Zetong, CUI Lidan, LU Jiaqi, XUAN Hongzhou, LIN Lin
(Department of Psychology and Behavioral Sciences, Zhejiang University, Hangzhou 310028, China)
The era of artificial intelligence has already arrived. With the rapid development of intelligent technology, more and more companies are adopting this technology into their business processes to enhance their core competitiveness. Subsequently, human-agent collaborative work is becoming common, and human-agent collaborative decision-making (HACDM) is evolving as a new form of organizational decision-making. However, evidence shows that HACDM still faces challenges, such as low trust and controllability toward agents, low transparency of agents, and low collaboration between humans and agents. Therefore, how these challenges can be overcome to improve the decision quality, decision efficiency, and user experience of HACDM is crucial to the field of organizational decision-making. This project suggests that human-agent compatibility, especially human-agent inner compatibility (HAIC) which consists of cognitive, affective, and value compatibility, might be the fundamental factor affecting the performance of HACDM. Following the perspective of HAIC theory and using the multi-disciplinary methods from psychology, cognitive science, and organizational behavior, we intend to 1) reveal the existing problems within HACDM; 2) explore the impact of HAIC on the process and performance of HACDM; 3) propose methods to improve the performance of HACDM. This project’s findings will contribute to the development of human-agent compatibility theory and human-agent collaboration theory, improve the performance of intelligent organizations and promote the intelligentization progress of HACDM.
intelligent organization, human-agent collaborative decision-making, human-agent inner compatibility, cognitive compatibility, affective compatibility, value compatibility
2021-12-31
* 國家自然科學基金項目(72071178)。
何貴兵, E-mail: gbhe@zju.edu.cn
B849