許 為 高在峰 葛列眾
智能時代人因科學(xué)研究的新范式取向及重點
許 為1高在峰2葛列眾1
(1浙江大學(xué)心理科學(xué)研究中心;2浙江大學(xué)心理與行為科學(xué)系, 杭州 310058)
本文首先提出了“人因科學(xué)”這一創(chuàng)新的學(xué)科群概念來表征工程心理學(xué)、人因工程、工效學(xué)、人機交互等相近領(lǐng)域。盡管這些領(lǐng)域的研究角度不一樣, 但是它們分享共同的研究理念、對象以及目的。我們近期的研究表明, 人工智能(AI)新技術(shù)帶來了一系列新的人因問題, 而作為人因科學(xué)研究對象的人機關(guān)系呈現(xiàn)出從“人機交互”向“人智組隊式合作”的跨時代演進(jìn)。這些變化對人因科學(xué)研究提出了新問題和新挑戰(zhàn), 需要我們重新審視基于非智能技術(shù)的人因科學(xué)研究范式和重點。在此背景下, 本文梳理人因科學(xué)研究范式取向跨時代的演進(jìn), 總結(jié)我們近5年所提出的一系列用于豐富人因科學(xué)研究范式的新概念模型和框架, 其中包括人智協(xié)同認(rèn)知系統(tǒng)、人智協(xié)同認(rèn)知生態(tài)系統(tǒng)以及智能社會技術(shù)系統(tǒng)的模型和框架。本文進(jìn)一步從人因科學(xué)研究范式取向的角度進(jìn)一步提升這些概念模型和框架, 提出智能時代人因科學(xué)研究的三種新范式取向, 分析相應(yīng)的應(yīng)用意義, 并展望今后的研究方向。同時, 針對智能時代人因科學(xué)研究重點的跨時代轉(zhuǎn)移新特征, 本文從“人智交互” “智能人機界面” “人智組隊合作”三個方面展望了今后人因科學(xué)的研究重點, 揭示出人因科學(xué)新研究范式取向?qū)ξ磥硌芯恐攸c的作用。我們認(rèn)為, 人因科學(xué)的研究范式取向和研究重點互為影響, 互為促進(jìn), 智能時代的人因科學(xué)研究需要多樣化、創(chuàng)新的研究范式取向, 從而進(jìn)一步推動人因科學(xué)的發(fā)展。
人因科學(xué), 工程心理學(xué), 人因工程, 研究范式取向, 人智組隊
工程心理學(xué)(engineering psychology)、人因工程(human factors engineering)和工效學(xué)(ergonomics)均誕生于上世紀(jì)二次大戰(zhàn)期間, 雖然它們具有各自獨特的研究角度和重點, 但是都分享“以人為中心”的共同理念。例如, 工程心理學(xué)從人類認(rèn)知信息加工角度為人機系統(tǒng)的優(yōu)化設(shè)計提供心理學(xué)原理、方法及實證(Wickens et al., 2021; 孫向紅等, 2011; 許為, 朱祖祥, 1989); 人因工程和工效學(xué)則從人?機?環(huán)境關(guān)系匹配的工程設(shè)計角度為人機系統(tǒng)的優(yōu)化設(shè)計提供人因和工效設(shè)計原則、方法及實證(Sanders & McCormick, 1993; 許為, 陳勇, 2012, 2013, 2014; Xu & Zhu, 1990; Xu, 2007)。進(jìn)入計算機時代, 人與計算機(包括基于計算技術(shù)的產(chǎn)品)交互帶來了許多新的人因(human factors)問題, 推動了人機交互(human-computer interaction, HCI)、用戶體驗等領(lǐng)域的產(chǎn)生和發(fā)展(Norman & Kirakowski, 2017; Norman & Draper, 1986; Xu et al., 1999; 許為, 2003, 2005, 2017)?;凇耙匀藶橹行摹钡墓餐砟? 這些相近領(lǐng)域都希望通過優(yōu)化人、機器以及環(huán)境之間的交互, 確保系統(tǒng)實現(xiàn)安全、高效和宜人的目標(biāo), 因此, 我們將這些領(lǐng)域統(tǒng)稱為人因科學(xué)(human factors science)。
本文在國際上首次提出了“人因科學(xué)”這一創(chuàng)新的學(xué)科群概念。該概念從本質(zhì)上凸顯出工程心理學(xué)、人因工程、工效學(xué)、人機交互、用戶體驗等相近領(lǐng)域圍繞“人”這一要素在各自相應(yīng)研究和應(yīng)用中所采納的共同研究理念、對象以及目的。類似于認(rèn)知科學(xué)與認(rèn)知心理學(xué)的關(guān)系, 人因科學(xué)的概念是比這些領(lǐng)域更高一級的表達(dá)。在實踐中遇到的許多研究和應(yīng)用問題有時不能簡單地歸屬于這些相近領(lǐng)域中的某一個特定領(lǐng)域, 通常需要從跨領(lǐng)域的角度來探索解決問題的整體方案。因此, “人因科學(xué)”學(xué)科群概念的提出有助于從更高的系統(tǒng)層面上來探索人因科學(xué)的系統(tǒng)化整體解決方案, 促進(jìn)這些相近領(lǐng)域之間的交流與合作、取長補短、協(xié)同發(fā)展, 從而實現(xiàn)共同的領(lǐng)域目標(biāo)。
進(jìn)入智能時代, 基于人工智能(AI)技術(shù)的智能自主化系統(tǒng)帶來了一系列新特征和新問題(Kaber, 2018; 許為, 2020), 這必將對人因科學(xué)研究以及相應(yīng)的研究范式取向帶來新的要求, 需要我們系統(tǒng)的梳理, 從而保證人因科學(xué)能夠為智能新技術(shù)的優(yōu)化設(shè)計做出更加有效的學(xué)科貢獻(xiàn)。本文將一門領(lǐng)域的研究范式取向定義為該領(lǐng)域開展研究所采納的角度和層面, 一個研究范式取向決定了該研究范圍、重點以及相應(yīng)的方法。從人因科學(xué)的整體角度出發(fā), 本文對人因科學(xué)中相近領(lǐng)域的研究范式取向與研究重點展開全面系統(tǒng)的評估。
近5年來, 針對智能時代的人因科學(xué)研究理念和對象等問題, 我們提出了一系列新論述、概念模型和框架, 例如“以人為中心AI”理念, 基于“人智組隊” (human-AI teaming)式合作的新型人機關(guān)系, “人智交互(human-AI interaction)”的新型跨學(xué)科研究領(lǐng)域。在這些研究基礎(chǔ)上, 針對智能時代人因科學(xué)的研究范式取向, 我們開展了一些新探索, 并且提出了一系列新論述和新概念框架(Xu et al., 2019; Xu, 2019, 2021; 許為, 葛列眾, 2018, 2020; 許為等, 2021; 許為, 2019a, 2022, 2022a, 2022b, 2022c; Xu et al., 2022; Xu & Dainoff, 2023; Ozmen Garibay et al., 2023; Xu & Gao, 2023; Gao et al., 2023)。這些人因科學(xué)研究新理念、新論述和新概念框架必然帶來對人因科學(xué)研究范式取向和重點的新思考, 人因科學(xué)界目前還沒有系統(tǒng)地開展這方面的工作。因此, 本文通過梳理人因科學(xué)研究范式取向和重點, 進(jìn)一步提升我們所提出的這些人因科學(xué)研究新理念、新論述和新概念框架, 回答以下科學(xué)問題:智能時代人因科學(xué)應(yīng)該采用怎樣的研究范式取向來有效地支持今后的研究?智能時代人因科學(xué)今后的研究重點是什么?以期為下一步人因科學(xué)研究提供新思路。
人因科學(xué)的研究對象是人機關(guān)系。在計算機時代, 在人與非智能計算系統(tǒng)的交互中, 機器充當(dāng)人機系統(tǒng)中輔助工具的角色。在智能時代, 人與智能系統(tǒng)的交互本質(zhì)上是與智能系統(tǒng)中的智能體(intelligent agent)之間的交互?;谥悄芗夹g(shù), 這些智能體可以展現(xiàn)出獨特的自主化(autonomy)新特征, 擁有一些類似人類的認(rèn)知能力(感知、學(xué)習(xí)、推理等), 在一些設(shè)計未預(yù)期的場景中, 可自主地完成以往自動化技術(shù)所不能完成的任務(wù)(Kaber, 2018; Madni & Madni, 2018; 許為, 2020)。因此, 智能系統(tǒng)可以從一種支持人類操作的輔助工具角色發(fā)展成為與人類合作的團隊隊友, 扮演“輔助工具 + 人機合作隊友”的雙重新角色, 從而形成一種新型的人機關(guān)系形態(tài):“人智組隊”式合作(Brill et al., 2018; 許為, 葛列眾, 2020)。這種新型“人智組隊”式合作關(guān)系給人機關(guān)系賦予了新的內(nèi)涵, 帶來了人機關(guān)系跨時代的演變(許為, 葛列眾, 2020), 也為人因科學(xué)研究帶來了新的視角, 需要我們重新審視基于非智能技術(shù)的人因科學(xué)研究范式和重點。
縱觀發(fā)展歷史, 借助于新興技術(shù), 人因科學(xué)的研究范式取向一直在拓展。這種拓展提升了人因科學(xué)研究的方法論, 擴展了學(xué)科研究的范圍和解決問題的深度, 進(jìn)而推動了人因科學(xué)的不斷發(fā)展。
在發(fā)展初期, 傳統(tǒng)人因科學(xué)(如早期的工效學(xué))注重人類體力作業(yè)、人機界面等物理特征, 研究主要借助人類體力作業(yè)分析、時間任務(wù)分析等手段來實現(xiàn)人機功能和任務(wù)的合理分配, 達(dá)到優(yōu)化人機系統(tǒng)效率的目的(Sanders & McCormick, 1993; Gardner et al., 1995)。
自從進(jìn)入計算機時代, 人因科學(xué)的研究范式基本上是基于信息加工的認(rèn)知理論構(gòu)建, 但是這種研究范式在人因科學(xué)發(fā)展各階段中呈現(xiàn)出不同的取向。在計算機時代, 人因科學(xué)(如工程心理學(xué)、認(rèn)知工效學(xué))從信息加工機制出發(fā), 深入到人的心理活動層面, 考察在人機操作環(huán)境中人類工作績效與感知覺、注意、記憶、決策等心理活動間的關(guān)系, 達(dá)到優(yōu)化人機系統(tǒng)的設(shè)計目的(Wickens et al., 2021; 孫向紅等, 2011)。為解決人與計算機交互中的人因問題, 人因科學(xué)(如人機交互、用戶體驗)采用了基于“以用戶為中心”理念的方法, 構(gòu)建用戶心理和情景意識模型、人機交互認(rèn)知模型及人機界面概念模型, 采用基于心理學(xué)方法的可用性測試等驗證方法, 開發(fā)出符合用戶需求和體驗的交互式產(chǎn)品(Nielsen, 1994; Finstad et al., 2009; 許為, 2024)。
然而, 人因科學(xué)研究通常注重在人類外在行為的層面上, 通過客觀工作績效和主觀評價方法來考察人的認(rèn)知活動和工作績效。為克服這種方式的局限性, 人因科學(xué)進(jìn)一步采納了來自認(rèn)知神經(jīng)科學(xué)的測量技術(shù)方法(如EEG、fMRI等), 形成了神經(jīng)人因?qū)W(neuroergonomics), 從而能夠深入到人類認(rèn)知加工的內(nèi)部神經(jīng)活動層面, 探索在人機交互環(huán)境中認(rèn)知加工的神經(jīng)機制(Parasuraman & Rizzo, 2006), 為人因科學(xué)提供了更為客觀的實證手段(Dehais et al., 2020)。
進(jìn)入智能時代, 智能技術(shù)的新特征、人因科學(xué)研究理念和對象(人機關(guān)系)的跨時代演變必然帶來對人因科學(xué)研究范式取向的新思考。然而, 人因科學(xué)界還未系統(tǒng)地開展這方面的工作。自2021年, 我們針對智能時代的人因科學(xué)研究范式取向開展了一些新探索, 以下分別總結(jié)我們提出的人智協(xié)同認(rèn)知系統(tǒng)(human-AI joint cognitive systems)、人智協(xié)同認(rèn)知生態(tài)系統(tǒng)(human-AI joint cognitive ecosystem)、智能社會技術(shù)系統(tǒng)(intelligent sociotechnical systems)概念模型和框架(許為, 2022a, 2022b, 2022c; Xu et al., 2022; Xu & Dainoff, 2023; Ozmen Garibay et al., 2023; Xu & Gao, 2023; Gao et al., 2023)。同時, 本文從人因科學(xué)研究范式取向的角度進(jìn)一步提升這些概念模型和框架, 然后通過智能駕駛?cè)藱C共駕的應(yīng)用實例來分析這些研究范式取向的應(yīng)用意義, 并且展望今后的研究。
3.1.1 人智協(xié)同認(rèn)知系統(tǒng)的概念模型
人機交互模型是人因科學(xué)研究的一個重要內(nèi)容。研究者通常采用了人類信息處理模型來構(gòu)建人機交互模型, 例如MHP、GOMS、SOAR、ACT-R、EPIC等模型(綜述見王宏安等, 2020)。這些模型主要針對非智能人機交互, 機器僅僅是作為一個工具來考慮, 沒有考慮人與智能系統(tǒng)之間潛在的人機合作關(guān)系, 無法有效處理智能人機交互任務(wù)(許為, 葛列眾, 2020)。目前, 國際學(xué)術(shù)界就人?智能系統(tǒng)之間存在的合作關(guān)系已基本達(dá)成共識(例如, NASEM, 2021; Caldwell et al., 2022)。然而, 迄今尚未有人智組隊合作的交互模型。鑒于此, 基于智能技術(shù)的自主化新特征以及新型人智組隊式合作關(guān)系, 采用協(xié)同認(rèn)知系統(tǒng)理論(joint cognitive systems; Hollnagel & Woods, 2005)、情景意識(situation awareness)理論(Endsley, 1995)以及智能體理論(Wooldridge & Jennings, 1995; 王祝萍, 張皓, 2020), 我們首次提出了一個針對智能人機系統(tǒng)中人智組隊合作的人智協(xié)同認(rèn)知系統(tǒng)概念模型(許為, 2022b; Xu & Gao, 2023) (見圖1)。
如圖1所示, 不同于傳統(tǒng)人機交互系統(tǒng), 該模型將智能系統(tǒng)(包括一個或多個智能體)視作為能夠完成一定認(rèn)知信息加工任務(wù)的認(rèn)知體。因此, 一個智能人機系統(tǒng)可以表征為兩個認(rèn)知體協(xié)同合作的一個協(xié)同認(rèn)知系統(tǒng)。作為與人類用戶合作的團隊隊友, 智能系統(tǒng)通過自然有效的人機交互方式(如語音、手勢、表情等)與人類用戶開展雙向主動式交互和協(xié)同合作。在特定的人機交互場景中, 智能系統(tǒng)可以對用戶狀態(tài)(認(rèn)知、生理、意圖、情感等)、環(huán)境上下文等狀態(tài)進(jìn)行自主感知、識別、學(xué)習(xí)、推理等認(rèn)知作業(yè), 做出相應(yīng)的自主執(zhí)行(Kaber, 2018; 許為, 2019b; Xu, 2021)。
該框架采用Endsley的情景意識認(rèn)知理論來表征人類用戶和機器認(rèn)知體的信息加工機制(Endsley, 1995, 2015), 即人類操作員感知和理解當(dāng)前環(huán)境狀態(tài)(包括人機界面、系統(tǒng)、環(huán)境、合作隊友等)以及預(yù)測未來情景狀態(tài)的認(rèn)知加工機制。該模型還包括了情景意識與記憶、經(jīng)驗、知識等因素的認(rèn)知交互, 并且擁有數(shù)據(jù)驅(qū)動(根據(jù)感知數(shù)據(jù)來理解和預(yù)測情景)和目標(biāo)驅(qū)動(根據(jù)目標(biāo)以及當(dāng)前的理解和預(yù)測來驗證感知數(shù)據(jù))的信息加工機制。借助于一個信息收集和后期響應(yīng)的動態(tài)反饋和前饋回路機制, 人類用戶能夠感知動態(tài)的環(huán)境情景來更新獲取的信息。如圖1所示(右側(cè)), 該模型采用與人類用戶認(rèn)知體異質(zhì)同構(gòu)方式來表征機器認(rèn)知體的信息加工機制。
圖1 一個表征人智協(xié)同認(rèn)知系統(tǒng)的概念框架
圖1所表征的概念框架為人因科學(xué)研究提供了一種新的研究范式取向, 該研究范式取向體現(xiàn)了以下一些新特征和研究新思路:
(1)基于機器認(rèn)知體的研究范式新取向:不同于傳統(tǒng)人因科學(xué)研究范式將機器視作為輔助人類作業(yè)的工具, 該模型將機器智能體表征為與人類組隊合作的認(rèn)知體, 這有助于人因科學(xué)通過研究智能體的認(rèn)知行為以及與人類的合作行為, 探索通過優(yōu)化智能體認(rèn)知能力和行為的途徑來提升人機系統(tǒng)績效。
(2)基于“人智組隊”的合作式研究范式新取向:不同于傳統(tǒng)人因科學(xué)研究范式的“人機交互”式人機關(guān)系, 該模型將人機關(guān)系表征為一個人智協(xié)同認(rèn)知系統(tǒng)中人?機兩個認(rèn)知體之間的協(xié)同合作, 探索通過優(yōu)化人機協(xié)同合作的途徑來提升人機系統(tǒng)績效。
(3)“以人為中心AI”的理念:在人智組隊合作的團隊中, 人類用戶是這一合作團隊的領(lǐng)導(dǎo)者, 在應(yīng)急狀態(tài)下人類是系統(tǒng)的最終決控者。
(4)人機雙向主動式狀態(tài)識別:不同于傳統(tǒng)的“刺激?反應(yīng)”單向式人機交互, 該模型強調(diào)人機雙向主動式狀態(tài)識別, 智能系統(tǒng)可以通過感應(yīng)系統(tǒng)主動監(jiān)測和識別用戶生理、認(rèn)知、行為、意圖、情感等狀態(tài), 人類用戶則通過多模態(tài)人機界面獲取最佳的情景意識。
(5)人機智能互補性:作為一個協(xié)同認(rèn)知系統(tǒng), 系統(tǒng)績效不僅僅取決于系統(tǒng)單個部分的績效, 而是取決于人機智能互補和合作, 通過人機混合(融合)智能來最大限度地提高人機協(xié)同合作和整體系統(tǒng)績效。
(6)自適應(yīng)智能人機交互:強調(diào)智能系統(tǒng)的自適應(yīng)機制, 根據(jù)對用戶、環(huán)境上下文等狀態(tài)的感應(yīng)識別和推理, 智能體可以在設(shè)計無法預(yù)測的一些場景中做出合適的自適應(yīng)系統(tǒng)輸出, 而人類用戶根據(jù)情景意識、任務(wù)、目標(biāo)等自適應(yīng)地調(diào)整交互行為。
(7)人機合作式認(rèn)知界面:強調(diào)構(gòu)建基于多模態(tài)交互技術(shù)的人機合作式認(rèn)知界面來支持人機協(xié)同合作, 其中包括對人機雙向情景意識、人機互信、人機決策共享、人機控制共享、人機社會交互、人機情感交互等方面的支持。
3.1.2 應(yīng)用分析
基于智能技術(shù)的自動駕駛車是一個典型的智能人機系統(tǒng)。目前, 盡管人因科學(xué)專業(yè)人員參與了自動駕駛車的研發(fā), 但是頻頻發(fā)生的事故促使我們探索設(shè)計新思路(NTSB, 2017; Endsley, 2018; 許為, 2020)。SAE (2019)將自動駕駛車系統(tǒng)分為5個“自動化”等級(L1~L5), 在相當(dāng)長一段時間內(nèi), 自動駕駛車人機共駕將是常態(tài)(宗長富等, 2021)。在高等級自動駕駛車系統(tǒng)中, 基于人智協(xié)同認(rèn)知系統(tǒng)的研究范式取向, 人類駕駛員和車載智能系統(tǒng)是可以完成一定認(rèn)知信息加工任務(wù)的兩個認(rèn)知體, 自動駕駛車人機共駕就是一個基于人智組隊合作的人智協(xié)同認(rèn)知系統(tǒng)(許為, 2020; Xu, 2021; Gao et al., 2023)。裝備智能感知等技術(shù)的車載智能系統(tǒng)(智能體)可對人類駕駛員狀態(tài)、環(huán)境等狀態(tài)進(jìn)行一定程度的感知、識別、學(xué)習(xí)、推理等認(rèn)知作業(yè), 與人類駕駛員開展有效的人機共駕。因此, 人機共駕解決方案可以從幾方面來探索:
(1)人機協(xié)同合作的設(shè)計新范式:目前基于“以技術(shù)為中心”理念的自動駕駛級別分類法強調(diào)了智能駕駛車作為輔助或取代人類駕駛的工具角色(SAE, 2019)。人智協(xié)同認(rèn)知系統(tǒng)倡導(dǎo)以人為中心和人機合作的設(shè)計思維, 這有助于在各種自動駕駛?cè)蝿?wù)場景中為雙方建立協(xié)同合作式關(guān)系和動態(tài)化人機功能分配, 從人機協(xié)同合作、人機互信、情景意識共享、人機控制共享和協(xié)同駕駛等角度來優(yōu)化車載人機系統(tǒng)設(shè)計(Biondi et al., 2019; 許為, 2020; 高在峰等, 2021)。例如, 研究應(yīng)急狀態(tài)下的車輛控制權(quán)人機切換, 確保人擁有最終控制權(quán)(包括遠(yuǎn)程控制) (Fridman, 2018); 探索在什么條件下(如人機互信程度, 駕駛員狀態(tài)和行車意圖)完成有效的人機控制權(quán)切換。
(2)人機狀態(tài)雙向識別:強調(diào)人機兩個認(rèn)知體之間的雙向主動式狀態(tài)識別, 基于智能體對人類駕駛員狀態(tài)、駕駛行為、意圖的監(jiān)測理解以及人類駕駛員對系統(tǒng)和環(huán)境的情景意識, 實現(xiàn)有效的人機協(xié)同合作。例如, 如何建模和實現(xiàn)駕駛員操作意圖識別, 如何提高對駕駛員狀態(tài)監(jiān)測的準(zhǔn)確性, 如何通過解釋性AI來提升操作員情景意識。
(3)基于“人在環(huán)內(nèi)”的人機混合智能設(shè)計:“人在環(huán)外”的人機系統(tǒng)設(shè)計是導(dǎo)致事故的重要原因之一(NTSB, 2017; Endsley, 2018)。人機共駕應(yīng)是一個“人在環(huán)內(nèi)”的人機混合智能系統(tǒng)。研究在系統(tǒng)層面(如“人在環(huán)內(nèi)”控制)和生物層面(如腦機控制)的有效“人在環(huán)內(nèi)”設(shè)計; 如何采用人機智能互補來優(yōu)化系統(tǒng)設(shè)計; 落實“有意義的人類控制” (meaningful human control)設(shè)計以及如何采用車載“故障追蹤系統(tǒng)”來實現(xiàn)人機故障問責(zé)和設(shè)計改善的機制(Santoni de Sio & van den Hoven, 2018)。
(4)基于智能自主化的設(shè)計:作為一個“移動式”智能自主化系統(tǒng), 高等級自動駕駛車系統(tǒng)所具備的自主化特征對系統(tǒng)設(shè)計提出了不同于傳統(tǒng)自動化技術(shù)的新需求, 例如, 潛在的不確定系統(tǒng)輸出、可解釋人機界面、人機控制權(quán)分享(許為, 2020)。系統(tǒng)設(shè)計需要采用有效方法來滿足這些新需求, 提高行駛安全。
(5)合作式認(rèn)知界面設(shè)計:探索“合作式認(rèn)知界面”來支持人機共駕中的人機協(xié)同合作, 探索有效的人機界面設(shè)計隱喻、范式及認(rèn)知架構(gòu), 例如, 合作式認(rèn)知界面、車載生態(tài)用戶界面(Burns & Hajdukiewicz, 2004)。
3.1.3 研究展望
為豐富人智協(xié)同認(rèn)知系統(tǒng)的研究范式取向, 今后研究要考慮以下幾方面: (1)開展針對機器智能體認(rèn)知特征、認(rèn)知能力、行為演變、人?智比較研究等方面的研究(Zhu et al., 2020); 研究人因科學(xué)如何參與對機器智能體的優(yōu)化設(shè)計, 提升人智組隊的協(xié)同合作。(2)開展針對人智組隊合作的理論研究, 借鑒現(xiàn)有人?人團隊合作等理論, 探索人智組隊合作理論、方法、人機合作績效評估系統(tǒng)(Madhavan & Wiegmann, 2007; Kaber, 2018)。(3)構(gòu)建人機協(xié)同合作的人機分享式/團隊式情景意識、人機互信、人機決策和控制分享等模型(許為, 2020; Gao et al., 2023)。(4)開發(fā)有效的用戶狀態(tài)、行為、意圖、情感識別認(rèn)知模型, 研究有效的知識表征和知識圖譜來支持計算建模。(5)研究基于用戶、系統(tǒng)、環(huán)境狀態(tài)評估的自適應(yīng)優(yōu)化設(shè)計, 利用智能系統(tǒng)主動式前饋預(yù)測能力來協(xié)助人類團隊隊友, 實現(xiàn)主動式、自適應(yīng)的人機交互; (6)研究有效支持人機協(xié)同合作的合作式認(rèn)知界面設(shè)計新范式和模型。
3.2.1 人智協(xié)同認(rèn)知生態(tài)系統(tǒng)的概念框架
人因科學(xué)研究通常注重于單一人機系統(tǒng), 人智協(xié)同認(rèn)知系統(tǒng)也主要針對人與單智能體系統(tǒng)之間的協(xié)同合作。但是, 智能不僅僅是一個產(chǎn)品或系統(tǒng), 而是一個包括了技術(shù)變革、系統(tǒng)演變、運行方式創(chuàng)新和組織適應(yīng)等特征的跨智能系統(tǒng)(產(chǎn)品)的生態(tài)體系(劉偉等, 2023)。例如, 基于單車自動駕駛的人機互駕僅僅是一個人智協(xié)同認(rèn)知系統(tǒng), 整個人機共駕智能生態(tài)系統(tǒng)包括基于智能車聯(lián)網(wǎng)、智能交通系統(tǒng)等技術(shù)的人與車、車與車、車與智能交通環(huán)境之間的交互和協(xié)同合作, 這些多智能體系統(tǒng)構(gòu)成了一個人智協(xié)同認(rèn)知生態(tài)系統(tǒng)。這些多重人智協(xié)同認(rèn)知系統(tǒng)間的相互作用和協(xié)同合作將直接影響單車人機互駕的行駛安全。因此, 人因科學(xué)研究范式需要突破面向單一人智系統(tǒng)的研究范式取向, 從生態(tài)系統(tǒng)化的研究范式取向來整體考慮智能協(xié)同認(rèn)知生態(tài)系統(tǒng)的系統(tǒng)解決方案。
目前, 針對多智能體系統(tǒng)的研究目前主要側(cè)重在工程技術(shù)方面(Dorri et al., 2018; Allenby, 2021; Ali et al., 2021), 如分布式多智能體系統(tǒng)和人機物融合群智計算等(謝磊, 謝幸, 2021; 郭斌, 於志文, 2021), 但是目前尚未見從人因科學(xué)角度出發(fā)來考慮系統(tǒng)設(shè)計和構(gòu)建的研究。我們采用生態(tài)系統(tǒng)的研究范式取向, 借鑒協(xié)同認(rèn)知系統(tǒng)理論(Hollnagel & Woods, 2005)、多智能體系統(tǒng)理論(Dorri et al., 2018; Le Page & Bousquet, 2004)、多智能體生態(tài)系統(tǒng)思維(IDC, 2020; Allenby, 2021; Ali et al., 2021), 首次將一個智能生態(tài)系統(tǒng)表征為一個人智協(xié)同認(rèn)知生態(tài)系統(tǒng)(見圖2) (許為, 2022a)。如圖2所示, 一個多智能體生態(tài)系統(tǒng)可表征為一個協(xié)同認(rèn)知生態(tài)系統(tǒng)。一系列人智協(xié)同認(rèn)知生態(tài)系統(tǒng)形成了一個個龐大的基于多重智能體系統(tǒng)的人智協(xié)同認(rèn)知生態(tài)系統(tǒng)(如智慧城市、智能交通)。
圖2所表征的概念框架從生態(tài)系統(tǒng)化的角度為人因科學(xué)提供了一種新的研究范式取向, 該研究范式取向體現(xiàn)了以下一些新特征和人因科學(xué)研究新思路:
(1)基于生態(tài)系統(tǒng)的研究范式新取向:一個多智能體生態(tài)系統(tǒng)可表征為一個人智協(xié)同認(rèn)知生態(tài)系統(tǒng), 它由一系列相互作用的人智協(xié)同認(rèn)知系統(tǒng)組成, 智能生態(tài)系統(tǒng)的整體優(yōu)化設(shè)計需要考慮這些人智協(xié)同認(rèn)知系統(tǒng)之間的相互作用和協(xié)同合作。一個人智協(xié)同認(rèn)知生態(tài)系統(tǒng)的系統(tǒng)績效和安全取決于各個人智協(xié)同認(rèn)知生態(tài)系統(tǒng)的整體優(yōu)化設(shè)計。這種新取向體現(xiàn)了人因科學(xué)研究范式取向從“點” (單一人機系統(tǒng))到“面” (跨人機系統(tǒng))的擴展。
(2)“以人為中心AI”的理念:人類在跨智能系統(tǒng)的智能生態(tài)體系中占有中心位置, 智能生態(tài)系統(tǒng)設(shè)計、開發(fā)和實施必須將人類需求、價值、智慧、能力和作用等置于首位。例如, 構(gòu)建跨智能系統(tǒng)的人智決策權(quán)限設(shè)置等保障系統(tǒng), 構(gòu)建跨智能系統(tǒng)的人智信任生態(tài)體系、跨智能系統(tǒng)(基于不同開發(fā)商、文化、社會、文化、倫理背景等)之間的沖突解決機制, 保證人類是整個人智生態(tài)系統(tǒng)運營的最終決控者, 保障智能生態(tài)系統(tǒng)的整體安全。
圖2 人智協(xié)同認(rèn)知生態(tài)系統(tǒng)的概念框架
(3)“分布式”協(xié)同合作:基于生態(tài)系統(tǒng)的范式取向, 通過有效的網(wǎng)絡(luò)分布式(跨智能系統(tǒng))人智交互和協(xié)同合作式系統(tǒng)設(shè)計來實現(xiàn)整體生態(tài)系統(tǒng)的最佳績效。這種分布式系統(tǒng)的設(shè)計需要考慮跨智能系統(tǒng)的認(rèn)知增強學(xué)習(xí)、情景意識、人智情感交互、人智互信、人智信息加工、人智認(rèn)知學(xué)習(xí)、人智協(xié)同決策、人智控制共享、人智社會交互等一系列具備分布式和分享式特征的協(xié)同合作, 提升人智生態(tài)系統(tǒng)的整體協(xié)同合作能力。
(4)系統(tǒng)學(xué)習(xí)和演進(jìn):系統(tǒng)設(shè)計要注重人智系統(tǒng)學(xué)習(xí)和演進(jìn)?;谌祟惡椭悄荏w系統(tǒng)的學(xué)習(xí)和進(jìn)化特征, 強調(diào)通過分布式認(rèn)知增強學(xué)習(xí)、跨實體和跨任務(wù)的群體智能知識遷移、自組織與自適應(yīng)協(xié)同等能力, 實現(xiàn)人智系統(tǒng)的持續(xù)演化和優(yōu)化, 從而能夠組織各要素來適應(yīng)動態(tài)化的復(fù)雜應(yīng)用場景。同時, 人智協(xié)同認(rèn)知生態(tài)系統(tǒng)強調(diào)基于人機智能差異性和互補性, 通過人智協(xié)同增強學(xué)習(xí)、群智融合、人智協(xié)同學(xué)習(xí)等方法和技術(shù), 提升人智協(xié)同認(rèn)知生態(tài)系統(tǒng)的整體學(xué)習(xí)、進(jìn)化和協(xié)同合作能力。
3.2.2 應(yīng)用分析
人智協(xié)同認(rèn)知生態(tài)系統(tǒng)概念框架已被用來初步分析自動駕駛?cè)藱C共駕和大型商用飛機駕駛艙單人飛行操作的應(yīng)用場景(許為, 2022a; 許為等, 2021)。以自動駕駛?cè)藱C共駕為例, 自動駕駛?cè)藱C共駕的安全實現(xiàn)不僅僅依賴單車層面的系統(tǒng)設(shè)計, 還需要通過實現(xiàn)人、車、路、智能交通環(huán)境中各種認(rèn)知體(智能體)之間的協(xié)同合作, 通過車端、路端、云端之間的有效信息交互等途徑, 從而為整個人機共駕生態(tài)系統(tǒng)的安全駕駛、決策和規(guī)劃提供優(yōu)化的系統(tǒng)設(shè)計(譚征宇等, 2020)。圖3示意了自動駕駛?cè)藱C共駕的人智協(xié)同認(rèn)知生態(tài)系統(tǒng), 人智協(xié)作認(rèn)知生態(tài)系統(tǒng)的表征為自動駕駛?cè)藱C互駕解決方案提供了人因科學(xué)研究新思路。
首先, 自動駕駛?cè)藱C共駕模式的系統(tǒng)化設(shè)計思路。任何局限于“人類駕駛員 + 智能自動駕駛車”單車層面的設(shè)計都無法保證整個協(xié)同認(rèn)知生態(tài)系統(tǒng)的優(yōu)化設(shè)計和安全運行。作為一個龐大的人智協(xié)同認(rèn)知生態(tài)系統(tǒng)工程, 人機共駕生態(tài)系統(tǒng)(人?車?路?交通?社會系統(tǒng))的安全運營取決于該系統(tǒng)內(nèi)所有人智協(xié)同認(rèn)知子系統(tǒng)之間的有效協(xié)同合作和整體優(yōu)化設(shè)計。
其次, 只有在人智協(xié)同認(rèn)知生態(tài)系統(tǒng)層面上實現(xiàn)“以人為中心AI”理念, 才能保證人類擁有自動駕駛車的最終決控權(quán)。例如, 當(dāng)車輛處于失控狀態(tài)(如系統(tǒng)故障、黑客攻擊、駕駛員失能), 一方面, 車載智能系統(tǒng)啟動智能應(yīng)急方案來脫離當(dāng)前的失控場景, 保護(hù)人類(包括駕駛員、乘客、道路行人和其他車輛等); 另一方面, 作為人智協(xié)同認(rèn)知生態(tài)系統(tǒng)的余度化系統(tǒng)安全方案之一, 城市智能交通指揮中心或者智能車運營商控制中心的操作員能夠遠(yuǎn)程接管故障車(如“5G云代駕”), 指揮協(xié)調(diào)路面其他智能駕駛車, 保證智能道路系統(tǒng)的整體安全。該生態(tài)系統(tǒng)設(shè)計必須考慮人的能力, 為各方人員提供有效的情景意識(人、車載系統(tǒng)、駕駛環(huán)境等狀態(tài)), 實現(xiàn)駕駛權(quán)限和責(zé)任的實時分配, 保證應(yīng)急狀態(tài)下人類擁有對人機共駕生態(tài)系統(tǒng)的最終決控權(quán)。
圖3 自動駕駛?cè)塑嚬柴{的人智協(xié)同認(rèn)知生態(tài)系統(tǒng)示意圖
第三, 在人智協(xié)同認(rèn)知生態(tài)系統(tǒng)范圍內(nèi)實現(xiàn)自動駕駛?cè)藱C共駕模式的系統(tǒng)安全和優(yōu)化設(shè)計。從生態(tài)系統(tǒng)角度講, 系統(tǒng)設(shè)計需要保證整個人機共駕生態(tài)系統(tǒng)中各子系統(tǒng)的共同學(xué)習(xí)、共同演化、系統(tǒng)自適應(yīng)等能力的實現(xiàn)。從協(xié)同認(rèn)知角度講, 系統(tǒng)設(shè)計需要保證整個人機共駕生態(tài)系統(tǒng)中人?人、人?智、跨智能體以及跨子系統(tǒng)之間的有效交互, 建立有效的兼容和沖突協(xié)調(diào)機制(技術(shù)、交通規(guī)范等), 實現(xiàn)整個生態(tài)系統(tǒng)內(nèi)的有效協(xié)同合作。
最后, 從人智協(xié)同認(rèn)知生態(tài)系統(tǒng)角度制定實現(xiàn)自動駕駛?cè)藱C共駕系統(tǒng)的策略。圖3所示的生態(tài)系統(tǒng)架構(gòu)示意了以下可能的發(fā)展路徑:(1)“自下而上”路徑, 即從“人類駕駛員 + 智能自動駕駛車”到“智能道路系統(tǒng)”以及“智能交通指揮系統(tǒng)”; (2)“自上而下”路徑, 即從“智能交通系統(tǒng)”到“智能道路系統(tǒng)”以及“人類駕駛員 + 智能自動駕駛車”; (3)混合或并行路徑, 即基于“自下而上”與“自上而下”路徑的組合式并行發(fā)展路徑, 這可能是最安全、最有效的發(fā)展路徑。
3.2.3 研究展望
豐富人智協(xié)同認(rèn)知生態(tài)系統(tǒng)概念框架的工作需要跨學(xué)科的合作, 今后研究應(yīng)該首先考慮解決以下一些基本問題: (1)現(xiàn)有針對單一人機系統(tǒng)的人因科學(xué)研究主要采用實證的研究手段, 對基于生態(tài)系統(tǒng)研究取向的多人機系統(tǒng)研究, 需要探索支持該范式取向的方法論, 研究一個協(xié)同認(rèn)知生態(tài)系統(tǒng)的基本元素、特征、結(jié)構(gòu)、發(fā)展和演化過程等。(2)基本理論研究。例如, 人機行為協(xié)同共生理論, 即如何根據(jù)人機環(huán)境變化、人機感知節(jié)點能力差異性以及互補性, 借助生物群體的演化、自組織和自適應(yīng)機制來發(fā)掘人?智自適應(yīng)、自組織、演化等能力的理論(Rahwan et al., 2019; Werfel et al., 2014; 郭斌, 於志文, 2021); 群體分布式環(huán)境下智能體學(xué)習(xí)演化理論, 即基于人?智群體的融合協(xié)作、競爭等特征的群體智能體分布式學(xué)習(xí)模型, 群體智能體知識遷移方法(郭斌, 於志文, 2021; Neftci & Averbeck, 2019)。(3)跨人?多智能體系統(tǒng)的協(xié)同合作問題。多智能體人機交互和協(xié)同機制、績效評估系統(tǒng); 人與多智能體間的協(xié)調(diào)、任務(wù)分配、團隊建設(shè); 多智能體間的情景意識、可信度、任務(wù)分享、合作、決策控權(quán)分享(Le Page & Bousquet, 2004; Dorri et al., 2018); 基于不同文化和規(guī)范的跨智能體系統(tǒng)交互中的兼容性、溝通、模式轉(zhuǎn)換以及人類用戶的協(xié)調(diào)作用(ISO, 2020)。(4)應(yīng)用方法。探索能有效影響智能生態(tài)系統(tǒng)設(shè)計的人因科學(xué)流程和方法。
3.3.1 智能社會技術(shù)系統(tǒng)的概念框架
社會技術(shù)系統(tǒng)(sociotechnical systems, STS)理論提倡社會、技術(shù)、組織等子系統(tǒng)之間的協(xié)調(diào), 從而實現(xiàn)最佳的系統(tǒng)績效(Eason, 2008)。人因科學(xué)研究通常注重于人機界面以及物理環(huán)境對人機系統(tǒng)績效的影響, 不注重考慮宏觀社會、組織環(huán)境等因素(葛列眾等, 2022)。在過去20年中, STS理論影響了人因科學(xué)領(lǐng)域, 推動了宏觀工效學(xué)(Macroergonomics)等領(lǐng)域的發(fā)展(Waterson et al., 2015)。由于智能系統(tǒng)需要在一定的STS環(huán)境中運行, 且智能技術(shù)可能對人類產(chǎn)生負(fù)面影響(如用戶隱私、倫理、決策權(quán)、技能成長等), 這種負(fù)面影響促使人因科學(xué)在STS的大環(huán)境中考慮智能系統(tǒng)的研發(fā)和使用(Stahl, 2021), 開展針對智能系統(tǒng)的研究(Asatiani et al., 2021)。例如, Steghofer等人(2017)認(rèn)為下一代STS應(yīng)該以智能技術(shù)為基礎(chǔ), STS的社會子系統(tǒng)受智能技術(shù)、AI潛在的決策不確定性等因素的影響; 從STS開發(fā)流程和多學(xué)科合作角度, 研究者提出了參與式設(shè)計流程(Huang et al., 2019)、社會技術(shù)系統(tǒng)工程(STSE)框架(Baxter & Sommerville, 2011)、自適應(yīng)STS系統(tǒng)架構(gòu)(Dalpiaz et al., 2013)、人因科學(xué)方法(Waterson et al., 2015; Hollnagel et al., 2006)等。許為等(2021)提出的“人智交互”新型領(lǐng)域也是從宏觀的STS環(huán)境考慮。
目前還沒有針對智能技術(shù)的成熟STS理論, 人因科學(xué)研究應(yīng)該探討如何在復(fù)雜STS環(huán)境中有效地研發(fā)和使用智能系統(tǒng)。為此, 許為(2022c)分析了智能時代STS的新特征, 這些新特征包括系統(tǒng)組成、認(rèn)知代理、人機關(guān)系、用戶需求、系統(tǒng)決策和控制權(quán)、系統(tǒng)學(xué)習(xí)能力、系統(tǒng)設(shè)計范圍、組織目標(biāo)和需求、系統(tǒng)復(fù)雜性和開放性等方面。基于這些新特征, 我們在國際上初步提出了一個智能社會技術(shù)系統(tǒng)(intelligent sociotechnical systems, iSTS)概念框架(許為, 2022c) (見圖4)。
如圖4所示, iSTS繼承了傳統(tǒng)STS理論的一些基本特征。例如, iSTS內(nèi)部環(huán)境有獨立但相互依賴的技術(shù)和社會子系統(tǒng), 整體系統(tǒng)績效依賴于兩個子系統(tǒng)之間的協(xié)同優(yōu)化(Badham et al., 2000); iSTS擁有一個宏觀的外部環(huán)境以及各類智能社會形態(tài); 相對于人智協(xié)同認(rèn)知生態(tài)系統(tǒng), iSTS更加注重于宏觀和非技術(shù)因素, 其中包括工作系統(tǒng)重新設(shè)計、組織決策與智能決策等。
圖4所表征的概念框架從社會技術(shù)系統(tǒng)的視角為人因科學(xué)提供了一種新的研究范式取向, 該研究范式取向體現(xiàn)了以下一些新特征和人因科學(xué)研究新思路:
(1)基于STS的研究范式新取向:任何一個智能人機系統(tǒng)(人智協(xié)同認(rèn)知系統(tǒng))和智能生態(tài)系統(tǒng)(人智協(xié)同認(rèn)知生態(tài)系統(tǒng))的開發(fā)以及使用都在一個智能STS環(huán)境中發(fā)生, 智能系統(tǒng)的優(yōu)化設(shè)計和有效使用都需要考慮技術(shù)與非技術(shù)子系統(tǒng)(如社會、組織)之間的相互作用。這種新取向體現(xiàn)了人因科學(xué)研究范式從“點” (單一人機系統(tǒng))到“面” (跨人機系統(tǒng))再到STS宏觀環(huán)境的進(jìn)一步擴展。
(2) “以人為中心AI”的理念: 強調(diào)從人的需求、價值、智慧、能力和作用出發(fā), 充分考慮社會、文化、倫理等宏觀環(huán)境因素對智能系統(tǒng)開發(fā)和使用的影響, 強調(diào)需要解決iSTS中獨特的人機合作、AI倫理道德等新問題。在系統(tǒng)開發(fā)中采用用戶參與等以人為中心的人因科學(xué)方法, 保證智能技術(shù)能夠有效輔助人類和組織決策, 確保人類擁有最終決控權(quán)(Herrmann et al., 2018; Baxter & Sommerville, 2011; Xu, 2019)。
(3)基于人智組隊的人機團隊協(xié)作:圖4中社會子系統(tǒng)與智能技術(shù)子系統(tǒng)兩個圓圈重疊的部分示意了兩子系統(tǒng)之間的協(xié)同合作關(guān)系, 這是iSTS區(qū)別于傳統(tǒng)STS所特有的新型人機關(guān)系(許為, 葛列眾, 2020)。強調(diào)在iSTS的社會和組織的語境中, 智能系統(tǒng)不僅僅是傳統(tǒng)STS中支持人類作業(yè)和提升組織生產(chǎn)力的簡單工具, 也是人智團隊協(xié)同合作的成員。iSTS中相互依賴的人智團隊是分享共同社會和組織目標(biāo)的團體(Salas et al., 2008)。人類與智能系統(tǒng)(機器代理)之間的團隊式交互合作、團隊式互信、團隊式信息和決策分享等是智能系統(tǒng)成功開發(fā)的重要因素之一。
圖4 智能社會技術(shù)系統(tǒng)(iSTS)的概念框架
(4)組織適應(yīng)和再設(shè)計。實施AI新技術(shù)會改變既定的工作系統(tǒng), 甚至可能導(dǎo)致一些用戶陷入困境。iSTS強調(diào)將組織中的人類和智能系統(tǒng)作為一個新型的工作系統(tǒng)重新設(shè)計(包括人員、角色、流程、技術(shù)、治理等), 根據(jù)人與智能技術(shù)之間的優(yōu)勢互補, 調(diào)整優(yōu)化人機之間的功能和任務(wù)分配, 其中包括人機角色分配、工作流程、作業(yè)環(huán)境等, 制定有效的人智團隊的工作和任務(wù), 保證人機功能的最佳分配, 提升整體系統(tǒng)績效; 在引進(jìn)智能技術(shù)的同時, 要充分考慮組織內(nèi)員工的崗位重新分配、公平、滿意感、決策參與感、技能成長等問題, 提升人智系統(tǒng)的整體績效。
(5)人智共同學(xué)習(xí)。iSTS中的技術(shù)子系統(tǒng)(硬件、軟件、機器代理等)和人類代理(跨個人、組織和社會層面)之間存在復(fù)雜的相互作用, 跨越了傳統(tǒng)人和機器的物理界限。智能體(代理)是促進(jìn)iSTS中社會和技術(shù)子系統(tǒng)之間交互的新資源, 這種交互會調(diào)整智能代理自身的行為(基于機器學(xué)習(xí)算法等), 也導(dǎo)致人類使用和期望模式的改變(社會學(xué)習(xí)); 同時, iSTS的社會和技術(shù)子系統(tǒng)包含人類、智能機器代理在不同層面上的自主權(quán), 這些都體現(xiàn)出人智共同學(xué)習(xí)、共同成長、靈活性、自適應(yīng)等能力特征。因此, iSTS強調(diào)智能系統(tǒng)的開發(fā)需要通過有效的設(shè)計和治理, 促使人智共同學(xué)習(xí), 從而提高人智系統(tǒng)的整體能力(Heydari et al., 2019)。
(6)開放式生態(tài)系統(tǒng)。在非智能時代, 傳統(tǒng)STS中的分析單元通常是擁有相對獨立邊界的組織; 在智能時代, 物聯(lián)網(wǎng)智能網(wǎng)、智能城市、智能交通等智能生態(tài)系統(tǒng)存在于復(fù)雜的、相互依存的iSTS中, 智能技術(shù)的發(fā)展將極大地增加智能機器代理的數(shù)目, 可導(dǎo)致智能系統(tǒng)中潛在不確定性和不可預(yù)測性的增加, 人智共同學(xué)習(xí)和智能系統(tǒng)中潛在的輸出不確定性等自主化特征會帶來動態(tài)和模糊的iSTS邊界(van de Poel, 2020)。這些新特征既給智能系統(tǒng)開發(fā)帶來了創(chuàng)新設(shè)計的機遇, 也給系統(tǒng)設(shè)計、系統(tǒng)規(guī)則、倫理道德、文化價值觀等方面帶來了挑戰(zhàn)(Hodgson et al., 2013)。因此, 智能系統(tǒng)的設(shè)計開發(fā)需要從一個開放式的人類、技術(shù)、社會、組織生態(tài)系統(tǒng)的角度考慮。
3.3.2 應(yīng)用分析
從iSTS角度看, 自動駕駛?cè)藱C共駕研發(fā)不僅是一個工程技術(shù)項目, 還需從iSTS角度考慮許多非技術(shù)因素的影響。例如, 目前公眾對自動駕駛車的信任度并不高(Lee & Kolodge, 2018), 自動駕駛倫理研究主要集中在單車層面(Borenstein et al., 2019)。針對自動駕駛?cè)藱C共駕的iSTS研究需要考慮智能自主化技術(shù)、設(shè)計標(biāo)準(zhǔn)、道路交通基礎(chǔ)設(shè)施、政策法規(guī)、倫理化設(shè)計、交通規(guī)則、智聯(lián)網(wǎng)/5G、企業(yè)投資回報、大眾信任度和接受度、駕駛員技能以及自動駕駛車技術(shù)認(rèn)證等一系列因素。例如, 自動駕駛車企業(yè)以及它如何與其他iSTS成員之間的協(xié)同合作(包括制造商、監(jiān)管機構(gòu)、執(zhí)法人員、消費者等); 事故風(fēng)險預(yù)先分配方案的社會共識(如緊急下是優(yōu)先保護(hù)乘客還是行人) (陳磊等, 2021); 自動駕駛與現(xiàn)行交通法規(guī)的協(xié)調(diào); 如何將基于“有意義的人類控制” (meaningful human control)方法落實在系統(tǒng)設(shè)計中, 保證操作員擁有足夠情景意識, 能夠?qū)χ悄芟到y(tǒng)做出有意識的、符合倫理規(guī)范的決策控制(Santoni, et al., 2018)。
可見, 自動駕駛?cè)藱C共駕研究需要從“人智協(xié)同認(rèn)知系統(tǒng)”和“人智協(xié)同認(rèn)知生態(tài)系統(tǒng)”的范式取向擴展到“智能社會技術(shù)系統(tǒng)”的范式取向, 并且需要多學(xué)科及跨部門的合作, 從而研發(fā)出安全的、技術(shù)可行的、大眾信任和接受的自動駕駛車。
3.3.3 研究展望
為豐富iSTS概念框架, 今后研究需要考慮兩個方面。從方法論來說, iSTS框架強調(diào)跨學(xué)科的團隊合作, 基于iSTS的智能系統(tǒng)研發(fā)可以利用人因科學(xué)迭代式原型化和用戶測試等方法來逐步優(yōu)化設(shè)計和構(gòu)建(Norman & Stappers, 2015)。許為(2022c)根據(jù)iSTS在系統(tǒng)研發(fā)各階段中能夠提供貢獻(xiàn)的程度, 建議了一系列方法, 例如生態(tài)研究方法(Brown et al., 2017)、情境設(shè)計(Beyer & Holtzblatt, 1999)、人類學(xué)工作場所分析(Hughes et al., 1992) 以及縱向研究(Lieberman, 2009), 這些方法需要在今后研究中進(jìn)一步優(yōu)化和充實。另外, iSTS研究也需要創(chuàng)新方法。
從研究思路上說, iSTS研究可從以下幾方面考慮。首先, 在智能系統(tǒng)研發(fā)中分享“以人為中心AI”的理念, 這將有助于解決更多的人類和社會實際問題。其次, 需要充實iSTS理論。例如, 社會和智能技術(shù)子系統(tǒng)之間如何協(xié)同演化?人與智能體交互將如何影響社會和組織環(huán)境中的人類行為、組織變革、組織學(xué)習(xí)、組織認(rèn)知等?如何有效地開展 iSTS集成設(shè)計和治理?最后, 開展基于iSTS的人因科學(xué)應(yīng)用。例如, 如何將iSTS概念有效地應(yīng)用在智能系統(tǒng)研發(fā)中?iSTS如何為倫理化AI治理做出貢獻(xiàn)(Chopra & Singh, 2018; Fiore, 2020)?
基于上述分析, 表1進(jìn)一步概括了在不同的技術(shù)時代, 人因科學(xué)研究范式取向的演變。由表1可知: (1)從傳統(tǒng)人機系統(tǒng)理論出發(fā), 人因科學(xué)的研究范式取向隨技術(shù)時代的發(fā)展逐步向微觀和宏觀方向拓展, 技術(shù)推動了人因科學(xué)研究范式取向的拓展, 例如, 計算機時代的認(rèn)知信息加工理論, 基于腦活動技術(shù)的人類認(rèn)知神經(jīng)研究。(2)人因科學(xué)研究范式取向具有跨時代的生命力, 豐富了人因科學(xué)研究。例如, 機械時代推出的傳統(tǒng)“基于人機能力差異性和互補性的靜態(tài)化人機功能分配”范式取向仍然對智能時代的人因科學(xué)研究具有意義, 有助于通過對人機智能差異性和互補性的研究來實現(xiàn)系統(tǒng)設(shè)計中的動態(tài)化人機功能分配及人機混合智能。(3)研究范式取向呈現(xiàn)出跨學(xué)科的特征, 體現(xiàn)了作為交叉學(xué)科的人因科學(xué)本身發(fā)展的需求(如認(rèn)知神經(jīng)、AI技術(shù))。(4)借助于研究范式取向的擴展, 人因科學(xué)的研究重點隨時代發(fā)展不斷地解決新興技術(shù)所帶來的人因新問題(如計算機、智能技術(shù)的人因問題)。因此, 人因科學(xué)研究范式取向的跨時代演進(jìn)促進(jìn)了人因科學(xué)的發(fā)展, 而人因科學(xué)研究本身也需要多樣化的研究范式取向。
進(jìn)一步地, 在智能時代, 為解決智能技術(shù)的人因新問題, 我們提出了人智協(xié)同認(rèn)知系統(tǒng)、人智協(xié)同認(rèn)知生態(tài)系統(tǒng)、智能社會技術(shù)系統(tǒng)三種新研究范式取向, 圖5示意了這三種人因科學(xué)研究范式新取向之間的關(guān)系。從表1和圖5可知, 這三種新研究范式取向從本質(zhì)上講仍然遵循人類認(rèn)知信息加工這一人因科學(xué)的基本研究范式。類似于人類行為研究中的個體、群體、社會的研究范式取向, 針對智能時代人機關(guān)系(即人因科學(xué)的研究對象)的研究, 我們提出的這三種新范式取向體現(xiàn)了人因科學(xué)研究從“點” (單一人智協(xié)同認(rèn)知系統(tǒng)內(nèi)的人智組隊合作)到“面” (跨多重人智協(xié)同認(rèn)知系統(tǒng)的人智協(xié)同認(rèn)知生態(tài)系統(tǒng))再到“體” (跨多重協(xié)同認(rèn)知生態(tài)系統(tǒng)的宏觀社會技術(shù)系統(tǒng)環(huán)境)的新擴展, 這種擴展反映了智能時代對人因科學(xué)的新要求, 敦促智能時代的人因科學(xué)解決方案不應(yīng)該僅限于孤立式的、基于“點”方案的傳統(tǒng)研究范式取向, 而應(yīng)該為人類社會提供全方位的系統(tǒng)化解決方案。
表1 人因科學(xué)研究范式取向的跨時代演變
圖5 人因科學(xué)研究三個新范式取向之間的關(guān)系
如同研究范式取向的跨時代演變, 進(jìn)入智能時代, 人因科學(xué)研究理念和對象的跨時代演變也帶來了人因科學(xué)研究重點跨時代轉(zhuǎn)移的新特征?;谖墨I(xiàn)綜述及我們近幾年的工作(例如, Xu, 2019, 2021; 許為, 2022, 2022a, 2022b, 2022c; 許為等, 2021; Xu et al., 2022; Ozmen Garibay et al., 2023; 許為, 2024; Xu & Gao, 2023), 針對人因科學(xué)研究重點跨時代轉(zhuǎn)移的新特征, 本文從以下三方面展望今后人因科學(xué)的研究重點。
“人?計算機交互” (人機交互)是PC時代形成的跨學(xué)科領(lǐng)域, 它研究人?非AI機器系統(tǒng)之間的交互。智能時代的機器過渡到基于AI技術(shù)的智能系統(tǒng)。如表2所例, AI技術(shù)帶來了一系列新特征以及相應(yīng)的人因新問題。針對這些人因新問題的研究已經(jīng)展開, 例如, 人?智能系統(tǒng)交互(Brill et al., 2018)、人?智能體交互(human-agent interaction) (Prada & Paiva, 2014)、人?自主化交互(human-autonomy interaction) (Cummings & Clare, 2015)、人?AI交互(Amershi et al., 2019)。盡管這些研究各有側(cè)重點, 但是它們都是研究人與智能“機器” (智能體)之間的交互, 這種交互的本質(zhì)就是人?AI交互(簡稱人智交互), 為此, 許為、葛列眾和高在峰(2021)提倡將人智交互作為一個新型跨學(xué)科研究和應(yīng)用領(lǐng)域來推動。圍繞智能系統(tǒng)跨時代轉(zhuǎn)移的新特征和相應(yīng)的人因新問題, 表2概括了人因科學(xué)今后在“人智交互”領(lǐng)域的研究重點。
由表2可見, 與人?計算機(非智能系統(tǒng))交互相比, 人智交互研究已經(jīng)遠(yuǎn)遠(yuǎn)超出了現(xiàn)有人機交互的研究范圍。針對人智交互的研究也為人因科學(xué)研究提供了一個跨學(xué)科合作的平臺, 有助于拓展研究范式, 與其他學(xué)科共同開發(fā)“以人為中心”的智能系統(tǒng)。
人機界面是人因科學(xué)研究的重點之一。在基于非智能技術(shù)的傳統(tǒng)人機界面研究中(如用戶圖形界面), 基于“刺激?反應(yīng)”式、精準(zhǔn)輸入等人機交互方式, 人因科學(xué)通過有效的人機界面設(shè)計來達(dá)到易學(xué)、易用的用戶體驗(Farooq & Grudin, 2016; 許為, 2022a)。在智能時代, “傳統(tǒng)人機界面”過渡到基于智能技術(shù)的“智能人機界面”, 帶來了跨技術(shù)時代轉(zhuǎn)移的人機交互新特征。例如, 從“單向式”到“人機合作雙向式”界面, 從“可用性”到“可解釋AI”界面, 從“簡單屬性”到“情境化”交互界面, 從“精準(zhǔn)輸入式”到“模糊推理式”交互界面, 從“交互式”到“合作式”認(rèn)知界面(見表3)。人因科學(xué)需要解決的核心問題是通過這些新型的人機交互途徑, 解決相應(yīng)的人因新問題, 從而為用戶提供更加自然有效、可解釋和可理解的用戶體驗。圍繞這些跨時代新特征和人因新問題, 針對人智組隊的研究開始展開, 表3概括了人因科學(xué)今后在“智能人機界面”領(lǐng)域的研究重點。
基于非智能技術(shù)的機器通過單向式、非分享的(即只有人針對機器的單方向信任、情境意識、控制等)、非智能互補(即只有人類智能)等方式來實現(xiàn)人機交互; 而基于智能自主化技術(shù)的人智組隊合作可以實現(xiàn)兩者之間的“雙向合作式”交互, 這種交互表現(xiàn)出兩者之間雙向主動的、分享的、互補的、自適應(yīng)等特征(許為, 葛列眾, 2020)。因此, 傳統(tǒng)人機交互與人智組隊之間有著本質(zhì)上的差別(Shively et al., 2018; Brill et al., 2018; Xu, 2021)。目前, 針對人智組隊的研究開始展開(NASEM, 2021; Caldwell et al., 2022; Xu & Dainoff, 2022), 表4概括了人因科學(xué)今后在人智組隊方面的研究重點。
表2 “人智交互”領(lǐng)域的人因科學(xué)研究重點
表3 “智能人機界面”領(lǐng)域的人因科學(xué)研究重點
續(xù)表
表4 人智組隊領(lǐng)域的人因科學(xué)研究重點
為進(jìn)一步評價人因科學(xué)研究范式取向?qū)窈笕艘蚩茖W(xué)研究的作用, 我們從表2~表4中選擇了智能時代人因科學(xué)今后的一些重點研究課題做進(jìn)一步分析(見表5)。表5概括了這些研究重點與研究范式取向之間的關(guān)系, 其中, 表5列標(biāo)題是人因科學(xué)研究中所需的多樣化范式取向, 表5行標(biāo)題是今后人因科學(xué)研究的一些重要研究課題, 表5中的各個單元格概括了基于各種研究范式取向, 人因科學(xué)各項重要課題在研究中需要考慮的一系列重要研究問題。
由表5可知, 一方面, 智能機器行為、人智組隊合作、人機混合智能、倫理化AI、智能人機交互、可解釋AI等人因科學(xué)研究的重要課題都需要多樣化的研究范式取向來支持, 現(xiàn)有的人因科學(xué)研究范式取向(如神經(jīng)人因?qū)W、工程心理學(xué)、人機交互)仍然起著重要的作用; 另一方面, 本文所提出的三種研究范式新取向, 拓展了智能時代人因科學(xué)研究的角度、方法和范圍, 有助于人因科學(xué)在智能時代開展全方位的研究, 提供完整系統(tǒng)化的人因科學(xué)解決方案。
表5 人因?qū)W科研究范式取向與研究重點的關(guān)系
由此可見, 如同人因科學(xué)研究范式取向的跨時代演變促進(jìn)了人因科學(xué)的發(fā)展, 智能時代的人因科學(xué)研究同樣需要多樣化的研究范式取向, 而人因科學(xué)的研究也將進(jìn)一步完善研究范式取向, 因此, 人因科學(xué)研究范式取向與研究重點互為影響, 互為促進(jìn)。
在人因科學(xué)這一新概念的語境下, 本文梳理了人因科學(xué)研究范式取向跨時代的拓展, 智能時代人因科學(xué)研究需要多樣化、創(chuàng)新的研究范式取向。為了應(yīng)對這些挑戰(zhàn)以及研究的內(nèi)在需求, 從人因科學(xué)研究范式取向的角度出發(fā), 基于我們提出的人智協(xié)同認(rèn)知系統(tǒng)、人智協(xié)同認(rèn)知生態(tài)以及智能社會技術(shù)系統(tǒng)概念模型和框架, 我們提出了智能時代人因科學(xué)的三種新型研究范式取向, 這些研究范式新取向的提出對人因科學(xué)研究和應(yīng)用具有重要意義。針對智能時代人因科學(xué)研究重點跨時代的轉(zhuǎn)移, 本文展望了“人智交互” “智能人機界面” “人智組隊合作”三方面的人因科學(xué)研究重點。我們認(rèn)為, 多樣化、創(chuàng)新的人因科學(xué)研究范式取向有利于進(jìn)一步開展人因科學(xué)研究, 人因科學(xué)研究范式取向與研究重點互為影響, 互為促進(jìn), 共同推動人因科學(xué)的發(fā)展。
Ali, M. I., Patel, P., Breslin, J. G., Harik, R., & Sheth, A. (2021). Cognitive digital twins for smart manufacturing.,(2), 96?100.
Allenby, B. R. (2021). World Wide Weird: Rise of the cognitive ecosystem.,(3), 34?45.
Amershi, S., Cakmak, M., Knox, W. B., & Kulesza, T. (2014). Power to the people: The role of humans in interactive machine learning.,(4), 105?120.
Amershi, S., Weld, D., Vorvoreanu, M., Fourney, A., Nushi, B., Collisson, P., ... Horvitz, E. (2019, May). Guidelines for human-AI interaction. In(pp. 1?13). Association for Computing Machinery.
André, E., Paiva, A., Shah, J., & ?abanovic, S. (2020).. Report presented at the Dagstuhl Seminar, Schloss Dagstuhl- Leibniz-Zentrum fuer Informatik, Germany.
Asatiani, A., Malo, P., Nagb?l, P. R., Penttinen, E., Rinta-Kahila, T., & Salovaara, A. (2021). Sociotechnical envelopment of artificial intelligence: An approach to organizational deployment of inscrutable artificial intelligence systems.,(2), 8.
Badham, R., Clegg, C., & Wall, T. (2000). Socio-technical theory. In: Karwowski, W. (Ed.),. John Wiley, New York, NY.
Bansal, G., Nushi, B., Kamar, E., Lasecki, W. S., Weld, D. S., & Horvitz, E. (2019). Beyond accuracy: The role of mental models in human-AI team performance.(1), 2?11.
Baxter, G., & Sommerville, I. (2011). Socio-technical systems: From design methods to systems engineering.,(1), 4?17.
Bendell, R., Williams, J., Fiore, S. M., & Jentsch, F. (2021, September). Supporting social interactions in human-AI teams: Profiling human teammates from sparse data. In(Vol. 65, No. 1, pp. 665?669). Sage CA: Los Angeles, CA: SAGE Publications.
Biondi, F., Alvarez, I., & Jeong, K. A. (2019). Human-system cooperation in automated driving.,(11), 917?918.
Boni, M. (2021). The ethical dimension of human–artificial intelligence collaboration.,(2), 182?90.
Borenstein, J., Herkert, J. R., & Miller, K. W. (2019). Self-driving cars and engineering ethics: The need for a system level analysis.(2), 383?398.
Brill, J. C., Cummings, M. L., Evans III, A. W., Hancock, P. A., Lyons, J. B., & Oden, K. (2018). Navigating the advent of human-machine teaming. In(Vol. 62, No. 1, pp. 455?459). Sage CA: Los Angeles, CA: SAGE Publications.
Brown, B., B?dker, S., & H??k, K. (2017). Does HCI scale? Scale hacking and the relevance of HCI.,(5), 28?33.
Caldwell, S., Sweetser, P., O’Donnell, N., Knight, M. J., Aitchison, M., Gedeon, T., ... Conroy, D. (2022). An agile new research framework for hybrid human-AI teaming: Trust, transparency, and transferability.,(3), 1?36.
Chen, L., Wang, B. C., Huang, S. H., Zhang, J. Y., Guo, R., & Lu, J. Q. (2021). Artificial intelligence ethics guidelines and governance system: Current status and strategic suggestions.(6), 193?200.
[陳磊, 王柏村, 黃思翰, 張吉豫, 郭銳, 魯俊群. (2021). 人工智能倫理準(zhǔn)則與治理體系:發(fā)展現(xiàn)狀和戰(zhàn)略建議.(6), 193?200.]
Chopra, A. K., & Singh, M. P. (2018, December). Sociotechnical systems and ethics in the large. In(pp. 48?53), Association for Computing Machinery.
Cummings, M. L., & Clare, A. S. (2015). Holistic modelling for human-autonomous system interaction.,(3), 214?231.
Dehais, F., Karwowski, W., & Ayaz, H. (2020). Brain at work and in everyday life as the next frontier: Grand field challenges for neuroergonomics.,, 583733?583745.
Demir, M., Likens, A. D., Cooke, N. J., Amazeen, P. G., & McNeese, N. J. (2018). Team coordination and effectiveness in human-autonomy teaming.,(2), 150?159.
D?ppner, D. A., Derckx, P., & Schoder, D. (2019). Symbiotic co-evolution in collaborative human-machine decision making: Exploration of a multi-year design science research project in the Air Cargo Industry. In(pp. 125?131). Computer Society Press.
Dorri, A., Kanhere, S. S., & Jurdak, R. (2018). Multi-agent systems: A survey.,, 28573?28593.
Eason, K. (2008). Sociotechnical systems theory in the 21st century: Another half-filled glass?(pp. 123?134), Desmond Graves, Broughton.
Ehsan, U., & Riedl, M. O. (2020). Human-centered explainable ai: Towards a reflective sociotechnical approach. In(pp. 449?466). Springer International Publishing.
Ehsan, U., Tambwekar, P., Chan, L., Harrison, B., & Riedl, M. O. (2019). Automated rationale generation: A technique for explainable AI and its effects on human perceptions. In(pp. 263?274). Association for Computing Machinery.
Ehsan, U., Wintersberger, P., Liao, Q. V., Mara, M., Streit, M., Wachter, S., ... Riedl, M. O. (2021). Operationalizing human-centered perspectives in explainable AI. In(pp. 1?6). Association for Computing Machinery.
Endsley, M. R. (1995). Toward a theory of situation awareness in dynamic systems.(1), 32–64.
Endsley, M. R. (2015). Situation awareness misconceptions and misunderstandings.,(1), 4?32.
Endsley, M. R. (2018). Situation awareness in future autonomous vehicles: Beware of the unexpected.,. Springer.
Farooq, U., & Grudin, J. (2016). Human computer integration.(6), 27?32.
Fellous, J. M., Sapiro, G., Rossi, A., Mayberg, H. S., & Ferrante, M. (2019). Explainable artificial intelligence for neuroscience: Behavioral neurostimulation., 1346. doi: 10.3389/fnins.2019.01346
Finstad, K., Xu, W., Kapoor, S., Canakapalli, S., & Gladding, J. (2009). Bridging the gaps between enterprise software and end users.,(2), 10?14.
Fiore, E. (2020). Ethics of technology and design ethics in socio-technical systems: Investigating the role of the designer.,(1), 13?19.
Fridman, L. (2018).. https://arxiv.org/pdf/1810.01835.pdf.
Gao, Q., Xu, W., Shen, M., Gao, Z. (2023).. https://arxiv.org/abs/ 2308.16785.
Gao, Z. F., Li, W. M., Liang, J. W., Pan, H. X., Xu, W., & Shen, M. W. (2021). Trust in automated vehicles.(11), 1?12.
[高在峰, 李文敏, 梁佳文, 潘晗希, 許為, 沈模衛(wèi). (2021). 自動駕駛車中的人機信任.,(11), 1?12.]
Gardner, D., Mark, L., Dainoff, M. & Xu, W. (1995). Considerations for linking seatpan and backrest angles.(2), 153?165.
Ge, L. Z., & Xu, W. (Eds). (2020).China Renmin University Press.
[葛列眾, 許為. (主編). (2020).. 中國人民大學(xué)出版社.]
Ge, L. Z., Xu, W., & Song, X. (Eds). (2022).(2nd ed.)China Renmin University Press.
[葛列眾, 許為, 宋曉蕾. (主編). (2022).(第2版)中國人民大學(xué)出版社.]
Goodwin, G. F., Blacksmith, N., & Coats, M. R. (2018). The science of teams in the military: Contributions from over 60 years of research.(4), 322.
Google PAIR. (2019).. Retrieved Nov. 23, 2023 from https://pair.withgoogle.com.
Guo, B., & Yu, Z. W. (2021). Crowd intelligence with the deep fusion of human, machine, and IoT.(2), 35?40.
[郭斌, 於志文. (2021). 人機物融合群智計算.,(2), 35?40.]
Herrmann, T., Schmidt, A., & Degeling, M. (2018, June). From interaction to intervention: An approach for keeping humans in control in the context of socio-technical systems. In(pp. 101?110). Tallinn, Estonia.
Heydari, B., Szajnfarber, Z., Panchal, J., Cardin, M. A., H?ltt?-Otto, K., Kremer, G. E., & Chen, W. (2019). Analysis and design of sociotechnical systems.(11), 118001.
Hodgson, A., Siemieniuch, C. E., & Hubbard, E. M. (2013). Culture and the safety of complex automated sociotechnical systems.,(6), 608?619.
Hollnagel, E., & Woods, D. D. (2005).London: CRC Press.
Hollnagel, E., Woods, D., & Leveson, N. (Eds.). (2006).. Williston, VT: Ashgate.
Holmquist, L. E. (2017). Intelligence on tap: Artificial intelligence as a new design material.,(4), 28?33.
Hu, Y. D., Sun, X. H., Zhang, H. X., Zhang, S. C., & Yi, S. Q. (2020). Interaction design in human-in-the-loop hybrid intelligence.,(18), 38?47.
[胡源達(dá), 孫效華, 張何辛, 張繩宸, 易思琦. (2020). 支持人在環(huán)路混合智能的交互設(shè)計研究.,(18), 38?47.]
Huang, Y., Poderi, G., ??epanovi?, S., Hasselqvist, H., Warnier, M., & Brazier, F. (2019). Embedding internet-of-things in large-scale socio-technical systems: A community-oriented design in future smart grids.(pp. 125?150). Cham: Springer.
Hughes, J. A., Randall, D., Shapiro, D. (1992). Faltering from ethnography to design. In:(pp. 115–122). ACM Press, New York, NY.
IDC (International Data Corporation). (2020).. 2023-11-10取自https://www.huawei.com/minisite/building-an-intelligent-world-together/assets/doc/White_Paper_on_Huawei_Intelligent_Twins.pdf
IEEE (The Institute of Electrical and Electronics Engineers). (2019).The Institute of Electrical and Electronics Engineers (IEEE), Incorporated.
ISO (International Organization for Standardization). (2020).Retrieved Nov. 10, 2023 from https://www.iso.org/standard/ 76577.html.
Kaber, D. B. (2018). A conceptual framework of autonomous and automated agents.,(4), 406?430.
Kaluarachchi, T., Reis, A., & Nanayakkara, S. (2021). A review of recent deep learning approaches in human- centered machine learning.,(7), 2514.
Le Page, C., & Bousquet, F. (2004). Multi-agent simulations and ecosystem management: A review.,(3-4), 313?332.
Lee, J. D., & Kolodge, K. (2018). Understanding attitudes towards self-driving vehicles: Quantitative analysis of qualitative data.,(1), doi:10.1177/ 1541931218621319
Leibo, J. Z., d'Autume, C. D. M., Zoran, D., Amos, D., Beattie, C., Anderson, K., ... Botvinick, M. M. (2018). Psychlab: A psychology laboratory for deep reinforcement learning agents.:1801.08116.
Li, F. F. (2018). How to make A.I. that’s good for people.. Retrieved Nov. 10, 2023 from https://www.nytimes.com/2018/03/07/opinion/artificial-intelligence-human.html
Lieberman, H. (2009). User interface goals, AI opportunities.(4), 16?22.
Liu, W. (2023).. Beijing: Science Press.
[劉偉. (2023).. 北京: 科學(xué)出版社]
Madhavan, P., & Wiegmann, D. A. (2007). Similarities and di?erences between human-human and human-automation trust: An integrative review.(4), 277–301.
Madni, A. M., & Madni, C. C. (2018). Architectural framework for exploring adaptive human-machine teaming options in simulated dynamic environments.(4), 44(2018).
Mcgregor, S. (2022).. Retrieved Nov. 10, 2023 from https://incidentdatabase.ai/.
Mohanty, S., & Vyas, S. (2018). Putting it all together: Toward a human-machine collaborative ecosystem. In S. Mohanty& S. Vyas (Eds.),(pp. 215–229). Apress.
Mou, Y., & Xu, K. (2017). The media inequality: Comparing the initial human-human and human-AI social interactions.,(3), 432?440.
Mueller, S. T., Hoffman, R. R., Clancey, W., Emrey, A., & Klein, G. (2019). Explanation in human-AI systems: A literature meta-review, synopsis of key ideas and publications, and bibliography for explainable AI.1902.01876.
National Academies of Sciences, Engineering, and Medicine (NASEM). (2021).Retrieved Nov. 10, 2023 from https:// nap.nationalacademies.org/catalog/26355/human-ai-teaming-state-of-the-art-and-research-needs
Neftci, E. O., & Averbeck, B. B. (2019). Reinforcement learning in artificial and biological systems.,(3), 133?143.
Nielsen, J. (1994).. Morgan Kaufmann.
Norman, D. A., & Draper, S. W. (1986).. CRC Press.
Norman, D. A., & Stappers, P. J. (2015). DesignX: complex sociotechnical systems.,(2), 83?106.
Norman, K., & Kirakowski, J. (Eds.). (2017).. John Wiley & Sons.
NTSB. (2017). Collision between a car operating with automated vehicle control systems and a tractor-semitrailor truck near Williston, Florida, May 7, 2016., by National Transportation Safety Board (NTSB) 2017, Washington, DC.
Parasuraman, R., & Rizzo, M. (Eds.). (2006).(Vol. 3). Oxford University Press.
Prada, R., & Paiva, A. (2014). Human-agent interaction: Challenges for bringing humans and agents together. In(pp. 1?10), Association for Computing Machinery.
Rahwan, I., Cebrian, M., Obradovich, N., Bongard, J., Bonnefon, J.-F., Breazeal, C., ... Wellman, M. (2019). Machine behaviour.(7753), 477?486.
Roth, E. M., Sushereba, C., Militello, L. G., Diiulio, J., & Ernst, K. (2019). Function allocation considerations in the era of human autonomy teaming.(4), 199–220.
Ozmen Garibay, O., Winslow, B., Andolina, S., Antona, M., Bodenschatz, A., Coursaris, C., ... Xu, W. (2023). Six human-centered artificial intelligence grand challenges.,(3), 391?437.
Salas, E., Cooke, N. J., & Rosen, M. A. (2008). On teams, teamwork, and team performance: Discoveries and developments.,(3), 540?547.
Sanders, M. S., & McCormick, E. J. (1993).(7th ed.). McGraw-Hill Education
Santoni de Sio, F., & van den Hoven, J. (2018). Meaningful human control over autonomous systems: A philosophical account.(2), 15.
Schneeberger, T. (2018). Transfer of social human-human interaction to social human-agent interaction. In(pp. 1778?1780), Association for Computing Machinery.
Schoenherr, J. (2022).. Routledge.
Schoonderwoerd, T. A., van Zoelen, E. M., van den Bosch, K., & Neerincx, M. A. (2022). Design patterns for human-AI co-learning: A wizard-of-Oz evaluation in an urban-search- and-rescue task.,(8), 102831.
Shi, Y. C. (2021). Metaverse needs a breakthrough in human- computer interaction.(1), 26?33.
[史元春. (2021). 元宇宙需要人機交互的突破.(1), 26?33.]
Shively, R. J., Lachter, J, Brandt, S. L., Matessa, M., Battiste, V. & Johnson, W. W. (2018). Why human-autonomy teaming?, May 2018, Orlando, FL.
Society of Automotive Engineers (SAE). (2019). Taxonomy and definitions for terms related to driving automation systems for on-road motor vehicles.Retrieved Nov. 10, 2023 from https://www.sae.org/ standards/content/j3016_202104/
Stahl, B. C. (2021).(p. 124). Springer Nature.
Steghofer, J.-P., Diaconescu, A., Marsh, S., & Pitt, J. (2017). The next generation of socio-technical systems: Realizing the potential, protecting the value [introduction].,(3), 46?47.
Stevens, R. H., & Galloway, T. L. (2019). Teaching machines to recognize neurodynamic correlates of team and team member uncertainty.,(4), 310?327.
Sun, X. H., Wu, C. X., Zhang, l., & Qu, W. N. (2011). The role, status, and current development of engineering psychology.(6), 650?660.
[孫向紅, 吳昌旭, 張亮, 瞿煒娜. (2011). 工程心理學(xué)作用、地位和進(jìn)展.(6), 650?660. ]
Tan, Z. Y., Dai, N. Y., Zhang, R. F., & Dai, K. Y. (2020). Overview and perspectives on human-computer interaction in intelligent and connected vehicles.(10), 2615?2632.
[譚征宇, 戴寧一, 張瑞佛, 戴柯穎. (2020). 智能網(wǎng)聯(lián)汽車人機交互研究現(xiàn)狀及展望.(10) , 2615?2632.]
van der Bosch, K, Schoonderwoerd, T., Blankendaal, R., & Neerincx, M. (2019). Six challenges for human-AI Co-learning. In(pp. 572?589). Springer Internatoinal Publishing.
Van de Poel, I. (2020). Embedding values in artificial intelligence (AI) systems.(3), 385?409.
Waterson, P., Robertson, M. M., Cooke, N. J., Militello, L., Roth, E., & Stanton, N. A. (2015). Defining the methodological challenges and opportunities for an effective science of sociotechnical systems and safety.,(4), 565–599.
Werfel, J., Petersen, K., & Nagpal, R. (2014). Designing collective behavior in a termite-inspired robot construction team.,(6172), 754?758.
Wesche, J. S., & Sonderegger, A. (2019). When computers take the lead: The automation of leadership.,(12), 197?209.
Wickens, C. D., Helton, W. S., Hollands, J. G., & Banbury, S. (2021).. Routledge.
Wooldridge, M., & Jennings, N. R. (1995). Intelligent agent: Theory and practice.,(2), 115?152.
Wu, Z. (2020). Ecological transformation and man-machine symbiosis: A study on the relationship between human and artificial intelligence. In(1), 37, MDPI.
Xie, L., & Xie, X. (2021). General situational intelligence.(2), 8?9.
[謝磊, 謝幸. (2021). 泛在情境智能.,(2), 8?9.]
Xu, W. (2003). User-Centered Design approach: Opportunities and challenges of human factors practices in China.(4), 8?11.
[許為. (2003). 以用戶為中心設(shè)計:人機工效學(xué)的機遇和挑戰(zhàn).(4), 8?11.]
Xu, W. (2005). Recent trend of research and applications on human-computer interaction.(4), 37?40.
[許為. (2005). 人-計算機交互作用研究和應(yīng)用新思路的探討.1(4), 37?40.]
Xu, W. (2007). Identifying problems and generating recommendations for enhancing complex systems: Applying the abstraction hierarchy framework as an analytical tool.,(6), 975?994.
Xu, W. (2012). User experience design: Beyond user interface design and usability. In I. Nunes(Ed.),(Chapter 8). InTech.
Xu, W. (2014). Enhanced ergonomics approaches for product design: A user experience ecosystem perspective and case studies.,(1), 34?51.
Xu, W. (2017). User-centered design (Ⅱ): New challenges and new opportunities.(1), 82?86.
[許為. (2017). 再論以用戶為中心的設(shè)計: 新挑戰(zhàn)和新機遇.(1), 82?86.]
Xu, W. (2019). Toward human-centered AI: A perspective from human-computer interaction.,(4), 42?46.
Xu, W. (2019a). User-centered design (Ⅲ): Methods for user experience and innovative design in the intelligent era.(1), 3?17.
[許為. (2019a). 三論以用戶為中心的設(shè)計:智能時代的用戶體驗和創(chuàng)新設(shè)計.(1), 3?17.]
Xu, W. (2019b). User-centered design (Ⅳ): Human-centered artificial intelligence.(4), 291?305.
[許為. (2019b). 四論以用戶為中心的設(shè)計: 以人為中心的人工智能.,(4), 291?305.]
Xu, W. (2020). User-Centered Design (Ⅴ): From automation to the autonomy and autonomous vehicles in the intelligence era.(2), 108?128.
[許為. (2020). 五論以用戶為中心的設(shè)計: 從自動化到智能時代的自主化以及自動駕駛車.,(2), 108?128.]
Xu, W. (2021). From automation to autonomy and autonomous vehicles: Challenges and opportunities for human-computer interaction.,(1), 48?53.
Xu, W. (2022).. https://arxiv.org/abs/2301.00987.
Xu, W. (2022a). User-centered design (VI): Human factors engineering approaches for intelligent human-computer interaction.(3), 191?209.
[許為. (2022a). 六論以用戶為中心的設(shè)計: 智能人機交互的人因工程途徑.(3), 191?209.]
Xu, W. (2022b). User-centered design (Ⅶ): From automated to intelligent flight deck.(4), 291?313.
[許為. (2022b). 七論以用戶為中心的設(shè)計: 從自動化到智能化飛機駕駛艙.(4), 291?313.]
Xu, W. (2022c). User-Centered Design (Ⅷ): A new framework of intelligent sociotechnical systems and prospects for future human factors research.(5), 387?401.
[許為. (2022c). 八論以用戶為中心的設(shè)計: 一個智能社會技術(shù)系統(tǒng)新框架及人因工程研究展望.(5), 387?401]
Xu, W. (2024). User-centered design (IX):A "user experience 3.0" paradigm framework in the intelligence era.(2), 99?110.
[許為. (2024). 九論以用戶為中心的設(shè)計: 智能時代的“用戶體驗3.0”范式.(2), 99?110.
Xu, W., & Chen, Y. (2012). New progress and applications of human factors in the research and development of civil flight deck., (6), 18?21.
[許為, 陳勇. (2012). 人機工效學(xué)在民用客機研發(fā)中應(yīng)用的新進(jìn)展及建議., (6), 18?21.]
Xu, W., & Chen, Y. (2013). Challenges and strategies of human factors airworthiness certification for civil aircraft., (2), 24?30.
[許為, 陳勇. (2013). 民用客機人機工效學(xué)適航認(rèn)證及對策., (2), 24?30.]
Xu, W., & Chen, Y. (2014). Reducing design-induced pilot error in civil flight deck: Perspectives of airworthiness certification and design., (3), 5?11.
[許為, 陳勇. (2014). 從駕駛艙設(shè)計和適航來減少由設(shè)計引發(fā)的飛行員人為差錯的挑戰(zhàn)和途徑., (3), 5?11.]
Xu, W., Chen, Y., Dong, W. J., Dong, D. Y., & Ge, L. Z. (2021). Status and prospect of human factors engineering research on single pilot operations for large commercial aircraft.,(1), 1?18.
[許為, 陳勇, 董文俊, 董大勇, 葛列眾. (2021). 大型商用飛機單一飛行員駕駛的人因工程研究進(jìn)展與展望.(1), 1?18.]
Xu, W., & Dainoff, M. (2023). Enabling human-centered AI: A new junction and shared journey between AI and HCI communities.(1), 42-47.
Xu, W., Dainoff, M., Ge, L., & Gao, Z. (2022). From human- computer interaction to human-AI interaction: New challengesand opportunities for enabling human-centered AI.,(3), 494?518.
Xu, W., Dainoff, M. J., & Mark, L. S. (1999). Facilitate complex search tasks in hypertext by externalizing functional properties of a work domain.,(3), 201?229.
Xu, W., Furie, D., Mahabhaleshwar, M., Suresh, B., & Chouhan, H. (2019). Applications of an interaction, process, integration and intelligence (IPII) design approach for ergonomics solutions.(7), 954?980.
Xu, W. & Gao, Z. (2023).. https://arxiv.org/abs/ 2307.03913
Xu, W., & Ge, L. Z. (2018). New trends in human factors.(9), 1521?1534.
[許為, 葛列眾. (2018). 人因?qū)W發(fā)展的新取向.,(9), 1521?1534.]
Xu, W., & Ge, L. Z. (2020). Engineering psychology in the era of artificial intelligence.(9), 1409?1425.
[許為, 葛列眾. (2020). 智能時代的工程心理學(xué).,(9), 1409?1425. ]
Xu, W., Ge, L. Z., & Gao, Z. F. (2021). Human-AI interaction: An emerging interdisciplinary domain for enabling human-centered AI.(4), 604?621.
[許為, 葛列眾, 高在峰. (2021). 人-AI交互: 實現(xiàn)“以人為中心 AI”理念的跨學(xué)科新領(lǐng)域.,(4), 604?621.]
Xu, W. & Zhu, Z. (1990). The effects of ambient illumination and target luminance on colour coding in a CRT display.(7), 933?944.
Xu, W., & Zhu, Z. X. (1989). Effects of ambient illuminant intensity, color temperature and target luminance on color coding in a CRT display.,(4), 269?277.
[許為, 朱祖祥. (1989). 環(huán)境照明強度、色溫和目標(biāo)亮度對CRT顯示器顏色編碼的影響.,(4), 269?277.]
Yi, X., Yu, C., & Shi, Y. C. (2018). Bayesian method for intent prediction in pervasive computing environments.(4), 419?432.
[易鑫, 喻純, 史元春. (2018). 普適計算環(huán)境中用戶意圖推理的Bayes方法.(4), 419?432.
Zanzotto, F. M. (2019). Human-in-the-loop artificial intelligence.,(2), 243?252.
Zheng, N. N., Liu, Z. Y., Ren, P. J., Ma, Y. Q., Chen, S. T., Yu, S. Y., ... Wang, F. Y. (2017). Hybrid-augmented intelligence: Collaboration and cognition.,(2), 153?179.
Zhu, Y., Gao, T., Fan, L., Huang, S., Edmonds, M., Liu, H., ... Zhu, S. C. (2020). Dark, beyond deep: A paradigm shift to cognitive ai with humanlike common sense.,(3), 310?345.
Zong, Z. F., Dai, C. H., & Zhang, D. (2021). Human-machine interaction technology of intelligent vehicles: Current development trends and future directions.(6), 214.
[宗長富, 代昌華, 張東. (2021). 智能汽車的人機共駕技術(shù)研究現(xiàn)狀和發(fā)展趨勢.,(6), 214.]
New research paradigms and agenda of human factors science in the intelligence era
XU Wei1, GAO Zaifeng2, GE Liezhong1
(1Center for Psychological Sciences;2Department of Psychology, Zhejiang University, Hangzhou 310058, China)
This paper first proposes the innovative concept of “human factors science” to characterize engineering psychology, human factors engineering, ergonomics, human-computer interaction, and other similar fields. Although the perspectives in these fields differ, they share a common goal: optimizing the human-machine relationship by applying a “human-centered design” approach. AI technology has brought in new characteristics, and our recent research reveals that the human-machine relationship presents a trans-era evolution from “human-machine interaction” to “human-AI teaming.” These changes have raised questions and challenges for human factors science, compelling us to re-examine current research paradigms and agendas.
In this context, this paper reviews and discusses the implications of the following three conceptual models and frameworks that we recently proposed to enrich the research paradigms for human factors science. (1) human-AI joint cognitive systems: this model differs from the traditional human-computer interaction paradigm and regards an intelligent system as a cognitive agent with a certain level of cognitive capabilities. Thus, a human-AI system can be characterized as a joint cognitive system in which two cognitive agents (human and intelligent agents) work as teammates for collaboration. (2) human-AI joint cognitive ecosystems: an intelligent ecosystem with multiple human-AI systems can be represented as a human-AI joint cognitive ecosystem. The overall system performance of the intelligent ecosystem depends on optimal collaboration and design across the multiple human-AI systems. (3) intelligent sociotechnical systems (iSTS): human-AI systems are designed, developed, and deployed in an iSTS environment. From a macro perspective, iSTS focuses on the interdependency between the technical and social subsystems. The successful design, development, and deployment of a human-AI system within an iSTS environment depends on the synergistic optimization between the two subsystems.
This paper further enhances these frameworks from the research paradigm perspective. We propose three new research paradigms for human factors science in the intelligence ear: human-AI joint cognitive systems, human-AI joint cognitive ecosystems, and intelligent sociotechnical systems, enabling comprehensive human factors solutions for AI-based intelligent systems. Further analyses show that the three new research paradigms will benefit future research in human factors science. Furthermore, this paper looks forward to the future research agenda of human factors science from three aspects: “human-AI interaction,” “intelligent human-machine interface,” and “human-AI teaming.” We believe the proposed research paradigms and the future research agenda will mutually promote each other, further advancing human factors science in the intelligence era.
Human factors science, engineering psychology, human factors engineering, research paradigm, human- AI teaming
2023-09-14
許為, E-mail: xuwei11@zju.edu.cn; 高在峰, E-mail: zaifengg@zju.edu.cn
B849