• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人機交互復雜社會系統(tǒng)中的信任問題分析與信任機制構建

      2025-04-10 00:00:00范海敏高宣揚
      江蘇社會科學 2025年2期
      關鍵詞:人機交互信任

      內容提要 人工智能技術的發(fā)展,正持續(xù)推動人機交互技術的革新,并促進社會系統(tǒng)演化為實體生產空間、數字信息空間與社會組織場域相耦合的超復雜系統(tǒng)。技術的演進推動人們對技術本質、人機信任關系以及新理論范式的反思,社會研究范式從還原論到系統(tǒng)論的轉型為解析數字社會發(fā)展的超復雜性提供了動態(tài)的認知框架。從系統(tǒng)論的視角出發(fā),信任并非二元現(xiàn)象,其動態(tài)評估依賴于其與系統(tǒng)的交互。立足于人機交互社會系統(tǒng)的三層面復雜結構,從二階觀察的視角分析系統(tǒng)的聯(lián)動關系,聚焦信任問題的生成及可信任人機交互環(huán)境的構建,有助于揭示人機交互信任問題的本質,并為人類與人工智能的未來合作和共生互動探索新思路。

      關鍵詞 社會系統(tǒng) 人機交互 信任 超復雜性

      范海敏,博士,上海工程技術大學馬克思主義學院講師、當代馬克思主義研究中心研究員

      高宣揚,上海交通大學人文社科資深教授

      本文為國家社會科學基金項目“馬克思政治經濟學批判視閾下的數字勞動研究”(23BKS012)、上海高校教師產學研踐習計劃(滬教委人〔2022〕)的階段性成果。

      馬克思主義認為:“人的本質不是單個人所固有的抽象物,在其現(xiàn)實性上,它是一切社會關系的總和?!盵1]人作為實踐主體,反映了在歷史物質資料生產方式(生產力和生產關系的統(tǒng)一體)中和具體生產實踐活動中人與自然、人與人以及人與社會的復雜關系。當代社會系統(tǒng)理論本身就是對現(xiàn)代社會進行分析研究的思想結晶,其以多學科和跨領域關聯(lián)的廣闊視野,從微觀和宏觀兩個視角,關注并研究社會主體的存在和社會系統(tǒng)創(chuàng)新發(fā)展的各種復雜性。當代社會系統(tǒng)的復雜性及其持續(xù)分化演化的多樣交錯性,既集中了社會系統(tǒng)內外的各種矛盾,也凝聚了社會系統(tǒng)內在的創(chuàng)造動能,使其持續(xù)呈現(xiàn)為不斷變化的錯綜復雜并充滿張力的社會網絡關系。

      應用跨邊界的研究視角,社會系統(tǒng)理論強調,將不同系統(tǒng)行動者之間的交互作用描述成系統(tǒng)內外關系網絡的動態(tài)性相互滲透關系,而在人機交互邁入人機協(xié)作的時代,社會系統(tǒng)中復雜多變的多模態(tài)的信任關系形成了。人工智能技術的應用提高了人形機器人在多模態(tài)人機交互、復雜環(huán)境下指令理解的有效性,在這一背景下,人形機器人成為人機交互復雜社會系統(tǒng)中信任關系構建的重要一環(huán)。在人機協(xié)作中,信任并非局限于完全信任和完全不信任的兩個極端,信任不是二元現(xiàn)象,而是一個包含廣泛灰色地帶的復雜現(xiàn)象,信任問題的有效解決將有助于更好地把握和利用由新型人機關系構成的社會系統(tǒng)所提供的發(fā)展機遇。由此,本文在理論層面上,通過深入分析從傳統(tǒng)系統(tǒng)論到建構主義社會系統(tǒng)論的轉變,針對人機交互社會系統(tǒng)所生成的三大層面復雜結構,以批判性思維對人機交互系統(tǒng)中的信任問題進行反思,并對數字社會轉型語境下的社會系統(tǒng)理論進行深入探究。

      一、從傳統(tǒng)系統(tǒng)論到建構主義社會系統(tǒng)論

      傳統(tǒng)系統(tǒng)論立足于整體與部分的二元對立統(tǒng)一模式,“將系統(tǒng)放在系統(tǒng)與其本身各構成部分的相互關系中加以考察,似乎系統(tǒng)的性質及其運作或轉換,都與其外在的環(huán)境毫無關系”[1]。傳統(tǒng)系統(tǒng)論的最大缺點,就是忽視了系統(tǒng)與其環(huán)境的復雜關系及其多向分化的可能性和風險性。

      傳統(tǒng)的主體中心主義認為,人類主體是唯一的、獨立的創(chuàng)造者,其創(chuàng)作過程主要由個人的思維、意向和想象驅動。然而,智能時代的生產力發(fā)展以數字化和智能化技術為基礎,虛擬現(xiàn)實、人工智能等技術的應用,在不同程度地模糊了社會生產主體及其實踐的界限的同時,加強了社會行動主體與人工智能產品互動的復雜性和難以預測的“雙重偶然性”[2]。人工智能社會生產逐漸出現(xiàn)模擬主體的樣態(tài),技術的發(fā)展迫使人類在享受其便利的同時進一步思考主體的樣態(tài)變化。

      在理論沿革上,從柏拉圖開始的傳統(tǒng)主客同一觀點受到了薩特(Jean-Paul Sartre)、胡塞爾(Edmund Husserl)、德勒茲(Gilles Deleuze)等現(xiàn)代思想家的質疑。薩特試圖通過他的現(xiàn)象學理論建立一種新的二元論,即無限與有限的二元論。他的新的二元論試圖超越單純的二元對立,強調二元的相互滲透、相互包含與相互轉化,而且二元對立并不意味著一個是絕對主體,另一個是絕對客體,也就是說,二元之中,誰是主體,誰是客體,并非固定不變的。通過無限與有限之對立,傳統(tǒng)哲學的內與外、潛能與現(xiàn)實等二元對立獲得了新的理解。

      而當德勒茲提出“多元化的多元化”的時候,他試圖徹底顛覆柏拉圖關于主客體同一的觀念。正因為這樣,在批判以索緒爾(Ferdinand de Saussure)和列維-斯特勞斯(Claude Levi-Strauss)為代表的結構主義“系統(tǒng)”觀時,德勒茲提出世界充滿“皺褶”、世界是“多元化的多元化”的思想,這實際上是在承認主客體關系的基礎上強調了獨立生命主體各自的異質性及其多樣變動性。在這場由德勒茲所發(fā)動的“結構主義轉型”的過程中,傳統(tǒng)理論所謂“本質”“實體”“可能”等概念,分別被“異質”“事件”“潛在”等概念取代。在德勒茲看來,世界上不僅不存在固定不變的二元對立結構,也不存在單一單質單向的變化模式。世界萬物是相互交叉、相互滲透地生成變動,任何一個事物的變化,都是多元多質因素相互交錯互動的結果。因此,世界上只能存在多元相互聯(lián)動的“事件”,而其生成根源,既不是單一性機制,也不是單向性的因果關系,而是無數相互聯(lián)系和相互滲透的盤根錯節(jié)的“塊莖式”異質性力量的突發(fā)矛盾,這些突發(fā)矛盾以“不可預測”的突發(fā)事件的模式“涌現(xiàn)”[3]。

      可以說,德勒茲“多元化的多元化”理念與盧曼(Niklas Luhmann,也譯作魯曼)提出的關于現(xiàn)代社會不斷分化的觀點有異曲同工之妙。此兩者都試圖突破傳統(tǒng)主客同一的思維框架,強調復雜性的不可化約性。德勒茲通過“塊莖式”的隱喻描繪了去中心化的多元聯(lián)結網絡;而在盧曼的系統(tǒng)理論框架中,“雙重偶然性定理被引入基礎層面,用以分析社會系統(tǒng)的涌現(xiàn)。盧曼的分析是對帕森斯‘互動雙重偶然性’基本命題的系統(tǒng)性重審”[1]。盧曼借助自創(chuàng)生的社會系統(tǒng)理論闡釋了社會子系統(tǒng)的運作封閉性與認知開放性的辯證關系。這種理論共鳴不僅體現(xiàn)在對現(xiàn)代性特質的診斷上,更反映在方法論層面,即摒棄本質主義的還原論傾向,轉而采用關系性思維把握當代社會的復雜性。

      從建構主義的視角考察社會系統(tǒng)理論,其生成是在批判西方傳統(tǒng)“人本中心主義”“邏輯中心主義”“主客二元對立原則”的基礎上,融合了薩特和胡塞爾關于“生活世界”“主體間互動”“意向性”“內時間意識”的現(xiàn)象學思想。20世紀40年代,社會系統(tǒng)理論在一般系統(tǒng)論的基礎上不斷發(fā)展,從貝塔朗菲(Ludwig von Bertalanffy)正式提出“一般系統(tǒng)論”[2]概念以來,經過對現(xiàn)代社會系統(tǒng)的全面研究,社會學界的功能結構論者朝著生物學方向尋求新出路。當代社會科學的新成果引導社會學家進一步重建社會系統(tǒng)的結構及功能的基本概念,促進社會學家從“適應”機制的角度對社會的演化進行分析。學者們吸收馬圖拉納(Humberto Maturana)、瓦列拉(Francisco Varela)等的“認知生物學”和“建構主義認知論”[3]的研究成果,還特別采納英國數學家史賓塞-布朗(George Spencer-Brown)于1969年著述的《形式的法則》(Laws of Form)[4]中應用的“邏輯區(qū)分”方法,采用跨邊界的數學研究方法,將不同的邏輯系統(tǒng)描述成系統(tǒng)內外關系網絡的“三重同一性”(triple identity)的動態(tài)靈活關系,并特別突出在實際應用中自我參照的悖論性質。值得注意的是,在發(fā)展的過程中,社會系統(tǒng)理論的研究介入了福斯特(Heinz von Foerster)提出的“控制論的控制論”[5]的新方法。“控制論的控制論”這一表述隱含著對控制論自身的反思,強調反饋機制、系統(tǒng)調節(jié)以及觀察者與被觀察系統(tǒng)的互動性,屬于“控制論如何研究系統(tǒng)”的二階觀察(second-order observation)范疇。

      概言之,社會系統(tǒng)理論通過跨學科的整合展現(xiàn)了其方法論上的創(chuàng)新。社會系統(tǒng)研究范式從實體論向關系論的轉變,為理解數字社會的超復雜性提供了一個動態(tài)的認知框架。在實踐上,數字社會不可避免地采用以“意義”為導向的“簡單化程式”,然而,社會系統(tǒng)的“超復雜性”和“雙重偶然性”的出現(xiàn)也意味著系統(tǒng)內部及其外部環(huán)境中不斷增長的復雜性、風險性與不確定性。

      二、人機交互復雜社會系統(tǒng)中信任問題的呈現(xiàn)

      技術的變遷不斷拓展了社會系統(tǒng)理論的研究邊界。在盧曼的系統(tǒng)論中,“魯曼按照帕森斯系統(tǒng)功能論的基本觀點,將對于社會系統(tǒng)的研究分成三大層次:關于社會系統(tǒng)的理論,關于演化的理論以及關于溝通的理論”[6]。在這里,人機融合復雜社會系統(tǒng)可以從構成系統(tǒng)的主客體結構關系、社會溝通與社會分化的三層面復雜結構進行深入分析。

      1.人機交互社會系統(tǒng)的三層面復雜結構

      其一,傳統(tǒng)系統(tǒng)論的理論框架試圖將所有問題置于主客體的對立統(tǒng)一中進行剖析與解決,其終極目標是確立人類的主體地位以實現(xiàn)人類對客觀世界的主宰與改造。隨著人機交互與人機協(xié)作的發(fā)展,人機信任問題研究從單向度的人對智能系統(tǒng)的信任發(fā)展到雙向度甚至多模態(tài)的人與人工智能的互信。從人與計算機的交互到人與機器人、數字人的交互,人與智能系統(tǒng)經歷了從單模態(tài)交互到多模態(tài)交互、可信交互以及共享認知交互的發(fā)展。隨著人工智能技術在智能化與情感交互領域的飛速發(fā)展,以人形機器人為代表的人機交互模式引發(fā)了深刻的變革,碳基生命和硅基“生命”共同推動社會整體向群體智能增強的方面發(fā)展。人類智能與人工智能共同構成主客觀混合、主動性和被動性交織的體系,人類智能和人工智能系統(tǒng)相互作用,合力促進更高級別的智能行為。在這種情形下,人和機器如何通過多種方式實現(xiàn)交互溝通與協(xié)作,如何將異質的客觀邏輯和主觀超邏輯結合起來,更好地處理信息輸入、輸出與反饋,是構建人機交互可持續(xù)信任關系的關鍵。

      其二,在社會系統(tǒng)理論中,溝通首先就是生產和維持社會系統(tǒng)及其功能的運作過程,顯然,這里的“溝通”并非意指“社交活動或思想交流”[1],而是關聯(lián)到社會系統(tǒng)以及由于不斷分化而不斷生成的各個子系統(tǒng)運作的動態(tài)交互協(xié)調。社會系統(tǒng)與心理系統(tǒng)、社會系統(tǒng)的各子系統(tǒng)之間,在社會行動的符號和文化的層面存在以多種“意義”為主導的“輸入、輸出”信息交換與信任互動關系,由此使所有的社會行動都具有溝通的特性。在虛實結合的社會空間內,新型社會溝通媒介使行動者間的關系締結方式、溝通行為模式和溝通信息的傳遞形態(tài)發(fā)生顯著變化。人機交互與人機協(xié)作的發(fā)展帶來了新的互動模式,從信息社會向智能社會的過渡,反映了社會溝通功能的多層次分化以及其在可持續(xù)信任構建過程中的演變。

      其三,現(xiàn)代社會可以被理解為具有不同功能的超復雜系統(tǒng),它的各種區(qū)分都是由功能的區(qū)分化決定。不同于以往所有社會,當代社會的本質特點表現(xiàn)為日益組織化的社會系統(tǒng)的快速區(qū)分化及自律化導致社會系統(tǒng)“更大的復雜性”(gr??ere komplexit?t)[2]的出現(xiàn)。“復雜性本質上是涌現(xiàn)現(xiàn)象。涌現(xiàn)是自組織(self-organizing)過程的產物?!盵3]當代高科技在人為創(chuàng)造能力方面的驚人效果,不但使現(xiàn)代人有可能以過去任何時代都無法想象的方式進行創(chuàng)造活動,而且使其創(chuàng)造物本身成為越來越復雜的特殊自律系統(tǒng)。

      2.人機交互社會系統(tǒng)的“類人”型復合信任

      在人機交互的復雜社會系統(tǒng)中,面對流動、變化與不確定性對熟悉社會確定性的沖擊,人們亟待構建一種基于不確定性的新的社會信任。在高度組織化的現(xiàn)代社會結構中,并非所有行動均能通過對后果的精確預測實現(xiàn)有效的指導,因此,通過信任降低復雜性顯得尤為重要?!靶湃瓮ㄟ^重構系統(tǒng)內部確定性,成為適應及處理環(huán)境復雜性的核心機制,其功能依賴于系統(tǒng)結構的分化程度?!盵4]信任關系對人機交互與協(xié)作的強度和可持續(xù)性構成直接影響。

      信任問題是人機關系研究的核心,早期的社會系統(tǒng)理論依據信任的主客體互動關系,將信任區(qū)分為“人格信任”和“系統(tǒng)信任”[1]兩大類別?!叭烁裥湃巍敝饕钢黧w與溝通中的個體建立的信任紐帶。隨著新型人機交互技術與人機交互模態(tài)的不斷更新,在人機交互的溝通環(huán)境中,人與人的關系,包括人機任務分配、團隊的組織與合作等,呈現(xiàn)更為多元與復雜的特點。而“系統(tǒng)信任”范疇重點涵蓋主體與政府、媒體、社會組織、貨幣等非人格化客體的信任關系,在早期媒體傳播時代,機器主體在多數情境下扮演著媒介載體角色,由此產生的信任關系同樣屬于個體與媒介的系統(tǒng)信任。

      然而,隨著人機交互大模型應用的發(fā)展,人機信任已經無法被完全納入早期的社會系統(tǒng)理論所界定的兩大信任類別之內,它呈現(xiàn)的復合型特征,融合了個體信任與系統(tǒng)信任的雙重維度,這種復合信任也被稱為“類人”型復合信任?!邦惾恕毙蛷秃闲湃伟瑐€體信任與系統(tǒng)信任的復雜要素。一方面,“類人”型復合信任包含人際信任的要素。如基于大模型的虛擬人或者人形機器被設計成具有不同的機器人格,這種一對一或一對多的交往模式,使得用戶對大模型的感知如同人際信任一般具有人格化和個性化的特征。另一方面,基于大模型應用的人機信任是一種由技術特性塑造的“類人”型復合信任,它建立在技術基礎之上,融合了系統(tǒng)信任與人際信任的復合元素。比如,構建在更加完善的人機交互機制之上的人機協(xié)作模式,包括人類單向指揮的人機協(xié)作、人機雙向互動合作以及多人、多機的協(xié)作。而多人、多機協(xié)作技術要求更細致的任務劃分、更高效的管理策略以及更強的協(xié)同執(zhí)行能力。在多人、多機協(xié)作技術的復雜環(huán)境中,信任不僅僅局限于人-機,還涉及人與人、機器與機器的多維度信任關系。以復雜系統(tǒng)監(jiān)測為例,面對龐大的數據樣本,機器需要迅速篩選出潛在的預警樣本,然而,確立預警樣本的篩選標準以及在多人多機環(huán)境中合理分配決策職責,直接關系到人力成本、任務執(zhí)行的精確性以及多維度信任關系的維護。在這種背景下,如何維護這一龐大的信任網絡,構建更精細的任務分配機制、更高效的信息溝通渠道以及更完善的沖突解決策略,就成了實現(xiàn)高效人機協(xié)作的關鍵??梢?,與傳統(tǒng)信任模式不同,“類人”型復合信任的構建依賴于技術的透明度、可解釋性和可驗證性,只有在技術系統(tǒng)、法律系統(tǒng)、倫理道德等多個層面上協(xié)同努力,才能為系統(tǒng)信任的建立和維護創(chuàng)造良好的環(huán)境。

      3.人機交互復雜社會系統(tǒng)信任問題的歸因分析

      當代人工智能技術的發(fā)展,突破了原有的傳統(tǒng)生命概念,使生命的擬主體性特征超出碳基生命的范圍。各種被創(chuàng)造的系統(tǒng)似乎在一定程度上展現(xiàn)了“自律性”。盡管現(xiàn)代社會可以借助技術工具設定簡約化操作程序,但任何程序都難以完全克服系統(tǒng)的不確定性。信任問題本質上源于社會系統(tǒng)的復雜性、不確定性和風險性。在實際操作中,在人機交互的技術環(huán)境下,影響信任形成的因素主要包括“參與者因素、技術影響、任務目標以及環(huán)境結構”[2]這幾大類別。從初始信任到可持續(xù)信任形成的過程中,參與者的主觀感知因素在初始信任階段占據主導地位,而技術影響、任務目標和環(huán)境結構的相互作用則成為可持續(xù)信任形成的關鍵。相較于初始信任,可持續(xù)信任更多地依賴理性因素。

      首先,在參與者因素或用戶特性對信任建立的影響方面,用戶會在面對新型技術或界面時產生不同程度的信任感知。人機交互可持續(xù)信任的形成強調將雙方或多方的合作成果納入信任評估的循環(huán)之中,而從初始信任到可持續(xù)信任的轉變則更有利于參與者人機交互頻率的增加與人機協(xié)作目標趨向的一致。細致來說,用戶的技術恐懼、技術認知水平、文化背景、個性特征、經驗知識以及心理預期,均構成其初始信任的內在基礎。此外,用戶的協(xié)作專業(yè)能力、媒介素養(yǎng)、注意力控制能力、情緒狀態(tài)、心理預期、風險承受力等也是不可忽視的影響因素。這些因素相互交織,共同影響著用戶對某一對象或服務的評估。比如,技術恐懼已成為影響人機可持續(xù)信任的重要主觀要素,基于海量數據和復雜算法運作的系統(tǒng)生成式人工智能,其決策過程與內部邏輯對普通用戶而言猶如一個難以窺視的“神秘盒子”,這種不透明的操作加劇了部分用戶的技術恐懼心理。

      其次,在技術系統(tǒng)層面,機器的可測試性、感知易用性、可預測性、隱私保護能力、可靠性、可替代性、安全性、目標一致性等都是影響用戶對機器產生信任的重要前提。如在科幻電影《鐵甲鋼拳》(Real Steel)中,拳擊手查理通過語音控制系統(tǒng)觀測機器人的拳擊表演并指導機器人進行拳擊比賽。在機器人的語音控制系統(tǒng)被破壞后,模擬模式啟動,機器人可以模擬查理的動作進行攻擊。查理與機器人建立了一種具有目標一致性的信任關系,查理通過與高度智能化的機器的深度互動,精準地理解并把握其復雜多變的意圖,從而達成高效的協(xié)同工作。人類通過對機器的運行狀態(tài)進行監(jiān)控,在機器失效或發(fā)生意外事件時迅速接管控制權,并采取適當的干預措施。除了“監(jiān)督控制”,人機協(xié)同的交互范式還包括“決策支持”[1]。智能系統(tǒng)可以為操作者提供多種潛在選擇,從而輔助操作者做出決策。隨著人與社會越發(fā)依賴智能算法,人機結合的混合決策將成為個人決策和國家社會治理的重要依據。當然,無論是“決策支持”還是“監(jiān)督控制”,操作者的正確選擇往往依賴其對機器意圖的理解、對機器行為的判斷及相互信任關系的構建。多種功能的緊密耦合特性使得人機責任難以徹底區(qū)分,同時,機器的自主性進一步模糊了責任主體的界定,這無疑對現(xiàn)有責任體系和人機信任關系的構建構成了挑戰(zhàn)。

      再次,除了參與者和技術影響因素,任務的復雜性、目的性與明確性以及任務失敗可能帶來的損失,都會對可持續(xù)信任的形成產生直接影響?!皺C器并非通過編程的預設獲得全景認知,而是通過與系統(tǒng)的直接交互進行實時學習?!盵2]從簡單個體或規(guī)則的相互作用到自發(fā)產生的復雜、全局性智能行為,無論是體感智能還是涌現(xiàn)智能,均體現(xiàn)了“自下而上”的集體任務效應,這些現(xiàn)象無法僅通過單一元素的特性直接預測。在多樣化的社會活動背景下,特別是在處理復雜任務時,從發(fā)出信息、接收信息到理解和傳遞信息并做出的各種反應,這種自成一體、具備自我參照性的溝通使可持續(xù)信任的建立變得更加復雜。

      最后,在社會系統(tǒng)層面,社會評價的價值標尺、社會規(guī)范的剛性約束和組織架構的制度性安排,以及風險承受閾值、工作強度指數、規(guī)則突破代價等外部變量,是用戶在評估信任環(huán)境時必須考慮的要素,這些因素共同構成了用戶信任決策的復雜背景,影響著信任的深度與廣度。在人機動態(tài)交互過程中,人類與機器的相互合作體現(xiàn)在感知、計算、決策、推理、動作執(zhí)行等各個環(huán)節(jié)之中,由此形成了錯綜復雜的功能耦合模型。這體現(xiàn)為人工智能的大規(guī)模數據收集和處理帶來的隱私和數據安全問題,也體現(xiàn)為算法政治問題,在算法政治中,程序直接介入并塑造政治形態(tài)的發(fā)展。從智能增強社區(qū)到硅谷的現(xiàn)代智囊團,再到波士頓周圍不斷擴大的機器人經濟都預示著,我們正處于計算機革命下一個階段的起點,機器人將深刻改變現(xiàn)代生活。但無論如何,人與機器的和諧共處,應是機器為人類服務而不是相反。

      三、人機交互復雜社會系統(tǒng)的信任機制建構

      在人機交互向人機協(xié)作邁進的背景下,人與人工智能的互動關系日益復雜,人機信任這一多維度的動態(tài)變量加大了研究者對其進行直接觀測與評估的難度。當前,眾多研究已將傳統(tǒng)社會人際信任的相關理論轉化為人機交互領域的研究基礎及其模型框架。展望未來,如何進一步在人機交互的復雜社會系統(tǒng)中構建穩(wěn)健的信任機制,仍是需要深入探索與研究的重要課題。

      1.二階觀察:風險管理的聯(lián)動視角

      現(xiàn)代人創(chuàng)造的自律系統(tǒng)反而給人類社會增添了新的復雜環(huán)境與新的風險,這使我們進入了前所未有的風險社會。在風險社會中,必須充分重視風險管理與二階觀察下的決策的緊密聯(lián)系。

      在人機交互的復雜社會系統(tǒng)中,綜合運用一階觀察和二階觀察,對信任建構的各個階段進行審視和分析,識別潛在的問題和風險,將有助于實現(xiàn)可持續(xù)信任的動態(tài)校準?!皬募夹g自身的監(jiān)管角度考慮,應當引入二階的監(jiān)督系統(tǒng)作為人工智能系統(tǒng)的監(jiān)護人程序,以此來避免人工智能技術的潛在風險?!盵1]一階觀察主要關注“觀察什么”的問題,即明確觀察的直接對象是什么的問題,而二階觀察則進一步強調觀察的方法與策略,它不僅建立在一階觀察的基礎之上,更是對一階觀察的觀察。二階觀察的關注點并非直接針對某一具體客體,而是轉向了對觀察行為的審視與分析,這包括但不限于一階觀察者選取的觀察對象、采用的觀察方式、得出的結論,以及可能存在的“觀察盲點”[2]和各個社會子系統(tǒng)之間及其與環(huán)境的耦合結構。在風險社會的動態(tài)演化中,二階觀察作為系統(tǒng)論的重要方法論工具,要求我們關注不同社會子系統(tǒng)之間的相互作用機制。在人機交互場景下,這種觀察方式體現(xiàn)為對技術系統(tǒng)、組織制度與人類行為的三重聯(lián)動監(jiān)測。例如,科技系統(tǒng)依據真-偽的符碼運作,而經濟系統(tǒng)往往根據有利潤-無利潤的符碼判斷經濟行為的正當性。無論是經濟系統(tǒng)還是科技系統(tǒng),社會各個子系統(tǒng)在風險觀察上同樣存在各自的局限性。如在自動駕駛中,當交通管理系統(tǒng)發(fā)現(xiàn)自動駕駛車輛的路徑規(guī)劃算法存在群體決策沖突時,其反饋不應僅僅觸發(fā)車載系統(tǒng)的參數優(yōu)化,而應推動保險精算模型對風險概率進行再校準,并促使機構完善事故責任分配的梯度標準。

      技術系統(tǒng)既是人類社會文化發(fā)展中功能分化和人為組織能力復雜化的集中表現(xiàn),又是與自然生態(tài)系統(tǒng)、有機生命系統(tǒng)、全球氣候變化系統(tǒng)、經濟系統(tǒng)、教育系統(tǒng)、法律系統(tǒng)等外圍環(huán)境中的各種系統(tǒng)發(fā)生互感互動溝通的場域。當代社會系統(tǒng)不僅面對自然生態(tài)環(huán)境的各種復雜變化,而且面對人機交互超復雜系統(tǒng)的交錯影響,這使現(xiàn)代社會系統(tǒng)越來越陷入有組織的超復雜性的無數干擾。在人機交互系統(tǒng)中,每個參與者(用戶、設計師、算法等)都在進行觀察和決策,而二階觀察需要在超越簡單的“人機對立”的基礎上揭示人機互動中的多層遞歸關系。傳統(tǒng)的風險管理方式多依賴于子系統(tǒng)預設的內在規(guī)則集或閾值監(jiān)控,但這在面對高度動態(tài)、非線性且具有自主學習能力的復雜系統(tǒng)時,就必須對相關子系統(tǒng)進行二階觀察,并對觀察結果所引發(fā)的后續(xù)影響進行持續(xù)的預判與評估。立足二階觀察的全局聯(lián)動視野,深度解構人機交互系統(tǒng)與多元子系統(tǒng)及復雜環(huán)境網絡的動態(tài)耦合機制,通過計算機科學、法學、教育學、倫理學等跨學科領域的協(xié)同與融通,有助于系統(tǒng)性地化解智能技術信任危機及其衍生的社會連鎖反應。

      2.技術反思:黑箱算法與混合式智能算法的發(fā)展

      在控制論中,“黑箱方法”用來研究那些內部結構、機制或運作原理尚不明確或難以直接觀測的系統(tǒng),“用電子元件或機械元件組成的控制系統(tǒng),使用統(tǒng)計方法研究信息的傳遞和加工,特別是反饋和振蕩”[1],通過分析系統(tǒng)輸入與輸出的關系推導出系統(tǒng)行為的規(guī)律或特性。而科技“黑箱”往往指的是只能觀察到某個封閉系統(tǒng)的信息輸入與信息輸出,而難以得知其內部結構及其運行機制的現(xiàn)象。正如一個封閉且自成一體的箱盒,其內部結構、功能及其運作原理,均難以被外界直接觀察,但人們有可能借助外部的觀察與實驗手段,對其進行探測與研究?!昂谙浞椒ā钡膬?yōu)點在于,它尊重“黑箱”作為一個完整系統(tǒng)的結構與形式,避免對其原始特征進行干預,并通過外部信息輸入與內部信息輸出的方式揭示“黑箱”獨立系統(tǒng)的運行機制。從負面的意義上來說,“黑箱”化可能掩蓋算法研發(fā)、轉譯、爭議、競爭等的各種風險與后果,進而導致風險的隱匿與擴大化。例如,數據驅動的決策機制在提升效率與精準度的同時,使我們難以洞察算法背后的邏輯與動機,更難以對其潛在的負面影響進行有效監(jiān)管與干預。技術憑借其強大的算力和“黑箱算法”,在人機交互過程中自動獲取了用戶輸入的個人信息,“黑箱算法”在深度神經網絡大模型與龐大的訓練數據庫的雙重技術支持下,逐漸演變成一種社會性權力。人們對此感到的恐懼,并非源自算法本身,而是算法操控社會資源分配所帶來的異化現(xiàn)象。正是“黑箱”的遮蔽效應,使人們難以預測人機交互、智能算法等前沿技術的風險性,這是當前解決算法“黑箱”信任問題的難點所在。

      由此,有必要促進智能機器的機體算法與混合智能算法的發(fā)展相統(tǒng)一。在現(xiàn)階段,無論是簡單智能算法或是復雜智能算法,都尚未充分關注倫理道德算法及其可解釋性。與簡單智能算法或復雜智能算法相比,混合智能算法要求將倫理道德算法融入人工智能,這無疑提高了算法原初設計的難度。例如,在動力系統(tǒng)層面,混合智能算法的動力系統(tǒng)演變?yōu)槿斯ど窠浘W絡,而眾多的人工神經網絡共同構成了一個類似人類大腦神經網絡的復雜系統(tǒng)?;旌现悄芩惴ǖ募夹g挑戰(zhàn)不僅體現(xiàn)在道德準則的數學建模層面,更在于使動態(tài)演化的倫理價值體系與靜態(tài)算法架構協(xié)同進化。例如,倫理規(guī)范的抽象性與算法指令的具體性存在鴻溝,這要求建立嵌入式的動態(tài)道德評估機制,并使算法具備跨文明語境的理解能力。近年來出現(xiàn)的道德推理框架嵌入、倫理約束模塊化設計等實踐路徑,提示我們須超越單純的技術改良思維,使算法進化始終處于人類價值觀的引導與監(jiān)督之下。可見,在人機交互的復雜社會系統(tǒng)中,混合智能算法不僅要考慮技術上的可行性,還要引導科技智能向善。“將道德融入人工智能系統(tǒng)和算法中”[2],以用戶需求作為橋梁,通過道德倫理的算法設計規(guī)制人工智能的不確定性,并對技術動態(tài)演進及其實際應用進行審慎評估,以確保人工智能的發(fā)展向善。

      3.有序推進:可量化信任評估方式的綜合運用

      復雜性是信任問題產生的前提,而信任的建立有利于“簡化復雜性”[3]。在人機交互復雜社會系統(tǒng)中,綜合運用可量化信任評估方法有助于信任的建立與維持。通過某種方式對信任進行量化評估,對深刻理解信任問題的生成和有序推進信任機制形成具有重要的意義。

      在實際應用中,可以綜合運用信任評估的量化方法,以提升信任評價的精確度。目前,自我報告測量是應用較為廣泛的信任評估工具。例如,通過調查、問卷、訪談等多種形式,收集個體被試者對人工智能信任程度的相關數據。“研究者們嘗試以現(xiàn)有的人際信任模型作為研究起點,通過改編人際測量工具或自行創(chuàng)建量表描述和解釋用戶對智能決策輔助系統(tǒng)(IDA)的信任發(fā)展?!盵1]智能算法不僅是一個靜態(tài)的指令集,更是一個能夠根據實際運行情況進行自我調整、信任校準或評估優(yōu)化的動態(tài)系統(tǒng)。通過記錄并分析算法執(zhí)行過程中“在此之前”與“在此之后”的狀態(tài)變化,監(jiān)督其執(zhí)行效率等方面的問題,并據此調整內部邏輯或參數設置,可實現(xiàn)更高效、更穩(wěn)定的運作。

      自我報告的測量方法難以克服動態(tài)交互任務中的干擾性,這種方法很難實時捕捉并提供人與智能體的信任值的變化。為了彌補自我報告測量的不足,研究者還會使用“行為指標度量”[2]的方法,通過關注個體在交互過程中的實時行為表現(xiàn),如任務完成時間、錯誤率、交互頻率等,為信任評估提供客觀依據。行為指標度量通過模擬不同的決策場景評估機器在面對道德困境時的處理方式,借助虛擬現(xiàn)實技術模擬真實的人機交互場景,更精確地測量和分析信任的動態(tài)變化。除了自我報告測量和行為指標度量,“情感及神經測量”[3]也可以用于量化評估用戶對智能系統(tǒng)的信任程度。情感及神經測量主要通過心率、皮膚電導、腦波活動等生理指標間接反映個體在與機器人或人工智能系統(tǒng)交互時的信任程度。綜合運用“自我報告測量”“行為指標度量”“情感及神經測量”等方法,可以增加測量的深度,提高其準確度。例如,在初始階段,通過設計詳盡的問卷調查,捕捉個體對于特定情境或人物的信任傾向。這份問卷不僅包括直接詢問信任程度的問題,還可能涉及一系列相關的情感和認知評估,從而為研究者提供一個關于個體信任態(tài)度的初步分析。隨后,引入更為精確的“情感及神經測量”工具,從多個維度深入理解信任的構建過程,為信任理論的發(fā)展和實際應用提供堅實的基礎。

      最后,以混合智能算法作為橋梁,構建可量化的信任評估方式。如上文提到的混合智能算法,它可利用心靈算法對人類思維進行模擬,并在算法設計時考慮到人類的直覺、經驗和情感等非理性因素。貝葉斯分析方法正“提供了一種計算假設概率的方法,它基于假設的先驗概率,以及在給定假設下觀察到的不同數據的概率和觀察到的數據本身”[4]。在風險分析領域,“貝葉斯網絡”[5]的應用有助于提升復雜系統(tǒng)韌性評估的精確度,為心靈算法提供神經科學層面的解釋框架,涉及設定、評估和調整信任模型的參數,計算并預測影響信任核心因素的可信度及這些因素的概率分布,這些概率參數是對系統(tǒng)行為預期和實際表現(xiàn)的關系的有效反映。

      4.多方合力:軟法與硬法的社會之治

      從虛擬與現(xiàn)實相結合的社會空間、行為體系統(tǒng)、觀念制度體系等多重視角出發(fā)審視人機交互在復雜社會系統(tǒng)中的變化動力,要考慮到技術演進的內在平衡性,通過政策法律保障和倫理審查制度的引入,為技術進步向制度化發(fā)展的關鍵階段提供保障。

      在構建制度體系時,具體來說,以軟法與硬法的相結合保障技術在改造物理環(huán)境過程中的公平公正,為行為體系統(tǒng)參與者的選擇權設定虛實空間的限制,“通過硬法與軟法的互動協(xié)調來推動公共治理實現(xiàn)善治”[6],堅持從軟法先行到軟法與硬法協(xié)同發(fā)展的原則,構建多層次、多維度的監(jiān)管治理體系。“2017年,歐洲議會提議將機器人視為‘電子人’……在法律上賦予其責任主體的地位?!盵1]這種變化反映了社會對人工智能技術的接納和對它們行為的期待,由此,必須在虛擬與現(xiàn)實交融的社會空間內構建一個多層級的規(guī)制框架,以確保技術的創(chuàng)新與應用符合社會發(fā)展的需求。

      硬法作為應對人工智能風險的傳統(tǒng)規(guī)制工具,能夠為其發(fā)展提供基本的法律框架和行為準則,通過立法明確人工智能的法律地位、權利與義務,規(guī)范人工智能的研發(fā)、應用和管理,并對人工智能造成的損害進行責任追究。此外,軟法主要在行為準則、行業(yè)規(guī)范、倫理聲明、倫理準則、道德標準、合作規(guī)則、認證計劃等方面發(fā)揮其作用。軟法因其靈活高效、多元主體合作等優(yōu)勢,與人工智能“善治”的需求相契合。軟法的靈活性主要體現(xiàn)在其制定和執(zhí)行過程中,它不依賴于國家強制力,而是通過協(xié)商、共識和自愿遵守的方式實現(xiàn)規(guī)范和治理。這種多元主體合作優(yōu)勢,意味著在人工智能治理中,政府、企業(yè)、社會組織和公眾等各方可以共同參與規(guī)則的制定和實施,從而形成更為全面和平衡的治理機制,并為人工智能領域的治理提供更為靈活的手段。以機器人輔助診斷系統(tǒng)為例,機器人通過收集患者的相關醫(yī)療信息協(xié)助人類,并在人類和負責運輸決策的計劃系統(tǒng)之間建立聯(lián)系。然而,機器人的使用引發(fā)了人們的倫理擔憂,即系統(tǒng)如何確保信息收集的邊界和目的與整體系統(tǒng)兼容并符合隱私法規(guī),如何對任何涉及輔助機器人和分診系統(tǒng)的互動或數據收集提供可信任的知情同意。由此,通過“設立由連接器(connector)和調解者元素組成的架構以及第三方審計,使調解者輔助機器人和分診系統(tǒng)遵循隱私法規(guī)、倫理道德和數據安全的要求,以支持交互并確保人類需求、價值觀和倫理的保護”[2]。技術系統(tǒng)的發(fā)展帶來的風險具有高度的不確定性,通過第三方架構促進實現(xiàn)軟法與硬法的結構性耦合,有助于強化法律規(guī)范與技術標準的銜接機制,構建與技術發(fā)展相適應的法治環(huán)境,并將公平正義的價值理念融入技術系統(tǒng)與法律系統(tǒng)的關系交互之中。

      可見,軟性規(guī)范與硬性法規(guī)的協(xié)同作用能系統(tǒng)化引導人工智能發(fā)展軌跡,促進技術的發(fā)展符合人類社會的價值觀和倫理道德。這種治理范式既包含知識產權的保護,也涵蓋新興技術領域的監(jiān)管體系,例如在數據安全領域構建三位一體的防護網,即通過區(qū)塊鏈加密技術強化隱私屏障,運用智能合約落實法律承諾,依托數字技術完善確權體系,并完善相關法律法規(guī)及權益保障體系。綜合利用多方合力的共同作用,防止技術的復雜性導致責任主體的模糊不清,保障人工智能應用場景下的個體權益,最終為科技創(chuàng)新與經濟發(fā)展提供穩(wěn)定、可預期的支持。

      總的來說,人機交互本質上呈現(xiàn)了多元行動主體協(xié)同實踐建構的動態(tài)復雜社會系統(tǒng)。人機交互通過技術集成催生混合智能算法,人工智能與人類智能共同參與任務的協(xié)作和決策的過程,為群體智能的形成和進化做出貢獻。在技術革新勢不可擋的時代背景下,從群體智能進化的社會整體角度出發(fā),人類如何當好管理者和協(xié)調者,以更好的方式適應、維持與開發(fā)可信任的人機共存環(huán)境?面對技術浪潮滾滾向前的必然趨勢,人們只有從實際的技術發(fā)展現(xiàn)狀出發(fā),對其發(fā)展前景和潛在的風險問題形成更清晰的認知,才能在探索構建、維護和優(yōu)化可信人機共生的創(chuàng)新機制的過程中促進人工智能與人類社會相向而行,共同發(fā)展。

      [1《]馬克思恩格斯文集》第1卷,人民出版社2009年版,第501頁。

      [1]高宣揚:《魯曼社會系統(tǒng)理論與現(xiàn)代性》,中國人民大學出版社2016年版,第80頁。

      [2]R. Vanderstraeten, \"Parsons, Luhmann and the Theorem of Double Contingency\", Journal of Classical Sociology, 2002, 2(1).

      [3]J. Kim, \"Emergence: Core Ideas and Issues\", Synthese, 2016, 151(3).

      [1]R. Vanderstraeten, \"Parsons, Luhmann and the Theorem of Double Contingency\", Journal of Classical Sociology, 2002, 2(1).

      [2]M. Drack, D. Pouvreau, \"On the History of Ludwig von Bertalanffy’s ’General Systemology’, and on Its Relationship to Cybernetics-Part III: Convergences and Divergences\", International Journal of General Systems, 2015, 44(5).

      [3]H. R. Maturana, F. J. Varela, Autopoiesis and Cognition: The Realisation of the Living, Dordrecht: D. Reidel Publishing Company, 1980, Editorial Preface, p. V.

      [4]S. Watson, \"George Spencer-Brown’s Laws of Form Fifty Years on\", Mathematics Teaching Research Journal, 2020,12(2).

      [5]H. von Foerster, Understanding Understanding: Essays on Cybernetics and Cognition, Berlin: Spinger Science Business Media, 2003, p.283.

      [6]高宣揚:《魯曼社會系統(tǒng)理論與現(xiàn)代性》,中國人民大學出版社2016年版,第16頁。

      [1]R. Vanderstraeten, \"Autopoiesis and Socialization: On Luhmann’s Reconceptualization of Communication and Socialization\", British Journal of Sociology, 2000, 51(3).

      [2]N. Luhmann, Soziologische Aufkl?rung, Opladen: Westdeutscher Verlag Gmbh, 1970, p.67.

      [3]P. A.Corning, \"The Re-Emergence of ’Emergence’: A Venerable Concept in Search of a Theory\", Complexity, 2002, 7(6).

      [4]N. Luhmann, Trust and Power, edited by C. Morgner, M. King, Cambridge: Policy Press, 2017, p.30.

      [1]尼克拉斯·盧曼:《信任》,瞿鐵鵬、李強譯,上海人民出版社2005年版,第50—79頁。

      [2]S. L. Dorton, S. B. Harper, \"A Naturalistic Investigation of Trust, AI, and Intelligence Work\", Journal of Cognitive Engineering and Decision Making, 2022, 16(4); M. Edmonds, F. Gao, H. Liu, et al., \"A Tale of Two Explanations: Enhancing Human Trust by Explaining Robot Behavior\", Science Robotics, 2019, 4(37); M. Yang, P.-L. P. Rau, \"Trust Building with Artificial Intelligence: Comparing with Human in Investment Behaviour, Emotional Arousal and Neuro Activities\", Theoretical Issues in Ergonomics Science, 2024(25).

      [1]M. R. Endsley, \"From Here to Autonomy: Lessons Learnedfrom Human-Automation Research\", Human Factors: The Journal of the Human Factors Society, 2017, 59(1).

      [2]J. Markoff, Machines of Loving Grace: The Quest for Common Ground Between Humans and Robots, New York: Ecco Books, 2015, p.30.

      [1]李倫:《人工智能與大數據倫理》,科學出版社2018年版,代序,第?頁。

      [2]H. von Foerster, Understanding Understanding: Essays on Cybernetics and Cognition, Berlin: Spinger Science Business Media, 2003, p.284.

      [1]陶理:《控制論之父:諾伯特·維納的故事》,吉林科學技術出版社2008年版,第84頁。

      [2]李倫:《人工智能與大數據倫理》,科學出版社2018年版,第274頁。

      [3]N. Luhmann, Trust and Power, edited by C. Morgner, M. King, Cambridge: Policy Press, 2017, p.71.

      [1]M. Madsen, S. Gregor, \"Measuring Human-Computer Trust\", Australasian Conference on Information Systems, 2000, 12(53).

      [2][3]M. Yang, P.-L. P. Rau, \"Trust Building with Artificial Intelligence: Comparing with Human in Investment Behaviour, Emotional Arousal and Neuro Activities\", Theoretical Issues in Ergonomics Science, 2024(25).

      [4]楊憲澤:《人工智能與機器翻譯》,西南交通大學出版社,2006年版,第233頁。

      [5]R. Patriaca, F. Simone, O. Artime, et al., \"Conceptualization of a Functional Random Walker for the Analysis of SocioTechnical Systems\", Reliability Engineering System Safety, 2024, 251(110341).

      [6]羅豪才:《軟法的理論與實踐》,北京大學出版社2010年版,第68頁。

      [1]J. Markoff, Machines of Loving Grace: The Quest for Common Ground Between Humans and Robots, New York: Ecco Books, 2015, p.30.

      [2]N. Boltz, S. Yaman, P. Inverardi, et al., \"Human Empowerment in Self-Adaptive Socio-Technical Systems\", 2024 IEEE/ ACM 19th Symposium on Software Engineering for Adaptive and Self-Managing Systems (SEAMS), April 2024, pp.200-206.

      〔責任編輯:洪峰〕

      猜你喜歡
      人機交互信任
      關于信任:最重要的十件往事
      英語世界(2022年9期)2022-10-18 01:11:34
      表示信任
      嚶嚶嚶,人與人的信任在哪里……
      桃之夭夭B(2017年2期)2017-02-24 17:32:43
      從生到死有多遠
      某型柴油機虛擬維修系統(tǒng)研究
      基于虛擬現(xiàn)實技術的九江城市交通事故模擬系統(tǒng)設計
      人機交互課程創(chuàng)新實驗
      計算機教育(2016年7期)2016-11-10 09:01:27
      人形交互式服務機器人研究現(xiàn)狀及發(fā)展趨勢
      多點噪聲遠程自動采集系統(tǒng)設計
      一種靜態(tài)手勢數字識別的實現(xiàn)及應用
      阜新市| 土默特右旗| 马尔康县| 遵化市| 射洪县| 昭苏县| 祁东县| 红桥区| 阿瓦提县| 抚远县| 金门县| 望江县| 年辖:市辖区| 延吉市| 漯河市| 汝阳县| 洪湖市| 安丘市| 贺州市| 定兴县| 汤原县| 洛南县| 黄陵县| 柯坪县| 麻江县| 龙川县| 莱阳市| 江都市| 敖汉旗| 泗水县| 长治县| 长顺县| 淮北市| 沧源| 云浮市| 成安县| 永昌县| 宝丰县| 平顺县| 池州市| 莱阳市|