隨著人工智能(AI)在自動化系統(tǒng)和決策過程中的作用越來越大,AI會如何影響人類自身能動性不再是所謂的理論問題,而是擺到了現(xiàn)實面前。毫無意外,在“相信AI!”的大力推薦下,越來越多的企業(yè)采用AI,人類經(jīng)常聽從自動化的決策建議。然而,有越來越多的證據(jù)表明,AI削弱了使用者對這些決策后果的責任感。
而在目前關(guān)于負責任的AI的討論中,這個問題在很大程度上被忽視了。在現(xiàn)實中,這種做法的本意是管理法律和聲譽風險。而按照德國哲學家漢斯·約納斯(Hans Jonas)的概念,這種責任觀是有限的。他定義了三種責任,但AI實踐似乎只涉及其中兩種。第一種是法律責任,即在一般情況下,個人或企業(yè)依據(jù)民法承擔的修復損害或賠償損失的責任;第二種是道德責任,即通過懲罰(例如刑法)追究個人的責任。
在這里我們最關(guān)心的是第三種責任,也就是約納斯所說的責任感。當我們贊賞某人“做事負責任”時,指的就是這種責任感。它要求一個人對自身行為的目的和可能給自己或他人造成的后果進行批判性思考和預(yù)測性反思。AI和自動化系統(tǒng)可以改變的正是這種責任感。
為了深入了解AI如何影響用戶對自身責任和能動性的認知,我們進行了一些研究。其中兩項研究探討的是在啟動自動駕駛系統(tǒng)后,有哪些因素會影響駕駛員決定是否需要由自己來重新控制車輛。在第一項研究中,我們發(fā)現(xiàn),越是信任自動駕駛系統(tǒng)的人,越不可能保持態(tài)勢感知,從而在出現(xiàn)問題或事故時重新控制車輛。盡管受訪者總體上表示他們在駕駛自動駕駛模式的汽車時愿意承擔責任,但在發(fā)生問題或事故時他們的主觀能動性并沒有對重新控制汽車的意愿有很大影響。根據(jù)這些調(diào)查結(jié)果,我們可能會發(fā)現(xiàn),在有自動駕駛系統(tǒng)的時候,有相當一部分用戶會感到逃避干預(yù)車輛駕駛的責任是被鼓勵的行為。
第二項研究是與魁北克汽車保險公司(Soci t de l’Assurance Automobile du Qu bec,管理該省公共汽車保險項目的政府機構(gòu))合作進行的,我們能夠進行更精細的分析。我們調(diào)查了1,897名駕駛員(大部分是有一定自動駕駛功能的特斯拉和梅賽德斯汽車的駕駛員),分別研究了每種責任對駕駛員重新控制車輛的意愿的影響,結(jié)果發(fā)現(xiàn)只有責任感有顯著影響。與第一項研究一樣,受訪者對自動駕駛系統(tǒng)的信任度越高,他們重新控制方向盤的意愿就越低。尤其值得注意的是,只有積極主動的、個人的責任感才會促使受訪者采取行動,這表明法律責任的威脅不足以阻止AI造成傷害。
第三項研究旨在了解風險預(yù)測算法在美國刑事司法實踐中的使用情況。在32名受訪者中,有相當一部分過度依賴智能工具做出決定。我們根據(jù)受訪者自述是否使用智能工具來決定刑期或刑罰輕rgjw5q455uwWYIFl0p2RUwG0QNDVGuKx5z1nTU7V+GE=重的情況、他們是否會嚴格遵守工具得出的結(jié)果,以及他們是否會理所當然地接受工具提供的結(jié)果,來判定他們是否過度依賴工具。這一研究結(jié)果除了對此類自動化司法判決的公正性、公平性和透明度提出了根本的法律和倫理問題外,還表明人們偏愛算法,放棄了個人責任。
總之,這些初步的研究結(jié)果證實了在類似情況下觀察到的結(jié)果,即在智能系統(tǒng)面前,個人往往會失去能動性。當個人感覺到自己的控制力減弱,或感覺到有其他東西在代為控制時,他們的責任感也同樣會減弱。
有鑒于此,我們必須要問:“人機回圈”(Human in the Loop)*這種越來越多地被認為是負責任地使用AI的最佳做法,是否還能提供充分的保障?甚至我們還要問:該如何鼓勵大家接受人類是有主動責任的而且應(yīng)當履行責任?
正如本文開頭所指出的,管理者往往會通過鼓勵員工信任AI來提高AI的采用率,從而使問題更加嚴重。這樣做時,通常會詆毀人類的認知和決策與AI的建議相比是有局限和有偏見的——盡管所有AI系統(tǒng)都必然會在數(shù)據(jù)選擇、數(shù)據(jù)規(guī)格等方面反映出人類的偏見。這種觀點認為AI的每一個決策都是正確的,都優(yōu)于人類的決策,并鼓勵人類做甩手掌柜而采用AI的決策。
為了對抗這種趨勢,我們建議將員工溝通的重點從信任AI轉(zhuǎn)移到了解AI上,從而在人類知情的情況下有條件地信任AI系統(tǒng)和流程的產(chǎn)出。管理者需要教育用戶了解AI的自動化流程、決策點以及可能出現(xiàn)的錯誤或危害。同樣至關(guān)重要的是,用戶要意識到AI系統(tǒng)可能會陷入困境,并理解自動化決策失誤風險最大的邊緣情況。
管理者還需要給員工賦權(quán),讓他們?yōu)閾斨魅宋?、履行責任感做好準備。豐田公司(Toyota)就是這方面的典范,它授權(quán)工廠里的任何人在發(fā)現(xiàn)問題時都能叫停生產(chǎn)線。這將鼓勵員工合理質(zhì)疑AI系統(tǒng)和流程,從而保持他們的能動性,避免給企業(yè)帶來有害的后果。
歸根結(jié)底,負責任的文化(而不是逃避罪責的文化)能打造更健康、更有道德操守的組織。在AI時代,為人類智慧留下明確的可能性空間,從而培養(yǎng)負責任的文化變得尤為重要。
否則,羅德里克·塞登貝格(Roderick Seidenberg)對那些威力遠不如當前AI的技術(shù)的預(yù)言就可能成為現(xiàn)實:
在自動化日益增強的輔助下,盡管并非出于惡意,系統(tǒng)的運作已經(jīng)成為了智能的渠道,工程師、發(fā)明家和科學家們的智慧聚沙成塔,最終創(chuàng)造出了一個人類個體難以匹敵的知識和程序?qū)殠?。因此,人類似乎已?jīng)超越了自己,從某種意義上說也確實如此。但矛盾的是,就整個系統(tǒng)而言,每個個體都被迫成為對系統(tǒng)結(jié)果不加思考的受益者——社會既定環(huán)境的無意識接受者。因此,可以不無道理地說,這是一種按鍵式文明——一種由智能設(shè)計出來的逐步消滅智慧的系統(tǒng)!
翻譯:李君