【摘 要】 人工智能融入審計領(lǐng)域,在顯著提升效率的同時,凸顯了獨立性維護、算法偏見防范與責任清晰界定等審計倫理領(lǐng)域的新挑戰(zhàn),對審計公信力構(gòu)成潛在風險。文章系統(tǒng)分析人工智能應用下審計倫理風險的具體表現(xiàn)與影響機理,并提出創(chuàng)新性的治理方案。研究核心在于構(gòu)建了“原則—技術(shù)—制度—組織”四位一體的協(xié)同應對范式:在原則層面,錨定人本優(yōu)先、算法正義與責任剛性基準,奠定倫理根基;在技術(shù)層面,通過道德代碼化與區(qū)塊鏈存證實現(xiàn)倫理內(nèi)嵌;在制度層面,創(chuàng)新動態(tài)化標準制定、穿透式監(jiān)管與懲罰性賠償機制,強化制度約束;在組織層面,推動跨領(lǐng)域協(xié)同、公眾參與及審計人員倫理能力躍遷,激發(fā)內(nèi)生動力。這一范式突破了單一維度局限,通過價值引領(lǐng)、技術(shù)賦能、制度約束多維協(xié)同,為建立可信、可控、可持續(xù)的人機共生審計倫理新秩序提供了系統(tǒng)性路徑。
【關(guān)鍵詞】 人工智能; 審計倫理; 穿透式監(jiān)管; 道德代碼化
【中圖分類號】 F239.1" 【文獻標識碼】 A" 【文章編號】 1004-5937(2025)15-0155-07
一、引言
隨著深度學習算法的突破性進展與大數(shù)據(jù)技術(shù)的持續(xù)迭代,人工智能正深刻重塑審計行業(yè)的運行生態(tài)。其應用已從自動化數(shù)據(jù)采集、整理、分析、報告等流程性環(huán)節(jié),逐步拓展至為風險評估、異常識別等關(guān)鍵審計決策提供數(shù)據(jù)驅(qū)動的支持。技術(shù)嵌入有效提升了特定審計任務的效率,降低了人工操作成本,但隨著人工智能在審計核心流程中的參與程度持續(xù)深化,審計倫理也面臨著新的挑戰(zhàn),這些挑戰(zhàn)深刻觸及審計專業(yè)判斷、責任界定與結(jié)論可信度等核心價值。面對技術(shù)應用伴生的潛在風險,學界亟需審視并重構(gòu)適應智能時代的審計倫理框架。
二、人工智能應用下審計倫理的新挑戰(zhàn)
Mautz等[ 1 ]在《審計哲學》中指出,審計是基于專業(yè)判斷的倫理實踐。審計倫理是調(diào)節(jié)審計關(guān)系人(包括審計主體、客體、利益相關(guān)者等)之間互動關(guān)系的原則和規(guī)范。傳統(tǒng)審計倫理體系以獨立性、客觀性和保密性為核心原則,強調(diào)審計人員應獨立于被審計單位及利益相關(guān)者,確保職業(yè)判斷不受外界干擾,審計結(jié)論必須基于充分、適當?shù)淖C據(jù),避免主觀臆斷或利益偏向,審計人員在執(zhí)業(yè)過程中嚴格保護被審計方的敏感信息,防止數(shù)據(jù)泄露引發(fā)的法律與道德風險。傳統(tǒng)審計倫理在長期實踐中形成的價值準則與行為規(guī)范,核心在于平衡審計活動中各方主體的權(quán)責關(guān)系,維護經(jīng)濟信息的可信性與資本市場的公平性。這種倫理體系以審計關(guān)系網(wǎng)絡為依托,通過規(guī)范審計主體在不同維度上的行為選擇,構(gòu)筑起市場經(jīng)濟的信任防線。
隨著人工智能技術(shù)在審計領(lǐng)域的逐步應用,其在提升效能的同時,也伴生了一系列值得深入探討的技術(shù)特性與倫理關(guān)切。人工智能應用的深入,凸顯了技術(shù)邏輯(如效率優(yōu)先、可計算性)與審計倫理核心價值(如獨立性、客觀公正、保密性)之間潛在的沖突可能性。這種沖突可能性具體體現(xiàn)在下列關(guān)鍵領(lǐng)域:人機協(xié)作中主體地位維護與責任歸屬困境;算法缺陷對審計客觀公正性的潛在挑戰(zhàn);數(shù)據(jù)采集與使用邊界拓展對審計保密原則的挑戰(zhàn)。人工智能技術(shù)嵌入下的新審計生態(tài)與倫理挑戰(zhàn)如圖1所示。
(一)人機協(xié)作中主體地位維護與責任歸屬困境
隨著人工智能技術(shù)特別是算法決策在風險評估、異常檢測等關(guān)鍵審計環(huán)節(jié)應用的深化,審計實踐正面臨重構(gòu)人機協(xié)作模式與權(quán)責邊界的新課題。值得關(guān)注的是,在特定情境下(如過度依賴算法或缺乏有效制衡機制)存在審計師職業(yè)判斷空間被壓縮的潛在風險。這種風險體現(xiàn)在:一方面,若審計師過度依賴算法輸出而非基于專業(yè)知識和批判性思維做出的職業(yè)判斷,可能意味著審計師傾向于主動放棄其在審計活動中的主體地位,并在特定條件下(如算法決策主導關(guān)鍵結(jié)論)對審計獨立性構(gòu)成潛在威脅。需要說明的是,審計活動本身的性質(zhì)通常不因此改變,但確需警惕審計師作為最終責任主體的核心地位及其履職所需的專業(yè)審慎空間在效率優(yōu)先導向下被不當壓縮的風險。另一方面,人工智能技術(shù)的深度應用可能出現(xiàn)職業(yè)群體技能結(jié)構(gòu)分化的趨勢。具備算法解讀、模型評估與修正能力的審計師,與主要承擔系統(tǒng)操作任務的審計人員之間,在技能要求與職責范圍上存在顯著差異。這種技術(shù)驅(qū)動的分層現(xiàn)象,若缺乏有效的職業(yè)發(fā)展規(guī)劃和技能提升機制,可能對審計行業(yè)維持專業(yè)權(quán)威和公眾信任的職業(yè)形象帶來復雜影響。
更為復雜的是責任歸屬困境的深化。智能系統(tǒng)開發(fā)者作為審計生態(tài)的關(guān)鍵參與者,通過算法設計、參數(shù)調(diào)校等行為實質(zhì)性地影響審計結(jié)論的形成過程。然而,現(xiàn)行的法定責任框架未能充分涵蓋此類參與者的角色與責任邊界,使其責任承擔狀態(tài)存在不確定性。這一困境在責任倫理層面具有深刻根源。Mittelstadt等[ 2 ]提出的“算法倫理的責任鴻溝”理論揭示了如下核心問題:在人機協(xié)同審計的復雜場景下,傳統(tǒng)權(quán)責邊界趨于模糊化,使得風險事件發(fā)生后的追溯機制面臨失靈風險。具體而言,當審計失敗發(fā)生時,由于技術(shù)系統(tǒng)的復雜性與決策過程的不可完全解釋性,加之相關(guān)制度規(guī)則的適應性滯后,可能在開發(fā)者、審計機構(gòu)、被審計單位之間出現(xiàn)責任追溯困難的現(xiàn)象,形成事實上的責任厘清障礙。傳統(tǒng)責任理論主要建構(gòu)于人類行為者的可歸責性基礎之上,而算法系統(tǒng)表現(xiàn)出一定程度的自主性與普遍存在的不可解釋性,顯著加劇了將審計失敗后果清晰且合理歸因于特定責任主體的難度。
(二)算法缺陷對審計客觀公正性的潛在挑戰(zhàn)
在特定應用場景或激勵機制下(如追求處理速度最大化),算法系統(tǒng)的設計優(yōu)化目標可能高度聚焦于效率維度(如數(shù)據(jù)處理量、響應時間),若缺乏對公平性、客觀性等審計核心價值的充分考量與平衡機制,則存在與審計目標產(chǎn)生沖突或偏離的風險。
算法偏見是影響審計客觀性的關(guān)鍵潛在風險源之一,其產(chǎn)生主要源于數(shù)據(jù)層面的固有缺陷和設計層面的價值嵌入。在數(shù)據(jù)層面,訓練數(shù)據(jù)本身可能存在結(jié)構(gòu)性局限,例如樣本代表性不足,無法全面覆蓋所有相關(guān)情況;數(shù)據(jù)分布不均衡,導致特定行業(yè)或規(guī)模企業(yè)的數(shù)據(jù)缺失;數(shù)據(jù)中內(nèi)含歷史性偏見,如過往審計對某些群體的系統(tǒng)性低估。而在設計層面,開發(fā)者在構(gòu)建模型和設定參數(shù)時,可能會不自覺地將其主觀認知或隱含價值觀融入算法邏輯。這些因素共同作用,可能導致算法輸出在特定情況下偏離真實公允的結(jié)果,進而對審計的客觀性造成負面影響?,F(xiàn)有研究為此提供了佐證。Crawford[ 3 ]在《AI地圖》中指出,基于偏差數(shù)據(jù)訓練的算法存在固化甚至放大社會偏見的風險。映射到審計情境,若智能模型依賴此類有偏差的歷史數(shù)據(jù)進行訓練,則可能對特定類型實體(如中小企業(yè))產(chǎn)生系統(tǒng)性偏差判斷,形成“數(shù)字歧視”現(xiàn)象。曹志煒等[ 4 ]進一步發(fā)現(xiàn),依賴歷史審計數(shù)據(jù)進行訓練的智能系統(tǒng),在特定條件下(如樣本分布不均)可能因訓練數(shù)據(jù)的行業(yè)覆蓋偏差,導致對不同行業(yè)企業(yè)的風險評估或結(jié)論出現(xiàn)非意圖性的顯著差異。
算法偏見的隱蔽性加劇了審計客觀性保障的難度。算法的復雜性與類“黑箱”特性(指決策邏輯難以被審計師完全解讀與驗證),使得傳統(tǒng)的“基于清晰證據(jù)鏈追溯”的客觀性驗證原則面臨嚴峻挑戰(zhàn)。審計人員可能難以像審視人類決策一樣,完整追溯并驗證算法結(jié)論的合理性基礎。Floridi[ 5 ]從信息倫理視角強調(diào),人工智能的“內(nèi)在不透明性”和“潛在不可控性”對審計透明性原則構(gòu)成了實質(zhì)性挑戰(zhàn)。
更值得警惕的是算法偏見的自我強化風險。算法模型的迭代優(yōu)化機制可能傾向于篩選并強化符合其現(xiàn)有模式(包括潛在偏見)的數(shù)據(jù)和證據(jù),存在形成“歧視性決策閉環(huán)”的潛在可能性,即系統(tǒng)輸出進一步固化初始偏見,并在后續(xù)數(shù)據(jù)收集中優(yōu)先選擇支持該偏見的信息,形成惡性循環(huán)。余暉[ 6 ]據(jù)此分析指出,此類技術(shù)層面的透明度缺失與潛在偏差,若未能有效緩解并向公眾說明,可能削弱公眾對審計結(jié)論公正性的理解與信任,進而引發(fā)對審計公信力的疑慮。
(三)數(shù)據(jù)采集與使用邊界拓展對審計保密原則的挑戰(zhàn)
Munoko等[ 7 ]的研究表明,在特定審計場景中,機器學習算法的復雜性和不透明性可能被利用,以規(guī)避傳統(tǒng)的專業(yè)復核流程,某種程度上削弱了人工監(jiān)督的有效性。肖莎娜·祖博夫[ 8 ]在《監(jiān)視資本主義時代》中提出的“數(shù)據(jù)攫取”(Data Appropriation)概念,在審計領(lǐng)域的映射體現(xiàn)為部分審計主體可能借助技術(shù)能力,超出審計目標必要范圍采集數(shù)據(jù)(如非直接相關(guān)的用戶行為信息),突破了基于傳統(tǒng)審計風險模型確立的數(shù)據(jù)最小化原則。
推動數(shù)據(jù)范圍擴展的現(xiàn)實原因在于,基于深度學習的審計模型需要大量多源異構(gòu)數(shù)據(jù)來提供支撐,而持續(xù)迭代的機器學習模型也需要通過持續(xù)新增數(shù)據(jù)來優(yōu)化自身性能,這使得部分審計機構(gòu)在一定程度上突破了傳統(tǒng)數(shù)據(jù)邊界。這種突破可能導致審計過程在無意間對被審計單位的數(shù)據(jù)隱私造成一定的影響,甚至可能威脅到其數(shù)據(jù)主權(quán)。在云計算環(huán)境下,數(shù)據(jù)的分布式存儲與處理方式進一步增加了數(shù)據(jù)流向監(jiān)控和隱私保護的復雜性,從而放大了相關(guān)風險管控的難度。
值得關(guān)注的是,在追求算法模型“最優(yōu)化”的驅(qū)動下,部分審計人員可能對數(shù)據(jù)采集范圍擴大的現(xiàn)象持默許態(tài)度,甚至主動推動邊界拓展,這源于“數(shù)據(jù)規(guī)模等同于審計質(zhì)量”的認知偏差。若未能充分評估這種擴展行為對被審計單位造成的潛在負面影響(如數(shù)據(jù)濫用風險、隱私泄露隱患),則可能導致審計專業(yè)價值的錯位風險,即審計機構(gòu)可能會從“專業(yè)的信息保密受托方”的角色定位滑向“技術(shù)能力優(yōu)勢主導下的數(shù)據(jù)操作者”形象。這種角色認知與實踐的潛在偏移,如果任其發(fā)展,可能嚴重損害審計行業(yè)賴以維系的核心信任基礎——對客戶數(shù)據(jù)安全與隱私的嚴格守護承諾。
人工智能在審計中的應用呈現(xiàn)出多維度的價值調(diào)適需求,比如,在追求技術(shù)效率提升的同時,需要兼顧倫理原則的堅守度與責任機制的明晰性。這種復合性挑戰(zhàn)并非不可調(diào)和的對立關(guān)系,而是需要提出更具包容性的應對策略。下文提出的應對框架,正是嘗試通過系統(tǒng)性的制度創(chuàng)新和技術(shù)規(guī)約,推動技術(shù)應用與倫理價值的協(xié)同演進。
三、人工智能應用下審計倫理風險的應對框架
歐盟委員會在《人工智能責任指令(2022)》中明確指出,確保智能審計系統(tǒng)具備充分的倫理約束,對維護審計獨立性、保障審計公信力具有關(guān)鍵意義[ 9 ]。為有效應對上述倫理挑戰(zhàn),本文提出一個系統(tǒng)性的應對框架,如圖2所示。該框架致力于筑牢審計倫理的核心價值根基,推動倫理原則的技術(shù)性內(nèi)嵌,構(gòu)建協(xié)同聯(lián)動的監(jiān)管體系,以及優(yōu)化組織協(xié)同與能力建設路徑,由此形成“原則—技術(shù)—制度—組織”四位一體的協(xié)同治理范式。這一范式旨在建立前瞻性、系統(tǒng)性的倫理治理機制,從源頭上引導智能技術(shù)在審計領(lǐng)域的負責任應用,確保審計流程恪守“獨立公正、專業(yè)審慎”的價值基準,并最終夯實審計意見公信力的根基。
(一)道德原則:筑牢審計倫理價值根基
在以人工智能應用為特征的現(xiàn)代審計環(huán)境下,道德原則構(gòu)成治理體系的核心價值導向,為技術(shù)治理、制度創(chuàng)新與組織協(xié)同提供根本性的倫理指引。
1.人本優(yōu)先原則
人工智能技術(shù)的深度嵌入拓展了審計倫理的考量維度,其核心在于對“人—機—社會”協(xié)同關(guān)系的系統(tǒng)性調(diào)適。人本優(yōu)先原則是平衡技術(shù)效率與倫理價值的關(guān)鍵支點,其核心在于確立人類作為道德責任主體的技術(shù)治理邏輯。該原則要求堅持“技術(shù)服務于人”的底線,明確限制算法決策范圍,保障審計人員的獨立判斷權(quán),防范技術(shù)工具理性對專業(yè)判斷空間的過度侵蝕。人工智能的應用必須以維護人類主體性為根本前提。劉國城[ 10 ]主張將“技術(shù)謙抑、價值優(yōu)先”納入審計倫理準則框架。歐盟《人工智能法案》[ 11 ]明確規(guī)定,高風險系統(tǒng)必須設置“人類介入”機制,確保審計師對關(guān)鍵決策(如持續(xù)經(jīng)營評估、重大錯報風險評估等)擁有最終否決權(quán)。
我國現(xiàn)行審計職業(yè)道德規(guī)范體系,包括國家審計和社會審計領(lǐng)域,尚未將“人本優(yōu)先原則”作為應對人機協(xié)同核心挑戰(zhàn)的基礎規(guī)范進行系統(tǒng)性闡述。現(xiàn)行規(guī)范主要圍繞審計人員應遵循的基本職業(yè)道德準則展開,更多關(guān)注審計人員在執(zhí)行審計業(yè)務時應具備的品質(zhì)和行為規(guī)范,而未直接針對人機協(xié)同背景下的人本優(yōu)先原則做出明確規(guī)定,缺乏對人工智能應用場景下保障審計人員關(guān)鍵決策權(quán)及操作留痕的明確規(guī)定。為此,建議監(jiān)管主體實施如下針對性修訂:(1)國家審計,應由審計署主導修訂《國家審計準則》,增設專門條款或章節(jié),強制要求在利用智能系統(tǒng)輔助審計時,審計人員必須保留對關(guān)鍵審計判斷的實質(zhì)性決策權(quán),并對相關(guān)的人工復核、判斷及干預決策進行區(qū)塊鏈存證,確保過程可追溯、不可篡改。(2)社會審計,應由中國注冊會計師協(xié)會主導修訂《中國注冊會計師職業(yè)道德守則》及獨立性準則,同步嵌入上述核心要求,即明確注冊會計師在人工智能環(huán)境下對核心判斷的最終責任及關(guān)鍵環(huán)節(jié)人工介入的存證義務。
2.算法正義原則
部分技術(shù)開發(fā)者的倫理認知可能加劇價值沖突。這些技術(shù)開發(fā)者在進行系統(tǒng)建構(gòu)時,通常秉持“技術(shù)可行主義”的理念。他們傾向于將復雜的價值判斷問題轉(zhuǎn)化為可量化、可計算的參數(shù)指標,借助技術(shù)手段對系統(tǒng)進行持續(xù)優(yōu)化。審計工作所蘊含的核心價值,如誠信、公平等,往往是難以用簡單的數(shù)學參數(shù)來衡量的。當算法僅僅基于風險概率來做出決策時,這些至關(guān)重要的審計核心價值便在算法的運行邏輯中失去應有的存在空間。當然,這種價值選擇并非源于算法設計者的主觀惡意,而是系統(tǒng)在優(yōu)化目標函數(shù)時自然產(chǎn)生的倫理盲區(qū)。
算法正義原則的實踐困境源于技術(shù)理性與倫理價值的范式?jīng)_突[ 5 ]。算法正義原則要求系統(tǒng)開發(fā)者搭建“道德代碼化”技術(shù)架構(gòu),將審計專業(yè)價值觀轉(zhuǎn)化為可操作的道德編碼規(guī)范。算法正義的實踐路徑可建構(gòu)“標準—開發(fā)—認證”三階體系,比如,由國家標準化管理委員會牽頭,聯(lián)合網(wǎng)信辦、財政部、審計署、中注協(xié)及技術(shù)組織,研制“智能審計算法倫理指南”(GB/T),明確公平性、可解釋性、可追溯性三大核心要求,并兼容現(xiàn)有AI治理框架;開發(fā)者需據(jù)此將倫理原則轉(zhuǎn)化為技術(shù)約束(如嵌入公平性懲罰算法、自動生成解釋報告);最終由權(quán)威認證機構(gòu)(如中國網(wǎng)安認證中心)開展偏差測試與可追溯驗證,形成“標準引領(lǐng)—責任嵌入—獨立鑒證”的閉環(huán)治理。該機制通過在技術(shù)層制度化嵌入審計核心價值,實現(xiàn)算法效率與倫理目標的動態(tài)平衡,為人機協(xié)同審計提供可持續(xù)保障。
3.責任剛性原則
隨著人工智能在審計決策中的應用逐漸增多,其技術(shù)復雜性引發(fā)了對歸責問題的思考。一方面,部分算法(例如黑盒模型)具有自我迭代功能,其參數(shù)能夠自主更新,這使得其運行邏輯難以完全解釋清楚。另一方面,審計決策過程中涉及多方主體,各方的主體責任邊界在某些情況下還不夠明確。此外,關(guān)鍵決策過程的留痕機制也存在有待完善的地方。Mittelstadt[ 2 ]提出的技術(shù)倫理責任困境理論,為理解此類挑戰(zhàn)提供了分析框架。責任剛性原則的建構(gòu)邏輯,正是通過制度設計克服技術(shù)復雜性與責任可追溯性之間的沖突,其核心在于設計清晰、可執(zhí)行且抗規(guī)避的責任分配體系,避免技術(shù)演進導致責任認定機制失效。
為應對責任追溯難題,建議構(gòu)建關(guān)鍵操作存證機制,如基于區(qū)塊鏈技術(shù)對算法參數(shù)設置、數(shù)據(jù)源文件哈希、模型重大邏輯變更、人工復核簽名四類核心節(jié)點進行存證。該機制通過生成可驗證操作指紋鏈實現(xiàn)三方責任穿透:開發(fā)者責任錨定于算法版本與參數(shù)變更日志,審計師責任綁定人工復核簽名與否決記錄,被審計方責任對應原始數(shù)據(jù)哈希值及提供時間戳。
(二)技術(shù)治理:打造風險防控技術(shù)防線
技術(shù)治理是應對技術(shù)風險的重要手段,需結(jié)合道德原則與制度要求,搭建智能化防控體系。
1.道德代碼化
道德代碼化的核心就是把抽象的審計原則變成計算機看得懂、能執(zhí)行的代碼邏輯,就像是給審計系統(tǒng)植入“倫理基因”,即把審計中需要遵循的倫理道德規(guī)范變成計算機程序的一部分,讓機器也能按照這些原則行事。Munoko[ 7 ]建議開發(fā)“可解釋審計算法”,曹志煒等[ 4 ]深化了“道德代碼化”的技術(shù)實現(xiàn)路徑。
道德代碼化可通過“標準量化—技術(shù)轉(zhuǎn)化—動態(tài)監(jiān)測”路徑推進:首先,由國家標準委聯(lián)合行業(yè)協(xié)會制定“審計算法倫理指標”,明確可計算參數(shù),為倫理要求提供量化準則;其次,系統(tǒng)開發(fā)者將這些準則轉(zhuǎn)化為算法約束,例如在風險評估模型中嵌入公平性約束模塊,將倫理規(guī)范融入技術(shù)實現(xiàn);最后,監(jiān)管方通過API接口實時提取決策特征,生成可視化倫理評估報告,替代傳統(tǒng)人工審查,實現(xiàn)持續(xù)驗證。
2.區(qū)塊鏈存證
當前審計數(shù)據(jù)治理面臨數(shù)據(jù)易篡改、證據(jù)鏈不透明和責任難追溯的三重困境。區(qū)塊鏈技術(shù)憑借其不可篡改(哈希加密)、可追溯(時間戳鏈)和分布式共識(節(jié)點驗證)的特性,成為破局的關(guān)鍵。運用區(qū)塊鏈技術(shù),可以固化審計全流程數(shù)據(jù),利用時間戳和哈希加密實現(xiàn)數(shù)據(jù)的不可篡改存證,構(gòu)建審計決策的數(shù)字DNA追溯體系,確保從數(shù)據(jù)輸入到?jīng)Q策輸出的全鏈路固化。
當前我國區(qū)塊鏈審計存證實踐已獲初步進展(如最高法確立區(qū)塊鏈證據(jù)優(yōu)先采信規(guī)則),但仍面臨標準分散、實施成本高、系統(tǒng)性能瓶頸及法律銜接不足等挑戰(zhàn)。未來可以搭建分層治理體系,推進技術(shù)賦能與制度保障的協(xié)同升級。技術(shù)層面,由工信部組織制定“區(qū)塊鏈審計存證國家標準”,統(tǒng)一技術(shù)架構(gòu)與數(shù)據(jù)接口;制度層面,通過修訂《注冊會計師法》及司法解釋,明確區(qū)塊鏈證據(jù)法律效力層級并建立跨境互認機制;推廣層面,依托政務云平臺提供公共節(jié)點服務,降低中小企業(yè)應用門檻。
(三)制度創(chuàng)新:構(gòu)建“技術(shù)—道德”雙重監(jiān)管體系
人工智能在審計領(lǐng)域的深度應用對傳統(tǒng)監(jiān)管框架提出了新的挑戰(zhàn):第一,現(xiàn)行《網(wǎng)絡安全法》《數(shù)據(jù)安全法》雖確立了算法倫理的基本原則,但規(guī)則細化不足,缺乏具體場景的執(zhí)行細則;第二,規(guī)范協(xié)同待加強,《中國注冊會計師職業(yè)道德守則》對職業(yè)判斷的彈性要求與工信部技術(shù)標準對算法一致性的追求之間,需要進一步協(xié)調(diào);第三,責任追溯機制亟待完善,現(xiàn)有懲戒措施的威懾效能尚需提升。為應對這些挑戰(zhàn),需通過制度創(chuàng)新構(gòu)建“技術(shù)監(jiān)管與倫理規(guī)約協(xié)同治理”機制,比如制定動態(tài)化標準、實施穿透式監(jiān)管、建立懲罰性賠償機制等。
1.制定動態(tài)化標準
技術(shù)迭代快于法規(guī)更新,倫理準則需實時轉(zhuǎn)化為可執(zhí)行技術(shù)參數(shù),防范AI審計價值失守。動態(tài)化標準制定是一種制度轉(zhuǎn)化機制,通過建立彈性規(guī)則體系,將抽象的審計道德準則(如獨立性、審慎性)轉(zhuǎn)化為可量化、可計算的技術(shù)參數(shù),并隨技術(shù)迭代持續(xù)校準,實現(xiàn)倫理要求與技術(shù)規(guī)則的實時互嵌。其核心在于構(gòu)建“道德準則→量化指標→算法約束”的可持續(xù)轉(zhuǎn)化通路,使技術(shù)發(fā)展始終運行于倫理軌道之上。動態(tài)化標準制定可以通過三層銜接機制,讓技術(shù)規(guī)則和道德準則緊密結(jié)合。首先,財政部和中注協(xié)把道德準則的具體條款(比如審計獨立性)變成具體的可量化參數(shù),工信部根據(jù)這些參數(shù)制定具體的技術(shù)規(guī)范;其次,網(wǎng)信辦通過監(jiān)管沙盒實時監(jiān)測技術(shù)應用的風險,動態(tài)修訂;最后,司法部門把最新的標準嵌入到執(zhí)行環(huán)節(jié)作為技術(shù)過錯裁判的依據(jù)。
2.實施穿透式監(jiān)管
在人工智能審計引發(fā)的監(jiān)管滯后困境中,穿透式監(jiān)管的構(gòu)建將突破傳統(tǒng)監(jiān)管的時空壁壘,給“技術(shù)黑箱”裝上“X光機”,做到實時監(jiān)測和動態(tài)預警,并設置自動熔斷。實施穿透式監(jiān)管可依托標準化監(jiān)管接口、有限度信息獲取、智能化熔斷響應等機制。比如:工信部負責制定監(jiān)管API標準,強制高風險審計AI系統(tǒng)實時傳輸決策特征權(quán)重(如SHAP值)、參數(shù)修改日志及人工復核記錄;網(wǎng)信辦依托監(jiān)管平臺進行有限穿透分析,生成《算法透明度報告》并監(jiān)控風險指標;審計監(jiān)管部門執(zhí)行熔斷機制,即觸發(fā)閾值后立即暫停服務。
3.建立懲罰性賠償機制
現(xiàn)行賠償機制在實踐中面臨懲戒力度不足(如違法收益高于罰款金額)、責任認定困難(如算法決策多主體參與導致責任追溯復雜)及賠償性質(zhì)單一(純補償性設計可能產(chǎn)生邊際激勵效應)等結(jié)構(gòu)性問題,這些因素共同削弱了其理論威懾效力。為此,可建立“法定梯度賠償—協(xié)同責任認定—高效執(zhí)行”體系。首先,建立梯度化責任體系,以《民法典》第1184條界定的實際損失為賠償基數(shù),對故意違規(guī)行為(如算法參數(shù)篡改)參照《證券法》第221條處以1~5倍罰款(視情節(jié)嚴重性裁量),對重大過失行為處以1~3倍罰款;其次,設立三方協(xié)同認定機制,由工信部通過算法合規(guī)鑒定報告量化技術(shù)責任,中注協(xié)依據(jù)人工復核記錄評估職業(yè)責任,證監(jiān)會核定市場損失,確定賠償責任,最終形成責任比例認定書;最后,科技賦能執(zhí)行路徑,依托央行支付系統(tǒng)與行政執(zhí)法平臺直連,在處罰決定生效后72小時內(nèi)自動完成資金劃轉(zhuǎn)至中國證券投資者保護基金賬戶。該制度的核心在于“過罰相當?shù)膽徒涮荻扰c科技賦能的精準定責”,通過將違規(guī)成本提升至技術(shù)套利收益的3倍以上,形成實質(zhì)有效的威懾機制。
(四)組織協(xié)同:凝聚合力,協(xié)同治理
在倫理治理的復雜生態(tài)中,組織協(xié)同不僅是資源與職能的整合,更是道德共同體的重建過程。
1.組建跨領(lǐng)域倫理委員會
在AI審計領(lǐng)域,僅從單一學科視角來做出倫理決策是遠遠不夠的。這種單打獨斗的方式很容易陷入專業(yè)盲區(qū)。因此,面對AI審計這種復雜且風險潛藏的倫理挑戰(zhàn),我們需要一個全面的決策機制。為此,可以組建一個跨領(lǐng)域倫理委員會——一個多學科的“超級智囊團”,成員包括技術(shù)工程師、執(zhí)業(yè)審計師、倫理哲學家及社會代表。技術(shù)工程師負責確保算法的技術(shù)安全,執(zhí)業(yè)審計師確保審計過程符合職業(yè)準則,倫理哲學家負責評估算法可能帶來的價值風險,而社會代表則反饋公眾的接受度,確保技術(shù)的發(fā)展不會脫離大眾的實際需求。該委員會實行“四眼原則”聯(lián)簽機制,這意味著任何一項重要的決策都需要這四個不同領(lǐng)域的專家共同簽署同意。這種多維度的決策機制,能夠確保算法倫理審查的全面性和專業(yè)性,避免因單一視角而產(chǎn)生的偏差。這種機制的核心在于形成一個“技術(shù)向善”的持續(xù)校準機制,增強技術(shù)發(fā)展的社會認同度。
2.設立公眾參與機制
在技術(shù)治理過程中,公眾話語權(quán)的缺失可能導致“算法暴政”的風險,使得倫理決策缺乏必要的社會價值錨點。為解決這一問題,應搭建一個涵蓋廣泛社會群體的參與網(wǎng)絡,增強公眾在技術(shù)治理中的影響力。通過多元主體的參與,對算法的潛在影響進行多維度的風險評估,確保技術(shù)決策能夠充分反映社會的多元價值訴求。通過上述措施,可以有效打破“技術(shù)黑箱”的認知壁壘,使審計算法成為社會共識的數(shù)字化表達形式。這不僅有助于提升公眾對技術(shù)的信任度,而且能確保技術(shù)發(fā)展與社會價值觀的契合度。
3.審計倫理能力躍遷
技術(shù)監(jiān)管能夠有效約束算法的越界行為,但算法偏見、數(shù)據(jù)霸權(quán)等技術(shù)風險需通過審計師的倫理直覺實時識別,人工智能的倫理決策仍需依賴審計師的價值判斷能力。當監(jiān)管規(guī)則滯后技術(shù)迭代,審計師是唯一能靈活響應的“動態(tài)熔斷器”,在“開發(fā)者—算法—審計師”責任鏈中,審計師是法定責任最終承擔者。因此,在審計倫理治理中,審計師倫理能力提升應與技術(shù)監(jiān)管形成雙輪驅(qū)動,共同推動人工智能治理的完善。
隨著人工智能技術(shù)在審計領(lǐng)域的廣泛應用,其對審計職業(yè)發(fā)展的影響日益顯著[ 12 ],AI技術(shù)的快速迭代導致審計人員面臨“倫理能力赤字”,傳統(tǒng)倫理能力提升機制難以適應人機協(xié)同的新要求。需強化技術(shù)倫理培訓,將算法偏見識別、道德沖突推演等能力納入審計職業(yè)技能認證體系;建立倫理激勵機制和“道德領(lǐng)導力”積分制,激勵審計人員主動參與倫理治理,將倫理能力與職業(yè)發(fā)展深度綁定;通過系統(tǒng)化培訓和實踐,讓審計人員既能熟練運用先進技術(shù)工具,又能在面對倫理困境時保持堅定的判斷力。
四、結(jié)束語
人工智能引發(fā)的審計倫理問題,本質(zhì)上是技術(shù)理性與人文價值的深層沖突在審計領(lǐng)域的具象化呈現(xiàn)。本文構(gòu)建的“原則—技術(shù)—制度—組織”四位一體治理范式,突破了單一維度的治理局限,通過四大模塊的協(xié)同聯(lián)動,形成價值引領(lǐng)、技術(shù)賦能、制度約束、組織協(xié)同的立體化治理網(wǎng)絡。這種治理模式不僅能夠有效應對當前的算法偏見、責任模糊等顯性倫理風險,更著眼于構(gòu)建人機協(xié)同審計倫理新秩序,為人工智能技術(shù)在審計領(lǐng)域的深度應用提供可持續(xù)的倫理框架。展望未來,審計倫理治理可進一步聚焦于兩個方向:一是結(jié)合大模型技術(shù)發(fā)展,探索“生成式AI審計”場景下的倫理風險演化規(guī)律;二是引入行為經(jīng)濟學實驗方法,量化分析治理措施對審計人員倫理決策的影響機制。
【參考文獻】
[1] MAUTZ R K,SHARAF H A.The philosophy of auditing[M].Sarasota,F(xiàn)L:American Accounting Association,1961.
[2] MITTELSTADT B D,ALLO P,TADDEO M,et al.The ethics of algorithms:mapping the debate[J].Big Data amp; Society,2016,3(2):1-21.
[3] CRAWFORD K.Atlas of AI:power,politics,and the planetary costs of artificial intelligence [M].New Haven,CT:Yale University Press,2021.
[4] 曹志煒,趙朗,張琦琛.人工智能技術(shù)本地化探索及在國家審計中的應用[J].審計研究,2024(5):26-37.
[5] FLORIDI L.The ethics of artificial intelligence:principles,challenges,and opportunities [M].Oxford:Oxford University Press,2022.
[6] 余暉.數(shù)字化語境下審計倫理的挑戰(zhàn)及應對策略[J].重慶三峽學院學報,2024(5):13-21.
[7] MUNOKO I,BROWN-LIBURD H L,VASARHELYI E M.The ethical implications of using artificial intelligence in auditing[J].Journal of Business Ethics,2020,167(2):209-234.
[8] 肖莎娜·祖博夫.監(jiān)視資本主義時代:在權(quán)力新邊界為人類未來而戰(zhàn)[M].溫澤元,譯.北京:中信出版社,2020.
[9] 歐盟委員會.關(guān)于調(diào)整非合同民事責任規(guī)則以適應人工智能的指令提案(人工智能責任指令)[EB/OL].(2022-09-28)[2023-10-20].https://eur-
lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52022PC0496.
[10] 劉國城.人工智能時代審計倫理的危機表征與治理路徑[J].蘭州學刊,2024(1):41-57.
[11] EUROPEAN PARLIAMENT,COUNCIL of the EUROPEAN UNION.Regulation(EU) 2024 "of the European Parliament and of the Council on laying down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act)[J].Official Journal of the European Union,2024,L series.
[12] 朱翼,化貴 ,婁瑾雯.新質(zhì)生產(chǎn)力背景下人工智能對審計職業(yè)發(fā)展的影響:基于審計師感知的實證研究[J].會計之友,2025(6):147-153.