關(guān)鍵詞 人工智能 風(fēng)險 創(chuàng)新友好監(jiān)管 可信人工智能 監(jiān)管實施體制
人工智能(AI)是第四次產(chǎn)業(yè)革命的關(guān)鍵驅(qū)動力,它是一種破壞性技術(shù)進(jìn)步,正在對經(jīng)濟(jì)社會產(chǎn)生重大影響。人工智能應(yīng)用不僅極大地促進(jìn)了創(chuàng)新和經(jīng)濟(jì)高質(zhì)量增長,而且促進(jìn)了社會安全與社會和諧。但人工智能應(yīng)用也帶來算法偏見、隱私侵犯、信息操縱等風(fēng)險,引發(fā)了人們的廣泛擔(dān)憂,不信任成為影響人工智能創(chuàng)新發(fā)展的重要障礙。因此,實行有效的人工智能監(jiān)管成為應(yīng)對風(fēng)險的重要政策應(yīng)對,其目的是構(gòu)建可信任的人工智能發(fā)展環(huán)境。目前,歐盟、美國、中國等經(jīng)濟(jì)體都在進(jìn)行人工智能監(jiān)管政策探索,但如何構(gòu)建監(jiān)管與創(chuàng)新平衡的監(jiān)管體制這一難題仍未得到解決。一方面人工智能技術(shù)發(fā)展帶來的諸多風(fēng)險影響深刻,需要有效應(yīng)對;另一方面人工智能技術(shù)是新質(zhì)生產(chǎn)力發(fā)展的引擎,是國際科技競爭的關(guān)鍵領(lǐng)域,需要維持強創(chuàng)新動力。由此,人工智能監(jiān)管既要有效管控各種潛在的重大風(fēng)險,也要釋放創(chuàng)新潛能,更好地促進(jìn)創(chuàng)新發(fā)展,促進(jìn)人工智能以有利于人類社會的方式創(chuàng)新發(fā)展。因此,如何構(gòu)建創(chuàng)新友好的監(jiān)管體制成為迫切需要解決的重大問題。
一、人工智能開發(fā)應(yīng)用的風(fēng)險與最優(yōu)監(jiān)管路徑
1.人工智能開發(fā)應(yīng)用引發(fā)的主要風(fēng)險
近年來,在大數(shù)據(jù)和算力技術(shù)快速發(fā)展的推動下,人工智能技術(shù)獲得了快速發(fā)展和廣泛應(yīng)用,但同時也引發(fā)了各界對其潛在風(fēng)險的擔(dān)憂??傮w來說,人工智能系統(tǒng)應(yīng)用可能帶來如下主要風(fēng)險:一是個人隱私侵犯風(fēng)險。人工智能的發(fā)展使消費者使用的各種設(shè)備和在線活動面臨更高的隱私數(shù)據(jù)泄露風(fēng)險。二是個人身體或心理損害風(fēng)險。人工智能應(yīng)用者可能會利用其來強化對人的行為引導(dǎo)和心理暗示,如在線服務(wù)中的消費上癮、算法勞動者監(jiān)督等,這會對人的身體或心理健康產(chǎn)生損害。三是競爭與創(chuàng)新?lián)p害風(fēng)險。人工智能為企業(yè)實施算法合謀、算法個人化定價、算法自我優(yōu)待等壟斷行為提供了新的手段,從而會扭曲市場競爭。同時,生成式人工智能的發(fā)展會帶來知識產(chǎn)權(quán)侵權(quán)問題,從而產(chǎn)生扼殺原始創(chuàng)新的風(fēng)險。四是社會公平風(fēng)險。人工智能在就業(yè)、招生、司法等領(lǐng)域的應(yīng)用可能會對特定群體產(chǎn)生嚴(yán)重的不公平風(fēng)險。五是社會倫理價值風(fēng)險。人工智能系統(tǒng)可能會不斷向個人推送其偏好的內(nèi)容而強化社會認(rèn)知偏見,也有可能會大量推送非法有害內(nèi)容,而生成式人工智能可能會生成和傳播大量虛假信息或新聞,從而對社會輿論和倫理價值產(chǎn)生損害。六是公共安全風(fēng)險。人工智能可以提升網(wǎng)絡(luò)攻擊頻率和強度,可能會加劇網(wǎng)絡(luò)安全風(fēng)險,同時人工智能的軍事化應(yīng)用會威脅國防安全。
2.現(xiàn)有人工智能風(fēng)險治理路徑的缺陷
面對人工智能應(yīng)用帶來的各種風(fēng)險,政治學(xué)、經(jīng)濟(jì)學(xué)、社會學(xué)、法學(xué)等不同研究領(lǐng)域的學(xué)者對人工智能或算法監(jiān)管問題提出了各種各樣的政策思路,總體可以概括為四種路徑。一是技術(shù)治理路徑。Guihot等、Taeihagh都認(rèn)為算法“黑箱”是導(dǎo)致人工智能應(yīng)用產(chǎn)生各種風(fēng)險的主要原因。① Cogwill和Tucker認(rèn)為算法偏差是產(chǎn)生人工智能應(yīng)用偏差的根本原因。② 針對算法黑箱問題,Butterworth和Tutt提出算法可解釋性監(jiān)管政策,認(rèn)為通過增強算法可解釋性可以有效緩解算法應(yīng)用風(fēng)險。③ 二是事前監(jiān)管路徑。一些學(xué)者提出應(yīng)重點強化事前行政監(jiān)管,主要措施是對人工智能系統(tǒng)應(yīng)用實行影響評估和算法審計。④ Pasquale指出人工智能影響評估制度有助于將“黑箱社會”轉(zhuǎn)變?yōu)椤帮@見社會”,能從根本上建立算法信任。⑤ 三是行為治理路徑。Saurwein等認(rèn)為人工智能應(yīng)用風(fēng)險來自數(shù)據(jù)本身存在的偏差和數(shù)據(jù)中包含的人的行為偏差。⑥ Chander進(jìn)一步指出,人工智能應(yīng)用風(fēng)險的根本原因不在于算法黑箱而在于應(yīng)用者的行為偏差。⑦ 因此,監(jiān)管政策重在改變?nèi)斯ぶ悄芟到y(tǒng)應(yīng)用者以及社會成員的行為規(guī)則。Guihot等提出自我監(jiān)管為主的思路,倡議采用自愿的行為規(guī)則來指導(dǎo)人工智能設(shè)計與應(yīng)用,政府則需要事前明確政策預(yù)期。⑧ 四是綜合治理路徑。Leenes和Lucivero指出應(yīng)該采取社會、法律、倫理等多種手段來治理人工智能。① Gasser和Almeida提出應(yīng)采用技術(shù)—社會—倫理的三層治理框架。② Almeida等更是提出應(yīng)建立包括立法、行政、司法、社會、國際合作等的多元人工智能治理框架。③
總體來說,上述理論研究基本都是針對人工智能風(fēng)險來尋求有效的治理措施,是以消除風(fēng)險為單一目標(biāo)的監(jiān)管路徑,并沒有在防控風(fēng)險和鼓勵創(chuàng)新的雙重目標(biāo)下尋求最佳的平衡性監(jiān)管。單一風(fēng)險目標(biāo)的監(jiān)管路徑很可能在實現(xiàn)風(fēng)險防控目標(biāo)的同時造成對創(chuàng)新發(fā)展的阻礙,并削弱長期的安全保障。因為可信的安全必須建立在高質(zhì)量創(chuàng)新發(fā)展的基礎(chǔ)之上,缺乏創(chuàng)新發(fā)展的支撐將難以保障長期的安全。因此,實現(xiàn)安全與創(chuàng)新是人工智能監(jiān)管無法回避的二維目標(biāo)。
3.創(chuàng)新友好人工智能監(jiān)管的合意性
人工智能技術(shù)創(chuàng)新是新質(zhì)生產(chǎn)力的核心驅(qū)動力。新質(zhì)生產(chǎn)力是創(chuàng)新起主導(dǎo)作用的先進(jìn)生產(chǎn)力質(zhì)態(tài)。人工智能是一種對經(jīng)濟(jì)社會具有革命性影響的通用目的技術(shù),人工智能技術(shù)創(chuàng)新不僅會產(chǎn)生一大批高技術(shù)成果,還會帶動一大批后續(xù)的應(yīng)用性創(chuàng)新成果出現(xiàn),不僅會催生一大批新產(chǎn)業(yè)的涌現(xiàn),而且還具有廣泛的行業(yè)融合性,會全面賦能傳統(tǒng)產(chǎn)業(yè)和實體經(jīng)濟(jì)實現(xiàn)高質(zhì)量發(fā)展,從而帶動全要素生產(chǎn)率的大幅提升。人工智能技術(shù)推動的新一輪產(chǎn)業(yè)革命也被稱為智能化革命或第四次產(chǎn)業(yè)革命。可以說,誰掌握了人工智能創(chuàng)新發(fā)展優(yōu)勢地位,誰就主導(dǎo)了全球第四次產(chǎn)業(yè)革命。在此背景下,人工智能監(jiān)管應(yīng)順應(yīng)新一輪產(chǎn)業(yè)革命趨勢,助力發(fā)展新質(zhì)生產(chǎn)力。
在全球高科技競爭的背景下,人工智能是中國實現(xiàn)高水平科技自立自強的關(guān)鍵核心技術(shù)。目前,人工智能成為全球大國戰(zhàn)略競爭的新賽道,它是中美兩國高科技競爭的焦點,人工智能創(chuàng)新發(fā)展很大程度上決定了中美高科技競爭的走向。為了遏制中國人工智能創(chuàng)新發(fā)展,近年來美國先后出臺了涉及高端芯片、數(shù)據(jù)流動、人才交流、風(fēng)險資本等一攬子對華封鎖政策,并且美國政府還出臺了一系列確保美國人工智能全球領(lǐng)先的戰(zhàn)略規(guī)劃與支持政策;同時歐盟、英國等也都為爭奪人工智能全球領(lǐng)導(dǎo)地位而實施了一系列的支持政策。在人工智能全球戰(zhàn)略競爭的背景下,人工智能監(jiān)管的科學(xué)性關(guān)乎中國人工智能創(chuàng)新發(fā)展和國際競爭重大戰(zhàn)略目標(biāo)的實現(xiàn),要求人工智能監(jiān)管應(yīng)以促進(jìn)人工智能高質(zhì)量創(chuàng)新為根本原則,從而更好地服務(wù)于國家發(fā)展戰(zhàn)略。
人工智能監(jiān)管實際上是對處于快速發(fā)展中的創(chuàng)新進(jìn)行監(jiān)管,這內(nèi)在地要求建立與創(chuàng)新特性相匹配的監(jiān)管體制。人工智能技術(shù)創(chuàng)新的最根本特性是具有較高的不確定性,這也決定了人工智能風(fēng)險的不確定性,并使監(jiān)管政策面對較大的不確定性。目前人工智能技術(shù)仍然處在快速創(chuàng)新和持續(xù)的迭代升級階段,其對經(jīng)濟(jì)社會的影響仍然具有非常大的不確定性。此時,政府監(jiān)管面臨非常嚴(yán)重的信息不完全,監(jiān)管機構(gòu)也缺乏準(zhǔn)確預(yù)測風(fēng)險和提前設(shè)計最優(yōu)監(jiān)管政策的能力,武斷的監(jiān)管會嚴(yán)重阻礙人工智能的創(chuàng)新發(fā)展。面對高度不確定性和復(fù)雜的人工智能技術(shù),人工智能監(jiān)管應(yīng)避免成為創(chuàng)新阻礙,從而喪失重大的發(fā)展機遇和創(chuàng)新收益。因此,人工智能監(jiān)管必須基于技術(shù)創(chuàng)新的不確定性和動態(tài)發(fā)展性來進(jìn)行設(shè)計,一方面要實行謙抑監(jiān)管,堅持包容審慎的基本原則;另一方面要實行敏捷監(jiān)管,保持監(jiān)管制度供給的及時跟進(jìn)和良好制度回應(yīng),針對重大風(fēng)險及時提供有效的監(jiān)管制度供給,確保人工智能創(chuàng)新發(fā)展并促進(jìn)人的福利全面提升。
創(chuàng)新友好監(jiān)管就是以促進(jìn)創(chuàng)新發(fā)展為根本原則,以最小化創(chuàng)新?lián)p害為監(jiān)管政策依據(jù),通過不斷完善和優(yōu)化監(jiān)管體制與治理體系,營造有利于人工智能創(chuàng)新發(fā)展的生態(tài),從而實現(xiàn)監(jiān)管與創(chuàng)新的動態(tài)匹配。創(chuàng)新友好監(jiān)管能夠很好地實現(xiàn)監(jiān)管與創(chuàng)新發(fā)展的平衡,促進(jìn)人工智能更好地創(chuàng)新發(fā)展并助力實現(xiàn)國家發(fā)展戰(zhàn)略,并最終全面提升人的福祉。因此,創(chuàng)新友好監(jiān)管體制應(yīng)成為人工智能監(jiān)管體制的基本模式選擇,監(jiān)管應(yīng)促進(jìn)安全可信基礎(chǔ)上的人工智能創(chuàng)新,通過監(jiān)管來營造有利于創(chuàng)新發(fā)展的生態(tài)以最大化釋放人工智能促進(jìn)新質(zhì)生產(chǎn)力發(fā)展的巨大潛能,并促進(jìn)中國人工智能國際競爭力的提升,確保中國實現(xiàn)成為全球人工智能重要領(lǐng)導(dǎo)者的戰(zhàn)略目標(biāo)。
二、創(chuàng)新友好人工智能監(jiān)管的基本目標(biāo):可信人工智能
人工智能監(jiān)管主要是針對人工智能技術(shù)應(yīng)用所帶來的各種損害風(fēng)險而采取有效的防控政策來最小化風(fēng)險,以最大化公共利益,實現(xiàn)技術(shù)創(chuàng)新發(fā)展與人的福利提升的協(xié)同。在技術(shù)快速變革的背景下,信任是人工智能創(chuàng)新發(fā)展的基石??尚湃斯ぶ悄鼙O(jiān)管能很好地維護(hù)利益相關(guān)者的權(quán)益,并為人工智能的創(chuàng)新發(fā)展構(gòu)建信任的外部環(huán)境,從而為人工智能創(chuàng)新發(fā)展和商業(yè)應(yīng)用提供穩(wěn)定可預(yù)期的外部環(huán)境和豐富的應(yīng)用場景。為此,可信人工智能監(jiān)管應(yīng)包括四個核心要素:倫理的人工智能、可靠的人工智能、創(chuàng)新的人工智能、法治的人工智能。
1.倫理的人工智能
首先,人工智能系統(tǒng)應(yīng)用要保護(hù)人的基本權(quán)益。人工智能系統(tǒng)應(yīng)用要尊重和保護(hù)人的基本權(quán)利,不能限制和損害人的基本權(quán)利。人工智能系統(tǒng)開發(fā)與應(yīng)用應(yīng)維護(hù)人的主體地位,不能損害人的基本權(quán)益,應(yīng)更好地促進(jìn)人的解放,為人的發(fā)展和福利提高創(chuàng)造更大的空間。人工智能技術(shù)不應(yīng)成為應(yīng)用者用來剝削消費者、壓榨勞動者、侵犯個人隱私和損害個人尊嚴(yán)的工具。其次,人工智能系統(tǒng)應(yīng)尊重人的自決權(quán)。人始終是技術(shù)的主人而非技術(shù)的奴隸,人工智能系統(tǒng)必須始終是可控的,要確保人對人工智能系統(tǒng)應(yīng)用的決策能力和監(jiān)督能力。人工智能開發(fā)應(yīng)用應(yīng)尊重人的自決權(quán),不能操縱信息和發(fā)布虛假信息、不能誤導(dǎo)人做出錯誤的決策。再次,人工智能系統(tǒng)應(yīng)不損害公平正義。人工智能系統(tǒng)應(yīng)用應(yīng)確保公平和平等地分配成本與收益,確保弱勢群體免于人工智能應(yīng)用帶來的不公平對待和歧視性待遇。人工智能應(yīng)更好地促進(jìn)社會公平正義,使每個人平等地接受教育、獲得就業(yè)機會、享受公共服務(wù)。
2.可靠的人工智能
首先,人工智能系統(tǒng)應(yīng)用應(yīng)具有堅實的技術(shù)保障。堅實的技術(shù)保障要求人工智能系統(tǒng)在開發(fā)時采用適當(dāng)預(yù)防風(fēng)險的方法,以能夠可靠地預(yù)期行為的方式,將各種損害風(fēng)險降至最低,并重點防止不可接受損害風(fēng)險的出現(xiàn)。其次,人工智能系統(tǒng)應(yīng)用應(yīng)具有科學(xué)的風(fēng)險管控措施。人工智能系統(tǒng)應(yīng)用安全不僅體現(xiàn)在技術(shù)保障上,而且也體現(xiàn)于系統(tǒng)應(yīng)用者的組織治理制度和政府監(jiān)管制度保障。為防范人工智能應(yīng)用風(fēng)險,需要建立全生命周期的風(fēng)險防控機制,通過系統(tǒng)設(shè)計階段的風(fēng)險防范設(shè)計,安裝使用階段的風(fēng)險評估、風(fēng)險監(jiān)測、風(fēng)險處置等來確保有效地防控風(fēng)險,消除高損害風(fēng)險的發(fā)生,減少一般損害風(fēng)險的發(fā)生。再次,人工智能系統(tǒng)應(yīng)用應(yīng)具有可問責(zé)的治理制度。人工智能系統(tǒng)應(yīng)用者是確保人工智能應(yīng)用安全可信的第一責(zé)任人。為此,應(yīng)明確人工智能應(yīng)用者需要履行的基本安全義務(wù),建立包括人工智能審計、人工智能應(yīng)用評估報告、利益相關(guān)者參與及其法律行政責(zé)任等在內(nèi)的問責(zé)制。
3.創(chuàng)新的人工智能
首先,政府監(jiān)管應(yīng)更好地促進(jìn)人工智能技術(shù)創(chuàng)新。在人工智能驅(qū)動的新一輪產(chǎn)業(yè)革命背景下,創(chuàng)新是實現(xiàn)社會公共利益最大化的最主要因素。人工智能監(jiān)管不能犧牲和阻礙創(chuàng)新發(fā)展,而應(yīng)更好地促進(jìn)人工智能負(fù)責(zé)任地持續(xù)創(chuàng)新發(fā)展。其次,政府監(jiān)管應(yīng)有助于人工智能國家戰(zhàn)略的實現(xiàn)。人工智能是高技術(shù)創(chuàng)新行業(yè),是全球高科技競爭的重點,是中國搶占國際高科技領(lǐng)先地位的重要技術(shù)關(guān)鍵點。人工智能監(jiān)管應(yīng)有助于中國人工智能的創(chuàng)新發(fā)展,有助于中國人工智能技術(shù)、產(chǎn)業(yè)和企業(yè)群體持續(xù)增強國際競爭力,助力中國成為全球人工智能領(lǐng)導(dǎo)者。再次,政府監(jiān)管應(yīng)采用鼓勵創(chuàng)新的政策工具。政府監(jiān)管應(yīng)該為人工智能技術(shù)創(chuàng)新、商業(yè)化應(yīng)用和產(chǎn)業(yè)化發(fā)展提供有利的政策環(huán)境,保持比例相稱的監(jiān)管強度,避免超前監(jiān)管、過度監(jiān)管和一刀切監(jiān)管,更多地采取促進(jìn)創(chuàng)新的試驗性監(jiān)管以及具有彈性的軟監(jiān)管政策。
4.法治的人工智能
首先,人工智能應(yīng)用應(yīng)具有相對完備的法律規(guī)則體系。人工智能創(chuàng)新發(fā)展不能野蠻生長,應(yīng)在法治的框架內(nèi)進(jìn)行。為此,需要根據(jù)技術(shù)發(fā)展和特定場景中技術(shù)應(yīng)用出現(xiàn)的各種風(fēng)險損害及時制定和完善法律法規(guī),明確人工智能技術(shù)發(fā)展和應(yīng)用應(yīng)遵守的基本原則,劃定人工智能技術(shù)應(yīng)用不能觸碰的紅線,明確人工智能系統(tǒng)應(yīng)用者的治理責(zé)任,確保系統(tǒng)應(yīng)用者的權(quán)責(zé)對等。其次,人工智能應(yīng)用要依法合規(guī)。人工智能系統(tǒng)應(yīng)用應(yīng)在法治的框架下進(jìn)行,使用人工智能的私人組織和公共機關(guān)要遵守人工智能監(jiān)管的有關(guān)法律,依法開發(fā)、安裝、使用人工智能系統(tǒng),遵守法律規(guī)定的基本原則,履行法定的基本義務(wù),并為明顯違背法律規(guī)定的行為承擔(dān)相應(yīng)法律責(zé)任。再次,政府監(jiān)管要依法行政。政府監(jiān)管也要遵守法治原則,監(jiān)管機構(gòu)的監(jiān)管職權(quán)必須具有明確法律授權(quán),執(zhí)法行動必須依法合規(guī),并充分尊重企業(yè)經(jīng)營自主權(quán)。面對動態(tài)的人工智能技術(shù)創(chuàng)新,監(jiān)管機構(gòu)應(yīng)建立穩(wěn)定一貫的監(jiān)管規(guī)則體系和富有彈性的政策體系,為創(chuàng)新發(fā)展提供穩(wěn)定可預(yù)期的政策環(huán)境。
三、創(chuàng)新友好人工智能監(jiān)管的基本導(dǎo)向:基于風(fēng)險的監(jiān)管
創(chuàng)新友好人工智能監(jiān)管力求在最小化人工智能技術(shù)應(yīng)用風(fēng)險的同時最大化釋放創(chuàng)新潛能。人工智能監(jiān)管是針對創(chuàng)新技術(shù)應(yīng)用所帶來的不確定性風(fēng)險的監(jiān)管,而不是對研發(fā)創(chuàng)新的監(jiān)管。因此,創(chuàng)新友好人工智能監(jiān)管最科學(xué)的方式是實行基于風(fēng)險的監(jiān)管,通過科學(xué)的風(fēng)險評估來建立基于風(fēng)險損害的分級分類監(jiān)管,重點監(jiān)管不可接受風(fēng)險和高風(fēng)險人工智能應(yīng)用,對中風(fēng)險人工智能應(yīng)用則采用低強度監(jiān)管,對低風(fēng)險人工智能應(yīng)用則實行監(jiān)管豁免,①從而增強監(jiān)管的適時性、針對性、精準(zhǔn)性和比例性,避免一刀切監(jiān)管和過度監(jiān)管對創(chuàng)新的巨大損害,使人工智能創(chuàng)新主體和應(yīng)用主體能夠明確紅綠燈,形成穩(wěn)定預(yù)期,從而有激勵持續(xù)地增加創(chuàng)新投入和進(jìn)行商業(yè)化開發(fā),實現(xiàn)風(fēng)險管控與創(chuàng)新發(fā)展的平衡。
1.基于風(fēng)險損害程度的分級監(jiān)管
人工智能監(jiān)管應(yīng)根據(jù)人工智能在特定環(huán)境下應(yīng)用可能對相關(guān)主體造成的風(fēng)險損害程度,來設(shè)計與損害程度相稱的監(jiān)管強度和政策手段。人工智能技術(shù)發(fā)展帶來的風(fēng)險主要不是技術(shù)本身的風(fēng)險,而是人工智能應(yīng)用在特定場景中所產(chǎn)生的具有場景依賴的應(yīng)用風(fēng)險,因此基于風(fēng)險的監(jiān)管重點是高風(fēng)險的應(yīng)用場景。具體來說:一是基于人工智能系統(tǒng)應(yīng)用場景的風(fēng)險,對人工智能系統(tǒng)設(shè)定不同風(fēng)險等級的標(biāo)準(zhǔn),針對不同風(fēng)險等級的人工智能實行不同的監(jiān)管強度和監(jiān)管政策,政府監(jiān)管的重點是不可接受風(fēng)險和高風(fēng)險的人工智能系統(tǒng)應(yīng)用,特別是政府公共服務(wù)、司法系統(tǒng)、就業(yè)、招生等領(lǐng)域和對人身心健康帶來損害的人工智能應(yīng)重點監(jiān)管。二是基于人工智能應(yīng)用行業(yè)的風(fēng)險,根據(jù)不同行業(yè)的應(yīng)用風(fēng)險損害程度,將關(guān)鍵信息基礎(chǔ)設(shè)施行業(yè)作為人工智能監(jiān)管的重點。關(guān)鍵信息基礎(chǔ)設(shè)施行業(yè)一般包括公共通信和信息服務(wù)、能源、交通、水利、金融、公共服務(wù)等重要行業(yè)和領(lǐng)域。三是基于人工智能系統(tǒng)影響的主體,重點強化對弱勢群體如兒童、殘疾人、老年人等的保護(hù)。
2.基于風(fēng)險生成機制的分類監(jiān)管
人工智能應(yīng)用監(jiān)管的重心是防止出現(xiàn)系統(tǒng)性偏差,由于人工智能風(fēng)險是由多種因素造成的,監(jiān)管應(yīng)針對風(fēng)險的不同成因精準(zhǔn)施策,長短期措施有序安排,避免將人工智能技術(shù)作為罪魁禍?zhǔn)椎膯我痪S度監(jiān)管思維。首先是技術(shù)性偏差。技術(shù)性偏差是指人工智能系統(tǒng)程序設(shè)計、投入的數(shù)據(jù)質(zhì)量、系統(tǒng)運行透明度低等因素造成的運行結(jié)果偏差,其監(jiān)管政策是強化算法程序設(shè)計合規(guī)、加強數(shù)據(jù)治理、對人工智能系統(tǒng)的設(shè)計和安裝使用實施評估認(rèn)證制度。其次是人為性偏差。人為性偏差是指應(yīng)用者出于私人利益目標(biāo)而人為地操縱算法以謀取私利,典型的如數(shù)字企業(yè)有誤導(dǎo)性地推薦商品、發(fā)布虛假銷量數(shù)據(jù)、操縱用戶評價信息、刻意隱瞞隱私風(fēng)險等。人為性偏差監(jiān)管政策的重點是強化人工智能系統(tǒng)應(yīng)用者的主體責(zé)任,增強人工智能系統(tǒng)應(yīng)用的透明度和可問責(zé)性。再次是制度性偏差。人工智能應(yīng)用產(chǎn)生的偏差在某種程度上是社會價值觀念和運行規(guī)則的偏差通過人工智能系統(tǒng)的放大反映。制度性偏差是指一個社會的法規(guī)、政策、制度體制、文化意識等所具有的歷史性局限,這種歷史形成的偏差或制度缺陷帶入人工智能系統(tǒng)會產(chǎn)生有偏差的運行結(jié)果,從而限制個人權(quán)利,造成對特定群體的歧視,損害社會公平正義。解決制度性偏差的主要路徑是構(gòu)建利益相關(guān)者參與的多元治理體系,鼓勵利益相關(guān)者參與人工智能系統(tǒng)生命周期各個階段的治理,在多元主體良性互動中消除制度性偏差。
3.基于風(fēng)險階段差異的動態(tài)監(jiān)管
動態(tài)來看,人工智能風(fēng)險的產(chǎn)生具有明顯的階段性分布特征,監(jiān)管需要針對人工智能技術(shù)發(fā)展不同階段的風(fēng)險問題來合理匹配監(jiān)管強度并科學(xué)選擇針對性政策。首先,在人工智能開發(fā)設(shè)計階段,監(jiān)管主要是貫徹基于設(shè)計來確保合規(guī)的要求,在系統(tǒng)框架、算法運行規(guī)則和數(shù)據(jù)投入設(shè)計中,避免將技術(shù)或人為的系統(tǒng)性偏見帶入,通過設(shè)計來確保合規(guī),實現(xiàn)設(shè)計的可信。其次,在模型測試驗證階段,數(shù)據(jù)質(zhì)量是監(jiān)管的重點,應(yīng)強化數(shù)據(jù)質(zhì)量標(biāo)準(zhǔn)和數(shù)據(jù)質(zhì)量管理體系,并建立有效的模型風(fēng)險評估機制,提升風(fēng)險防控措施的有效性。再次,在系統(tǒng)安裝階段,監(jiān)管主要是政府對較高風(fēng)險的人工智能應(yīng)用進(jìn)行風(fēng)險評估與算法審計,防止高損害風(fēng)險人工智能系統(tǒng)的安裝應(yīng)用。最后,在系統(tǒng)運行階段,應(yīng)對人工智能系統(tǒng)的運行實行動態(tài)監(jiān)控和評估,應(yīng)用主體應(yīng)具有科學(xué)的風(fēng)險管理措施保障,以確保功能正常運行,確保系統(tǒng)應(yīng)用不會造成意想不到的危害。在動態(tài)的全生命周期監(jiān)管中,人工智能應(yīng)用主體的自我治理始終是基礎(chǔ),監(jiān)管需要科學(xué)定位政府監(jiān)管機構(gòu)和人工智能應(yīng)用主體的權(quán)責(zé)關(guān)系,注重激勵應(yīng)用主體開展自我治理,構(gòu)建合作監(jiān)管體制。
4.基于風(fēng)險演化的綜合監(jiān)管治理
人工智能技術(shù)應(yīng)用產(chǎn)生的潛在風(fēng)險具有廣泛的經(jīng)濟(jì)社會影響,既需要技術(shù)治理體系的完善,也需要經(jīng)濟(jì)社會做出相適應(yīng)的制度變革。人工智能監(jiān)管不能將監(jiān)管對象局限于人工智能技術(shù)本身,讓人工智能承擔(dān)不合理的責(zé)任,而應(yīng)從多個層面著手并在多元主體間配置治理責(zé)任。首先,人工智能不僅僅是一種技術(shù)性工具,也是一種重構(gòu)人與人、人與企業(yè)、企業(yè)與政府等各種關(guān)系的力量,是一種新的經(jīng)濟(jì)社會權(quán)力。人工智能應(yīng)用風(fēng)險實際是技術(shù)創(chuàng)新對原有技術(shù)、經(jīng)濟(jì)、社會平衡關(guān)系的沖擊所帶來的。其次,由于人工智能應(yīng)用超越了單純的技術(shù)工具范疇,它必然會受到各種復(fù)雜的經(jīng)濟(jì)社會關(guān)系的影響,人工智能應(yīng)用產(chǎn)生的各種偏差結(jié)果及其引發(fā)的歧視性本質(zhì)上是經(jīng)濟(jì)社會運行中痼疾的技術(shù)性映射或技術(shù)性系統(tǒng)強化。再次,人工智能的創(chuàng)新發(fā)展必須具有兼容的經(jīng)濟(jì)社會環(huán)境,包容、信任、鼓勵的創(chuàng)新生態(tài)對人工智能創(chuàng)新發(fā)展至關(guān)重要。綜上,在技術(shù)、經(jīng)濟(jì)、社會都處在動態(tài)變化的情況下,政府監(jiān)管不再是一個靜態(tài)的制度實施過程,而是對技術(shù)、經(jīng)濟(jì)、社會動態(tài)變化所引發(fā)的利益相關(guān)者之間復(fù)雜利益沖突做出的主動性監(jiān)管制度回應(yīng)。因此,人工智能監(jiān)管必須采用“技術(shù)—經(jīng)濟(jì)—社會”綜合治理理念,促進(jìn)技術(shù)、經(jīng)濟(jì)、社會的整體協(xié)同演化,從而構(gòu)建可信人工智能持續(xù)優(yōu)化的治理生態(tài)。
四、創(chuàng)新友好人工智能監(jiān)管的實現(xiàn)基礎(chǔ):監(jiān)管實施體制
創(chuàng)新友好監(jiān)管目標(biāo)的實現(xiàn)關(guān)鍵在于能否建立好的監(jiān)管實施體制。政府監(jiān)管是一種行政行為,監(jiān)管實施體制從根本上決定了監(jiān)管績效。① 作為一種顛覆性技術(shù),人工智能創(chuàng)新發(fā)展需要創(chuàng)新監(jiān)管實施體制,實現(xiàn)監(jiān)管與創(chuàng)新的動態(tài)匹配。因此,人工智能監(jiān)管迫切需要建立有利于創(chuàng)新的監(jiān)管實施體制,營造有利于同步促進(jìn)安全可信和創(chuàng)新發(fā)展的生態(tài)。為此,創(chuàng)新友好目標(biāo)導(dǎo)向的政府監(jiān)管機構(gòu)需要發(fā)揮好兩種基本的角色:一是消極行動者角色,即通過完善監(jiān)管行政制度確保政府監(jiān)管不會阻礙人工智能的創(chuàng)新發(fā)展;二是積極行動者角色,即通過監(jiān)管為人工智能創(chuàng)新發(fā)展提供有力的要素供給和產(chǎn)業(yè)化應(yīng)用場景,并營造有利于創(chuàng)新發(fā)展的制度環(huán)境,以最大化促進(jìn)人工智能創(chuàng)新發(fā)展。
1.創(chuàng)新友好人工智能監(jiān)管要確保監(jiān)管與創(chuàng)新的動態(tài)匹配
從政府監(jiān)管與人工智能創(chuàng)新發(fā)展的關(guān)系來說,創(chuàng)新友好監(jiān)管體制關(guān)鍵是形成監(jiān)管與創(chuàng)新的動態(tài)匹配。首先,創(chuàng)新友好人工智能監(jiān)管應(yīng)實現(xiàn)二者的協(xié)調(diào)。政府監(jiān)管與創(chuàng)新發(fā)展的協(xié)調(diào)體現(xiàn)在兩個方面:一是監(jiān)管有利于人工智能高質(zhì)量創(chuàng)新發(fā)展,科學(xué)的人工智能監(jiān)管能夠為人工智能創(chuàng)新發(fā)展?fàn)I造安全可信的外部環(huán)境,既會增強消費者的信心,從而擴(kuò)大人工智能的應(yīng)用場景,也會增進(jìn)研發(fā)者和投資者從事研發(fā)創(chuàng)新的積極性,從而總體上促進(jìn)人工智能創(chuàng)新發(fā)展;二是人工智能創(chuàng)新發(fā)展有利于高效能監(jiān)管,人工智能技術(shù)創(chuàng)新發(fā)展會不斷優(yōu)化技術(shù)設(shè)計,消除技術(shù)性缺陷帶來的風(fēng)險,安全技術(shù)創(chuàng)新會為消除風(fēng)險提供有效技術(shù)治理手段,同時人工智能技術(shù)創(chuàng)新也為實現(xiàn)政府監(jiān)管的智能化提供了技術(shù)支持。其次,創(chuàng)新友好人工智能監(jiān)管要避免二者的動態(tài)失調(diào)。政府監(jiān)管與人工智能創(chuàng)新發(fā)展的失調(diào)主要體現(xiàn)在兩個方面:一是人工智能技術(shù)創(chuàng)新打破了原有監(jiān)管體制維持的均衡態(tài)勢,新技術(shù)的出現(xiàn)導(dǎo)致原有監(jiān)管體制與政策工具失效,產(chǎn)生較大的監(jiān)管缺口,降低政府監(jiān)管整體效能,從而帶來較高的風(fēng)險隱患;二是不科學(xué)的政府監(jiān)管嚴(yán)重阻礙了人工智能創(chuàng)新發(fā)展,這主要體現(xiàn)為監(jiān)管不足與監(jiān)管過度:前者體現(xiàn)為面對人工智能快速的創(chuàng)新發(fā)展,政府監(jiān)管沒有提供及時有效的制度供給,導(dǎo)致人工智能創(chuàng)新發(fā)展產(chǎn)生風(fēng)險損害,并使創(chuàng)新發(fā)展缺乏良好外部環(huán)境;后者體現(xiàn)為政府錯誤的監(jiān)管決策、過于超前的監(jiān)管政策、不合理的高強度監(jiān)管、不科學(xué)的政策工具導(dǎo)致人工智能創(chuàng)新發(fā)展面臨過度的不合理限制和過高合規(guī)成本,嚴(yán)重打擊微觀主體創(chuàng)新積極性,或嚴(yán)重阻礙創(chuàng)新成果商業(yè)化應(yīng)用和產(chǎn)業(yè)化發(fā)展。因此,創(chuàng)新友好監(jiān)管體制要通過制度建設(shè)來避免監(jiān)管不足和監(jiān)管過度對創(chuàng)新的阻礙和對監(jiān)管效能的制約,確保政府監(jiān)管與技術(shù)創(chuàng)新的動態(tài)最優(yōu)匹配(見圖1)。
2.創(chuàng)新友好人工智能監(jiān)管實施體制應(yīng)堅持的原則
創(chuàng)新友好人工智能監(jiān)管應(yīng)堅持如下的基本原則:一是法治化原則。政府應(yīng)確保監(jiān)管規(guī)則的明確性和一致性,避免削弱企業(yè)投資激勵和企業(yè)家創(chuàng)新創(chuàng)業(yè)的信心。二是突出原則監(jiān)管原則。對于不明確的風(fēng)險或尚未大規(guī)模顯現(xiàn)的風(fēng)險適用原則監(jiān)管,監(jiān)管機構(gòu)制定基本的行為原則,具體實施則由企業(yè)根據(jù)自身的實際情況來靈活決定;僅對大量事實已充分證明具有嚴(yán)重危害的人工智能開發(fā)應(yīng)用風(fēng)險才實行規(guī)則監(jiān)管,監(jiān)管機構(gòu)直接規(guī)定企業(yè)不可以實施的具體應(yīng)用或行為。三是增強公眾信任原則。監(jiān)管應(yīng)重在構(gòu)建公眾對人工智能開發(fā)應(yīng)用的信任,監(jiān)管不僅要關(guān)注人工智能技術(shù)安全、治理制度安全和商業(yè)應(yīng)用安全來保護(hù)人的基本權(quán)益,也要通過增強透明度和安全宣傳等來提高公眾信任。四是風(fēng)險敏感原則。政府監(jiān)管應(yīng)根據(jù)不同風(fēng)險損害來實施相匹配的監(jiān)管強度與監(jiān)管政策,貫徹基于風(fēng)險的監(jiān)管體制。五是最小化創(chuàng)新?lián)p害原則。監(jiān)管工具選擇應(yīng)追求最小化創(chuàng)新?lián)p害,通過科學(xué)的政策影響評估和政策優(yōu)化,采取創(chuàng)新?lián)p害最小的政策工具,并將促進(jìn)企業(yè)主動合規(guī)和軟監(jiān)管措施作為優(yōu)先選項。
3.創(chuàng)新友好人工智能監(jiān)管的行政體制保障
在人工智能監(jiān)管中,政府始終是最為關(guān)鍵的監(jiān)管主體,尤其是在行政監(jiān)管主導(dǎo)的體制中,法治化的監(jiān)管行政體制是創(chuàng)新的重要保障。創(chuàng)新友好監(jiān)管行政體制建設(shè)重點為:一是構(gòu)建高效協(xié)同的監(jiān)管機構(gòu)體系。政府監(jiān)管層面,應(yīng)建立國家統(tǒng)一監(jiān)管與行業(yè)分散監(jiān)管相結(jié)合體制,國家統(tǒng)一立法,由國家專門監(jiān)管機構(gòu)負(fù)責(zé)統(tǒng)一執(zhí)法,各行業(yè)主管部門根據(jù)行業(yè)領(lǐng)域制定細(xì)則并負(fù)責(zé)本行業(yè)監(jiān)管。為了促進(jìn)各部門的協(xié)同監(jiān)管,應(yīng)根據(jù)權(quán)責(zé)對等原則來配置各部門的監(jiān)管職責(zé),完善部際協(xié)同監(jiān)管體制。二是建立體現(xiàn)程序正義的監(jiān)管行政程序。正當(dāng)?shù)男姓绦蚴欠乐剐姓O(jiān)管權(quán)濫用,避免監(jiān)管失誤與阻礙創(chuàng)新的重要制度保障。為此,應(yīng)重點強化監(jiān)管影響評估制度,監(jiān)管部門出臺監(jiān)管政策必須進(jìn)行成本與收益評估,尤其是重點評估其對創(chuàng)新發(fā)展帶來的影響,并比較各種替代性方案來選擇創(chuàng)新?lián)p害最小的政策方案。三是建立公私合作監(jiān)管新體制。人工智能監(jiān)管要構(gòu)建公私合作體制,政府監(jiān)管機構(gòu)與大型數(shù)字平臺企業(yè)、行業(yè)組織等建立合作監(jiān)管體制,并積極吸收利益相關(guān)者參與治理,構(gòu)建多元主體參與的監(jiān)管治理體制。
4.創(chuàng)新友好人工智能監(jiān)管的政策工具創(chuàng)新
第一,建立多種政策手段相機應(yīng)用的人工智能監(jiān)管工具箱。依據(jù)人工智能監(jiān)管強度,監(jiān)管政策工具包括五種:一是倫理治理。人工智能監(jiān)管應(yīng)堅持倫理先行,建立并完善人工智能倫理準(zhǔn)則,通過完善制度確保落實,將倫理融入人工智能全周期,使遵守倫理準(zhǔn)則成為相關(guān)主體的自覺行動,實現(xiàn)內(nèi)源性治理。二是系統(tǒng)應(yīng)用者的自我監(jiān)管。要充分發(fā)揮系統(tǒng)應(yīng)用者作為風(fēng)險控制第一責(zé)任人的主體地位,激勵其主動采取有效措施來降低各種風(fēng)險。三是行業(yè)組織私人監(jiān)管。其措施包括行業(yè)組織制定行為規(guī)則、制定與推行行業(yè)管理或技術(shù)安全標(biāo)準(zhǔn)、開展行業(yè)算法認(rèn)證等。四是政府監(jiān)管。政府監(jiān)管機構(gòu)應(yīng)多采用信息披露、安全標(biāo)準(zhǔn)、應(yīng)用指南、安全認(rèn)證等軟監(jiān)管方式。五是技術(shù)性解決方案。人工智能安全技術(shù)為人工智能監(jiān)管提供了新的治理手段,如隱私安全技術(shù)能實現(xiàn)“數(shù)據(jù)可用不可見”,充分保障隱私安全。綜上,人工智能監(jiān)管應(yīng)根據(jù)不同應(yīng)用場景來靈活選擇政策工具,注重不同政策工具的組合,并最小化命令—控制式監(jiān)管手段的應(yīng)用。
第二,實施規(guī)則透明、外部評估與內(nèi)部自評相結(jié)合的人工智能影響評估制度。人工智能影響評估重點是針對人工智能系統(tǒng)應(yīng)用的各種潛在影響進(jìn)行評估,影響評估包括人工智能系統(tǒng)應(yīng)用前的事前評估和人工智能系統(tǒng)應(yīng)用后的事后評估,影響評估的內(nèi)容重點是分析人工智能引發(fā)的潛在風(fēng)險及其損害。影響評估制度是目前各國人工智能監(jiān)管的重要政策手段。2019年歐洲議會通過的《算法問責(zé)與透明治理框架》、2022年3月美國國會通過的《2022年算法問責(zé)法》都對達(dá)到適用標(biāo)準(zhǔn)的企業(yè)提出了進(jìn)行影響評估的要求。中國應(yīng)制定明確具體的政策,在高風(fēng)險的重點領(lǐng)域推進(jìn)強制性人工智能應(yīng)用影響評估制度,明確影響評估的具體內(nèi)容和操作程序,并確保評估的透明。與此同時,對于中低風(fēng)險的領(lǐng)域則應(yīng)鼓勵企業(yè)基于自愿來開展評估,并鼓勵主動采取合規(guī)治理措施。
第三,采用鼓勵創(chuàng)新的人工智能監(jiān)管政策以最大化促進(jìn)創(chuàng)新。為鼓勵創(chuàng)新,人工智能監(jiān)管應(yīng)更多采用“監(jiān)管沙盒”等試驗性監(jiān)管政策。對于一些具有較大原創(chuàng)性的人工智能技術(shù)研發(fā)或通用性人工智能技術(shù)研發(fā)可以設(shè)立安全區(qū),對研發(fā)階段的人工智能技術(shù)實行監(jiān)管責(zé)任豁免,并通過監(jiān)管為人工智能技術(shù)研發(fā)提供高質(zhì)量數(shù)據(jù)供給、統(tǒng)一調(diào)度的算力和開放創(chuàng)新的生態(tài);對于已經(jīng)開發(fā)成功并將進(jìn)行商業(yè)化應(yīng)用的人工智能,可在一定的可控范圍內(nèi)進(jìn)行試驗性應(yīng)用,充分評估潛在的主要風(fēng)險,據(jù)此要求企業(yè)在技術(shù)應(yīng)用中來提升數(shù)據(jù)質(zhì)量、完善系統(tǒng)設(shè)計和完善風(fēng)險管理措施,同時也要主動優(yōu)化政府監(jiān)管體制和創(chuàng)新監(jiān)管政策,實現(xiàn)政府監(jiān)管與創(chuàng)新的匹配;對于暫時無法確定人工智能應(yīng)用風(fēng)險的新技術(shù)產(chǎn)業(yè)化應(yīng)用,應(yīng)建立必要的容錯機制,以鼓勵創(chuàng)新發(fā)展。為促進(jìn)人工智能商業(yè)化應(yīng)用和產(chǎn)業(yè)化發(fā)展,應(yīng)建立和完善人工智能監(jiān)管政策和創(chuàng)新發(fā)展政策的協(xié)同機制,通過政府監(jiān)管來消除阻礙人工智能創(chuàng)新發(fā)展的各種障礙,營造有利于創(chuàng)新發(fā)展的要素供給、應(yīng)用場景、政策與制度環(huán)境,以全面促進(jìn)人工智能創(chuàng)新發(fā)展。
五、中國人工智能監(jiān)管體制完善的重點
面對人工智能應(yīng)用帶來的潛在風(fēng)險,強化風(fēng)險管控是人工智能監(jiān)管的重要任務(wù)。2021年國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,以網(wǎng)信辦為主的監(jiān)管機構(gòu)制定了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》和《生成式人工智能服務(wù)管理暫行辦法》等監(jiān)管法規(guī),并不斷強化監(jiān)管行政執(zhí)法。長期以來,中國政府監(jiān)管體制具有典型的強政府特征,同時監(jiān)管職權(quán)配置是明顯的條塊分割體制。在中國特色政府監(jiān)管體制下,如何防止不恰當(dāng)?shù)谋O(jiān)管實施體制損害人工智能創(chuàng)y2Rn18SgQ8CdBQvzzy5A8g==新發(fā)展,是一個亟待從根本上解決的重大問題。未來中國人工智能監(jiān)管體制應(yīng)重點在如下方面予以完善:
第一,起草制定《人工智能法》,以強化監(jiān)管法治化。當(dāng)前,中國系統(tǒng)監(jiān)管人工智能的國家級法律依然處于缺失狀態(tài),分散的部門立法和多頭管理增加了人工智能創(chuàng)新發(fā)展的政策不確定性,迫切需要通過統(tǒng)一的國家層級立法來明確人工智能監(jiān)管的基礎(chǔ)性問題,為人工智能創(chuàng)新發(fā)展提供穩(wěn)定可預(yù)期的制度保障。具體建議如下:一是確立以人為本的立法理念。人工智能監(jiān)管的基本理念應(yīng)堅持以人為中心,增進(jìn)人類福祉,促進(jìn)人的全面發(fā)展。二是明確人工智能監(jiān)管基本原則。人工智能開發(fā)應(yīng)用應(yīng)遵循安全性原則、透明度原則、公平性原則和問責(zé)性原則。三是明確政府監(jiān)管要遵守法治化原則。政府監(jiān)管要嚴(yán)格法治化,明確相關(guān)部門的職權(quán)權(quán)限和監(jiān)管責(zé)任,切實依法行政。四是明確基于風(fēng)險的分級分類監(jiān)管。依據(jù)人工智能風(fēng)險評估和風(fēng)險等級劃分,實行基于風(fēng)險的分級分類監(jiān)管,針對不同行業(yè)獨特應(yīng)用場景來建立分產(chǎn)業(yè)風(fēng)險評估和監(jiān)管體系。五是促進(jìn)多元治理與開放合作。要消除阻礙開放創(chuàng)新的各種行政壁壘,促進(jìn)形成利益相關(guān)者合作治理體系,并鼓勵合作創(chuàng)新和開源生態(tài)體系建設(shè),形成有利于創(chuàng)新的合作與開放生態(tài)。六是人工智能監(jiān)管要堅持國際化。人工智能監(jiān)管要遵守國際共識和共同原則,加強人工智能監(jiān)管政策的國際協(xié)調(diào),積極推動人工智能創(chuàng)新的國際合作,為中國人工智能全球化創(chuàng)新發(fā)展提供有利的國際環(huán)境。
第二,著力改革完善監(jiān)管行政執(zhí)法體制,以提升監(jiān)管正當(dāng)化。一是政府監(jiān)管必須始終依法行政。政府監(jiān)管權(quán)的行使必須具有明確的法律授權(quán),不能隨意執(zhí)法和恣意妄為,根本消除過度監(jiān)管、不當(dāng)監(jiān)管對創(chuàng)新發(fā)展造成的嚴(yán)重?fù)p害,營造有利于創(chuàng)新發(fā)展的政策環(huán)境。二是政府監(jiān)管必須確保政策合力。政府監(jiān)管體制要防止部門主義的冒進(jìn)執(zhí)法,要注重消除地方保護(hù)主義對形成人工智能創(chuàng)新開放生態(tài)和全國統(tǒng)一大市場的各種阻礙,健全人工智能監(jiān)管機構(gòu)體系和部門協(xié)同體制,確保監(jiān)管政策的統(tǒng)一性,明確人工智能監(jiān)管必須服務(wù)于促進(jìn)人工智能創(chuàng)新發(fā)展的重大國家戰(zhàn)略。三是政府監(jiān)管必須具備公正程序。政府監(jiān)管政策制定必須有公眾意見征詢過程,必須進(jìn)行監(jiān)管政策成本—收益分析,監(jiān)管必須建立政策實施效果后評估制度,并實施相應(yīng)的事后問責(zé)機制。四是監(jiān)管方式應(yīng)創(chuàng)新友好。政府監(jiān)管應(yīng)及時清理阻礙創(chuàng)新發(fā)展的監(jiān)管政策,并及時出臺與創(chuàng)新發(fā)展相適應(yīng)的監(jiān)管政策。監(jiān)管手段應(yīng)更多地采用標(biāo)準(zhǔn)化、指南、行為準(zhǔn)則等非約束性監(jiān)管政策,并強化監(jiān)管政策工具創(chuàng)新。應(yīng)推行數(shù)據(jù)質(zhì)量標(biāo)準(zhǔn)化,促進(jìn)高質(zhì)量數(shù)據(jù)供給;打破條塊分割體制,提升全國算力設(shè)施系統(tǒng)調(diào)度;建立鼓勵創(chuàng)新的新型知識產(chǎn)權(quán)保護(hù)制度;建立人工智能測試中心和商業(yè)化應(yīng)用試驗區(qū),實施監(jiān)管沙盒制度;鼓勵安全技術(shù)開發(fā)、應(yīng)用和產(chǎn)業(yè)化發(fā)展,增強安全技術(shù)保障;改革教育體制、科技體制和融資體制,培育數(shù)據(jù)要素市場,促進(jìn)數(shù)據(jù)流動,消除阻礙人工智能創(chuàng)新發(fā)展的各種體制政策障礙,營造促進(jìn)創(chuàng)新發(fā)展的外部環(huán)境。
第三,建立系統(tǒng)應(yīng)用者主動治理的激勵制度,以增強監(jiān)管合規(guī)化。人工智能應(yīng)用者的自我治理是實現(xiàn)創(chuàng)新友好監(jiān)管的重要基礎(chǔ),要尊重企業(yè)自主經(jīng)營權(quán),鼓勵企業(yè)根據(jù)自身情況來選擇最佳合規(guī)方案,從而最小化政府監(jiān)管的創(chuàng)新?lián)p害。一是依據(jù)比例原則合理確定人工智能系統(tǒng)應(yīng)用者的治理責(zé)任。人工智能系統(tǒng)的安全責(zé)任應(yīng)主要配置給人工智能系統(tǒng)應(yīng)用者,其應(yīng)承擔(dān)必要的注意義務(wù),應(yīng)建立科學(xué)、規(guī)范和系統(tǒng)的風(fēng)險管理制度體系,充分履行相應(yīng)的安全保障責(zé)任。二是高風(fēng)險人工智能應(yīng)用者應(yīng)充分履行透明度義務(wù),保障消費者的基本權(quán)益,以增強公眾信任。人工智能系統(tǒng)應(yīng)確保具有透明度,使用戶能夠理解并正確使用系統(tǒng)輸出結(jié)果。人工智能采集利用消費者數(shù)據(jù)要遵守“知情—同意”要求,基于人工智能的個人化定價、內(nèi)容推薦等必須事前明確告知消費者,人工智能合成的內(nèi)容必須進(jìn)行明確的標(biāo)簽標(biāo)注,并賦予消費者不同的應(yīng)用界面選項。三是強化對人工智能應(yīng)用者的問責(zé)。人工智能系統(tǒng)應(yīng)用者需要對人工智能應(yīng)用風(fēng)險承擔(dān)第一責(zé)任,并履行相應(yīng)的問責(zé)義務(wù)要求。四是強化對企業(yè)主動合規(guī)的激勵機制建設(shè),實施可信人工智能安全認(rèn)證與動態(tài)的安全可信評估,讓安全成為企業(yè)競爭的重要質(zhì)量維度,對于具有可信的安全保障能力的企業(yè)可以給予更多的治理自主權(quán)和一定的產(chǎn)業(yè)政策優(yōu)惠。
第四,實現(xiàn)倫理治理的全過程內(nèi)嵌,以突出監(jiān)管軟性化。倫理是實現(xiàn)人工智能創(chuàng)新發(fā)展與安全應(yīng)用相平衡的重要軟監(jiān)管方式。為有效發(fā)揮倫理的內(nèi)源性治理作用,需要進(jìn)一步完善相關(guān)制度。具體而言:一是進(jìn)一步明確人工智能倫理原則。人工智能治理的價值準(zhǔn)則是以人為中心,人工智能相關(guān)活動過程應(yīng)遵守增進(jìn)人類福祉、尊重和保護(hù)人的基本權(quán)利、堅持公平公正、合理控制風(fēng)險和保持公開透明等原則,應(yīng)通過指南對上述原則做出明確界定。二是健全人工智能倫理治理體制。應(yīng)完善政府人工智能倫理管理體制,明確相關(guān)主體倫理治理責(zé)任,使倫理成為激勵和約束企業(yè)的重要內(nèi)源性治理機制。三是加強倫理治理制度保障。應(yīng)完善人工智能倫理規(guī)范和標(biāo)準(zhǔn),建立人工智能倫理評價制度,并及時將重要的倫理規(guī)范上升為法律法規(guī)。四是深入開展人工智能倫理教育。要重視人工智能倫理教育,積極推動人工智能倫理培訓(xùn),強化相關(guān)人員的倫理意識。