摘 "要:技術(shù)治理作為一種技術(shù)性或技術(shù)化的治理活動(dòng),更加關(guān)注人與技術(shù)在治理活動(dòng)中的互動(dòng)關(guān)系。應(yīng)用到人工智能治理之中,技術(shù)治理的思維不僅要求對(duì)人工智能的治理從傳統(tǒng)約束式治理理念向促進(jìn)式治理理念的轉(zhuǎn)變,更需要技術(shù)擺脫以往作為治理對(duì)象的思維慣性,實(shí)現(xiàn)人工智能技術(shù)的自我治理。然而,以技術(shù)治理的思維治理人工智能并非簡(jiǎn)單的規(guī)則套用,在實(shí)踐中容易存在規(guī)范思維“陷阱”、技術(shù)治理不能以及倫理風(fēng)險(xiǎn)等困境。對(duì)這一問(wèn)題的解決,不僅需要綜合考量技術(shù)治理與法律治理之間相互調(diào)節(jié)的作用,實(shí)現(xiàn)“技”與“法”相互調(diào)節(jié)的規(guī)范治理,還應(yīng)完善以技術(shù)標(biāo)準(zhǔn)為主的軟法規(guī)范體系,避免技術(shù)實(shí)施標(biāo)準(zhǔn)的模糊與手段的僵化。同時(shí),強(qiáng)調(diào)更加負(fù)責(zé)任的人工智能倫理規(guī)范引導(dǎo),以實(shí)現(xiàn)更加持續(xù)、健康的人工智能技術(shù)發(fā)展。
關(guān)鍵詞:技術(shù)治理;人工智能治理;法律規(guī)范;人工智能倫理
中圖分類號(hào):D 923 " " " 文獻(xiàn)標(biāo)志碼:A " " " 文章編號(hào):2096-9783(2025)02?0001?10
一、問(wèn)題的提出
人工智能是當(dāng)今經(jīng)濟(jì)社會(huì)發(fā)展的強(qiáng)勁動(dòng)力,在賦予經(jīng)濟(jì)社會(huì)發(fā)展新動(dòng)能的同時(shí),也引發(fā)了諸多挑戰(zhàn)。在此環(huán)境下,如何依靠現(xiàn)有的治理模式實(shí)現(xiàn)人工智能治理成為熱議的話題。從理論層面上看,以“人工智能治理”為主的討論眾說(shuō)紛紜,但所有的理念均主張嘗試探索人工智能治理的新模式,以期通過(guò)正確的理念實(shí)現(xiàn)技術(shù)發(fā)展與國(guó)家安全、經(jīng)濟(jì)社會(huì)發(fā)展的協(xié)調(diào)統(tǒng)一,如敏捷治理模式[1]、風(fēng)險(xiǎn)治理模式[2]、協(xié)同治理模式[3]等。然而,人工智能作為新一代技術(shù),在將人工智能作為治理對(duì)象時(shí),卻無(wú)法忽略其作為技術(shù)本身所具備的治理工具屬性。盡管上述治理模式在一定程度上提及人工智能作為治理工具的措施,但僅局限在對(duì)技術(shù)工具屬性的強(qiáng)調(diào),并未進(jìn)一步深挖技術(shù)治理的價(jià)值屬性。造成這一現(xiàn)象的主要原因在于人工智能技術(shù)內(nèi)涵的豐富性與外延的廣泛性,使得對(duì)技術(shù)的定義與運(yùn)用存在較大的不確定性,由此導(dǎo)致現(xiàn)有治理模式難以準(zhǔn)確因應(yīng)人工智能的治理。
需要注意的是,技術(shù)治理的理念并非新生事物,而是隨著技術(shù)的發(fā)展逐漸演變并擴(kuò)展至公共治理領(lǐng)域,技術(shù)治理以提升社會(huì)運(yùn)行效率為目標(biāo),追求社會(huì)運(yùn)行的科學(xué)化與理性化。在技術(shù)治理的視域下,人工智能的出現(xiàn)使得技術(shù)治理的手段與治理理念發(fā)生轉(zhuǎn)向,但本質(zhì)上仍未脫離技術(shù)治理的范疇[4]。由于技術(shù)治理具備明顯的科學(xué)理性價(jià)值,使人工智能治理得以在現(xiàn)行技術(shù)發(fā)展背景與法律治理的現(xiàn)狀下探索潛在的、可行的治理新模式,進(jìn)而使得技術(shù)與法律之間的關(guān)系實(shí)現(xiàn)良性互動(dòng)。由此,人工智能將得以擺脫純粹作為治理對(duì)象的局限,使人工智能技術(shù)以治理方式的新面相參與治理的進(jìn)程之中,滿足社會(huì)對(duì)經(jīng)濟(jì)發(fā)展效率與技術(shù)發(fā)展理性的期待。
鑒于此,本文在技術(shù)治理理論的基礎(chǔ)上,從治理理念與治理思維入手分析人工智能治理的邏輯轉(zhuǎn)向,明確對(duì)于人工智能的治理應(yīng)實(shí)現(xiàn)促進(jìn)式的治理理念以及從治理技術(shù)到技術(shù)治理的思維轉(zhuǎn)向。同時(shí),基于對(duì)技術(shù)治理視域下人工智能治理實(shí)踐困境的分析,完善人工智能治理的制度建設(shè),強(qiáng)調(diào)技術(shù)、法律、倫理等多維度因素的協(xié)同作用,適應(yīng)技術(shù)的迭代更新和應(yīng)用場(chǎng)景的多樣化,從而實(shí)現(xiàn)對(duì)人工智能的全面而有效的治理,確保技術(shù)進(jìn)步與社會(huì)福祉的和諧統(tǒng)一。
二、技術(shù)治理視域下人工智能治理的邏輯轉(zhuǎn)向
技術(shù)治理作為一種技術(shù)性或技術(shù)化的治理活動(dòng),所研究的對(duì)象并非純粹的人或者技術(shù),而是“人與技術(shù)在治理活動(dòng)中的結(jié)合”[5]。反映到人工智能治理之中,技術(shù)治理的思維要求不能僅關(guān)注對(duì)于技術(shù)的規(guī)范性約束,還應(yīng)注重人與技術(shù)之間的互動(dòng)關(guān)系以及基于此種關(guān)系下各項(xiàng)價(jià)值目標(biāo)的實(shí)現(xiàn)。這意味著,技術(shù)治理視域下的人工智能治理需要擺脫傳統(tǒng)治理中對(duì)于人工智能的約束式治理,轉(zhuǎn)向以提高社會(huì)運(yùn)行效率為主的促進(jìn)式發(fā)展。在治理思維上,不能陷入技術(shù)作為治理對(duì)象的局限性,而是應(yīng)將技術(shù)作為治理工具,實(shí)現(xiàn)“人治理技術(shù)”向“技術(shù)治理技術(shù)”思維的轉(zhuǎn)變。
(一)從約束式治理理念向促進(jìn)式治理理念的轉(zhuǎn)變
人工智能技術(shù)的出現(xiàn)改變了傳統(tǒng)科技與法律關(guān)系的思維定式,以生成式人工智能技術(shù)為標(biāo)志的科學(xué)技術(shù)在促進(jìn)經(jīng)濟(jì)社會(huì)迅猛發(fā)展的同時(shí),也引發(fā)了人們關(guān)于科技與法律關(guān)系的新一輪思考。其中,對(duì)于應(yīng)如何實(shí)現(xiàn)人工智能治理已成為當(dāng)下科技與法律領(lǐng)域熱議的話題。理論層面,基于場(chǎng)景化、風(fēng)險(xiǎn)化的治理模式以不同的治理思路回應(yīng)技術(shù)發(fā)展的社會(huì)影響,基于法律規(guī)范的硬性治理模式希冀通過(guò)立法手段實(shí)現(xiàn)技術(shù)發(fā)展的可控性[1]。不可否認(rèn)的是,這些治理模式的提出符合當(dāng)下技術(shù)發(fā)展與經(jīng)濟(jì)社會(huì)運(yùn)行的發(fā)展趨勢(shì),在實(shí)現(xiàn)技術(shù)風(fēng)險(xiǎn)控制的同時(shí),回應(yīng)了經(jīng)濟(jì)社會(huì)發(fā)展的切實(shí)需求。然而,無(wú)論是基于場(chǎng)景化的治理模式,抑或基于風(fēng)險(xiǎn)化、基于法律規(guī)范的治理模式,在一定程度上均無(wú)法否認(rèn)將技術(shù)作為被約束或被規(guī)范的對(duì)象。以風(fēng)險(xiǎn)化的治理模式為例,歐盟《人工智能法》作為風(fēng)險(xiǎn)治理的代表性模式1,通過(guò)將人工智能風(fēng)險(xiǎn)分類為禁止性風(fēng)險(xiǎn)(prohibited-risk)、高風(fēng)險(xiǎn)(high-risk)、有限風(fēng)險(xiǎn)(limited-risk)以及低風(fēng)險(xiǎn)(minimal-risk),以此將技術(shù)作為治理對(duì)象,并防范因技術(shù)所產(chǎn)生的風(fēng)險(xiǎn)。
本質(zhì)上,這些治理模式的終極理念仍保持著對(duì)技術(shù)發(fā)展不確定性的謹(jǐn)慎態(tài)度,在治理手段上體現(xiàn)為通過(guò)限制技術(shù)引發(fā)的風(fēng)險(xiǎn),從而引導(dǎo)技術(shù)的發(fā)展和應(yīng)用。導(dǎo)致這種約束式治理理念的主要原因在于,人工智能技術(shù)創(chuàng)新所產(chǎn)生的不確定性使得現(xiàn)有對(duì)技術(shù)的態(tài)度、需求以及運(yùn)轉(zhuǎn)模式產(chǎn)生了溫和,甚至巨大的變化[6]。這種不確定性主要體現(xiàn)在人工智能的自主性以及高度的學(xué)習(xí)能力,如人工智能大模型算法的“黑箱”效應(yīng)以及算法失控[7]。因此,為了防控因技術(shù)發(fā)展不確定性所造成的風(fēng)險(xiǎn),人工智能治理的理念不可避免地走向“約束”的慣性思維,盡管不同的治理模式仍存在相關(guān)的技術(shù)促進(jìn)措施,但終究無(wú)法脫離約束式發(fā)展的桎梏。
不同于以往的人工智能治理模式,技術(shù)治理視域下的人工智能治理更加注重以促進(jìn)式的治理思維平衡科技發(fā)展與經(jīng)濟(jì)社會(huì)之間的關(guān)系。造成這種差異性的主要原因在于,技術(shù)治理的目的在于提高社會(huì)運(yùn)行效率以及實(shí)現(xiàn)效用的最大化,進(jìn)而實(shí)現(xiàn)維護(hù)社會(huì)穩(wěn)定運(yùn)行以及提高社會(huì)治理能力的價(jià)值目標(biāo)[8]。這種以效率提升、效用實(shí)現(xiàn)最大化為導(dǎo)向的價(jià)值目標(biāo),最終反作用人工智能的治理模式。
具體而言,技術(shù)治理視域下人工智能治理促進(jìn)式治理理念的實(shí)現(xiàn)主要采取的是以科學(xué)理性原則為遵循、以技術(shù)賦能和價(jià)值引導(dǎo)為手段、以提升社會(huì)整體運(yùn)行效率為目標(biāo)的踐行方式。第一,以科學(xué)理性原則為遵循要求對(duì)于人工智能的治理需確保工具理性與價(jià)值理性的協(xié)調(diào)統(tǒng)一。這意味著,對(duì)于人工智能的促進(jìn)式治理不僅需要保持工具理性層面“手段—目的”的合理性,同時(shí)還應(yīng)注重與價(jià)值理性層面“善智”的實(shí)現(xiàn),以轉(zhuǎn)變治理觀念,消解價(jià)值悖論。易言之,科學(xué)理性原則的遵循使得人工智能的促進(jìn)式治理并非僅停留在技術(shù)工具的理性運(yùn)用,更要求在治理的過(guò)程中形成價(jià)值目標(biāo)和價(jià)值標(biāo)準(zhǔn)[9],以此評(píng)價(jià)人工智能治理的合理性與否。第二,對(duì)于人工智能的促進(jìn)式治理需要以技術(shù)賦能與價(jià)值引導(dǎo)為手段。技術(shù)賦能要求在人工智能治理的過(guò)程中運(yùn)用技術(shù)的手段或者工具,如可理解性人工智能、防御對(duì)抗攻擊技術(shù)以及實(shí)時(shí)審計(jì)技術(shù)等[10],解決因純粹技術(shù)演變所導(dǎo)致的不確定性或歧視性風(fēng)險(xiǎn)。此外,通過(guò)采取技術(shù)手段,提升國(guó)家獲取和使用信息的能力,促進(jìn)國(guó)家治理能力現(xiàn)代化。第三,在最終目標(biāo)實(shí)現(xiàn)上,人工智能的促進(jìn)式治理理念強(qiáng)調(diào)社會(huì)整體運(yùn)行效率的提升。這意味著,對(duì)于人工智能的促進(jìn)式治理并非純粹以推動(dòng)技術(shù)發(fā)展為主要任務(wù),而是注重技術(shù)對(duì)于經(jīng)濟(jì)社會(huì)的賦能效果以及公共利益的實(shí)現(xiàn)與保障。這種理念的倡導(dǎo)既符合技術(shù)研發(fā)與應(yīng)用的初心,同時(shí)也與社會(huì)公共利益福祉緊密契合。
(二)從“治理技術(shù)”向“技術(shù)治理”思維的轉(zhuǎn)變
由“技術(shù)工具論”所演變的技術(shù)使用邏輯往往建立在以人為主體的基礎(chǔ)之上,將技術(shù)視為人所主導(dǎo)并控制的工具,并通過(guò)技術(shù)的使用產(chǎn)生經(jīng)濟(jì)和社會(huì)價(jià)值。這種邏輯的產(chǎn)生符合傳統(tǒng)工業(yè)化時(shí)代的生產(chǎn)規(guī)律,在實(shí)現(xiàn)技術(shù)價(jià)值發(fā)揮的同時(shí),也尊重了人作為社會(huì)主體的主觀能動(dòng)性。然而,技術(shù)作為“被使用”對(duì)象的邏輯,應(yīng)用于社會(huì)治理的過(guò)程之中時(shí),技術(shù)不可避免地成了“被治理”的對(duì)象,“人治理技術(shù)”成為應(yīng)對(duì)技術(shù)所產(chǎn)生的經(jīng)濟(jì)社會(huì)風(fēng)險(xiǎn)的當(dāng)然思維。這種治理思維主要體現(xiàn)為將技術(shù)作為治理對(duì)象,并通過(guò)法律規(guī)范加以控制,避免因技術(shù)發(fā)展的不確定性而造成社會(huì)損害。盡管這種治理方式仍屬于技術(shù)治理的概念范疇,但僅將技術(shù)作為治理對(duì)象,實(shí)則脫離了理解技術(shù)治理本質(zhì)內(nèi)涵的實(shí)踐語(yǔ)境,這種做法忽略了技術(shù)可以成為治理方式的另一內(nèi)涵屬性[9]。不可否認(rèn)的是,這種思維的采取并非錯(cuò)誤,而是非智能化時(shí)代下消除技術(shù)風(fēng)險(xiǎn)和技術(shù)發(fā)展不確定性的時(shí)代選擇。
然而,在技術(shù)的發(fā)展已經(jīng)步入智能化時(shí)代的情況下,一味通過(guò)法律規(guī)范治理技術(shù)已經(jīng)無(wú)法滿足社會(huì)治理的需求。以核技術(shù)為例,盡管在核技術(shù)投入使用前已經(jīng)通過(guò)社會(huì)規(guī)范很好預(yù)估了技術(shù)可能導(dǎo)致的風(fēng)險(xiǎn),但技術(shù)發(fā)展的不確定性仍然使得風(fēng)險(xiǎn)無(wú)法被完全消解,切爾諾貝利和福島為典型的核泄漏事故依然發(fā)生并使得經(jīng)濟(jì)社會(huì)遭受巨大損失[11]。因此,在傳統(tǒng)“治理技術(shù)”思維無(wú)法滿足社會(huì)治理需求的前提下,思考將技術(shù)作為新型治理方式、妥善發(fā)揮技術(shù)治理的工具價(jià)值具有必要性。在傳統(tǒng)的科技與法律的關(guān)系之中,技術(shù)往往被視為規(guī)范對(duì)象予以規(guī)制,然而面臨以人工智能為主的顛覆性技術(shù),技術(shù)已經(jīng)逐漸突破作為規(guī)制對(duì)象的局限性,開(kāi)始以治理方式的面相參與科技與法律的關(guān)系互動(dòng)之中。技術(shù)治理視域下的人工智能治理,通過(guò)采取從“治理技術(shù)”到“技術(shù)治理”的轉(zhuǎn)向,在減輕技術(shù)實(shí)現(xiàn)的社會(huì)負(fù)擔(dān)的同時(shí),給予技術(shù)迭代升級(jí)的發(fā)展空間,進(jìn)而實(shí)現(xiàn)“技術(shù)作用于經(jīng)濟(jì)社會(huì)”的良性循環(huán)之中,確保國(guó)家核心競(jìng)爭(zhēng)力與技術(shù)競(jìng)爭(zhēng)話語(yǔ)權(quán)的穩(wěn)定與提升。
在當(dāng)代社會(huì),技術(shù)治理作為一種新興的治理模式,其核心理念在于利用技術(shù)手段來(lái)優(yōu)化社會(huì)治理結(jié)構(gòu)和提高治理效率。盡管技術(shù)治理具體的主張紛繁復(fù)雜,但總體上堅(jiān)持兩個(gè)核心的原則:一是科學(xué)管理,即通過(guò)科學(xué)原理與技術(shù)方法參與社會(huì)的治理活動(dòng)??茖W(xué)管理原則意味著將技術(shù)納入傳統(tǒng)觀念所認(rèn)定的治理工具的范圍之中,并以此實(shí)現(xiàn)社會(huì)的治理,推動(dòng)社會(huì)的理性運(yùn)行。二是專家政治,即由接受了專業(yè)訓(xùn)練和具備專業(yè)知識(shí)的專家參與治理活動(dòng),從而推動(dòng)技術(shù)治理工具的正確運(yùn)用,避免技術(shù)治理“失控”[12]。以上這兩種原則的提出實(shí)則是技術(shù)治理思維在制度層面的具體反映,在功能上體現(xiàn)為對(duì)高效率的社會(huì)規(guī)則運(yùn)轉(zhuǎn)與高水平的社會(huì)治理效果的追求。進(jìn)入智能時(shí)代,以人工智能為代表的顛覆性技術(shù)引發(fā)了社會(huì)治理格局的變動(dòng),傳統(tǒng)“治理技術(shù)”的思維難以在妥善處理因人工智能所引發(fā)的各類實(shí)踐問(wèn)題的同時(shí),兼顧技術(shù)創(chuàng)新發(fā)展與社會(huì)科學(xué)治理的平衡。技術(shù)治理思維的介入,實(shí)則超越了單一化的治理范式,主張?jiān)谌斯ぶ悄苤卫淼倪^(guò)程中更加關(guān)注治理的工具理性與價(jià)值理性之間的協(xié)調(diào)統(tǒng)一,確保技術(shù)發(fā)展與社會(huì)需求相協(xié)調(diào)。
三、技術(shù)治理視域下人工智能治理的實(shí)踐困境
在確定技術(shù)治理視域下人工智能治理的應(yīng)有邏輯后,還應(yīng)基于此邏輯分析人工智能治理的實(shí)踐困境,確保理論邏輯與實(shí)踐問(wèn)題的客觀結(jié)合。以人工智能為代表的顛覆性技術(shù),在推動(dòng)經(jīng)濟(jì)社會(huì)高速發(fā)展的同時(shí),對(duì)技術(shù)的治理問(wèn)題同樣不容忽視。然而,對(duì)人工智能實(shí)現(xiàn)技術(shù)治理并非簡(jiǎn)單的規(guī)則套用,還應(yīng)綜合考量人工智能自身的技術(shù)特點(diǎn)和現(xiàn)有社會(huì)規(guī)范體系的復(fù)雜影響,探索技術(shù)治理視域下人工智能治理可能存在的問(wèn)題。具體而言,這些問(wèn)題不僅體現(xiàn)為因預(yù)防技術(shù)風(fēng)險(xiǎn)慣性所導(dǎo)致的規(guī)范思維“陷阱”,還存在因技術(shù)手段僵化所可能導(dǎo)致的技術(shù)治理實(shí)效不佳,以及因人工智能技術(shù)發(fā)展的不確定性所導(dǎo)致的倫理風(fēng)險(xiǎn)。
(一)因預(yù)防技術(shù)風(fēng)險(xiǎn)慣性所導(dǎo)致的規(guī)范思維“陷阱”
技術(shù)引發(fā)的社會(huì)問(wèn)題驅(qū)動(dòng)著法律規(guī)范的更新,而立法滯后性的存在使得現(xiàn)有法律規(guī)范天然無(wú)法緊跟技術(shù)發(fā)展的步伐[13]。反映到人工智能領(lǐng)域,人工智能技術(shù)作為一項(xiàng)涵蓋機(jī)器學(xué)習(xí)、大模型算法開(kāi)發(fā)以及計(jì)算機(jī)視覺(jué)與感知的復(fù)雜系統(tǒng),對(duì)其治理需要綜合技術(shù)、社會(huì)、法律以及倫理等多維視角,其中以法律規(guī)范實(shí)現(xiàn)人工智能治理是目前大多數(shù)國(guó)家的主流操作。然而,通過(guò)法律規(guī)范的制定和適用實(shí)現(xiàn)技術(shù)的治理,盡管能夠有效地劃定技術(shù)發(fā)展的紅線,防范因技術(shù)不確定性所引發(fā)的法律風(fēng)險(xiǎn)[14],但是相較于技術(shù)發(fā)展的迅猛,立法的滯后性使之無(wú)法完善地實(shí)現(xiàn)技術(shù)風(fēng)險(xiǎn)的規(guī)范。此外,為了給技術(shù)迭代升級(jí)留足充分的發(fā)展空間,法律也難以對(duì)未知的技術(shù)風(fēng)險(xiǎn)予以充分規(guī)制。以人工智能機(jī)器學(xué)習(xí)內(nèi)容為例,人工智能技術(shù)的發(fā)展沖擊著現(xiàn)有法律規(guī)范體系,如何在促進(jìn)技術(shù)發(fā)展與防范法律風(fēng)險(xiǎn)之間尋找適當(dāng)?shù)钠胶怅P(guān)系成為焦點(diǎn)[15]。因此,為避免立法滯后性影響對(duì)技術(shù)風(fēng)險(xiǎn)的防控,以風(fēng)險(xiǎn)預(yù)防為主的規(guī)制思維逐漸成為治理技術(shù)的主流,并影響立法的理念與實(shí)操。以歐盟《人工智能法》為例,歐盟通過(guò)風(fēng)險(xiǎn)類型化的規(guī)制思路將人工智能區(qū)分為不同風(fēng)險(xiǎn)級(jí)別,并基于風(fēng)險(xiǎn)分類分級(jí)的思維實(shí)現(xiàn)人工智能的針對(duì)性治理。盡管歐盟《人工智能法》對(duì)于人工智能技術(shù)風(fēng)險(xiǎn)體系化的治理思路得到了諸多學(xué)者的肯定[16],然而此種做法實(shí)際上體現(xiàn)了過(guò)度依賴“風(fēng)險(xiǎn)預(yù)防控制”的思維慣性,這種思維慣性使得對(duì)于新技術(shù)的規(guī)制趨于統(tǒng)一,在一定程度上反倒是存在抑制創(chuàng)新的可能。
造成這種風(fēng)險(xiǎn)預(yù)防慣性的主要原因在于舊有規(guī)制思維與現(xiàn)有技術(shù)條件之間的沖突。這種沖突直接導(dǎo)致了在新技術(shù)出現(xiàn)安全危機(jī)時(shí),容易依賴于既有經(jīng)驗(yàn)或規(guī)則處理技術(shù)可能存在的風(fēng)險(xiǎn)。法律層面,這種風(fēng)險(xiǎn)預(yù)防式的思維實(shí)則是預(yù)防法學(xué)理念在處理技術(shù)安全風(fēng)險(xiǎn)的體現(xiàn)。以算法風(fēng)險(xiǎn)為例,受算法黑箱效應(yīng)與算法專業(yè)化、復(fù)雜化特點(diǎn)的影響,對(duì)于算法風(fēng)險(xiǎn)的規(guī)制實(shí)際上采取的是風(fēng)險(xiǎn)預(yù)防型的思路,具體體現(xiàn)為針對(duì)義務(wù)主體設(shè)置相應(yīng)的注意義務(wù)以及懲罰性措施,由此規(guī)避潛在侵權(quán)風(fēng)險(xiǎn)的發(fā)生。不可否認(rèn)的是,這種以行為規(guī)制視角為切口所實(shí)現(xiàn)的風(fēng)險(xiǎn)預(yù)防,在一定程度上杜絕了技術(shù)所帶來(lái)的侵權(quán)風(fēng)險(xiǎn),克服了僅憑權(quán)利與義務(wù)的配置所難以克服的技術(shù)領(lǐng)域特有的復(fù)雜性問(wèn)題。然而,在智能化時(shí)代的背景下,技術(shù)發(fā)展的不確定性逐漸成為未來(lái)技術(shù)創(chuàng)新的主要特點(diǎn),繼續(xù)依賴風(fēng)險(xiǎn)預(yù)防式的規(guī)制思維似乎難以周全地照顧技術(shù)創(chuàng)新與產(chǎn)業(yè)發(fā)展,也無(wú)法準(zhǔn)確回應(yīng)當(dāng)下人工智能產(chǎn)業(yè)所需解決的現(xiàn)實(shí)問(wèn)題[17]。進(jìn)而言之,人工智能的治理并不能僅對(duì)技術(shù)所造成的風(fēng)險(xiǎn)嚴(yán)防死守,還應(yīng)綜合考量技術(shù)背后所關(guān)聯(lián)的經(jīng)濟(jì)利益與公共利益,通過(guò)技術(shù)治理為技術(shù)的創(chuàng)新發(fā)展留足空間。
客觀而言,盡管風(fēng)險(xiǎn)預(yù)防的思維能最大化地規(guī)避因技術(shù)發(fā)展不確定性所導(dǎo)致的風(fēng)險(xiǎn),維護(hù)主體的合法權(quán)益。然而,一旦形成預(yù)防技術(shù)風(fēng)險(xiǎn)的慣性思維,難免造成規(guī)范上的“陷阱”,這種規(guī)范上的“陷阱”實(shí)際上體現(xiàn)為盡可能地實(shí)現(xiàn)完善的風(fēng)險(xiǎn)預(yù)防體系,以防控可能存在的侵權(quán)風(fēng)險(xiǎn)。但實(shí)際上,這種做法不僅可能會(huì)影響新問(wèn)題的有效解決,也容易阻礙技術(shù)的創(chuàng)新發(fā)展。一方面,過(guò)于依賴風(fēng)險(xiǎn)預(yù)防的做法容易忽視真正需要解決的現(xiàn)實(shí)問(wèn)題,降低決策效率。盡管我國(guó)人工智能技術(shù)已處于快速發(fā)展階段,但相較于國(guó)外先進(jìn)水平還存在差距,同時(shí)與人工智能相配套的產(chǎn)業(yè)鏈仍在搭建之中。此時(shí)以風(fēng)險(xiǎn)預(yù)防的思維實(shí)現(xiàn)技術(shù)的規(guī)制,雖然能針對(duì)性地防范因技術(shù)所產(chǎn)生的風(fēng)險(xiǎn),但容易導(dǎo)致對(duì)技術(shù)與產(chǎn)業(yè)發(fā)展的激勵(lì)不足,降低企業(yè)的決策效率。另一方面,將風(fēng)險(xiǎn)預(yù)防作為主要規(guī)制思路同樣存在抑制技術(shù)創(chuàng)新發(fā)展的可能性。這種過(guò)度預(yù)防技術(shù)風(fēng)險(xiǎn)的思維,可能會(huì)忽視或拒絕接受新的技術(shù)方案,從而成為束縛技術(shù)發(fā)展的瓶頸,阻礙技術(shù)的優(yōu)化和創(chuàng)新。值得注意的是,對(duì)于技術(shù)風(fēng)險(xiǎn)的預(yù)防并非絕對(duì)錯(cuò)誤,而是應(yīng)警惕持續(xù)堅(jiān)持風(fēng)險(xiǎn)預(yù)防的慣性思維所可能導(dǎo)致的決策偏差。進(jìn)而言之,在對(duì)技術(shù)實(shí)現(xiàn)規(guī)范治理時(shí),應(yīng)優(yōu)先思考通過(guò)技術(shù)實(shí)現(xiàn)自身風(fēng)險(xiǎn)排除的可能性措施,在通過(guò)技術(shù)治理難以完全排除風(fēng)險(xiǎn)時(shí),再通過(guò)法律規(guī)范予以兜底,從而給予技術(shù)“自愈”和發(fā)展的空間,推動(dòng)人工智能技術(shù)的健康、可持續(xù)發(fā)展。
(二)因技術(shù)手段僵化所導(dǎo)致的技術(shù)治理不能
將技術(shù)作為人工智能治理的工具,并非一味強(qiáng)調(diào)通過(guò)技術(shù)治理提高社會(huì)效率,還應(yīng)意識(shí)到技術(shù)作為治理工具存在的局限性。與傳統(tǒng)科技不同,人工智能作為顛覆性技術(shù)難以被人所完全認(rèn)知并規(guī)制。這意味著,在通過(guò)技術(shù)實(shí)現(xiàn)人工智能治理的時(shí)候,需警惕利用技術(shù)逾越法律底線的行為舉動(dòng),避免不負(fù)責(zé)任的創(chuàng)新治理。在實(shí)現(xiàn)技術(shù)治理的過(guò)程之中,不僅需要滿足“數(shù)字化、客觀化、專業(yè)化和效率化”的四大訴求[18],同時(shí)還應(yīng)注重技術(shù)治理符合現(xiàn)有法律體系中的規(guī)范要求。一旦技術(shù)治理違背治理初衷,相應(yīng)技術(shù)治理便極有可能導(dǎo)致“反治理”的效果,如技術(shù)怠工、智能低效等難題[4],進(jìn)而導(dǎo)致技術(shù)治理失靈,影響人工智能治理的實(shí)際效果。進(jìn)而言之,將技術(shù)治理應(yīng)用于人工智能的治理之中,應(yīng)警惕技術(shù)作為治理手段存在的局限性。這種局限性一方面反映為技術(shù)治理內(nèi)部治理手段的僵化,以及因僵化所導(dǎo)致的新類型風(fēng)險(xiǎn);另一方面,也需注意在技術(shù)治理外部與法律治理模式的銜接問(wèn)題,以確保在實(shí)現(xiàn)人工智能治理之時(shí),避免因技術(shù)與法律之間的銜接問(wèn)題而導(dǎo)致人工智能治理失效。
具體而言,因技術(shù)專業(yè)性與復(fù)雜性所導(dǎo)致的技術(shù)治理不能,在技術(shù)治理內(nèi)部體現(xiàn)為治理手段的僵化以及因僵化所導(dǎo)致的新類型風(fēng)險(xiǎn)。就人工智能治理而言,人工智能本身作為一項(xiàng)新類型的技術(shù),在通過(guò)技術(shù)工具治理人工智能時(shí),容易以傳統(tǒng)的科技思維思考治理的模式。然而,如果治理工具本身的技術(shù)基礎(chǔ)存在缺陷,或者治理過(guò)程中過(guò)度依賴這些工具,則極有可能限制治理的靈活性和創(chuàng)新性,從而導(dǎo)致治理的僵化。本質(zhì)上,這種治理的僵化實(shí)際上是“技術(shù)治理技術(shù)”陷入“維護(hù)”與“批判”的自反性悖論[19],從而導(dǎo)致技術(shù)治理“失靈”。
此外,因技術(shù)治理手段僵化也同樣可能造成新類型的風(fēng)險(xiǎn)。以人工智能圖像水?。ˋI Watermarking)技術(shù)為例子,作為標(biāo)識(shí)人工智能生成內(nèi)容和解決深度偽造、虛假信息的關(guān)鍵技術(shù),人工智能圖像水印技術(shù)往往被廣泛應(yīng)用于人工智能治理之中。無(wú)論是歐盟《人工智能法》第50條第2款的規(guī)定2,抑或美國(guó)聯(lián)邦參議員所提出的《保護(hù)內(nèi)容來(lái)源和完整性,防止編輯和深度偽造媒體法案》(Content Origin Protection and Integrity from Edited and Deepfaked Media Act)3,均代表著人工智能圖像水印技術(shù)已作為治理人工智能的關(guān)鍵技術(shù)得到了實(shí)踐層面的認(rèn)可。然而,由于欠缺可靠的技術(shù)基礎(chǔ),圖像水印技術(shù)的應(yīng)用實(shí)際上難以取得理想的效果[20]。過(guò)度依賴圖像水印技術(shù)可能導(dǎo)致人們忽視其他形式的錯(cuò)誤信息,在人工智能生成內(nèi)容涉及侵犯著作權(quán)時(shí),將內(nèi)容標(biāo)記為“AI生成”并不能否定其違法性[21]。因此,通過(guò)技術(shù)治理技術(shù)并非十全十美之事,在技術(shù)尚未成熟之際將其作為治理工具,難免會(huì)導(dǎo)致治理目標(biāo)與治理效果的偏差。
與此同時(shí),技術(shù)治理不能的另一面向還體現(xiàn)為技術(shù)治理與外部法律治理之間的銜接問(wèn)題。由于人工智能技術(shù)集合了大模型算法、數(shù)據(jù)訓(xùn)練以及內(nèi)容輸出等多項(xiàng)功能,在技術(shù)基礎(chǔ)尚未成熟之時(shí),相應(yīng)的技術(shù)操作指標(biāo)可能因人工智能系統(tǒng)自身的高度適應(yīng)性與學(xué)習(xí)能力,使得人工智能治理存在相應(yīng)技術(shù)操作標(biāo)準(zhǔn)與法律評(píng)估標(biāo)準(zhǔn)銜接不暢、價(jià)值難以對(duì)齊的窘境。以“通知—?jiǎng)h除”規(guī)則為例,法律治理層面的“刪除”要求實(shí)現(xiàn)“停止侵害”的應(yīng)然效果4,然而對(duì)于人工智能系統(tǒng)中的數(shù)據(jù)刪除并非簡(jiǎn)單、直接的技術(shù)操作,從人工智能系統(tǒng)中的“刪除”數(shù)據(jù)的影響仍是一個(gè)定位模糊的問(wèn)題。這意味著,盡管人工智能已實(shí)現(xiàn)了形式上的數(shù)據(jù)刪除,但如果系統(tǒng)在對(duì)與先前刪除數(shù)據(jù)相似的內(nèi)容進(jìn)行微調(diào)時(shí),仍可能觸發(fā)先前數(shù)據(jù)的隱性再現(xiàn),從而挑戰(zhàn)了數(shù)據(jù)徹底刪除的概念[22]。易言之,在通過(guò)技術(shù)治理人工智能時(shí),不能將目光僅局限于技術(shù)治理的范疇之中,還應(yīng)確保與外部法律體系的整合與協(xié)同,以促進(jìn)人工智能治理的有效性和連貫性。
(三)因技術(shù)發(fā)展的不確定性所導(dǎo)致的倫理風(fēng)險(xiǎn)
人工智能作為具備自主學(xué)習(xí)能力和認(rèn)知邏輯的顛覆性技術(shù),在通過(guò)技術(shù)賦能經(jīng)濟(jì)社會(huì)發(fā)展的同時(shí),其研發(fā)與應(yīng)用也引發(fā)了諸如深度偽造、算法偏見(jiàn),以及數(shù)據(jù)安全等倫理風(fēng)險(xiǎn)。造成這些倫理風(fēng)險(xiǎn)的主要原因在于,人工智能技術(shù)發(fā)展的不確定性導(dǎo)致了技術(shù)創(chuàng)新偏離技術(shù)研發(fā)初衷,使得技術(shù)無(wú)法及時(shí)回應(yīng)社會(huì)價(jià)值需求和道德期望。以算法黑箱效應(yīng)為例,由于人工智能的研發(fā)和應(yīng)用與數(shù)據(jù)緊密相連,導(dǎo)致人工智能的治理也不可避免地涉及數(shù)據(jù)安全或隱私保護(hù)等問(wèn)題。然而,人工智能大模型算法黑箱效應(yīng)的存在,使得數(shù)據(jù)主體無(wú)法得知算法運(yùn)作以及信息利用的過(guò)程,進(jìn)而難以維護(hù)自身的個(gè)人信息或隱私權(quán)益。此外,由于技術(shù)治理中“專家政治”的主張,治理過(guò)程往往由掌握一定知識(shí)的專家所掌控[12],這種專家式的治理主體一旦缺乏相應(yīng)的責(zé)任倫理限制,則極有可能導(dǎo)致技術(shù)治理失靈[18]。進(jìn)而言之,對(duì)于人工智能的技術(shù)治理難以兼顧倫理風(fēng)險(xiǎn),無(wú)論是技術(shù)治理工具還是治理主體責(zé)任,技術(shù)治理應(yīng)用于人工智能治理存在局限性。
值得注意的是,這種局限性并沒(méi)有在現(xiàn)有倫理規(guī)范與倫理審查制度框架內(nèi)得以妥善消解。以我國(guó)的倫理規(guī)范為例,盡管我國(guó)圍繞著人工智能倫理陸續(xù)出臺(tái)了《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》《新一代人工智能倫理規(guī)范》和《人工智能倫理治理標(biāo)準(zhǔn)化指南》等一系列政策文件,但并未逃脫“回應(yīng)式”治理的范疇,相應(yīng)的倫理舉措仍屬于對(duì)已經(jīng)發(fā)生事件的事后修補(bǔ)[23]。盡管這種“回應(yīng)式”治理模式并非盡善盡美,從人工智能倫理治理的實(shí)踐來(lái)看,無(wú)論是對(duì)技術(shù)操作流程的價(jià)值嵌入,抑或?qū)θ斯ぶ悄墚a(chǎn)品或智能體的倫理要求,均無(wú)法脫離當(dāng)下技術(shù)范疇與思維認(rèn)知的局限,人工智能倫理的“回應(yīng)式”治理范式仍是當(dāng)下人工智能倫理治理的主要模式。此外,由于倫理監(jiān)管的敏感性,在倫理審查制度的建構(gòu)上,仍未能有行之有效的操作方案,國(guó)際范圍內(nèi)也未出現(xiàn)專用的人工智能倫理檢測(cè)的工具[24]。目前,對(duì)于人工智能倫理的要求更多的是在技術(shù)流程中輸入相應(yīng)的倫理或道德指標(biāo),典型如公平性、可解釋性、透明度等。
因此,在技術(shù)治理存在倫理風(fēng)險(xiǎn)應(yīng)對(duì)的局限性時(shí),有必要將目光超越單一的技術(shù)治理范式,不能僅局限在發(fā)揮技術(shù)治理的工具理性,還應(yīng)注重與價(jià)值理性的協(xié)調(diào)統(tǒng)一。這意味著,在貫徹人工智能促進(jìn)式治理理念與技術(shù)治理思維之際,不能僅關(guān)注技術(shù)所引發(fā)的法律風(fēng)險(xiǎn),還應(yīng)有效回應(yīng)技術(shù)發(fā)展中的倫理問(wèn)題,以此滿足社會(huì)對(duì)技術(shù)發(fā)展的創(chuàng)新期待與價(jià)值需求。
四、技術(shù)治理視域下人工智能治理的制度安排
在思考技術(shù)治理視域下人工智能治理的制度安排時(shí),基于促進(jìn)式治理理念與技術(shù)治理思維的要求,不僅應(yīng)重視因技術(shù)治理所可能導(dǎo)致的局限性困境,還應(yīng)注重科技與社會(huì)制度之間的關(guān)系協(xié)調(diào)。建構(gòu)人工智能治理的制度體系,其關(guān)鍵點(diǎn)在于尋找與技術(shù)創(chuàng)新發(fā)展趨勢(shì)相適應(yīng)的科學(xué)治理制度。具體而言,應(yīng)實(shí)現(xiàn)以“技”與“法”相互調(diào)節(jié)的規(guī)范治理,推動(dòng)技術(shù)創(chuàng)新與制度規(guī)范之間的有效互動(dòng),同時(shí)完善以技術(shù)標(biāo)準(zhǔn)為主的軟法規(guī)范體系,避免技術(shù)實(shí)施標(biāo)準(zhǔn)的模糊與手段的僵化。在發(fā)揮技術(shù)治理工具價(jià)值的同時(shí),更加強(qiáng)調(diào)負(fù)責(zé)任的人工智能倫理規(guī)范引導(dǎo),以實(shí)現(xiàn)更加持續(xù)、健康的人工智能技術(shù)發(fā)展。
(一)實(shí)現(xiàn)“技”與“法”相互調(diào)節(jié)的規(guī)范治理
技術(shù)治理并非完美無(wú)缺,其在實(shí)踐中往往面臨著工具理性與價(jià)值理性的雙重挑戰(zhàn)。工具理性強(qiáng)調(diào)技術(shù)手段的效率和實(shí)用性,而價(jià)值理性則關(guān)注技術(shù)應(yīng)用的道德和倫理維度。在這一背景下,技術(shù)治理不能僅局限在單一化的范圍之中,而是應(yīng)保持科技謙遜主義,注重與其他治理方式的協(xié)調(diào)統(tǒng)一。因此,應(yīng)對(duì)人工智能治理,有必要實(shí)現(xiàn)以“技”與“法”相互調(diào)節(jié)的規(guī)范治理,確保通過(guò)技術(shù)工具與法律工具的綜合介入,平衡技術(shù)治理中的工具理性與價(jià)值理性,確保技術(shù)發(fā)展與社會(huì)需求相協(xié)調(diào)。具體而言,“技”與“法”相互調(diào)節(jié)的規(guī)范治理本質(zhì)上并不違背技術(shù)治理所提倡的工具理性與價(jià)值理性屬性,而是通過(guò)法律規(guī)范的介入,避免技術(shù)治理出現(xiàn)工具理性的越位以及價(jià)值理性的缺位。同時(shí),“技”與“法”相互調(diào)節(jié)的規(guī)范治理還強(qiáng)調(diào)不同治理工具之間的相互促進(jìn)和協(xié)同發(fā)展。技術(shù)治理可以為法律規(guī)范提供新的視角和方法,推動(dòng)法律規(guī)范的創(chuàng)新和完善。而法律規(guī)范則可以為技術(shù)治理提供必要的約束和指導(dǎo),確保技術(shù)治理的方向和目標(biāo)與社會(huì)價(jià)值觀和倫理標(biāo)準(zhǔn)相一致。在這一過(guò)程中,法律規(guī)范不僅為技術(shù)治理提供了必要的法律框架和行為準(zhǔn)則,還有助于確保技術(shù)應(yīng)用的合法性、合理性和道德性。通過(guò)法律規(guī)范的介入,可以有效避免技術(shù)治理過(guò)程中可能出現(xiàn)的權(quán)力濫用、隱私侵犯等問(wèn)題,保障個(gè)體權(quán)益和社會(huì)公共利益。
進(jìn)而言之,“技”與“法”相互調(diào)節(jié)下的人工智能治理的制度安排,本質(zhì)上是技術(shù)價(jià)值與法律價(jià)值相互構(gòu)建的過(guò)程。實(shí)現(xiàn)更加有序、高效的人工智能治理,治理者就不可避免地需要面對(duì)因技術(shù)發(fā)展和技術(shù)作為治理工具所帶來(lái)的風(fēng)險(xiǎn),以及與技術(shù)發(fā)展相適應(yīng)的法律制度構(gòu)建問(wèn)題。然而,技術(shù)治理與法律治理之間的關(guān)系較為復(fù)雜。由于技術(shù)治理的工具主義傾向,即技術(shù)被視為達(dá)成既定治理目標(biāo)的一種手段,與法律治理原則所強(qiáng)調(diào)的法律權(quán)威及其價(jià)值導(dǎo)向之間存在著一種內(nèi)在的張力。工具主義的過(guò)度強(qiáng)調(diào)容易使得技術(shù)被簡(jiǎn)化為單一性、功能性的工具,可能導(dǎo)致技術(shù)本身固有的價(jià)值和倫理維度被邊緣化,從而使得技術(shù)活動(dòng)在實(shí)現(xiàn)目標(biāo)的過(guò)程中,可能忽略了其對(duì)社會(huì)秩序和人類福祉的深遠(yuǎn)影響[25]。這種簡(jiǎn)化不僅可能導(dǎo)致技術(shù)決策過(guò)程中的倫理盲點(diǎn),也可能使得技術(shù)治理無(wú)法充分考慮技術(shù)活動(dòng)對(duì)人類社會(huì)結(jié)構(gòu)、文化價(jià)值觀以及自然環(huán)境的潛在影響。這種情況下,技術(shù)治理缺失了對(duì)社會(huì)價(jià)值與人文的理性關(guān)懷,從而違背富勒斯合法性原則中對(duì)法律內(nèi)在道德性的強(qiáng)調(diào)[26]。因此,實(shí)現(xiàn)“技”與“法”相互調(diào)節(jié)的規(guī)范治理,應(yīng)在實(shí)踐中建立技術(shù)治理與法律治理相互協(xié)調(diào)的平衡機(jī)制,以確保技術(shù)的發(fā)展既能夠推動(dòng)社會(huì)進(jìn)步,又能夠尊重和維護(hù)法律的權(quán)威和價(jià)值導(dǎo)向。
具體而言,“技”與“法”相互調(diào)節(jié)的平衡機(jī)制具體體現(xiàn)為三重要求:一是發(fā)揮技術(shù)工具的治理優(yōu)勢(shì),在法律治理中固化技術(shù)解決方案。這要求在人工智能技術(shù)產(chǎn)生風(fēng)險(xiǎn)之際,通過(guò)技術(shù)治理工具的妥善運(yùn)用,確保在技術(shù)可行范圍內(nèi)發(fā)揮技術(shù)治理工具的優(yōu)勢(shì),消除技術(shù)本身所帶來(lái)的風(fēng)險(xiǎn)。此外,對(duì)于技術(shù)治理工具的運(yùn)用并非短期或一次性的治理手段,而是應(yīng)通過(guò)制度規(guī)范的建構(gòu)將其固化為治理的長(zhǎng)效機(jī)制,使得技術(shù)工具優(yōu)勢(shì)得以與法律治理相互協(xié)同,確保其在不同階段和不同情境下都能夠發(fā)揮預(yù)期的作用。二是強(qiáng)調(diào)法律治理的價(jià)值導(dǎo)向,避免慣性的預(yù)防思維。法律治理的核心價(jià)值在于維護(hù)社會(huì)公平正義、保障人權(quán)、促進(jìn)社會(huì)和諧穩(wěn)定,因此在應(yīng)對(duì)因技術(shù)所產(chǎn)生的風(fēng)險(xiǎn)時(shí),法律治理應(yīng)充分發(fā)揮公正、秩序和效率的價(jià)值導(dǎo)向,引導(dǎo)技術(shù)治理價(jià)值理性的發(fā)揮。同時(shí),在選擇相應(yīng)治理方式時(shí),盡可能避免因?qū)夹g(shù)發(fā)展不確定性所導(dǎo)致的慣性預(yù)防思維,提高制度對(duì)技術(shù)發(fā)展的包容性和適應(yīng)性。三是實(shí)現(xiàn)法律治理與技術(shù)治理的深度融合,發(fā)揮不同治理工具的協(xié)同優(yōu)勢(shì)。技術(shù)治理工具的優(yōu)勢(shì)在于高效性、精確性以及可量化性,而法律治理則強(qiáng)調(diào)公平、正義等價(jià)值導(dǎo)向,通過(guò)兩者的深度結(jié)合,可以確保在合理運(yùn)用技術(shù)治理工具的同時(shí),避免其可能帶來(lái)的倫理風(fēng)險(xiǎn)和社會(huì)問(wèn)題?;诩夹g(shù)治理與法律治理的協(xié)同作用不僅能夠提高治理效率,還能夠確保治理過(guò)程的合法性和合理性,使得技術(shù)的發(fā)展與應(yīng)用更加符合社會(huì)的整體利益和長(zhǎng)遠(yuǎn)發(fā)展。
(二)完善以技術(shù)標(biāo)準(zhǔn)為主的軟法規(guī)范體系
為了平衡技術(shù)治理與法律治理之間的要求,應(yīng)采取一種更為綜合、完善的視角,既通過(guò)技術(shù)工具提高治理效率與治理水平,又通過(guò)與法律治理的銜接融合確保人工智能治理活動(dòng)取得社會(huì)大眾所期待的治理效果。這意味著,需要將治理的目光逡巡于與法律治理聯(lián)系密切的軟法規(guī)范體系,并以技術(shù)標(biāo)準(zhǔn)為切口,通過(guò)構(gòu)建和完善與人工智能相關(guān)的技術(shù)標(biāo)準(zhǔn)體系,強(qiáng)化技術(shù)治理的穩(wěn)定性??陀^而言,如技術(shù)標(biāo)準(zhǔn)、行為準(zhǔn)則等軟法規(guī)范,雖然不具備法律的強(qiáng)制性,但在實(shí)踐中具有重要的指導(dǎo)和約束作用[27]。通過(guò)軟法規(guī)范的引導(dǎo),可以為技術(shù)治理提供更為靈活和更強(qiáng)適應(yīng)性的規(guī)范框架,使其更好地適應(yīng)不斷變化的社會(huì)需求和技術(shù)發(fā)展。在這一過(guò)程之中,完善以技術(shù)標(biāo)準(zhǔn)為主的軟法規(guī)范體系應(yīng)著眼于人工智能技術(shù)的系統(tǒng)能力建設(shè)、人工智能的過(guò)程性安全標(biāo)準(zhǔn)以及技術(shù)治理與法律治理的銜接融合之上,確保通過(guò)技術(shù)標(biāo)準(zhǔn)的構(gòu)建與完善,強(qiáng)化技術(shù)治理的穩(wěn)定性以及與法律治理的內(nèi)在融合。具體而言,完善以技術(shù)標(biāo)準(zhǔn)為主的軟法規(guī)范體系主要包括以下三個(gè)方面:
第一,構(gòu)建人工智能系統(tǒng)能力建設(shè)標(biāo)準(zhǔn),提高人工智能技術(shù)治理水平。對(duì)于人工智能系統(tǒng)能力的建設(shè)不僅應(yīng)明確技術(shù)基礎(chǔ)范圍內(nèi)技術(shù)工具的共性要求,而且還應(yīng)針對(duì)人工智能系統(tǒng)建設(shè)能力展開(kāi)測(cè)試與評(píng)估。一方面,在基礎(chǔ)共性要求上,通過(guò)研制人工智能技術(shù)基礎(chǔ)術(shù)語(yǔ)定義、模式架構(gòu)以及關(guān)鍵技術(shù)的應(yīng)用標(biāo)準(zhǔn),落實(shí)人工智能技術(shù)研發(fā)與應(yīng)用的標(biāo)準(zhǔn)機(jī)制,推動(dòng)技術(shù)工具在人工智能治理中的針對(duì)性與有效性。另一方面,通過(guò)建立完善的人工智能系統(tǒng)能力測(cè)試與評(píng)估標(biāo)準(zhǔn),提升技術(shù)治理的科學(xué)性與客觀性,進(jìn)一步明確技術(shù)治理的限度與風(fēng)險(xiǎn)應(yīng)對(duì)策略,從而實(shí)現(xiàn)治理水平與治理能力的提升。
第二,建立完善的人工智能安全流程標(biāo)準(zhǔn),強(qiáng)化技術(shù)風(fēng)險(xiǎn)的抵御能力。對(duì)于人工智能安全流程標(biāo)準(zhǔn)的建設(shè)應(yīng)關(guān)注人工智能技術(shù)研發(fā)與應(yīng)用中所涉及的大模型算法、訓(xùn)練數(shù)據(jù)、安全與隱私等方面,加強(qiáng)人工智能系統(tǒng)的全生命周期管理,以更加嚴(yán)謹(jǐn)、科學(xué)的技術(shù)治理手段實(shí)現(xiàn)人工智能的透明度、可解釋性、可控性等不同維度的風(fēng)險(xiǎn)防控,提高系統(tǒng)的穩(wěn)定性和可靠性。
第三,加強(qiáng)技術(shù)治理與法律治理的銜接能力,發(fā)揮治理工具的協(xié)同作用。就人工智能治理而言,不僅需要通過(guò)技術(shù)治理工具實(shí)現(xiàn)治理效率和水平的提升,更需要通過(guò)法律價(jià)值引導(dǎo)技術(shù)治理工具的選擇與應(yīng)用,校正技術(shù)治理的偏差[28]。進(jìn)而言之,一方面需要在人工智能治理的過(guò)程中,注重法律規(guī)范與技術(shù)治理實(shí)踐的深度融合,明確相關(guān)技術(shù)定義與法律定義之間的互動(dòng)關(guān)系,確保法律規(guī)范中的技術(shù)標(biāo)準(zhǔn)符合技術(shù)發(fā)展實(shí)踐。另一方面,在技術(shù)治理過(guò)程中,應(yīng)當(dāng)充分發(fā)揮法律價(jià)值的引導(dǎo)作用,確保技術(shù)的應(yīng)用不僅追求效率和效益,也符合社會(huì)的整體利益和長(zhǎng)遠(yuǎn)發(fā)展,從而實(shí)現(xiàn)技術(shù)治理工具理性與價(jià)值理性的協(xié)調(diào)統(tǒng)一,促進(jìn)治理實(shí)踐與社會(huì)價(jià)值的更好對(duì)接。
(三)強(qiáng)調(diào)更加負(fù)責(zé)任的人工智能倫理規(guī)范引導(dǎo)
技術(shù)治理在通過(guò)運(yùn)用技術(shù)化手段實(shí)現(xiàn)人工智能治理的同時(shí),還應(yīng)確保技術(shù)治理價(jià)值理性的實(shí)現(xiàn)。這一要求揭示了人工智能技術(shù)治理的雙重維度:一方面,技術(shù)治理需在形式上滿足治理的合理性,即通過(guò)有效的技術(shù)手段確保治理過(guò)程的透明度、公正性和效率。另一方面,技術(shù)治理應(yīng)在實(shí)質(zhì)層面超越單一性、功能性的技術(shù)應(yīng)用,避免技術(shù)治理滑向過(guò)度工具化的趨勢(shì),推動(dòng)人工智能治理向“善治”和“善智”的方向發(fā)展。進(jìn)而言之,技術(shù)治理價(jià)值理性更加關(guān)注治理活動(dòng)的倫理維度,強(qiáng)調(diào)了治理活動(dòng)的價(jià)值導(dǎo)向,即人工智能治理不僅要追求治理效率和治理效果,還要關(guān)注治理活動(dòng)對(duì)社會(huì)、環(huán)境和個(gè)體的長(zhǎng)遠(yuǎn)影響。在人工智能的背景下,這意味著技術(shù)治理不僅要確保人工智能系統(tǒng)的功能性和效率,還要確保這些系統(tǒng)的設(shè)計(jì)和應(yīng)用符合倫理原則和社會(huì)價(jià)值觀,促進(jìn)人工智能技術(shù)的負(fù)責(zé)任使用。
此外,人工智能技術(shù)的不確定性和快速發(fā)展帶來(lái)了一系列倫理風(fēng)險(xiǎn),如隱私侵犯、數(shù)據(jù)安全、算法偏見(jiàn)等問(wèn)題。這些風(fēng)險(xiǎn)要求技術(shù)治理在追求價(jià)值理性時(shí),必須確保技術(shù)治理的理性回歸到以人為中心的治理本位。這意味著,技術(shù)治理應(yīng)當(dāng)以人的福祉和發(fā)展為最終目標(biāo),確保技術(shù)的發(fā)展和應(yīng)用能夠促進(jìn)社會(huì)的整體利益,而不是僅僅追求技術(shù)進(jìn)步本身。對(duì)這一目標(biāo)的實(shí)現(xiàn),不僅需要在技術(shù)治理的過(guò)程中嵌入以人為本的價(jià)值理念,還應(yīng)采取多元化、綜合化的措施以確保價(jià)值理念的落實(shí)。
具體而言,一是在技術(shù)治理的過(guò)程中嵌入以人為本的價(jià)值理念[29],確保技術(shù)治理的價(jià)值理性得以實(shí)現(xiàn)。這要求在人工智能治理的過(guò)程中,更加關(guān)注社會(huì)主體性的塑造,堅(jiān)持守正創(chuàng)新。一方面,通過(guò)提高人工智能技術(shù)的透明度與可解釋性,使得利益相關(guān)者能夠更加準(zhǔn)確、客觀地評(píng)估技術(shù)所造成的影響,維護(hù)個(gè)體的合法權(quán)益;另一方面,以人為本的價(jià)值理念也要求在技術(shù)創(chuàng)新與應(yīng)用的過(guò)程中,將相關(guān)倫理規(guī)范作為核心要素,通過(guò)“倫理先行”的價(jià)值引導(dǎo),確保人工智能系統(tǒng)的決策過(guò)程和結(jié)果符合社會(huì)倫理和法律規(guī)范。二是完善技術(shù)治理的責(zé)任機(jī)制,強(qiáng)調(diào)更加負(fù)責(zé)任的創(chuàng)新治理。在現(xiàn)行人工智能倫理“回應(yīng)式”治理范式的基礎(chǔ)上,實(shí)現(xiàn)更加前瞻式的責(zé)任監(jiān)管[19]。這意味著,技術(shù)治理者不僅要對(duì)現(xiàn)有技術(shù)應(yīng)用的后果負(fù)責(zé),而且要主動(dòng)識(shí)別和評(píng)估未來(lái)技術(shù)發(fā)展可能帶來(lái)的風(fēng)險(xiǎn)和挑戰(zhàn)。通過(guò)這種前瞻式的責(zé)任監(jiān)管,技術(shù)治理能夠更好地適應(yīng)技術(shù)的動(dòng)態(tài)變化,及時(shí)調(diào)整治理策略,以減少不確定性帶來(lái)的風(fēng)險(xiǎn)。三是建立完善的技術(shù)治理倫理審查制度,加強(qiáng)對(duì)技術(shù)治理過(guò)程中倫理問(wèn)題的監(jiān)督。在強(qiáng)調(diào)技術(shù)治理責(zé)任落實(shí)的同時(shí),還應(yīng)建立完善的倫理審查機(jī)制,確保對(duì)技術(shù)的運(yùn)用不偏離以人為主體的價(jià)值導(dǎo)向,同時(shí)通過(guò)完善倫理審查的監(jiān)督與救濟(jì)制度,加強(qiáng)倫理救濟(jì)的程序性規(guī)定,從而保障個(gè)體的合法權(quán)益得以實(shí)現(xiàn)。
五、結(jié)語(yǔ)
進(jìn)入智能時(shí)代,人工智能技術(shù)的迅猛發(fā)展及其廣泛應(yīng)用給經(jīng)濟(jì)社會(huì)帶來(lái)前所未有的挑戰(zhàn)。面對(duì)人工智能所引發(fā)的治理難題,不僅需要轉(zhuǎn)變傳統(tǒng)的約束式治理理念,還應(yīng)實(shí)現(xiàn)從“治理技術(shù)”向“技術(shù)治理”思維模式的突破。以技術(shù)治理思維實(shí)現(xiàn)人工智能治理,不僅需要妥善利用科學(xué)技術(shù)手段發(fā)揮技術(shù)治理的工具價(jià)值,還應(yīng)確保技術(shù)治理不違反以人為主體的價(jià)值理念。然而,技術(shù)治理視域下的人工智能治理是一個(gè)動(dòng)態(tài)的、開(kāi)放的和持續(xù)的過(guò)程,僅依靠單一的技術(shù)治理思維難以應(yīng)對(duì)紛繁復(fù)雜的人工智能治理難題,我們應(yīng)當(dāng)結(jié)合法律規(guī)范、倫理規(guī)范等治理模式,整合不同領(lǐng)域的知識(shí)和資源,共同推動(dòng)人工智能治理體系的創(chuàng)新和發(fā)展。換言之,在技術(shù)治理的過(guò)程中,以人工智能為主的治理科學(xué)應(yīng)以遵循技術(shù)發(fā)展的客觀規(guī)律為依歸,并通過(guò)“技術(shù)治理—法律規(guī)范—倫理引導(dǎo)”的綜合治理,滿足人們對(duì)經(jīng)濟(jì)社會(huì)發(fā)展效率與技術(shù)發(fā)展理性的期待。
參考文獻(xiàn):
[1] 張凌寒, 于琳. 從傳統(tǒng)治理到敏捷治理:生成式人工智能的治理范式革新[J]. 電子政務(wù), 2023(9): 2?13.
[2] 張富利. 全球風(fēng)險(xiǎn)社會(huì)下人工智能的治理之道——復(fù)雜性范式與法律應(yīng)對(duì)[J]. 學(xué)術(shù)論壇, 2019, 42(3): 68?80.
[3] 徐輝. 人工智能在社會(huì)治理協(xié)同中的應(yīng)用、問(wèn)題與對(duì)策[J]. 科學(xué)管理研究, 2021, 39(5): 32?40.
[4] 劉永謀. 技術(shù)治理、反治理與再治理: 以智能治理為例[J]. 云南社會(huì)科學(xué), 2019(2): 30?32.
[5] 劉永謀. 技術(shù)治理通論[M]. 北京: 北京大學(xué)出版社,2023: 33.
[6] LITTLER D, PEARSON A. Uncertainty and technological innovation[J]. Management Decision, 1972, 10(2): 111?116.
[7] 季衛(wèi)東. 人工智能開(kāi)發(fā)的理念、法律以及政策[J]. 東方法學(xué), 2019(5): 4.
[8] 董禮勝, 李玉耘. 工具—價(jià)值理性分野下西方公共行政理論的變遷[J]. 政治學(xué)研究, 2010(1):67.
[9] 程海東, 陳凡. 從實(shí)踐語(yǔ)境理解技術(shù)治理[J]. 中國(guó)社會(huì)科學(xué)評(píng)價(jià), 2021(3): 84.
[10] 朝樂(lè)門(mén), 尹顯龍. 人工智能治理理論及系統(tǒng)的現(xiàn)狀與趨勢(shì)[J]. 計(jì)算機(jī)科學(xué), 2021, 48(9): 4.
[11] 宋辰熙, 劉錚. 從“治理技術(shù)”到“技術(shù)治理”:社會(huì)治理的范式轉(zhuǎn)換與路徑選擇[J]. 寧夏社會(huì)科學(xué), 2019(6): 125?126.
[12] 劉永謀. 技術(shù)治理的邏輯[J]. 中國(guó)人民大學(xué)學(xué)報(bào), 2016, 30(6): 118.
[13] John Perry Barlow:Selling Wine Without Bottles: The Economy of Mind on the Global Net[EB/OL]. (1993)[2024-06-03]. https: //www. eff. org/pages/selling-wine- without-bottles-economy-mind-global-net.
[14] 劉偉斌. 人工智能生成內(nèi)容保護(hù)的行為規(guī)制邏輯選擇與路徑建構(gòu)[J]. 科技與法律(中英文), 2024(5): 100?109.
[15] 辜凌云. 人工智能機(jī)器學(xué)習(xí)內(nèi)容的著作權(quán)合法性基礎(chǔ)——以文本和數(shù)據(jù)挖掘例外規(guī)則為視角[J]. 出版廣角, 2024(15): 54?59.
[16] 丁曉東. 人工智能風(fēng)險(xiǎn)的法律規(guī)制——以歐盟《人工智能法》為例[J]. 法律科學(xué)(西北政法大學(xué)學(xué)報(bào)), 2024, 42(5): 3?18.
[17] 趙精武. 論人工智能法的多維規(guī)制體系[J]. 法學(xué)論壇, 2024, 39(3): 57.
[18] 劉翠霞. 邁向“負(fù)責(zé)任地創(chuàng)新治理”——當(dāng)代社會(huì)技術(shù)治理的失靈癥候與療治可能[J]. 社會(huì)科學(xué), 2021(10): 90?93.
[19] 張鋌. 技術(shù)治理何以失靈?[J]. 自然辯證法研究, 2022, 38(11): 79?80.
[20] KATE KNIBBS. Researchers Tested AI Watermarks—and Broke All of Them[EB/OL].(2023-10-03)[2024-06-11]. https: //www. wired. com/story/artificial-intelligence- watermarking-issues/.
[21] Justyna Lisinska. Watermarking in Images Will Not Solve AI-Generated Content Abuse[EB/OL].(2024-08-15)[2024?8-20]. https: //datainnovation. org/2024/08/watermarking-in-images-will-not-solve-ai-generated- content-abuse/.
[22] FEDER C A. Report of the 1st workshop on generative AI and law[J]. "ArXiv preprint arxiv: "2311. "06477, "2023: "15.
[23] 吳興華. 從“回應(yīng)式”治理到“前瞻式”治理:人工智能倫理治理模式的變革[J]. 理論導(dǎo)刊, 2024(2): 64.
[24] 國(guó)家人工智能標(biāo)準(zhǔn)化總體組, 全國(guó)信標(biāo)委人工智能分委會(huì). 人工智能倫理治理標(biāo)準(zhǔn)化指南[R]. (2023-03-04)[2024-08-11]. https: //hulianhutongshequ. cn/upload/tank/report/2023/202304/1/fbc819dd851246a1b21298b2e0725636. pdf.
[25] 趙鵬, 謝堯雯. 科技治理的倫理之維及其法治化路徑[J]. 學(xué)術(shù)月刊, 2022, 54(8): 91.
[26] 張智. 論富勒“合法性原則”的道德性與制度化[J]. 河北法學(xué), 2011, 29(6): 171.
[27] 羅豪才, 畢洪海. 通過(guò)軟法的治理[J]. 法學(xué)家, 2006(1): 2.
[28] 鄭智航. 網(wǎng)絡(luò)社會(huì)法律治理與技術(shù)治理的二元共治[J]. 中國(guó)法學(xué), 2018(2): 123.
[29] 張平. 人工智能倫理治理研究[J]. 科技與法律(中英文), 2024(5): 8.
Technical and Legal Governance of Artificial Intelligence
Sun Guorui, Liu Weibin
(School of Law, Beihang University, Beijing 100191, China)
Abstarct: As a technical or technologized governance activity, technical governance places greater emphasis on the interactive relationship between individuals and technology within governance processes.When applied to the governance of artificial intelligence (AI), the framework of technical governance requires not only a reevaluation of traditional constraints surrounding governance philosophy but also an evolution in these philosophies themselves. Furthermore,it requires that technology transcends previous paradigms where it is merely viewed as an object of governance, thereby enabling self-governance within AI technologies.However, governing AI through the lens of technological governance is not merely a matter of applying existing rules. In practice, it often encounters challenges such as the \"trap\" of normative thinking, limitations in technical governance, and ethical risks. To address these challenges effectively, it is essential to comprehensively consider the interplay between technical and legal frameworks for regulation. This involves realizing a normative system that facilitates mutual regulation between \"technology\" and \"law\". Additionally, there is a need to enhance the soft law normative system primarily based on technological standards in order to mitigate ambiguities associated with implementation standards while avoiding rigidity in regulatory approaches.Simultaneously, there should be an emphasis on providing responsible guidance regarding AI ethical norms aimed at fostering sustainable and healthy development within AI technologies.
Keywords: technology governance; AI governance; legalnorms; AI ethics