薛林蔚 王 哲 高亞男
(溫州大學,浙江 溫州32500)
在人工智能時代,會出現(xiàn)人格權保護風險,知識產(chǎn)權保護風險,數(shù)據(jù)財產(chǎn)保護風險和侵權責任風險。[1]政府合同治理中,會存在以下五個風險:一是逆向選擇,二是道德風險,三是尋租風險,四是責任風險,五是政治風險。[2]人工智能一般分為三個階段,弱人工智能,強人工智能和超人工智能。[3]在弱人工智能階段,人工智能通過對信息的收集,來輔助幫助政府委托人進行決策,看政府合同簽訂到履行是否存在重大的風險,是否需要采取必要的措施。而到了強人工智能階段,人工智能在不斷深度學習后,可以模仿政府委托人的思維模式,對出現(xiàn)問題的政府合同作出決策,強人工智能不斷發(fā)展,到了超人工智能,這時候人工智能不僅是作出決策,而且會創(chuàng)造一套比較好的方案去處理出現(xiàn)問題的政府合同。
目前,我們處在的階段是在弱人工智能向強人工智能發(fā)展階段,人工智能輔助監(jiān)管為主,獨立決策為輔的階段。所以在這個階段,人工智能還不能完全獨立,所以不會出現(xiàn)人格權風險,即侵犯人工智能人格的風險。而在人工智能參與政府合同監(jiān)管時,人工智能并不需要其創(chuàng)作作品,亦不會出現(xiàn)人工智能知識產(chǎn)權的風險。在人工智能運用于政府合同監(jiān)管時,最有可能出現(xiàn)數(shù)據(jù)財產(chǎn)風險和侵權責任風險。在應對數(shù)據(jù)財產(chǎn)風險,政府需要對代理人和相對人進行評價,而且要對一些資金的信息予以公開,這可能會侵害到代理人和相對人的數(shù)據(jù)隱私。而在侵權責任風險中,應對政府合同的逆向選擇風險、道德風險、尋租風險、責任風險和政治風險都會存在。因為在應對政府合同上述五種風險時,人工智能的介入,可能會造成代理人或相對人權益的侵害。這些原因可能是數(shù)據(jù)輸入的不真實,或是人工智能本身設計時評價程序的缺陷。
具體而言,個人或組織在政府合同中充當?shù)慕巧谴砘蛳鄬θ恕H斯ぶ悄苁占瘮?shù)據(jù)時,需要對代理人或相對人的各種信息進行匯總,代理人的各種信息大多是公開的,如人工智能將這些收集的數(shù)據(jù)不當泄露,并不會直接對代理人或相對人造成一定的影響,但在信息匯總后得出的結論可能是不利于代理人或相對人。就相當于人工智能對這些代理人或是相對人進行了負面評價,這些代理人或是相對人是相對較差的,這個評價對代理人或相對人日后參與其他的政府合同或是社會上的經(jīng)濟活動,是有較大的影響的。在政府層面,人工智能所做的是收集數(shù)據(jù)信息,幫助政府進行決策和監(jiān)管。如果這些信息一旦泄露,例如在應對道德風險中,公民發(fā)現(xiàn)政府不能按約履行政府合同;在尋租風險中,公民發(fā)現(xiàn)政府官員有腐敗現(xiàn)象;在應對責任風險中,公民發(fā)現(xiàn)政府選擇的相對人在履行政府合同出了問題,政府監(jiān)管不力;在應對政治風險中,公民發(fā)現(xiàn)政府在了解民意后未遵循民意,這就可能使得公民對政府整體評價為沒有信用的政府,或是不值得信任的政府。這就會造成政府的信任危機。
政府合同以及人工智能合同監(jiān)管工作之所以會存在多重風險,政府方面的信息不對等與公開不全面是一大原因。加強政府信息公開,將權力的行使過程置于陽光之下,不僅是政府自我約束確立的一種制度安排,而且是公民可以參與的監(jiān)督行政權力的一種方式。[4]在目前的弱人工智能階段,人工智能還僅僅只能夠通過算法來歸納學習合同監(jiān)管方式,無論是算法的正當性還是輸出結果的正確性,事實上還是由政府工作人員來決定。由于政府與人工智能開發(fā)者之間是平等的買賣合同關系,開發(fā)者對于政府具體如何使用人工智能來進行行政工作,輸出結果是否得到正確實施都不知情,此時仍然需要合同相對人對行政合同監(jiān)管工作提出質疑,啟動對于人工智能工作的追溯程序并要求政府信息公開,從而讓人工智能及其操作者得到有效監(jiān)管。至于政府方面,自然應當提前做好信息公開工作,積極與開發(fā)者進行聯(lián)系,將人工智能系統(tǒng)設計為可視化系統(tǒng),幫助合同相對人理解人工智能的處理過程與結果,提升政府公信力。另外,由于政府合同涉及政府各個部門的不同職能,許多合同還存在職權交叉或聯(lián)合的情況,因此政府進行信息公開工作時應當做到整合各部門共同參與的項目合同,將合同各個環(huán)節(jié)的行政主體整理分類記錄,確保人工智能合同監(jiān)管的透明度與權威性。
算法的本質是邏輯推理,監(jiān)管系統(tǒng)輸出的監(jiān)管結果清晰明確,但其過程往往難以監(jiān)督,監(jiān)管人員向軟件公司索要源代碼進行分析既費時費力又缺乏相應理論知識,不具有可行性。因此應當督促軟件公司相關人員嘗試對監(jiān)管軟件的運行過程進行可視化嘗試,在何環(huán)節(jié)通過何判斷最終導向何結果,這個可視化不必以計算機語言的精確度為準,只要能夠從自然語言的角度達到推理的合理性即可。人工智能系統(tǒng)在政府合同監(jiān)管中必須以工作原理能夠以較為通俗或直觀的方式進行闡明為前提,否則在行政訴訟與行政監(jiān)督階段必然將遭受極大阻力,合同相對人也難以得到對于系統(tǒng)的有效預期,將會有損于政府公信力。當然,軟件運行過程的可視化是一個相當具有難度的項目,也可能導致軟件預算成本的大幅上升,這在政府的采購過程中是無法避開的現(xiàn)實難題,因此該項僅僅是作為一個可能的嘗試,由監(jiān)管單位與軟件公司進行洽談確定最終的方案。
目前的監(jiān)管系統(tǒng)僅僅對應弱人工智能,對于輸入的合同具備一定的聯(lián)想與學習能力,但還不足以達到自我學習更新不需要外部幫助的地步,因此仍然需要軟件公司長期跟進,隨著法律法規(guī)的更新對系統(tǒng)進行維護,這有助于延長系統(tǒng)的使用壽命,也能夠保證合同監(jiān)管系統(tǒng)輸出結果的正確性,并能幫助系統(tǒng)收獲質量更高的分析樣本數(shù)據(jù)庫,最終通過不斷收集分析數(shù)據(jù)使監(jiān)管結論與意見更具有使用價值,因此是一個良性循環(huán)的過程。
要做好合同監(jiān)管系統(tǒng)數(shù)據(jù)庫的保護與備份工作。目前全國司法系統(tǒng)都在推進無紙化辦公工程,無紙化能夠提高工作效率,也能夠實現(xiàn)節(jié)約環(huán)保,但必須警惕電子化辦公可能帶來的一些問題,例如數(shù)據(jù)泄露或者斷電等原因導致的數(shù)據(jù)丟失。因此對于合同監(jiān)管系統(tǒng)這類以政府合同為監(jiān)管目標的系統(tǒng),更要做好保密性與安全性工作,由政府部門牽頭,軟件公司承接,為系統(tǒng)設計一個較為妥善的保護方案,包括數(shù)據(jù)庫的儲存轉移以及斷電數(shù)據(jù)保護等方面。在目前紙質檔案管理與無紙化辦公更替的關口,采用紙質檔案備份也是一種可以選擇的較低成本妥協(xié)方案,并可以在技術更為成熟之后全部轉為電子化管理。沒有保護程序的數(shù)據(jù)相當于無根之木,是不能夠承接監(jiān)管這種具有高度保密性特點的工作的,因此必須做好相關工作,助力政府合同監(jiān)管安全。此外對于被采集數(shù)據(jù)的公民來說,政府合同監(jiān)管系統(tǒng)的安全性更加重要。公民的信息要做到及時處理,對于需要留存的信息做好保護工作,對于已經(jīng)失去作用的信息要進行徹底銷毀。
由于人工智能系統(tǒng)在中國目前尚處于初級階段,相關開發(fā)者的經(jīng)驗稍顯稚嫩,對于面向政府合同監(jiān)管的系統(tǒng)開發(fā)工作經(jīng)驗更是少之又少,因此相關系統(tǒng)出現(xiàn)問題是有較大可能的。在人工智能系統(tǒng)作出錯誤分析或者結論,導致侵害政府合同相對人甚至公民的利益時如何進行侵權的追責工作是事實存在的難題。筆者認為在目前的弱人工智能階段,人工智能僅僅作為分析工具存在,自身是不可能承擔任何責任的。生產(chǎn)者擔當人工智能產(chǎn)品的“啟蒙”,理應適用嚴格責任。使用者與生產(chǎn)者不同,他們不介入人工智能系統(tǒng)的設計與生產(chǎn)過程,也完全不掌握算法、程序或指令,因而無必要對系統(tǒng)自身缺陷承擔責任,僅需依據(jù)各自的注意義務范圍,承擔有限的過錯責任。[5]但如果進入強人工智能時代后,人工智能就將獲得承擔責任的義務,此時政府的責任轉變?yōu)閷τ诠蛦T的侵權行為向受害人承擔侵權責任,隨后政府有權向人工智能進行追償,而開發(fā)者作為人工智能的制造者其承擔責任與否則取決于人工智能的侵權行為是否基于自身完全的獨立意志還是受到開發(fā)者的影響而決定,開發(fā)者承擔責任必須以人工智能受其影響為前提。
政府合同已是政府管理社會事務比較普遍的模式,其有著巨大的優(yōu)勢,能充分調動社會資源,參與到公共事務的管理和建設當中。在政府合同監(jiān)管過程中,常見有五大風險:逆向選擇風險、道德風險、尋租風險、責任風險、政治風險。而人工智能應用過程中,其本身也會出現(xiàn)風險,常見有四大風險:人格權風險,知識產(chǎn)權風險,數(shù)據(jù)財產(chǎn)風險和侵權責任風險。這就出現(xiàn)了交叉風險,鑒于目前處于弱人工智能階段,所以最有可能是數(shù)據(jù)財產(chǎn)風險和侵權責任風險與政府合同常見五大交叉風險。為了應對這些出現(xiàn)的新的交叉風險,要做好信息公開。努力做到監(jiān)管系統(tǒng)的處理程序可視化。監(jiān)管系統(tǒng)需要定期進行維護升級。要做好合同監(jiān)管系統(tǒng)數(shù)據(jù)庫的保護與備份。要做好人工智能系統(tǒng)侵權時的追責。