《中共中央關(guān)于進(jìn)一步全面深化改革、推進(jìn)中國(guó)式現(xiàn)代化的決定》提出:“建立人工智能安全監(jiān)管制度?!比斯ぶ悄芤I(lǐng)新的科技革命與產(chǎn)業(yè)革命,是具有代表性的高新技術(shù)。在推動(dòng)科技發(fā)展的同時(shí),人工智能潛在的風(fēng)險(xiǎn)不容忽視。通過系統(tǒng)把握人工智能發(fā)展與安全的關(guān)系,建立相關(guān)安全監(jiān)管制度是人工智能風(fēng)險(xiǎn)治理的重要舉措。
在科技快速發(fā)展的同時(shí),人工智能可能存在侵犯隱私數(shù)據(jù)信息風(fēng)險(xiǎn)、算法偏見與歧視、威脅國(guó)家安全等問題。
隨著人工智能技術(shù)的日益強(qiáng)大,大量的數(shù)據(jù)更容易被獲取、存儲(chǔ)、挖掘和處理。對(duì)于個(gè)人隱私數(shù)據(jù)的收集,不僅涉及人們主動(dòng)提供的數(shù)據(jù),更多涉及被動(dòng)提供的隱私數(shù)據(jù)。在數(shù)據(jù)訓(xùn)練階段,通過網(wǎng)絡(luò)自動(dòng)抓取技術(shù)收集的數(shù)據(jù)可能包括未經(jīng)授權(quán)的隱私數(shù)據(jù),人機(jī)交互過程中人工智能可能收集涉及個(gè)人隱私的數(shù)據(jù);在應(yīng)用階段,用戶利用人工智能生成的內(nèi)容可能存在侵犯?jìng)€(gè)人隱私風(fēng)險(xiǎn)。
人工智能算法偏見與歧視是一個(gè)無法避免的問題。算法總是隱含著一種價(jià)值判斷,而非中立的活動(dòng)。在算法高效地執(zhí)行各種任務(wù)時(shí),由于數(shù)據(jù)樣本存在偏差,被存在偏差的樣本訓(xùn)練完的算法運(yùn)用到現(xiàn)實(shí)中時(shí),就可能出現(xiàn)對(duì)于人或事物的決策偏差或錯(cuò)誤判斷。算法偏見與歧視直接影響了算法結(jié)果,這種結(jié)果又很可能成為某項(xiàng)政策或某個(gè)決策的依據(jù)。人工智能訓(xùn)練數(shù)據(jù)中預(yù)先就有偏見、數(shù)據(jù)抽樣偏差、算法本身成為一種歧視等因素均可導(dǎo)致算法偏見與歧視問題。
人工智能可能威脅國(guó)家安全。在數(shù)據(jù)訓(xùn)練階段,人工智能可能自動(dòng)抓取政務(wù)數(shù)據(jù)、公共數(shù)據(jù)等,存在泄露風(fēng)險(xiǎn),威脅國(guó)家安全。在應(yīng)用階段,不法分子可能利用人工智能窺視國(guó)家秘密,收集軍事數(shù)據(jù)、經(jīng)濟(jì)數(shù)據(jù)等,嚴(yán)重威脅國(guó)家安全與穩(wěn)定。若人工智能脫離人類控制或被濫用,均對(duì)國(guó)家安全產(chǎn)生威脅。
人工智能飛速發(fā)展,成為推動(dòng)經(jīng)濟(jì)社會(huì)發(fā)展的重要?jiǎng)恿?。人工智能在為人類帶來便利的同時(shí),可能存在侵犯隱私數(shù)據(jù)、算法偏見等風(fēng)險(xiǎn)。隨著人工智能替代某些行業(yè),導(dǎo)致一些行業(yè)的從業(yè)者存在失業(yè)風(fēng)險(xiǎn)。人工智能挑戰(zhàn)著現(xiàn)有的法律體系,影響著國(guó)家安全與經(jīng)濟(jì)安全。通過建立人工智能安全監(jiān)管制度,可以有效應(yīng)對(duì)人工智能相關(guān)風(fēng)險(xiǎn)。
現(xiàn)階段,人工智能是新質(zhì)生產(chǎn)力的典型代表,能夠推動(dòng)高質(zhì)量發(fā)展。人工智能可能存在安全風(fēng)險(xiǎn),這要求我們應(yīng)當(dāng)在充分發(fā)展人工智能技術(shù)的同時(shí),加強(qiáng)風(fēng)險(xiǎn)治理。其中,通過建立人工智能安全監(jiān)管制度,能夠兼顧人工智能發(fā)展與安全治理的關(guān)系。準(zhǔn)確把握人工智能賦能相關(guān)產(chǎn)業(yè)的優(yōu)勢(shì),及時(shí)研判潛在的風(fēng)險(xiǎn),不斷加強(qiáng)風(fēng)險(xiǎn)監(jiān)管。
人工智能與人類可持續(xù)發(fā)展息息相關(guān),各國(guó)高度關(guān)注人工智能安全問題。歐盟、美國(guó)、英國(guó)等均采取了一系列措施來加強(qiáng)人工智能安全監(jiān)管。我國(guó)作為負(fù)責(zé)任大國(guó),應(yīng)當(dāng)加強(qiáng)人工智能安全監(jiān)管,參與和引領(lǐng)人工智能全球治理工作,共同促進(jìn)全球人工智能高質(zhì)量發(fā)展。
針對(duì)人工智能帶來的風(fēng)險(xiǎn),我國(guó)亟須建立人工智能安全監(jiān)管制度。
人工智能發(fā)展具有未知性與不可預(yù)測(cè)性,決定了采用包容審慎監(jiān)管模式?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》提出對(duì)生成式人工智能服務(wù)實(shí)行包容審慎和分類分級(jí)監(jiān)管,但過于原則化。包容審慎監(jiān)管模式意味著人工智能發(fā)展與治理并重,堅(jiān)持科技創(chuàng)新與安全治理相結(jié)合,推動(dòng)人工智能高質(zhì)量發(fā)展。
人工智能安全監(jiān)管措施包括以下幾個(gè)方面:一是監(jiān)督檢查。監(jiān)管部門應(yīng)當(dāng)依法開展監(jiān)督檢查,監(jiān)管人工智能訓(xùn)練數(shù)據(jù)、數(shù)據(jù)標(biāo)注內(nèi)容等是否存在違法情況。二是行政處罰措施。法律明確可以通過罰款、限期責(zé)令改正等方式來監(jiān)管人工智能相關(guān)違法行為。三是制定分類分級(jí)監(jiān)管措施。有權(quán)機(jī)關(guān)應(yīng)當(dāng)制定針對(duì)人工智能分類分級(jí)的監(jiān)管措施??梢詫⑷斯ぶ悄芊譃槲谋绢悺⒁曨l類等類型,分別采取不同監(jiān)管措施。
以抑制算法權(quán)力、偏見為重點(diǎn),綜合運(yùn)用多種監(jiān)管手段克服算法偏見問題。為了加強(qiáng)算法偏見與歧視治理,應(yīng)當(dāng)確保數(shù)據(jù)可查性與算法可審計(jì)性,在法律上預(yù)先設(shè)計(jì)好算法使用者、設(shè)計(jì)者等主體的義務(wù),作為人工智能安全監(jiān)管的重要依據(jù)。監(jiān)管機(jī)關(guān)應(yīng)當(dāng)加強(qiáng)算法歧視與偏見的監(jiān)管工作,遏制算法權(quán)力,嚴(yán)格監(jiān)管人工智能企業(yè)的違法行為。
首先,加快建立人工智能監(jiān)管制度是我國(guó)獲得人工智能全球治理規(guī)則主導(dǎo)權(quán)與話語權(quán)的重要推動(dòng)力。在推動(dòng)人工智能立法過程中,我國(guó)應(yīng)當(dāng)綜合考慮國(guó)際社會(huì)的人工智能治理規(guī)則內(nèi)容,注重借鑒先進(jìn)做法。其次,積極參與人工智能全球治理規(guī)則的制定工作。我國(guó)應(yīng)當(dāng)積極參與國(guó)際社會(huì)制定有關(guān)人工智能的規(guī)則,努力主導(dǎo)建立人工智能全球治理體系。
基金項(xiàng)目:山東省法學(xué)會(huì)2024年度全省法學(xué)研究重點(diǎn)課題“個(gè)人數(shù)據(jù)信托的制度建構(gòu)研究”,SLS(2024)A28。
【作者單位:1.山東社會(huì)科學(xué)院法學(xué)研究所■ 逯達(dá)1;2.山東大學(xué)法學(xué)院(威海)■ 逯 達(dá)2】