孫祁
2024年初,世界經(jīng)濟(jì)論壇發(fā)布了《2024年全球風(fēng)險(xiǎn)報(bào)告》,其中將人工智能產(chǎn)生的錯(cuò)誤信息和虛假信息列為2024年世界面臨的最重大風(fēng)險(xiǎn)之一。
sora-AI智能生成視頻是一種基于人工智能技術(shù)的視頻制作方式(圖/IC photo)
2024年2月16日,OpenAI發(fā)布了創(chuàng)新性文生視頻模型Sora,畫(huà)面效果炸裂,就連馬斯克也感嘆“人類認(rèn)賭服輸”。一方面人工智能科技正快速迭代,另一方面其背后隱藏的法律和社會(huì)問(wèn)題已成為社會(huì)關(guān)注的焦點(diǎn)。
通過(guò)深度學(xué)習(xí)技術(shù),sora-AI能夠從大量視頻中學(xué)習(xí)到各種畫(huà)面和音效的規(guī)律,進(jìn)而自動(dòng)生成新的視頻。具體來(lái)說(shuō),sora-AI智能生成視頻的原理可分為以下幾個(gè)步驟:
第一,數(shù)據(jù)采集與預(yù)處理。sora-AI需要大量的視頻數(shù)據(jù)來(lái)進(jìn)行學(xué)習(xí),這些數(shù)據(jù)可以通過(guò)公開(kāi)的數(shù)據(jù)集或者用戶上傳的方式獲得。在學(xué)習(xí)之前,需要對(duì)這些數(shù)據(jù)進(jìn)行預(yù)處理,包括剪輯、轉(zhuǎn)碼、標(biāo)注等操作,以便于機(jī)器學(xué)習(xí)算法的使用。
第二,深度學(xué)習(xí)模型訓(xùn)練。sora-AI的核心是深度學(xué)習(xí)模型,通過(guò)對(duì)大量視頻的學(xué)習(xí),sora-AI能夠自動(dòng)提取出視頻中的畫(huà)面和音效特征,并學(xué)習(xí)到各種畫(huà)面和音效之間的關(guān)聯(lián)。這個(gè)過(guò)程需要消耗大量的計(jì)算資源和時(shí)間,通常需要高性能的GPU或云計(jì)算平臺(tái)來(lái)完成。
第三,視頻生成。一旦深度學(xué)習(xí)模型訓(xùn)練完成,sora-AI就可根據(jù)用戶提供的信息或者根據(jù)模型自帶的生成規(guī)則來(lái)自動(dòng)生成新的視頻。用戶可以根據(jù)需求選擇不同的視頻長(zhǎng)度、畫(huà)面風(fēng)格、音效等參數(shù),sora-AI會(huì)自動(dòng)進(jìn)行視頻的剪輯、拼接、轉(zhuǎn)場(chǎng)等操作,最終生成完整的視頻。
在此原理基礎(chǔ)上,sora-AI智能生成視頻技術(shù)的應(yīng)用場(chǎng)景非常廣泛。例如,新聞報(bào)道、廣告制作、教育培訓(xùn)、電影與游戲制作等與人類生活密切相關(guān)的行業(yè)。從人工智能技術(shù)驅(qū)動(dòng)的自然語(yǔ)言處理工具ChatGPT到如今的Sora;從自動(dòng)生成文字、圖片,再到自動(dòng)生成視頻;人們驚嘆于人工智能的突破性進(jìn)展,同時(shí)也關(guān)注著伴隨其左右的質(zhì)疑和擔(dān)憂,尤其是其背后帶來(lái)的倫理挑戰(zhàn)。Sora生成的視頻幾乎可以以假亂真,這是一把雙刃劍:一方面此功能可用于藝術(shù)創(chuàng)作;另一方面也可能被不法之徒濫用于造假、欺騙,甚至顛覆人們對(duì)現(xiàn)實(shí)的認(rèn)知。
Sora的出現(xiàn)意味著人工智能技術(shù)已經(jīng)發(fā)展到了一個(gè)新的高度,這對(duì)人工智能技術(shù)的監(jiān)管也提出了新的挑戰(zhàn)。不可回避的是,如果不能有效地管控Sora等技術(shù)的應(yīng)用,未來(lái)很可能會(huì)出現(xiàn)挑戰(zhàn)現(xiàn)有規(guī)則的風(fēng)險(xiǎn):
第一,素材侵權(quán)風(fēng)險(xiǎn)。作為AIGC(AI Generate Content)軟件,Sora同樣需要數(shù)據(jù)收集和模型訓(xùn)練,之后才能生成內(nèi)容。因此在訓(xùn)練階段,Sora不可避免地會(huì)使用大量的視頻素材。這些素材往往是他人具有著作權(quán)的作品,擅自收集抓取,就有可能侵犯作品的復(fù)制權(quán)?;谠曨l素材進(jìn)行的加工可能侵犯作品的改編權(quán)。此外,Sora生成的視頻,將來(lái)不可避免會(huì)用于商業(yè)用途,這就超出了“合理使用”的范疇……
第二,侵犯隱私風(fēng)險(xiǎn)。Sora可以不經(jīng)過(guò)同意就能生成包含真實(shí)個(gè)人肖像的內(nèi)容,而抓取這些個(gè)人信息并生成內(nèi)容的過(guò)程,就不可避免地會(huì)觸碰到他人隱私。在Sora正式商用后,會(huì)有更多的個(gè)人信息被抓取、被模仿,個(gè)人隱私如何保護(hù)將成為一大難點(diǎn)。
第三,生成內(nèi)容的真假辨別。Sora商用后,還有一個(gè)巨大的風(fēng)險(xiǎn),便是虛假視頻的濫用,這將衍生出一系列AI詐騙之類的法律問(wèn)題。
筆者注意到,聯(lián)合國(guó)教科文組織此前發(fā)布的《人工智能倫理原則》,提出了人工智能發(fā)展的11項(xiàng)基本原則,包括尊重人權(quán)、促進(jìn)可持續(xù)發(fā)展、避免偏見(jiàn)和歧視等。目前,多個(gè)國(guó)家和地區(qū)發(fā)布了人工智能倫理規(guī)范,微軟等大型科技公司也發(fā)布了相關(guān)規(guī)范。人工智能技術(shù)日新月異,倫理規(guī)范和監(jiān)管制度難免存在滯后,加之倫理問(wèn)題的復(fù)雜性以及各個(gè)國(guó)家和地區(qū)規(guī)范存在差異,還存在一些過(guò)于原則性、缺乏可操作性且難以有效落地的規(guī)則。
OpenAI在Sora技術(shù)報(bào)告的標(biāo)題中寫(xiě)道,視頻生成模型是“世界模擬器”。需要指出的是,盡管Sora在模擬能力方面已取得了顯著的進(jìn)展,但它目前仍然存在諸多局限性——目前的Sora還只是個(gè)視頻制作工具。要知道,視頻生成模型與當(dāng)下數(shù)字孿生、仿真技術(shù)是存在區(qū)別的。仿真和數(shù)字孿生是一種利用數(shù)字技術(shù)、通過(guò)對(duì)物理世界建模來(lái)改造人類對(duì)物理世界認(rèn)知的技術(shù);而視頻動(dòng)畫(huà)只能反映世界表象的東西,并非模型的全部,即類似的AI視頻工具大多數(shù)情況下生成的視頻并不是現(xiàn)實(shí)中存在的。綜上,Sora當(dāng)前還不能挑戰(zhàn)人類社會(huì)運(yùn)行規(guī)則。但是,為應(yīng)對(duì)上述情形帶來(lái)的挑戰(zhàn),目前世界主要大國(guó)和國(guó)際組織已相繼出臺(tái)人工智能監(jiān)管的政策或法律文件。對(duì)于社會(huì)發(fā)展來(lái)說(shuō),如何在政策監(jiān)管和技術(shù)發(fā)展之間找到平衡點(diǎn),將是一大考驗(yàn)——
2024年,歐洲議會(huì)、歐盟委員會(huì)和27個(gè)成員國(guó)的談判代表就歐盟《人工智能法案》達(dá)成協(xié)議,歐盟內(nèi)部市場(chǎng)委員蒂埃里·布雷東在社交媒體上發(fā)文說(shuō),27國(guó)一致支持這一法案,說(shuō)明它們認(rèn)可“談判者在創(chuàng)新與安全之間找到了完美平衡”。此后,包括法國(guó)、德國(guó)在內(nèi)的一些國(guó)家對(duì)法案文本表達(dá)異議,擔(dān)憂法案對(duì)先進(jìn)人工智能模型的嚴(yán)格監(jiān)管將阻礙歐洲人工智能的發(fā)展。為了解決這些擔(dān)憂,歐盟委員會(huì)在人工智能領(lǐng)域推出多項(xiàng)支持創(chuàng)新的措施,通過(guò)建立新的監(jiān)管機(jī)構(gòu)“人工智能辦公室”來(lái)負(fù)責(zé)該法案的實(shí)施。目前,《人工智能法案》還需要提交歐洲議會(huì)批準(zhǔn)。如果獲得批準(zhǔn),相關(guān)規(guī)則將分階段實(shí)施,其中一些禁止性規(guī)則將在該法律通過(guò)六個(gè)月后生效,其余與通用人工智能模型相關(guān)的某些規(guī)則將從2025年起適用。該法案實(shí)施后將是全球首部人工智能領(lǐng)域的法案,支持對(duì)人工智能進(jìn)行必要監(jiān)管,但強(qiáng)調(diào)相關(guān)法規(guī)應(yīng)該只用于規(guī)范人工智能的應(yīng)用而非技術(shù)本身。
近些年,新加坡陸續(xù)頒布了人工智能的專項(xiàng)法律。新加坡一直致力于有關(guān)人工智能倫理和治理的持續(xù)探索。為此,新加坡先后發(fā)布了《人工智能治理框架》《組織實(shí)施和自評(píng)估指南》以及《人工智能治理案例匯編》等人工智能治理規(guī)范與指南。同時(shí),為了更好地幫助治理框架的落地,新加坡還發(fā)布了《組織實(shí)施和自我評(píng)估指南》,旨在為企業(yè)與各類組織提供人工智能治理的統(tǒng)一指導(dǎo)。該指南以《人工智能治理模型框架》中描述的四個(gè)關(guān)鍵領(lǐng)域?yàn)榛A(chǔ),詳細(xì)列出了5個(gè)維度(部署人工智能的目標(biāo)、內(nèi)部治理結(jié)構(gòu)和措施、確定人類參與人工智能增強(qiáng)決策的程度、開(kāi)發(fā)部署運(yùn)營(yíng)管理、利益相關(guān)者互動(dòng)和溝通策略)共計(jì)60多個(gè)問(wèn)題的評(píng)估清單,具有很強(qiáng)的指導(dǎo)性和可操作性。
英國(guó)政府于2023年發(fā)布了《促進(jìn)創(chuàng)新的人工智能監(jiān)管方法》白皮書(shū)。據(jù)該白皮書(shū)內(nèi)容顯示,其提議將在未來(lái)幾年內(nèi)塑造英國(guó)的人工智能治理框架,以提高該技術(shù)的可信度。與其他國(guó)家的版本相比,該白皮書(shū)采用了更加分散的監(jiān)管模式,為實(shí)現(xiàn)監(jiān)管目標(biāo)選擇了一條更具挑戰(zhàn)性的道路。與此同時(shí),該白皮書(shū)承諾此種治理模式,與現(xiàn)實(shí)更相稱,也將促進(jìn)企業(yè)提高創(chuàng)新能力。此外,英國(guó)《數(shù)據(jù)保護(hù)和數(shù)字信息法案》已獲通過(guò),其旨在減少而不是加強(qiáng)與人工智能相關(guān)的保障措施。
綜上,完善細(xì)化相關(guān)人工智能倫理規(guī)范,加強(qiáng)審查和監(jiān)管,加強(qiáng)相關(guān)倫理教育和宣傳,更顯迫切。筆者認(rèn)為,只有正視人工智能帶來(lái)的科技高速發(fā)展以及所面臨的倫理與法律挑戰(zhàn),才能確保人工智能技術(shù)造福人類。
編輯:黃靈? ? yeshzhwu@foxmail.com