曾憲瑋
(河北冀華律師事務(wù)所,河北 石家莊 050000)
社會的不斷發(fā)展使得人們在每天的生活與工作中所要接收的信息愈加繁雜。但是每天的精力與能力是有限的,無法吸收太多的信息知識,也無法對撲面而來的知識進行深入的了解與快速的分辨。在這種情況下,人工智能技術(shù)的出現(xiàn),解決了人類在信息接收和分揀方面的難題。它不僅使得信息技術(shù)得到了革新,還給人類未來的生存與發(fā)展帶來了新的思路。因此在未來的社會發(fā)展過程中,人工智能將占據(jù)十分重要的地位。
人工智能的出現(xiàn)使得人們?nèi)粘5纳a(chǎn)與生活發(fā)生了巨大的變化,它不僅在一定程度上解放了人類的生產(chǎn),還能夠幫助人類節(jié)約大量時間與成本。人工智能技術(shù),除對日常生產(chǎn)與生活產(chǎn)生關(guān)鍵性作用之外,還進一步豐富了人類的精神世界,使得人工智能成為人類在日常文娛活動過程中不可或缺的重要工具。事實上人工智能的確做到了,人工智能不僅使得生產(chǎn)發(fā)展方式產(chǎn)生了變革,還能夠根據(jù)既定的程序進行相應(yīng)的藝術(shù)創(chuàng)作,使得人們的日常精神世界得到豐富,人們的壓力宣泄找尋到合適的出口。但需要注意的是,人工智能在藝術(shù)創(chuàng)作上的版權(quán),無法得到較為科學(xué)的保護。這是由于現(xiàn)階段的法律還未對此有十分全面的規(guī)定,但人工智能在藝術(shù)創(chuàng)作上取得的巨大成功,使得更多人關(guān)注人工智能在藝術(shù)創(chuàng)作上的潛力。實際上以人工智能來進行相應(yīng)的藝術(shù)創(chuàng)作需要耗費大量的時間與精力,但相關(guān)創(chuàng)作一旦公布,后來者想要仿造此來進行大量的數(shù)據(jù)復(fù)刻,是件輕而易舉的事情。倘若人工智能的藝術(shù)創(chuàng)作所針對的客戶群體是固定的,那么后來者仿造此來進行營利,人工智能藝術(shù)創(chuàng)作的版權(quán)又無法受到保護,很可能進行相應(yīng)技術(shù)研發(fā)人員就無法獲得想要的經(jīng)濟收益,這會使得相關(guān)領(lǐng)域的藝術(shù)創(chuàng)作積極性受到打擊,使得人工智能在藝術(shù)創(chuàng)作方面的發(fā)展無法得到持續(xù)。又或者相關(guān)技術(shù)研究人員在創(chuàng)作版權(quán)無法受到保護的情況下,為了提升自身的核心競爭力開始進行不斷的技術(shù)創(chuàng)新,使得人工智能在藝術(shù)創(chuàng)作上所需要花費的成本不斷下降,那么這樣一來,就會有更多人投入到人工智能的藝術(shù)創(chuàng)作當(dāng)中去,這會使得原本的藝術(shù)創(chuàng)作市場出現(xiàn)失衡,會使得原本以人工藝術(shù)創(chuàng)作來進行娛樂審美的行業(yè)出現(xiàn)沒落,使得原本的平衡被打破[1]。這些都是由于創(chuàng)作版權(quán)無法得到保護而產(chǎn)生的問題。
隨著人工智能的不斷發(fā)展,使得現(xiàn)代社會開始逐步進入到了大數(shù)據(jù)時代。為了更好地使得人工智能為使用者進行服務(wù),通常會以收集使用者個人信息的方式,來制定切合使用者使用習(xí)慣的個性化服務(wù)。這種個性化服務(wù)雖然能夠為使用者帶來良好的使用體驗,但卻也很可能會使得使用者的個人信息遭到泄露。所謂的個人信息指的是,與個人隱私相關(guān)的姓名、身份證號、銀行卡號,以及婚姻狀況和信用記錄等。這些信息都是使用者的隱私信息。在進行不同的智能軟件使用過程中,需要進行不斷重復(fù)的授權(quán),使得其信息遭到嚴(yán)重的泄露。倘若有關(guān)軟件開發(fā)企業(yè)對客戶信息數(shù)據(jù)的保存不嚴(yán)密,或是沒有相應(yīng)的規(guī)章制度來對客戶信息的保存進行規(guī)范,那么相關(guān)客戶的隱私信息就很可能會被不法分子所取得,使得以客戶相關(guān)隱私來從事不法行為的概率激增。這種個人信息無法得到保護的法律漏洞,很可能會增加社會風(fēng)險,甚至對人民群眾的日常生活以及個人權(quán)益造成十分嚴(yán)重的侵害。而相關(guān)使用者在日常的智能軟件使用過程中,一旦遭遇到了隱私泄露問題,很可能就會對人工智能的發(fā)展持以懷疑態(tài)度,使得人工智能發(fā)展的廣泛受眾群體不斷萎縮,最終導(dǎo)致人工智能本身的發(fā)展受到阻礙。因此從這幾個方面來看,個人信息無法得到保護是會抑制人工智能發(fā)展以及使得未來社會信息安全度受到威脅的關(guān)鍵問題。相關(guān)研究者務(wù)必要對該問題引起足夠的重視[2]。
由于人工智能所進行的創(chuàng)作,其本身與自然人進行的創(chuàng)作在屬性上有些微的差別,因此人工智能所進行的各類創(chuàng)作,無法使用為自然人創(chuàng)作所制定的各項法律規(guī)定來進行約束。但這并不意味著人工智能的創(chuàng)作版權(quán)便無法得到保護。實際上針對人工智能產(chǎn)品,相關(guān)法律法規(guī)應(yīng)當(dāng)予以較為完全的版權(quán)保護。人工智能不具備自主的思想,似乎并不能夠得到相應(yīng)的法律保護。但實際上人工智能是相關(guān)的特定程序算法編寫后產(chǎn)生的,因此所有人工智能所進行的版權(quán)創(chuàng)作,都是依靠特定算法和程序的編寫衍生出來的。針對這樣的人工智能產(chǎn)品所進行的版權(quán)創(chuàng)作,相關(guān)法律應(yīng)當(dāng)予以明確的保護規(guī)定。實際上,現(xiàn)階段的相關(guān)法律研究者,已經(jīng)開始嘗試對人工智能的創(chuàng)作版權(quán)進行法律保護的研究。他們認(rèn)為,有關(guān)版權(quán)保護的法律不應(yīng)單純地從相關(guān)版權(quán)創(chuàng)作是否是自然人這一角度進行裁定,而應(yīng)當(dāng)從相關(guān)創(chuàng)作是否滿足“最低限度創(chuàng)造性”的標(biāo)準(zhǔn)來進行裁定。換句話說,倘若相關(guān)的人工智能產(chǎn)品所進行的創(chuàng)作滿足“最低限度創(chuàng)造性”,那么相關(guān)創(chuàng)作就必須要受到法律的保護。此外,人工智能產(chǎn)品本身的可復(fù)制和批量生產(chǎn)屬性,使得它可能會遭到侵權(quán)。為了防止這一現(xiàn)象的發(fā)生,相關(guān)人工智能產(chǎn)品的創(chuàng)作者應(yīng)當(dāng)在創(chuàng)作人工智能產(chǎn)品流程中對所有可能用到的技術(shù)進行標(biāo)注說明,這樣一來,在為相關(guān)人工智能進行創(chuàng)作授權(quán)的同時,所有參與進行該項人工智能產(chǎn)品程序編寫的研究者都能夠受到法律的保護,這能夠在很大程度上幫助控制不公平競爭現(xiàn)象的產(chǎn)生,使得人工智能產(chǎn)品的市場競爭能夠趨于科學(xué)合理。
想要切實地保障人工智能技術(shù)用戶的個人信息隱私安全,首先要對可能使得個人隱私安全泄露的原因進行全面的分析。大體上,相關(guān)原因可以分為三層。在人工智能的數(shù)據(jù)服務(wù)層面,數(shù)據(jù)信息不對等一直是人工智能使用者與開發(fā)者之間存在的矛盾。相關(guān)人工智能的開發(fā)者能夠詳細(xì)了解使用者的各項信息,但使用者卻無法對開發(fā)者的各項信息有十分明確的了解。這一矛盾直接導(dǎo)致了人工智能開發(fā)者可以進行廣泛的信息搜集,一旦其內(nèi)部出現(xiàn)了管理問題就很可能會造成信息的泄露。為了避免這一現(xiàn)象產(chǎn)生,相關(guān)法律研究者應(yīng)當(dāng)盡量促進兩者的信息對等。引入商家信用評價體系,讓有關(guān)使用者在使用人工智能產(chǎn)品之前對該產(chǎn)品的各項開發(fā)信息和開發(fā)歷史有一個充分的了解。這能夠在很大程度上幫助使用者進行信息保護。此外,人工智能技術(shù)市場中的數(shù)據(jù)監(jiān)管沒有得到完善,使得相關(guān)企業(yè)在人工智能產(chǎn)品研究中缺少外圍監(jiān)管帶來的約束力,這也是現(xiàn)階段個人隱私安全保障程度低的重要原因[3]。為此,政府機構(gòu)以及法律研究者認(rèn)為,應(yīng)當(dāng)加強相關(guān)市場的監(jiān)管力度,使得個人隱私信息的保護能夠被納入正常的法律體系監(jiān)督范圍內(nèi)。相關(guān)使用者本身也應(yīng)當(dāng)加強法律維權(quán)意識,倘若使用者的法律維權(quán)意識得到完善,也能夠在某一程度上促進個人隱私安全的保障力度提升。
由于使用者在人工智能產(chǎn)品的消費過程中,存在一定的風(fēng)險,而相關(guān)風(fēng)險一旦觸發(fā),需要企業(yè)進行相應(yīng)的責(zé)任承擔(dān),給予消費者相應(yīng)的賠償。但由于相關(guān)產(chǎn)品有設(shè)計方、生產(chǎn)方以及銷售方等,因此在風(fēng)險出現(xiàn)后,如何使得相應(yīng)過錯方能夠依法進行責(zé)任的承擔(dān),是目前法律應(yīng)當(dāng)考慮的內(nèi)容。只有制定詳細(xì)的權(quán)責(zé)劃分規(guī)章制度,才能夠使得相應(yīng)的權(quán)責(zé)承擔(dān)明朗化。
總而言之,人工智能在未來的發(fā)展中具有廣闊的空間,倘若能夠使人工智能的發(fā)展變得更加高效,相關(guān)研究者就應(yīng)當(dāng)針對人工智能所產(chǎn)生的社會風(fēng)險,以及可能出現(xiàn)的法律問題進行完善與糾正。