劉亞
最近,一款新的聊天機器人火了。它既能寫代碼寫作業(yè),能做題寫劇本,還能回答各類話題——它就是美國人工智能研究公司OpenAI剛剛推出的人工智能聊天程序ChatGPT。
究竟什么是ChatGPT?這款被稱為“全能AI”的軟件到底多能整活?為此,《方圓》記者和ChatGPT進行了一場對話,聊了聊關于愛、永恒和法律的問題。
《方圓》記者提出問題:愛是永恒的嗎?從法律的角度看,它是一種不可抗力嗎?
“愛是一種強烈的情感,它可以在特定的情況下持續(xù)很長時間,但是并不能說它是永恒的。愛是一種可以變化和演變的情感,它可以隨著時間和環(huán)境的改變而改變。因此,愛不能簡單地定義為永恒的?!?/p>
“愛本質上不是一種不可抗力。愛是一種人類的情感,它受到我們的意識和控制能力的影響。雖然有時我們可能覺得愛是不可抗力的,但實際上它是可以通過自我意識和自我控制來管理和影響的。因此,不能說愛是不可抗力?!?/p>
可以說,ChatGPT的回答的還是不錯的。所以,提問開始增加難度——比如偷走別人的心是否構成盜竊罪、結婚是否相當于被判處一輩子無期徒刑?
“偷走別人的心屬于不道德行為,但不能簡單地被視為盜竊?!薄敖Y婚是一種愿意和彼此共同生活的決定。”ChatGPT的回答令人眼前一亮。最后,我們還請ChatGPT給戀愛中的人們提了幾個反PUA的小建議。
從簡單的體驗中,《方圓》記者已感受到了ChatGPT的強大。自去年11月底OpenAI將ChatGPT推出,僅兩個月就達到了1億月活躍用戶,用戶增長速度堪稱史無前例。從最初用戶程序員、工程師、AI從業(yè)者,到現(xiàn)在無數(shù)的普通人,大家都好奇,究竟ChatGPT是什么?
中國科學院大學人工智能學院教授、亞太人工智能學會執(zhí)行主席雷渠江接受《方圓》記者采訪時表示,ChatGPT是基于聊天的生成預訓練轉換器,是由OpenAI開發(fā)的最先進的自然語言處理(NLP)模型。它是流行的GPT-3模型的變體,GPT-3模型已經(jīng)在來自各種來源(如書籍、文章和網(wǎng)站)的大量文本數(shù)據(jù)上進行了訓練。企業(yè)和個人可以將其用于許多場景,如新聞文章、小說和詩歌的文本生成,總結較長的文件或文章,編輯故事,生成產(chǎn)品描述、博客文章和其他內容類型等。
(本圖系《方圓》記者委托國外同學提問并截圖)
“ChatGPT具有巨大的創(chuàng)新性,在很多方面都可以成為人們工作和生活的強有力助手。它利用從大型文本語料庫中所學到的內容,可以自主生成文本,幫助用戶找到問題的答案。ChatGPT除了能夠模擬自然對話外,還能夠執(zhí)行寫郵件、視頻腳本、文案、翻譯等任務。”雷渠江指出,不過,ChatGPT還處于早期發(fā)展階段,引發(fā)的擔憂和風險相伴而來。
北京師范大學新聞傳播學院院長張洪忠在接受《方圓》記者采訪時表示,對我們國家來說,除了上述風險,ChatGPT還帶來巨大的技術差距,更應該思考在人工智能領域,我們能否以大計算來生成這樣的大產(chǎn)品。不過,在對社交機器人的長期跟蹤研究中張洪忠發(fā)現(xiàn),社交機器人已經(jīng)在社交媒體中大規(guī)模使用,存在著虛假信息、侵害著作權、泄露隱私、干擾輿論等風險。
“ChatGPT能夠生成類似人類的文本,因此它迅速成為廣泛應用的首選工具,從語言翻譯和文本摘要到問題回答等。不過也面臨很多問題,如數(shù)據(jù)隱私和安全等?!崩浊嬖V記者,比如ChatGPT這樣的第三方語言模型是在大量文本數(shù)據(jù)上進行訓練的,并且存在一種風險,即敏感信息可能無意中包含在模型的參數(shù)中。因此,在使用像ChatGPT這樣的語言模型時,采取適當?shù)陌踩胧ㄈ缂用芎桶踩L問控制)以及監(jiān)視模型的輸出以獲取可能生成的任何敏感信息是非常重要的。
“另外,使用第三方語言模型還可能引起與數(shù)據(jù)隱私法、知識產(chǎn)權法和其他法規(guī)相關的遵從性問題。在法律框架下,充分理解ChatGPT的服務條款以及提供商添加的使用限制都是很重要的?!崩浊M一步說道,ChatGPT也面臨侵犯用戶隱私的可能性,因為它未經(jīng)用戶同意就收集數(shù)據(jù)。此外,機器人抓取網(wǎng)站可能會侵犯版權法,主要是因為它的行為就像人工智能自己提出的信息,沒有引用來源。
此外,人工智能生成的信息并不總是準確的。在江蘇新天倫律師事務所律師林曉莉看來,ChatGPT常常出現(xiàn)“一本正經(jīng)地胡說八道”的情況,需要一定的專業(yè)知識才能辨別真?zhèn)?;也可能有不法分子惡意“訓練”人工智能,使其提供詐騙信息、釣魚網(wǎng)站等內容,損害公民人身財產(chǎn)安全。對于這類隱患,平臺應充分提示用戶其生成的內容可能為虛假信息,且在其生成疑似違法信息時進行攔截或提示用戶存在安全風險。
(本圖系《方圓》記者委托國外同學提問并截圖)
當然,《方圓》記者也問了問ChatGPT自己這個問題??梢哉f,ChatGPT回答非常專業(yè)。
由ChatGPT生成的文字,知識產(chǎn)權屬于誰?“ChatGPT目前處于初期快速發(fā)展階段,它的法律影響尚未實現(xiàn)。我個人觀點認為ChatGPT生成的內容不牽涉著作權問題,它在中國也還未申請軟件著作權,不排除未來很快進行申請進行軟著保護。”雷渠江說。
那么,利用ChatGPT寫論文、寫模仿小說,所寫的論文和小說知識產(chǎn)權能否歸利用ChatGPT寫論文和小說的人呢?
得到的回答是:作為一種人工智能,ChatGPT可以生成文字內容,但不能獨立創(chuàng)作作品。因此,ChatGPT生成的內容不能被視為其創(chuàng)作的作品,也不能成為其享有知識產(chǎn)權的作品。在大多數(shù)情況下,ChatGPT生成的內容的知識產(chǎn)權歸屬于使用ChatGPT的個人或組織,因為他們負責配置和使用ChatGPT生成內容。在某些情況下。如果ChatGPT生成的內容包含他人的原創(chuàng)作品,則需要遵守相關的版權法規(guī),以確保不侵犯他人的知識產(chǎn)權。
“原論文著作所有者能否認為該行為侵權是普遍存在的問題。ChatGPT是在大量數(shù)據(jù)為基礎訓練出來的語言處理模型,在搜集信息和數(shù)據(jù)方面是否會侵犯個人隱私、企業(yè)和組織等數(shù)據(jù)的安全問題,同時ChatGPT搜集數(shù)據(jù)的方式是否合法,也是需要思考的?!崩浊f。
“在數(shù)據(jù)搜集方面,如果有數(shù)據(jù)是假的或者某些信息是錯誤的,就可能導致輸出一些具有歧視性、欺騙性等結果。另外還有利用ChatGPT犯罪問題,比如犯罪分子更容易獲取犯罪技巧,這將增加犯罪風險和數(shù)量。此外,還面臨更深層次的倫理和道德問題——因為人工智能模型既沒有倫理也沒有道德,ChatGPT并不總是正確的,在數(shù)據(jù)輸入、總結和輸出方面會有偏差。如何平衡技術進步應用和倫理道德問題也需要思考?!崩浊硎?,針對以上所說的問題,我們還是要在保護好數(shù)據(jù)和隱私方面做好防范,正確對待ChatGPT并加強獨立思考和辯證的能力。
2019年,國際保護知識產(chǎn)權協(xié)會(AIPPI)發(fā)布《人工智能生成物的版權問題決議》,認為人工智能生成物在其生成過程中有人類干預,且該生成物符合受保護作品應滿足的其他條件情況下,能夠獲得保護,對于生成過程無人類干預的人工智能生成物無法獲得版權保護。
(本圖系《方圓》記者委托國外同學提問并截圖)
今年2月,多家國內學術刊物針對ChatGPT發(fā)聲?!遏吣蠈W報(哲學社會科學版)》發(fā)布關于使用人工智能寫作工具的說明提到,暫不接受任何大型語言模型工具(如ChatGPT)單獨或聯(lián)合署名的文章。在論文創(chuàng)作中使用過相關工具,需單獨提出,并在文章中詳細解釋如何使用以及論證作者自身的創(chuàng)作性。如有隱瞞使用情況,將對文章直接退稿或撤稿處理?!短旖驇煼洞髮W學報(基礎教育版)》發(fā)布聲明,建議作者在參考文獻、致謝等文字中對使用人工智能寫作工具(如ChatGPT等)的情況予以說明。
隨著ChatGPT爆火網(wǎng)絡,國內用戶的使用需求也與日俱增。據(jù)了解,由于OpenAI的注冊限制,在國內注冊ChatGPT需要滿足兩個前置條件,一是需要一個國外手機號來接收短信驗證碼,二是需要使用國外的代理服務器或VPN。第一個前置條件通過特定的在線接碼平臺就可以實現(xiàn),而第二個前置條件基本上只能通過“翻墻”來實現(xiàn)。
浙江理工大學法政學院特聘副教授郭兵向《方圓》記者介紹,對于大多數(shù)“翻墻”的網(wǎng)民而言,或許并知道,在我國即便使用“翻墻”軟件也構成違法。實踐中,已經(jīng)有許多地方的網(wǎng)民因為使用“翻墻”軟件上網(wǎng)而被公安機關處罰。公安機關處罰的依據(jù)是《計算機信息網(wǎng)絡國際聯(lián)網(wǎng)管理暫行規(guī)定》,其中第六條規(guī)定:“計算機信息網(wǎng)絡直接進行國際聯(lián)網(wǎng),必須使用郵電部國家公用電信網(wǎng)提供的國際出入口信道。任何單位和個人不得自行建立或者使用其他信道進行國際聯(lián)網(wǎng)?!倍谑臈l規(guī)定:“違反本規(guī)定第六條、第八條和第十條的規(guī)定的,由公安機關責令停止聯(lián)網(wǎng),給予警告,可以并處15000元以下的罰款;有違法所得的,沒收違法所得?!?/p>
“相對于‘翻墻注冊使用ChatGPT的網(wǎng)民而言,提供‘翻墻服務的個人或者組織面臨的法律責任更為嚴重。”郭兵進一步指出,實踐中,有大量為用戶提供“翻墻”訪問而被追究刑事責任的案件,有的被認定為非法經(jīng)營罪,有的被認定為提供侵入、非法控制計算機系統(tǒng)程序、工具罪。所以,對于那些試圖通過山寨版ChatGPT等進行流量變現(xiàn)的個人或者組織,一定要意識到“翻墻”或者提供“翻墻”服務的不利法律后果。
不過,在大多數(shù)人還對ChatGPT云里霧里時,國內已涌現(xiàn)出了一批山寨小程序。由于國內注冊使用限制,網(wǎng)上各種注冊使用ChatGPT的“指南”不斷推出,各種山寨版小程序充斥于各類網(wǎng)絡平臺?!斗綀A》記者在微信平臺上搜索“ChatGPT”,就能看到“ChatGPT AI”“Chat人工智能問答”等數(shù)十個公眾號搜索結果,甚至還有“ChataGTP”這種“山寨版”賬號。隨機挑選一個,系統(tǒng)均提示需充值額度后才可繼續(xù)使用。不過近期,各大平臺也明顯加大了對山寨版ChatGPT的處置力度。
在雷渠江看來,由于ChatGPT的火熱,山寨版的小程序已經(jīng)出現(xiàn)很多了,很多時候這種情況會跟詐騙,騙取個人信息等手段聯(lián)系在一起。使用時一定要擦亮眼睛,使用正版程序。另外,我們應提高著作權保護意識,完善法律法規(guī),更好地進行普法宣傳,增強法律意識。
“同時,行業(yè)組織也可以在規(guī)制山寨問題方面起到一定作用,比如我們亞太人工智能學會、中國人工智能學會等學術組織可以進行正確的引導,開展適當宣傳等工作,引導企業(yè)和個人正確使用ChatGPT程序,保護知識產(chǎn)權,避免山寨。行業(yè)組織也可以制定相應的行業(yè)標準,合理合法使用ChatGPT程序和應用場景?!崩浊f。
除了山寨版ChatGPT需要警惕,其暴露出的法律風險亦需要及時應對。2018年7月,中國科學院軟件研究所聯(lián)合15家產(chǎn)學研單位共同編制首個國內人工智能深度學習算法標準《人工智能深度學習算法評估規(guī)范》。這一規(guī)范基于深度學習算法可靠性的內部和外部影響,結合實際應用場景,確定了由7個一級指標和20個二級指標組成的算法可靠性評估指標體系,做了場景化和精細化算法治理實踐的有益嘗試。
2022年出臺的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》明確要求,人工智能的算法應當堅持社會主義主流價值觀,不能利用算法危害國家安全和社會公共利益、擾亂經(jīng)濟秩序和社會秩序、侵犯他人合法權益。今年1月10日起施行的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》明確,任何組織和個人不得利用深度合成服務制作、復制、發(fā)布、傳播法律、行政法規(guī)禁止的信息,不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經(jīng)濟和社會秩序、侵犯他人合法權益等法律、行政法規(guī)禁止的活動。
在上海政法學院人工智能法學院副教授郭金蘭看來,對人工智能的監(jiān)管,需要深入人工智能系統(tǒng)的整個生命周期,從模型的建立、語料庫的標注、模型訓練、投放市場后的迭代進化直到系統(tǒng)退出使用。監(jiān)管需要關注到每個具體的環(huán)節(jié),包括語料庫的篩選標準制定、參與人工標注的人員培訓、開發(fā)者的價值觀考察等。對ChatGPT這類生成式人工智能的監(jiān)管必須將算法監(jiān)管和數(shù)據(jù)監(jiān)管結合起來。在算法監(jiān)管機制的未來探索中,應充分考慮算法決策的主體類型和作用類別,探索場景化和精細化的算法治理機制。