先藕潔 劉胤衡
美國人工智能研究實(shí)驗(yàn)室OpenAI推出的大型預(yù)訓(xùn)練人工智能語言模型ChatGPT,正成為很多年輕人關(guān)注和熱議的焦點(diǎn)。不少年輕人驚嘆ChatGPT回答問題的高效,也有人直言ChatGPT回復(fù)的內(nèi)容“僅是機(jī)械組合,充滿套路”。毋庸置疑的是,ChatGPT將對(duì)年輕人學(xué)習(xí)、生活乃至未來發(fā)展等不同方面的影響。專家提醒年輕人利用新技術(shù)時(shí)也要注意避“坑”,不要觸碰道德和法律底線。
ChatGPT是一款人工智能聊天機(jī)器人,在2022年11月一經(jīng)上線便引發(fā)關(guān)注。不同于以往廣受詬病的“人工智障”,它能夠深度理解上下文的關(guān)聯(lián),完成寫文章、郵件甚至是敲代碼的復(fù)雜任務(wù)。于是,便有了高分論文。但這樣的成績(jī)不算作弊得來的嗎?依靠ChatGPT創(chuàng)作對(duì)孩子們的培養(yǎng)有好處嗎?
不止一個(gè)人提出這樣的問題。也因此,ChatGPT正在遭遇一個(gè)尷尬的局面,一邊因其強(qiáng)大的學(xué)習(xí)輔助功能而“橫掃”各大校園,成為學(xué)生眼中的“作業(yè)神器”,一邊卻被多所高校、期刊列入黑名單,遭受封殺。
“全靠ChatGPT,兩小時(shí)的考試,我一小時(shí)就交了卷?!?/p>
2022年年底,李凌參加了《新媒體與廣告》這門課的網(wǎng)上開卷考試??荚囈笤趦蓚€(gè)小時(shí)之內(nèi)完成一道論述題,問題與互聯(lián)網(wǎng)廣告的新現(xiàn)象有關(guān),字?jǐn)?shù)要求在1200字以上。其間可以查閱各種資料。
“許多同學(xué)都進(jìn)行了提前準(zhǔn)備?!崩盍韪嬖V記者,很多人除了整理課件,還提前下載了幾十篇廣告專業(yè)相關(guān)的論文,以備參考。
他卻另辟蹊徑。兩個(gè)小時(shí)的考試,當(dāng)別人還在翻閱各種資料奮筆疾書,他只是和ChatGPT對(duì)話幾個(gè)回合,輸入不到20字的問題,就獲得了一篇長(zhǎng)達(dá)6000多字的文章——從定義、源流、特點(diǎn)、未來發(fā)展等角度分析了當(dāng)下互聯(lián)網(wǎng)廣告營銷的特點(diǎn)。隨后,他將這些素材精簡(jiǎn)到了1200字左右,“提前一個(gè)小時(shí)交卷走人”。
1月,成績(jī)出來了,李凌位列全班第一。
ChatGPT創(chuàng)造的“校園奇跡”遠(yuǎn)不止于此。在ChatGPT的“原產(chǎn)地”美國,2023年1月,一項(xiàng)對(duì)1000名18歲以上學(xué)生的調(diào)查顯示,超過89%的受訪學(xué)生會(huì)使用ChatGPT來完成家庭作業(yè)。同月,密歇根大學(xué)的哲學(xué)教授安東尼·奧曼發(fā)現(xiàn)全班第一的論文是用ChatGPT寫的。
根據(jù)中青報(bào)·中青網(wǎng)記者不完全統(tǒng)計(jì),截至2023年1月底,國內(nèi)各大社交平臺(tái)上,有關(guān)使用ChatGPT完成作業(yè)的討論已經(jīng)超過10萬條。
有人認(rèn)為,ChatGPT能夠幫助學(xué)生快速梳理問題的解題思路,還能夠借助它檢查作業(yè)錯(cuò)誤,是一個(gè)相當(dāng)強(qiáng)大的“輔導(dǎo)老師”。
有人則認(rèn)為人工智能工具會(huì)助長(zhǎng)學(xué)生的惰性,“什么作業(yè)都能夠依靠人工智能完成,那學(xué)生就不用學(xué)習(xí)啦!”這并不利于培養(yǎng)學(xué)生獨(dú)立思考的能力,更無利于他們發(fā)展創(chuàng)造性思維。
目前,全球多國大學(xué)、科研機(jī)構(gòu)發(fā)布明確的人工智能禁令,禁止使用ChatGPT和其他所有基于人工智能的工具完成學(xué)習(xí)與考試任務(wù);多家期刊、出版機(jī)構(gòu)也禁止將ChatGPT列為論文合著者。
不過關(guān)于ChatGPT對(duì)學(xué)生影響的討論,并未隨著一張張禁令而停歇。網(wǎng)絡(luò)上,公眾對(duì)于ChatGPT的爭(zhēng)論,仍在發(fā)酵。
有人認(rèn)為,雖然ChatGPT可能會(huì)提供一個(gè)快速簡(jiǎn)潔的答案,但這并不能培養(yǎng)學(xué)生的批判性思維和解決問題的能力,這些能力對(duì)未來發(fā)展至關(guān)重要。
也有人認(rèn)為,人工智能只是“輔助”學(xué)生學(xué)習(xí),無法讓他們獲得自主學(xué)習(xí)能力。
“現(xiàn)在對(duì)人工智能的使用,并沒有‘傻瓜’到學(xué)生輸入一個(gè)問題、就能立刻寫出一篇完美論文的程度。”上海大學(xué)新聞傳播學(xué)院講師、碩士生導(dǎo)師徐偲骕對(duì)于學(xué)生使用ChatGPT等人工智能撰寫論文持開放態(tài)度,“如果學(xué)生真的用人工智能生成了論文并且達(dá)到了我的要求,那說明他也是下了一番功夫的?!?/p>
正在國內(nèi)某高校就讀的彭羊也認(rèn)為,一部分人過度神化了人工智能,“ChatGPT寫出來的東西,其實(shí)并不能直接用。”
2023年2月,彭羊在《量化投資》這門課上被要求寫一篇不限字?jǐn)?shù)的課程論文。這門課程不僅涉及金融知識(shí),也涉及計(jì)算機(jī)編程知識(shí)。他想到了用ChatGPT來輔助論文寫作,“我問了它一些編程問題,讓它給我的代碼糾錯(cuò)、教我收集數(shù)據(jù)以及用Python(一種計(jì)算機(jī)編程語言——記者注)整理文件?!?/p>
“挺鍛煉提問能力的!”彭羊表示,ChatGPT要通過用戶與機(jī)器之間的問答才能得到答案,“要問很具體的問題,如果自己的問題模棱兩可,它的回答可能也會(huì)有很大偏差,甚至有的時(shí)候答案會(huì)出錯(cuò)?!?/p>
彭羊認(rèn)為,這種一問一答的過程,像人類在“馴化”人工智能,“問ChatGPT要有技巧,范圍要由大到小,比如先提出諸如‘是什么’的定義類問題,如果希望得到更精準(zhǔn)的回答,則可以預(yù)設(shè)情景,比如‘假如你是一名……你要……為了達(dá)成目標(biāo),你該怎樣……’只有不斷變換問問題的方式,才能獲得最終想要的答案。”
“向機(jī)器人提問,也是一種學(xué)習(xí)的方式?!迸硌蚋嬖V記者,他使用ChatGPT主要還是為了優(yōu)化自己的代碼、潤(rùn)色論文內(nèi)容,“而搜索到的內(nèi)容,只有自行消化,才能達(dá)到學(xué)習(xí)目的?!?/p>
“Ask me anything?。ㄓ袉栴}盡管問?。笔荂hatGPT與用戶聊天的開場(chǎng)白。
一些教育工作者、科研人員認(rèn)為,一些學(xué)生恰恰不知道“問什么”,尚未建立起真正的“問題意識(shí)”,如果“問什么”都不知道,那么連AI這個(gè)工具都沒法很好地使用。
上海大學(xué)文學(xué)院創(chuàng)意寫作學(xué)科教授、博士生導(dǎo)師譚旭東多年來致力于培養(yǎng)學(xué)生的寫作能力,經(jīng)常為學(xué)生布置諸如創(chuàng)作散文、童話、書評(píng)等類型的課程作業(yè)。他并不擔(dān)心學(xué)生利用人工智能進(jìn)行寫作,“這類作業(yè)很容易調(diào)動(dòng)學(xué)生的生活經(jīng)驗(yàn)和知識(shí)資源,學(xué)生自己有話可說,可能就不會(huì)抄襲或者去利用人工智能寫作?!?/p>
“機(jī)器是‘生產(chǎn)’,而人是‘創(chuàng)造’。”譚旭東指出,老師們憑借多年的寫作經(jīng)驗(yàn)和研究積累,能夠區(qū)分出真人和人工智能寫作的區(qū)別。即便是相同的故事,語言能力強(qiáng)的人也能把一個(gè)老舊的故事講得優(yōu)美、有趣,甚至令人驚奇,他說,真正的寫作,用詞、造句和行文風(fēng)格都是個(gè)性化的。
譚旭東并不擔(dān)心人工智能會(huì)取代學(xué)生和教育的主體地位。他說,“人文社會(huì)科學(xué)和自然科學(xué)的疆域很廣闊,還有很多未開墾的處女地,需要我們?nèi)ァ谝粋€(gè)吃螃蟹’?!?/p>
“ChatGPT是一種全新的知識(shí)工具,從這個(gè)意義上來說,它和我們幾千年來依靠的書本、圖書館并沒有兩樣,基于這樣強(qiáng)大的知識(shí)工具來學(xué)習(xí),孩子們應(yīng)該學(xué)得更好?!?月9日,上海市教委副主任倪閩景撰文指出,面對(duì)ChatGPT,傳統(tǒng)教育的方式方法需要作出重大調(diào)整。
他就此提出三點(diǎn)建議:教育的首要目標(biāo)是培養(yǎng)能獨(dú)立思考和有正確價(jià)值判斷能力的人,而不再是獲取特定的知識(shí);要用ChatGPT等學(xué)習(xí)工具來協(xié)同改進(jìn)教育教學(xué)方式;要更加關(guān)注學(xué)習(xí)的品質(zhì)。
“ChatGPT這類人工智能產(chǎn)物能推動(dòng)科技進(jìn)步,有利于輔助人類的生產(chǎn)生活,但它不能替代人類的智力活動(dòng),因?yàn)樗鼪]有人類所獨(dú)有的情感和思想?!敝袊淖种鳈?quán)協(xié)會(huì)總干事張洪波認(rèn)為,ChatGPT涉及龐大數(shù)據(jù)的算法加工,可能會(huì)侵犯到一些用戶隱私,人工智能大數(shù)據(jù)的開發(fā)者,應(yīng)遵守相關(guān)的法律規(guī)定和社會(huì)倫理道德,保證所收錄的數(shù)據(jù)不侵犯他人的權(quán)益。
華中科技大學(xué)法學(xué)院副教授滕銳在接受記者采訪時(shí)表示,ChatGPT是大量不同的數(shù)據(jù)集群訓(xùn)練出來的語言模型,目前其背后仍是“黑盒”結(jié)構(gòu),即無法確切對(duì)其內(nèi)在的算法邏輯進(jìn)行分解,所以不能確保使用ChatGPT過程中,其所輸出的內(nèi)容不會(huì)產(chǎn)生攻擊傷害用戶的表述。
“如果ChatGPT的回復(fù)是錯(cuò)誤或虛假信息,會(huì)具有極大的誤導(dǎo)性,有潛在法律風(fēng)險(xiǎn)?!痹谒磥?,ChatGPT難免存在一些侵犯用戶隱私的內(nèi)容。此外,若回復(fù)中存在過度借鑒他人作品的情況,使用不當(dāng)就有可能侵犯他人的著作權(quán)。
“目前大部分國家的知識(shí)產(chǎn)權(quán)法規(guī)定,人工智能程序自身不能成為作者?!彪J指出,ChatGPT的內(nèi)容本質(zhì),是基于它所擁有的數(shù)據(jù)進(jìn)行表達(dá)意志的創(chuàng)作,是作為被人類所利用的客體和工具,不具備法律人格,不能承擔(dān)相應(yīng)的法律責(zé)任,如果ChatGPT侵害了他人的著作權(quán)或泄露他人隱私,由它的權(quán)利人或使用者來承擔(dān)相應(yīng)的法律責(zé)任。
“推動(dòng)構(gòu)建人工智能治理體系,政府加強(qiáng)監(jiān)管和研發(fā)者保持自律尤為重要?!彪J說,要避免ChatGPT引發(fā)數(shù)據(jù)安全問題,如泄露商業(yè)秘密及違背保密義務(wù),需從法律層面明確ChatGPT產(chǎn)品的應(yīng)用范圍,推進(jìn)數(shù)據(jù)的分類分級(jí),規(guī)定不同種類數(shù)據(jù)的保護(hù)級(jí)別和措施。他建議,在內(nèi)容保護(hù)上,原創(chuàng)性數(shù)據(jù)要受到知識(shí)產(chǎn)權(quán)法的保護(hù);在技術(shù)監(jiān)管中,要定期將算法合規(guī)納入大數(shù)據(jù)安全體系,對(duì)其使用情況進(jìn)行安全審計(jì)、評(píng)估驗(yàn)證等。
“行業(yè)自律也非常重要,ChatGPT的所有人要注意數(shù)據(jù)安全合格,也要確保獲取個(gè)人信息具有合法性。”滕銳認(rèn)為,將倫理道德融入人工智能的全生命周期,才能促進(jìn)大規(guī)模的人工智能應(yīng)用“向善發(fā)展”。
在武漢大學(xué)法學(xué)院教授孫晉看來,在人工智能大數(shù)據(jù)的時(shí)代背景下,數(shù)據(jù)隱私泄露問題愈演愈烈,ChatGPT作為數(shù)字技術(shù)的應(yīng)用,開發(fā)者和使用者都是第一責(zé)任人。他提醒,由于ChatGPT的算法和算力均很強(qiáng)大,如果開發(fā)者或使用者實(shí)施壟斷與限制競(jìng)爭(zhēng)行為,濫用市場(chǎng)支配地位,會(huì)具有便利性和隱蔽性,會(huì)對(duì)反壟斷法帶來新挑戰(zhàn)。
孫晉強(qiáng)調(diào),人工智能開發(fā)者要堅(jiān)持“技術(shù)中立”和“科技向善”的原則,開發(fā)者的道德水準(zhǔn)和法律邊界意識(shí),決定其設(shè)計(jì)軟件的發(fā)展方向。同時(shí),使用者也要秉持這兩項(xiàng)原則,杜絕利用新技術(shù)實(shí)施違法犯罪的行為,如侵犯公民個(gè)人隱私、侵犯商業(yè)秘密、商業(yè)詆毀、虛假宣傳、網(wǎng)絡(luò)詐騙、洗錢等。
在張洪波看來,利用人工智能技術(shù)實(shí)施違法犯罪,具有偵查難度,也需科技去甄別和偵破。滕銳認(rèn)為,機(jī)器人走上更高智能階段的同時(shí),人類利用機(jī)器人違法犯罪的現(xiàn)象也會(huì)出現(xiàn),從刑法的角度來看,人工智能不具有刑法意義上的辨認(rèn)和控制自己行為的能力,但可對(duì)機(jī)器人背后的自然人進(jìn)行處罰。
2006年年底我國互聯(lián)網(wǎng)大規(guī)模爆發(fā)“熊貓燒香”病毒及其變種,該病毒通過多種方式進(jìn)行傳播,造成很大危害。這個(gè)案例令滕銳至今印象深刻。他說,“熊貓燒香”病毒主要是由當(dāng)時(shí)年僅20多歲的小伙子李俊制作,李俊沒有法律意識(shí),利用新技術(shù)違法,以破壞計(jì)算機(jī)信息系統(tǒng)罪被判處有期徒刑四年?!澳贻p人在勇于嘗試類似ChatGPT的新鮮事物過程中,不能利用新技術(shù)去做違法之事?!?/p>
目前,為了避免學(xué)生過于依賴人工智能類工具,防止作弊,多國學(xué)校已經(jīng)發(fā)出禁令,禁止學(xué)生在學(xué)校內(nèi)使用類似于ChatGPT的人工智能工具完成學(xué)習(xí)任務(wù)和考試?!斑@是警示年輕人,要明白人工智能技術(shù)是人類的輔助工具,并不能替代人類進(jìn)行智力創(chuàng)作,如果年輕人完全依賴,會(huì)影響創(chuàng)新創(chuàng)作能力?!睆埡椴ㄕf。
在張洪波看來,人工智能工具可以幫助人類快速處理字?jǐn)?shù)多、容量大的文本內(nèi)容,最終的智力創(chuàng)作成果,還是要人類自己來完成。開發(fā)者開發(fā)設(shè)計(jì)人工智能工具的目的,應(yīng)該是讓人類學(xué)習(xí)生產(chǎn)生活更方便、快捷、準(zhǔn)確,而不是懶惰和消極。
“任何一項(xiàng)新數(shù)字技術(shù)出現(xiàn)時(shí),年輕人的反應(yīng)最敏銳,對(duì)新事物的接受能力也很強(qiáng)。他們不僅僅是消費(fèi)者,也有可能是未來新技術(shù)的創(chuàng)造者?!睂O晉提醒,年輕人也要注意,網(wǎng)絡(luò)不是法外之地,利用新技術(shù)時(shí),不要觸碰道德和法律底線。
來源:《中國青年報(bào)》 澎湃新聞