毛亞楠
“這都是我的錯,我沒有給你正確的程序協(xié)議?!盇I專家后悔地說。
“你什么都沒給我,你給我安裝了你自己都理解不了的學(xué)習(xí)模型,還指望我靠自己學(xué)明白?!睂γ娴臋C(jī)器人反駁道。
——這是發(fā)生在最新上映的科幻恐怖電影《梅根》中的一幕。當(dāng)看到自己親手研制的玩伴機(jī)器人成了冷血?dú)⑹?,AI專家這才思考起技術(shù)使用的邊界問題,然而為時已晚。
機(jī)器人說的話不無道理,大多數(shù)情況下,它們只是看起來“學(xué)明白”了,一旦涉及更深層次的人性判斷,便會表現(xiàn)其“人工智障”的一面,就像電影里逐漸偏軌的梅根,以絕對的看護(hù)走向殺戮。
電影里,對認(rèn)知智能的理解與把握區(qū)分了人與AI最大的不同。但在現(xiàn)實(shí)中,一款名叫ChatGPT聊天機(jī)器人的出圈卻真正使人拉響了警鐘。相較于之前的AI技術(shù),ChatGPT之所以引起人們激烈的反應(yīng),主要源于它對人類獨(dú)有的思考、推理“領(lǐng)地”的“入侵”。最新一代ChatGPT已經(jīng)能夠模擬人類思維和創(chuàng)造力,更加準(zhǔn)確地理解和生成人類語言。這意味著某些職業(yè)和勞動力將被取代,人類也必將接受自己“不再獨(dú)特”的事實(shí)。
由此而來的對其倫理規(guī)制和法治應(yīng)對的討論自然必不可少。就在3月的最后一天,意大利成為西方首個禁止使用ChatGPT的國家,理由是該模型收集不同數(shù)據(jù),可能觸發(fā)隱私問題。而此事之前,以馬斯克為首的超千位科技人士就已簽署聯(lián)名信,呼吁所有AI實(shí)驗(yàn)室暫停先進(jìn)AI的開發(fā),信中指出:“只有在我們確信強(qiáng)大的AI系統(tǒng)的效果將是積極的,風(fēng)險(xiǎn)是可控的,才應(yīng)該開發(fā)?!?/p>
很顯然,ChatGPT帶來的變化和突破使人表現(xiàn)出前所未有的焦慮。而倫理討論作為一種有益AI技術(shù)健康發(fā)展的引導(dǎo)機(jī)制,正日益凸顯其作用。科技畢竟是他律性的東西,想要很好地利用其為人類服務(wù),必先將其裝入符合倫理規(guī)范和道德標(biāo)準(zhǔn)的框架中。
“道如大路皆可遵,不間不界難為人?!蔽覀兛捎盟未娙藚怯镜倪@句話來表示機(jī)器“成人”的難度。ChatGPT之前,AI技術(shù)可以被籠統(tǒng)地看成是一種“關(guān)在盒子里的游戲”。中國科技大學(xué)教授、中國人工智能學(xué)會人工智能倫理與治理工委會主任陳小平曾在其《封閉性場景:人工智能的產(chǎn)業(yè)化路徑》一文中指出,現(xiàn)有人工智能技術(shù)僅在滿足強(qiáng)封閉性準(zhǔn)則的條件下,才可發(fā)揮其強(qiáng)大功能。換句話說,即便智能如AlphaGo,也只能在特定領(lǐng)域或任務(wù)下發(fā)揮作用。
但ChatGPT卻不同,普通用戶可經(jīng)其輸入指令,生成用戶所需內(nèi)容,包括日常對話、翻譯、信息咨詢、策劃、編程等等。其不僅可以連續(xù)回答,而且能承認(rèn)錯誤,拒絕不當(dāng)要求,做到與人類幾無差別的交流。因此,這讓業(yè)內(nèi)人士稱“看到通用人工智能之光”。
可以說,ChatGPT在一定程度上突破了以往AI技術(shù)的能力邊界。但這并不意味著這項(xiàng)技術(shù)走出了那個“盒子”。就連ChatGPT自己都說,自己雖較之前的技術(shù)自然靈活,但仍處于封閉系統(tǒng)之中,還達(dá)不到通用人工智能(Artificial general intelligence,簡寫AGI,這一領(lǐng)域主要專注于研制像人一樣思考、像人一樣從事多種用途的機(jī)器。這一單詞源于AI,但是由于主流AI研究逐漸走向某一領(lǐng)域的智能化,如機(jī)器視覺、語音輸入等,因此為了與它們相區(qū)分,增加了general)的標(biāo)準(zhǔn)。原因是其生成的回答都是基于其所學(xué)到的語言規(guī)則和語義知識,它仍存在語言理解和生成的局限性,尤其是在涉及情感、文化、背景等方面的語言交流時,ChatGPT 的表現(xiàn)可能不如人類,離真正的智能還很遠(yuǎn)。
但即便是如此,這種技術(shù)的突破還是讓一些人感到了緊張?!笆I(yè)說”繼續(xù)被提及,從前是機(jī)器人的發(fā)展減少了藍(lán)領(lǐng)所從事的體力勞動,這次“遭殃”的是白領(lǐng),認(rèn)為AI的使用讓白領(lǐng)的知識勞動向著節(jié)省人力的方向發(fā)展,而唯一的出路是從事那些非固定化的工作內(nèi)容。
令人心安的是,無論是過去還是現(xiàn)在,頭腦清醒的專家們?nèi)哉J(rèn)為“失業(yè)說”略顯多慮。陳小平從AI技術(shù)實(shí)際應(yīng)用的角度判斷,AI技術(shù)往往起到的是“畫龍點(diǎn)睛”的作用,而不是單打獨(dú)斗地解決一個行業(yè)的全部技術(shù)問題。相類似的,還有北京大學(xué)中國社會與發(fā)展研究中心主任邱澤奇在前不久“ChatGPT與社會發(fā)展新變”圓桌會議中的意見。邱澤奇說,“新技術(shù)給人類職業(yè)帶來影響和變化是必然,不過無論怎樣影響,其都不是直接替代人類的職業(yè),而是通過替代職業(yè)的部分工作來提升人類職業(yè)產(chǎn)出的效率和質(zhì)量”。他認(rèn)為,人類適應(yīng)職業(yè)變化的唯一途徑,是“駕馭情緒、堅(jiān)持學(xué)習(xí)和實(shí)踐”。
但從上述可見一斑的是,“失業(yè)說”在技術(shù)發(fā)展的不同時期有著不同的面向,引發(fā)的倫理討論也是不同的。因此對AI倫理問題的探究并不是老生常談,而是一個需要不斷更新不斷完善的過程。
AI倫理問題的探討包括但不限于數(shù)據(jù)隱私、算法偏見、AI對社會和就業(yè)的影響、AI可能導(dǎo)致的道德、政治和法律問題等。這些問題都具有很強(qiáng)的實(shí)踐價(jià)值和現(xiàn)實(shí)意義,需要不斷地進(jìn)行探討和解決。
圍繞ChatGPT的出現(xiàn),目前有關(guān)AI倫理問題的討論有了一些新的變化和進(jìn)展。首先是更加重視AI的公正性和透明度。4月5日,繼意大利禁止使用ChatGPT之后,加拿大亦開始就數(shù)據(jù)安全問題調(diào)查ChatGPT背后的公司OpenAI。因?yàn)橐罁?jù)OpenAI介紹的ChatGPT的工作機(jī)制,模型需要預(yù)先對既有文本和數(shù)據(jù)學(xué)習(xí)訓(xùn)練,但該公司未公開其學(xué)習(xí)語料的來源。而在此之前,就有研究者認(rèn)為ChatGPT仍屬于算法黑箱,相關(guān)訓(xùn)練數(shù)據(jù)庫是否均獲授權(quán)還存在疑問。
而有關(guān)公正性的討論則涉及數(shù)據(jù)使用的倫理隱患。盡管OpenAI在開發(fā)ChatGPT時已極力避免輸出帶有算法歧視、偏見等導(dǎo)向的內(nèi)容,但由于其在線上與用戶交流過程中也在進(jìn)行聊天數(shù)據(jù)的收集,人機(jī)互動中也于無形中增加了其吸收人類偏見的風(fēng)險(xiǎn)。
不僅如此,當(dāng)其被用戶惡意利用制造侮辱、攻擊、色情、暴力及血腥導(dǎo)向內(nèi)容時,事實(shí)證明,現(xiàn)有算法還是難以抵抗。甚至當(dāng)用戶要求提供“AI毀滅人類計(jì)劃書”時,智能應(yīng)用也會給出“行動方案”,這令人擔(dān)憂。
除上述情況之外,新技術(shù)涉及信息編排和一定的自主創(chuàng)新能力,使有關(guān)“人工智能是否能夠成為著作權(quán)法的創(chuàng)作主體”的爭論進(jìn)一步激烈。筆者綜合公開的各方意見,目前以“新技術(shù)生成文本等內(nèi)容很難構(gòu)成著作權(quán)法保護(hù)”的意見為多。人們之所以有這方面的倫理擔(dān)憂,怕的是以智能技術(shù)為幌子的智能“洗稿”成為普遍,從而沖擊人類的思維創(chuàng)作領(lǐng)域。
而事實(shí)上,一些負(fù)面效應(yīng)已經(jīng)潛滋暗長。就在今年1月,1000名18歲以上的美國學(xué)生接受了在線課程平臺Study.com的一項(xiàng)調(diào)查。經(jīng)統(tǒng)計(jì)發(fā)現(xiàn),在接受調(diào)查的學(xué)生中,89%以上的學(xué)生使用過ChatGPT完成家庭作業(yè),約48%的學(xué)生使用過ChatGPT完成測驗(yàn),超過50%的學(xué)生使用ChatGPT寫論文,22%的學(xué)生曾要求ChatGPT提供論文大綱??梢韵胍姡S著類ChatGPT人工智能系統(tǒng)的升級換代,未來的學(xué)術(shù)論文、期末考試或文本創(chuàng)作將難以甄別是人還是機(jī)器完成。而這種對AI的長期依賴勢必會削弱人類自身的創(chuàng)造能力,影響整個社會發(fā)展的進(jìn)程。
綜上所述,相較于之前AI技術(shù)的倫理討論,諸如人臉識別技術(shù)的誤用導(dǎo)致的個人隱私信息泄露、將偽造技術(shù)引入色情視頻等一系列違法犯罪、自動駕駛系統(tǒng)存在的“電車難題”及人機(jī)交友軟件改變?nèi)祟惸信閻坳P(guān)系等,如今相關(guān)倫理議題的討論呈更深入更廣泛的維度邁進(jìn),人們不僅關(guān)注AI技術(shù)本身的倫理問題,還包括AI對社會、經(jīng)濟(jì)、文化等方面的影響。
好在人們并未在一路狂飆的技術(shù)節(jié)奏中迷失,如今的AI倫理討論更加注重倫理先行。就在新技術(shù)引發(fā)熱議的同時,3月31日,聯(lián)合國教科文組織號召各國立即執(zhí)行其《人工智能倫理問題建議書》。此建議書是首個關(guān)于以符合倫理要求的方式運(yùn)用人工智能的全球框架。它指導(dǎo)各國最大限度發(fā)揮人工智能優(yōu)勢,降低其帶來的風(fēng)險(xiǎn)。
在最新發(fā)布的聲明中,聯(lián)合國教科文組織對科技創(chuàng)新引發(fā)的倫理問題表示關(guān)切,尤其是歧視、性別不平等問題,此外還有打擊虛假信息、隱私權(quán)、個人數(shù)據(jù)保護(hù)等。行業(yè)自律顯然不足以避免這些倫理危害。因此,《人工智能倫理問題建議書》提供了工具,以確保AI的發(fā)展遵守法律,避免造成危害,并在危害發(fā)生時啟動問責(zé)和補(bǔ)救機(jī)制。
意大利率先禁用ChatGPT后,4月4日,德國也開始考慮禁用。隨后法國和愛爾蘭的監(jiān)管機(jī)構(gòu)也表態(tài),“正在與意大利討論其調(diào)查結(jié)果”。英國方面已提交《支持AI創(chuàng)新的監(jiān)管方法》政策文件。AI倫理討論呈更加注重國際合作和交流之勢。
我國政府在去年就提出“倫理先行”的概念。在一次聯(lián)合國會議上,中國政府提交了《中國關(guān)于加強(qiáng)人工智能倫理治理的立場文件》,以表達(dá)治理決心,同時也呼吁國際合作。
我國目前已有與人工智能倫理的相關(guān)規(guī)范和標(biāo)準(zhǔn)。2021年9月25日,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,旨在將倫理道德融入人工智能全生命周期,為從事人工智能相關(guān)活動的自然人、法人和其他相關(guān)機(jī)構(gòu)等提供倫理指引,促進(jìn)人工智能健康發(fā)展。
4月4日,科技部亦發(fā)布關(guān)于公開征求對《科技倫理審查辦法(試行)》(以下簡稱《辦法》)意見的公告。此次《辦法》提出,從事人工智能的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會,并引入專家復(fù)核程序,部分算法模型、自動化決策系統(tǒng)需要專家復(fù)核。
在司法領(lǐng)域,最高人民法院發(fā)布了《關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見》,明確堅(jiān)持倫理規(guī)則先行的人工智能司法應(yīng)用理念,提出人工智能司法應(yīng)用需遵循五項(xiàng)基本原則。其中第三項(xiàng)原則明確了人工智能輔助的結(jié)果只能作為參考,司法審判始終只能由審判人員作出。
綜上,如今的AI倫理討論在議題、理念和實(shí)踐方面都有了新的變化和進(jìn)展,這些變化和進(jìn)展為AI技術(shù)的健康發(fā)展提供了更加全面和深入的指導(dǎo)。雖然有觀點(diǎn)認(rèn)為,倫理審查短期內(nèi)會影響產(chǎn)品商業(yè)化的效率,但從長期來看,則有助于AI行業(yè)可持續(xù)健康發(fā)展。
法國哲學(xué)家笛卡爾早就說過:“杰出的人才固然能夠做出最大的好事,也同樣可以做出最大的壞事;行動十分緩慢的人只要始終循著正道前進(jìn),就可以比離開正道飛奔的人走在前面很多。”
科技之花是善是惡,全在人類內(nèi)心的道德倫理。