摘要:近年來,人工智能技術(shù)不斷發(fā)展,生成式人工智能愈發(fā)成熟。2023年3月,OpenAI發(fā)布可接受文本和圖像輸入的多模態(tài)模型——GPT-4,GPT-4能更為準(zhǔn)確地回答多種專業(yè)的學(xué)科問題,甚至通過美國醫(yī)學(xué)執(zhí)照考試和模擬律師考試;同年7月,OpenAI在美國申請了GPT-5的商標(biāo)。市場上也涌現(xiàn)出一批人工智能應(yīng)用,如谷歌的Bard、百度的文心一言等。憑借強大的生成能力,生成式人工智能被應(yīng)用于內(nèi)容生產(chǎn)、數(shù)據(jù)分析、工業(yè)設(shè)計等眾多場景??v觀人工智能和AI算法的發(fā)展歷程,圍繞人機關(guān)系這一議題,學(xué)界對以ChatGPT為代表的生成式人工智能所帶來的影響存在多種觀點,可大致分為技術(shù)工具論和技術(shù)控制論兩種流派。
文章以ChatGPT為例,探討算法對人機關(guān)系的重構(gòu)?,F(xiàn)代的人機關(guān)系,既有算法對人的異化威脅,也有人積極尋求應(yīng)對方式,爭取合作共生的協(xié)作關(guān)系。一方面,面對算法超越性的數(shù)據(jù)收集分析和內(nèi)容產(chǎn)出能力,人的自主性面臨史無前例的挑戰(zhàn);另一方面,算法展露的智能性進一步推動人機之間的交互對接,為平等的人機合作提供前所未有的可能性。如何在正確認(rèn)識ChatGPT的基礎(chǔ)上,認(rèn)識新的人機關(guān)系,是急需解決的問題。
關(guān)鍵詞:ChatGPT;算法;人機關(guān)系;生成式人工智能;OpenAI
中圖分類號:TP18 文獻標(biāo)志碼:A 文章編號:1674-8883(2024)05-0001-04
2019年,美國Netflix公司上線動畫短片合集《愛、死亡和機器人》,第14集《齊馬藍》因逼真的預(yù)言和展現(xiàn)算法人工智能對人文藝術(shù)的探索以及人類社會秩序的重構(gòu),而獲得極佳的口碑。僅四年后,以ChatGPT為代表的生成式人工智能崛起,四年前電影中的科幻場景悄然成為現(xiàn)實。
目前,生成式人工智能已帶來諸多影響。據(jù)報道,ChatGPT上線僅兩個月,用戶就達1億,成為史上用戶人數(shù)增長最快的消費者應(yīng)用。龐大的用戶基礎(chǔ)放大了ChatGPT的現(xiàn)實影響。海量的資料庫存、先進的學(xué)習(xí)能力和強大的分析技能,讓生成式人工智能有高質(zhì)量產(chǎn)出。《衛(wèi)報》報道,人工智能已經(jīng)可以分析法律證據(jù)與道德問題,進而預(yù)測審判結(jié)果。在79%的案子里,人工智能提出的判決與當(dāng)時的法庭判決一致。劍橋大學(xué)打造的AI律師與倫敦百位律師針對法律問題展開比賽,最終以86.6%的準(zhǔn)確率遙遙領(lǐng)先。
ChatGPT因其卓越的內(nèi)容生成能力,已被成規(guī)模地濫用。據(jù)福布斯網(wǎng)調(diào)查,超過89%的受訪者承認(rèn)使用過ChatGPT輔助完成作業(yè),53%的學(xué)生使用它寫論文。ChatGPT的高質(zhì)量產(chǎn)出迫使以巴黎政治學(xué)院為代表的高校實施一系列限制措施。此外,生成式人工智能還存在真實性問題、社會倫理問題、算法歧視問題等諸多問題。
在AI發(fā)展過程中,對人機關(guān)系這一議題,學(xué)界存在多種觀點的分野。
以邱澤奇為代表的技術(shù)工具論學(xué)者認(rèn)為,生成式人工智能只是效率工具,不具備自我決策的能力[1]。使用工具所導(dǎo)致的后果,無關(guān)工具本身。算法優(yōu)化社會服務(wù)、保障行政司法等社會治理案例屢見不鮮。算法也可能被操控利用,“編碼精英”借助算法,從被邊緣化或無報酬的勞動力中提取勞動所得,鞏固權(quán)力,加深社會階級分化。
以馬爾庫塞為代表的技術(shù)控制論學(xué)者則認(rèn)為,技術(shù)具有控制公眾和影響社會秩序的能力?!爸涠皇菈浩?,它們支配著人這一工具——不僅支配他的身體,而且支配他的大腦甚至靈魂。”[2]算法時代,人類社會將面臨一系列挑戰(zhàn)。馬克思主義認(rèn)為,人能使用技術(shù)去建構(gòu)和改造社會秩序[3]。技術(shù)發(fā)展和社會秩序建構(gòu)存在兩種關(guān)系:要么利用技術(shù)推動社會發(fā)展,要么技術(shù)使用失當(dāng)從而顛覆原有社會秩序。不論如何,都凸顯著技術(shù)對社會的強大影響。
筆者認(rèn)為,技術(shù)工具論雖為如何引導(dǎo)公眾使用算法提供了更多理論指導(dǎo)和方法論,但其研究路徑忽略了組織和制度背后社會行動者的互動策略與實踐能力;秉持技術(shù)控制論的學(xué)者,或多或少強調(diào)算法控制社會的隱蔽性和強制性,卻忽略了算法的局限性與公眾的實踐性,對算法發(fā)揮影響的要素條件、作用結(jié)構(gòu)和影響強度等復(fù)雜的互動過程并未進行具體的分析?,F(xiàn)有文獻對算法樣態(tài)的描摹也多強調(diào)算法的控制性、決定性和不可避免性,輕視了人的主觀能動性,實然層面分析匱乏,缺少對公眾行為與心理的觀察研究。
因此,如何在正確把握ChatGPT特殊性的基礎(chǔ)上重新認(rèn)識人機關(guān)系,是當(dāng)下亟待解決的問題。現(xiàn)在的人機關(guān)系,是過去對待語音助手的工具論模式,還是人讓渡自己思考創(chuàng)作的權(quán)利進而以機器為中心;是人作為主導(dǎo)者使用ChatGPT,還是變成趨于平等的人機交互模式;是人發(fā)揮主觀能動性馴化技術(shù),還是逐步被人工智能取代人在社會中的地位。傳統(tǒng)的人工智能視角下的人機關(guān)系是否有必要調(diào)整?
算法會根據(jù)制度、消費者和設(shè)計者的變化進行調(diào)整,算法對人機關(guān)系影響的研究不能局限于算法與社會各界單線性影響關(guān)系,復(fù)雜多變的動態(tài)改變更符合實際。因此,上述問題必須基于現(xiàn)代化視角下的人機關(guān)系,才能予以全新詮釋。
數(shù)字時代,時空的消解產(chǎn)生一種前所未有的異化形式,即數(shù)字異化。數(shù)字異化隱藏原有的階級沖突,操縱更隱蔽、剝削更極致、懲罰更徹底的特點給人造成更為嚴(yán)重影響。從本質(zhì)上看,馬克思的勞動異化理論依舊適用。一方面,“工人被看作是機器的延伸,而不是機器是工人的延伸”的觀點依舊有效;另一方面,算法在促進生產(chǎn)力、勞動分工和剩余價值方面貢獻巨大,信息社會不僅是一個后工業(yè)社會,更是一種勞動資源和生產(chǎn)方式的延伸與發(fā)展。
在《1844年經(jīng)濟學(xué)哲學(xué)手稿》中,馬克思深刻揭示了資本主義生產(chǎn)下的勞動異化問題。步入算法時代,資本借助算法對人勞動生活的操控,使數(shù)字勞動異化為與資本增殖邏輯相契合、與人的邏輯相背離的勞動活動[4]44。
(一)對人的非自我規(guī)訓(xùn)和勞動成果的無償占有
勞動過程異化,指勞動者在勞動過程中身體與精神所遭受的雙重負(fù)擔(dān)。在數(shù)字勞動領(lǐng)域,這種異化現(xiàn)象表現(xiàn)為勞動者不僅失去自主性,還導(dǎo)致勞動加速和勞動規(guī)訓(xùn)[4]45。數(shù)字資本運用算法嚴(yán)格約束勞動行為,不斷縮短單位勞動的時間跨度,提高勞動強度,從而實現(xiàn)勞動過程的加速。如外賣騎手等依賴算法工作的“零工”勞動者,不得不忍受平臺的種種限制,面對排名、評價和安全等方面的問題。此外,數(shù)字資本為追求剩余勞動價值,延長勞動時間,縮短非勞動時間,使勞動者持續(xù)生產(chǎn)活動。在緊張和不間斷的勞動過程中,職業(yè)病司空見慣,過度勞動時有發(fā)生。算法時代,勞動者沒有實現(xiàn)想象中的解放,反而承受著更多負(fù)擔(dān),他們被算法規(guī)訓(xùn)而非工具化地使用算法,在生產(chǎn)生活中更多的是否定自我而非實現(xiàn)自我。
馬克思強調(diào),人類的勞動產(chǎn)品“不過是活動、生產(chǎn)的總結(jié)”[5]270。智能時代,數(shù)字勞動者無法占有自己的勞動成果,甚至隨著勞動增加,他們所占有的勞動產(chǎn)品越來越少,失去勞動產(chǎn)品的所有權(quán),即“凡是成為他的勞動的產(chǎn)品的東西,就不再是他自身的東西”[5]268。數(shù)字勞動產(chǎn)品因數(shù)字勞動而生,理應(yīng)歸勞動者所有,但資本憑借市場主導(dǎo)地位,通過互聯(lián)網(wǎng)用戶“自愿簽訂”的隱私條款,把數(shù)字產(chǎn)品的所有權(quán)轉(zhuǎn)移給資本。同時,隨著大眾媒介的發(fā)展,人們在大眾媒介上的注意力被普遍商品化。在這一交易過程中,注意力的生產(chǎn)主體被排除在外,注意力勞動的價值被傳播平臺免費占有。
勞動者不僅失去對數(shù)字產(chǎn)品的所有權(quán),還很難獲得與勞動價值相等的報酬,勞動成果被資本占有。ChatGPT由程序員基于算法設(shè)計,但ChatGPT的創(chuàng)造者沒有其所有權(quán)。OpenAI公司最初以造福人類為宗旨,但商業(yè)化讓ChatGPT最終成為資本的產(chǎn)物。
(二)使勞動者喪失勞動過程中的自主性
“ChatGPT等生成式人工智能的發(fā)展……問題不在于人類進化和退化的此消彼長本身,而在于對于這種進化和退化此消彼長的長遠把握。人類發(fā)展越來越主要依靠科學(xué)技術(shù)的發(fā)展,而科學(xué)技術(shù)發(fā)展總是會伴隨相應(yīng)的人類進化和退化問題?!盵6]
ChatGPT的高質(zhì)量產(chǎn)出導(dǎo)致眾多用戶的依賴,加深唯技術(shù)論的思想,缺乏發(fā)展的進取心。OpenAI多次鼓勵用戶進行批判性思考和獨立判斷,但收效甚微。
究其原因,和ChatGPT的強大能力有關(guān)。#我們會被ChatGPT取代嗎#、#ChatGPT為何爆紅出圈#等話題屢次登上微博熱搜。公眾的情緒與面對神秘學(xué)說的態(tài)度相似,充滿對未知的恐懼和對控制力的渴望。ChatGPT因其強大的生成能力,成為人們崇拜儀式下的力量核心,形成崇拜力量核心的符號資源圈層[7]18。OpenAI通過建立與ChatGPT的聯(lián)系,收獲更高的關(guān)注度,形成更強的影響力。
“技術(shù)延展了人的主體性,同時也呈現(xiàn)一種泛在的反主體力量?!盵7]20倘若勞動者陷入技術(shù)崇拜,過度依賴ChatGPT的內(nèi)容產(chǎn)出,無疑會陷入技術(shù)至上主義和人文空心主義,丟失思考判斷能力和自主性,最終淪為內(nèi)容的搬運工。
(三)潛移默化侵蝕和重塑用戶的思想
ChatGPT本身所產(chǎn)生的思想侵蝕較為隱蔽,但這并不意味著可以忽視其帶來的思想侵蝕的危害。
長期研究網(wǎng)絡(luò)虛假有害信息的互聯(lián)網(wǎng)公司新衛(wèi)士認(rèn)為,ChatGPT將成為互聯(lián)網(wǎng)上最強有力的散播虛假信息的工具。AI教父辛頓更是警告:“生成式人工智能正在制造大量虛假的文本、圖片和影像?!笨梢姡珻hatGPT會產(chǎn)出大量假數(shù)據(jù)已成行業(yè)共識。ChatGPT的高自主性及應(yīng)用領(lǐng)域的交叉性與普及性,不僅強化了虛假信息的迷惑性,也讓虛假信息傳播的范圍更廣、頻次更高。
虛假信息還會根據(jù)算法的意識形態(tài)傾向形成算法歧視。ChatGPT主要通過網(wǎng)絡(luò)爬蟲的通用資料庫進行數(shù)據(jù)搜集?!缎l(wèi)報》調(diào)查表明,社會中的偏見言論更容易被ChatGPT吸收和學(xué)習(xí)[8],并概率性地發(fā)表歧視性言論,這種現(xiàn)象會加深使用者的偏見,在下次接收相似言論時提升認(rèn)同感,造成歧視思維的惡性循環(huán)。ChatGPT表面中立,實際上潛移默化地塑造著用戶的思想。
馬克思認(rèn)為,人與動物的區(qū)別在于,動物在世界面前是被動的,而人作為意識主體,具有主觀能動性,能夠能動地認(rèn)識和改造世界,從而更好地服務(wù)實踐。
斯蒂格勒強調(diào),技術(shù)特別是算法具有“藥理學(xué)”性質(zhì),它既是良藥也是毒藥。他認(rèn)為,法蘭克福學(xué)派只看到了技術(shù)的毒性,卻忽略了它使人類如動物般生存的藥性[9]。算法的價值表現(xiàn)為它作為工具,被人馴化以實現(xiàn)生產(chǎn)生活的創(chuàng)新和社會生產(chǎn)力跨越性的提升。
海德格爾認(rèn)為,技術(shù)既是目的的手段,也是人的行為,“技術(shù)的工具性規(guī)定本身就是正確的”,“正確的東西并不意味就是真實的東西,而只有真實的東西才能真正實現(xiàn)人的自由發(fā)展,才能真正將人們帶入一種自由的關(guān)系”[10]。他指出,技術(shù)有工具性特征,但也可能存在價值負(fù)荷的危險。不過,技術(shù)的工具性特點證明人可以充分發(fā)揮自己的主觀能動性去馴化技術(shù)。
面對ChatGPT對人的自主性的挑戰(zhàn),人不會一味地接受被異化,而會采取相應(yīng)的措施和合作方式積極應(yīng)對挑戰(zhàn)。
(一)多路徑并行,加強制度監(jiān)管
面對ChatGPT帶來的挑戰(zhàn),國家發(fā)改委公布《國家以工代賑管理方法》,指出“能用人工盡量不用機械”;聯(lián)合國教科文組織號召各國執(zhí)行《人工智能倫理問題建議書》,旨在“提供所有必要保障”。
目前,國際社會對ChatGPT的應(yīng)對方式主要有監(jiān)管和防護兩種路徑。
監(jiān)管層面,主要有輕監(jiān)管和強監(jiān)管兩種路徑。
以英美為代表的輕監(jiān)管路徑,強調(diào)ChatGPT的實際使用,聚焦ChatGPT的具體使用而非背后的技術(shù)產(chǎn)業(yè),以保證監(jiān)管方式的適用性。例如,2023年5月,英國競爭和市場管理局的首席執(zhí)行官莎拉·卡德爾表示,監(jiān)管機構(gòu)對ChatGPT的算法模型進行研究,同時評估其帶來的市場利益可能性,考慮英國政府應(yīng)如何確保市場競爭的公平和消費者權(quán)益的保護;美國副總統(tǒng)瑪拉·哈里斯計劃約見有能力掌握生成式人工智能的企業(yè),一同探討產(chǎn)品的安全性。英美政府均認(rèn)為,采取多元的治理措施才是發(fā)展技術(shù)的最佳方式,強勢監(jiān)管只會阻礙技術(shù)的創(chuàng)新。
以歐盟為代表的國家和組織與之相反,采取強監(jiān)管方式,認(rèn)為監(jiān)管生成式人工智能需要像監(jiān)管藥物一樣,成立專門機構(gòu)進行嚴(yán)格測試和上市審批。2023年2月,歐洲議會AI倫理顧問安娜·費倫德發(fā)表文章,詮釋監(jiān)管生成式AI的背景和原因;7月,歐洲議會通過《人工智能法案》授權(quán)草案,這意味著已正式進入歐盟立法嚴(yán)格監(jiān)管AI的最終談判階段。歐盟立法者雖然表面不認(rèn)為ChatGPT存在高風(fēng)險,但依舊提出了更嚴(yán)格的要求和更明確的義務(wù)。
防護層面,主要有內(nèi)部優(yōu)化和外部控制兩種途徑。
內(nèi)部優(yōu)化,指價值觀糾正,減輕算法的歧視偏向。OpenAI提出三大產(chǎn)品優(yōu)化計劃。第一步是改善算法的默認(rèn)行為,減少算法在響應(yīng)不同問題時的偏差,拒絕特殊時期敏感問題的回答;第二步是廣泛定義ChatGPT的價值觀,不提供涉嫌反社會反道德的回答;第三步是對默認(rèn)值和硬邊界的公共輸入,讓ChatGPT的用戶能夠影響系統(tǒng)的規(guī)則。
外部控制,旨在通過外部建立的安全措施,彌補算法內(nèi)部模型的缺陷。OpenAI采用新戰(zhàn)略,防止AI提供虛假信息。過去,對算法的鼓勵是針對結(jié)果的正確與否,但今后的鼓勵條件是在單一邏輯推理環(huán)節(jié)有正確的表現(xiàn),即“過程監(jiān)督”。過程監(jiān)督更有助于產(chǎn)生正確回答,鼓勵ChatGPT更邏輯化地思考。同時,OpenAI表示將允許用戶通過OpenAI創(chuàng)建AI輔助審核系統(tǒng),讓AI判斷帖子內(nèi)容。AI輔助審核系統(tǒng),不僅能減少人工審核,還能實現(xiàn)速度更快、效率更高的反饋閉環(huán)。
(二)善加利用,建立新型協(xié)作關(guān)系
在以往的工業(yè)模式中,機器的滯后性導(dǎo)致工人需要自我改變,以適應(yīng)機器的缺陷。馬克思認(rèn)為,“在工場手工業(yè)和手工業(yè)中,是工人利用工具,在工廠中,是工人服侍機器”。如今,ChatGPT的智能性改變了以往工人通過異化自我以適應(yīng)機器的方式,實現(xiàn)了“請求—回應(yīng)”的新型人機協(xié)作模式[11]。算法的進步促使人和ChatGPT有更規(guī)范的關(guān)聯(lián):人向ChatGPT輸入指令,ChatGPT進行產(chǎn)出,由此構(gòu)成人機交互的“請求—回應(yīng)”關(guān)系。“請求—回應(yīng)”的協(xié)作模式讓人與ChatGPT之間更加平等。ChatGPT參與到腦力勞動中,實現(xiàn)對人的生產(chǎn)活動的增益。
隨著ChatGPT的升級,其不僅會成為一種新的腦力勞動工具,還會成為一種新的生活方式。如優(yōu)達學(xué)城使用GPT-4創(chuàng)建了智能虛擬導(dǎo)師,虛擬導(dǎo)師和真人導(dǎo)師協(xié)助,為學(xué)生提供個性化的指導(dǎo);章魚能源公司將ChatGPT納入客戶服務(wù)渠道,和人工客服一起解決客戶所提出的問題,客戶滿意度較以往明顯提高。
ChatGPT所建構(gòu)的新型人機關(guān)系,強調(diào)人機合作。在“請求—回應(yīng)”的關(guān)系下,工人不再需要自我異化,機器不再簡單、重復(fù)地執(zhí)行指令,雙方互有增益。南京大學(xué)哲學(xué)系教授藍江指出,ChatGPT等生成式人工智能的價值在于,它參與到人類的知識和經(jīng)驗之中,它的目的不是徹底取代人類,而是形成我們的身體經(jīng)驗和人工智能的神經(jīng)網(wǎng)絡(luò)經(jīng)驗的交互和對接,讓基于人類身體的碳基倫理和基于神經(jīng)網(wǎng)絡(luò)算法的硅基倫理可以在一個共生的層面上結(jié)合起來[12]。
想象中的未來已經(jīng)到來,生成式人工智能來勢洶洶介入人們的日常生活。面對ChatGPT,算法對“大腦甚至是靈魂的支配”不再只存在于哲學(xué)書中的空想。但是,人并非算法手中的提線木偶,不會放棄自主性接受異化,國家和社會正在積極應(yīng)對挑戰(zhàn)。
關(guān)于生成式人工智能的應(yīng)對措施,必須牢牢把握算法社會的發(fā)展規(guī)律,在互利共生的人機關(guān)系的基礎(chǔ)上,完善治理方式,共建規(guī)范的數(shù)字治理生態(tài),進而實現(xiàn)人機合作共生。
參考文獻:
[1] 邱澤奇.算法向善選擇背后的權(quán)衡與博弈[J].人民論壇,2021(Z1):16-19.
[2] 赫伯特·馬爾庫塞.單向度的人[M].劉繼,譯.上海:上海譯文出版社,2008:23.
[3] 周凡.后馬克思主義:批判與辯護[M].北京:中央編譯出版社,2007:332.
[4] 王圓圓,劉彬彬.智能時代的數(shù)字勞動異化及其消解[J].中國勞動關(guān)系學(xué)院學(xué)報,2023,37(5):43-52.
[5] 馬克思,恩格斯.馬克思恩格斯全集:第3卷[M]. 2版.中共中央馬克思恩格斯列寧斯大林著作編譯局,譯.北京:人民出版社,2002:268,270.
[6] 王天恩. ChatGPT的特性、教育意義及其問題應(yīng)對[J].思想理論教育,2023(4):19-25.
[7] 孫琦,陳力丹.從力量崇拜到認(rèn)知暈輪:ChatGPT的傳播儀式[J].傳媒觀察,2023(7):17-22.
[8] 斯眉.《衛(wèi)報》:人工智能已出現(xiàn)種族和性別偏見[N].北京科技報,2017-04-24(007).
[9] 貝爾納·斯蒂格勒,楊建國.數(shù)碼是另一社會的信使[J].文化研究,2015(3):189-198.
[10] 岡特·紹伊博爾德.海德格爾分析新時代的技術(shù)[M].北京:中國社會科學(xué)出版社,1993:9,19.
[11] 唐林垚.具身倫理下ChatGPT的法律規(guī)制及中國路徑[J].東方法學(xué),2023(3):34.
[12] 藍江.生成式人工智能與人文社會科學(xué)的歷史使命:從ChatGPT智能革命談起[J].思想理論教育,2023,528(4):12-18.
作者簡介 張柏林,研究方向:中外新聞史、網(wǎng)絡(luò)傳播。