波波夫
我第一次接觸ChatGPT,是在一款辦公軟件Notion里。當(dāng)時(shí)我正好需要編輯一篇稿件,其中開(kāi)頭的四五段文字寫得略微凌亂,手動(dòng)改了大約半個(gè)小時(shí)后,總算達(dá)到了發(fā)布標(biāo)準(zhǔn)。但這篇稿子在接下來(lái)的審核流程中被認(rèn)為基調(diào)過(guò)于悲觀。這時(shí),同事說(shuō)要不要讓ChatGPT也修改下,于是我在內(nèi)嵌ChatGPT 3.0版本的Notion里輸入了這篇稿件最初的文本,大約不到一分鐘就生成了修改文本。我編輯時(shí)盡可能多地保留原作者的原文,ChatGPT 卻對(duì)原文進(jìn)行了大刀闊斧的刪減,同時(shí)又引入了大量新鮮信息,之后,當(dāng)我輸入“把文章修改得更為積極樂(lè)觀”的指令之后,終于獲得了可以發(fā)布的效果。
ChatGPT仿佛成了數(shù)字時(shí)代的阿拉丁神燈,你可以隨時(shí)召喚來(lái)實(shí)現(xiàn)夢(mèng)想。3.0版本的文字編輯能力已經(jīng)接近一個(gè)熟手編輯,創(chuàng)造了ChatGPT的人工智能研究公司Open? AI 近期發(fā)布的GPT-4,其擁有的能力更是可以比肩靈長(zhǎng)類的一些出類拔萃之輩。
GPT是Generative Pre-trained Transformer(生成式預(yù)訓(xùn)練轉(zhuǎn)換器)縮寫,屬于一種通用語(yǔ)言預(yù)訓(xùn)練模型,基于深度神經(jīng)網(wǎng)絡(luò)的進(jìn)行自然語(yǔ)言處理,其主要用途是生成人類語(yǔ)言的文本。據(jù)Open? AI發(fā)布的報(bào)告顯示,GPT-4在30余項(xiàng)衡量人類學(xué)習(xí)能力的測(cè)驗(yàn)中,大部分已經(jīng)超過(guò)人類考生的平均成績(jī),GPT-4在模擬律師考試中的成績(jī)?cè)谒锌忌辛杏谇?0%,在SAT閱讀考試中進(jìn)入了前7%,在SAT數(shù)學(xué)考試中進(jìn)入前11%。許多媒體在報(bào)道GPT-4時(shí),在標(biāo)題上都不約而同地冠之以“震撼發(fā)布”,這樣的修辭確實(shí)是名至實(shí)歸。以至于身邊人,用過(guò)的、沒(méi)用過(guò)的,都在討論GPT-4。
那么什么是GPT-4呢?我向接入了GPT-4新版微軟必應(yīng)搜索引擎提出了這個(gè)問(wèn)題,接著GPT-4會(huì)迅速地對(duì)我提出的這個(gè)問(wèn)題本身進(jìn)行語(yǔ)義分析,拆解為若干個(gè)關(guān)鍵詞在必應(yīng)進(jìn)行搜索,然后把必應(yīng)搜索首頁(yè)內(nèi)容進(jìn)行整合,再用人話講出來(lái),于是我就看到了下面的回答:
“GPT-4是Open? AI創(chuàng)建的一個(gè)大型多模態(tài)語(yǔ)言模型,是GPT系列的第四代。它于2023年3月14日發(fā)布,并將通過(guò)API和ChatGPT Plus用戶提供 。微軟證實(shí),使用GPT的必應(yīng)版本在其正式發(fā)布之前就已經(jīng)在使用GPT-4 。GPT-4可以接受圖像和文本輸入,生成文本輸出,它在許多專業(yè)和學(xué)術(shù)基準(zhǔn)測(cè)試中表現(xiàn)出了人類水平的性能,但在許多真實(shí)世界的場(chǎng)景中仍然比人類差。Open? AI稱,與GPT-3.5相比,GPT-4在三個(gè)關(guān)鍵領(lǐng)域更加先進(jìn):創(chuàng)造力、視覺(jué)輸入和更長(zhǎng)的上下文?!?/p>
這段解釋中規(guī)中矩,甚至有些謙虛,但基本上講清楚了GPT-4可以給我們帶來(lái)什么,而對(duì)辦公室白領(lǐng)來(lái)說(shuō),GPT-4肉眼可見(jiàn)地會(huì)成為我們強(qiáng)大的助手。
首先,它會(huì)讓搜索引擎使用變得更容易,類似傻瓜相機(jī)式的,比如,過(guò)去,你想弄清楚西紅柿炒雞蛋怎么做,得在一堆搜索結(jié)果中比較取舍,現(xiàn)在你將直接得到一份折衷的菜譜;如果用戶在首屏就能獲得高質(zhì)量答案,這將摧毀過(guò)去搜索引擎的關(guān)鍵詞廣告的商業(yè)模式。
其次,它將極大降低我們寫作的成本和門檻,比如你想寫作一個(gè)關(guān)于“GPT對(duì)傳媒行業(yè)的影響”的文章,GPT-4會(huì)給你列一份提綱,接下來(lái),你需要做的工作,有點(diǎn)像完成英語(yǔ)考試?yán)锏耐晷翁羁眨阍偃ふ屹Y料材料(甚至繼續(xù)在每個(gè)小部分借助GPT-4來(lái)完成相應(yīng)的內(nèi)容)把這份提綱擴(kuò)展成一篇文章。
你可能也想看看GPT-4生成的提綱如何吧,下面就是:
I. 研究背景
- 簡(jiǎn)介ChatGPT技術(shù)及其在傳媒行業(yè)的應(yīng)用
- 相關(guān)研究現(xiàn)狀和研究意義
II. ChatGPT對(duì)傳媒行業(yè)的影響
- ChatGPT在新聞報(bào)道中的應(yīng)用
- 自動(dòng)化寫作
- 智能化問(wèn)答
- ChatGPT在市場(chǎng)營(yíng)銷中的應(yīng)用
- 個(gè)性化廣告
- 智能客服
- ChatGPT對(duì)傳媒人員的影響
- 工作效率提升
- 職場(chǎng)變革與轉(zhuǎn)型
III. ChatGPT在傳媒行業(yè)的實(shí)際應(yīng)用案例
- 新聞媒體的ChatGPT應(yīng)用案例
- 營(yíng)銷領(lǐng)域的ChatGPT應(yīng)用案例
- ChatGPT帶來(lái)的職場(chǎng)變革案例
IV. 當(dāng)前遇到的挑戰(zhàn)和發(fā)展趨勢(shì)
- 挑戰(zhàn)
- 數(shù)據(jù)安全和隱私問(wèn)題
- 技術(shù)瓶頸和發(fā)展不平衡
- 趨勢(shì)
- 智能化和個(gè)性化
- ChatGPT在媒體內(nèi)容創(chuàng)作中的應(yīng)用
V. 結(jié)論與展望
- ChatGPT的發(fā)展前景
- ChatGPT對(duì)傳媒行業(yè)的影響和啟示
- 對(duì)未來(lái)研究的建議與展望
這樣的提綱你會(huì)打幾分呢?
再次,GPT-4的文章編輯能力將比ChatGPT3.5更為強(qiáng)大,可以編輯更長(zhǎng)篇幅的文本。但凡做過(guò)文字編輯的人,都知道個(gè)中辛苦,錢鐘書就曾把改稿子比喻為洗臟衣服。今天我們可以把這樣的臟活兒交給人工智能了。這種如釋重負(fù)的感覺(jué)我在文章開(kāi)頭就已經(jīng)跟大家分享了。
此外,GPT-4也展現(xiàn)了強(qiáng)大的翻譯功能,我有一位自由譯者朋友,最近在翻譯一本學(xué)術(shù)類圖書,自己覺(jué)得譯稿不如過(guò)去流暢,于是讓GPT順了下,感嘆它對(duì)于句法的潤(rùn)色太絕了,甚至超過(guò)了她在英翻中的水平,這讓她也產(chǎn)生了危機(jī)感。
在過(guò)去半個(gè)世紀(jì),我們目睹了自動(dòng)化在各行各業(yè)的普及,春耕時(shí)節(jié),東北連片的黑土地上播種機(jī)隨處可見(jiàn),人力和畜力多被機(jī)器取代;越來(lái)越多的工廠購(gòu)入機(jī)器臂,大概十多年前我在中部某省的火腿腸加工廠參觀時(shí),偌大的工廠里就幾乎看不到一個(gè)人,生豬從屠宰到變成一根根火腿腸,幾乎全部在自動(dòng)化流水線上完成。但是在律師事務(wù)所、媒體、咨詢公司這些知識(shí)生產(chǎn)部門,這里的自動(dòng)化更多地表現(xiàn)為“無(wú)紙化辦公”和計(jì)算機(jī)、及各種企業(yè)辦公軟件的普及,其知識(shí)生產(chǎn)的核心環(huán)節(jié)依然依靠人工,從這個(gè)意義看,這些行業(yè)的自動(dòng)化水平依然停留在前信息化時(shí)代的刀耕火種,與農(nóng)業(yè)和制造業(yè)的效率提升幾乎無(wú)法同日而語(yǔ)。
這種局面在2023年終于被打破了。曾經(jīng)被認(rèn)為只有碳基生命才具備的學(xué)習(xí)、思考的能力,也被硅基生命所超越。其實(shí)早在1997年IBM的深藍(lán)戰(zhàn)勝國(guó)際象棋大師卡斯帕羅夫,2017年中國(guó)圍棋高手柯潔首次與阿爾法狗對(duì)決,“渾身顫抖只想大聲痛哭”時(shí),我們就應(yīng)該預(yù)料這一天的到來(lái),在人工智能面前,人類曾經(jīng)自詡強(qiáng)大的腦力勞動(dòng)也面臨矮化的窘境,就像19世紀(jì)的農(nóng)夫之于今年的大型聯(lián)合收割機(jī)一樣。以GPT-4為代表的生成式人工智能的大規(guī)模上線應(yīng)用,將標(biāo)志著一場(chǎng)知識(shí)工作的大變革,這其中最突出的變化是效率的提升,對(duì)于知識(shí)工作者則提出了更高的數(shù)字素養(yǎng)的要求,即如何提升自我的人機(jī)協(xié)同技能,以更大的元認(rèn)知能力駕馭人工智能。
元認(rèn)知能力可能是當(dāng)下人類最后的壁壘,但不同人的元認(rèn)知程度千差萬(wàn)別。當(dāng)我問(wèn)GPT是否具備元認(rèn)知能力時(shí),它否認(rèn)了:“雖然GPT具有強(qiáng)大的文本生成能力,但從概念上講,GPT并不具備元認(rèn)知能力。元認(rèn)知是指對(duì)自己的認(rèn)知過(guò)程進(jìn)行評(píng)價(jià)、控制和調(diào)節(jié)的能力,在這個(gè)意義上,元認(rèn)知是一個(gè)高階認(rèn)知能力,包括自我監(jiān)控、自我評(píng)估、自我規(guī)劃和自我調(diào)節(jié)等方面的能力。盡管GPT訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)到復(fù)雜的語(yǔ)言結(jié)構(gòu)和規(guī)律,但是它沒(méi)有自我意識(shí)或反思功能,不能像人類一樣對(duì)自己的思維和學(xué)習(xí)進(jìn)行評(píng)估和調(diào)整。因此,雖然GPT可以根據(jù)已經(jīng)學(xué)習(xí)的語(yǔ)言知識(shí)生成新的文本,但它不能像人類一樣實(shí)時(shí)掌握和調(diào)整自己的認(rèn)知過(guò)程?!?/p>
老學(xué)究們還在糾結(jié)ChatGPT是否具備道德感。語(yǔ)言學(xué)大師諾姆·喬姆斯基和另外兩位學(xué)者最近在《紐約時(shí)報(bào)》發(fā)表了一篇題為《ChatGPT的虛假承諾》批評(píng)以ChatGPT為代表的機(jī)器學(xué)習(xí)系統(tǒng)無(wú)法進(jìn)行真正的思考和道德思考,認(rèn)定ChatGPT“它們要么過(guò)度生成(同時(shí)生成真相和謊言,同時(shí)支持道德和不道德的決定),要么生成不足(表現(xiàn)為不對(duì)任何決定表態(tài),對(duì)一切后果都漠不關(guān)心)。鑒于這些系統(tǒng)的非道德性、偽科學(xué)性和語(yǔ)言無(wú)能,我們只能為它們的流行而感到哭笑不得。”
但從當(dāng)下情形看,ChatGPT不太像曇花一現(xiàn)的數(shù)字奇淫巧技,這種生成式的人工智能已經(jīng)展現(xiàn)出了強(qiáng)大的生產(chǎn)力,喬姆斯基說(shuō)GPT的道德和倫理問(wèn)題,不僅是系統(tǒng)生成的內(nèi)容的道德取向,更是這一發(fā)明對(duì)當(dāng)下社會(huì)所產(chǎn)生的更為廣義的道義沖擊。Open AI的早期投資者埃隆·馬斯克說(shuō),某種程度上,你可以把人類看作一種生物引導(dǎo)程序,來(lái)引導(dǎo)一種超級(jí)數(shù)字智能物種,去幫助它們不斷進(jìn)化。這樣的預(yù)言多少有些殘酷。既然人工智能如此全知全能,那么家長(zhǎng)們是否仍有必要繼續(xù)把教育競(jìng)爭(zhēng)軍備化?如果連律師、編劇、記者、設(shè)計(jì)師、程序員的大量工作都可以由人工智能完成,那么多余的人們將如何度過(guò)富有意義的一生?這可能是我在下一個(gè)十年即將面臨的問(wèn)題。