鄧莎莎 李鎮(zhèn)宇 潘煜
摘 要: ??ChatGPT帶來了新的“工業(yè)革命”,我國也提出構(gòu)建一批數(shù)字中國研究基地。然而,如何看待AIGC對科學研究所帶來的新研究模式,目前還眾說紛紜。論文在分析了ChatGPT和AIGC的發(fā)展歷程和技術(shù)體系之后,提出AIGC將有助于豐富科研資源、助力團隊協(xié)作效率提升與團隊創(chuàng)新、主動打破學科界限,同時也認為AIGC成為未來科研的第一生產(chǎn)力還為時尚早,在嚴謹性能否被證實、技術(shù)成癮和隱私道德等方面都將面臨挑戰(zhàn)。
關(guān)鍵詞: ?ChatGPT;AIGC;豐富科研資源;打破學科界限;技術(shù)成癮
中圖分類號: ?TP 391
文獻標志碼: ??A
ChatGPT and Artificial Intelligence Generated Content:Should Scientific Research Be Adapted or Resisted?
DENG Shasha1 LI Zhenyu2 PAN Yu1
(1.Shanghai Key Laboratory of Brain-Machine Intelligence for Information Behavior,School ofBusiness and Management, Shanghai International Studies University, Shanghai 200083, China;2.School of Economics and Management, Shanghai Institute of Technology, Shanghai 200235, China)
Abstract: ?ChatGPT brings about a new “industrial revolution”, and China has proposed to build a group of Digital China research bases. However, there are still different opinions on how to view the new research mode brought by AIGC to scientific research. After analyzing the development history and technical system of ChatGPT and AIGC, this article proposes that AIGC will help enrich scientific research resources, assist in team collaboration efficiency and innovation, and actively break down disciplinary boundaries. At the same time, it is also believed that it is still too early for AIGC to become the first productive force in future scientific research, and it will face challenges in terms of rigor, technology addiction, and privacy ethics that need to be addressed.
Key words: ?ChatGPT; AIGC; abundant research resources; breaking disciplinary boundaries; technologyaddiction
2022年11月30日OpenAI發(fā)布了ChatGPT聊天機器人模型。與以往的聊天機器人不同,它“上知天文,下知地理”,還能夠完成撰寫郵件、文案編輯、生成代碼等任務(wù)。ChatGPT的流行也改變了我們的生活和工作方式,特別是在知識工作者中掀起了一場“工業(yè)革命”。我國也在2023年2月提出推進高等院校和研究機構(gòu)與企業(yè)建立數(shù)字中國研究基地。
ChatGPT的流行讓人們敏銳地意識到人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)將引領(lǐng)教育和科研的最新模式,但是AIGC在科研中的應(yīng)用同樣存在挑戰(zhàn)。以ChatGPT為例,在用戶大量的體驗中發(fā)現(xiàn)ChatGPT生成的文本并不完全可靠,也無法直接代替搜索引擎。同時,ChatGPT在2021年結(jié)束了訓練,因此模型不具備與時俱進的能力。截至本文撰寫時ChatGPT仍是離線的,所有內(nèi)容的輸出只能依靠自己內(nèi)部知識和邏輯生成,不具備聯(lián)網(wǎng)自查的能力。雖然ChatGPT并不完美,但它與科學研究的發(fā)展相輔相成。
雖然已有研究開始關(guān)注AIGC在科研中的應(yīng)用,但仍是支離破碎。本文首先梳理了ChatGPT的發(fā)展歷史,并介紹AI內(nèi)容生成的技術(shù)體系,其次分析AIGC在科學研究中應(yīng)用的潛在機會,最后提出了AIGC在科學研究中面臨的問題和挑戰(zhàn)。
1 ChatGPT與AIGC技術(shù)
1.1 ChatGPT的發(fā)展階段
不同于卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network, CNN)在計算機視覺(Computer Vision, CV)領(lǐng)域重視圖像的局部特征,自然語言處理(Natural Language Processing, NLP)領(lǐng)域的任務(wù)更需要關(guān)注上下文的序列信息。循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)利用上一時刻輸出構(gòu)建神經(jīng)網(wǎng)絡(luò)隱藏層之間的時間關(guān)聯(lián)。一句話正是由前后聯(lián)系的單詞序列組成,RNN在機器翻譯、語音識別和情感分析方面得到了廣泛的應(yīng)用。RNN存在諸如不具備短期記憶能力等缺點,后續(xù)NLP領(lǐng)域基于RNN展開了數(shù)十年的研究,例如長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)等,但是每一個詞的處理都需要等待上一個詞的計算結(jié)果,如此循環(huán)需要投入大量的計算成本。
注意力機制(Attention)概念的首次提出是在CV領(lǐng)域,通過計算權(quán)重調(diào)節(jié)圖像特征的重要程度,注意力即權(quán)重。而在NLP領(lǐng)域,自注意力機制(Self-Attention)打破了RNN的循環(huán)結(jié)構(gòu),通過直接計算不同單詞間的相關(guān)度(權(quán)重)嵌入上下文信息,使語句的單詞有了重點區(qū)分。Self-Attention的提出擺脫了RNN模型對上文信息的依賴,確保每一個單詞都能在利用全局信息的同時可以并行運算。注意力機制因其先進的解釋性和高效的計算性能,引領(lǐng)了NLP領(lǐng)域發(fā)展的新方向。Transformer基于Self-Attention通過編碼器-解碼器(Encoder-Decoder)模型在機器翻譯任務(wù)上表現(xiàn)優(yōu)異,其中編碼器(Encoder)負責自然語言理解(Natural Language Understanding, NLU)任務(wù),解碼器(Decoder)負責自然語言生成(Natural Language Generation, NLG)任務(wù)?;赥ransformer的Encoder結(jié)構(gòu),Google提出Bert模型,而基于Decoder結(jié)構(gòu)OpenAI提出GPT模型,分別在NLU和NLG任務(wù)上表現(xiàn)出強悍的性能。
Bert與GPT在2018年的爆火,一方面得益于它們先進的算法結(jié)構(gòu)設(shè)計,另一方面基于海量數(shù)據(jù)的預(yù)訓練方法功不可沒。無論是在CV領(lǐng)域還是NLP領(lǐng)域,有監(jiān)督學習一直是解決特定任務(wù)的主要方法。但是有標簽數(shù)據(jù)集仍是有限的,一味地增加標簽數(shù)據(jù)更像“愚公移山”,也離通用人工智能目標甚遠。自然語言中存在著大量未標記的語料庫,通過在海量數(shù)據(jù)上無監(jiān)督訓練得到具有強泛化能力的預(yù)訓練模型,再利用該模型所生成單詞和句子的通用特征作為特定任務(wù)的輸入,從而節(jié)省大量計算資源,并得到泛化能力更好的模型,這也是GPT-1模型基本原理。
在GPT-2模型中,則是在預(yù)訓練階段增加了模型參數(shù)和擴大了語料庫規(guī)模,特別是訓練數(shù)據(jù)來自多源任務(wù),因此GPT-2可以直接理解輸入的任務(wù)本質(zhì)并生成答案。GPT-3沿用了單向Transformer模型,表明了其在NLG任務(wù)上深入的決心,45TB的訓練數(shù)據(jù)和1750億的模型參數(shù)堪稱暴力美學。GPT-3在高質(zhì)量文本生成上取得成功的同時也帶來使用安全的風險,容易產(chǎn)生種族歧視等偏激的回答。開源的InstructGPT與商業(yè)化的ChatGPT都采用了從人類反饋中進行強化學習的策略(Reinforcement Learning from Human Feedback, RLHF),結(jié)合人類智慧指導模型訓練,優(yōu)化得到GPT最優(yōu)模型。
NLP領(lǐng)域的發(fā)展經(jīng)歷了從RNN向Self-Attention的結(jié)構(gòu)變革,基于大規(guī)模語料庫的預(yù)訓練模型決定了NLP的發(fā)展方向,GPT系列在生成式上的堅持,使得它在2023年打開了AI應(yīng)用的新紀元。與此同時,在CV領(lǐng)域圖像生成上的研究同樣如火如荼。NLP和CV領(lǐng)域最新的研究進展表明了人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)蘊含的巨大價值。
1.2 AIGC的概念、定義和技術(shù)體系
AIGC既是從內(nèi)容生成者視角分類的內(nèi)容,也是利用人工智能技術(shù)自動生成的新型生產(chǎn)方式的技術(shù)集合。根據(jù)內(nèi)容的形式 ,AIGC的技術(shù)體系可以分為AI生成自然語言內(nèi)容、AI生成視覺內(nèi)容和AI生成多模態(tài)內(nèi)容。
1.2.1 AI生成自然語言內(nèi)容
自然語言是基礎(chǔ)的內(nèi)容形式,任何模態(tài)的數(shù)據(jù)都可以抽象為文本本質(zhì)。自然語言是對客觀世界的描述和對主觀世界的表達,因而應(yīng)用范圍也最為廣泛。利用海量數(shù)據(jù)對共性知識挖掘的NLU是AI生成自然語言內(nèi)容的關(guān)鍵一環(huán)?;诖笠?guī)模無標注語料庫的預(yù)訓練模型在情感分析、語音識別、閱讀理解和文本生成等任務(wù)上表現(xiàn)出色,例如OpenAI的GPT和Google的Bert等。與此同時,數(shù)據(jù)的指數(shù)增長與龐大參數(shù)優(yōu)化模型對算力的要求讓普通研究機構(gòu)望而卻步,設(shè)計更高效的模型架構(gòu)、訓練框架和自監(jiān)督學習模式成為未來的重要研究方向。
1.2.2 AI生成視覺內(nèi)容
相較于自然語言內(nèi)容,視覺內(nèi)容在互聯(lián)網(wǎng)時代對物理世界的記錄更為客觀,對人意識的感知更為真實。因此,人工智能模型如何認知和感知海量視覺數(shù)據(jù)決定了AI生成視覺內(nèi)容的真實度與其內(nèi)涵。視覺Transformer(Vision Transformer, VIT)憑借優(yōu)異的性能、高效的并行計算和易擴展性取代了CNN成為主流網(wǎng)絡(luò)架構(gòu),生成式對抗網(wǎng)絡(luò)(Generative Adversarial Net, GAN)和變分自編碼器(Variational AutoEncoder, VAE)等生成式模型的提出助力了AI生成視覺內(nèi)容的發(fā)展。AI生成圖像內(nèi)容主要分為圖像生成圖像(Image-to-Image)和文本生成圖像(Text-to-Image),其中Image-to-Image指的是從已知樣本生成近似樣本或從低信息樣本生成富信息樣本的過程,VQGAN實現(xiàn)了圖像補全和圖像超分辨率等任務(wù)。相比于Image-to-Image執(zhí)行專業(yè)的圖像處理工作,Text-to-Image的應(yīng)用面更廣。DALL-E模型則結(jié)合了多模態(tài)神經(jīng)語言模型CLIP和VQVAE實現(xiàn)了文本Text-to-Image的任務(wù)。然而一張圖片比一句話所含的信息量更大,大規(guī)模數(shù)據(jù)集的預(yù)訓練模型對計算資源提出了更高要求。擴散模型為文本生成圖像提供了高性能模型架構(gòu),可以在較少計算資源情況下,快速生成高質(zhì)量圖像,是AI生成視覺內(nèi)容的重要里程碑。
1.2.3 AI生成多模態(tài)內(nèi)容
語言和視覺是最常見的兩種模態(tài),在元宇宙中圖像數(shù)據(jù)和文本數(shù)據(jù)相互交織,且呈現(xiàn)協(xié)調(diào)狀態(tài)。但是長期以來依賴單一信息源的單模態(tài)數(shù)據(jù)進行建模研究,導致AI對人類認知學習過程評估的不完全。同時,如果AIGC技術(shù)只能生成單一模態(tài)內(nèi)容,那么AIGC的應(yīng)用場景將極為有限,不足以推動內(nèi)容生成方式的革新。多模態(tài)大模型致力于處理不同模態(tài)、不同來源、不同任務(wù)的數(shù)據(jù)和信息,尋找不同模態(tài)數(shù)據(jù)之間的對應(yīng)關(guān)系以實現(xiàn)不同模態(tài)數(shù)據(jù)之間的相互轉(zhuǎn)化,進而生成視聽結(jié)合多模態(tài)內(nèi)容。OpenAI的DALL-E2通過訓練圖片和文本來學習物體的視覺和文字表示之間的聯(lián)系,僅輸入一些關(guān)鍵詞描述即可自動生成逼真的圖片。未來基于多模態(tài)大數(shù)據(jù)AIGC是邁向通用人工智能的關(guān)鍵,而AI生成連續(xù)多模態(tài)內(nèi)容是加速元宇宙建設(shè)的重要推手。
2 AIGC在科學研究中應(yīng)用的設(shè)想
不同于傳統(tǒng)的內(nèi)容生成模型,AIGC可以克服資源在時間和空間上的限制,每個研究人員都可以直接體驗、構(gòu)建和生成科研要素,有效解決科研資源分配不均的問題。同時,AIGC為團隊創(chuàng)新提供了良好的研究環(huán)境,將研究者從“科研民工”的身份中解放,高效產(chǎn)出高質(zhì)量科研成果。另外,AIGC對科研資源的補充和對團隊協(xié)作的指導有助于進一步打破學科界限,使跨學科合作研究成為主流發(fā)展方向。
2.1 補充科研資源
科研成果產(chǎn)出與科研資源高度相關(guān),然而科研受限于平臺、團隊、項目經(jīng)費等各種因素,難以獲得理想的科研資源。AIGC的出現(xiàn)在一定程度上打破了科研資源分配不均衡的現(xiàn)狀。AIGC可以創(chuàng)造出高度真實的樣本數(shù)據(jù)和極具現(xiàn)實感的虛擬模型,這對生物學、醫(yī)學、計算機科學、神經(jīng)科學等眾多學科的研究大有裨益。雖然OpenAI的ChatGPT并非完全開源,但是科研工作者可以以較低成本獲得SOTA(state-of-the-art)模型最全面和最豐富的數(shù)據(jù)。
經(jīng)過海量數(shù)據(jù)訓練的AIGC模型在強化學習和遷移學習上有巨大的潛力,其強大的總結(jié)能力可以幫助人類發(fā)現(xiàn)知識??蒲泄ぷ髡呃肁IGC從海量數(shù)據(jù)中挖掘完備的數(shù)據(jù)樣本,不再依賴于搜索和人為判斷的過濾方式,從而避免了因為知識不在現(xiàn)有庫或者主觀判斷所導致的知識欠缺和遺漏問題。
同時可以對AIGC生成內(nèi)容做出具體限定,生成規(guī)范化的數(shù)據(jù)樣本。這種方式繼承了二手數(shù)據(jù)快速便捷獲取的優(yōu)點,摒棄了其不規(guī)則、不準確的缺點。對于難以獲取有限樣本的問題,AIGC模型能夠?qū)W習現(xiàn)有少量樣例之間的共性或通過遷移學習方法,生成大量近似真實的樣本。從過去的技術(shù)尋找數(shù)據(jù),到現(xiàn)在的技術(shù)創(chuàng)造數(shù)據(jù),AIGC將推動WEB 3.0建設(shè),補充科研資源并降低科研門檻。
2.2 助力團隊協(xié)作效率提升和團隊創(chuàng)新
眾所周知,在Nature、Science和Cell等知名期刊上發(fā)表的科研成果是眾多科研工作者團結(jié)協(xié)作數(shù)年的結(jié)晶。真正優(yōu)秀的科研團隊中,成員的研究目標一致,互相之間配合默契,才能在一個科研方向上長期堅持。我國高校的大部分科研團隊的建設(shè)還局限在同一所大學同一學科內(nèi)部的同一課題組上。AIGC強大的包容性可以促進跨學科優(yōu)勢互補和整合資源。
研究生的培養(yǎng)是導師制,導師全權(quán)負責其學生的科研工作,導師依靠經(jīng)驗將一整個大課題分解為互相聯(lián)系的小課題交給不同的人負責,這種直接領(lǐng)導的方式無法保證團隊內(nèi)部的充分溝通,在一定程度上限制了團隊創(chuàng)新,團隊合作建設(shè)的成果較少。AIGC有望打破這種限制,AI以全新身份加入科研團隊,科研工作者可以將耗時的重復(fù)性勞動交于AI處理,增加創(chuàng)新性思考和團隊充分交流的時間,提高團隊協(xié)作的效率。
另一方面,AIGC將顛覆傳統(tǒng)科研管理模式,指導科研管理工作,研究不僅圍繞學術(shù)帶頭人展開,每一個成員都是團隊的核心,充分發(fā)揮研究的積極性和創(chuàng)新性。例如,DeepMind開發(fā)的AlphaFold在蛋白質(zhì)結(jié)構(gòu)預(yù)測上的強大能力,激發(fā)了結(jié)構(gòu)生物學家對行業(yè)的重新思考,選擇與AI合作成為必然。
2.3 打破學科界限
由于起步較晚,中國在專業(yè)軟件開發(fā)上始終落后于國外,例如Matlab、SolidWorks等,歐美依靠其“霸權(quán)地位”向中國收取高昂的知識產(chǎn)權(quán)費,嚴重阻礙中國的科技進步。AGIC正從表面數(shù)據(jù)向底層技術(shù)生成邁進,AIGC同樣可以快速建模與仿真。近年來,各行各業(yè)都對計算機基礎(chǔ)提出較高要求,當下AIGC的出現(xiàn)幫助人類了解技術(shù),進一步模糊了行業(yè)之間的界限區(qū)分。而產(chǎn)業(yè)與學術(shù)呈現(xiàn)相互促進的關(guān)系,學科界限也將進一步被打破,跨學科合作研究成為必然的發(fā)展趨勢。
另一方面,在科研經(jīng)費遠不如理工科的人文社科領(lǐng)域,AIGC的普及有望打破這種資源分配不均的局面,AI賦能的科學研究不再受到具體的方法工具的限制。文科生即使沒有學習過編程、建模等課程,也能借助AI輕松實現(xiàn)以輔助其研究,進而提升研究的深度和廣度。人文學科和社會科學的研究者具備了與理工科的研究者同等的實踐能力,其批判性的思辨能力會更具優(yōu)勢。
3 AIGC在科學研究中面臨的挑戰(zhàn)
雖然AIGC在科研工作中有豐富的應(yīng)用可能,但AI生成內(nèi)容的底層架構(gòu)和邏輯是神經(jīng)網(wǎng)絡(luò)的“黑盒模型”,人類無法理解深度神經(jīng)網(wǎng)絡(luò)中的每一個參數(shù),解釋不清模型從輸入到輸出之間的非線性映射關(guān)系。相反,計算機卻可以從數(shù)據(jù)訓練中抽象總結(jié)出所學規(guī)律,并嚴格按照此規(guī)律執(zhí)行。與科學研究中采用的一手數(shù)據(jù)、二手數(shù)據(jù)特性不同,AI生成內(nèi)容既不是完全現(xiàn)有的,也不是完全客觀的,AIGC在科學研究中的應(yīng)用將會帶來諸多問題。當ChatGPT不再延續(xù)GPT系列開源的傳統(tǒng)時,其商業(yè)化的選擇一方面保證了知識產(chǎn)權(quán)和收入來源,更重要的是對技術(shù)濫用進行監(jiān)管。科研工作者如果只著眼于技術(shù)上的可能性,而忽視其價值的正當性,那么AIGC給人類帶來的將是弊大于利。
3.1 嚴謹性能否被證實
AIGC在科學研究中應(yīng)用的首要問題是其嚴謹性能否被證實。科學研究強調(diào)嚴謹和規(guī)范,既是為了避免細微誤差影響結(jié)果的準確性,也是為了確??蒲羞^程邏輯性和實驗的可重復(fù)性。ChatGPT對于同一問題的結(jié)果并不完全一致,而在這種模糊相似中尋找共性的做法,也加大了AIGC 嚴謹性論證的難度。就像從實驗室最優(yōu)模型到實踐應(yīng)用仍有較大差距一樣,AIGC從便利生活到科學應(yīng)用還有很長的一段路要走。
另一方面,眾多期刊明確禁止將ChatGPT列為論文的合著者,同時也將其對生成的文本進行查重。因此,目前AIGC不能作為科研的第一生產(chǎn)力。正如圖靈機、神經(jīng)網(wǎng)絡(luò)在提出之初無人相信一樣,AI生成數(shù)據(jù)經(jīng)過實驗得出的結(jié)論是否可靠仍需要經(jīng)過大規(guī)模的驗證。
3.2 技術(shù)成癮
過度沉浸在網(wǎng)絡(luò)世界會產(chǎn)生對互聯(lián)網(wǎng)的依賴,長期使用電子設(shè)備會產(chǎn)生電子設(shè)備依賴,導致心理問題和過度疲勞綜合征的產(chǎn)生。同樣,AI生成內(nèi)容的便利也會蠶食科研工作者獨立思考的能力。隨著AIGC交互作用的不斷發(fā)展,知識獲取的便利性和零成本會導致學習者陷入技術(shù)依賴和AI上癮的陷阱。換言之,學習者不再需要發(fā)揮學習過程中的主觀能動性,不需要經(jīng)歷認識問題、思考問題、驗證答案、問題再認識的螺旋上升過程,而是簡單地將問題打包交由AI處理,直接獲取AI的標準答案。同時在元宇宙時代,虛擬與現(xiàn)實高度融合,真實信息與虛假信息交織難辨,AIGC創(chuàng)造的知識未經(jīng)驗證就轉(zhuǎn)移傳播,使得技術(shù)上癮的問題更為嚴峻,科研工作者一旦離開AI就不會思考,或者被AI牽著鼻子走。
AIGC全面的能力和對現(xiàn)實的補償效應(yīng)帶有強烈的成癮風險。AIGC給予大腦的刺激容易激發(fā)人類無盡的欲望,例如利用AIGC完成作業(yè)、通過考試等,如果不加以禁止,就會被無限復(fù)制。政府、高校、社會和科技巨頭公司有責任規(guī)范AI技術(shù)的使用,保護網(wǎng)絡(luò)使用安全。
3.3 隱私與道德問題
在傳統(tǒng)的社交網(wǎng)絡(luò)中,數(shù)據(jù)由用戶創(chuàng)造并決定由誰來分享他們的社交媒體內(nèi)容,因此隱私數(shù)據(jù)的泄露往往是小范圍,且可以快速溯源并解決。然而,在元宇宙和Web 3.0信息交互日益頻繁的今天,用戶創(chuàng)造數(shù)據(jù)在去中心化的區(qū)塊鏈上快速傳播,其中的數(shù)字痕跡很有可能包含了用戶隱私的敏感信息。無論多大規(guī)模,數(shù)據(jù)集的信息豐富度總是有限的,AI想要生成真實逼真的內(nèi)容需要與時俱進,其訓練數(shù)據(jù)來源終會邁向互聯(lián)網(wǎng),而這些隱私信息無差別被人工智能捕獲并學習,生成的內(nèi)容可能侵犯了用戶隱私和知識產(chǎn)權(quán)等。
另一方面,AIGC生成的虛假信息,會被不經(jīng)鑒別地傳播和出版,進而也帶來了信息欺詐的風險。這些虛假或者包含欺詐或者侵權(quán)行為的信息,經(jīng)過AI美化和包裝都變得難以人為鑒別,這也是之后發(fā)展可信人工智能亟待解決的問題。
技術(shù)的創(chuàng)新發(fā)展必然領(lǐng)先于對其道德倫理的思考,AIGC道德準則的發(fā)展相對滯后。對于科研工作者而言,AIGC技術(shù)的應(yīng)用更需慎之又慎,同時政府需要加強對AI技術(shù)的監(jiān)管,制定或更新相關(guān)的法律法規(guī)。
4 結(jié)論
2023年是AIGC元年,我國也提出推進高校、研究機構(gòu)和企業(yè)共同參與數(shù)字中國的建設(shè)。全世界的技術(shù)工作者、科研工作者在爭相體驗AI生成內(nèi)容的魅力,也都在思考如何看待AIGC在科學研究中的應(yīng)用前景。
對于科研工作者而言,與傳統(tǒng)依托于平臺資源的科研工作不同,得到AI賦能的科研工作更具有競爭優(yōu)勢,科研資源獲取成本的降低可以進一步解放思想。對于科研團隊而言,重要的是如何將AI生成內(nèi)容與現(xiàn)有的科研管理方式相結(jié)合,促進團隊協(xié)作效率提升和確保團隊創(chuàng)新活力。對于學科發(fā)展而言,AIGC打破了不同學科之間的界限,擴展了管理學科的范圍,對研究工作提出了更高要求,我們需要以跨時代、跨學科的視角開展管理科學研究。
現(xiàn)在直接預(yù)測AIGC將成為未來科研的第一生產(chǎn)力為時尚早,這項技術(shù)還需經(jīng)過時間的檢驗,科研工作者將AIGC用于補充科研需要尊重科研工作的嚴謹性,警惕技術(shù)陷阱,規(guī)避道德和法律風險,正確地使用AI這把雙刃劍,從而加快推進數(shù)字中國建設(shè)。
參考文獻:
[1] ?中共中央 國務(wù)院印發(fā)《數(shù)字中國建設(shè)整體布局規(guī)劃》[EB/OL](2023-02-27)[2023-03-01]. http://www.gov.cn/xinwen/2023-02/27/content_5743484.htm.
[2] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780.
[3] MNIH V, HEESS N, GRAVES A. Recurrent models of visual attention[J]. Advances in neural information processing systems, 2014, 27.
[4] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[J]. Advances in Neural Information Processing Systems, 2017, 30.
[5] DEVLIN J, CHANG M W, LEE K, et al. Bert: pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018.
[6] RADFORD A, NARASIMHAN K, SALIMANS T, et al. Improving language understanding by generative pre-training[J]. 2018.
[7] RADFORD A, WU J, CHILD R, et al. Language models are unsupervised multitask learners[J]. OpenAI Blog, 2019, 1(8): 9.
[8] BROWN T, MANN B, RYDER N, et al. Language models are few-shot learners[J]. Advances in Neural Information Processing Systems, 2020, 33: 1877-1901.
[9] OUYANG L, WU J, JIANG X, et al. Training language models to follow instructions with human feedback[J]. arXiv preprint arXiv:2203.02155, 2022.
[10] CHRISTIANO P F, LEIKE J, BROWN T, et al. Deep reinforcement learning from human preferences[J]. Advances in Neural Information Processing Systems, 2017, 30.
[11] STIENNON N, OUYANG L, WU J, et al. Learning to summarize with human feedback[J]. Advances in Neural Information Processing Systems, 2020, 33: 3008-3021.
[12] RADFORD A, KIM J W, HALLACY C, et al. Learning transferable visual models from natural language supervision[C]//International conference on machine learning. PMLR, 2021: 8748-8763.
[13] ESSER P, ROMBACH R, OMMER B. Taming transformers for high-resolution image synthesis[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2021: 12873-12883.
[14] RAMESH A, PAVLOV M, GOH G, et al. Zero-shot text-to-image generation[C]//International Conference on Machine Learning. PMLR, 2021: 8821-8831.
[15] ROMBACH R, BLATTMANN A, LORENZ D, et al. High-resolution image synthesis with latent diffusion models[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 10684-10695.
[16] 中國信通院. 人工智能生成內(nèi)容(AIGC)白皮書[EB/OL]. 2022.
[17] DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16x16 words: Transformers for image recognition at scale[J]. arXiv preprint arXiv:2010.11929, 2020.
[18] GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial networks[J]. Communications of the ACM, 2020, 63(11): 139-144.
[19] KINGMA D P, WELLING M. Auto-encoding variational bayes[J]. arXiv preprint arXiv:1312.6114, 2013.
[20] RAMESH A, DHARIWAL P, NICHOL A, et al. Hierarchical text-conditional image generation with clip latents[J]. arXiv preprint arXiv:2204.06125, 2022.
[21] VAN DEN OORD A, VINYALS O. Neural discrete representation learning[J]. Advances in Neural Information Processing Systems, 2017, 30.
[22] CAO H, TAN C, GAO Z, et al. A survey on generative diffusion model[J]. arXiv preprint arXiv:2209.02646, 2022.
[23] JUMPER J, EVANS R, PRITZEL A, et al. Highly accurate protein structure prediction with AlphaFold[J]. Nature, 2021, 596(7873): 583-589.
[24] ?2022年度“十大基礎(chǔ)研究關(guān)鍵詞”揭曉 薛其坤、顏寧等頂尖學者共話人類未來[EB/OL].2022.http://jingji.cctv.com/2022/11/28/ARTIjzDF4hJrpf1Dlk9LaMZM221128.shtml.