□ 文 | 天翼智庫
作為人工智能全球頂級(jí)專家,陸奇自今年以來,以“大模型帶來的變革和機(jī)會(huì)”為主題,先后在上海、深圳、北京等城市發(fā)表了多場演講,進(jìn)一步引發(fā)了業(yè)界對(duì)大模型的關(guān)注和思考。
本文基于對(duì)陸奇演講內(nèi)容的理解,對(duì)大模型的劃時(shí)代意義、發(fā)展過程和分類進(jìn)行了體系化的梳理,希望能幫助讀者更全面、準(zhǔn)確地認(rèn)識(shí)大模型。同時(shí)嘗試梳理并回答大模型如何打造,如何評(píng)價(jià)、如何實(shí)現(xiàn)商業(yè)變現(xiàn)等問題,希望能給讀者一些啟發(fā)。
大模型(LLM)狹義上指基于深度學(xué)習(xí)算法進(jìn)行訓(xùn)練的自然語言處理(NLP)模型,主要應(yīng)用于自然語言理解和生成等領(lǐng)域,廣義上還包括機(jī)器視覺(CV)大模型、多模態(tài)大模型和科學(xué)計(jì)算大模型等。ChatGPT的火爆吸引了全世界對(duì)大模型的關(guān)注,比爾·蓋茨表示,ChatGPT的誕生意義不亞于互聯(lián)網(wǎng)的出現(xiàn);陸奇在報(bào)告中稱之為“ChatGPT時(shí)刻”。
信息社會(huì)先后經(jīng)歷了計(jì)算機(jī)、互聯(lián)網(wǎng)、移動(dòng)互聯(lián)網(wǎng)和云計(jì)算等重要階段;ChatGPT及一大批類似大模型的發(fā)展,標(biāo)志著信息社會(huì)進(jìn)入了大模型主導(dǎo)的新階段。根據(jù)陸奇提出的“信息-模型-行動(dòng)”系統(tǒng)分析范式框架,計(jì)算機(jī)、互聯(lián)網(wǎng)、移動(dòng)互聯(lián)網(wǎng)和云計(jì)算這四個(gè)標(biāo)志性技術(shù)都是實(shí)現(xiàn)了信息獲取的邊際成本無限趨近零。大模型熱潮標(biāo)志著新拐點(diǎn)即將到來,社會(huì)各界獲取模型的總成本將逐漸趨近固定成本,預(yù)示著模型將無處不在,萬物都將成為它的載體。
未來,自動(dòng)化行動(dòng)將成為新的拐點(diǎn),人在物理空間內(nèi)“行動(dòng)”的代價(jià)轉(zhuǎn)向固定,人將與數(shù)字化技術(shù)構(gòu)建出一個(gè)全新的智能系統(tǒng),實(shí)現(xiàn)信息、模型和行動(dòng)的無縫銜接。這意味著人不再通過獲取信息,利用人腦分析,自己去行動(dòng),而是智能系統(tǒng)自動(dòng)獲取低成本信息(數(shù)據(jù)),利用大模型,形成指令驅(qū)動(dòng)各類系統(tǒng)(包括機(jī)器人)采取行動(dòng),從而對(duì)整個(gè)社會(huì)產(chǎn)生深遠(yuǎn)的影響和沖擊,各類數(shù)字化系統(tǒng)也將基于大模型形成互聯(lián)互通。
大模型推動(dòng)弱人工智能向通用人工智能(AGI)躍升。2023年2月,OpenAI在ChatGPT成功的基礎(chǔ)上,發(fā)布了通用人工智能路線圖,建議逐步向AGI普及的世界過渡,讓大眾、政策制定者和研究機(jī)構(gòu)有時(shí)間了解AGI技術(shù)帶來的改變。谷歌也指出未來數(shù)年AGI將會(huì)得到普及,各種應(yīng)用領(lǐng)域中的智能系統(tǒng)將具備與人類認(rèn)知能力相持平的智力水平,能夠勝任多種復(fù)雜任務(wù)。
大模型推動(dòng)生產(chǎn)力從算力向機(jī)器智力躍升。生產(chǎn)力的變革是推動(dòng)人類社會(huì)進(jìn)步的根本動(dòng)力,從原始社會(huì)、農(nóng)業(yè)社會(huì)、工業(yè)社會(huì)到信息社會(huì),背后是人力、畜力、電力到算力的躍升。隨著大模型成為新的物種,機(jī)器智力將成為新的主流生產(chǎn)力。機(jī)器智力是智能算力與人類知識(shí)的擴(kuò)展、集成和融合,大模型是機(jī)器智力的載體。隨著大模型的不斷進(jìn)化和普及,其將成為經(jīng)濟(jì)社會(huì)的主流生產(chǎn)工具,重塑經(jīng)濟(jì)社會(huì)的生產(chǎn)方式,全面降低生產(chǎn)成本,提升經(jīng)濟(jì)效益。
大模型推動(dòng)數(shù)字社會(huì)向智能社會(huì)躍升。首先是AI特別是AGI產(chǎn)業(yè)高度發(fā)展,帶動(dòng)智能算力相關(guān)基礎(chǔ)設(shè)施投資,并基于大模型衍生出多種新業(yè)態(tài)和新市場,成為經(jīng)濟(jì)增長的核心引擎。以智算中心為例,一個(gè)單位的智算中心投資,可帶動(dòng)AI核心產(chǎn)業(yè)增長約2.9-3.4倍、帶動(dòng)相關(guān)產(chǎn)業(yè)增長約36-42倍。GPT等各種大模型是人工智能時(shí)代的“操作系統(tǒng)”,將重構(gòu)、重寫數(shù)字化應(yīng)用。其次是有了AGI的加持,人類的能力和活動(dòng)范圍都將得到大幅提升,進(jìn)一步從重復(fù)性的腦力勞動(dòng)中解放出來。但是,需要注意到,大模型的普及也會(huì)給現(xiàn)有的教育、就業(yè)、輿論甚至全球的政治格局帶來沖擊,是需要政府和產(chǎn)業(yè)界共同研究的問題。
大模型發(fā)展主要經(jīng)歷了三個(gè)階段,分別是萌芽期、探索沉淀期和迅猛發(fā)展期(如圖1所示)。
圖1 AI大模型發(fā)展的三個(gè)階段
19 5 6 年,從計(jì)算機(jī)專家約翰·麥卡錫提出“人工智能”概念開始,AI發(fā)展由最開始基于小規(guī)模專家知識(shí)逐步發(fā)展為基于機(jī)器學(xué)習(xí)。1980年,卷積神經(jīng)網(wǎng)絡(luò)的雛形CNN誕生。1998年,現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)LeNet-5誕生,機(jī)器學(xué)習(xí)方法由早期基于淺層機(jī)器學(xué)習(xí)的模型,變?yōu)榱嘶谏疃葘W(xué)習(xí)的模型,為自然語言生成、計(jì)算機(jī)視覺等領(lǐng)域的深入研究奠定了基礎(chǔ),對(duì)后續(xù)深度學(xué)習(xí)框架的迭代及大模型發(fā)展具有開創(chuàng)性的意義。
2013年,自然語言處理模型Word2Vec誕生,首次提出將單詞轉(zhuǎn)換為向量的“詞向量模型”,以便計(jì)算機(jī)更好地理解和處理文本數(shù)據(jù)。2014年,被譽(yù)為21世紀(jì)最強(qiáng)大算法模型之一的GAN(對(duì)抗式生成網(wǎng)絡(luò))誕生,標(biāo)志著深度學(xué)習(xí)進(jìn)入了生成模型研究的新階段。2017年,Google顛覆性地提出了基于自注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)——Transformer架構(gòu),奠定了大模型預(yù)訓(xùn)練算法架構(gòu)的基礎(chǔ)。2018年,OpenAI和Google分別發(fā)布了GPT-1與BERT大模型,意味著預(yù)訓(xùn)練大模型成為自然語言處理領(lǐng)域的主流。在探索期,以Transformer為代表的全新神經(jīng)網(wǎng)絡(luò)架構(gòu),奠定了大模型的算法架構(gòu)基礎(chǔ),使大模型技術(shù)的性能得到了顯著提升。
2020年,OpenAI公司推出了GPT-3,模型參數(shù)規(guī)模達(dá)到了1750億,成為當(dāng)時(shí)最大的語言模型,并且在零樣本學(xué)習(xí)任務(wù)上實(shí)現(xiàn)了巨大性能提升。隨后,更多策略如基于人類反饋的強(qiáng)化學(xué)習(xí)(RHLF)、代碼預(yù)訓(xùn)練、指令微調(diào)等開始出現(xiàn),被用于進(jìn)一步提高推理能力和任務(wù)泛化。2022年11月,搭載了GPT3.5的ChatGPT橫空出世,憑借逼真的自然語言交互與多場景內(nèi)容生成能力,迅速引爆互聯(lián)網(wǎng)。2023年3月,最新發(fā)布的超大規(guī)模多模態(tài)預(yù)訓(xùn)練大模型——GPT-4,具備了多模態(tài)理解與多類型內(nèi)容生成能力。在迅猛發(fā)展期,大數(shù)據(jù)、大算力和大算法完美結(jié)合,大幅提升了大模型的預(yù)訓(xùn)練和生成能力以及多模態(tài)多場景應(yīng)用能力。如ChatGPT的巨大成功,就是在微軟Azure強(qiáng)大的算力以及wiki等海量數(shù)據(jù)支持下,在Transformer架構(gòu)基礎(chǔ)上,堅(jiān)持GPT模型及人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)進(jìn)行精調(diào)的策略下取得的。
大模型作為新物種,一直在快速進(jìn)化,目前已經(jīng)初步形成包括各參數(shù)規(guī)模、各種技術(shù)架構(gòu)、各種模態(tài)、各種場景的大模型家族(如圖2所示)。
圖2 大模型譜系圖
從參數(shù)規(guī)模上看,大模型經(jīng)歷了預(yù)訓(xùn)練模型、大規(guī)模預(yù)訓(xùn)練模型、超大規(guī)模預(yù)訓(xùn)練模型三個(gè)階段。據(jù)統(tǒng)計(jì),每年參數(shù)規(guī)模至少提升10倍,實(shí)現(xiàn)了從億級(jí)到百萬億級(jí)的突破。目前千億級(jí)參數(shù)規(guī)模的大模型成為主流。
從技術(shù)架構(gòu)上看,Trans former架構(gòu)是當(dāng)前大模型領(lǐng)域主流的算法架構(gòu)基礎(chǔ),其上形成了GPT和BERT兩條主要的技術(shù)路線,其中BERT最有名的落地項(xiàng)目是谷歌的AlphaGo。在GPT3.0發(fā)布后,GPT逐漸成為大模型的主流路線。綜合來看,當(dāng)前幾乎所有參數(shù)規(guī)模超過千億的大型語言模型都采取GPT模式,如百度文心一言,阿里發(fā)布的通義千問等。
從模態(tài)上來看,大模型可分為自然語言處理大模型,CV大模型、科學(xué)計(jì)算大模型等。大模型支持的模態(tài)數(shù)量更加多樣,從支持文本、圖片、圖像、語音單一模態(tài)下的單一任務(wù),逐漸發(fā)展為支持多種模態(tài)下的多種任務(wù)。
從應(yīng)用領(lǐng)域來講,大模型可分為通用大模型和行業(yè)大模型兩種。通用大模型是具有強(qiáng)大泛化能力,可在不進(jìn)行微調(diào)或少量微調(diào)的情況下完成多場景任務(wù),相當(dāng)于AI完成了“通識(shí)教育”,ChatGPT、華為的盤古都是通用大模型。行業(yè)大模型則是利用行業(yè)知識(shí)對(duì)大模型進(jìn)行微調(diào),讓AI完成“專業(yè)教育”,以滿足在能源、金融、制造、傳媒等不同領(lǐng)域的需求,如金融領(lǐng)域的BloombergGPT、法律領(lǐng)域的LawGPT_zh,以及百度基于文心大模型推出的航天-百度文心、辭海-百度文心等。
目前大模型的開發(fā)主要有兩種路徑,一種是從頭構(gòu)建完整大模型;另一種是在開源的通用大模型之上調(diào)優(yōu)。前者所需數(shù)據(jù)、算力、時(shí)間投入較大,但大模型的性能更為突出。后者模型的參數(shù)和能力受限于開源模型,但成本較低,可以快速形成所需的大模型。
構(gòu)建完整大模型一般分為四個(gè)步驟(如圖3所示):
圖3 完整大模型的主要開發(fā)步驟
首先是訓(xùn)練構(gòu)建基座模型?;P鸵呀?jīng)初步具備良好的知識(shí)框架和認(rèn)知能力,但需要復(fù)雜指令的準(zhǔn)確引導(dǎo)才可以生成正確內(nèi)容,因而一般不能直接用于作為日常交互。從模型算法角度看,目前主流的GPT類基座模型均基于Transformer的decoder思路設(shè)計(jì)。從數(shù)據(jù)角度看,基座模型是實(shí)現(xiàn)涌現(xiàn)能力(參數(shù)達(dá)到一定規(guī)模時(shí)出現(xiàn)意想不到的能力)的基礎(chǔ),訓(xùn)練需要用到大量的數(shù)據(jù),GPT3.0用到了45TB的文本語料,GPT4中還增加了圖像數(shù)據(jù)等。從算力資源角度看,訓(xùn)練一個(gè)基座模型需要大量的算力和較長周期,為了提高效率,ChatGPT用到了近萬張英偉達(dá)A100的GPU卡?;P涂梢岳斫鉃樾『⒁呀?jīng)生硬地背了大量古詩,但還不會(huì)熟練運(yùn)用。你跟他說“舉頭望明月”,他能對(duì)出“低頭思故鄉(xiāng)”。但你讓他背一首“思鄉(xiāng)”的詩,他就不會(huì)了。
其次是策略精調(diào)。目的是讓模型具備適用性,能與人類正常交流,即讓基座模型理解用戶想問什么,以及自己答的對(duì)不對(duì)。這個(gè)環(huán)節(jié)主要通過高質(zhì)量的人工標(biāo)注<指令,答案>(即prompt工程)優(yōu)化模型。ChatGPT的標(biāo)注數(shù)據(jù)集主要由一個(gè)3 0-50名Op en A I員工組成的團(tuán)隊(duì)和從第三方網(wǎng)站雇傭的50-100名標(biāo)注員共同完成。這個(gè)過程可以理解為老師給學(xué)生上課,講解很多詩句的含義。引導(dǎo)他看到“孤獨(dú)(prompt)”可以寫“揀盡寒枝不肯棲,寂寞沙洲冷(答案)”,看到“豪情(prompt)”,可以寫“愿將腰下劍,直為斬樓蘭(答案)”
第三步是訓(xùn)練一個(gè)獨(dú)立于基座模型的判別模型,用來判斷模型生成結(jié)果的質(zhì)量,為下一步的強(qiáng)化學(xué)習(xí)做準(zhǔn)備。由專門的標(biāo)注人員對(duì)模型生成的結(jié)果按照相關(guān)性、富含信息性、有害信息等諸多標(biāo)準(zhǔn)進(jìn)行排序,然后通過判別模型學(xué)習(xí)標(biāo)注好排名的數(shù)據(jù),形成對(duì)生成結(jié)果質(zhì)量判別能力。這一步是為小朋友培養(yǎng)一個(gè)伴讀。通過給定一組題目(prompt),讓小朋友為每一個(gè)題目寫多篇古詩。由老師為每一首詩打分(結(jié)果標(biāo)注),然后將結(jié)果告訴伴讀。伴讀需要學(xué)會(huì)判斷哪首詩更符合題目,寫的更有意境。
最后一步是利用獎(jiǎng)勵(lì)機(jī)制優(yōu)化基座模型,完成模型的領(lǐng)域泛化能力。本階段無需人工標(biāo)注數(shù)據(jù),而是利用強(qiáng)化學(xué)習(xí)技術(shù),根據(jù)上一階段判別模型的打分結(jié)果來更新內(nèi)容生成模型參數(shù),從而提升內(nèi)容生成模型的回答質(zhì)量。(第三和最后一步相當(dāng)于大人去糾正小孩對(duì)話,告訴孩子哪句話是對(duì)的,哪句話不能這么回答,比如“爸爸好不好?”,回答“爸爸是壞蛋”就要進(jìn)行“懲罰”,回答“爸爸很好,我很喜歡爸爸”就比較符合要求。類似的做法,實(shí)際的工作比這個(gè)要復(fù)雜的多,需要大量的專家投入)。這一步則是讓伴讀提升小朋友的水平,而老師則可以休息了。伴讀告訴小朋友,如果用“未若柳絮因風(fēng)起”描寫雪則可以有糖葫蘆吃,如果用“撒鹽空中差可擬”描寫則沒有糖吃。通過反復(fù)練習(xí),最后就可以培養(yǎng)出一位“能詩會(huì)賦”的高手(成品大模型)。
基于開源通用大模型進(jìn)行調(diào)優(yōu)是低成本的選擇,也是大模型下游玩家最常見的選擇,利用開源大模型,玩家可在1張高性能顯卡中,約5小時(shí)就可完成包含200萬條數(shù)據(jù)的參數(shù)微調(diào)。參數(shù)高效微調(diào)方法是目前業(yè)界主流的調(diào)優(yōu)方式,在保持原有大模型的整體參數(shù)或絕大部分參數(shù)不變的情況下,僅通過增加或改變參數(shù)的方式獲得更好的模型輸出,影響的參數(shù)量可僅為大模型全量參數(shù)的0.1%以下,典型代表為微軟提出的LoRA技術(shù)。
短短幾個(gè)月,國內(nèi)外AI大模型數(shù)量激增,良莠不齊,尤其如何對(duì)開源大模型進(jìn)行評(píng)估成為新的課題,對(duì)于開源大模型選擇、促進(jìn)大模型的發(fā)展具有非常重要的價(jià)值。未來,對(duì)于2B客戶來說,需要從諸多行業(yè)大模型選擇適合自己需要的大模型,第三方獨(dú)立評(píng)估結(jié)果具有重要的參考價(jià)值。
目前業(yè)界還沒有形成統(tǒng)一的權(quán)威第三方評(píng)測方法,主要的評(píng)測手段有兩類:
一類是深度學(xué)習(xí)常用的語言理解數(shù)據(jù)集與評(píng)測指標(biāo),即通過運(yùn)行標(biāo)準(zhǔn)的數(shù)據(jù)集,來評(píng)測大模型的深度學(xué)習(xí)性能,常用的指標(biāo)有準(zhǔn)確率、召回率等。Meta、谷歌和華盛頓大學(xué)等合作推出的SuperGLUE(超級(jí)通用語言理解評(píng)估)包含7個(gè)任務(wù)的集合,能夠測試大模型在回答問題和常識(shí)推理等多方面的能力。
另一類是面向大模型的文本生成、語言理解、知識(shí)問答等能力,設(shè)計(jì)專門評(píng)估指標(biāo)體系,然后通過提問(prompt)的方式,根據(jù)生成的結(jié)果對(duì)模型進(jìn)行評(píng)價(jià)。具體操作上又分為人工評(píng)測和裁判大模型評(píng)測兩種方式,人工評(píng)測由語言學(xué)家和領(lǐng)域?qū)<腋鶕?jù)主觀判斷來評(píng)價(jià)模型各個(gè)指標(biāo)的表現(xiàn),如OpenAI等機(jī)構(gòu)邀請(qǐng)研究人員評(píng)測GPT系列模型;科大訊飛牽頭設(shè)計(jì)了通用認(rèn)知大模型評(píng)測體系,從文本生成、語言理解、知識(shí)問答、邏輯推理、數(shù)學(xué)能力、代碼能力和多模態(tài)能力這7個(gè)維度481個(gè)細(xì)分任務(wù)類型進(jìn)行評(píng)估。裁判大模型評(píng)測是指用一個(gè)較強(qiáng)大的語言模型來評(píng)測其他語言模型。例如,用GPT-4模型作為“老師”,通過“老師”出題及評(píng)判其他模型的答案來實(shí)現(xiàn)機(jī)器評(píng)測。北大和西湖大學(xué)開源的裁判大模型pandaLM也實(shí)現(xiàn)了自動(dòng)化、保護(hù)隱私和低成本的評(píng)估方式。
上述三種方式各有優(yōu)缺點(diǎn),語言理解數(shù)據(jù)集適用于初步評(píng)估大模型的基本性能,如翻譯質(zhì)量、語言表達(dá)能力等;人工評(píng)測適用于評(píng)估大模型的高層語言表達(dá)能力、情感理解力和交互性能等;機(jī)器裁判評(píng)測適用于對(duì)大規(guī)模數(shù)據(jù)和模型進(jìn)行快速評(píng)測,評(píng)估大模型的穩(wěn)定性和一致性。
與互聯(lián)網(wǎng)或移動(dòng)互聯(lián)網(wǎng)發(fā)展初期沒有成熟的商業(yè)模式相比,大模型自帶光環(huán),迅速形成了MaaS模式。具體來看,應(yīng)用場景、產(chǎn)品形態(tài)及盈利模式主要有以下幾類:
A.互聯(lián)網(wǎng)應(yīng)用或SaaS應(yīng)用:直接向終端用戶提供大模型SaaS應(yīng)用產(chǎn)品,通過訂閱模式、按生成內(nèi)容的數(shù)量或質(zhì)量收費(fèi)、按比例分成等模式實(shí)現(xiàn)盈利,例如Midjourney提供每月10美元和30美元兩種會(huì)員收費(fèi)標(biāo)準(zhǔn);ChatGPT對(duì)用戶免費(fèi),但ChatGPT plus收費(fèi)20美元/月。
B.“插件”(Plug in):大模型可集成加載第三方應(yīng)用產(chǎn)品插件,大大拓展了大模型的應(yīng)用場景,吸引更多用戶,例如ChatGPT Plugins,大量餐飲、商旅網(wǎng)站和A p p 通過插件加載集成到ChatGPT,增強(qiáng)了ChatGPT的功能和體驗(yàn),用戶不是簡單地聊天,而是可以一站式實(shí)現(xiàn)綜合任務(wù),例如出差或旅游,大模型可以幫忙訂機(jī)票,訂酒店,訂飯店和租車等等。
C.自有應(yīng)用重構(gòu):將自研的大模型能力直接內(nèi)置嵌入自有應(yīng)用,增強(qiáng)智能輔助和高效交互,為自有應(yīng)用引流增加收益,例如微軟將GPT-4深度集成到Office、Bing等系列產(chǎn)品,功能要強(qiáng)大的多,例如搜索可以對(duì)話式獲取更聰明精確和綜合的答案,office可以為輔助客戶撰寫PPT和文檔,只需說出需求,ChatGPT即可快速生成一份模板化文檔,大差不差,稍作修改即可使用,大大提升了工作效率。
D.開放API:大模型平臺(tái)開放API,為開發(fā)者提供可訪問和調(diào)用的大模型能力,按照數(shù)據(jù)請(qǐng)求量和實(shí)際計(jì)算量計(jì)費(fèi),開發(fā)者可以根據(jù)需要開發(fā)定制功能和應(yīng)用,國內(nèi)一些ChatGPT小程序和web應(yīng)用就是基于ChatGPT的API外包一層UI提供的,國內(nèi)商湯“日日新”大模型也為用戶開放API接口;
E.大模型云服務(wù):基于大模型和配套算力基礎(chǔ)設(shè)施提供全套模型服務(wù),如為客戶提供自動(dòng)化數(shù)據(jù)標(biāo)注、模型訓(xùn)練、提供微調(diào)工具等以及增量支撐服務(wù),按照數(shù)據(jù)請(qǐng)求量和實(shí)際計(jì)算量計(jì)費(fèi),例如Azure OpenAI服務(wù),客戶可開發(fā)訓(xùn)練自己的大模型,未來不提供大模型框架、工具和數(shù)據(jù)集處理能力的云將很難吸引客戶“上云”;
F.解決方案:提供定制化或場景化的行業(yè)應(yīng)用解決方案,按具體項(xiàng)目實(shí)施情況收費(fèi),例如科大訊飛智能客服解決方案,這種按項(xiàng)目和解決方案部署AI和大模型應(yīng)用適用于行業(yè)大客戶,投入成本較高。
A、B、D可依托第三方大模型能力快速開展業(yè)務(wù),但同時(shí)失去對(duì)數(shù)據(jù)的掌控,B和D通過開放促進(jìn)大模型應(yīng)用生態(tài)發(fā)展,ChatGPT實(shí)現(xiàn)從聊天工具到類OS的躍升;C門檻較高,需要自主研發(fā)或部署大模型,掌控大模型能力,但可以深度提升應(yīng)用能力;E主要面向有模型自主開發(fā)需求的客戶;F主要面向2B客戶,可通過私有化部署保障數(shù)據(jù)安全。未來,大模型與機(jī)器人、智能設(shè)備等硬件結(jié)合(大模型擁有“手腳”),將為商業(yè)模式創(chuàng)新帶來更廣闊的空間。
陸奇認(rèn)為,要判斷大模型在一個(gè)行業(yè)的發(fā)展機(jī)會(huì),需要考慮模型能力在該行業(yè)的提升速度、三位一體(信息,模型,行動(dòng))體驗(yàn)程度以及能否對(duì)該領(lǐng)域的研發(fā)體系帶來突破性進(jìn)展。具體來看,大模型將率先在互聯(lián)網(wǎng)、金融、傳媒、教育等知識(shí)密集度高的行業(yè)快速滲透(如圖4所示)。
圖4 AI大模型行業(yè)滲透趨勢[1] 縱軸主要根據(jù)OpenAI對(duì)該行業(yè)通過運(yùn)用大模型和/或嵌入大模型能力的應(yīng)用能至少節(jié)省50%完成時(shí)間的工作任務(wù)占全部工作任務(wù)的比例判斷,橫軸大模型行業(yè)滲透時(shí)間主要根據(jù)麥肯錫對(duì)我國行業(yè)數(shù)字化程度的評(píng)估進(jìn)行判斷。
當(dāng)前大模型已在搜索、辦公、編程等互聯(lián)網(wǎng)信息服務(wù)行業(yè)建立標(biāo)桿,如微軟NewBing引入GPT-4能力實(shí)現(xiàn)對(duì)話及復(fù)雜搜索、總結(jié)資料生成答案、發(fā)揮創(chuàng)意提供方案等,提升用戶信息檢索效率,這一點(diǎn)類似公有云初期主要在互聯(lián)網(wǎng)領(lǐng)域應(yīng)用。中期內(nèi),大模型將作為創(chuàng)作必備輔助工具在傳媒、教育等行業(yè)進(jìn)行應(yīng)用推廣,如全球范圍內(nèi)已有超300萬用戶使用OpenAI DALL·E模型繪圖,每天創(chuàng)建的圖片數(shù)量達(dá)到400萬張;在教育領(lǐng)域,基于大模型的AI智能助手可為學(xué)生提供更具個(gè)性化、情景化的學(xué)習(xí)材料,如科大訊飛學(xué)習(xí)機(jī)引入星火大模型能力輔助中小學(xué)生寫作。未來,大模型在醫(yī)療、交通、制造等行業(yè)的長期滲透潛力大。
當(dāng)前醫(yī)療、交通、制造等專業(yè)領(lǐng)域正積極探索大模型應(yīng)用場景,如中文醫(yī)療語言大模型“商量·大醫(yī)”通過多輪對(duì)話輔助支持導(dǎo)診、問診、健康咨詢等場景;百度基于交通大模型的全域信控緩堵方案可實(shí)現(xiàn)15-30%的效率提升;華為盤古大模型在礦山、電力等領(lǐng)域通過“預(yù)訓(xùn)練+微調(diào)”方式打造細(xì)分場景模型方案,如煤礦場景下可降低井下安全事故90%以上。未來隨著行業(yè)數(shù)字化程度進(jìn)一步提升、人工智能治理法律法規(guī)進(jìn)一步完善,大模型在上述領(lǐng)域的應(yīng)用將迎來爆發(fā)。
首先,大模型逐漸發(fā)展成為新型基礎(chǔ)設(shè)施,為上層行業(yè)應(yīng)用開發(fā)和開源生態(tài)提供低成本技術(shù)支撐,形成以大模型為中心的產(chǎn)品生態(tài)。大模型作為一種通用智能助手和交互手段,將重構(gòu)現(xiàn)有大部分應(yīng)用產(chǎn)品的交互方式和使用體驗(yàn),如微軟基于GPT-4能力的GitHub Copilot X、Microsoft 365改變用戶原有編程、創(chuàng)作方式,用戶僅需通過自然語言對(duì)話方式便可生成內(nèi)容,當(dāng)前谷歌、微軟、阿里等頭部企業(yè)陸續(xù)將大模型能力應(yīng)用至各種產(chǎn)品中構(gòu)建以模型能力為核心的產(chǎn)品矩陣。
隨后,大模型開源將促進(jìn)新開發(fā)生態(tài)的形成,實(shí)現(xiàn)“智能原生”。開發(fā)者可以基于開源模型利用專有數(shù)據(jù)資料在本地進(jìn)行開發(fā)訓(xùn)練,如加州大學(xué)伯克利分校、CMU、斯坦福大學(xué)、加州大學(xué)圣地亞哥分校的研究人員聯(lián)合推出Vicuna,達(dá)到OpenAI ChatGPT90%以上水平,訓(xùn)練成本僅需300美元。開源模型解決了大模型可擴(kuò)展的問題,同時(shí)將大模型的訓(xùn)練門檻從企業(yè)級(jí)降低到消費(fèi)級(jí),個(gè)人開發(fā)者利用電腦設(shè)備均能基于開源大模型進(jìn)行定制化、本地化訓(xùn)練。未來基于開源大模型的定制版或?qū)⒉渴鹪谠啤⑦?、端各個(gè)環(huán)節(jié),帶來云端和多云應(yīng)用的重構(gòu)和聯(lián)結(jié)?!?/p>