大模型降價的風(fēng),終于吹到了大廠。
2024年5月15日,字節(jié)跳動正式發(fā)布豆包大模型,并披露豆包主力模型在企業(yè)市場(ToB)的定價為0.0008元/千Tokens(指文本切割后的最小語義單位),即以0.8厘的價格可以處理1500多個漢字,較行業(yè)平均價格便宜99.3%。由此推算,此前行業(yè)平均價格為0.114元/千Tokens。
這個“較行業(yè)平均價格便宜99.3%”的宣傳口號,刺激到了BAT(百度、阿里巴巴、騰訊)。
5月21日,阿里巴巴、百度先后官宣降價,百度文心大模型兩大主力模型全面免費(fèi),阿里通義大模型全面降價;5月22日,騰訊跟進(jìn)降價。
科技大廠,打起價格戰(zhàn),跟街邊商販一個風(fēng)格。
大模型降價,這是AI進(jìn)入普惠時代的關(guān)鍵一步。
2022年末,Chat-GPT爆火出圈以來,國內(nèi)百模大戰(zhàn)如火如荼,互聯(lián)網(wǎng)大廠通過云服務(wù)落地的大模型,被無數(shù)的B端用戶使用。而Chat-GPT4、文心一言、通義千問、Kimi等基于大模型能力的問答應(yīng)用,讓更多C端用戶切實感知到大模型的“魅力”。
如今,大模型廠商之間的競爭,從比硬件、卷參數(shù)、爭用戶,進(jìn)入了價格的較量。
大模型降價為何會如此受關(guān)注?
打個比方,大模型的數(shù)據(jù)調(diào)用,類似于智能手機(jī)使用的流量。大模型調(diào)用API降價,類似于智能機(jī)發(fā)端時期,電信服務(wù)商集體降低流量價格。過去10年,流量價格的下降,間接催生了智能終端應(yīng)用(APP)的大繁榮。
過去一年,大模型爆發(fā)、AI數(shù)據(jù)調(diào)用量井噴、英偉達(dá)GPU芯片價格暴漲等年度熱詞,都指向一個共同的指標(biāo),就是大模型API接口調(diào)用算力,非常貴。
例如,在大模型一次輸入10萬漢字的文本,大概需要調(diào)用大模型7萬Tokens,按行業(yè)大模型lite平均0.0008元/千Tokens的價格估算,一次輸入10萬字的成本是0.056元,月之暗面的Kimi此前宣稱已經(jīng)可以支持200萬字無損上下文,那意味著,單個用戶單次成本都超過1元。大模型成本之高,可見一斑。
今年5月以來,多個大模型推出低價產(chǎn)品或降價。
5月6日,幻方量化宣布,旗下深度求索(DeepSeek)正式開源第二代MoE模型DeepSeek-V2,API定價為:輸入1元/百萬Tokens、輸出2元/百萬Tokens,價格為GPT-4-Turbo的近1%。
5月11日,智譜AI宣布,其個人版GLM-3Turbo模型產(chǎn)品調(diào)用價格從5元/百萬Tokens降低至1元/百萬Tokens,價格打了兩折。
5月13日,OpenAI推出GPT4o,它在英語文本和代碼上與GPT-4Turbo性能相當(dāng),向全部用戶免費(fèi),API調(diào)用速度比GPT-4快兩倍,但價格減半。
這波降價風(fēng)潮,引起了字節(jié)跳動、阿里、百度、騰訊的快速跟進(jìn)。
B端用戶通過API接口調(diào)用大模型的算力,大模型降價,可以粗略理解為算力降價。調(diào)用大模型的成本降低,有利于更多的下游用戶直接采用大模型去定向開發(fā)個性化的應(yīng)用。這樣,最大可能避免企業(yè)在大模型底層硬件、軟件層面的重復(fù)建設(shè),推動整個行業(yè)向下游應(yīng)用端發(fā)力。
百度創(chuàng)始人李彥宏就曾公開表示,不斷地重復(fù)開發(fā)基礎(chǔ)大模型,是對社會資源的極大浪費(fèi)。他指出,只有當(dāng)模型的參數(shù)規(guī)模足夠大,訓(xùn)練數(shù)據(jù)量足夠多,并且能夠不斷投入,持續(xù)迭代,才能夠產(chǎn)生“智能涌現(xiàn)”。而沒有“智能涌現(xiàn)”能力的專用大模型,價值非常有限。
“智能涌現(xiàn)”即大模型觸類旁通的能力,也就是大模型能夠自主學(xué)會那些沒有被教過的東西,簡單說,就是“不教也會”,這是大模型進(jìn)化的內(nèi)在邏輯。大模型要具備“智能涌現(xiàn)”的能力,前提就是足夠海量的數(shù)據(jù)輸入和訓(xùn)練。
無論是比拼硬件、軟件、參數(shù)、活躍用戶數(shù),還是降價,大模型廠商最終爭奪的都是數(shù)據(jù)體量。數(shù)據(jù)投喂規(guī)模越大,大模型“智能涌現(xiàn)”的能力越強(qiáng),這與算法進(jìn)化的基本邏輯一致。
因此,大模型供應(yīng)商阿里、百度、騰訊、字節(jié)跳動等,要想和電信服務(wù)商一樣,成為AI時代“基礎(chǔ)設(shè)施”供應(yīng)商,就需要基于自身優(yōu)勢,提供從底層GPU、服務(wù)器,到中層軟件應(yīng)用,再到整體解決方案,甚至大模型定制等不同梯次的服務(wù),覆蓋不同的客戶需求。
目前,BAT的大模型均通過智能云落地,我們可以從各家云服務(wù)業(yè)務(wù)營收增速,大模型迭代速度、參數(shù)量、調(diào)用量,來管窺大模型業(yè)務(wù)的發(fā)展情況。
作為國內(nèi)智能云的帶頭大哥,可以走出國門與谷歌云、微軟云扳手腕的阿里云,走的是開放、開源的路線。
“讓云成為水和電一樣的公共服務(wù)”是阿里云的定位,基于云服務(wù)落地的大模型,也是公共服務(wù)之一。2023年底,阿里巴巴集團(tuán)CEO吳泳銘為阿里云確定了“AI驅(qū)動,公共云優(yōu)先”戰(zhàn)略。
通過與大部分頭部大模型公司合作,與自研的通義大模型共同成長,阿里云業(yè)務(wù)快速增長。2023年度,阿里云在亞太地區(qū)IaaS(基礎(chǔ)設(shè)施即服務(wù))市場的份額達(dá)到22.2%,排名第一,同比提升0.8個百分點(附圖)。
近年,阿里云與通義大模型接連通過降價、開源等組合拳,來爭奪用戶。
大模型訓(xùn)練和迭代成本昂貴,絕大多數(shù)的AI開發(fā)者和中小企業(yè)都難以負(fù)擔(dān)這一成本。2023年8月,阿里通義大模型開源。截至2024年5月9號,其開源模型下載量已超過700萬次,阿里通義同時宣布,為不同場景、不同需求的用戶,推出參數(shù)規(guī)模橫跨5億到1100億的8款大語言模型。
小尺寸模型如0.5B(Billion,10億參數(shù))、1.8B、4B、7B、14B,可在手機(jī)、PC等端側(cè)設(shè)備部署;大尺寸模型如72B、110B,能支持企業(yè)級和科研級的應(yīng)用;中等尺寸如32B,試圖在性能、效率和內(nèi)存占用之間找到最具性價比的平衡點。
其中,1100億參數(shù)開源模型Qwen1.5-110B,已在MMLU、TheoremQA、GPQA等基準(zhǔn)測評中超越了臉書(Meta)的Llama-3-70B模型,在HuggingFace推出的開源大模型排行榜OpenLLMLeaderboard上,沖上了榜首。
此外,通義還開源了視覺理解模型Qwen-VL、音頻理解模型Qwen-Audio、代碼模型CodeQwen1.5-7B、混合專家模型Qwen1.5-MoE。
大模型開源后,通義千問又使出了降價大招,部分大模型數(shù)據(jù)調(diào)用價格降幅達(dá)97%。降價后,1元錢可以調(diào)用200萬Tokens,即0.0005元/千Tokens,比豆包大模型的價格更低(表1)。
而此前,2月29日,阿里云宣布史上最大力度降價,100多款產(chǎn)品、500多個產(chǎn)品規(guī)格均價降低20%,最高降價55%。
4月,阿里云再次宣布,面對全球13個地域,500多個產(chǎn)品規(guī)格,全線下調(diào)產(chǎn)品價格,平均下降23%,最高下降59%。
云服務(wù)和大模型調(diào)用成本雙雙下降,有力推動了大模型企業(yè)客戶的增長。最新數(shù)據(jù)顯示,通義大模型通過阿里云服務(wù)企業(yè)客戶超過9萬,通過釘釘服務(wù)企業(yè)客戶超過220萬。小愛同學(xué)、小米汽車、微博、眾安保險、完美世界游戲等已接入通義大模型。
有了客戶增量,盡管產(chǎn)品大幅降價,阿里云也已實現(xiàn)穩(wěn)定盈利。2024年一季度,阿里云錄得營收255.95億元,同比增長3%,其中AI相關(guān)收入實現(xiàn)三位數(shù)的增長,經(jīng)調(diào)整的EBITA利潤14.32億元,同比增長45%。
阿里云不再是阿里集團(tuán)的負(fù)擔(dān),其已進(jìn)入穩(wěn)定盈利周期。
邁向生成式AI的第二年,百度正在推進(jìn)用文心大模型重構(gòu)百度ToC和ToB業(yè)務(wù)。
2024年一季度,百度在文心大模型旗艦版的3.5和4.0版本基礎(chǔ)上,推出3款輕量級模型和兩款特定場景模型,并上線AI智能體開發(fā)工具AgentBuilder、AI應(yīng)用開發(fā)工具AppBuilder和模型定制工具M(jìn)odelBuilder三大開發(fā)工具,在云上形成“模型家族+開發(fā)工具”的組合。
目前,ModelBuilder已服務(wù)近10萬家客戶。
百度發(fā)文稱,模型家族及上述工具的推出,為開發(fā)者和企業(yè)降低了開發(fā)門檻、提高開發(fā)和訓(xùn)練效率,并帶來比開源模型更高的性價比。這是百度公開針對大模型“開源”的對比。
李彥宏公開表示,“模型推理是最重要的長期機(jī)會之一”,這將成為云業(yè)務(wù)的關(guān)鍵驅(qū)動力。
截至2024年4月,文心大模型API日調(diào)用量已達(dá)2億次,去年12月時,該數(shù)據(jù)為5000萬次,以此看,其實現(xiàn)了4個月4倍的增長。中國三星、榮耀、OPPO、vivo、小米等手機(jī)廠商均接入文心大模型API。
得益于大模型業(yè)務(wù)的增長,2024年一季度,百度智能云實現(xiàn)營收達(dá)47億元,同比增長12%,并持續(xù)實現(xiàn)盈利(Non-GAAP)。其中,生成式AI貢獻(xiàn)的收入比例達(dá)6.9%,占比逐步擴(kuò)大。
百度將調(diào)用量最大的兩大主流大模型免費(fèi),可能最直接的影響是,日均收入減少200萬元,但同時,也可能會帶來更多的用戶接入,衍生更多的收費(fèi)定制服務(wù)(表2)。
大模型落地產(chǎn)業(yè),難在“應(yīng)用”關(guān)。
5月17日,騰訊云生成式AI產(chǎn)業(yè)應(yīng)用峰會上,騰訊云發(fā)布了大模型研發(fā)、應(yīng)用產(chǎn)品的系列進(jìn)展,直指將大模型應(yīng)用降至“零門檻”。
騰訊混元大模型發(fā)布多個版本模型,如萬億參數(shù)的混元-pro、千億參數(shù)混元-standard、百億參數(shù)混元-lite等,通過騰訊云對外全量開放,滿足企業(yè)客戶、開發(fā)者在不同場景下的模型需求。
其中,混元-standard最新上線了支持256k超長上下文窗口的長文模型,具備單次處理超過38萬字符的超長文本能力,能夠應(yīng)對金融、醫(yī)療、教育、出行等專業(yè)人士的數(shù)據(jù)處理需求。
同時,騰訊云還發(fā)布大模型知識引擎、圖像創(chuàng)作引擎、視頻創(chuàng)作引擎三大PaaS(平臺即服務(wù))工具,通過PaaS服務(wù),簡化數(shù)據(jù)接入、模型精調(diào)、應(yīng)用開發(fā)流程,方便用戶接入特定的生產(chǎn)場景。
這些低門檻或零門檻的開發(fā)工具,讓大模型更好使用。騰訊混元大模型已在諸如微信讀書、騰訊會議、騰訊廣告等600多個內(nèi)部業(yè)務(wù)和場景中落地使用,騰訊旗下協(xié)作SaaS(軟件即服務(wù))產(chǎn)品也已全面接入混元大模型。
更為重要的是,騰訊將其移動互聯(lián)網(wǎng)時代“生態(tài)共建”的經(jīng)驗,平移到了AI時代,推出生成式AI生態(tài)計劃,聯(lián)合千家解決方案供應(yīng)商、培育千家服務(wù)商和萬家代理商,共同推動生成式AI技術(shù)深入產(chǎn)業(yè)全鏈條。
大模型新品發(fā)布僅5天后,騰訊將“當(dāng)家產(chǎn)品”全面降價,可謂誠意滿滿。最基礎(chǔ)的混元-lite免費(fèi);混元-standard打五折;具備超長文本處理能力的混元-standard-256K,輸入價格直降近九成,輸出價格打五折。
而如果是對騰訊大模型深度“依賴”的API分發(fā)(騰訊全域)模型,即全面依賴混元模型進(jìn)行的業(yè)務(wù),騰訊給予全量免費(fèi)支持的福利大包(表3)。
值得一提的是,大模型“硬件”免費(fèi)后,大模型廠商需要靠“軟件和服務(wù)”來賺錢,倒逼大模型向更具競爭力的應(yīng)用方向發(fā)力。
這樣的變化,會催生出什么樣的應(yīng)用繁榮?這些AI應(yīng)用又會如何改變我們的生活?大模型供應(yīng)商們收入結(jié)構(gòu)會發(fā)生什么樣的變化?這些未知和問題,或會在大廠們半年報中顯露端倪,值得期待。