中圖分類號:C93 文獻標識碼:A 文章編號:2097-0145(2025)03-0001-08 doi:10.11847/fj.44.3.1
0 引言
近年來,大語言模型(largelanguagemodel,LLM,“大模型”)產業(yè)發(fā)展迅猛,自ChatGPT發(fā)布以來,大模型在各行業(yè)的生產實踐中發(fā)揮了重要作用,推動了企業(yè)數(shù)智化轉型。據Statista統(tǒng)計,2023年全球大模型市場規(guī)模已達300億美元,預計到2028年將增長至700億美元,展現(xiàn)出廣闊的市場前景。2025年的《政府工作報告》將“支持大模型廣泛應用\"列為政府工作任務之一,反映出國家對大模型產業(yè)的高度重視。在政策與市場的共同驅動下,國內外大模型技術持續(xù)演進。2025年初,深度求索公司發(fā)布了開源大模型DeepSeek-R1,通過強化學習提升了推理能力,并利用混合專家架構降低了訓練成本。同年3月,Monica推出基于多智能體架構的ManusAI,能夠自主完成報告撰寫、數(shù)據分析與行程規(guī)劃等復雜任務,展現(xiàn)了大模型的應用潛力。與此同時,OpenAI發(fā)布的O3系列大模型在推理、多模態(tài)處理與工具調用方面實現(xiàn)了突破,進一步拓寬了大模型的應用邊界。
隨著大模型技術持續(xù)進步,大模型的商業(yè)應用也在加速拓展,已在客戶服務[1]、內容生成[2]、教育培訓[3]、金融分析[4]和醫(yī)療診斷[5]等領域展現(xiàn)出應用價值。大量的應用實踐表明,領域適應性是影響大模型應用效果的關鍵因素[6]。目前,企業(yè)主要通過三種模式實現(xiàn)大模型的領域適應:(1)提示工程[7(promptengineering,PE)通過設計提示詞來引導大模型生成內容;(2)檢索增強生成[8](retrieval-augmented generation,RAG)利用外部相關文檔與知識來提升生成結果的準確性與專業(yè)性;(3)監(jiān)督微調[9](supervised fine-tuning,SFT)與人工反饋強化學習[1o](reinforcement learning fromhumanfeedback,RLHF)通過深度注人領域知識,提升大模型的領域理解與任務執(zhí)行能力。
然而,盡管現(xiàn)有應用模式提升了大模型的領域應用效果,但在大模型商業(yè)化應用過程中仍面臨諸多挑戰(zhàn)。例如,大模型在用戶意圖識別準確性、響應內容可控性與生成結果可靠性方面仍存在不足,特別是在醫(yī)療等高風險領域,企業(yè)對輸出結果的可解釋性提出了更高標準。此外,領域大模型部署對企業(yè)的算力資源、數(shù)據資源、專業(yè)人才儲備和組織協(xié)同能力也提出了較高要求。因此,企業(yè)需要系統(tǒng)性的應用框架,統(tǒng)籌技術能力與組織資源,確保大模型在復雜商業(yè)環(huán)境中的高效應用,實現(xiàn)大模型的商業(yè)價值轉化。
1文獻綜述
1.1 大模型技術原理
隨著人工智能技術的發(fā)展,以深度學習為代表的技術創(chuàng)新推動了大模型的興起[]。大模型通常指參數(shù)規(guī)模達到億級的神經網絡模型[12]。憑借出色的泛化性能,大模型已廣泛應用于自然語言處理(NLP)、計算機視覺、數(shù)據分析與決策支持等領域[13] 。
大模型的發(fā)展經歷了從基礎神經網絡到復雜網絡架構的演進。早期,循環(huán)神經網絡[14]和長短時記憶網絡[15]推動了深度學習在NLP領域的發(fā)展。2017年,Vaswani[16提出Transformer 架構,以自注意力機制高效建模序列數(shù)據,極大地提升了模型性能,催生了BERT[17]、GPT-3[18]、DeepSeek-V3[19]等大模型,這些大模型在自然語言理解與生成任務中展現(xiàn)出了卓越能力。隨著應用需求的擴展,研究者提出了CLIP[20]、DALL- ?E[21] 、Stable Diffusion[22]等多模態(tài)大模型,使模型能夠同時處理不同模態(tài)數(shù)據,滿足更復雜的應用場景。
大模型訓練的核心在于大規(guī)模神經網絡設計與高效優(yōu)化策略,參數(shù)規(guī)模的擴大增強了模型對復雜特征與模式的理解與表達能力[23],而高效的訓練策略兼顧了降低資源消耗與挖掘大模型潛力[19]。為提升大模型領域適應性,學界提出了多種技術路徑?;?SFT[9] 和 RLHF[10] 的策略組合,增強了模型輸出與人類偏好的對齊程度。提示工程通過設計提示詞引導高質量輸出[7],思維鏈[24]通過顯式推理路徑增強了模型的邏輯推理能力與可解釋性。針對計算資源消耗問題,以DeepSeek[19為代表的基于混合專家架構的大模型,通過門控機制動態(tài)激活少量專家網絡,有效降低了訓練成本。此外,RAG[8] 通過檢索知識庫或文檔提升模型回答的準確性與專業(yè)性。多智能體系統(tǒng)25則通過多個Agents的協(xié)同工作,提高了復雜任務處理能力。
總體來看,隨著深度學習技術的持續(xù)演進,以及高效訓練策略和多項創(chuàng)新技術手段的應用,大模型的性能和通用性顯著提升,應用范圍不斷擴大,已成為當前人工智能研究與實踐的重要方向。
1.2 大模型應用模式
大模型在自然語言理解與生成能力上的持續(xù)進步,推動其應用場景不斷擴展[26]。在通用任務方面,大模型在自然語言處理、圖像理解與多模態(tài)協(xié)同等方面實現(xiàn)了重要突破[27]。通過學習海量數(shù)據中的復雜模式,大模型能夠靈活生成符合用戶需求的個性化文本、圖像與視頻[2.28]。在問答系統(tǒng)中,大模型可以直接進行問題響應,能夠支持智能助理、客戶服務助手等多種場景[1,29]。在跨模態(tài)理解方面,大模型能夠統(tǒng)一建模文本、圖像與音頻數(shù)據,完成多模態(tài)生成任務[30-31]。同時,大模型在數(shù)據分析與決策支持方面也展現(xiàn)出強大能力,能夠高效處理結構化與非結構化數(shù)據,挖掘潛在數(shù)據模式,輔助商業(yè)決策[32-33] 。
在通用能力不斷增強的基礎上,大模型的行業(yè)應用也日益深人,已覆蓋醫(yī)療、教育、金融、法律、客戶服務等多個領域。在醫(yī)療領域,大模型已被用于醫(yī)學文獻理解、輔助診斷與患者教育[5];在教育領域,大模型支持個性化學習路徑推薦與實時答疑[];在金融領域,大模型能夠對財經數(shù)據和市場信息進行深度分析,輔助風險管理與投資決策[4];在法律領域,大模型被應用于法律文本檢索、文書生成與案件梳理[34];在客戶服務領域,大模型驅動的智能對話系統(tǒng)能夠實時理解客戶需求,提供高效且符合個性化需求的服務響應[35]。值得注意的是,隨著應用場景的復雜化,領域特定任務對大模型的推理能力提出了更高要求,尤其在醫(yī)療診斷、金融預測等場景中,準確的多步邏輯推理成為保障大模型應用價值的關鍵[36] 。
伴隨應用場景的不斷擴展,大模型在不同領域的應用逐漸演化出三類主流模式,體現(xiàn)了領域知識融合的不同策略。第一類是提示工程[7.24],通過構造高質量的提示詞,直接激發(fā)大模型的通用能力以完成響應。第二類是RAG[8],通過檢索外部領域知識庫,提升大模型對領域知識、時效性內容的掌握。RAG模式融合了搜索與生成的優(yōu)勢,是實現(xiàn)大模型“輕量知識增強”的主要機制。第三類是基于 SFT[6.9]與RLHF[10]的模型重塑路徑,通過高質量標注數(shù)據與人類反饋進行大模型微調,將領域知識融入模型參數(shù)中。這種方式適用于構建具備領域專業(yè)性、行為對齊能力的大模型,也是當前企業(yè)訓練垂直領域大模型的主流策略。
雖然大模型在通用任務與行業(yè)應用中展現(xiàn)出巨大潛力,但是企業(yè)層面的大模型應用實踐仍缺乏系統(tǒng)性總結與指導。一方面,已有研究多聚焦于模型結構優(yōu)化、性能提升等技術層面,較少關注企業(yè)在實際部署中面臨的復雜挑戰(zhàn);另一方面,現(xiàn)有關于大模型應用的研究在組織管理方面的思考不足,未能充分揭示企業(yè)在應用大模型時所面臨的人員激勵、組織調整、跨部門協(xié)作等復雜挑戰(zhàn),導致學者們對大模型應用問題的認識與企業(yè)的實踐需求之間存在脫節(jié)。
2大模型商業(yè)應用的案例分析
為解決當前大模型商業(yè)應用中的現(xiàn)實問題,本文調研了四家已部署大模型的企業(yè),系統(tǒng)梳理了應用情況,并分析了應用挑戰(zhàn)與需求。
2.1大模型商業(yè)應用場景
A企業(yè)是一家提供孕嬰童產品與服務的新零售平臺,A企業(yè)于2023年推出了母嬰行業(yè)垂直大模型AGPT(因商業(yè)保密要求,本文均使用代稱),部署于五大業(yè)務場景。(1)營促銷:基于用戶行為與偏好生成個性化推薦與營銷內容,并通過社交媒體平臺優(yōu)化活動策略;(2)社交互動:支持AI寫真、表情包定制等,滿足用戶在社交媒體上的個性化表達;(3)會員服務:通過智能客服與智能推薦系統(tǒng)提升服務響應速度與質量;(4)門店直播:利用AI數(shù)字人與用戶實時互動,提高線上直播與線下門店引流效果;(5)自動化分析系統(tǒng):進行門店運營與供應鏈管理的數(shù)據分析,輔助決策。A企業(yè)的AGPT主要面向個人消費者和內部業(yè)務管理,兼顧用戶體驗與運營效率。
B企業(yè)是大宗商品行業(yè)信息服務商,擁有豐富的行業(yè)數(shù)據與專家知識。2024年,B企業(yè)基于開源大模型開發(fā)了大宗商品行業(yè)領域大模型BGPT,部署于五大業(yè)務場景。(1)查數(shù)據:提供實時價格、庫存、供需數(shù)據查詢,支撐企業(yè)客戶及時掌握市場動態(tài);(2)讀咨詢:智能解讀行業(yè)分析報告與宏觀政策動態(tài),提高信息處理效率;(3)寫報告:輔助市場研究報告與公文撰寫,減少企業(yè)用戶重復性勞動;(4)問百科:提供行業(yè)知識、上市公司信息查詢服務;(5)找商機:聚合供需信息與行業(yè)動態(tài),幫助企業(yè)發(fā)現(xiàn)合作機會。B企業(yè)的BGPT主要面向企業(yè)用戶和內部專家團隊,聚焦于數(shù)據洞察、信息檢索與決策支持。
C企業(yè)是一家創(chuàng)新情報與知識產權服務平臺,C企業(yè)于2024年發(fā)布了生物醫(yī)藥大模型CGPT,主要應用于四個業(yè)務場景。(1)醫(yī)藥競爭格局分析:
通過聚合全球藥物研發(fā)管線信息與市場數(shù)據,輔助企業(yè)戰(zhàn)略布局;(2)文獻與數(shù)據檢索:支持文獻檢索并鏈接至Synapse等外部平臺的詳情頁,支持臨床試驗數(shù)據檢索,輔助臨床試驗管理;(3)化合物與序列檢索:支持精準檢索化合物結構、基因序列及相關專利,輔助藥物研發(fā)與專利申請;(4)醫(yī)藥政策問答:提供多國藥政信息,幫助用戶了解藥品監(jiān)管政策。CGPT主要面向生物醫(yī)藥企業(yè)、科研機構與內部研究人員,聚焦于提升專業(yè)檢索能力、創(chuàng)新情報分析與研發(fā)支持。
D企業(yè)是一家酒店服務管理平臺,D企業(yè)于2024年推出了基于RAG模式的大模型DGPT,服務顧客、加盟商與自有員工三類用戶。(1)酒店虛擬前臺:支持入住自助辦理與常見問題解答等;(2)加盟商小助手:為加盟商提供實時經營數(shù)據分析并生成報告;(3)員工支持助手:輔助員工入職培訓和企業(yè)內部的問題解答。DGPT在提升顧客服務質量、優(yōu)化企業(yè)運營效率方面發(fā)揮了作用。
2.2大模型商業(yè)應用實施方案
制定契合業(yè)務需求的大模型實施方案是保障應用效果的前提。四家企業(yè)在開發(fā)階段,結合自身行業(yè)特性和服務對象,制定了差異化的大模型應用策略,涵蓋數(shù)據準備到模型訓練的全過程。
A企業(yè)基于LLaMA-3,融合私有育兒知識庫與公共數(shù)據進行了微調,其模型訓練采用云端分布式架構,支持持續(xù)迭代優(yōu)化。B企業(yè)自建GPU集群,采用多智能體架構,基于行業(yè)數(shù)據庫與宏觀政策數(shù)據進行了微調,支持高時效性業(yè)務。C企業(yè)基于LLaMA-3,融合專利、論文、試驗等數(shù)據進行了微調,并引入強化學習對齊行業(yè)標準,結合RAG動態(tài)檢索增強專業(yè)輸出。酒店服務行業(yè)對大模型專業(yè)性要求相對較低,D企業(yè)采用輕量化策略,利用運營手冊與常見問題庫構建檢索數(shù)據集,基于RAG的模式實現(xiàn)高效問答,無需深度微調。表1總結了四家企業(yè)在基座模型、數(shù)據準備、服務器條件與實現(xiàn)方式上的差異。
2.3大模型商業(yè)應用效果分析
根據調研發(fā)現(xiàn),盡管四家企業(yè)所處行業(yè)、服務對象和應用場景不同,但在大模型應用過程中普遍實現(xiàn)了以下成效。
首先,大模型推動了客戶服務從規(guī)則驅動向動態(tài)生成轉型,能夠在理解用戶意圖的基礎上實時響應。AGPT可以根據用戶畫像生成營銷文案;DGPT的虛擬前臺實現(xiàn)了自助服務。其次,大模型重塑了企業(yè)對專業(yè)知識的利用方式。BGPT整合行業(yè)資訊,提高了報告撰寫效率;CGPT的智能檢索降低了研發(fā)信息獲取成本。再次,大模型提升了企業(yè)應對復雜任務的能力。BGPT借助多智能體提升了整體業(yè)務流程的響應效率與系統(tǒng)協(xié)同能力;CGPT實現(xiàn)復雜專業(yè)信息處理,優(yōu)化了藥政研判流程。最后,大模型拓展了企業(yè)智能系統(tǒng)的邊界,支持多角色、多任務協(xié)同應用。AGPT同時服務消費者與門店運營;BGPT用于對外咨詢與內部管理;CGPT服務外部科研與內部研發(fā);DGPT則構建了面向顧客、加盟商與員工的多角色助手體系。表2對四家企業(yè)在大模型應用場景與應用效果方面進行了總結。
從四家企業(yè)的大模型應用效果可以看出,大模型在企業(yè)中的應用呈現(xiàn)出從工具性嵌入向系統(tǒng)性重構的趨勢:一是逐步成為智能系統(tǒng)核心模塊,參與任務調度與系統(tǒng)協(xié)同;二是通過交互積累形成企業(yè)知識資產;三是部署范圍從局部應用擴展到跨部門、全流程;四是推動企業(yè)圍繞大模型能力,重構業(yè)務邊界與組織設計,推動管理模式升級。
2.4大模型商業(yè)應用挑戰(zhàn)與需求分析
雖然調研的四家企業(yè)已在多個場景實現(xiàn)了基于大模型的智能應用,并取得了初步成效,但在實際部署與運行過程中,仍面臨諸多挑戰(zhàn),集中體現(xiàn)在模型響應質量、領域適應能力、數(shù)據隱私保護與組織協(xié)同四個方面。
首先,在處理用戶請求時,大模型往往難以準確識別用戶的真實意圖,導致生成內容無法完全滿足用戶期望。AGPT回應消費者關于育兒的多維度咨詢時,常出現(xiàn)回復片面、意圖覆蓋不足的問題;CGPT在面對專業(yè)程度高的研發(fā)類問詢時,輸出結果容易泛化,難以貼合實際需求。其次,在高度依賴專業(yè)知識的業(yè)務場景中,大模型的輸出在準確性與一致性方面仍存在明顯不足。B企業(yè)和C企業(yè)均反映,即使經過微調,大模型輸出的結果仍需專業(yè)人員反復核驗,難以替代傳統(tǒng)的知識服務流程;C企業(yè)的大模型還存在“幻覺”問題(生成與事實不符的信息),降低了大模型在高風險領域的可信度與可用性。再次,在使用企業(yè)數(shù)據對基座模型進行微調時,企業(yè)需要在算力成本與數(shù)據隱私保護之間權衡。B企業(yè)選擇自建GPU集群,以保障商業(yè)敏感數(shù)據的本地化處理,雖然有效降低了數(shù)據泄露風險,但也帶來了高昂的運維與更新成本。最后,基于大模型的智能系統(tǒng)在內部推廣過程中面臨人員接受度低與跨部門協(xié)同不足的問題。A企業(yè)與B企業(yè)的員工對大模型接受度不高,仍傾向于使用傳統(tǒng)方式進行數(shù)據分析與報告撰寫;B企業(yè)與C企業(yè)在知識庫更新與模型迭代優(yōu)化時,部門之間缺乏統(tǒng)一的反饋渠道與協(xié)同機制,模型調優(yōu)進度緩慢。
以上問題的出現(xiàn),反映了企業(yè)在推動大模型商業(yè)應用的過程中,尚未構建起以知識為核心的系統(tǒng)性支撐機制,從技術基礎到業(yè)務流程,再到組織架構,企業(yè)的領域知識未能作為一種可治理、可調度、可共創(chuàng)的資源有效嵌入企業(yè)的大模型智能系統(tǒng),成為制約企業(yè)大模型應用效能提升的關鍵挑戰(zhàn)。
首先,在技術層面,模型缺乏對領域知識的深度融合與理解。雖然企業(yè)通過RAG引入了企業(yè)知識庫,但由于內容更新滯后、語義覆蓋不足、結構化建模缺乏,僅僅采用RAG的大模型在面對用戶復雜請求時會出現(xiàn)召回偏差與信息斷層,導致響應內容的準確性下降;此外,雖然 A,B,C 三家企業(yè)基于領域知識對基座大模型進行了監(jiān)督微調,但是由于微調數(shù)據覆蓋有限、結構化知識缺失,模型無法建立知識推理路徑,在回復用戶復雜問題時會出現(xiàn)理解不深入、推理缺失與響應不穩(wěn)定的問題。
其次,在業(yè)務層面,企業(yè)的領域知識體系未能與業(yè)務流程形成有效聯(lián)動,限制了模型對業(yè)務邏輯的理解能力。盡管企業(yè)可以從大量業(yè)務經驗中積累企業(yè)私有知識,但是沒有明晰知識資源與業(yè)務場景的邏輯映射關系,導致知識難以嵌入關鍵業(yè)務鏈條,使得大模型在復雜任務處理中難以實現(xiàn)領域知識推理與業(yè)務判斷。
再次,在組織層面,企業(yè)尚未建立起面向大模型應用的知識治理機制,制約了知識在組織內部的高效流動與動態(tài)更新。一方面,企業(yè)知識生產與維護仍依賴個體經驗,缺乏基于知識貢獻的激勵機制,導致專業(yè)人員在知識結構化、反饋標注與模型優(yōu)化中參與不足;另一方面,組織內部存在“知識孤島”,不同部門在知識使用標準和反饋流程上缺乏統(tǒng)一規(guī)范,限制了跨部門協(xié)同與大模型應用效果的進一步釋放。
因此,企業(yè)要實現(xiàn)高效、穩(wěn)定的大模型商業(yè)應用,關鍵在于將領域知識由分散資源轉化為系統(tǒng)能力,構建貫穿技術、業(yè)務與組織全鏈條的知識賦能機制。這一機制不僅要支撐大模型對復雜任務的知識建模與知識推理,還應保障企業(yè)在多角色、多部門、多場景下的大模型協(xié)同運行,實現(xiàn)從信息驅動向知識驅動的能力躍遷,推動大模型從輔助工具向智能中樞演化。
3基于知識增強的大模型商業(yè)應用框架
經過對四家企業(yè)大模型商業(yè)應用現(xiàn)狀進行梳理并對他們面臨的挑戰(zhàn)與需求進行分析后,本文提出以知識增強為核心的大模型商業(yè)應用框架,旨在為企業(yè)在技術路徑選擇、領域知識融合與組織機制建設等方面提供實踐指引。如圖1所示,本文提出的應用框架分為四個層次:需求層、模型層、應用層與基礎設施層,每一層明確了需要重點構建的要素,以實現(xiàn)技術、業(yè)務與組織的知識聯(lián)動與協(xié)同,賦能領域大模型的商業(yè)應用。
3.1 場景需求發(fā)現(xiàn)
本文提出的基于知識增強的大模型商業(yè)應用框架中,場景需求發(fā)現(xiàn)是企業(yè)大模型應用的出發(fā)點,決定了后續(xù)模型開發(fā)的目標方向與重點任務。
在該階段,企業(yè)需要從業(yè)務實踐場景出發(fā),圍繞三類關鍵用戶群體展開需求發(fā)現(xiàn)。個人用戶需求側重于內容生成、個性化推薦與智能交互等,強調用戶體驗的提升;企業(yè)用戶需求主要集中于數(shù)據分析、市場洞察與專業(yè)報告解讀等,強調業(yè)務支持與決策效率;內部員工需求則涵蓋知識檢索、任務協(xié)同與流程優(yōu)化等環(huán)節(jié),強調提升員工工作效率與知識賦能水平。通過發(fā)現(xiàn)用戶需求,企業(yè)能夠為后續(xù)大模型的應用提供明確方向,確保大模型應用目標與業(yè)務價值一致。
3.2 基礎設施建設
在開展領域大模型開發(fā)與優(yōu)化之前,企業(yè)需要從人力資源、算力資源、數(shù)據資源與組織架構四個維度,構建穩(wěn)定的能力與資源支撐體系。
首先,企業(yè)開發(fā)領域大模型,不僅需要熟悉業(yè)務流程與場景邏輯的業(yè)務人員,也需要具備大模型訓練與調優(yōu)能力的技術人員,兩類人員的協(xié)作可以彌合技術與應用之間的認知差距,使得模型輸出更貼合業(yè)務需求。其次,企業(yè)需要根據數(shù)據敏感程度與計算任務強度,在本地部署與云端訓練之間做出權衡,也可以引入隱私計算技術,在保護數(shù)據隱私的基礎上進行模型訓練。再次,企業(yè)的私有知識是構建大模型行業(yè)認知能力與行業(yè)邏輯理解能力的核心支撐。企業(yè)需要歸納整理包括歷史業(yè)務數(shù)據、客戶服務記錄、操作手冊與領域知識文檔等各類企業(yè)知識數(shù)據,同時引入具備清晰實體邊界、層級關系與邏輯規(guī)則的結構化知識(如知識圖譜、業(yè)務流程結構等),幫助模型建立明確的知識調用路徑和邏輯推理鏈條,提升模型的推理能力,為實現(xiàn)高質量的領域知識增強奠定基礎。最后,企業(yè)需要建立清晰的大模型開發(fā)管理機制,構建技術、數(shù)據、業(yè)務團隊之間的協(xié)調機制,打通組織內部壁壘,提升知識流通效率,保障模型開發(fā)與優(yōu)化過程中各團隊的目標一致。
3.3 模型開發(fā)優(yōu)化
(1)知識增強的PE
基于PE的知識增強方式,是指通過設計提示詞模板,將領域知識以“提示”的形式輸入大模型,引導大模型生成符合專業(yè)語境的輸出。在這種模式下,企業(yè)需要通過構建問題模板、加人領域背景信息、設定語言風格等方式,提升模型對任務語境的感知能力。PE適用于需求變化頻繁、試錯成本較低的場景,如FAQ問答生成、營銷文案撰寫等,其優(yōu)點在于響應速度快、部署成本低,但由于知識融合是通過輸人提示的淺層引導完成,模型對復雜邏輯關系與深層語義的把握有限,難以支撐復雜場景下的推理任務。
(2)知識增強的RAG
基于RAG的知識增強主要通過檢索企業(yè)知識庫,引導大模型在生成過程中動態(tài)調用外部知識。在這種模式下,企業(yè)首先需要構建覆蓋關鍵業(yè)務內容的領域知識庫,將包括文檔資料、結構化知識與外部可信數(shù)據在內的各類知識數(shù)據進行整合與組織,然后對知識內容進行向量化編碼,并基于語義匹配機制建立高效的檢索系統(tǒng),使得大模型能夠在響應用戶請求時,實時獲取相關知識片段,并將其作為上下文用于內容生成。RAG適用于時效性強、知識更新頻繁的任務,其優(yōu)勢在于靈活性與可擴展性,但大模型本身并未內化領域知識,其理解與推理能力依賴于檢索內容的質量。
(3)知識增強的SFT/RLHF
知識增強的SFT需要企業(yè)將領域知識轉化為訓練樣本,并基于任務場景構建微調數(shù)據集,通過監(jiān)督訓練、目標對齊與效果評估等步驟,優(yōu)化大模型對特定領域的理解與表達能力。特別地,在結構化知識的支持下,模型能夠學習到知識實體關系與業(yè)務邏輯規(guī)則,從而提升其對復雜任務的推理能力與專業(yè)領域的判斷能力。知識增強的RLHF需要企業(yè)基于反饋數(shù)據建立強化學習評價體系,根據實際輸出偏差進行模型參數(shù)微調與策略更新;同時,在組織層面,企業(yè)還需要構建系統(tǒng)化的知識反饋采集機制,并引人基于知識貢獻的激勵機制,提升一線人員在知識標注與知識結構校驗中的積極性。
知識增強的SFT/RLHF適用于任務復雜度高、語義理解要求深、決策容錯率低的業(yè)務場景,如醫(yī)療問診、法律分析、金融風控等。需要注意的是,由于SFT/RLHF模式通常涉及大量高質量訓練樣本的構建與多輪迭代優(yōu)化,對算力資源、數(shù)據標注能力與人才配置提出了更高要求,企業(yè)在采用該模式時需要充分評估。
3.4Agents系統(tǒng)協(xié)同
在完成領域大模型的開發(fā)與優(yōu)化之后,企業(yè)可以采用多智能體(multi-agent)策略,實現(xiàn)復雜業(yè)務場景的模塊化拆解與智能協(xié)同處理,賦能大模型商業(yè)應用。通過引入具備不同功能的Agents,企業(yè)可以將整個業(yè)務流程劃分為多個子任務,并由不同Agent分別處理,如市場分析、報告撰寫、價格預測、合規(guī)檢查等。各Agent之間通過任務規(guī)劃機制進行任務分發(fā)與信息傳遞,并根據全局目標動態(tài)調整行動策略,實現(xiàn)從局部響應到系統(tǒng)執(zhí)行的升級。
在這種模式下,企業(yè)需要構建涵蓋工具集成、記憶管理、任務控制與用戶交互在內的多智能體應用系統(tǒng)。具體而言,企業(yè)首先需要構建系統(tǒng)工具,鏈接大模型與企業(yè)內部的業(yè)務系統(tǒng)和外部工具平臺,使各Agent具備任務執(zhí)行能力,如自動調用CRM、ERP或數(shù)據可視化工具等;其次,引入長期記憶與知識緩存機制,支持Agents跨任務、跨輪次的知識延續(xù);再次,在任務組織層面,需要構建基于工作流引擎或任務圖的規(guī)劃與控制機制,實現(xiàn)任務鏈的編排與過程管控,提升Agents協(xié)同過程的可控性與透明度;最后,還需設計友好的用戶交互界面,使終端用戶能夠實時查看Agents運行狀態(tài),并在關鍵節(jié)點進行有效干預,確保人機協(xié)同的有效性。上述能力共同構成了企業(yè)實現(xiàn)Agents系統(tǒng)協(xié)同的基礎要素。
企業(yè)通過多智能體策略,可以將領域知識嵌入任務系統(tǒng)、將模型能力嵌入組織結構,各Agent以領域大模型為底座,通過協(xié)同調度與知識共享形成互補,推動大模型在任務執(zhí)行中的系統(tǒng)性響應。進一步地,企業(yè)還可以結合知識更新機制,將任務執(zhí)行過程中沉淀的高質量問答、業(yè)務判斷與策略建議補充至知識庫,構建以知識為核心、以Agents為載體的大模型智能協(xié)同應用系統(tǒng)。
4結論與展望
4.1 研究結果
(1)從大模型的應用模式來看,目前企業(yè)主要通過三種模式實現(xiàn)大模型的領域適應:提示工程(PE)、檢索增強生成(RAG)與監(jiān)督微調/人工反饋強化學習(SFT/RLHF)。PE適用于需求靈活、試錯成本低的場景,RAG適用于知識更新頻繁、時效性要求高的場景,SFT/RLHF適用于需要復雜推理、嚴謹決策的場景。這三種應用模式代表了企業(yè)在增強大模型領域適應的過程中,根據應用場景復雜度對知識利用深度采取的差異化選擇。(2)從大模型的應用挑戰(zhàn)來看,企業(yè)應用大模型主要存在意圖召回不準確、知識利用不深入、回復生成不穩(wěn)定與組織協(xié)同不高效四個方面的挑戰(zhàn),反映出企業(yè)在推動大模型商業(yè)應用時,尚未構建起以知識為核心的系統(tǒng)性支撐機制。從技術基礎到業(yè)務流程,再到組織架構,領域知識未能作為一種可治理、可調度、可共創(chuàng)的資源有效嵌人企業(yè)的大模型智能系統(tǒng)。(3)本文從大模型商業(yè)應用的挑戰(zhàn)與需求出發(fā),提出基于知識增強的大模型商業(yè)應用框架,系統(tǒng)串聯(lián)了企業(yè)在需求發(fā)現(xiàn)、資源建設、模型優(yōu)化與應用部署四個階段的關鍵要素與任務,為企業(yè)實現(xiàn)大模型的商業(yè)應用提供了實踐路徑與參考指引。
4.2 研究局限和展望
首先,雖然大模型技術發(fā)展迅速,但其商業(yè)化應用仍處于起步階段,本文所分析的四家企業(yè)案例難以全面反映各行業(yè)的應用情況。隨著大模型在各行業(yè)的深人部署,未來研究有必要結合更廣泛的企業(yè)實踐,探討新興的應用場景、方法路徑與挑戰(zhàn)需求。其次,本文的案例分析主要來源于企業(yè)內部人員的主觀反饋,受限于數(shù)據可得性,尚缺乏對大模型實際應用效果的量化驗證。未來研究可以引入多維度客觀數(shù)據,深人評估大模型對企業(yè)運營效率、決策質量與業(yè)務創(chuàng)新的實際影響。再次,本文從案例出發(fā),主要討論單一領域的知識增強應用框架,未考慮跨領域的知識遷移。未來研究可進一步探討如何實現(xiàn)領域知識的有效遷移與泛化,支持大模型在多領域、多任務環(huán)境下的穩(wěn)定應用。此外,本文提出了基于多智能體的大模型應用框架,但是對智能體之間的協(xié)作機制、沖突管理與任務規(guī)劃細節(jié)的探討尚不充分。未來研究可以系統(tǒng)設計任務劃分策略、沖突檢測方法與協(xié)同優(yōu)化機制,提升多智能體大模型系統(tǒng)在復雜業(yè)務環(huán)境下的穩(wěn)定性。最后,隨著大模型技術演進與應用場景拓展,其對企業(yè)管理實踐將提出新的要求與挑戰(zhàn)。未來研究仍需從技術架構、人機協(xié)作機制及應用方案設計等維度展開更系統(tǒng)的研究。
參考文獻:
[1] Li Z,Wang L,Luo Q,et al.. Large language model based on full-text retrieval for temporal knowledge Qamp;A approach[A]. AINIT[C]. Nanjing,2024. 441-446.
[2]LiY A,Han C,Raghaan V,et al.. Styletts 2:towards human-level text-to-speech through style diffusion and adversarial training with large speech language models [J].AdvancesinNeuralInformationProcessing Systems,2024,36:19594-19621.
[3]KasneciE,SeBler K,Kuchemann S,et al..ChatGPT for good? On opportunities and challengesof large language models for education[J]. Learning and Individual Differences,2023,103:102274.
[4]Lee J,Stevens N,Han S C. Large language models in finance(FinLLMs)[J]. Neural Computing and Applications,2025(1):1-15.
[5]Liu L, Yang X,Lei J, et al.. A survey on medical large language models: technology,application, trustworthiness,and future directions[J].arXiv preprint arXiv: 240603712,2024.
[6]Lu W,Luu RK,Buehler MJ.Fine-tuning large language models for domain adaptation:exploration of training strategies,scaling,model merging and synergistic capabilities[J].NPJ Computational Materials,2025, 11(1): 84.
[7] Mesk6 B. Prompt engineering as an important emerging skill for medical professionals:tutorial[J]. Journal of Medical Internet Research,2023,25:e50638.
[8] Asai A, Wu Z, Wang Y, et al.. Self-rag: learning to retrieve, generate,and critique through self-reflection [A].ICLR[C].Kigali,2023.1-13.
[9]Liu Z, Xu Y, Xu Y, et al.. Improved fine-tuning by better leveraging pre-training data[J]. Advances in Neural Information Processing Systems,2022,35: 32568-32581.
[10]Yu T, Yao Y,Zhang H, et al.. Rlhf-v: towards trustworthy mllms via behavior alignment from fine-grained correctional human feedback[A]. CVPR[C]. Seattle, 2024.13807-13816.
[11]Yao Y,Duan J,Xu K,et al..A survey on large language model (llm) security and privacy:the good, the bad,and the ugly[J]. High-Confidence Computing,2024,4(2):100211.
[12]Kaplan J,Mccandlish S,Henighan T,et al.. Scaling laws for neural language models[J]. arXiv preprint arXiv:200108361,2020.
[13] Zhao H,Chen H,Yang F,et al..Explainability for large language models: a survey[J]. ACM Transactions on Intelligent Systems and Technology,2024,15(2): 1-38.
[14]Elman JL.Finding structure in time[J]. Cognitive Science,1990,14(2): 179-211.
[15]Yu Y,SiX,Hu C,et al..A review of recurrent neural networks:LSTM cells and network architectures[J]. Neural Computation,2019,31(7):1235-1270.
[16]Vaswani A.Attention is all you need[A]. NeurIPS [C].Barcelona,2017.2-17.
[17]Devlin J. Bert: pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:181004805,2018.
[18] Brown T B. Language models are few-shot learners[J]. arXiv preprint arXiv:200514165,2020.
[19]Liu A, Feng B, Xue B, et al.. Deepseek-v3 technical report[J].arXiv preprint arXiv:241219437,2024.
[20]Radford A,Kim JW,Hallacy C,et al..Learning transferable visual models from natural language supervision[A]. ICML[C]. Online,2021.8748-8763.
[21]Ramesh A,Pavlov M,Goh G,et al.,Zero-shot text-toimage generation[A]. ICML[C].Online.2021.8821-8831.
[22]Rombach R,Blattmann A,Lorenz D,et al..Highresolution image synthesis with latent diffusion models [A].CVPR[C].NewOrleans,2022.10684-10695.
[23]Menghani G. Efficient deep learning: a survey on makingdeeplearningmodelssmaller,faster,andbetter [J].ACMComputing Surveys,2023,55(12):1-37.
[24]Wei J,Wang X,Schuurmans D,et al.. Chain-ofthought prompting elicits reasoning in large language models[A].NeurIPS[C].New Orleans,2022. 24824-24837.
[25]ChanC-M,Chen W,SuY,et al..Chateval:towards better llm-based evaluators through multi-agent debate [J].arXivpreprint arXiv:230807201,2023.
[26]Srivastava A,Rastogi A,Rao A,et al..Beyond the imitation game:quantifying and extrapolating the capabilities of language models[J].arXiv preprint arXiv: 220604615,2022.
[27]Hadi MU,Qureshi R,Shan A,et al..A survey on large language models:applications,challenges,limitations,and practical usage[J]. Authorea Preprints, 2023,3(1):1-12.
[28]Kojima T,Gu SS,Reid M,et al..Large language models are zero-shot reasoners[J]. Advances in neural information processing systems,2022,35:22199-22213.
[29]張金營,王天堃,么長英,等.基于大語言模型的電力 知識庫智能問答系統(tǒng)構建與評價[J].計算機科學, 2024,51(12):286-292.
[30]FeiN,Lu Z,Gao Y,etal..Towards artificial general intelligencevia a multimodal foundation model[J]. NatureCommunications,2022,13(1):3094.
[31]JiangF,DongL,Peng Y,et al..Large AImodel empowered multimodal semantic communications[J]. arXivpreprintarXiv:2023.01249,2024.
[32]XuFF,AlonU,NeubigG,etal..Asystematicevaluation of large language models of code[A]. Proceedings of the 6th ACM SIGPLAN International Symposium on MachineProgramming[C].Online,2022.1-10.
[33]Liu Y,Yang B,Liu Q,et al..Textmonkey:an ocr-free large multimodal model forunderstanding document[J]. arXiv preprint arXiv:240304473,2024.
[34]Shu D,Zhao H,Liu X,et al..LawLLM:law large language model for the US legal system[A].Proceedings of the 33rd ACM International Conferenceon Information and Knowledge Management[C].Online, 2024.4882-4889.
[35]Pandya K,Holia M. Automating customer service using langchain:building custom open-source GPT Chatbot for organizations[J]. arXiv preprint arXiv:2310o5421, 2023.
[36]Lucas M M,YangJ,Pomeroy JK,et al..Reasoning with largelanguagemodels formedical question answering[J].Journal of the American Medical Informatics Association,2024,31(9):1964-1975.
Challenges and Managerial Strategies in Commercial Application of Large Language Models : A Knowledge-enhanced Framework
JIN Xulei,CHEN Gang1,HUANG Lihua', XIAO Shuaiyong2, ZHANG Chenghong1 (1.School of Management,F(xiàn)udan University, Shanghai 20433,China;2. School of Economics and Management, Tongji University,Shanghai 200092,China)
Abstract:Since the release of ChatGPT,large language models (LLMs) have experienced explosive growth.LLMs' technological innovationsand wide-rangingapplicationshaveunlockedtremendous potentialforthedigitaland inteligent transformation of enterprises.In China,the development of AI andLLMs has garnered significant atention from the government,which have emphasized the strategic importance ofdomestic LLM in high-qualitydevelopment.Since 2023, thedomestic landscape of LLMdevelopment has witnessdarapid proliferation of models,accompanied bysignificant advancements incore technologies.DeepSeek—known for itsopen-source accessibility,balanced capabilities,and low inferencecosts—has gained widerecognition both domesticalland internationally.LLMsare becoming adriving force forlocalized innovationandapplicationofAI.However,thepath tocommercializing LLMsremains fraughtwith chalenges.Beyond ensuring model performance,enterprises face additional hurdles related to_personnel training, organizational restructuring,and governancereform.Despite increasing scholarlyatention,existing research largely centers on technical aspects,with limited systematic exploration from the viewpoint of enterprise management.
This study adopts aqualitative methodologyand conducts an in-depth analysis offour representative enterprises that have implementedLLMs.Through semi-structured interviews,document analysis,and cross-case comparisons,it systematicallyidentifies the core challengesand obstacles faced in the process of commercial LLM deployment.The research focuses on how enterprises can overcomedual bariers in technologyandmanagement andadapt across key dimensions suchasinfrastructure,businessprocesses,organizational structures,and humanresources.Furthermore, thestudyofersa detailed examinationof three mainstreamappication paradigms—promptenginering,retrievalaugmented generation,andsupervised fine-tuning with reinforcement learning from human feedback—clarifying their respective roles and implementation pathways in enterprise-level deployment.
The findings indicate that successful commercialization of LLMs requires more than technological readiness—it hingeson theefective integrationof model capabilitieswith internal management strategies.Enterprisesmust simultaneously enhance cross-functional collaboration,strengthendatagovernance,and invest inworkforcereskiling to fullyunlock thetransformativepotentialof LLMs.Thisstudycontributesamanagement-orientedframework thatleverages domain-specificknowledgetoguidetheapplicationofLLMsinbusinesscontexts.Itidentifiesfouressentialpillrsfor implementation:infrastructure,user needs,modelarchitecture,anddeployment strategy.Fromamanagerialperspective, theresearchoutlinesactionable strategies tohelporganizationsnavigatebothorganizational and technicalchallnges associated with embedding LLMsintocore business operations.These insightsofferavaluablereference for enterprises exploring AI-driven innovation and provide anew analytical lens for academic discussionson LLM commercialization.
Key words:large language model; framework for commercial application;case analysis