[中圖分類號]TP18;TP 391.43[文獻標志碼]A[文章編號]1005-0310(2025)04-0001-06
Generating, Sharing and Reusing of Prompt for Large Language Models
YANG Dong,SUN Qiurui (Center of Informationamp; Network Technology,Beijing Normal University,Beijing 1OO875,China)
Abstract:The prompts for large language models have evolved from the early stage of spoken language conversations to the current descriptions of itelligent agent roles and skills.The effectiveness of the prompts depends on users’self-exploration,and currently,there is a lack of mechanisms for the automatic generation, sharing,and reusing of prompts. This paper focuses on the mechanisms of prompt generation based on the standardization of prompt elements,and prompt sharing and reusing based on the prompt database.Additionaly, future development directions are proposed to facilitate theeficient application of large language models in education and other fields.
Keywords: large language model ; prompt ; generation ; sharing ;reusing
0 引言
近年來,大模型技術(shù)迅猛發(fā)展,尤其在教育領域,師生自主創(chuàng)建大模型的需求不斷涌現(xiàn)。提示詞作為大模型的輸入信息,從早期的自然語言對話形式,發(fā)展到當今能夠?qū)χ悄荏w的角色和技能進行精確定義[1]。然而,編寫優(yōu)秀的提示詞對普通用戶而言是一件困難的任務,如何有效編寫提示詞來定制大模型成為關鍵問題。因此,構(gòu)建完善的提示詞生成、共享和復用機制,對推動大模型更好地服務于人類社會,特別是教育教學場景,具有重要的現(xiàn)實意義。
1" 提示詞的發(fā)展脈絡
1.1 早期提示詞的自然語言形式
在大模型發(fā)展初期,提示詞的設計致力于適配人類自然語言的豐富性與靈活性。由于人們?nèi)粘=涣髁晳T多樣,表達需求、提出問題或下達指令的方式各不相同,提示詞被構(gòu)建得盡可能貼近自然語言。例如,用戶既可以簡單詢問“手機攝像頭拍照模糊怎么辦”,也能要求“你是一位物理學家,請用通俗易懂的方式詳細闡述薛定諤的貓”。這種偏向自然語言的提示詞主要依賴人力編寫,雖然增強了模型對不同用戶的包容性,但也存在模糊性和不規(guī)范性的問題,難以將其提升為經(jīng)驗并指導其他大模型提示詞的編寫。
1.2 系統(tǒng)提示詞和用戶提示詞的分化
隨著大模型應用場景的不斷拓展,用戶逐漸意識到需要為特定任務定制專用大模型。例如,教育領域的智能助教建設中需要定制大量專用智能體:學業(yè)規(guī)劃、知識問答、概念講解、資源推薦、解題啟發(fā)、寫作指導、作業(yè)反饋、同伴助手、習題推薦等[2]提示詞模板技術(shù)[3]和提示詞調(diào)優(yōu)技術(shù)[4]的發(fā)展,使人們可用精心編寫的提示詞來定制專用大模型。從通用大模型中定制專用大模型不再需要大量的訓練,只需要不斷優(yōu)化提示詞的表達方式即可完成。
上述發(fā)展變化促使提示詞分化為系統(tǒng)提示詞和用戶提示詞。系統(tǒng)提示詞用于定制大模型的行為和功能,設定對話邊界,如告知模型如何提問、如何提供信息以及哪些問題不被接受。用戶提示詞則是每次交互時的具體命令,明確模型要執(zhí)行的任務或意圖[5]。例如,在“你是一位物理學家,請用通俗易懂的方式詳細闡述薛定諤的貓”這句提示詞中,“你是一位物理學家”是系統(tǒng)提示詞,“請用通俗易懂的方式詳細闡述薛定諤的貓”是用戶提示詞。對于通用大模型,系統(tǒng)提示詞不是必需的,但對于專用大模型,系統(tǒng)提示詞是確?;卮鸩黄x既定方向的關鍵。這種分化使提示詞能夠更好地適應不同的任務需求。
1.3如何克服編寫提示詞的困難
隨著大模型的廣泛普及,當今社會已進入大眾自主設計大模型的嶄新時代。普通用戶期待通過簡單編寫提示詞,就能定制契合自身需求的智能體。教育領域也出現(xiàn)了旺盛的需求,教師期望打造個性化的教學助手,學生想要創(chuàng)建獨特的對話伙伴。然而,普通用戶在實際操作過程中發(fā)現(xiàn),隨手編寫的系統(tǒng)提示詞往往難以達到理想效果。例如,一位教師嘗試為語文閱讀課定制智能體,他輸人“幫我生成一個小學語文閱讀助教”作為提示詞,得到的回答可能過于籠統(tǒng)、缺乏針對性。這是因為用戶心目中的“小學語文閱讀助教”有很多細節(jié)要求,例如,“閱讀之前是否需要講解背景”“何時需要精讀”等。
模糊、簡略的系統(tǒng)提示詞無法有效生成符合用戶要求的智能體。為獲取滿意結(jié)果,用戶不得不投入大量時間和精力,對提示詞進行反復調(diào)試。從調(diào)整語言表述、細化任務要求,到增加限定條件、補充背景信息,每一次嘗試都是對提示詞優(yōu)化的探索。這一現(xiàn)實困境迫切需要有效的解決方案,其中至關重要的是構(gòu)建兩個機制。其一,優(yōu)化自動生成提示詞的機制。這一機制允許基于細分領域和更多細節(jié)知識生成更精準的提示詞。其二,構(gòu)建提示詞存儲、共享和復用機制。當用戶歷經(jīng)艱辛調(diào)試出優(yōu)質(zhì)提示詞后,若能將它們存儲于提示詞數(shù)據(jù)庫中,供其他有類似需求的用戶復用,既能避免重復勞動,又能匯聚眾人智慧,從而推動大模型在各領域中的高效應用。
2 自動生成提示詞
普通用戶隨手編寫的提示詞效果不佳,往往是因為籠統(tǒng)的提示詞沒有覆蓋用戶心中的細節(jié)要求。優(yōu)化自動生成提示詞的機制,首要任務便是對提示詞進行規(guī)范化處理,這是構(gòu)建清晰準確的提示詞的基礎。通過規(guī)范統(tǒng)一的要素、結(jié)構(gòu)和格式,提示詞能夠具備更強的邏輯性與精確性。在此基礎上,進一步設計“生成提示詞的提示詞”,讓大模型更精確地自動生成提示詞。
2.1 提示詞要素的規(guī)范化
經(jīng)過深入分析,本文總結(jié)出提示詞的幾個關鍵要素和含義,并列舉了它們在精確表述提示詞中的用法,如表1所示。
基于上述用法,本文分別針對各個要素生成提示詞,在生成過程中盡可能參考細分領域并嵌入細節(jié)知識。實驗表明,基于上述步驟生成的提示詞,經(jīng)過簡單轉(zhuǎn)換就可以在不同平臺上得到良好的應用[5-7]。筆者在扣子平臺上實現(xiàn)了提示詞轉(zhuǎn)換的應用[8],該應用示例了將提示詞轉(zhuǎn)換到其他平臺的方法。
由此表明,盡管不同大模型平臺的產(chǎn)品形態(tài)各異,但在核心的語義理解與指令執(zhí)行層面,業(yè)界已經(jīng)形成了相對統(tǒng)一的提示詞要素標準。這種兼容性打破了平臺間的壁壘,使提示詞要素可以在不同生態(tài)中被復用,也為下一步自動生成提示詞奠定了基礎。
2.2 自動生成提示詞
在提示詞要素規(guī)范化的基礎上,本文研究了一類特殊的能夠自動生成提示詞的大模型,并將生成提示詞的提示詞稱為元提示詞。元提示詞用來引導大模型生成普通提示詞,處于更高層級。
元提示詞的設計遵循上一節(jié)中生成提示詞的步驟,在實踐中,我們主要基于現(xiàn)有的成功案例設計元提示詞。如圖1所示,通過深入研究大量提示詞案例,總結(jié)各個提示詞要素的共性與特點,進而提煉出元提示詞,將其配置在提示詞生成大模型中,即可生成可以復用的普通提示詞。
筆者在扣子平臺上開發(fā)了一個生成提示詞的示例應用[9],該應用通過分析已有提示詞案例,結(jié)合用戶輸入的任務需求,利用配置元提示詞的提示詞生成大模型,進而生成符合要求的提示詞。該應用目前支持5種提示詞模板:通用提示詞、角色提示詞、任務提示詞、意圖識別提示詞、通用變量提示詞,并為這5種提示詞的生成分別構(gòu)建了5個工作流。
在教育場景中,基于該示例應用,教師可以選擇需要生成的提示詞類型,例如“通用提示詞”,再輸人對提示詞的要求,例如“幫我生成一個物理學課程助教”。該應用將根據(jù)這些信息生成相應的提示詞,助教大模型可用于回答學生對物理學課程的提問。表2展示了“物理學課程助教”的普通提示詞與生成它的元提示詞的對比情況。
3共享和復用提示詞
3.1 存儲和共享提示詞
構(gòu)建完善的提示詞存儲機制對發(fā)揮大模型智能體效能至關重要。從載體形式上看,提示詞本質(zhì)上是一大段文本,由提示詞要素組成。從知識形式上看,提示詞是各領域?qū)I(yè)知識的凝結(jié),用于指導大模型工作。因此,有必要將提示詞存儲下來,并在各領域的大模型設計中進行共享和復用。同時,提示詞的文本屬性,意味著它們可以被方便地存儲在目前主流的數(shù)據(jù)庫中,
如圖2所示,對從不同業(yè)務系統(tǒng)共享而來的提示詞進行清洗,去除重復和不規(guī)范內(nèi)容,依據(jù)統(tǒng)一分類標準(如技術(shù)領域、應用領域、任務類型、數(shù)據(jù)特點等)歸類并入庫。采用人工審核與人工智能相結(jié)合的方式優(yōu)化入庫提示詞的質(zhì)量,人工審核確保提示詞符合業(yè)務常識和表達規(guī)范,人工智能模型進行批量格式轉(zhuǎn)換或應用場景轉(zhuǎn)換,最后存儲優(yōu)化后的提示詞。
建立提示詞的開放共享平臺是實現(xiàn)提示詞價值最大化的關鍵。在教育領域,教師可以在平臺上分享具有良好教學效果的提示詞,同時也可以獲取其他教師提供的優(yōu)質(zhì)提示詞。例如,一位教師在使用大模型開展語文閱讀教學時,創(chuàng)建了一個引導學生分析文章結(jié)構(gòu)的提示詞,并通過共享平臺分享給其他教師。其他教師在通過必要的審核之后可以獲取該優(yōu)質(zhì)提示詞,并可應用在自己的語文寫作教學智能體中。規(guī)范且質(zhì)量上乘的共享提示詞,有助于促進教育領域開展基于大模型的教學創(chuàng)新應用。
3.2 復用提示詞
提示詞復用是提高效率、減少重復勞動的關鍵環(huán)節(jié)。在教育場景中,當師生設計自己的科研助手時,可以從提示詞數(shù)據(jù)庫中請求可復用的系統(tǒng)提示詞,如“科研論文主題推薦助手”“科研論文資料分析助手”“科研文獻檢索助手”等。
根據(jù)以上場景需求,筆者設計了提示詞復用框架,如圖3所示。首先,設計提示詞數(shù)據(jù)庫,用來存儲多個完整的系統(tǒng)提示詞文本。提示詞文本包括完整的提示詞要素,如角色、技能、限制等。提示詞數(shù)據(jù)庫還存儲輔助檢索的提示詞屬性,如提示詞的名稱、領域、分類、標簽等。其次,在大模型的設計界面,嵌入系統(tǒng)提示詞復用搜索框或選擇框,用來搜索或選擇系統(tǒng)提示詞。最后,將搜索到的系統(tǒng)提示詞自動嵌入大模型智能體。
例如,筆者在扣子平臺上創(chuàng)建了一個提示詞復用的應用[10],該應用構(gòu)建了一個科研助手的提示詞數(shù)據(jù)庫,搭建了一個提示詞復用的工作流,以及一個示例性的提示詞復用頁面。如圖4所示,該工作流的開始節(jié)點接收兩個參數(shù),prompt_input接收系統(tǒng)提示詞文本,user_input接收用戶對該提示詞的測試要求(即用戶提示詞)。在大模型節(jié)點的配置中,將系統(tǒng)提示詞直接設置為 ,用戶提示詞直接設置為
。
在提示詞復用頁面中,系統(tǒng)根據(jù)用戶的選擇從提示詞數(shù)據(jù)庫中獲取相應的提示詞文本。提示詞數(shù)據(jù)庫中的提示詞經(jīng)過前期存儲和整理,在提示詞屬性中設置了提示詞標簽,用來輔助用戶搜索或選擇。系統(tǒng)通過調(diào)用上述工作流,將用戶選擇的提示詞嵌入大模型智能體。用戶在提示詞頁面中可輸入測試要求,根據(jù)大模型的輸出來觀察提示詞的效果。該提示詞頁面是示例性的,在實際系統(tǒng)中僅需要以下必要步驟:從提示詞數(shù)據(jù)庫中獲取提示詞,并將提示詞嵌入大模型智能體。
4實驗測試
為確保提示詞生成、共享和復用的有效性與可靠性,本文設計了大模型提示詞測試框架。該測試框架遵循國際標準規(guī)范,參考ITU-TF.748.44《基礎模型的評估標準:基準測試》[],構(gòu)建科學的測試體系。該測試框架涵蓋功能測試、性能測試、安全性測試及生成式大模型專項測試(幻覺測試)四大核心維度。功能測試圍繞要素完整性與任務完成性展開:性能測試聚焦模型響應時間與資源消耗情況,評估提示詞的執(zhí)行效率與資源適配性;安全性測試通過異常輸入處理與對抗攻擊測試,確保模型在復雜場景下穩(wěn)定運行;生成式大模型專項測試著重驗證模型輸出內(nèi)容的準確性,避免出現(xiàn)事實性錯誤的幻覺現(xiàn)象。
在本次針對大模型提示詞生成、共享、復用的研究中,性能、安全性及幻覺測試并非重點,我們聚焦于功能測試維度,圍繞要素完整性與任務完成性展開。第一,要素完整性旨在確保提示詞涵蓋目標(角色)、方法(技能)、限制和輸出形式等關鍵要素。第二,任務完成性檢驗提示詞能否精準引導模型完成特定任務,如生成符合規(guī)范的科技論文摘要,并從易讀性、邏輯性等方面評估內(nèi)容質(zhì)量。
本次功能測試聚焦高校教育教學領域,構(gòu)建5大核心場景,并進一步細分出16個子場景,每個子場景配備10條用戶輸人任務,形成包含160條任務的測試集,測試集可從“大模型 + ”開源網(wǎng)站下載[12]。通過人工評判,對提示詞的要素完整性與任務完成效果進行嚴格審核。
測試結(jié)果(見表3)表明,本文設計的提示詞在要素完整性方面表現(xiàn)優(yōu)異,16個子場景的提示詞均完整涵蓋必要要素。在任務完成性上,任務完成率達到 94.375% ,絕大多數(shù)提示詞能夠有效引導模型完成用戶輸人的任務,充分驗證了提示詞生成、共享與復用方案在功能層面的可行性與有效性。
5結(jié)束語
本文梳理了提示詞的發(fā)展脈絡,提出了提示詞要素規(guī)范化的方法,詳細闡述了提示詞生成、共享和復用的實踐與應用。模糊、簡略的提示詞無法滿足用戶的個性化要求,通過構(gòu)建完善的提示詞生成、共享和復用機制,有望為普通用戶自主構(gòu)建大模型提供幫助。雖然提示詞生成、共享和復用在理論研究和實踐探索上取得了一定進展,但在實際應用中仍面臨諸多挑戰(zhàn)。本文基于主流大模型平臺驗證了提示詞跨平臺復用的可行性,但不同模型架構(gòu)的設計理念各異,版本迭代頻繁,同一提示詞在不同模型上可能產(chǎn)生不同效果。因此,后續(xù)研究需關注提示詞的評測機制,為提示詞的有效生成和復用提供理論和實踐指導。
[參考文獻]
[1]程希冀.學會提問,駕馭AI:提示詞從入門到精通[M].:電子工業(yè)出版社,2024:129-148. [2]當高校“定制版”DeepSeek開啟“深度求索”[N].中國新聞,2025-02-26(8-9).
[3]SCHICKT,SCHUTZEH.Exploitingclozequestionsforfewshottextclasificationandnatural language inference[C//16th
Conferenceof the European Chapterof the Associationfor Computational Linguistics.Stroudsburg,USA:Asociation for Computational Linguistics,2021:255-269.
[4]LIXL,LIANG P.Prefix-tuning:optimizing continuous prompts for generation[C]//In Proceedings ofthe59th Annual Meting oftheAsociation forComputationalLinguisticsandthe1th InternationalJoint ConferenceonNaturalLanguage Processing. Stroudsburg, USA: Association for Computational Linguistics,2021:4582-4597.
[5]提示詞概述[EB/OL].(2025-03-28)[2025-04-01].https://www.coze.cn/open/docs/guides/prompt. [6]騰訊元器官方文檔:2.1.3快速創(chuàng)建公眾號智能體(如何寫提示詞、知識庫)[EB/0L].(2025-04-22)[2025-06- 05]. https://docs. qq. com/aio/p/scxmsn78nzsuj64?p ysUybrgpb73gqiE0nd3qGK2.
[7]騰訊元器官方文檔:2.2 如何寫“詳細設定\"[EB/OL].(2025-04-22)[2025-06-05].htps://docs.qq.com/aio/p/ scxmsn78nzsuj64?p Σ=Σ FqU20AZIzBosPzJvO0cLjVa.
[8]教育大模型之提示詞研究:提示詞轉(zhuǎn)換[EB/OL].(2025-03-28)[2025-04-01].hps://www.coze.cn/store/project/ 7485395551970885671.
[9] 教育大模型之提示詞研究:提示詞生成[EB/OL].(2025-03-28)[2025-04-01].htps://www.coze.cn/store/project/ 7471056246976577587.
[10] 教育大模型之提示詞研究:提示詞復用[EB/OL].(2025-03-28)[2025-04-01].htps://www.coze.cn/store/project/ 7464930708906311690.
[11] F.748.44:Asessment criteria for foundation models-benchmark[EB/OL].(2025-03-16)[2025-03-28].https://www. itu.int/rec/T-REC-F.748. 44-202503-I/en.
[12] Large-model-plus[EB/OL].(2025-03-28)[2025-04-01]. htps://gitee.com/yangdongbjcn/large-model-plus.
(責任編輯 白麗媛;責任校對 柴智)