摘" 要:人工智能技術(shù)的迅猛發(fā)展,尤其是大語(yǔ)言模型(LLM)在自然語(yǔ)言處理領(lǐng)域的突破性進(jìn)展,為教育數(shù)字化轉(zhuǎn)型帶來(lái)了新機(jī)遇。聚焦計(jì)算機(jī)類專業(yè)的數(shù)據(jù)結(jié)構(gòu)課程的學(xué)習(xí)難題,利用開(kāi)源LLM開(kāi)發(fā)平臺(tái)Dify,整合知識(shí)點(diǎn)文本表征、檢索增強(qiáng)和文本生成等核心技術(shù),設(shè)計(jì)并實(shí)現(xiàn)了一款智能學(xué)習(xí)助手。通過(guò)整合多源知識(shí)庫(kù),助手能精確匹配學(xué)生的個(gè)性化問(wèn)題,并生成于學(xué)生問(wèn)題意圖一致的答案。實(shí)驗(yàn)結(jié)果表明,學(xué)習(xí)助手在輔助學(xué)生學(xué)習(xí)、提升學(xué)習(xí)效率以及減輕教師教學(xué)負(fù)擔(dān)方面效果顯著。
關(guān)鍵詞:大語(yǔ)言模型;檢索增強(qiáng)生成;智能學(xué)習(xí)助手
中圖分類號(hào):TP311 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2096-4706(2025)03-0050-06
Design and Implementation of Intelligent Learning Assistant Based on Large Language Model
ZHA Yinghua1, GUO Zhaoxia1, JU Huiguang2
(1.Nanjing Vocational University of Industry Technology, Nanjing" 210023, China;
2.Nanjing ASGEO Information Technology Co., Ltd., Nanjing" 211101, China)
Abstract: The rapid development of Artificial Intelligence technology, especially the breakthrough progress of Large Language Model (LLM) in Natural Language Processing field, has brought new opportunities for the digital transformation of education. Focusing on the learning difficulties of the data structure course in computer-related majors, using the open-source LLM development platform Dify, and integrating core technologies such as knowledge point text representation, retrieval enhancement, and text generation, an intelligent learning assistant has been designed and implemented. By integrating multisource knowledge bases, the assistant can accurately match students' personalized questions and generate answers consistent with the intent of students' questions. Experimental results show that the learning assistant has significant effects in assisting student learning, improving learning efficiency, and reducing the teaching burden on teachers.
Keywords: Large Language Model; retrieval-augmented generation; intelligent learning assistant
0" 引" 言
在人工智能的發(fā)展歷程中,大語(yǔ)言模型(Large Language Model, LLM)的崛起標(biāo)志著一個(gè)重要的轉(zhuǎn)折點(diǎn)。它們不僅在自然語(yǔ)言理解領(lǐng)域取得了顯著成就,而且在文本生成、知識(shí)問(wèn)答和邏輯推理等高級(jí)認(rèn)知功能上展現(xiàn)出卓越的能力[1]。例如,ChatGPT、通義千問(wèn)和文心一言等生成式AI應(yīng)用,已經(jīng)能夠與人類進(jìn)行符合語(yǔ)言習(xí)慣的情境化交互,這為教育領(lǐng)域的數(shù)字化和智能化轉(zhuǎn)型提供了前所未有的機(jī)遇和挑戰(zhàn)[2]。
然而,LLM在帶來(lái)革命性效果的同時(shí),也存在一些亟待解決的問(wèn)題。由于模型的知識(shí)基礎(chǔ)主要來(lái)源于訓(xùn)練數(shù)據(jù),而現(xiàn)有的主流大模型多基于公開(kāi)數(shù)據(jù)構(gòu)建,難以獲取實(shí)時(shí)性、非公開(kāi)或?qū)I(yè)領(lǐng)域的知識(shí),這導(dǎo)致了知識(shí)的局限性。當(dāng)遇到未在訓(xùn)練中學(xué)習(xí)過(guò)的問(wèn)題時(shí),模型可能會(huì)產(chǎn)生不準(zhǔn)確或有偏見(jiàn)的內(nèi)容,甚至編造信息,從而誤導(dǎo)信息接收者[3]。在高等教育領(lǐng)域,這種誤導(dǎo)可能會(huì)使學(xué)生對(duì)專業(yè)知識(shí)產(chǎn)生錯(cuò)誤的理解,影響知識(shí)體系的準(zhǔn)確性,甚至導(dǎo)致整個(gè)知識(shí)體系出現(xiàn)偏差,進(jìn)而影響教育的價(jià)值[4]。
為了解決這些問(wèn)題,研究者們提出了微調(diào)(Fine-Tuning)和檢索增強(qiáng)生成(Retrieval-Augmented Generation, RAG)等技術(shù)。微調(diào)技術(shù)通過(guò)使用特定領(lǐng)域的數(shù)據(jù)集對(duì)預(yù)訓(xùn)練模型進(jìn)行進(jìn)一步訓(xùn)練,以提高模型在特定任務(wù)或領(lǐng)域的表現(xiàn)。然而,這一過(guò)程需要大量高質(zhì)量的標(biāo)注數(shù)據(jù)和計(jì)算資源[5]。相比之下,RAG技術(shù)結(jié)合了信息檢索和文本生成,通過(guò)檢索外部知識(shí)庫(kù)中的信息來(lái)引導(dǎo)生成過(guò)程,從而提高內(nèi)容的準(zhǔn)確性和相關(guān)性[6]。RAG技術(shù)因其高可用性和低門(mén)檻,已成為L(zhǎng)LM應(yīng)用中最受歡迎的方案之一。
本文以計(jì)算機(jī)專業(yè)的數(shù)據(jù)結(jié)構(gòu)課程為例,探討了基于LLM的課程學(xué)習(xí)助手的設(shè)計(jì)和實(shí)現(xiàn),旨在幫助學(xué)生更有效地掌握專業(yè)基礎(chǔ)知識(shí),同時(shí)減輕教師的教學(xué)壓力。
1" RAG應(yīng)用研究現(xiàn)狀
RAG技術(shù)的核心理念在于融合檢索機(jī)制與生成模型,最初由Lewis等人[7]于2020年提出。隨著LLM時(shí)代的到來(lái),RAG技術(shù)通過(guò)整合LLM的參數(shù)化知識(shí)和外部知識(shí)庫(kù)的非參數(shù)化知識(shí),增強(qiáng)了模型對(duì)背景知識(shí)的理解,提升了AI在處理知識(shí)密集型任務(wù)時(shí)的表現(xiàn),以及生成內(nèi)容的準(zhǔn)確性和可信度。
RAG作為一種前沿的生成式AI技術(shù),已在多個(gè)行業(yè)領(lǐng)域展現(xiàn)了巨大的應(yīng)用潛力。在知識(shí)管理方面,周揚(yáng)等人[8]設(shè)計(jì)了一套基于RAG技術(shù)的企業(yè)知識(shí)管理系統(tǒng)方案,通過(guò)檢索前處理、知識(shí)檢索、檢索后處理等全流程檢索技術(shù)提高知識(shí)構(gòu)建的效率和檢索的精確度。在問(wèn)答系統(tǒng)方面,張鶴譯等人[9]研究了結(jié)合大語(yǔ)言模型和知識(shí)圖譜的問(wèn)答系統(tǒng),針對(duì)中醫(yī)藥領(lǐng)域,通過(guò)信息過(guò)濾、專業(yè)問(wèn)答和知識(shí)抽取轉(zhuǎn)化等技術(shù)提升了系統(tǒng)性能,為專業(yè)領(lǐng)域問(wèn)答提供了新方法。在代碼生成領(lǐng)域,Su等人[10]提出了一種名為ARKS的策略,該策略將LLM應(yīng)用于代碼生成,通過(guò)創(chuàng)建一個(gè)集成網(wǎng)絡(luò)搜索、文檔、執(zhí)行反饋和代碼演化的知識(shí)綜合體,從而提高了LLM在代碼生成中的執(zhí)行精度。
教育領(lǐng)域?qū)AG技術(shù)的興趣也與日俱增。余勝泉等人[11]開(kāi)發(fā)了一種基于RAG的通用人工智能教師模型,該模型通過(guò)精調(diào)訓(xùn)練、檢索增強(qiáng)認(rèn)知、外部智能組件編排等手段,提升了LLM在教育場(chǎng)景中的應(yīng)用能力。盧宇等人[12]的研究探討了基于大模型的教學(xué)智能體的構(gòu)建與應(yīng)用,提出了一個(gè)包含教育任務(wù)設(shè)定、規(guī)劃、能力實(shí)現(xiàn)、內(nèi)容記憶與反思以及交互協(xié)作等模塊的框架,旨在實(shí)現(xiàn)個(gè)性化教學(xué)和動(dòng)態(tài)進(jìn)化。
目前,教育領(lǐng)域主要采用基于ChatGPT的教學(xué)應(yīng)用,對(duì)RAG技術(shù)的研究和應(yīng)用相對(duì)有限。本文提出了一種智能學(xué)習(xí)助手,該助手利用RAG開(kāi)源框架Dify的LLM語(yǔ)義表征、文本生成能力以及RAG的知識(shí)檢索能力,整合課程相關(guān)的數(shù)字教材、教學(xué)輔導(dǎo)材料和網(wǎng)絡(luò)資源等外部知識(shí)源,通過(guò)融合提示詞和專業(yè)數(shù)據(jù)集,構(gòu)建針對(duì)專業(yè)學(xué)習(xí)場(chǎng)景的個(gè)性化學(xué)習(xí)工具,擴(kuò)展學(xué)生對(duì)數(shù)據(jù)結(jié)構(gòu)的深入理解和應(yīng)用能力。
2" RAG系統(tǒng)的架構(gòu)分析
2.1" RAG的基礎(chǔ)架構(gòu)
Zhao等[13]將RAG的基礎(chǔ)范式根據(jù)檢索器增強(qiáng)生成器的方式分為四類:基于查詢的RAG、隱空間表示型RAG、概率表征型RAG以及投機(jī)性RAG。其中,基于查詢的RAG時(shí)最為廣泛使用的范式。在LLM生成文本響應(yīng)之前,該方法首先從知識(shí)庫(kù)檢索并召回相關(guān)的文本信息,以此增強(qiáng)和擴(kuò)展LLM的初始輸入信息,其基礎(chǔ)架構(gòu)及流程如圖1所示。
2.1.1" 數(shù)據(jù)處理
數(shù)據(jù)處理是將本地?cái)?shù)據(jù)資源轉(zhuǎn)為向量,建立索引并存入向量數(shù)據(jù)庫(kù)的離線過(guò)程,也就是知識(shí)庫(kù)構(gòu)建過(guò)程,主要步驟包括數(shù)據(jù)提取、文本分割、向量化和入庫(kù)等。
數(shù)據(jù)提取階段主要針對(duì)PDF、DOCX、CSV等各種格式文檔進(jìn)行預(yù)處理,包括去重、過(guò)濾、刪除不相關(guān)內(nèi)容等,提取高質(zhì)量的可用文本。文本分割階段需考慮嵌入模型的Tokens限制、保持語(yǔ)義的完整性以及相關(guān)上下文的連貫性,常用的分割方法包括基于固定大小的分塊方法和基于語(yǔ)義單元的分塊方法。向量化階段則是使用嵌入模型將文本轉(zhuǎn)為用于語(yǔ)義搜索的嵌入向量,常用的文本類嵌入模型包括OpenAI的text-embedding系列、MokaAI的M3E等。入庫(kù)階段首先構(gòu)建向量與文本塊之間的索引,然后將其寫(xiě)入向量數(shù)據(jù)庫(kù),適用于RAG的數(shù)據(jù)庫(kù)包括Chroma、Weaviate、Milvus等。這些數(shù)據(jù)庫(kù)能夠高效地支持向量檢索,從而實(shí)現(xiàn)快速而準(zhǔn)確的信息檢索功能。
2.1.2" 數(shù)據(jù)檢索
數(shù)據(jù)檢索階段的主要流程包括構(gòu)建問(wèn)題向量、執(zhí)行檢索以及結(jié)果重排序。首先,采用諸如BERT、GPT系列等預(yù)訓(xùn)練模型將用戶問(wèn)題轉(zhuǎn)化為數(shù)值化的向量表示,該向量作為后續(xù)檢索操作的基礎(chǔ)查詢向量。然后,通過(guò)計(jì)算查詢向量與向量庫(kù)中文檔或信息片段的向量表示之間的相似度,根據(jù)得分檢索最相關(guān)文檔。最后,鑒于檢索結(jié)果可能包含多個(gè)候選文檔或信息片段,對(duì)其進(jìn)行進(jìn)一步篩選和排序以優(yōu)化檢索質(zhì)量,一般通過(guò)對(duì)結(jié)果進(jìn)行Top K篩選和Score閾值優(yōu)化結(jié)果的準(zhǔn)確性,還可以結(jié)合Rerank模型進(jìn)行語(yǔ)義排序,提高與用戶問(wèn)題的相關(guān)性。
檢索過(guò)程可采用向量檢索、全文檢索或混合檢索等策略,其中向量檢索擅長(zhǎng)處理具有復(fù)雜語(yǔ)義的查詢,全文檢索則更適合精確匹配較短的字符序列或低頻詞匯。
2.1.3" 答案生成
在生成答案的過(guò)程中,首先進(jìn)行信息整合。此步驟包括將從檢索到的相關(guān)信息片段整合成連貫的上下文,作為構(gòu)建一個(gè)或多個(gè)候選答案的基礎(chǔ)。此階段需要處理信息片段間的冗余、不一致或矛盾之處,確保生成的回答既準(zhǔn)確又具有一致性。然后利用LLM的智能問(wèn)答能力來(lái)生成答案。
生成過(guò)程通常涉及一系列技術(shù)手段,如多輪對(duì)話、條件生成以及提示工程等。其中,提示工程通過(guò)結(jié)合候選答案、原始問(wèn)題以及精心設(shè)計(jì)的提示詞等策略,引導(dǎo)模型生成準(zhǔn)確且高度相關(guān)的回答,顯著提高生成的答案與用戶問(wèn)題之間的匹配度,提升用戶的總體滿意度和交互體驗(yàn)。
2.2" Dify的核心組件
Dify是一個(gè)專為L(zhǎng)LM的開(kāi)發(fā)和運(yùn)維而設(shè)計(jì)的低代碼開(kāi)源平臺(tái),其核心目標(biāo)在于簡(jiǎn)化并加速生成式AI應(yīng)用的創(chuàng)建與部署過(guò)程。該平臺(tái)集成了構(gòu)建LLM應(yīng)用所需的關(guān)鍵技術(shù),包括對(duì)數(shù)百種模型的支持、直觀的提示編排界面、高質(zhì)量的RAG引擎、Agent框架以及靈活的工作流編排能力。此外,Dify還提供了一套用戶友好的界面和API,為開(kāi)發(fā)者節(jié)省了許多重復(fù)造輪子的時(shí)間,使其專注于業(yè)務(wù)需求和技術(shù)創(chuàng)新上。
2.2.1" RAG引擎模塊
Dify的RAG引擎采用模塊化設(shè)計(jì),包含文件加載、預(yù)處理、檢索和檢索結(jié)果重排等模塊。文件預(yù)處理模塊支持自定義分隔符、設(shè)置token大小對(duì)文檔進(jìn)行分段,并采用Qamp;A分段技術(shù)對(duì)每個(gè)段落進(jìn)行QA轉(zhuǎn)化。相較于傳統(tǒng)的“Q2P”(問(wèn)題匹配段落)模式,Dify采用的“Q2Q”(問(wèn)題匹配問(wèn)題)模式能夠在用戶提問(wèn)時(shí)找出與之最相似的問(wèn)題,進(jìn)而返回對(duì)應(yīng)的分段作為答案,這種方式更直接地識(shí)別和響應(yīng)用戶問(wèn)題。
Dify平臺(tái)提供了三種高效的檢索策略:向量檢索、全文檢索以及混合檢索。向量檢索基于近似最近鄰(ANN)查詢,通過(guò)Top-K篩選和Score閾值機(jī)制確保檢索結(jié)果的相關(guān)性。全文檢索基于BM25算法,專注于簡(jiǎn)短文本的精確匹配,確保查詢的準(zhǔn)確度?;旌蠙z索則結(jié)合了這兩種方法的優(yōu)勢(shì)。為增強(qiáng)檢索效果,Dify提供了N選1召回和多路召回兩種召回算法,多路召回能夠并行檢索多個(gè)知識(shí)庫(kù),擴(kuò)展信息來(lái)源。Dify還可以應(yīng)用Rerank模型對(duì)檢索結(jié)果進(jìn)行語(yǔ)義重排,確保用戶獲得最匹配的Top-K結(jié)果。
2.2.2" 工作流編排模塊
在優(yōu)化復(fù)雜任務(wù)處理的框架中,工作流扮演了至關(guān)重要的角色,它通過(guò)將繁復(fù)的任務(wù)解構(gòu)為一系列邏輯清晰、規(guī)模適中的節(jié)點(diǎn),降低系統(tǒng)的內(nèi)在復(fù)雜度,并減輕對(duì)精細(xì)提示工程及模型高級(jí)推理能力的直接依賴。Dify提供了兩種類型的工作流應(yīng)用:一是針對(duì)對(duì)話式應(yīng)用場(chǎng)景的聊天流(Chatflows),適用于客戶服務(wù)、語(yǔ)義搜索等場(chǎng)景;二是面向自動(dòng)化/批量處理任務(wù)的工作流(Workflows),適用于數(shù)據(jù)分析、內(nèi)容生成等任務(wù)。
Dify提供了一個(gè)直觀易用的可視化編排界面,使用戶能夠在畫(huà)布上靈活地配置和連接任務(wù)節(jié)點(diǎn),簡(jiǎn)化工作流的構(gòu)建過(guò)程。圖2所示的編排界面配置了多種核心節(jié)點(diǎn),如:LLM、問(wèn)題分類器以及條件分支和迭代等節(jié)點(diǎn)。用戶可以通過(guò)定義一系列相互連接的節(jié)點(diǎn)來(lái)構(gòu)建復(fù)雜的工作流程。
3" 智能學(xué)習(xí)助手的系統(tǒng)設(shè)計(jì)
在數(shù)據(jù)結(jié)構(gòu)課程的教學(xué)實(shí)踐中,學(xué)生常面臨理解難題,感到理論晦澀難懂,對(duì)學(xué)習(xí)產(chǎn)生抵觸情緒,面對(duì)復(fù)雜問(wèn)題時(shí)更是束手無(wú)策,導(dǎo)致學(xué)習(xí)積極性下降。為了克服這些學(xué)習(xí)障礙,教師通常會(huì)安排每周的答疑時(shí)間,但這仍難以實(shí)現(xiàn)對(duì)學(xué)生問(wèn)題的即時(shí)反饋。隨著LLM技術(shù)的應(yīng)用日益普及,構(gòu)建基于LLM的智能學(xué)習(xí)助手成為解決此類問(wèn)題的有效路徑,它的主要功能是向?qū)W生提供數(shù)據(jù)結(jié)構(gòu)課程的學(xué)習(xí)資源,輔助分析復(fù)雜問(wèn)題,并提供編程代碼的提示,通過(guò)自測(cè)功能幫助學(xué)生評(píng)估對(duì)知識(shí)點(diǎn)的掌握程度,從而提高學(xué)習(xí)效率。
利用Dify平臺(tái)提供的組件開(kāi)發(fā)智能學(xué)習(xí)助手的工作流程如圖3所示,總體分為三部分:一是知識(shí)庫(kù)構(gòu)建,指將數(shù)據(jù)結(jié)構(gòu)課程的外部資源轉(zhuǎn)為向量數(shù)據(jù)庫(kù);二是檢索生成模塊,使用RAG檢索增強(qiáng)模型,支持對(duì)學(xué)生所提問(wèn)題的檢索與答案生成;三是人機(jī)交互模塊,提供學(xué)生提問(wèn)的UI界面。
3.1" 課程知識(shí)庫(kù)構(gòu)建
本階段是將數(shù)據(jù)結(jié)構(gòu)課程資源向量化,構(gòu)建索引并存入數(shù)據(jù)庫(kù)的數(shù)據(jù)準(zhǔn)備離線過(guò)程。進(jìn)入Dify的創(chuàng)建知識(shí)庫(kù)界面,如圖4所示。首先導(dǎo)入本地的教學(xué)資源文件,文件格式可以為MARKDOWN、PDF、DOCX等,本系統(tǒng)的教學(xué)資源主要來(lái)自智慧職教平臺(tái)開(kāi)設(shè)的SPOC在線課程,包括數(shù)字教材、學(xué)習(xí)資料、教案以及題庫(kù)等。
文件上傳后進(jìn)行如圖5所示的分文本分段與清洗設(shè)置,去除文本中的無(wú)關(guān)字符,如:空格、換行符和制表符等,減少后續(xù)Token的消耗;并采用Qamp;A分段技術(shù)對(duì)文本進(jìn)行QA結(jié)構(gòu)分割,保證了語(yǔ)義的完整性,減輕了人工整理問(wèn)答對(duì)的工作量。
知識(shí)庫(kù)檢索設(shè)置如圖6所示,選擇向量檢索與全文檢索相結(jié)合的混合檢索模式,并應(yīng)用jina-reranker-v2-base-multilingual重排序模型從它們的查詢結(jié)果中選擇最匹配用戶問(wèn)題的結(jié)果,通過(guò)設(shè)置Top-K值和Score閾值篩選與問(wèn)題相似度最高的文本片段,從多個(gè)維度提高檢索的準(zhǔn)確性和精確度。設(shè)置所有參數(shù)后,Dify對(duì)文本向量創(chuàng)建索引存入Weaviate向量庫(kù),完成知識(shí)庫(kù)的創(chuàng)建。
3.2" 問(wèn)題檢索與生成模塊
知識(shí)庫(kù)創(chuàng)建后,便可以創(chuàng)建學(xué)習(xí)助手的應(yīng)用,進(jìn)入圖7所示的應(yīng)用編排界面完成問(wèn)題檢索與生成模塊的提示詞、上下文以及增強(qiáng)功能設(shè)置。
良好的提示詞設(shè)計(jì)可以為L(zhǎng)LM提供清晰的問(wèn)題邊界和上下文連貫性,是高質(zhì)量答案輸出的關(guān)鍵[14]。本文的提示詞模板設(shè)定了學(xué)習(xí)助手的角色描述、技能要求以及輸出規(guī)范,使回答更符合學(xué)生的學(xué)習(xí)需求。創(chuàng)建的知識(shí)庫(kù)作為編排的上下文,通過(guò)設(shè)置多路召回可以從多個(gè)知識(shí)庫(kù)獲取答案,提高答案的準(zhǔn)確性和多樣性。對(duì)GPT-4o mini、Qwen-Max、GLM-4和ERNIE 4.0四種LLM進(jìn)行召回測(cè)試的比較,GPT-4o mini和Qwen-Max在模型性能、Token成本與響應(yīng)速度等方面表現(xiàn)更為出色,最終選擇Qwen-Max模型。加載該模型后,結(jié)合提示詞生成問(wèn)題答案。
設(shè)置完成后便可以進(jìn)行召回測(cè)試,檢查設(shè)置的參數(shù)是否滿足要求。最終進(jìn)行應(yīng)用的發(fā)布供學(xué)生學(xué)習(xí)使用。
3.3" 系統(tǒng)功能測(cè)試
3.3.1" 測(cè)試環(huán)境
本文采用搭載4核CPU、8 GB內(nèi)存的華為云服務(wù)器進(jìn)行系統(tǒng)部署,Qwen-Max作為內(nèi)置生成語(yǔ)言模型,模型的檢索參數(shù)Top-K = 3,Score = 0.5。
3.3.2" 功能測(cè)試
基于Dify平臺(tái)搭建數(shù)據(jù)結(jié)構(gòu)課程的學(xué)習(xí)助手,及時(shí)響應(yīng)學(xué)生解決學(xué)習(xí)中的問(wèn)題,給出問(wèn)題答案,并提供答案引用的知識(shí)庫(kù),有效避免了大模型在專業(yè)知識(shí)上可能出現(xiàn)的錯(cuò)誤或誤導(dǎo)性信息,保證了答案來(lái)源的可靠性。當(dāng)學(xué)生提問(wèn)“如何快速掌握二叉樹(shù)的后序遍歷”時(shí),系統(tǒng)在給出答案的同時(shí)提供問(wèn)題答案的來(lái)源知識(shí)庫(kù),同時(shí)給出下一步的建議,引導(dǎo)學(xué)生的進(jìn)一步思考,測(cè)試示例如圖8所示。
4" 結(jié)" 論
本文詳細(xì)介紹了基于大語(yǔ)言模型的RAG系統(tǒng)的設(shè)計(jì)和實(shí)現(xiàn),并利用Dify平臺(tái)為數(shù)據(jù)結(jié)構(gòu)課程開(kāi)發(fā)了一款智能學(xué)習(xí)助手。通過(guò)Dify提供的模塊化工具和豐富的接口,快速搭建了課程知識(shí)庫(kù),并融合知識(shí)檢索、知識(shí)增強(qiáng)與LLM生成技術(shù)構(gòu)建了一個(gè)高效的RAG系統(tǒng)。這不僅顯著加快了專業(yè)領(lǐng)域問(wèn)答系統(tǒng)的開(kāi)發(fā)進(jìn)程,而且為課程教學(xué)提供了一種高效、可靠的智能輔助工具。經(jīng)過(guò)綜合測(cè)試和實(shí)踐應(yīng)用,該系統(tǒng)已被證明能在教學(xué)過(guò)程中穩(wěn)定運(yùn)行,有效輔助學(xué)生學(xué)習(xí),它的成功實(shí)施不僅優(yōu)化了教學(xué)資源的利用,也為學(xué)生提供了更加個(gè)性化和互動(dòng)式的學(xué)習(xí)體驗(yàn)。
參考文獻(xiàn):
[1] 車璐,張志強(qiáng),周金佳,等.生成式人工智能的研究現(xiàn)狀和發(fā)展趨勢(shì) [J].科技導(dǎo)報(bào),2024,42(12):35-43.
[2] 劉邦奇,聶小林,王士進(jìn),等.生成式人工智能與未來(lái)教育形態(tài)重塑:技術(shù)框架、能力特征及應(yīng)用趨勢(shì) [J].電化教育研究,2024,45(1):13-20.
[3] 王耀祖,李擎,戴張杰,等.大語(yǔ)言模型研究現(xiàn)狀與趨勢(shì) [J].工程科學(xué)學(xué)報(bào),2024,46(8):1411-1425.
[4] 吳青,劉毓文.ChatGPT時(shí)代的高等教育應(yīng)對(duì):禁止還是變革 [J].高校教育管理,2023,17(3):32-41.
[5] 官璐,何康,斗維紅.微調(diào)大模型:個(gè)性化人機(jī)信息交互模式分析 [J].新聞界,2023(11):44-51+76.
[6] GAO Y F,XIONG Y,GAO X Y,et al. Retrieval-Augmented Generation for Large Language Models: A Survey [J/OL].arXiv:2312.10997 [cs.CL].(2023-12-18).https://arxiv.org/abs/2312.10997.
[7] LEWIS P,PEREZ E,PIKTUS A,et al. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks [J/OL].arXiv:2005.11401 [cs.CL].(2020-05-22).https://arxiv.org/abs/2005.11401?context=cs.
[8] 周揚(yáng),蔡霈涵,董振江.大模型知識(shí)管理系統(tǒng) [J].中興通訊技術(shù),2024,30(2):63-71.
[9] 張鶴譯,王鑫,韓立帆,等.大語(yǔ)言模型融合知識(shí)圖譜的問(wèn)答系統(tǒng)研究 [J].計(jì)算機(jī)科學(xué)與探索,2023,17(10):2377-2388.
[10] SU H J,JIANG S Y,LAI Y H,et al. EVOR: Evolving Retrieval for Code Generation [J/OL].arXiv:2402.12317 [cs.CL].(2024-02-19).https://arxiv.org/abs/2402.12317.
[11] 余勝泉,熊莎莎.基于大模型增強(qiáng)的通用人工智能教師架構(gòu) [J].開(kāi)放教育研究,2024,30(1):33-43.
[12] 盧宇,余京蕾,陳鵬鶴.基于大模型的教學(xué)智能體構(gòu)建與應(yīng)用研究 [J].中國(guó)電化教育,2024(7):99-108.
[13] ZHAO P H,ZHANG H L,YU Q H,et al. Retrieval-Augmented Generation for AI-Generated Content: A Survey [J/OL].arXiv:2402.19473 [cs.CV].(2024-02-29).https://arxiv.org/abs/2402.19473.
[14] LIU P F,YUAN W Z,F(xiàn)U J L,et al. Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing [J/OL].arXiv:2107.13586 [cs.CL].(2021-07-28).https://arxiv.org/abs/2107.13586v1.
作者簡(jiǎn)介:查英華(1969.11—),女,漢族,江蘇南京人,副教授,碩士,研究方向:人工智能、智慧教育;郭朝霞(1981.06—),女,漢族,河南舞鋼人,講師,碩士,研究方向:移動(dòng)應(yīng)用開(kāi)發(fā);鞠慧光(1986.07—),男,漢族,江蘇南京人,工程師,本科,研究方向:軟件工程。