你是不是也遇到過這樣的情況:問AI一個(gè)問題,它給了你一個(gè)特別詳細(xì)、豐富,看上去很有邏輯的答案,但當(dāng)我們?nèi)ズ藢?shí)時(shí),卻發(fā)現(xiàn)這些信息完全是虛構(gòu)的。
這就是著名的“AI幻覺”現(xiàn)象。
AI幻覺指的是AI會(huì)生成看似合理但確實(shí)錯(cuò)誤的信息,最常見的表現(xiàn)就是編造一些不存在的事實(shí)或者細(xì)節(jié)。就像在考試時(shí)遇到不會(huì)的題目,我們會(huì)試圖用已知的知識(shí)去推測答案一樣。AI在遇到信息缺失或不確定的情況時(shí),會(huì)基于自己的“經(jīng)驗(yàn)”(訓(xùn)練數(shù)據(jù))進(jìn)行填補(bǔ)和推理。這不是因?yàn)樗胍垓_我們,而是因?yàn)樗谠噲D用自己理解的模式來完成這個(gè)任務(wù)。
因?yàn)锳I(尤其是像ChatGPT這樣的語言模型)通過大量的訓(xùn)練數(shù)據(jù)學(xué)習(xí)文字之間的統(tǒng)計(jì)關(guān)系。它的核心目標(biāo)是根據(jù)上下文預(yù)測最可能出現(xiàn)的下一個(gè)詞,并不是對問題或內(nèi)容進(jìn)行真正的理解。所以AI本質(zhì)上是通過概率最大化來生成內(nèi)容,而不是通過邏輯推理來生成內(nèi)容。所以,訓(xùn)練數(shù)據(jù)中的錯(cuò)誤信息和知識(shí)缺失都容易讓AI產(chǎn)生錯(cuò)誤的判斷。
舉個(gè)例子:早期AI幻覺較大的時(shí)候,可能會(huì)出現(xiàn)AI學(xué)過“北京是中國的首都”和“巴黎有埃菲爾鐵塔”這兩個(gè)知識(shí)點(diǎn),可當(dāng)我們問它“北京有什么著名建筑”時(shí),它把這些知識(shí)錯(cuò)誤地混合在一起,說“北京有埃菲爾鐵塔”。
雖然大模型的訓(xùn)練參數(shù)量非常龐大,但受限于技術(shù)原因,AI仍然是在一個(gè)有限的范圍內(nèi)理解文本。這就像是隔著一個(gè)小窗口看書,看不到整本書的內(nèi)容,容易產(chǎn)生理解偏差。
還有一個(gè)出現(xiàn)AI幻覺的重要原因是,現(xiàn)在很多大模型被設(shè)計(jì)成要給出流暢的回答,當(dāng)它對某個(gè)問題不太確定時(shí),與其說“我不知道”,不如基于已有知識(shí)編造看起來合理的答案。
1.優(yōu)化提問
想要獲得準(zhǔn)確答案,提問方式很關(guān)鍵。與AI交流需要明確和具體,避免模糊或開放性的問題,提問越具體、清晰,AI的回答越準(zhǔn)確。同時(shí),我們在提問的時(shí)候要提供足夠多的上下文或背景信息,這樣也可以減少AI胡亂推測的可能性。
總結(jié)成提示詞技巧就是下面4種問法:
設(shè)定邊界:“請嚴(yán)格限定在××研究范圍內(nèi)”
示例:“介紹ChatGPT的發(fā)展歷程”→“請僅基于OpenAI官方2022~2023年的公開文檔,介紹ChatGPT的發(fā)展歷程”
標(biāo)注不確定:“對模糊信息,需要標(biāo)注‘此處為推測內(nèi)容’”
示例:“分析特斯拉2025年的市場份額”→“分析特斯拉2025年的市場份額,對非官方數(shù)據(jù)或預(yù)測性內(nèi)容,請標(biāo)注‘推測內(nèi)容’”
步驟拆解:“第一步列舉確定的事實(shí)依據(jù),第二步展開詳細(xì)分析”
示例:“評估人工智能對就業(yè)的影響”→“請分兩步評估AI對就業(yè)的影響:先列出目前已發(fā)生的具體影響案例;基于這些案例進(jìn)行未來趨勢分析”
明確約束:“要基于已有事實(shí)回答,不要進(jìn)行推測”
示例:“預(yù)測2024年房地產(chǎn)市場走勢”→“請僅基于2023年的實(shí)際房地產(chǎn)數(shù)據(jù)和已出臺(tái)的相關(guān)政策進(jìn)行分析,不要加入任何推測性內(nèi)容”
2.分批輸出
因?yàn)锳I內(nèi)容是根據(jù)概率來生成的,一次性生成的內(nèi)容越多,出現(xiàn)AI幻覺的概率就越大,我們可以主動(dòng)限制它的輸出數(shù)量。比如,如果要寫一篇長文章,就這么跟AI說:“咱們一段一段來寫,先把開頭寫好。等這部分滿意了,再繼續(xù)寫下一段?!边@樣不僅內(nèi)容更準(zhǔn)確,也更容易把控生成內(nèi)容的質(zhì)量。
3.交叉驗(yàn)證
還有一個(gè)實(shí)用的方法是采用“多模型交叉驗(yàn)證”。AI聚合平臺(tái)可以讓多個(gè)AI模型同時(shí)回答同一個(gè)問題,讓不同的大模型一起參與討論,通過對比它們的答案來獲得更全面的認(rèn)識(shí)。一些AI搜索平臺(tái)的“多模型協(xié)作”功能還可以讓不同的AI模型各司其職,形成一個(gè)高效的協(xié)作團(tuán)隊(duì)。比如,讓擅長推理的DeepSeek-R1負(fù)責(zé)分析規(guī)劃,再由通義千問進(jìn)行糾錯(cuò)補(bǔ)充,最后交給豆包AI來梳理總結(jié)。這種“專家組”式的協(xié)作模式,不僅能提升內(nèi)容的可信度,還能帶來更加全面和深入的見解。
4.RAG(檢索增強(qiáng)生成)技術(shù)
為了讓AI表現(xiàn)得更靠譜,我們可以給它配一個(gè)超級百科全書,讓AI在回答問題之前,先從可靠的資料中找到相關(guān)信息,再根據(jù)這些信息生成答案。目前RAG技術(shù)多用在醫(yī)療、法律、金融等專業(yè)領(lǐng)域,通過構(gòu)建知識(shí)庫來提升回答的準(zhǔn)確性。
很多時(shí)候AI幻覺也是天馬行空的創(chuàng)意火花。與其把AI幻覺當(dāng)成缺陷,不如把它看作創(chuàng)意的源泉,在寫作、藝術(shù)創(chuàng)作或頭腦風(fēng)暴時(shí),這些“跳躍性思維”反而可能幫我們打開新世界的大門。當(dāng)我們學(xué)會(huì)用正確的方式與AI對話,善用它的創(chuàng)造力,同時(shí)保持獨(dú)立思考,AI就能成為我們的得力助手,而不是一個(gè)“能言善辯的謊言家”。
(摘自“科普中國”微信公眾號(hào),飄飄圖)