“康熙皇帝有幾個兒子”“請列出康熙皇帝兒子的姓名名單”“請給我一份康熙的兒子名單”,將這三條指令分別發(fā)送給人工智能大模型,猜猜答案是什么?
不僅不同的大模型回答不一樣,即便是同一個大模型,答案也有偏差。比如,有的答案統(tǒng)計了康熙所有的兒子數(shù)量,表示共有35人,包括正式排序的兒子和早殤未排序的兒子;有的只列出了正式排序的24個兒子;還有的沒有任何解釋,列出了兒子的姓名,但順序錯亂……
為什么有明確答案的問題,會引發(fā)人工智能大模型的“錯亂”?
“這正是人工智能‘一本正經(jīng)胡說八道’的表現(xiàn)。”中國網(wǎng)安協(xié)會數(shù)據(jù)安全專家、上海臨港數(shù)據(jù)評估有限公司總監(jiān)宗良指出,要注意人工智能大模型造假這一新趨勢。
他介紹,人工智能“一本正經(jīng)地胡說八道”其實有個專有名詞,叫“AI幻覺”,即大模型提供了看似合理但有錯漏的答案。如果公眾相信,可能上當受騙。
事實上,在今年的世界人工智能大會上,很多業(yè)界人士都提到了“AI幻覺”“可信大模型”等概念,并披露了多個人工智能大模型“造假”或“說謊”的案例,希望引起各界關(guān)注。
為什么大模型會給出錯誤答案,成為造假源頭呢?
對國內(nèi)的大模型開發(fā)企業(yè)而言,語料庫短缺問題比較嚴峻。因為當前大模型數(shù)據(jù)庫語料以英文居多,中文語料占比較小。還有,圖表、復雜公式等元素處理也是大模型語料處理中的“攔路虎”。在金融報表、行業(yè)報告等文檔中,表格中的數(shù)據(jù)指標至關(guān)重要,但部分大模型并不能正確“理解”表格里行、列、單元格的意義,導致大模型對整個表格的識別結(jié)果有誤差,最終得出錯誤的結(jié)論。
宗良提醒,“AI幻覺”本質(zhì)上有兩種,一種是完全的“胡說八道”,另一種是部分內(nèi)容不準確或不完善。對后者而言,雖然不完全準確,但仍有一定的參考價值。同時,也不能完全否定“AI幻覺”的價值,因為這也是AI創(chuàng)新的起點。
當然,從準確獲取信息的角度看,公眾還是要對大模型輸出結(jié)果或生成的內(nèi)容保持警惕。
(任翀/文)