自生成式人工智能熱潮掀起以來,科技公司一直在努力地為這項技術(shù)開發(fā)殺手級應(yīng)用程序。最開始是在線搜索,目前的情況是喜憂參半。現(xiàn)在輪到了人工智能助手。
OpenAI、Meta和谷歌為他們的人工智能聊天機器人推出了新功能,允許它們聯(lián)網(wǎng)并扮演某種私人助理。
據(jù)威爾·道格拉斯·海文報道,OpenAI為ChatGPT加入了新功能,其中包括與聊天機器人進行對話的能力,就像在打電話一樣,它可以用逼真的合成聲音即時回答你口頭提題。OpenAI還透露,ChatGPT將能夠搜索網(wǎng)絡(luò)內(nèi)容。
作為競爭對手,谷歌Bard聊天機器人已接入該公司的大部分生態(tài)系統(tǒng),包括Gmail、Docs、YouTube和地圖。其目標是,人們將能夠使用聊天機器人詢查詢自己的信息,例如,讓它搜索電子郵件或整理日常安排。
Bard還將能夠立即從谷歌搜索中檢索信息。類似地,Meta也宣布,它也將部署人工智能聊天機器人。用戶將能夠在WhatsApp、Messenger和Instagram上向人工智能聊天機器人和名人的人工智能虛擬化身提問,人工智能模型可以從必應(yīng)搜索中在線檢索信息。
考慮到技術(shù)的局限性,這是一個冒險的行為。科技公司還沒有解決人工智能語言模型的一些存在已久的問題,比如他們有編造東西或“產(chǎn)生幻覺”的傾向。
科技公司正在將這項存在嚴重缺陷的技術(shù)交到數(shù)百萬人的手里,并允許人工智能模型訪問他們的電子郵件、日歷和私人信息等敏感信息。在這個過程中,他們使我們都更容易遭遇大規(guī)模的詐騙、網(wǎng)絡(luò)釣魚和黑客攻擊。
現(xiàn)在,人工智能助手可以訪問個人信息并同時搜索網(wǎng)絡(luò),他們特別容易受到一種稱為間接提示注入的攻擊。它非常容易實現(xiàn),而且沒有已知的修復方法。
人工智能系統(tǒng)可能會被惡意操縱,允許攻擊者嘗試提取人們的信用卡信息。隨著新一代人工智能模型接入社交媒體和電子郵件,黑客有了更多漏洞可鉆。
向OpenAI、谷歌和Meta詢問,問他們做了什么來抵御提示注入攻擊和“幻覺”傾向等問題,但Meta和OpenAI沒有回復。
關(guān)于人工智能的幻覺傾向,谷歌的一位發(fā)言人表示,該公司發(fā)布Bard是一項“實驗”,它允許用戶使用谷歌搜索來核實給出的答案。
“如果用戶發(fā)現(xiàn)了編造或不準確的東西,我們鼓勵他們點擊‘不喜歡’圖標并提供反饋。這是Bard學習和改進的一種方式?!憋@然,這種方法讓用戶承擔了發(fā)現(xiàn)錯誤的責任,然而人們往往過于信任計算機產(chǎn)生的回應(yīng)。關(guān)于我提出的抵御提示注入的問題,谷歌表示目前還沒有答案。
對于提示注入,谷歌表示這個問題還沒有一個好的解決方案,仍然是一個活躍的研究領(lǐng)域。該發(fā)言人表示,該公司正在使用垃圾郵件過濾器等其他系統(tǒng)來識別和過濾可能的攻擊,并正在進行對抗性測試和紅隊演練,以確定惡意行為者可能如何攻擊基于語言模型的產(chǎn)品。“我們正在使用經(jīng)過專門訓練的模型,來幫助識別違反我們政策的已知惡意輸入和不安全輸出?!?/p>
每次新產(chǎn)品發(fā)布都會有經(jīng)過一段時間的磨合。但即使是人工智能語言模型產(chǎn)品的早期支持者,對這些產(chǎn)品也沒有什么好印象,這很說明問題?!都~約時報》專欄作家凱文·羅斯發(fā)現(xiàn),谷歌的助理善于總結(jié)電子郵件,但也會告訴他收件箱里不存在的電子郵件。
簡而言之,科技公司不應(yīng)該對所謂的人工智能工具的“必然性”如此自滿。普通人不會喜歡那些經(jīng)常犯錯和失敗的產(chǎn)品,尤其是其背后的技術(shù)總是以令人討厭和不可預(yù)測的方式失效。距離看到黑客惡意使用這些新的人工智能助手只是時間問題?,F(xiàn)在只能坐以待斃。