• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    OpenAI將給ChatGPT加?幫助?們辨別哪些是??智能?成?本

    2023-12-29 00:00:00
    海外星云 2023年2期

    這句話是人工智能寫的嗎?OpenAI的新聊天機器人ChatGPT引發(fā)了公眾對一個關(guān)鍵問題的討論:我們?nèi)绾沃谰W(wǎng)上的內(nèi)容是人寫的,還是人工智能寫的?

    自2022年11月發(fā)布以來,已有超過一百萬人使用過ChatGPT。它讓人工智能社區(qū)著迷,而且很顯然,人工智能生成的文本正在網(wǎng)絡(luò)上肆意傳播。人們用它來編笑話、寫故事和起草更好的電子郵件。

    ChatGPT是OpenAI的大型語言模型GPT-3的衍生產(chǎn)品。針對用戶提出的問題,該模型可以生成看起來很像是人類做出的回答。

    這些大型語言模型的魔力在于,它們的回答看起來非常真實。但因為人們難以分辨,由此引發(fā)的正確性錯覺也可能帶來危險。

    人工智能模型寫出的句子看起來是正確的,它們以正確的順序使用了正確的詞匯和語法,但人工智能理解不了它們的含義。

    這些模型通過預(yù)測句子中最有可能出現(xiàn)的下一個詞來工作,所以他們并不知道自己說的是對還是錯。即使說的是錯的,他們也會用“言之鑿鑿”的語氣表述出來。

    在一個已經(jīng)兩極分化、充滿政治色彩的網(wǎng)絡(luò)世界中,這些人工智能工具可能會進一步扭曲我們獲取的信息。如果他們被某些產(chǎn)品采用并風(fēng)靡世界,后果可能是毀滅性的。

    人工智能初創(chuàng)公司HuggingFace的政策總監(jiān)艾琳·索萊曼表示,我們迫切需要能夠區(qū)分人類和人工智能編寫的文本的方法,以應(yīng)對潛在的技術(shù)濫用。

    索萊曼曾是OpenAI的人工智能研究員,為GPT-3的前身GPT-2的發(fā)布研究了人工智能模型的輸出檢測。

    找到識別人工智能生成代碼的方法也至關(guān)重要,例如程序員常用的StackOverflow最近宣布暫時禁止發(fā)布由ChatGPT生成的回答。

    ChatGPT可以自信地生成編程問題的答案,但它并非完全準(zhǔn)確。錯誤的代碼會導(dǎo)致軟件錯誤,在許多領(lǐng)域,一個錯誤可能帶來高昂的代價并造成混亂。

    StackOverflow發(fā)言人表示,該公司的審核員正在“使用PjVlwDIaBgYLft6IcML4uA==包括啟發(fā)式和檢測模型在內(nèi)的多種工具,檢查數(shù)千份由社區(qū)成員提交的報告”,但不會透露更多細節(jié)。

    實際上,實現(xiàn)這一目標(biāo)非常困難,完全禁止人工智能的回答幾乎是不可能的。

    研究人員嘗試了多種方法來檢測人工智能生成的文本。一種常見的方法是使用軟件來分析文本的不同特征——例如閱讀的流暢程度、某些單詞出現(xiàn)的頻率,或者標(biāo)點符號、句子長度是否有規(guī)律。

    “如果你有足夠多的文本,一個非常簡單的線索就是‘the’這個詞過于頻繁的出現(xiàn),”谷歌大腦的高級研究科學(xué)家達芙妮·伊波利托解釋說。

    由于大型語言模型通過預(yù)測句子中的下一個詞來工作,因此它們更有可能使用“the”“it”或“is”等常見詞,而不是不可靠的罕見詞。

    伊波利托和谷歌研究人員在2019年發(fā)表的論文中發(fā)現(xiàn),這正是自動檢測系統(tǒng)擅長識別的文本類型。

    但伊波利托的研究也顯示了一些有趣的東西:人類參與者傾向于認(rèn)為,這種“干凈”的文本看起來更好,錯誤更少,因此它更像是人類寫的。

    實際上,人類撰寫的文本通常會有拼寫錯誤,并且變化多端,包含不同的風(fēng)格和俚語,而“語言模型很少出現(xiàn)拼寫錯誤,他們更擅長生成完美的文本,”伊波利托說。

    “文本中的錯別字實際上是一個很好的指標(biāo),表明它是人寫的,”她補充道。

    大型語言模型本身也可用于檢測人工智能生成的文本。不列顛哥倫比亞大學(xué)的自然語言處理和機器學(xué)習(xí)研究主席穆罕默德·阿卜杜勒-馬吉德說,最成功的方法之一是在一些由人類編寫的文本和一些由機器創(chuàng)建的文本上重新訓(xùn)練模型,使它學(xué)會區(qū)分兩者。

    與此同時,德克薩斯大學(xué)的計算機科學(xué)家斯科特·阿倫森一直在為GPT-3等模型生成的較長文本開發(fā)“水印”機制。他在博客中寫道,通過在詞匯選擇上加入“不引人注意的秘密信號”,人們就可以證明這段文字是GPT模型生成的。

    OpenAI發(fā)言人證實,該公司正在研究水印,并且表示其政策規(guī)定用戶應(yīng)該“以一種任何人都不會合理地漏看或誤解的方式”清楚地指出哪些是人工智能生成的文本。

    但這些技術(shù)修復(fù)努力也存在一些問題。他們大多尚未有機會對抗最新一代的人工智能語言模型,因為它們是建立在GPT-2或其他早期模型之上的。

    當(dāng)有大量文本可供檢測時,許多檢測工具的效果不錯;但它們在某些具體場景的表現(xiàn)較差,例如聊天機器人或電子郵件助理,因為這些場景只有較短的對話,無法提供更多的數(shù)據(jù)用來分析。

    阿卜杜勒-馬吉德還指出,使用大型語言模型進行檢測還需要強大的計算機,以及訪問人工智能模型本身,科技公司通常不會允許這樣做。

    索萊曼表示,模型越大、性能越強大,就越難構(gòu)建對應(yīng)的人工智能模型來檢測哪些文本是人寫的,哪些不是。

    現(xiàn)在最令人擔(dān)憂的是,ChatGPT的輸出質(zhì)量非常令人印象深刻。檢測模型難以企及,只能在后面一直追趕,”她說。

    索萊曼說,檢測人工智能編寫的文本沒有一個100%準(zhǔn)確的方法。“檢測模型不會成為合成文本的過關(guān)測試,就像安全過濾器不是減輕偏見的唯一手段,”她說。

    為了有機會解決這個問題,我們需要改進技術(shù)修復(fù)手段并提高人類與人工智能交互時的透明度,人們還要學(xué)會如何識別藏在人工智能創(chuàng)造的文本中的痕跡。

    伊波利托說:“如果有一個Chrome或其他網(wǎng)絡(luò)瀏覽器的插件,或許可以通過它讓你知道網(wǎng)頁上的任何文本是否是機器生成的。這將是一件非常好的事情?!?/p>

    一些人已經(jīng)在努力。哈佛大學(xué)和IBM的研究人員開發(fā)了一種名為“大語言模型測試屋GiantLanguageModelTestRoom(GLTR)”的工具,它通過高亮顯示可能由人工智能生成的文字段落來幫助人們注意哪里有問題。

    但是人工智能已經(jīng)可以將普通人玩弄于股掌之間了。康奈爾大學(xué)的研究人員發(fā)現(xiàn),在66%的情況下,人們認(rèn)為GPT-2生成的假新聞文章是可信的。

    另一項研究發(fā)現(xiàn),未經(jīng)訓(xùn)練的人識別GPT-3生成文本的準(zhǔn)確率低得就像隨機選擇的差不多。

    伊波利托說,好消息是人們可以接受訓(xùn)練,以更好地識別人工智能生成的文本。她開發(fā)了一個游戲來測試在用戶意識到之前人工智能模型可以生成多少句子。她發(fā)現(xiàn)隨著時間的推移,人們會逐漸做得更好。

    “如果你查看大量生成文本,并試圖找出其中沒有意義的地方,你就可以更好地完成這項任務(wù),”她說。一種方法是發(fā)現(xiàn)那些難以置信的表述,比如人工智能會說煮一杯咖啡需要60分鐘。

    ChatGPT的前身GPT-3在2020年才問世。OpenAI表示ChatGPT只是一個演示,但開發(fā)類似功能強大的模型,并將其應(yīng)用到用于客服聊天機器人等產(chǎn)品中,只是時間問題。

    這就是問題的癥結(jié)所在:該領(lǐng)域的飛速發(fā)展意味著,識別人工智能生成文本的許多方法都會很快過時。

    河北区| 绥江县| 富裕县| 金门县| 阿合奇县| 巴里| 濉溪县| 吴忠市| 婺源县| 武功县| 海伦市| 葵青区| 天长市| 都江堰市| 潞城市| 华安县| 黑龙江省| 保康县| 樟树市| 连州市| 临澧县| 冕宁县| 黎城县| 海伦市| 中江县| 越西县| 德江县| 昭觉县| 夏河县| 都兰县| 新宾| 秦安县| 昆明市| 黑水县| 临武县| 三台县| 独山县| 即墨市| 万荣县| 阿坝县| 筠连县|