• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    嚴(yán)重侵權(quán)?斯嘉麗怒斥人工智能仿造她的聲音

    2024-08-03 00:00:00
    海外星云 2024年7期

    2024年5月21日,著名影星斯嘉麗·約翰遜指控OpenAI的ChatGPT非法使用其聲音并要求下架,表示對OpenAI的行為感到“震驚”和“憤怒”。對此,OpenAI回應(yīng)稱,將暫停使用“Sky”模式的聲音,并詳細(xì)介紹了語音選擇的創(chuàng)作流程,強調(diào)所有配音均來自專業(yè)演員。

    此前,OpenAI推出新旗艦?zāi)P虶PT-4o,該模型在保留了之前的五種語音模式的基礎(chǔ)上,大大提升了圖像和音頻理解方面的能力,能夠進(jìn)行實時語音通信,可以識別說話者音調(diào)和背景噪音,甚至可以輸出笑聲、歌唱聲和表達(dá)情感的語氣聲。

    斯嘉麗怒懟ChatGPT語音模式:山寨!

    5月21日,斯嘉麗·約翰遜在社交平臺發(fā)長文指控OpenAI非法使用她的聲音, 要求下架“S k y ”模式。她表示,這種行為不僅侵犯了她的權(quán)利,還引發(fā)了公眾對AI技術(shù)濫用的擔(dān)憂。

    斯嘉麗在其長文中透露, 早在2023年9月,OpenAI曾聯(lián)系她,希望她為ChatGPT的語音模式配音,但因個人原因她拒絕了這個邀請。就在產(chǎn)品發(fā)布會前兩天,OpenAI再次嘗試說服她配音,依舊遭到拒絕。然而,斯嘉麗在最終發(fā)布的產(chǎn)品中發(fā)現(xiàn)“Sky”模式的聲音與她本人非常相似。她表示,自己聽到演示的聲音后,感到震驚、憤怒和難以置信, 無法相信O p e n A I竟會使用一個如此像她的聲音,連她的親密朋友和新聞媒體都分辨不出“Sky”和她本人聲音的差別。

    此外, 斯嘉麗提到,OpenAI首席執(zhí)行官薩姆·阿爾特曼在GPT-4o發(fā)布時,在社交平臺上只發(fā)了一個詞“Her”,不禁讓人聯(lián)想到,斯嘉麗在2013年科幻AI電影《Her》中為“女主角”(人工智能系統(tǒng)OS1)配音的經(jīng)歷,是否在暗示這種相似是故意為之?

    斯嘉麗強調(diào),“在這個我們都在努力應(yīng)對深度偽造,保護(hù)自身形象、作品和身份的時代, 我認(rèn)為這些問題需要得到絕對的明確。我期待通過立法和透明的處理方式來解決這些問題,以確保個人權(quán)利得到保護(hù)?!?/p>

    面對指控,OpenAI迅速做出反應(yīng),宣布暫停使用“Sky”模式的聲音。他們在官網(wǎng)上詳細(xì)介紹了ChatGPT語音模式的創(chuàng)作流程,強調(diào)所有聲音都是從400多名專業(yè)配音演員中挑選出來的,并經(jīng)過嚴(yán)格的審核。

    OpenAI的官方聲明中提到:“我們收到了關(guān)于ChatGPT選取聲音方式的一些質(zhì)疑,尤其是針對‘Sky’。目前,我們正積極采取措施,暫?!甋ky’的使用,以解決這些問題?!?/p>

    GPT-4o::對話式AI的巨大飛躍

    此前,ChatGPT的語音模式包括Breeze、Cove、Ember、Juniper和Sky等5種聲音。這些聲音經(jīng)過精心挑選,以滿足用戶的多樣化需求。每種聲音都擁有獨特的情感和聲音特質(zhì),為用戶提供了更加豐富的交互體驗。

    而最新發(fā)布的GPT-4o版本不僅保留了之前的5種語音模式,還進(jìn)一步提升了語音交互的自然度和情感表達(dá)能力。GPT-4o在語音識別和生成方面進(jìn)行了多項改進(jìn),使得AI助手更加智能和人性化。

    據(jù)介紹, 新模型使Chat GPT能夠處理50種不同的語言,同時提高了速度和質(zhì)量。

    GPT-4o是邁向更自然人機交互的一步,它可以接受文本、音頻和圖像三者組合作為輸入,并生成文本、音頻和圖像的任意組合輸出,與現(xiàn)有模型相比,GPT-4o在圖像和音頻理解方面大有改進(jìn)。

    在GPT-4o之前, 用戶使用語音模式與ChatGPT對話時,GPT-3.5的平均延遲為2.8秒,GPT-4為5.4秒,音頻在輸入時還會由于處理方式丟失大量信息,使得GPT-4無法直接識別說話者音調(diào)和背景噪音,也無法輸出笑聲、歌唱聲和表達(dá)情感的語氣聲。

    與之相比,GPT-4o可以在232毫秒內(nèi)對音頻輸入做出反應(yīng),與人類在對話中的反應(yīng)時間相近。在錄播視頻中,兩位高管做出了演示:機器人能夠從急促的喘氣聲中理解“緊張”的含義,并且指導(dǎo)他進(jìn)行深呼吸,還可以根據(jù)用戶要求變換語調(diào)。

    OpenAI稱,“我們跨文本、視覺和音頻端到端地訓(xùn)練了一個新模型,這意味著所有輸入和輸出都由同一神經(jīng)網(wǎng)絡(luò)處理。由于GPT-4o是我們第一個結(jié)合所有這些模式的模型,因此我們只是淺嘗輒止地探索該模型的功能,還存在較大局限性?!?(綜合整理報道)(策劃/李嘉婧)

    镇安县| 浦江县| 岚皋县| 富宁县| 漯河市| 延安市| 张家港市| 冀州市| 丘北县| 从化市| 双牌县| 延安市| 舞阳县| 资阳市| 营口市| 荔浦县| 科技| 遂平县| 隆回县| 林芝县| 柳河县| 甘谷县| 吉木萨尔县| 昂仁县| 保亭| 碌曲县| 青河县| 衡山县| 英德市| 西华县| 沙湾县| 固阳县| 乐都县| 阳西县| 嘉祥县| 阿坝| 津南区| 湘潭县| 石台县| 阿合奇县| 班戈县|