偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

GPT-5史詩(shī)級(jí)更新之前,OpenAI的“新東西”來了,曝定價(jià)百萬字符15美元,語音克隆引擎讓老外說“有口音的”中文

原創(chuàng) 精選
人工智能
今天,OpenAI語音引擎首次亮相,效果的確驚艷!更重要的是它的合成效率之高——只需要用戶上傳任何 15 秒的語音樣本,就能生成該語音的合成副本。

撰稿 | 伊風(fēng)

出品 | 51CTO技術(shù)棧(微信號(hào):blog51cto)

OpenAI的新動(dòng)作來了!此前Altman在采訪中透露,在GPT-5史詩(shī)級(jí)的升級(jí)發(fā)布之前,OpenAI將在未來幾個(gè)月發(fā)布許多“很酷的新東西”。

今天,OpenAI語音引擎首次亮相,效果的確驚艷!更重要的是它的合成效率之高——只需要用戶上傳任何 15 秒的語音樣本,就能生成該語音的合成副本。

產(chǎn)品負(fù)責(zé)人哈里斯說,為語音引擎提供支持的生成式人工智能模型已經(jīng)隱藏在人們的視線中一段時(shí)間了。OpenAI的新動(dòng)作勢(shì)必讓語音克隆技術(shù)殺回我們的視野。

雖然算是突發(fā)新聞。但此次更新也是有端倪可循的。一周之前,X上的科技博主@Smoke-away 就發(fā)現(xiàn)OpenAI悄悄地注冊(cè)了VOICE ENGINE商標(biāo)。

圖片圖片

此前,網(wǎng)友也發(fā)現(xiàn)過OpenAI新的網(wǎng)站Feather(意為羽毛,詳細(xì)新聞見鏈接),但這個(gè)神秘項(xiàng)目卻遲遲沒有下文。

不過這一次, OpenAI這次的動(dòng)作確實(shí)夠快的!

一、語音引擎要做什么?

OpenAI在其介紹頁(yè)展示了幾個(gè)令人印象深刻的案例。語音引擎的音色克隆效果自然、流暢,在不同語種之間切換時(shí)非常真實(shí)的保留了音色的特點(diǎn),大家可以通過聽合成的中文音頻來更深地體會(huì)語音引擎的優(yōu)秀(手動(dòng)狗頭)。

1.教育場(chǎng)景-幫助視覺受損者和兒童閱讀

通過語音引擎的合成,能生成了比傳統(tǒng)預(yù)設(shè)聲音更為豐富和多樣的聲音,從而提升需要幫助者的閱讀體驗(yàn)。

通過字幕學(xué)習(xí)西班牙語通過字幕學(xué)習(xí)西班牙語

2.翻譯場(chǎng)景-讓聲音無障礙的流向世界

制作的博客等聲音內(nèi)容,可以翻譯成多種語音進(jìn)行傳播。值得一提的是,用于翻譯時(shí),語音引擎會(huì)保留原說話者的母語口音:用英語說話者的音頻樣本生成中文,就會(huì)產(chǎn)生帶有英語口音的語音,主打一個(gè)真實(shí)。

3.為偏遠(yuǎn)地區(qū)提供服務(wù)

科技可以幫助我們與少數(shù)語音者進(jìn)行無障礙溝通。例如案例中使用了語音引擎和 GPT-4 以每位工作人員的主要語言(包括斯瓦希里語或更非正式的語言)進(jìn)行互動(dòng)反饋。

生成的少數(shù)語種音頻,51CTO技術(shù)棧,15秒

4.讓失語者“發(fā)聲”

語音引擎還設(shè)想為不會(huì)說話的人提供幫助。用戶可以選擇最能代表自己的語音,與他們進(jìn)行交流。語音引擎還保證對(duì)多語種用戶來說,每種口語都能保持一致的語音。讓那些從未開口的人擁有一種音色,這就是科技的浪漫所在吧。

二、語音引擎的背后技術(shù)

1.模型訓(xùn)練——不能告知的訓(xùn)練數(shù)據(jù)

在接受外媒采訪時(shí),被問到模型訓(xùn)練數(shù)據(jù)的來源,OpenAI產(chǎn)品人員哈里斯變得非常謹(jǐn)慎。他表示,這些數(shù)據(jù)基于授權(quán)信息和公開信息。

由于訓(xùn)練數(shù)據(jù)通常涉及大量語音錄音,且往往被視為商業(yè)秘密,關(guān)于訓(xùn)練數(shù)據(jù)和過程的具體細(xì)節(jié)往往保密。然而,這也導(dǎo)致了許多知識(shí)產(chǎn)權(quán)糾紛,例如紐約時(shí)報(bào)就曾對(duì)OpenAI提起訴訟。

隨著技術(shù)的成熟,使用侵權(quán)素材訓(xùn)練模型的情況正在改善。OpenAI也已與國(guó)外Shutterstock、Axel Springer等內(nèi)容提供商簽訂協(xié)議,并提供了阻止網(wǎng)絡(luò)爬蟲的選項(xiàng),允許藝術(shù)家從其圖像生成模型的數(shù)據(jù)集中撤回作品。

但現(xiàn)階段,當(dāng)科技高管們被問到這個(gè)問題,也許只能選擇像OpenAI CTO Mira那樣,做個(gè)“沉默的大多數(shù)”。

2.合成聲音——無需微調(diào)的技術(shù)設(shè)計(jì)

令人驚訝的是,語音引擎并未進(jìn)行微調(diào)。這在一定程度上得益于語音引擎獨(dú)特的模型設(shè)計(jì)——通過擴(kuò)散模型來即時(shí)生成語音。

哈里斯說:“我們采用少量音頻樣本和文本,生成與原始說話者相匹配的真實(shí)語音?!?“請(qǐng)求完成后,所使用的音頻將被刪除。”

該模型通過分析語音數(shù)據(jù)和待朗讀的文本,直接生成匹配的語音輸出,無需為每個(gè)用戶構(gòu)建個(gè)性化模型。盡管語音克隆技術(shù)在業(yè)界已非新鮮事物,但OpenAI聲稱其方法能夠提供更高質(zhì)量的語音體驗(yàn)。

TechCrunch 稱在OpenAI的營(yíng)銷文件(現(xiàn)在已經(jīng)刪除)中,Voice Engine 的定價(jià)為每百萬字符(約 162,500 個(gè)單詞)15 美元。這意味著大約 18 小時(shí)的音頻,使得價(jià)格略高于每小時(shí) 1 美元。這確實(shí)比更受歡迎的競(jìng)爭(zhēng)對(duì)手之一 ElevenLabs 的收費(fèi)便宜——每月 100,000 個(gè)字符 11 美元。

但OpenAI的語音引擎目前還沒有提供能調(diào)整語音細(xì)節(jié)的選項(xiàng),如果初始聲音是興奮的或沮喪的,接下來合成的所有聲音都只能保持這個(gè)情緒。

三、AI克隆技術(shù)是敵是友?

盡管OpenAI 讓我們看到了語音克隆為“人類謀福利”的可行性,但隨著 Deepfakes 的激增,相關(guān)技術(shù)是否能一直被負(fù)責(zé)任的使用或許還要打個(gè)問號(hào)。

此前,美國(guó)科技媒體The Verge曾報(bào)道過一次語音合成的詐騙案件。網(wǎng)絡(luò)詐騙犯利用Deepfake仿制公司高管的語音,合成語音郵件發(fā)送至公司員工,對(duì)大型公司進(jìn)行經(jīng)濟(jì)詐騙。國(guó)內(nèi)也曾有過類似事件的報(bào)道。

當(dāng)前的合成語音雖然逼真,但仍然有技術(shù)上的漏洞。美國(guó)安全咨詢公司NISOS使用頻譜工具對(duì)案件中Deepfake音頻進(jìn)行了分析,發(fā)現(xiàn)這段Deepfake語音的頻譜圖有峰值反復(fù)出現(xiàn)且音頻不連貫。

相較于合成音頻,真實(shí)人聲的音高與音調(diào)都更為平滑。此外,放大合成音頻的音量時(shí),無法監(jiān)測(cè)到該錄音的背景噪音,這進(jìn)一步表明這段音頻是經(jīng)過人為處理的。

然而,誰能保證隨著技術(shù)的發(fā)展,Deepfake不會(huì)走向更深處呢?

當(dāng)前,OpenAI尚并未開放語音引擎的訪問權(quán)限。而是由紅隊(duì)的專家對(duì)其風(fēng)險(xiǎn)進(jìn)行評(píng)估,并提出必要措施和減弱風(fēng)險(xiǎn)的策略,以阻止惡意使用。

哈里斯說,“我們不希望人們混淆合成聲音和真實(shí)的人類聲音?!?/p>

參考鏈接:

1.https://openai.com/blog/navigating-the-challenges-and-opportunities-of-synthetic-voices

2.https://techcrunch.com/2024/03/29/openai-custom-voice-engine-preview/

3.https://www.thepaper.cn/newsDetail_forward_8488082

責(zé)任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2015-06-29 13:59:09

Linux新東西

2023-09-07 13:33:00

開發(fā)者大會(huì)

2024-01-18 12:30:03

2013-04-08 09:24:31

FacebookFacebook Ho

2022-05-26 09:29:20

微軟Edge瀏覽器

2023-06-08 07:58:29

2025-02-13 08:56:12

2014-08-15 09:17:22

Linux內(nèi)核

2025-02-10 01:00:00

OpenAIGPT-5GPT-4.5

2025-02-13 10:52:56

2024-05-14 09:43:55

AltmanOpenAIGPT-5

2024-04-09 09:38:16

OpenAI模型

2025-05-13 09:02:23

2009-03-23 08:36:02

Iphone蘋果移動(dòng)OS

2023-09-19 12:45:36

2023-08-08 12:51:55

AI技術(shù)

2024-12-24 14:30:00

模型AI訓(xùn)練

2025-01-20 07:30:00

OpenAIGPT-5模型

2025-02-20 11:20:41

2023-04-13 13:38:59

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)