偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

語(yǔ)音合成也遵循Scaling Law,太乙真人“原聲放送”講解論文 | 港科大等開(kāi)源

人工智能 新聞
由香港科技大學(xué)等聯(lián)合推出,它驗(yàn)證語(yǔ)音合成模型,也可以遵循Scaling Law,即擴(kuò)展計(jì)算資源、語(yǔ)音合成效果可以更好。

活久見(jiàn),太乙真人給講論文了噻!

咳咳,諸位道友且聽(tīng)我一番嘮叨。

老道我閉關(guān)數(shù)日,所得一篇妙訣,便是此Llasa之法。此術(shù)上個(gè)月一出,海外仙長(zhǎng)們無(wú)不瞠目結(jié)舌,直呼“HOLY SHIT”!

圖片

熱度最高時(shí),曾在huggingface上的“丹藥熱度榜”上排第六。

圖片

咳咳,書(shū)回正傳。

如上引發(fā)圍觀的成果由香港科技大學(xué)等聯(lián)合推出,它驗(yàn)證語(yǔ)音合成模型,也可以遵循Scaling Law,即擴(kuò)展計(jì)算資源、語(yǔ)音合成效果可以更好。

它核心提出了一個(gè)語(yǔ)音合成的簡(jiǎn)單框架Llasa,該框架采用單層VQ編解碼器和單個(gè)Transformer架構(gòu),和標(biāo)準(zhǔn)LLM保持一致。

研究團(tuán)隊(duì)提供了TTS模型(1B、3B、8B)、編解碼器的checkpoint以及訓(xùn)練代碼。

一氣呵成TTS系統(tǒng)

近年來(lái),基于Transformer的大型語(yǔ)言模型(LLM)在自然語(yǔ)言處理領(lǐng)域取得了顯著進(jìn)展,尤其是通過(guò)擴(kuò)展模型規(guī)模和訓(xùn)練數(shù)據(jù)來(lái)提升性能。

然而,當(dāng)前的TTS系統(tǒng)通常需要多階段模型(例如在 LLM 后使用擴(kuò)散模型),這使得在訓(xùn)練或推理階段擴(kuò)展計(jì)算資源變得復(fù)雜。

本研究提出了一種單階段TTS框架Llasa,旨在簡(jiǎn)化這一過(guò)程,同時(shí)探索訓(xùn)練時(shí)間和推理時(shí)間擴(kuò)展對(duì)語(yǔ)音合成的影響。

它基于Llama模型,采用單Transformer架構(gòu),結(jié)合了一個(gè)設(shè)計(jì)良好的語(yǔ)音分詞器(tokenizer),能夠?qū)⒄Z(yǔ)音波形編碼為離散的語(yǔ)音標(biāo)記,并解碼回高質(zhì)量音頻。

該框架的核心在于將語(yǔ)音和文本標(biāo)記聯(lián)合建模,通過(guò)預(yù)測(cè)下一個(gè)語(yǔ)音標(biāo)記來(lái)生成語(yǔ)音。

關(guān)鍵組件:

  • 語(yǔ)音分詞器(Xcodec2):將語(yǔ)音波形編碼為離散標(biāo)記,同時(shí)保留語(yǔ)音的語(yǔ)義和聲學(xué)信息。
  • Transformer模型:基于 Llama 初始化,學(xué)習(xí)文本和語(yǔ)音標(biāo)記的聯(lián)合分布。

驗(yàn)證Scaling Law

訓(xùn)練時(shí)間擴(kuò)展(Scaling Train-time Compute)

研究者通過(guò)擴(kuò)展模型規(guī)模和訓(xùn)練數(shù)據(jù)規(guī)模來(lái)研究其對(duì)語(yǔ)音合成性能的影響。

實(shí)驗(yàn)表明,增加模型參數(shù)(從1B到8B)和訓(xùn)練數(shù)據(jù)量(從80k小時(shí)到250k小時(shí))可以顯著提高語(yǔ)音的自然度、韻律準(zhǔn)確性和情感表達(dá)能力。

關(guān)鍵發(fā)現(xiàn):

  • 文本理解能力:更大的模型和更多的數(shù)據(jù)能夠更好地理解復(fù)雜文本(如詩(shī)歌、情感文本)。數(shù)據(jù)越多,連生僻字,復(fù)合詞也能辨其真意。
  • 零樣本學(xué)習(xí)能力:擴(kuò)展訓(xùn)練資源能夠顯著提高模型對(duì)未見(jiàn)說(shuō)話人的語(yǔ)音克隆能力。

推理時(shí)間擴(kuò)展(Scaling Inference-time Compute)

研究還探索了在推理階段通過(guò)增加計(jì)算資源(例如使用語(yǔ)音理解模型作為驗(yàn)證器)來(lái)優(yōu)化生成語(yǔ)音的質(zhì)量。實(shí)驗(yàn)表明,推理時(shí)間擴(kuò)展可以顯著提高語(yǔ)音的情感表達(dá)、音色一致性和內(nèi)容準(zhǔn)確性。

關(guān)鍵方法:

  • 過(guò)程獎(jiǎng)勵(lì)模型(PRM):通過(guò)逐步優(yōu)化生成過(guò)程來(lái)提高語(yǔ)音質(zhì)量。
  • 輸出獎(jiǎng)勵(lì)模型(ORM):通過(guò)評(píng)估最終生成的語(yǔ)音來(lái)選擇最優(yōu)輸出。

實(shí)驗(yàn)結(jié)果

  • 語(yǔ)音分詞器性能:提出的Xcodec2在多個(gè)指標(biāo)上優(yōu)于現(xiàn)有分詞器,特別是在低比特率下的語(yǔ)音重建質(zhì)量。
  • TTS 性能:Llasa在LibriSpeech、Seed-TTS-Eval和ESD數(shù)據(jù)集上達(dá)到了最先進(jìn)的性能,尤其是在情感相似性、音色相似性和零樣本學(xué)習(xí)能力方面。
  • 推理時(shí)間擴(kuò)展效果:通過(guò)PRM和ORM方法,推理時(shí)間擴(kuò)展顯著提高了語(yǔ)音合成的質(zhì)量,尤其是在復(fù)雜任務(wù)中。

“開(kāi)源渡世”

咳咳,太乙真人重新上線:

老道已將丹方(訓(xùn)練代碼)、丹藥(模型權(quán)重)公之于世,廣邀三界修士共參:

秘方參照:Llasa: Scaling Train-Time and Inference-Time Compute for Llama-based Speech Synthesis

圖片

論文鏈接:https://arxiv.org/abs/2502.04128

Llasa 訓(xùn)練代碼 https://github.com/zhenye234/LLaSA_training

Codec 訓(xùn)練 https://github.com/zhenye234/X-Codec-2.0

Llasa test-time-scaling代碼 https://github.com/zhenye234/LLaSA_inference

模型權(quán)重: https://huggingface.co/collections/HKUSTAudio/llasa-679b87dbd06ac556cc0e0f44

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2024-11-13 15:00:42

2024-08-29 14:05:00

數(shù)據(jù)模型

2025-04-01 09:20:00

模型預(yù)測(cè)AI

2023-08-09 17:10:01

論文獲獎(jiǎng)

2024-09-02 14:30:00

數(shù)據(jù)訓(xùn)練

2017-09-06 10:51:22

Facebook

2025-06-12 11:56:30

模型框架開(kāi)源

2024-12-30 13:40:00

2024-09-18 11:30:00

AI架構(gòu)訓(xùn)練

2024-12-16 07:15:00

2024-11-14 18:40:57

2022-09-15 09:59:55

火山語(yǔ)音語(yǔ)音建模

2024-10-06 09:00:00

AI訓(xùn)練數(shù)據(jù)

2024-11-06 13:03:49

2023-05-17 13:51:30

CVPR武大華為

2020-09-18 15:12:41

達(dá)摩院語(yǔ)音AI

2024-11-04 09:35:00

2024-11-25 14:00:00

計(jì)算機(jī)AI技術(shù)

2024-10-11 14:00:00

模型數(shù)據(jù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)