偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

阿里開源R1-Omni,DeepSeek同款RLVR首度結(jié)合全模態(tài)情感識(shí)別,網(wǎng)友:可解釋性+多模態(tài)學(xué)習(xí)=下一代AI

人工智能 新聞
薄列峰團(tuán)隊(duì)首次將RLVR與全模態(tài)LLM結(jié)合,聚焦的是視覺和音頻模態(tài)都提供關(guān)鍵作用的情感識(shí)別任務(wù)。

首次將DeepSeek同款RLVR應(yīng)用于全模態(tài)LLM,含視頻的那種!

眼睛一閉一睜,阿里通義實(shí)驗(yàn)室薄列峰團(tuán)隊(duì)又開卷了,哦是開源,R1-Omni來(lái)了。

同樣在杭州,這是在搞什么「開源雙feng」(狗頭保命)

圖片

他們都做了啥?

DeepSeek-R1帶火了RLVR(可驗(yàn)證獎(jiǎng)勵(lì)強(qiáng)化學(xué)習(xí)),之前已有團(tuán)隊(duì)將RLVR應(yīng)用于圖像-文本多模態(tài)LLM,證明其在幾何推理和視覺計(jì)數(shù)等任務(wù)上表現(xiàn)優(yōu)異。

然鵝,尚未探索將其與包含音頻、動(dòng)態(tài)視覺內(nèi)容的全模態(tài)LLM結(jié)合。

薄列峰團(tuán)隊(duì)首次將RLVR與全模態(tài)LLM結(jié)合,聚焦的是視覺和音頻模態(tài)都提供關(guān)鍵作用的情感識(shí)別任務(wù)。

團(tuán)隊(duì)實(shí)驗(yàn)發(fā)現(xiàn),模型在三個(gè)關(guān)鍵方面有顯著提升:

RLVR的引入不僅提高了模型在分布內(nèi)數(shù)據(jù)上的整體性能,而且在分布外數(shù)據(jù)集上也展現(xiàn)出了更強(qiáng)的魯棒性。

更重要的是,提升后的推理能力使得能夠清晰分析在情感識(shí)別過程中不同模態(tài)所起的作用。

圖片

R1-Omni在X上也吸引了不少網(wǎng)友關(guān)注:

非常有趣的論文,我立刻就能預(yù)見到它在市場(chǎng)營(yíng)銷和廣告領(lǐng)域進(jìn)行情感傾向分析的潛力。

圖片

還有網(wǎng)友表示可解釋性+多模態(tài)學(xué)習(xí)就是下一代AI的方向。

圖片

一起具體來(lái)看R1-Omni。

圖片

R1-Omni長(zhǎng)啥樣?

在研究方法上,論文首先介紹了DeepSeek同款RLVR和GRPO。

RLVR是一種新的訓(xùn)練范式,其核心思想是利用驗(yàn)證函數(shù)直接評(píng)估輸出,無(wú)需像傳統(tǒng)的人類反饋強(qiáng)化學(xué)習(xí)(RLHF)那樣依賴根據(jù)人類偏好訓(xùn)練的單獨(dú)獎(jiǎng)勵(lì)模型。

給定輸入問題q,策略模型πθ生成響應(yīng)o,接著使用可驗(yàn)證獎(jiǎng)勵(lì)函數(shù)R(q,o)對(duì)其進(jìn)行評(píng)估,其優(yōu)化目標(biāo)為最大化驗(yàn)證獎(jiǎng)勵(lì)減去基于KL散度正則化項(xiàng)的結(jié)果。

圖片

RLVR在簡(jiǎn)化了獎(jiǎng)勵(lì)機(jī)制的同時(shí),確保了其與任務(wù)內(nèi)在的正確性標(biāo)準(zhǔn)保持一致。

GRPO是一種全新的強(qiáng)化學(xué)習(xí)方法,它與PPO等傳統(tǒng)方法有所不同,PPO依賴于一個(gè)評(píng)論家模型來(lái)評(píng)估候選策略的性能,而GRPO直接比較生成的響應(yīng)組,避免了使用額外的評(píng)論家模型,簡(jiǎn)化了訓(xùn)練過程。

利用歸一化評(píng)分機(jī)制,GRPO鼓勵(lì)模型在組內(nèi)優(yōu)先選擇獎(jiǎng)勵(lì)值更高的響應(yīng),增強(qiáng)了模型有效區(qū)分高質(zhì)量和低質(zhì)量輸出的能力。

圖片

遵循DeepSeek-R1中提出的方法,團(tuán)隊(duì)將GRPO與RLVR相結(jié)合

R1-Omni模型構(gòu)建方面,團(tuán)隊(duì)采用了一種受DeepSeek-R1訓(xùn)練方法啟發(fā)的冷啟動(dòng)策略

在包含232個(gè)可解釋多模態(tài)(視覺和音頻)情感推理數(shù)據(jù)集(EMER)樣本和348個(gè)手動(dòng)標(biāo)注的HumanOmni數(shù)據(jù)集樣本的組合數(shù)據(jù)集上對(duì)HumanOmni-0.5B(一個(gè)專為人為場(chǎng)景理解設(shè)計(jì)的開源全模態(tài)模型)進(jìn)行微調(diào),使模型具備初步推理能力,了解視覺和音頻線索是如何對(duì)情感識(shí)別產(chǎn)生作用的。

之后,通過RLVR訓(xùn)練優(yōu)化模型,獎(jiǎng)勵(lì)函數(shù)由準(zhǔn)確率獎(jiǎng)勵(lì)和格式獎(jiǎng)勵(lì)組成,準(zhǔn)確性獎(jiǎng)勵(lì)評(píng)估預(yù)測(cè)情感與真實(shí)情感的匹配度,格式獎(jiǎng)勵(lì)確保模型輸出符合指定的HTML標(biāo)簽格式。

圖片
圖片

模型輸出預(yù)期包含兩部分:一個(gè)推理過程,封裝在"<think></think>"標(biāo)簽內(nèi),解釋模型如何整合視覺和音頻線索得出預(yù)測(cè);一個(gè)最終情感標(biāo)簽,封裝在"<answer></answer>"標(biāo)簽內(nèi),表示預(yù)測(cè)的情感。

推理/理解/泛化三方面提升

實(shí)驗(yàn)評(píng)估中,研究者將R1-Omni與三個(gè)基線模型進(jìn)行比較:原始的HumanOmni-0.5B、在EMER數(shù)據(jù)集上進(jìn)行監(jiān)督微調(diào)的模型EMER-SFT、直接在MAFW和DFEW訓(xùn)練集上基于HumanOmni-0.5B進(jìn)行監(jiān)督微調(diào)的模型MAFW-DFEW-SFT。

評(píng)估指標(biāo)包括無(wú)加權(quán)平均召回率(UAR)和加權(quán)平均召回率(WAR),這些指標(biāo)衡量模型在不同情感類別中準(zhǔn)確分類情感的能力。

重要的是,所有評(píng)估都在開放詞匯情感測(cè)試(OV-emotion)協(xié)議下進(jìn)行。在這種設(shè)置中,模型不提供預(yù)定義的情感類別,而是直接從輸入數(shù)據(jù)中生成情感標(biāo)簽,這增加了評(píng)估的挑戰(zhàn)性和實(shí)際應(yīng)用價(jià)值。

實(shí)驗(yàn)結(jié)果表明,R1-Omni在三個(gè)關(guān)鍵方面優(yōu)于三個(gè)對(duì)比模型:推理能力增強(qiáng)、理解能力提高、泛化能力更強(qiáng)。

研究者展示了一系列可視化示例,比較R1-Omni與其它三個(gè)模型的輸出,R1-Omni提供了更連貫、準(zhǔn)確和可解釋的推理過程。

相比之下原始HumanOmni-0.5B和MAFW-DFEW-SFT模型表現(xiàn)出有限的推理能力,而EMER-SFT雖具備一定推理能力但推理過程連貫性較差且容易產(chǎn)生幻覺。

圖片

在MAFW和DFEW數(shù)據(jù)集上,R1-Omni在UAR和WAR指標(biāo)上均優(yōu)于其它模型。

例如在DFEW數(shù)據(jù)集上,R1-Omni實(shí)現(xiàn)了65.83%的UAR和56.27%的WAR,明顯優(yōu)于MAFW-DFEW-SFT的60.23%UAR和44.39%WAR。

圖片

為了評(píng)估模型的泛化能力,研究者在RAVDESS數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),該數(shù)據(jù)集作為分布外(OOD)測(cè)試集。

與主要由電影片段組成的MAFW和DFEW數(shù)據(jù)集不同,RAVDESS數(shù)據(jù)集特點(diǎn)是專業(yè)演員以中性北美口音發(fā)表詞匯匹配的陳述,這種數(shù)據(jù)分布的顯著差異使RAVDESS成為評(píng)估模型泛化到未見場(chǎng)景能力的理想基準(zhǔn)。

R1-Omni在RAVDESS數(shù)據(jù)集上相較于MAFW-DFEW-SFT模型有顯著提升,實(shí)現(xiàn)了43.00%的UAR和44.69%的 WAR。

圖片

目前,基礎(chǔ)模型HumanOmni-0.5B、冷啟動(dòng)模型EMER-SFT,還有MAFW-DFEW-SFT以及最終模型R1-Omni已全部開源。

圖片

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2025-03-12 13:09:16

2025-06-09 08:42:23

2023-03-07 16:48:54

算法可解釋性

2013-07-27 21:28:44

2025-06-04 08:42:00

2025-03-10 08:34:39

2021-05-22 23:01:21

人工智能網(wǎng)絡(luò)安全

2022-07-06 11:38:40

人工智能AI

2024-08-26 09:00:00

2024-02-07 09:00:00

2019-08-29 18:07:51

機(jī)器學(xué)習(xí)人工智能

2013-06-27 11:21:17

2024-12-16 07:30:00

2025-02-17 08:32:21

2025-03-27 10:04:36

阿里云通義千問多模態(tài)

2025-03-25 10:54:08

2024-05-28 08:00:00

人工智能機(jī)器學(xué)習(xí)

2012-05-17 14:21:45

IPv6

2025-01-03 09:24:10

模型架構(gòu)論文

2020-09-16 10:28:54

邊緣計(jì)算云計(jì)算數(shù)據(jù)中心
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)