偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

視覺"頓悟時刻"被破解!MM-Eureka:大規(guī)模強化學習觸發(fā)多模態(tài)模型能力涌現(xiàn)

發(fā)布于 2025-3-10 10:25
瀏覽
0收藏

Code:??https://github.com/ModalMinds/MM-EUREKA??? 

Model:??https://huggingface.co/FanqingM/MM-Eureka-Zero-38B  ???

??https://huggingface.co/FanqingM/MM-Eureka-8B??Dataset:

??https://huggingface.co/datasets/FanqingM/MM-Eureka-Dataset??

視覺"頓悟時刻"被破解!MM-Eureka:大規(guī)模強化學習觸發(fā)多模態(tài)模型能力涌現(xiàn)-AI.x社區(qū)

Why We DO?

目前的研究大多未能在多模態(tài)環(huán)境中復現(xiàn)DeepSeek-R1的關鍵特性,如回答長度的穩(wěn)定增長和準確率獎勵。例如,R1-V僅在簡單計數(shù)任務上有所改進,但未能復現(xiàn)回答長度增長和"頓悟時刻";R1-Multimodal-Journey探索了幾何問題,但隨著訓練進行,回答長度反而下降;LMM-R1雖然在準確率獎勵和回答長度方面取得了進步,但這種成功尚未在大規(guī)模圖文數(shù)據訓練中得到驗證。雖然Kimi1.5在多模態(tài)推理中取得了有競爭力的結果,但它并未向社區(qū)開源其模型或訓練數(shù)據。

What We do?

開源框架:我們基于OpenRLHF構建了一個可擴展的多模態(tài)大規(guī)模強化學習框架,支持包括InternVL在內的多種模型和多種RL算法。與R1-V等框架相比,我們的框架具有更強的可擴展性,成功訓練了InternVL2.5-38B等大型模型


穩(wěn)定的訓練:MM-Eureka-8B基于InternVL2.5-Instruct-8B開發(fā),MM-Eureka-Zero-38B基于InternVL2.5-Pretrained-38B開發(fā)。兩者均可以復現(xiàn)出穩(wěn)定的accuracy reward以及response length增長,并且具備visual aha-moment!

視覺"頓悟時刻"被破解!MM-Eureka:大規(guī)模強化學習觸發(fā)多模態(tài)模型能力涌現(xiàn)-AI.x社區(qū)

驚人的數(shù)據效率:僅使用54K圖文數(shù)據進行規(guī)則型RL訓練,平均性能超過使用1M數(shù)據的MPO模型;整體基準準確率與使用12M數(shù)據進行CoT SFT訓練的模型相當! MM-Eureka-Zero僅使用8K圖文數(shù)學推理數(shù)據(僅為指令模型的0.05%),在我們自己構建的K12基準測試上比指令模型高出8.2%,在MathVerse上表現(xiàn)相當

視覺"頓悟時刻"被破解!MM-Eureka:大規(guī)模強化學習觸發(fā)多模態(tài)模型能力涌現(xiàn)-AI.x社區(qū)

What is Important?

極簡的RL設計足以獲得很好的效果,如果是在instruct model上進行實驗,添加KL散度往往會限制模型的探索,導致無法觀測到response length的提高。

視覺"頓悟時刻"被破解!MM-Eureka:大規(guī)模強化學習觸發(fā)多模態(tài)模型能力涌現(xiàn)-AI.x社區(qū)

基于難度的數(shù)據過濾策略對于RL訓練穩(wěn)定性及其重要,我們發(fā)現(xiàn)在8B-instruct模型上訓練,如果不進行數(shù)據過濾,RL的訓練將會非常不穩(wěn)定。

視覺"頓悟時刻"被破解!MM-Eureka:大規(guī)模強化學習觸發(fā)多模態(tài)模型能力涌現(xiàn)-AI.x社區(qū)

What We Find?

模型在RL訓練的過程中同樣會展示出類似DeepSeek-R1的aha-moment。特別得是:除了展示出反思和回溯操作,模型還學會了重新審視圖像中的關鍵信息,我們認為這個是visual aha moment的關鍵特征

視覺"頓悟時刻"被破解!MM-Eureka:大規(guī)模強化學習觸發(fā)多模態(tài)模型能力涌現(xiàn)-AI.x社區(qū)

What We Wanna Do?

我們在復現(xiàn)過程中進行了許多其他的嘗試,再次我們分享一些我們認為有幫助,但是并沒有work的操作,我們認為這并不代表這些有問題,而是需要進一步地探索。

Curriculum Learning:

得益于我們基于難度劃分數(shù)據,每個數(shù)據都有難度標簽,自然的我們把數(shù)據按難度從低到高進行RL訓練,然而我們發(fā)現(xiàn)這并不能使得性能獲得收益。我們認為這是因為模型在簡單題目上的學習難以直接泛化到難題,如何進行curriculum learning的數(shù)據組織仍然重要。

視覺"頓悟時刻"被破解!MM-Eureka:大規(guī)模強化學習觸發(fā)多模態(tài)模型能力涌現(xiàn)-AI.x社區(qū)

Online Data Filter:

我們將我們預先基于難度的數(shù)據篩選策略記為Offline Data Filter。這種方案雖然可以幫助RL進行穩(wěn)定訓練,但是其數(shù)據利用率降低了,所以我們希望在模型訓練的過程中動態(tài)進行基于難度的數(shù)據篩選(類似PRIME)。但是我們發(fā)現(xiàn)訓練結果并不如offline data filter穩(wěn)定,我們認為這是因為每次更新時候的數(shù)據量不同,導致梯度不穩(wěn)定。

視覺"頓悟時刻"被破解!MM-Eureka:大規(guī)模強化學習觸發(fā)多模態(tài)模型能力涌現(xiàn)-AI.x社區(qū)

Model Size:

盡管目前一些工作比如ORZ,SimpleRL在7B level的LLM上也復現(xiàn)了R1的表現(xiàn),但是我們在多模態(tài)推理場景下,難以通過8B的internvl pretrained進行成功復現(xiàn)。我們認為這受制于多模態(tài)推理數(shù)據質量以及多模態(tài)預訓練數(shù)據中很少存在long cot數(shù)據。

視覺"頓悟時刻"被破解!MM-Eureka:大規(guī)模強化學習觸發(fā)多模態(tài)模型能力涌現(xiàn)-AI.x社區(qū)

What We Hope?

我們開源了全套數(shù)據(包括我們自助收集的多模態(tài)K12數(shù)據集),代碼,以及模型等。除此之外我們推出一個詳細的技術報告(在我們的repo中),包括我們所有的復現(xiàn)程序以及一些未成功的嘗試。我們希望這可以幫助社區(qū)共同推理多模態(tài)推理發(fā)展。


本文轉自AI生成未來 ,作者:AI生成未來


原文鏈接:??https://mp.weixin.qq.com/s/5c3q3Z9coOdC_L1t7Nw6wQ??


已于2025-3-10 10:48:49修改
收藏
回復
舉報
回復
相關推薦