偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

MiniMax開(kāi)源首個(gè)視覺(jué)RL統(tǒng)一框架,閆俊杰領(lǐng)銜!推理感知兩手抓,性能橫掃M(jìn)EGA-Bench

人工智能 新聞
最新開(kāi)源V-Triune(視覺(jué)三重統(tǒng)一強(qiáng)化學(xué)習(xí)系統(tǒng))框架,使VLM首次能夠在單個(gè)后訓(xùn)練流程中,聯(lián)合學(xué)習(xí)和掌握視覺(jué)推理和感知任務(wù)。

僅需一個(gè)強(qiáng)化學(xué)習(xí)(RL)框架,就能實(shí)現(xiàn)視覺(jué)任務(wù)大統(tǒng)一?

現(xiàn)有RL對(duì)推理和感知任務(wù)只能二選一,但“大模型六小強(qiáng)”之一MiniMax表示:我全都要!

最新開(kāi)源V-Triune(視覺(jué)三重統(tǒng)一強(qiáng)化學(xué)習(xí)系統(tǒng))框架,使VLM首次能夠在單個(gè)后訓(xùn)練流程中,聯(lián)合學(xué)習(xí)和掌握視覺(jué)推理和感知任務(wù)。

通過(guò)三層組件設(shè)計(jì)基于動(dòng)態(tài)交并比(IoU)的獎(jiǎng)勵(lì)機(jī)制,彌補(bǔ)了傳統(tǒng)RL方法無(wú)法兼顧多重任務(wù)的空白。

圖片

甚至基于V-Triune,MiniMax還一步到位,貼心地給大家開(kāi)發(fā)了全新的Orsta(One RL to See Them All)模型系列(7B至32B),在MEGA-Bench Core基準(zhǔn)測(cè)試中從+2.1%顯著提升至+14.1%。

圖片

值得注意的是,在論文的作者一欄,MiniMax創(chuàng)始人兼CEO閆俊杰也參與了這項(xiàng)研究。

圖片

目前V-Triune框架和Orsta模型都在GitHub上實(shí)現(xiàn)全面開(kāi)源,點(diǎn)擊文末鏈接即可跳轉(zhuǎn)一鍵獲取。

那話不多說(shuō),咱們直接上細(xì)節(jié)。

推理感知“兩手抓”

視覺(jué)任務(wù)可以分為推理感知兩類(lèi),在當(dāng)前,RL研究主要集中于數(shù)學(xué)QA和科學(xué)QA等視覺(jué)推理任務(wù)。

而目標(biāo)檢測(cè)和定位等視覺(jué)感知任務(wù),因亟需獨(dú)特的獎(jiǎng)勵(lì)設(shè)計(jì)和訓(xùn)練穩(wěn)定性保障,還沒(méi)有得到一個(gè)很好的解決方案……

圖片

針對(duì)上述問(wèn)題,MiniMax針對(duì)性地提出了新框架V-Triune,作為首個(gè)面向VLM后訓(xùn)練的統(tǒng)一RL系統(tǒng),通過(guò)三個(gè)互補(bǔ)組件核心巧妙實(shí)現(xiàn)二者的平衡。

樣本級(jí)數(shù)據(jù)格式化

讓每個(gè)樣本自定義其獎(jiǎng)勵(lì)設(shè)置和驗(yàn)證器,支持動(dòng)態(tài)路由和權(quán)重調(diào)整,以處理多種任務(wù)需求。

數(shù)據(jù)模式基于HuggingFace數(shù)據(jù)集實(shí)現(xiàn),包含以下三個(gè)字段:

  1. reward_model:樣本級(jí)定義獎(jiǎng)勵(lì)類(lèi)型、權(quán)重。
  2. verifier:指定驗(yàn)證器及其參數(shù)。
  3. data_source:標(biāo)識(shí)樣本來(lái)源。

最終實(shí)現(xiàn)了多樣化數(shù)據(jù)集的無(wú)縫集成,同時(shí)支持高度靈活的獎(jiǎng)勵(lì)控制。

驗(yàn)證器級(jí)獎(jiǎng)勵(lì)計(jì)算

采用異步客戶端-服務(wù)器架構(gòu),將獎(jiǎng)勵(lì)計(jì)算與主訓(xùn)練循環(huán)解耦。

圖片

客戶端通過(guò)代理工作器異步發(fā)送請(qǐng)求,而服務(wù)器則根據(jù)”verifier”字段路由至專(zhuān)用驗(yàn)證器。

主要使用兩類(lèi)驗(yàn)證器:

  1. MathVerifyVerifierr:處理推理、OCR和計(jì)數(shù)任務(wù)。
  2. DetectionVerifier:處理檢測(cè)和定位任務(wù),應(yīng)用動(dòng)態(tài)IoU獎(jiǎng)勵(lì)。

從而實(shí)現(xiàn)在無(wú)需修改核心訓(xùn)練流程的情況下,靈活擴(kuò)展新任務(wù)或更新獎(jiǎng)勵(lì)邏輯。

數(shù)據(jù)源級(jí)指標(biāo)監(jiān)控

在多任務(wù)多源訓(xùn)練中,按數(shù)據(jù)源記錄以下指標(biāo):

  1. 獎(jiǎng)勵(lì)值:追蹤數(shù)據(jù)集特定穩(wěn)定性。
  2. IoU和mAP(感知任務(wù)):記錄不同閾值下的IoU和mAP。
  3. 響應(yīng)長(zhǎng)度和反思率:跟蹤響應(yīng)長(zhǎng)度分布、截?cái)嗦剩约?5個(gè)預(yù)定義反思詞(如“re-check”)的出現(xiàn)比例。

該監(jiān)控機(jī)制幫助診斷模型行為(如過(guò)度思考或膚淺響應(yīng)),并確保學(xué)習(xí)的穩(wěn)定性。

圖片

動(dòng)態(tài)IoU獎(jiǎng)勵(lì)

此外針對(duì)監(jiān)測(cè)和定位任務(wù),團(tuán)隊(duì)還創(chuàng)新性地提出了動(dòng)態(tài)IoU獎(jiǎng)勵(lì),分階段調(diào)整閾值,以緩解冷啟動(dòng)問(wèn)題,同時(shí)引導(dǎo)模型逐步提升定位精度:

  • 初始10%訓(xùn)練步驟:
  • 10%-25%訓(xùn)練步驟:
  • 剩余訓(xùn)練步驟:

圖片

雖然V-Triune提供了可擴(kuò)展的數(shù)據(jù)、任務(wù)和指標(biāo)框架,但早期實(shí)驗(yàn)顯示,聯(lián)合訓(xùn)練可能會(huì)導(dǎo)致評(píng)估性能下降、梯度范數(shù)突增等不穩(wěn)定現(xiàn)象,于是團(tuán)隊(duì)又通過(guò)以下調(diào)整逐步解決:

  1. 凍結(jié)ViT參數(shù),防止梯度爆炸。
  2. 過(guò)濾偽圖像特殊詞元,確保輸入特征對(duì)齊,提升訓(xùn)練穩(wěn)定性。
  3. 構(gòu)建隨機(jī)化CoT提示池,降低提示依賴性。
  4. 由于V-Triune基于Verl框架實(shí)現(xiàn),主節(jié)點(diǎn)內(nèi)存壓力較大,需解耦測(cè)試階段與主訓(xùn)練循環(huán)以管理內(nèi)存。

Orsta模型

另外值得一提的是,基于開(kāi)源的Qwen2.5-VL模型,團(tuán)隊(duì)還訓(xùn)練出7B和32B的Orsta模型。

圖片

依據(jù)4類(lèi)推理任務(wù)(數(shù)學(xué)、謎題、科學(xué)、圖表分析)和4類(lèi)感知任務(wù)(物體檢測(cè)、目標(biāo)定位、計(jì)數(shù)、OCR)的訓(xùn)練數(shù)據(jù),進(jìn)行規(guī)則和難度的兩階段過(guò)濾和訓(xùn)練優(yōu)化。

最終實(shí)現(xiàn)在MEGA-Bench Core基準(zhǔn)測(cè)試中,Orsta相比原始模型提升至+14.1%,尤其是在感知任務(wù)中,mAP指標(biāo)顯著提高,證明了該統(tǒng)一方法的有效性和可擴(kuò)展性。

圖片

MiniMax布局多模態(tài)領(lǐng)域

MiniMax作為商湯背景出身的AI六小龍之一,近期在多模態(tài)領(lǐng)域可謂動(dòng)作頻頻,模型橫跨語(yǔ)言、音頻、視頻。

圖片

例如MiniMax的S2V-01視頻模型、MiniMax-VL-01視覺(jué)多模態(tài)模型以及MiniMax-T2A-01系列語(yǔ)言模型等。

尤其是廣受好評(píng)的MiniMax-01系列,包含基礎(chǔ)語(yǔ)言模型和視覺(jué)多模態(tài)模型兩種,性能上比肩DeepSeek-V3、GPT-4o等國(guó)內(nèi)外頂尖模型的同時(shí),還首次創(chuàng)新性實(shí)現(xiàn)了對(duì)新型Lightning Attention架構(gòu)的大規(guī)模擴(kuò)展。

最新發(fā)布的Speech-02,在AI語(yǔ)言生成上也是一騎絕塵,直接刷新全球權(quán)威語(yǔ)音基準(zhǔn)測(cè)試榜單第一,一舉打破OpenAI、ElevenLabs的行業(yè)壟斷。

圖片

同時(shí),據(jù)MiniMax高級(jí)研究總監(jiān)鐘怡然同量子位訪談時(shí)所說(shuō):

MiniMax將會(huì)進(jìn)一步探索多模態(tài)架構(gòu)創(chuàng)新,即原生的生成理解統(tǒng)一大模型的架構(gòu)。

而今天這個(gè)統(tǒng)一視覺(jué)任務(wù)的RL架構(gòu)也許僅僅是一個(gè)開(kāi)始。

論文鏈接:https://arxiv.org/abs/2505.18129代碼鏈接:https://github.com/MiniMax-AI/One-RL-to-See-Them-All

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2011-08-10 16:21:40

網(wǎng)康ITM網(wǎng)絡(luò)擁塞

2010-03-15 15:02:54

2009-05-19 15:06:33

TD-SCDMA3G建設(shè)

2023-05-08 15:14:38

技術(shù)AI

2021-04-26 08:24:41

DDoS攻擊黑客

2009-02-16 09:58:00

無(wú)線路由自動(dòng)斷線故障

2023-10-07 00:11:22

CIO

2015-04-15 13:04:45

AMDLisa Su策略

2017-11-01 10:11:00

CIO創(chuàng)新房地產(chǎn)

2015-04-15 13:49:31

公共Wi-Fi避害兩手抓

2021-07-26 08:01:35

數(shù)據(jù)資產(chǎn)智能化安全性

2013-12-20 09:08:40

智慧城市

2022-09-05 11:39:38

瑞數(shù)信息動(dòng)態(tài)安全

2017-01-16 13:13:34

H3C關(guān)鍵業(yè)務(wù)

2024-11-15 15:38:00

模型測(cè)評(píng)

2025-05-15 09:04:00

2018-07-10 17:48:22

百度云
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)