偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

20個樣本,搞定多模態(tài)思維鏈!UCSC重磅開源:邊畫框,邊思考

人工智能 新聞
GRIT能讓多模態(tài)大語言模型(MLLM)通過生成自然語言和圖像框坐標結(jié)合的推理鏈進行「圖像思維」,僅需20個訓練樣本即可實現(xiàn)優(yōu)越性能!

現(xiàn)有開源多模態(tài)推理模型(Multimodal Reasoning Model)生成的推理鏈幾乎都是純自然語言,缺少對圖像信息的顯式引用與整合。

圖片

讓多模態(tài)大語言模型(MLLM)既能條理清晰的思考,又能真正將推理過程「落到畫面」上,在實現(xiàn)上仍然存在兩個難點:

1. 全是自然語言的思考內(nèi)容看似很長,其內(nèi)容有可能脫離圖像信息,不一定能真正「看圖說話」;

2. 教會模型新的看圖思考方式動輒要成千上萬條有標注的數(shù)據(jù),門檻極高。

針對此問題,加州大學圣克魯斯分校的研究人員提出了GRIT (Grounded Reasoning with Images & Texts) 模型,具有高關(guān)聯(lián)和輕量級的特性。

圖片

論文地址:https://arxiv.org/abs/2505.15879

代碼鏈接:https://github.com/eric-ai-lab/GRIT

在線Demo:https://grounded-reasoning.github.io/

· 高關(guān)聯(lián)

模型可以在思考鏈里隨時插入框坐標,實現(xiàn)真正的 「圖像思維」(Thinking with Images)。

GRIT采用的Grounded Reasoning范式,一次模型推理,[x1,y1,x2,y2]框直接織進思考鏈,實現(xiàn)「思路和證據(jù)同步」,所想即所見。

· 輕量級

其訓練方法GRPO-GR具備三重獎勵(答案、格式、框),實現(xiàn)零人工標注,僅用20張圖像與問答的訓練數(shù)據(jù)就能教會模型畫框+推理。

GRIT二板斧

Grounded Reasoning

圖片

Grounded Reasoning范式建立在多模態(tài)大語言模型已具備的兩項原生能力——視覺定位 (grounding) 與語言推理 (reasoning)——之上,目標是把二者深度融合

讓模型在「想」(生成推理鏈)的同時「指」(輸出精準框坐標),從而讓「慢思考」不再停留在純自然語言,而是真正做到 「所見即所想,所想即所指」。

給模型一張圖和問題 ,會一次性返回兩段式結(jié)果 (c, a)

  • 推理鏈c—以<think>開頭,模型邊寫自然語言,邊在需要時插入[x1,y1,x2,y2]形式的框坐標,之后<rethink>引導的重思考將進一步整合框坐標對應的圖像信息;
  • 最終答案a—在<answer>標簽后給出答案。

c的生成過程中,模型每一步都可以自由決定是繼續(xù)寫文字還是生成一個框坐標。

輸出框坐標后,模型不會再回讀對應像素,而是繼續(xù)token輸出,要求模型理解并利用框坐標信息,融入后續(xù)推理,就像模型給自己出了一道Referring Expression Generation(REC)任務一樣。

Grounded Reasoning范式通過只傳遞數(shù)字坐標,避免了裁剪圖像或多輪回輸信息的計算開銷,流程輕量。

在此范式之下模型的輸出里的框坐標可以直接畫出,成為其推理的「看圖」依據(jù),讀者既能讀到它的思考,也能順著坐標直接驗證圖中證據(jù)。

GRPO-GR訓練

為了讓模型在極小的數(shù)據(jù)量下就學會畫框來輔助推理,GRIT 采用了專門的強化學習方法GRPO-GR

它在GRPO的基礎(chǔ)上,引入三個獎勵信號來直接驅(qū)動策略 π_θ 生成符合 grounded reasoning 范式的序列。

格式獎勵 (r_format)信號檢查模型輸出的整體結(jié)構(gòu)是否合規(guī):

  • 是否正確使用<think>、<answer>等特殊標記;
  • 插入的邊界框[x1,y1,x2,y2]語法是否有效、坐標是否在合法區(qū)間內(nèi)。 通過懲罰任何格式錯誤,模型很快學會在文字與坐標之間靈活、規(guī)范地切換。

計數(shù)獎勵 (r_count):對于要求回答某物體數(shù)量的問題,計數(shù)獎勵的信號鼓勵模型的輸出要數(shù)量上符合答案,最好一個框?qū)粋€相關(guān)物體。

r_count對比推理鏈里框的個數(shù)真實答案中的數(shù)量:二者一致即得分,否則扣分;可以讓模型在標記目標時兼顧完整性,避免多框、漏框或隨意畫框。

答案正確性獎勵 (r_ans):最終答案是否答對,由GPT-4o進行語義評估并結(jié)合BLEU相似度給分。 這樣的「老師」對自然語言表述具有強魯棒性,避免模型鉆格式空子,也進一步降低了人工評判成本。

圖片

得益于這三重獎勵的協(xié)同作用,GRPO-GR完全不依賴顯式的推理鏈標注或框標簽——只需提供題目、圖像和最終答案。

在實踐中,即便訓練集只有20條數(shù)據(jù),模型依舊能夠穩(wěn)定學到「邊框邊想」的行為,并在多項基準測試上取得亮眼表現(xiàn)。

實驗結(jié)果:20 條樣本即可「看得準、想得對」

準確性評測

Qwen-2.5-VL-3B和InternVL-3-2B作為基座模型,只用來自VSR+TallyQA的共20張圖-問題-答案和GRIT方法訓練。

在6個測試集中,用GRIT方法,模型推理結(jié)果的準確性(ACC)相對于沒有經(jīng)過訓練的基線明顯提高。而基線模型表現(xiàn)出割裂定位推理能力,他們無法兼顧在定位目標物體來畫框上比較準確的同時在回答問題上更加正確。

圖片

即使GRPO-GR訓練中沒有包含任何對畫框的位置的訓練信號,測試結(jié)果現(xiàn)實框的準確性(GroundingIOU, i.e.GIoU)也在用GRIT方法后得到了提升。

推理與畫框相互關(guān)聯(lián)

研究人員提出了VL Reasoning Cross-Modal Correlation來衡量推理鏈中的文字與框區(qū)域的對齊程度。

圖片

結(jié)果顯示,用GRIT方法的模型輸出的內(nèi)容更好的融合了推理與畫框:框住什么,就談什么。

另外,在用GRIT方法的模型中,把推理鏈里的框坐標全部抹掉,再讓模型繼續(xù)生成。

結(jié)果顯示,后續(xù)生成的推理內(nèi)容對圖像的注意力會大幅下降,說明畫出的框能進一步促進推理。

數(shù)據(jù)規(guī)模效應

研究人員進一步將訓練數(shù)據(jù)擴大,20到500,再增長到7000。

圖片

結(jié)果表明,隨著數(shù)據(jù)規(guī)模的增加,模型準確率雖可以進一步提高,但跨領(lǐng)域泛化依舊是難點。

即使同類訓練數(shù)據(jù)增加,在與訓練域差異較大的測試集上模型提升依然有限,提示未來需要更豐富、更異質(zhì)的訓練數(shù)據(jù),而不只是「更多同類題」。

即便是極小樣本設置,GRIT也能讓開源MLLM同時獲得「畫得準、講得清」的能力,并且畫框和推理在模型輸出中相輔相成;進一步放大數(shù)據(jù)規(guī)模,則帶來漸進式收益,并揭示了跨域推理的新挑戰(zhàn)。

責任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2025-03-25 09:06:11

2019-06-10 15:58:30

數(shù)據(jù)分析流量采集

2025-05-16 08:37:35

2024-12-26 01:20:53

多模態(tài)大模型圖片

2022-06-27 15:42:23

區(qū)塊鏈

2023-10-10 13:42:56

訓練數(shù)據(jù)

2013-09-24 10:58:00

編程生活方式

2020-12-02 10:20:33

Docker命令Linux

2012-05-01 20:26:01

iPhone

2024-08-09 14:48:00

2024-08-12 09:40:00

模型數(shù)據(jù)

2021-01-19 09:19:33

RPC調(diào)用過程框架

2009-12-18 11:15:17

ADSL寬帶共享上網(wǎng)

2023-07-05 17:21:10

云邊

2025-02-08 13:30:00

2016-10-10 12:56:59

銳捷

2025-06-23 08:47:00

2025-03-19 09:30:00

2025-03-27 23:41:35

豆包搜索AI
點贊
收藏

51CTO技術(shù)棧公眾號