偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

強化學(xué)習(xí)新發(fā)現(xiàn):無需數(shù)學(xué)樣本,僅游戲訓(xùn)練AI推理大增

人工智能 新聞
研究團隊提出了 ViGaL (Visual Game Learning) 方法,在多個主流視覺數(shù)學(xué)基準(zhǔn)測試和 MMMU 系列基準(zhǔn)測試中,超越此前在數(shù)學(xué)等領(lǐng)域內(nèi)數(shù)據(jù)上訓(xùn)練的強化學(xué)習(xí)模型。

第一作者謝云飛是萊斯大學(xué)博士生,導(dǎo)師為通訊作者魏晨教授,研究方向包括多模態(tài)生成與理解。

Project Leader 肖俊飛是約翰斯?霍普金斯大學(xué)博士生,導(dǎo)師為 Bloomberg Distinguished Professor Alan Yuille。

第二作者馬崟淞是約翰斯?霍普金斯大學(xué)博士生。

第三作者蘭石懿是英偉達(dá) Research Scientist。

最近,強化學(xué)習(xí)領(lǐng)域出現(xiàn)了一個顛覆性發(fā)現(xiàn):研究人員不再需要大量數(shù)學(xué)訓(xùn)練樣本,僅僅讓 AI 玩簡單游戲,就能顯著提升其數(shù)學(xué)推理能力。

此前已有研究發(fā)現(xiàn),即使不提供標(biāo)準(zhǔn)答案,僅用數(shù)學(xué)問題進(jìn)行強化學(xué)習(xí)也能提高模型性能,這讓人們開始重新思考強化學(xué)習(xí)的訓(xùn)練方式。而來自萊斯大學(xué)、約翰斯?霍普金斯大學(xué)和英偉達(dá)的研究團隊更進(jìn)一步:他們讓多模態(tài)大語言模型 (MLLM) 玩貪吃蛇等簡單游戲,無需任何數(shù)學(xué)或多學(xué)科訓(xùn)練數(shù)據(jù),就顯著提升了模型的多模態(tài)推理能力。研究團隊提出了 ViGaL (Visual Game Learning) 方法,在多個主流視覺數(shù)學(xué)基準(zhǔn)測試和 MMMU 系列基準(zhǔn)測試中,超越此前在數(shù)學(xué)等領(lǐng)域內(nèi)數(shù)據(jù)上訓(xùn)練的強化學(xué)習(xí)模型。

圖片

  • 論文標(biāo)題:Play to Generalize: Learning to Reason Through Game Play
  • 論文鏈接:https://arxiv.org/abs/2506.08011
  • 項目主頁:https://yunfeixie233.github.io/ViGaL/

不用數(shù)學(xué)樣本,游戲訓(xùn)練在數(shù)學(xué)基準(zhǔn)取得突破

近期研究表明,相比監(jiān)督微調(diào)(SFT),強化學(xué)習(xí)(RL)往往能實現(xiàn)更強的 “舉一反三” 的跨領(lǐng)域泛化能力。以往的工作已經(jīng)證明,在數(shù)學(xué)問題訓(xùn)練的模型能夠擴展推理到物理問題,經(jīng)過導(dǎo)航訓(xùn)練的智能體能夠成功適應(yīng)全新環(huán)境。然而,這些成功的泛化案例通常仍局限在單一領(lǐng)域內(nèi),源任務(wù)與泛化的目標(biāo)任務(wù)依然屬于同一類型。

圖片

圖 1: 我們發(fā)現(xiàn),只在例如貪吃蛇這種游戲上進(jìn)行強化學(xué)習(xí)訓(xùn)練,模型就能涌現(xiàn)出領(lǐng)域外的泛化能力,在數(shù)學(xué)、多學(xué)科等多個任務(wù)上提高性能。

這篇工作的突破在于實現(xiàn)了更強形式的跨域泛化:從游戲領(lǐng)域完全遷移到數(shù)學(xué)推理、空間推理和多學(xué)科推理等領(lǐng)域。研究團隊用 7B 參數(shù)的 Qwen2.5-VL 模型進(jìn)行訓(xùn)練,發(fā)現(xiàn)僅通過強化學(xué)習(xí)訓(xùn)練模型玩貪吃蛇和旋轉(zhuǎn)游戲,就能在多個基準(zhǔn)測試中實現(xiàn)了顯著提升:

  • 數(shù)學(xué)推理提升:不用數(shù)學(xué)樣本,僅通過游戲訓(xùn)練,ViGaL 在 MathVista 等數(shù)學(xué)推理基準(zhǔn)上平均提升 2.9%,相比之下,在高質(zhì)量數(shù)學(xué)數(shù)據(jù)集上進(jìn)行強化學(xué)習(xí)的方法僅提升 2.4%。
  • 多學(xué)科推理突破:在 MMMU 系列多學(xué)科推理任務(wù)上,ViGaL 超越在多學(xué)科數(shù)據(jù)上進(jìn)行 RL 訓(xùn)練的 R1-OneVision-7B 模型 5.4 個百分點。
  • 通用能力保持:經(jīng)過測試,之前的強化學(xué)習(xí)推理模型在提升特定領(lǐng)域性能時,大部分都損害通用視覺能力,但 ViGaL 在保持原有通用性能的同時實現(xiàn)了推理能力的躍升。

圖片

圖 2: 不使用數(shù)學(xué)或者多學(xué)科樣本,僅通過游戲訓(xùn)練,模型在數(shù)學(xué)推理基準(zhǔn)上平均提升 2.9%(左圖),在多學(xué)科推理基準(zhǔn)上平均提升 2.0%(右圖),超過此前專門在數(shù)學(xué)或者多學(xué)科數(shù)據(jù)上訓(xùn)練的強化學(xué)習(xí)方法。

為什么游戲訓(xùn)練如此有效?

圖片

圖 3: 我們在貪吃蛇游戲和旋轉(zhuǎn)游戲上利用強化學(xué)習(xí)進(jìn)行訓(xùn)練。在每個游戲里面,模型會接收圖片和文本形式的游戲環(huán)境作為輸入,遵循游戲指令進(jìn)行推理,抉擇一個動作在游戲環(huán)境里執(zhí)行。執(zhí)行后會從環(huán)境獲得獎勵 ,用于進(jìn)行強化學(xué)習(xí)。通過在游戲中訓(xùn)練,模型獲得了推理能力,并且能遷移至下游的數(shù)學(xué)和多學(xué)科等任務(wù)。

為什么玩游戲能提升數(shù)學(xué)能力?這個發(fā)現(xiàn)其實并不違背認(rèn)知科學(xué)的基本規(guī)律。

回想一下我們自己的成長過程:小時候通過搭積木學(xué)會了空間概念,通過躲貓貓理解了位置關(guān)系,通過各種益智游戲培養(yǎng)了邏輯思維。兒童正是通過這些看似 "玩耍" 的活動,逐步構(gòu)建起抽象思維的基礎(chǔ) —— 模式識別、空間推理、因果推斷。

認(rèn)知科學(xué)研究也證實了這一點:游戲常被用作探索人類心智的實驗平臺。研究人員通過 "四子連珠" 游戲研究規(guī)劃能力,通過 "虛擬工具" 游戲探索問題解決的認(rèn)知機制。

基于這樣的理論啟發(fā),研究團隊巧妙地設(shè)計了兩款互補的訓(xùn)練游戲:

貪吃蛇游戲:這是一個經(jīng)典的策略決策游戲。在 10×10 的網(wǎng)格上,模型需要控制蛇的移動,避免撞墻、撞到自己或?qū)κ?,同時盡可能多地收集蘋果。游戲培養(yǎng)的核心能力包括路徑規(guī)劃、避障決策和空間導(dǎo)航,這些技能直接對應(yīng)數(shù)學(xué)中的坐標(biāo)幾何和函數(shù)圖像理解。

旋轉(zhuǎn)游戲:這是研究團隊自主設(shè)計的 3D 空間推理游戲。模型需要觀察同一 3D 物體的兩個視角 —— 初始視角和旋轉(zhuǎn)后視角,判斷物體旋轉(zhuǎn)了 90 度還是 180 度。這個游戲?qū)iT訓(xùn)練空間幾何理解能力,直接對應(yīng)角度和長度相關(guān)的數(shù)學(xué)推理問題。

兩款游戲的設(shè)計哲學(xué)互補:貪吃蛇主要提升 2D 坐標(biāo)相關(guān)的數(shù)學(xué)表現(xiàn),旋轉(zhuǎn)游戲則更適合角度和長度推理。實驗證實,聯(lián)合訓(xùn)練兩款游戲比單獨訓(xùn)練效果更佳,展現(xiàn)了游戲多樣性的可擴展?jié)摿Α?/span>

結(jié)語:合成任務(wù)的新時代

ViGaL 的成功揭示了一個潛在的新趨勢:當(dāng)高質(zhì)量人類數(shù)據(jù)枯竭,簡單任務(wù)性能飽和的時候,精心設(shè)計的游戲,作為一種合成任務(wù),可能為多模態(tài)推理能力的發(fā)展開辟新道路。

與傳統(tǒng)的直接訓(xùn)練方法相比,這種游戲化的訓(xùn)練范式展現(xiàn)出獨特的優(yōu)勢:

  • 成本極低:無需人工標(biāo)注,可無限擴展
  • 效果顯著:零數(shù)學(xué)樣本超越數(shù)學(xué)專訓(xùn)模型
  • 拓展性強:可以組合多個任務(wù)進(jìn)一步提升性能
  • 通用性好:不會造成 "偏科" 問題,保持模型的全面能力

更重要的是,ViGaL 可能揭示了一個樸素但深刻的道理:在直接學(xué)習(xí)目標(biāo)任務(wù)之外,培養(yǎng)底層的通用推理能力,也許同樣有助于模型性能的提升。就像我們不只是通過死記硬背數(shù)學(xué)公式來培養(yǎng)數(shù)學(xué)思維,而是通過各種思維訓(xùn)練來發(fā)展抽象推理能力一樣。

在 Scaling Law 可能逐漸面臨困境的今天,ViGaL 用一個簡單而優(yōu)雅的想法提醒我們:有時候,讓 AI"玩游戲" 可能比讓它 "刷題" 更有效。

責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2025-02-20 09:21:51

2016-10-09 13:19:43

2025-04-25 09:20:00

數(shù)據(jù)模型AI

2019-03-25 22:04:19

編程PythonJava

2024-07-26 09:33:22

2016-07-06 11:38:10

移動 出海

2021-11-10 15:24:25

AI 數(shù)據(jù)人工智能

2019-04-04 13:00:19

Linuxshell命令

2025-03-03 09:12:00

2025-06-27 10:10:43

AI模型技術(shù)

2020-04-15 16:44:38

谷歌強化學(xué)習(xí)算法

2012-06-20 09:39:02

惡意網(wǎng)站

2013-02-28 10:24:18

2025-06-23 09:14:00

2022-08-16 08:35:45

Black Hat網(wǎng)絡(luò)安全

2025-04-27 09:19:00

強化學(xué)習(xí)模型AI

2025-05-30 09:05:00

AI大模型推理

2025-02-03 00:00:01

Ai2o1LLM

2024-09-18 10:37:00

強化學(xué)習(xí)AI模型

2021-10-15 10:11:00

遠(yuǎn)程管理監(jiān)控數(shù)據(jù)中心
點贊
收藏

51CTO技術(shù)棧公眾號