偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

零成本突破多模態(tài)大模型瓶頸!多所美國(guó)頂尖高校華人團(tuán)隊(duì),聯(lián)合推出自增強(qiáng)技術(shù)CSR

人工智能 新聞
現(xiàn)有多模態(tài)大模型在對(duì)齊不同模態(tài)時(shí)面臨幻覺(jué)和細(xì)粒度感知不足等問(wèn)題,傳統(tǒng)偏好學(xué)習(xí)方法依賴可能不適配的外源數(shù)據(jù),存在成本和質(zhì)量問(wèn)題。Calibrated Self-Rewarding(CSR)框架通過(guò)自我增強(qiáng)學(xué)習(xí),利用模型自身輸出構(gòu)造更可靠的偏好數(shù)據(jù),結(jié)合視覺(jué)約束提高學(xué)習(xí)效率和準(zhǔn)確性。

多模態(tài)大模型展現(xiàn)出了多種多樣的能力,這些能力都通過(guò)SFT和預(yù)訓(xùn)練從龐大的訓(xùn)練數(shù)據(jù)集中學(xué)習(xí)。

但是模態(tài)之間的簡(jiǎn)單對(duì)齊可能會(huì)使得模型存在幻覺(jué),細(xì)粒度圖像感知能力差等各種問(wèn)題。

已有的多模態(tài)大模型對(duì)齊方案一般采用DPO,POVID等偏好優(yōu)化方法,或是蒸餾 GPT-4等昂貴閉源模型的方式來(lái)提升模型能力。

這些方法大多需要外源模型數(shù)據(jù),這些數(shù)據(jù)構(gòu)造存在很多問(wèn)題,一是需要昂貴的價(jià)格,二是缺乏質(zhì)量和多樣性的保證。

再者說(shuō),這真的適合需要提升模型本身的分布偏好嗎?

在Calibrated Self-Rewarding Vision Language Models文中,通過(guò)模型自身輸出概率證明了,外來(lái)模型構(gòu)造的偏好數(shù)據(jù)可能不適合用于模型的偏好學(xué)習(xí),相較于模型自身的response,外源模型所構(gòu)造的數(shù)據(jù)模型自己說(shuō)出的概率很小,簡(jiǎn)單來(lái)說(shuō)對(duì)于偏好數(shù)據(jù)中的負(fù)樣本模型并不會(huì)犯一樣的錯(cuò)誤,對(duì)于偏好數(shù)據(jù)中的正樣本模型也不會(huì)講出那么好的response。

這種偏好數(shù)據(jù)用于偏好學(xué)習(xí)可能會(huì)引入模型自身分布的偏差導(dǎo)致其他錯(cuò)誤,同時(shí)因?yàn)槟P妥陨碚f(shuō)同樣話的概率低,用這樣的數(shù)據(jù)來(lái)偏好學(xué)習(xí)增強(qiáng)模型收益很小。

圖片

同時(shí)傳統(tǒng)純文本大模型領(lǐng)域的Self-rewarding范式存在一定缺陷。

圖片

在此前self rewarding提供reward的模型是模型自身,當(dāng)模型自身無(wú)法準(zhǔn)確分辨偏好、所具有的知識(shí)不夠強(qiáng)大的時(shí)候,它所提供的反饋可能不夠精準(zhǔn)或者沒(méi)用導(dǎo)致所更新的模型的分布無(wú)法向著目標(biāo)分布更新。

為了解決上述問(wèn)題,來(lái)自UNC ,芝加哥大學(xué),UMD和羅格斯大學(xué)的研究團(tuán)隊(duì)提出了Calibrated Self-Rewarding(CSR),多模態(tài)大模型的自我增強(qiáng)因?yàn)闀?huì)存在一個(gè)真實(shí)圖像的參照,這會(huì)使得self-rewarding的過(guò)程更加可靠。

論文地址: https://arxiv.org/pdf/2405.14622

項(xiàng)目地址:https://github.com/YiyangZhou/CSR

項(xiàng)目頁(yè)面:https://dongjie-cheng.github.io/CSR.html

整個(gè)Calibrated Self-Rewarding(CSR)框架如下:

1. 通過(guò)模型本身在beam search過(guò)程中的輸出構(gòu)造偏好數(shù)據(jù)對(duì),過(guò)程中的獎(jiǎng)勵(lì)來(lái)自于校準(zhǔn)的自我獎(jiǎng)勵(lì):LVLM對(duì)于每句話的自我生成概率 + 結(jié)合視覺(jué)約束獎(jiǎng)勵(lì),用于獎(jiǎng)勵(lì)校準(zhǔn)。

2. 基于每一輪構(gòu)造的偏好數(shù)據(jù)在線通過(guò)DPO迭代學(xué)習(xí)。

實(shí)驗(yàn)

CSR相較于數(shù)據(jù)驅(qū)動(dòng)的偏好學(xué)習(xí)對(duì)齊方法和模型自我反饋的方法均有較大提升。

更值得注意的是,在CSR多輪在線迭代過(guò)程中,模型能逐步提升自我能力!可以看到在多個(gè)輪次中以LLaVA-1.5為例,模型在多個(gè)benchmark上的均分逐步提升。

同時(shí)也可以看到特別是幻覺(jué),在多輪迭代中是逐步減少的:

同時(shí)CSR也適用于其他模型,例如Vila:

 圖片

那么在Calibrated Self-Rewarding(CSR)的過(guò)程中究竟發(fā)生了什么呢?通過(guò)可視化經(jīng)過(guò)CSR迭代前后模型自身的正樣本和負(fù)樣本輸出可以發(fā)現(xiàn),經(jīng)過(guò)多輪CSR學(xué)習(xí)后,模型自身說(shuō)出的回復(fù)會(huì)有更高的分?jǐn)?shù):這代表模型的response更加符合圖像信息;同時(shí)負(fù)樣本和正樣本的gap更?。哼@說(shuō)明模型所輸出的負(fù)樣本傾向于正樣本,模型的誤差和性能下界提升。

圖片

通過(guò)可視化attention可以看到,CSR能使得LVLM更加偏重于視覺(jué)模型,同時(shí)能緩解文本attention中存在的上下文依賴問(wèn)題。

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2025-10-13 08:50:00

2024-10-25 14:30:00

模型AI

2024-10-21 13:20:00

視頻數(shù)據(jù)集

2024-05-27 12:39:32

2010-05-13 09:24:39

2023-09-19 13:48:02

2024-06-03 08:48:16

2024-01-22 13:59:00

模型訓(xùn)練

2024-06-12 11:50:23

2025-01-08 08:21:16

2023-12-04 13:23:00

數(shù)據(jù)訓(xùn)練

2025-03-07 08:40:00

模型數(shù)據(jù)AI

2023-06-05 10:01:18

模型測(cè)評(píng)

2024-01-11 09:37:58

模型AI

2025-05-21 08:35:00

2025-10-16 18:07:47

AI模型訓(xùn)練

2025-08-21 09:10:00

2024-05-21 07:54:30

視頻多模態(tài)語(yǔ)義檢索算法

2025-03-10 07:00:00

模型數(shù)據(jù)訓(xùn)練
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)