3000多條數(shù)據(jù)里選出200條效果反而更好,MiniGPT-4被配置相同的模型超越了
在生成細(xì)節(jié)豐富和精確的圖像描述方面,GPT-4 已經(jīng)展現(xiàn)出了強(qiáng)大超凡的能力,其標(biāo)志著一個(gè)語言和視覺處理新時(shí)代的到來。
因此,類似于 GPT-4 的多模態(tài)大型語言模型(MLLM)近來異軍突起,成為了一個(gè)炙手可熱的新興研究領(lǐng)域,其研究核心是將強(qiáng)大的 LLM 用作執(zhí)行多模態(tài)任務(wù)的認(rèn)知框架。MLLM 出人意料的卓越表現(xiàn)不僅超越了傳統(tǒng)方法,更使其成為了實(shí)現(xiàn)通用人工智能的潛在途徑之一。
為了創(chuàng)造出好用的 MLLM,需要使用大規(guī)模的配對(duì)的圖像 - 文本數(shù)據(jù)以及視覺 - 語言微調(diào)數(shù)據(jù)來訓(xùn)練凍結(jié)的 LLM(如 LLaMA 和 Vicuna)與視覺表征(如 CLIP 和 BLIP-2)之間的連接器(如 MiniGPT-4、LLaVA 和 LLaMA-Adapter)。
MLLM 的訓(xùn)練通常分為兩個(gè)階段:預(yù)訓(xùn)練階段和微調(diào)階段。預(yù)訓(xùn)練的目的是讓 MLLM 獲得大量知識(shí),而微調(diào)則是為了教會(huì)模型更好地理解人類意圖并生成準(zhǔn)確的響應(yīng)。
為了增強(qiáng) MLLM 理解視覺 - 語言和遵循指令的能力,近期出現(xiàn)了一種名為指令微調(diào)(instruction tuning)的強(qiáng)大微調(diào)技術(shù)。該技術(shù)有助于將模型與人類偏好對(duì)齊,從而讓模型在各種不同的指令下都能生成人類期望的結(jié)果。在開發(fā)指令微調(diào)技術(shù)方面,一個(gè)頗具建設(shè)性的方向是在微調(diào)階段引入圖像標(biāo)注、視覺問答(VQA)和視覺推理數(shù)據(jù)集。InstructBLIP 和 Otter 等之前的技術(shù)的做法是使用一系列視覺 - 語言數(shù)據(jù)集來進(jìn)行視覺指令微調(diào),也得到了頗具潛力的結(jié)果。
但是,人們已經(jīng)觀察到:常用的多模態(tài)指令微調(diào)數(shù)據(jù)集包含大量低質(zhì)量實(shí)例,即其中的響應(yīng)是不正確或不相關(guān)的。這樣的數(shù)據(jù)具有誤導(dǎo)性,并會(huì)對(duì)模型的性能表現(xiàn)造成負(fù)面影響。
這一問題促使研究人員開始探究這一可能性:能否使用少量高質(zhì)量的遵循指令數(shù)據(jù)來獲得穩(wěn)健的性能表現(xiàn)?
近期的一些研究得到了鼓舞人心的成果,表明這個(gè)方向是有潛力的。比如 Zhou et al. 提出了 LIMA ,這是一個(gè)使用人類專家精挑細(xì)選出的高質(zhì)量數(shù)據(jù)微調(diào)得到的語言模型。該研究表明,即使使用數(shù)量有限的高質(zhì)量遵循指令數(shù)據(jù),大型語言模型也可以得到讓人滿意的結(jié)果。所以,研究人員得出結(jié)論:在對(duì)齊方面,少即是多(Less is More)。然而,對(duì)于如何為微調(diào)多模態(tài)語言模型選擇合適的高質(zhì)量數(shù)據(jù)集,之前還沒有一個(gè)清晰的指導(dǎo)方針。
上海交通大學(xué)清源研究院和里海大學(xué)的一個(gè)研究團(tuán)隊(duì)填補(bǔ)了這一空白,提出了一個(gè)穩(wěn)健有效的數(shù)據(jù)選擇器。這個(gè)數(shù)據(jù)選擇器能夠自動(dòng)識(shí)別并過濾低質(zhì)量視覺 - 語言數(shù)據(jù),從而確保模型訓(xùn)練所使用的都是最相關(guān)和信息最豐富的樣本。

論文地址:https://arxiv.org/abs/2308.12067
研究者表示,這項(xiàng)研究關(guān)注的重點(diǎn)是探索少量但優(yōu)質(zhì)的指令微調(diào)數(shù)據(jù)對(duì)微調(diào)多模態(tài)大型語言模型的功效。除此之外,這篇論文還引入了幾個(gè)專為評(píng)估多模態(tài)指令數(shù)據(jù)的質(zhì)量而設(shè)計(jì)的新指標(biāo)。在圖像上執(zhí)行譜聚類之后,數(shù)據(jù)選擇器會(huì)計(jì)算一個(gè)加權(quán)分?jǐn)?shù),其組合了 CLIP 分?jǐn)?shù)、GPT 分?jǐn)?shù)、獎(jiǎng)勵(lì)分?jǐn)?shù)和每個(gè)視覺 - 語言數(shù)據(jù)的答案長度。
通過在用于微調(diào) MiniGPT-4 所用的 3400 個(gè)原始數(shù)據(jù)上使用該選擇器,研究者發(fā)現(xiàn)這些數(shù)據(jù)大部分都有低質(zhì)量的問題。使用這個(gè)數(shù)據(jù)選擇器,研究者得到了一個(gè)小得多的精選數(shù)據(jù)子集 —— 僅有 200 個(gè)數(shù)據(jù),只有原始數(shù)據(jù)集的 6%。然后他們使用 MiniGPT-4 一樣的訓(xùn)練配置,微調(diào)得到了一個(gè)新模型:InstructionGPT-4。
研究者表示這是一個(gè)激動(dòng)人心的發(fā)現(xiàn),因?yàn)槠浔砻鳎涸谝曈X - 語言指令微調(diào)中,數(shù)據(jù)的質(zhì)量比數(shù)量更重要。此外,這種更加強(qiáng)調(diào)數(shù)據(jù)質(zhì)量的變革提供了一個(gè)能提升 MLLM 微調(diào)的更有效的新范式。
研究者進(jìn)行了嚴(yán)格的實(shí)驗(yàn),對(duì)已微調(diào) MLLM 的實(shí)驗(yàn)評(píng)估集中于七個(gè)多樣化且復(fù)雜的開放域多模態(tài)數(shù)據(jù)集,包括 Flick-30k、ScienceQA、 VSR 等。他們在不同的多模態(tài)任務(wù)上比較了使用不同數(shù)據(jù)集選取方法(使用數(shù)據(jù)選擇器、對(duì)數(shù)據(jù)集隨機(jī)采樣、使用完整數(shù)據(jù)集)而微調(diào)得到的模型的推理性能,結(jié)果展現(xiàn)了 InstructionGPT-4 的優(yōu)越性。
此外還需說明:研究者用于評(píng)估的評(píng)價(jià)者是 GPT-4。具體而言,研究者使用了 prompt 將 GPT-4 變成了評(píng)價(jià)者,其可以使用 LLaVA-Bench 中的測試集來比較 InstructionGPT-4 和原始 MiniGPT-4 的響應(yīng)結(jié)果。
結(jié)果發(fā)現(xiàn),盡管與 MiniGPT-4 所用的原始指令遵循數(shù)據(jù)相比,InstructionGPT-4 使用的微調(diào)數(shù)據(jù)僅有 6% 那么一點(diǎn)點(diǎn),但后者在 73% 的情況下給出的響應(yīng)都相同或更好。
這篇論文的主要貢獻(xiàn)包括:
- 通過選擇 200 個(gè)(約 6%)高質(zhì)量的指令遵循數(shù)據(jù)來訓(xùn)練 InstructionGPT-4,研究者表明可以為多模態(tài)大型語言模型使用更少的指令數(shù)據(jù)來實(shí)現(xiàn)更好的對(duì)齊。
 - 文中提出了一種數(shù)據(jù)選擇器,其使用了一種可解釋的簡單原則來選取用于微調(diào)的高質(zhì)量多模態(tài)指令遵循數(shù)據(jù)。這種方法力求在數(shù)據(jù)子集的評(píng)估和調(diào)整中實(shí)現(xiàn)有效性和可移植性。
 - 研究者通過實(shí)驗(yàn)表明這種簡單技術(shù)能夠很好地應(yīng)對(duì)不同任務(wù)。相比于原始的 MiniGPT-4,僅使用 6% 已過濾數(shù)據(jù)微調(diào)得到的 InstructionGPT-4 在多種任務(wù)上都取得了更優(yōu)表現(xiàn)。
 
方法
這項(xiàng)研究的目標(biāo)是提出一種簡單且可移植的數(shù)據(jù)選擇器,使其能自動(dòng)從原始微調(diào)數(shù)據(jù)集中精選出一個(gè)子集。為此,研究者定義了一個(gè)選取原則,該原則關(guān)注的重點(diǎn)是多模態(tài)數(shù)據(jù)集的多樣化和質(zhì)量。下面將簡單介紹一下。
選取原則
為了有效地訓(xùn)練 MLLM,選取有用的多模態(tài)指令數(shù)據(jù)是至關(guān)重要的。而為了選出最優(yōu)的指令數(shù)據(jù),研究者提出了兩大關(guān)鍵原則:多樣性和質(zhì)量。對(duì)于多樣性,研究者采用的方法是對(duì)圖像嵌入進(jìn)行聚類,以將數(shù)據(jù)分成不同的組別。為了評(píng)估質(zhì)量,研究者采用了一些用于高效評(píng)估多模態(tài)數(shù)據(jù)的關(guān)鍵指標(biāo)。
數(shù)據(jù)選擇器
給定一個(gè)視覺 - 語言指令數(shù)據(jù)集和一個(gè)預(yù)訓(xùn)練 MLLM(如 MiniGPT-4 和 LLaVA),數(shù)據(jù)選擇器的最終目標(biāo)是識(shí)別出一個(gè)用于微調(diào)的子集并且使得該子集能為預(yù)訓(xùn)練 MLLM 帶來提升。
為了選出這個(gè)子集并確保其多樣性,研究者首先是使用一個(gè)聚類算法將原始數(shù)據(jù)集分成多個(gè)類別。
為了確保所選出的多模態(tài)指令數(shù)據(jù)的質(zhì)量,研究者制定了一套用于評(píng)估的指標(biāo),如下表 1 所示。

表 2 則給出了在計(jì)算最終分?jǐn)?shù)時(shí),每個(gè)不同分?jǐn)?shù)的權(quán)重。

算法 1 展示了數(shù)據(jù)選擇器的整個(gè)工作流程。

實(shí)驗(yàn)
實(shí)驗(yàn)評(píng)估中所使用的數(shù)據(jù)集如下表 3 所示。

基準(zhǔn)分?jǐn)?shù)
表 4 比較了 MiniGPT-4 基準(zhǔn)模型、使用隨機(jī)采樣的數(shù)據(jù)微調(diào)得到的 MiniGPT-4 以及使用數(shù)據(jù)選擇器微調(diào)得到的 InstructionGPT-4 的表現(xiàn)。

可以觀察到,InstructionGPT-4 的平均表現(xiàn)是最好的。具體來說,InstructionGPT-4 在 ScienceQA 的表現(xiàn)超過基準(zhǔn)模型 2.12%,在 OKVQA 和 VCR-OC 上則分別超過基準(zhǔn)模型 2.49% 和 4.19%。
此外,InstructionGPT-4 在除 VSR 之外的所有其它任務(wù)上都優(yōu)于用隨機(jī)樣本訓(xùn)練的模型。通過在一系列任務(wù)上評(píng)估和對(duì)比這些模型,可以辨別出它們各自的能力,并確定新提出的數(shù)據(jù)選擇器的效能 —— 數(shù)據(jù)選擇器能有效識(shí)別高質(zhì)量數(shù)據(jù)。
這樣的全面分析表明:明智的數(shù)據(jù)選擇可以提升模型在各種不同任務(wù)上的零樣本性能。
GPT-4 評(píng)估
LLM 本身存在固有的位置偏見,對(duì)此可參閱機(jī)器之心文章《語言模型悄悄偷懶?新研究:上下文太長,模型會(huì)略過中間不看》。因此研究者采取了措施來解決這一問題,具體來說就是同時(shí)使用兩種排布響應(yīng)的順序來執(zhí)行評(píng)估,即將 InstructionGPT-4 生成的響應(yīng)放在 MiniGPT-4 生成的響應(yīng)之前或之后。為了制定明確的評(píng)判標(biāo)準(zhǔn),他們采用了「贏-平-輸」(Win-Tie-Lose)框架:
1) 贏:InstructionGPT-4 在兩種情況下都贏或贏一次平一次;
2) 平:InstructionGPT-4 與 MiniGPT-4 平局兩次或贏一次輸一次;
3) 輸:InstructionGPT-4 輸兩次或輸一次平一次。
圖 1 展示了這種評(píng)估方法的結(jié)果。

在 60 個(gè)問題上,InstructionGPT-4 贏 29 局,輸 16 局,其余 15 局平局。這足以證明在響應(yīng)質(zhì)量上,InstructionGPT-4 明顯優(yōu)于 MiniGPT-4。
消融研究
表 5 給出了消融實(shí)驗(yàn)的分析結(jié)果,從中可以看出聚類算法和各種評(píng)估分?jǐn)?shù)的重要性。

演示
為了深入了解 InstructionGPT-4 在理解視覺輸入和生成合理響應(yīng)方面的能力,研究者還對(duì) InstructionGPT-4 和 MiniGPT-4 的圖像理解和對(duì)話能力進(jìn)行了對(duì)比評(píng)估。該分析基于一個(gè)顯眼的實(shí)例,涉及到對(duì)圖像的描述以及進(jìn)一步的理解,結(jié)果見表 6。

InstructionGPT-4 更擅長提供全面的圖像描述和識(shí)別圖像中有趣的方面。與 MiniGPT-4 相比,InstructionGPT-4 更有能力識(shí)別圖像中存在的文本。在這里,InstructionGPT-4 能夠正確指出圖像中有一個(gè)短語:Monday, just Monday.
更多細(xì)節(jié)請(qǐng)參見原論文。















 
 
 











 
 
 
 