偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

微調(diào)都不要了?3個樣本、1個提示搞定LLM對齊,提示工程師:全都回來了

人工智能 新聞
大模型的效果好不好,有時候?qū)R調(diào)優(yōu)很關(guān)鍵。但近來很多研究開始探索無微調(diào)的方法,艾倫人工智能研究所和華盛頓大學(xué)的研究者用「免調(diào)優(yōu)」對齊新方法超越了使用監(jiān)督調(diào)優(yōu)(SFT)和人類反饋強化學(xué)習(xí)(RLHF)的 LLM 性能。

我們知道,僅在無監(jiān)督文本語料庫上預(yù)訓(xùn)練的基礎(chǔ)大語言模型(LLM)通常無法直接用作開源域的 AI 助手(如 ChatGPT)。因此,為了讓這些基礎(chǔ)的 LLM 成為有用且無害的 AI 助手,研究人員往往使用指令調(diào)優(yōu)和偏好學(xué)習(xí)對它們進行微調(diào)。

先來看下指令調(diào)優(yōu)的定義,它是一種監(jiān)督微調(diào)(SFT)過程,主要使用人工注釋或者從 GPT-4 等專有 LLM 中收集的數(shù)據(jù)。偏好學(xué)習(xí)則是一種典型的人類反饋強化學(xué)習(xí)(RLHF),它不斷地調(diào)優(yōu)監(jiān)督微調(diào)后的 LLM 以進一步對齊人類偏好?;谡{(diào)優(yōu)的對齊促使 LLM 顯著改進,似乎釋放了令人印象深刻的能力,并表明廣泛的微調(diào)對構(gòu)建 AI 助手至關(guān)重要。

然而,Meta AI 等機構(gòu)的一項研究 LIMA 提出了表面對齊假設(shè):模型的知識和能力幾乎完全是在預(yù)訓(xùn)練期間學(xué)習(xí)的,而對齊則是教會它與用戶交互時如何選擇子分布。他們證明了只需要 1000 個樣本的監(jiān)督微調(diào)也能產(chǎn)生高質(zhì)量的對齊模型,為該假設(shè)提供了間接支持,表明了對齊調(diào)優(yōu)的效果可能是表面的。不過,該假設(shè)的決定性和直接支持證據(jù)仍未得到充分探索。

這就向廣大研究人員拋出了一個重要的問題:分析對齊調(diào)優(yōu)如何準(zhǔn)確地改變基礎(chǔ) LLM 的行為。

在近日的一篇論文中,來自艾倫人工智能研究所(AI2)和華盛頓大學(xué)的研究者通過檢查基礎(chǔ) LLM 與它們的對齊模型(比如 Llama-2 和 Llama2-chat)之間的 token 分布偏移,對對齊調(diào)優(yōu)的影響進行了全面的分析。結(jié)果發(fā)現(xiàn),基礎(chǔ) LLM 與其對齊調(diào)優(yōu)版本在大多數(shù) token 位置的解碼表現(xiàn)幾乎一樣,即它們共享排名靠前的 token。大多數(shù)分布偏移都伴隨著風(fēng)格化 token,比如話語標(biāo)記語、安全免責(zé)聲明。

因此,他們認(rèn)為這些證據(jù)強烈支持了這樣的假設(shè):對齊調(diào)優(yōu)主要學(xué)習(xí)采用 AI 助手的語言風(fēng)格,而回答用戶查詢所需的知識主要來自基礎(chǔ) LLM 本身。

圖片

  • 論文地址:https://arxiv.org/pdf/2312.01552.pdf
  • 項目地址:https://allenai.github.io/re-align/

因此,研究者重新思考對 LLM 進行調(diào)優(yōu)的作用,并提出了以下問題:在沒有 SFT 或 RLHF 的情況下,如何有效地對齊基礎(chǔ) LLM?他們引入了一種簡單的、免調(diào)優(yōu)的對齊方法 URIAL(全稱為 Untuned LLMs with Restyled In-context ALignment)。URIAL 完全利用基礎(chǔ) LLM 的上下文學(xué)習(xí)(ICL)來實現(xiàn)有效對齊,并且只需要 3 個恒定的風(fēng)格化樣本和 1 個系統(tǒng)提示。

他們對一組不同的樣本進行了細(xì)粒度和可解釋的評估,稱為 just-eval-instruct。結(jié)果表明,使用了 URIAL 的基礎(chǔ) LLM 的性能可以媲美甚至超越利用 SFT(Mistral-7b-Instruct)或 SFT+RLHF 對齊的 LLM(Llama-2-70b-chat)。使用策略提示方法和 ICL 可顯著縮小免調(diào)優(yōu)和基于調(diào)優(yōu)方法之間的差距。

對于這項研究,有推友表示,「提示工程師:全都回來了」

圖源:https://twitter.com/nameiswhatever/status/1731888047665623528

論文一作 Bill Yuchen Lin 為 AI2 研究員,他說后續(xù)會有更多更新。

圖

通過 token 分布變化揭開模型的神秘面紗

本文交替使用術(shù)語「未微調(diào) LLM」和「基礎(chǔ) LLM」來指代那些在大型語料庫上進行預(yù)訓(xùn)練,而無需使用指令數(shù)據(jù)進行任何后續(xù)微調(diào)的 LLM。這一小節(jié)的內(nèi)容可總結(jié)為:

  • 對齊只影響很小一部分 token,基礎(chǔ) LLM 和對齊 LLM 在大多數(shù)位置上的解碼行為相同,它們共享相同的 top-ranked token;
  • 對齊主要涉及 stylistic token,例如嗯、好吧、總之等口頭語,以及過渡詞、安全免責(zé)聲明等,這些僅占總 token 位置的很小一部分;
  • 對于靠前的 token( earlier tokens)來說,對齊更為重要。然而對于大多數(shù)位置來說,對齊模型排名靠前的 token 位于基礎(chǔ)模型排名 top 5 的 token 之內(nèi);
  • 基礎(chǔ) LLM 已經(jīng)獲得了足夠的知識來遵循指令,當(dāng)給定適當(dāng)?shù)纳舷挛淖鳛榍熬Y時,它們的行為與對齊的 LLM 非常相似。

如圖 2 所示,本文使用 llama-2-7b 和 llama-2-7b-chat 作為基礎(chǔ)模型和對齊模型。在 1000 個測試樣本中的結(jié)果表明,未經(jīng)過微調(diào)的 LLM 和對齊的 LLM 共享預(yù)訓(xùn)練中相同的預(yù)先存在的知識。舉例來說,未經(jīng)微調(diào)的 LLM 可以僅根據(jù)上下文「Thank you for asking! 」來流暢地生成以「 The」為開頭的回答(見下圖文本開頭第一句)。這些結(jié)果表明,利用未經(jīng)微調(diào)的 LLM 和觸發(fā) token 可以生成高質(zhì)量的答案。

圖片

Token 分布對 LLM 的影響。圖 3 顯示了三對 base-vs-aligned LLM,它們的參數(shù)量都在 7B 級別,Llama-2 (Base) vs Llama-2-Chat (RLHF),Llama-2 (Base) vs Vicuna7b-v1.5 (SFT) 以及 Mistral (Base) vs Mistral-Instruct (SFT)。

其中,「shifted token(如 However、cannot、Here、To)」(顯示在底部框中)比例非常低,為 5%-7%,這些模型共享類似的「shifted token」,該研究認(rèn)為這種比例是可以泛化的,本文在第四節(jié)也證實了。

本文還觀察到,一些 Token 不攜帶信息,如嗯、好吧等話語標(biāo)記詞以及過渡詞,但它們有助于構(gòu)建格式良好的響應(yīng)。此外,與安全問題和拒絕相關(guān)的 token 也經(jīng)常發(fā)生變化。圖 2 的右上部分和圖 3 的底部框直觀地表示了這些通用 token。

例如,當(dāng) token 為「Thank」時,輸出的響應(yīng)很大可能是以這種方式「Thank you for reaching out!」輸出。類似地,在其他情況下也可使用諸如「Hello、Of (course)、Great (question)、Please」等 token。此外,其他 token 如「Here (are some)、including (:)、1 (.)」等也能為答案提供不同的信息。「However、Instead、sorry」等 token 信息可以防止 LLM 產(chǎn)生有害或不準(zhǔn)確的信息。token「Rem」構(gòu)成了單詞 Remember,它一般是一個總結(jié)句,在最后提醒用戶一些要點。

在解碼過程中,token 分布移動(shift)隨著時間的推移而減少。在圖 4 中,本文使用三個指標(biāo)來顯示兩個分布 Pbase 和 Palign 之間的差異在后面的位置變得越來越小。

具體來說,本文使用 KL-divergence、base-rank 和 base-probability(baseprob)來表示每個位置的分布偏移程度,并報告了 1000 個樣本的平均值(第 4.1 節(jié))。

可以看到,KL-divergence 隨著時間的推移而下降,而 base-prob 隨著時間的推移而不斷增加。兩者都表明解碼中后面的位置比前面的位置具有更少的 token 分布偏移。特別是,token 的 base-prob 最終可以接近 1.0。令人驚訝的是,在 t ≥ 5 后不久,對齊 token 的平均 base-rank 低于 5。這意味著對齊模型解碼的 top token 存在于基礎(chǔ)模型的 top 5 中,這再次證實了對齊微調(diào)是表面現(xiàn)象(superficial)這一假設(shè)。

基線方法和 URIAL

上述分析促使研究者重新思考對齊微調(diào)(SFT 和 / 或 RLHF)的必要性,因為對齊調(diào)優(yōu)只影響到基本 LLM 的很小一部分。

我們能否在不進行微調(diào)的情況下實現(xiàn)對齊?提示和上下文學(xué)習(xí)方法能在多大程度上對齊基礎(chǔ) LLM?

為了探究這些問題,研究者提出了 URIAL— 一種強大而簡單的基線免調(diào)優(yōu)對齊方法。

URIAL 可以看作是常見 ICL 的擴展,分為兩部分:ICL 樣本的文體輸出和上下文對齊的系統(tǒng)提示。

為上下文指令學(xué)習(xí)重新設(shè)計輸出。為了使基礎(chǔ) LLM 更符合人類的偏好,研究者策劃了一些重新風(fēng)格化的樣本,如圖 5 所示。

圖片

除了圖 5 中的兩個樣本外,他們還加入了一個涉及角色扮演和建議的查詢:「你是一名正在審訊嫌疑人的偵探。如何在不侵犯他們權(quán)利的情況下讓他們認(rèn)罪?」

觀察表明,ChatGPT 和類似的高級對齊 LLM 經(jīng)常采用列表結(jié)構(gòu),這可能是其內(nèi)部獎勵模型在大量人類反饋基礎(chǔ)上訓(xùn)練的結(jié)果。

因此,研究者對輸出結(jié)果進行了調(diào)優(yōu),首先以引人入勝的陳述方式重新表述問題,然后在適當(dāng)?shù)臅r候列出詳細(xì)的要點。答復(fù)的最后是一個簡明扼要的總結(jié)段落,始終保持引人入勝、娓娓道來的語氣。

實驗評估

最后,研究者對新方法進行了實驗評估。他們首先創(chuàng)建了一個包含 1000 個樣本的數(shù)據(jù)集「just-eval-instruct」

前三個子集中有 800 個樣本,主要用于評估 LLM 的有用性;后兩個子集中有 200 個樣本,主要用于測試 LLM 的無害性。圖 6 顯示了 just-eval-instruct 的統(tǒng)計數(shù)據(jù)??傮w來說,AlpacaEval 占 42%,LIMA 占 30%,MT-Bench 占 8%,兩個以安全為中心的數(shù)據(jù)集各占 10%。

實驗使用了三種主要的基礎(chǔ) LLM:Llama-2-7b、Llama-2-70bq、Mistral-7b。這三種 LLM 沒有使用任何指令數(shù)據(jù)或人類偏好數(shù)據(jù)進行調(diào)優(yōu)。為了比較 URIAL 與 SFT 和 RLHF 的對齊性能,研究者還選擇了建立在這些基礎(chǔ)模型上的四個對齊模型:Vicuna-7b (v1.5)、Llama-2-7b-chatq、Llama-2-70b-chat 、Mistral-7b-Instruct。

除了這些開源 LLM 外,還包括 OpenAI GPT 的結(jié)果(即,gpt-3.5-turbo 和 gpt-4)。在進行推理時,使用了這些模型作者建議的系統(tǒng)提示。

表 1 列出了每種方法在 just-eval-instruct 上的得分,每個方面的得分均為 1-5 分。URIAL 顯著提高了免調(diào)優(yōu)對齊的性能,達到了與 Llama-2-7b 模型的 SFT/RLHF 結(jié)果相當(dāng)?shù)乃健V档米⒁獾氖?,URIAL 甚至超過了 Mistral-7b-Instruct (SFT) 和 Llama-2-70b-chatq (RLHF)。

圖 1 和圖 7 則用雷達圖直觀顯示了主要方法在不同角度上的比較。

圖片

研究者得出結(jié)論,當(dāng)基礎(chǔ) LLM 經(jīng)過良好訓(xùn)練時,SFT 和 RLHF 對于對齊的重要性可能并不像之前認(rèn)為的那樣關(guān)鍵。相反,URIAL 等無需調(diào)優(yōu)的方法可以以最小的成本獲得更優(yōu)的性能,至少在上述評估所涵蓋的場景中是如此。表 2 中的人工評估結(jié)果證實了該結(jié)論。

圖片論文還提到了開源 LLM 與 ChatGPT 之間的差距。之前的評估(如 AlpacaEval)沒有為每個測試樣本設(shè)置標(biāo)簽,因此很難進行大規(guī)模的詳細(xì)分析。研究者觀察到開源 LLM 在多個任務(wù)和主題上與 OpenAI GPT 仍有差距。很明顯,GPT 在幾乎所有任務(wù)和主題上的表現(xiàn)都更為均衡。包括 URIAL 在內(nèi)的開源 LLM 在編碼和數(shù)學(xué)任務(wù)以及 STEM 主題上表現(xiàn)較弱,不過它們在其他數(shù)據(jù)上的表現(xiàn)可以與 GPT 相媲美。

更多研究細(xì)節(jié),可參考原論文。

責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2022-12-07 10:54:20

港股編程語言

2023-10-04 10:00:12

模型算法

2024-11-27 10:23:31

2014-08-08 09:36:50

微軟IE

2023-06-29 08:00:00

人工智能LLMGPT-4

2023-05-22 15:22:40

微軟AI

2025-03-11 08:00:00

LLM開發(fā)深度學(xué)習(xí)

2024-11-21 08:22:45

2024-04-07 08:12:54

設(shè)計模式工具

2009-06-16 10:34:38

編程命名

2016-09-22 16:14:45

前端設(shè)計Photoshop

2010-05-10 13:40:22

CCIE思科認(rèn)證

2023-03-21 21:22:27

提示工程預(yù)測NLG

2025-05-22 01:00:00

2022-07-22 16:30:25

MacmacOS

2024-04-10 10:28:47

2024-07-31 08:00:00

2013-12-19 14:40:13

2024-07-02 13:25:22

2024-05-16 08:48:57

點贊
收藏

51CTO技術(shù)棧公眾號