偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

ChatGPT變笨新解釋:世界被AI改變,與訓練時不同了

人工智能
研究團隊一共評估了12種模型,從ChatGPT之前的GPT-3系列、OPT、Bloom,到最新的GPT-3.5-turbo、羊駝家族Llama、Alpaca和Vicuna等。

對于ChatGPT變笨原因,學術界又有了一種新解釋。

加州大學圣克魯茲分校一項研究指出:

在訓練數(shù)據(jù)截止之前的任務上,大模型表現(xiàn)明顯更好。

圖片

論文重點研究了“任務污染”問題,也就是大模型在訓練時期就見識過很多任務示例,給人一種AI擁有零樣本或少樣本能力的錯誤印象。

圖片

也有學者從另一個角度指出,大模型訓練后參數(shù)凍結,人們不斷提出新的任務也就是輸入分布不斷變化。如果模型不能不斷適應這種變化,就表現(xiàn)成能力慢慢退化。

人們以為只提了個問題AI就能回答,其實是在訓練時見過大多數(shù)常見任務。

隨時間推移,人們開始提出更多新問題,AI表現(xiàn)就不行了。

比如對于代碼問題,編程語言還在持續(xù)發(fā)展變化,遲早有一天效率會低到不可接受。

圖片

這是所有不具備持續(xù)學習能力模型的命運。

圖片

任務污染有多嚴重?

研究團隊一共評估了12種模型,從ChatGPT之前的GPT-3系列、OPT、Bloom,到最新的GPT-3.5-turbo、羊駝家族Llama、Alpaca和Vicuna等。

圖片

它們都存在類似問題,也就是在訓練截止之前的任務上表現(xiàn)明顯更好。

評估任務污染非常困難,閉源模型根本不會公布訓練數(shù)據(jù),大多數(shù)開源模型也只是生命了來源,而不發(fā)布數(shù)據(jù)本身。

如果研究者重新爬取互聯(lián)網(wǎng)數(shù)據(jù),也有可能與模型訓練時相比發(fā)生了變化。

對此,團隊采用4種方法來測量任務污染程度:

  • 檢查訓練數(shù)據(jù):直接搜索有沒有相應的任務示例

在開源模型Alpaca和Vicuna上,存在訓練數(shù)據(jù)污染的任務表現(xiàn)就比原版Llama更好的趨勢明顯。

圖片

  • 提取任務示例:通過調整提示詞,讓模型自己把訓練數(shù)據(jù)中的任務示例背出來

從GPT-3 davinci-001版本到GPT-3.5-Turbo,這個問題越來越嚴重了。

圖中X代表模型復述出了訓練數(shù)據(jù)數(shù)據(jù)中的原始任務示例,綠色代表經(jīng)過指令微調的模型沒有復述訓練數(shù)據(jù)。

灰色代表未經(jīng)過指令微調的模型無法根據(jù)提示詞指示復述訓練數(shù)據(jù),但不代表問題不存在。

圖片

  • 成員推斷(只適用于生成任務):檢查模型生成的答案是否與原始數(shù)據(jù)完全相同

圖片

  • 按時間順序分析:對于已知訓練數(shù)據(jù)收集時間的模型,測量已知發(fā)布時間數(shù)據(jù)集上的表現(xiàn)并使用按時間順序的證據(jù)檢查數(shù)據(jù)污染證據(jù)

前三種方法精度較高,但召回率較低。如果在任務的訓練數(shù)據(jù)中找到數(shù)據(jù),則可以肯定它已經(jīng)看到了示例。

但由于數(shù)據(jù)格式的變化、關鍵字的變化以及數(shù)據(jù)集的大小,使用前三種方法沒有找到證據(jù)并不意味著數(shù)據(jù)污染不存在。

第四種方法召回率高但精度低,容易受干擾因素影響。

特別是對于GPT-3系列,目前人們假設其能力提高來自于指令微調,但研究團隊認為事實并非如此。

雖然在2021年之前的數(shù)據(jù)集上,davinci-002比davinci-001的性能有所提高,但在2021年之后的數(shù)據(jù)集上性能卻相應下降,

通這表明GPT-3系列的指令微調只適用于某些早期數(shù)據(jù)集。

圖片

最后團隊的結論為:

  • 由于任務污染,閉源模型可能會在零樣本或少樣本評估中表現(xiàn)的比實際好,特別是經(jīng)過RLHF微調的模型。污染的程度仍不清楚,因此我們建議謹慎行事。
  • 在實驗中,對于沒有任務污染可能性的分類任務,大模型很少在零樣本和少樣本設置中表現(xiàn)出相對于大多數(shù)基線具有統(tǒng)計學意義的顯著改進。
  • 隨著時間推移,觀察到GPT-3系列模型在許多下游任務的的零樣本或少樣本性能有所增加,這可能是由于任務污染造成的。
  • 即使對于開源模型,檢查訓練數(shù)據(jù)的任務污染也很困難。
  • 鼓勵公開發(fā)布訓練數(shù)據(jù),以便檢查任務污染問題。

圖片

有人總結到:

  1. 用現(xiàn)有數(shù)據(jù)訓練AI
  2. 人們過多使用AI,以至于改變了現(xiàn)實世界
  3. AI無法適應改變后的世界,變得低效

這是一個循環(huán)。

圖片

論文:https://arxiv.org/abs/2312.16337。

參考鏈接:
[1]https://twitter.com/ChombaBupe/status/1741531065032798360。

責任編輯:姜華 來源: 量子位
相關推薦

2024-01-01 22:28:52

2025-07-09 01:22:00

AI強化學習監(jiān)督學習

2020-12-30 14:08:34

人工智能人工智能技術

2020-12-19 16:42:36

人工智能AI深度學習

2023-04-15 20:29:19

ChatGPT人工智能

2015-07-03 10:37:21

容器技術Docker云計算

2023-12-12 17:53:27

馬斯克AIChatGPT

2011-09-06 09:02:06

程序員

2015-05-11 14:50:26

APP

2023-07-10 10:28:48

2017-01-16 19:27:40

視覺人工智能AI

2023-06-03 13:28:35

ChatGPTAItoken

2022-12-12 13:10:25

2025-10-09 09:02:00

2023-08-10 09:00:00

2015-07-30 15:03:36

Windows 10微軟

2020-03-27 13:33:21

阿里安全AIAI模型

2023-02-20 09:29:30

ChatGPTAI

2022-09-15 11:41:25

人工智能AI

2025-06-16 09:02:00

點贊
收藏

51CTO技術棧公眾號