偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

「教科書級」數(shù)據能有多大作用?微軟超強小模型引熱議

人工智能 新聞
6 月,微軟發(fā)布了一篇題為《Textbooks Are All You Need》的論文,用規(guī)模僅為 7B token 的「教科書質量」數(shù)據訓練了一個 1.3B 參數(shù)的模型 ——phi-1。

隨著大模型掀起新一輪 AI 熱潮,人們開始思考:大模型的強大能力來源于什么?

當前,大模型一直在由不斷增加的「大數(shù)據」來推動?!复竽P?+ 大數(shù)據」似乎已經成為構建模型的標準范式。但隨著模型規(guī)模和數(shù)據量的不斷增長,算力的需求會迅速膨脹。一些研究者嘗試探索新思路。

6 月,微軟發(fā)布了一篇題為《Textbooks Are All You Need》的論文,用規(guī)模僅為 7B token 的「教科書質量」數(shù)據訓練了一個 1.3B 參數(shù)的模型 ——phi-1。盡管在數(shù)據集和模型大小方面比競品模型小幾個數(shù)量級,但 phi-1 在 HumanEval 的 pass@1 上達到了 50.6% 的準確率,在 MBPP 上達到了 55.5%。

phi-1 證明高質量的「小數(shù)據」能夠讓模型具備良好的性能。最近,微軟又發(fā)表了論文《Textbooks Are All You Need II: phi-1.5 technical report》,對高質量「小數(shù)據」的潛力做了進一步研究。

論文地址:https://arxiv.org/abs/2309.05463

模型簡介

架構

研究團隊使用 phi-1 的研究方法,并將研究重點放在自然語言常識推理任務上,創(chuàng)建了擁有 1.3B 參數(shù)的 Transformer 架構語言模型 phi-1.5。phi-1.5 的架構與 phi-1 完全相同,有 24 層,32 個頭,每個頭的維度為 64,并使用旋轉維度為 32 的旋轉嵌入,上下文長度為 2048。

此外,該研究還使用 flash-attention 進行訓練加速,并使用 codegen-mono 的 tokenizer。

圖片

訓練數(shù)據

phi-1.5 的訓練數(shù)據是由 phi-1 的訓練數(shù)據(7B token)和新創(chuàng)建的「教科書質量」數(shù)據(大約 20B token)組成的。其中,新創(chuàng)建的「教科書質量」數(shù)據旨在讓模型掌握常識推理,研究團隊精心挑選了 20K 個主題來生成新數(shù)據。

值得注意的是,為了探討網絡數(shù)據(LLM 常用)的重要性,該研究還構建了 phi-1.5-web-only 和 phi-1.5-web 兩個模型。

研究團隊表示:創(chuàng)建強大且全面的數(shù)據集需要的不僅是原始計算能力,還需要復雜的迭代、有效的主題選擇,以及對知識的深入了解,具備這些要素,才能確保數(shù)據的質量和多樣性。

實驗結果

對于語言理解任務,該研究在多個數(shù)據集(包括 PIQA、Hellaswag、OpenbookQA、SQUAD 和 MMLU)上評估了一些模型。評估結果如下表 3 所示,phi-1.5 的性能可以媲美 5 倍大的模型:

圖片

在常識推理基準上的測試結果如下表所示:

圖片

在更復雜的推理任務(例如小學數(shù)學和基礎編碼任務)上 phi-1.5 還超越了大多數(shù) LLM:

圖片

研究團隊認為,phi-1.5 再次證明了高質量「小數(shù)據」的力量。

圖片

質疑與討論

或許是因為「大模型 + 大數(shù)據」的理念太深入人心,這項研究遭到了機器學習社區(qū)一些研究人員的質疑,甚至有人懷疑 phi-1.5 直接在測試基準數(shù)據集上訓練了。

圖片

網友 Susan Zhang 進行了一系列驗證,并指出:「phi-1.5 能夠對 GSM8K 數(shù)據集中的原問題給出完全正確的回答,但只要稍微修改一下格式(例如換行),phi-1.5 就不會回答了?!?/span>

圖片


圖片

還有修改問題中的數(shù)據,phi-1.5 在解答問題的過程中就會出現(xiàn)「幻覺」。例如,在一個點餐問題中,只修改了「披薩的價格」,phi-1.5 的解答就出現(xiàn)了錯誤。

圖片


圖片

并且,phi-1.5 似乎「記住了」最終答案,即使在修改數(shù)據的情況下該答案已經是錯誤的。

對此,論文作者之一 Ronen Eldan 很快給出了回應,針對上述網友測試出現(xiàn)的問題給出解釋和反駁:

圖片

但該網友再次闡明其觀點:測試說明 phi-1.5 的回答對 prompt 的格式是非?!复嗳酢沟?,并對作者的回應提出質疑:

圖片

論文第一作者 Yuanzhi Li 回應道:「由于沒有進行任何指令微調和對齊工作,phi-1.5 在穩(wěn)健性上的確不如 GPT-4。但『脆弱』并不是正確的術語,事實上,對于任何模型,pass@k 準確率都會比 pass@1 高得多(所以模型正確就是偶然的)。」

圖片

看到這些質疑與討論,網友們直呼:「最簡單的回應方式就是直接公開合成數(shù)據集。」

圖片

對此,你怎么看?

責任編輯:張燕妮 來源: 機器之心
相關推薦

2020-01-09 10:49:42

AI 數(shù)據人工智能

2013-01-18 14:00:59

VMware

2013-03-25 14:10:02

Windows Blu

2009-11-30 15:05:54

2014-11-11 14:31:07

應用交付/地鋪科技

2013-02-22 15:06:46

WPS陳歐體金山軟件

2024-12-13 14:03:44

模型訓練AI

2017-06-30 15:27:19

智能 語音

2014-11-12 14:56:48

ZAKER

2013-06-25 11:16:05

余額寶銀行業(yè)大數(shù)據

2024-01-10 17:37:17

概率token模型

2013-03-01 11:09:12

天音通信

2015-11-09 16:35:52

ivvi

2023-12-18 12:52:18

2020-04-22 10:50:14

清華大學 C++自動化

2021-03-05 15:58:45

AI 數(shù)據人工智能

2021-04-28 06:52:46

程序員應聘Java

2017-06-27 11:57:50

雪佛蘭

2024-11-07 15:46:55

點贊
收藏

51CTO技術棧公眾號