偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

像GPT-4這樣的大型語言模型在應用中出現(xiàn)的涌現(xiàn)能力是幻象嗎?

人工智能
這項研究的結果很重要,因為它揭開了大型語言模型(LLM)具有的一些神奇能力的神秘面紗,并且還對“規(guī)模是創(chuàng)造更好的大型語言模型唯一途徑”這一觀點提出了質疑。

5月24日 事實證明,人們對于AI能力的認知還有許多誤區(qū)和歧義,因此需要消除這些誤解。

像ChatGPT和GPT-4這樣的大型語言模型(LLM)得到全球關注,人們也在充分發(fā)揮他們的想象力,這樣功能強大的AI系統(tǒng)展現(xiàn)出了迷人的魅力,但許多研究人員指出,很多人對大型語言模型的了解只是冰山一角。

斯坦福大學研究人員日前進行的一項研究表明,大型語言模型(LLM)的一些能力可能被人們誤解了。研究人員研究了先前報道的大型語言模型(LLM)在訓練和開發(fā)過程中出現(xiàn)的“涌現(xiàn)能力”。他們在研究中發(fā)現(xiàn),當選擇正確的指標來評估大型語言模型(LLM)時,大型語言模型(LLM)的涌現(xiàn)能力就會消失。

這項研究的結果很重要,因為它揭開了大型語言模型(LLM)具有的一些神奇能力的神秘面紗,并且還對“規(guī)模是創(chuàng)造更好的大型語言模型唯一途徑”這一觀點提出了質疑。

大型語言模型(LLM)的涌現(xiàn)能力

一些研究已經(jīng)檢驗了大型語言模型(LLM)顯示出的涌現(xiàn)能力。一項研究將涌現(xiàn)能力定義為“在較小的模型中不存在,但在較大的模型中存在的能力”。基本上,這意味著機器學習模型在某些任務上具有隨機性能,直到其大小達到一定的閾值。在達到閾值之后,隨著其規(guī)模的增長,大型語言模型(LLM)的能力將開始提升??梢栽趫D1中看到LLM表現(xiàn)出的涌現(xiàn)能力,其性能在一定范圍內突然躍升。

大型語言模型(LLM)顯示出大規(guī)模的涌現(xiàn)能力.jpg

大型語言模型(LLM)顯示出大規(guī)模的涌現(xiàn)能力,在模型大小達到一定閾值之前,其完成任務的性能保持在隨機水平。之后,隨著模型規(guī)模的變大,其性能將會躍升并開始提高。

研究人員對LaMDA、GPT-3、Gopher、Chinchilla和PaLM等具有1000多億個參數(shù)的大型語言模型(LLM)的涌現(xiàn)能力進行了研究。這些研究包括從BIG-Bench中選擇的任務,BIG-Bench是一個眾包基準,包括語言學、常識推理和數(shù)學等許多領域。他們還使用了TruthfulQA、大規(guī)模多任務語言理解(MMLU)和場景中的單詞(WiC)進行了測試,這些測試都是為了了解大型語言模型(LLM)在處理復雜語言任務方面的局限性。

有幾個原因使大型語言模型(LLM)的涌現(xiàn)能力變得非常重要。首先,這些研究表明,在開展進一步創(chuàng)新的情況下擴展大型語言模型(LLM)規(guī)??梢岳^續(xù)在更通用的AI能力方面取得進展。其次,隨著大型語言模型(LLM)的發(fā)展,人們無法預測它們會帶來什么。當然,這些研究結果將會進一步強化大型語言模型(LLM)的神秘光環(huán)。

為什么大型語言模型(LLM)的涌現(xiàn)能力會被炒作

斯坦福大學的這項新研究對大型語言模型(LLM)所謂的涌現(xiàn)能力提出了不同的看法。根據(jù)他們的研究,對大型語言模型(LLM)的涌現(xiàn)能力的觀察通常是由于指標的選擇引起的,而不是規(guī)模。斯坦福大學的研究人員認為,“現(xiàn)在關于涌現(xiàn)能力的說法是研究人員分析的結果,而不是特定任務中模型行為隨著規(guī)模的增加而發(fā)生變化?!彼麄冎赋?,強有力的支持證據(jù)表明,涌現(xiàn)能力可能不是擴展AI模型的基本屬性。

具體來說,他們認為涌現(xiàn)能力似乎只出現(xiàn)在非線性或不連續(xù)地縮放任何模型的每個令牌錯誤率的指標下。這意味著在衡量任務性能時,一些指標可能顯示出大規(guī)模的涌現(xiàn)能力,而另一些則顯示出持續(xù)的改進。

例如,有些測試只測量大型語言模型(LLM)輸出正確令牌的數(shù)量。這種情況尤其發(fā)生在與分類和數(shù)學相關的任務中,只有當所有生成的令牌都是正確的時候,其輸出才是正確的。

實際上,LLM模型輸出的令牌逐漸接近正確的令牌。但由于最終答案與基本事實不同,它們都被歸類為不正確,直到它們達到所有標記都是正確的閾值。

研究人員表示,在他們的研究中,如果對相同的輸出使用不同的指標,涌現(xiàn)能力就會消失,LLM模型的性能也會平衡提高。這些指標衡量的是到達正確答案的線性距離,而不僅僅是計算正確答案。

當用非線性指標進行評估時,LLM出現(xiàn)涌現(xiàn)能力;當用線性指標進行評估時,性能會平穩(wěn)提高.jpg

當用非線性指標進行評估時,LLM出現(xiàn)涌現(xiàn)能力;當用線性指標進行評估時,性能會平穩(wěn)提高

研究人員還發(fā)現(xiàn),在某些情況下,出現(xiàn)涌現(xiàn)能力是由于沒有足夠的測試數(shù)據(jù)。通過創(chuàng)建更大的測試數(shù)據(jù)集,其性能改進就會變得穩(wěn)步提高。

為了進一步證明這一點,研究人員試圖了解是否能在其他類型的深度神經(jīng)網(wǎng)絡中重現(xiàn)涌現(xiàn)能力的情況。他們對視覺任務和卷積神經(jīng)網(wǎng)絡(CNN)進行了測試。測試結果表明,如果他們使用非線性指標來評估LLM模型的性能,那么就會觀察到在大型語言模型(LLM)中會出現(xiàn)相同的情況。

為什么這個結論至關重要?

研究人員在發(fā)表的論文總結出一個重要的結論:“對于一個固定的任務和一個固定的模型家族,研究人員可以選擇一個指標來創(chuàng)建涌現(xiàn)能力,也可以選擇一個指標來消除涌現(xiàn)能力。因此,涌現(xiàn)能力可能是研究人員選擇的產物,而不是模型家族在特定任務上的基本屬性。”

研究人員表示,并不是說大型語言模型(LLM)不能顯示出涌現(xiàn)能力,但他們強調,之前聲稱的LLM中的涌現(xiàn)能力可能是研究人員在分析時引發(fā)的幻象。

這一研究的一個重要收獲是對于認識大型語言模型(LLM)性能提供了一個更關鍵的視角。鑒于LLM的驚人能力和成果,如今已經(jīng)有了一種將它們擬人化的趨勢,或將它們與其不具備的特性聯(lián)系起來。

這項研究得出的結論很重要,因為它們將有助于為大型語言模型(LLM)領域帶來更清醒的認識,并更好地理解擴大LLM模型規(guī)模的影響。Sam Bowman最近發(fā)布的一篇論文指出:“當實驗室投資訓練一個新的大型語言模型(LLM)并逐步擴大規(guī)模時,他們有理由相信將會獲得具有經(jīng)濟價值的各種新能力,但他們幾乎無法對這些能力做出自信的預測,或者他們需要做些什么準備才能負責任地部署這些能力?!倍辛烁玫募夹g來衡量和預測改進,研究人員將能夠更好地評估更大的LLM模型的效益和風險。

這種方法也有助于鼓勵研究人員探索創(chuàng)建更大的大型語言模型(LLM)的替代方案。雖然只有大型科技公司才能負擔得起訓練和測試大型LLM的成本,但規(guī)模較小的公司也可以對較小的模型進行研究。有了這些指標,他們將能夠更好地探索這些較小的LLM的功能,并找到新的研究方向來改進它們。

責任編輯:龐桂玉 來源: 極客網(wǎng)
相關推薦

2023-08-17 08:00:00

2023-03-22 10:24:14

AI智能

2023-06-21 13:37:41

模型研究

2023-03-15 07:13:34

2023-04-09 16:17:05

ChatGPT人工智能

2023-03-28 08:23:38

2023-04-24 15:41:27

ChatGPT人工智能

2023-03-30 11:08:49

AI模型訓練

2023-06-19 08:19:50

2023-05-15 13:43:08

ChatGPT語言模型

2024-02-04 12:22:47

AI數(shù)據(jù)

2023-12-26 08:17:23

微軟GPT-4

2023-08-15 15:03:00

AI工具

2025-04-16 09:35:03

2023-04-04 09:09:10

GPT-4編程程序員

2022-05-20 10:43:30

AI模型

2024-01-30 21:18:57

模型智能CMMLU

2023-03-28 13:01:20

GPT-4開發(fā)OpenAI

2023-05-03 20:53:48

2023-03-16 19:17:57

點贊
收藏

51CTO技術棧公眾號