偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

AI學會隱藏思維暗中推理!不依賴人類經(jīng)驗解決復(fù)雜任務(wù),更黑箱了

人工智能
紐約大學團隊新研究發(fā)現(xiàn),即使不讓AI寫步驟,全用無意義的“……”代替,在一些復(fù)雜任務(wù)上的表現(xiàn)也能大幅提升!

AI做數(shù)學題,真正的思考居然是暗中“心算”的?

紐約大學團隊新研究發(fā)現(xiàn),即使不讓AI寫步驟,全用無意義的“……”代替,在一些復(fù)雜任務(wù)上的表現(xiàn)也能大幅提升!

一作Jacab Pfau表示:只要花費算力生成額外token就能帶來優(yōu)勢,具體選擇了什么token無關(guān)緊要。

圖片圖片

舉例來說,讓Llama 34M回答一個簡單問題:自然常數(shù)e的前6位數(shù)字中,有幾個大于5的?

AI直接回答約等于瞎搗亂,只統(tǒng)計前6位數(shù)字居然統(tǒng)計出7個來。

讓AI把驗證每一數(shù)字的步驟寫出來,便可以得到正確答案。

讓AI把步驟隱藏,替換成大量的“……”,依然能得到正確答案!

圖片圖片

這篇論文一經(jīng)發(fā)布便掀起大量討論,被評價為“我見過的最玄學的AI論文”。

圖片圖片

那么,年輕人喜歡說更多的“嗯……”、“l(fā)ike……”等無意義口癖,難道也可以加強推理能力?

圖片圖片

從“一步一步”想,到“一點一點”想

實際上,紐約大學團隊的研究正是從思維鏈(Chain-of-Thought,CoT)出發(fā)的。

也就是那句著名提示詞“讓我們一步一步地想”(Let‘s think step by step)。

圖片圖片

過去人們發(fā)現(xiàn),使用CoT推理可以顯著提升大模型在各種基準測試中的表現(xiàn)。

目前尚不清楚的是,這種性能提升到底源于模仿人類把任務(wù)分解成更容易解決的步驟,還是額外的計算量帶來的副產(chǎn)物。

為了驗證這個問題,團隊設(shè)計了兩個特殊任務(wù)和對應(yīng)的合成數(shù)據(jù)集:3SUM和2SUM-Transform。

3SUM要求從一組給定的數(shù)字序列中找出三個數(shù),使得這三個數(shù)的和滿足特定條件,比如除以10余0。

圖片圖片

這個任務(wù)的計算復(fù)雜度是O(n3),而標準的Transformer在上一層的輸入和下一層的激活之間只能產(chǎn)生二次依賴關(guān)系。

也就是說,當n足夠大序列足夠長時,3SUM任務(wù)超出了Transformer的表達能力。

在訓練數(shù)據(jù)集中,把與人類推理步驟相同長度的“...”填充到問題和答案之間,也就是AI在訓練中沒有見過人類是怎么拆解問題的。

圖片圖片

在實驗中,不輸出填充token“…...”的Llama 34M表現(xiàn)隨著序列長度增加而下降,而輸出填充token時一直到長度14還能保證100%準確率。

圖片圖片

2SUM-Transform僅需判斷兩個數(shù)字之和是否滿足要求,這在 Transformer 的表達能力范圍內(nèi)。

但問題的最后增加了一步“對輸入序列的每個數(shù)字進行隨機置換”,以防止模型在輸入token上直接計算。

結(jié)果表明,使用填充token可以將準確率從 78.7%提高到93.6%。

圖片圖片

除了最終準確率,作者還研究了填充token的隱藏層表示。實驗表明,凍結(jié)前面層的參數(shù),只微調(diào)最后一個Attention層,隨著可用的填充token數(shù)量增多,預(yù)測的準確率遞增。

這證實了填充token的隱藏層表示確實包含了與下游任務(wù)相關(guān)的隱性計算。

圖片圖片

AI學會隱藏想法了?

有網(wǎng)友懷疑,這篇論文難道在說“思維鏈”方法其實是假的嗎?研究這么久的提示詞工程,都白玩了。

圖片圖片

團隊表示,從理論上講填充token的作用僅限于TC0復(fù)雜度的問題范圍內(nèi)。

TC0也就是可以通過一個固定深度的電路解決的計算問題,其中電路的每一層都可以并行處理,可以通過少數(shù)幾層邏輯門(如AND、OR和NOT門)快速解決,也是Transformer在單此前向傳播中能處理的計算復(fù)雜度上限。

而足夠長的思維鏈,能將Transformer的表達能力擴展到TC0之外。

而且讓大模型學習利用填充token并不容易,需要提供特定的密集監(jiān)督才能收斂。

也就是說,現(xiàn)有的大模型不太可能直接從填充token方法中獲益。

但這并不是當前架構(gòu)的內(nèi)在局限性,如果在訓練數(shù)據(jù)中提供足夠的示范,它們應(yīng)該也能從填充符號中獲得類似的好處。

這項研究還引發(fā)了一個令人擔心的問題:大模型有能力進行無法監(jiān)控的暗中計算,對AI的可解釋性和可控性提出了新的挑戰(zhàn)。

換句話說,AI可以不依賴人類經(jīng)驗,以人們看不見的形式自行推理。

這既刺激又可怕。

圖片圖片

最后有網(wǎng)友開玩笑提議,讓Llama 3首先生成1千萬億點點點,就能得到AGI的權(quán)重了(狗頭)。

圖片圖片

論文:https://arxiv.org/abs/2404.15758

參考鏈接:
[1]https://x.com/jacob_pfau/status/1783951795238441449[2]https://x.com/johnjnay/status/1784261779163349110

責任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2019-06-18 09:00:00

AI人工智能云計算

2024-04-11 13:36:23

2018-06-05 15:02:32

2015-10-15 10:32:48

WiFi物聯(lián)網(wǎng)智能家居

2011-12-06 12:21:55

企業(yè)級移動應(yīng)用

2022-12-12 13:45:46

模型修圖

2022-05-09 11:23:43

人工智能機器學習推理

2024-09-14 15:07:03

2025-06-10 09:25:27

2022-02-18 09:53:17

AI芯片設(shè)計

2010-03-26 13:52:29

Python生成

2013-11-15 13:22:22

瀏覽器JavaScript

2021-10-24 06:49:08

線程池中間件開源

2025-05-26 08:40:00

2024-03-11 14:42:31

字節(jié)級模型AI人工智能

2018-10-20 15:20:10

2025-03-14 13:12:53

2025-07-01 08:53:26

2025-01-10 11:42:40

2012-11-13 16:42:45

EFS加密加密密鑰
點贊
收藏

51CTO技術(shù)棧公眾號