偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

AI進入推理模型時代,一文帶你讀懂思維鏈

人工智能 新聞
今天這篇文章將帶你了解思維鏈(CoT)的相關(guān)研究和技術(shù)。

這種方法類似,只是它不僅要強制選擇最可能的 token,還要查看整個響應(yīng)的置信度分數(shù)。

圖片

評估內(nèi)部置信度分數(shù)

為此,系統(tǒng)首先會啟動一定數(shù)量 k 的初始頂部 token,然后從每個 token 生成路徑。生成答案后,它會通過分析不同路徑中每個 token 的概率(logit)來計算置信度分數(shù)。

返回的結(jié)果是具有最高概率的答案(或路徑)。

這種方法稱為 Decoding CoT,由 DeepMind 提出。這種方法的思想是查看模型對返回答案的內(nèi)部置信度。

但是如果它沒有回答問題的固有知識會發(fā)生什么?與 CoT-SC 一樣,這種方法在很大程度上取決于模型首先是否具有正確的答案。

不過,這并不意味著我們不應(yīng)該測試它。

對于所有這些技術(shù),都有人開源了不同的實現(xiàn),這個也不例外。

因此,我很容易就建立了一個系統(tǒng)來測試這些方法,并比較哪種方法在較小的開源模型 Llama 3 8B 上表現(xiàn)更好。

圖片

感謝 Codelion 開源他的實現(xiàn),讓我可以輕松復現(xiàn):https://github.com/codelion/optillm

從上面的結(jié)果可以看到,與其他方法(例如 Entropy)或僅使用貪婪解碼來處理此特定模型相比,使用 Decoding CoT 顯然產(chǎn)生了最佳結(jié)果。

更新的技術(shù)

現(xiàn)在的研究進展很快,很難完全跟進。這里不會過多論述,但我確實想提一下 Tree of Thoughts (ToT),特別是與蒙特卡洛搜索的結(jié)合時。

ToT 于 2023 年底由普林斯頓大學和 DeepMind 提出,但通常建立在以前的基于樹的推理方法之上。

ToT 不同于具有自我一致性的思維鏈(CoT-SC)。ToT 不會生成多條路徑,而是在生成后才對其進行評估,而是在思維推進過程中對其進行動態(tài)評估。

圖片

簡單演示 ToT 

我們可以將 ToT 想象為 4 個不同的人聚在一起解決問題。每一步,他們都會提出自己的想法,并共同評估哪些想法看起來最有希望。如果一個人的推理似乎有缺陷,他就會離開,其他人會繼續(xù)推進他們的解決方案。

最后,推理正確的人將能夠為你提供答案。

這使得模型可以動態(tài)修剪看起來乏善可陳的路徑,專注于更有希望的線程,從而節(jié)省資源。

但是,有人可能會問,系統(tǒng)如何決定哪個線程是對的,哪個線程是錯的?這是由模型本身決定的。

這也是為什么像蒙特卡洛樹搜索(MCTS)這樣的擴展可以提供更多無偏見的評估機制。MCTS 允許反向傳播,這意味著它可以根據(jù)新信息重新審視和改進早期步驟,而簡單的 ToT 只會向前移動。

在 4 個人解決問題的案例中,MCTS 會允許人們有不太理想的思維,但仍會在游戲中停留更長時間。這種情況的評估方法會有所不同。

MCTS 可以模擬多種未來路徑,評估其潛力,并回溯以改進早期決策。它引入了外部指標(獎勵),而不是完全依賴模型。

像 UCB(置信上限)這樣的統(tǒng)計數(shù)據(jù)使用這些獎勵來決定進一步探索或重新審視哪些想法。

MCTS 比簡單的 ToT 稍微復雜一些,值得單獨寫一篇文章。

CoT 的經(jīng)濟學

所以,到目前為止,你可能會想:好吧,我們已經(jīng)有一些改進,為什么不總是使用更高級的思維鏈形式呢?

首先,成本(以及思考時間)。

對于應(yīng)用于不同模型的鏈,這里計算的是平均推理步數(shù)。

圖片

從這個角度來看,你平均要為每個問題支付高達 8 倍的費用。對于在高級數(shù)學問題上表現(xiàn)最好的 Sonnet,你每 500 個問題最多要支付 15 美元。

這看起來可能不多,但是一旦你每天使用這個系統(tǒng)為客戶服務(wù)或你的團隊生成答案,那每月的消耗可達數(shù)百乃至數(shù)千。

在某些情況下,使用高級推理方法是有意義的,但并非總是如此。

現(xiàn)在可能存在對 CoT 進行微調(diào)的情況,可從根本上消除了多次調(diào)用的需要。

這里有一點需要權(quán)衡考慮:我們希望增加思考時間,讓模型有足夠的時間進行有效推理,但這樣做也會增加用戶的失望情緒和成本。

構(gòu)建智能系統(tǒng)

去年 9 月,一篇題為「To CoT or not to CoT?」的論文發(fā)表,該論文認為應(yīng)用 CoT 帶來的大多數(shù)改進主要在數(shù)學和復雜推理方面。

我們在這里也看到了這一點,在簡單的問題上,CoT 帶來的提升有限。

當我們應(yīng)用這些鏈時,我們必須等待更長時間才能得到答復。這值得嗎?應(yīng)該注意的是,對于簡單的任務(wù)來說,所有這些策略都可能有點過頭了。

但是,如果你正在構(gòu)建一個需要確保答案正確的系統(tǒng),那么采用某種形式的 CoT 或解碼可能會大有助益。

或許,一種值得考慮的做法是:先用一個模型根據(jù)任務(wù)難度來設(shè)置前面幾步,然后分析它是否有信心一開始就解答這個問題。然后讓模型推理(通過鏈),最后用另一個模型對其響應(yīng)進行評分。


責任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2019-06-13 21:31:19

AI

2021-09-13 22:34:56

區(qū)塊鏈新基建數(shù)字化轉(zhuǎn)型

2023-11-20 14:58:30

人工智能AI Agents

2022-07-26 00:00:03

語言模型人工智能

2024-08-09 12:44:45

JavaScript原型鏈鏈條

2025-05-20 11:55:22

人工智能Vision RAGLLM

2025-02-28 06:35:47

2023-11-26 19:31:18

2021-03-05 09:10:19

base64編碼

2025-03-25 09:06:11

2023-12-27 14:03:48

2022-05-31 08:01:53

微前端巨石應(yīng)用微服務(wù)

2020-06-05 14:15:29

可視化數(shù)據(jù)集分析

2025-03-28 11:47:38

2025-04-07 08:40:00

開源Llama 4大模型

2018-11-16 10:04:14

云存儲磁帶存儲RAID

2018-11-30 09:40:05

AI專核手機芯片

2023-12-22 19:59:15

2021-08-04 16:06:45

DataOps智領(lǐng)云

2023-10-16 23:37:56

點贊
收藏

51CTO技術(shù)棧公眾號