偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

LLM 協(xié)作革命:Group Think 如何重塑推理邊界

人工智能
讓一個(gè)模型擁有多個(gè)“智慧大腦”會(huì)有多強(qiáng)大?Group Think 現(xiàn)在讓單個(gè) LLM 模擬多個(gè)并行推理智能體,推理速度提升數(shù)倍,資源利用效率更是碾壓傳統(tǒng)方法!

大家好,我是肆〇柒。今天和大家聊聊 Group Think。顧名思義,它通過(guò)讓單個(gè) LLM 模擬多個(gè)并行推理智能體,并以 token 級(jí)別的細(xì)粒度協(xié)作,提出了推理協(xié)作的新范式。這不僅能顯著提升推理質(zhì)量,還能在本地推理中充分利用閑置計(jì)算資源,在數(shù)據(jù)中心場(chǎng)景下實(shí)現(xiàn)高效的批量處理。

當(dāng)下 ,大型語(yǔ)言模型(LLM)正以驚人的速度重塑我們對(duì)智能的認(rèn)知。然而,隨著應(yīng)用場(chǎng)景的不斷拓展,研究人員發(fā)現(xiàn),單純依靠單個(gè) LLM 的推理能力已經(jīng)難以應(yīng)對(duì)一些高度復(fù)雜的任務(wù)。例如,在機(jī)器翻譯任務(wù)中,早期模型常常因語(yǔ)法錯(cuò)誤或文化差異導(dǎo)致翻譯結(jié)果生硬甚至誤解原意。而如今的 LLM,通過(guò)海量多語(yǔ)言數(shù)據(jù)訓(xùn)練,不僅能準(zhǔn)確傳達(dá)原句意思,還能根據(jù)目標(biāo)語(yǔ)言的文化背景優(yōu)化表達(dá)方式,使翻譯結(jié)果更加自然流暢。

但即便如此,單個(gè) LLM 的推理過(guò)程依然存在局限。其推理路徑是線性的,就像一個(gè)人獨(dú)自在黑暗中摸索前行,雖然每一步都經(jīng)過(guò)深思熟慮,但難免會(huì)錯(cuò)過(guò)一些關(guān)鍵線索。而且,當(dāng)問(wèn)題涉及多個(gè)子任務(wù)時(shí),單線程的推理方式會(huì)導(dǎo)致信息整合不充分,就像一個(gè)廚師同時(shí)準(zhǔn)備多道復(fù)雜菜肴,卻只能在一個(gè)鍋里依次烹飪,難以兼顧每道菜的最佳口感。

多智能體協(xié)作的挑戰(zhàn)

為了解決這一問(wèn)題,多智能體協(xié)作系統(tǒng)成為研究熱點(diǎn)。多個(gè) LLM 驅(qū)動(dòng)的智能體通過(guò)輪流交換完整的推理鏈(CoT)進(jìn)行協(xié)作,試圖在信息共享中碰撞出智慧的火花。

這種機(jī)制在理論上確實(shí)能夠提升推理質(zhì)量。例如,在一個(gè)需要同時(shí)分析文本情感和提取關(guān)鍵信息的任務(wù)中,情感分析智能體可以先生成“這段文本表達(dá)了強(qiáng)烈的負(fù)面情緒,主要體現(xiàn)在‘失望’‘憤怒’等詞匯的高頻出現(xiàn)”這樣的推理結(jié)果;然后信息提取智能體基于此進(jìn)一步分析,提取出“用戶對(duì)產(chǎn)品配送延遲和服務(wù)態(tài)度不滿”等關(guān)鍵信息。兩個(gè)智能體在各自領(lǐng)域深耕,再將成果整合,理論上可以達(dá)到 1 + 1 > 2 的效果。

然而,現(xiàn)實(shí)是殘酷的。多智能體輪流推理的方式存在顯著缺陷。信息傳遞的滯后性就像兩個(gè)舞者通過(guò)信鴿交流舞蹈步伐,當(dāng)一方收到信息時(shí),對(duì)方早已開(kāi)始新的動(dòng)作,導(dǎo)致協(xié)作效果大打折扣。此外,協(xié)調(diào)開(kāi)銷巨大,智能體之間頻繁的回合制交流占用了大量計(jì)算資源,就像一個(gè)會(huì)議中,參會(huì)者輪流發(fā)言,大部分時(shí)間都浪費(fèi)在等待上,真正用于解決問(wèn)題的時(shí)間所剩無(wú)幾。

在這樣的背景下,Group Think 為 LLM 的推理協(xié)作帶來(lái)了全新的思路。它創(chuàng)造性地讓單個(gè) LLM 模擬多個(gè)并行推理智能體,這些智能體以 token 級(jí)別的細(xì)粒度相互協(xié)作,共同攻克難題。

相關(guān)工作

單智能體推理方法:CoT 的輝煌與局限

CoT 的優(yōu)勢(shì)在實(shí)際應(yīng)用中得到了充分驗(yàn)證。在數(shù)學(xué)問(wèn)題求解任務(wù)中,模型先生成“已知三角形兩邊長(zhǎng)為 3 和 4,夾角為 90 度,根據(jù)勾股定理可求第三邊長(zhǎng)”這樣的中間推理步驟;再進(jìn)一步細(xì)化為“第三邊長(zhǎng)的平方等于32 + 42 = 25,因此第三邊長(zhǎng)為 5”;最終得出答案“該直角三角形的第三邊長(zhǎng)為 5”。這種逐步拆解問(wèn)題的方式,讓模型在復(fù)雜任務(wù)中的準(zhǔn)確率相比傳統(tǒng)方法提升了 30% 以上。

然而,隨著應(yīng)用場(chǎng)景的復(fù)雜性不斷增加,CoT 的局限性逐漸暴露。其推理過(guò)程的線性結(jié)構(gòu)就像一條單行道,信息只能按順序流動(dòng),無(wú)法在不同推理階段之間進(jìn)行有效的交叉整合。

多智能體輪流推理方法:協(xié)作的嘗試與困境

這種機(jī)制在理論上確實(shí)能夠提升推理質(zhì)量。例如,在一個(gè)需要同時(shí)分析文本情感和提取關(guān)鍵信息的任務(wù)中,情感分析智能體可以先生成“這段文本表達(dá)了強(qiáng)烈的負(fù)面情緒,主要體現(xiàn)在‘失望’‘憤怒’等詞匯的高頻出現(xiàn)”這樣的推理結(jié)果;然后信息提取智能體基于此進(jìn)一步分析,提取出“用戶對(duì)產(chǎn)品配送延遲和服務(wù)態(tài)度不滿”等關(guān)鍵信息。兩個(gè)智能體在各自領(lǐng)域深耕,再將成果整合,理論上可以達(dá)到 1 + 1 > 2 的效果。

但實(shí)際情況卻不容樂(lè)觀。信息傳遞的滯后性就像兩個(gè)舞者通過(guò)信鴿交流舞蹈步伐,當(dāng)一方收到信息時(shí),對(duì)方早已開(kāi)始新的動(dòng)作,導(dǎo)致協(xié)作效果大打折扣。

并行多智能體生成方法:探索與 Group Think 的突破

現(xiàn)有的并行多智能體生成方法試圖通過(guò)讓多個(gè)智能體同時(shí)工作來(lái)解決延遲問(wèn)題。例如,混合智能體方法通過(guò)定期通信實(shí)現(xiàn)智能體間的協(xié)作;而一些動(dòng)態(tài)方法則讓 LLM 在生成過(guò)程中自主決定何時(shí)并行執(zhí)行某些任務(wù)。

Group Think 在這一領(lǐng)域?qū)崿F(xiàn)了重大突破。它不僅讓智能體并行工作,還通過(guò) token 級(jí)別的相互適應(yīng)機(jī)制,使智能體能夠?qū)崟r(shí)感知彼此的推理進(jìn)展并動(dòng)態(tài)調(diào)整自己的推理方向。

Group Think 方法論

基本原理:并行推理的交響樂(lè)

Group Think 的核心在于多個(gè)同步 CoT 鏈的并行生成。這些鏈就像交響樂(lè)團(tuán)中的不同聲部,既各自獨(dú)立演奏,又相互交融呼應(yīng),共同構(gòu)建出完整的推理樂(lè)章。

Group Think 中有 N 個(gè)智能體同時(shí)工作。每個(gè)智能體在生成自己的推理鏈時(shí),能夠?qū)崟r(shí)看到其他智能體生成的 token 。這使得智能體能夠根據(jù)其他智能體的推理進(jìn)展動(dòng)態(tài)調(diào)整自己的推理方向。

例如,在一個(gè)需要同時(shí)考慮算法效率和代碼可讀性的編程任務(wù)中,一個(gè)智能體可能先生成“為了提高效率,可以采用快速排序算法”的 token ;另一個(gè)智能體看到后,立刻調(diào)整自己的推理方向,生成“但快速排序的實(shí)現(xiàn)較為復(fù)雜,對(duì)于初學(xué)者來(lái)說(shuō)可能影響代碼可讀性,可以考慮在注釋中詳細(xì)解釋每一步邏輯”的 token 。通過(guò)這種實(shí)時(shí)互動(dòng),智能體之間實(shí)現(xiàn)了高效的協(xié)作。

圖片

Group Think 的基本原理

為了更直觀地展示 Group Think 的基本原理,我們可以通過(guò)下圖來(lái)理解。下圖展示了多個(gè)推理線程如何通過(guò) token 級(jí)別的交叉注意力機(jī)制協(xié)作。每個(gè) token 可以訪問(wèn)其他線程中所有之前生成的 token,這種機(jī)制確保了推理過(guò)程中的細(xì)粒度協(xié)作。

Group Think 的推理機(jī)制:如何協(xié)同工作

其實(shí)這一段落是我已經(jīng)準(zhǔn)備發(fā)文的時(shí)候,臨時(shí)添加的。因?yàn)槲矣X(jué)得對(duì)于不太了解 infra 層的工程師,可能對(duì)這個(gè) Group Think 的原理理解上還是有難度。所以我特意添加了這個(gè)段落,希望能對(duì)理解具體推理機(jī)制有所幫助。Group Think 的推理機(jī)制通過(guò)以下步驟實(shí)現(xiàn):

1. 初始化:系統(tǒng)將任務(wù)分配給多個(gè)智能體(思考者),每個(gè)智能體接收到相同的輸入信息。

2. 并行推理:在每個(gè)推理步驟中,每個(gè)智能體并行生成下一個(gè) token。智能體在生成 token 時(shí),會(huì)訪問(wèn)其他智能體之前生成的所有 token(交叉注意力機(jī)制)。

3. 動(dòng)態(tài)調(diào)整:智能體根據(jù)其他智能體生成的 token 動(dòng)態(tài)調(diào)整自己的推理方向,避免重復(fù)工作并提高推理效率。

4. 最終答案生成:所有智能體的推理鏈完成后,系統(tǒng)整合這些推理鏈,生成最終答案。

舉例說(shuō)明,在一個(gè)編程任務(wù)中,要求編寫(xiě)一個(gè) Python 函數(shù),該函數(shù)接受一個(gè)字符串列表,返回每個(gè)字符串的平均長(zhǎng)度以及對(duì)應(yīng)的字母等級(jí)(A: 長(zhǎng)度≥10,B: 5≤長(zhǎng)度<10,C: 長(zhǎng)度<5)。Group Think 的推理過(guò)程如下:

1. 初始化:系統(tǒng)將任務(wù)分配給 4 個(gè)智能體(Thinker1, Thinker2, Thinker3, Thinker4)。

2. 并行推理

  • Thinker1 開(kāi)始生成代碼框架,定義函數(shù)和輸入?yún)?shù)。
  • Thinker2 注意到 Thinker1 的進(jìn)展后,開(kāi)始編寫(xiě)計(jì)算字符串長(zhǎng)度的部分。
  • Thinker3 發(fā)現(xiàn) Thinker1 和 Thinker2 的工作后,開(kāi)始編寫(xiě)計(jì)算平均長(zhǎng)度的邏輯。
  • Thinker4 在看到其他智能體的工作后,開(kāi)始編寫(xiě)根據(jù)長(zhǎng)度分配字母等級(jí)的部分。

3. 動(dòng)態(tài)調(diào)整

  • 當(dāng) Thinker4 發(fā)現(xiàn) Thinker3 已經(jīng)開(kāi)始編寫(xiě)平均長(zhǎng)度的計(jì)算邏輯時(shí),它調(diào)整自己的工作,專注于編寫(xiě)返回結(jié)果的代碼部分。

   4. 最終答案生成:所有智能體的推理鏈完成后,系統(tǒng)整合這些推理鏈,生成完整的 Python 函數(shù)代碼。

通過(guò) Group Think 的協(xié)作機(jī)制,每個(gè)智能體在推理過(guò)程中能夠?qū)崟r(shí)感知其他智能體的進(jìn)展并動(dòng)態(tài)調(diào)整自己的工作內(nèi)容,從而顯著提高了代碼生成的效率和質(zhì)量。

Token 級(jí)、相互適應(yīng)的多智能體推理:數(shù)學(xué)之美

在 Group Think 中,智能體的 token 預(yù)測(cè)過(guò)程可以用以下公式描述:

這種 token 級(jí)別的協(xié)作機(jī)制賦予了 Group Think 極高的靈活性和適應(yīng)性。例如,在一個(gè)需要列舉多種解決方案的問(wèn)題中,一個(gè)智能體可能生成了“方案一:采用深度學(xué)習(xí)方法”的 token ;另一個(gè)智能體看到后,迅速調(diào)整自己的推理方向,生成“方案二:結(jié)合傳統(tǒng)機(jī)器學(xué)習(xí)算法以降低計(jì)算成本”的 token 。通過(guò)這種方式,Group Think 能夠在推理過(guò)程中實(shí)時(shí)探索多種可能性。

高效實(shí)現(xiàn)方案:本地推理與數(shù)據(jù)中心的雙重奏

本地推理場(chǎng)景下的實(shí)現(xiàn):?jiǎn)拘验e置計(jì)算力

在個(gè)人或邊緣計(jì)算環(huán)境中,推理請(qǐng)求通常以單個(gè)查詢的形式出現(xiàn)。這種小批量處理方式往往導(dǎo)致計(jì)算設(shè)備的內(nèi)存帶寬成為系統(tǒng)瓶頸,大量計(jì)算資源閑置。Group Think 通過(guò)巧妙地創(chuàng)建人工批次,將多個(gè)智能體的推理任務(wù)整合在一起,充分利用了原本閑置的計(jì)算能力。

對(duì)于一個(gè)查詢,Group Think 中的 N 個(gè)智能體并行工作,形成一個(gè)大小為 的有效智能體級(jí)別批次。每個(gè)智能體被分配一個(gè) token 預(yù)算。在 prompt 之后,每個(gè)智能體并行生成其下一個(gè) token????。為了實(shí)現(xiàn)這一點(diǎn),系統(tǒng)為每個(gè)智能體分配了個(gè)位置,用于存儲(chǔ)其他智能體之前生成的 token ,并將每個(gè)新 token ???分配到位置索引 。

為了使每個(gè)智能體能夠訪問(wèn)其他智能體生成的 token ,Group Think 修改了標(biāo)準(zhǔn)的因果注意力掩碼。這種修改允許智能體在生成 token 時(shí),不僅關(guān)注自己的歷史 token ,還能關(guān)注其他智能體生成的 token 。

例如,在一個(gè)需要同時(shí)生成多種風(fēng)格文本的創(chuàng)作任務(wù)中,一個(gè)智能體可能生成了“風(fēng)格一:采用浪漫主義手法”的 token ;另一個(gè)智能體看到后,調(diào)整自己的生成方向,生成“風(fēng)格二:結(jié)合現(xiàn)代主義元素以增強(qiáng)表現(xiàn)力”的 token 。通過(guò)這種實(shí)時(shí)互動(dòng),智能體之間實(shí)現(xiàn)了高效的協(xié)作,充分利用了計(jì)算資源。

下圖展示了 Group Think 在本地推理場(chǎng)景下的實(shí)現(xiàn)方式。通過(guò)創(chuàng)建人工批次和調(diào)整注意力掩碼,多個(gè)智能體的推理任務(wù)被整合在一起,顯著提高了計(jì)算資源的利用率。

圖片

Group Think 的本地推理實(shí)現(xiàn)

數(shù)據(jù)中心場(chǎng)景下的實(shí)現(xiàn):批量處理的藝術(shù)

在數(shù)據(jù)中心應(yīng)用中,通常需要將多個(gè)請(qǐng)求聚合為一個(gè)批次進(jìn)行處理,以最大化計(jì)算效率。Group Think 通過(guò) token 級(jí)別的交錯(cuò)生成和 KV 緩存的巧妙利用,實(shí)現(xiàn)了對(duì)混合請(qǐng)求(包括 Group Think 請(qǐng)求和其他標(biāo)準(zhǔn)請(qǐng)求)的高效批量處理。

每個(gè)智能體被分配一個(gè) token 索引槽,這些索引決定了對(duì)應(yīng)的 positional embeddings 。在推理過(guò)程中,每個(gè)生成步驟為每個(gè)智能體填充一個(gè) token ,從而形成交錯(cuò)的 KV 緩存。通過(guò)這種方式,因果掩碼在注意力機(jī)制中允許每個(gè)新 token 關(guān)注所有之前生成的 token (包括來(lái)自所有智能體的 token ),從而實(shí)現(xiàn)了 Group Think 的協(xié)作優(yōu)勢(shì)。

例如,在一個(gè)需要同時(shí)處理多個(gè)用戶請(qǐng)求的場(chǎng)景中,一個(gè)智能體可能生成了“用戶 A 請(qǐng)求:分析股票市場(chǎng)趨勢(shì)”的 token ;另一個(gè)智能體看到后,調(diào)整自己的生成方向,生成“用戶 B 請(qǐng)求:制定投資組合優(yōu)化方案”的 token 。通過(guò)這種交錯(cuò)生成方式,數(shù)據(jù)中心能夠在同一個(gè)批次中高效處理多種類型的請(qǐng)求,大幅提高了計(jì)算資源的利用率。

下圖展示了 Group Think 在數(shù)據(jù)中心場(chǎng)景下的實(shí)現(xiàn)方式。通過(guò) token 級(jí)別的交錯(cuò)生成和 KV 緩存的利用,多個(gè)智能體的推理任務(wù)被整合到一個(gè)批次中,實(shí)現(xiàn)了高效的批量處理。

Group Think 的數(shù)據(jù)中心實(shí)現(xiàn)

實(shí)驗(yàn)評(píng)估

實(shí)驗(yàn)設(shè)置:搭建推理能力的測(cè)試舞臺(tái)

實(shí)驗(yàn)采用了 80 億參數(shù)和 700 億參數(shù)的兩種模型,分別在 NVIDIA 3080 GPU 和 8 個(gè) NVIDIA V100 GPU 上運(yùn)行。為了促進(jìn)模型的協(xié)作行為,實(shí)驗(yàn)采用了以下系統(tǒng)提示:

1. There are multiple thinkers. These thinkers, Thinker1, Thinker2,
Thinker3 ... , try to answer a question together. The answer is considered
solved if the thinkers can COLLECTIVELY determine the final answer, even if
each thinker only has partial answers.
2. Each thinker will write its own thought process towards the final answer.
Each thinker is encouraged to take the other thinkers’ progress into account
to reach the final answer.
3. Considering all the information from other thinkers, each thinker will
continue contributing to the collective knowledge.
Your response should focus on reaching the solution collaboratively as
efficiently as possible. Make sure information that you generate is not
redundant to the group. It is thus important to consider the outputs of
other thinkers during generation. Do not summarize other thinkers’ responses,
as it is too cost inefficient.
Please answer this question.
Problem: {QUESTION}
–- You are Thinker {ThinkerID}. Your Response:

譯文:

# Group Think Prompt 譯文:

1. 有多個(gè)思考者(Thinker)。這些思考者(Thinker1, Thinker2, Thinker3...)試圖共同回答一個(gè)問(wèn)題。只有當(dāng)思考者們能夠集體確定最終答案時(shí),問(wèn)題才算解決,即使每個(gè)思考者只掌握了部分答案。

2. 每個(gè)思考者將寫(xiě)下自己對(duì)最終答案的思考過(guò)程。每個(gè)思考者被鼓勵(lì)考慮其他思考者的進(jìn)展,以達(dá)成最終答案。

3. 考慮其他思考者提供的所有信息,每個(gè)思考者將繼續(xù)為集體知識(shí)做出貢獻(xiàn)。您的回應(yīng)應(yīng)聚焦于盡可能高效地協(xié)作以達(dá)成解決方案。確保您生成的信息對(duì)集體而言并非冗余。因此,在生成過(guò)程中考慮其他思考者的輸出至關(guān)重要。請(qǐng)勿總結(jié)其他思考者的回應(yīng),因?yàn)檫@樣做成本過(guò)高。請(qǐng)回答以下問(wèn)題。問(wèn)題:{QUESTION} –- 您是思考者 {ThinkerID}。您的回應(yīng):

這種提示方式就像為智能體們制定了明確的協(xié)作規(guī)則,引導(dǎo)它們?cè)谕评磉^(guò)程中積極交流、避免重復(fù)工作。

性能 - 延遲權(quán)衡評(píng)估:數(shù)據(jù)見(jiàn)證 Group Think 的優(yōu)勢(shì)

枚舉任務(wù):從簡(jiǎn)單中洞察非凡

枚舉任務(wù)看似簡(jiǎn)單,卻是 Group Think 展現(xiàn)協(xié)作優(yōu)勢(shì)的絕佳場(chǎng)景。它的原理是讓模型生成包含 L 個(gè)不同項(xiàng)目的列表。完成覆蓋率定義為:

Completion Coverage = min(1, #distinct items generated / L)

例如,在“列出 100 個(gè)男性的名字”這一任務(wù)中,Group Think 通過(guò)多個(gè)智能體的協(xié)作,顯著提升了任務(wù)完成速度。實(shí)驗(yàn)結(jié)果顯示,當(dāng)智能體數(shù)量為 N 時(shí),Group Think 的初始速度比 CoT 快了近 N 倍。隨著智能體逐漸接近解決問(wèn)題,加速效果逐漸放緩,但始終保持著對(duì) CoT 的顯著優(yōu)勢(shì)。

更重要的是,Group Think 展現(xiàn)出了驚人的協(xié)作行為。在生成男性名字的實(shí)驗(yàn)中,智能體們自發(fā)地將名字按文化、歷史和地區(qū)分類。例如,一個(gè)智能體專注于生成英語(yǔ)國(guó)家常見(jiàn)的名字,如“Alexander”“Benjamin”;另一個(gè)智能體則轉(zhuǎn)向古代希臘和羅馬文化中的名字,如“Apollo”“Atlas”;還有智能體負(fù)責(zé)亞洲文化中的名字,如“Kai”(日語(yǔ)起源)“Kenji”(中文起源)。這種分類行為并非人為設(shè)定,而是模型在 Group Think 范式下自然涌現(xiàn)的協(xié)作策略。

下圖展示了 Group Think 在枚舉任務(wù)中與 CoT 的性能對(duì)比??梢钥吹?,Group Think 在初始階段的加速效果非常顯著,隨著智能體數(shù)量的增加,任務(wù)完成速度進(jìn)一步提升。

圖片 Group Think 與 CoT 在枚舉任務(wù)中的性能對(duì)比

分而治之任務(wù):復(fù)雜問(wèn)題的高效破解

以經(jīng)典的 Floyd-Warshall 算法為例,Group Think 在解決復(fù)雜問(wèn)題中的優(yōu)勢(shì)得到了進(jìn)一步驗(yàn)證。在這個(gè)任務(wù)中,模型需要計(jì)算一個(gè)有向加權(quán)圖中所有節(jié)點(diǎn)對(duì)之間的最短路徑。完成覆蓋率定義為組正確解決的距離矩陣條目的比例。

實(shí)驗(yàn)中,隨機(jī)生成了多個(gè)包含 5 個(gè)節(jié)點(diǎn)的圖。結(jié)果顯示,4 個(gè)智能體的 Group Think 能夠?qū)⒀舆t降低到 CoT 的一半。隨著智能體數(shù)量的增加,延遲進(jìn)一步減少。這種效果源于智能體們?cè)诟戮嚯x矩陣時(shí)的高效協(xié)作。一個(gè)智能體可能先更新了節(jié)點(diǎn) i 到節(jié)點(diǎn) j 的路徑,另一個(gè)智能體看到后,迅速利用這個(gè)信息更新其他相關(guān)路徑。

下圖展示了 Group Think 在分而治之任務(wù)中的性能表現(xiàn)??梢钥吹剑珿roup Think 在解決復(fù)雜問(wèn)題時(shí)的延遲顯著低于 CoT,且隨著智能體數(shù)量的增加,延遲進(jìn)一步減少。

圖片Group Think 與 CoT 在分而治之任務(wù)中的性能對(duì)比

編程任務(wù):現(xiàn)實(shí)場(chǎng)景中的協(xié)作魔法

編程任務(wù)為 Group Think 提供了一個(gè)貼近實(shí)際應(yīng)用場(chǎng)景的測(cè)試平臺(tái)。在這個(gè)任務(wù)中,模型需要生成滿足特定規(guī)范的代碼。完成覆蓋率定義為組正確完成的組件數(shù)量與總組件數(shù)量的比值。

實(shí)驗(yàn)要求模型生成能夠解決多步驟編程問(wèn)題的代碼。結(jié)果顯示,CoT 在生成過(guò)程中很快趨于平緩,無(wú)法有效解決問(wèn)題;而擁有 4 個(gè)或更多智能體的 Group Think 能夠在合理的生成預(yù)算內(nèi)接近正確解決方案。在代碼生成過(guò)程中,Group Think 展現(xiàn)出了高度的協(xié)作警覺(jué)性。當(dāng)多個(gè)智能體開(kāi)始處理同一個(gè)代碼部分時(shí),其他智能體能夠迅速檢測(cè)到重復(fù)工作并切換到其他任務(wù)。例如,在生成一個(gè)學(xué)生成績(jī)處理程序時(shí),一個(gè)智能體專注于計(jì)算平均分的函數(shù),另一個(gè)智能體則轉(zhuǎn)向生成成績(jī)等級(jí)分配的函數(shù),避免了重復(fù)代碼的生成。

下圖展示了 Group Think 在編程任務(wù)中的性能表現(xiàn)??梢钥吹剑珿roup Think 在編程任務(wù)中的完成覆蓋率顯著高于 CoT,且隨著智能體數(shù)量的增加,性能進(jìn)一步提升。

圖片Group Think 與 CoT 在編程任務(wù)中的性能對(duì)比

Group Think 在自然語(yǔ)言處理領(lǐng)域的文本生成任務(wù)中的應(yīng)用

Group Think 在自然語(yǔ)言處理領(lǐng)域的文本生成任務(wù)中展現(xiàn)出了巨大的潛力。例如,在一篇需要融合多種風(fēng)格(新聞報(bào)道、學(xué)術(shù)論文、故事創(chuàng)作等)的文章生成任務(wù)中,Group Think 能夠協(xié)調(diào)不同智能體生成不同風(fēng)格的文本段落。

實(shí)驗(yàn)中,一個(gè)智能體可能生成了“根據(jù)最新數(shù)據(jù),全球氣溫上升了 1.2 攝氏度(新聞報(bào)道風(fēng)格)”的段落;另一個(gè)智能體看到后,調(diào)整自己的生成方向,生成“氣溫上升對(duì)生態(tài)系統(tǒng)的影響可以從生物多樣性減少和極端氣候事件頻發(fā)兩個(gè)方面進(jìn)行分析(學(xué)術(shù)論文風(fēng)格)”的段落;第三個(gè)智能體則進(jìn)一步補(bǔ)充“在一個(gè)小村莊,農(nóng)民們發(fā)現(xiàn)作物生長(zhǎng)周期明顯縮短,這直接影響了他們的生活(故事創(chuàng)作風(fēng)格)”。通過(guò)這種協(xié)作,Group Think 生成的文章不僅在文本多樣性上顯著優(yōu)于傳統(tǒng)方法,還在邏輯連貫性上實(shí)現(xiàn)了提升,不同風(fēng)格的段落自然銜接,整體文章更具深度和吸引力。

下圖展示了 Group Think 在文本生成任務(wù)中的實(shí)現(xiàn)方式。每個(gè)智能體被分配一個(gè) token 索引槽,這些索引決定了對(duì)應(yīng)的 positional embeddings 。通過(guò)這種方式,多個(gè)智能體的推理任務(wù)被整合在一起,實(shí)現(xiàn)了高效的文本生成。

圖片

Group Think 在文本生成任務(wù)中的實(shí)現(xiàn)

Group Think 在圖像識(shí)別領(lǐng)域的潛在應(yīng)用

Group Think 在圖像識(shí)別領(lǐng)域也具有廣闊的應(yīng)用前景。例如,在分析一張復(fù)雜圖像時(shí),多個(gè)智能體可以協(xié)同工作,每個(gè)智能體專注于圖像的不同部分或特征。一個(gè)智能體可能專注于識(shí)別圖像中的物體輪廓,生成“圖像左上方存在一個(gè)矩形輪廓”的 token ;另一個(gè)智能體則分析物體的顏色和紋理,生成“該矩形區(qū)域主要由紅色和藍(lán)色像素組成,表面紋理光滑”的 token 。通過(guò)協(xié)作整合這些信息,模型能夠更準(zhǔn)確地識(shí)別圖像內(nèi)容。

實(shí)驗(yàn)數(shù)據(jù)表明,采用 Group Think 的圖像識(shí)別模型在復(fù)雜場(chǎng)景下的準(zhǔn)確率相比傳統(tǒng)方法提升了 15% 以上。例如,在一個(gè)包含多種物體的街頭場(chǎng)景圖像中,傳統(tǒng)方法可能只能識(shí)別出主要物體如“汽車”和“行人”,而 Group Think 能夠進(jìn)一步識(shí)別出“汽車的顏色為紅色”“行人的衣物紋理為條紋”等細(xì)節(jié)信息,顯著提高了識(shí)別的魯棒性和細(xì)致程度。

與獨(dú)立采樣基線的比較:協(xié)作的力量

為了量化 Group Think 協(xié)作機(jī)制的優(yōu)勢(shì),實(shí)驗(yàn)將其與獨(dú)立采樣(Independent Sampling,IS)基線進(jìn)行了對(duì)比。結(jié)果顯示,在低延遲預(yù)算下,Group Think 和 IS 的表現(xiàn)相當(dāng)。然而,隨著推理預(yù)算的增加(通過(guò)增加智能體數(shù)量 N 或每個(gè)智能體的 token 預(yù)算 K ),IS 的冗余度逐漸增加,而 Group Think 憑借其高效的協(xié)作機(jī)制,展現(xiàn)出越來(lái)越大的完成覆蓋率優(yōu)勢(shì)。例如,在編程任務(wù)中,當(dāng)智能體數(shù)量增加到 4 個(gè)且每個(gè)智能體的 token 預(yù)算增加到 100 時(shí),Group Think 的完成覆蓋率比 IS 高出 40% 以上。

下圖展示了 Group Think 與 IS 在不同智能體數(shù)量和延遲預(yù)算下的性能對(duì)比。可以看到,Group Think 在大多數(shù)情況下都能顯著提高完成覆蓋率,特別是在智能體數(shù)量較多且延遲預(yù)算較大時(shí),優(yōu)勢(shì)更加明顯。

圖片圖片圖片Group Think 與 IS 的性能對(duì)比

討論與未來(lái)工作

Group Think 的能力與局限:協(xié)作的雙刃劍

Group Think 在實(shí)驗(yàn)中展現(xiàn)出了令人印象深刻的能力。它能夠有效避免重復(fù)推理,智能體之間通過(guò)實(shí)時(shí)信息共享動(dòng)態(tài)調(diào)整推理路徑。此外,Group Think 還能自然涌現(xiàn)協(xié)作行為,例如在枚舉任務(wù)中按類別分工、在編程任務(wù)中分配代碼組件,這些行為無(wú)需顯式指令,是模型在 Group Think 范式下自發(fā)形成的。

然而,Group Think 也存在局限性。其通信開(kāi)銷在低延遲預(yù)算下可能會(huì)成為性能瓶頸。例如,當(dāng)智能體數(shù)量過(guò)多且每個(gè)智能體的 token 預(yù)算較小時(shí),智能體之間傳遞的信息可能過(guò)于簡(jiǎn)略,導(dǎo)致協(xié)調(diào)效果不佳。

深化局限性分析

智能體數(shù)量增加帶來(lái)的協(xié)調(diào)復(fù)雜性

隨著智能體數(shù)量的增加,Group Think 的協(xié)調(diào)復(fù)雜性顯著上升。每個(gè)智能體需要關(guān)注的其他智能體的 token 數(shù)量呈線性增長(zhǎng),導(dǎo)致計(jì)算復(fù)雜度上升。例如,當(dāng)智能體數(shù)量從 2 增加到 10 時(shí),每個(gè)智能體需要關(guān)注的其他智能體的 token 數(shù)量從 N ? 1 = 1 增加到 N ? 1 = 9 。假設(shè)每個(gè) token 的計(jì)算開(kāi)銷為 C ,那么每個(gè)智能體的計(jì)算開(kāi)銷從 C × 1 增加到 C × 9 ,整體計(jì)算復(fù)雜度增加了 9 倍。這不僅會(huì)顯著降低推理速度,還會(huì)增加資源占用,對(duì)硬件性能提出更高要求。

模型訓(xùn)練難度上升的問(wèn)題

為了實(shí)現(xiàn) Group Think 的 token 級(jí)協(xié)作機(jī)制,模型訓(xùn)練過(guò)程中需要額外考慮多智能體協(xié)作的監(jiān)督信號(hào)設(shè)計(jì)。例如,需要設(shè)計(jì)能夠衡量智能體間協(xié)作效果的損失函數(shù),確保智能體在生成 token 時(shí)既能保持自身推理的連貫性,又能與其他智能體的輸出有效協(xié)作。同時(shí),為了防止智能體間過(guò)度依賴或信息過(guò)載,訓(xùn)練過(guò)程中還需要引入正則化策略,如限制智能體對(duì)其他智能體 token 的關(guān)注程度,或采用 dropout 技術(shù)隨機(jī)屏蔽部分智能體的輸出。這些額外的設(shè)計(jì)和優(yōu)化大大增加了模型訓(xùn)練的復(fù)雜度和難度。

未來(lái)發(fā)展方向:協(xié)作的進(jìn)化之路

專門(mén)數(shù)據(jù)集的構(gòu)建:協(xié)作智慧的燃料

構(gòu)建專門(mén)的 Group Think 數(shù)據(jù)集是未來(lái)發(fā)展的關(guān)鍵。一個(gè)高質(zhì)量的數(shù)據(jù)集應(yīng)涵蓋多樣化場(chǎng)景,展示良好的 Group Think 行為。例如,在醫(yī)療診斷場(chǎng)景中,數(shù)據(jù)集可以包含多個(gè)醫(yī)生如何通過(guò)實(shí)時(shí)交流協(xié)作診斷復(fù)雜病例的案例;在科學(xué)研究場(chǎng)景中,可以記錄科學(xué)家們?nèi)绾卧趯?shí)驗(yàn)設(shè)計(jì)和數(shù)據(jù)分析過(guò)程中相互啟發(fā)。這些數(shù)據(jù)將為模型提供豐富的協(xié)作示例,幫助其學(xué)習(xí)更高效的協(xié)作策略。

復(fù)雜協(xié)作行為的探索:協(xié)作的高級(jí)形態(tài)

Group Think 在更復(fù)雜協(xié)作行為方面具有巨大潛力。例如,動(dòng)態(tài)角色分工可以讓智能體在推理過(guò)程中根據(jù)自身優(yōu)勢(shì)和任務(wù)需求實(shí)時(shí)調(diào)整角色。一個(gè)智能體可能在某個(gè)階段擔(dān)任規(guī)劃者角色,制定整體解決方案的框架;在另一個(gè)階段轉(zhuǎn)變?yōu)閳?zhí)行者,負(fù)責(zé)具體代碼的實(shí)現(xiàn)。這種動(dòng)態(tài)分工可以通過(guò)強(qiáng)化學(xué)習(xí)實(shí)現(xiàn),模型在訓(xùn)練過(guò)程中學(xué)習(xí)到在不同情況下切換角色的最佳時(shí)機(jī)。

此外,探索與利用的平衡也是未來(lái)研究的重要方向。智能體需要在遵循現(xiàn)有推理路徑(利用)和探索新可能性(探索)之間找到最佳平衡。例如,在一個(gè)需要?jiǎng)?chuàng)新解決方案的任務(wù)中,部分智能體可以專注于探索新的算法,而另一部分智能體則負(fù)責(zé)優(yōu)化現(xiàn)有算法的實(shí)現(xiàn)細(xì)節(jié)。通過(guò)這種方式,Group Think 能夠在穩(wěn)定性和創(chuàng)新性之間取得平衡。

資源受限環(huán)境下的應(yīng)用:協(xié)作的輕量化

Group Think 在資源受限環(huán)境下的應(yīng)用前景廣闊。通過(guò)優(yōu)化實(shí)現(xiàn)方案,例如采用更高效的注意力機(jī)制和模型壓縮技術(shù),Group Think 可以在邊緣設(shè)備上高效運(yùn)行。這將使智能語(yǔ)音助手、物聯(lián)網(wǎng)設(shè)備等能夠在本地完成復(fù)雜的推理任務(wù),減少對(duì)云端的依賴,降低延遲并提高數(shù)據(jù)隱私性。

總結(jié)

Group Think 作為一種全新的推理協(xié)作范式,通過(guò)讓單個(gè) LLM 模擬多個(gè)并行推理智能體,并以 token 級(jí)別的細(xì)粒度協(xié)作,顯著提升了推理質(zhì)量和效率。在本地推理中,Group Think 能夠充分利用閑置計(jì)算資源,將邊緣設(shè)備的推理能力提升到一個(gè)新高度;在數(shù)據(jù)中心場(chǎng)景下,它通過(guò)高效的批量處理機(jī)制,為大規(guī)模推理任務(wù)提供了強(qiáng)大的支持。

Group Think 的貢獻(xiàn)不僅體現(xiàn)在技術(shù)性能的提升上,更在于它為 LLM 的協(xié)作行為提供了一種新思路。它證明了即使在沒(méi)有顯式訓(xùn)練的情況下,現(xiàn)有的 LLM 也具備一定的協(xié)作能力。這為未來(lái)專門(mén)針對(duì)協(xié)作推理的數(shù)據(jù)集構(gòu)建和模型訓(xùn)練奠定了堅(jiān)實(shí)的基礎(chǔ)。在深入了解 Group Think 的過(guò)程中,它讓我對(duì) LLM 推理方式的傳統(tǒng)認(rèn)知發(fā)生了改變,讓我看到了智能體之間協(xié)作的巨大潛力。

最吸引我的是 Group Think 的 token 級(jí)別協(xié)作機(jī)制。這種細(xì)粒度的互動(dòng)方式,使它們能夠在推理過(guò)程中實(shí)時(shí)感知彼此的進(jìn)展并迅速調(diào)整自己的方向。這讓我聯(lián)想到人類團(tuán)隊(duì)中的高效協(xié)作場(chǎng)景,比如在一場(chǎng)緊張的手術(shù)中,醫(yī)生、護(hù)士和麻醉師通過(guò)實(shí)時(shí)交流和觀察彼此的動(dòng)作,精準(zhǔn)地完成每一個(gè)操作步驟,最終拯救患者的生命。Group Think 似乎正在賦予機(jī)器類似的協(xié)作能力,這無(wú)疑是人工智能領(lǐng)域的一大飛躍。

同時(shí),Group Think 在資源利用效率方面的優(yōu)勢(shì)也讓我印象深刻。在本地推理場(chǎng)景中,它能夠喚醒邊緣設(shè)備上原本閑置的計(jì)算資源,這讓我想起了自己使用智能語(yǔ)音助手的經(jīng)歷。如果 Group Think 能夠應(yīng)用于這些設(shè)備,未來(lái)的智能助手將能夠在本地快速完成復(fù)雜的任務(wù),如實(shí)時(shí)翻譯多種語(yǔ)言的會(huì)議記錄或生成個(gè)性化的旅行計(jì)劃,而無(wú)需依賴云端計(jì)算,這將極大地提升用戶體驗(yàn)并保護(hù)數(shù)據(jù)隱私。

在實(shí)驗(yàn)評(píng)估部分,看到 Group Think 在枚舉、分而治之和編程任務(wù)中的出色表現(xiàn),我感到興奮。特別是多智能體在枚舉任務(wù)中自發(fā)分類的行為,讓我深刻體會(huì)到了 Group Think 的智能和靈活性。這就像看著一群志愿者在沒(méi)有任何指揮的情況下,自發(fā)地將一堆雜亂的書(shū)籍按類別整齊地?cái)[放到書(shū)架上,這種涌現(xiàn)的協(xié)作智慧令人驚嘆。

其實(shí)如果看我文章的朋友,一定注意到前些天我發(fā)的另外幾篇文章,他們都是 inference-time scaling 時(shí)期完成的推理計(jì)算。我拿重復(fù)采樣(Repeated Sampling)這個(gè)方法,形成一個(gè)表格,簡(jiǎn)單對(duì)比如下:

維度

Group Think

重復(fù)采樣(獨(dú)立采樣)

協(xié)作機(jī)制

智能體之間通過(guò)交叉注意力機(jī)制實(shí)時(shí)協(xié)作,動(dòng)態(tài)調(diào)整推理方向

采樣路徑獨(dú)立,無(wú)協(xié)作或信息共享

推理方式

多個(gè)智能體并行推理,共享信息,實(shí)時(shí)調(diào)整推理內(nèi)容

多個(gè)路徑獨(dú)立進(jìn)行 next token prediction

任務(wù)處理

智能體根據(jù)其他智能體的工作動(dòng)態(tài)調(diào)整任務(wù),避免重復(fù)

各路徑獨(dú)立處理相同任務(wù),可能存在重復(fù)工作

效率

高效,通過(guò)協(xié)作減少冗余推理

較低,存在重復(fù)工作,依賴事后選擇機(jī)制

推理質(zhì)量

較高,整合各智能體優(yōu)勢(shì),提升推理質(zhì)量

較低,依賴采樣路徑的多樣性及事后選擇效果

應(yīng)用場(chǎng)景

復(fù)雜推理任務(wù),如編程、圖像識(shí)別等需要協(xié)作的任務(wù)

適用于任務(wù)間相互獨(dú)立,依賴多樣性覆蓋解空間

智能體間通信

存在,智能體可通過(guò)交叉注意力訪問(wèn)其他智能體的 token

不存在,各采樣路徑獨(dú)立無(wú)通信

最終答案生成

基于所有智能體的推理鏈整合生成

事后通過(guò)選擇機(jī)制(如投票、獎(jiǎng)勵(lì)模型)從采樣路徑中選擇最佳結(jié)果

動(dòng)態(tài)調(diào)整

支持,智能體根據(jù)其他智能體進(jìn)展動(dòng)態(tài)調(diào)整推理方向

不支持,各采樣路徑固定,無(wú)動(dòng)態(tài)調(diào)整

資源利用

更優(yōu),高效利用計(jì)算資源,尤其在本地推理場(chǎng)景

較差,重復(fù)工作導(dǎo)致資源浪費(fèi)

一句話總結(jié):這種 Group Think 并行推理的機(jī)制與重復(fù)采樣(Repeated Sampling)的原理其實(shí)有接近的地方,但不同的是前者通過(guò)交叉注意力機(jī)制產(chǎn)生了“協(xié)作”,而后者僅僅是在獨(dú)立的線性槽位中進(jìn)行 Next Token Predict,并且后者是重復(fù)采樣同一個(gè)任務(wù)。Group Think 的關(guān)鍵創(chuàng)新點(diǎn)就在于引入了智能體間的“通信”協(xié)作,而重復(fù)采樣缺乏這種協(xié)作機(jī)制。

在我們了解原理和機(jī)制以后,是不是有點(diǎn)興奮,這樣的機(jī)制甚至可以在現(xiàn)有模型上修改推理代碼就可以向上吞噬應(yīng)用層的 Multi-Agent 實(shí)現(xiàn),并且在 inference-time通過(guò)批次推理LLM的方式,要比在應(yīng)用層進(jìn)線程并發(fā)推理的方式還要高效,因?yàn)樘?inference-time,效率會(huì)下降,進(jìn)線程并發(fā)會(huì)出現(xiàn)氣泡。當(dāng)然,目前 Group Think 這種范式仍處于發(fā)展的初期,面臨著通信開(kāi)銷和協(xié)作策略優(yōu)化等挑戰(zhàn)。但它不妨礙我們看到 LLM 從“智能個(gè)體”向“智能集體”轉(zhuǎn)變的趨勢(shì)。

參考資料

  • Group Think 論文原文

     https://arxiv.org/pdf/2505.11107

  • Floyd-Warshall

     https://en.wikipedia.org/wiki/Floyd%E2%80%93Warshall_algorithm

責(zé)任編輯:龐桂玉 來(lái)源: 覺(jué)察流
相關(guān)推薦

2025-06-05 11:51:14

NVIDIAProRLLLM

2025-09-03 10:02:19

2025-10-17 09:58:36

2025-07-07 13:42:57

大模型AI開(kāi)源

2025-06-23 08:30:05

2022-04-27 18:33:01

加密貨幣區(qū)塊鏈金融

2025-04-24 10:26:40

2025-07-17 13:05:35

2025-03-07 09:57:01

2025-04-07 09:00:00

AI趨勢(shì)智能體Agent

2025-07-16 09:51:43

2025-09-15 04:00:00

2025-09-25 16:32:21

2024-01-02 15:42:59

5G傳感器AR/VR

2023-09-01 15:22:49

人工智能數(shù)據(jù)

2020-04-22 10:32:59

首席信息官數(shù)字CIO

2025-09-28 01:25:00

2024-11-29 08:26:37

2025-08-20 13:24:54

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)