偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

多智能體架構(gòu)大論戰(zhàn):當(dāng)AI巨頭意見分歧時,該相信誰?

人工智能
兩個頂級AI公司,Anthropic和Cognition,在同一個技術(shù)問題上給出了完全相反的答案。而且不是普通的小分歧,是那種根本性的、關(guān)乎整個技術(shù)路線的大分歧。

我最近看到一個很有意思的現(xiàn)象,說實話,這在AI圈還挺少見的。

兩個頂級AI公司,Anthropic和Cognition,在同一個技術(shù)問題上給出了完全相反的答案。而且不是普通的小分歧,是那種根本性的、關(guān)乎整個技術(shù)路線的大分歧。

什么問題這么有爭議?多智能體架構(gòu)。簡單說就是讓多個AI智能體協(xié)同工作,還是讓單個智能體獨自完成任務(wù)。

你想想,這就像兩個頂級廚師,一個堅持說做大餐必須要團隊協(xié)作,每個人負(fù)責(zé)不同的菜;另一個堅持說只有一個主廚獨自完成,才能保證口味的一致性。

爭論的核心在于"可靠性"這個關(guān)鍵詞。

Cognition的負(fù)責(zé)人Walden發(fā)了一篇博客叫《Don't Build Multi-Agents》,開門見山地警告大家:別搞多智能體,這玩意兒很脆弱!

Cognition認(rèn)為多智能體架構(gòu)非常脆弱,關(guān)鍵的失敗點在于子智能體可能誤解任務(wù)并產(chǎn)生不一致的結(jié)果,導(dǎo)致最終的智能體難以整合這些誤解。

他們的邏輯很直接:當(dāng)你讓一個主智能體把"做Flappy Bird游戲"的任務(wù)分給兩個子智能體,一個負(fù)責(zé)背景,一個負(fù)責(zé)小鳥,結(jié)果可能是——背景做成了超級馬里奧風(fēng)格,小鳥完全不像游戲素材。最后主智能體拿到這兩個"誤解",怎么整合?

但Anthropic完全不這么看。他們不僅在用多智能體,還專門寫了一篇技術(shù)博客來"炫耀"他們的多智能體研究系統(tǒng)有多牛。

數(shù)據(jù)顯示90.2%的性能提升,這意味著多智能體系統(tǒng)在復(fù)雜研究任務(wù)上幾乎是單智能體的兩倍效果。

Anthropic的核心觀點是:多智能體系統(tǒng)是擴展性能的關(guān)鍵方式。特別是對于那些信息量超出單個上下文窗口、需要大量并行化處理的任務(wù)。

搜索的本質(zhì)是壓縮:從龐大的語料庫中提煉洞察。子智能體通過并行操作,各自在獨立的上下文窗口中探索問題的不同方面,然后為主研究智能體壓縮最重要的信息。

聽起來很有道理吧?但成本也很現(xiàn)實:多智能體系統(tǒng)消耗的token是普通聊天的15倍。

那問題來了,誰對誰錯?

我的判斷是,他們其實都對,只是適用場景完全不同。

Cognition做的是Devin,一個編程智能體。編程任務(wù)有個特點:上下文依賴性極強。你改一行代碼,可能影響整個項目的邏輯。在這種情況下,讓多個智能體并行工作,確實容易出現(xiàn)不一致的問題。

而Anthropic的Research功能,處理的是研究類任務(wù)。比如"分析AI代理公司在2025年的發(fā)展趨勢",這種任務(wù)天然就可以拆分成獨立的子任務(wù):市場分析、技術(shù)趨勢、投資動向等等。各個子任務(wù)之間關(guān)聯(lián)性不強,正好適合并行處理。

但這背后還有更深層的考量。

Cognition強調(diào)的"上下文工程",其實是在解決一個根本性問題:如何保證智能體的決策一致性。他們提出兩個核心原則:

1. 共享上下文 - 不只是消息,要共享完整的智能體執(zhí)行軌跡

2. 動作承載隱含決策 - 沖突的決策會帶來糟糕的結(jié)果

說白了,就是害怕"雞同鴨講"。

而Anthropic的解決方案更工程化:

? 用"協(xié)調(diào)者-工作者"模式,主智能體負(fù)責(zé)總體協(xié)調(diào)

? 給子智能體提供詳細(xì)的任務(wù)描述,包括目標(biāo)、輸出格式、工具指南

? 用"內(nèi)存"機制持久化上下文,防止重要信息丟失

最有趣的是token消耗的問題。

Anthropic很坦誠:智能體比普通聊天多用4倍token,多智能體系統(tǒng)多用15倍。但他們的邏輯是,在他們的分析中,token使用量本身就能解釋80%的性能差異。

多智能體系統(tǒng)的核心價值在于幫助花費足夠的token來解決問題。最新的Claude模型在token使用上有很大的效率倍增效果。

這就像是說,錢不是問題,關(guān)鍵是花錢要花得值。

但Cognition顯然不這么看。他們更關(guān)心的是在資源約束下的可靠性。畢竟,做一個編程任務(wù),用戶不希望系統(tǒng)"燒錢"卻給出錯誤代碼。

這個爭論對我們有什么啟發(fā)?

首先,別迷信大公司的技術(shù)選擇。即使是頂級AI公司,面對同一個技術(shù)問題,也可能得出完全相反的結(jié)論。關(guān)鍵是理解背后的場景和約束。

其次,技術(shù)架構(gòu)沒有絕對的對錯,只有適合不適合。如果你在做需要嚴(yán)格一致性的任務(wù)(比如代碼生成、金融交易),單智能體可能更可靠。如果你在做可以并行化的開放性任務(wù)(比如市場研究、內(nèi)容創(chuàng)作),多智能體可能更高效。

最后,這個爭論本身就很有價值。它提醒我們,AI Agent的架構(gòu)設(shè)計還遠(yuǎn)沒有成熟,還有很大的探索空間。

與其糾結(jié)誰對誰錯,不如想想自己的具體需求。

畢竟,最好的架構(gòu)不是最先進(jìn)的,而是最適合你的問題的。正如Anthropic在文章最后說的:構(gòu)建AI智能體時,最后一公里往往成為大部分的旅程。

我因看見技術(shù)的分歧而激動如大海。這說明我們還在一個充滿可能性的時代。

責(zé)任編輯:姜華 來源: 阿丸筆記
相關(guān)推薦

2011-06-29 10:17:49

IE 9爭斗

2011-02-22 09:17:55

2012-10-15 09:57:44

思科華為電信設(shè)備

2011-12-15 09:53:32

高負(fù)載處理甲骨文IBM

2024-11-26 00:14:08

2025-04-18 11:22:57

2012-07-24 09:23:33

項目管理產(chǎn)品

2013-02-20 10:27:29

視覺設(shè)計師意見

2021-01-27 22:31:36

HTML編程Web

2025-01-10 08:15:22

C#異步底層

2025-05-14 01:00:00

AI智能體人工智能

2017-03-06 20:22:36

人工智能

2023-08-28 06:52:29

2025-03-03 11:16:18

2025-10-24 08:00:00

大模型矢量數(shù)據(jù)庫AI智能體

2025-06-23 08:17:54

2021-08-06 06:44:01

Serverless無服務(wù)器計算云服務(wù)

2018-06-12 16:25:12

WindowsWindows 10快速啟動

2025-08-08 02:15:00

2011-08-29 09:45:09

點贊
收藏

51CTO技術(shù)棧公眾號