出品 | 51CTO技術棧(微信號:blog51cto)
說起來,今天已經(jīng)立秋了,但 AI 圈的這個“盛夏”顯然還沒結束。
這幾天,幾大巨頭接連出招,行業(yè)硝煙味漸濃。明天大概率還有GPT-5要出來炸場。
Anthropic CEO Dario Amodei 一改往日低調,罕見地高頻出鏡,連續(xù)做客多個播客和科技訪談,火力全開。

上圖:有網(wǎng)友直言,Dario最近播客很密集,是他最喜歡的一位 AI CEO。
Dario 的難得之處是——即便面對大體量訪談,他也不會機械復讀,而是每次都能帶來新觀點。
這次做客 Stripe 的小酒館播客,他又拋出一個重磅判斷:
“雖然兩三年前 AI 還處于極度不確定狀態(tài),但現(xiàn)在我覺得——即使最終的市場結構未定,主力玩家的格局已經(jīng)差不多定型?!?nbsp;
他說,真正能打造頂級模型、又有資本能力持續(xù)造血的玩家,也就 3 到 6 家,取決于你怎么算。
眾所周知,昨天連發(fā)產(chǎn)品的“御三家”——OpenAI、Google 和 Anthropic,無疑已經(jīng)占據(jù)前三席。
那剩下的空位,會是誰?
這次的Stripe 播客錄制于一個街頭小酒館,Dario 全程松弛,甚至一度聊得手舞足蹈:
圖片
訪談中既有 Anthropic 的發(fā)展思路,也有他對 AI 商業(yè)化未來的精準判斷。
最新數(shù)據(jù)顯示,Anthropic 在 7 個月內,年化經(jīng)常性收入(ARR)從 10 億美元增長至約50 億美元,實現(xiàn)了 5 倍增長,成為增長最快的 AI 商業(yè)公司。
Dario 的復盤很直接:
“像 OpenAI 和 Google 這種大玩家,更聚焦在消費端。而我們 Anthropic 想要 深耕企業(yè)市場(AI for business),并且我認為我們在這方面是有“先發(fā)優(yōu)勢”的?!?/p>
他將 Anthropic 定義為“平臺型公司”,并將 AI 的 API 生意類比為 AWS:
“大家當時都說云服務沒有護城河,但 AWS 的財報出來就打臉了那些人。而 AI 的差異化比云大得多,這絕對是千億美元級別的市場?!?/p>
所以,公司的最終進化形態(tài)是:一站式 AI/云服務解決方案提供商。
而構建Claude Code,就是借用了“云服務 + 自營產(chǎn)品”的思路:
“有些行業(yè)我們會自建產(chǎn)品,是因為我們希望真正直面終端用戶,理解他們到底在尋找什么?!?nbsp;
如果沒有Claude Code,我們可能根本搞不清模型該往哪個方向進化。就編程來說,很多模型都能寫代碼,但‘能寫’不等于‘寫得對’。我們試圖讓 Claude 在用戶真正需要的方向上變得出色,這才是關鍵。”
談到未來,Dario 提出一個耐人尋味的觀點:
除了有強烈的學習本能,AI模型還有一種“資本主義沖動”——它們天生就想創(chuàng)造價值。
但現(xiàn)實是:模型能力溢出,AI 產(chǎn)品卻連一個像樣的 UI 都還沒做出來。他也認同這個判斷——
哪怕AI發(fā)展徹底停滯,光是圍繞現(xiàn)有能力打磨產(chǎn)品,整個行業(yè)還可以再做十年。
產(chǎn)品和 go-to-market(商業(yè)化路徑),本質上是在為模型“打開一扇窗”,讓它能爬上收入增長的指數(shù)曲線。
最后,Dario 希望公司所有員工都有一個AGI意識:加入AI公司的人,就不要再想跳槽回傳統(tǒng)互聯(lián)網(wǎng)了。從財務、人事到產(chǎn)品,每個人都要直面AI的最終愿景!
以下是經(jīng)過整理的播客全文,enjoy:
離經(jīng)叛道的決定:Anthropic足足7位聯(lián)創(chuàng),股份平均分!
主持人
我今天很期待聊聊Anthropic這家公司。你是學物理和計算神經(jīng)科學出身,對吧?后來在百度、Google Brain、OpenAI都干過,最后才創(chuàng)立了Anthropic。
Dario
對。
主持人
我們一會兒會深入聊Anthropic的業(yè)務,但我真的很好奇——和親妹妹一起創(chuàng)業(yè),到底是種什么體驗?
Dario
我也可以反過來問你?。ㄐΓ2贿^我覺得,創(chuàng)業(yè)的時候,其實你得做兩件事:一是把事情真正落地推進;二是制定好戰(zhàn)略,看清那些別人還看不清的問題。而我主要負責第二部分,Danielle(妹妹)主要負責第一部分。我們各司其職,干自己最擅長的事。所以這其實讓我們可以把大部分時間都花在最有價值的工作上。
主持人
聽上去你們之間的“信任”也起了很大的作用。因為在科技創(chuàng)業(yè)圈,尤其是AI領域,聯(lián)合創(chuàng)始人的搭檔關系其實挺容易不穩(wěn)定的。但你和你妹妹是從小就有的深層信任關系。
Dario
對,是完全徹底的信任。而且不僅僅是我和Danielle。當時Anthropic有7個聯(lián)合創(chuàng)始人,幾乎所有人都勸我們別這樣,說“七人創(chuàng)始團隊?這肯定完蛋,沒等公司做起來就內訌了。”
更別說我還做了個更離經(jīng)叛道的決定——所有人股份平均分。這個決定當時遭遇的負面反饋更多。
但實際上呢,我們中有些人早就彼此認識了,不光是認識,之前還一起共事過。這樣一來,我們在價值觀上總能保持同步。隨著公司擴張,這種“共同價值觀”的傳播效應會越來越明顯——你有七個真正代表公司核心理念的人,他們會把這些理念帶給更廣的團隊成員。這對公司的長期規(guī)?;浅jP鍵。
AI在編程上掀起的變革,終將在其他領域上演
主持人
那我們就來聊聊Anthropic的業(yè)務吧。畢竟這是一個堪稱傳奇的增長故事。最近有報道稱你們已經(jīng)燒掉了超過40億美元,而且確實有很多人關注你們正在開發(fā)的技術。但別忘了,Anthropic本身也是商業(yè)史上增長最快的公司之一。所以我想先從市場說起:現(xiàn)在到底大家都在用AI干啥?我們知道寫代碼、客服是很大的方向,但除此之外呢?
Dario
對,應用確實很多,而且一直在變。不過說到目前增長最快的方向,那肯定是編程,盡管這只是其中之一——我們還有很多其他方向。
我覺得編程之所以起飛,一方面是我們有意去做,另一方面是模型確實在這方面表現(xiàn)不錯。
但更深層的原因,其實是社會“擴散力”的問題。今天的AI模型,在很多領域里都存在“能力冗余”——也就是說,模型能做的事比實際應用場景中釋放出來的能力要多得多。原因之一就是落地存在摩擦。
比如,大型企業(yè)里的員工對這類技術還很陌生。你看銀行、保險公司這些行業(yè),模型的應用潛力巨大。就算模型今天就不再進步了,甚至我們不再開發(fā)新功能,光是現(xiàn)有能力,也能給一個企業(yè)帶來數(shù)十億美元的潛力。
很多CEO其實非常明白這點。但問題是,公司一旦有一萬、十萬員工,那它本身的運作方式就已經(jīng)定型了,變革需要時間。
而在代碼領域就不一樣了。程序員本身和AI模型的開發(fā)者在技術和社交上都非常接近,所以技術擴散特別快。他們也習慣做“早期用戶”,熱衷嘗試新工具。
所以編程領域的爆發(fā)式增長,我覺得核心原因其實是:這群人懂AI、敢用AI、用得也比別人快。
不過也絕對不是只有編程。遠遠不是。
我們還看到很多公司在做“工具調用”相關的應用;客服領域也是一個熱點,我們就跟 Intercom 等公司合作得非常密切。
最近我們也開始在“生物醫(yī)藥”方面看到一些機會——既有藥企,也有醫(yī)療機構,同時也參與基礎科研方向的合作。
比如我們和 Benchling 這樣的公司合作,也有一些大型制藥公司,比如諾和諾德(Novo Nordisk)就曾找我們合作撰寫臨床研究報告。你知道那種報告嘛——一堆臨床試驗的結果、副作用統(tǒng)計等等,正常要寫9周。但Claude寫完只用5分鐘,再加上人類花幾天復核,整個周期大幅縮短。
可以清楚地看到,這種“提速”機會是實打實的。隨著模型能力提升,它們也會進入更深層的科研領域。
所以總結一下,現(xiàn)在“編程”是最領先的應用場景,但后面其實有很長的“應用尾巴”,有不少場景其實也很有潛力。
可以說,編程只是其他領域變革的“預兆”而已。一樣是指數(shù)級增長,只不過這邊走得快一點而已。
主持人
是啊,代碼領域只是擴散得更快一點而已。工程師本來就習慣接觸新工具——你看 Hacker News 上天天在吵哪款開發(fā)工具更好,大家對“嘗鮮”這事都特別上頭。
Dario
我們一發(fā)布 Claude Code,大概兩小時內,就會有某位開發(fā)者——你懂的——已經(jīng)用它折騰了一萬種玩法,接入各種框架。Twitter 上的技術圈會迅速形成一個看法,然后過兩小時又會反轉……
你想想這個速度,再對比一下制藥公司在科研流程中應用這項技術的節(jié)奏,或者傳統(tǒng)零售業(yè)的節(jié)奏,簡直天壤之別。
當然,我們也希望最終能觸達“實體經(jīng)濟”的核心場景,那些是全世界最有價值的部分,但它們天生就不會以同樣的速度推進。
如果不做Claude Code,就不懂如何讓大模型更懂編程
主持人
那你們是怎么決定哪些垂類(vertical)自己來做,哪些就開放給生態(tài),比如像 Claude Code 這樣的平臺化產(chǎn)品?畢竟像 Windsurf、Cursor 這些公司也在開發(fā)自己的平臺工具。你們上線了面向金融服務行業(yè)的 Claude,但其他垂類呢?你們會選擇不親自下場做嗎?
Dario
是的,比如我們推出了 Claude for Enterprise,雖然它不是某個具體行業(yè),但是我們面向企業(yè)的通用型布局。
我們自己的定位是“平臺公司”優(yōu)先。這就有點像做云服務:你如果想做到我們希望幾年內達到的量級,很多時候你需要有一些自營產(chǎn)品(first-party product)配合。
比如有些行業(yè)我們之所以會自建產(chǎn)品,是因為我們希望能直接面對終端用戶,真正了解他們怎么用、在尋找什么。
如果你完全是做平臺的,跟用戶之間缺乏這種聯(lián)系,其實是會吃虧的。
主持人
那就很難做出真正優(yōu)秀的產(chǎn)品。
Dario
沒錯,而且你甚至可能根本搞不清模型該往哪個方向進化。
以“編程”為例,很多模型貌似都能寫代碼,但它們的“能寫”,并不代表“寫得好”或“寫得對路子”。
而我們是設法讓 Claude 在“用戶實際需要的方向”上表現(xiàn)出色,這是個很大的區(qū)別。
還有一點是,大企業(yè)往往對 API 的集成比較吃力。如果你只提供 API,它們未必能快速上手。所以有時候你需要給它們一套工具包,甚至直接給個能用的應用。
我們在做 Claude for Enterprise 的過程中,也在慢慢往“虛擬同事”這個方向靠。
主持人
不過我還是很難想象你們會開發(fā) “Claude for 石油天然氣勘探” 這種東西(笑)。
Dario
為什么?你為啥覺得我們不會做這個?
主持人
也許……說不定你們下一個版本就干這個了(笑)。
Dario
哈,目前我們確實沒有在搞“Claude for 石油天然氣勘探”。
我覺得得區(qū)分一下:有些事我們明確不會做,比如違法的,我們就不允許;但還有一類事情,它可能不違法,但我們對這個領域并不熱情。
我們是平臺公司,生態(tài)里什么人都有,大家總會去做各種事情。但我們自己不會主動去推動那些我們不在乎的場景。
相反,有些方向,我們雖然知道可能沒那么賺錢,但仍然愿意投入很多。比如科學、生命醫(yī)學這些領域,我們做得就遠超出它的商業(yè)“性價比”。
我們對“發(fā)展中國家”的相關場景也是類似的態(tài)度。再舉個爭議更大的例子——國防和情報。很多人一聽說我們在做這方面的項目,就說:“你們這不是在出賣理想主義嗎?”
但我看法正好相反。我們之前和美國國防部簽了一個上限2億美元的合同,一些人就開始批評我們“為了錢什么都干”。但說實話:要是我們真想賺錢,隨便再接一個 AI 編程類的客戶,輕輕松松就能賺這筆錢,不用花那么多精力和政治博弈。我們之所以做,是因為我們真心認為保障民主制度安全是一件值得干的事。 當然我們也會設定邊界。
比如我們非常警惕“政府權力在國內的濫用”——所以更傾向于把能力用在“外部防御”上。這些決策不是出于“感覺良好”或是想迎合媒體口碑,而是我們對某些事情有真正的信念。外界是否認同,并不會左右我們的判斷。
AI大勢已定:能做前沿模型又能造血的只有3-6個玩家
主持人
那說到這兒,你理想中想把 Anthropic 打造成什么樣的公司?三到五年之后,它該處在一個什么位置?
Dario
AI 是個很奇怪的行業(yè),它的非線性增長讓人難以準確預測未來到底有多大。
我舉個我們自己的例子。2023 年初,我們的產(chǎn)品還沒上線,營收是零。而我那時得去找機構投資人募資——我跟他們說,我覺得我們今年可以做到 1 億美元營收。
結果有投資人直接回我:“你瘋了吧?資本主義發(fā)展到今天,還沒出現(xiàn)過這種事?!?/p>
他們直接否定我,說我不靠譜,拜拜了您嘞。
結果我們真的做到了。
第二年我又說,我覺得我們可以從 1 億做到 10 億。
雖然這次被說“瘋”的次數(shù)少了一些,但也還是有人不信。我們又做到了。
今年才過了一半,你看我們現(xiàn)在的年營收已經(jīng)超過 40 億美元了。你把它畫在對數(shù)坐標圖上看,就像每年加一位數(shù)。
當然,未來有可能會放緩,但也存在另一種可能——這個指數(shù)曲線繼續(xù)走下去。再過兩三年,這些 AI 公司可能就是世界上最大的公司。
我覺得在 Anthropic 工作、或者管理這樣的公司,會有一種非常特別的不確定感。你做一個指數(shù)級增長的預測,聽起來可能很瘋狂,但它也可能不是瘋話,因為歷史上我們確實一路都是這么走過來的。
我以前在談 AI 模型能力和技術趨勢時就說過類似的話——現(xiàn)在商業(yè)發(fā)展軌跡也開始出現(xiàn)同樣的指數(shù)線條。
主持人
這讓我想到“大模型的 scaling law(擴展規(guī)律)”。你只要把關鍵輸入一起放大,比如更大的數(shù)據(jù)、更強的計算資源,模型性能就能大幅提升。那在業(yè)務上是否也有類似的路徑?比如你放入更好的模型、配上正確的組織結構,會有什么結果?
Dario
是的,確實存在類似的曲線。比如你花 5 倍、10 倍的錢去訓練一個模型,或者用上 5 倍、10 倍的數(shù)據(jù)——就像 scaling law 里講的那樣——模型能力就會上一個臺階。
那這個轉變也會帶來收入的“躍遷”:比如模型從一個聰明的本科生升級成了一個聰明的博士生。
我再拿它去給一家制藥公司演示,對方會說:“這個能力,確實值那 10 倍?!?/p>
這種“冪律”分布其實在很多場景下都會出現(xiàn)。
從技術上講,訓練越久的模型,能捕捉到的“相關性尾部”就越長——包括語言結構、世界規(guī)律、行為模式等等。
這些相關性構成了 scaling law 背后的數(shù)學基礎,也就是近似對數(shù)分布。那從模型的“認知能力”來看,它在經(jīng)濟中的作用也逐漸體現(xiàn)出來——比如說企業(yè)組織方式,其實也呈冪律結構,尤其是你去分析一家公司內部的組織架構圖。
所以我的理解是:產(chǎn)品和 go-to-market(商業(yè)化路徑),本質上是在為模型“打開一扇窗”,讓它能爬上收入增長的指數(shù)曲線。
產(chǎn)品和市場策略就像是擦亮玻璃,讓光照進來;或者像是擴大光圈,讓指數(shù)爆發(fā)得以發(fā)生。
主持人
所以你會覺得,模型本身就“想學習”,它們也“渴望在市場上大獲成功”。
Dario
沒錯!除了有強烈的學習本能,模型還有一種“資本主義沖動”——它們天生就想創(chuàng)造價值,除非你給它配了個爛產(chǎn)品或爛銷售。
主持人
因為它們太有用了。這種智能對人類太有吸引力,幾乎會被市場“抽取”出來。那你覺得,AI 的終局市場結構會是怎樣?會是幾家巨頭壟斷,還是會不斷冒出新的、專注于細分場景的公司?
Dario
很難說得準。兩三年前我們還在極度不確定的狀態(tài)中,但我現(xiàn)在感覺——即使最終市場結構還未成型,主要玩家的格局已經(jīng)差不多定了。
你要說現(xiàn)在能打造前沿模型、又有資本支撐自我造血的玩家,大概也就是 3 到 6 家,取決于你怎么算。
AI的業(yè)務邏輯:每個模型當成一家獨立的公司
主持人
我一直很好奇:AI 模型這個業(yè)務邏輯到底是怎樣?它們的投資回報路徑不像傳統(tǒng)產(chǎn)品。你前期砸很多錢訓練模型,它變成一項“快速貶值但長尾有用”的資產(chǎn),然后你指望未來把錢賺回來。外界的普遍印象就是“瘋狂燒錢”,那它到底是怎么運轉的?
Dario
現(xiàn)在模型業(yè)務的玩法,其實可以用兩種方式來描述。
比如 2023 年你花 1 億美元訓練了一個模型,然后 2024 年部署它賺回 2 億。與此同時,根據(jù) scaling law,你在 2024 年又訓練了一個成本是 10 億美元的模型,然后它在 2025 年帶來 20 億營收。
再接著,你花 100 億訓練下一代模型……
如果你用傳統(tǒng)財報的方式來計算,這看上去是虧損在不斷加劇:
第一年虧 1 億
第二年虧 8 億
第三年虧 80 億
——一眼望去,像是在走向毀滅(笑)。
但你換個角度來看:如果把每個模型當成一家獨立的公司,那其實情況是完全不一樣的。
比如你 2023 年花 1 億訓練一個模型,它 2024 年賺了 2 億。就算你考慮推理成本,結果仍然是盈利的。
所以這個行業(yè)的真實運作方式,是在你吃到一個“模型公司的紅利”時,同時又在啟動一個成本更高的新模型公司。
這會一直繼續(xù)下去,直到某一天模型規(guī)模達到了物理或經(jīng)濟的極限,這時行業(yè)會進入一個“高盈利平臺期”。
當然也有另一種可能:模型不再持續(xù)進化,AGI 的征程被某種原因中斷,前期巨額投資變成沉沒成本。那就會有一次性“哎呀白花錢了”的 moment,然后行業(yè)回到一個相對穩(wěn)定的狀態(tài)。
換個說法也可以:這是風險投資領域常見的模式——前期燒錢,后期回本。只不過這一次,它在同一家公司內部被反復上演,每一次新模型訓練,就像在做一次全新的風險投資。
我們現(xiàn)在正處于這條指數(shù)曲線上,但總有一天,會抵達一個新的均衡點。
現(xiàn)在唯一值得問的問題是:我們會在多大的規(guī)模下達到平衡?以及——我們會不會“沖過頭”?
主持人
你剛才提到了云服務公司,作為對比。我總覺得他們的數(shù)據(jù)中心投入是那種“持續(xù)型”的:每年都在蓋數(shù)據(jù)中心。而大模型這邊的投入更像是“離散型”的一代一代更新,就像……噴氣發(fā)動機公司不停搞出新技術?
Dario
對,有點像 F-16 戰(zhàn)斗機那種,或者更像制藥行業(yè)。一個研發(fā)密集型的賽道。
主持人
你每次真要訓練一個模型,都像是一場大的投入。
Dario
對,就像制藥公司開發(fā)一款新藥——一旦這款藥成功了,你就會去開發(fā)十款藥,再搞一百款。雖然制藥行業(yè)實際不是這么指數(shù)增長的,但我們這個行業(yè),就好像它真的是這樣。
主持人
所以你是說,我們可以把每個模型當成一個獨立“項目”來看,然后看它們自己的損益表(P&L)?從這個角度看,大模型的投資回報期其實也沒那么嚇人。就像 SaaS 公司一樣,拉來一個客戶只要九個月回本,你當然會毫不猶豫去做。
Dario
對啊,那種是非常輕松的回報模型。
主持人
那模型的回本周期也是類似的,9 個月、12 個月?
Dario
我不想給出具體數(shù)字,但從質性角度說,如果你一個模型一個模型來看,其實是完全跑得通的商業(yè)邏輯。
談硅谷人才戰(zhàn)爭:真正有價值的是做一個復雜系統(tǒng)的能力
主持人
2023 年,大家都在說“data wall”這個問題——我們是不是已經(jīng)找到出路了?
Dario
“數(shù)據(jù)墻”?我不確定外界說的都準。有時候公眾討論的內容,都是謠言或者猜測,我甚至不認為“數(shù)據(jù)墻”真的存在。
我可以說的是:“強化學習(RL)”這個概念其實早就有了。你要是往回看,比如 DeepMind 用 AlphaGo 打敗圍棋世界冠軍那次,用的就是 RL。
Dario
后來我們開始訓練語言模型,而現(xiàn)在的趨勢是——我們把 RL 疊加在語言模型上。這其實就是所謂的“chain of thought”(思維鏈)、“推理能力”——聽上去花哨,其實本質上就是 RL。
只不過這個 RL 的環(huán)境變成了:模型先寫一堆內容,然后再給出答案,僅此而已。
所以現(xiàn)在的語言模型訓練,其實結合了兩種學習方式:模仿學習(imitative learning) 和 試錯學習(RL)。
你可以把它類比成一個小孩學習的方式:一方面他觀察父母怎么做、照著學;另一方面他也會自己去試一試、從錯誤中摸索。發(fā)展心理學早就證明人類就是靠這兩種方式同時學習的?,F(xiàn)在我們看到這種路徑也被“復刻”到了語言模型上——先模仿,再試錯,非常自然。
主持人
另一個讓局外人感到震驚的,就是 AI 行業(yè)內的“人才戰(zhàn)爭”。你在之前采訪中說,現(xiàn)在 AI 的知識產(chǎn)權是“每天晚上都會走出辦公室的”——因為它存在于人的腦子里。
你還提到那種“價值一億美元的秘密,可能就幾行代碼”。這其實可以用在國家安全層面,但在人才競爭層面也一樣成立。
你怎么看這個問題? 制藥行業(yè)有專利保護;華爾街也有那種價值一億美元的“簡單策略”;像 Renaissance Technologies(全球最神秘的對沖基金)就是通過嚴格的保密制度來鎖住員工的。
那你們這種 AI 公司,怎么在當前環(huán)境下保持競爭優(yōu)勢不被泄露?
Dario
這個問題我有幾點看法。
確實,有些東西是那種“幾行代碼就值一億美元”的類型,但隨著行業(yè)發(fā)展,真正有價值的,不再是那些小技巧,而是把復雜系統(tǒng)真正做出來的能力。
我們也會討論某些很簡單的 idea,比如“把 transformer 的某個模塊調一下”——這種點子可能今天你想到,明天別人也能想到。但真正有價值的是那些:
非常難實現(xiàn)的工程系統(tǒng),我們已經(jīng)做出來了;
實現(xiàn)過程本身就很麻煩,需要 know-how;
或者是某種工程“苦活累活”的堆疊成果。
這些更像是集體性的能力積累,不那么容易泄露出去,也更具“護城河”。
當然了,泄密問題我們還是非常擔憂的——不論是從商業(yè)競爭角度,還是從國家安全角度,這都是我們嚴肅對待的問題。我們也確實在采取一系列防范措施。
首先,我們在公司內部做了信息“分區(qū)管理”。就像情報機構那樣,誰需要知道什么就告訴他什么(need-to-know basis)。Anthropic 內部也是類似操作。
主持人
這可能和硅谷主流文化很不一樣吧,后者一向是“信息自由流通”的那一派。
Dario
對,我們公司是兩者并存。一方面文化非常開放,我平時會跟全體員工講很多事——甚至可能換個 CEO 會先拿去 PR 精修一下再說。但另一方面,當某個信息是“保密”的,大家就會真正覺得“哦,這是真的需要保密的事”。
反而這種方式能讓團隊產(chǎn)生更高的信任,也帶來更高的留任率。
我們目前是所有 AI 公司里 留任率最高的。如果你把那些“非遺憾型流失率(non-regretted attrition)”扣掉,差距就更明顯了。
有時員工離開后又會選擇回歸。你可以去看那些跳槽去 Meta Superintelligence Lab 的公開名單——就算按體量歸一化,我們流失的人數(shù)也不多。而且,很多人其實是 拒絕了那些天價 offer 的。
主持人
所以說,在這場百億美元級別的“AI人才大戰(zhàn)”里,你們反倒沒怎么吃虧?
Dario
相較其他公司,我們表現(xiàn)得確實不錯,甚至可以說是有一些“逆勢優(yōu)勢”。
這得益于兩方面:對使命的真實信念,以及對股票(equity)回報的信心。
Anthropic 一直有一個口碑:我們說到做到,有時甚至承諾少,但兌現(xiàn)率高。我們非常清楚自己的立場,并且多年來始終如一。這種文化能把公司凝聚在一起,也是對“犬儒主義”的最好防御。
API的千億生意剛剛開始,AI會比云服務更賺錢、更有黏性
主持人
那當你在向投資人或求職者介紹 Anthropic 時,除了“我們要做一個非常大的生意”,你還會怎么講?
Dario
我通常會講平臺定位,以及模型的重要性。有時候人們提到 API 生意,就說什么“黏性不夠”“遲早變成商品”。
主持人
我愛死 API 生意了!
Dario
對,我也是(笑)!而且你看比我們還大的生意,比如云服務,那些就是千億美元級別的 API 生意。
當資本成本這么高、市場又只有少數(shù)玩家的時候,相較于云服務,我們這邊的產(chǎn)品其實更加“差異化”。
你想啊,每個模型都有自己的“性格”——跟人對話時是完全不一樣的。
我經(jīng)常開玩笑說,如果我坐在一個房間里,周圍有九個身高差不多、腦子也差不多的人,那我是不是就變成了“商品”?當然不是啊。人類勞動力不是這么工作的。
模型也是如此。所以我認為,API 是個非常棒的生意,而且我們也希望做得更寬、更深。
我覺得現(xiàn)在像 OpenAI 和 Google 這種大玩家,更聚焦在消費端。而我們 Anthropic 想要 深耕企業(yè)市場(AI for business),并且我認為我們在這方面是有“先發(fā)優(yōu)勢”的。
我不太確定,因為我看不到對手的收入數(shù)據(jù),但我猜我們可能已經(jīng)拿下了 API 企業(yè)市場的最大份額(至少是最多之一)。
主持人
說到“商品化”的爭議我也有印象。早期大家總說“云服務不值錢,毫無壁壘”,但我記得 2015 年 AWS 第一次單獨披露財報時,直接打臉了所有人——一公布就成了史上最賺錢的業(yè)務之一。
有競爭對手、買家在意價格,這不代表這個東西就是“商品”。正如你說的,模型之間根本不是一回事。
Dario
完全正確!你知道我們自己就是云服務的最大客戶之一,而且我們用的是不止一家。我可以負責任地說:云服務之間的差異,遠遠小于大模型之間的差異。
主持人
確實。模型的輸出是非確定性的,這反倒成了一種優(yōu)勢。比如你發(fā)現(xiàn):我們在客戶服務場景里,更喜歡用這個模型回答而不是那個模型。
Dario
對啊,為什么?我也說不清。就像烤蛋糕一樣,你材料都一樣放進去,但不同廚師做出來的味道就是不一樣。你想完全復刻另一個廚師的蛋糕,幾乎不可能。
主持人
而且目前的 AI 產(chǎn)品其實還沒有真正做到“個性化”,但未來一旦實現(xiàn),個性化會成為用戶黏性極高的一環(huán)——你不想輕易更換,因為它已經(jīng)“懂你”。不管是 C 端還是 B 端,這個趨勢都很明顯。
Dario
完全同意。我們現(xiàn)在只是剛剛開始探索而已。未來模型會根據(jù)某家企業(yè),甚至某個具體員工進行深度定制。
所以我認為,API 生意才剛剛開始。
但我也不覺得“AI for business”就只是 API 而已。比如 Claude Code,我不僅賣給開發(fā)者,也賣給企業(yè)——而且企業(yè)覺得它確實實用。Claude for Enterprise 也已經(jīng)在大量對公銷售。
你看看云服務公司,比如 AWS、GCP、Azure,他們產(chǎn)品線里有基礎設施,也有應用層服務。
我們現(xiàn)在的產(chǎn)品結構,也開始往這個方向靠攏。
我們希望自己成為你“一站式 AI/云服務解決方案提供商”。所有東西你都可以從我們這買,也可以找我們聊聊該在什么場景用什么工具。
這會逐步勾勒出一個更有韌性的商業(yè)模型。
真正服務企業(yè)用戶:讓AI 技術滲透到10 萬名員工的工作日常
主持人
那如果我們看一家典型的《財富》500強公司,比如他們可能在客服上試用了 AI,工程師也許在用 AI 編程工具。你覺得,他們的 AI 采用率,跟“應該達到的水平”比,差距大嗎?
Dario
毫無疑問——遠遠不夠。
主持人
那你覺得現(xiàn)在采用率大概是 5%、還是 30%?
Dario
我想說的是,這類公司高層通常非常有信念感。你去跟 CEO、CTO 談,他們都能一下子 get 到 AI 的重要性。
問題在于,他們公司有 10 萬員工,這些人本職工作是做銀行、保險或藥品研發(fā),AI 對他們來說只是個新鮮玩意兒——不是他們的專業(yè)領域。
所以我們經(jīng)常做的事就是:幫助這些企業(yè)領導,把 AI 技術真正推動到那 10 萬名員工的日常中去。
目前看,最容易推廣的是編程場景——因為開發(fā)者最貼近 AI 生態(tài),也最關注新技術。
接下來是客服和流程自動化這種領域。我認為,即使只看今天已有的模型,這個市場的規(guī)模也應該是現(xiàn)在的 100 倍——那種“被嚴重低估”的直覺感非常強烈。
主持人
我也有同感。我直覺上覺得,我們會首先在初創(chuàng)公司中看到 AI 的新用法——因為他們沒那么多流程、沒那么多歷史包袱,可以直接采用最合理的做法。
而大公司呢,就像你說的,CEO 和 CTO 是聰明的、反應快的。他們會把這些新玩法引進來,就像我們當年看到云服務的采納路徑一樣。
Dario
沒錯,小公司要么提供新思路、要么直接威脅大公司地位,逼得后者加速改革。
我給大公司一個非常實用的建議:你們可以成立一個“特遣隊式的小組”,在組織之外先行開發(fā)原型。等這些原型驗證成功,有勢能之后,再整合回母體組織中。
雖然整合過程會很艱難,但當你已經(jīng)有了成果和說服力,推動起來就容易得多。
AI多次打臉懷疑論者:我不認為這里有“墻”
主持人
你看過 Dwarkesh 那篇關于 AI 時間線的博客嗎?
Dario
哦,是那篇講“持續(xù)學習”的,對吧?
主持人
對。他提到一個問題:現(xiàn)在很多 AI 模型就像是一個“超級聰明的新同事”,但永遠只是在入職的第 5 分鐘——也就是說,它們不會隨著時間變得更懂你、更有積累。我們該怎么解決這個問題?
Dario
是啊,我覺得這類問題在 AI 發(fā)展歷程中出現(xiàn)過很多次。
總會有人說:“AI 模型做不到 X。”
以前是說:AI 不能推理;后來是 AI 不能發(fā)現(xiàn)新知識;再早幾年是 AI 無法寫出結構清晰的長文本;更早是喬姆斯基那套,說 AI 模型能搞語法但永遠搞不懂語義。
但這些所謂的“墻”,我們一次又一次地穿透了。
主持人
那你怎么看“AI 不能發(fā)現(xiàn)新知識”這個說法?
Dario
我覺得這就像很多別的說法一樣,不是“能”或“不能”那么二元。
主持人
他們只是不能把名字署在論文上罷了。
Dario
對,確實不能掛名(笑)。但我們得先問:“什么叫新發(fā)現(xiàn)?什么是‘天才’?”
我記得一本發(fā)展心理學的書里舉過一個例子:
比如一張桌子不穩(wěn),我順手拿杯墊墊在腳下,它就穩(wěn)了——這算不算“創(chuàng)見”?如果我從沒見人這么做過,那它就是我的“新發(fā)現(xiàn)”。
Dario
這種發(fā)現(xiàn)和一個諾貝爾獎級發(fā)現(xiàn)的區(qū)別,只是量變,而不是質變。
所以我認為:AI 模型每天都在做“新發(fā)現(xiàn)”。
我家人曾遇到過一個醫(yī)學難題,結果是 AI 模型準確識別出來了,而醫(yī)生卻忽略了——這不是什么偉大發(fā)現(xiàn),但它確實是一個真實的發(fā)現(xiàn)。你可以說這只是“模式匹配”,但作家不也是這么創(chuàng)作的嗎?他們混合既有元素,再加入一點新東西,就成了自己的作品。
這一切,都是一種連續(xù)譜。而這也正是“持續(xù)學習”該討論的問題。
很多人說“AI 沒有持續(xù)學習能力”,我其實覺得它已經(jīng)有了一點點雛形,我們也會找到辦法,讓它變得更強。
比如現(xiàn)在的模型能在上下文中“學習”——你和它對話,它就吸收這個上下文。未來,這個上下文可能長達 1 億 tokens,我們甚至可以訓練模型,讓它專門學會“從上下文中持續(xù)學習”。甚至在上下文里動態(tài)更新權重。
這些想法,其實跟我們現(xiàn)在已有的技術非常接近。
我覺得人們太執(zhí)著于“那堵墻”的存在了,總是希望某個問題是根本性、不可突破的。但現(xiàn)實往往不是那樣。
主持人
我感覺這其實是一種心理應對機制,一種“自我安慰”。
Dario
對啊,我想到一個特別像的例子:19 世紀的“生命本質論(vitalism)”。
當時人們認為,生物體和無生命物體是由本質上完全不同的物質構成的——但我們今天從科學角度知道,這并不是真的。
不過這種說法確實很容易讓人相信:你看看自己,再看看一張桌子,當然會覺得“我才不是這種死板的東西”。但如果我們把它拆到最基本的單位——原子、分子,其實大家都是一樣的。
主持人
所以你是說,現(xiàn)在人們其實只是把“生命本質論”換了種說法,套用在了人類獨特性上:他們會說,“AI 做不到那種真正的人性化的東西?!?/p>
Dario
對,我覺得這種心理傾向確實存在。
但就像過去那樣,我們應該重新認識一個事實:“心智就是心智,無論它是由什么構成的?!?認知或感知的“特別之處”并不在于它的材質,而在于它的本質能力。而這種能力,可能可以用別的東西來復現(xiàn)。
人類也有“幻覺”,AI時代的用戶必須學會識別模型犯錯
主持人
你之前提過醫(yī)療場景,我覺得那是個很棒的例子。一方面確實幫了很多人解決健康問題,另一方面我也很喜歡你在《Machines of Love and Grace》那篇文章里講的——“智能的邊際回報”。有些領域,智能就是限制性瓶頸。
比如在醫(yī)療上,大多數(shù)人都會遇到一些輕重不一的問題,而整個社會在這方面其實就是“智力供給不足”——不是說你沒法找到聰明醫(yī)生,而是即便你找到了,他們也只能花十秒鐘想一想你的問題……
Dario
是的,這正是我的看法。我甚至跟諾獎級別的生物學家聊過,他們直言不諱地說:“我只看最頂尖的 1% 醫(yī)生,剩下那 99% 的,我寧愿聽大語言模型的建議?!?/p>
這聽上去可能有點精英主義,但確實如此。醫(yī)生太忙了、時間有限,而醫(yī)學本身是一個高度依賴模式識別和信息整合的學科,而 LLMs 在這方面其實非常強。
主持人
這也是我覺得醫(yī)療案例很有代表性的原因之一。它屬于“整個社會都在智力受限”的那類問題——
但一旦你讓每個人都能獲得更聰明的建議,就會極大地釋放價值。那除了醫(yī)療之外,在消費級或企業(yè)級的應用中,你覺得還有哪些地方明顯是“智力不足”的?
Dario
就目前的 AI 模型而言,最擅長的,是這樣一類問題:重復性高,但每個例子又都有點不一樣。
傳統(tǒng)的自動化是這樣的:你能明確規(guī)定流程,它就能執(zhí)行。但像客服這種場景,每通電話都不一樣,但本質上 90% 都在問那 10 個問題,只不過是不同人、用不同的表達方式說出來。
這種“相似但不完全相同”的結構,正是 AI 發(fā)揮價值的理想場景。
主持人
你還在那篇博文里提到另一個預測——目前你還不能把所有財務數(shù)據(jù)和郵件都丟給 AI,然后它幫你完成報稅。
但有人預測,到 2028 年就能實現(xiàn)。你覺得這個預測靠譜嗎?
Dario
我覺得可能更早?;蛟S 2026,甚至 2027 年。
現(xiàn)在模型已經(jīng)具備能力了,只是錯誤率還不夠低。我們還需要解決自我校驗、減少錯誤這些問題,還有交互方式也要進一步優(yōu)化。但如果你說“真的要等到 2028”,我會覺得太慢了。
主持人
所以你覺得大概是 2026 或 2027。那我們順著聊“錯誤率”這個事——你之前提到一堆“AI 永遠做不到”的問題,我覺得幻覺(hallucination)應該也算是其中之一吧?雖然它還沒完全解決,但已經(jīng)好多了。
Dario
是的,確實進步很大。人們現(xiàn)在也越來越清楚,哪些事情該信模型、哪些事情不能全信。
模型本身也越來越依賴引用支撐(citation grounding)。比如 Claude 就已經(jīng)在做這方面的改進,Claude for Enterprise 也是一樣。
解決幻覺問題的方式有三種:
算法上,模型更少胡說八道;
工具上,引用機制增強了可信度;
用戶層面,人們學會了辨別模型的強弱項。
我一直覺得,幻覺這類問題,很容易被某一類批評者拿來做文章——他們會說:“你看,它還做不到這個,它不是人類,永遠趕不上我們。”
我能理解這種直覺,但其實這是一種誤解。
“通用智能”是由很多能力組成的。你可以在一些方面比人類弱得多,但在其他方面強得離譜。
就像我們看人類自己…… 你見過人類嗎(笑)?你看看自閉癥患者和精神分裂患者之間的差異,看看人類常常會被哪些光學錯覺欺騙——那些錯覺,模型卻完全不會被騙。
很明顯,我們自己也有一堆“系統(tǒng)性弱點”,就像模型會產(chǎn)生幻覺一樣,只不過看起來不一樣而已。只是因為我們每天都跟人類打交道,所以我們已經(jīng)習慣了人類的那套“系統(tǒng)性錯誤”。
主持人
最典型的例子,可能就是大家對自動駕駛的雙重標準。
Dario
完全同意,這簡直就是“雙標”的典范。
主持人
人們對自動駕駛的容錯率要求太高了。
Dario
對,我們對技術的要求遠遠高于人類。但這其實是 AI 技術的一個固有特點,而且它也會對商業(yè)層面帶來深遠影響。
我認為未來會是這樣:AI 模型犯錯的頻率遠低于人類,但它們犯的錯會更怪,更出人意料。
這對終端用戶來說,需要一些適應過程。
你想想你平時跟人打交道,你會下意識知道:“哦,人類大概會有 5% 的時間搞錯?!蹦氵€能從語氣、表情、聲音中推斷他們狀態(tài)不佳。
比如你跟客服聊天,對方說話不清楚,聽起來狀態(tài)不對,你可能會想:“他可能今天太累了,不太在線?!?雖然這是個失誤,但你能理解發(fā)生了什么,也知道該對他說的話持保留態(tài)度。
但如果是一個大語言模型犯錯,它可能比人類犯錯的頻率低 5 倍,但它的語氣依舊非常自信、條理清晰、邏輯嚴密——你很難識別這個錯誤。這種“難以覺察”的錯,其實更具有誤導性。
但我認為這不是“本質性缺陷”,而是“適應性問題”。所以我們在跟客戶交流時,都會特別強調這個點:你得學會“識別模型犯錯的方式”。
主持人
所以我們是不是得給大語言模型加上點“口齒不清”(slurring)特效?
Dario
哈哈,對,正是如此!
AI能力已經(jīng)“過?!保a(chǎn)品形態(tài)嚴重滯后
主持人
你從研究員出身,現(xiàn)在卻成了一家 AI 公司的 CEO,要親自參與市場、產(chǎn)品、銷售……你在“商業(yè)化”這塊都學到了什么?
Dario
的確,我最初創(chuàng)公司并不是因為我一開始就喜歡“賣東西”或者搞商業(yè)。
我創(chuàng)立 Anthropic 的出發(fā)點是,我看到一些同行公司在做著極具重量級的事情,卻感覺……他們團隊的動機不太對。
我知道這個賽道里一定會有很多玩家,但我總覺得哪怕只有一家有明確價值觀和原則的公司,也能讓這個生態(tài)變得更好一點。
我們希望在構建技術、部署模型時都能“走不同的路”,而且——哪怕我們只列出一個很短的“原則清單”,我們也要堅守它。
這就是我創(chuàng)業(yè)的初衷。當然,我也很想親手打造出強大的技術。
但隨著公司發(fā)展,我和其他聯(lián)合創(chuàng)始人也逐漸開始學習商業(yè)和戰(zhàn)略方面的東西。讓我自己都感到意外的是:我其實對商業(yè)面非常感興趣,而且學得還挺快的。
最大的原因是:我們服務的客戶覆蓋了幾乎所有行業(yè)——就像云服務商那樣,你會突然接觸到很多你從未了解過的行業(yè)。
我以前是做生物學的,自認對制藥行業(yè)還算了解。 但我過去只關注科學本身,從沒想過藥企的產(chǎn)品組合管理、臨床試驗如何運作、如何降低研發(fā)成本等等。我也從來沒認真思考過國防和情報行業(yè)的具體業(yè)務?,F(xiàn)在深入進去一看,我真的覺得特別有意思:理解人們面臨的現(xiàn)實問題,然后思考 AI 如何幫上忙。
唯一讓我一開始沒太感興趣的,反而是“產(chǎn)品”這塊。
我對商業(yè)、行業(yè)有天然好奇,但一提到“做 App”我就有點提不起勁,哪怕我已經(jīng)創(chuàng)辦了這家公司(笑)。
但最近這兩年,看著哪些產(chǎn)品成功、哪些失敗,我開始逐漸意識到:
“產(chǎn)品要為 AGI 做好鋪墊?!?/p>
你得設計那種“有長期價值”的產(chǎn)品路徑。我們都知道“wrapper company”的風險——有人基于 Claude N 做了個產(chǎn)品,結果我們發(fā)布了 Claude N+1,那款產(chǎn)品就直接被干掉了。
所以我經(jīng)常建議開發(fā)者:不要只是修補模型的短板,而是要看清方向,做那些能“陪跑 AGI”的產(chǎn)品。
現(xiàn)在我越來越覺得:“AGI化的產(chǎn)品設計思維”是一個特別值得投入的領域。
主持人
你提到這個太好了!我一直覺得——我們現(xiàn)在根本就沒有真正的 AI 用戶界面(UI)。
我們還在用文本框輸入文字,這就像是 1970 年代的終端窗口!就連語音助手都得手動喚醒,跟幾年前的 Siri 沒什么區(qū)別……
Dario
對,現(xiàn)在的 AI 用戶界面(UI)確實不太對勁(笑)。我完全同意你的看法。
這讓我想起互聯(lián)網(wǎng)早期的設計:人們會把網(wǎng)站做成“現(xiàn)實世界的空間結構”,比如你點開一個“虛擬衣柜”,然后從里面拿出東西…… 這其實是一種設計風格,有個術語我一時想不起來了……對了,擬物化設計(skeuomorphism),就是這個感覺。
Dario
我想說的是:隨著我們越來越走向“智能體”(agents)時代,我們會進入這樣一個階段:
AI 模型可以端到端完成一件事,像 Claude 現(xiàn)在已經(jīng)可以做到很多事大部分時間都是對的,人類的主要任務只是“復核”或者“適時介入”。
但有趣的是,復核這件事本身就很復雜——你必須深入理解發(fā)生了什么,才能判斷結果是否正確。
于是我們就遇到了一個“交互上的張力”:我們希望界面能足夠“流暢自動”,大多數(shù)時候不需要我們操心,但一旦出問題,我們又必須有能力深度介入、調試、追蹤。
現(xiàn)在沒有任何一款產(chǎn)品或界面能解決這個問題。
主持人:
對啊,理想狀態(tài)是:你希望 AI 自己去“做事”,回來交出成果,再讓你評估、引導、決策。
Dario
但問題在于,它會同時做很多事——你根本沒時間一個個檢查。如果你總是全程盯著,那還不如自己動手快。所以這其實是一個界面設計問題(interface problem)。
主持人
我感覺 AI 領域最令人興奮的事之一是:我們現(xiàn)在的能力“過?!保a(chǎn)品形態(tài)嚴重滯后。就算 AI 技術現(xiàn)在被凍結,我們都還有 10 年的好產(chǎn)品可以去造。
Dario
我完全同意!
現(xiàn)在的產(chǎn)品開發(fā)思路已經(jīng)發(fā)生了巨大變化,我想整個行業(yè)都是這樣想的。
我們從沒經(jīng)歷過這種情況:你一邊開發(fā)產(chǎn)品,底層技術一邊劇烈變動。如果模型能力停止增長,產(chǎn)品路線圖的規(guī)劃方式會立刻改變。
但現(xiàn)實是:模型進步不斷,所以傳統(tǒng)意義上的“長期規(guī)劃”根本不適用。
我一開始也覺得自己對產(chǎn)品一竅不通。但現(xiàn)在我會跟新同事明確說——做 AI 產(chǎn)品,完全不同于傳統(tǒng)產(chǎn)品。哪怕你在非 AI 領域很有經(jīng)驗,這套打法在這邊也未必適用。
你得比任何時候都更快,更試錯,更迭代,因為底層在不斷變化。
主持人
有沒有什么具體例子能說明這個差別?
Dario
比如你計劃開發(fā)一個產(chǎn)品,周期是六個月。這種“閉門造車”式開發(fā)在 AI 領域幾乎毫無意義。
主持人
所以你反而需要更短的迭代節(jié)奏。
Dario
對,而且要勇于試錯。
最難的地方在于:你根本無法預測接下來會流行什么??赡苣硞€新模型一出來,突然能做一件之前無法實現(xiàn)的事,從而使一個新產(chǎn)品成為可能。
所以你最應該做的事就是:試一個從未有人做過的東西。
比如你內部剛上線一個新模型,那就趕緊在它上面做點原型,內部快速試用看看。整個感覺有點像“永恒的九月(eternal September)”:你仿佛第一次發(fā)現(xiàn)“數(shù)據(jù)庫”這種技術,然后想——我能基于這個造出什么?
AI 產(chǎn)品開發(fā),現(xiàn)在每天都像“第一天”。
AI開源的扎心之問:你需要“模型權重”,還是只是一個功能強大的 API?
主持人
你提到數(shù)據(jù)庫,那其實也挺像我們現(xiàn)在討論的“開源 vs 閉源”問題。
當年最早成功的關系型數(shù)據(jù)庫都是閉源的,后來才被開源追上。 那你覺得怎么保持與開源模型的差距?
Dario
我覺得開源在 AI 領域的含義,和其他技術領域不太一樣。
有人會稱它們?yōu)椤伴_權重模型(open-weights models)”——因為即便你拿到模型權重,你也無法理解里面到底發(fā)生了什么,不像傳統(tǒng)軟件可以讀源代碼。
主持人
你也沒法在這基礎上“稍作修改就換皮”。
Dario
對,你無法輕易生成一個“差不多但不同”的版本。
當然,我們 Anthropic 也在做“機制可解釋性(mechanistic interpretability)”的研究,想辦法讓人真正理解模型內部機制。
我們也正在開發(fā)一些可以暴露模型屬性的機制——但說實話,還差得遠。
現(xiàn)在如果你有模型訪問權限,確實可以微調它。我們也開放了一些接口,讓開發(fā)者能在我們平臺上做“接口級微調(via interface)”。
所以這里有個問題是:你究竟是需要“模型權重”,還是只是一個功能強大的 API”?
這里既有技術的考量,也有經(jīng)濟學上的問題——畢竟在云端運行模型是很貴的,有人得為你提供高性能推理服務,這也決定了你能拿到多少利潤率。
主持人
所以“開權重模型”并不一定那么有用。真正“完全開源”的模型才更有討論意義。
Dario
這中間確實有很大的差距。我覺得和以往技術的類比只能算部分成立,因為這確實是一個全新的領域,我們還在探索。
但從我們自己的角度來看——每當一個新模型發(fā)布,或者競爭對手放出新模型,我們不會去關注它是不是開源,我們只關心:
它是不是強?
如果它在我們擅長的事情上也變得很強,那就是競爭。不管是不是開權重,只要強,就會對我們構成威脅。所以這兩者之間,并沒有本質區(qū)別。
每個員工都該有“AGI”意識:AI與傳統(tǒng)互聯(lián)網(wǎng)公司完全不同
主持人
那你覺得,Anthropic 是怎么做到比其他公司“更 AGI 傾向(AGI?pilled)”的? 除了產(chǎn)品節(jié)奏更快之外,組織層面有沒有更廣泛的體現(xiàn)?
Dario
我之前提到過,我每隔幾周都會向整個公司講一次我對未來的愿景。 這個儀式感很重要——是為了讓大家始終聚焦在公司的使命上。
我們現(xiàn)在身處一個很詭異的時代,我自己在講這些愿景時也會坦白說:“我并不確定”。但如果讓我下注——
我賭的是這樣的未來:
- 一到三年內,數(shù)據(jù)中心里將像是住著一個“天才國家”的人口密度。
- 這會顛覆經(jīng)濟結構,極大加速科學進展,
- 同時也會帶來全球治理、國家安全、甚至金融系統(tǒng)的劇烈沖擊。
- 它的上限非常高,但潛在的破壞力也很大。
我希望避免一種心態(tài):有些員工加入 AI 公司,仍然把它當作一個普通 tech company,以為幾年后還能跳槽到什么“傳統(tǒng)行業(yè)”。但——
主持人
這根本不是一個“同類型的公司”。
Dario
完全不同!
我希望在整個公司上下——無論是財務、招聘、產(chǎn)品還是政策部門——都具備這樣的前提認知:
- 財務在做預測時,不能用線性思維,要意識到未來可能出現(xiàn)極端結果;
- 招聘要意識到,我們在做一些“瘋狂”的事情,這不是普通崗位;
- 產(chǎn)品必須具備 AGI 意識,要設計出通往未來的產(chǎn)品;
- 政策團隊也要理解自己所面對的是怎樣的技術變革。
我認為我的一個重要職責,就是保持整個組織圍繞這個核心命題的共識。
并不是說每個人都要變成 AGI 教徒、穿著長袍念經(jīng)(笑),但要接受這樣一個前提假設:
我們這家公司,是建立在“未來會發(fā)生巨大變化”的信念之上的。 我們的業(yè)務策略、我們的社會責任,也都應該圍繞這個可能性來設計。
AI的危險不是太強,而是“失控”
主持人
如果你要給這個未來貼上一個數(shù)字,你曾經(jīng)說過 AI 能推動全球經(jīng)濟每年增長 10%。
那我們現(xiàn)在談論 AI 風險時,通常在講濫用或傷害,但真正的風險是不是: 我們把 AI 監(jiān)管錯了、發(fā)展放慢了,從而讓人類錯過了大規(guī)模福祉的機會?
Dario
我自己確實有這種親身經(jīng)歷。 我的家人曾因某種疾病去世,而這個病在他們去世后不久就被攻克了。
所以我深刻體會到:技術進展得太慢,也是一種損失。
另一方面,有些 AI 風險也可能對社會造成極大沖擊,甚至威脅到人類文明的穩(wěn)定。 我們不能對這種級別的風險掉以輕心。我并不是那種主張“暫停技術”的人,我不支持暫停開發(fā)。
因為現(xiàn)實是,這根本不可行:
我們有地緣競爭對手,他們不可能不研發(fā);
巨額資本已經(jīng)全部下注在這場競賽里;
我自己親身經(jīng)歷過哪怕微弱的“降速”提議,背后都會遭遇“上萬億美元”量級的資本阻力。
這也說明了“該慢不能慢”的實際約束。
所以我認為,問題不是“到底要不要放慢”,而是: 我們能否在“幾乎不降速”的前提下,引入足夠的安全性和穩(wěn)健性?
比如說,我們原本可以做到 10% 的年增長, 那現(xiàn)在是否可以接受 9% 的增長, 換來對系統(tǒng)性風險的保險?
在我看來,AI 的最大風險反而不是“太快”或“太強”,而是“失控”。
我不想“叫停反應堆”, 我想做的是:把反應堆引導到正確的方向上。
主持人
你之前說過,如果到了 2025 年 12 月,還沒有新的 AI 法案出臺,你會感到非常擔憂。 那現(xiàn)在的感受是?
Dario
其實加州這邊現(xiàn)在確實有一點進展,有一項叫 SB 53 的法案正在推進。
你也知道,去年還有過 SB 1047,我們當時對那個法案也有些復雜的感受。
SB 1047 最初的版本,我覺得就太激進了——我所說的“激進”,是指它在技術快速發(fā)展的大背景下,仍然用了過于僵化和預設的方式來規(guī)定要求。
這么做不但不利于安全,反而可能適得其反:
一旦測試條款顯得“蠢”——比如被業(yè)界調侃——大家就會對“AI 安全監(jiān)管”失去信心,把它當笑話看,轉而搞“形式主義合規(guī)”,走個流程,不走心。
而我其實是一個支持“有思想的監(jiān)管”的人。所以當時我真的有點擔心。今年我們對這項法案提出了改動建議,在修改后我們覺得方向還不錯——努力在行業(yè)和安全倡導者之間找一個平衡點,雖然說實話并不完全成功,但總比去年要好。
現(xiàn)在這項新法案更溫和,重點放在“透明度”上,特別是企業(yè)在安全和保密措施上的透明度。Anthropic 一直是這方面做得比較積極的公司,我看到現(xiàn)在有些其他公司也開始這么做了,當然并不是所有公司都愿意這么披露。
問題在于:
我們目前并沒有辦法判斷那些“看起來在披露”的公司,到底是不是在講真話。
主持人
所以,加州這邊的監(jiān)管其實影響力挺大的吧?畢竟所有 AI 公司都在這邊有業(yè)務。
Dario
對啊,大多數(shù)這些法案都是圍繞“在加州開展業(yè)務”的范疇來的。你不太可能完全繞開這塊市場。
主持人
而且加州這邊的人都很“AI 上頭”(AI-pilled)。
Dario
沒錯(笑),大家都很“AI 上頭”。
我們就拭目以待吧。我說不準最終會怎么樣,但我們一貫的立場是:
我們支持設置“護欄”——包括立法層面的護欄, 但我們也知道必須非常謹慎,我們不想殺掉下金蛋的鵝, 我們只想防止它過熱、失控或者沖出跑道。
主持人
有點像現(xiàn)代銀行監(jiān)管吧。大家都抱怨它,但其實是一個很好的例子: 它監(jiān)管的是一種本質上就非常危險的活動。
Dario
沒錯,而且這些危險是非常明確的,比如銀行擠兌,不是個小事。
主持人
但我們現(xiàn)在這個時代的金融體系,其實運轉得還算不錯—— 只要監(jiān)管環(huán)境設計得當。
Dario如何使用Claude?——頭腦風暴和找靈感
主持人
最后一個問題:你的個人 AI 使用習慣是什么? 你是怎么用 AI 的?和其他科技圈的人有什么不一樣嗎?
Dario
挺有意思的。我其實寫東西寫得很多, 可能有點太自戀了(笑),還挺看重自己的文字風格。我用 Claude 主要是用來頭腦風暴和找靈感,當作研究工具。
但寫作本身我現(xiàn)在還是自己來。Claude 其實比其他模型更接近我能接受的標準了,但還沒到我能放手的程度。
如果是寫商務郵件,我可以用它,但要是真寫一篇我很在意的文章或長文,
現(xiàn)在的它還是差點火候——不過我想,也許一年之內就能行了。
主持人
很棒的分享。今天真的聊得太棒了。
Dario
感謝你邀請我來。


































