偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Claude Skills:被過(guò)度吹噓的概念翻新!

人工智能
Claude Skills 的按需加載不算創(chuàng)新。而且,這個(gè)"按需"到底有多準(zhǔn)?如果匹配算法不夠聰明,該加載的沒(méi)加載,不該加載的加載了一堆,那成本優(yōu)勢(shì)就沒(méi)了。而且"掃描技能庫(kù) + 自動(dòng)匹配"本身也要消耗計(jì)算資源。

要論寫(xiě)代碼最能打的模型,非claude家的莫屬。但論其他的,可能就一般了。

10月16日,Anthropic 又開(kāi)始講故事了。這次的名字叫 Claude Skills,宣傳語(yǔ)是"可定制的專(zhuān)業(yè)能力",聽(tīng)起來(lái)挺唬人。發(fā)布會(huì)搞得很隆重,PPT 做得精美,演示流暢,案例動(dòng)人,仿佛 AI 要上天了。這明顯是嘗到了MCP當(dāng)年推出的甜頭,想要再?gòu)?fù)制一波流量。

結(jié)果呢?

作為一個(gè)寫(xiě)了十幾年代碼的老油條,我看完之后笑了:Cursor 的 cursorrules 早在一年前就這么玩了,RAG的 Retrieval 早就做了無(wú)數(shù)實(shí)踐,你現(xiàn)在告訴我這是創(chuàng)新和顛覆?

說(shuō)穿了,這就是 RAG(檢索增強(qiáng)生成)的一種增強(qiáng)版本。Anthropic 給它包裝了個(gè)"漸進(jìn)式披露"的名字,聽(tīng)起來(lái)很高級(jí),實(shí)際上還是在做檢索、匹配、加載這套流程。

本質(zhì)上,不管是 Tools、MCP、cursorrules 還是 Skills,干的都是同一件事:給模型補(bǔ)充必要的上下文信息。只不過(guò)形式不同、名字不同罷了。

大模型優(yōu)化的三板斧

在揭穿 Claude Skills 之前,咱們先聊聊大模型優(yōu)化這件事?,F(xiàn)在市面上,無(wú)非就三招。

第一招是砸錢(qián)練模型。說(shuō)人話就是:燒錢(qián)、燒數(shù)據(jù)、燒算力,讓模型天生聰明。好處是一次訓(xùn)練到處能用,推理快。但問(wèn)題是貴到離譜啊,GPT-4 訓(xùn)練成本超過(guò) 1 億美元,你以為在開(kāi)玩笑?而且迭代慢,3-6 個(gè)月才能更新一次,等得花兒都謝了。知識(shí)烙進(jìn)模型里了,想更新?重新訓(xùn)練吧。這是 GPT-4、Claude 3.5 這些家里有礦的主兒才玩得起的。

第二招是硬塞長(zhǎng)上下文。管它三七二十一,把所有信息都塞進(jìn)去,讓模型自己找。這招簡(jiǎn)單粗暴,工程師喜歡,信息也不會(huì)漏掉。這次還是燒錢(qián),不過(guò)這次是燒客戶的錢(qián)了。

第三招是管理上下文。說(shuō)白了,就是給模型補(bǔ)充必要的上下文信息。不管你叫它 RAG、Tools、MCP、cursorrules 還是 Skills,本質(zhì)都一樣。區(qū)別只是管理方式:是全量加載?還是檢索匹配?還是智能篩選?

處理這些額外規(guī)則和上下文的方式,無(wú)外乎兩種:元數(shù)據(jù)管理(打標(biāo)簽、分類(lèi),然后匹配)和檢索(語(yǔ)義搜索或數(shù)據(jù)庫(kù)查詢)。你把 Skills 存在 Markdown 文件里,還是存在數(shù)據(jù)庫(kù)里,還是存在向量庫(kù)里,只不過(guò)是換了個(gè)形式而已。

說(shuō)到這你就明白了,第三招的各種變體(RAG、Skills 等),本質(zhì)上都在做同一件事,只是包裝不同。每種方案都有坑,都有問(wèn)題。

本質(zhì)上都是在管理上下文

好,現(xiàn)在我們來(lái)扒一扒 Claude Skills 到底干了什么,以及它和其他方案的區(qū)別在哪。

先說(shuō)結(jié)論:不管是 Tools、MCP、cursorrules 還是 Skills,本質(zhì)上都是在給模型補(bǔ)充上下文信息。區(qū)別只是形式和管理方式不同。

當(dāng)這些額外的規(guī)則和上下文信息太多時(shí),能夠處理它的技術(shù)其實(shí)只有一種:先語(yǔ)義化處理前置信息,然后有選擇地使用

具體怎么做?處理方式無(wú)外乎兩種:

第一種:元數(shù)據(jù)管理。給每個(gè) Skill、Rule、Tool 打上標(biāo)簽、分類(lèi)、描述,然后根據(jù)任務(wù)特征去匹配。這就是 Claude Skills 宣稱(chēng)的"漸進(jìn)式披露"——掃描技能庫(kù)、自動(dòng)匹配相關(guān)技能、按需加載。聽(tīng)起來(lái)高級(jí),但本質(zhì)就是元數(shù)據(jù)匹配。當(dāng)然你也可以分層,把描述越來(lái)越細(xì)(注意,你的工作量也會(huì)越來(lái)越多)。

第二種:檢索??梢允钦Z(yǔ)義搜索(向量相似度匹配),也可以是精確的數(shù)據(jù)庫(kù)搜索(關(guān)鍵詞、標(biāo)簽查詢)。不管你的 Skills 是存在 Markdown 文件里,還是存在數(shù)據(jù)庫(kù)里,還是存在向量庫(kù)里,只不過(guò)是換了個(gè)形式而已。底層邏輯都是檢索。

所以你看:

  • 傳統(tǒng) RAG:檢索(語(yǔ)義搜索或關(guān)鍵詞匹配)→ 注入 Context → 調(diào)用模型
  • Cursor Rules:元數(shù)據(jù)管理(全量加載所有規(guī)則)→ 塞進(jìn) System Prompt → 調(diào)用模型
  • Claude Skills:元數(shù)據(jù)管理(智能匹配)+ 檢索(按需加載)→ 注入 Context → 調(diào)用模型

看出來(lái)了嗎?Claude Skills 只是把元數(shù)據(jù)管理和檢索結(jié)合了一下,給它起了個(gè)新名字叫"漸進(jìn)式披露"。技術(shù)上有優(yōu)化嗎?有一點(diǎn),比如可以包含可執(zhí)行代碼,減少了一些 token 浪費(fèi)。算顛覆性創(chuàng)新嗎?對(duì)不起,談不上。

那問(wèn)題來(lái)了:既然只是把現(xiàn)有技術(shù)組合了一下,為啥要包裝成 "Skills"?

答案很簡(jiǎn)單:為了好賣(mài)!

"Custom Instructions" 聽(tīng)起來(lái)就是個(gè)配置項(xiàng),沒(méi)意思。"Rules" 聽(tīng)起來(lái)像是在約束我,不爽。但 "Skills"?哇,聽(tīng)起來(lái)像我變強(qiáng)了!

你看,技術(shù)組合包裝成革命性功能,換個(gè)名字感覺(jué)立馬不一樣。這是產(chǎn)品經(jīng)理的勝利,是營(yíng)銷(xiāo)的勝利。

換湯不換藥,該踩的坑一個(gè)都沒(méi)少

別以為換了個(gè)管理方式就能逃脫,不管你用元數(shù)據(jù)管理還是檢索,核心問(wèn)題一個(gè)都沒(méi)解決。

先說(shuō)召回率和精準(zhǔn)度的問(wèn)題。這是所有上下文管理方案的死穴:

  • 全量加載(Cursor Rules):信息完整,但稀釋效應(yīng)嚴(yán)重,模型容易懵
  • 檢索匹配(傳統(tǒng) RAG):檢索太少漏關(guān)鍵信息,檢索太多噪音一堆
  • 智能匹配(Claude Skills):聽(tīng)起來(lái)美好,但匹配不準(zhǔn)怎么辦?該匹配的沒(méi)匹配上,不該匹配的塞進(jìn)來(lái)了

而且"稀釋效應(yīng)"無(wú)論如何都存在。不管你是全量加載,還是智能篩選,只要上下文信息多了,模型表現(xiàn)就會(huì)下降。多個(gè) Skills 互相沖突?模型就像精神分裂一樣,行為不一致。

這不叫"解決問(wèn)題",這叫"換個(gè)方式踩坑"。

Claude Skills 的按需加載不算創(chuàng)新。而且,這個(gè)"按需"到底有多準(zhǔn)?如果匹配算法不夠聰明,該加載的沒(méi)加載,不該加載的加載了一堆,那成本優(yōu)勢(shì)就沒(méi)了。而且"掃描技能庫(kù) + 自動(dòng)匹配"本身也要消耗計(jì)算資源。

你說(shuō) Anthropic 不是有 Prompt Caching 嗎,緩存命中便宜 10 倍?首先,其他模型也有。其次,本質(zhì)上是把 Token 成本轉(zhuǎn)嫁給了計(jì)算成本(緩存要錢(qián)的,只是你看不見(jiàn)),把成本轉(zhuǎn)嫁給了用戶(訂閱制你看不到單次賬單,但 Anthropic 心里門(mén)兒清)。而且緩存策略還得精心設(shè)計(jì),不然命中率上不去,錢(qián)照樣燒。

天下沒(méi)有免費(fèi)的午餐,該付的錢(qián)一分都少不了。

人家要賺錢(qián),你別當(dāng)傻子

說(shuō)實(shí)話,從商業(yè)角度看,Anthropic 這波操作沒(méi)毛病。競(jìng)爭(zhēng)這么激烈,不搞點(diǎn)新名詞怎么活?"Skills" 聽(tīng)著就比 "Custom Instructions" 好懂,讓用戶覺(jué)得"只有 Claude 有 Skills",這就成了。"Skills 功能僅限 Pro 用戶"——要用?掏錢(qián)!OpenAI 也這么干(GPTs)、Google 也這么干(Gems)、微軟也這么干(Copilot GPT)。這是行業(yè)常規(guī)操作,不寒磣。

但作為技術(shù)人,咱得保持清醒。

Low 的表現(xiàn)是什么?"臥槽,Claude Skills 太牛了!這是顛覆性的創(chuàng)新啊!我要趕緊把所有項(xiàng)目遷移到 Claude!"看到這種發(fā)言,我只能說(shuō):兄弟,你該醒醒了。

專(zhuān)業(yè)的態(tài)度應(yīng)該是:"哦,又是一個(gè)上下文管理的變體。把元數(shù)據(jù)管理和檢索結(jié)合了一下,加了智能匹配和漸進(jìn)式披露。本質(zhì)上還是在做 RAG 那一套,只是工程上優(yōu)化了一點(diǎn)。先看看實(shí)際效果和成本,測(cè)測(cè)匹配準(zhǔn)確率,再?zèng)Q定用不用。

技術(shù)圈最怕什么?概念通貨膨脹。明明都是在做上下文管理,非要起一堆新名字;明明是工程優(yōu)化,包裝成"架構(gòu)革新";明明是參數(shù)調(diào)整,包裝成"算法突破"。

保持獨(dú)立思考,是技術(shù)人的底線??创┍举|(zhì),別被營(yíng)銷(xiāo)牽著鼻子走。

曾經(jīng)的MCP,想綁你上賊船

Anthropic 曾經(jīng)出了個(gè)玩意兒——MCP(Model Context Protocol),配合 Skills 和 Tools,說(shuō)是要構(gòu)建"完整的生態(tài)"。聽(tīng)起來(lái)很美好?咱們看看本質(zhì)是什么。

MCP 干的事兒就是提供標(biāo)準(zhǔn)化接口,讓 Claude 能訪問(wèn)外部資源:數(shù)據(jù)庫(kù)、API、文件系統(tǒng)、其他服務(wù)。等等,這不就是任何一個(gè) REST API 服務(wù)器干的事兒?jiǎn)幔坎痪褪?OpenAI Function Calling 嗎?換湯不換藥,又是舊酒裝新瓶。

Cursor 告訴我們,事情本可以不用這么復(fù)雜。Cursor 也能讀寫(xiě)文件系統(tǒng)、執(zhí)行終端命令、調(diào)用 LSP、集成 Git、支持多種模型(Claude、GPT-4、Gemini)。重點(diǎn)來(lái)了:Cursor 不綁定任何一個(gè)模型。它提供了一個(gè)完整的 IDE 環(huán)境,模型只是其中一個(gè)可替換的組件。今天用 Claude,明天換 GPT-4,后天上 Gemini,隨便換。這才是健康的架構(gòu)。

很多公司看到 MCP 后,眼睛都亮了,趕緊開(kāi)發(fā) MCP Gateway(把其他協(xié)議轉(zhuǎn)成 MCP)、MCP Proxy(統(tǒng)一管理 MCP 連接)、MCP Hub(MCP 服務(wù)市場(chǎng))。

6 個(gè)月后的真實(shí)情況:使用量遠(yuǎn)低于預(yù)期,甚至有點(diǎn)慘淡;Claude 新版本一出,協(xié)議又改了,你的代碼白寫(xiě)了;OpenAI 的 Function Calling 生態(tài)已經(jīng)很成熟了,用戶不愿意換;應(yīng)用場(chǎng)景有限,看起來(lái)像個(gè)大型玩具,生產(chǎn)上不可控;公司悄悄把 MCP 相關(guān)項(xiàng)目標(biāo)記為"維護(hù)模式"(其實(shí)就是放棄了)。

歷史總是驚人的相似。還記得 Google Wave 嗎?協(xié)議設(shè)計(jì)得多好啊,結(jié)果沒(méi)人用。還記得 SOAP vs REST 嗎?復(fù)雜的最終輸給了簡(jiǎn)單的。還記得各種區(qū)塊鏈聯(lián)盟鏈嗎?熱度過(guò)后一地雞毛,現(xiàn)在連提都不提了。

技術(shù)圈最不缺的就是"下一個(gè)大事件",但大部分都是曇花一現(xiàn)。工程師的時(shí)間很寶貴,別浪費(fèi)在追風(fēng)口上。

xjjdog的思考:大模型的未來(lái):別再把它當(dāng)工具了

現(xiàn)在所有人都在搞 RAG、Skills、MCP,但說(shuō)白了,都是把大模型當(dāng)成工具:我有數(shù)據(jù) → 喂給模型 → 模型吐結(jié)果。工具歸工具,數(shù)據(jù)歸數(shù)據(jù),兩回事。

問(wèn)題在哪?LLM 對(duì)你的數(shù)據(jù)沒(méi)有記憶,每次對(duì)話都像第一次見(jiàn)面。每次都在"重新認(rèn)識(shí)你",上次說(shuō)過(guò)的事,這次還要再說(shuō)一遍。知識(shí)永遠(yuǎn)是"外掛"的,不是模型的一部分,只是臨時(shí)喂進(jìn)去的。無(wú)法真正個(gè)性化,你用的和別人用的本質(zhì)上是同一個(gè)模型。

我有個(gè)想法,估計(jì)廠商們都沒(méi)想過(guò),或者想過(guò)但很難做:大模型應(yīng)該能實(shí)時(shí)訓(xùn)練,隨著你的使用不斷進(jìn)化。

現(xiàn)在的玩法是:模型(固化死的) + 數(shù)據(jù)(外掛臨時(shí)喂)。我說(shuō)的玩法是:模型(持續(xù)進(jìn)化) = 基座智能(IQ)+ 你的個(gè)人知識(shí)(數(shù)據(jù))。聽(tīng)起來(lái)很科幻?其實(shí)不是。

具體怎么搞?不是共享一個(gè)大模型,而是每個(gè)用戶有一個(gè)獨(dú)立的模型副本,連LoRA都不是。你用得越多,模型就越懂你。不是靠什么 RAG 檢索,而是真正"記住"你。

每次你和模型對(duì)話,對(duì)話內(nèi)容被編碼,微調(diào)你的個(gè)人權(quán)重,重要知識(shí)直接寫(xiě)入神經(jīng)元,模型逐漸"理解"你的思維方式和工作習(xí)慣。用一個(gè)月后,模型記住你的項(xiàng)目結(jié)構(gòu)(不用每次都加載進(jìn) Context),知道你的編碼風(fēng)格(不用寫(xiě) .cursorrules),懂你的專(zhuān)業(yè)術(shù)語(yǔ)(不用每次解釋?zhuān)?,能預(yù)測(cè)你的意圖(甚至主動(dòng)給建議)。這才是真正的"個(gè)人助理",不是那種每次對(duì)話都失憶的傻瓜機(jī)器人。

關(guān)鍵問(wèn)題是怎么把"智力"和"知識(shí)"分離開(kāi)?Base Model 是共享的"智商":推理能力、語(yǔ)言理解、代碼生成、通用常識(shí)。Personal Layer 是你的專(zhuān)屬"知識(shí)":你的項(xiàng)目代碼和架構(gòu)、你的工作文檔和筆記、你的編碼偏好和習(xí)慣、你的歷史對(duì)話和經(jīng)驗(yàn)。

怎么實(shí)現(xiàn)?可能的技術(shù)路徑有:Mixture of Experts(基座模型 + 你的個(gè)人 Expert 模塊)、Adapter Layers(基座模型凍結(jié)不動(dòng),只訓(xùn)練你的 Adapter)、Memory Networks(顯式的記憶存儲(chǔ)層)、Neural Compression(把你的知識(shí)壓縮到少量參數(shù)里)。

為什么這是通向 AGI 的必經(jīng)之路?因?yàn)?RAG 是死胡同。知識(shí)永遠(yuǎn)在"外面",不是模型的一部分;模型無(wú)法對(duì)知識(shí)進(jìn)行深度推理,只能表面理解;檢索到的知識(shí)是"死"的文本,不是"活"的理解。

舉個(gè)例子你就明白了。RAG 模式下,你問(wèn):"項(xiàng)目中 UserService 的設(shè)計(jì)有問(wèn)題嗎?"AI 檢索 UserService 代碼,然后分析:"可能有并發(fā)問(wèn)題"。個(gè)人化模型呢?你問(wèn):"UserService 有問(wèn)題嗎?"AI 說(shuō):"你上周提到的并發(fā)問(wèn)題還沒(méi)解決吧?我注意到你在 OrderService 里也用了類(lèi)似的模式,建議一起重構(gòu)。根據(jù)你的編碼習(xí)慣,我已經(jīng)生成了一個(gè)方案,你看看..."

看出區(qū)別了嗎?RAG 每次對(duì)話都像"初次見(jiàn)面",需要重新介紹自己。個(gè)人化模型真正"認(rèn)識(shí)你",知道你的過(guò)去,理解你的習(xí)慣。

技術(shù)上能做到嗎?現(xiàn)在的障礙是:訓(xùn)練成本高,每個(gè)用戶都訓(xùn)練一個(gè)模型?瘋了吧?隱私問(wèn)題,個(gè)人模型怎么管理?放哪?存儲(chǔ)問(wèn)題,幾千萬(wàn)用戶 × 每人一個(gè)模型 = 爆炸。

聽(tīng)起來(lái)不可能?其實(shí)有辦法?,F(xiàn)在也有一些嘗試,比如 LoRA + 量化,個(gè)人層其實(shí)只有幾 MB,不是整個(gè)模型都要存。聯(lián)邦學(xué)習(xí),本地訓(xùn)練你的個(gè)人層,云端只管基座模型。邊緣計(jì)算,個(gè)人模型跑在你本地,隱私也解決了。增量學(xué)習(xí),不是全量訓(xùn)練,而是持續(xù)微調(diào),成本可控。

清醒點(diǎn),別被忽悠了

回到最開(kāi)始的問(wèn)題:Claude Skills 是不是創(chuàng)新?

商業(yè)角度:是的,營(yíng)銷(xiāo)很成功,包裝很漂亮。

技術(shù)角度:算不上顛覆性創(chuàng)新。本質(zhì)上,Claude Skills 只是 RAG 的一種增強(qiáng)版本,把元數(shù)據(jù)管理和檢索結(jié)合了一下。它確實(shí)在工程上做了些優(yōu)化——漸進(jìn)式披露、智能匹配、可執(zhí)行代碼,這些都是實(shí)實(shí)在在的改進(jìn)。

但說(shuō)到底,不管是 Tools、MCP、cursorrules 還是 Skills,都沒(méi)有跳出"上下文管理"這個(gè)框架。處理方式無(wú)外乎兩種:元數(shù)據(jù)管理和檢索(不管是語(yǔ)義搜索還是數(shù)據(jù)庫(kù)查詢,不管存在 Markdown 還是向量庫(kù),只是換了個(gè)形式)。

核心問(wèn)題(召回率、精準(zhǔn)度、稀釋效應(yīng)、成本)依然存在,只是換了種方式存在。和 Cursor Rules 相比,Claude Skills 更智能了一點(diǎn),但沒(méi)有質(zhì)的飛躍。

給技術(shù)人的幾句話:

別被營(yíng)銷(xiāo)話術(shù)忽悠瘸了,但也別一棒子打死。透過(guò)現(xiàn)象看技術(shù)原理,認(rèn)清它們本質(zhì)上都是在做上下文管理。根據(jù)實(shí)際需求選工具,別追概念追風(fēng)口。別把基礎(chǔ)設(shè)施綁在單一廠商上,哪天坑你你都不知道。真正的創(chuàng)新在"個(gè)人化模型",不在上下文管理的第 N 次優(yōu)化。

大模型的終極形態(tài),不應(yīng)該是我們不斷"喂數(shù)據(jù)"的工具,而應(yīng)該是一個(gè)真正"理解我們"、隨我們一起進(jìn)化的智能伙伴。

在那一天到來(lái)之前,保持清醒,別為每個(gè)新概念買(mǎi)單。技術(shù)人的價(jià)值,在于看穿迷霧,認(rèn)清本質(zhì)。

責(zé)任編輯:武曉燕 來(lái)源: 小姐姐養(yǎng)的狗
相關(guān)推薦

2012-08-16 09:14:21

Garter云計(jì)算

2013-06-19 10:04:34

炒作技術(shù)

2025-10-31 08:54:00

2021-04-21 10:47:53

Starlink寬帶衛(wèi)星互聯(lián)網(wǎng)

2020-11-20 16:44:12

信息安全數(shù)據(jù)網(wǎng)絡(luò)

2020-08-11 09:13:20

人工智能自動(dòng)駕駛技術(shù)

2022-07-01 11:06:25

AI人工智能科技巨頭

2021-04-28 06:18:59

Linux MacBook

2015-04-02 10:08:31

蘋(píng)果回收手機(jī)富士康

2021-10-08 14:03:54

人工智能AI深度學(xué)習(xí)

2025-10-09 08:11:43

2022-04-19 20:51:20

軟件開(kāi)發(fā)耦合代碼

2020-03-04 09:23:50

RSA 2020網(wǎng)絡(luò)安全漏洞

2024-12-25 11:35:48

谷歌人工智能

2025-10-28 02:33:00

2023-05-09 09:04:29

代碼設(shè)計(jì)語(yǔ)言

2025-07-03 07:07:00

AI人工智能供應(yīng)商

2022-09-14 10:14:16

元宇宙馬修?鮑爾互聯(lián)網(wǎng)

2012-09-26 17:53:25

2021-01-28 09:20:18

網(wǎng)絡(luò)犯罪網(wǎng)絡(luò)安全監(jiān)管
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)