偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

Claude1.7萬字系統(tǒng)提示詞全網(wǎng)刷屏!Karpathy銳評:LLM訓(xùn)練缺乏關(guān)鍵范式

人工智能 新聞
一夜之間,近1.7萬字系統(tǒng)提示詞——包含24000個(gè)token,詳細(xì)定義了模型行為、工具使用和引用格式…..全部細(xì)節(jié)直接在GitHub上被泄露了!

全網(wǎng)刷屏的Claude系統(tǒng)提示詞,結(jié)果被卡帕西大神當(dāng)場抓蟲?!

事情是這樣的。

一夜之間,近1.7萬字系統(tǒng)提示詞——包含24000個(gè)token,詳細(xì)定義了模型行為、工具使用和引用格式…..全部細(xì)節(jié)直接在GitHub上被泄露了!

這事兒一出,網(wǎng)友蜂擁而至速速圍觀,甚至親切地稱呼這次意外泄漏事件是提示技術(shù)的金礦

圖片

就在此時(shí),大神卡帕西發(fā)現(xiàn)了華點(diǎn):LLM學(xué)習(xí)缺少主要范式?

圖片

隨即他提出系統(tǒng)提示學(xué)習(xí)新范式——模擬人類經(jīng)驗(yàn)積累過程,將系統(tǒng)提示嵌入權(quán)重。

簡單總結(jié)一下,就是模擬人類學(xué)習(xí),為LLM提供備忘錄功能,讓LLM擁有自主反思用戶問題的“記憶”功能,記錄通用的問題解決知識(shí)和策略。

新范式一石激起千層浪,有人表示贊同,也有人開始著手分析新范式幫助LLM暢玩Minecraft的可行性:

圖片

當(dāng)然也有人持反對意見,認(rèn)為允許模型自己編寫提示會(huì)使模型更加混亂,也無法保證模型不會(huì)錯(cuò)誤地理解提示。

圖片

具體是怎么一回事呢?別急,接下來讓我們一起來回顧整個(gè)事件。

Claude系統(tǒng)提示詞曝光

據(jù)揭露,完整的Claude系統(tǒng)提示詞包含16739個(gè)字,也就是110kb。相比之下,ChatGPT中的OpenAI的o4-mini的系統(tǒng)提示僅有2218個(gè)字,約為Claude的13%。

具體內(nèi)容也相當(dāng)有趣,不僅詳細(xì)闡述了Claude基本的行為風(fēng)格和偏好,還包含了大量全局的問題解決策略,例如下面這個(gè)解決經(jīng)典LLM問題“草莓單詞里有幾個(gè)‘r’字母”:

圖片

系統(tǒng)提示告訴LLM如何回復(fù)用戶提示,類似于LLM的“設(shè)置”選項(xiàng),定義用哪種語氣回應(yīng),以及補(bǔ)充訓(xùn)練數(shù)據(jù)中所沒有的上下文信息。

以下是Claude的提示組件構(gòu)成:

圖片

其中最大的組件是工具定義 (Tool Definitions),由MCP服務(wù)器進(jìn)行信息填充。與標(biāo)準(zhǔn)的API不同,MCP向LLM提供關(guān)于指令的詳細(xì)說明教程。

此外,其余提示(如引用規(guī)范、搜索指南和谷歌集成注意事項(xiàng))近80%的內(nèi)容都與工具有關(guān),都詳細(xì)說明了在與用戶的交互場景中Claude是如何作用的。

在提示詞文檔的最后還包含一些熱修復(fù),指出了常見的LLM陷阱,例如關(guān)于川普的總統(tǒng)就職信息:

圖片

根據(jù)該提示,Claude的可靠知識(shí)截止于2024年10月,此后發(fā)生的事件或新聞都以人為熱修復(fù)或使用網(wǎng)絡(luò)搜索工具來補(bǔ)充。

利用系統(tǒng)提示學(xué)習(xí)構(gòu)建新范式

在讀完Claude系統(tǒng)提示詞文檔后,Karpathy火速發(fā)表了一篇小作文——LLM學(xué)習(xí)缺乏主要范式,并稱之為系統(tǒng)提示學(xué)習(xí)。

傳統(tǒng)學(xué)習(xí)范式基于強(qiáng)化學(xué)習(xí)、監(jiān)督學(xué)習(xí)等預(yù)設(shè)框架被動(dòng)優(yōu)化,問題的解決只依賴于強(qiáng)化學(xué)習(xí)嵌入權(quán)重,實(shí)際并不理解用戶輸入。

新范式與強(qiáng)化學(xué)習(xí)類似,但采用直接編輯提示而非梯度下降的學(xué)習(xí)算法。

其強(qiáng)調(diào)構(gòu)建系統(tǒng)提示符供自身使用,讓預(yù)處理獲取知識(shí)、微調(diào)(SL/RL)塑造行為習(xí)慣、系統(tǒng)提示學(xué)習(xí)制定策略,使LLM可以根據(jù)實(shí)時(shí)反饋和情景需求調(diào)整和完善響應(yīng)策略。

舉個(gè)栗子,現(xiàn)在的LLM就像電影《記憶碎片》的主人公,只有短期的碎片記憶,無法形成新的長期記憶。

而新范式仿照正常人類學(xué)習(xí)過程,即當(dāng)你遇到一些問題并嘗試解決后,你也許會(huì)用專屬于你的“系統(tǒng)提示”記住解決策略,在下一次遇到同類問題時(shí),你就會(huì)自然而然想到:也許你可以泛化使用上次那種解決方案。

通過經(jīng)驗(yàn)->明確的策略->習(xí)慣性權(quán)重的流程,LLM可以像人類一樣記筆記,將知識(shí)轉(zhuǎn)化為直覺,達(dá)成實(shí)踐學(xué)習(xí)、邏輯推理的范式轉(zhuǎn)變。

利用系統(tǒng)提示學(xué)習(xí)可以有效實(shí)現(xiàn)測試時(shí)間訓(xùn)練,同時(shí)始終可以被人類審查,并且保證更少的安全隱患。

系統(tǒng)提示學(xué)習(xí)在未來還標(biāo)志著自主AI系統(tǒng)正在發(fā)展自身的計(jì)算意識(shí),將超越傳統(tǒng)學(xué)習(xí)范式的邊界,為真正的自我迭代乃至于AGI提供了可能。

當(dāng)然,Karpathy也明確指出新范式的實(shí)現(xiàn)還有更多有待解決的細(xì)節(jié),例如編輯系統(tǒng)的運(yùn)行問題、知識(shí)如何從顯性系統(tǒng)文本轉(zhuǎn)變?yōu)榱?xí)慣性權(quán)重等。

對此,廣大網(wǎng)友展開了激烈的討論。

例如有網(wǎng)友提出可以補(bǔ)充一個(gè)記憶層以實(shí)現(xiàn)系統(tǒng)提示學(xué)習(xí)。

圖片

也有網(wǎng)友直接拋出了自己在記憶文檔方面的研究結(jié)果:

圖片

也有人質(zhì)疑LLM缺乏持續(xù)學(xué)習(xí)的本質(zhì),讓它無法從自身思維中學(xué)習(xí),系統(tǒng)提示學(xué)習(xí)并不能從根本上解決,還需要尋找更為有效的思維模式。

圖片

系統(tǒng)提示詞鏈接:https://raw.githubusercontent.com/asgeirtj/system_prompts_leaks/refs/heads/main/claude.txt

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2025-05-12 09:13:00

2023-03-30 08:28:57

explain關(guān)鍵字MySQL

2025-09-09 10:33:35

2025-03-23 22:05:22

2024-05-13 17:45:00

2023-12-04 08:10:34

Spring循環(huán)依賴

2025-06-16 08:06:51

2025-07-04 09:06:00

2023-10-31 12:58:00

TypeScriptJavaScript

2021-03-16 08:21:29

Spark系統(tǒng)并行

2025-06-09 08:48:00

2024-07-15 07:55:00

2022-09-08 10:14:29

人臉識(shí)別算法

2024-08-13 15:07:20

2023-01-06 08:15:58

StreamAPI接口

2024-07-19 08:34:18

2021-11-11 09:27:02

技術(shù)RedisMySQL

2021-10-18 11:58:56

負(fù)載均衡虛擬機(jī)

2022-09-06 08:02:40

死鎖順序鎖輪詢鎖

2024-01-15 08:17:00

模型技術(shù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號