DeepSeek-R1持續(xù)刷屏,連Open R1都來了!抱抱臉發(fā)起,1天狂攬1.9k星
當(dāng)初OpenAI拋出Sora大餅,一時間Open Sora項(xiàng)目熱火朝天。
現(xiàn)在,這股Open的風(fēng)也是反向吹起來了,最新目標(biāo),正是國產(chǎn)大模型DeepSeek-R1。
圖片
Open R1項(xiàng)目由HuggingFace發(fā)起,聯(lián)合創(chuàng)始人兼CEO Clem Delangue是這么說的:
我們的科學(xué)團(tuán)隊(duì)已經(jīng)開始致力于完全復(fù)制和開源R1,包括訓(xùn)練數(shù)據(jù)、訓(xùn)練腳本……
我們希望能充分發(fā)揮開源AI的力量,讓全世界每個人都能受益于AI的進(jìn)步!我相信這也有助于揭穿一些神話。
HuggingFace振臂一呼,立刻歡呼者眾。項(xiàng)目上線僅1天,就在GitHub上刷下1.9k標(biāo)星。
圖片
看來這一波,DeepSeek-R1真是給全球大模型圈帶來了不小的震撼,并且影響還在持續(xù)。
Open R1
不過話說回來,DeepSeek-R1本身就是開源的,HuggingFace搞這么個“Open R1”項(xiàng)目,又是為何?
官方在項(xiàng)目頁中做了解釋:
這個項(xiàng)目的目的是構(gòu)建R1 pipeline中缺失的部分,以便所有人都能在此之上復(fù)制和構(gòu)建R1。
HuggingFace表示,將以DeepSeek-R1的技術(shù)報告為指導(dǎo),分3個步驟完成這個項(xiàng)目:
- 第1步:用DeepSeek-R1蒸餾高質(zhì)量語料庫,來復(fù)制R1-Distill模型。
- 第2步:復(fù)制DeepSeek用來構(gòu)建R1-Zero的純強(qiáng)化學(xué)習(xí)(RL)pipeline。這可能涉及為數(shù)學(xué)、推理和代碼整理新的大規(guī)模數(shù)據(jù)集。
- 第3步:通過多階段訓(xùn)練,從基礎(chǔ)模型過渡到RL版本。
圖片
結(jié)合DeepSeek的官方技術(shù)報告來看,也就是說,Open R1項(xiàng)目首先要實(shí)現(xiàn)的,是用R1數(shù)據(jù)蒸餾小模型,看看效果是不是像DeepSeek說的那么好:
DeepSeek開源了6個用R1蒸餾的小模型,其中蒸餾版Qwen-1.5甚至能在部分任務(wù)上超過GPT-4o。
圖片
接下來,就是按照DeepSeek所說,不用SFT,純靠RL調(diào)教出R1-Zero,再在R1-Zero的基礎(chǔ)上復(fù)刻出性能逼近o1的R1模型。
其中多階段訓(xùn)練是指,R1技術(shù)報告提到,DeepSeek-R1訓(xùn)練過程中引入了一個多階段訓(xùn)練流程,具體包括以下4個階段:
- 冷啟動
用數(shù)千個長思維鏈(CoT)樣本對基礎(chǔ)模型進(jìn)行監(jiān)督微調(diào)(SFT),為模型提供初始的推理能力
- 面向推理的強(qiáng)化學(xué)習(xí)
在第一個SFT階段的基礎(chǔ)之上,用和訓(xùn)練R1-Zero相同的大規(guī)模強(qiáng)化學(xué)習(xí)方法,進(jìn)一步提升模型的推理能力,特別是應(yīng)對編程、數(shù)學(xué)、科學(xué)和邏輯推理任務(wù)的能力。
- 拒絕采樣和監(jiān)督微調(diào)
再次使用監(jiān)督微調(diào),提升模型的非推理能力,如事實(shí)知識、對話能力等。
- 針對所有場景的強(qiáng)化學(xué)習(xí)
這次強(qiáng)化學(xué)習(xí)的重點(diǎn)是讓模型行為與人類偏好保持一致,提升模型的可用性和安全性。
目前,在GitHub倉庫中,已經(jīng)可以看到這幾個文件:
- GRPO實(shí)現(xiàn)
- 訓(xùn)練和評估代碼
- 合成數(shù)據(jù)生成器
圖片
奧特曼坐不住了
有意思的是,R1刷屏之中,奧特曼也坐不住了。
這不,他又帶來了o3-mini的最新劇透:
ChatGPT Plus會員可以每天獲得100條o3-mini查詢。
Plus會員馬上就能用上operator了,我們正在盡力!
下一個智能體Plus會員首發(fā)就能用。
圖片
這話一出,??的空氣中充滿了快樂的氣息(doge):
哇!DeepSeek正在讓OpenAI主動大甩賣誒!
圖片
參考鏈接:
[1]https://github.com/huggingface/open-r1[2]https://x.com/ClementDelangue/status/1883154611348910181
































