偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

奧特曼深夜官宣:OpenAI重回開源!兩大推理模型追平o4-mini,號(hào)稱世界最強(qiáng)

人工智能
OpenAI深夜扔出開源核彈,gpt-oss 20B和120B兩款模型同時(shí)上線。它們不僅性能比肩o3-mini和o4-mini,而且還能在消費(fèi)級(jí)顯卡甚至手機(jī)上輕松運(yùn)行。GPT-2以來(lái),奧特曼終于兌現(xiàn)了Open AI。

他來(lái)了!他來(lái)了!

就在今夜,奧特曼帶著兩款全新的開源模型走來(lái)了!

正如幾天前泄露的,它們分別是總參數(shù)1170億,激活參數(shù)51億的「gpt-oss-120b」和總參數(shù)210億,激活參數(shù)36億的「gpt-oss-20b」。

終于,OpenAI再次回歸開源。

圖片圖片

  • gpt-oss-120b適用于需要高推理能力的生產(chǎn)級(jí)和通用型場(chǎng)景

在核心推理基準(zhǔn)測(cè)試中,120B模型的表現(xiàn)與OpenAI o4-mini相當(dāng),并且能在單張80GB顯存的GPU上高效運(yùn)行(如H100)。

  • gpt-oss-20b適用于低延遲、本地或?qū)I(yè)化場(chǎng)景

在常用基準(zhǔn)測(cè)試中,20B模型的表現(xiàn)與OpenAI o3-mini類似,并且能在僅有16GB顯存的邊緣設(shè)備上運(yùn)行。

除此之外,兩款模型在工具使用、少樣本函數(shù)調(diào)用、CoT推理以及HealthBench評(píng)測(cè)中也表現(xiàn)強(qiáng)勁,甚至比OpenAI o1和GPT-4o等專有模型還要更強(qiáng)。

其他亮點(diǎn)如下:

  • 寬松的Apache 2.0許可證:可自由用于構(gòu)建,無(wú)copyleft限制或?qū)@L(fēng)險(xiǎn)——是實(shí)驗(yàn)、定制和商業(yè)化部署的理想選擇。
  • 可配置的推理投入:可根據(jù)用戶的具體用例和延遲需求,輕松調(diào)整推理投入(低、中、高)。
  • 完整的思維鏈:可完整訪問(wèn)模型的推理過(guò)程,從而簡(jiǎn)化調(diào)試并提升輸出結(jié)果的可信度。
  • 支持微調(diào):支持參數(shù)級(jí)微調(diào),可根據(jù)您的特定用例對(duì)模型進(jìn)行完全定制。
  • 智能體能力:利用模型原生的函數(shù)調(diào)用、網(wǎng)頁(yè)瀏覽、Python代碼執(zhí)行和結(jié)構(gòu)化輸出等能力。
  • 原生MXFP4量化:在訓(xùn)練時(shí),模型的混合專家(MoE)層便采用了原生的MXFP4精度,使得gpt-oss-120b在單張H100 GPU上即可運(yùn)行,而gpt-oss-20b僅需16GB內(nèi)存。

值得一提的是,OpenAI還特地準(zhǔn)備了一個(gè)playground網(wǎng)站供大家在線體驗(yàn)。

圖片圖片

體驗(yàn)地址:https://gpt-oss.com/

圖片圖片

GitHub項(xiàng)目:https://github.com/openai/gpt-oss

Hugging Face(120B):https://huggingface.co/openai/gpt-oss-120b

Hugging Face(20B):https://huggingface.co/openai/gpt-oss-20b

GPT-2以來(lái),首次開源

gpt-oss系模型,是OpenAI自GPT-2以來(lái)首次開源的語(yǔ)言模型。

今天,OpenAI同時(shí)放出了34頁(yè)技術(shù)報(bào)告,模型采用了最先進(jìn)的預(yù)訓(xùn)練和后訓(xùn)練技術(shù)。

圖片圖片

模型卡:https://cdn.openai.com/pdf/419b6906-9da6-406c-a19d-1bb078ac7637/oai_gpt-oss_model_card.pdf

預(yù)訓(xùn)練與模型架構(gòu)

相較于此前開源的Whisper和CLIP,gpt-oss模型在推理能力、效率以及在廣泛部署環(huán)境中的實(shí)用性上更強(qiáng)。

每個(gè)模型都采用了Transformer架構(gòu),并融入MoE設(shè)計(jì),減少處理輸入時(shí)激活參數(shù)量。

如上所述,gpt-oss-120b總參數(shù)1170億,每token激活51億參數(shù),gpt-oss-20b總參數(shù)210億,每token激活36億參數(shù)。

此外,模型還借鑒了GPT-3設(shè)計(jì)理念,采用了交替的密集注意力和局部帶狀稀疏注意力模式。

圖片圖片

為了提升推理和內(nèi)存效率,模型還采用了分組多查詢注意力機(jī)制,組大小為8,以及旋轉(zhuǎn)位置編碼(RoPE),原生支持128k上下文。

gpt-oss模型的訓(xùn)練數(shù)據(jù)以「英語(yǔ)」為主,聚焦STEM、編程和通用知識(shí)領(lǐng)域。

OpenAI采用了o200k_harmony分詞器對(duì)數(shù)據(jù)進(jìn)行分詞,它是OpenAI o4-mini和GPT-4o所用分詞器的「超集」。

今天,這款分詞器同步開源。

利好開發(fā)者的是,gpt-oss兩款模型與Responses API?兼容,專為智能體工作流打造,在指令遵循、工具使用、推理上極其強(qiáng)大。

比如,它能自主為需要復(fù)雜推理,或是目標(biāo)是極低延遲輸出的任務(wù)調(diào)整推理投入。

同時(shí)完全可定制,并提供完整的思維鏈(CoT),以及支持結(jié)構(gòu)化輸出?。

據(jù)悉,gpt-oss模型整個(gè)預(yù)訓(xùn)練成本,低于50萬(wàn)美元。

圖片圖片

后訓(xùn)練

在后訓(xùn)練階段,gpt-oss模型的流程與o4-mini相似,包含了「監(jiān)督微調(diào)」和「高算力強(qiáng)化學(xué)習(xí)」階段。

訓(xùn)練過(guò)程中,團(tuán)隊(duì)以「OpenAI模型規(guī)范?」為目標(biāo)對(duì)齊,并教導(dǎo)模型在生成答案前,使用CoT推理和工具。

通過(guò)采用與專有o系推理模型的相同技術(shù),讓gpt-oss在后訓(xùn)練中展現(xiàn)出卓越能力。

與API中的OpenAI o系列推理模型相似,這兩款開源模型支持三種推理投入——低、中、高。

開發(fā)者只需在系統(tǒng)提示詞中加入一句話,即可在延遲與性能間靈活切換。

開源小模型,比肩旗艦o3/o4-mini

在多個(gè)基準(zhǔn)測(cè)試中,gpt-oss-120b堪比旗艦級(jí)o系模型的性能。

具體來(lái)說(shuō),在編程競(jìng)賽(Codeforces)、通用問(wèn)題解決(MMLU和HLE)以及工具調(diào)用(TauBench)方面,它直接超越了o3-mini,達(dá)到甚至超越了o4-mini的水平。

圖片圖片

圖片圖片

此外,在健康相關(guān)查詢(HealthBench?)、數(shù)學(xué)競(jìng)賽(AIME 2024 & 2025)基準(zhǔn)中,它的表現(xiàn)甚至優(yōu)于o4-mini。

圖片圖片

盡管gpt-oss-20b規(guī)模較小,但在相同的評(píng)估中,其表現(xiàn)與o3-mini持平或更優(yōu),甚至在AIME、健康領(lǐng)域基準(zhǔn)上的表現(xiàn)超越了o3-mini。

圖片圖片

圖片圖片

在AIME數(shù)學(xué)測(cè)試中,gpt-oss-120b和gpt-oss-20b隨著推理token的增加,準(zhǔn)確率折線逐漸逼近。

圖片圖片

在博士級(jí)知識(shí)問(wèn)答基準(zhǔn)中,gpt-oss-120b的性能始終領(lǐng)先于gpt-oss-20b。

圖片圖片

此外,OpenAI近期研究表明,未經(jīng)直接監(jiān)督訓(xùn)練的CoT有助于發(fā)現(xiàn)模型潛在不當(dāng)行為。

這一觀點(diǎn)也得到了業(yè)內(nèi)其他同行的認(rèn)同。

同樣,遵循o1-preview?的設(shè)計(jì)原則,研究團(tuán)隊(duì)并未對(duì)gpt-oss模型CoT直接監(jiān)督,讓模型更加透明。

圖片圖片

OpenAI,Open AI了

gpt-oss-120b和gpt-oss-20b的開源,標(biāo)志著OpenAI終于在開源模型上,邁出了重要一步。

在同等規(guī)模下,它們?cè)谕评硇阅苌?,可與o3-mini、o4-mini一較高下,甚至是領(lǐng)先。

OpenAI開源模型為所有開發(fā)者,提供了強(qiáng)大的工具,補(bǔ)充了托管模型的生態(tài),加速前沿研究、促進(jìn)創(chuàng)新。

更重要的是,模型開源降低了一些群體,比如新興市場(chǎng)、缺少算力小企業(yè)的準(zhǔn)入門檻。

一個(gè)健康的開放模型生態(tài)系統(tǒng),是讓AI普及并惠及所有人的一個(gè)重要方面。

對(duì)于這次的開源,奧特曼驕傲地表示:gpt-oss是OpenAI「數(shù)十億美元」研究成果的結(jié)晶,是全世界最出色、最實(shí)用的開放模型!

圖片圖片

還等什么?趕快下載下來(lái)享用吧!

參考資料:https://openai.com/index/introducing-gpt-oss/

責(zé)任編輯:武曉燕 來(lái)源: 新智元
相關(guān)推薦

2025-04-23 08:30:05

2025-08-06 09:02:31

2025-04-18 11:18:51

2024-12-24 16:15:04

2024-09-24 11:01:03

2024-10-10 13:01:43

2025-04-01 09:46:08

2025-03-07 08:30:00

2025-02-08 17:00:11

2025-04-17 08:59:59

2025-06-11 08:56:54

2024-07-24 12:40:44

2025-02-07 11:20:50

2025-04-17 06:10:57

2025-04-14 09:17:00

2024-12-26 07:10:00

2025-04-17 09:02:00

2025-04-21 16:25:58

OpenAI測(cè)試模型

2025-04-07 07:18:48

2024-12-06 08:23:40

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)