剛剛,OpenAI開(kāi)放GPT-4.1,100萬(wàn)上下文、代碼能力超強(qiáng)
今天凌晨1點(diǎn)30,OpenAI宣布開(kāi)放GPT-4.1,從今天開(kāi)始可以在ChatGPT中使用。
GPT-4.1是一款專門針對(duì)編碼任務(wù)和指令執(zhí)行的模型,推理效率非常高,對(duì)于日常編碼需求來(lái)說(shuō),是替代o3和o4-mini非常好的選擇。
GPT-4.1是OpenAI發(fā)布的最新模型,其最大亮點(diǎn)之一就是支持100萬(wàn)tokens上下文,這也是OpenAI首次發(fā)布長(zhǎng)窗口模型。
與前代模型相比,GPT-4.1、GPT-4.1Mini和GPT-4.1Nano能夠處理多達(dá)100萬(wàn)tokens的上下文,是GPT-4o的8倍。
OpenAI在LongContextEvals上對(duì)長(zhǎng)文本進(jìn)行了測(cè)試,測(cè)試結(jié)果顯示,GPT-4.1系列的三個(gè)模型均能夠在語(yǔ)料庫(kù)的任何深度找到目標(biāo)文本,無(wú)論是開(kāi)頭、中間還是結(jié)尾,甚至在長(zhǎng)達(dá)100萬(wàn)tokens的上下文中,模型依然能夠準(zhǔn)確地定位目標(biāo)文本。
OpenAI還在Multi-RoundCoreference進(jìn)行了測(cè)試,通過(guò)創(chuàng)建合成對(duì)話來(lái)測(cè)試模型在長(zhǎng)上下文中的理解和推理能力。
在這些對(duì)話中,用戶和助手交替進(jìn)行對(duì)話,用戶可能會(huì)要求模型生成一首關(guān)于某個(gè)主題的詩(shī),接著要求生成另一首關(guān)于不同主題的詩(shī),然后可能要求生成一個(gè)關(guān)于第三個(gè)主題的短故事。模型需要在這些復(fù)雜的對(duì)話中找到特定的內(nèi)容,例如“第二篇關(guān)于某個(gè)主題的短故事”。
測(cè)試結(jié)果顯示,GPT-4.1在處理長(zhǎng)達(dá)128Ktokens的數(shù)據(jù)時(shí)顯著優(yōu)于GPT-4o,并且在長(zhǎng)達(dá)100萬(wàn)tokens的上下文中依然能夠保持較高的性能。
在編碼能力測(cè)試中,SWEBench評(píng)估將模型置于Python代碼庫(kù)環(huán)境,讓其探索代碼庫(kù)、編寫代碼和測(cè)試用例。結(jié)果顯示,GPT-4.1的準(zhǔn)確率達(dá)到55%,而GPT-4o僅為33%。
在多語(yǔ)言編碼能力測(cè)試方面,Aderpolyglot基準(zhǔn)測(cè)試涵蓋多種編程語(yǔ)言和不同格式要求。GPT-4.1在差異性能上較GPT-4o提升一倍,在處理多語(yǔ)言編程任務(wù)、代碼優(yōu)化和版本管理時(shí)更高效。
在指令遵循能力測(cè)試中,OpenAI構(gòu)建內(nèi)部評(píng)估體系,模擬API開(kāi)發(fā)者使用場(chǎng)景,測(cè)試模型對(duì)復(fù)雜指令的遵循能力。每個(gè)樣本包含分屬不同類別的復(fù)雜指令,并分難度等級(jí)。在困難子集評(píng)估中,GPT-4.1遠(yuǎn)超GPT-4o。
在多模態(tài)處理測(cè)試的視頻MME基準(zhǔn)測(cè)試中,GPT4.1對(duì)30-60分鐘無(wú)字幕視頻進(jìn)行理解并回答多項(xiàng)選擇題,取得72%的成績(jī),達(dá)到當(dāng)前最佳水平,在視頻內(nèi)容理解上實(shí)現(xiàn)重大突破。
價(jià)格方面,GPT-4.1系列在性能提升的同時(shí),價(jià)格更具競(jìng)爭(zhēng)力。GPT-4.1相比GPT-4o價(jià)格降低26%,而GPT-4.1Nano作為最小、最快且最便宜的模型,每百萬(wàn)token的成本僅為12美分。
目前,Plus、Pro和Team用戶可以通過(guò)模型選擇器中的“更多模型”使用GPT-4.1。企業(yè)和教育用戶將在接下來(lái)的幾周內(nèi)獲得訪問(wèn)權(quán)限。
OpenAI還在ChatGPT中為所有用戶推出GPT-4.1-mini,取代GPT-4o-mini。