偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

OpenAI 最強(qiáng)推理模型 o3 / o4-mini 震撼發(fā)布!AI 從此能“看圖思考”? 原創(chuàng)

發(fā)布于 2025-4-21 06:44
瀏覽
0收藏

當(dāng)AI不僅能“看”圖,還能“用圖思考”,甚至自主調(diào)用工具解決現(xiàn)實中的復(fù)雜問題,人類與機(jī)器的協(xié)作邊界正在被重新定義。今天凌晨,OpenAI發(fā)布的兩款新模型o3和o4-mini,不僅刷新了多項性能紀(jì)錄,更首次將圖像深度融入推理鏈條。

顛覆性突破

首次實現(xiàn)圖像思維鏈整合


OpenAI 最強(qiáng)推理模型 o3 / o4-mini 震撼發(fā)布!AI 從此能“看圖思考”?-AI.x社區(qū)圖片

OpenAI首次展示了其模型如何嵌入圖像進(jìn)行理性分析的例子。該模型不僅具備“觀察”圖像的能力,更可以“用圖像推導(dǎo)”。這一創(chuàng)新使視覺和文字理解能力深度結(jié)合,在多模態(tài)基線測試中取得了最高標(biāo)準(zhǔn)。

比如上傳一張手寫公式的草稿紙,它能識別潦草字跡并解題;看到企業(yè)財報圖表,還能自動分析趨勢生成報告

這些模型在視覺認(rèn)知任務(wù)上實現(xiàn)了前所未有的精確度,解決了以往難以應(yīng)對的問題。

全能學(xué)霸O(shè)3:復(fù)雜問題的終結(jié)者

根據(jù)OpenAI公布的數(shù)據(jù),O3在Codeforces編程競賽、SWE-bench軟件工程基準(zhǔn)和MMMU多學(xué)科理解測試中均創(chuàng)造了新紀(jì)錄。特別值得一提的是,在現(xiàn)實世界的高難度任務(wù)中,O3的重大錯誤率比前代O1模型降低了驚人的20%。

早期測試者將O3形容為"具有極高分析能力的思考伙伴",尤其在以下領(lǐng)域表現(xiàn)突出:

  • 生物學(xué)、數(shù)學(xué)和工程領(lǐng)域的新假設(shè)提出與評估
  • 需要多維度分析的復(fù)雜查詢
  • 圖像、圖表和圖形等視覺任務(wù)分析

一位參與測試的科研人員表示:"O3在解決那些答案并不直觀的復(fù)雜問題時,展現(xiàn)出了接近人類專家的推理能力。"

小巧精悍的O4-mini:性價比之王

與旗艦產(chǎn)品O3一同發(fā)布的還有O4-mini,這款"輕量級選手"雖然體積更小,但在數(shù)學(xué)、編程和視覺任務(wù)上卻展現(xiàn)出了驚人的性價比。

O4-mini的特點(diǎn)包括:

  • AIME 2024/2025基準(zhǔn)測試表現(xiàn)最佳之一
  • 非STEM任務(wù)表現(xiàn)超越前代O3-mini
  • 計算效率極高,支持比O3更高的使用頻率

對于那些需要推理能力但又預(yù)算有限的高頻、高吞吐量場景,O4-mini無疑是理想選擇。


OpenAI 最強(qiáng)推理模型 o3 / o4-mini 震撼發(fā)布!AI 從此能“看圖思考”?-AI.x社區(qū)

價格

OpenAI稱o3和o4-mini在很多情況下,它們都比各自的前代o1與o3-mini更高效,也更節(jié)省成本。


OpenAI 最強(qiáng)推理模型 o3 / o4-mini 震撼發(fā)布!AI 從此能“看圖思考”?-AI.x社區(qū)圖片

圖片

如何嘗鮮

4月17日起,OpenAI正式推出全新模型版本,ChatGPT Plus、Team和Pro用戶將迎來重大變化——模型選擇器中的o1、o3-mini和o3-mini-high將被o3、o4-mini和o4-mini-high取代!而ChatGPT Enterprise和Edu用戶則需再等一周才能體驗新模型。

免費(fèi)用戶也有福利! 雖然無法直接選擇新模型,但你現(xiàn)在可以在輸入問題前點(diǎn)擊 “Think” 按鈕,讓系統(tǒng)調(diào)用o4-mini的推理能力,搶先感受更強(qiáng)大的邏輯分析!

更值得期待的是,OpenAI還預(yù)告了o3-pro的即將上線,它將支持全部工具功能,為專業(yè)用戶提供更全面的體驗。

Codex CLI

OpenAI也發(fā)布了一個全新的實驗項目:Codex CLI —— 這是一款輕量級的編程智能體,專為最大化模型如o3和o4-mini的推理能力而設(shè)計,并計劃即將支持GPT-4.1等更多API模型。

Codex CLI的目標(biāo)在于,讓用戶可以直接從命令行體驗多模態(tài)推理,比如向模型傳遞截圖或低保真草圖,結(jié)合本地代碼環(huán)境,讓模型參與解決實際編程任務(wù)。這無疑將提升我們解決復(fù)雜編程問題的效率,減少開發(fā)時間,提升產(chǎn)品質(zhì)量。

當(dāng)開發(fā)者能通過自然語言+截圖驅(qū)動計算機(jī),生產(chǎn)力的爆發(fā)將不可想象——唯一的問題是:你的想象力,跟得上 AI 的速度嗎?


本文轉(zhuǎn)載自公眾號AI 博物院 作者:longyunfeigu

原文鏈接:??https://mp.weixin.qq.com/s/zWcwNubAFaIshWbM0WgUWw??

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責(zé)任
標(biāo)簽
已于2025-4-21 06:44:25修改
收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦