OpenAI GPT-5遲遲未推出,但GPT-5前的兩個過渡模型o3和o4-mini已在當地時間4月16日推出了。
這是近期OpenAI頻繁調整產品路線圖后的最新發布。OpenAI此前曾調整o系列推理模型發布計劃,打算不再單獨推出o3模型,而是將推出GPT-5,由GPT-5集成o3。不過,4月初,OpenAI CEO山姆·奧爾特曼(Sam Altman)表示計劃有變,因為“整合所有內容比預想的困難”,所以GPT-5還需要更多研發時間,o3和04-mini還是會先單獨推出。
在GPT-5還需等待數月才能面世的空檔期,可以用到o3和o4-mini模型的是ChatGPT Plus、Pro、Team用戶和API(接口)用戶,前代的o1、o3-mini模型將被取代,ChatGPT企業和教育用戶后續也能使用o3和o4-mini。從能力上看,這兩個新模型則在代碼編輯和視覺思考能力方面有較明顯的提升。
“這是我們目前最智能的模型,推理模型首次能代理使用ChatGPT的每個工具,包括搜索網絡、使用Python分析上傳的文件、推理視覺輸入內容、生成圖像。”OpenAI總結稱。
具體而言,在外部專家評估中,o3面對困難現實任務時,犯的重大錯誤比前一代的o1少20%,o4-mini則在迅速反應、經濟高效方面進行了優化。在數學能力AIME 2025基準測試中,o3、o4-mini分數分別為88.9、92.7,超過o1的79.2。在代碼能力的Codeforces基準測試中,o3、o4-mini得分2706、2719,超過o1的1891。在博士級科學題GPQA Diamond、跨學科專家級問題Humanity’s Last Exam、視覺數學推理MathVista等基準測試中,o3和o4-mini得分也超過o1。
此外,o3-high(high為高能力模式)和o4-mini-high的代碼編輯整體準確率分別為81.3%和68.9%,超過o1-high的64.4%。o3和o4-mini將圖像信息融入思維鏈中,用戶上傳教科書圖表、手繪草圖后,模型可以直接進行解釋。當用戶問及某些問題時,o3和o4-mini還會主動使用多個工具,例如用戶問及某地夏季能源使用情況時,模型會在網絡上搜索公共數據、編寫Python代碼來預測并生成圖像。
OpenAI舉了幾個案例。例如,將一個時間表圖片交給o3,告知當下的時間并要求o3輸出詳細計劃,確保用戶能看到表中的所有景點和表演,o3就能輸出一份詳細的行程表;要求o3分析某項體育運動的新規則如何影響投手的表現和比賽時間,o3先搜尋了網絡資料,再進行統計分析;上傳一張照片,可以詢問模型圖中最大船只的名字、在哪里停靠等問題。
成本上,在AIME 2025基準測試中,o3的性價比高于o1。OpenAI稱o3和o4-mini比o1更便宜。
隨著OpenAI延后推出GPT-5,不只o3和o4-mini被作為基礎模型更新換代時的過渡產品。此次OpenAI還推出了開源的編程代理工具Codex CLI。本周OpenAI還在API中引入GPT-4.1系列模型,GPT-4.1的性能超過GPT-4o。隨著GPT-4.1推出,OpenAI準備棄用今年2月剛面世的GPT-4.5預覽版。
OpenAI近期在產品路線規劃上的反復調整,使其產品矩陣變得更為復雜,后續如何整合推理o系列和基礎模型GPT數字系列(如GPT-4、GPT-5)將是OpenAI面臨的一大挑戰。近期頻繁更新產品后,OpenAI后續還需依靠基礎模型GPT-5來證明自身能力。