OpenAI周三发布了两个新的AI模型——o3和o4 mini,旨在处理从编码到视觉分析的更广泛的任务。
OpenAI表示,o3是其迄今为止最先进的推理模型,也是其处理网页浏览、图像生成和视觉理解的一系列模型中的第一个。
OpenAI表示,它将立即发布o3和o4-mini,并称其为更小、更快的模型,能够以更低的成本提供令人印象深刻的结果,特别是在数学、编码和视觉任务方面。
OpenAI表示,将网页浏览和图像功能集成到o3中有助于他们更有效地解决复杂的多步骤问题,并朝着独立行动迈出真正的一步。
「OpenAI o3和o4-mini是我们第一个可以用图像思考的模型——这意味着它们不仅可以看到图像,还可以将视觉信息直接整合到推理链中。」
这两种型号都将很快面向ChatGPT Plus、Pro和Team用户推出,o3-Pro将在几周内推出。
OpenAI还推出了Codex CLI,它将其描述为在计算机终端应用程序中本地运行的轻量级开源编码代理,并与o3和o4 mini配合使用。
在最初计划为o3发布独立版本后,OpenAI在2月份表示,它将把o3合并到GPT-5的版本中,但在本月早些时候再次改变了方向,首席执行官Sam Altman表示o3和o4-mini很快就会发布,GPT-5将在几个月内发布。
这两个模型都是使用OpenAI周二宣布的修订后的准备框架进行评估的。
OpenAI表示,该模型没有针对其说服能力进行评分,因为该指标不再包含在新框架中;然而,OpenAI强调,它确实将模型说服力视为其更广泛安全工作的一部分。
