OpenAI并没有放慢脚步。在发布GPT-5.4不到两周后——而GPT-5.4本身是在GPT-5.3发布后仅两天推出的——该公司在周二发布了两个新的模型:GPT-5.4 Mini和GPT-5.4 Nano。
这些模型并不是旗舰模型的简化版本——它们是专为在等待答案半分钟不可行的工作量身定制的机器。
OpenAI称它们是“迄今为止最强大的小型模型”,表示GPT-5.4 Mini的速度超过了GPT-5 Mini两倍以上。如果你曾经看过一个编码助手思考了45秒后才修改三行代码,那么你就会理解快速模型的吸引力。
那么,为什么会有人故意发布不够准确的模型呢?简短的答案是:因为准确性并不总是瓶颈。如果你在运行一个全天候回答同样200个问题的客户服务聊天机器人,那么你并不需要在博士级化学考试中表现最佳的模型。你需要的是在一秒钟内做出响应且每次回复成本仅为几分之一美分的模型。这就是这些模型所建立的空间。
但这并不意味着这些模型愚蠢或不可靠。在编码基准测试中,GPT-5.4 Mini在SWE-Bench Pro上的得分为54.4%——这是一个测量模型修复真实GitHub问题能力的测试——而旧版GPT-5 Mini得分为45.7%,完整版GPT-5.4得分为57.7%。
在OSWorld-Verified上,该测试评估模型在读取屏幕截图时实际操作桌面计算机的能力,Mini的得分为72.1%,接近旗舰模型的75.0%——而两者均超过人类基线的72.4%。与此同时,GPT-5.4 Nano在SWE-Bench Pro上的得分为52.4%,在OSWorld上得分为39.0%——低于Mini,但仍然比之前的Nano级模型有了大幅提升。
“GPT-5.4标志着Mini和Nano模型在我们的内部评估中向前迈出了一步,”Perplexity副首席技术官Jerry Ma 在测试过两者后说道。“Mini提供了强大的推理能力,而Nano在实时对话工作流程中响应迅速且高效。”
现在,你可以构建系统,让大型模型进行规划和协调,而小型模型并行处理实际的繁重工作——在这里搜索代码库,在那里阅读文档,或在别处处理表单,而不是将每一个任务都通过一个昂贵的旗舰模型。如同我们在GPT-5.4与Grok 4.20的比较中看到的,模型在工作流中的位置与选择哪个模型一样重要。
通过API,GPT-5.4 Mini的费用为每百万个输入标记0.75美元,每百万个输出标记4.50美元。GPT-5.4 Nano甚至更便宜:每百万个输入标记0.20美元,每百万个输出标记1.25美元——这样的价格使得每天处理大量查询在财务上对初创公司来说是现实的。作为对比,Nano在输入方面的费用大约是Mini的四分之一。
对于普通的ChatGPT用户来说,GPT-5.4 Mini今天已通过“思考”选项在加号菜单中向Free和Go用户开放。达到GPT-5.4使用限额的付费用户将自动回退到Mini。不过,GPT-5.4 Nano目前仅限于API——OpenAI显然将其定位为开发者工具,而非消费品。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。