OpenAI 近日宣布推出两款全新小型模型——GPT-5.4 mini 与 GPT-5.4 nano,旨在为高频、低延迟任务提供更高效的解决方案。这两款模型在保持高性能的同时,显著提升了响应速度和运行效率,尤其适用于代码编写、实时图像解析等对延迟要求严苛的场景。
据官方介绍,GPT-5.4 mini 在代码生成、逻辑推理、多模态理解及工具调用等方面表现卓越,其运行速度较前代提升超过两倍。在多项基准测试中,该模型的成绩已接近体积更大的 GPT-5.4 模型,例如在 SWE-Bench Pro 和 OSWorld-Verified 等测试中均展现出强劲竞争力。凭借极低的延迟特性,GPT-5.4 mini 特别适合需要快速迭代的代码开发流程,可高效完成精准编辑、代码库导航及前端界面生成等任务。其在多模态领域的应用也十分突出,能够快速解析复杂的用户界面截图并执行各类计算机操作。
另一款模型 GPT-5.4 nano 则以极致的轻量化设计为亮点,成为目前体积最小、成本最低的版本。作为 GPT-5 nano 的升级款,它专为追求速度与经济性的任务优化,开发者可将其广泛应用于文本分类、数据提取、内容排序及简单代码子代理等场景。其低延迟特性使其在需要快速响应的辅助任务中表现尤为出色。
目前,两款模型已正式开放使用。GPT-5.4 mini 已全面接入 API、Codex 及 ChatGPT 平台,其 API 版本支持 400k 上下文窗口,输入与输出成本分别为每百万 Token 0.75 美元和 4.50 美元。在 Codex 中调用时,该模型仅消耗 GPT-5.4 额度的 30%;ChatGPT 用户则可通过“思考(Thinking)”功能体验其能力。GPT-5.4 nano 仅通过 API 提供服务,输入与输出成本更低,分别为每百万 Token 0.20 美元和 1.25 美元,进一步降低了开发门槛。












