妙语解烦网

OpenAI发布GPT-5.3-Codex-Spark模型,一秒回应� Tokens

来源:妙语解烦网-工人日报
2026-04-21 16:46:46

IT之家 2 月 13 日消息,Cerebras 与 OpenAI 宣布推出最新的 GPT-5.3-Codex-Spark 模型,主打实时编程。这也是 OpenAI 与 Cerebras 合作的首个公开发布成果。

IT之家注:该模型由 Cerebras 提供算力支持,已于当地时间 2 月 12 日以“研究预览”(research preview)形式开放。

据介绍,Codex-Spark 主要面向对交互速度要求极高的实时软件开发场景,可实现超 1000 tokens/s 的推理速度,从而实现近乎即时响应的编码反馈。

OpenAI 在公告中指出,近年来“agentic coding”正逐渐改变软件开发方式,机器能够在较少人工监督下持续工作数小时甚至数天。但这种模式也可能带来新的问题,包括开发者等待时间变长、对过程的掌控感降低。

OpenAI 表示,软件开发本质上是迭代过程,需要开发者在过程中不断掌控方向、决定审美与决策,因此 Codex-Spark 被设计为与 Codex 进行实时协作的模型,强调“快速、响应及时、可引导”,让开发者保持在工作中的主导位置。

从定位上看,Codex-Spark 被描述为“具备高度能力的小模型”,主要针对快速推理场景进行了优化。OpenAI 称,在 SWE-Bench Pro、Terminal-Bench 2.0 等软件工程基准测试上,Codex-Spark 在完成任务耗时显著缩短的同时,能够给出比 GPT-5.1-Codex-mini 更好的回答。

在具体能力方面,OpenAI 强调 Codex-Spark 擅长进行精确代码修改、计划调整,并能围绕代码库进行上下文问答。官方还提到,该模型适用于快速可视化新布局、优化样式,以及测试新的界面变更等工作。

OpenAI 同时也对 Cerebras 硬件能力进行了介绍。据称,Wafer-Scale Engine 具备业内最大的 SoC 片上内存,可支撑用户实现每秒数千 token 级别的高速推理,并可扩展到数千套系统,将高速内存容量扩展到多 TB 级别,以支持万亿参数模型的训练与推理。OpenAI 表示,预计在 2026 年把这种“超高速推理”能力带到更大规模的前沿模型上。

在上线范围方面,OpenAI 称 Codex-Spark 将以研究预览形式向 ChatGPT Pro 用户推送,覆盖 Codex 应用、CLI 以及 VS Code 扩展,同时 API 访问将向部分设计合作伙伴逐步开放。

责任编辑:妙语解烦网

媒体矩阵


  • 客户端

  • 微信号

  • 微博号

  • 抖音号

网评推荐

客户端

亿万职工的网上家园

马上体验

关于我们|版权声明| 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2024 by {当前域名}. all rights reserved

扫码关注

妙语解烦网微信


妙语解烦网微博


妙语解烦网抖音


工人日报
客户端
×
分享到微信朋友圈×
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。