OpenAI推出Codex Spark,首款搭载Cerebras晶圆级芯片的实时编码助手
•26 阅读•3分钟•前沿
OpenAI生成式AICerebrasCodex SparkWSE-3
Lucas Ropek••26 阅读•3分钟•前沿

背景概述
OpenAI在本月初推出了最新的大语言模型 GPT-5.3,随后在 2 月 12 日宣布了其轻量化分支 Codex Spark(全称 GPT-5.3‑Codex‑Spark)。该版本专为编码场景设计,目标是提供比原版更低的推理延迟,以满足开发者对实时交互的需求。
产品亮点
- 极速响应:借助专用硬件,Spark 的单次推理延迟降至毫秒级,支持即时代码补全与调试。
- 双模式设计:兼顾实时协作(快速迭代)与长时任务(深度推理),实现“快”与“深”两种使用场景的互补。
- 面向 ChatGPT Pro 用户:目前以研究预览形式向 Pro 订阅者开放,用户可在 Codex 应用中直接体验。
- 生产力驱动:OpenAI 将其定位为“日常生产力工具”,帮助开发者在原型阶段显著提升效率。
"Codex‑Spark 是我们在低延迟计算方面迈出的第一步,未来将为开发者打开全新的交互模式。" — OpenAI 官方声明
硬件合作深度
此次发布的核心在于 OpenAI 与 Cerebras 的硬件整合。Cerebras 提供的 Wafer Scale Engine 3(WSE‑3) 是第三代晶圆级超级芯片,拥有约 4 万亿晶体管,专为大模型推理优化。OpenAI 称,将该芯片嵌入其计算池后,能够实现 "极低延迟",满足 Codex Spark 对实时性的苛刻要求。
- 多年度合作:两家公司上月签署了价值超过 100 亿美元的多年协议,旨在共同探索专用算力与生成式 AI 的协同创新。
- 资本动向:Cerebras 最近完成 10 亿美元新融资,估值 230 亿美元,正加速其 IPO 计划。
市场与行业影响
- 开发者生态:低延迟编码助手有望提升开发者对 AI 辅助编程的接受度,尤其在快速原型和敏捷开发流程中。
- 竞争格局:微软 GitHub Copilot、Google Gemini Code 等竞争产品仍依赖通用 GPU,OpenAI 的专用芯片路线为其提供差异化优势。
- 算力趋势:随着模型规模继续扩大,业界对专用加速器的需求加剧,Codex Spark 预示着大模型向「硬件即服务」模式迈进。
未来展望
OpenAI 表示,Codex Spark 仅是「两种互补模式」的第一步,后续将继续在低延迟硬件上迭代,探索更丰富的实时协作功能,如多用户同步编辑、代码审查自动化等。Cerebras 也计划在其下一代 WSE 系列中进一步提升吞吐量,为更大规模的生成式 AI 提供支撑。
"我们对与 OpenAI 的合作充满期待,未来的低延迟交互将开启全新的应用场景。" — Cerebras 首席技术官 Sean Lie
整体来看,Codex Spark 的发布标志着生成式 AI 与专用算力的深度融合进入实际落地阶段,行业观察者普遍认为这将加速 AI 编码助手从实验室走向企业级生产力工具的进程。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。