OpenAI发布GPT-5.3-Codex-Spark模型
2026-02-13 10:57
42
凌晨2点,OpenAI突然放了个大招——GPT-5.3-Codex-Spark横空出世,速度快到让人怀疑人生。说实话,这次他们是真的瞄准了AI编程的痛点,把实时交互这件事做到了极致。
还记得前段时间Claude提速2.5倍却涨价6倍的事吗?不少用户当时就不太爽。OpenAI这次算是看准了时机,直接放大招:不跟你玩涨价那套,直接给你秒出代码!

速度快到离谱
官方数据显示,Spark版本每秒能输出超过1000个token。这是什么概念?以往你用大模型,有时候等它"思考"一个词能急死人,现在这个Spark就像换了台涡轮增压发动机。在Cerebras的硬件加持下,代码几乎是瞬间就出来了。
可能你注释还没写完,代码已经跑出来了,那种盯着进度条干着急的感觉彻底没了。看下面这个对比视频就知道有多暴力——老模型还在慢悠悠地敲代码,Spark这边应用都已经运行起来了。
不只是快,更懂实时协作
以前大家都觉得大模型嘛,慢点就慢点,只要结果准确就行。但OpenAI这次换了个角度想问题。
他们发现,现在的AI智能体已经可以独立完成任务了,有些甚至能自动跑好几天。可真正写代码的时候,你其实更需要即时反馈——改个界面、修个bug,你希望它马上给出响应,甚至随时能打断它说"不对,换个思路"。
这种工作方式更像是身边坐了个真人搭档,而不是一个只会埋头苦干的机器人。Spark的出现,正好填补了Codex在实时协作方面的空白,现在它既能处理复杂任务,也能快速响应小改动。
你在编辑器里刚敲下回车,代码就开始往外冒了,这种丝滑体验才是AI编程助手该有的样子。

端到端的延迟优化
OpenAI在做Spark时考虑得很周全。他们明白,光模型本身快还不够,整个请求-响应链路要是有延迟,体验照样会打折扣。就像开车,车性能再好,路上堵车也快不起来。
所以他们对整个框架做了端到端优化,而且这个优化不只针对Spark,后续所有模型都能受益。底层做了大量调整:简化客户端和服务器间的传输逻辑,重写推理栈核心部分,重构会话初始化方式……目的就是让第一个token更快显示,改代码时也能一直保持流畅。
他们还引入了持久化WebSocket连接,优化了响应API。效果很明显:客户端和服务器每轮交互开销减少80%,单token开销减少30%,第一个token生成时间直接砍半。现在Codex-Spark已经默认用这种传输方式了,相信很快所有模型都会跟进。
硬件黑科技加持
Spark能跑这么快,背后离不开Cerebras的算力支持。这家公司的技术路线确实很另类——他们搞了种叫"晶圆级引擎"的芯片,简单说就是在整块晶圆上做一个超大芯片,而不是像传统方式那样切成小块。
这种设计天然适合超低延迟的推理任务。虽然GPU是万金油,但在追求极致速度的场景下,Cerebras给OpenAI提供了一种全新的解决方案。术业有专攻嘛。
Cerebras首席技术官肖恩·利也表示,能和OpenAI及开发者社区合作探索快速推理技术,他们特别兴奋,这次预览版只是开始,后面还有更多惊喜。
谁能用上?
从今天起,ChatGPT Pro用户就能体验Spark了,支持最新版Codex应用、命令行界面和VS Code扩展。虽然现在它还是纯文本模型,只能处理文字,上下文窗口也只有128k,但这只是个开始。
OpenAI的态度很明确:先让大家尝鲜,看看这种极速模型能玩出什么花样。后面肯定会有更强版本,甚至可能加上多模态功能,不光能写代码,还能看图写代码。
Spark的出现,算是开创了一种全新的超高速输出模式。AI编程这条赛道,看来又要卷起来了。
0
好文章,需要你的鼓励
