近日,一名OpenAI工程师在公开的Codex GitHub仓库中提交了一则拉取请求(PR),无意间让“GPT-5.4”这一型号出现在代码版本判断条件中,引发了外界关注。

几乎就在这条PR被网友发现的同时,另一条线索也浮出水面。有用户发现,GPT-5.4曾短暂出现在Codex应用的模型选择器里。据称,这张截图最初源自一位OpenAI员工在社交平台X上的发帖,但该帖子很快被删除。

两则信息的源头均指向OpenAI内部员工,这引发了外界猜测:GPT-5.4是否已经在内部进行测试,甚至已进入发布准备阶段?

更耐人寻味的是,这两条线索在被传播后迅速被修改或删除。PR被强制推送覆盖,社交平台上的原帖也已消失。
图1中那条写着“gpt-5.4 or newer”的PR,在数小时后被悄悄修改为“gpt-5.3-codex or newer”。

图2中引用的原帖也已经被删除。

这些操作反而让讨论持续升温。这是内部测试分支被提前暴露?是命名体系尚未最终确定?还是仅仅一次占位符版本号的误用?在缺乏官方说明的情况下,代码层面的“擦痕”本身,也成为了新的解读对象。
更具戏剧性的是后续在社交平台上流传的进一步爆料。
有X用户声称,GPT-5.4的真正突破可能不在于常规推理基准,而在于内存与上下文架构。传闻指向一个高达200万token的上下文窗口,并配合真正的“有状态AI”(stateful AI)。这意味着模型将不再局限于单次会话内的记忆,而是能够在不同会话之间保留工作流、环境配置乃至工具状态。

如果这一方向属实,GPT-5.4变化的重心或许将不再是生成“更聪明的回答”,而是实现“更持久的认知连续性”。
目前,OpenAI尚未对此事发表任何官方评论。关于GPT-5.4的测试状态以及是否会跳过5.3版本直接发布,仍有待观察。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/23782
