GPT-5.4泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真

GPT-5.4 泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真

GPT-5.4 的消息泄露了吗?

近日,一张截图在社交平台𝕏上广泛传播:

GPT-5.4泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真

截图显示,在 OpenAI 编码助手 Codex 的代码拉取请求中,直接出现了“GPT-5.4”字样,并提及了用于快速模式的 /Fast 命令。

这并非首次发现 GPT-5.4 的踪迹。几天前,一位 OpenAI 开发人员在 GitHub 提交的代码拉取请求中,其版本判断条件的变更说明意外泄露了相关信息:

在尚在开发的 view_image_original_resolution 功能开关背后,为 view_image 接口添加了原始分辨率支持。

当该功能开关启用,且目标模型为 gpt-5.4或更新版本 时……

GPT-5.4泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真

随后,“gpt-5.4”被迅速修改为“gpt-5.3-codex”。此外,Codex 模型的下拉选项中也曾短暂出现过 GPT-5.4 模型:

GPT-5.4泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真

这些迹象似乎都预示着 GPT-5.4 可能即将到来。

200万Tokens上下文窗口?

另有传闻称,GPT-5.4 将搭载高达 200 万 Tokens 的上下文窗口,以实现对超长篇内容的持久记忆。

有网友分析指出,要支撑“记住超长内容且长期不忘”的能力,模型在推理时需要缓存的数据量将急剧膨胀,这本身就是一个极具挑战性的技术难题。

GPT-5.4泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真

而在泄露的代码拉取请求中提到,为“GPT-5.4或更新版本”新增了一项功能开关,可绕过传统的图像压缩机制,直接保留全分辨率的原始图像字节数据。

这意味着 GPT-5.4 可能将具备像素级精准的视觉分析能力。

前端开发者、设计师与工程师或许将能直接上传高精度UI原型或复杂的工程原理图,模型能够完整捕捉其中的每一处细节,从而彻底告别因图像压缩模糊而产生的“视觉幻觉”。

GPT-5.4泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真

更有趣的是,有用户向 ChatGPT 5.2 询问其模型版本时,它竟开始一本正经地自称是 GPT-5.4了……

GPT-5.4泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真

当然,以网友们对 OpenAI 首席执行官山姆·奥特曼(Sam Altman)风格的了解,也不排除这是一场市场预热。

有网友评论认为:

核心需要重点关注的是,模型在整个上下文窗口范围内的准确率 (召回率) 。如果连内容都做不到精准识别与回忆,那么 200 万 Tokens 的上下文窗口再大也意义有限。

如果在 8-needle 等长上下文测试中准确率能超过 90%,那才是真正的重大突破。

GPT-5.4泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真

与此同时,业界的目光也正聚焦于另一款备受期待的模型——DeepSeek V4 的发布。

GPT-5.4泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真

参考链接:
[1]https://x.com/i/trending/2028300584164700282
[2]https://x.com/nicdunz/status/2028305161324507194
[3]https://x.com/kimmonismus/status/2028123002156531714


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/23725

(0)
上一篇 2026年3月3日 下午1:53
下一篇 2026年3月3日 下午1:58

相关推荐

  • 视觉压缩革命:DeepSeek-OCR与VTCBench如何重塑长文本理解的未来?

    DeepSeek-OCR 提出的视觉文本压缩(Vision-Text Compression, VTC)技术,通过将文本编码为视觉 Token,实现了高达 10 倍的压缩率,显著降低了大模型处理长文本的计算与显存成本。然而,一个核心问题随之浮现:视觉语言模型(VLM)能否真正理解这种高度压缩后的高密度信息? 为了系统性地评估模型在视觉压缩范式下的认知能力,来…

    2026年1月10日
    14900
  • 谷歌Nano Banana Pro引爆AI图像生成革命:从硅谷CEO合影到时空坐标推理的全面解析

    在人工智能技术飞速发展的今天,图像生成领域迎来了一次里程碑式的突破。谷歌最新发布的Nano Banana Pro(基于Gemini 3 Pro图像模型)不仅刷新了行业认知,更以惊人的真实感和理解能力重新定义了AI图像生成的边界。本文将从技术架构、应用场景、行业影响三个维度,深入剖析这一划时代产品的核心价值。 技术架构层面,Nano Banana Pro的成功…

    2025年11月23日
    16100
  • 国产AI算力池迈入规模化落地新纪元:3万卡超集群开启千行百业应用新时代

    国内智算基础设施迈过关键分水岭 2月5日,由中科曙光提供的3套scaleX万卡超集群,在国家超算互联网核心节点同时上线试运行。由此,全国首个实现3万卡部署、且实际投入运营的最大国产AI算力池正式形成。 过去,万卡集群更像是头部玩家的实力勋章。如今,当万卡规模的算力开始实现“多套并行、同时落地、即刻应用”,国产超集群便跨过了单点突破的阶段,正式步入规模化落地的…

    2026年2月6日
    10600
  • INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

    近日,Prime Intellect正式发布了INTELLECT-3模型,这是一款拥有106B参数的混合专家(Mixture-of-Experts)架构模型,基于其自研的强化学习技术栈进行训练。该模型在数学、代码、科学和推理等多个基准测试中取得了同规模模型中的最佳表现,甚至超越了部分参数更大的前沿模型。更重要的是,Prime Intellect将完整的训练流…

    2025年12月10日
    21300
  • 从虚拟生成到真实复刻:如视Argus 1.0如何用空间大模型重构物理世界

    在人工智能领域,世界模型(World Model)近期成为炙手可热的研究方向,多个顶尖实验室相继展示出仅凭单张图片或简短文字描述即可生成交互式3D虚拟世界的惊人演示。这些成果无疑彰显了AI在内容生成方面的巨大潜力,引发行业广泛关注。然而,一个根本性问题随之浮现:这些由模型“想象”出的虚拟世界,其构成元素大多源于数据训练中的模式学习与合成,缺乏对真实物理空间的…

    2025年11月19日
    19900