上下文窗口
-
GPT-5.4泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真
GPT-5.4 泄露?代码拉取请求惊现新模型,200万Tokens上下文窗口或成真 GPT-5.4 的消息泄露了吗? 近日,一张截图在社交平台𝕏上广泛传播: 截图显示,在 OpenAI 编码助手 Codex 的代码拉取请求中,直接出现了“GPT-5.4”字样,并提及了用于快速模式的 /Fast 命令。 这并非首次发现 GPT-5.4 的踪迹。几天前,一位 O…
-
Claude Opus 4.6震撼发布:ARC-AGI得分68%创纪录,百万token上下文窗口开启AI新纪元
Anthropic 正式发布了其旗舰模型 Claude Opus 的最新版本 4.6。此次升级带来了显著的智能提升,尤其是在衡量抽象推理能力的 ARC-AGI 2 测试中取得了 68% 的得分,创造了新的纪录,并大幅领先于其他主流模型。 核心能力提升 Opus 4.6 在编程能力上实现了重要进步,能够更细致地规划任务,在大型代码库中进行更可靠的操作,并提升了…
-
MIT革命性突破:RLM技术让大模型零改动解锁千万级上下文,推理性能飙升580倍
MIT革命性突破:RLM技术让大模型零改动解锁千万级上下文,推理性能飙升580倍 让大模型轻松处理比自身上下文窗口长两个数量级的超长文本! MIT CSAIL研究团队提出了一种名为递归语言模型(RLM) 的长文本处理新方法,旨在解决“上下文腐烂”问题。该方法无需修改模型架构或升级模块设计,即可让GPT-5、Qwen-3等顶尖模型具备处理千万级Token超长文…
