长上下文
-
智谱GLM-5技术全公开:国产芯片全适配,长任务时代开启
GLM-5 技术论文完全公开 GLM-5 背后的技术论文现已完全公开。 论文标题直接点明了其核心主张:告别Vibe Coding,迈入 智能体工程(Agentic Engineering)。 正如之前的实测所示,GLM-5能够自主连续运行代码超过24小时,进行超过700次工具调用和800次上下文切换,甚至可以从零开始构建一个Game Boy Advance(…
-
GLM-5震撼发布:744B参数开源巨兽,长程智能体与复杂系统工程新标杆
GLM-5正式发布,其定位直指Claude,专注于解决复杂的系统工程与长程智能体任务。模型参数规模从GLM-4.5的355B(32B活跃)大幅跃升至744B(40B活跃),预训练数据量也从23T token扩充至28.5T token。 在技术层面,GLM-5采用了GlmMoeDsa架构,直接集成了来自DeepSeek的DSA稀疏注意力与MTP多标记预测技术…
-
Claude Opus 4.6震撼发布:专为长时程Agent任务而生,百万token上下文实现76%检索准确率
凌晨2点,硅谷的两家AI巨头再次展开激烈竞争。由于Claude Opus 4.6发布较早,业界的解读和用户的测试体验也更为丰富。结合Anthropic官方信息及相关测评,Opus 4.6在长上下文信息定位、基于信息的推理能力以及专家级复杂推理方面,表现令人印象深刻。 长期使用Claude的Boris用四个词概括Opus 4.6:更具自主性、更智能、运行时间更…
-
北京版幻方开源SOTA代码大模型IQuest-Coder-V1:40B参数性能超Opus-4.5/GPT-5.2,单张3090可运行
IQuest-Coder-V1:性能超群的代码大模型 近期,一个名为 IQuest-Coder-V1 的代码大模型系列在科技领域引发广泛关注。 在最新的SWE-Bench Verified榜单中,其40B参数版本取得了81.4%的成绩,表现超越了Claude Opus-4.5与GPT-5.2等模型。 除了基准测试成绩,其实际代码生成能力同样引人注目。例如,当…
