Kimi
-
Kimi 2.6震撼发布:最强开源Agentic Coding模型,Vibe Coding审美拉满,Agent集群可调度300子Agent
Kimi 2.6 正式发布,带来了在代码生成、长程任务执行和原生视觉理解方面的显著增强。 在多项高难度基准测试中,例如考察综合软件工程能力的“人类最后的考试”,Kimi 2.6 均取得了领先的成绩,其表现与 GPT-4o、Claude 3.5 Sonnet 等顶尖闭源模型持平甚至更优。 本次更新并非简单的功能迭代,而是 Kimi 在 AI 智能体(Agent…
-
Kimi发布PrFaaS新范式:让大模型推理跨机房调度成为现实,吞吐量提升54%
长上下文推理新突破:Kimi提出PrFaaS范式,实现跨机房调度 将长上下文能力做到极致的Kimi,近日联合清华大学团队,在大模型推理架构上取得关键进展。 他们提出了一种名为 Prefill-as-a-Service(PrFaaS) 的全新范式,即“预填充即服务”。其核心突破在于,首次实现了 KV Cache 能够跨数据中心进行传输,从而将大模型推理中的 P…
-
Cursor套壳Kimi风波再起:Composer 2技术报告自证“有技术地套”,网友却不买账
Cursor套壳Kimi的争议仍在继续。 近日,Cursor发布了Composer 2的技术报告,试图证明其并非简单套用,而是进行了有技术含量的、循序渐进的研发工作。 报告强调,其方法核心仍是此前提及的预训练与强化学习相结合的技术路线。 与此前不同的是,Cursor在报告中明确标注了基础模型来源为Kimi K2.5。 这一迅速且明确的署名行为,显示出其态度转…
-
Kimi重磅发布《Attention Residuals》:颠覆十年残差连接,用同样算力实现1.25倍效果提升
注意力残差:对残差连接的结构性改进 引言:一个基础性的问题 现代大型语言模型普遍采用深度神经网络架构,信息从输入层开始,逐层向上传递并接受加工,最终产生输出。然而,随着网络层数的增加,训练过程面临一个根本性挑战:梯度信号在反向传播过程中,经过数十甚至上百层的传递后,可能严重衰减或消失,导致底层参数难以得到有效更新。 2015年,何恺明团队在《Deep Res…
-
Kimi-K2.5-Thinking实测:推理效率提升33%,Agent能力意外滑坡,开源模型新标杆?
月之暗面发布了 Kimi-K2.5-Thinking 新版本,官方称其为“Kimi迄今最智能的模型”,在Agent、代码、图像、视频及一系列通用智能任务上取得了开源state-of-the-art表现。我们对新旧两个版本(Kimi-K2.5-Thinking、Kimi-K2-Thinking)进行了全面的对比评测,测试其在准确率、响应时间、token消耗和成…
-
Kimi神秘模型Kiwi-do现身竞技场:融资35亿后,多模态K2-VL即将登场?
克雷西 发自 凹非寺 量子位 | 公众号 QbitAI 融资35亿后,Kimi的新模型紧跟着就要来了?! 大模型竞技场上,一个名叫Kiwi-do 的神秘模型悄然出现。 发现这个新模型的推特网友询问了模型的身份,结果模型自报家门,表示自己来自月之暗面Kimi,训练数据截止到2025年1月。 另有网友表示,Kiwi-do表现出了一些有趣的结果,尤其是在竞技场当中…
