开源模型
-
GLM-5.1颠覆CUDA优化:AI 14小时完成人类数月工作,开源模型首次全面对齐Claude Opus 4.6
GLM-5.1 在 CUDA 优化领域实现突破:AI 以小时级效率完成传统需数月的工作 在 GPU 计算优化领域,一项新的进展正在改变工作范式。传统上,优化 CUDA Kernel 需要资深工程师投入数月时间进行反复测试与调优。如今,人工智能模型能在约 14 小时内自主完成同类复杂优化任务,并将性能加速比从初始的 2.6 倍显著提升至 35.7 倍。 这一过…
-
谷歌Gemma 4引爆手机AI革命:口袋里的Gemini平替,40 token/秒的魔法速度
谷歌近期开源的全新模型 Gemma 4,为行业带来了显著影响。 该模型采用了与 Gemini 3 同源的技术架构,支持原生全模态处理,并在 Arena AI 排行榜上位列全球第三。其提供了多个型号,其中较小的 E2B(有效参数 2.3B)和 E4B(有效参数 4.5B)版本可直接部署于手机端本地运行,并具备 128K 的上下文窗口,堪称“口袋中的 Gemin…
-
Gemma 4震撼发布:256K上下文、原生多模态、Apache 2.0许可,开源模型新标杆
Google DeepMind 正式发布 Gemma 4,这是一个包含四个型号的多模态开源模型家族。 四款模型分别为:E2B(2.3B 有效参数)、E4B(4.5B 有效参数)、31B(密集模型)以及 26B A4B(MoE 架构,4B 激活参数)。其中,31B 和 26B A4B 均支持 256K 上下文窗口,并可在单张 H100 GPU 上运行。 从架构…
-
谷歌Gemma 4震撼发布:31B模型击败20倍体量对手,手机离线跑多模态,Apache 2.0协议全面开源
谷歌发布Gemma 4模型家族:31B版本性能超越十倍体量对手,全系列支持多模态并采用Apache 2.0协议 谷歌最新发布的Gemma 4开源模型家族表现强劲。其中,参数量为310亿(31B)的密集模型在性能基准测试中,超越了参数量大10-20倍的对手,例如Qwen3.5-397B和DeepSeek v3.2-671B。 此次发布的Gemma 4系列共包含…
-
GLM-5.1-Turbo实测:开源第一模型如何用1小时开发完整应用并处理10万条数据
GLM-5.1-Turbo 发布后不久,智谱的 Coding Plan 服务便宣布了对该模型的支持。 我随即在 Claude Code 中切换至 GLM-5.1 模型进行了深度体验。经过数日的密集测试,我发现 GLM-5.1 并非一次简单的迭代升级,其能力,尤其是在处理长程任务方面,表现出了显著的代际跨越。 根据 Artificial Analysis、SW…
-
开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减
开源领域突遭巨震:艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减 开源人工智能领域传来重大变动。艾伦人工智能研究所宣布,将削减对包括旗舰项目OLMo在内的开源模型开发的资金投入,转而聚焦于AI应用。 与此同时,该研究所的核心团队几乎被整体“打包”,集体加入微软。此次人员变动涉及前CEO阿里·法哈迪、前首席运营官索菲·莱布雷希特,以及核心研究员汉娜…
-
Cursor套壳Kimi风波再起:Composer 2技术报告自证“有技术地套”,网友却不买账
Cursor套壳Kimi的争议仍在继续。 近日,Cursor发布了Composer 2的技术报告,试图证明其并非简单套用,而是进行了有技术含量的、循序渐进的研发工作。 报告强调,其方法核心仍是此前提及的预训练与强化学习相结合的技术路线。 与此前不同的是,Cursor在报告中明确标注了基础模型来源为Kimi K2.5。 这一迅速且明确的署名行为,显示出其态度转…
-
Cursor发布Composer 2引发争议:基于Kimi K2.5却未注明,AI开源生态信任危机浮现
昨日,知名AI编程初创公司Cursor发布了新一代模型Composer 2。据其公布的CursorBench基准测试结果,该模型在性价比方面显著超越了Claude Opus 4.6 (high) 与GPT-5.4 (high)。 然而,Composer 2公开发布后不足三小时,便有X平台用户发现其模型ID为“kimi-k2p5-rl-0317-s515-fa…
-
DeepGen 1.0:5B参数统一多模态生成编辑模型开源,4060ti 10秒出图,多项指标超越大4倍工业模型
DeepGen 1.0:开源统一多模态生成编辑模型 近年来,统一多模态生成编辑模型正朝着参数规模庞大的方向发展,动辄数十亿参数,这为普通研究团队的复现和个人本地部署带来了显著挑战。 近日,由上海创智学院、复旦大学和中国科学技术大学等机构的研究团队联合发布了统一多模态生成编辑模型 DeepGen 1.0。该模型总参数量为 5B(其中视觉语言模型部分3B,扩散T…
-
英伟达发布最强开源龙虾模型Nemotron 3 Super,120B参数、百万上下文窗口、5倍吞吐量提升
英伟达发布开源混合专家模型Nemotron-3-Super,120B参数支持百万上下文 英伟达正式发布并开源了其最新的混合专家模型Nemotron-3-Super,该模型拥有1200亿参数,在多项基准测试中表现卓越。 在评估智能体控制能力的PinchBench测试中,Nemotron-3-Super取得了85.6%的高分,位列同类开源模型榜首。此外,在Art…
