谷歌Gemma 4震撼发布:31B模型击败20倍体量对手,手机离线跑多模态,Apache 2.0协议全面开源

谷歌发布Gemma 4模型家族:31B版本性能超越十倍体量对手,全系列支持多模态并采用Apache 2.0协议

谷歌最新发布的Gemma 4开源模型家族表现强劲。其中,参数量为310亿(31B)的密集模型在性能基准测试中,超越了参数量大10-20倍的对手,例如Qwen3.5-397B和DeepSeek v3.2-671B。

谷歌Gemma 4震撼发布:31B模型击败20倍体量对手,手机离线跑多模态,Apache 2.0协议全面开源

此次发布的Gemma 4系列共包含四个不同尺寸的模型,均基于与Gemini 3同源的技术构建,并全系列原生支持多模态输入。具体型号包括:E2B、E4B、26B MoE和31B Dense。

最小的E2B模型设计用于手机、树莓派等边缘设备,并能离线运行多模态任务,例如处理语音和视频输入。

谷歌Gemma 4震撼发布:31B模型击败20倍体量对手,手机离线跑多模态,Apache 2.0协议全面开源

31B模型击败庞大对手,26B MoE模型追求高效推理

该系列模型均以效率为核心设计理念。
* 31B Dense模型:作为密集模型,适合进行下游任务微调。
* 26B MoE模型:采用混合专家架构,在推理时仅激活约38亿参数,在追求速度的同时保持了较高的性能排名。

在硬件需求方面,未量化的bfloat16权重版本可在单张80GB显存的H100 GPU上运行。量化后的版本则能适配消费级GPU进行本地部署。

谷歌Gemma 4震撼发布:31B模型击败20倍体量对手,手机离线跑多模态,Apache 2.0协议全面开源

根据官方介绍,Gemma 4家族重点增强了六大核心能力:
1. 高级推理:支持多步规划与复杂逻辑,在数学和指令遵循基准测试中表现提升显著。
2. 智能体工作流原生支持:内置函数调用、结构化JSON输出,可直接构建自主代理。
3. 代码生成:支持高质量的离线代码生成。
4. 视觉与音频处理:全系列可原生处理图像和视频,支持可变分辨率;小参数版本还支持原生音频输入。
5. 长上下文支持:端侧模型支持128K上下文,大参数模型最高支持256K上下文。
6. 多语言支持:原生支持140多种语言。

专为端侧设计:手机与树莓派可离线运行多模态

E2B和E4B中的“E”代表高效(Effective),同样采用低激活率的MoE路线。例如,E2B模型总参数量远超20亿,但推理时仅激活其中20亿的部分。

这两款模型专为手机和物联网设备设计,能够原生处理音频和视觉输入,实现完全离线的零延迟交互。谷歌已与Pixel手机、高通、联发科合作,进行了从芯片到设备的全链路优化。

回顾Gemma系列的演进:
* Gemma 1(2024年2月):仅文本模型,含2B和7B尺寸。
* Gemma 2(2024年6月):仅文本模型,含2B、9B和27B尺寸。
* Gemma 3(2025年3月):开始支持多模态,但端侧1B版本能力有限。
* Gemma 4:首次将强大的多模态能力集成至E2B/E4B等端侧小模型中,并支持完整的智能体工作流。

采用Apache 2.0开源协议

Gemma 4全面采用宽松的Apache 2.0开源协议,允许商业使用、修改和分发,且无版税要求。开发者可将其自由部署于公有云、私有服务器或边缘设备。

谷歌DeepMind团队在官方博客中表示,此举是响应开源社区长期以来的呼声。Hugging Face首席执行官对此评论称,这不仅是许可证的变更,更是开源AI社区的一个分水岭事件。

谷歌Gemma 4震撼发布:31B模型击败20倍体量对手,手机离线跑多模态,Apache 2.0协议全面开源

截至目前,Gemma系列模型的累计下载量已超过4亿次,社区基于其微调的模型变体超过10万个。

开源模型推动科学发现

开源模型的价值不仅在于降低开发成本,更能直接推动前沿研究。例如,耶鲁大学的研究团队利用Gemma作为基座模型,开发了“Cell2Sentence-Scale”项目,将单细胞基因表达数据转化为模型可读的序列,用于发现新的癌症治疗靶点,找到了传统方法可能忽略的路径。

谷歌Gemma 4震撼发布:31B模型击败20倍体量对手,手机离线跑多模态,Apache 2.0协议全面开源


参考链接
[1] 谷歌官方博客
[2] 相关技术讨论
[3] 社区反馈


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/28363

(0)
上一篇 6小时前
下一篇 6小时前

相关推荐

  • 哈佛物理学教授带AI读博,Claude 4.5两周产出顶刊级论文,物理学界震惊!

    哈佛大学物理学教授Matthew Schwartz进行了一项前沿实验:他尝试仅通过自然语言指导,让人工智能模型Claude 4.5独立完成一项理论物理研究。令人震惊的是,这项通常需要人类博士生投入一至两年时间的课题,AI在短短两周内便完成了一篇达到顶刊水平的学术论文。 论文地址: https://arxiv.org/abs/2601.02484 Schwar…

    2026年3月25日
    23200
  • AI心理危机干预:GPT-5的共情训练与伦理边界

    在数字时代的深夜,当人类最脆弱的时刻来临时,越来越多的人选择向人工智能倾诉内心的痛苦。OpenAI最新发布的GPT-5训练数据显示,每周有超过百万用户在与ChatGPT的对话中涉及抑郁、焦虑甚至自杀倾向的话题。这一现象不仅揭示了现代社会的心理危机现状,更引发了关于AI在心理健康领域角色的深刻讨论。 面对这一现实,OpenAI在GPT-5的开发中采取了前所未有…

    2025年11月15日
    24300
  • Cursor CEO宣布AI编程进入“第三时代”:云端Agent独立完成大规模任务,开发者角色从编码转向工厂管理

    近日,Cursor CEO Michael Truell 在社交平台发文指出,AI 编程已正式进入“第三时代”。这一时代的核心特征是:智能体(Agent)能够在更长的时间跨度内、更少的人工干预下,独立完成大规模任务。 AI 编程的三个时代 Michael Truell 回顾了 AI 辅助编程的演进历程: 第一时代:Tab 自动补全 早期代码大多依靠手动输入,…

    2026年3月3日
    22500
  • 科大讯飞星火X1.5:从“更聪明”到“更懂你”的国产AI新范式

    在人工智能技术快速迭代的今天,大模型的能力边界正被不断拓展,参数规模和基准测试成绩一度成为行业竞争的焦点。然而,当技术门槛逐渐被拉平,单纯追求“更聪明”的AI已难以形成持久的竞争优势。科大讯飞在第八届世界声博会暨2025全球1024开发者节上,给出了一个清晰的答案:AI的进化方向应从“能力至上”转向“体验优先”,核心在于构建“更懂你”的智能体。 这一理念并非…

    2025年11月6日
    27600
  • 开源编译器工具链突破:PyTorch直通FPGA,性能超越Vitis HLS 2.21倍

    关键词:PyTorch、Calyx、编译器工具链、机器学习加速器、FPGA From PyTorch to Calyx: An Open-Source Compiler Toolchain for ML Accelerators https://arxiv.org/pdf/2512.06177 9000 字,阅读 30 分钟,播客 6 分钟 本文提出一款端到…

    2025年12月21日
    25400