在近期Axios AI+峰会上,DeepMind联合创始人兼CEO Demis Hassabis发表了对Scaling Law(缩放定律)的坚定立场,认为其不仅是当前AI发展的核心驱动力,更是实现通用人工智能(AGI)的必经之路。这一观点与OpenAI首席科学家Ilya Sutskever此前提出的“Scaling遇到瓶颈”论形成鲜明对比,引发了业界对AI技术路线的深度思考。

Hassabis的论点并非空穴来风。回顾2025年AI产业格局,谷歌凭借Gemini系列模型的全面爆发,在商业和技术层面均取得显著突破。Gemini 3的发布不仅展示了多模态能力的飞跃,更通过工程化实践验证了Scaling Law的有效性——当模型规模、数据量和计算资源同步扩展时,性能提升呈现可预测的幂律关系。这种规模化优势使得Gemini在理解、推理和生成任务上达到新的高度,特别是在代码生成、创意写作和复杂问题解决方面表现突出。

值得注意的是,Hassabis在访谈中披露了一个关键历史细节:Scaling Law的最早发现者并非OpenAI,而是DeepMind团队。2017-2018年间,DeepMind在研究大语言模型时内部提出了“Chinchilla Scaling Laws”,这比OpenAI 2020年发表的著名论文更早。这一发现促使DeepMind将资源集中投入规模化研究,为后续Gemini系列的突破奠定基础。从技术演进角度看,Scaling Law的核心价值在于其可预测性——通过系统化扩展模型参数(从数亿到数万亿)、训练数据(从TB级到PB级)和计算量(从千卡到万卡集群),性能提升曲线可以精确建模,这为AGI研发提供了可量化的技术路径。

然而,业界对Scaling Law的争议依然存在。支持者认为,当前Scaling远未达到物理极限,随着芯片制程进步(如3nm以下工艺)、新型存储架构(如HBM4)和分布式训练优化,算力成本将持续下降,使更大规模模型成为可能。反对者则指出,单纯依赖Scaling可能陷入“暴力计算”陷阱,忽视算法创新和能源效率问题。Hassabis对此回应称,Scaling Law需要与架构创新结合,他特别提到Transformer和AlphaGo级别的突破仍是AGI的必要条件。

在AGI实现路径上,Hassabis提出了分层观点:首先,Scaling是基础组件,通过最大化现有技术路线获取性能增益;其次,需要1-2个根本性突破,可能涉及新型神经网络架构、世界模型或具身智能;最后,系统整合能力至关重要。他预测AGI可能在5-10年内实现,这一时间表比多数激进预测更为保守,但强调了工程化落地的可行性。从技术指标看,AGI需具备跨领域推理、自主学习和环境适应能力,而当前大模型仅在特定任务上接近人类水平,泛化能力仍有差距。

展望未来12个月,Hassabis强调了四个关键趋势:第一,多模态融合将从简单拼接转向深度语义对齐,实现文本、图像、音频和视频的统一表征学习;第二,视觉智能突破将推动图像生成从艺术创作转向专业应用,如医学影像分析和工业设计;第三,世界模型(World Models)将成为研究热点,通过构建物理世界的神经模拟器,增强AI的因果推理和长期规划能力;第四,智能体(Agent)系统将从实验阶段走向实用化,实现复杂任务的可靠执行。

以谷歌Genie 3为例,这个世界模型已能生成交互式视频并保持分钟级连贯性,展示了时空建模的潜力。在智能体方面,Hassabis认为现有系统可靠性不足,但通过强化学习、人类反馈和场景化训练,一年内可实现任务完成率的大幅提升。值得注意的是,这些进展都离不开Scaling的基础支撑——更大规模的世界模型需要更多视频数据训练,更可靠的智能体需要更丰富的交互轨迹。

Gemini的发展路线图进一步印证了Scaling Law的价值。Gemini 3的个性化深度和指令遵循能力,源于其1.5万亿参数的规模优势和混合专家(MoE)架构创新。该模型不仅能温和反驳错误观点,还能在数小时内生成商业级游戏原型,展现了高层次抽象和细节执行的平衡。下一代Gemini将向“通用助手”目标迈进,通过设备端部署(手机、眼镜等)和场景化优化,实现与人类日常生活的无缝融合。技术层面,这需要突破模型压缩、增量学习和隐私保护等挑战,而Scaling Law为这些优化提供了基准性能保障。

从产业视角看,Scaling Law之争本质是AI发展路径的选择问题。谷歌代表的工程化路线强调规模化验证和渐进式创新,而OpenAI近期更关注算法效率和安全性。两种路径并非互斥:Scaling提供性能基础,算法创新提升效率上限。对于创业公司而言,Scaling的高昂成本可能形成壁垒,但开源模型(如Llama系列)和云计算服务正在降低门槛。未来竞争可能集中在数据质量、能源效率和场景落地能力上。

值得关注的是,Scaling Law的持续有效性依赖于三个条件:数据供应的可持续性(需解决版权和隐私问题)、计算效率的指数提升(需突破冯·诺依曼瓶颈)、以及模型架构的适应性(需应对长尾任务)。Hassabis提到的“Chinchilla定律”优化版——在固定计算预算下平衡参数和数据量——仍是当前最有效的缩放策略。但随着模型规模突破10万亿参数,通信开销、内存墙和训练稳定性将成为新挑战。

综合来看,Scaling Law仍是AI进步的核心引擎,但需与架构创新、数据质量和应用场景深度结合。谷歌通过Gemini系列展示了工程化规模化的可行性,而DeepMind的历史贡献揭示了Scaling研究的连续性。未来12个月,多模态融合、世界模型和智能体的进展将进一步检验Scaling的边界,而AGI的最终实现可能需要Scaling与突破性创新的“双轮驱动”。对于从业者而言,理解Scaling Law的数学基础(性能∝资源^α)和工程实践(分布式训练、混合精度)比争论其“生死”更具实际价值。

技术发展总是螺旋上升的。当Scaling遇到瓶颈时,创新往往在架构层面涌现;当架构稳定后,Scaling再次释放潜力。DeepMind和OpenAI的路线差异反映了这种动态平衡。对于AGI这一终极目标,保持技术开放性和路径多样性,或许比过早断言某种方法的“终结”更为明智。毕竟,AI的历史一再证明:今天的瓶颈,可能是明天突破的起点。

关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/5315
