Scaling Law
-
蚂蚁灵波开源最强具身智能大脑LingBot-VLA:20000小时真实数据验证Scaling Law,实现“一个大脑,多个身体”
从3000小时到20000小时:真实数据验证Scaling Law 从3000小时到整整20000小时。 真实世界数据中的Scaling Law,直接催生了一个强大的VLA(视觉-语言-动作)基座模型! 这就是蚂蚁灵波最新开源的具身智能基座模型——LingBot-VLA。 为何称其为当前最强?首先看数据。 仅从“20000小时”这个规模来看,LingBot-…
-
强化学习云:大模型训练下半场的新引擎与基础设施革命
2024年底,硅谷和北京的业界人士都在讨论同一个令人不安的话题:Scaling Law似乎正在撞墙。 当时,尽管英伟达的股价仍在飙升,但多方信源显示,包括备受期待的Orion(原计划的GPT-5)在内,新一代旗舰模型在单纯增加参数规模和训练数据后,并未展现出预期的边际效益提升。同时,也有研究认为高质量预训练数据将很快耗尽,甚至预测了明确的时间节点:2028年…
-
AI生产力真相:Anthropic联创揭秘内部数据,代码加速遇瓶颈,维修工也难逃AI替代
Anthropic联合创始人Jack Clark近期参与了一场深度对话,同台的还有知名前对冲基金经理Michael Burry、Dwarkesh播客创始人Dwarkesh Patel以及软件创业者Patrick McKenzie。 四位业界人士的讨论揭示了关于AI生产力的一些反直觉细节和数据。 AI工具真的提升了生产力吗?多数人的直觉答案是肯定的,但Jack…
-
MiroThinker v1.5:30B小模型颠覆万亿参数Agent,交互深度成AI新范式
30B的小模型,竟然在重量级Agent基准测试上,超越了万亿参数的Kimi K2T? MiroThinker v1.5的开源,似乎正在悄然改写行业长久以来对参数规模的迷信。这不仅仅是一次模型迭代,其背后以“交互深度”为核心的训练思想,可能正在定义Agent发展的新范式。 L3的影子 过去几年,AI性能的提升主要围绕两个轴心:数据规模与上下文长度。然而到了20…
-
AI教父Hinton与弟子Ilya的Scaling Law之争:数据瓶颈能否被AI自我进化突破?
我并不认为Scaling Law已经完全结束了 。 正当学生Ilya为Scaling Law“泼下冷水”时,他的老师、AI教父Geoffrey Hinton却发表了上述截然相反的观点。 这一师徒观点的对立,不禁让人回想起两件往事。 一是Ilya几乎从学生时代起就坚信Scaling Law,不仅积极向身边人推介,还将这套理念带入了OpenAI,堪称Scalin…
-
Gemini3预训练负责人揭秘:从无限数据到数据受限,AI研究正演变为复杂系统工程
Gemini 3的逆袭,给业界带来了太多的惊喜和问号。 与此前不同的是,业界到现在似乎也没有逆向出Gemini3的秘方出来。 本周五,继谷歌两位大佬 Demis、Jeff Dean 播客访谈之后,终于有一位一线的负责人出来爆料了。这位可没有前面两位大佬嘴严。 Google DeepMind 的 Gemini 3 预训练负责人 Sebastian Bourjo…
-
Scaling Law的AGI之路:从DeepMind历史到谷歌Gemini的工程化实践
在近期Axios AI+峰会上,DeepMind联合创始人兼CEO Demis Hassabis发表了对Scaling Law(缩放定律)的坚定立场,认为其不仅是当前AI发展的核心驱动力,更是实现通用人工智能(AGI)的必经之路。这一观点与OpenAI首席科学家Ilya Sutskever此前提出的“Scaling遇到瓶颈”论形成鲜明对比,引发了业界对AI技…