AI巨头论战:LeCun与哈萨比斯激辩智能本质,马斯克站队引热议

一场关于智能本质的激烈辩论正在顶级AI研究者之间展开。

AI三巨头之一、图灵奖得主Yann LeCun近日公开表示:

纯粹就是胡扯(complete BS)。

而诺贝尔奖得主、谷歌DeepMind CEO德米斯·哈萨比斯则毫不留情地回击:

LeCun的说法简直是大错特错。

这场论战引发了广泛关注,甚至让社交平台𝕏专门开辟了相关话题板块。

AI巨头论战:LeCun与哈萨比斯激辩智能本质,马斯克站队引热议

科技企业家埃隆·马斯克也加入了讨论,他简短地表达了对哈萨比斯的支持:“Demis is right”。

AI巨头论战:LeCun与哈萨比斯激辩智能本质,马斯克站队引热议

马斯克的立场或许也掺杂了个人关系因素。他与LeCun素有分歧,而与哈萨比斯则关系密切,曾是DeepMind的早期投资人。

要理解这场争论,关键在于他们辩论的核心议题。

争论焦点:智能的本质是什么?

这场争论始于LeCun几天前接受的一场采访。他在节目中尖锐地指出:

根本不存在所谓的“通用智能”,纯粹就是胡扯(complete BS)

这个概念毫无意义,因为它实际上是用来指代人类水平的智能,但人类智能其实是高度专业化的。我们在现实世界里确实干得不错,比如认路、导航;也特别擅长社交,因为这是漫长进化塑造的结果。

但在国际象棋等领域,我们表现平平。许多事情其他动物比我们做得更好。所以说,人类本质上是“专才”。

我们认为自己是“通用”的,但这仅仅是一种错觉,因为我们能理解的所有问题都局限于我们有限的认知范畴

AI巨头论战:LeCun与哈萨比斯激辩智能本质,马斯克站队引热议

简而言之,LeCun认为人类智能并非“通用”,而是为适应物理世界而进化出的、一系列高度专业化的能力集合。

然而,这一观点很快遭到了哈萨比斯的直接反驳。他表示:

LeCun的说法简直是大错特错。

他这是把“通用智能(general intelligence)”和“普适智能(universal intelligence)”两个概念混淆了。

AI巨头论战:LeCun与哈萨比斯激辩智能本质,马斯克站队引热议

哈萨比斯逐一驳斥了LeCun的观点:

大脑是目前宇宙中已知最精妙、最复杂的事物,实际上具有极强的通用性。

当然,任何实际且有限的系统,在其所学目标分布周围,都必然存在一定程度的专门化,这是“天下没有免费的午餐”原理的体现。

但从图灵机的理论意义上讲,通用性的核心在于,只要给予足够的时间、内存和数据,就能够学习任何可计算的内容。而人脑以及现代AI基础模型,正是这种近似的图灵机。

针对LeCun关于人类国际象棋能力的评论,哈萨比斯强调,人类能发明国际象棋乃至整个现代文明,这本身就证明了大脑的惊人潜力。

关于LeCun对棋手的评论——人类最初竟能发明国际象棋(乃至从科学到波音747的整个现代文明!)本就令人惊叹,更不用说还能出现像马格努斯·卡尔森那样棋艺卓绝的人物。

他或许并非严格意义上的最优解(毕竟记忆有限、决策时间也受限),但考虑到我们的大脑本是为狩猎采集而进化,他和我们如今所能成就的一切,已足以展现人脑的惊人潜力。

AI巨头论战:LeCun与哈萨比斯激辩智能本质,马斯克站队引热议

哈萨比斯对智能的理解融合了神经科学与计算机科学。他认为衡量智能的两个关键标准是通用性(Generality)和学习能力(Learning)。他常以1997年“深蓝”战胜卡斯帕罗夫为例:尽管“深蓝”象棋水平高超,却连简单的井字游戏都不会,这凸显了其智能的狭隘。

哈萨比斯坚信,人类大脑是宇宙中已知的唯一关于“通用智能可行性”的存在性证明。他认为,通用人工智能(AGI)应能展现出人类所拥有的所有认知能力。

至于实现AGI的路径,哈萨比斯多年来形成了一套方法论,可概括为:预测构建理解,规划扩展可能,强化学习实现自主进化

  1. 第一步:以预测为基石。智能的本质在于预测,这是所有认知活动的基础,也是AI理解世界的内在驱动力。
  2. 第二步:引入搜索与规划。AI需建立世界模型,并在此基础上进行搜索规划,以在复杂空间中寻优。
  3. 第三步:最终通向深度强化学习。这是对大脑运作的模拟——深度学习负责模式匹配,强化学习负责通过试错进行规划和达成目标。

至此,两位顶尖学者的观点看似针锋相对:一方认为“通用智能”是伪概念,智能是高度专业化的产物;另一方则认为通用智能不仅存在,且潜力巨大。

但分歧真的如此根本吗?

随后,LeCun再次回应,他点明了争论的一个核心:

我认为分歧主要在于用词。我反对用“通用(general)”来指代“人类水平”,因为人类是高度专门化的。

AI巨头论战:LeCun与哈萨比斯激辩智能本质,马斯克站队引热议

尽管承认用词分歧,他仍坚持“人类智能并不通用”的观点,并给出论证:

第一,理论完备≠实际通用。

一个配合无限纸笔的人脑,在理论上是图灵完备的。但对于绝大多数计算问题,这种方式效率极低。真正的智能必须在有限资源下高效运作,而人脑正是资源约束下高度优化的结果。

第二,大脑能力具有局限性。

理论上,一个两层神经网络可以逼近任何函数,但实践中需要巨大且不现实的规模,这正是我们使用深度网络的原因。
再以视觉为例:视神经约有100万根纤维。在所有可能的一百万比特到一比特的布尔函数中,人脑能实现的只占无穷小的比例。

因此,LeCun总结道:

所以我们不仅谈不上“通用”,而且是极其高度专业化的。我们之所以没有意识到这一点,是因为绝大多数可能的函数复杂到难以想象,对我们而言近乎随机。

他还引用了爱因斯坦的名言:世界上最不可思议的事,是世界竟然可以被理解。

在所有可能的世界组织方式中,我们能理解的只是极小一部分。我们无法理解的那部分,我们称之为“熵”。宇宙中绝大多数信息都是我们认知无法触及的熵。

AI巨头论战:LeCun与哈萨比斯激辩智能本质,马斯克站队引热议

许多旁观者也意识到,这场争论的关键可能确实在于“用词”。抛开术语,两人探讨的或许是不同层面的问题:一个强调“我们(人类智能)是什么”,另一个则展望“我们能成为什么(AGI)”。

而这,共同指向了一个更深层、更现实的议题:我们究竟该以怎样的方式实现AGI?

答案:世界模型

无论在LeCun还是哈萨比斯的框架中,答案都已清晰指向同一个核心概念——世界模型

据悉,即将从Meta离职的LeCun,其下一步创业方向正是世界模型。

据《金融时报》报道,其新公司名为Advanced Machine Intelligence Labs(AMI Labs),计划于明年一月正式亮相,目标估值30亿欧元(约247亿人民币)。

在LeCun的理解中,世界模型所要追求的不是渲染精美的像素,而是掌握控制理论和认知科学。他认为对AI而言,只有中间那个抽象表征才重要(和JEPA研究一脉相承),模型没必要浪费算力去生成像素,只需专注于捕捉那些能用于AI决策的世界状态。换言之,了解“世界的结构是什么”才是最关键的。

而哈萨比斯也在采访中多次表示,世界模型绝对是自己和谷歌接下来的重点。今年8月,谷歌DeepMind推出了新版世界模型Genie 3。哈萨比斯表示:

我们谈论的世界模型,指的是那种能够理解世界运行机制中因果关系与协同效应的模型,也就是一种“直观物理学”——事物如何运动、如何相互作用、如何表现。

你已经可以在当前的视频模型中看到这种能力的雏形。

而检验是否真正具备这种理解的一种方式,是看能否构建一个逼真的世界。因为如果你能够生成它,那么在某种意义上,你就已经理解并内化了这个系统的运作规律。

这也解释了为什么Genie、Veo这些模型首先会以视频模型的形式出现。在他看来,这种可交互的世界模型正是通往AGI的关键一步。

通过对比,我们能发现虽然二者都在描绘“世界模型”,但他们的理解和实践方向也存在明显差别——LeCun代表着“世界模型即认知框架”,而谷歌的哈萨比斯代表着“世界模型即模拟器”。

回顾历史,AI的每一次跃迁都伴随着类似的“争论”:符号主义和连接主义的争论,定义了智能的根基究竟是“逻辑”还是“数据”;端到端学习和模块化系统的争论,定义了“系统该如何构建”;再加上今天的“开源VS闭源之争”、“智能本质之争”……这些辩论本身,正是推动领域前进的动力之一。

One More Thing

几乎同一时间,LSTM之父Jürgen Schmidhuber也发表了自己的看法。他预判了预判——指出LeCun即将创业探索的世界模型,其团队在2014年就有过高度相似的研究涉猎。

AI巨头论战:LeCun与哈萨比斯激辩智能本质,马斯克站队引热议

作为LSTM的发明者,Jürgen Schmidhuber在ChatGPT诞生前,其成果一度被称为“最具商业价值的人工智能成就”,他也曾被《纽约时报》称为“成熟人工智能之父”。但在近年AI浪潮中,他并未获得与之匹配的广泛技术发明者桂冠或图灵奖等荣誉,这导致他多次在公开场合进行“维权”或隔空回应相关争议。

AI巨头论战:LeCun与哈萨比斯激辩智能本质,马斯克站队引热议

推特(现X)的拥有者马斯克曾评价Jürgen Schmidhuber时言简意赅:一切的发明者。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/15012

(0)
上一篇 2025年12月24日 下午12:54
下一篇 2025年12月24日 下午12:58

相关推荐

  • 全球AI编程新纪元:中国开源大模型如何重塑西方科技产品格局

    近期,Cursor和Cognition两家美国科技公司相继发布新一代AI编程模型Composer和SWE-1.5,引发业界广泛关注。然而,这些模型在推理过程中频繁使用中文的现象,以及其技术特征与中国开源模型的惊人相似性,揭示了全球AI产业格局正在发生的深刻变革。 Cursor发布的Composer模型作为其首个自研代码模型,采用强化学习训练的大型MoE架构,…

    2025年11月1日
    8500
  • LimiX:以2M参数颠覆表格数据建模,清华团队破解深度学习结构化瓶颈

    在人工智能的浪潮中,大语言模型(LLM)凭借其在文本生成、代码编写和多模态推理方面的卓越表现,已成为通用智能的代名词。然而,当我们把目光投向现实世界的关键系统——电网调度、用户画像、通信日志等,这些领域的核心数据往往以结构化表格的形式存在。令人意外的是,在这个看似“简单”的领域,包括LLM在内的现代深度学习模型却频频失手,其性能在多数真实场景下仍难以超越XG…

    2025年11月13日
    7700
  • 英特尔收购SambaNova:AI芯片市场格局重塑与推理芯片的战略博弈

    在AI算力需求爆炸式增长的背景下,英特尔考虑收购SambaNova的举动,不仅是一次简单的商业并购,更是对当前AI芯片市场格局的深度回应与战略调整。这一潜在交易背后,折射出芯片巨头在GPU主导时代寻求破局、重振AI雄心的复杂图景,同时也揭示了推理芯片赛道正成为行业竞争的新焦点。 当前,AI芯片市场呈现出明显的“GPU霸权”特征。自2022年11月OpenAI…

    2025年11月3日
    8000
  • 突破扩散大语言模型解码瓶颈:复旦大学团队提出一致性轨迹强化学习新范式

    扩散大语言模型(Diffusion Large Language Models)作为生成式人工智能领域的新兴范式,在2025年迎来了关键性突破。2月,Inception Labs推出首个商业级扩散大语言模型Mercury;同期,中国人民大学开源了8B参数的LLaDA模型;5月,Gemini Diffusion的发布进一步印证了这一技术路线的潜力。这些进展表明…

    2025年11月5日
    7600
  • WhisperLiveKit:突破本地实时语音转写瓶颈的同步流式技术解析

    在人工智能技术快速发展的今天,实时语音转文字已成为众多应用场景的核心需求,从在线会议、远程教育到智能客服、媒体生产,高效准确的语音转写能力直接影响用户体验与业务效率。然而,长期以来这一领域面临两大技术困境:一是依赖云服务的方案存在数据隐私与传输延迟问题,尤其对金融、医疗、政务等敏感行业构成合规挑战;二是本地化方案如直接使用OpenAI的Whisper模型处理…

    2025年11月10日
    8300