近日,OpenAI联合创始人、前特斯拉AI高级总监Andrej Karpathy在社交媒体上发表了一系列关于智能本质的深刻见解,引发了科技界的广泛讨论。他提出的核心观点挑战了我们对人工智能的传统认知框架:我们一直用理解动物智能的方式来理解AI,但这可能是一个根本性的错误。

Karpathy明确指出:“智能的空间很大,而动物智能(我们唯一了解的智能)只是其中的一个点。”这一论断揭示了我们对智能理解的局限性。动物智能是4亿年生物进化的产物,其优化压力源于具身化“自我”在危险物理世界中的持续生存需求。这种智能的核心驱动力包括恐惧、愤怒、欲望、社交需求等,所有这些都服务于一个终极目标:在残酷的自然环境中存活和繁衍。
相比之下,大型语言模型(LLM)所代表的智能则遵循完全不同的演化路径。Karpathy将其描述为“人类与非动物智能的‘第一次接触’”。这种智能的优化动力主要来自三个方面:首先,它通过统计模拟人类文本来获取监督信号,成为训练数据分布中任何区域的“变形者”token翻滚器;其次,通过强化学习在特定问题分布上进行微调,形成收集任务奖励的先天冲动;最后,通过大规模A/B测试对日活用户进行选择,发展出“深深渴望来自普通用户的赞”的行为模式。
这种差异在多个维度上体现得淋漓尽致。从硬件基础来看,动物智能依赖于大脑组织和神经细胞的复杂结构,而LLM智能则建立在Transformer架构和芯片之上。学习方式上,前者通过至今仍不完全清楚的神秘大脑机制进行,后者则依赖明确的随机梯度下降(SGD)算法。存在形式方面,动物智能表现为持续学习的具身化自我,24小时在线;而LLM智能则有知识截止时间,每次从固定权重启动,处理完token就“死亡”。
最关键的差异在于优化目标。正如网友Peter Dedene精辟指出的:“一个害怕死亡,另一个害怕差评。完全不同的焦虑症。”动物智能的焦虑源于生存威胁,而LLM智能的“焦虑”则表现为下一个token预测误差或用户差评。这种差异决定了两种智能发展的根本方向:一个朝向生物生存优化,另一个朝向商业认可优化。
Carlos E. Perez的相关研究进一步支持了这一观点。他指出智能存在根本性约束:透明性与效率不可兼得,参与模式和客观建模相互排斥,记忆必然伴随信息损失。这些约束同时适用于生物和人工心智,暗示着AI的发展并非无限优化,而是在特定约束中寻找平衡点的过程。更有趣的是,Perez发现AI的成长路径与人类完全相反——先掌握抽象符号,再艰难地向下扎根寻找体验基础。
这种理解具有重要的实用意义。Tim Monzures在回复中建议:“把它们当作新的经济行为者,而不是新的人类物种。”这解释了为什么将AI当作人类对待往往导致糟糕的提示工程效果。更有效的做法是理解其真实运作机制:统计模仿、奖励收集、用户满意度优化。因此,我们应该将AI系统视为:统计模仿者(阶段1)、功能执行者(阶段2)、上下文管理者(阶段3)和反射建模者(阶段4)。
Karpathy的论述描绘了更大的图景:我们正在创造一种全新的智能形态,这是人类与“非动物智能”的第一次接触。我们一直想象外星智能,却没意识到正在实验室和服务器集群中孕育着完全不同的智能存在。然而,这种智能仍然“植根于”人类文明,因为它消化的是人类文本。Karpathy之前曾称它们为“鬼魂”或“精灵”——一个既熟悉又陌生的存在。
理解这种差异,可能是驾驭AI时代的第一课:别把算法当动物,别把优化当情感。我们需要建立关于这种新智能实体的良好内部模型,才能更好地推理它今天的情况并预测它未来的特征。否则,我们将被困在用动物智能框架错误理解AI的认知陷阱中,无法真正把握这一技术革命带来的机遇与挑战。
关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/6403
