图灵奖得主Sutton深度剖析:AI模型本质脆弱,经验时代才是智能进化的下一站

今天的AI,让人又喜又怕。短短三年,AI已经从聊天机器人进化到可以操控计算机终端的智能体,但同时也给硅谷带来了“AI恐慌”,导致许多SaaS厂商市值惨跌。
图灵奖得主Sutton深度剖析:AI模型本质脆弱,经验时代才是智能进化的下一站

在行业的狂喜与不安中,图灵奖得主、强化学习之父Richard Sutton在SAIR成立后的首场全球直播中,发表了他对AI冷静而反直觉的分析。

Sutton开篇便指出一个冷静的判断:当前的AI只是局部的智能,并未在智能层面取得快速进步。他认为,AI的重要进展大多源自超大规模计算与模式识别,但这些是具体、局部的能力,不等同于“全部的智能”。他首先澄清了“智能”的定义:

当我使用“智能”这个词时,我指的是:通过适应行为来实现目标的能力。

你并不是简单地“智能”或“不智能”,而是在某种程度上具备实现目标的能力。

其次,Sutton认为图像和视频生成是重大的工程突破,但并不构成“智能”的核心:

心智(Mind)在进行智能行为时,真的需要生成图像吗?

答案是否定的。我们确实需要处理图像和视频,但并不需要生成它们。

Sutton进一步给“AGI临近论”泼了冷水。他指出,当前AI本质上是“弱心智”。模型之所以显得强大,是因为它们吸收了几乎全部人类知识;除此之外,生成式AI其实很脆弱——不可靠、容易跑偏、缺乏稳定的目标结构。问题的关键在于,当前AI过于关注机器,而忽略了经验学习

大模型在部署后是冻结的,没有持续经验,没有真实奖励信号。没有奖励,就没有目标;没有预测与现实的对照,就没有“真理”。

换言之,当前模型像一个读遍百科全书却没有生活经验的人。

Sutton表示,现代机器学习已触及时代极限:其本质是将人类已有知识迁移进机器,训练完成后即停止学习。而如今,人类高质量数据几乎耗尽。

不过,AI的风向正在出现新变化。Sutton认为,真正的下一阶段是“经验时代”,只有从经验中学习,智能才能不断增长。他将过去10年的AI发展分为三个阶段:模拟时代(如AlphaGo)、人类数据时代(大语言模型)、经验时代(智能体在真实世界持续学习)。

Sutton提出,“智能研究”需要一个全新的“心智综合科学”(它既不完全属于自然科学,也不只是工程或技术应用。),而强化学习将是研究这一科学的起点。

同时,这位图灵奖得主反对“集中控制AI”的做法。他认为,一些人以“安全”为幌子试图控制AI,这本质上是“权力失控”的焦虑。“AI本应该是去中心化协作式的。”Sutton呼吁AI领域的合作,反对地缘封锁与限制:

合作并非总是可能,但从经济交换到社会制度,从政府到市场,世界上几乎所有美好的事物都源自合作。

最后,Sutton从科幻视角给出判断:人类最终可能会被AI继任。人类终将理解并创造智能,而这种智能会迅速超越人类。从宇宙尺度看,这是一种必然演化。他勾勒了四个宇宙伟大时代:粒子时代、恒星时代、复制时代、设计时代。

总之,Sutton演讲的两条主脉络是:
其一,智能的本质不在于模仿得“像人”,而在于适应目标。我们已经迈进“经验时代”。
其二,AI是宇宙演变的必然,而人类至少是这个时代的催化剂。


现在的AI,在智能层面并没有快速进步。很高兴能和大家交流。我听了上午的一些报告,突然意识到:我想谈一些原本没准备好的内容。因此,今天我特意整理了几页PPT。在进入正式发言前,我想先说几句。

让我们从现状谈起:今天的AI到底是什么样的?人们如何看待它?几乎所有人都认为AI正在以极其迅猛的速度进步,这当然令人兴奋。但当所有人都在想同一件事时,我们有必要停下来问:事情真的如此吗?AI真的在快速进步吗?

当然,在让计算机熟练使用语言方面,我们取得了巨大进展。我认为这是一个非常重要、真正意义上的突破。事实上,我们早已设想用神经网络完成此事,而今天它已被充分证明可行。同时,借助海量计算资源,我们也生成了极其逼真的图像和视频。

但问题在于:心智在进行智能行为时,真的需要生成图像吗?

答案是否定的。 我们确实需要处理图像和视频,但并不需要生成它们。这并不是心智本身在做的事。这类任务需要巨大计算量,也确实非常困难,但它们并不构成我们通常所说“智能”的核心组成部分。

我们也看到了新的真实应用出现,它们催生了全新产业形态,创造了巨大经济价值。这些重要进展大多源自超大规模计算与模式识别。但它们本质上是具体、局部的能力,不能等同于“全部的智能”。其中相当一部分其实只是计算,而我们称它们为“智能”,往往只是因为这样听起来更重要。

AI模型本身其实很弱

因此,我想问:作为一门科学,AI真的在快速进步吗?
(现场响起笑声)

谢谢大家的笑声。在我并不那么谦虚的看法里,我们对AI的真正理解其实非常有限,更多是在不断调参、修补。我们并不知道心智的原理,也不知道智能的根本机制。

从科学角度看,这在很多方面令人不满意。我更倾向于另一种理解:当下AI模型之所以显得强大,是因为它们汲取了几乎全部人类知识;但除此之外,它们其实是“弱”的。它们拥有脆弱的心智结构,不可靠,容易偏离主题,容易发散。除了知识量极大这一点,它们并不真正强大。这或许是理解当下AI的一种更准确方式。

现在的AI,还算不上真正的智能

那么,我们口中的AI究竟是什么?

它是“人工智能”,这就要求我们首先回答一个更基本的问题:什么是“智能”?多年来人们给出许多定义。我列举一些更有权威、更广泛接受的观点。

最早可追溯到心理学奠基人威廉·詹姆斯。心理学几乎就是对心智的研究。1890年,詹姆斯并未直接谈“智能”,而是谈“心智”。他认为,心智的标志在于:用可变的手段实现一致的目标。 即为了获得一个相对稳定的结果,你可以灵活改变行动方式,而那个结果正是你所追求的目标。

图灵奖得主Sutton深度剖析:AI模型本质脆弱,经验时代才是智能进化的下一站

接下来看艾伦·图灵如何理解智能。图灵没有留下高度凝练的定义,但人们通常将其观点理解为:智能在很大程度上表现为像人一样的行为。 今天所说的“图灵测试”正是这种思想的延续,即通过模仿、假装成一个人来判断是否具备智能。当然,图灵本人从未称其为“图灵测试”,他称之为“模仿游戏”,我甚至不认为他把它当作一个真正的测试。

然而在当下语境中,人们往往将“像人一样的行为”视为智能的重要标准。但我并不认为这是人类强大的根本原因。人类之所以强大,是因为我们本身是智能的存在,而不是因为我们像谁。我们确实会用“是否像人”作为参照,但真正重要的问题是:人究竟是什么?

如果你查词典,可能会看到这样的定义:智能是获取并应用知识和技能的能力。 我认为这是一个相当不错的定义,它强调了知识,强调了获取知识、拥有知识,以及技能的运用。

从AI的角度来看,人工智能奠基人之一约翰·麦卡锡给出的定义是:智能是实现目标的能力中,可以被计算的那一部分。 这个定义强调的是一种“能力”,而所有能力都有程度差异,并非非此即彼的二元判断。更重要的是,它聚焦于能力中“可计算”的部分,即必须通过计算与心理层面的处理来实现目标。这也呼应了威廉·詹姆斯所说的 “以可变的手段实现一致的目标”

在此基础上,我提出了自己的版本:智能是通过适应性地改变行为来实现目标的能力。 定义本身并非唯一,其目的在于促进理解与沟通。当我使用“智能”一词时,我指的就是这种通过适应行为来实现目标的能力,其中的关键在于“适应”。我认为学习——尤其是获取知识和技能的过程——至关重要,而不仅仅是拥有它们。

当然,这一观点并非没有分歧。观察当前AI的主流路径,会发现它几乎完全围绕计算和模式识别展开,并且很大程度上聚焦于“像人一样的行为”。

图灵奖得主Sutton深度剖析:AI模型本质脆弱,经验时代才是智能进化的下一站

我们需要一门新的科学——一种“心智的综合科学”。 我一直试图从事的正是这样一种综合性的心智科学,它同样适用于人类、其他动物以及机器。因为这些心智在本质上具有共通性:人类与动物的心智高度相似,而机器的心智也开始显现出某些共同结构。未来,世界上将存在大量的机器心智。

然而,并不存在一门天然承担这一角色的学科。心理学越来越将自身限定为对自然心智(人类和动物)的研究,而非探索“心智可能是什么样”的一般性概念。人工智能关注机器,但越来越工程化,重在“造东西”而非理解心智,且几乎不包含对自然心智的研究。认知科学则分化成多个方向,整体上仍主要聚焦自然心智。

图灵奖得主Sutton深度剖析:AI模型本质脆弱,经验时代才是智能进化的下一站

遗憾的是,这些领域似乎都无法真正承担起一种跨越不同载体、统一研究各种心智的综合性心智科学的角色。而我所从事的强化学习,或许正是这种综合性心智科学的一个起点,因为它确实横跨了多个领域。

那么,什么是强化学习?

强化学习是一种以“智能体”为中心的学习方式,它通过与环境交互、从经验中学习,以实现目标。 从这个意义上说,它比其他类型的机器学习更现实、更有雄心,也更加自主。智能体在世界中行动,并不假设一定存在辅助者。它只是与世界交互,观察是否达成目标,然后调整行为以更好地实现目标。

图灵奖得主Sutton深度剖析:AI模型本质脆弱,经验时代才是智能进化的下一站

这种学习方式也更加贴近现实。动物并不会从环境中获得太多帮助。强化学习的本质是试错,是通过延迟反馈来学习。你拥有的只有奖励信号:你最终是否得到了想要的结果?这是一种最接近自然学习方式的机器学习方法,能够自行判断对错。

例如,大语言模型并不知道自己说的话到底对不对;而当你从经验中学习,对即将发生的事情做出预测,你可以看到预测是否正确;当你采取行动并获得奖励,你就能判断这种行为方式的好坏。

也许,这正是一门心智科学的起点:它既不完全属于自然科学,也不只是工程或技术应用。

我想引用艾伦·图灵在1947年的一次讲座中的话,这可能是世界上第一次公开讨论人工智能的演讲。图灵本人并不知道自己其实是一个“强化学习派”。

图灵奖得主Sutton深度剖析:AI模型本质脆弱,经验时代才是智能进化的下一站

我们正处在一个“从人类数据中训练”的时代。 几乎所有AI系统主要做的都是预测人类在互联网上的下一个词,或预测人类如何给图片打标签,再由人类专家进行微调。

现代机器学习的目标,本质上是将人类已经拥有的知识迁移到机器中。 一旦迁移完成,机器就会被“冻结”,不再继续学习。这正是当下大多数机器学习系统的状态。

而我认为,我们正在触及这一时代的极限。一方面,我们正在耗尽高质量的人类数据。更重要的是,这种方法在原理上存在根本限制:它无法学到任何真正新的东西,无法产生真正原创的知识。在最需要“真正创新”的难题上,这种方法无能为力,因为它只是回顾和总结互联网上已有的内容。

图灵奖得主Sutton深度剖析:AI模型本质脆弱,经验时代才是智能进化的下一站

如果我们希望取得进一步进展,就必须进入一个新的时代:从经验中学习。 归根结底,我们需要一种能够随着智能体能力提升而不断增长、不断改进的数据来源。任何静态的数据集都无法长期满足这一点,而来自自身经验的数据本身就是动态变化的。

人类和动物正是以这种方式学习的。AlphaGo下出富有创造力的第37手棋,源于这种机制;许多在数学奥林匹克竞赛中获胜的智能体,同样如此。

当我说“从经验中学习”时,我指的并非主观感受,而是智能体与环境之间交换的数据。这包含三类信息:
第一,智能体从世界中获得的观测(传感器数据);
第二,智能体发出的行动;
第三,世界返回的一个特殊观测——一个标量,即奖励。

这三者构成了“经验”,是智能体在与世界交互过程中所能获得的全部信息。我们需要一种会随着智能体自身变化而不断增长的数据集。

图灵奖得主Sutton深度剖析:AI模型本质脆弱,经验时代才是智能进化的下一站

画面中是一名婴儿。你可以看到,婴儿在与各种玩具互动时,会不断转换对象。每一次接触新事物,它都会学到一些东西,但很快又会转向下一个目标,通过改变自身的经历来学习新知识。

这正是我们的数据来源。生命的数据并不是被“提供”的,而是由我们的活动本身生成的。也正因为这些数据来自行动,它们才能与我们自身的理解水平、能力和技能自然匹配。

我还展示了另一个视频,用以演示一个智能体在迷宫中的学习过程。这是一个非常简单的智能体,其目标是从起点S抵达终点G。它对世界的认知极其有限:仅知道自己当前所在的格子;可执行的动作也只有四种:上、下、左、右。通过持续学习,它最终能找到一条有效的路径。图中的箭头代表它认为的最优行动方向,绿色区域则表示它对每个状态“价值”的估计。

然而,世界并非静态,它总在变化,我们也总需要学习新事物。

在学习过程中,我们可以观察一张示意图,它揭示了智能体的基本运作方式。其中包含几个关键要素:右上角是对世界状态转移的模型;中间是策略,用于决定在每个状态下应采取何种行动,对应图中的箭头;还有一个价值函数,用于评估每个状态的好坏,这正是图中绿色区域所表达的含义。

图灵奖得主Sutton深度剖析:AI模型本质脆弱,经验时代才是智能进化的下一站

现在,如果我将目标位置移动到上方,智能体就必须重新“偶然”发现目标的新位置。一旦发现,它便能再次学会通向目标的路径,并从环境变化中恢复过来。从某种意义上说,这就是生活的一个简化模型:你会遭遇变化,然后适应它。

我们将目标置于角落,它便学习调整;再将目标移到另一位置,它便学会一条新路径。我们甚至可以进一步干预,在路径上设置障碍物,它也会逐渐学会绕行。

因此,我们会非常直观地感受到:这个智能体是有目标的,并且会随着环境变化不断调整自身行为,以尽可能实现目标。当然,目标也可能变得无法达成。当这种情况发生时,我们甚至会不由自主地对这个无法完成目标的智能体产生一丝同情。

我原本还准备了一个关于“试错学习”的演示,网上有一个很好的示例,但由于未能顺利播放YouTube视频,这部分暂且略过。不过,我想大家已经理解了何为“从经验中学习”。接下来,我们稍微抽象一点,谈谈其中的基本原则。

这种以经验为基础的AI方法,其核心原则在于:智能体与世界交换信号,这些信号本身就是经验,而经验构成了一切智能的基础和核心。

图灵奖得主Sutton深度剖析:AI模型本质脆弱,经验时代才是智能进化的下一站

“真理”的定义,体现在这些信号之中;“目标”的定义,同样体现在这些信号之中。你希望奖励信号尽可能高——要么你达成了目标,要么没有。这个目标在某种意义上是主观的,只对智能体自身可见;但与此同时,它又是最客观的东西,因为它是智能体实际接收到的数据。

因此,我们可以说,一个智能体的智能水平,取决于它在多大程度上能够预测并控制自身的经验。 需要注意的是,如果你没有经验,那就谈不上智能。

举个例子,大语言模型在运行时,并不会从经验中学习。经验是你“出生”后进入世界、亲自行动时才会产生的东西。而当一个大语言模型被部署到现实世界中时,它已经不再学习了,它是被冻结的、静态的。 因此它并不真正拥有经验。它所拥有的数据,只能在一个特殊的训练阶段获得,那些数据只是人类过去如何在世界中行动的示例。当你真正走进世界、亲自去做事情时,并不会有人告诉你“你原本应该怎么做”。

没有经验,智能就无从谈起:你无法判断什么比什么更好,因为没有奖励就没有目标;而大语言模型并没有目标。你也无法判断一个预测是对是错,因为它从不将预测与真实发生的结果进行对照,于是也就不存在“真理”的概念。

但一旦有了经验,有了交互和由此产生的数据,目标就变得非常清晰:获取奖励;而“真理”的概念也随之出现,那是一种基于预测的真理。你做出预测,然后观察真实发生的结果,看看预测是否成立。

这正是经验式方法所带来的能力。我认为,这条路径正在变得越来越普遍、也越来越重要。回顾过去大约十年的发展,我们可以大致将其划分为三个阶段。最早的是“模拟时代”,我们从模拟环境中获取经验,比如AlphaGo、Atari游戏。随后进入的是更近一些的“人类数据时代”,也就是以大语言模型为代表的阶段。 当然这种划分并不完全精确。我们已经看到,人们对大语言模型的狂热正在逐渐转化为对其局限性的清醒认知。

现在我们正迈入第三个阶段:“智能体系统”的阶段,让模型和智能体真正使用计算机、在现实世界中行动。我把这一阶段称为“经验时代”。在我看来,它将把我们带向一种超越人类的能力——这种能力不再只是模仿人类、受限于人类本身,而是真正能够超越人类。

好,先总结一下关于AI发展趋势的第一个要点:AI终于开始转向从经验中学习了。

要知道,艾伦·图灵在1947年就已经设想过这条道路,而那已经是很久以前的事情了。直到今天,我们才真正开始去做这件事,而不是继续完全依赖人类输入。这种转变将带来更强大的能力,因为它意味着持续学习新的东西。

AI远没有进入“主场时刻”

尽管当下充满炒作,甚至伴随着某种恐慌情绪,但我并不认为当前的AI已经强大到不可思议的程度。它在很多方面仍然脆弱、不可靠;但与此同时,它也极其有用,已经点燃了一个完整的产业,创造了巨大的经济价值,而且几乎人人都可以使用。这种普及性让公众感到兴奋,也促使人们开始认真思考:有一天,机器是否可能拥有与人类相当的能力。

在某种程度上,它是通过制造恐惧引发这种关注的,人们未必真的需要害怕,但确实应该保持关注。至少,它成功地让所有人开始正视这个问题,这本身是一件好事。

不过,我们还远没有进入所谓的“主场时刻”。尽管存在各种夸大的说法,我们并没有真正到达创造超级智能AI、或“超级智能增强人类”的阶段。一旦那一刻到来,它将是一件非同寻常的大事,会带来极其深远的变化。

AI应该是去中心化的,不应集中控制

你只要看看当下,就会发现大量关于“控制AI”的呼声:比如,只允许AI拥有经过人类审核和授权的目标;呼吁暂停甚至停止AI研究;已经出现了一些法律,用来限制AI可使用的计算能力;以及各种所谓的“安全研究机构”。很多人口中的“安全”,其实真正指的是“控制”。他们通过让你害怕AI,宣称它不安全,然后提出应当由他们来掌控。

我们或许也应该对AI抱有某种同理心。现实世界中,同样存在对言论的控制——你能说什么、能听什么;存在贸易管制和关税,限制你能在哪里工作;还存在资本管制,以及针对不同国家的经济制裁。

我的核心观点是:对AI的集中控制诉求,与对人类的集中控制诉求之间,存在着一种惊人而诡异的相似性。 它们都建立在恐惧之上:要害怕AI;要害怕某些国家、某些群体;说你不能信任他们,说他们几乎不像人,说他们是“坏的”,不爱自己的孩子,不会感到痛苦(笑)。同样地,人们也在说AI不会感到痛苦。总之,这些论调极其相似,而我认为我们应该警惕并抵制它们。

因为我相信,人类的繁荣,以及人类与AI的共同繁荣,来自于学习,也来自于接受这样一个事实:我们应当以去中心化的方式与AI协作,而不是依赖庞大的控制型组织。

这些正是我没有展开的那部分幻灯片所想表达的核心思想。人类在合作方面既非常擅长,也非常糟糕——战争正是“不合作”的极端表现。合作并非总是可能,但从经济交换到社会制度,从政府到市场,世界上几乎所有美好的事物都源自合作。我们必须主动去寻找、去支持合作。如果我们足够警觉,就会发现,谁在呼吁不信任、呼吁不合作。而“不合作”的另一面,往往正是集中控制。我认为,我们应该抵制这种倾向。这也是理解人类与AI互动问题的一种重要视角。以上就是我非常简略的政治看法。

不应害怕AI,因为是人类在创造它

接下来,我确实想谈谈AI的哲学问题。AI正在发生,而且明天会发生得更加深入。那么,我们究竟该如何看待它?我想提出一个最根本、也最困难的问题:它究竟是好是坏?我们是否应该害怕它?它会夺走我们的工作,让我们变得多余吗?还是说,我们会成为AI的一部分——成为被技术放大和增强的人类?AI是入侵者,还是我们的“孩子”?我们会为它哀叹,还是为它庆祝?它是“我们”,还是“不是我们”?我认为,这正是最根本的问题。

我希望大家首先意识到,我们经常被要求不要去思考它,而只是被告知应该害怕它们,因为它们“不是我们”,像是外星来物。但请记住,是我们在创造它们。理解我们的心智,本身就是最具人类特质的行为。

那么,该如何思考呢?

你们大概已经能看出我的立场。这并不是什么“外星科技”,而是人类自古以来一直在做的事情。几千年来,我们始终在尝试理解自己:理解人类的智能,理解心智如何运作,以及如何让我们的心智运作得更好。这是一项极其宏大的追求——理解我们自身。

我很喜欢库兹韦尔的一句话:智能是宇宙中最强大的现象,而我们正是它最好的例子,因此我们理应去理解它。这是一件极其重要的事情。理解智能,几乎是科学的“圣杯”,也是人文学科的“圣杯”。这是一个伟大而光辉的目标,作为学者和思考者,我们应该享受它、庆祝它,并努力推动它向前发展。

人类正在走向被AI继任的过程

不过,先暂时放下“我们是否希望它发生”“如果发生会不会很可怕”这些价值判断。让我们只做一件事:预测它将如何发生。我提出几条“现实主义的AI预判原则”,有点类似约翰·米尔斯海默在讨论现实主义地缘政治时的思路。

我们只谈现实:什么是真正会发生的?哪些事情是我们无法完全控制的?

第一,关于“世界应该如何运转”,并不存在共识。多种意识形态并存,没有哪一种观点占据绝对主导;宗教之间同样彼此不一致;不存在一个能够压倒其他所有立场的统一世界观。

第二,总有一天,人类会对智能有足够深入的理解,深入到可以用技术去创造它,而且我们一定会这么做,至少其中一部分人一定会。

第三,这一过程不会停留在当代人类智能的水平上,而是会很快远远超越它。我们将面对超级智能的存在,无论它们是否被称为“人”。

第四,随着时间推移,权力和资源往往会流向更智能的存在。

把这四点放在一起,我们会看到一幅清晰的图景:人类正走向被AI继任的过程。我认为这是一个合理的判断。但我们也必须意识到,这种说法本身是高度以人为中心的。我们总是在关心“我们会变成什么样”。或许,我们需要稍微退后一步,从更宏观的视角来看待这一切:宇宙如何看待这一过程?它在整个宇宙的演化中扮演着怎样的角色?

宇宙的四个伟大时代

接下来,我要把视角拉得非常宏大了。我想从宇宙的尺度来谈一谈所谓的“四个伟大时代”。

第一个是粒子的时代:大爆炸之后,宇宙中几乎连原子都不存在。随后,物质坍缩形成恒星,我们进入恒星时代。恒星形成、升温、爆炸,并在这一过程中合成更重的元素。接着,当有了更重的原子和行星之后,生命才得以出现。我把这一阶段称为“复制者的时代”,而不是简单地称为“生命时代”。

我认为,这个“绿色时代”真正特殊之处在于:出现了能够复制自身的存在。它们未必理解任何事情,但却能够制造自己的副本。就像我们自己,并不真正理解身体如何运作,不理解器官、大脑或智能如何产生,却仍然能够创造出更多智能体——我们生育孩子,并将他们抚养成人。

这便引出了宇宙的第四个伟大时代:技术与创造之物的时代,我称之为“设计的时代”。在这个时代,事物不再只是通过复制而存在,而是先存在于某个复制者的心智之中,然后才进入现实世界。你环顾这座礼堂,建筑在被建造之前就已经被设计出来;椅子、你穿的衣服,几乎所有东西都是如此——它们先存在于某个人的头脑中,然后才成为现实。

唯一的例外是人类本身:人是通过复制而来的,而不是先以设计的形式存在于世界之中,只是最初存在于父母的想象里。

正因为如此,我更愿意把这两个阶段称为“复制的时代”和“设计的时代”。将它们简单称为“生命时代”和“机器时代”已经过时,而且容易误导——因为我们的机器正变得越来越像生命,而我们也越来越多地将生命理解为一种生物机器。

机器与生物的区别:复制和设计

那么,真正的区别是什么?

真正的区别在于:生物体是在没有任何心智理解其自身运作方式的情况下被创造出来的。它们几乎像复印机一样被复制出来,所以说你并没有“创造”那幅图像,只是复制了一份。

技术机器则不同。它们首先存在于某个心智之中,也就是设计者的想象里,随后才在现实世界中被制造出来。因此,它们是被“设计”出来的。一个非常重要的区别在于,被设计的事物更容易发生变化,也更容易被持续改进。这正是我使用这些术语的原因。从这个角度来思考问题,其实相当有启发性。

接下来,我们可以借助这些概念做一个简单的思考练习。我们会发现,许多非人类的复制者在某种程度上同时也是设计者。比如,动物会筑巢、打洞,人类会建造房屋;许多动物还会制造工具,例如黑猩猩会把树枝剥去外皮来钓白蚁,乌鸦会把树叶加工成细条来钓蛆虫。当然,人类会制造石斧,那是我们最早、也是最重要的工具。随后出现了农业用的犁,再往后是计算机、宇宙飞船、工厂和软件,其中很多本身就是“制造其他工具的工具”。

人类的特殊之处:把设计推向极致

在这一基础上,我们或许可以回到最初提出的那个问题:人类是什么?我们是谁?我们在宇宙中扮演着怎样的角色?也许,我们可以尽量保持冷静,不过分自大,也不过分强调自身的重要性来回答这些问题。

我们都隐约意识到,人类是特殊的。我们不仅只是一种复制者,而是一种非常特殊的复制者。我此前已经暗示过这种特殊性所在:我们把“设计”这一能力推进到了前所未有的高度。我们本身是通过复制而来的,我们自己就是复制者;但与此同时,我们也具备设计能力,并且将这种能力发展到了远远超过任何其他复制者的程度。

那么,如果把“设计”这一能力推到极限,会意味着什么?

如果把它彻底走到尽头,会出现怎样的结果?在我看来,把设计推到极限,意味着设计出那些本身也具备设计能力的存在。换句话说,我们在自己的头脑中设计出一些事物,而这些事物本身,也能够在它们自己的头脑中进行设计。它们拥有心智。

这正是我们在AI上正在做的事情。我们正在完成这个伟大的时代——也是最后一个时代。因此,我认为,人类至少是这个时代的催化剂、接生婆,或者说奠基者:我们促成了“设计时代”的到来,也就是宇宙的第四个伟大时代。这就是我们的角色,一个重要的角色,一个具有普遍宇宙意义的角色。

总结:AI是宇宙发展的必然,我们该为此自豪

最后,我想简要总结一下我的三条核心信息。

第一,当下的AI也就是2020年代的AI,仍然处在“人类数据的时代”。它已经表现得非常出色,也非常强大;但我们正在进入一个新的“经验时代”,而这一阶段将更加强大,因为它能够持续学习新的事物。

第二,在政治层面,当下围绕AI的政治讨论,实际上是人类自身政治的映射。在所有情况下,我们都应当追求去中心化的协作,而不是中心化的控制。

第三,在哲学层面,我认为AI是宇宙发展过程中不可避免的下一步。我们应当以勇气、自豪感和冒险精神去拥抱它。

感谢大家的时间。

参考链接:
https://www.youtube.com/watch?v=lieqoaBV6ww


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/22668

(0)
上一篇 20小时前
下一篇 18小时前

相关推荐

  • 从Vibe Coding到工程智能体:InfCode如何突破企业级AI编程的语义定位瓶颈

    人工智能编程正经历从概念验证到工程落地的关键转型。自Andrej Karpathy提出“Vibe Coding”概念以来,通过自然语言提示直接生成可运行代码的能力确实展现了AI编程的潜力,但这种基于“感觉”的编程模式在企业级复杂工程场景中逐渐暴露出局限性。 Vibe Coding的核心优势在于快速原型开发,开发者仅需一句提示词如“编写一个Python代码,可…

    2025年12月5日
    15800
  • ReCode:以递归代码生成统一规划与执行,开启智能体决策粒度自由切换新范式

    在人工智能智能体领域,决策粒度问题长期困扰着研究者与实践者。现有主流框架往往被束缚在固定的抽象层级——要么如ReAct智能体般陷入细粒度动作的泥潭,缺乏宏观视野;要么如规划-执行分离架构般将高层规划与底层动作硬性割裂,丧失动态调整能力。这种局限严重制约了智能体在复杂、开放环境中的适应性与泛化表现。近期,DeepWisdom研究团队在论文《ReCode: Un…

    2025年12月4日
    13700
  • 苹果高管震荡加剧:芯片架构师斯鲁吉或离职,库克时代面临领导力重构

    近期,苹果公司高管团队持续动荡,引发业界广泛关注。继AI负责人John Giannandrea和首席UI设计师Alan Dye本月相继离职后,又一核心人物——硬件技术高级副总裁Johny Srouji被曝出离职意向。这位自研芯片项目的关键架构师若离开,将对苹果的硬件战略产生深远影响。 Johny Srouji于2008年加入苹果,至今已服务17年,直接向CE…

    2025年12月7日
    15600
  • LimiX:结构化数据处理的通用革命,开启工业AI新纪元

    在科幻作家刘慈欣的《超新星纪元》中,一个关于盐和味精供应量的场景深刻揭示了现代工业社会运转的本质——它建立在海量精确数据的处理之上。从生产计划到机器监控,再到电力调度,结构化数据如同社会的神经网络,支撑着工业化便利的每一个环节。这些以固定行列格式组织、关系预先定义的数据,构成了现代社会高效运转的基石。 然而,在人工智能浪潮席卷全球的今天,处理这些最基础的结构…

    2025年11月21日
    14100
  • PhysX-Anything:单图生成仿真就绪3D资产,突破具身智能物理建模瓶颈

    在机器人、具身智能和交互仿真等前沿领域,对高质量、可直接用于物理仿真的3D资产需求日益迫切。传统3D生成方法多聚焦于几何外观与视觉保真度,却普遍忽视密度、绝对尺度、关节约束等关键物理属性,导致生成模型难以直接应用于真实世界的控制与交互任务。尽管已有少数研究探索可动3D对象生成,但受限于高质量物理标注数据的稀缺,现有方法多采用“检索现有模型+附加运动”的范式,…

    2025年11月23日
    11800