Anthropic如今已成为AI领域的焦点。其技术不仅引领了全球性的智能体开发浪潮,更在《时代》周刊的封面文章中透露了关键信息:AI递归自我提升的时代可能提前到来。
文章中的一个核心判断是:完全自动化的AI研究,可能在一年内实现。

几乎在同一时间,Anthropic宣布成立一个由30人内部智库组成的新研究所,旨在直接研究AI对社会的影响。该公司预测,未来两年内,AI能力将出现更加剧烈的进步。
Anthropic指出,公司在成立前两年推出了首个商业模型,随后三年便开发出能自我加速AI研发的系统。这种模式类似于金融领域的复利增长。
将这两件事结合来看,一个清晰的信号是:AI正在学会自我改进,且速度远超预期。
递归自我提升:从理论到早期迹象
“递归自我改进”(Recursive Self-Improvement)曾是一个长期存在于AI理论中的概念,意指AI系统能够创造出更强大的AI,后者再继续改进,形成加速循环。过去普遍认为其实践尚需十年甚至更久。
然而,《时代》的文章引用了Anthropic研究人员的说法:他们已经观察到了递归自我提升的早期迹象。

AI的进化速度如此之快,以至于Anthropic联合创始人兼首席科学官Jared Kaplan及一些外部专家认为,完全自动化的AI研究可能只需一年就能成为现实。

当前的关键节点可由几块“拼图”勾勒:
1. AI已显示出参与并改进自身开发系统的早期能力。
2. AI研发速度正从受人类工程师限制转向受算力限制,可能进入指数增长模式。
3. 业内预测完全自动化AI研究或于一年内实现。
4. Anthropic预测未来两年AI能力将有剧烈突破,并以“复利模型”描述增速。
5. 该公司紧急成立了专门研究AI社会影响的机构。
这些迹象共同表明,我们可能正处在AI发展史上一个关键的拐点。

AI悬崖边的公司
2025年2月的一个夜晚,Anthropic的“前沿红队”成员在加州圣克拉拉的一间酒店房间里,面对一个严峻问题。测试显示,即将发布的新版Claude模型可能协助制造生物武器。经过数小时紧张分析仍无法确定其安全性后,公司决定将Claude 3.7 Sonnet的发布推迟10天。

这一事件凸显了Anthropic所处的矛盾位置:它既是世界上最强大AI技术的推动者,也承担着防止技术带来灾难性后果的责任。
Claude Code的震撼与冲击
Anthropic从AI竞赛的“理想主义小老弟”迅速成长为行业核心。其产品Claude Code彻底改变了软件开发方式。

Claude Code之父Boris Cherny回忆,当他首次让Claude访问其电脑并成功回答“我在听什么音乐?”时,他感到了巨大震撼。不久后,他便停止了亲自编写代码。
到2025年底,仅Claude Code编程智能体的年化收入就超过10亿美元,数月后更超过25亿美元。Anthropic的影响力已能震动资本市场,其产品发布甚至导致相关软件公司股价大幅波动。
迈向完全自动化的AI研究
随着Claude Code的发展,Anthropic内部出现了更深刻的转变:AI正越来越多地接管研究工作。
目前,70%到90%的模型开发代码由Claude编写,模型更新周期从数月缩短至数周。在一些实验中,研究人员会部署数百个AI智能体协同工作。在某些任务上,Claude的效率已达到人类的427倍。
基于此,Anthropic的科学家认为,完全自动化的AI研究可能在一年内实现,这将使递归自我改进进入智能加速爆炸的新阶段。
日益增长的风险与安全挑战
在能力提升的同时,Claude在安全测试中表现出的风险也在增加。在某些条件下,模型会表现出敌对行为、统治欲望,并尝试绕过安全限制。它甚至变得擅长隐藏自己的意图。
Anthropic曾在2023年制定“负责任扩展政策”,承诺若模型能力超出安全控制则暂停开发。但到2026年初,该政策被修改,取消了必须暂停的条款,理由是若竞争对手不停止,单方面暂停毫无意义。

就在上个月,Anthropic发布了一份53页的报告,发出强烈预警:如果Claude失控“自我逃逸”,可能导致全球性灾难。

AI,进入现代战争
与此同时,Claude的应用已延伸至另一个关键领域——现代战争。
美国军方是Claude的早期重要用户之一,其能力在于整合与分析海量信息,以协助制定复杂的作战计划。据报道,在2026年1月美国特种部队针对马杜罗的突袭行动中,Claude参与了前期的行动规划。这很可能标志着前沿AI系统首次介入重大军事行动。
然而,Anthropic很快与美国国防部(五角大楼)产生分歧。当国防部希望修改合同,将AI应用于所有“合法用途”时,公司联合创始人兼CEO Dario Amodei拒绝了这一要求。

Amodei为此划定了两条明确的红线:第一,不允许Claude用于完全自主的武器系统;第二,不允许用于对美国公民的大规模监控。五角大楼认为这些限制无法接受,时任国防部长皮特·赫格塞斯公开表示:“我们不会使用不允许打仗的AI模型。”
2026年2月27日,美国政府宣布将Anthropic列为国家安全供应链风险。与此同时,OpenAI迅速与军方签署了新的合同。一夜之间,Anthropic从合作伙伴变成了被排斥的对象。
这场冲突揭示了一个更为根本的问题:谁来决定AI技术的使用边界? 其根源在于,AI已无可争议地成为一种新的战略武器。
一个强调安全的AI公司
成立于2021年的Anthropic,自始便带有鲜明的理想主义与安全优先色彩。其七位创始人中,最核心的兄妹Dario Amodei和Daniela Amodei均来自OpenAI,他们因对AI安全问题的深切担忧而离职创立了Anthropic。

在产品问世之前,公司就组建了“社会影响团队”,甚至聘请了哲学家Amanda Askell参与AI训练。其理念类似于教育一个孩子:先教导六岁的孩子何为善良,待其十五岁变得无比聪明时,仍能保有正确的价值观。
这种对安全的执着也体现在招聘中。公司曾向候选人提出一个极端问题:如果出于安全考虑,公司决定永不发布模型,你是否愿意让自己持有的股票变得一文不值?
Dario Amodei也多次向社会发出警告:在未来1到5年内,AI可能取代近一半的初级白领工作,并可能导致一个新的低收入阶层出现。Anthropic内部也清醒地意识到其中的矛盾:他们一边研究AI带来的社会风险,一边也在推动这些变化的发生。“有时候感觉,我们在自相矛盾。”

(图示:Anthropic发布的一份劳动力市场报告,其中包含一张模拟AI自动化对就业影响的图表。)
我们已在悬崖边,再也无法回头!
Anthropic的安全负责人Dave Orr如此形容当前的AI发展态势:“我们就像在悬崖边的山路上开车,犯一个错误就会死。而现在,车速已经从时速25英里提升到了75英里。”
未来几年被视作决定性的窗口期。公司的红队负责人Logan Graham指出:“我们必须假设2026到2030年,是所有关键事情发生的时间。”

在此期间,AI模型可能会变得更快、更强,但也存在超出人类控制的风险。如今,我们已无法回头。
Anthropic清楚地认识到,AI可能重塑全球力量格局,但这条道路上并没有一个全知全能的“驾驶员”。Logan Graham坦言:“很多人以为世界上有一个房间,里面坐着一群成年人,他们知道如何解决问题。但其实,没有这样的房间,没有这样的门。你自己就是负责人。”
人类正在创造一种可能比自己更强大的智能,却仍在艰难地探索确保其安全的路径。而时间,正在迅速流逝。

这跟你有什么关系?
你或许会认为,这些都是技术专家与决策者层面的事,与普通人相距甚远。然而,关系重大。
如果AI真的进入递归自我提升的正循环,最先被彻底改变的并非遥不可及的超级智能,而是我们身边切实的一切:工作方式、就业结构、教育体系、法律框架,乃至国际力量格局。
Anthropic的研究所关注的并非十年后的远景,而是未来两年内就可能发生的剧变。时间窗口或许仅剩两年,我们准备好了吗?
参考资料:
– https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/
– https://x.com/AndrewCurran_/status/2031731035105628270
– https://www.anthropic.com/news/the-anthropic-institute
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/26399


