开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

开源领域突遭巨震:艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

开源人工智能领域传来重大变动。艾伦人工智能研究所宣布,将削减对包括旗舰项目OLMo在内的开源模型开发的资金投入,转而聚焦于AI应用。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

与此同时,该研究所的核心团队几乎被整体“打包”,集体加入微软。此次人员变动涉及前CEO阿里·法哈迪、前首席运营官索菲·莱布雷希特,以及核心研究员汉娜·哈吉希尔齐和兰杰·克里希纳。其中部分成员上周刚出席英伟达GTC大会,并与黄仁勋探讨过开源模型的未来。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

他们的下一站,是微软旗下由穆斯塔法·苏莱曼领导的超级智能团队。消息在社交平台X上引发广泛关注与讨论,许多开源社区成员对此表示惋惜,认为OLMo是极少数践行“完全开源”理念的模型之一,其变动是开源社区的损失。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

核心团队整体迁入微软

核心人员的集体离职对任何研究机构而言都是一个严峻信号。艾伦人工智能研究所的前CEO阿里·法哈迪、前首席运营官索菲·莱布雷希特,以及研究员汉娜·哈吉希尔齐和兰杰·克里希纳,均已确认将加入微软。

阿里·法哈迪已于3月12日卸任CEO职务,结束了两年半的任期。他是一位计算机视觉专家,同时也是华盛顿大学保罗·艾伦计算机科学与工程学院的教授。法哈迪曾联合创立了艾伦研究所的衍生公司Xnor.ai,该公司于2020年被苹果收购。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

汉娜·哈吉希尔齐是OLMo开源模型项目的联合负责人,上周在GTC大会上代表研究所参与了多场活动。她也是耗资1.52亿美元、为期五年的“开源多模态人工智能基础设施加速科学发展”项目的联合首席研究员。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

兰杰·克里希纳主导了研究所的多模态模型Molmo等多个关键项目,同样在近期GTC大会上发表过演讲。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

这些人才将悉数加入微软的超级智能团队。该团队自去年11月由穆斯塔法·苏莱曼组建以来,已从谷歌、Meta、OpenAI、Anthropic等公司招募了大量研究人员,并持续从艾伦研究所及华盛顿大学吸纳人才。

苏莱曼在领英上公开欢迎新成员,并称赞法哈迪领导研究所在一年内发布了超过100个模型,哈吉希尔齐则是“世界上被引用次数最多的自然语言处理研究人员之一”。对于莱布雷希特,他肯定了其在扩大研究所运营规模和开源工作方面的贡献。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

苏莱曼表示,他们的加入将助力微软推进“以人为本的超级智能”使命,致力于打造更安全、可控且强大的AI系统。法哈迪也在领英回应,对加入微软感到兴奋。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

核心团队的集体出走无疑对艾伦研究所构成重大打击。而背后的主要原因,直指资金问题。

研究所董事会主席比尔·希尔夫透露,法哈迪有志于在AI前沿领域进行研究,但像OpenAI、谷歌这样的公司动辄投入数十亿美元训练尖端模型。对于一家依赖慈善资金的非营利机构而言,很难筹集同等规模的资源来开发完全开源、并能与巨头竞争的模型。

希尔夫承认,在大模型开发的最高层级上与科技巨头竞争已经变得异常困难。例如,训练GPT-4级别模型的成本估计在1亿至2亿美元,而当前前沿模型的训练成本更是高达数亿美元。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

作为对比,艾伦研究所参与的OMAI项目虽在五年内获得1.52亿美元资助,但这是多机构共享的专项经费,年均约3000万美元,与巨头投入存在数量级差距。

更深层的原因在于主要资助方的策略调整。研究所最初由保罗·艾伦的Vulcan公司资助,后由其遗产设立的规模达31亿美元的“科学与技术基金会”持续支持。2024年,琳达·斯图尔特博士接任该基金会CEO后,资助策略发生了显著变化。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

斯图尔特博士拥有医学科学背景,更倾向于资助那些具有明确科学应用和可量化社会影响的项目,而非投入大量资金进行前沿模型的基础研究。据媒体报道,从2026年开始,基金会对研究所的资助模式将从提供年度整体拨款,转向基于具体项目提案的资助。

这种转变意味着研究机构需要更频繁地申请资金,并明确每个阶段的可交付成果和影响力指标,对于周期长、商业回报不直接的开源基础模型开发而言,不确定性和申请成本都将大幅增加。有知情人士透露,未来的资助预计将更倾向于AI的实际应用,而非构建开源基础模型。这也解释了为何专注于模型开发的研究人员会选择离开。

开源AI旗帜的动摇

消息传出后,社交平台上一片唏嘘,有评论称这是“美国开源AI最后一面旗帜的倒下”。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

过去几年,艾伦研究所确实在“完全开源”大模型上投入巨大。其OLMo系列不仅开源模型权重,更公开了从数据处理、预训练、微调到评估的全流程代码、配置及中间检查点,并始终采用对开发者友好的Apache 2.0许可证。

2025年11月发布的OLMo 3系列(包括7B和32B参数规模)进一步强化了透明度,提供了完整的“模型流程”和升级版的OlmoTrace工具,允许研究者追溯模型推理步骤背后的具体训练决策和数据影响。因此,OLMo常与Llama、Mistral等模型并称为开源领域的重要支柱,且因其更高的透明度而备受推崇。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

如今,这一标杆性项目的战略地位被动摇,引发了开源社区的广泛讨论与“赛博悼念”。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减
开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减
开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

也有观点认为,这反映了用非营利模式持续开发顶级开源模型的经济挑战。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

目前,研究所已任命创始成员皮特·克拉克为临时CEO。克拉克表示,研究所仍致力于其使命以及与美国国家科学基金会和英伟达的合作,包括OMAI计划。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

开源AI格局生变

此次事件也折射出全球开源AI格局的演变。在美国,主要的开源力量形态各异:Meta的LLaMA系列偏向“可控开放”,谷歌的Gemma未公开完整训练流程,Hugging Face的社区驱动项目缺乏大规模训练资源,英伟达的Nemotron系列则更服务于其硬件生态。

相比之下,中国在开源模型领域的进展迅速,部分模型性能已实现超越并持续扩大优势。艾伦研究所的战略调整,可能将进一步加速中美在开源AI领域的发展差距。

在OpenRouter的API调用平台上,过去三周来自中国大模型的调用量已连续超过美国,与领先的闭源模型竞争激烈。

开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

MIT与Hugging Face的联合研究报告指出,过去一年间,全球开源模型下载量中有17.1%来自中国模型,这一比例首次超越美国。

许多美国初创公司也开始“悄然”依赖中国开源模型进行产品构建,其技术选型进一步向中国模型倾斜。

例如,上周Cursor发布的新模型Composer 2被曝基于Kimi K2.5构建;另一家初创公司Deep Cogito去年发布的Cogito v2.1,也被指出其基座模型是DeepSeek。这些案例从侧面印证了中国开源模型的技术实力。

开源的火种并未熄灭,但主导力量正在转移。开源AI的发展已完全进入“中国时间”。

参考链接:
[1] https://www.geekwire.com/2026/microsoft-hires-former-ai2-ceo-ali-farhadi-and-key-researchers-for-suleymans-ai-team/
[2] https://x.com/i/trending/2036565214154625310


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/27871

(0)
上一篇 2026年3月30日 上午11:09
下一篇 2026年3月30日 上午11:12

相关推荐

  • DeepSeek又降价!编程成本狂省83%,AI价格屠夫杀回来了

    DeepSeek连续两日大幅降价:编程成本骤降83%,AI价格战再升级 DeepSeek在短短两天内连续两次宣布降价! 在输入输出价格已降至2.5折的基础上,若命中缓存,输入费用还能再享受一折优惠。 需要特别注意的是,输入缓存折扣没有设置任何时间限制。 DeepSeek研究员陈德里也确认,这一缓存折扣为永久性政策,并贴上了“AGIforEveryone”的标…

    2026年4月27日
    24300
  • Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威

    Anthropic发布了Claude Opus 4.6新版本,官方定位为“最智能的模型”,主打复杂智能体任务和长时程工作。相比此前的Claude Opus 4.5版本,新版本在架构上进行了多项升级,包括首次在Opus级别支持100万token上下文窗口、引入自适应思考(adaptive thinking)机制等。 我们对这两个版本进行了全面的对比评测,测试其…

    2026年2月10日
    1.2K00
  • 深夜突发!通义千问负责人林俊旸宣布离职,阿里最年轻P10技术高管去向成谜

    深夜突发!通义千问负责人林俊旸宣布离职,阿里最年轻P10技术高管去向成谜 太突然了! 深夜,通义千问(Qwen)负责人林俊旸突然发布推文,宣布自己将离开Qwen团队。 截至目前,林俊旸尚未透露自己的去向和接任者,外界尚不清楚他是否也会离开阿里巴巴。 据内部知情人士透露,目前尚无直接接替林俊旸的人选,原因是「事发比较突然」。该知情人士表示:「主要感觉就是他的一…

    2026年3月4日
    39100
  • DualSpeed:革命性双模视觉Token修剪框架,实现MLLM训练4倍加速与99%性能保留

    关键词:视觉令牌修剪、多模态大语言模型、高效训练、训练-推理不匹配、双模训练 近年来,多模态大语言模型在图像描述、视觉问答、视觉定位、多模态推理等任务中取得了显著突破,成为人工智能领域的重要研究方向。然而,随着模型规模不断扩大、视觉输入分辨率持续提升,MLLMs 的训练成本急剧上升,成为制约其发展和应用的关键瓶颈。 传统的效率优化方法主要聚焦于模型压缩、参数…

    2026年2月5日
    34800
  • DeepSeek-V4预览版发布:百万上下文、Agent能力领先,同步开源

    刚刚,DeepSeek 在官方公众号发文宣布,全新系列模型 DeepSeek-V4 的预览版本正式上线,并同步开源! DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能三大维度上均实现了国内与开源领域的领先。 秉承 DeepSeek 一贯的开放精神,本次发布的模型按大小分为两个版本,欢迎开发者、研究者和企业用户前往体验和下…

    2026年4月24日
    80800