中国AI研究员为何让美国同行羡慕?36小时北京行揭示文化差异

中国AI研究员为何让美国同行羡慕?36小时北京行揭示文化差异

“中国AI研究员的性格、魅力和真诚……让人倍感亲切。”

这是艾伦研究所(Ai2)的研究员Nathan Lambert,在结束最近的中国之行后,发自内心的一番感慨。

在Nathan看来,国内的LLM圈子简直如同天堂——大家彼此尊重,即便立场不同也客客气气。反观大洋彼岸的“御三家”,他突然有些“没眼看”:天天激情互喷,像部落争霸一样激烈。

中国AI研究员为何让美国同行羡慕?36小时北京行揭示文化差异

这并非场面客套话。在短短36小时的北京行程中,Nathan几乎把国内AI圈打卡了个遍:月之暗面、智谱、清华、美团、小米、千问……他都进行了深度交流。与大量一线AI研究员和学生深入交谈后,Nathan得出了结论:这里的AI玩家,在合作共赢。

基于此,Nathan写下一篇文章,分享了他此次中国行期间印象深刻的种种事迹:

  • 所有实验室都“有点怕”字节,而所有人都敬佩DeepSeek。
  • 北京简直跟硅谷一样,他在36小时内跑了6家AI公司。
  • 他问一名中国研究员对AI风险的看法,对方困惑地愣住了——这似乎是个不合适的问题。
  • 美团、小米这类公司也会自研大模型,在中国,这是理所当然的事。
  • 从笔记本上抬起头,总能看到地平线上的起重机,仿佛是中国工程师文化的一种具象化。

实在太真诚了,连MiniMax都跑来前排围观,并表示希望Nathan下次“中国行”能把上海和深圳也安排上。

中国AI研究员为何让美国同行羡慕?36小时北京行揭示文化差异

以下是整理后的文章节选。Enjoy。

中国研究员的心态

Nathan在文章中大篇幅探讨了一个问题:为什么中国实验室如此擅长追赶前沿?他的核心判断是——文化。

今天,要做出一个好的LLM,需要从数据到架构到RL算法,全栈每个细节的打磨。每个环节都能榨出一些提升,但如何把这些提升拼到一起,是一个极其复杂的多目标优化问题。有时候,某个天才研究员的工作,需要为模型的整体目标让路。

在美国,这种事经常引爆冲突。Nathan透露了一个“瓜”:Llama团队据传就是因为内部政治斗争过重而崩盘的。大家都想让别人按自己的想法做事,有的实验室甚至需要花钱安抚顶级研究员,才能让他们别再抱怨自己的想法没被采纳。据此,他得出结论:过强的Ego和野心,会妨碍做出最好的模型。

而在中国,他观察到一个微妙的差异:中国实验室的核心贡献者中,有大量是在读学生。在这里,学生被当成同事,直接参与核心研发。他们愿意做那些不那么“性感”的工作,无所谓,只要能让模型变好就行。

反观美国呢?OpenAI、Anthropic、Cursor这些顶级公司干脆就不开实习。Google这类公司名义上会有与Gemini相关的实习,但事实上,大家会担心实习生被隔离在边缘区域,接触不到核心工作。但中国的经验证明,学生的参与,反而能大幅加快行进速度。

除此之外,这些学生还带来了一个意想不到的优势:全新的视角。过去几年,LLM的关键范式从Scaling MoE,到Scaling RL,再到Agent,每一次转换都需要疯狂吸收新的上下文。学生恰恰最擅长这个——他们擅长快速学习,也乐于放下一切预设,一头扎进去。

Nathan还注意到一件有意思的事:当他问中国研究员对AI的经济影响或长远社会风险有什么看法时,很多人的反应是——愣了一下。不是不想回答,而是真的觉得不关他们的事。他们的任务就是做出最好的模型,其他的事,不是他们操心的范围。

相比之下,美国文化更强调为自己发声。作为科学家,你越能为自己的工作发声,就越容易成功。而硅谷文化也在推动一种新的成名路径,即成为明星AI科学家。所以大家热衷于上Dwarkesh、Lex Fridman这类超级播客节目。一位研究员引用了Dan Wang那个经典说法,很精辟:中国是工程师治国,美国是律师治国。工程师考虑的是解决问题,而律师考虑的,是定义问题。

中国AI研究员为何让美国同行羡慕?36小时北京行揭示文化差异

概括一下,Nathan认为有四点比较重要的文化差异:

  1. 更愿意做那些不那么光鲜,但能提升最终模型的工作。
  2. 刚进入AI构建领域的人,不受上一轮AI炒作周期的路径依赖束缚,因此能更快适应新的现代技术。
  3. 更少的自我意识,让组织结构能稍微更好地扩张,因为更少有人试图钻组织系统的空子。
  4. 大量人才非常适合解决那些已经在别处有概念验证的问题。

北京=硅谷

Nathan的北京之行很有趣。他说北京简直像湾区——随便走两步就是一家竞争对手的办公室。他下了飞机,去酒店的路上顺便就拐进了阿里巴巴北京园区。然后在36个小时内,他依次去了智谱、月之暗面、清华、美团、小米、零一万物。

线下交流中,他向研究员们八卦中国的人才争夺情况如何。回答是:跟美国差不多。跳槽很正常,主要看当前哪个团队氛围最好。但有一点跟美国很不一样:在中国的AI圈,实验室之间更像是一个生态,而不是互相厮杀的部落。在很多私下交流中,大家对同行都是尊重的。

所有实验室都对字节跳动和豆包保持高度关注——在Nathan看来,字节是中国少数走闭源路线推进的大模型玩家。所有人都敬佩DeepSeek,认为它是研究品味最好的实验室。这让Nathan很惊讶:和美国研究员的线下对话,火药味可比这浓多了。但在中国,大家似乎冥冥中形成了一种默契的共识。

中国AI研究员为何让美国同行羡慕?36小时北京行揭示文化差异

还有一点他觉得很奇怪:中国研究员谈到商业化时经常耸耸肩,说:“那不是我的事。”而美国这边,从数据供应商到算力到融资,人人都对各种生态级别的产业趋势如数家珍。

中国AI产业的真实样貌

聊完文化,Nathan接着聊了聊产业层面他观察到的几个关键差异。我挑几个最有意思的说。

1. 国内AI需求的早期信号

一直有一种说法:中国AI市场会比较小,因为中国公司不太愿意为软件付费。Nathan认为这个判断只对了一半:不愿意花钱的部分对应的是SaaS生态,这在中国确实很小。但中国有一个庞大的云计算市场。关键问题在于:企业在AI上的花费,最终会走SaaS的路线还是云的路线?Nathan的感受是,AI更接近云,而且没有人在担心围绕新工具是否能长出市场。

2. 中国公司的技术自研执念

为什么美团、蚂蚁集团这类公司也在自己做大模型?西方人可能会觉得奇怪。但在Nathan看来,中国人的逻辑是:LLM显然会成为未来科技产品的核心,所以必须自己掌握。不过,虽然自研,但也开源。先训一个通用底座,开源出去让社区帮忙打磨,内部再微调一个版本用到自己的产品里。开源不是信仰,是实用主义——它能获得社区反馈,能回馈开源生态,也能帮助他们更好地理解自己的模型。

3. 算力不足

英伟达仍是训练的黄金标准,每个实验室都因为芯片不够而受限。

4. 数据产业不够成熟

Nathan听说过Anthropic和OpenAI动辄花1000万美元以上买单个RL训练环境,每年累计花费数亿美元来推动前沿。他很好奇,中国实验室是不是也在从美国公司买这些环境?或者有镜像的国内供应链?答案是:有数据产业,但质量参差不齐。所以自己做更靠谱。一般来说,研究员们会亲自花大量时间搭建RL训练环境,字节和阿里这类大公司则有内部数据标注团队。

尾声

Nathan文章最后的一段话,关乎“了解”。Nathan表示,来之前就知道自己对中国了解甚少,走了一圈之后反而更强烈地感受到,自己根本不了解这块土地。

中国不是一个能用规则或公式来概括的地方,它有完全不同的动力学和化学反应。如此古老且深厚的文化,却又与当下的技术建设完全交织在一起。

在与几乎所有中国领先AI实验室交谈后,Nathan发现,中国有很多特质和直觉,是很难用西方的决策框架去建模的。他不明白,为什么这些实验室要开源自己好不容易训练出来的模型。它们不会认为自己构建的每一个模型都必须开源,但都非常有意愿支持开发者、支持生态,并且把开源当作进一步了解模型的一种方式。这些公司构建LLM,并不是因为追逐热点,想在新潮技术里刷存在感。这一切的背后,是一种Nathan没有想过的强烈深层愿望:把技术栈掌控在自己手中。

这也让Nathan在文章结尾,直言自己有些许焦虑。

坦白说,如果我说自己不希望美国实验室在AI的每一个细分领域——尤其是开源模型方向——都稳稳占据领先地位,那我就是在自欺欺人。

身为美国人,这是我坦诚的立场。

我真心期盼开源生态能在全球范围内蓬勃生长。这会让AI变得更安全、更易获取、也更具实用价值,惠及整个世界。

但眼下的关键问题是:硅谷还能守住这份领导权吗?

归根结底,这一切仍然绕不开中国开源文化这个话题。

对此,Nathan用了一句极具画面感的描述,非常适合作为收尾:

每当我从笔记本电脑前抬起头,总能看到地平线上那一簇簇起重机。

这与中国开源精神的内核,显然是一脉相承的。

Nathan报告原文: https://www.interconnects.ai/p/notes-from-inside-chinas-ai-labs

5月20日,我们将在北京金茂万丽酒店举办年度中国AIGC产业峰会。

首批嘉宾阵容现已揭晓!昆仑万维方汉、智谱吴玮杰、EverMind邓亚峰、风行在线易正朝、百度秒哒朱广翔、Fusion Fund张璐、香港大学黄超、MarsWave冯雷均已确认出席,🔍了解详情

邀请你与我们同行,不再只是空谈AI的未来,而是现在就动手用起来。👉 报名参会

一键关注 👇 点亮星标

每日追踪科技前沿动态


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/33616

(0)
上一篇 5天前
下一篇 5天前

相关推荐

  • LoVoRA:突破文本驱动视频编辑瓶颈,无需掩码实现精准对象操作

    近年来,基于扩散模型的视频生成技术取得了显著进展,大幅提升了视频编辑的真实感与可控性。然而,在文字驱动的视频对象移除与添加领域,依然存在诸多技术瓶颈亟待突破。这不仅要求模型能够精准定位目标对象,还需同时维持背景连续性、时序一致性以及语义匹配,构成了一个多维度的复杂挑战。现有主流方法在推理阶段往往依赖用户提供的掩码或参考帧来界定编辑区域,这种强依赖不仅抬高了使…

    2025年12月11日
    57500
  • 黄仁勋街头力挺OpenAI:英伟达将投史上最大融资,千亿美元合作未停滞

    闻乐 发自 凹非寺 “完全胡说八道!” 都在传英伟达和OpenAI的千亿美元世纪大单谈崩了、黄仁勋私下吐槽奥特曼无能、烧钱无度,不少人猜测这对AI圈的黄金搭档要闹掰。 结果才过不到24小时,黄仁勋就直接强势回应:No Sense! 老黄街头接受采访时不仅打破传闻,还大方表态:我非常欣赏奥特曼。 总之,他的意思是英伟达肯定要投OpenAI最新一轮融资,而且这笔…

    2026年2月1日
    45400
  • ChatGPT千亿tokens,干掉麦肯锡5000名顾问

    魔幻啊魔幻。 全球顶级咨询公司麦肯锡,居然收到了OpenAI最近给Tokens消耗大客户颁发的奖牌。 麦肯锡自己还怪自豪的,第一时间就把奖牌po到了领英上。 等等,好像哪里不对……但凡过遍脑子,都能察觉出“这份荣耀”有点不对味—— 你花百万美金买PPT的麦肯锡,竟然是ChatGPT的大客户?! 这大概也意味着,很多机构花了数百万美元购买的战略咨询PPT,其实…

    2025年10月22日
    48100
  • 世界模型:GPT-5推理能力跃迁的底层逻辑与AI智能进化的关键地图

    近期,GPT-5展现出的强大推理能力引发了广泛关注,其逻辑水平被媒体评价为“堪比专家”,用户甚至感觉“像是在和博士讨论问题”。这种能力的跃迁并非偶然,而是源于AI智能体在训练过程中悄然构建的“世界模型”。这一发现不仅揭示了通用智能体推理能力的本质,也正在重塑我们对AI智能进化的理解。 长期以来,学界围绕AI能否仅通过模仿学习解决复杂任务展开了激烈争论。“模仿…

    2025年10月31日
    36000
  • 像素级视觉革命:FG-CLIP 2如何突破多模态模型的细粒度理解瓶颈

    在人工智能的视觉生成领域,我们常常惊叹于大模型创造的绚丽图像,但当涉及具体细节和精确空间关系时,传统模型的局限性便暴露无遗。例如,当要求生成“一只穿红外套的猫,站在一辆蓝色跑车左边,蓝色跑车后面是一辆白色SUV”时,模型往往难以准确理解“后面”这一空间关系,导致生成结果与预期不符。 同样,在搜索“一辆红色的特斯拉,引擎盖上很多鸟粪”这类高度具体的图像时,传统…

    2025年11月5日
    39200