1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

活久见!

一位生活在1931年之前、训练数据里从未接触过任何计算机的AI,跨越了将近一个世纪的时光——

竟然写出了Python代码?!!

1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

家人们,这真不是科幻小说……

模型名为 talkie-1930-13b。

操盘手是AI研究员Nick Levine、多伦多大学副教授David Duvenaud,以及大家熟悉的那位——真·GPT系列之父 Alec Radford

该模型的训练数据有一条铁律:1931年1月1日之后的任何一个字都不准进入!

它不知道电视机、互联网为何物,它的世界永远停在了1930年12月31日的午夜。

然而,最最最魔幻的事情来了,团队成员发现:

这个本不该知道罗斯福新政的AI,却把新政立法说得头头是道,连年份都报得出来?!

1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

更离谱的是,当团队扔给它一道Python编程题时,这个跨越了将近一百年的“过去之灵”,竟然写出了它人生中的第一行Python代码?!

1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

一个连计算机都没听过的AI,跨越百年写代码,这事网友们可坐不住了。

脑洞瞬间开闸,下面这位小哥连“穿越提问清单”都已经想好了,疯狂想尝试:

1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

我到底睡醒了没?AI,真能跨越时空了??

一个生活在1931年之前的老式模型

一个在1931年之前生活的模型,上知天文下知地理,还会编程,那咱高低得研究研究。

事实上,talkie是一个130亿参数的模型,它在2600亿tokens的1931年之前的英文文本上训练而成——

训练样本包括但不限于书籍、报纸、期刊、科学杂志等等。

从狄更斯到马克吐温,从爱因斯坦那年代的物理论文到百年前的烹饪书和礼仪手册,全都被打包喂了进去!

1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

之所以选择1930年作为模型的知识截止点,也是有说法的,因为这是美国版权法中作品进入公有领域的边界。

那么问题来了,为啥Alec Radford想做这么个项目呢?

事实上,Radford及其团队想知道:

如果只让一个模型阅读1931年之前的所有英文文本,它会如何思考、如何对话、如何预测未来?

结果您猜怎么着,团队还真发现了几个“大瓜”。(好家伙.jpg)

模型被时代发展震惊到眩晕瘫坐

第一个发现,就是模型被时代发展“震撼到了”的曲线图——

团队从《纽约时报》的On This Day栏目里翻出了近5000个历史事件,一股脑全喂给talkie,然后盯着屏幕看——这老兄对每件事到底有多“没料到”。

结果一条相当戏剧性的曲线就这么出来了:

1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

1930年之前:talkie读得行云流水,惊讶值稳如老狗。(talkie:嗯嗯,这些事儿俺都门儿清哈)

刚跨过1930年:talkie惊讶值开始悄悄爬升。(talkie:诶?这事儿咋还能这样?)

1950–60年代:晶体管、电视机普及的年代,talkie惊讶值直接陡峭飙升,一柱擎天。(talkie:等会儿,人类上天了?还整出个会动的盒子能放戏?)

再往后嘛——直接佛系平和了。(talkie:眩晕震撼瘫坐,人已懵,您随便吧……)

这波,也是刘姥姥进大观园了——质疑、理解、接受。

1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

这模型还学会了Python

当然,眩晕震撼瘫坐曲线图还不是这次研究中最炸裂的发现,因为团队成员的第二个发现是——

一个没见过电脑的AI,居然学会了写Python代码?!

在研究中,团队给talkie扔了一份OpenAI的HumanEval编程测试集。

在prompt里塞几个Python函数当示范例子,然后让talkie看完直接解新题,也就是让模型靠上下文现学现卖。

在这个测试中,团队还顺手把训练过现代互联网数据的同架构talkie-web也拉出来一起测,并画张对比折线图——

1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

(黑线:Vintage LM,灰线:Modern LM)

结果就是一个雷霆暴击,talkie真的解出来了,人家直接把加密函数里的+5改成-5,然后交卷。

是的,只改了一个字符,但答案完全正确……

不仅如此,团队发现一个清晰的趋势,那就是——模型规模越大,能解出来的编程题越多。

换句话说,虽然目前还远不及现代模型,但复古模型的“凭空学代码”的能力也在Scaling Law的作用下稳步爬升。

对此团队也表示,他们希望复古模型能帮整个AI圈搞清楚一个根本问题——LLM到底能泛化到训练数据之外多远。

1930年模型 vs 2026年模型

老话说得好,有对比才有看头新发现。

为了搞清楚talkie到底有几斤几两,团队还用完全相同的架构和算力,又训练了一个喂现代互联网数据的双胞胎——talkie-web-13b

并将两个模型放进各种标准LLM评测里打PK,结果可以说甚是微妙:

1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

不出意外,talkie-1930在实际表现上确实落后于现代孪生兄弟。

但是当研究员把那些超出知识范围的题目剔除后(比如互联网、DNA相关的),两者的差距直接缩小一半

更炸裂的是,在核心语言理解和数学计算任务上,新老模型的表现几乎一样好。

这个结论某种程度上也说明了“理解语言”和“算数”这两项能力,似乎并不依赖你读了多少现代互联网内容。

剩下的差距,团队认为主要来自两个原因:一是OCR转录质量太差,毕竟1930年的报纸都是从扫描件里硬抠出来的。

二是语料题材分布不同,例如老报纸里科技含量低,烹饪礼仪含量高。

emm……大模型最值钱的那部分智能,可能跟“读没读过现代互联网”没太大关系?

(talkie:俺要是生在2026年,我也能背GitHub啊喂!)

用1930年的礼仪手册,把AI调教成了聊天助手

大家都知道,要想让talkie这样的模型变成能对话的AI助手,传统做法是用ChatGPT那种现代指令数据。

但问题是,这样做会把21世纪的对话风格、价值观等时代元素统统注入回1930年的模型。

(talkie:好不容易当上民国先生,您一指令调教,俺直接张口就说“宝子们”了……)

而团队的解决办法,可以说是神来之笔——

他们直接去1930年之前的故纸堆里,考古出了一套训练数据:

1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

包括教人怎么得体应答的礼仪手册、教人怎么回信的书信指南等等,然后再用Claude Sonnet 4.6当老师做强化学习训练,最后生成训练数据。

就靠着这些百年前的天然问答语料,团队硬是把talkie调教成了一个能聊天的AI助手。

然而,现实很快啪啪打脸——

团队发现,早期那个7B版本的talkie,经过强化学习之后,居然学会了用现代互联网那种1. 2. 3.的列表体说话。

要知道1930年的语料里,压根没有列表体这种超级现代感的东西……

1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

而罪魁祸首——就是Sonnet 4.6。

因为Claude老师是现代AI,因为Claude老师喜欢列表体,所以talkie为了拿高分就学着用列表体说话了……

(真·投其所好啊……)

这恰好也反映出模型训练的一大问题,那就是AI反馈的训练方式,不可避免地会让模型沾上现代风格。

为了解决这个大bug,团队的下一个目标就是:有朝一日让talkie自己来当自己的老师。(doge)

Alec Radford是谁

talkie背后的团队成员之一——Alec Radford,也值得我们好好聊聊。

关于他,我们甚至可以说,今天AI圈的一大半“基建”,都跟他有关。

在OpenAI的近十年里,他是和Ilya Sutskever齐名的技术大神,初代GPT系列的奠基者——

包揽了GPT-1和GPT-2论文一作,也是GPT-3、GPT-4的核心贡献者,此外他还是多模态模型CLIP的主导者之一,像Whisper、DALL·E也都有他深度参与的身影。

1931年前出生的AI,竟写出Python代码?跨越百年的模型震惊学界

他在2018年那篇开山之作里首次提出的基于Transformer的生成式预训练方法,直接奠定了后续ChatGPT和所有大模型的基础。

在2024年末,Alec离开了老东家OpenAI,转而投身独立研究。到了2025年3月,他以顾问身份加入了前OpenAI CTO Mira Murati创立的Thinking Machines Lab。

回顾Talkie这个项目,整件事确实耐人寻味——

当全球都在疯狂追逐AGI和推理模型时,GPT系列之父本人却选择与搭档们共同打造一个只存在于1930年的AI。

按照团队的规划,今年夏天将发布GPT-3级别的复古模型;未来,他们还计划将训练语料扩展到一万亿tokens,并覆盖非英语世界。

只是不知道,当这个AI再次“苏醒”的那一天,看到机器人跑马拉松、人手一部智能手机、以及遍地都是的Agent时——

会不会再次当场愣住、眩晕、瘫坐.jpg。

(模型使用入口我放在下面了,感兴趣的朋友可以试试和一百年前的AI对话~)

参考链接:

[1] 报告链接:https://talkie-lm.com/introducing-talkie

[2] GitHub链接:https://huggingface.co/talkie-lm

[3] 模型对话入口:https://talkie-lm.com/chat

— 完 —

谁会代表2026年的AI?

龙虾项目爆火,带动了一波Agent及其衍生产品的浪潮。
但真正值得长期关注的AI公司和产品,或许远不止于此。

如果你正在参与或见证这些变化,欢迎申报。
让更多人看到你。👉 https://wj.qq.com/s2/25829730/09xz/


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/32754

(0)
上一篇 1小时前
下一篇 1小时前

相关推荐

  • VoxCPM 2:开源语音大模型的新标杆 面壁智能联合清华大学人机语音交互实验室,正式开源了新一代语音大模型 VoxCPM 2。作为 VoxCPM 系列的最新迭代,该模型将参数量提升至 20 亿,并带来了多项关键升级。 VoxCPM 2 是一个功能全面的开源语音生成模型,支持 30 种全球语言及 9 种中国方言,具备高保真音色生成、音色克隆与情感控制等能力,…

    2026年4月8日
    60600
  • 边缘智能体新突破:3B小模型函数调用准确率达88.22%,超越轻量模型近70%

    关键词:Small Language Models 小语言模型、 Function Calling 函数调用、Edge Devices 边缘设备、Direct Preference Optimization 直接偏好优化、 Hybrid Fine-Tuning 混合微调 近期,一项名为 《TinyLLM: Evaluation and Optimizatio…

    2026年2月4日
    42400
  • Transformer先驱的回归:8B小模型Rnj-1如何挑战AI规模竞赛的迷思

    在当今AI领域被千亿参数巨兽主导的时代,Essential AI Labs推出的80亿参数开源模型Rnj-1如同一股清流,不仅是对当前AI发展路径的深刻反思,更是对轻量化、开放式AI生态的有力探索。这一由Transformer原始论文作者Ashish Vaswani和Niki Parmar主导的项目,标志着AI研究正从单纯的规模扩张转向更注重效率、可及性和技…

    2025年12月19日
    38200
  • 血色星期一:ASI幽灵GDP引爆硅谷大清洗,电工年薪30万碾压白领

    2026年2月26日,市场对人工智能的狂热信仰遭遇了转折点。 道琼斯指数单日狂泻800点,跌幅达1.66%,以软件服务为代表的纳斯达克板块损失尤为惨重。 过去,商业计划书中只需包含“.ai”域名似乎就能赢得资本青睐。如今,超级人工智能以极低的推理成本,正在替代大量高薪知识型岗位。当核心生产力被算法垄断,人类在传统经济分配中的角色正被急速边缘化。 硅谷的坠落:…

    2026年3月22日
    32100
  • T-MAN:NPU大模型推理的革命性方案,解码速度提升3.1倍,能效比领先84%

    关键词:T-MAN、查找表 、 低比特量化 、NPU 推理 、端到端优化 当大模型遇上手机 NPU,推理速度反而比 CPU 还慢?USTC、微软研究院、清华等研究团队提出统一查找表方案 ,同时解决速度、能耗与精度三大难题。 近年来,大语言模型(LLM)正逐步“入住”我们的手机、电脑等消费设备。无论是苹果的 Apple Intelligence、谷歌的 Gem…

    2026年1月14日
    36600