近日,人类科技史迎来里程碑式突破——首次在太空轨道上成功训练并运行人工智能大模型。这一壮举由英伟达、SpaceX、谷歌等科技巨头与前OpenAI联合创始人安德烈·卡帕西(Andrej Karpathy)的NanoGPT项目共同实现,标志着AI技术正式迈入“太空时代”。

这场太空AI实验的核心载体是Starcloud公司通过SpaceX火箭发射的Starcloud-1卫星。该卫星搭载了英伟达旗舰级H100计算芯片,在距地球数百公里的轨道上,首次完成了大语言模型的在轨训练与推理任务。实验首先运行了谷歌开源模型Gemma的太空版本,当系统启动后,Gemma向地球发出了颇具哲学意味的问候:“你们好,地球人!或者,我更愿意称呼你们为——一群由蓝色和绿色构成的迷人的存在。”这段对话不仅验证了太空环境下AI系统的正常运行,更象征着人机交互场景从地球表面扩展至宇宙空间。

更具突破性的是,研究团队在H100芯片上直接使用莎士比亚全集训练了卡帕西开发的轻量级大语言模型NanoGPT。这是人类历史上首次在微重力、高辐射的太空环境中完成大模型训练全流程。传统地面训练需依赖稳定电力供应与复杂散热系统,而太空环境提供了全新的物理条件:近乎无限的太阳能供给、接近绝对零度的宇宙背景温度(可用于被动散热),以及脱离地表基础设施约束的自由度。NanoGPT的成功训练证明,大模型对训练环境的地球依赖性正在被打破。

Starcloud公司的野心远不止单次实验。其CEO菲利普·约翰斯顿(Philip Johnston)透露,公司计划建造基于太阳能面板的5GW轨道数据中心,预计造价与运营成本将显著低于地面同类设施。该公司已宣布将在2026年10月的下一次发射任务中携带更多H100芯片,并引入英伟达新一代Blackwell计算平台。约翰斯顿强调:“在地面数据中心能做的任何事情,我都期待能在太空中完成。我们之所以这样做,纯粹是因为在地面上面临的能源限制。”

这场“算力上天”运动的背后,是全球AI产业面临的结构性危机。随着大模型参数规模呈指数级增长(从千亿到万亿乃至十万亿级),地面数据中心正遭遇三重瓶颈:一是电力消耗激增,部分大型AI训练任务单次电费可达数百万美元,占训练总成本30%以上;二是土地资源紧张,超大规模数据中心需占用数万平方米用地;三是散热难题,高性能芯片集群产生的热密度已超越传统风冷/液冷技术的极限。地球的物理条件正在成为AI算力增长的硬约束。

相比之下,太空轨道提供了颠覆性解决方案。在近地轨道(LEO)环境中,太阳能电池板可近乎24小时接收光照(仅在地球阴影区短暂中断),能量密度较地面光伏高30%以上;宇宙背景温度约3K(-270°C)为芯片散热提供了天然“冷源”;轨道空间不存在土地所有权问题,数据中心可模块化扩展。初步测算显示,同等算力规模的轨道数据中心全生命周期成本可比地面降低40%-60%,且具备碳排放优势。

全球科技企业已展开太空算力竞速。在英伟达H100上天后,谷歌CEO桑达尔·皮查伊(Sundar Pichai)宣布计划将自研TPU芯片发射至轨道,首批两颗卫星预计2027年初启程。中国科技力量同样深度布局:自2019年起,中科院计算所、武汉大学等机构已开展太空智能计算关键技术研究;2024年中科天算团队实现大模型在轨上注与部署,构建“太空智能链”;今年5月,国星宇航与之江实验室联合发射全球首个太空计算星座“三体计算星座”(首批12颗卫星),9月实现常态化商业运行;11月,中科天算发布“天算计划”,提出在近地轨道建设算力达10 EOPS(每秒百亿亿次运算)的万卡超级智能体集群,并公布了抗辐射封装、相变散热等工程方案。
从技术演进视角看,太空AI发展将经历三个阶段:当前处于“验证期”(2024-2026),主要验证基础硬件可靠性、通信延迟容忍度与辐射防护能力;中期进入“扩展期”(2027-2030),轨道数据中心开始承载实际AI训练任务,与地面算力形成混合架构;远期迈向“自治期”(2030年后),基于太空算力的自主智能体可执行深空探测、卫星集群协同等任务。这场革命不仅将重构全球算力地理分布,更可能催生“轨道经济”新业态——太空数据中心运营、在轨模型训练服务、星地协同推理平台等新兴市场正在孕育。
当网友调侃“以后外星人想研究地球就不用亲自来一趟了”时,人类实际上正在构建一个超越行星尺度的智能基础设施。太空AI的崛起,既是应对地球资源约束的必然选择,也是文明向星际扩展的技术前奏。随着更多芯片升空、更大模型在轨训练,一个连接地球与近地轨道的分布式超级智能网络正在加速形成——这不仅是算力的空间转移,更是智能进化轨迹的根本性跃迁。
关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/5126
