
近日,由谷歌前CEO埃里克·施密特通过施密特科学基金会资助的「AI2050」奖学金公布了第四届入选名单,28位学者获得总额超过1800万美元的资助,持续推动人工智能向普惠、安全的方向发展。这一项目不仅为顶尖研究者提供资金支持,更构建了一个全球性的学术合作网络,旨在应对AI发展中的核心挑战。

本次奖学金聚焦三大研究方向:构建AI科学家系统、设计更安全可信的AI模型、提升AI在生物医学研究中的应用能力。这三大方向精准对应了当前AI发展的关键瓶颈——从基础科学发现到伦理安全,再到实际应用落地。值得注意的是,项目分为高级研究员(7位)和早期职业研究员(21位)两类,高级研究员基于封闭提名选拔,早期研究员则面向博士后和预聘研究人员开放申请。这种分层资助模式既尊重了成熟学者的贡献,也为新生代研究者提供了成长空间。
自2022年启动以来,AI2050已在全球8个国家、42所机构资助了99位研究员,形成了跨学科、跨地域的研究生态。项目还设立了专项计算基金,帮助研究者突破硬件限制,加速科研进程。年度学术交流活动则促进了成果分享与合作网络拓展,这种“资金+资源+社区”的多维支持体系,正是其区别于普通科研资助项目的核心优势。

在7位高级研究员中,多伦多大学的Alán Aspuru-Guzik教授致力于打造「AI化学家」(AIchemist)系统。

他的研究将大语言模型与智能体技术结合,构建名为「El Agente」的自主探索系统,旨在加速新型化合物的发现,应对气候变化和流行病等全球性挑战。

这种专业AI科学家的构想,代表了AI从通用工具向领域专家演进的重要趋势。
斯坦福大学的Surya Ganguli教授则专注于可解释AI的理论基础。

他的研究横跨AI、物理与神经科学,试图从机制层面解释扩散模型和大语言模型中的“创造力”与“推理能力”。

通过构建分析理论体系,他的项目旨在揭示通用智能的核心原理,推动构建更可信、更贴近人类价值的AI系统。
西蒙斯基金会的Shirley Ho教授将目光投向科学通用人工智能(scientific AGI)。

她计划开发新方法,深入理解各类科学AI模型的工作机制,探索它们的融合路径,并与语言AI整合。

这一研究有望催生首批真正“理解世界”的AI系统,为实现具备科学认知能力的通用人工智能迈出关键一步。
多伦多大学的Sheila McIlraith教授关注AI的社会认知能力。

她的项目致力于赋予AI“有目的的心智理论”能力,

使AI不仅能识别自己与他人的心理状态,还能主动思考决策如何影响他人福祉,

从而构建更具社会意识、道德感知力和合作倾向的AI系统。这一研究方向直指AI与人类社会的深度融合问题。
从整体来看,AI2050奖学金项目体现了几个重要趋势:首先,AI研究正从单一技术突破转向系统化、跨学科整合;其次,安全、可信、可解释成为与性能同等重要的评价维度;最后,AI与基础科学(如化学、物理学、生物学)的深度结合正在催生新的科研范式。这些趋势共同指向一个未来:AI不仅是工具,更是科学发现和社会进步的协同创造者。
然而,挑战依然存在。如何确保这些前沿研究真正实现“普惠”?如何在不同文化背景下定义“向善”?如何平衡开放合作与知识产权保护?这些问题需要学术界、产业界和政策制定者的持续对话。AI2050奖学金的价值不仅在于资金支持,更在于它提供了一个全球性的实验场,让这些根本性问题得以在具体研究中被探索和回答。
展望未来,随着更多研究成果的涌现,AI2050有望在AI科学家系统、可信AI模型和生物医学应用等领域形成突破性进展。这些进展不仅将推动技术进步,更将深刻影响AI治理、伦理标准和社会接受度。在这个意义上,1800万美元的资助只是开始,其真正的价值将在未来十年甚至更长时间里逐渐显现。
— 图片补充 —



















关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/12244
