智谱财报亮眼:逆势涨价83%却实现营收7.24亿,打破AI行业“增收不增利”魔咒(上)
刚刚,智谱AI在上市83天后,发布了其首份年度财务报告。
最引人注目的数据无疑是其营收表现:全年收入达到7.24亿元,同比增长132%,成为国内收入规模最大的大模型公司。

当整个大模型行业深陷价格战泥潭、依靠“烧钱”换取规模增长时,刚刚上市的智谱AI用这份成绩单,走出了一条截然不同的道路。
财报中的几组关键数据尤为突出:
* MaaS(模型即服务)API平台的年度经常性收入(ARR)约达17亿元,过去12个月提升了60倍。
* 在逆势将API价格平均上调83%后,其Token调用量不降反升。
* 公司全年综合毛利率达到41%,其中MaaS业务的毛利率大幅提升,打破了AI行业长期“增收不增利”的困境。
这些数字几乎都在挑战行业的固有认知。曾被称作“中国版OpenAI”的智谱,如今在商业模式上正展现出与另一家明星公司Anthropic相似的路径。这份财报似乎证明,大模型商业竞争的终局,或许并非比拼谁更便宜,而在于谁能创造更高的价值。
智谱CEO张鹏在财报电话会议中阐述了公司的核心逻辑:
智谱自创立起,就将“提升机器智能上界”作为核心目标。我们认识到,让智能普惠的载体是Token。每个人、每个组织都可以通过调用Token来创造价值。因此,AGI时代的商业价值可以归结为一个公式:智能上界 × Token消耗规模。智能上界决定了定价权,Token消耗规模决定了价值体量。
中国大模型公司的另一种可能:智谱的路径
要理解智谱财报的意义,需先看清当前国内大模型行业的普遍困境。
自2024年年中以来,价格战已成为行业主旋律。“1分钱百万Token”、“永久免费”等策略成为流量密码,玩家们陷入“越降价、越亏损、越无力投入研发”的恶性循环。
行业调研数据显示,2024年国内大模型行业平均毛利率为-80%,2025年仍为-30%,绝大多数公司仍处于依靠融资维持规模增长的阶段。降价带来了调用量的虚假繁荣,却难以形成健康的商业闭环——低价策略往往只能留住对价格敏感、但价值贡献度低的客户,同时侵蚀了公司用于技术迭代的利润空间。
逆势涨价:以价值对抗价格战
当全行业竞相降价时,智谱在2026年3月做出了一个令人意外的决定:对新一代主力模型GLM-5-Turbo的API进行涨价,平均涨幅达83%。 这一度被外界视为“冒险之举”。
然而结果出乎意料:涨价后,智谱的Token调用量持续攀升。GLM-5发布24小时内,便获得了字节跳动、阿里巴巴、腾讯、美团、百度等头部互联网公司的官方接入。中国前十大互联网公司中,有9家已成为其付费客户。
这揭示了一个简单的商业逻辑:对于有严肃生产需求的企业客户而言,模型的稳定性、可靠性和实际效果远比单价重要。一个能切实降本增效、减少生产事故的模型,即使价格更高,其综合价值也远胜于廉价但不可靠的替代品。

智谱通过这次涨价验证了其核心判断:模型的智能高度(上界)决定了其定价权,而Token的消耗规模则决定了商业价值的体量。 当模型能力足够解决客户的核心痛点时,便无需被动卷入无休止的价格战。
MaaS飞轮:标准化API成为增长引擎
外界对智谱的认知可能仍停留在“为企业提供定制化大模型服务”的阶段,但这份财报显示,标准化的MaaS API收入已成为其绝对核心的增长引擎,商业飞轮已然启动。
MaaS(Model as a Service)模式,即通过标准化的API接口向开发者和企业提供模型能力,用户按调用量付费。这正是Anthropic成功验证的路径——其80%以上收入来自API调用,2025年营收达45亿美元,毛利率大幅转正至40%。
智谱正走在相似的路径上:以模型技术为核心壁垒,以Token为产品形态,以开发者和企业客户的深度使用为增长动力。其增长不再依赖一次性项目,而是源于模型能力在生产环境中的持续、规模化调用。
财报数据印证了这一飞轮的运转:
* MaaS API平台ARR在过去12个月提升60倍,达约17亿元。
* 平台已服务超400万企业用户及开发者,覆盖全球超218个国家和地区。
* 智谱已成为国内付费Token消耗量最高的厂商之一,在代码生成等场景基本盘稳固的同时,新应用场景也在拓展Token消耗规模。
这一模式形成了正向循环:模型效果吸引高价值客户 → 深度调用带来收入和利润 → 利润反哺研发以提升模型效果。
技术驱动盈利:规模效应显现
MaaS模式具有显著的规模效应。模型一次研发优化,即可服务海量客户。随着调用量攀升,单Token成本被摊薄,毛利率得以提升。
智谱毛利率的显著改善即源于此,其驱动力主要来自三方面:
1. 技术优化:通过架构创新与工程优化,将推理成本降至行业低位。
2. 客户结构:高价值头部客户占比提升,其留存率与调用深度更高。
3. 价格筛选:涨价策略自然筛选出支付意愿强、更看重效果的高价值客户。
基于当前MaaS业务的强劲增长势头,智谱的这一商业飞轮正在持续加速。
技术底气:从清华实验室到全球竞争
智谱敢于逆势涨价并跑通MaaS模式的根本底气,源于其长期积累的技术实力。
其技术基因可追溯至清华大学。公司创立之初便未盲目跟随主流架构,而是坚持原创,打造了GLM(通用语言模型)融合架构,兼具理解与生成能力,为后续发展奠定基础。
2022年,智谱开源的GLM-130B模型成为亚洲唯一入选斯坦福主流评测的大模型,并通过量化技术实现消费级显卡部署,奠定了其在开源生态中的地位。此后,公司坚持全链路核心技术自研,实现了对国产芯片的全栈适配,从底层确保了技术安全与成本优化。
在大模型行业,一个颠扑不破的真理是:商业化的天花板,始终由模型能力的上限所决定。
智谱AI能够在国内大模型市场取得收入领先的地位,其核心驱动力在于GLM系列模型的能力已稳居全球第一梯队。
过去一年间,智谱AI完成了从GLM-4.5到GLM-4.6、GLM-4.7,再到GLM-5、GLM-5-Turbo的快速迭代,保持着1-2个月一次基座升级的行业顶级节奏。

更为关键的是,智谱实现了模型从知识导向到任务导向的根本性转型,使GLM成为一个能够独立处理复杂任务的智能体。这一转型的核心突破在于其AI编程(AI Coding)能力。
对于大模型而言,编程能力是所有复杂任务能力的基础。能够生成高质量的代码,意味着模型具备了强大的逻辑推理、任务规划与工具调用能力,能够将复杂需求拆解为可执行的步骤,并交付可落地的结果。同时,编程场景也是当前大模型商业化最成熟、付费意愿最强的领域之一。
智谱精准地把握住了这一核心市场。其于2026年2月发布的GLM-5模型,实现了从“氛围编程”(Vibe Coding)到“智能体工程”(Agentic Engineering)的跨越式升级。在全球权威的编程基准测试中,GLM-5在SWE-bench-Verified上获得77.8分,在Terminal Bench 2.0上获得56.2分,稳居开源模型榜首,其实际使用体验已逼近Anthropic的旗舰模型Claude Opus 4.5。在权威的Artificial Analysis综合榜单中,GLM-5位列全球第四、开源第一,仅次于GPT、Claude和Gemini,稳固进入了全球AI第一梯队。

更值得期待的是,智谱即将发布GLM-5.1模型。
提出“Token架构力”(TAC)新范式
此次财报不仅是智谱上市后的首份成绩单,更标志着公司的一次全面战略重构。它促使行业重新思考大模型的核心价值衡量标准。
过去几年,大模型行业一度陷入比拼参数规模、测试分数和低价的误区,却较少深入探究大模型创造真实经济价值的本质。基于此,智谱在财报中首次提出了 “Token架构力”(Token Architect Capability,简称 TAC)的概念,构建了一个可量化的AI价值三维评估框架:
TAC = 调用智能的量 × 智能的质量 × 转化为经济价值的效率
- 量:指企业与个人每日愿意交付给AI处理的Token数量与任务规模。
- 质:指这些Token是否源自足够聪明、可靠的模型,能否在复杂任务上稳定交付优质结果。
- 效率:指AI处理的任务能否切实转化为可衡量的经济产出,实现真正的降本增效。
智谱认为,未来组织与个人的核心竞争力,将日益取决于其TAC水平。公司的目标并非仅是“售卖Token”的模型厂商,而是致力于成为提升全社会TAC能力的基础设施,为企业和开发者提供将智能转化为可交付经济成果的能力底座。
这一概念的提出,标志着中国大模型行业正式从参数竞赛、跑分内卷与价格战的泥潭中走出,迈入了 “智能架构竞争” 的新阶段。未来的评估标准,将从融资额和参数大小,转向能为客户提升多少TAC、创造多少实际经济价值。
智谱的这份财报,正是这一新时代的最佳注解。当行业普遍依赖烧钱换规模、低价换流量时,智谱已走通了“技术突破→效果领先→掌握定价权→实现规模化收入与利润→再投入研发”的健康商业闭环。它证明了大模型是一门能够真正创造价值并实现盈利的生意,也为中国大模型厂商探索出了一条与全球顶级玩家同台竞技的独特路径。
中国大模型行业的下半场,正从价格战的喧嚣,回归技术与商业本质的正途。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/28111


