在人工智能技术飞速发展的当下,大模型竞争已进入白热化阶段,而算力基础设施的自主可控与开放创新成为行业关注的焦点。近日,华为昇腾宣布将其核心底层基础软件——CANN(Compute Architecture for Neural Networks,神经网络异构计算架构)全面开源开放,这一举措不仅标志着国产AI算力生态建设迈出关键一步,更可能从根本上改变全球计算架构的竞争格局。
CANN作为连接上层AI训练框架(如PyTorch、TensorFlow、MindSpore等)与底层昇腾AI芯片的桥梁,其开源意味着开发者首次获得了直接定义算力的能力。长期以来,AI芯片的算子开发因技术门槛高、生态封闭而被视为“黑盒”,许多开发者只能依赖厂商提供的有限接口,难以实现深度优化。CANN的开源彻底打破了这一壁垒,通过开放神经网络异构计算架构的完整技术栈,让开发者能够从模型、算子、内核到底层资源进行全链路自主优化。
从技术架构层面分析,CANN的开源开放主要体现在三个维度:生态兼容性、开发路径多样性和架构灵活性。在生态兼容方面,CANN已实现对PyTorch、TensorFlow、MindSpore、PaddlePaddle等主流AI框架的无缝对接,并开放GE图开发接口,允许开发者自定义图结构。大模型支持方面,CANN覆盖了Llama、Mistral、Phi等国际主流模型,以及Qwen、DeepSeek、GLM等国产大模型家族,总计超过50种模型,昇腾已参与10余个大模型开源社区的生态构建。

针对不同技术背景的开发需求,CANN提供了三条差异化的算子开发路径。第一条路径面向习惯GPU编程范式的开发者,通过深度对接Triton生态,实现Linalg IR与AscendNPU IR的转换,使开发者能够使用熟悉的Python语法编写高性能算子,原有Triton代码可以极低成本迁移到昇腾NPU。同时引入的TileLang编程选择,提供了比Triton更细粒度的性能控制能力,允许开发者显式管理数据分块和内存层级映射,有效应对现代AI芯片的“内存墙”挑战。

第二条路径针对追求极致性能的系统级程序员,昇腾原生提供的Ascend C编程语言采用C/C++语法风格,开放了算子底层资源管理接口。这意味着开发者可以直接调用NPU的原子级能力,精确控制每一个时钟周期的行为和片上缓存管理。无论是FlashAttention还是复杂的MoE融合算子,Ascend C都能让开发者充分发挥硬件性能潜力,实现SOTA级别的优化效果。
第三条路径则面向希望快速开发的场景,CANN推出的CATLASS算子模板库基于Ascend C构建,将复杂的矩阵乘法及其融合算子抽象为可配置模板。开发者无需重新编写复杂的切分和流水线逻辑,通过简单参数配置即可快速生成适配不同形状和精度的矩阵乘算子。在当前主流的MoE模型支持上,CANN还推出了创新的MLAPO融合算子,将原本需要多个算子完成的MoE计算融合为单个高效算子。测试数据显示,在大参数DeepSeekV3模型的量化场景下,MLAPO算子能将计算耗时从109us缩减至45us,带来整网性能提升20%。

为降低开发者上手门槛,CANN已在AtomGit平台开放多个核心仓库,包括CATLASS算子模板库、ops-math基础数学库、ops-nn神经网络库、ops-transformer大模型库、ops-cv图像处理库以及HCCL通信库等,并发布了集成主流大模型环境的官方容器镜像。目前CANN已预置超过1400个基础算子、100多个融合算子以及15个通信算法,为大模型开发提供“开箱即用”的能力。这些算子经过深度优化和实际生产验证,能够充分发挥昇腾硬件的性能潜力。

CANN能够实现如此灵活的开放策略,核心在于其架构设计上的“分层解耦”理念。传统的AI软件栈往往将工具链、运行时、驱动、编程体系、加速库等打包成整体,虽然简化了部署,但对于追求极致性能的头部模型厂商和系统工程师而言却显得笨重。CANN通过宏观架构上的功能解耦与组件独立演进,将整个技术栈拆解为多个功能正交的组件,从底层硬件驱动到中间运行时,再到上层编译器和加速库,每一层都实现物理上的松耦合。

这种分层解耦架构带来了多重优势:首先,各组件可以独立演进,加速技术创新迭代;其次,开发者可以根据需求灵活组合不同组件,避免不必要的功能冗余;最后,开放接口标准化降低了生态参与门槛,吸引更多开发者贡献代码。从产业影响角度看,CANN的开源可能引发AI算力生态的重构——当底层计算架构变得透明可控,算法创新将不再受限于硬件黑盒,模型优化可以深入到指令级粒度,最终推动AI计算效率的全面提升。
展望未来,随着CANN开源生态的不断完善,我们有望看到更多基于昇腾架构的创新型AI应用涌现。对于开发者而言,这不仅是技术工具的升级,更是思维范式的转变——从被动接受算力供给到主动定义计算架构。在AI技术民主化的浪潮中,CANN的开源开放无疑为国产算力生态建设注入了强大动力,也为全球AI基础设施的多元化发展提供了新的可能性。
— 图片补充 —



关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/9032
