5月23日,“鲲鹏升腾开发者大会2025”上,华为升腾计算业务总裁张迪煊围绕“一起升腾 共绽光芒”解读了升腾ai的技术战略与生态布局。他表示,升腾异构计算架构cann(compute architecture for neural networks)作为升腾ai的核心软件平台,始终以“使能每一位创新者”为目标,坚持深度开放策略,持续技术创新,释放硬件极致潜能,推动ai开发效率与性能的双重突破。本次大会带来了多项重磅技术升级,并通过构建全面开放的创新生态与极致效能的算力底座,携手全球开发者加速ai技术向千行万业渗透,以智能算力革命重塑产业创新范式。
生态构建开发者赋能:从人才培养到生态共建 激活产业创新活力
升腾cann以"使能每一位创新者"为核心理念,自2023年宣布深度开放以来,通过多维协同创新构建开发者友好型ai生态,当前由6000+认证开发者组成的创新社区持续释放技术势能。截至目前,已携手互联网、运营商、金融等30多个伙伴,创新开发260多个高性能算子,大幅提升业务场景性能表现。
cann在技术创新之路上成果丰硕。在操作系统层面,打造多样化os,兼容鸿蒙、欧拉等,为开发运行筑牢根基。cann开源算子加速库、通信算法、ascend c、集合通信库等组件已在gitee社区上线260+算子、10+通信算法参考样例,显著提升开发效率。整图优化方面,提供内存复用、自动调度等加速技术,加速模型计算效率。
这种"基础层开放+应用层共创"的双轮驱动模式,不仅重塑了ai算力效能边界,更推动了ai产业链的协同进化,形成从技术突破到商业转化的生态闭环。
深度开放再升级:分层架构匹配多元开发场景 开发效率显著提升
在ai开发效率成为产业竞争焦点的当下,升腾cann通过分层开放架构实现技术普惠化跃迁,构建起覆盖算子开发、系统调优到编译链优化的全场景赋能体系,实现“效率与性能兼得”的开发体验升级:
最佳实践赋能,降低开发门槛:发布catlass算子模板库,分层提供device层调用接口、kernel层完整实现及block/tile/basic层拆解源码,实现matmul开发周期缩至50%;开源ascend c 2.0并提供丰富开发接口,结合算子加速库(aol)与集合通信库(hccl),搭配gitee社区参考样例,助力开发者快速完成算子开发与调优。
开放底层原子能力,释放极致性能:开放190+runtime运行时接口,提供底层原子级能力,支持灵活组合,允许开发者直接调用npu硬件的原子级能力,实现整图调度优化与硬件性能极限挖掘。
毕升编译器构建开放生态,兼容主流开发体系:毕升编译器以“全链路优化+生态兼容”为核心,打造开发者友好型工具链。在编译优化层面,前端支持异构混合编程,中端优化使算子性能提升20%+,后端实现内存问题分钟级定位;在生态开放层面,开放ascendnpu ir接口,实现开发者“无感迁移”开发体验,同时通过开源社区持续输出技术能力,推动升腾与全球ai开发生态的深度融合。在生态建设上,通过毕升编译器的升级与开放,实现与triton、flagtree等第三方编程框架的无感对接。
升腾cann核心技术引领:计算-内存-通信"三驾马车"重构ai算力基因
伴随ai技术持续突破,模型优化技术从“模型结构创新”延伸到“训推全流程”算法创新,从模型层面算法优化,下探到底层硬件资源的极致利用。cann是充分释放处理器极致性能的关键,今年升腾在计算加速、通信加速、内存优化三大领域协同发力,持续释放硬件价值,创新加速技术,以满足前沿模型架构及工程创新的发展诉求。
在计算优化领域,通过mlapo融合算子技术,将moe模型中13个串行小算子整合为超级大算子,结合vector与cube计算单元并行处理,使计算耗时从109ms降至45ms,性能提升超142%,显著释放硬件计算潜力。
通信效率突破上,npudirect通信算法革新传统rdma异步通信模式,实现“单消息一次同步”机制,使小包通信耗时降低90%,整网通信时延减少50%,在大规模moe模型推理中大幅提升数据传输效率。
内存管理方面,创新多重地址映射技术,动态切分物理内存适配虚拟地址,有效拼接不连续空闲内存,将内存利用率提升20%以上,破解动态shape场景下的碎片难题。
三大技术协同突破,构建起升腾cann“计算高效、通信敏捷、内存精细”的底层技术体系,为ai模型训推全流程提供极致算力支撑,引领ai基础设施性能跃迁。
从分层开放的生态裂变到计算-内存-通信的原子级突破,升腾cann正以"技术纵深的突破与生态广度的延展"双轮驱动,重塑ai产业的创新范式。这不仅是一场硬件算力的革命,更是一场开发者与技术的共进化。在这场波澜壮阔的算力跃升征途中,升腾cann不仅是中国ai创新的技术底座,更是全球开发者突破想象边界的星辰大海——以开放之姿,与时代共升腾;以极致之力,与未来共绽放。