RISC-V研发者从DeepSeek爆火中嗅到商机

作为cpu阵营中的后起之秀,risc-v(第五代精简指令集)架构一直试图在由x86和arm主导的市场中占据一席之地。deepseek的横空出世,给了risc-v研发者从ai场景实现“超车”的契机。

2025玄铁risc-v生态大会现场。图:杨柳

2月28日举行的2025玄铁risc-v生态大会上,多位阿里达摩院的专家提到,通过moe(混合专家模型)架构等的创新,deepseek显著减少了大模型部署所需的计算资源需求,使得用cpu运行这类模型成为可能,推动大模型从云侧向端侧落地。

而risc-v是一款开源且免费的cpu指令集架构,具有高度定制化的特性。达摩院首席科学家、知合计算ceo孟建熠介绍,与x86和arm等架构相比,risc-v的优势在于其开源性和开放性,更易实现软硬件协同设计,因此,risc-v能更好地适应ai时代的需求。

“玄铁”是达摩院旗下基于risc-v架构研发的处理器产品。达摩院2月初发布的消息显示,玄铁团队顺利完成 deepseek-r1系列蒸馏模型在搭载玄铁c920处理器芯片的相关适配,全程耗时约1小时。

近期也出现risc-v在端侧ai场景落地的案例。比如,中科院软件所基于玄铁c920处理器的ai pc概念机,已经跑通llama、qwen、deepseek等开源模型。

在降低部署所需计算资源的同时,deepseek这类大模型也抬升了ai推理的算力需求。

北京开源芯片研究院首席科学家包云岗指出,ai推理的算力需求呈现出两个特征:一是与cpu紧密协作。ai推理将会成为未来各种业务中不可或缺的环节,但业务主程序仍运行在cpu上——通过api调用将ai推理请求卸载到ai加速器,得到推理结果后再由cpu返回给用户;二是呈现多样化需求。不同场景产生不同的算力需求,相应的资源约束也不同。比如云端推理算力要考虑满血版大模型的高效部署,端侧应用场景则往往会部署不同容量的裁剪版。

“risc-v+ai迎来发展新契机。”包云岗说,ai加速器需要考虑与cpu的协同设计,需要根据不同需求实现高效定制。risc-v的灵活性优势若能被充分发挥,有望成为ai推理算力的最好搭档,“risc-v+ai将成为未来新组合,就像x86+windows、arm+安卓的组合那样”。

据市场分析机构omdia预测,2030年基于risc-v的ai处理器出货量将超过5亿颗。

“risc-v从发布至今只有短短的15年,它在全球芯片产业链中的地位正不断提升。”中国工程院院士倪光南在会上表示,risc-v的发展需要持续研发投入、高水平ip设计和全球化生态共建。而要真正进入数据中心和高性能计算市场,risc-v以specint 2006软件测试,必须跑出超过15分的高性能标准。

此次玄铁risc-v生态大会上,达摩院宣布玄铁最高性能处理器c930将于3月开启交付。c930的通用算力性能便达到specint 2006基准测试15/ghz——每ghz主频能跑出15分的性能,面向服务器级高性能应用场景。

阿里云无影事业部总裁张献涛预测,risc-v架构从低功耗iot终端(物联网设备)大规模应用到数据中心,大概在5至8年内就能实现。

在孟建熠看来,risc-v目前面临生态系统碎片化的现状,因此,各项标准的建设是risc-v在下一阶段发展的重中之重。

包云岗指出,risc-v开发的软硬件工具箱还不够丰富,跟x86和arm架构相比还有很大差距。此外,risc-v芯片设计、验证、解决方案、技术支持等各个层次的人才也面临短缺。为了建立行业信心,打造risc-v标杆产品案例,将是risc-v生态成长的关键。

采写:南都记者 杨柳