快科技2月5日消息,deepseek开源大模型的推出,可以说彻底颠覆了ai行业的发展,各大平台都在积极适配支持,比如国产gpu,除了摩尔线程、华为升腾,壁仞也第一时间加入了这一行列。
壁仞科技透露,凭借自主研发的壁砺系列gpu产品出色的兼容性能,只用数个小时,就完成对deepseek r1全系列蒸馏模型的支持,涵盖从1.5b到70b各等级参数版本,包括llama蒸馏模型和千问蒸馏模型。
壁仞科技成为少数实现国际、国内多模型同步高效适配的芯片平台之一,证明了国产芯片对复杂ai应用任务的驾驭能力。
据介绍,deepseek提供了一种高效的模型蒸馏技术,能够将大规模模型的能力迁移至更小、更高效的版本,并且通过mla、deepseek moe两大核心技术,显著降低显存占用,优化模型性能。
壁仞科技壁砺系列gpu产品在短时间内成功支持deepseek全系列蒸馏模型,说明其在ai推理任务中具备强大的兼容性和易用性。
同时,壁仞科技已联合上海智能算力、中兴通讯、科华数据、无问芯穹、开源中国(gitee ai)、ucloud、一蓦科技等战略伙伴,基于壁砺系列训推产品106m、106b、106e、110e,全面开展包括r1在内的deepseek全系列模型的适配与上线,满足不同规模参数量模型的部署需求——
轻量级模型(1.5b-8b):
适配智能终端与边缘计算设备,实现低延时实时推理。
中大规模模型(14b-32b):
服务于大规模企业级应用和高并发任务,满足数据安全与定制化需求。
大规模模型(70b):
依托云端超算集群,支撑前沿ai研究与复杂任务处理。
即日起,壁仞ai算力平台正式上线deepseek r1蒸馏模型推理服务,全球开发者可云端体验1.5b、7b、8b、14b、32b、70b全系列模型服务。
体验地址为:
https://sgc.birentech.com:1443/
该服务具备两大核心优势:
一是零部署成本,可免去硬件采购与环境搭建,实现“开箱即用”的云端推理体验。
二是多场景覆盖,针对llm等不同任务预置优化配置方案。