中科曙光推出分布式全闪存储ParaStor,以XDS技术助力AI大模型训练提速

ai大模型发展高歌猛进,从文本生成的chatgpt,到文生视频的sora,多模态交互持续迭代。在大模型的演进、落地过程中,数据存储系统面临性能挑战、稳定运行和成本压力等难题。

中科曙光存储推出parastor分布式全闪存储,携业内首创技术xds,以训练加速、稳定性强、性价比高的独特价值,全维度涵盖网络、计算和平台,为千行百业的ai大模型开发者提供存储解决方案。

全闪存储xds 模型训练提速数倍

在ai大模型的训练和推理场景下,中科曙光parastor分布式全闪存储,以xds技术嵌入parabuffer加速引擎,支持ai芯片高速数据直接存取机制,将系统的整体i/o性能提高数倍,通过优化存算协同,将训练时间从几十天降低到几天。

全栈自研 稳定安全更具性价比

基于全栈自研的产品能力,中科曙光存储打造四级安全体系(部件-节点-系统-方案),减少频繁参数调优、服务器/网络故障等原因导致的中断影响,保障ai大模型及相关应用开发过程中,数据全生命周期内存储系统的安全稳定运行。

基于分布式全闪存储的无限扩展能力,中科曙光parastor分布式全闪存储的整体拥有成本更具性价比,在科教、金融、自动驾驶等行业的ai应用开发中,中科曙光parastor分布式全闪存储的优势得到充分验证。以苏州实验室为例,作为国家级实验室,搭建大规模科学数据平台,引入parastor分布式全闪存储,以极致性能的先进存力,保障实验室通过大模型等方式推进ai for science。

来源:十堰晚报