HBM产品被认为是人工智能(AI)计算的支柱之一,近两年行业发展迅速。在人工智能和高性能计算的影响下,HBM市场带给了存储器厂商新的希望,以推动收入的巨大增长。作为英伟达高带宽存储器合作伙伴,SK海力士目前在HBM市场的处于领导地位。
据Business Korea报道,SK海力士副总裁Chun-hwan Kim在SEMICON Korea 2024的主题演讲中表示,生成式AI市场预计将以每年35%的速度增长,而SK海力士有望在2026年大规模生产下一代HBM4。

HBM类产品前后经过了HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)、HBM3E(第五代)的开发,其中HBM3E是HBM3的扩展(Extended)版本,而HBM4将是第六代产品。HBM4堆栈将改变自2015年以来1024位接口的设计,采用2048位接口,而位宽翻倍也是是HBM内存技术推出后最大的变化。
目前单个HBM3E堆栈的数据传输速率为9.6GT/s,理论峰值带宽为1.2TB/s,而由六个堆栈组成的内存子系统的带宽则高达7.2TB/s。出于于可靠性和功耗方面的考虑,一般速度不会达到最高的理论带宽,像H200的峰值带宽为4.8TB/s。按照美光之前的说法,单个HBM3E堆栈的峰值带宽将提高到1.5TB/s。由于2048位接口需要在集成电路上进行非常复杂的布线,预计成本也会高于HBM3和HBM3E。
HBM4在堆栈的层数上也有所变化,除了首批的12层垂直堆叠,预计2027年存储器厂商还会带来16层垂直堆叠。此外,HBM还会往更为定制化的方向发展,不仅排列在SoC主芯片旁边,部分还会转向堆栈在SoC主芯片之上。