今日,SK海力士20日宣布,在全球首次实现垂直堆叠12个单品DRAM芯片,成功开发出最高容量24GB的HBM3 DRAM。该产品容量较上一代HBM3 DRAM提升50%。SK海力士已向客户提供样品,正接受客户公司的性能验证。
SK海力士表示,将在上半年内完成量产准备,以“巩固AI时代尖端DRAM市场的主导权”。
【资料图】
HBM(高带宽内存,High Bandwidth Memory)是一种基于3D堆叠工艺的DRAM内存芯片,与传统的DRAM产品相比能显著提升数据处理速度。HBM DRAM产品以HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)的顺序开发。
现有HBM3 DRAM的最大容量是垂直堆叠8个单品DRAM芯片的16GB。SK海力士于2021年10月宣布成功开发出容量为16GB的HBM3 DRAM,2022年6月初即宣布量产。
时隔不到一年,更强大的24GB HBM3 DRAM已进入量产准备阶段。在AI市场夺得先机,是SK海力士如此迫切地推陈出新的主要原因。
SK海力士表示,其于2013年在世界上首次开发的HBM DRAM是实现需要高性能计算的生成式AI所必要的存储器半导体产品,大型科技公司的需求在逐渐扩大,“最近随着AI聊天机器人(AI Chatbot)产业的发展,高端存储器需求也随之增长,公司将从今年下半年起将其推向市场,以满足市场需求……据悉客户对24GB HBM3 DRAM抱有极大的期待。”
值得注意的是,英伟达为SK海力士HBM产品的大客户,英伟达已将16GB HBM3 DRAM搭配A100 GPU供ChatGPT使用,并已将SK海力士的第四代HBM安装至性能更强的H100 GPU上。SK海力士也按照英伟达的计划,在去年增加HBM3 DRAM的产量。
SK海力士之外,三星也已开发出具运算能力的HBM,不但能储存数据、还能运算数据。三星已在2022年10月向AMD供应该产品,用于AI加速器。
据韩国经济日报2月份的报道,受惠于ChatGPT,三星、SK海力士HBM接单量大增。
首尔业界此前透露,如今第三代HBM报价飞涨,已是效能最高的DRAM产品的五倍之多,其市场成长率是三星、SK海力士原本预测的两倍以上。
ChatGPT等高算力AI应用的火爆将基础设施端逐渐推向前台。搭载于新兴AI应用的内存芯片亟待升级。
以HBM为代表的超高带宽内存技术有望成为相关加速芯片的必然选择,同时生成类模型也会加速HBM内存进一步增大容量和增大带宽。
除了HBM之外,CXL(计算快速链接)等新的存储技术加上软件的优化也有将在这类应用中增加本地存储的容量和性能,估计会从生成类模型的崛起中获得更多的工业界采用。
据《科创板日报》不完全统计,A股已有澜起科技、国芯科技、通富微电等厂商有相关技术布局。
(文章来源:科创板日报)