HBM(High Bandwidth Memory,高带宽内存)是当前算力卡性能的关键限制因素。由于其采用了TSV(Through-Silicon Via,硅通孔)和微凸块等技术,HBM在DRAM裸片和计算核心之间实现了较短的信号传输路径、较高的I/O数据速率、高位宽和较低的I/O电压,因此具备高带宽、高存储密度、低功耗等优势。尽管如此,当前HBM的性能仍然跟不上算力卡的需求。

海力士、三星和美光等主要厂商正在加大研发投入和资本开支,大力扩产并快速迭代HBM。预计到2024年,HBM3e的24GB/36GB版本将量产或发布,内存性能将进一步提高。HBM的层数、容量、带宽指标不断升级,目前最先进的HBM3e版本理论上可实现16层堆叠、64GB容量和1.2TB/s的带宽,分别为初代HBM的2倍、9.6倍和4倍。

HBM的制造工艺包括TSV+Micro bumping+TCB(晶圆级芯片绑定)等。例如,三星采用TC-NCF工艺,而海力士则采用改进的MR-MUF工艺,在键合应力、散热性能、堆叠层数方面更具优势。随着HBM堆叠层数的增加,以及HBM对速率、散热等性能要求的提升,HBM4可能引入混合键合工艺,相应的TSV、GMC/LMC的要求也将提高。

AI服务器的需求增长正在刺激服务器存储容量的扩充,HBM的需求因此变得强劲。例如,NVIDIA A100/H100 80GB配置的服务器HBM用量约为640GB,远超常规服务器的内存条容量。预计随着算力卡单卡HBM容量提升、算力卡出货量提升、技术迭代带来单GB HBM单价提升,2023年HBM市场规模为40亿美元,预计2024年增长至148亿美元,2026年增长至242亿美元,2023至2026年的复合年增长率为82%。

目前,HBM供应链主要以海外厂商为主,但部分国内厂商也开始进入海外存储/HBM供应链。国产HBM正处于从0到1的突破期,国内厂商在DRAM制程和先进封装技术方面已接近国际水平,因此未来有望在HBM领域实现国产化突破。

作者利益披露:原创、不作为证券推荐或投资建议,截至发文时,作者不持有相关标的。

声明:文章观点仅为作者个人研究意见,不代表韭淘中心观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。


点赞(97) 打赏

评论列表 共有 89 条评论

暂无评论
立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部
abcd