AI服务器需求,带动HBM提升,继HanmiSemiconductor之后,又有一存储大厂在加速HBM布局。
据韩媒《TheKoreaTimes》6月27日报道,三星电子将于今年下半年开始批量生产高带宽内存(HBM)芯片,以满足持续增长的人工智能(AI)市场。
根据报道,三星将量产16GB、24GB的HBM3存储芯片,这些产品数据处理速度可达到6.4Gbps,有助于提高服务器的学习计算速度。
三星执行副总裁Kim Jae-joon在4月份的电话会议上表示,该公司计划在今年下半年推出下一代HBM3P产品,以满足市场需求的更高性能和容量。除了HBM之外,三星还不断推出新的内存解决方案,例如HBM-PIM(一种集成了AI处理能力的高带宽内存芯片)和CXL DRAM,以克服DRAM容量的限制。
从市场格局上看,据全球研究机构TrendForce集邦咨询数据显示,,2022年三大原厂HBM市占率分别为SK海力士(SKhynix)50%、三星(Samsung)约40%、美光(Micron)约10%。
TrendForce集邦咨询指出,此外,高阶深度学习AIGPU的规格也刺激HBM产品更迭,2023下半年伴随NVIDIAH100与AMDMI300的搭载,三大原厂也已规划相对应规格HBM3的量产。因此,在今年将有更多客户导入HBM3的预期下,SK海力士作为目前唯一量产新世代HBM3产品的供应商,其整体HBM市占率可望藉此提升至53%,而三星、美光则预计陆续在今年底至明年初量产,HBM市占率分别为38%及9%。
展望未来,TrendForce集邦咨询预估2023年HBM需求量将年增58%,2024年有望再成长约30%。