据台湾电子时报援引业内人士消息称,由于人工智能服务器需求激增,高带宽内存(HBM)价格已开始上涨。
目前,全球前三大存储芯片制造商正将更多产能转移至生产HBM,但由于调整产能需要时间,很难迅速增加HBM产量,预计未来两年HBM供应仍将紧张。
另据韩媒报道,三星计划投资1万亿韩元(约合7.6亿美元)扩产HBM,目标明年底之前将HBM产能提高一倍,公司已下达主要设备订单。
(相关资料图)
据悉,三星已收到AMD与英伟达的订单,以增加HBM供应。
本次三星将在天安工厂展开扩产,该厂主要负责半导体封装等后道工艺。HBM主要是通过垂直堆叠多个DRAM来提高数据处理速度,因此只有增加后段设备才能扩大出货量。三星计划生产目前正在供应的HBM2和HBM2E等产品,并计划于下半年量产8层堆叠HBM3和12层HBM3E。
值得一提的是,6月已有报道指出,另一存储芯片巨头SK海力士已着手扩建HBM产线,目标将HBM产能翻倍。扩产焦点在于HBM3,SK海力士正在准备投资后段工艺设备,将扩建封装HBM3的利川工厂。预计到今年年末,后段工艺设备规模将增加近一倍。
本次韩媒报道指出,SK海力士的这一投资金额大约也在1万亿韩元(约合7.6亿美元)水平。
业内预计,明年三星与SK海力士都将进一步扩大投资规模。由于谷歌、苹果、微软等科技巨头都在筹划扩大AI服务,HBM需求自然水涨船高,“若想满足未来需求,三星、SK海力士都必须将产能提高10倍以上。”
▌主流AI训练芯片“标配” HBM或迎量价齐升
实际上,2023年开年后三星、SK海力士的HBM订单快速增加,之前另有消息称HBM3较DRAM价格上涨5倍。
随着AI技术不断发展,AI训练、推理所需计算量呈指数级增长,2012年至今计算量已扩大30万倍。处理AI大模型的海量数据,需要宽广的传输“高速公路”即带宽来吞吐数据。
HBM通过垂直连接多个DRAM,显著提高数据处理速度。它们与CPU、GPU协同工作,可以极大提高服务器性能。其带宽相比DRAM大幅提升,例如SK海力士的HBM3产品带宽高达819GB/s。同时,得益于TSV技术,HBM的芯片面积较GDDR大幅节省。
国盛证券指出,HBM最适用于AI训练、推理的存储芯片。受AI服务器增长拉动,HBM需求有望在2027年增长至超过6000万片。Omdia则预计,2025年HBM市场规模可达25亿美元。
广发证券也补充称,HBM方案目前已演进为高性能计算领域扩展高带宽的主流方案,并逐渐成为主流AI训练芯片的标配。
AIGC时代为HBM带来的需求增量主要体现在两方面:
一方面,单颗GPU需要配置的单个HBM的Die层数增加、HBM个数增加;另一方面,大模型训练需求提升拉动对AI服务器和AI芯片需求,HBM在2023年将需求明显增加,价格也随之提升。