服务电话:400-6362-118
HBM存储国产率不足2%
发布时间:2026-05-07 点击数:2

HBM是高性能内存,主要用在AI训练领域,跟GPU紧密结合,最大优势是数据传输速度快,可以帮助GPU高速处理训练数据,当前,高端AI服务器的内存,几乎100%采用HBM。

2024年全球HBM存储市场规模仅有90亿美金,2026有望达到500亿美金,2028年有望达到1000亿美金。HBM是存储板块增速最快的方向,也是三星,海力士和美光扩产的重点。

全球 AI 科技巨头针对 AI 算力发展瓶颈达成的行业共识是“永远缺存储”

当前存储芯片市场正处于一个AI叠加的“超级周期”,AI把需求抬高了10倍,一个AI服务器用的内存≈几十台普通服务器。只要人类对数据和 AI 的渴望不停止,对更高速、更大容量存储的渴求就会永远存在。其实,当前最缺的并不是普通的 U 盘存储,而是与 AI GPU 绑定的“HBM”(高带宽内存)。AI 大模型的参数量动辄千亿甚至万亿级别,需要极高的数据吞吐能力。

HBM 通过先进封装(如 CoWoS)直接堆叠在 GPU 旁边,技术壁垒极高。全球HBM市场呈现高度垄断格局,SK海力士、三星和美光三家国际巨头垄断了全球90%以上的HBM产能,据TrendForce数据,从HBM位元出货量统计口径,2023年SK海力士市占率为48%、三星电子市占率47%、美光市占率5%。2026年三家全年产能,几乎都被英伟达和各大云厂商提前一年买断。

我国在高端存储领域严重依赖外部供应。国内HBM产业处于起步阶段,与国际巨头相比仍有较大差距,国际技术上已经迭代6代(HBM1→HBM2→HBM2E→HBM3→HBM3E→HBM4),我们正在主力攻关 HBM2e→HBM3,布局 HBM3E→HBM4。目前,长鑫存储在12层高带宽内存HBM3上已取得一定进展。