美光表示24年和25年大部分时间的高带宽内存已售罄

网络与存储 时间:2024-03-22 来源:EEPW

美光目前在高带宽内存市场上处于劣势,但看起来情况正在迅速变化,因为该公司表示其 HBM3E 内存供应已售罄,并分配到 2025 年的大部分时间。目前,美光表示其HBM3E将出现在英伟达的H200 GPU中,用于人工智能和高性能计算,因此美光似乎准备抢占相当大的HBM市场份额。

美光DRAM晶圆厂,台中

图片来源:美光

“我们的 HBM 在 2024 日历上已经售罄,我们 2025 年的绝大部分供应已经分配完毕,”美光首席执行官 Sanjay Mehrotra 在本周为公司财报电话会议准备的讲话中表示。“我们继续预计 HBM 比特份额相当于 2025 年某个时候的整体 DRAM 比特份额。”

美光最初的 HBM3E 堆栈是 24 GB 8Hi 模块,数据传输速率为 9.2 GT/s,每台设备的峰值内存带宽超过 1.2 TB/s。其中六个堆栈将用于 Nvidia 的 H200 GPU for AI 和 HPC,总共可实现 141 GB 的高带宽内存。由于美光是第一家开始商业化出货HBM3E的公司,因此它将出售一船HBM3E封装。

Mehrotra表示:“我们有望在2024财年从HBM获得数亿美元的收入,并预计从第三财季开始,HBM的收入将增加我们的DRAM和整体毛利率。

美光负责人表示,它已经开始对其 12-Hi HBM3E 立方体进行采样,该立方体将内存容量提高了 50%,从而能够对更大的语言模型进行 AI 训练。这些 36 GB HBM3E 立方体将用于下一代 AI 处理器,其产量将在 2025 年增加。

由于 HBM 的制造涉及专用 DRAM 的生产,因此 HBM 的产能提升将极大地影响美光为主流应用制造 DRAM IC 的能力。

“HBM 产量的增加将限制非 HBM 产品的供应增长,”Mehrotra 说。“从整个行业来看,HBM3E消耗的晶圆供应量大约是DDR5的三倍,可以在同一技术节点中产生给定数量的比特。”

关键词:美光存储AIHBM

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章


用户评论

请文明上网,做现代文明人
验证码:
查看电脑版