新闻中心

EEPW首页>网络与存储>市场分析> HBM3E起飞,冲锋战鼓已然擂响

HBM3E起飞,冲锋战鼓已然擂响

作者: 时间:2024-04-01 来源:半导体产业纵横 收藏

即高带宽内存,是一款新型的 CPU/GPU 内存芯片。如果说传统的 DDR 就是采用的"平房设计"方式,那么则是采用"楼房设计"方式。

本文引用地址://m.amcfsurvey.com/article/202404/457050.htm

目前,产品以 HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)、HBM3E(第五代)的顺序开发。

可以看到,HBM 每一次更新迭代都会伴随着处理速度的提高。

HBM3 自 2022 年 1 月诞生,便凭借其独特的 2.5D/3D 内存架构,迅速成为高性能计算领域的翘楚。HBM3 不仅继承了前代产品的优秀特性,更在技术上取得了显著的突破。它采用了高达 1024 位的数据路径,并以惊人的 6.4 Gb/s 的速率运行,实现了高达 819 Gb/s 的带宽,为高性能计算提供了强大的支持。

而今,SK 海力士、美光等厂商将这一标准再度提升,HBM3E 一经问世便迅速赢得市场的热烈追捧。

三大存储巨头的 HBM3E 技术特点

HBM3E 技术的主要引领者依然是美光、SK 海力士与三星这三大巨头,它们继续在这一领域发挥重要作用,共同推动着技术的创新与进步。以下是这三大厂商在 HBM3E 技术方面的精彩呈现。

SK 海力士-独创的 MR-MUF 技术等

2023 年 8 月 21 日,SK 海力士宣布成功开发出面向 AI 的超高性能 DRAM 新产品 HBM3E,并开始向客户提供样品进行性能验证。

据悉,SK 海力士采用了先进的 MR-MUF(Molding with Rubberand UFP)技术,使得 HBM3E 的散热性能比上一代产品提高 10%。这种技术通过在半导体芯片堆叠后的空间中注入液体形态的保护材料并进行固化,与每堆叠一个芯片时铺上薄膜型材料的方式相较,工艺效率更高,散热方面也更加有效;其 HBM3E 的最高数据处理速度可达每秒 1.18TB(太字节),这意味着它能够在极短的时间内处理大量数据。相当于在 1 秒内处理 230 部全高清(FHD)级别的电影。

另外,其 HBM3E 提供高达 8Gbps 的传输速度,这是相较于前一代 HBM3 的显著提升。这种高速度对于需要快速数据处理的应用场景,如高性能计算和人工智能,尤为重要。

美光- 1β、先进的硅通孔(TSV)技术等

2023 年 9 月,SK 海力士的 HBM3E 内存迎来新竞争对手-美光。

美光也利用其 1β(1-beta)技术、先进的硅通孔(TSV)和其他实现差异化封装解决方案的创新技术开发出业界领先的 HBM3E 设计。

凭借其卓越的性能、出色的能效等优势,美光的 HBM3E 收获内存市场的诸多青睐。比如美光 HBM3E 引脚速率超过 9.2Gb/s,提供超过 1.2TB/s 的内存带宽,助力人工智能加速器、超级计算机和数据中心实现超高速的数据访问;美光 HBM3E 目前提供 24 GB 容量,使数据中心能够无缝扩展其人工智能应用。无论是用于训练海量神经网络还是加速推理任务,美光的解决方案都提供了必要的内存带宽。

三星-先进的热压非导电薄膜技术等

三星也一直在致力于提供更为优秀的产品以满足人工智能时代对高性能和大容量解决方案的更高要求。

2023 年 10 月 21 日,三星在其一年一度的「存储器技术日」活动中,发布了名为「Shinebolt」的新一代 HBM3E DRAM。

三星 Shinebolt 支持新一代 AI 应用,可提高总体拥有成本,加速数据中心的 AI 模型训练和推理。HBM3E 的每个引脚速度高达 9.8Gbps,这意味着整体传输速率可超过 1.2TBps。为实现更高的堆叠层数并改善热特性,三星优化了非导电薄膜 (NCF) 技术,以消除芯片层之间的间隙并尽可能提高导热性。

2024 年 2 月,三星成功发布其首款 12 层堆叠 HBM3E DRAM——HBM3E 12H,这是三星目前为止容量最大的 HBM 产品。

三星 HBM3E 12H 支持全天候最高带宽达 1280GB/s,产品容量也达到了 36GB。相比三星 8 层堆叠的 HBM3 8H,HBM3E 12H 在带宽和容量上大幅提升超过 50%。

HBM3E 12H 采用了先进的热压非导电薄膜(TC NCF)技术,使得 12 层和 8 层堆叠产品的高度保持一致,以满足当前 HBM 封装的要求。HBM3E 12H 产品的垂直密度比其 HBM3 8H 产品提高了 20% 以上。三星先进的热压非导电薄膜技术还通过允许在芯片之间使用不同尺寸的凸块(bump)改善 HBM 的热性能。

相比 HBM3 8H,HBM3E 12H 搭载于人工智能应用后,预计人工智能训练平均速度可提升 34%,同时推理服务用户数量也可增加超过 11.5 倍。

各家的量产进度

2024 年 3 月 19 日,SK 海力士宣布,公司率先成功量产超高性能用于 AI 的存储器新产品 HBM3E,将在 3 月末开始向客户供货。

SK 海力士作为全球首家推出 HBM3E 的供应商,自去年 8 月宣布开发计划至今,仅用了短短七个月时间便实现了量产。据悉,SK 海力士的首批 HBM3E 产品将按照预定计划准时交付给英伟达。

2024 年 2 月 26 日,美光宣布开始量产其 HBM3E 高带宽内存解决方案。据悉,英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存,并于 2024 年第二季度开始出货。

目前,三星已开始向客户提供 HBM3E 12H 样品,预计于今年下半年开始大规模量产。

竞购 HBM3E,英伟达既要又要还要

随着 AI 服务器的流行,AI 加速卡的需求也呈现出强劲的增长势头。而作为 AI 加速卡的重要组成部分,高频宽存储器 HBM 正逐渐成为其不可或缺的 DRAM 模块。

英伟达的下一代 AI 加速卡 B100(Blackwell 架构)的存储器规格,将采用 HBM3E。而这种规格的存储器,目前只有 SK 海力士、三星电子和美光能提供。为了保障 HBM 的稳定供应,英伟达甚至需要以大量预付款的形式提供资金支持内存供应商研发 HBM 产品。要知道客户向内存供应商大规模预付款项的情况是很少见的。

毕竟,急切需要 HBM3E 产能的并非只有英伟达一家,众多企业都竞相争夺这一稀缺资源,比如 AMD、微软、亚马逊等都在排队购买。

据悉,AMD 将在今年晚些时候推出采用 HBM3e 内存的升级版 MI300 AI 加速器,随后于 2025 年推出新一代 Instinct MI400。除英伟达和 AMD 之外,亚马逊和微软则是云服务领域的两大巨头,之前已引入生成式人工智能技术,并大幅追加了对于 AI 领域的投资。报道称,SK 海力士正忙于应对客户对 HBM3E 样品的大量请求,但满足英伟达首先提出的样品数量要求非常紧迫。

在这场竞赛的伊始,两大 HBM 供应商的产能迅速被抢购一空。

近日,SK 海力士副总裁 Kim Ki-tae 在一篇博文中表示,虽然 2024 年才刚开始,但今年 SK 海力士旗下的 HBM 已经全部售罄。同时,公司为了保持市场领先地位,已开始为 2025 年预作准备。美光科技也表示今年 HBM 产能已销售一空,2025 年绝大多数产能已被预订。

此前英伟达联合创始人兼 CEO 黄仁勋在 GTC 2024 大会上表示,英伟达正在测试三星的 HBM 芯片,可能会在未来采用。

这也意味着,在当前供需关系异常紧张的背景下,英伟达不仅依赖 SK 海力士和美光两家提供 HBM3E 产能,还急需三星的加入以满足其日益增长的需求。

如此来看,在 AI 发展如日中天的当下,HBM3E 的 2024 年产能存在严重不足。

2024 年 HBM 供给位元年增长率有望高达 260%

据集邦咨询,截至 2024 年底,整体 DRAM 产业规划生产 HBM TSV 的产能约为 250K/m,占总 DRAM 产能(约 1,800K/m)约 14%,原厂持续加大投入,供给位元年增长率有望高达 260%。

占比方面,HBM 需求持续旺盛,2024 年订单已基本被买家锁定,占 DRAM 总产值比重有望从 2023 年的 8.4% 提升至 2024 年的 20.1%,成长迅速。

该机构同时预估了三大 HBM 厂商的 HBM/TSV 产能,其中三星 HBM TSV 年产能将在 2024 年达到 130K/m。SK 海力士次之,可达 120~125K/m;美光相对较少,仅为 20K/m、目前三星、SK 海力士规划提高 HBM 产能最积极,其中 SK 海力士在 HBM3 市场的占有率逾 90%,而三星将连续数个季度紧追,未来将受惠于 AMD MI300 芯片的逐季放量。

HBM 高带宽存储芯片晶圆的尺寸相比同容量、同制程的 DDR5 大 35%~45%,然而良率(包含 TSV 封装良率)要低 20%~30%。生产周期方面,HBM 的制造工艺(包含 TSV)较 DDR5 长 1.5~2 个月不等。由于 HBM 芯片生产周期更长,从投片到产出、封装完成需要两个季度以上。因此,急需取得充足供货的买家更早锁定订单。

去年 6 月有媒体报道称,SK 海力士正在准备投资后段工艺设备,将扩建封装 HBM3 的利川工厂,预计到今年年末,该厂后段工艺设备规模将增加近一倍。

近日,SK 海力士正计划投资大约 40 亿美元,在美国印第安纳州西拉斐特新建大型的先进芯片封装工厂,力争扩张 HBM 存储产能以满足英伟达庞大需求。该大型先进封装工厂可能于 2028 年开始运营。

为了缩小差距,美光也对其下一代产品 HBM3E 下了很大的赌注。据悉,美光科技位于中国台湾的台中四厂已于 2023 年 11 月初正式启用。美光表示,台中四厂将整合先进探测与封装测试功能,量产 HBM3E 及其他产品,从而满足人工智能、数据中心、边缘计算及云端等各类应用日益增长的需求。

三星电子从去年第四季度开始扩大第四代 HBM 即 HBM3 的供应,目前正进入一个过渡期。负责三星美国半导体业务的执行副总裁 Han Jin-man 在今年 1 月表示,公司对包括 HBM 系列在内的大容量存储芯片寄予厚望,希望它能引领快速增长的人工智能芯片领域。他在 CES 2024 的媒体见面会上对记者说,「我们今年的 HBM 芯片产量将比去年提高 2.5 倍,明年还将继续提高 2 倍。」

三星官方还透露,公司计划在今年第四季度之前,将 HBM 的最高产量提高到每月 15 万至 17 万件,以此来争夺 2024 年的 HBM 市场。此前三星电子斥资 105 亿韩元收购了三星显示位于韩国天安市的工厂和设备,以扩大 HBM 产能,同时还计划投资 7000 亿至 1 万亿韩元新建封装线。

然而值得注意的是,日前,海外分析师表示,三星 HBM3 芯片的生产良率约为 10%~20%,而 SK 海力士的 HBM3 良率可达 60%~70%。最大的原因就在于三星坚持使用热压非导电薄膜(TC NCF)制造技术,这会导致一些生产问题。而 SK 海力士则大规模采用回流模制底部填充(MR-MUF)技术,可以克服 NCF 的弱点。为提高产量,三星正在积极与材料制造商展开谈判,其中包括日本的 Nagase 等公司,旨在获取 MUF 材料的稳定供应。据悉,尽管三星已经下达了用于 MUF 技术的芯片制造设备采购订单,但由于需要进行更多的测试和优化,使用 MUF 技术大规模生产高端芯片最早可能要到明年才能准备就绪。

HBM 量价齐升,国产厂商迎头赶上

国内存储厂商也在入局 HBM 市场。

根据采招网,近日,武汉新芯发布《高带宽存储芯粒先进封装技术研发和产线建设》招标项目,利用三维集成多晶圆堆叠技术,打造更高容量、更大带宽、更小功耗和更高生产效率的国产高带宽存储器产品,推进多晶圆堆叠工艺产业化,新增生产设备约 17 台/套,拟实现月产出能力≥3000 片(12 英寸)。

面对海外大厂对于 HBM3E 的量产,国内存储厂商也在 HBM 技术上进行着加速突破,有望在 AI 大浪潮的需求下提升竞争实力。
例如中国台湾的华邦电于去年 8 月介绍了其类 HBM 高带宽产品 CUBEx,采用 1~4 层 TSV DRAM 堆叠,I/O 速度 500M~2Gbps,总带宽最高可达 1024GB/s,颗粒容量为 0.5~4GB,功耗低至不足 1pJ/bit。这种比常规 HBM 拥有更高带宽的 CUBEx 可用于 AR、VR、可穿戴等领域。

中国大陆方面,目前国际一线厂商 DRAM 制程在 1alpha、1beta 水平,国产 DRAM 制程在 25~17nm 水平,中国台湾 DRAM 制程在 25~19nm 水平。国内 DRAM 制程接近海外,且国内拥有先进封装技术资源和 GPU 客户资源,有强烈的国产化诉求,未来国产 DRAM 厂商有望突破 HBM。

目前中国大陆只有长电科技、通富微电和盛合晶微等一线封装厂商拥有支持 HBM 生产的技术(如 TSV 硅通孔)和设备。长电科技在投资者互动中表示,其 XDFOI 高密度扇出封装解决方案也同样适用于 HBM 的 Chip to Wafer 和 Chip to Chip TSV 堆叠应用;通富微电此前表示,南通通富工厂先进封装生产线建成后,公司将成为国内最先进的 2.5D/3D 先进封装研发及量产基地,实现国内在 HBM 高性能封装技术领域的突破,对于国家在集成电路封测领域突破「卡脖子」技术具有重要意义。

在其余供应链上,芯片设计企业国芯科技则表示已与合作伙伴一起正在基于先进工艺开展流片验证相关 chiplet 芯片高性能互联 IP 技术工作,和上下游合作厂家积极开展包括 HBM 技术在内的高端芯片封装合作。

紫光国微表示,公司 HBM 产品为公司特种集成电路产品,目前还在研发阶段。

香农芯创此前表示,公司作为 SK 海力士分销商之一具有 HBM 代理资质。公司未来根据下游客户需求,在原厂供应有保障的前提下形成相应销售。

飞凯材料表示,环氧塑封料是 HBM 存储芯片制造技术所需要的材料之一,MUF 材料按性状和工艺分不同品种,目前公司 MUF 材料产品包括液体封装材料 LMC 及 GMC 颗粒封装料,液体封装材料 LMC 已经量产并形成少量销售,颗粒填充封装料 GMC 尚处于研发送样阶段。

兴森科技表示,公司的 FCBGA 封装基板可用于 HBM 存储的封装,但目前尚未进入海外 HBM 龙头产业链。

HBM3 和 HBM3E,作为 HBM 芯片的最新迭代版本,正逐渐成为市场的宠儿。它们与核心微处理器芯片的紧密结合,为生成式人工智能处理海量数据提供了强有力的支持。未来,随着 HBM3 和 HBM3E 技术的不断完善和成熟,我们有理由相信,它们将在更多领域大放异彩,成为推动人工智能发展的重要力量。无论是国内还是国际的厂商,都将在这一领域中迎来新的发展机遇和挑战。



关键词:HBM

评论


技术专区

关闭