博客专栏

EEPW首页>博客> AI服务器需求带动存储器出货量,韩企厂商大吃红利 | 百能云芯

AI服务器需求带动存储器出货量,韩企厂商大吃红利 | 百能云芯

发布人:百能云芯 时间:2023-04-18 来源:工程师 发布文章

AI服务器出货动能强劲带动HBMhigh bandwidth memory高频宽存储器需求提升,预2023AI服务器出货量年增15.4%


伺服器.jpg

TrendForce研究显示,2022年三大原厂HBM市占率分别为SK海力士(SK hynix)50%、三星电子(Samsung)40%、美光科技(Micron)10%。此外,高级深度学习AI GPU的规格也刺激HBM产品更迭,2023下半年伴随NVIDIA H100AMD MI300的搭载,三大原厂也已规划相对应规格HBM3的量产。因此,在今年有更多客户将导入HBM3的预期下,SK海力士作为目前唯一量产新世代HBM3产品的供应商,其整体HBM市占率可望此提升至53%,而三星、美光则预计陆续在今年底至明年初量产,HBM市占率分别为38%9%

目前英伟达NVIDIA所定义的DL/ MLAI服务器平均每台均搭载4张或8高级显卡,搭配两颗主流型号的x86服务器CPU,而主要拉货力道来自于美系云端业者GoogleAWSMetaMicrosoft。据TrendForce统计,2022高级搭载GPGPU的服务器出货量年增约9%,其中近80%的出货量均集中在中、美系八大云端业者。展望2023年,微软Microsoft脸书Meta百度字节跳动相继推出基于生成式AI衍生的产品服务而积极加单,预估今年AI服务器出货量年增率可望达15.4%2023~2027AI服务器出货量年复合成长率约12.2%

根据TrendForce调查,AI服务器可望带存储器需求成长,以现阶段而言,Server DRAM普遍配置约为500~600GB左右,而AI服务器在单条模组上则多采64~128GB,平均容量可达1.2~1.7TB之间。以Enterprise SSD而言,由于AI服务器追求的速度更高,其要求往往优先DRAMHBM满足,在SSD固态硬盘的容量提升上则呈现非必要扩大容量的态势,但在传输界面上,则会为了高速运算的需求而优先采用PCIe 5.0。而相较于一般服务器而言,AI服务器多增加GPGPU的使用,因此以英伟达NVIDIA A100 80GB配置48张采计,HBM用量约为320~640GB。未来在AI模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动Server DRAMSSD以及HBM的需求成长。

*免责声明:文章来源于网络,如有争议,请联系客服。


*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。




相关推荐

技术专区

关闭