新闻中心

EEPW首页>智能计算>市场分析> AI服务器:供应链的救世主

AI服务器:供应链的救世主

作者: 时间:2023-06-15 来源:半导体产业纵横 收藏

强劲的财务报告揭示了人工智能对科技行业的真正影响,尤其是在人工智能服务器供应链中。

本文引用地址://m.amcfsurvey.com/article/202306/447694.htm

人工智能驱动的需求激增促使研究机构修改了他们的估计。据行业研究公司 TrendForce 预测,2023 年 AI 服务器(包括搭载 GPU、FPGA、ASIC 等)的出货量预计将达到近 120 万台,同比增长 38.4%,占服务器总出货量的近 9%。TrendForce 甚至将 2022 年至 2026 年 AI 服务器出货量复合年增长率上调至 29%。

那么,AI 服务器与传统服务器的区别是什么?

AI 服务器确实是整个服务器市场的一部分,但它们是专门为基于云的 AI 模型训练或推理而设计的。在规格方面,广义的 AI 服务器是指搭载 AI 芯片(如前面提到的 GPU、FPGA、ASIC)的服务器,而狭义的定义则包括至少搭载一块 GPU 的服务器。

AI 服务器成为 2023 年行业「救世主」的原因有两方面。首先,今年以来各终端市场表现明显疲软,就连此前稳定的服务器市场也出现了低迷。对昂贵的 AI 服务器的需求激增不仅引起了轰动,还直接推动了整个行业的收入增长。

据 TrendForce 预估,今年 AI 服务器出货量将占服务器市场总出货量的 9%,预计到 2026 年将达到 15%。单价方面,AI 服务器的价格约高出 15 至 20 倍。云服务提供商传统上使用的服务器。对计算能力、电源管理和改进的冷却技术的需求增加直接促进了服务器组件的使用。

说到 AI 服务器的关键部件,包括 GPU、CPU、内存、智能网卡、机箱、主板、散热系统、电源、组装测试等。从成本角度来看,GPU 仍然是最关键的部分,约占总成本的 70%,而散热系统、电源和外壳等组件所占比例不到 1%。

虽然 GPU 龙头供应商在成本上是最大赢家,但元器件使用量增加、规格与技术升级,仍让台系供应链获益,在服务器产业扮演重要角色。

从上游产业来看,最大的受益者是为代工的台积电。电源供应器方面,AI 服务器的需求较以往高出两至三倍,这无疑为台达、光宝等电源供应器厂商带来利好消息。

虽然冷却系统占总成本的比例不到 1%,但它们对 AI 服务器的运行至关重要,促使主要服务器供应商在该领域投入巨资。目前,AI 服务器散热解决方案的领先供应商包括 Auras Technology、AVC Technology 和 Sunon,它们提供 3D Vapor Chamber (VC) 技术。在组装和制造方面,主要参与者是广达、英业达、富士康、纬创、Wiwynn、AMD 和技嘉等传统服务器供应商。

TrendForce 分析师 Frank Gong 表示,近年来,服务器行业不断走向标准化,服务器供应商也面临来自客户的压力,要求其供应链多元化。然而,随着人工智能服务器需求的大幅增长,不仅带动了收入增长,也为企业提供了展示其在人工智能服务器领域技术优势的机会。此外,人工智能服务器设计的高复杂度和定制化需求的大幅上升,使得客户粘性得到提升,受到供应链的欢迎和期待。

推理型服务器将逐渐成为全球 AI 服务器的主流。在生成式大模型发展早期,AI 服务器需求以模型训练为主,因而训练型服务器占据市场主体地位。随着后续生成式 AI 应用的快速发展,AI 服务器将主要满足数据的分析及模型输出需求,因而推理型服务器将逐渐成为市场主流。根据 IDC 统计,2021 年全球 AI 服务器市场中 57.33%为训练型服务器,但预计在 2024 年推理型服务器市场规模将首次超越训练型服务器,在 2026 年推理型服务器的市场占比将达到 53.01%,与训练型服务器的份额差距将持续拉开。

加速计算 AI 服务器更符合大规模 AI 运算的需求,成为 AI 服务器的主流选择。加速计算 AI 服务器是指拥有一个或多个协处理器的 AI 服务器,包括 GPGPU、FPGA 或 ASIC 协处理器,其更适合处理规模越来越大、算法越来越复杂的深度学习 AI 模型,因而已经成为目前 AI 服务器的主流选择。主要使用 CPU 进行运算的非加速计算 AI 服务器的市场规模仍将有一定增长,但其主要用于小型人工智能模型的推理以及部分训练负载。根据 IDC 统计,2021 年全球 AI 服务器中加速计算 AI 服务器市场规模为 91 亿美元,2026 年将增长至 245 亿美元,期间年复合增速为 22%,同期非加速计算的 AI 服务器市场规模的年复合增速仅为 9.3%。



关键词:英伟达AI服务器

评论


相关推荐

技术专区

关闭