C114通信网  |  通信人家园

移动平台
2023/5/30 11:30

集邦咨询:预估2023年全球AI服务器出货量年增38.4% AI芯片将增长46%

C114通信网  颜翊

C114讯 5月30日消息(颜翊)TrendForce集邦咨询发布报告称AI服务器及AI芯片需求同步看涨,预估2023年AI服务器(包含搭载GPU、FPGAASIC等)出货量近120万台,同比增长38.4%,占整体服务器出货量近9%,至2026年将占15%。2022~2026年AI服务器出货量年复合增长率同步上调至22%,AI芯片2023年出货量将增长46%。

TrendForce集邦咨询表示,NVIDIA GPU为AI服务器市场搭载主流,市占率约60~70%,其次为云端业者自主研发的ASIC芯片,市占率逾20%。NVIDIA市占率高的主要原因有三,其一,目前不论美系或中系云端服务从业者(CSP),除了采购原有的NVIDIA的A100与A800外,下半年需求还将陆续导入H100与H800。

其二,高端GPU A100及H100的高获利模式也是关键,由于NVIDIA旗下产品在AI服务器市场已拥有主导权的优势,据TrendForce集邦咨询研究,H100本身的价差也依据买方采购规模,会产生近5000美元的差异。

其三,下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域(如云端/电商服务、智能制造、金融保险、智慧医疗及智能驾驶辅助等)的开发市场,同步带动每台搭配4~8张GPU的云端AI服务器,以及每台搭载2~4张GPU的边缘AI服务器应用需求渐增,预估今年搭载A100及H100的AI服务器出货量年增率逾5成。

此外,从高端GPU搭载的高带宽内存(HBM)来看,NVIDIA高端GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU来说,搭载HBM3技术规格,其中传输速度也较HBM2e快,可提升整体AI服务器系统运算效能。随着高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,TrendForce集邦咨询预估2023年HBM需求量将年增58%,2024年有望再成长约30%。

给作者点赞
0 VS 0
写得不太好

免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

热门文章
    最新视频
    为您推荐

      C114简介 | 联系我们 | 网站地图 | 手机版

      Copyright©1999-2024 c114 All Rights Reserved | 沪ICP备12002291号

      C114 通信网 版权所有 举报电话:021-54451141