5月30日消息(颜翊)TrendForce集邦咨询发布报告称AI服务器及AI芯片需求同步看涨,预估2023年AI服务器(包含搭载GPU、FPGA、ASIC等)出货量近120万台,同比增长38.4%,占整体服务器出货量近9%,至2026年将占15%。2022~2026年AI服务器出货量年复合增长率同步上调至22%,AI芯片2023年出货量将增长46%。
TrendForce集邦咨询表示,NVIDIA GPU为AI服务器市场搭载主流,市占率约60~70%,其次为云端业者自主研发的ASIC芯片,市占率逾20%。NVIDIA市占率高的主要原因有三,其一,目前不论美系或中系云端服务从业者(CSP),除了采购原有的NVIDIA的A100与A800外,下半年需求还将陆续导入H100与H800。
其二,高端GPU A100及H100的高获利模式也是关键,由于NVIDIA旗下产品在AI服务器市场已拥有主导权的优势,据TrendForce集邦咨询研究,H100本身的价差也依据买方采购规模,会产生近5000美元的差异。
其三,下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域(如云端/电商服务、智能制造、金融保险、智慧医疗及智能驾驶辅助等)的开发市场,同步带动每台搭配4~8张GPU的云端AI服务器,以及每台搭载2~4张GPU的边缘AI服务器应用需求渐增,预估今年搭载A100及H100的AI服务器出货量年增率逾5成。
此外,从高端GPU搭载的高带宽内存(HBM)来看,NVIDIA高端GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU来说,搭载HBM3技术规格,其中传输速度也较HBM2e快,可提升整体AI服务器系统运算效能。随着高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,TrendForce集邦咨询预估2023年HBM需求量将年增58%,2024年有望再成长约30%。
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 传音控股携手阿里云联手打造AI手机,搭载通义千问大模型,开启智能新纪元!
- 云从科技回应被列入美国1260H清单:否认有关指控 对业务没有实质影响
- 迷你AI神器震撼来袭:英伟达Project Digits,3000美元起,颠覆超算界
- OpenAI CEO奥特曼最新访谈:谈AGI门槛、AI定价和马斯克
- 中国信通院发布MaaS六大标准,助力AI模型落地,解决最后一公里难题,让出行更智能、更安全
- 科沃斯新款扫地机器人X8 PRO Omni:告别尘土烦恼,滚筒活水洗地,AI全自动清洁,懒人福音!
- 绿米Aqara智能家居新品亮相CES 2025:Matter协议与HomeKit 融合,打造未来家居新体验
- TCL QM6K Mini LED巨幕电视:细节控的福音,真实亮度颠覆视觉体验
- 阿里收购零一万物预训练团队引发热议:收购背后揭示AI领域新动向?
- 石头扫地机器人优惠来袭:石头P20 Pro京东仅售2979元,直降千元,捡漏好时机!
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。