其二,高端GPUA100及H100的高获利模式也是关键,由于NVIDIA旗下产品在AI服务器市场已拥有主导权
的优势,据TrendForce研究,H100本身的价差也依据买方采购规模,会产生近5000美元的差异。
其三,下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域(如云端/电商服务、智能制造、金融保险、
智慧医疗及智能驾驶辅助等)的开发市场,同步带动每台搭配 4~8张 GPU的云端 AI服务器,以及每台搭载 2~4
张GPU的边缘AI服务器应用需求渐增,预估今年搭载A100及H100的AI服务器出货量年增率逾5成。
此外,从高端GPU搭载的高带宽内存(HBM)来看,NVIDIA高端GPUH100、A100主采HBM2e、HBM3。以今年
H100 GPU来说,搭载 HBM3技术规格,其中传输速度也较 HBM2e快,可提升整体 AI服务器系统运算效能。随着
高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,TrendForce2023
年HBM需求量将年增58%,2024年有望再成长约30%。