ai及hpc需求带动,预估2023年对hbm需求容量将年增近60%|trendforce集邦咨询-凯发k8手机客户端

来源:集邦咨询       

trendforce集邦咨询:ai及hpc需求带动,预估2023年对hbm需求容量将年增近60%

为解决高速运算下,存储器传输速率受限于ddr sdram带宽而无法同步成长的问题,高带宽存储器(high bandwidth memory,hbm)应运而生,其革命性传输效率是让核心运算元件充分发挥效能的关键。据trendforce集邦咨询研究显示,目前高端ai服务器gpu搭载hbm已成主流,预估2023年全球hbm需求量将年增近六成,来到2.9亿gb ,2024年将再成长三成。

trendforce集邦咨询预估到2025年,全球若以等同chatgpt的超大型aigc产品5款、midjourney的中型aigc产品有25款,以及 80款小型aigc产品估算,上述所需的运算资源至少为145,600~233,700颗nvidia a100 gpu,再加上新兴应用如超级计算机、8k影音串流、ar/vr等,也将同步提高云端运算系统的负载,显示出高速运算需求高涨。

由于hbm拥有比ddr sdram更高的带宽和较低的耗能,无疑是建构高速运算平台的最佳凯发k8手机客户端的解决方案,从2014与2020年分别发布的ddr4 sdram及ddr5 sdram便可究其原因,两者频宽仅相差两倍,且不论是ddr5或未来ddr6,在追求更高传输效能的同时,耗电量将同步攀升,势必拖累运算系统的效能表现。若进一步以hbm3与ddr5为例,前者的带宽是后者的15倍,并且可以通过增加堆栈的颗粒数量来提升总带宽。此外,hbm可以取代一部分的gddr sdram或ddr sdram,从而更有效地控制耗能。

trendforce集邦咨询表示,目前主要由搭载nvidia a100、h100、amd mi300,以及大型csp业者如google、aws等自主研发asic的ai服务器成长需求较为强劲,2023年ai服务器出货量(包含搭载gpu、fpga、asic等)出货量预估近120万台,年增率近38%,ai芯片出货量同步看涨,可望成长突破五成。

网站地图