机构:预计2023年对HBM需求量将增加60%,达到2.9亿GB 今日精选

来源: 集微网2023-06-29 06:38:26
  


(相关资料图)

集微网消息,TrendForce集邦咨询6月28日发表研报,称目前高端AI服务器GPU搭载HBM芯片已成主流,预计2023年全球HBM需求量将年增近六成,达到2.9亿GB,2024年将再增长30%。

机构预计到2025年,全球如果等同于ChatGPT的超大型AIGC有5款,类似Midjourney的中型产品有25款,以及80款小型产品,在这个条件下,上述所需的运算资源至少包含145600~233700颗英伟达A100 GPU;再加上超级计算机、8K影音串流、AR/VR等应用,也将进一步提高云端运算系统的负载。

由于HBM内存芯片拥有比DDR SDRAM更高的带宽、相对较低的能耗,因此近年来发布的旗舰HPC处理器、运算加速GPU均在采用HBM内存。预计未来,HBM可以取代一部分GDDR SDRAM显存以及DDR SDRAM普通内存。

集邦咨询预计,目前英伟达A100、H100、AMD MI300,以及大型云服务提供商谷歌、AWS等自主研发的ASIC AI服务器增长需求较为强劲,预计2023年AI服务器出货量(含GPU、FPGA、ASIC等)预估在120万台,年增长率近38%。AI芯片出货量同步看涨,预计今年将增长50%。

(校对/张杰)

关键词:

责任编辑:sdnew003

相关新闻

版权与免责声明:

1 本网注明“来源:×××”(非商业周刊网)的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,本网不承担此类稿件侵权行为的连带责任。

2 在本网的新闻页面或BBS上进行跟帖或发表言论者,文责自负。

3 相关信息并未经过本网站证实,不对您构成任何投资建议,据此操作,风险自担。

4 如涉及作品内容、版权等其它问题,请在30日内同本网联系。