报道称英伟达2024年GPU产量扩大三倍:H100将达到200万块

面对AI芯片巨大的供需缺口,英伟达制订了一项雄心勃勃的计划。

据英国《金融时报》当地时间周三报道,三位接近英伟达的人士透露称,英伟达目前计划将旗舰H100显卡的产量至少增加两倍,到2024年H100的出货量将达到150万至200万块,比今年预期的50万块大幅跃升。英伟达H100的需求火爆异常,以至于到2024年都已售罄。

对此,科技媒体tom'sHARDWARE评论称,如果英伟达成功实现这一目标,并且AI和高性能计算(HPC)应用对其A100、H100和其他计算CPU的需求保持强劲,这可能意味着英伟达将攫取令人难以置信的收入。

由于英伟达的CUDA框架(运算平台)是为AI和HPC工作负载量身定制的,因此有数百种应用程序只能在英伟达的GPU上运行。亚马逊Web服务(AWS)和谷歌都有自己的定制AI处理器用于AI训练和推理工作负载,但他们还必须购买大量英伟达GPU,因为客户希望在GPU上运行应用程序。

然而,提高H100这种高性能芯片的产量并不容易。英伟达H100基于该公司的GH100处理器,而GH100的制造相当困难。

首先,GH100计算型GPU是一块尺寸为814mm*2的巨大硅片,因此很难大批量生产。尽管目前该产品的良率可能相当高,但英伟达仍需要从台积电获得大量4纳米晶圆供应,将其基于GH100的产品产量扩大三倍。粗略估计,台积电和英伟达每300毫米晶圆最多可以生产65个显卡。

因此,制造200万枚此类显卡需要近3万片晶圆,这当然是可能的。目前,台积电5纳米级晶圆产量为15万片/月,客户主要包括AMD、苹果、英伟达。

其次,GH100依赖HBM2E或HBM3内存,并使用台积电的CoWoS先进封装,因此英伟达也需要确保这方面的供应。目前,台积电正在努力满足CoWoS先进封装的需求。

第三,由于基于H100的设备使用HBM2E、HBM3或HBM3E内存,因此英伟达还必须从美光、三星和SK海力士等公司获得足够的HBM内存包。

最后,H100必须获得安装,因此英伟达需要确保其合作伙伴的AI服务器输出至少扩大三倍,这又带来了新的问题。

本文来自华尔街见闻,欢迎下载APP查看更多

展开阅读全文

页面更新:2024-04-17

标签:三星   英伟   华尔街   产量   负载   应用程序   处理器   显卡   内存   需求

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top