面对AI芯片巨大的供需缺口,英伟达制订了一项雄心勃勃的计划。
据英国《金融时报》当地时间周三报道,三位接近英伟达的人士透露称,英伟达目前计划将旗舰H100显卡的产量至少增加两倍,到2024年H100的出货量将达到150万至200万块,比今年预期的50万块大幅跃升。英伟达H100的需求火爆异常,以至于到2024年都已售罄。
对此,科技媒体tom'sHARDWARE评论称,如果英伟达成功实现这一目标,并且AI和高性能计算(HPC)应用对其A100、H100和其他计算CPU的需求保持强劲,这可能意味着英伟达将攫取令人难以置信的收入。
由于英伟达的CUDA框架(运算平台)是为AI和HPC工作负载量身定制的,因此有数百种应用程序只能在英伟达的GPU上运行。亚马逊Web服务(AWS)和谷歌都有自己的定制AI处理器用于AI训练和推理工作负载,但他们还必须购买大量英伟达GPU,因为客户希望在GPU上运行应用程序。
然而,提高H100这种高性能芯片的产量并不容易。英伟达H100基于该公司的GH100处理器,而GH100的制造相当困难。
首先,GH100计算型GPU是一块尺寸为814mm*2的巨大硅片,因此很难大批量生产。尽管目前该产品的良率可能相当高,但英伟达仍需要从台积电获得大量4纳米晶圆供应,将其基于GH100的产品产量扩大三倍。粗略估计,台积电和英伟达每300毫米晶圆最多可以生产65个显卡。
因此,制造200万枚此类显卡需要近3万片晶圆,这当然是可能的。目前,台积电5纳米级晶圆产量为15万片/月,客户主要包括AMD、苹果、英伟达。
其次,GH100依赖HBM2E或HBM3内存,并使用台积电的CoWoS先进封装,因此英伟达也需要确保这方面的供应。目前,台积电正在努力满足CoWoS先进封装的需求。
第三,由于基于H100的设备使用HBM2E、HBM3或HBM3E内存,因此英伟达还必须从美光、三星和SK海力士等公司获得足够的HBM内存包。
最后,H100必须获得安装,因此英伟达需要确保其合作伙伴的AI服务器输出至少扩大三倍,这又带来了新的问题。