英伟达电话会:需求持续强劲,下半年供应增加,数据中心正经历两大转型 - 市场热点 - 华西证券
logo
立即开户
  1. 华西证券
  2. 市场热点
  3. 文章详情

英伟达电话会:需求持续强劲,下半年供应增加,数据中心正经历两大转型

资讯来源:华彩人生APP
华西证券官方应用,综合性金融证券交易平台。
发布时间:2023-08-24 13:00

经历了美股的“黑色八月”后,英伟达拿出了一份远超华尔街预期的财报,再次向市场证明其价值。

财报公布后的电话会上,英伟达表示,强劲的下游需求驱动其数据中心业务强劲增长,预计供应将在下半年显著增加。

英伟达还宣布:

  • 推出数据中心处理器NVIDIA L40S GPU以加速计算密集型应用,自本季度起,包括NVIDIA OVX?以及搭载NVIDIA BlueField?dpu的NVIDIA AI-ready服务器均可提供。

  • 用于复杂 AI 和 HPC 工作负载的GH200超级芯片已进入全面生产,并将于本季度在OEM服务器上可用,最新的HBM内存将在2024 年第二季度发货。

    DGX预计年末可获得使用,谷歌云、meta和微软是首批获权限的公司。在英伟达DGX云的支持下,hugging face将为企业提供一项新服务,以训练和调整先进的人工智能模型。

英伟达盘后一度上涨逾10%。

数据中心增长强劲,游戏业务回暖

本季度英伟达数据中心收入同比大增171%,达到103.2亿美元;游戏业务收入同比增长22%,达24.9亿美元,较上季度增长11%重回增长轨道。

英伟达表示,数据中心收入增长主要得益于云服务提供商和大型互联网公司对AI基础设施的大规模投资,它们正积极采购英伟达的HGX平台用于建设机器学习基础设施,因此带来了极强的购买需求。

在本季度,我们的云服务提供商为HGX系统带来了异常强劲的需求,因为他们正在进行新一代的转型,以升级其数据中心基础设施,迎接加速计算和人工智能的新时代。英伟达HGX平台是近二十年来在硅系统、互连、网络软件和算法等领域全栈创新的结晶。由NvidiaH100 Tensor Core GPU提供动力的实例现已在AWS、Microsoft Azure等多个GPU云提供商中提供,其他也即将推出。

消费者互联网公司也带动了非常强劲的需求。他们对为人工智能专门打造的数据中心基础设施的投资已经带来了显著的回报。例如,Meta最近强调,自从推出Reels和AI推荐以来,Instagram的使用时间增加了超过24%。

游戏业务收入增长,主要是由于英伟达新推出的RTX 40系列游戏GPU受到消费者欢迎。英伟达表示,笔记本和台式机市场需求强劲,这表明游戏市场正在恢复增长:

游戏收入为 24.9 亿美元,环比增长 11%,同比增长 22%,这得益于笔记本电脑和台式机上的 GeForce RTX 40 系列 GPU,客户需求坚实且符合季节性。

我们相信全球需求在经历去年的放缓后已经恢复增长。我们面临着巨大的升级机会。我们安装基数中仅有 47% 进行了 RTX 升级,约20% 的用户拥有 RTX 30、60 或更高性能的 GPU。

笔记本电脑 GPU 在关键的返校季实现了强劲增长,其中以 RTX 40、60 系列为主导。搭载GPU 的笔记本电脑变得越来越受欢迎,并且在全球多个地区的出货量现在已经超过了台式机 GPU。这可能会改变我们整体游戏收入的季节性,Q2 和 Q3 可能会成为全年较强的季度,反映了笔记本电脑的返校和假日装机计划。

软件和服务类收入是英伟达新的增长亮点。英伟达表示,目前这块业务收入稳步提升,已经达到每年数百亿美元的规模。未来服务类收入将成为推动英伟达业绩增长的重要组成部分。例如DGX Cloud合作已经获得成功。

除数据中心和游戏业务外,英伟达在专业可视化、自动驾驶等细分市场也保持着良好的增长态势,这些市场存在更大的增长空间,将为英伟达业绩提供新的动力。

下半年供应量增加

产能受限、供应不足,是英伟达上半年增长所面对的挑战。在电话会上,英伟达管理层对于下半年供应量增加持乐观态度,预计未来几个季度供应将持续改善。

关于供应方面,我们计划在未来季度和财年继续增加供应量。虽然具体的增长百分比不确定,但我们对供应链合作和改善持乐观态度。

我们的供应合作伙伴在提高产能方面表现出色,以支持我们的需求。

我们的数据中心供应链,包括拥有35000个零部件的HGX和高度复杂的网络,已经在过去十年内建立起来。我们还为制造过程的关键环节,如芯片封装,开发和认证了额外的产能和供应商。我们预计供应在明年每个季度都会增加。

另外,英伟达还表示,新推出的L40S GPU有助于缓解供应紧张,多款新产品也将丰富产品组合。

L40S其实是为不同类型的应用而设计的。H100是为大规模语言模型和处理而设计的,而这不是L40S的重点。

L40S的重点是对预训练模型进行微调。它有一个Transformer引擎,性能强大,可以在一台服务器中使用多个GPU。它专为超大规模扩展而设计,这意味着可以轻松地将L40S服务器安装到全球的超大规模数据中心。它采用标准机架、标准服务器,一切都符合标准。因此,它很容易安装。

L40S是为全球企业T系统设计的,这也是惠普、戴尔、联想和其他20家系统制造商与我们合作的原因,他价构建了约100种不同配置的企业服务器,将生成式人工智能带入全球企业。

总之,L40S确实是为不同类型的扩展而设计的。当然依旧是大模型,也是生成式人工智能,但它的用例不同。现在L40S有了一个良好的开端,全球企业和超大规模企业都在争相部署L40S

英伟达表示,尽管正提高供给,但由于下游需求过于旺盛,供不应求的状态预计在未来一段时间仍将持续。

加速计算+生成式AI=重塑行业

英伟达管理层认为,加速计算和生成式AI正在重塑整个行业,带来新的增长机遇。这是长期积极趋势。

数据中心行业正经历两大平台转型:加速计算和生成式AI。这是长期趋势,不仅提升成本效益和能源效率,还推动了整个行业的变革。数据中心资本支出正逐步聚焦于这两个关键趋势,加速计算和生成式AI,这不仅是短期现象,更是行业长期转型的趋势。

现在许多公司正在认识到这一转折点,开始投资于加速计算和生成式人工智能。这可能是我们面临的机会最简单的方式。这个独特的应用正在推动需求,这代表着一个新的计算平台。正在发生的是一个全球性的新计算过渡,世界各地的数据中心都在积极响应并广泛转变。

英伟达还表示,正在建立的Omniverse正是为了更广泛行业的转型而准备的:

我们正在建立NVIDIA Omniverse,以数字化和启用全球数万亿美元的重工业,利用生成式AI来自动化他们建设和运营实体资产的方式,从而实现更大的生产力。生成式AI起源于云,但最重要的机会在全球最大的产业领域,企业可以实现数万亿美元的生产率提升。

这对于NVIDIA、我们的客户、合作伙伴以及整个生态系统来说,都是一个激动人心的时刻,推动计算的这一代变革。


以下为英伟达电话会问答全文:

FY2024Q2(对应CY2023Q2)业绩:

营收:第二季度总营收135.1亿(美元),同比增长101%,环比增长88%。超出110亿美元的预期。

数据中心计算收入同比增长了近三倍,主要是由于云服务提供商和大型互联网公司对云服务需求的加速推动。对于生成式人工智能和大型语言模型引擎HGX平台,主要公司包括AWS、GoogleCloud、Meta、Microsoft Azure和Oracle Cloud,以及日益增多的GPU云提供商,他们正在大规模部署基于Hopper和Ampere架构的HGX系统。

网络收入同比增长了近两倍,主要受益于端到端的InfiniBand网络平台,这被视为人工智能的黄金标准。Nvidia加速计算和人工智能平台的需求非常巨大。我们的供应合作伙伴在提高产能方面表现出色,以支持我们的需求。我们的数据中心供应链,包括拥有35000个零部件的HGX和高度复杂的网络,已经在过去十年内建立起来。我们还为制造过程的关键环节,如芯片封装,开发和认证了额外的产能和供应商。我们预计供应在明年每个季度都会增加。

按地理位置划分,数据中心的增长在美国最为强劲,因为客户将其资本投资导向人工智能和加速计算。中国的需求在历史范围内保持在我们数据中心收入的20%到25%之间,包括计算和网络解决方案。关于加强对我们向中国出口的管制的最新报告,我们认为当前的管制正在取得预期的成果。考虑到我们产品在全球的强劲需求,如果对我们的数据中心GPU增加进一步的出口限制,我们预计不会立即对我们的财务业绩产生实质性影响。然而,从长远来看,如果实施禁止向中国销售我们的数据中心GPU的限制,将导致美国产业在全球最大市场之一中失去竞争和领导的机会。

在本季度,我们的云服务提供商为HGX系统带来了异常强劲的需求,因为他们正在进行新一代的转型,以升级其数据中心基础设施,迎接加速计算和人工智能的新时代。英伟达HGX平台是近二十年来在硅系统、互连、网络软件和算法等领域全栈创新的结晶。由NvidiaH100 Tensor Core GPU提供动力的实例现已在AWS、Microsoft Azure等多个GPU云提供商中提供,其他也即将推出。

消费者互联网公司也带动了非常强劲的需求。他们对为人工智能专门打造的数据中心基础设施的投资已经带来了显著的回报。例如,Meta最近强调,自从推出Reels和AI推荐以来,Instagram的使用时间增加了超过24%。

企业也在竞相部署生成式人工智能,推动了云中使用Nvidia强力实例的消耗,以及对本地基础设施的需求。无论是在云端还是通过合作伙伴或直接提供服务,他们的应用都可以在Nvidia AI企业软件上无缝运行,可访问我们的加速库、Rechain模型和API。我们宣布与Snowflake合作,为企业提供使用他们自己的专有数据创建定制生成式AI应用程序的加速路径,所有这些都在Snowflake Data Cloud中安全进行。借助于开发大型语言模型的Nvidia Nemo平台,企业将能够在Snowflake Data Cloud中为高级AI服务,如聊天机器人、搜索和摘要,定制LLM(大型语言模型)。

几乎所有行业都可以从生成式人工智能中受益。AI微软刚刚宣布的合作试点,提高了10亿办公室工作人员和数千万软件工程师的生产力。数百万法律服务、销售、客户支持和教育领域的专业人士将可以利用在他们领域受过培训的AI系统。AI合作试点和援助将为我们的客户创造数千亿美元的新市场机会。

我们正在看到生成式人工智能在营销、媒体和娱乐领域的一些最早应用。全球最大的营销和传播服务机构WPP正在开发一个内容引擎,使用Nvidia Omniverse将生成式人工智能融入到3D内容创作中,使艺术家和设计师能够进行集成。WPP的设计师可以根据文本提示创建图像,同时使用经过负责任培训的生成式AI工具和来自Nvidia合作伙伴(如Adobe)的内容。并且使用Nvidia Picasso获取图像,这是一个用于视觉设计的自定义生成式AI模型的铸造厂。视觉内容提供商Shutterstock也正在使用Nvidia Picasso构建工具和服务,使用户可以借助生成式AI创建3D场景背景。 我们与ServiceNow和Accenture合作推出了AI Lighthouse计划,加快了企业AI能力的发展。AI Lighthouse将ServiceNow的企业自动化平台和引擎与Nvidia的加速计算以及Accenture的咨询和部署服务相结合。

我们还与Hugging Face合作,简化了为企业创建新的和定制的AI模型。Hugging Face将为企业提供一个新的服务,使用Nvidia DGX Cloud提供动力,用于训练和优化高级AI模型。 我们还与拥抱脸合作,简化企业新定制AI模型的创建。Hugging Face将为企业提供一项新服务,训练和调整高级AI模型,由英伟达DGX云提供支持。

就在昨天,Vmware和Nvidia宣布了一个名为“Vmware Private AI Foundation within Vidi”的重要企业解决方案,这是一个完全集成的平台,包括AI软件、加速计算和Nvidia多云软件,适用于运行Vmware的企业。Vmware的数十万企业客户将能够获得所需的基础设施、AI和云管理软件,以定制模型并运行生成式AI应用,如智能聊天助手、搜索和摘要。

我们还宣布了新的Nvidia AI企业级服务器,配备了新的Nvidia L 40 s GPU,专为行业标准的数据中心服务器生态系统和BlueField 3 DPU数据中心基础设施处理器而设计。L 40 s不受芯片供应限制,正在发货给全球领先的服务器系统制造商。L40S是一个通用的数据中心处理器,专为高容量数据中心扫描和加速最计算密集的应用程序,包括AI训练和发明审查、设计可视化、视频处理以及Nvidia Omniverse工业可视化。

Nvidia AI企业级就绪服务器已经完全优化了Vmware CloudFoundation和Private AI Foundation。近100种配置的Nvidia AI企业级就绪服务器将很快由世界领先的企业IT计算公司提供,包括戴尔、HPE和联想。

GH200 Grace Hopper超级芯片将我们的基于ARM的Grace CPU与Hopper GPU结合起来,已经开始全面生产,并将在本季度在OEM服务器上提供。它还在运送给多个超级计算客户,包括洛斯阿尔莫斯国家实验室和瑞士国家计算中心。Nvidia和购物正在合作开发基于GH200的平台,用于生成式AI和5G60应用。我们的第二代Grace超级芯片将于2024年第二季度推出,配备最新的HBM re e内存。

我们宣布了GGX GH200,这是一种新型的大内存AI超级计算机,用于巨大的AI语言模型推荐系统和数据分析。这是新的Nvidia NV链接交换系统的首次应用,使其256个Grace Hopper超级芯片能够共同工作,与我们之前一代相比,这是一个巨大的飞跃。与仅连接AGPU的方式相比。

预计BGX GH200系统将于年底前推出,谷歌云、Meta和微软将成为首批获得访问权限的企业。强劲的网络增长主要得益于InfiniBand基础设施,用于连接HGX GPU系统,由于其端到端的优化和网络计算能力,InfiniBand为AI提供了超过传统以太网两倍的性能。对于数十亿美元的AI基础设施来说,通过InfiniBand提高的吞吐量价值数百万美元,足以支付网络费用。此外,只有InfiniBand才能扩展到数十万个GPU。它是领先的AI从业者的首选网络,适用于以以太网为基础的云数据中心,旨在优化其AI性能。

接下来再次宣布 Nvidia Spectrum X,这是一款加速的网络平台,旨在优化以太网用于AI工作流程。Spectrum X将互联网交换机的光谱与Blue Field 3 DPU相结合,实现与传统以太网相比1.5倍的整体AI性能和功耗效率。Blue Field 3 DPU取得了巨大成功,正在与主要OEM厂商进行验证,并在多家云服务提供商和消费互联网公司中逐步推广。

接下来谈到游戏方面。游戏收入为 24.9 亿美元,环比增长 11%,同比增长 22%,这得益于笔记本电脑和台式机上的 GeForce RTX 40 系列 GPU,客户需求坚实且符合季节性。我们相信全球需求在经历去年的放缓后已经恢复增长。我们面临着巨大的升级机会。我们安装基数中仅有 47% 进行了 RTX 升级,约20% 的用户拥有 RTX 30、60 或更高性能的 GPU。笔记本电脑 GPU 在关键的返校季实现了强劲增长,其中以 RTX 40、60 系列为主导。搭载GPU 的笔记本电脑变得越来越受欢迎,并且在全球多个地区的出货量现在已经超过了台式机 GPU。这可能会改变我们整体游戏收入的季节性,Q2 和 Q3 可能会成为全年较强的季度,反映了笔记本电脑的返校和假日装机计划。

在台式机方面,我们推出了 GeForce RTX 4060 和 GeForce RTX 4060 Ti GPU,将 Ada Love Lace 架构的价格降至 299 美元。RTX 和 DLSS 游戏生态系统继续扩大。新增了 35 款支持 DLSS 的游戏,包括《暗黑破坏神 4》和《炉石传说:焰尘战记》等畅销游戏。现在有超过 330 款支持 RTX 加速的游戏和应用程序。我们正在将生成式 AI 应用于游戏。在 Computex 上,我们宣布了面向游戏的 Nvidia Avatar CloudEngine 8,这是一个定制的 AI 模型工厂服务。开发人员可以使用该服务赋予非玩家角色智能。它利用了多个 Nvidia Omniverse 和 AI 技术,包括 Email、Reva 和 audioto face。

现在转向专业可视化领域。收入为 3.75 亿美元,环比增长 28%,同比下降 24%。Ada 架构的推出带动了强劲的增长,首先在笔记本工作站上进行了更新,台式机工作站的更新将于 Q3 推出。这些系统将配备高达四颗 Nvidia RTX 6000 GPU,提供超过 5800 特拉弗的 AI 性能和192GB 的 GPU 内存。它们可以配置 Nvidia AIEnterprise 或 Nvidia Omniverse Enterprise。我们还宣布了三款基于 Ada 架构的新台式机工作站 GPU,即 Nvidia RTX 5040、5000 和 4000,相较上一代,RT 核心吞吐量提升了最多 2 倍,AI 训练性能提升了最多 2 倍。除了传统的 3D 设计和内容创作工作负载外,新的工作负载和生成式 AI 大语言模型的开发以及数据科学正在扩大我们的 RTX 技术在专业可视化领域的机会。

在汽车领域,收入为 2.53 亿美元,环比下降 15%,同比增长 15%。稳健的同比增长主要是由基于 NVIDIA Drive 的自动驾驶平台的推出推动的,该平台在多家新能源汽车制造商中得到了应用。环比下降反映了整体汽车需求的下降,特别是在中国。我们宣布与联发科技合作,为驾驶员和乘客在汽车内部提供新体验。联发科技将开发汽车 SoC,并整合新的 Nvidia GPU 产品线。该合作伙伴关系涵盖从豪华车到入门级车型的各个汽车领域。继续谈谈财务报表的其他部分,按照美国通用会计准则 (GAAP),毛利率扩大至70.1%,非按照美国通用会计准则 (Non-GAAP) 的毛利率扩大至 71.2%,这主要是由于数据中心销售增加。我们的数据中心产品包括大量的软件和复杂性,这也有助于推动毛利率增长。环比下,按照 GAAP 的运营费用上升了 6%,非按照 GAAP 的运营费用上升了 5%,主要反映出薪酬和福利的增加。我们以股票回购和现金股息的形式向股东返还了约 34 亿美元。我们的董事会刚刚批准了额外的 250 亿美元的股票回购,将添加到我们截至 Q2 结束时剩余的 40 亿美元的授权额度。接下来,我们可以关注一下财年 2024 第三季度的展望。

我们的 AI 数据中心平台需求巨大,跨足多个行业和客户。我们的需求可见度延伸至明年。未来几个季度,我们的供应将继续增加,因为我们降低周期时间并与供应合作伙伴合作增加产能。此外,新的 l4 DS GPU 将有助于满足从云计算到企业等多种工作负载的不断增长需求。

FY2024Q3指引:

预计总收入为160亿美元左右,波动范围为正负2%。预计环比增长主要由数据中心推动,同时游戏和专业可视化领域也会有所贡献。

根据通用会计准则(GAAP)和非通用会计准则(Non-GAAP)的毛利率将分别为71.5%和72.5%,波动范围为正负50个基点。

根据通用会计准则(GAAP)和非通用会计准则(Non-GAAP),运营费用预计分别为约29.5亿美元和20亿美元。

根据通用会计准则(GAAP)和非通用会计准则(Non-GAAP),其他收入和费用预计将为约10万美元的收入。不包括非运营投资的盈亏,根据通用会计准则(GAAP)和非通用会计准则(Non-GAAP)的税率预计将为14.5%,正负1%,不包括任何离散项。

Q&A

Q:您预计未来一年新增供应量增长幅度是多少?大约20-30%,40-50%还是其他?您能谈谈您对超大规模支出的信心吗?尽管整体市场增长不大,您如何确信他们会继续增加用于生成式AI的投资?请分享一下未来一到两年需求的可持续性看法。以及如果参考您对第三季度数据中心展望,大约1213亿美元,这对已进行AI加速的服务器数量以及未来部署的影响如何?请简要说明您对未来一到两年持续增长的信心。

A:关于供应方面,我们计划在未来季度和财年继续增加供应量。虽然具体的增长百分比不确定,但我们对供应链合作和改善持乐观态度。

世界上已经安装了约一万亿美元价值的数据中心,分布在云端、企业和其他领域。数据中心行业正经历两大平台转型:加速计算和生成式AI。这是长期趋势,不仅提升成本效益和能源效率,还推动了整个行业的变革。数据中心资本支出正逐步聚焦于这两个关键趋势,加速计算和生成式AI,这不仅是短期现象,更是行业长期转型的趋势。

Q:我认为最引人注目的是这些数字中仍然存在大量未满足的需求。尽管收入在短短几个季度内增长超过两倍,客户反馈显示,有些情况下人们得到的还远远不及他们实际需要的数量。您能否谈一下您认为尚未满足的需求有多大,并且您提到了对明年的展望。您是否已经能够预见何时实现供需平衡?

A:是的,我们在今年和明年都有很好的前景。我们正在规划下一代基础设施,并与主要的CSP和数据中心建设商合作。需求方面,最简单的理解方式是,全球正在从通用计算向加速计算过渡。这是需求的最简单思考方式。对于企业提升吞吐量,最佳途径是提高能源效率和降低成本效率。这意味着将资金投入加速计算和共享基础设施,因为这样可以将许多工作流从CPU卸载,提升可用的CPU性能。因此,现在许多公司正在认识到这一转折点,开始投资于加速计算和生成式人工智能。这可能是我们面临的机会最简单的方式。这个独特的应用正在推动需求,这代表着一个新的计算平台。正在发生的是一个全球性的新计算过渡,世界各地的数据中心都在积极响应并广泛转变。

Q:上个季度,Colette提到CSP(云服务提供商)占据了数据中心收入的大约40%,消费者互联网占30%,企业占30%。根据您的讲话,CSP和消费者互联网可能在业务中占比更大,如果能澄清或确认一下,将会非常有帮助。然后是关于Jensen的问题。作为AI的关键推动者,您对于客户是否能够从应用或用例中获得合理的投资回报充满信心吗?我提出这个问题是因为有人担忧在未来的几年中您的需求情况可能会有所停滞。我想了解是否有足够的广度和深度来支持您的数据中心业务持续增长?

A:感谢关于我们数据中心业务不同类型客户的问题的澄清。在第二季度,大型云服务提供商(CSP)贡献了50%以上的收入,其次是消费者互联网公司。至于未来,难以准确预测季度变化,但趋势是明确的,我们正经历平台转型,从通用计算向加速计算转变,加速计算可广泛用于各种应用,有着巨大的潜力。与此同时,我们与VMware合作,推出了支持GPU虚拟化和分布式计算的VMware Private AI Foundation版本,使企业能够构建先进的AI数据中心。这是一个全球性的趋势,不仅适用于云端,还涵盖了地区性的GPU专业云服务提供商,为持续的数据中心业务增长提供了广泛支持。

Q:L40S对解决供应紧张有多大帮助? L40能起到多大作用呢?是否你能谈谈这个产品的增量盈利能力或毛利率贡献?

A:L40S其实是为不同类型的应用而设计的。H100是为大规模语言模型和处理而设计的,而这不是L40S的重点。L40S的重点是对预训练模型进行微调。它有一个Transformer引擎,性能强大,可以在一台服务器中使用多个GPU。它专为超大规模扩展而设计,这意味着可以轻松地将L40S服务器安装到全球的超大规模数据中心。它采用标准机架、标准服务器,一切都符合标准。因此,它很容易安装。L40S是为全球企业T系统设计的,这也是惠普、戴尔、联想和其他20家系统制造商与我们合作的原因,它构建了约100种不同配置的企业服务器,将生成式人工智能带入全球企业。

总之,L40S确实是为不同类型的扩展而设计的。当然依旧是大模型,也是生成式人工智能,但它的用例不同。现在L40S有了一个良好的开端,全球企业和超大规模企业都在争相部署L40S。

Q:能谈一下您出货的计算产品中有多少与网络解决方案一起出售吗?大约一半的计算产品是否搭载了您的网络解决方案?您是否可以用这个信息来进行资源分配的优先级排序?

A:我们从后往前考虑。我们不使用这个来优先分配GPU资源。我们让客户自行决定使用何种网络。对于构建大型基础架构的客户来说,选择使用InfiniBand几乎是理所当然的,因为InfiniBand的效率非常高。在数十亿美元的基础设施中,吞吐量提高10/15/20%,节省巨大。基本上,网络是免费的。因此,如果基础设施用于单一应用,或主要用于大型语言模型或AI系统,选择InfiniBand是明智的选择。对于为多个用户提供服务且以以太网为核心的情况,我们有优秀的解决方案,即Spectrum X。它将部分InfiniBand功能应用于以太网,可在以太网环境中实现出色共享和智能网卡功能。Spectrum X正在逐步推出,需要Bluefield 3,支持Spectrum 2和Spectrum 3以太网交换机,性能显著提升,有多款相关软件。Bluefield是我心中的重要项目,已经取得了巨大成功。在网络计算中加入大量软件的概念,通过Bluefield 3实现,将在计算网络中取得巨大成功。

Q:关于DGX Cloud的接受程度和动力,以及软件业务的运营速率和影响利润率的程度,请您谈一下。

A:DGX Cloud战略旨在实现几个目标。首先,实现我们与全球CSP之间的紧密合作伙伴关系。我们意识到我们与世界各地的约3万家公司合作,其中1.5万家是创业公司,数千家是生成式AI公司。而增长最快的领域当然是AI。我们与全球所有的AI创业公司合作。他们最终希望能够进入全球任何一个云,并因此我们在全球领先的云中建立了DGX Cloud,以便能够与所有AI合作伙伴同时合作,并帮助他们轻松地进入我们的云合作伙伴之一。第二个好处是,它使我们的CSP以及我们能够紧密合作,以改进为多租户而设计的超大规模计算中心的性能,这些中心从历史上设计用于高性能分布式计算,如生成式AI。因此,能够在架构上密切合作,让我们的工程师紧密合作,以提高网络性能和计算性能,效果非常显著,非常出色。第三,当然,NVIDIA本身使用非常大的基础架构。我们的自动驾驶车队,我们的深度研究团队,我们的生成式AI团队,我们的语言模型团队,所需基础架构的数量相当可观,没有DGX系统,我们的任何优化编译器都不可能存在,现在甚至编译器都需要AI,而且优化软件和基础架构软件的开发也需要AI。众所周知,我们的工程使用AI来设计芯片,我们内部对AI的消费也非常大,我们的机器人团队,Omniverse团队等等,都需要AI。所以,我们的内部消费也很大,并将其引入了DGX Cloud。DGX Cloud具有多种用途、多种驱动因素,已经在我们的CSP和开发人员中取得了巨大成功,我们的内部工程师主要是想要更多,这对我们来说是与全球各地的所有AI系统紧密合作的绝佳方式。至于关于我们的软件收入的问题,我会在我们的开场白中进行回答,几乎所有产品都支持部分,无论是数据中心产品、GPU系统还是游戏产品,还有未来的汽车产品。您是对的,我们也在努力提供软件服务升级。目前,我们每年的软件业务收入可能已经达到数百亿美元,我们正在推出许多支持Invidia AI的产品,如DGX、我们的TC、H100的IE版本等,我认为我们还会在我们的CST市场中看到更多可用性。我们已经有了一个良好的起步,我相信我们将会继续取得成功。

新的计算时代已经开始。行业正在同时经历两个平台转型,加速计算和生成式AI。数据中心正在从通用计算转向加速计算。全球数万亿美元的数据中心将实现过渡,从而实现性能、能源效率和成本的数量级提升。加速计算使生成式AI成为可能。这正在推动软件的平台转型,并实现了以前不可能的新应用。加速计算和生成式AI共同推动了广泛的计算行业平台转型。我们面临巨大的需求。我们正在大幅扩展产品生产能力。供应将在今年余下时间和明年大幅增加。大家已经为此准备了20多年,并且创造了一个全球产业可以构建的新计算平台。我们的特色在于三个方面:一是架构。NVIDIA从数据处理、训练、推理到各种AI模型,实时语音到计算机视觉,巨大的推荐系统到向量数据库,都进行了加速。我们的架构的性能和多功能性可以转化为最低的数据中心总拥有成本和最佳的能源效率。二是装机基数。全球范围内有数以亿计与CUDA兼容的GPU。开发者需要庞大的装机基数才能触达终端用户并发展业务,NVIDIA是开发者首选的平台。更多开发者创造更多应用,使NVIDIA对客户更有价值。三是覆盖范围。NVIDIA覆盖了媒体和云、企业数据中心、工业边缘、个人电脑、工作站、仪器和机器人等领域。每个领域都有基本不同的计算模型和生态系统,系统供应商如OEM生产商可以对NVIDIA进行有信心的投资,因为我们提供了强大的市场需求和覆盖范围。此外,我们已经实现了大规模并且100%投入于加速计算和生成式AI。我们的生态系统合作伙伴可以信任我们拥有专业知识、专注性和规模,可以提供强大的路线图和扩展范围,以帮助他们增长。我们之所以加速,是因为这些能力的累加效果。我们每六个月左右就会升级和推出新产品,以应对不断扩大的生成式AI领域,同时我们还在增加H100的产量,用于训练和推理大型语言模型。我们正在推出新的L40S通用GPU,用于云规模和企业服务器的扩展,Spectrum X包括我们的以太网交换机、Bluefield 3、Supernet和软件,有助于希望在以太网基础架构上获得最佳AI性能的客户。客户已经开始与我们的Grace Hopper一起进行下一代加速计算和生成式AI的研发。我们正在将NVIDIA AI扩展到需要生成式AI的全球企业,但同时要考虑模型的隐私、安全性和主权。与世界领先的企业IT公司,如Accenture、Adobe、Getty、Hugging、Face、No Flake、ServiceNow、VMware和WP,以及我们的企业系统合作伙伴Dell、HP和Lenovo一起,我们正在将生成式AI带入全球企业。我们正在建立NVIDIA Omniverse,以数字化和启用全球数万亿美元的重工业,利用生成式AI来自动化他们建设和运营实体资产的方式,从而实现更大的生产力。生成式AI起源于云端,但最重要的机会在全球最大的产业领域,企业可以实现数万亿美元的生产率提升。

 
 
华西证券网上快速开户通道,点此可查看本通道佣金等详情。
华西证券网上快速开户通道,点此可查看本通道佣金等详情。

免责声明
本文内容仅为投资者教育之目的而发布,不构成投资建议。投资者据此操作,风险自担。我司力求本文所涉信息准确可靠,但并不对其准确性、完整性和及时 性作出任何保证,对因使用本文引发的损失不承担责任。股市有风险,投资需谨慎!

更多相关文章

华西证券
×
华西证券优选
微信扫描二维码 ×
华西证券优选
微信扫描二维码 ×
华西证券优选