花旗观点(CITI'STAKE) 我们昨日在花旗年度硅谷巴士考察之旅中,与N

丹萱谈生活文化 2025-06-08 05:30:13

花旗观点(CITI'S TAKE) 我们昨日在花旗年度硅谷巴士考察之旅中,与NVIDIA网络业务高级副总裁Kevin Deierling进行了投资者会议。总体来看,我们对NVIDIA在计算、网络与存储三方面构建的AI“全栈护城河”印象深刻。以下为要点回顾: – 一切围绕AI:公司聚焦于AI所需的网络功能。NVIDIA拥有一个统一的网络操作系统,专注于优化计算和存储,目标是以用户每秒令牌成本(TCO)最低为核心。Dynamo是AI工厂的操作系统。自Mellanox被NVIDIA收购后,该团队停止研发园区交换机,转而专注于AI交换机,因为电信/大规模Web的响应逻辑与AI代理流不同。 – Spectrum-X销售:在最近公布的第一季度财报中,网络业务实现了强劲的环比64%的增长,达到50亿美元。这一增长看起来来源广泛,涵盖从“scale out”(横向扩展)到“scale up”(纵向扩展)的产品。在“scale up”方面,公司凭借NVLink解决方案实现了超过10亿美元的销售;在“scale out”方面,公司在Spectrum-X(以太网)产品组合上持续取得进展,新增了两个客户。Spectrum-X季度营收运行率为20亿美元,包含了NIC(网络接口卡)和交换机两部分。 – Infiniband与以太网:以太网仍在不断演化,但Infiniband依然是金标准。超大规模客户出于熟悉度的考虑要求使用以太网,NVIDIA在Spectrum X方面具有强大能力。尽管像Arista的EOS系统这类通用供应商试图从传统数据中心交换业务转向AI应用,NVIDIA的优势在于其具备完整的技术栈。博通(Broadcom)在市场中的主要产品为Tomahawk,而非Jericho平台,后者具有可编程性但会增加延迟。 – NVLink:NVLink是一个机架内的scale-up平台,为AI量身定制。它通过缓存一致性接口连接多个GPU(最多72个)。更大型的LLM模型受益于GPU的大规模纵向扩展,有时开发者会根据硬件GPU栈构建模型。客户无需从NVIDIA购买整个技术栈,他们可以按需采购,如超级NIC、交换机,以及用于半定制AI基础设施的NVLink Fusion。 – 共封装光学(CPO):NVLink使用了超过三英里的铜缆。铜线功耗低且成本便宜。但进行横向扩展时使用CPO的原因在于,PCB上的10到15英寸铜线会产生大量噪音,需要额外的DSP和重定时器(retimers)来处理。为避免这一问题,可将光学组件直接封装在ASIC旁边,将信号转化为光信号,从而省去DSP和重定时器。

0 阅读:0
丹萱谈生活文化

丹萱谈生活文化

感谢大家的关注