本文来源:时代周报 作者:朱程程 近年来,AI 计算的电力需求爆发式增长,让英伟达成为史上最大赢家。然而,最近的迹象表明,这种“一边倒的市场”正在发生变化。行业内部的不满情绪和资本市场的情绪同时发生着变化。 “天下为英伟达苦已久”不再是一句玩笑,而是成为对那段市值波动背后真相的描述。自10月29日以来,英伟达市值单月蒸发超过7000亿美元(约合人民币5万亿元)。 11月27日,NVIDIA创始人范振勋现身台北。值得注意的是,他对媒体坦言自己“真的很累”。这一系列变化的关键推动者并不是传统意义上的竞争对手,而是谷歌。长期以来默默无闻的TPU系列首次成为了故事的主要主角。据媒体报道,全球最大的人工智能基础设施投资者之一 Meta 正在与谷歌就大规模芯片采购进行谈判,并计划投资数十亿美元从谷歌购买 TPU,从 2027 年开始用于其数据中心。 Meta今年的资本支出预计在700亿至720亿美元之间。这一潜在订单的象征意义远远超出了其商业价值,因为它代表了行业主要参与者对谷歌AI芯片系统的认可和验证。谷歌的进攻是猛烈的,英伟达的反击是迅速而果断的。北京时间11月26日,英伟达公开表示,该公司仍“领先业界一代”,并强调其是“唯一可以运行所有AI模型并在任何地方进行计算的平台”。英伟达的防御逻辑依然强大。与 Google 的 TPU 等专用 ASIC 芯片相比,GPU 提供了更大的多功能性和灵活性灵活性。凭借对 CUDA 生态系统的支持,NVIDIA 仍然控制着更广泛的开发护城河。然而,行业争论已经转向另一个层面:能源效率比。随着人工智能训练和推理规模的不断增长,能源消耗成为新的限制。在相同的流程下,TPU 的能效明显高于 GPU,而且由于 Gemini 3 完全依赖于 Google 的 TPU 训练,这一优势开始产生实际影响。此外,还有tomando围绕ASIC(专用集成电路)路线组建了新的“挑战者联盟”。 Meta、亚马逊、微软、阿里巴巴、百度等云服务商,以及博通、寒武纪等众多芯片公司,都在针对特定场景打造定制AI芯片。与此同时,通用GPU阵营的参与度也在不断增加。 AMD、英特尔、海光信息(688041.SH)、摩尔线程(688795.S)等公司H)、木希、比人不断推出新产品,通过系统架构和集群优化,提升整体竞争力。市场对英伟达的情绪也变得谨慎。从“替代很难”到“替代是可能的”的情绪变化往往先于产业环境的变化。这并不意味着英伟达的主导地位很快就会改变。 CUDA生态的优势和整体算力仍然是其首要目标,但行业第一次出现了真正可以质疑的变数。随着谷歌能够使用 TPU 来训练其尖端模型,并且 Meta 认真考虑向竞争对手投资数十亿美元,这个已经坚固的结构开始出现微妙的裂缝。行业的变革往往就是从这些微妙的裂缝开始的。谷歌 TPU 具有成本效益。在硅谷,昂贵的产品最终会输给“便宜且足够好”的产品。投资者正在重新评估 NVIDIA 的主导地位因为谷歌提供了更具成本效益的AI模型,依靠相对单一功能、低成本的本地TPU来完成大规模模型训练。这很大程度上是因为它提供的SemiAnalysis模型数据表明,谷歌TPUv7在盈利能力方面相对于Nvidia具有绝对优势。 TPU 是针对特定任务(例如深度学习中的矩阵乘法和卷积运算)进行优化的 ASIC。牺牲多功能性来换取最大性能和能源效率。 “同等工艺下,TPU的能效比(性能/瓦特)远高于GPU。例如,最新一代Ironwood TPU的能效比是第一代TPU的30倍。”资深半导体专家张国斌在接受时代周报记者采访时表示。事实上,谷歌十年来一直在这条技术道路上进行投资。自2015年第一代TPU发布以来,每一代产品都产品不断提高系统性能、可扩展性和效率。通过将光学互连技术集成到 TPU 系统中,谷歌将能够在 2025 年在 TPU v7 中构建包含 9,000 多个芯片的超大型集群。这种改进超出了谷歌的内部生态系统。 OpenAI 已经开始使用 TPU 进行一些训练。 Anthropic 明确致力于使用 TPU v5e 作为其下一个大规模训练平台,并强调其选择的原因是“性能与成本之间的平衡”。谷歌还致力于将其 TPU 网络扩展到中小型云提供商,通过更灵活的协作形式降低进入壁垒。其中,最受市场关注的是基于谷歌“硬件即服务”(HaaS)的协作模式。与一次性销售硬件不同,Google 保留 TPU 的所有权,将设备部署在合作伙伴数据中心,并在使用情况下共享使用情况是。华泰证券研报认为这是典型的市场渗透策略“游击战”市场。 SocioPEX (capex) CA 智能地降低了进入门槛,减轻了新兴中小型云提供商数十亿美元的硬件投资压力。此外,谷歌正在构建完整的“算力-网络-模型-应用”体系(TPU+OCS+Gemini+云服务),实现从芯片到应用的深度融合。这种集成将使谷歌能够进行系统级优化,例如完全填充 TPU 超级节点的数据中心网络拓扑。张国斌认为,随着竞争对手的不断进步以及市场需求的多元化,NVIDIA的垄断壁垒实际上正面临着挑战。特别是ASIC(专用集成电路)的高效率和低功耗特性可以在特定任务中得到详细利用。该市场细分市场这对 Nvidia 来说是一个巨大的威胁。单卡的性能变得不再那么重要。在单卡性能方面,NVIDIA仍然拥有绝对优势,但超级节点集群的高效连接和系统级优化可能会削弱NVIDIA在大型数据中心和云服务提供商中的主导地位。所谓“超级节点”(SuperPod)是NVIDIA最初提出的概念。系统级架构创新将数千个计算芯片紧密耦合到高速互连域中,抵消了传统服务器到服务器的延迟和带宽问题。去年,该行业朝这个方向发展的速度比大多数人预期的要快。谷歌在Google Cloud Next 25大会上正式公布了第七代Ironwood张量处理器。ICI扩容,超级节点规模达到9216个芯片,最大吞吐量达到4614 TFLOPS。这是之前 TPU v5p 一代的 10 倍。中资股份制造商也采取类似的方法。华为轮值总裁徐直军在9月份的一次演讲中认为,超级节点已经成为大规模计算基础设施的主要形式。据透露,Atlas 950 SuperPoD和Atlas 960 SuperPoD超级节点产品分别支持8192张Ascend卡和15488张Ascend卡。它们在卡尺寸、总计算能力、内存容量和互连带宽等重要指标上处于领先地位。这些将是未来许多年世界上最强大的计算超级节点。阿里云在2025云栖大会上发布盘九128超级节点服务器。采用自主研发的CIPU 2.0和EIC/MOC网卡,一柜可容纳128颗AI芯片。百度昆仑核心于今年4月在白鸽5.0上全面启用超级节点,并实现量产部署。国内GPU厂商也在加速追赶。羲智科技联合必人、中兴通讯推出LightSphereX光互连t GPU超级节点。书源云服ESL超级节点系统可实现单节点64张卡的全带宽互联。 Muxi的熙云C600支持MetaXLink超级节点扩展。 Moore Thread采用自主研发的KUAE计算集群,通过5D分布式并行技术实现数千个节点的协作。从华为、阿里巴巴、百度,到小龙比人、燧原、木希、摩尔线程四大“GPU”,国内各领域纷纷推出超级节点。华龙证券认为,中美之间的AI竞争正在从“单卡性能”走向“系统级效率”。我是这么认为的。中国的目标是通过集群+开源生态+工程产品全面超越AI基础设施。当AI算力的竞争从“芯片之战”转向“系统之战”时。单卡性能变得越来越不重要,而系统效率、能效指数和大规模集群交付能力正在成为新的衡量标准。对于英伟达来说,现实并不悲观。 NVIDIA 仍然是业界最成熟的生态系统、最强大的通用计算系统和最广泛的开发者基础。但谷歌还继续通过 C 集群和超级节点集群扩大其影响力,这为 TPU 和云服务制造商自己的 ASI 打开了新的可能性之窗。聚焦“足够好、便宜、可扩展”。“乐”同时发挥了更多的变量。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。