微软声称升级自研AI芯片,减少对NVIDIA的依赖,超越亚马逊Trainium,性能超越谷歌TPU

美国东部时间周一,微软推出了第二代人工智能 (AI) 芯片 Maia 200。这是微软减少对 Nvidia 芯片依赖并更有效地为其服务提供支持的核心举措。该芯片采用台积电3纳米工艺制造,将开始部署在爱荷华州的数据中心,然后部署在菲尼克斯地区,代表了微软在本地芯片领域的重大进步。微软云和人工智能业务负责人 Scott Guthrie 在博客文章中表示,Maia 200 是“微软部署过的最高效的推理系统”,每美元的性能比当前一代微软硬件高出 30%。最初,这些芯片将供应给微软的超级智能团队,该团队将生成数据以改进下一代AI模型,并为AI服务提供数据支持。e计算能力,包括面向企业的Copilot助手和最新的OpenAI模型。根据Scott Guthrie 表示,Maia 200 在多个性能指标上都优于 Google 和 Amazon 的类似芯片。该芯片的 FP4 精度性能是第三代 Amazon Trainium 芯片的三倍,其 FP8 性能超越了谷歌第七代 TPU。微软正在向开发人员、学者和尖端人工智能实验室提供 Maia 200 软件开发套件的预览版,并计划未来向更多客户“开放云租赁”该芯片。这一公告凸显了科技巨头之间为获得人工智能算力自主权而展开的激烈竞争。在Nvidia芯片供应不足、成本高昂的背景下,微软、亚马逊和谷歌正试图加快其props.ios芯片的开发进程,为云客户提供更流畅、成本更低的集成替代方案。微软宣布正在设计 Maia 300 的后继产品。 Maia 200 发布后,微软股价开始上涨。股价走高,美国股市早盘收盘时涨幅超过1%。截至午盘,涨幅超过1.6%,收盘涨幅超过0.9%。该股连续三个交易日收高,创近两周来首次新高。性能参数:超过1400亿个晶体管的推理计算能力。据微软官方博客 Scott Guthrie 介绍,Maia 200 采用台积电尖端的 3nm 工艺制造,每个芯片包含超过 1400 亿个晶体管。该芯片专为大规模 AI 工作负载而定制,可提供超过 10 PetaFLOPS、4b 精度 (FP4) 和超过 5 PetaFLOPS、8 位精度 (FP8),功耗仅为 750 瓦。 “在实际应用中,Maia 200 节点可以轻松运行当今最大的模型,为未来更大的模型留出足够的空间,”Guthrie 在他的博客中强调。该芯片具有 216 GB HBM3e 内存、7 TB/s 带宽和 272 MB 片上内存静态随机存储器。专门设计的 DMA 引擎和数据传输架构可让您快速高效地运行大型模型。在系统层面,Maia 200 采用基于标准的系统。改进了以太网的两层网络设计。每个加速器提供 2.8 TB/s 的双向专用可扩展带宽,可在多达 6,144 个加速器的集群中实现可预测的高性能集体操作。每个托盘上的四个 Maia 加速器通过未交换的直接链路完全互连,使用统一的 Maia AI 机架内和机架间传输协议,实现节点和机架之间的无缝扩展。对云业务的关键支持:从Copilot模型到OpenAI,Maia 200芯片是微软异构AI基础设施的关键部分,服务于多种模型。 Scott Guthrie 的博客声称,新一代 AI 加速器为 Microsoft Cloud Azure 提供了更快、更经济高效地运行 AI 模型的优势。格思里透露,chip 支持 OpenAI 最新的 GPT-5.2 模型,并为 Microsoft Foundry 和 Microsoft 365 Copilot 带来盈利优势。微软的超级智能团队使用 Maia 200 进行合成数据生成和强化学习,以改进下一代内部模型。 “对于合成数据管道用例,Maia 200 的独特设计可加速高质量数据的生成和过滤。特定领域的质量,为后续训练提供更新且特定的信号,”Guthrie 在博客文章中表示。用于企业生产力软件包的 Microsoft 365 Copilot 附加服务和用于在 AI 模型之上构建应用程序的 Microsoft Foundry 服务均使用该芯片。随着 Anthropic 和 OpenAI 等生成式 AI 模型的开发人员以及基于流行模型创建 AI 代理和其他产品的公司的需求不断增长,云服务提供商正在努力提高计算能力,同时控制功耗。 Maia 200 是 c目前已部署在爱荷华州得梅因附近的微软美国数据核心区域,稍后将部署在亚利桑那州菲尼克斯附近的美国西部3区,未来还计划部署更多区域。微软正在邀请开发人员、academics.cos 和人工智能实验室从周一开始使用 Maia 软件开发套件,但目前尚不清楚运行该芯片的服务器何时可供其 Azure 云服务的用户使用。减少对英伟达的依赖:科技巨头的芯片竞赛 Microsoft Ram 芯片计划起步晚于亚马逊和谷歌,但这三家公司都有相似的目标。它是关于构建无缝连接到数据中心的经济高效的机器,为云客户提供成本节约和其他效率优势。英伟达最新的业界领先芯片的高成本和短缺加剧了寻找替代计算能力来源的竞争。谷歌拥有张量处理单元(TPU),它不作为芯片出售,而是提供计算通过云服务提供电力。亚马逊宣布推出自家AI加速芯片Trainium,其最新版本Trainium3已于去年12月推出。在这种情况下,芯片的本地化信息将与 NVIDIA GPU 的原始信息进行比较,从而降低一般硬件成本。根据 Scott Guthrie 在其博客上发布的数据,Maia 200 的性能明显优于竞争对手。 FP4 可以与 Amazon 芯片的第三代培训相媲美,而 FP8 则可以与 Google 的 TPU 相媲美。 Cada 芯片 Maia 200 是 AWS 生成的人工智能培训或 Google 生成的张量 (TPU) 过程的统一芯片的记忆库。该芯片的性价比比微软目前部署的最新一代硬件高出 30%。 Guthrie,Mic 云和人工智能执行副总裁rosoft 将 Maia 200 称为“芯片”,该芯片使用以太网电缆进行连接,而不是 InfiniBand 标准(Nvidia 在 2020 年收购 Mellanox 后出售的交换机中使用的标准)。值得注意的是。快速迭代:Maia 300 已经在设计中。微软表示,它已经在设计 Maia 200 的后继产品 Maia 300。Scott Guthrie 的博客称,微软的 Maia AI 加速器项目被设计为迭代的多代计划。 “当我们将 Maia 200 引入我们的全球基础设施时,我们已经在设计未来几代产品,预计每一代产品都将继续为最关键的人工智能工作负载设定新基准,提供更高的性能和效率。” 2023年,不再向云客户提供租赁服务。格思里周一在一篇博客文章中表示,新芯片“未来将提供给更广泛的客户”。微软芯片开发计划的一个核心原则是验证系统的最终性能在最终芯片可用之前尽可能多地结束。复杂的投片前环境从一开始就指导 Maia 200 架构以高保真度模拟大型语言模型的计算和通信模式。这种早期的协作开发环境使微软能够在第一块芯片制造之前将芯片、网络和系统软件作为一个集成整体进行优化。得益于这些投资,Maia 200 芯片在第一批封装部件到达后几天内就可以运行人工智能模型,从而将从第一块芯片到部署第一台 DCrack.atos 的时间缩短到同类人工智能基础设施项目的一半以上。如果内部努力不起作用,微软还有其他选择。作为与其密切合作伙伴 OpenAI 协议的一部分,该公司将能够获得 ChatGPT 创建者的新芯片设计。
特别提示:以上内容(包括图片和视频,如有)不用于自评。上传了一个d 由“网易号”媒体平台用户发布。本平台仅提供信息存储服务。
注:以上内容(包括照片和视频,如有)由仅提供数据存储服务的社交媒体平台网易号用户上传和发布。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注