微软周三在西雅图举行的 Ignite 会议上推出了两款芯片。
第一个是 Maia 100 人工智能芯片,可以与 Nvidia 的芯片竞争备受追捧的人工智能图形处理单元。 第二个是 Cobalt 100 Arm 芯片,针对通用计算任务,可以与英特尔处理器竞争。
现金充裕的科技公司已经开始为客户提供更多云基础设施选择,让他们可以用来运行应用程序。 阿里巴巴,亚马逊和谷歌多年来一直这样做。 据一项估计,截至 10 月底,微软拥有约 1,440 亿美元现金,到 2022 年,其云市场份额将达到 21.5%,仅次于亚马逊。
公司副总裁 Rani Borkar 在接受 CNBC 采访时表示,在 Cobalt 芯片上运行的虚拟机实例将于 2024 年通过微软的 Azure 云实现商业化。 她没有提供发布 Maia 100 的时间表。
谷歌2016 年,亚马逊宣布了其原创的 AI 张量处理单元。
Web Services 于 2018 年推出了基于 Graviton Arm 的芯片和 Inferentia AI 处理器,并于 2020 年推出了用于训练模型的 Trainium。
当 GPU 短缺时,云提供商的特殊 AI 芯片可能能够帮助满足需求。 但与 Nvidia 或 AMD 不同的是,微软及其云计算领域的同行并不打算让公司购买包含其芯片的服务器。
博卡解释说,该公司根据客户反馈构建了人工智能计算芯片。
微软正在测试 Maia 100 如何满足其 Bing 搜索引擎的 AI 聊天机器人(现在称为 Copilot,而不是 Bing Chat)、GitHub Copilot 编码助手和 GPT-3.5-Turbo(来自微软支持的 OpenAI 的大型语言模型)的需求, 博卡尔说道。 OpenAI 为其语言模型提供了来自互联网的大量信息,它们可以生成电子邮件、总结文档并通过人类指令的几句话回答问题。
GPT-3.5-Turbo 模型适用于 OpenAI 的 ChatGPT 助手,该助手去年推出后很快就流行起来。 随后,各公司迅速采取行动,在其软件中添加类似的聊天功能,从而增加了对 GPU 的需求。
Nvidia 财务主管科莱特·克雷斯 (Colette Kress) 表示:“我们一直在与所有不同的供应商进行全面合作,以帮助改善我们的供应状况并支持我们的许多客户以及他们向我们提出的需求。” 9 月份在纽约举行的 Evercore 会议上说道。
OpenAI 之前曾在 Azure 中的 Nvidia GPU 上训练过模型。
除了设计 Maia 芯片之外,微软还设计了名为 Sidekicks 的定制液冷硬件,该硬件安装在包含 Maia 服务器的机架旁边的机架中。 一位发言人表示,该公司无需改造即可安装服务器机架和 Sidekick 机架。
对于 GPU,充分利用有限的数据中心空间可能会带来挑战。 服务器初创公司 Oxide Computer 的联合创始人兼首席执行官 Steve Tuck 表示,公司有时会将一些包含 GPU 的服务器像“孤儿”一样放在机架底部,以防止过热,而不是从上到下填满机架。 塔克说,公司有时会增加冷却系统来降低温度。
如果以亚马逊的经验为指导,微软可能会看到 Cobalt 处理器的采用速度比 Maia AI 芯片更快。 微软正在 Cobalt 上测试其 Teams 应用程序和 Azure SQL 数据库服务。 微软表示,到目前为止,它们的性能比 Azure 现有的基于 Arm 的芯片(来自初创公司 Ampere)的性能提高了 40%。
在过去的一年半中,随着价格和利率的走高,许多公司都在寻找提高云支出效率的方法,对于 AWS 客户来说,Graviton 就是其中之一。 AWS 副总裁戴夫·布朗 (Dave Brown) 表示,AWS 的所有前 100 家客户现在都在使用基于 Arm 的芯片,这可以将性价比提高 40%。
不过,从 GPU 迁移到 AWS Trainium AI 芯片可能比从 Intel Xeon 迁移到 Graviton 更复杂。 每个人工智能模型都有自己的怪癖。 布朗表示,由于 Arm 在移动设备中的普及,许多人都在努力让各种工具在 Arm 上运行,但在人工智能芯片中情况并非如此。 但他表示,随着时间的推移,他预计组织会看到与 GPU 相比,Trainium 具有类似的性价比优势。
“我们已经与生态系统以及生态系统中的许多合作伙伴共享了这些规范,这使我们所有的 Azure 客户受益,”她说。
Borkar 表示,她没有详细了解 Maia 与 Nvidia H100 等替代品相比的性能。 周一,Nvidia 表示其 H200 将于 2024 年第二季度开始发货。