谷歌和微软通过下一代搜索开启人工智能硬件之战

微软和谷歌正在通过搜索引擎将人工智能带给人们,从而推动了一场重大的计算变革,而衡量成功的标准之一可能取决于支持应用程序的硬件和数据中心基础设施。

上周,微软和谷歌宣布推出下一代人工智能搜索引擎,可以推理和预测,并为用户问题提供更全面的答案。搜索引擎将能够为复杂的查询生成完整的答案,就像ChatGPT可以提供详细的答案或编译文章一样。

微软正在将 AI 置于 Bing 中以响应文本查询,Google 也分享了将 AI 置于其文本、图像和视频搜索工具中的计划。这些公告是在上周的连续几天发布的。

两家公司承认,如果没有强大的硬件基础设施,将人工智能应用到搜索引擎中是不可能的。两家公司没有透露驱动人工智能计算的实际硬件的细节。

多年来,微软和谷歌一直在培育专为黄金时段发布的人工智能硬件,比如上周的人工智能搜索引擎。

这两家公司拥有截然不同的人工智能计算基础设施,响应速度和结果的准确性将是对搜索引擎可行性的严峻考验。

谷歌的Bard由其云服务中的TPU (Tensor Processing Unit)芯片提供动力,熟悉该公司计划的消息人士证实了这一点。微软表示,其Azure中的人工智能超级计算机(可能在 GPU 上运行)可以在毫秒级或搜索延迟的速度内提供结果。

谷歌的 TPU 与 AI市场领导者英伟达(Nvidia)之间展开了一场非常公开的AI计算之战,后者的 GPU 在市场上占据主导地位。

“团队致力于在全球范围内为机器和数据中心提供动力和构建。我们仔细地编排和配置了一组复杂的分布式资源。我们构建了新的平台组件,旨在帮助负载平衡,优化性能和规模。”微软必应产品负责人德纳·桑德斯在发布会上说。

微软正在使用OpenAI的ChatGPT的更高级版本。在微软发布会上,OpenAI首席执行官Sam Altman估计每天有100亿次搜索查询。

微软的人工智能之路始于确保其人工智能超级计算机的计算能力,该公司声称这是世界上最快的五个超级计算机之一。该计算机未列入 Top500 排名。

“我们参考了 AI 超级计算机,但这项工作花费了数年时间,并且需要大量投资来构建我们可以在堆栈的每一层中引入的规模类型、速度类型和成本类型......微软执行副总裁兼首席财务官 Amy Hood 在上周与投资者的电话会议上表示:“我们的运营规模非常不同。

Hood 说,随着使用规模的扩大和优化的实施,超级计算机层的人工智能计算成本将随着时间的推移继续下降。“每笔搜索交易的成本往往会随着规模的扩大而下降,当然,我认为我们开始有一个非常强大的平台,能够做到这一点。”

随着gpu的增加,计算成本通常会上升,冷却成本和其他支持基础设施也会增加账单。但公司通常会将收入与计算成本挂钩。

微软的 AI 超级计算机是与 OpenAI 合作建造的,它拥有 285,000 个 CPU 内核和 10,000 个 GPU。Nvidia 在 11 月签署了一项协议,将其数万个 A100 和 H100 GPU 放入 Azure 基础设施中。

根据 Statcounter 的数据,微软的 Bing 搜索份额并不接近谷歌搜索,谷歌搜索在 1 月份拥有 93% 的市场份额。

人工智能本质上是一种基于推理和预测能力的不同计算风格,而传统计算则围绕逻辑计算展开。人工智能是在可以执行矩阵乘法的硬件上完成的,而传统计算一直围绕着擅长串行数据处理的cpu展开。

谷歌正在采取谨慎的态度,并将其 Bard 对话式人工智能作为其 LaMDA 大型语言模型的轻量级现代版本发布。谷歌的LaMDA是一个自主开发的版本,与OpenAI的GPT-3竞争,后者是ChatGPT会话AI的基础。

谷歌负责搜索业务的高级副总裁Prabhakar Raghavan在上周的一次活动中表示:“这个小得多的模型需要的计算能力明显更少,这意味着我们将能够将其扩展到更多用户,并获得更多反馈。”

Technalysis Research 首席分析师 Bob O'Donnell 表示,处理 AI 搜索的基础设施建设仍在进行中,微软和谷歌需要解决很多问题。

微软意识到人工智能计算正在迅速发展,并且对测试和使用新的人工智能硬件持开放态度,O'Donnell 说,他在上周的 Bing AI 发布会上与微软的基础设施团队进行了交谈。“他们还明确表示,‘我们正在尝试一切方法,因为情况一直在变化。即使是我们现在正在做的事情也会随着时间的推移而改变——未来会有差异。’”

O'Donnell 说,对于微软来说,拥有一个更灵活的计算平台更为重要,“而不是在一项给定任务上一定要快 5%”。

例如,微软可以了解到人们用搜索请求访问服务器的高峰时间。O 'Donnell说,在低使用期,微软可以从推断部分(输出结果的部分)切换到训练部分,这需要更多的GPU计算。

Google 于 2016 年推出的 TPU 一直是该公司 AI 战略的关键组成部分。TPU 为 AlphaGo 提供了动力,该系统在 2016 年击败了围棋冠军李世石。该公司的 LaMDA LLM 是为在 TPU 上运行而开发的。Google 的姊妹组织, DeepMind 也在使用 TPU 进行人工智能研究。

SemiAnalysis 创始人Dylan Patel在一份简报中表示,谷歌的芯片“与使用基于 Nvidia 的 HGX A100 的 Microsoft/OpenAI 相比,使用内部 TPUv4 pods 具有显着的基础设施优势”。并进行了最低程度的优化。该简报列出了谷歌将大语言模型插入其搜索产品将花费数十亿美元。Patel表示,随着时间的推移,随着硬件的规模和模型的优化,成本将会降低。

Facebook目前正在建设能够进行更多人工智能计算的数据中心。Facebook集群将拥有数千个加速器,其中包括GPU,并将在8至64兆瓦的功率范围内运行。AI用于删除不良内容,计算集群将推动该公司的元宇宙未来。该公司还在建造一台拥有1.6万个图形处理器的人工智能研究超级计算机。

Mercury Research 首席分析师Dean McCarron 表示,一般来说,数据中心现在是为有针对性的工作负载而构建的,这些工作负载越来越多地围绕人工智能应用,并且具有更多 GPU 和 CPU 内容。

云提供商经过漫长的评估周期来挑选最好的 CPU、GPU 和其他组件。McCarron表示“这里的另一个问题是它有多灵活?因为一些买家可能不想投入,或者对特定的工作量做出太大的承诺,不知道将来是否还会有。”

优先支持 AI 工作负载的数据中心将更多地采用 Intel、Nvidia 和 AMD 的 GPU 和 CPU。有些人可能会为AI工作负载选择替代加速器,但它们可以与GPU和CPU共存。

展开阅读全文

页面更新:2024-03-16

标签:微软   人工智能   硬件   负载   数据中心   基础设施   上周   成本   规模   计算机

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top