见证AI的“iPhone时刻” 2024黄仁勋GTC演讲实录!

北京时间3月19日4时-6时,英伟达创始人黄仁勋在美国加州圣何塞SAP中心登台,发表GTC 2024的主题演讲《见证AI的变革时刻》。黄仁勋展示了旨在巩固该公司在人工智能计算领域主导地位的新芯片。

他表示,名为Blackwell的新处理器在处理支持人工智能的模型方面可以将速度提高数倍。这包括被称为训练阶段的技术开发过程和称为推理阶段的技术运行过程。

由2080亿个晶体管构成的Blackwell芯片将成为亚马逊、微软、Alphabet Inc.旗下谷歌、甲骨文等全球最大数据中心运营商部署的新计算机和其他产品的基石。随后黄仁勋还宣布一项名为GR00T的项目,旨在进一步推动英伟达在机器人和具身智能的突破性工作。

黄仁勋演讲核心要点:

“AI 核弹”B200芯片:采用双芯片设计,晶体管数量达到2080亿个。单GPU AI性能达20 PFLOPS(即每秒2万万亿次)。内存192GB,基于第五代NVLink,带宽达到8TB/s。

Blackwell架构GPU: DGXGB200NVL72,内 置36颗GRACE CPU和72颗Blackwell架构GPU,AI训练性能可达720PFLOPs(即每秒72万万亿次),推理性能为1440PFLOPs(每秒144万万亿次)。

SuperPOD超算:搭载8颗DGX GB200,即288颗Grace CPU和576颗B200 GPU,内存达到240TB,FP4精度计算性能达到11.5EFLOPs(每秒11.5百亿亿次)

人形机器人:人型机器人项目——包含了人型机器人基础模型,ISAAC Lab开发工具库和Jetson Thor SoC片上系统开发硬件,带宽达到100GB/s,AI计算性能达到800TFLOPs。

NIM软件:针对AI推理系统的新软件,开发人员可以在其中直接选择模型来构建利用自己数据的人工智能应用程序。

//以下为演讲内容回顾://

播放开场影片

黄仁勋登台,对观众们强调:我希望你们搞清楚今天这里不是演唱会,而是一场开发者大会。

黄仁勋介绍了本届GTC的一些参与者,并强调这些公司不只是来参会,而是有自己的东西要来展示。

黄仁勋展示英伟达发展史,又提了将首台DGX One送给OpenAI的故事。

黄仁勋:今天我们将讨论这个新行业的许多问题。我们要谈谈如何进行计算、我们要谈谈你所构建的软件类型,你将如何看待这个新软件,新行业中的应用。然后,也许(再谈谈)下一步是什么,我们如何从今天开始做准备,下一步会发生什么。

黄仁勋:我们使用仿真工具来创造产品,并不是为了降低计算成本,而是为了扩大计算规模。我们希望能够以完全保真、完全数字化的方式模拟我们所做的整个产品。从本质上讲,我们称之为数字孪生。

老黄开始介绍一系列“新加速生态系统”合作伙伴,包括ANSYS、Synopsis、Cadence等。他也提及,台积电和Synopsys将突破性的英伟达计算光刻平台投入生产。

随着transformer模型被发明,我们能以惊人的速度扩展大型语言模型,实际上每六个月就能翻一番。而为了训练这些越来越大的模型,我们也需要更强的算力。

“非常强大”的Blackwell架构GPU登场

老黄现场对比Blackwell架构和Grace Hopper架构的GPU

老黄现场展示Grace-Blackwell系统(两个Blackwell GPU、四个die与一个Grace Cpu连接在一起)。GB200将两个B200 Blackwell GPU与一个基于Arm的Grace CPU进行配对。新芯片拥有2080亿个晶体管,所有这些晶体管几乎同时访问与芯片连接的内存。

为了处理大规模数据中心的GPU交互问题,也需要更强的连接(NVlink)能力。

这个GB200新系统提升在哪里呢?老黄举例称,如果要训练一个1.8万亿参数量的GPT模型,需要8000张Hopper GPU,消耗15兆瓦的电力,连续跑上90天。但如果使用Blackwell GPU,只需要2000张,同样跑90天只要消耗四分之一的电力。当然不只是训练,生成Token的成本也会随之降低。

把芯片做大的好处:单GPU每秒Token吞吐量翻了30倍

毫无疑问,微软Azure、AWS、谷歌云等一众科技巨头都是Blackwell架构的首批用户。

接下来应该是应用侧的部分,先展示的是生物医药的部分,包括NVIDIA DGX云中的多项更新。

黄仁勋宣布新的AI微服务,用于开发和部署企业级生成式AI应用。老黄表示,未来如何开发软件?与现在写一行行代码不同,未来可能就要靠一堆NIMs(Nvidia inference micro service),用与AI聊天的形式调动一堆NIMS来完成训练、应用的部署。英伟达的愿景是成为AI软件的“晶圆厂”。

英伟达的AI微服务NIM网站已经上线。

NIM微服务提供了最快、性能最高的AI生产容器,用于部署来自NVIDIA、A121、Adept、Cohere、Getty Images和Shutterstock的模型,以及来自Google、Hugging Face、Meta、Microsoft、Mistral AI和Stability AI的开放模型。

NVIDIA AI Enterprise软件平台更新,包括NIM、构建RAG应用程序的工具等。随后老黄又分享了西门子科技、日产汽车等用如何在将Omiverse Cloud应用在工作流中。

黄仁勋宣布,现在支持将Omniverse云推流至Vision Pro。

可能是时间不太够了,老黄开始加速官宣一系列合作。其中提到全球最大电动车公司比亚迪将采用英伟达下一代智能汽车芯片Thor。比亚迪同时将使用英伟达基础设施进行自动驾驶模型训练,以及英伟达Isaac来设计/模拟智能工厂机器人。

开始提机器人了。黄仁勋表示,在我们的世界里,类人机器人很有可能会发挥更大的作用,我们设置工作站、制造和物流的方式,并不是为人类设计的,而是为人类设计的。因此,这些人类或机器人的部署可能会更有成效。黄仁勋同时宣布一项名为GR00T的项目,旨在进一步推动英伟达在机器人和具身智能的突破性工作。由GR00T驱动的机器人可以理解自然语言,并通过观察人类动作来模拟运动。

除了机器人影像外,迪士尼的orange和green机器人也来到现场,这款机器人用的是英伟达为机器人设计的首款AI芯片Jetson。

黄仁勋带着机器人下场,现场播放ending影片

黄仁勋返场告别,全场发布会结束。

总结:

1、虽然Blackwell架构之前传出的信息已经比较充分了:一个GPU包含两个计算单元等产业链也早就明确了。但是“GB200 NVL72”这种连接方式还是略超预期的,只不过这些产品针对的客户群开始变得越来越集中了;如果能够快速出货,对AMD的打击不小;

2、FP4表现抢眼。英伟达已经充分认识到了,推理市场才是下一个重要战场;

3、黄仁勋两小时的演讲或者说show,是在很自信的告诉大家一个明确信号:英伟达就是AI的基础设施,没有之一

4、正如开场白讲的一样:这是一个正在快速改变百万亿美金行业的市场,计算。

5、这其中,最大的机会是:数字孪生。

本文源自财联社AI daily

展开阅读全文

页面更新:2024-03-20

标签:英伟   晶体管   人工智能   突破性   机器人   实录   架构   见证   芯片   模型   性能   时刻   软件

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top