英伟达Blackwell GPU突破AI算力瓶颈,实现1000 TPS/User里程碑

IT之家 5 月 24 日消息,当地时间周四,英伟达宣布其 Blackwell GPU 在 4000 亿参数的 Meta Llama 4 Maverick 模型上成功打破了 LLM 推理速度世界纪录。

据介绍,AI 基准测试机构 Artificial Analysis 通过配置 8 块 Blackwell GPU 的 DGX B200 节点,首次实现每用户每秒生成 1000 个 token(TPS)的性能里程碑。

英伟达表示,技术团队通过 TensorRT-LLM 软件栈实施深度优化,并采用 EAGLE-3 技术训练推测解码草稿模型,使其性能较优化前基准提升 4 倍。整套服务器系统在峰值吞吐配置下可达每秒 72,000 token。

英伟达解释称:“推测解码是通过小型快速草稿模型预测 token 序列,再由大型目标 LLM 并行验证的加速技术。其优势在于单次迭代可能生成多个 token,代价是额外的草稿模型计算开销。”

为实现该突破,工程师团队采用基于 EAGLE3 的软件架构。该架构专为大型语言模型推理加速设计,与 GPU 硬件架构形成协同效应。IT之家注意到,测试结果显示 Blackwell 架构已完全适配 Llama 4 Maverick 级别的超大规模语言模型。

英伟达还表示,他们在保持响应准确性的同时大幅提高了性能。在许多指标上,使用 FP8 数据格式的准确性与人工分析 BF16 相当。

参考资料:

展开阅读全文

更新时间:2025-05-26

标签:科技   英伟   里程碑   瓶颈   模型   架构   草稿   性能   基准   技术   准确性   团队   语言

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号

Top