黄仁勋的“智能体经济学”确有道理,但赢家未必会是英伟达

本文仅在今日头条发布,谢绝转载

文 | 段小草(自由撰稿人)

导读:在未来很长时间,“推理即收入”都是成立的公式,Claude Code和OpenClaw开启了智能体时代,token需求爆发,也必将塑造新的经济形态,但英伟达未必会是永远的霸主。


昨天,英伟达交出了一份优秀的财报。但真正值得关注的,并不是营收和利润,而是黄仁勋为资本市场画的新大饼——“计算即收入”以及“智能体AI的拐点已至”。

老黄试图让资本市场相信“智能体经济学”,并将英伟达的未来与这个全新的经济形态深度绑定。

但你如果仔细想想就会发现,“智能体经济学”的确存在,但英伟达也将面临更多挑战。

新的底层逻辑:从聊天到干活,Token需求爆发

从去年开始,AI世界正在发生一场根本性的转变:从“聊天”转向“干活”。

以ChatGPT为代表的对话式AI,其交互模式本质上是“一问一答”。用户提出一个问题,模型生成一个答案,任务结束。这个过程消耗的计算资源(即token)是有限且可预测的。

而智能体AI,则完全不同。它们不是被动回答问题的工具,而是能够理解复杂目标、自主规划、调用工具、并执行多步骤任务的“数字员工”。

比如去年最火的Vibe Coding,它不再是简单的代码补全,而是可以直接访问你的整个代码库,理解你的需求后,自主规划修改方案,跨多个文件编写代码,运行测试,发现错误后自行调试,甚至最后提交一个Pull Request。整个过程可能持续数小时,期间无需人工干预。

对于非技术人员,Anthropic也发布了Claude Cowork。你可以把它指向一个文件夹,用自然语言告诉它:“把这里面的收据PDF找出来,提取金额、日期和商家信息,然后整理到一个Excel表格里。”它会自己完成文件分类、数据提取和表格生成的全套流程。

再比如今年开年引爆舆论的OpenClaw项目。这是一个可以7x24小时运行的“个人操作系统”,通过WhatsApp或Telegram接收你的指令,帮你清空收件箱、预定航班、总结项目进展。它拥有持续的记忆,能主动学习你的偏好。

这些智能体在“干活”时,背后是一场Token消耗的核爆。

它们为了完成一个任务,可能需要进行数十次甚至上百次的模型调用,进行思考、规划、试错和执行。每一个步骤都在生成和处理大量的Token。

数据显示,像OpenRouter这样的AI模型路由平台,在2026年初的几周内,处理的Token量就翻了一番。

同时,英伟达H100 GPU的租用价格在同期出现强劲反弹。这背后,正是智能体AI活动的激增。

所以黄仁勋才会说:“推理(Inference)就等于收入”。

因为在智能体AI时代,Token不再仅仅是信息载体,它本身就是被量化和定价的“数字商品”。云服务商提供算力生成Token,企业购买Token来驱动智能体完成各种业务,从而提高生产力、创造营收。

更多的智能体应用 -> 指数级增长的Token需求 -> 对推理算力的海量消耗 -> “计算即收入”

在这个逻辑下,数据中心不再是成本中心,而是直接产生收入的“AI工厂”。

黄仁勋预测,全球AI工厂的建设规模将达到3-4万亿美元。 巨头们们在2026年高达7000亿美元的资本支出计划,似乎也印证了他的判断。

英伟达用“极致协同设计”锁定未来

面对推理时代这块巨大的蛋糕,黄仁勋的策略并非仅仅是卖出更多的GPU。而是“极致协同设计”。

过去,我们谈论芯片,单位是单个的CPU或GPU。但黄仁勋告诉市场,这个单位已经过时了。正确的计量单位是“机架”,最终衡量标准是“每个机架每瓦功耗产生的Token数量和价值”。

英伟达发布的Rubin平台就是这一理念的极致体现。它不是一颗芯片,而是一整套系统的全面革新,包括Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9网卡、BlueField-4 DPU和Spectrum-6以太网交换机。这六款芯片被设计成一个紧密协作的整体。

这种系统级的设计带来了乘数效应。单个GPU性能提升5倍,但整个系统的吞吐量能提升10倍,最终将每个Token的推理成本降低到原来的十分之一。这就是“极致协同设计”的力量。它将计算、网络、存储和软件深度绑定,最小化系统瓶颈,最大化整体效率。

其中,网络业务的崛起尤其值得关注。英伟达通过收购Mellanox获得的InfiniBand和自研的Spectrum-X以太网技术,已经成为其数据中心业务的支柱。黄仁勋甚至宣称英伟达已是全球最大的网络公司。

为当数据中心扩展到数十万甚至上百万个GPU时,连接这些GPU并让它们高效协同工作的网络,就成了决定整个“AI工厂”产出的关键。一个10%的网络效率差异,在一个百亿美元的AI工厂里,就是十亿美元的利润差距。

英伟达的阳谋在于,它不再是一家芯片公司,而是一家AI基础设施公司。它卖的不是零件,而是整套“AI工厂”的解决方案。竞争对手即使能在单点上(比如GPU性能)追赶,也很难在整个系统的协同效率和生态上与之抗衡。CUDA平台锁定了软件,而极致协同设计的硬件系统则锁定了性能和成本效益。

这就是加速版的“Jevons悖论”:通过技术革新,大幅降低单位生产(生成Token)的成本,从而引爆远超成本下降幅度的总需求量,最终获得更大的市场和利润。

成本压力催生的“算力反抗军”

黄仁勋的“智能体经济学”的确前景光明,但这个美好的故事并非没有弱点。英伟达的霸权,正面临着它自己所创造的经济压力所催生的挑战。

最致命的问题,就是成本

DigitalOcean的一份开发者调查报告揭示了一个残酷的现实:49%的受访者将“规模化推理的高昂成本”列为扩大AI应用的首要限制因素。高达44%的组织表示,他们AI预算的76%到100%都花在了推理上,而非训练。

智能体AI描绘了巨大的生产力提升前景,但高昂的推理成本却让大多数企业望而却步,无法大规模部署。黄仁勋承诺下一代Rubin平台能将Token成本降低10倍,但这需要客户持续不断地投入巨资购买新硬件。在这种情况下,市场自然会开始寻找更具性价比的替代方案。

这就催生了英伟达的“反抗军”。

最值得警惕的挑战者,可能并非AMD,而是Broadcom(博通)以及它所代表的ASIC(专用集成电路)模式

ASIC是为特定任务“硬化”设计的芯片,虽然灵活性不如GPU,但在执行特定任务时,能效比和成本优势巨大。推理任务,相较于训练,其计算模式更加固定和重复,这正是ASIC发挥优势的领域。加密货币挖矿的历史已经证明,在特定计算场景下,ASIC可以彻底颠覆GPU的市场。

Broadcom正是ASIC领域的领导者。它不直接与英伟达竞争,而是作为“军火商”,帮助Google、Meta、OpenAI等巨头打造自己的定制AI芯片。

Google的TPU早已证明了其在自家业务中的高效。据报道,Anthropic已经向Broadcom下了一笔210亿美元的TPU大单。连OpenAI也承诺将部署10吉瓦的定制芯片,这背后的技术支持很可能也来自Broadcom。

当英伟达最大的客户们开始大规模自研和部署ASIC用于推理时,这就直接动摇了英伟达的根基。英伟达在训练领域的护城河在推理领域并没有那么深,因为推理的软件栈相对更多样化。

其次才是老对手AMD。凭借其GPU产品,AMD正在推理市场站稳脚跟。与OpenAI的合作,更是为其提供了宝贵的市场切入点和生态验证机会。虽然短期内难以撼动英伟达,但它提供了一个“第二选择”,这本身就对英伟达的定价权构成了威胁。

最后,连Intel的CPU也在智能体AI时代找到了新的定位。许多智能体工作流是异构的,需要CPU和GPU的紧密配合。过去8:1的GPU与CPU配比,在未来可能会向1:1演变。英伟达推出自家的Vera CPU,也正是为了应对这一趋势,防止被Intel和AMD釜底抽薪。

小结:一场关于经济学的赛跑

黄仁勋预见了从对话式AI到智能体AI的范式转移,并围绕“推理即收入”这一核心,构建了“智能体经济学”的宏大叙事。

然而,这场游戏的本质,已经从单纯的技术竞赛,演变为一场关乎经济学的赛跑。

英伟达必须跑赢自己。它需要通过技术迭代降低Token成本的速度,快于其高昂定价将客户推向竞争对手的速度。

它也必须跑赢它的客户。巨头们的巨额资本支出,终究需要看到实实在在的业务回报。如果“计算即收入”的等式迟迟不能在它们的财报中得到大规模验证,那么这场资本的狂欢就可能戛然而止。

黄仁勋赌的是,智能体AI创造的价值,将足够巨大,大到足以覆盖整个行业为之付出的天价算力成本。从目前智能体AI展现出的潜力来看,他赌对的概率很大。

但最终,决定谁是“推理时代”真正赢家的,将不仅仅是技术最领先的公司,更是能为整个生态系统提供最具经济效益解决方案的公司。

英伟达无疑是当前王者,但它的王座之下,挑战者们已经发起了冲击。

展开阅读全文

更新时间:2026-02-28

标签:科技   英伟   赢家   经济学   道理   智能   成本   芯片   收入   极致   系统   工厂   市场

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302034844号

Top