文 春公子
5月4日,两条消息几乎同时出现在全球投资人的屏幕上,放在一起看,对比刺眼到让人没法装作没看见。
第一条,美国五大云厂商亚马逊、Alphabet、Meta、微软、甲骨文的2026年资本开支预测被大幅上调,从此前的7650亿美元直接拉到约8050亿美元,2027年更要从9510亿上调至1.1万亿美元。
白宫AI事务顾问David Sacks对此的评价简洁有力:一季度,AI相关投资已贡献了美国GDP增长的约75%,今年预计占GDP增速的2.5%,明年将超过3%。他的原话是——停AI就等于停美国经济。
第二条,全球最大的AI模型API聚合平台OpenRouter最新数据出炉。上周,中国AI大模型周调用量达到7.942万亿Token,环比暴涨81.7%;而美国AI大模型周调用量仅为3.258万亿Token,环比下滑34.6%。
7.94万亿对3.26万亿。中国模型的调用量是美国模型的2.4倍。
一边是八千亿美元的疯狂砸钱,一边是被甩开一倍多的调用量差距。这两条消息摆在一起,问出了一个让所有押注美国AI霸权的人必须回答的问题:美国花掉了全球最多的AI基建预算,为什么真正在用AI的人,反而都在中国?

01 调用量不是虚的,Token就是AI经济的真实流量
有人可能会说:调用量算什么硬指标?不就是用户多聊几句天吗?
但调用量不是聊天记录。Token是AI世界里的基本计量单位,每一次调用背后,是有人在用AI写代码、做数据分析、生成PPT、训练模型、跑智能体任务。根据公开信息,2026年3月,中国日均Token调用量已突破140万亿,相比2024年初的1000亿,两年增长超过千倍。同月,中国AI大模型周Token调用量连续三周超越美国,成为全球AI应用活跃度最高的国家。到4月初,中国AI大模型周调用量已达12.96万亿Token,连续五周超越美国,同期美国调用量仅为3.03万亿Token,不到中国的四分之一。
Token调用量,本质上是AI经济的真实流量。它衡量的是一个国家的企业、开发者和普通用户,到底有多频繁地把AI融入日常生产。斯坦福大学4月发布的《2026年人工智能指数报告》用另一组数据印证了这个趋势——中美AI模型性能差距已缩小到仅剩2.7%,而中国职场AI使用率已超过80%,美国这个数字却被远远甩在后面,全球仅排第24位。
模型性能差距不到3个百分点,但应用深度差了一整个数量级。
这件事本身就说明:调用量的差距,不是技术问题,是经济逻辑问题。

02 钱砸向了“矿场”,却没砸出“工厂”
那问题来了:美国砸下去的8050亿美元到底去了哪里?
答案是:大部分被卡在了数据中心基建的泥潭里。
据英国《金融时报》报道,2026年美国原计划开展的数据中心项目中,接近四成面临延期风险,微软、OpenAI等公司的关键项目普遍推迟3个月以上。审批流程冗长、劳动力短缺、电力供应紧张、变压器和关键设备严重匮乏——这些不是资本能直接解决的问题。
更扎心的是,美国地理空间数据公司SynMax通过卫星图像追踪发现,计划今年投产的项目中,超过六成甚至尚未开工。得克萨斯州一处为OpenAI提供算力的1.4吉瓦数据中心园区,原定2026年交付,卫星图像显示进展远低于预期,可能拖到2027年末。而OpenAI对外宣称的版本是“正在按计划推进”——你也可以理解为“我们总不能公开承认卡住了”。
即便数据中心建成了,还有另一道物理天花板。电网承载能力不足,是美国新型超大规模数据中心集群面临的全局性问题。美国现有的高压输电线路和区域变电站,在设计之初根本没有考虑到每个单点的工程需求可能达到几百兆瓦乃至更大负荷的情况。很多数据中心环评已经通过、土地已平整、设备也已到位,但电网升级的排期被推到了两年以后。相当于花几百亿美金的工厂盖好,电却一直拉不到门口。
所以,美国这8050亿美元里,有相当大一部分是在买地、盖厂房、抢变压器、排队等电网扩容——这些钱砸下去了,但离真正产生可用的算力还隔着相当长的一段工程时间差。更要命的是,这些过度前置的硬件开支并不能直接转化为Token调用量,因为调用量需要的不只是机房和GPU,更需要海量的用户、丰富的场景和一套能在真实生产环境里跑通的经济模型。
资本已经到位,但回报的时间表正在被不断推迟。

03 中国调用的不是模型,是完整的应用生态
中国这边,完全是另一套逻辑。
先看一个底层成本数字。根据行业媒体的价格对比,DeepSeek-V3.2每输出100万个Token仅收费0.28美元,而OpenAI的GPT-5.4同量级收费高达15美元。差价不是几倍,是五十多倍。
这不是一次性的促销打折。中国模型能够持续做到低成本,背后有几个结构性原因。第一,开源模式的规模化扩散。中国头部AI企业几乎全部拥抱开源,全球约80%的美国AI初创企业已经在利用中国的开源AI模型开展研发。当一个模型在开源社区里被成千上万个开发者反复调用、修改、增强,它的调用量自然会产生裂变式的增长。第二,混合专家架构的大规模应用。中国的AI开发者持续优化MoE架构,使模型在处理任务时仅激活相关的部分进行计算,而非调用全部模型能力,从而显著提升计算效率并降低单位成本。第三,中国拥有全球最完整、覆盖最广的电网和能源基础设施,在数据中心实际供电供地和部署效率上,有明显的工程统筹能力。
成本降到足够低之后,应用场景就被彻底引爆了。根据QuestMobile数据,截至2026年3月,中国AI原生APP月活用户规模已达4.4亿,单季度新增超过1.3亿用户。豆包月活3.45亿位居榜首,千问1.66亿紧随其后,DeepSeek以1.27亿排名第三。
3.45亿月活是什么概念?ChatGPT的全球移动端月活大约是8亿,但分布在近200个国家和地区,而豆包的3.45亿用户主要集中在中国这一个市场。这种密度在全球AI应用版图上绝无仅有。
全球AI应用调用量中,中国已占据约36%的份额。

美国砸了8050亿美元,为什么调用量反而被中国甩开一倍多?
表层原因是成本。美国AI太贵,中国AI太便宜。当OpenAI每百万Token收费15美元,而DeepSeek只收0.28美元的时候,任何对价格敏感的开发者都会用脚投票。但这个解释只够回答“为什么开发者选中国模型”。
更深层的原因是生态。中国AI的调用量爆炸,不是因为某一个模型参数比美国大,而是因为整个社会正在被AI化。
硅谷还在下一个十年里疯狂扩建Token工厂的时候,中国市场已经把Token送进了千家万户的日常对话里。
8050亿美元买得了GPU,买不来一个全民用AI的生态。调用量不骗人——它证明的不是哪一种技术更强,而是在AI真正落地这件事上,砸钱的远远跑不过建生态的。
更新时间:2026-05-05
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302034844号