中国智能算力突围,美国也推出全球最大AI超算,智能产业迎新变局

文 | 金锐点

编辑 | 金锐点

当AI大模型的参数从百亿级跃升至万亿级,算力早已不是简单的“计算能力”,而是定义科技产业格局的核心竞争力。

就在10月,美国甲骨文在拉斯维加斯AI World大会上抛出“全球最大云端AI超算”的重磅消息,与此同时,中国智能算力规模正以三年十倍的速度狂飙。

一边是单点突破的“算力巨兽”,一边是全面崛起的“算力生态”,两国的发展路径又将如何重塑全球智能产业的未来?

甲骨文此次推出的OCI Zettascale10超算,堪称AI基础设施领域的“巨型工程”。

这台横跨多个数据中心的“算力巨兽”,由80万块NVIDIA GPU芯片堆叠而成,宣称峰值算力达到16 ZettaFLOPS。

这个数字意味着每秒能完成10的21次方以上浮点运算,平均每块GPU可贡献约20 PetaFLOPS算力,已接近英伟达最新一代Grace Hopper(Blackwell架构GB300)芯片的水平。

对普通读者来说,这样的算力规模足以同时支撑数十个万亿参数大模型进行训练,相当于把上万个普通数据中心的算力集中到了一处。

更值得关注的是这台超算的“用武之地”,甲骨文早已与OpenAI在德州阿比林共建了“星际之门”旗舰AI超级计算集群,而OCI Zettascale10正是这个集群的算力核心。

OpenAI基础设施部门副总裁Peter Hoeschele直言,甲骨文定制的网络架构在“千兆瓦级”规模下最大化了整体性能,把大部分能耗都用在了刀刃上的计算环节。

这场合作的背后,是一笔价值高达3000亿美元的五年期算力采购协议,OpenAI希望通过绑定甲骨文,打破对单一算力供应商的依赖。

而甲骨文则借顶级客户的背书,从传统软件巨头向AI基础设施核心玩家转型。

支撑起这台“算力巨兽”高效运转的,是甲骨文独创的Acceleron RoCE网络架构。

在大规模AI集群中,GPU之间的通信延迟往往会成为算力释放的“瓶颈”,就像一条挤满车辆的高速公路,再宽的路面也会因收费站而拥堵。

甲骨文的解决方案很直接,让每块GPU的网络接口卡都充当小型交换机,直接连接多个隔离的网络交换平面。

这种设计砍掉了传统三级交换结构的冗余层级,不仅让GPU间的直连延迟更稳定,就算某条路径出故障,训练作业也能自动切换路线,不会中途“罢工”。

这套架构还用上了线性可插拔光学模块等新技术,在保持400G/800G高带宽的同时,硬生生把网络能耗和冷却成本降了下来。

难怪NVIDIA高管Ian Buck会说,这种全栈优化的“计算结构”,正是把AI从实验室推向工业化的关键基础。

不过这台“全球最大”的超算,也藏着不少让人疑惑的地方,甲骨文宣称的16 ZFLOPS峰值算力,至今没经过任何独立机构的验证,业内普遍猜测这只是理论上的“天花板”。

AI计算的精度直接影响模型效果,实际训练大模型时,为了保证收敛质量,通常得用BF16甚至FP8的精度格式,而甲骨文很可能用了FP8乃至4比特的稀疏运算才算出这个惊人数字。

这就像宣称一辆车时速能到500公里,却没说这是在实验赛道上卸下所有负重的结果,实际上路根本跑不出这速度。

更关键的是,这台超算要到2026年下半年才正式提供服务,现在只是接受预订,真正的实战表现如何,还得等用户用起来才知道。

就在甲骨文高调秀肌肉的同时,中国的智能算力正以肉眼可见的速度实现突围。

根据工信部发布的数据,2024年中国智能算力规模已达725.3EFLOPS,同比暴涨74.1%,增速是通用算力的3倍还多。

到2025年,这个数字预计将攀升至1037.3EFLOPS,继续保持43%的高增长,更值得关注的是,中国的算力突破不是“堆规模”,而是在核心技术上啃硬骨头。

2025年8月,北京大学陈帜团队研发的DeepFlame软件,在国产神威超算上完成了近万亿网格的火箭发动机燃烧模拟。

并行规模达到4000万核,峰值性能超过1EFlops,把计算速度提升了1000倍,还适配了华为Kunpeng、曙光DCU等国产硬件。

差不多同一时间,中兴通讯的“星云智算超节点”在算力大会上拿了大奖,用自研的“凌云”AI交换芯片,实现了国产化GPU的大规模高速互联,能支撑万亿参数大模型训练,还把推理成本降了下来。

中国的算力突围,还走出了一条与美国不同的“生态路线”,美国那边是巨头深度绑定。

比如英伟达向OpenAI投资1000亿美元,这笔钱又回头买英伟达的芯片,形成“资本闭环”,本质是用资本锁定技术霸权。

而中国更注重“普惠化”和“自主可控”,北京、杭州、上海稳居中国AI城市排行榜前三,互联网、金融、运营商成为算力应用最广的行业,形成了“核心城市引领、多行业渗透”的格局。

在硬件上,中芯国际的N+2工艺实现服务器芯片本地化,长江存储打破闪存垄断。

这场中美算力竞赛,本质上是全球智能产业格局的重塑,IDC的数据显示,中美两国占据了全球近七成的AI市场份额,美国靠技术积累占了55%以上,中国则靠增速追赶,但双方都面临各自的挑战。

甲骨文要证明自己的超算不是“纸面算力”,还得解决云业务毛利率低的问题,毕竟350亿美元建数据中心的投入不是小数目。

中国则要继续突破生态壁垒,比如英伟达CUDA生态占了全球90%的市场份额,国产框架还需要时间培育。

不过从趋势看,算力竞争已经从“芯片大战”升级到“生态大战”,谁能把算力、算法、应用和资本更好地捏合起来,谁就能掌握未来的话语权。

两国的算力发展还带出了“绿色命题”,中国西部的数据中心靠光伏、风电实现绿电使用率超90%,芜湖“中华数岛”用液冷技术把PUE降到1.09,碳排放比传统数据中心低60%。

而美国的大型数据中心PUE普遍在1.5以上,能耗问题越来越突出,这或许会成为新的竞争焦点,毕竟未来的算力,不仅要算得快,更要算得绿。

无论是甲骨文的“算力巨兽”,还是中国的“生态突围”,都指向同一个结论,算力已经从AI的“基础设施”变成了“核心能源”。

2026年甲骨文超算正式落地时,我们能看到它是否能兑现承诺,而中国的算力增长曲线,还会继续书写突围的故事。

这场竞赛没有终点,但可以肯定的是,最终受益的会是整个智能产业,毕竟有竞争,才有更快的创新,更普惠的技术。

展开阅读全文

更新时间:2025-10-23

标签:科技   智能   美国   变局   中国   产业   甲骨文   英伟   数据中心   芯片   生态   规模   模型

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号

Top