文 | 金锐点
编辑 | 金锐点
当AI大模型的参数从百亿级跃升至万亿级,算力早已不是简单的“计算能力”,而是定义科技产业格局的核心竞争力。
就在10月,美国甲骨文在拉斯维加斯AI World大会上抛出“全球最大云端AI超算”的重磅消息,与此同时,中国智能算力规模正以三年十倍的速度狂飙。
一边是单点突破的“算力巨兽”,一边是全面崛起的“算力生态”,两国的发展路径又将如何重塑全球智能产业的未来?
甲骨文此次推出的OCI Zettascale10超算,堪称AI基础设施领域的“巨型工程”。
这台横跨多个数据中心的“算力巨兽”,由80万块NVIDIA GPU芯片堆叠而成,宣称峰值算力达到16 ZettaFLOPS。
这个数字意味着每秒能完成10的21次方以上浮点运算,平均每块GPU可贡献约20 PetaFLOPS算力,已接近英伟达最新一代Grace Hopper(Blackwell架构GB300)芯片的水平。
对普通读者来说,这样的算力规模足以同时支撑数十个万亿参数大模型进行训练,相当于把上万个普通数据中心的算力集中到了一处。
更值得关注的是这台超算的“用武之地”,甲骨文早已与OpenAI在德州阿比林共建了“星际之门”旗舰AI超级计算集群,而OCI Zettascale10正是这个集群的算力核心。
OpenAI基础设施部门副总裁Peter Hoeschele直言,甲骨文定制的网络架构在“千兆瓦级”规模下最大化了整体性能,把大部分能耗都用在了刀刃上的计算环节。
这场合作的背后,是一笔价值高达3000亿美元的五年期算力采购协议,OpenAI希望通过绑定甲骨文,打破对单一算力供应商的依赖。
而甲骨文则借顶级客户的背书,从传统软件巨头向AI基础设施核心玩家转型。
支撑起这台“算力巨兽”高效运转的,是甲骨文独创的Acceleron RoCE网络架构。
在大规模AI集群中,GPU之间的通信延迟往往会成为算力释放的“瓶颈”,就像一条挤满车辆的高速公路,再宽的路面也会因收费站而拥堵。
甲骨文的解决方案很直接,让每块GPU的网络接口卡都充当小型交换机,直接连接多个隔离的网络交换平面。
这种设计砍掉了传统三级交换结构的冗余层级,不仅让GPU间的直连延迟更稳定,就算某条路径出故障,训练作业也能自动切换路线,不会中途“罢工”。
这套架构还用上了线性可插拔光学模块等新技术,在保持400G/800G高带宽的同时,硬生生把网络能耗和冷却成本降了下来。
难怪NVIDIA高管Ian Buck会说,这种全栈优化的“计算结构”,正是把AI从实验室推向工业化的关键基础。
不过这台“全球最大”的超算,也藏着不少让人疑惑的地方,甲骨文宣称的16 ZFLOPS峰值算力,至今没经过任何独立机构的验证,业内普遍猜测这只是理论上的“天花板”。
AI计算的精度直接影响模型效果,实际训练大模型时,为了保证收敛质量,通常得用BF16甚至FP8的精度格式,而甲骨文很可能用了FP8乃至4比特的稀疏运算才算出这个惊人数字。
这就像宣称一辆车时速能到500公里,却没说这是在实验赛道上卸下所有负重的结果,实际上路根本跑不出这速度。
更关键的是,这台超算要到2026年下半年才正式提供服务,现在只是接受预订,真正的实战表现如何,还得等用户用起来才知道。
就在甲骨文高调秀肌肉的同时,中国的智能算力正以肉眼可见的速度实现突围。
根据工信部发布的数据,2024年中国智能算力规模已达725.3EFLOPS,同比暴涨74.1%,增速是通用算力的3倍还多。
到2025年,这个数字预计将攀升至1037.3EFLOPS,继续保持43%的高增长,更值得关注的是,中国的算力突破不是“堆规模”,而是在核心技术上啃硬骨头。
2025年8月,北京大学陈帜团队研发的DeepFlame软件,在国产神威超算上完成了近万亿网格的火箭发动机燃烧模拟。
并行规模达到4000万核,峰值性能超过1EFlops,把计算速度提升了1000倍,还适配了华为Kunpeng、曙光DCU等国产硬件。
差不多同一时间,中兴通讯的“星云智算超节点”在算力大会上拿了大奖,用自研的“凌云”AI交换芯片,实现了国产化GPU的大规模高速互联,能支撑万亿参数大模型训练,还把推理成本降了下来。
中国的算力突围,还走出了一条与美国不同的“生态路线”,美国那边是巨头深度绑定。
比如英伟达向OpenAI投资1000亿美元,这笔钱又回头买英伟达的芯片,形成“资本闭环”,本质是用资本锁定技术霸权。
而中国更注重“普惠化”和“自主可控”,北京、杭州、上海稳居中国AI城市排行榜前三,互联网、金融、运营商成为算力应用最广的行业,形成了“核心城市引领、多行业渗透”的格局。
在硬件上,中芯国际的N+2工艺实现服务器芯片本地化,长江存储打破闪存垄断。
这场中美算力竞赛,本质上是全球智能产业格局的重塑,IDC的数据显示,中美两国占据了全球近七成的AI市场份额,美国靠技术积累占了55%以上,中国则靠增速追赶,但双方都面临各自的挑战。
甲骨文要证明自己的超算不是“纸面算力”,还得解决云业务毛利率低的问题,毕竟350亿美元建数据中心的投入不是小数目。
中国则要继续突破生态壁垒,比如英伟达CUDA生态占了全球90%的市场份额,国产框架还需要时间培育。
不过从趋势看,算力竞争已经从“芯片大战”升级到“生态大战”,谁能把算力、算法、应用和资本更好地捏合起来,谁就能掌握未来的话语权。
两国的算力发展还带出了“绿色命题”,中国西部的数据中心靠光伏、风电实现绿电使用率超90%,芜湖“中华数岛”用液冷技术把PUE降到1.09,碳排放比传统数据中心低60%。
而美国的大型数据中心PUE普遍在1.5以上,能耗问题越来越突出,这或许会成为新的竞争焦点,毕竟未来的算力,不仅要算得快,更要算得绿。
无论是甲骨文的“算力巨兽”,还是中国的“生态突围”,都指向同一个结论,算力已经从AI的“基础设施”变成了“核心能源”。
2026年甲骨文超算正式落地时,我们能看到它是否能兑现承诺,而中国的算力增长曲线,还会继续书写突围的故事。
这场竞赛没有终点,但可以肯定的是,最终受益的会是整个智能产业,毕竟有竞争,才有更快的创新,更普惠的技术。
更新时间:2025-10-23
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号