今天(8日),蚂蚁集团首次乌镇大会提出其国产算力集群规模已达“万卡级”,
如果持续有跟踪国产算力的朋友就知道,这个事情分量多大。

大家要知道,今年以来DeepSeek等国产大模型持续突破。
hw,寒武纪等芯片的,训练任务稳定性不断提升,推理延迟控制在毫秒级,性能对标A100集群(在特定任务下)。
而在2024年以前,国产GPU厂商还在比拼单卡FP16算力是否突破300 TFLOPS(海外的是万级别)
到了2025年,国内芯片厂家走了另一个模式,那就是:如何让一万张卡像一张卡一样工作?
昇腾的“超节点”架构将8卡封装为一个逻辑单元,通过自研NVLink替代方案实现90%以上的通信效率。
寒武纪思元590通过Chiplet+先进封装,在互联带宽上逼近H100水平。

而蚂蚁则在其调度系统中引入“弹性容错”机制,即便单日出现数百次硬件故障,整体训练任务仍可无感续跑——这正是98.3%稳定性的来源。
更重要的是软件层的协同进化。
据第三方测试,在AI推理任务中,基于国产芯片的组合,吞吐量已达AI的92%,而单位TCO(总拥有成本)低出37%
可以看出,性能差距正在收窄,成本优势已然确立。
如果说技术是引擎,那么场景就是燃料。
过去国产算力常陷于“有算力无负载”的尴尬。
如今,闭环正在加速闭合。

金融风控:
据蚂蚁内部评估,蚂蚁集团每日处理超50亿次实时风险决策。
医疗科研:
利用国产GPU集群实现“基因+影像”跨模态分析,单样本处理时间从8小时压缩至30分钟,效率提升16倍。
运营商智算:
TPU智算中心上线半年,已承载本地政务、交通、安防等23个AI应用,算力利用率稳定在75%以上,远高于行业平均的40%。
这些不是孤立案例,或许是一条清晰的反馈链:真实需求 → 模型适配 → 芯片调优 → 成本下降 → 更多场景接入。
尤其值得注意的是,模型厂商的态度正在转变。
2025年9月,DeepSeek宣布其MoE架构大模型已完成对海光DCU和昇腾芯片的原生支持,无需依赖CUDA转译层。
这意味着,国产芯片可能不再只是“能跑”,而是成为模型设计时的优先选项。
据IDC预测,到2027年,中国大模型训练中采用国产算力的比例将从2024年的不足8%跃升至45%以上。
这一拐点,可能zc推动的结果,而是经济性与可用性双重验证后的自然选择。
长期以来,国产算力生态被三大“孤岛”困住:
资源孤岛:东部算力紧张,西部算力闲置,全国智能算力平均利用率不足45%。
技术孤岛:昇腾、海光、寒武纪、天数智芯……各搞一套驱动和编译器,开发者适配成本高企。
供需孤岛:地方建了智算中心,但“空转率”高达60%。
2025年,多个关键进展加速推进:
中间层突破:
AI开源编译框架已支持5种以上国产芯片后端,模型迁移成本下降70%。
服务化落地:
阿里云、华为云提供从环境部署、性能调优到运维监控的一站式能力,
标准推进:
首批覆盖芯片、框架、调度三层标准落地,预计2026年Q1落地。
另外回望2018–2019年芯片国产化初期,市场因技术不确定性而普遍低估相关企业。
但历史经验表明,一旦产业趋势确立,具备核心技术能力与生态卡位优势的龙头公司可能将迎来估值与业绩的双重跃升。
对于当前的国产算力赛道,两个核心问题:
行业是否具备高增长确定性?
企业能否在增长中占据结构性优势?
我们必须清醒认识到:这是一场长周期、高复杂度的系统工程。
技术路线可能迭代,客户需求可能迁移,但这或许是一个长期值得关注的方向。


特别声明:以上内容绝不构成任何投资建议、引导或承诺,仅供学术研讨。
如果觉得资料有用,希望各位能够多多支持,您一次点赞、一次转发、随手分享,都是笔者坚持的动力~
更新时间:2025-11-11
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号