哈喽,大家好,我是小方,今天我们来关注一起震动全球金融圈的技术故障。
就在前几天,全球最大的衍生品交易所——芝加哥商品交易所集团(CME)的交易系统突然中断了长达10小时,而原因竟是其数据中心的冷却系统出了问题。


2025年11月27日,CME集团位于美国伊利诺伊州奥罗拉市的数据中心因冷却系统失效,导致交易系统全面中断,这个数据中心由CyrusOne公司运营,中断期间,涉及数万亿美元规模的期货和期权合约交易被迫暂停。

这次故障的影响从芝加哥的利率期货市场蔓延至纽约的股指期权,甚至影响了亚洲时段的外汇交易流动性,数千家金融机构的正常业务受到干扰。

这次事件将一个严峻挑战摆上台面:人工智能等高性能计算对电力的巨大需求,使得数据中心的发热量急剧攀升。

例如,目前广泛部署的AI加速卡,单卡功耗已可达700瓦甚至更高,当一个标准机柜内密集部署上百张这样的芯片时,其功率密度可超过100千瓦,产生的热量十分惊人,传统的风冷技术在处理这种高密度热量时已逐渐力不从心。


为应对散热瓶颈,液冷技术正加速走向大规模应用,该技术主要分为冷板式、喷淋式和浸没式等,其中,浸没式液冷将整个服务器浸入特殊冷却液中,散热效率极高,能将数据中心能效指标PUE值降至1.1以下,远优于传统风冷。

根据行业分析机构TrendForce集邦咨询在11月发布的最新预测,随着新一代AI服务器在2025年放量,液冷技术的市场渗透率将显著提升。

在国内,液冷技术的应用也在稳步推进,例如,据2025年11月的公开报道,某国内云服务商在江苏的数据中心园区首次规模化部署了单机柜功率密度达80千瓦的浸没式液冷集群,用于支持大规模AI模型训练。

该案例显示,通过采用液冷方案,在应对高功率密度算力需求的同时,实现了有效的节能降耗。

CME事件也提醒业界,关键数字基础设施的设计需要更强的容错能力,这包括在冷却系统等重要环节配置足够的冗余,以及建立更快速的故障切换机制,以防止单一故障点引发系统性风险。

芝商所的这次宕机事件,如同一面镜子,映照出算力时代基础设施面临的共性挑战,积极拥抱像液冷这样的创新技术,并构建更具韧性的系统架构,将是保障数字经济平稳前行的重要基石。

随着技术的不断成熟和规模化应用,更高效、更可靠的散热解决方案有望为AI等前沿科技的持续发展提供坚实支撑。
更新时间:2025-12-02
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号