突发,利好!2天后要放大招,这个板块要启动?空仓满仓看过来

8月12日(周二),一场聚焦金融与AI融合的行业论坛——“金融AI推理应用落地与发展论坛”即将召开。

届时,hw将发布一项被内部称为“AI崛起,开启智慧金融新篇章”的技术。

从目前的公开数据来看,这项技术并非简单的性能提升,而是从系统架构层面重构AI推理的数据流动逻辑。

其核心目标直指当前中国AI发展的一大“软肋”:可以减少对高带宽内存(HBM)的过度依赖。

在大模型推理过程中,数据在处理器与内存之间的频繁搬运成为性能瓶颈,即所谓“内存墙”。

HBM凭借其超高带宽成为主流解决方案。

然而,全球HBM产能高度集中,95%以上由韩国企业掌控,国产化率不足5%。

这一供应链风险,使得国内AI应用极易因HBM短缺而出现响应延迟、任务卡顿等问题,严重制约算力的稳定输出。

HBM,金融行业的“卡脖子”难题

因为金融就是,以高频交易、实时风控为代表的场景,要求系统在毫秒级完成复杂推理。

例如,头部支付平台的反欺诈系统年调用量达万亿级,每秒峰值数万次请求。

一旦HBM供应紧张,推理延迟上升,不仅用户体验受损,更可能因识别滞后带来真实资金损失。

之前就有媒体去采访,有业内直言:“很多人盯着GPU数量,却忽略了芯片背后的内存供应链。”

hw的“破局”之道

从这次宣传来看,hw此次的突破,正是从“存—算—传”协同的角度切入,提出“硬件重构 + 软件定义”的融合方案。

简单来说,就是通过先进存算架构优化、DRAM与新型存储技术的结合,在保持高推理效率的同时,大幅减少HBM的用量。

其实,hw在内存优化领域早有积累,此前推出的EMS弹性内存服务。

hw的EMS弹性内存存储服务通过显存与DRAM池化,使盘古大模型5.0的NPU部署数量降低50%,推理首Token时延降低80%,升腾芯片单卡Decode吞吐量突破1920 Tokens/s,KV Cache传输带宽提升10倍。

这些数据说明,hw在“内存利用率”上的优化,已经走在行业前列。

此次发布,更像是将这套方法论系统化、产品化,推向更广泛场景。

目前,hw已携手超1.1万名生态伙伴,服务全球5600余家金融机构,并与很多机构等关键基础设施方展开深度合作。

此次联合发布,不仅是技术展示,更是推动AI推理在关键行业规模化落地的信号。

一旦该技术实现商用,其影响将远超金融范畴。

可以预见,8月12日的技术发布,或许不会立刻改变格局,但它可能是一个信号,就是我们的AI的下一阶段,不再是“复制+追赶”,而是开始探索属于自己的底层逻辑。

特别声明:以上内容绝不构成任何投资建议、引导或承诺,仅供学术研讨。

如果觉得资料有用,希望各位能够多多支持,您一次点赞、一次转发、随手分享,都是小猎豹坚持的动力~

展开阅读全文

更新时间:2025-08-12

标签:财经   利好   板块   天后   内存   金融   技术   数据   行业   带宽   系统   盘古   软肋   架构

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号

Top