三星展示HBMPIM最新研究成果:性能可提升一倍

据媒体报道,在今年的Hot Chips 2023上,三星电子公布了HBM-PIM和LPDDR-PIM的最新研究成果,三星表示,这两款存储器均为可用于人工智能行业的下一代存储器。

三星电子和AMD在此前就已经开始了有关PIM技术的合作,三星在AMD的商用GPU加速卡MI-100上配备了HBM-PIM内存,并将其应用于生成式人工智能,根据三星的研究结果显示,与现有HBM相比,配备了HBM-PIM的GPU的性能和功效提高了一倍以上。此外,为了验证MOE(混合专家系统)模型,三星使用96个配备了HBM-PIM的MI-100 GPU来构建HBM-PIM集群。在MOE模型中,与HBM相比,HBM-PIM GPU的性能提高了一倍,能效提高了三倍。

为了解决近年来人工智能行业开始出现的内存瓶颈,HBM-PIM等下一代内存技术受到了广泛的关注。新的HBM-PIM (processing-in-memory) 在每个内存模块内注入了一个AI处理器,从而将处理操作转移到HBM本身,从而减轻了内存与一般处理器之间转移数据的负担,从而提高了性能和能效。

除了HBM-PIM,三星电子还展示了LPDDR-PIM,它将移动DRAM与PIM相结合,可在移动设备中直接进行数据的处理和计算。由于它是针对移动设备开发的产品,因此它的带宽(102.4GB/s)也较低。但功耗却节省了72%。

展开阅读全文

页面更新:2024-03-06

标签:三星   加速卡   性能   人工智能   存储器   研究成果   处理器   模型   内存   数据   设备   最新

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top