光计算机究竟能做到多小?研究揭示了缩放性能的新策略

康奈尔大学的研究人员最新发表在《自然通讯》上的研究揭示了光计算领域的重要突破,特别是在如何将光计算设备缩小至实用尺寸方面的探索。这项研究提供了对于未来基于光的计算机能达到多小的深入见解,也为设计高效能光计算系统提供了全新的策略。

光计算被广泛看作是下一代计算技术,它利用光波而非电信号来进行数据处理,承诺在能效和处理速度上带来显著优越性。然而,如何将这些设备设计得足够小,以适应实用需求,仍是光计算技术发展的一大挑战。根据主要作者弗朗西斯科·蒙蒂科内及其团队的研究,光学设备的大小与它们执行的任务复杂性之间呈现出一种缩放规律。

打破光计算的空间限制

在传统计算中,算法需要时间和内存才能运行,而光学系统同样需要物理空间供光波进行传播和相互作用。蒙蒂科内教授指出,光子相较于电子更难被限制在紧密的空间内,因此开发一种既能高效运算又足够小的光计算系统显得尤为重要。

为了探讨这一问题,研究人员从深度学习技术中获得灵感,特别是“神经剪枝”方法。在这一技术中,冗余参数被安全地移除而对任务性能的影响微乎其微。李彦东博士解释道,他们专门分析了光学器件的连接模式,即光波在设备内的重叠和相互作用,并基于波动物理学开发了光学专用剪枝方法,通过惩罚光波的重叠来简化光网络的结构。

突破性的体积缩小

降低光计算的空间复杂度。图片来源:Nature Communications (2025)。DOI:
10.1038/s41467-025-63453-8

研究结果表明,通过采用这一技术,光学计算系统的体积可以缩小至传统计算机的1%到10%。更值得注意的是,研究人员进行了一项估算,试图确定光学计算机在执行大型语言模型(如ChatGPT)中的线性运算时,其物理尺寸的理论极限。他们的计算显示,理论上,自由空间光学装置能够在约1厘米厚的器件内完成这一规模的运算。

为了实现这一目标,研究者们也提及了一些新兴的光学器件,例如超薄超表面和空间板,这些有潜力成为实现精巧的光计算机的候选方案。

精度与尺寸的权衡

然而,随着光学器件尺寸的增大,研究者发现推理精度呈递减趋势。这一发现意味着在某些应用中,必须在器件尺寸和任务性能之间找到一个最佳平衡点。尽管全光计算机的目标尚存在挑战,但李和蒙蒂科内认为,混合系统更具应用前景,其中光处理完成快速、高能耗的线性运算,同时电子设备负责处理非线性功能和决策逻辑。

蒙蒂科内提到:“在光计算机替代或显著加速类似GPU的设备这一点上,我仍然持保留态度,尤其是除了尺寸外,还有其他限制因素。”尽管如此,他指出,在许多资源有限的边缘场景下,光学技术可能会展现出极大的效用,这也意味着空间并非某些人担心的瓶颈。

康奈尔大学的这一研究为光计算技术的发展提供了新的思考和视角,通过缩放性能的创新策略,有望推动这一领域向前迈进。随着技术的推进,未来的光计算设备不仅将具备更小的尺寸,更能在丰富的应用场景中实现功能。借助这些研究成果,科学家们或许能在不久的将来看到更加高效和环保的计算方式,使光计算从实验室走向实际应用。随着研究的不断深入,光计算的未来将会更加明亮。

展开阅读全文

更新时间:2025-11-24

标签:科技   缩放   性能   计算机   新策略   光学   尺寸   光波   技术   器件   设备   空间   研究人员   系统

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号

Top