ICCV 2025 | CMU 空间可变对焦:单次拍摄全场景清晰

作者丨我爱计算机视觉

来源丨我爱计算机视觉

编辑丨极市平台

大家好,今天小编想和大家聊一篇计算摄影领域的奇妙论文,获得ICCV 2025 最佳论文提名。你有没有想过,如果你的相机能一次拍摄,就让照片里的每一个角落都清晰无比,无论远近,那该多好?或者,能像变魔术一样,让焦点随着你的心意在画面上自由移动?来自卡内基梅隆大学的研究者们带来的这篇“Spatially-Varying Autofocus”,就让这个想法变成了现实。

01 挑战传统摄影的极限

在传统摄影中,我们总是在跟“景深”作斗争。大光圈能带来美丽的背景虚化,但也意味着只有很窄一个平面上的物体是清晰的。想要获得一张从前到后都清晰(也就是“全清晰”,All-in-Focus, AIF)的照片,通常只有两种办法:要么缩小光圈,但这会牺牲进光量并可能导致衍射模糊;要么就得用“焦点堆栈”技术,也就是拍摄多张不同焦点的照片再合成,这对于动态场景显然无能为力。

计算摄影的发展为我们提供了新思路,但以往的方法也各有妥协。而这篇论文的目标,就是在保持大光圈和高分辨率的同时,用单次拍摄实现任意形状的焦平面,听起来是不是非常酷?

上图就展示了这种技术的效果:一张全清晰的照片,以及它背后那个神奇的、空间变化的自定义焦平面。

02 核心技术:会“分身”的计算镜头

为了实现这个目标,研究者们设计了一套非常巧妙的光学系统,名为“分裂式洛曼计算镜头”(Split-Lohmann computational lens)。这个名字听起来有点复杂,其实原理很清晰。

这个系统的核心在于“分裂”和“计算”:

2.1 如何实现自动对焦?

有了硬件基础,还需要聪明的算法来告诉系统每个区域应该对焦到哪里。论文提出了两种互补的自动对焦算法。

第一种是基于对比度的搜索算法。它将图像分成小块,然后快速测试一系列离散的焦距设置,找到能让每个小块对比度最高的那个焦距。这个过程非常快,足以实现实时的全清晰预览。

第二种是更高效的基于相位的算法。它利用了散焦与图像相位之间的关系,通过分析两张稍微偏移焦点的照片,就能直接计算出每个像素精确的对焦距离。这种方法避免了大量的搜索,速度更快,精度也更高。

论文中展示的相机原型

原型相机的点扩散函数(PSF)展示了其在不同距离和视场位置的对焦能力

03 惊艳的效果与应用

理论说完了,我们来看看实际效果。这套系统不仅能拍出高质量的全清晰照片,还解锁了许多创意玩法。

3.1 自由形状的景深

比如,你可以让焦点沿着一条斜线、一条曲线,甚至是你指定的任意区域分布。上图就展示了对一个倾斜放置的凯旋门模型的不同对焦方式:全清晰、模拟沙姆定律(Scheimpflug principle)的斜向对焦,以及只让凯旋门本身清晰的选择性对焦。

3.2 “凭空”消除遮挡物

这是一个小编觉得最神奇的应用。想象一下,你想拍一个物体,但它前面隔着一层铁丝网。传统相机很难在拍清主体的同时完全忽略铁丝网。而利用这项技术,可以直接将焦点设置在背景上,让前景的铁丝网因为严重的散焦而变得模糊不可见,从而在光学层面就“消除”了它!

3.3 性能对比:优势显著

研究者们将他们的方法与其他全清晰成像技术进行了详细对比,包括传统的焦点堆栈、小光圈成像以及其他计算方法。

从定性对比(如上面的Planes和Flowers场景)可以看出,该方法在处理大景深和复杂场景时,清晰度和细节表现都非常出色,尤其是在避免小光圈带来的衍射模糊方面优势明显。

定量分析(如MTF曲线和性能随拍摄张数变化的图表)进一步证实了这一点。该方法仅需3步4张照片(用于相位对焦算法)就能达到甚至超越需要数十张照片进行焦点堆栈的效果,在效率和质量上都取得了巨大突破。

04 总结

总而言之,这项研究通过软硬件的协同创新,为计算摄影开辟了一个激动人心的新方向。它不仅解决了传统摄影中景深与光圈的矛盾,还赋予了相机前所未有的、控制光场的能力。大家对这个方法怎么看?欢迎在评论区留下你的看法!

展开阅读全文

更新时间:2025-11-06

标签:数码   场景   清晰   空间   相位   光圈   焦点   照片   景深   论文   焦距   算法   相机

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号

Top