今天小编分享的科学经验:横扫16大榜单,最强开源单目深度估计算法来了,精度可以直接用于3D重建,欢迎阅读。
单目深度估计新成果来了!
方法名为Metric3D v2,是 CVPR 单目深度估计挑战赛冠军方案 Metric3D 的加强版。
用一套模型参数,在未知环境中,同时解决带尺度深度估计和法向估计两个问题。
可用于生成真实世界的几何估计:
在密集场景和特殊样本上也有较好效果:
无需微调和优化,可直接用于无人机感知:
无需调整尺度参数,提供单帧 3D 点云,其精度可以直接用于 3D 重建:
可部分替代物理深度估计工具,用于增强自动驾驶场景的单目 SLAM:
Metric3D v2 在 16 个单目深度和法向估计基准榜单上拿下 SOTA,涵盖绝对深度、相对深度和法向估计的網域内和網域外测试。
不做尺度对齐或微调,在 KITTI 上的单目深度估计相对误差可低至 5%。
这项工作由来自香港科技大学、阿德莱德大学、西湖大学、英特尔、香港大学、浙江大学的研究人员共同打造,目前已被 AI 顶刊 TPAMI 接收。
单目深度估计受限于尺度二义性
单目深度估计技术在计算机视觉领網域具有重要意义。这项技术能从单幅 2D 影像中推断出场景的 3D 结构,为众多应用提供了关键支持。
在传统领網域,单目深度估计广泛应用于自动驾驶、机器人导航、增强现实等场景,帮助智能系统更好地理解和互動环境。
随着 AIGC 的兴起,单目深度估计在这一新兴领網域也发挥着重要作用。它为 3D 场景生成、虚拟现实内容制作、影像编辑等任务提供了深度信息,大大提升了生成内容的真实感和沉浸感。
通过赋予 AI 系统对 3D 世界的理解能力,单目深度估计正在推动 AIGC 应用向更高维度发展。
但单目深度估计一直是一个 " 病态 " 问题,根本原因在于其受到尺度二义性的影响。
对单张影像而言,尺度二义性来自于两个方面:
其一是物体大小未知产生的二义性:
为解决这类问题,早期可泛化的深度估计模型如 midas、leras 等使用混合数据集训练深度估计网络,希望模型从大量数据集中学到各个物体在场景中的大小。
然而,不同数据集相机内参有很大差异,这种差异会引起第二种尺度二义性(有时又可视作透视畸变):
同一个物体,使用不同相机在不同距离拍摄出的影像也大致可能相同(下图雕塑完全一致,但背景产生了畸变),因而对该物体的深度估计会受到影响 .
早期的 midas、leras 等工作,提出估计相对深度来规避相机差异带来的尺度二义性。
近期基于 stable-diffusion 的工作如 Marigold/Geowizard 或基于数据标注的工作 DepthAnything v1/v2 能够恢复更高精细度的相对深度,却无法恢复尺度信息。
为恢复尺度信息,前人提出将预训练好的相对深度模型,在特定数据集上过拟合以学习尺度信息,如 ZoeDepth。然而,该方法使得网络学到的深度分布受限于所 finetune 的数据集,因而尺度误差较大。
为缓解相机内参变化引起的尺度二义性,Metric3D 提出在公共相机空间中学习绝对深度。该空间被定义为一个焦距固定的针孔相机模型空间。
由于网络不再受相机尺度二义性的影响,学习难度被大大降低了。
在符合透视投影几何的前提下,论文提出两种将数据从真实焦距转换到公共焦距的方法。
影像变换法(CSTM_image):通过缩放影像改变焦距的方法。
标签变换法(CSTM_label): 拉伸或压缩整个场景 z 轴深度的方法。
凭借公共相机空间的设计,Metric3D仅仅依靠卷积模型就在 CVPR 单目深度估计挑战赛上获得冠军。
△算法框架:无须微调的有尺度深度估计;无须大量额外人工稠密重建的法向学习。单目法向估计受限于数据质量
深度图可以直接由 RGB-D 相机,激光雷达等测距传感器获得。
然而,法向图真值需要稠密重建点云的渲染,稠密重建本身需要大量工程和人工成本(如 Omnidata)。同时,室外场景的法向数据尤其难以获得。
在 Metric3D v2 这项研究中,引入了一种联合深度 - 法线优化框架,利用大规模深度标注的知识,克服户外法线数据标签稀缺的问题。
在联合优化中,法向的知识来源有三:真实法向标注、迭代优化中深度和法向特征的前向互動 、稠密深度预测提供的伪法向标注
具体来说算法流程为:
真实世界 -> 公共空间:将影像和深度标签从真实世界转换到公共空间,使得影像和深度图满足公共空间焦距的透视投影关系。
公共空间中估计几何:网络在公共空间预测初始深度图和法向图,并通过 raft 风格的迭代优化输出最终深度图和法向图。训练过程中,使用公共空间的深度图真值监督深度估计。
公共空间 -> 真实世界:将估计的深度图转回到真实世界,使之满足实际投影关系。训练时,当法向标注不可得时,使用预测出的深度图求梯度得到伪法向真值,以提供弱监督。
为增强模型鲁棒性,Metric3D v2 在 16 个公开数据集共计 16M 张影像上进行训练。这些数据集由超过 10000 种相机内参采集,涵盖室内、室外、自动驾驶等多种场景。
然而,其所需的数据量仍远远小于训练 DepthAnything v1/v2 所需的 62M。
Metric3D v2 实验结果
常规有尺度深度和法相估计的基准测试,Metric3D v2 超越 DepthAnything 和 OmniData(v2):
相对深度估计基准测试,量化指标优于最近在 CVPR2024 大放异彩的 Marigold:
再来看定量比较。
1、多场景深度与法向估计
尽管 Metric3D v2 是判别式模型,但在一些场景下,其细粒度也可以和基于生成模型的 Marigold 平分秋色。
同时,由网络预测出的法向图比深度直接转换所得的更加平滑。
对比其它基线方法 ZoeDepth 和 OmniData(v2),Metric3D v2 能给出更高细粒度的带尺度深度和法向。
2、单目场景三维重建
即使像 Marigold、DepthAnything v2 这样的高精度相对深度模型,也需要在特定数据上拟合、或手动挑选出一组合适的仿射参数后,才能得到三维点云。
3、单帧直接测距
Metric3Dv2 模型具有更高精度的测距功能:
总的来说,Metric3D v2 是一种用于零样本单目有尺度深度和表面法线估计的几何基础模型。
论文针对真实尺度下几何估计中的各种挑战,分别提出了解决方案。Metric3Dv2 框架整合超过 10000 台相机捕捉的上千万数据样本,训练一个统一的有尺度深度和表面法向模型。
零样本评估实验展示了方法的有效性和鲁棒性。对于下游应用,Metric3Dv2 能够从单一视角重建有尺度的三维结构,实现对随机采集的互联网影像的测距和单帧稠密建图。
凭借其精度、泛化能力和多功能性,Metric3D v2 模型可作为单目几何感知的基础模型。
在线试用 :
https://huggingface.co/spaces/JUGGHM/Metric3D
论文链接:https://arxiv.org/abs/2404.15506.pdf
项目主页:https://jugghm.github.io/Metric3Dv2
代码仓库:https://github.com/YvanYin/Metric3D
— 完 —
投稿请发邮件到:
标题注明【投稿】,告诉我们:
你是谁,从哪来,投稿内容
附上论文 / 项目主页链接,以及联系方式哦
我们会(尽量)及时回复你
点这里关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~
>