关于视觉3d目标检测学习像素深度的一点理解

时间:2024-02-01 19:53:27

在真实世界的一个物体,可以通过相机矩阵将其投影到像素坐标系上

但是,在像素坐标系上的像素,由于相机的原理,导致它的深度信息已经没有了,所以原理上是没法得到其真实深度的(即3d位置)

那么现在的深度学习方法又为什么能预测出物体的深度呢?
个人理解:
大概的过程就是:

  1. 通过图像可以预测物体的种类
  2. 通过物体的种类以及其他一些特征可以预测物体的尺寸
  3. 根据成像原理,真实物体通过小孔成像原理,投射到像素平面,真实物体的两个点+相机中心+图像上两个点构成两个相似三角形,知道了物体的尺寸,根据相似三角形原理,物体实际尺寸和像素尺寸的比例,是与真实深度和相机焦距的比例一致的,因此物体尺寸有了,就可以预测出深度距离了
    如果真实物体的尺寸预测不准的话,大概率深度预测也不会准