是否可以使用来自飞行时间传感器的数据创建/使用 V 视差图(而不是通常使用的 RGB-D 立体视觉方法)?

Is it possible to create / use the V-disparity map with data from a Time of Flight sensor (instead of normally used RGB-D Stereo Vision approach)?

我正在做关于使用飞行时间 (ToF) 相机进行基于地面的障碍物检测的硕士论文。

我发现有很多应用程序使用 V 和 U 视差图通过立体视觉方法检测和跟踪物体和地平面。 他们计算拍摄的两张照片的差异,然后创建值的直方图,因此在 V-Disparty 地图中,地平面以斜线形式可见,障碍物从中突出。 所以我的问题是,是否可以根据飞行时间相机的数据生成视差图? 据我所知,这些东西会给我返回一个点云 (x,每个像素的 y,z 坐标)和场景的振幅图像。

所以立体视觉视差的深度是这样计算的:

深度=(基线*焦距)/视差)

ToF 相机有一个 objective,因此它使用针孔方法来计算正确的深度。那么有没有可能用ToF相机获得视差图?

提前致谢!

TL;DR:不,您不能从 time-of-flight 相机生成视差图。

我没用过多少time-of-flight个相机,但我用过的都给了我uint16矩阵。矩阵的形状是 X x Y,其中 uint16 值对应于与相机的距离(以毫米为单位)。这不是点云;这是一张深度图。

由于只有一个摄像头,所以没有视差,因此没有视差图,但我想你知道。

要从深度图创建视差图,我假设您可以在相机(基线)之间弥补一些假距离,然后从那里重新排列您的等式。所以这将是视差 = (fake_baseline * focal_length) / 深度。从这里你可以像往常一样计算你的 U 和 V 视差图。

由于您的基线将是一个 made-up 数字,我有预感这对地平面检测或物体回避没有用。因此,我认为您最好只使用 time-of-flight 相机 as-is.

的深度图

我以前没有尝试过,也从未使用过 u-disparity 地图,所以请对我的回答持保留态度(我可能是错的)。