使用已知的相机位置和矩阵查找 3D 对象位置

Find 3D object location with known camera positions and matrices

问题来了: 我有两个摄像头看着同一个 3D 对象。我有两个相机图像中对象中心的像素坐标。 我知道相机在 3D 世界中的位置和姿势。 两个相机的相机矩阵都被校准。

有了所有这些信息,我如何找到对象的 3D 世界位置坐标?

挑战: 我没有传感器信息(以毫米为单位的传感器高度),这有助于更准确地估计位置。 物体很小并且远离相机位置,这使得定位估计不可靠。直觉上,使用多个摄像头(查看同一对象)信息应该有所帮助,但在这种情况下,附近有多个对象实例。所以这增加了问题。使用 SfM 也不起作用,因为小像素区域的特征信息稀疏。

如果您将 P1 和 P2 称为相机 1 和 2 对象中心的投影,则必须将 2 个点从图像 space 转换为世界 Space(您可以多亏了投影矩阵,或者用相机参数做一点 Thales 几何)。

那么你的物体在世界中的位置就是线 (C1 P1) 和 (C2 P2) 的交点,其中 C1 和 C2 是你的两个相机在世界 space 中的世界位置。

在理想世界中,这个点存在并且是唯一的。

希望对您有所帮助。