Project Tango 奇异旋转可视化
Project Tango strange rotation visualisation
我正在使用 tango 进行 3D 重建。我们的系统与 KinectFusion 非常相似,它使用体素表示,但使用 Tango 作为跟踪器。左图(在下面链接的视频中)由 Raycast 在当前姿势(由 tango 给出)实时渲染。如代码示例中所示,由 GetOC2OWMat() 转换的原始姿势,此外,翻转 tx 和 rx 的符号以适应我们的系统。一切正常,除了 Z 轴的比率,它会改变渲染图像的角度。我猜坐标系转换没有正确完成,但如果不涉及 Z 旋转,深度集成就可以工作。我也检查过 det(R) 总是 1.
抱歉,我只是找到了错误的地方。当图像用opengl显示时,渲染的gl尺寸与Raycasting图像的纵横比不同。
你用 Java/C/Unity 编程吗?我很好奇,因为我的设备在相机数据方面存在问题,而您似乎可以毫无问题地捕捉到它。我很确定这是一个错误,但我想确保它确实是一个错误。
听起来您没有考虑内在因素 - 您是否考虑了相机和设备 IMU 帧?您需要这些来完全重新建立原始视点,即相机和设备 imu 帧矩阵都需要乘以到您的堆栈
我正在使用 tango 进行 3D 重建。我们的系统与 KinectFusion 非常相似,它使用体素表示,但使用 Tango 作为跟踪器。左图(在下面链接的视频中)由 Raycast 在当前姿势(由 tango 给出)实时渲染。如代码示例中所示,由 GetOC2OWMat() 转换的原始姿势,此外,翻转 tx 和 rx 的符号以适应我们的系统。一切正常,除了 Z 轴的比率,它会改变渲染图像的角度。我猜坐标系转换没有正确完成,但如果不涉及 Z 旋转,深度集成就可以工作。我也检查过 det(R) 总是 1.
抱歉,我只是找到了错误的地方。当图像用opengl显示时,渲染的gl尺寸与Raycasting图像的纵横比不同。
你用 Java/C/Unity 编程吗?我很好奇,因为我的设备在相机数据方面存在问题,而您似乎可以毫无问题地捕捉到它。我很确定这是一个错误,但我想确保它确实是一个错误。
听起来您没有考虑内在因素 - 您是否考虑了相机和设备 IMU 帧?您需要这些来完全重新建立原始视点,即相机和设备 imu 帧矩阵都需要乘以到您的堆栈