用于增强现实和虚拟现实的 3D 多点触控原型

3D Multi-touch Prototype for Augmented and Virtual Reality

我不确定我问的问题是否属于此类。但是,我想知道用于 3D 多点触控增强和虚拟现实(在下面的视频中)的 Prototype 是如何开发的。使用了什么编程技术?什么算法?我想深入了解这项令人敬畏的技术。

https://www.youtube.com/watch?v=Tw1mXjMshJE

视频说明中已经解释得很清楚了:

In this video I demonstrate the 3D interaction prototype that I have developed during my Master Thesis at Fraunhofer FIT in Bonn, Germany. The system uses a depth sensing camera, which is based on the time-of-flight principle and measures phase shifts of a reflected infrared signal. My contribution is the computer vision algorithm, the gesture recognition technique as well as the concept and implementation of the demo application.

他使用基于飞行时间的深度相机(即与 Kinect2 相同的技术)并正在提取 hands/fingers。不知道他用于执行此操作的计算机视觉算法是否已发布,但您可以使用 OpenCV 获得良好的开端。一旦获得了手和手指的 3D 信息,就可以使用任何 3D 图形编程环境(低级 OpenGL、Unity3D 等)完成图形部分。