计算kinect中的深度特征?
calculate the depth feature in kinect?
我正在学习 kinect 的工作原理。但我是这个领域的新手。一些body请帮助我,以更好地理解给定的公式
Fϴ(I,x)=DI(x+(u/DI(x))-DI(x+(v/DI(x)))
在描述中给出了哪里
dI (x) 是图像 I 中像素 x 处的深度,并且
参数 ϴ = (u, v) 描述偏移量 u 和 v。
通过 1/dI(x) 对偏移进行归一化确保特征是深度 invariant:at 上的给定点 body,固定世界 space 偏移将导致像素是否接近或远离相机。
我仍然无法理解整个公式,像素 x 的深度是多少,偏移量 u、v 是多少,偏移量 u 和 v,偏移量的归一化,..请帮助!
像素X和offset(U,V)都是向量而不是数字。
例如 X 是 (100,200)。
U 是 (5,0) V 是 (0,10).
偏移量的归一化意味着如果点靠近相机偏移量更小,因为附近区域的深度值更大。在图片中你可以看到,theta1 比 theta2 大。
在那种情况下,它将是深度不变的。
我正在学习 kinect 的工作原理。但我是这个领域的新手。一些body请帮助我,以更好地理解给定的公式
Fϴ(I,x)=DI(x+(u/DI(x))-DI(x+(v/DI(x)))
在描述中给出了哪里 dI (x) 是图像 I 中像素 x 处的深度,并且 参数 ϴ = (u, v) 描述偏移量 u 和 v。 通过 1/dI(x) 对偏移进行归一化确保特征是深度 invariant:at 上的给定点 body,固定世界 space 偏移将导致像素是否接近或远离相机。
我仍然无法理解整个公式,像素 x 的深度是多少,偏移量 u、v 是多少,偏移量 u 和 v,偏移量的归一化,..请帮助!
像素X和offset(U,V)都是向量而不是数字。
例如 X 是 (100,200)。 U 是 (5,0) V 是 (0,10).
偏移量的归一化意味着如果点靠近相机偏移量更小,因为附近区域的深度值更大。在图片中你可以看到,theta1 比 theta2 大。 在那种情况下,它将是深度不变的。