OpenCV:比较来自网络摄像头和图像的姿势
OpenCV: Comparing poses from webcam and image
我想比较我从网络摄像头获得的姿势与从图像获得的姿势。姿态估计的基本代码来自:https://github.com/opencv/opencv/blob/master/samples/dnn/openpose.py
如何将我自己的姿势实时与图像的姿势进行比较,并且 return 如果两个姿势在某个阈值内匹配则为真?
例如,如果我将我的手臂放在某个位置以匹配某人做同样动作的图像,我如何才能得到匹配程度的结果?
这样做的方法是什么/我在哪里可以找到这方面的更多信息?
正如你在这里看到的,检测到的人体姿势的结果是从 0 到 17 的索引。
您可以使用 L2 距离来测量所有对之间的距离。
例如,对于第 0 个关节:
(J0[0] - J1[0])*(J0[0] - J1[0])
关于 openpose 输出的更多信息。
实际上,openpose 不仅可以为您提供 (x,y)
,还可以为您提供 0-1 的 confidence
分数。你可以得到这个分数。
比如我的项目中:
(J0[0] - J1[0])*(J0[0] - J1[0])*confidance
我想比较我从网络摄像头获得的姿势与从图像获得的姿势。姿态估计的基本代码来自:https://github.com/opencv/opencv/blob/master/samples/dnn/openpose.py
如何将我自己的姿势实时与图像的姿势进行比较,并且 return 如果两个姿势在某个阈值内匹配则为真?
例如,如果我将我的手臂放在某个位置以匹配某人做同样动作的图像,我如何才能得到匹配程度的结果?
这样做的方法是什么/我在哪里可以找到这方面的更多信息?
正如你在这里看到的,检测到的人体姿势的结果是从 0 到 17 的索引。
您可以使用 L2 距离来测量所有对之间的距离。
例如,对于第 0 个关节:
(J0[0] - J1[0])*(J0[0] - J1[0])
关于 openpose 输出的更多信息。
实际上,openpose 不仅可以为您提供 (x,y)
,还可以为您提供 0-1 的 confidence
分数。你可以得到这个分数。
比如我的项目中:
(J0[0] - J1[0])*(J0[0] - J1[0])*confidance