如何使用 CyberGlove II 执行手势识别
How do I perform Gesture Recognition with CyberGlove II
我正在做一个项目,试图 Recognize Gestures
和 CyberGlove II。
当我执行 GetDataGlove Demo
(出现在 SDK
中)时,我得到了这个结果。 (See results in prompt)
Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0
Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0
Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0
...
如果我做同样的手势,上面的值将非常相似但不同。
0到4的值代表每个手指,3个值代表手指的每个关节
但是我有两个问题:
- 您如何解读
Gesture Recognition
中的这些数据?
- 每个传感器 returns 的最大值和最小值是多少?
PS.: 对我来说最重要的是学习如何解释传感器数据。有一些教学样本。我想识别来自 Brazil Sign Languages
.
的手势
CyberGlove API
并未提供与此认可相关的内容。由于同一手势的手势数据发生变化,我不得不使用机器学习。我使用了 Microsoft Azure Machine Learning 并且该服务基于 JSON
.
首先,我必须使用我想要识别的手势映射创建 .csv
。我为每个手势做了 100
次手势映射。这个数量已经被证明是合理的认可并且表现也很有趣。
我正在做一个项目,试图 Recognize Gestures
和 CyberGlove II。
当我执行 GetDataGlove Demo
(出现在 SDK
中)时,我得到了这个结果。 (See results in prompt)
Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0
Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0
Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0
...
如果我做同样的手势,上面的值将非常相似但不同。
0到4的值代表每个手指,3个值代表手指的每个关节
但是我有两个问题:
- 您如何解读
Gesture Recognition
中的这些数据? - 每个传感器 returns 的最大值和最小值是多少?
PS.: 对我来说最重要的是学习如何解释传感器数据。有一些教学样本。我想识别来自 Brazil Sign Languages
.
CyberGlove API
并未提供与此认可相关的内容。由于同一手势的手势数据发生变化,我不得不使用机器学习。我使用了 Microsoft Azure Machine Learning 并且该服务基于 JSON
.
首先,我必须使用我想要识别的手势映射创建 .csv
。我为每个手势做了 100
次手势映射。这个数量已经被证明是合理的认可并且表现也很有趣。