如何使用 Cyber​​Glove II 执行手势识别

How do I perform Gesture Recognition with CyberGlove II

我正在做一个项目,试图 Recognize GesturesCyberGlove II

当我执行 GetDataGlove Demo(出现在 SDK 中)时,我得到了这个结果。 (See results in prompt)

Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0

Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0

Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0

...

但是我有两个问题:

  1. 您如何解读 Gesture Recognition 中的这些数据?
  2. 每个传感器 returns 的最大值和最小值是多少?

PS.: 对我来说最重要的是学习如何解释传感器数据。有一些教学样本。我想识别来自 Brazil Sign Languages.

的手势

CyberGlove API 并未提供与此认可相关的内容。由于同一手势的手势数据发生变化,我不得不使用机器学习。我使用了 Microsoft Azure Machine Learning 并且该服务基于 JSON.

首先,我必须使用我想要识别的手势映射创建 .csv。我为每个手势做了 100 次手势映射。这个数量已经被证明是合理的认可并且表现也很有趣。