如何对来自多个传感器的记录数据进行分类?

How to classify the recorded data from multiple sensors?

我正在尝试通过使用连接到柔性传感器和加速度计(也可能是 emg 传感器)的 arduino 来制作一款能够识别手势的手套。

我能够从我读取的传感器中记录所有这些数据。我想要的是了解如何创建分类器来识别这些手势。有人说使用 Matlab 或 Pyton,但我不知道从哪里开始。我看到了一些用于机器学习的库,但我立即迷路了。我对采样和分类的概念略知一二。

如果可能的话,我想要一些我可以开始学习的资源建议。

注:我主要懂java编程语言

在将机器学习应用到您的问题之前,您可能需要对它进行一些 courses/tutorials 研究。 There 一大堆ML素材。

还有一些步骤,可能会帮助您解决问题。

  1. 首先,您必须为您的数据选择合适的格式。到 识别手势,你可能必须跟踪你的 参数(屈曲、加速度)随时间变化。

    Е示例:您每 0.1 秒记录一次参数,并且手势 长度为1s。所以特征向量看起来像 [f0, f1, ..., f10, a0, ..., a10].

  2. 之后,您必须创建训练集 - 特征集 带有相应标签的向量。此时,你必须标记 自己做手势。你可能需要很多例子才能得到你的 进一步的分类器工作。

  3. 最后一部分:选择一些机器学习工具(我用Python和 scikit-学习)。分类器种类繁多,但我建议 使用简单的开始(NearestNeighbors,决策树)。 Java中有一些机器学习库,你可以使用它们 如果你想。使用你的训练数据集来训练你的分类器,所以 它将能够预测新特征向量的标签。

示例 (Python):

from sklearn.neighbors import KNeighborsClassifier
clf = KNeighborsClassifier()
clf.fit(X, y)
# X is an array of feature vectors, y is an array of labels.
gestures = clf.predict(X_new)
# X_new is an array of feature vectors of 
# gestures you want to recognize

此外,您可能会发现有用的 this Kaggle 竞赛,它也是关于手部动作识别的,但是使用 EEG 记录。