如何找到三个矩阵的共同特征?

How to find common characteristics of the three matrices?

我有三个矩阵A, BC,大小都是120*1000 double,其中120表示时间点的个数,1000 表示特征总数。对于每一个矩阵,都有一个对应的回归矩阵,其大小都是120*5 double。回归矩阵只包含"1""0",其中"1"代表这个时间点有刺激,"0"代表休息时间点。我想找到A, BC这三个矩阵的共同特征结合三个回归量矩阵。然后我想训练一个基于矩阵 AB 的分类器。最后,我想根据训练数据对矩阵 C 进行分类。如何实现?谢谢!

我希望有更有资格的人介入,但看起来 OP 方面缺乏具体信息让他们都不敢回答。我的评论旨在作为指导而非答案,但应要求将我的评论移至答案。

首先,这离我的茶杯很远,所以要带着极端的偏见来处理,但是:

  1. 如果 features/subjects 不相关

    那么您应该将每个单独处理 1D function/array/vector 并训练您的神经网络分类器(每个特征一个)。

  2. 如果特征相互依赖

    那么您需要将它们全部用作神经网络分类器的输入,并拥有具有足够多节点(权重)的网络架构,能够处理如此大量的数据。

  3. 只有当你想减少对分类器的输入时,你才需要自己找到依赖关系

    但是当您要使用神经网络时,您不需要这样做,因为神经网络往往会自行完成。当然,如果你这样做会降低所需的架构复杂性。

    无论如何,如果您确实需要这样做,那么 PCA Principal Component Analysis is your way... This step is usually done for deterministic based classifiers (not neural network ones, for example based on correlation coefficients,或者基于任何度量标准中的距离等...)。 PCA 的优点是您不需要对数据了解太多...我知道的所有其他缩减方法通常利用依赖项或数据的某些特征,但为此您会需要详细了解输入的属性,我认为情况并非如此。