神经网络或任何其他监督学习算法能否学习特殊的统计方法?

Can Neural Networks or any other supervised-learning algorithm learn special statistical methods?

我了解具有任意数量隐藏层的神经网络可以逼近非线性函数,但它甚至可以预测一些特殊函数,尤其是与某些统计方法一样吗?

假设一个class化问题的统计规律如下。对于训练集输入 X_train 和输出 Y_train,我们计算属于每个 X_train 的几何平均值(即每个特定 class 的 X_train 的中心)特别是 class。因此,对于每个 class 我们都有一个 X 的中心。现在对于测试数据,我们通过找到到训练中心的最短欧氏距离来估计 class 标签。例如,假设训练给我们的中心如下映射:(-1,1,1)->0, (1,1,1)->1。那么对于一个测试数据(-0.8,0.5,1),由于比较接近(-1,1,1),所以应该属于class 0.

问题是我不知道是否有任何监督学习方法可以做到上述策略。我将其称为 'supervised k-means'。 KNN 方法类似,但它基于 N 个最近点而不是所有训练点的平均值来找到标签。

我想知道神经网络是否可以做到这一点。还是我错过了其他可以实际执行上述策略的学习技巧?如果我尝试学习的统计策略更复杂,例如包括中心和协方差怎么办?

使用神经网络来解决这样的问题会有点过火。

Linear discriminant analysis and Gaussian naive Bayes 做与您描述的类似的事情。他们将每个 class 的中心估计为算术平均值,并将每个点与最近的中心相关联。但他们计算的是修改后的距离,而不是欧几里得:GNB 估计每个特征的条件方差,LDA 也估计协方差。他们还考虑了先验 class 概率。这些修改可能会改进您的 class化,但如果您不需要它们,您可以自己编写一个算法。