如何计算感知器学习算法的最大迭代次数?
How to calculate the maximum number of iterations taken by perceptron learning algorithm?
我相信感知器学习算法对收敛线性可分数据所需的迭代次数有上限。我想找到确切的公式来帮助我找出这将需要的迭代次数,但维基百科上没有。
我在网上看到这个实体取决于数据样本的数量,所以如果我有n(比如5000)个样本,感知器需要迭代多少次才能收敛(假设数据是线性可分的)。或者它不是那么简单并且取决于数据本身?
P.S。对机器学习非常陌生,因此是一个简单的问题。
Wikipedia 指的是 Novikoff, A. B. (1962) 的证明,statistical-learning.
中的早期结果之一
这里给出了 online-learning 环境的结果,形式略有不同:
当 ||x_i|| ≤ D for all i
(直觉:训练实例的半径)和 margin >= γ
:
- 所需的迭代次数受限于:
(D/γ)^2
.
有趣的后果:
- convergence-result 与样本数量无关!
- convergence-result 独立于 input-dimension!
我相信感知器学习算法对收敛线性可分数据所需的迭代次数有上限。我想找到确切的公式来帮助我找出这将需要的迭代次数,但维基百科上没有。
我在网上看到这个实体取决于数据样本的数量,所以如果我有n(比如5000)个样本,感知器需要迭代多少次才能收敛(假设数据是线性可分的)。或者它不是那么简单并且取决于数据本身?
P.S。对机器学习非常陌生,因此是一个简单的问题。
Wikipedia 指的是 Novikoff, A. B. (1962) 的证明,statistical-learning.
中的早期结果之一这里给出了 online-learning 环境的结果,形式略有不同:
当 ||x_i|| ≤ D for all i
(直觉:训练实例的半径)和 margin >= γ
:
- 所需的迭代次数受限于:
(D/γ)^2
.
有趣的后果:
- convergence-result 与样本数量无关!
- convergence-result 独立于 input-dimension!