优化算法和集成方法有什么区别?

What is the difference between optimization algorithms and Ensembling methods?

我正在研究集成方法,想知道梯度下降等优化技术与装袋、提升等集成技术之间有什么区别

像 Gradient Decent 这样的优化是一种单一模型方法。每个维基百科的合奏是多个模型。综合考虑对整体中的成分进行加权。提升(根据维基百科 https://en.wikipedia.org/wiki/Ensemble_learning 似乎说它正在重新训练,重点关注模型中的遗漏(错误)。

对我来说,这就像单眼时尚的单图像识别与双眼图像识别。这两个图像是一个合奏。需要特别注意分类错误的进一步审查正在加强。也就是说对一些错误进行再训练。也许错误条件数据的表示频率太低,不足以进行良好的分类(在这里考虑黑天鹅)。在车辆中,这可能就像结合红外、热、雷达和激光雷达传感器结果进行整体分类。上面的 link 对您关注的每个领域都有很好的解释。