装袋(引导聚合)

机器学习合奏用来提高算法的精度和稳定性回归和统计分类

装袋(引导聚合)是什么?

整体机器学习可以主要分为装袋和提高。包装技术是有用的回归和统计分类。包装是使用决策树,显著提高模型的稳定性提高准确性和减少方差,消除过度拟合的挑战。

装袋

图1所示。装袋(引导聚合)流。

装袋合奏机器学习需要几个弱模型、聚合预测选择最好的预测。弱者的模型专注于不同的部分功能空间,使装袋利用预测来自每一个模型达到最大的目的。

  • 装袋,促进整体机器学习的两种主要方法。
  • 包装是一个方法,可以用于回归和分类。
  • 它也被称为引导聚合,形成了两种分类装袋。

引导是什么?

包装是由两部分组成:聚合和引导。引导是一个抽样方法,选择一个样本的一个集合,使用替代方法。然后学习算法在样本选择上运行。

引导技术使用抽样与替代选择过程完全随机。当选择样本没有更换,随后选择变量总是依赖于之前的选择,使标准的非随机。

聚合是什么?

组合模型预测进行聚合最后预测需要考虑所有的可能的结果。聚合可以做基于结果的总数或预测的概率来自每个模型的引导过程。

一个方法是什么?

装袋和提高最突出的合奏形式技巧。一个是一个方法机器学习平台,帮助多个模型在训练中通过使用相同的学习算法。整体方法是一大群multi-classifiers的参与者。

Multi-classifiers是一组多个学习者,跑到数千人,与一个共同的目标,可以融合并解决常见的问题。另一个类别的multi-classifiers是混合方法。混合方法使用一组学习者,他们可以使用不同的学习方法,但与multi-classifiers。

学习面临着多重挑战,例如错误主要是由于偏见,噪音,和方差。机器学习的准确性和稳定性保证了合奏装袋和增强等方法。多个分类器组合减少差异,特别是在分类器是不稳定的,它们是重要的比单个分类器提供更可靠的结果。

装袋或增强的应用程序需要先学基础算法的选择。例如,如果一个选择一个分类树,然后提高装袋将是一个池的树木大小等于用户的偏好。

装袋的优点和缺点

随机森林是最受欢迎的装袋算法之一。装袋提供允许许多薄弱的学习者的优势将努力超越单个强大的学习者。它还可以帮助减少方差,因此消除了过度拟合模型的过程。

装袋的一个缺点是,它引入了一个损失模型的可解释性。合成模型可以经历很多偏见当适当的过程被忽略。尽管装袋高度准确,它可以计算昂贵,这可能会阻碍它的使用在某些情况下。

装袋与提高

装袋之间使用最好的技术和提高取决于可用的数据,模拟当时,任何现有的情况。估计的方差显著减少装袋和促进技术在组合过程中,从而增加了准确性。因此,获得的结果证明稳定性高于个人的结果。

当事件呈现低性能的挑战,装袋技术不会导致一个更好的偏见。然而,提高技术生成一个统一的模型误差较低,因为它专注于优化单个模型的优势,减少缺点。

当挑战在单个模型过度拟合,装袋方法执行比提高技术。提高面临的挑战是处理过度学习,因为它有过度学习本身。

相关阅读

继续学习和发展你的知识库,请探索附加相关CFI下面的参考资料:

0的搜索结果