AdaBoost是一种用于分类和回归的预测算法。

AdaBoost (adaptive boost)是一种集成学习算法,可用于分类或回归。尽管AdaBoost比许多其他的更能抵抗过度拟合机器学习算法,它往往是敏感的噪声数据和离群值。

AdaBoost之所以称为自适应,是因为它使用多个迭代来生成单个复合强学习器。AdaBoost通过迭代添加弱学习者(一个与真分类器仅略微相关的分类器)来创建强学习者(一个与真分类器关联良好的分类器)。在每一轮的训练中,一个新的弱学习者被添加到集合中,一个加权向量被调整以关注在前几轮中被错误分类的例子。结果表明,该分类器比弱分类器具有更高的分类精度。

自适应增强包括以下算法:

  • 演算法。M1和演算法。M2 -用于二进制和多类分类的原始算法
  • LogitBoost -二进制分类(用于难以分离的类)
  • Gentle AdaBoost或GentleBoost .二进制分类(用于与多级分类谓词一起使用)
  • 稳健增强-二分类(对标签噪声的稳健)
  • LSBoost—最小二乘增强(用于回归系综)
  • LPBoost -使用线性规划增强的多类分类
  • RUSBoost -对倾斜或不平衡数据的多级分类
  • TotalBoost -多类分类比LPBoost更健壮

有关自适应增强的更多信息,请参见统计和机器学习工具箱™

参见:机器学习,金宝app支持向量机

面板的导航

你对机器学习了解多少?

掌握机器学习:用MATLAB逐步指导