演算法

AdaBoost是一种用于分类和回归的预测算法。

AdaBoost (adaptive boosting)是一种集成学习算法,可用于分类或回归。尽管AdaBoost比许多公司更抗过拟合机器学习算法中,它往往对噪声数据和异常值敏感。

AdaBoost之所以被称为自适应,是因为它使用多次迭代来生成单个复合强学习器。AdaBoost通过迭代添加弱学习者(仅与真分类器略微相关的分类器)来创建强学习者(与真分类器良好相关的分类器)。在每一轮训练中,一个新的弱学习者被添加到集合中,并调整权重向量,以关注在前一轮训练中分类错误的例子。结果得到的分类器比弱学习者的分类器具有更高的准确率。

自适应增强包括以下算法:

  • 演算法。M1和演算法。用于二值和多类分类的原始算法
  • LogitBoost—二进制分类(对于难以分离的类)
  • 温和AdaBoost或Gentle boost -二进制分类(用于多级分类预测器)
  • 鲁棒boost—二进制分类(抗标签噪声)
  • LSBoost—最小二乘增强(用于回归集成)
  • LPBoost -使用线性规划推进的多类分类
  • 对倾斜或不平衡的数据进行多类分类
  • TotalBoost -多类分类比LPBoost更健壮

有关自适应增强的更多信息,请参见统计和机器学习工具箱™

参见:机器学习金宝app支持向量机