在线学习算法不局限于分类问题。内核adatron算法的更新规则还建议了创建优化的在线版本的通用方法。
使核adatron算法的第一次更新等价于αi←αi +∂W(α)∂αi,使其成为一个简单的梯度上升算法,增加了修正,以确保满足额外的约束。例如,如果我们将相同的方法应用于支持向量回归算法的线性ε-不敏感损失版本。金宝app
支持向量机和支持向量回归作为支持向量机的一部分,其金宝app优点之一是可以避免在高维特征空间中使用线性函数的困难,将优化问题转化为对偶凸二次规划。在回归的情况下,损失函数是用来惩罚误差大于阈值。这样的损失函数通常会导致决策规则的稀疏表示,从而具有显著的算法和表示优势。
参考:
模式分析的核方法john Shawe-Taylor & Nello Cristianini
http://kernelsvm.tripod.com/
引用作为
Bhartendu(2023)。金宝app支持向量回归(//www.tatmou.com/matlabcentral/fileexchange/63060-金宝appsupport-vector-regression), MATLAB中央文件交换。检索.
MATLAB版本兼容性
使用R2016a创建
与任何版本兼容
平台的兼容性
窗户 macOS Linux标签
版本 | 发表 | 发布说明 | |
---|---|---|---|
1.0.0.0 |