在构建高质量的回归模型时,选择正确的特征(或预测器),调整超参数(模型参数不适合数据),并通过残差诊断评估模型假设是很重要的。
您可以通过在为超参数选择值之间进行迭代,并使用您的选择交叉验证模型来优化超参数。这个过程产生多个模型,其中最好的模型可以是最小化估计泛化误差的模型。例如,要调整支持向量机模型,选择一组框约束和核尺度,对每个值对交叉验证模型,然后比较它们的10倍交叉验证均方误差估计。
统计学和机器学习工具箱™中的某些非参数回归函数还通过贝叶斯优化、网格搜索或随机搜索提供自动超参数调优。然而,bayesopt
,它是实现贝叶斯优化的主要函数,对于许多其他应用程序来说,它足够灵活。有关详细信息,请参见贝叶斯优化工作流程.
要自动选择具有调优超参数的模型,请使用fitrauto
.该函数尝试选择具有不同超参数值的回归模型类型,并返回预期性能良好的最终模型。使用fitrauto
当您不确定哪种回归模型类型最适合您的数据时。
为了交互式地建立和评估回归模型,使用回归的学习者应用程序。
要解释一个回归模型,您可以使用石灰
,沙普利
,plotPartialDependence
.
回归的学习者 | 使用监督机器学习训练回归模型来预测数据 |
用于培训、比较和改进回归模型的工作流,包括自动化、手动和并行培训。
在回归学习中,自动训练模型的选择,或比较和调整线性回归模型,回归树,支持向量机,高斯过程回归模型,回归树的集合,回归神经网络的选项。金宝app
使用图识别有用的预测器,手动选择特征包括,并在回归学习中使用PCA变换特征。
比较模型统计和可视化结果。
了解特征选择算法并探索特征选择可用的功能。
本主题介绍了顺序特性选择,并提供了一个使用自定义标准和sequentialfs
函数。
邻域分量分析(NCA)是一种非参数的特征选择方法,其目标是最大限度地提高回归和分类算法的预测精度。
在NCA中使用自定义鲁棒损失函数进行对离群值鲁棒的特征选择。
使用交互测试算法选择随机森林的分裂预测器。
用以下方法解释模型预测石灰
,沙普利
,plotPartialDependence
.
使用两种算法计算机器学习模型的Shapley值:kernelSHAP和对kernelSHAP的扩展。
显示和解释线性回归输出统计数据。
拟合线性回归模型并检验结果。
建立并分析线性回归模型的交互作用,并解释结果。
利用模型属性和对象函数对拟合模型进行评估。
在线性回归中F-statistic是方差分析(ANOVA)方法检验模型或模型中各成分的显著性的检验统计量。的t-statistic对于推断回归系数是有用的。
决定系数(r平方)表示响应变量的变化量的比例y由自变量来解释X在线性回归模型中。
估计的系数方差和协方差捕捉回归系数估计的精度。
残差对于检测离群是有用的y值和检查线性回归假设关于回归模型中的误差项。
Durbin-Watson检验评估时间序列数据的残差之间是否存在自相关。
库克距离对于识别异常值很有用X值(预测变量的观察值)。
帽子矩阵提供了杠杆的度量。
删除-1协方差变化(CovRatio
)确定对回归拟合有影响的观察结果。