当您构建高质量的回归模型时,要选择合适的功能(或预测),调整超级参数(模型参数不适合数据)非常重要,并通过剩余诊断评估模型假设。
您可以通过选择它们的选择值和使用您的选择进行交叉验证模型来调整HyperParameters。此过程产生多种模型,其中最佳模型可能是最小化估计的泛化误差的模型。例如,要调整SVM模型,请选择一组框约束和内核尺度,交叉验证每对值的模型,然后比较它们的10倍,交叉验证的平均平方误差估计。
在培训回归模型之前工程师新功能,使用GenrFeatures.
.
以交互式建立和评估回归模型,使用回归的学习者应用程序。
自动选择具有调谐超参数的型号,使用Fitrauto.
.该函数尝试选择具有不同超参数值的回归模型类型,并返回预期性能良好的最终模型。用Fitrauto.
当您不确定哪种回归模型类型最适合您的数据。
Statistics和Machine Learning Toolbox™中的某些非参数回归函数通过贝叶斯优化、网格搜索或随机搜索提供自动超参数调优。Bayesopt.
是实现贝叶斯优化的主要功能,对于许多其他应用程序来说足够灵活。有关更多详细信息,请参阅贝叶斯优化工作流程.
回归的学习者 | 火车回归模型以预测使用监督机器学习的数据 |
用于培训、比较和改进回归模型的工作流,包括自动化、手动和并行培训。
在回归学习者中,自动培训各种型号,或比较和调整线性回归模型的选项,回归树,支持向量机,高斯过程回归模型,回归树的合奏和回归神经网络。金宝app
使用绘图识别有用的预测器,手动选择要包含的功能和使用PCA在回归学习者中的功能。
比较模型统计和可视化结果。
了解要素选择算法并探索功能选择的功能。
本主题介绍了顺序特征选择,并提供了一个使用自定义标准顺序选择功能的示例序列
功能。
邻域分量分析(NCA)是一种非参数的特征选择方法,其目标是最大限度地提高回归和分类算法的预测精度。
执行使用NCA中的自定义鲁棒丢失函数对异常值强大的功能选择。
使用交互测试算法选择随机林的拆分预测器。
显示和解释线性回归输出统计信息。
适合线性回归模型并检查结果。
构造并分析互动效应的线性回归模型,解释结果。
通过使用模型属性和对象功能来评估拟合模型。
在线性回归,F- 术是用于分析方差(ANOVA)方法的测试统计,以测试模型或模型中的组件的重要性。这T.-statistic对于推断回归系数是有用的。
确定系数(R角)表示响应变量的比例变化量y由独立变量解释X在线性回归模型中。
估计系数差异和协方差捕获回归系数估计的精度。
残差对于偏远来说是有用的y值和检查回归模型中的错误项的线性回归假设。
Durbin-Watson测试评估是否存在时间序列数据的残差之间的自相关。
库克距离对于识别异常值很有用X值(预测器变量的观察)。
帽子矩阵提供了杠杆的衡量标准。
删除 - 1变更协方差(科瓦拉蒂奥
)确定对回归拟合有影响的观察结果。