模型构建和评估
当你建立一个高质量的回归模型,重要的是要选择正确的特性(或指标),调整hyperparameters(模型参数不适合数据),通过残差诊断和评估模型的假设。
您可以通过迭代优化hyperparameters选择值之间使用你的选择和交叉验证图谱模型。这个过程产生多个模型,和它们之间的最佳模式可能是一个最小化泛化误差估计。例如,调优一个SVM模型,选择一组框约束和内核扩展,旨在一个模型对于每一对值,然后比较他们的10倍,旨在,均方误差估计。
训练一个回归模型,之前工程师新功能使用genrfeatures
。
构建和评估回归模型交互,使用回归的学习者应用程序。
与调谐hyperparameters自动选择一个模型,使用fitrauto
。函数试图回归模型类型的选择与不同hyperparameter值并返回最后一个模型,将表现良好。使用fitrauto
当你不确定回归模型类型最适合您的数据。
统计和机器学习中的某些非参数回归函数工具箱™提供自动hyperparameter通过贝叶斯优化,优化网格搜索,或者随机搜索。bayesopt
实现贝叶斯优化,主要的功能是足够灵活的许多其他应用程序。更多细节,请参阅贝叶斯优化工作流程。
解释一个回归模型,您可以使用石灰
,沙普利
,plotPartialDependence
。
应用程序
回归的学习者 | 使用监督机器学习训练回归模型预测数据 |
功能
对象
主题
回归学习者应用工作流
工作流程培训、比较和改进回归模型,包括自动、手动和并行训练。
在回归的学习者,自动列车模型的选择,或比较和优化选项的线性回归模型,回归树,支持向量机,高斯过程回归模型,回归树的集合体,回归神经网络。金宝app
识别有用的预测使用阴谋,包括手动选择特性,并在回归学习者使用PCA变换特性。
比较建模统计数据和可视化的结果。
特征选择
学习特征选择算法和探索功能用于特征选择。
这个话题介绍了连续的特征选择和顺序提供了一个示例,选择特性和使用自定义标准sequentialfs
函数。
社区成分分析(NCA)是一种非参数方法选择功能最大化的目标回归和分类算法的预测精度。
进行特征选择,健壮的异常值在NCA使用一个定制的健壮的损失函数。
选择split-predictors随机森林算法使用交互测试。
模型的解释
解释模型预测使用石灰
,沙普利
,plotPartialDependence
。
机器学习模型计算夏普利值使用两种算法:kernelSHAP kernelSHAP和扩展。
线性模型诊断
显示和解释线性回归统计输出。
适合一个线性回归模型并检查结果。
构建和分析线性回归模型与交互作用和解释结果。
评价拟合模型,利用模型属性和对象的功能。
在线性回归F统计量的检验统计量方差分析(方差分析)的方法来测试模型的意义或组件模型。的t统计数据是有用的回归系数进行推断。
确定系数(平方)表示响应变量的变化的比例y解释为独立变量X在线性回归模型中。
估计系数方差和协方差捕获回归系数估计的精度。
残差检测外围是有用的y价值观和检查线性回归假设对回归模型的误差项。
Durbin-Watson测试评估是否有残差的自相关时间序列数据。
库克的距离是有用的识别异常值X为预测变量值(观察)。
这顶帽子矩阵提供了一个衡量的杠杆。
Delete-1协方差的变化(CovRatio
)确定观测中有影响力的回归。