主要内容

模型构建和评估

特征选择、特征工程、模式选择、hyperparameter优化,交叉验证,残留的诊断和阴谋

当你建立一个高质量的回归模型,重要的是要选择正确的特性(或指标),调整hyperparameters(模型参数不适合数据),通过残差诊断和评估模型的假设。

您可以通过迭代优化hyperparameters选择值之间使用你的选择和交叉验证图谱模型。这个过程产生多个模型,和它们之间的最佳模式可能是一个最小化泛化误差估计。例如,调优一个SVM模型,选择一组框约束和内核扩展,旨在一个模型对于每一对值,然后比较他们的10倍,旨在,均方误差估计。

训练一个回归模型,之前工程师新功能使用genrfeatures

构建和评估回归模型交互,使用回归的学习者应用程序。

与调谐hyperparameters自动选择一个模型,使用fitrauto。函数试图回归模型类型的选择与不同hyperparameter值并返回最后一个模型,将表现良好。使用fitrauto当你不确定回归模型类型最适合您的数据。

统计和机器学习中的某些非参数回归函数工具箱™提供自动hyperparameter通过贝叶斯优化,优化网格搜索,或者随机搜索。bayesopt实现贝叶斯优化,主要的功能是足够灵活的许多其他应用程序。更多细节,请参阅贝叶斯优化工作流程

解释一个回归模型,您可以使用石灰,沙普利,plotPartialDependence

应用程序

回归的学习者 使用监督机器学习训练回归模型预测数据

功能

全部展开

fsrftest 单变量特性排名回归使用F测试
fsrnca 使用成分分析街区回归特征选择
oobPermutedPredictorImportance 预测估计重要性的排列out-of-bag预测观测随机森林回归树
partialDependence 计算部分依赖
plotPartialDependence 创建部分依赖图(PDP)和个人条件期望(ICE)情节
predictorImportance 为回归估计预测重要的树
predictorImportance 为回归估计预测的重要性
relieff 排名使用ReliefF或RReliefF算法预测的重要性
sequentialfs 连续的特征选择使用自定义标准
stepwiselm 进行逐步回归
stepwiseglm 通过逐步回归建立广义线性回归模型
genrfeatures 执行工程回归自动化功能
描述 描述生成特性
变换 改变新的数据使用生成的特性
fitrauto 自动选择与优化hyperparameters回归模型
bayesopt 选择最优的机器学习hyperparameters使用贝叶斯优化
hyperparameters 为优化变量描述一个合适的函数
optimizableVariable 变量描述bayesopt或其他优化
crossval 估计损失使用交叉验证
cvpartition 分区数据交叉验证
重新分区 重新分配数据交叉验证
测试 测试指标的交叉验证
培训 培训指标交叉验证

本地可Model-Agnostic解释(石灰)

石灰 本地可model-agnostic解释(石灰)
适合 适合当地可翻译的简单模型model-agnostic解释(石灰)
情节 当地阴谋的结果可判断的model-agnostic解释(石灰)

沙普利值

沙普利 沙普利值
适合 计算夏普利值查询点
情节 情节夏普利值

部分依赖

partialDependence 计算部分依赖
plotPartialDependence 创建部分依赖图(PDP)和个人条件期望(ICE)情节
coefCI 线性回归模型的系数的置信区间估计
coefTest 在线性回归模型系数线性假设检验
dwt Durbin-Watson测试与线性回归模型对象
情节 散点图或添加变量的线性回归模型
plotAdded 添加变量的线性回归模型
plotAdjustedResponse 调整响应的线性回归模型
plotDiagnostics 情节线性回归模型的观察诊断
plotEffects 情节在线性回归模型预测的主要影响
plotInteraction 情节交互作用的两个线性回归模型的预测
plotResiduals 情节线性回归模型的残差
plotSlice 通过线性回归拟合曲面的情节片
coefCI 置信区间系数广义线性回归模型的估计
coefTest 线性假设检验在广义线性回归模型系数
devianceTest 分析广义线性回归模型的异常
plotDiagnostics 广义线性回归模型的情节观察诊断
plotResiduals 情节广义线性回归模型的残差
plotSlice 通过拟合广义线性回归的情节片表面
coefCI 系数的置信区间估计的非线性回归模型
coefTest 线性假设检验在非线性回归模型系数
plotDiagnostics 图诊断的非线性回归模型
plotResiduals 情节非线性回归模型的残差
plotSlice 通过拟合非线性回归的情节片表面
linhyptest 线性假设检验

对象

全部展开

FeatureSelectionNCARegression 特征选择回归使用社区成分分析(NCA)
FeatureTransformer 生成功能转换
BayesianOptimization 贝叶斯优化结果

主题

回归学习者应用工作流

火车在回归学习者应用回归模型

工作流程培训、比较和改进回归模型,包括自动、手动和并行训练。

选择回归模型选项

在回归的学习者,自动列车模型的选择,或比较和优化选项的线性回归模型,回归树,支持向量机,高斯过程回归模型,回归树的集合体,回归神经网络。金宝app

特征选择和特征转换使用回归学习者应用

识别有用的预测使用阴谋,包括手动选择特性,并在回归学习者使用PCA变换特性。

性能评估模型回归的学习者

比较建模统计数据和可视化的结果。

特征选择

介绍了特征选择

学习特征选择算法和探索功能用于特征选择。

连续的特征选择

这个话题介绍了连续的特征选择和顺序提供了一个示例,选择特性和使用自定义标准sequentialfs函数。

社区成分分析(NCA)特征选择

社区成分分析(NCA)是一种非参数方法选择功能最大化的目标回归和分类算法的预测精度。

健壮的特征选择使用NCA回归

进行特征选择,健壮的异常值在NCA使用一个定制的健壮的损失函数。

选择随机森林预测因子

选择split-predictors随机森林算法使用交互测试。

工程特性

工程回归自动化功能

使用genrfeatures之前工程师新功能训练一个回归模型。之前预测新数据,应用相同的功能转换到新的数据集。

自动模型选择

自动回归模型和贝叶斯和亚莎优化选择

使用fitrauto尝试自动回归模型类型的选择与不同hyperparameter值,给定训练预测和响应数据。

Hyperparameter优化

贝叶斯优化工作流程

执行贝叶斯优化使用一个合适的函数或通过调用bayesopt直接。

变量的贝叶斯优化

为贝叶斯优化创建变量。

贝叶斯优化目标函数

建立贝叶斯优化的目标函数。

约束在贝叶斯优化

为贝叶斯优化设置不同类型的约束。

优化了回归

交叉验证回归合奏的损失最小化。

贝叶斯优化情节功能

视觉监控一个贝叶斯优化。

贝叶斯优化输出功能

监控一个贝叶斯优化。

贝叶斯优化算法

理解底层为贝叶斯优化算法。

平行的贝叶斯优化

多贝叶斯优化并行工作。

模型的解释

解释机器学习模型

解释模型预测使用石灰,沙普利,plotPartialDependence

沙普利值机器学习模型

机器学习模型计算夏普利值使用两种算法:kernelSHAP kernelSHAP和扩展。

交叉验证

使用并行计算实现交叉验证

加快交叉验证使用并行计算。

线性模型诊断

解释线性回归结果

显示和解释线性回归统计输出。

线性回归

适合一个线性回归模型并检查结果。

线性回归与交互作用

构建和分析线性回归模型与交互作用和解释结果。

总结输出和诊断数据

评价拟合模型,利用模型属性和对象的功能。

f统计量和t统计量

在线性回归F统计量的检验统计量方差分析(方差分析)的方法来测试模型的意义或组件模型。的t统计数据是有用的回归系数进行推断。

确定系数(平方)

确定系数(平方)表示响应变量的变化的比例y解释为独立变量X在线性回归模型中。

系数标准误差和置信区间

估计系数方差和协方差捕获回归系数估计的精度。

残差

残差检测外围是有用的y价值观和检查线性回归假设对回归模型的误差项。

Durbin-Watson测试

Durbin-Watson测试评估是否有残差的自相关时间序列数据。

库克的距离

库克的距离是有用的识别异常值X为预测变量值(观察)。

帽子矩阵和杠杆

这顶帽子矩阵提供了一个衡量的杠杆。

Delete-1统计

Delete-1协方差的变化(CovRatio)确定观测中有影响力的回归。

广义线性模型诊断

广义线性模型

广义线性模型用线性方法来描述一个潜在的非线性预测条款和一个响应变量之间的关系。

非线性模型诊断

非线性回归

参数非线性模型代表一个连续反应变量之间的关系和一个或多个连续的预测变量。