主要内容

选择回归模型选项

选择回归模型类型

您可以使用回归学习者应用程序自动培训数据中的各种不同型号。使用自动培训快速尝试各种型号,然后交互探索有前途的模型。要开始,请先尝试这些选项:

开始回归模型按钮 描述
所有速度
所有速度按钮首先。该应用程序列举了通常快速训练的所有模型类型。
全部
使用全部按钮训练所有可用的不可优化的模型类型。训练每一种类型,不管任何先前训练的模型。可以耗时。

要了解有关自动模型培训的更多信息,请参阅自动回归模型训练

如果您想一次只研究一个模型,或者如果您已经知道您想要的模型类型,您可以选择单个模型或训练相同类型的一组模型。要查看所有可用的回归模型选项,请在回归的学习者选项卡,单击箭头中的箭头模型类型展开回归模型列表的部分。库中的非优化模型选项是具有不同设置的预设起点,适用于一系列不同的回归问题。要自动使用可优化的型号选项和调谐模型超级参数,请参阅回归学习程序中的超参数优化

为了帮助您为问题选择最佳模型类型,请参阅显示不同回归模型类型的典型特征的表格。在速度、灵活性和可解释性方面做出权衡。最好的模型类型取决于您的数据。

提示

为避免过度拟合,请查找较少的灵活模型,提供足够的准确性。例如,寻找简单的型号,如快速且易于解释的回归树。如果模型不足以预测响应,请选择具有更高灵活性的其他模型,例如集合。要控制灵活性,请参阅每个模型类型的详细信息。

回归模型类型的特征

回归模型类型 可解释性
线性回归模型
容易
回归树木
容易
金宝app支持矢量机器
易于线性的SVM。对其他内核很难。
高斯过程回归模型
难的
树木的合奏
难的
神经网络
难的

要读取回归学习者中每个模型的描述,请在所有型号预设的列表中切换到详细信息视图。

提示

非优化的模型模型类型图库是具有不同设置的预设起点。选择诸如回归树的模型类型之后,尝试培训所有非优化的预设,以查看哪一个与数据一起生成最佳模型。

对于工作流指令,请参阅回归学习者应用中的列回归模型

分类预测器支持金宝app

在回归学习者中,所有模型类型都支持分类预测器。金宝app

提示

如果你有有许多独特值的分类预测器,用交互作用或二次项训练线性模型和逐步线性模型可以使用大量的记忆。如果模型训练失败,尝试删除这些分类预测器。

线性回归模型

线性回归模型具有在模型参数中线性的预测器,易于解释,并且快速进行预测。这些特性使线性回归模型流行型号首先尝试。然而,这些模型的高度约束形式意味着它们通常具有低的预测精度。拟合线性回归模型后,尝试创建更灵活的模型,例如回归树,并比较结果。

提示

在里面模型类型画廊,点击所有的线性尝试每个线性回归选项,并查看哪些设置使用数据产生最佳模型。选择最好的模型在楷模窗格,并尝试通过使用特性选择和更改一些高级选项来改进该模型。

回归模型类型 可解释性 模型的灵活性
线性
容易 非常低的
线性的交互
容易 中等的
强大的线性
容易 非常低。对异常值不太敏感,但训练起来很慢。
逐步线性
容易 中等的

提示

对于工作流示例,请参阅使用回归学习者的火车回归树

高级线性回归选项

回归学习者使用fitlm用于培训线性,交互线性和强大的线性模型的功能。该应用程序使用步骤行程努力训练逐步线性模型。

对于线性,交互线性和强大的线性模型,您可以设置以下选项:

  • 术语

    指定在线性模型中使用的术语。您可以选择:

    • 线性.预测器中的常数术语和线性术语

    • 互动.预测器之间的常数术语,线性术语和交互术语

    • 纯二次.每个预测器中的常数术语,线性术语和纯粹偏向的术语

    • 二次.常数期限,线性术语和二次术语(包括相互作用)

  • 健壮的选项

    指定是否使用强大的目标函数并使您的模型对异常值不太敏感。使用此选项,拟合方法会自动为更有可能成为异常值的数据点分配较低的权重。

逐步线性回归与初始模型开始,并根据这些递增较大且较小的模型的解释性,系统地向模型添加和删除术语。对于逐步线性模型,您可以设置以下选项:

  • 初义条款

    指定在逐步过程的初始模型中包含的术语。你可以选择持续的线性互动纯二次, 和二次

  • 术语上限

    指定逐步过程可以添加到模型的术语的最高阶。你可以选择线性互动纯二次, 和二次

  • 最大步数

    指定可在逐步过程中尝试的不同线性模型的最大数目。为了加速训练,试着减少最大的步数。选择较小的最大步骤数会降低您找到一个好的模型的机会。

提示

如果你有有许多独特值的分类预测器,用交互作用或二次项训练线性模型和逐步线性模型可以使用大量的记忆。如果模型训练失败,尝试删除这些分类预测器。

回归树木

回归树易于解释,快速拟合和预测,并低于内存使用量。尝试使用较大的叶片越来越较小的树木,以防止过度装备。用叶片尺寸控制最小叶片尺寸环境。

提示

在里面模型类型画廊,点击所有树木要尝试每个非优化的回归树选项,并查看哪些设置使用数据产生最佳模型。选择最好的模型在楷模窗格,并尝试通过使用功能选择和更改某些高级选项来改进该模型。

回归模型类型 可解释性 模型的灵活性
好树
容易 高的
许多小叶子具有高度灵活的响应函数(最小叶子大小为4。)
中等树
容易 中等的
用于较小响应函数的中尺寸叶片(最小叶片尺寸为12.)
粗糙的树
容易 低的
粗响应函数很少有大叶(最小叶片尺寸为36.)

为了预测回归树的响应,请按照从根(开始)节点的树下到叶节点。叶节点包含响应的值。

统计和机器学习工具箱™树是二进制的。预测的每一步都需要检查一个预测变量的值。例如,这是一个简单的回归树

这棵树根据两个预测器来预测反应,X1X2.要进行预测,请从顶部节点开始。在每个节点上,检查预测器的值,以决定遵循哪个分支。当分支到达叶节点时,响应被设置为对应于该节点的值。

你可以通过从应用程序中导出模型来可视化回归树模型,然后输入:

查看(TrougherModel.regressionTree,“模式”'图形'

提示

对于工作流示例,请参阅使用回归学习者的火车回归树

高级回归树选项

回归学习者应用程序使用fitrtree.训练回归树的功能。您可以设置以下选项:

  • 最小叶片尺寸

    指定用于计算每个叶节点响应的培训样本数。当您长出回归树时,请考虑其简单性和预测性。要更改最小叶子大小,请单击按钮或在中输入正整数值最小叶片尺寸盒子。

    • 具有许多小叶子的细树通常在训练数据上高度准确。但是,树可能不会在独立的测试集上显示可比的准确性。一棵非常繁华的树倾向于过度装备,其验证精度往往远远低于其培训(或重新提议)准确性。

    • 相比之下,大叶子较少的粗树不能获得高的训练精度。但是粗糙的树可以更健壮,因为它的训练精度可以接近一个有代表性的测试集。

    提示

    减少最小叶片尺寸创建更灵活的模型。

  • 代理决策分裂- 仅用于缺少数据。

    指定决策分割的代理使用。如果数据缺少值,可以使用代理分割来提高预测的准确性。

    当你设置时代理决策分裂,回归树在每个分支节点处找到最多10个代理分裂。要更改代理分割的数量,请单击按钮或输入正整数值每个节点最大代理盒子。

    当你设置时代理决策分裂找到所有,回归树在每个分支节点找到所有代理分割。的找到所有设置可以使用相当大的时间和内存。

或者,您可以通过使用HyperParameter Optimization自动选择其中一些模型选项。看回归学习程序中的超参数优化

金宝app支持矢量机器

你可以在回归学习器中训练回归支持向量机(svm)。金宝app线性支持向量机易于解释,但预测精度较低。非线性支持向量机更难以解释,但可以更精确。

提示

在里面模型类型画廊,点击所有SVMS要尝试每个非优化的SVM选项,并查看哪些设置使用数据产生最佳模型。选择最好的模型在楷模窗格,并尝试通过使用功能选择和更改某些高级选项来改进该模型。

回归模型类型 可解释性 模型的灵活性
线性SVM
容易 低的
二次支持向量机
难的 中等的
立方支持向量机
难的 中等的
精细高斯SVM
难的 高的
允许响应功能的快速变化。内核比例设置为SQRT(P)/ 4, 在哪里P是预测器的数量。
媒体高斯SVM
难的 中等的
给出一个较不灵活的响应函数。内核比例设置为sqrt (P)
高斯粗糙支持向量机
难的 低的
提供刚性响应功能。内核比例设置为sqrt (P) * 4

统计和机器学习工具箱实现线性epsilon不敏感的SVM回归。该SVM忽略了小于一些固定数ε的预测误差。的金宝app支持向量是否具有大于ε的误差的数据点。SVM用于预测新值的函数仅取决于支持向量。金宝app要了解有关SVM回归的更多信息,请参阅了解支持向量机回归金宝app

提示

对于工作流示例,请参阅使用回归学习者的火车回归树

高级SVM选项

回归学习者使用Fitrsvm.培训SVM回归模型的功能。

你可以在应用程序中设置这些选项:

  • 核函数

    核函数决定了在训练支持向量机之前对数据应用的非线性变换。您可以选择:

    • 高斯或径向基函数(RBF)内核

    • 线性内核,最简单的解释

    • 二次内核

    • 立方内核

  • 框约束模式

    框限制控制对大残留物的观察结果的惩罚。一个较大的盒子约束给出了更灵活的模型。较小的值给出了更加僵化的模型,对过度装备不太敏感。

    什么时候框约束模式被设定为汽车,该应用程序使用启发式过程来选择框约束。

    尝试通过手动指定框约束来微调您的模型。放框约束模式手动的并指定值。单击按钮或输入正标量值来更改值手工盒约束盒子。该应用程序会自动为您提供合理的值。尝试稍微增加或减少此值,并查看这是否改进了您的模型。

    提示

    增加框约束值以创建更灵活的模型。

  • ε模式

    忽略小于epsilon(ε)值的预测误差并将其处理为等于零。较小的epsilon值提供更灵活的模型。

    什么时候ε模式被设定为汽车,该应用程序使用启发式过程来选择内核比例。

    尝试通过手动指定epsilon值来微调您的模型。放ε模式手动的并指定值。单击按钮或输入正标量值来更改值手动epsilon.盒子。该应用程序会自动为您提供合理的值。尝试稍微增加或减少此值,并查看这是否改进了您的模型。

    提示

    降低的值,以创建一个更灵活的模型。

  • 内核比例模式

    核规模控制核显著变化的预测器的规模。更小的内核规模提供了更灵活的模型。

    什么时候内核比例模式被设定为汽车,该应用程序使用启发式过程来选择内核比例。

    尝试通过手动指定内核规模来调整模型。放内核比例模式手动的并指定值。单击按钮或输入正标量值来更改值手动内核比例盒子。该应用程序会自动为您提供合理的值。尝试稍微增加或减少此值,并查看这是否改进了您的模型。

    提示

    减小内核尺度值,以创建更灵活的模型。

  • 标准化

    标准化预测器转换它们使它们具有平均值0和标准偏差1.标准化消除了预测器中任意尺度的依赖性,并且通常提高性能。

或者,您可以通过使用HyperParameter Optimization自动选择其中一些模型选项。看回归学习程序中的超参数优化

高斯过程回归模型

你可以在回归学习中训练高斯过程回归(GPR)模型。探地雷达模型通常是高度精确的,但可能很难解释。

提示

在里面模型类型画廊,点击所有探地雷达模型尝试每一个不可优化的GPR模型选项,看看哪些设置可以产生最佳的数据模型。选择最好的模型在楷模窗格,并尝试通过使用功能选择和更改某些高级选项来改进该模型。

回归模型类型 可解释性 模型的灵活性
合理的二次
难的 自动的
平方指数
难的 自动的
母乳5/2
难的 自动的
幂数
难的 自动的

在高斯进程回归中,使用函数空间的概率分布建模响应。预设的灵活性模型类型画廊自动选择提供小型训练错误,同时保护过量。了解更多关于高斯进程回归的信息,请参阅高斯过程回归模型

提示

对于工作流示例,请参阅使用回归学习者的火车回归树

高斯Gaussian进程回归选项

回归学习者使用fitrgp.培训GPR模型的功能。

你可以在应用程序中设置这些选项:

  • 基函数

    基本函数指定高斯过程回归模型的现有均线功能的形式。你可以选择持续的, 和线性.尝试选择不同的基本功能,并查看这是否改进了您的模型。

  • 核函数

    内核函数根据预测值值之间的距离确定响应中的相关性。你可以选择合理的二次平方指数母乳5/2母乳3/2, 和幂数

    要了解有关内核函数的更多信息,请参阅内核(协方差)功能选项

  • 使用各向同性内核

    如果使用各向同性内核,则所有预测器的相关长度尺度相同。利用非平分核心,每个预测变量具有其自身单独的相关长度尺度。

    使用非各向同性核可以提高模型的准确性,但会使模型适应速度变慢。

    要了解有关非平分核的更多信息,请参阅核(协方差)功能选项。

  • 内核模式

    您可以手动指定最初的内核参数的值内核规模信号标准偏差.信号标准偏差是响应值的现有标准偏差。默认情况下,应用程序本地优化从初始值开始的内核参数。要使用固定内核参数,请清除优化数字参数复选框在高级选项中。

    什么时候内核比例模式被设定为汽车,该应用程序使用启发式过程来选择初始内核参数。

    如果你设置了内核比例模式手动的,您可以指定初始值。单击按钮或输入正标量值内核规模盒子和盒子信号标准偏差盒子。

    如果你通过了使用各向同性内核复选框,无法手动设置初始内核参数。

  • Sigma模式

    您可以手动指定最初的观测噪声标准差值Sigma..默认情况下,应用程序从初始值开始优化观察噪声标准偏差。要使用固定内核参数,请清除优化数字参数复选框在高级选项中。

    什么时候Sigma模式被设定为汽车,该应用程序使用启发式程序来选择初始观察噪声标准偏差。

    如果你设置了Sigma模式手动的,您可以指定初始值。单击按钮或输入正标量值Sigma.盒子。

  • 标准化

    标准化预测器转换它们使它们具有平均值0和标准偏差1.标准化消除了预测器中任意尺度的依赖性,并且通常提高性能。

  • 优化数字参数

    使用此选项,应用程序自动优化GPR模型的数字参数。优化的参数是系数基函数,内核参数内核规模信号标准偏差,以及观察噪声标准偏差Sigma.

或者,您可以通过使用HyperParameter Optimization自动选择其中一些模型选项。看回归学习程序中的超参数优化

树木的合奏

您可以在回归学习者中培训回归树的集合。合奏模型将许多弱学习者的结果与一个高质量的合奏模型相结合。

提示

在里面模型类型画廊,点击所有合奏尝试每一个不可优化的集成选项,看看哪些设置可以产生最佳的数据模型。选择最好的模型在楷模窗格,并尝试通过使用功能选择和更改某些高级选项来改进该模型。

回归模型类型 可解释性 整体方法 模型的灵活性
增强树木
难的

最小二乘提高(lsboost.)回归树学习者。

中等至高

袋装的树木
难的

Bootstrap聚合或装袋,带回归树学习者。

高的

提示

对于工作流示例,请参阅使用回归学习者的火车回归树

高级合奏选项

回归学习者使用fitrensemble.培训集合模型的功能。您可以设置以下选项:

  • 最小叶片尺寸

    指定用于计算每个叶节点响应的培训样本数。当您长出回归树时,请考虑其简单性和预测性。要更改最小叶子大小,请单击按钮或在中输入正整数值最小叶片尺寸盒子。

    • 具有许多小叶子的细树通常在训练数据上高度准确。但是,树可能不会在独立的测试集上显示可比的准确性。一棵非常繁华的树倾向于过度装备,其验证精度往往远远低于其培训(或重新提议)准确性。

    • 相比之下,大叶子较少的粗树不能获得高的训练精度。但是粗糙的树可以更健壮,因为它的训练精度可以接近一个有代表性的测试集。

    提示

    减少最小叶片尺寸创建更灵活的模型。

  • 学习者人数

    尝试更改学习者的数量,以查看您是否可以改进模型。许多学习者可以产生高精度,但可能会耗时。

    提示

    增加学习者人数创建更灵活的模型。

  • 学习速率

    对于升压树,请指定收缩的学习率。如果您将学习率设置为小于1,则该集合需要更多的学习迭代,但通常实现更好的准确性。0.1是一个受欢迎的初始选择。

或者,您可以通过使用HyperParameter Optimization自动选择其中一些模型选项。看回归学习程序中的超参数优化

神经网络

神经网络模型通常具有良好的预测精度;然而,它们并不容易解释。

模型灵活性随着神经网络中的完全连接层的尺寸和数量增加。

提示

在里面模型类型画廊,点击所有的神经网络尝试每一个预设的神经网络选项,看看哪些设置产生最好的模型与您的数据。选择最好的模型在楷模窗格,并尝试通过使用功能选择和更改某些高级选项来改进该模型。

回归模型类型 可解释性 模型的灵活性
狭窄的神经网络
难的 Medium -随每个完全连接层的大小设置
中型神经网络
难的 Medium -随每个完全连接层的大小设置
宽神经网络
难的 Medium -随每个完全连接层的大小设置
双方神经网络
难的 高 - 增加每个完全连接层的大小设置
Trilayered神经网络
难的 高 - 增加每个完全连接层的大小设置

每个模型是一种用于回归的前馈,完全连接的神经网络。神经网络的第一个完全连接层具有与网络输入(预测器数据)的连接,并且每个后续层都具有与前一层的连接。每个完全连接的层将输入乘以权重矩阵,然后添加偏置向量。激活功能遵循每个完全连接的图层,排除最后一个完全连接的图层。最终完全连接的层产生网络的输出,即预测响应值。有关更多信息,请参阅神经网络结构

例如,看到使用回归学习应用程序训练回归神经网络

高级神经网络选项

回归学习者使用Fitrnet.培训神经网络模型的功能。您可以设置以下选项:

  • 完全连接的层数- 指定神经网络中的完全连接图层的数量,不包括最终完全连接的回归的层。您可以选择最多三个完全连接的图层。

  • 每个完全连接层的大小- 指定每个完全连接的图层的大小,不包括最终完全连接的图层。如果选择使用多个完全连接的图层创建神经网络,请考虑指定具有尺寸减小的图层。

  • 激活—指定所有全连接层的激活功能,最终全连接层除外。从以下激活功能中选择:塔尼sigmoid., 和没有任何

  • 迭代限制—指定最大训练迭代次数。

  • 正则化术语力量- 指定RIDGE(L2)正则化罚款项。

  • 标准化数据- 指定是否标准化数字预测器。如果预测器具有广泛不同的尺度,则标准化可以改善拟合。强烈建议使用标准化数据。

相关话题