主要内容

回归学习程序中的超参数优化

在选择要训练的特定类型的模型(例如决策树或支持向量机)之后,可以通过选择不同的高级选项来优化模型。金宝app例如,您可以更改决策树的最小叶子大小或支持向量机的框约束。其中一些选项是模型的内部参数或超参数,它们会强烈影响模型的性能。您可以在Regression Learner应用程序中使用超参数优化来自动选择超参数值,而不是手动选择这些选项。对于给定的模型类型,应用程序通过一个优化方案尝试不同的超参数值组合,该优化方案寻求最小化模型均方误差(MSE),并返回一个具有优化超参数的模型。您可以像使用任何其他训练过的模型一样使用生成的模型。

请注意

由于HyperParameter优化可能导致过度饱和的模型,所以推荐的方法是在将数据导入回归学习者应用程序之前创建一个单独的测试集。培训可优化的型号后,您可以看到它在测试集上的执行方式。例如,看到在回归学习者应用中使用HyperParameter优化的火车回归模型

要在回归学习器中执行超参数优化,请遵循以下步骤:

  1. 选择一个模型类型并决定要优化的超参数。看到选择要优化的超参数

    请注意

    超参数优化不支持线性回归模型和神经网络。金宝app

  2. (可选)指定优化的执行方式。有关更多信息,请参见优化选项

  3. 训练你的模型。使用最小MSE情节跟踪优化结果。

  4. 检查你训练过的模型。看到优化结果

选择要优化的超参数

在回归学习者应用中,在模型类型部分的回归的学习者选项卡,单击箭头以打开图库。该画廊包括您可以使用HyperParameter优化训练的可优化型号。

选择一个可优化模型后,可以选择要优化的超参数。在模型类型部分中,选择高级>高级.应用程序会打开一个对话框,你可以在其中进行选择优化选中要优化的超参数。下,为不希望优化或不可优化的超参数指定固定值。

此表介绍了可以针对每种类型的模型和每个HyperParameter的搜索范围优化的超参数。它还包括您可以指定固定值的附加超参数。

模型 Optimizable Hyperparameters 额外Hyperparameters 笔记
Optimizable树
  • 最小叶片尺寸—软件在范围内的对数-比例整数中搜索[1,马克斯(2楼(n / 2))),在那里n为观察次数。

  • 代理决策分裂

  • 每个节点最大代理

有关更多信息,请参见高级回归树选项

优化的SVM
  • 核函数-软件搜索高斯线性二次, 和立方

  • 盒子约束- 软件在范围内记录的正值中搜索(0.001, 1000)

  • 内核规模- 软件在范围内记录的正值中搜索(0.001, 1000)

  • ε- 软件在范围内记录的正值中搜索[0.001,100] *差(Y) / 1.349,在那里Y为响应变量。

  • 标准化数据- 软件搜索真的

  • 盒子约束可优化超参数组合框约束模式手工盒约束预先设定的支持向量机模型的高级选项。

  • 内核规模可优化超参数组合内核扩展模式手动内核比例预先设定的支持向量机模型的高级选项。

  • 你可以优化内核规模仅优化的覆盖物核函数价值是高斯.除非你指定一个值内核规模通过清除优化复选框,应用程序使用手册的价值1默认情况下核函数有其他的值吗高斯

  • ε可优化超参数组合ε模式手动ε预先设定的支持向量机模型的高级选项。

有关更多信息,请参见高级SVM选项

优化的GPR.
  • 基函数-软件搜索持续的, 和线性

  • 核函数- 软件搜索:

    • Nonisotropic理性的二次

    • 各向同性理性的二次

    • Nonisotropic平方指数

    • 各向同性的平方指数

    • Nonisotropic Matern 5/2

    • 各向同性Matern 5/2

    • Nonisotropic Matern 3/2

    • 各向同性母乳3/2

    • 非目的地指数

    • 各向同性指数

  • 内核规模—软件在范围内的真实值中进行搜索(0.001, 1) * XMaxRange,在那里XMaxRange = max(max(X) - min(X))X是预测的数据。

  • σ—软件在范围内的真实值中进行搜索[0.0001,最大值(0.001,10 *性病(Y))),在那里Y为响应变量。

  • 标准化- 软件搜索真的

  • 信号标准偏差

  • 优化数字参数

  • 核函数可优化超参数组合核函数使用各向同性内核预设高斯流程模型的高级选项。

  • 内核规模可优化超参数组合内核模式内核规模预设高斯流程模型的高级选项。

  • σ可优化超参数组合Sigma模式σ预设高斯流程模型的高级选项。

  • 当你优化内核规模对于各向同性核函数,优化的只是核尺度,而不是信号标准差。你可以指定a信号标准偏差或使用默认值。

    你不能优化内核规模非各向同性核函数。

有关更多信息,请参见高级高斯过程回归选项

Optimizable合奏
  • 合奏方法-软件搜索LSBoost

  • 最小叶片尺寸—软件在范围内的对数-比例整数中搜索[1,马克斯(2楼(n / 2))),在那里n为观察次数。

  • 学习者人数—软件在范围内的对数-比例整数中搜索[10,500]

  • 学习速率- 软件在Range中的实际值中搜索实际值之间(0.001, 1)

  • 样本的预测因子数量—软件在范围内的整数中进行搜索[1,马克斯(2,p)],在那里p为预测变量的数量。

  • 的价值合奏方法可优化超参数指定袋装的树木模型。类似地,LSBoost合奏方法指定一个值增强树木模型。

  • 样本的预测因子数量预置集成模型的高级选项中没有可优化超参数。

有关更多信息,请参见高级合奏选项

优化选项

默认情况下,Regression Learner应用程序通过使用贝叶斯优化执行超参数调优。贝叶斯优化和一般优化的目标是找到使目标函数最小化的点。在应用程序超参数调优的上下文中,一个点是一组超参数值,目标函数是损失函数,即均方误差(mean squared error, MSE)。有关贝叶斯优化基础的更多信息,请参见贝叶斯优化工作流程

您可以指定如何执行超参数调优。例如,可以将优化方法改为网格搜索或限制训练时间。在回归的学习者标签,在模型类型部分中,选择高级>优化选项.应用程序会打开一个对话框,你可以在其中选择优化选项。

此表介绍了可用的优化选项及其默认值。

选项 描述
优化器

优化器值是:

  • Bayesopt(默认) - 使用贝叶斯优化。内部,该应用程序调用bayesopt函数。

  • 网格搜索- 使用网格搜索,每个维度确定的值数网格划分数价值。应用程序以随机​​顺序搜索,使用统一的采样而无需从网格替换。

  • 随机搜索—在点之间随机搜索,点的数目对应于迭代价值。

收购功能

当应用程序对HyperParameter调整执行贝叶斯优化时,它使用采集功能来确定要尝试的下一组的HyperParameter值。

采集函数值是:

  • 预期的每秒改善(默认)

  • 预期改进

  • 预计改善+

  • 预期每秒改善量

  • 较低的束缚

  • 改进的概率

有关这些获取功能如何在贝叶斯优化上下文中工作的详细信息,请参见获取函数类型

迭代

每个迭代对应于应用尝试的超参数值的组合。使用贝叶斯优化或随机搜索时,请指定设置迭代次数的正整数。默认值是30.

当你使用网格搜索,应用程序忽略迭代计算并评估整个电网中每一点的损失。您可以设置培训时间限制,以提前停止优化过程。

培训时间限制 若要设置培训时间限制,请选择此选项并设置最大培训时间以秒为单位选项。默认情况下,应用程序没有培训时间限制。
最大培训时间以秒为单位 将训练时间限制(以秒为单位)设置为正实数。默认值是300.运行时间可以超过训练时间限制,因为此限制不会中断迭代评估。
网格划分数 使用网格搜索时,将正整数设置为应用程序试图为每个数字覆盖计的值数。该应用程序忽略基本的超参数的此值。默认值是10.

最小MSE情节

在指定要优化的模型超参数和设置任何额外的优化选项(可选)之后,训练可优化的模型。在回归的学习者标签,在培训部分,点击火车.该应用程序创建一个最小MSE情节它会在优化运行时更新。

请注意

当你训练一个可优化的模型时,应用程序会禁用使用并行按钮。培训完成后,应用程序选择非优化模型时再次可用按钮。默认情况下按钮关闭。

最小均方误差(MSE)图显示了以下信息:

  • 最小均方误差估计-每个浅蓝色点对应的是优化过程在考虑到迄今为止尝试过的所有超参数集(包括当前迭代)时计算出的最小MSE的估计。

    估计是基于当前MSE目标模型的上置信区间,如上文所述Bestpoint hyperparameters描述。

    如果你使用网格搜索或随机搜索来执行超参数优化,应用程序不会显示这些浅蓝色的点。

  • 观察到最低MSE-每个深蓝色点对应的是到目前为止通过优化过程计算到的观测到的最小MSE。例如,在第三次迭代时,蓝色点对应于在第一次、第二次和第三次迭代中观测到的MSE的最小值。

  • Bestpoint hyperparameters—红色方框为优化超参数对应的迭代。您可以在下图的右上方找到所列优化超参数的值优化结果

    优化后的超参数并不总是提供观测到的最小MSE。当应用程序使用贝叶斯优化执行超参数调优时(见优化选项(简单介绍),它选择最小化MSE目标模型的上置信区间的超参数值集合,而不是最小化MSE的集合。有关更多信息,请参见'标准','最小访问 - 上置信间隔'名称 - 值对参数best

  • 最小误差超参数—黄点表示对应于产生观测最小MSE的超参数的迭代。

    有关更多信息,请参见“标准”、“min-observed”名称 - 值对参数best

    如果使用网格搜索执行超参数优化,则Bestpoint hyperparameters最小误差超参数都是一样的。

绘图中的缺失点对应于最小均方误差值。

优化结果

当应用程序完成模型超参数的调优时,它返回一个用优化过的超参数值训练过的模型(Bestpoint hyperparameters)。模型指标,显示的绘图和导出的模型对应于具有固定的超参数值的训练模型。

要检查培训的优化型号的优化结果,请选择该模型模型看看窗格当前模型的总结窗格。

当前模型的总结窗格包括以下部分:

  • 培训结果-显示可优化模型的性能。看到查看和比较模型统计

  • 模型类型- 显示可优化型号的类型,并列出任何固定的超参数值

  • 优化的超参数—列出优化后的超参数值

  • Hyperparameter搜索范围—显示优化后超参数的搜索范围

  • 优化器选择-显示选定的优化器选项

使用贝叶斯优化执行HyperParameter调整时,将培训的可优化模型导出为工作区,该结构包括一个贝叶斯偏见对象在HyperParameterOptimationResult.场地。该对象包含在应用中执行的优化结果。

当你生成MATLAB时®代码来自训练有素的可优化模型,生成的代码使用模型的固定和优化超参数值对新数据进行训练。生成的代码不包括优化过程。有关在使用拟合函数时如何执行贝叶斯优化的信息,请参见使用拟合函数的贝叶斯优化

相关话题