贝叶斯优化的健壮程度如何在Matlab实现。高斯过程回归有最大似然选择器内核参数和参数类似于sklearn高斯过程Regressio意味着什么?

5视图(30天)
高斯过程回归(< http://scikit-learn.org/stable/modules/gaussian_process.html >)如前所述在网站上有一个最大似然即实现。
“医生之前的意思是假定为零。之前的协方差由通过指定一个内核对象。内核的hyperparameters期间优化拟合的GaussianProcessRegressor最大化log-marginal-likelihood (LML)的基础上,通过优化器。随着LML可能有多个当地的最适条件,优化器可以通过指定n_restarts_optimizer开始反复。第一次运行总是进行从内核的初始hyperparameter值;随后的运行进行从hyperparameter值,随机抽取的允许的范围值。如果最初的hyperparameters应该保持固定,没有一个可以通过优化器”。请详细说明sklearn高斯过程的实现,如果我们有这样的设施,实现bayesopt函数

答案(1)

epic
epic 2018年1月24日
编辑:epic 2018年1月24日
bayesopt的函数使用高斯过程回归“fitrgp”。在这里你可以阅读所有关于: //www.tatmou.com/help/stats/fitrgp.html 。它支持金宝app内核参数的任何子集选择保持不变,在许多其他特性。
“bayesopt”不执行多个fitrgp重启在给定迭代。有时在GP方案有局部最小值,通常当既有良好的高噪音和低噪声的解决方案,你可以观察bayesopt选择不同的最小值在不同的迭代。金宝搏官方网站但是选择不同的最小值在不同的迭代可以是一件好事,因为理想情况下我们想尝试所有的好医生的解决方案。金宝搏官方网站每次迭代采样来自多个解决方案将是可取的但这是非金宝搏官方网站常昂贵的。
“bayesopt”也没有开始每次调用fitrgp从内核参数的当前值,因为这可以抑制能力找到其他LML的最小值。

社区寻宝

找到宝藏在MATLAB中央,发现社区如何帮助你!

开始狩猎!