在构建高质量的预测性分类模型时,选择正确的特征(或预测器)和调优超参数(未估计的模型参数)非常重要。
特征选择和超参数调整可以产生多个模型。你可以比较k-fold误分类率,受试者工作特征(ROC)曲线,或模型之间的混淆矩阵。或者,进行统计测试,以检测一个分类模型是否显著优于另一个。
要在训练分类模型之前设计新的特征,请使用gencfeatures
.
为了交互式地建立和评估分类模型,使用分类学习者应用程序。
要自动选择具有调优超参数的模型,请使用fitcauto
.此函数尝试选择具有不同超参数值的分类模型类型,并返回一个最终模型,该模型预计将在新数据上运行良好。使用fitcauto
当您不确定哪种分类器类型最适合您的数据时。
要优化特定模型的超参数,请选择超参数值并使用这些值交叉验证模型。例如,要调优SVM模型,选择一组框约束和核尺度,然后为每一对值交叉验证模型。某些Statistics和Machine Learning Toolbox™分类函数通过贝叶斯优化、网格搜索或随机搜索提供自动超参数调优。bayesopt
,实现贝叶斯优化的主要功能,对于许多其他应用程序也足够灵活。看到贝叶斯优化工作流程.
要解释分类模型,您可以使用石灰
,沙普利
,plotPartialDependence
.
分类学习者 | 使用有监督的机器学习训练模型来分类数据 |
培训、比较和改进分类模型的工作流,包括自动化、手动和并行培训。
比较模型的准确性分数,通过绘制类预测图来可视化结果,并在混淆矩阵中检查每个类的表现。
使用图识别有用的预测器,手动选择特征包括,并在分类学习中使用PCA变换特征。
了解特征选择算法并探索特征选择可用的功能。
本主题介绍了顺序特性选择,并提供了一个使用自定义标准和sequentialfs
函数。
邻域分量分析(NCA)是一种非参数的特征选择方法,其目标是最大限度地提高回归和分类算法的预测精度。
这个例子展示了如何调优正则化参数fscnca
使用交叉验证。
在不影响模型预测能力的情况下,通过删除预测器来建立一个更健壮、更简单的模型。
这个例子展示了如何选择对高维数据进行分类的特征。
使用fit函数或调用bayesopt
直接。
为贝叶斯优化创建变量。
为贝叶斯优化创建目标函数。
为贝叶斯优化设置不同类型的约束。
使用贝叶斯优化最小化交叉验证损失。
使用OptimizeParameters
拟合函数中的名称-值参数。
可视化地监控贝叶斯优化。
监控贝叶斯优化。
了解贝叶斯优化的基本算法。
贝叶斯优化是如何并行工作的。
用以下方法解释模型预测石灰
,沙普利
,plotPartialDependence
.
使用两种算法计算机器学习模型的Shapley值:kernelSHAP和对kernelSHAP的扩展。