latravcióndeestapáginaEstáobsoleta。HagaclicagíparaverlaúltimaversiónEnglés。
Al desarrollar un modelo de clasificación predictiva de alta calidad, es importante seleccionar las características (o predictores) correctos y ajustar los hiperparámetros (parámetros del modelo que no se han estimado).
La seleccion de caracteristicas y el de los进行hiperparámetros pueden arrojar varios modelos. Puede comparar las tasas de errores de clasificación dekiteraciones, las curvas ROC, por sus siglas en inglés) o las matrices de confusión entre los modelos. También puede realizar una prueba estadística para detectar si un modelo de clasificación supera significativamente a otro.
Para extraer nuevas características antes de entrenar un modelo de clasificación, utilicegencfeatures
。
Para desarrollar y evaluar modelos de clasificación de forma interactiva, utilice la appClassification Learner。
para seleccionarautomáticamenteun Modelo conhiperparámetrosajustados,Utilicefitcauto
。estafunciónpruebaunaseleccióndetipos declasificacióncondiferentes valores enloshiperparámetrosy devuelve y devuelve un Modelo final que eveped que que funcione bien bien con los los nuevos datos。UTILICEfitcauto
cuando no sepa con seguridad los tipos de clasificadores que mejor se adaptan a s s s s sus datos。
para ajustarloshiperparámetrosde un Modelo Concreto,Seleccione los valores delosHiperparámetrosy realice una dialceunvilyaciónCruzadadil Modeo Con Dichos Valores。Por Ejemplo,Para ajustar Un Modelo SVM,Elija Un Conjunto de restricciones de cajas y escalas de Kernel de Kernel Y,Después,Realice una unavilyaciónCruzaDeun Modelo para para para par par de Valores。declasificacióndede statistics and Machine Learning Toolbox™ofrecen un ajusteautomáticodeloshiperparámetrosMedianteopentizaciónBayesiana,búsquedaporcuadrículisobúsquedaaleatoria。sin禁运,LaUnción主要Utilitizada Para para amparionar laopentizaciónBayesiana,贝叶斯
,Es lo suficientee柔性para utilizarla en otras aplicaciones。咨询Bayesian Optimization Workflow。
Para解释员Un Modelo declasificación,Puede用品lime
,,,,沙普利
y阴谋PartialDependence
。
Classification Learner | Train models to classify data using supervised machine learning |
Train Classification Models in Classification Learner App
Workflow for training, comparing and improving classification models, including automated, manual, and parallel training.
Compare model accuracy scores, visualize results by plotting class predictions, and check performance per class in the Confusion Matrix.
Identify useful predictors using plots, manually select features to include, and transform features using PCA in Classification Learner.
了解功能选择算法并探索可用于特征选择的功能。
This topic introduces to sequential feature selection and provides an example that selects features sequentially using a custom criterion and thesequentialfs
功能。
Neighborhood Component Analysis (NCA) Feature Selection
Neighborhood component analysis (NCA) is a non-parametric method for selecting features with the goal of maximizing prediction accuracy of regression and classification algorithms.
Tune Regularization Parameter to Detect Features Using NCA for Classification
此示例显示了如何调整正则化参数FSCNCA
using cross-validation.
通过删除预测变量而不损害模型的预测能力,使其更加可靠,更简单。
选择Features for Classifying High-Dimensional Data
此示例显示了如何选择用于分类高维数据的功能。
Usegencfeatures
to engineer new features before training a classification model. Before making predictions on new data, apply the same feature transformations to the new data set.
Usefitcauto
to automatically try a selection of classification model types with different hyperparameter values, given training predictor and response data.
Bayesian Optimization Workflow
Perform Bayesian optimization using a fit function or by calling贝叶斯
directly.
Variables for a Bayesian Optimization
Create variables for Bayesian optimization.
Bayesian Optimization Objective Functions
Create the objective function for Bayesian optimization.
Constraints in Bayesian Optimization
为贝叶斯优化设置不同类型的约束。
Optimize Cross-Validated Classifier Using bayesopt
使用贝叶斯优化最小化交叉验证损失。
Optimize Classifier Fit Using Bayesian Optimization
Minimize cross-validation loss using the优化eParameter
name-value argument in a fitting function.
Bayesian Optimization Plot Functions
Visually monitor a Bayesian optimization.
Bayesian Optimization Output Functions
Monitor a Bayesian optimization.
Bayesian Optimization Algorithm
了解贝叶斯优化的基础算法。
How Bayesian optimization works in parallel.
Interpret Machine Learning Models
使用模型预测使用lime
,,,,沙普利
,,,,and阴谋PartialDependence
。
使用两种算法计算机器学习模型的Shapley值:kernelShap和inter inthelshap的扩展。
Examine the performance of a classification algorithm on a specific test data set using a receiver operating characteristic curve.