Desarrollo y evaluación de modelos
Al desarrollar un modelo de clasificación predictiva de alta calidad, es importante seleccionar las características (o predictores) correctos y ajustar los hiperparámetros (parámetros del modelo que no se han estimado).
La selección de características y el ajuste de los hiperparámetros pueden arrojar varios modelos. Puede comparar las tasas de errores de clasificación de k particiones, las curvas ROC, por sus siglas en inglés) o las matrices de confusión entre los modelos. También puede realizar una prueba estadística para detectar si un modelo de clasificación supera significativamente a otro.
Para extraer nuevas características antes de entrenar un modelo de clasificación, utilice gencfeatures
.
Para desarrollar y evaluar modelos de clasificación de forma interactiva, utilice la app Classification Learner.
Para seleccionar automáticamente un modelo con hiperparámetros ajustados, utilice fitcauto
. Esta función prueba una selección de tipos de modelos de clasificación con diferentes valores en los hiperparámetros y devuelve un modelo final que se prevé que funcione bien con los nuevos datos. Utilice fitcauto
cuando no sepa con seguridad los tipos de clasificadores que mejor se adaptan a sus datos.
Para ajustar los hiperparámetros de un modelo concreto, seleccione los valores de los hiperparámetros y realice una validación cruzada del modelo con dichos valores. Por ejemplo, para ajustar un modelo SVM, elija un conjunto de restricciones de cajas y escalas de kernel y, después, realice una validación cruzada de un modelo para cada par de valores. Determinadas funciones de clasificación de Statistics and Machine Learning Toolbox™ ofrecen un ajuste automático de los hiperparámetros mediante optimización bayesiana, búsqueda por cuadrículas o búsqueda aleatoria. bayesopt
, la función principal para implementar la optimización bayesiana, es también lo suficientemente flexible para muchas otras aplicaciones. Consulte Bayesian Optimization Workflow.
Para interpretar un modelo de clasificación, puede utilizar lime
, shapley
y plotPartialDependence
.
Apps
Classification Learner | Entrenar modelos para clasificar datos usando machine learning supervisado |
Funciones
Objetos
Propiedades
ConfusionMatrixChart Properties | Confusion matrix chart appearance and behavior |
ROCCurve Properties | Receiver operating characteristic (ROC) curve appearance and behavior (desde R2022a) |
Temas
App Classification Learner
- Train Classification Models in Classification Learner App
Workflow for training, comparing and improving classification models, including automated, manual, and parallel training. - Visualizar y evaluar el rendimiento de clasificadores en Classification Learner
Compare los valores de precisión de los modelos, visualice resultados representando predicciones de clase y compruebe el rendimiento por clase en la matriz de confusión. - Selección y transformación de características mediante la app Classification Learner
Identifique predictores útiles utilizando gráficas o algoritmos de clasificación de características, seleccione las características que desee incluir y transfórmelas con el PCA en Classification Learner.
Selección de características
- Introduction to Feature Selection
Learn about feature selection algorithms and explore the functions available for feature selection. - Sequential Feature Selection
This topic introduces sequential feature selection and provides an example that selects features sequentially using a custom criterion and thesequentialfs
function. - Neighborhood Component Analysis (NCA) Feature Selection
Neighborhood component analysis (NCA) is a non-parametric method for selecting features with the goal of maximizing prediction accuracy of regression and classification algorithms. - Tune Regularization Parameter to Detect Features Using NCA for Classification
This example shows how to tune the regularization parameter infscnca
using cross-validation. - Regularize Discriminant Analysis Classifier
Make a more robust and simpler model by removing predictors without compromising the predictive power of the model. - Select Features for Classifying High-Dimensional Data
This example shows how to select features for classifying high-dimensional data.
Ingeniería de características
- Automated Feature Engineering for Classification
Usegencfeatures
to engineer new features before training a classification model. Before making predictions on new data, apply the same feature transformations to the new data set.
Selección de modelos automatizados
- Automated Classifier Selection with Bayesian and ASHA Optimization
Usefitcauto
to automatically try a selection of classification model types with different hyperparameter values, given training predictor and response data.
Optimización de hiperparámetros
- Bayesian Optimization Workflow
Perform Bayesian optimization using a fit function or by callingbayesopt
directly. - Variables for a Bayesian Optimization
Create variables for Bayesian optimization. - Bayesian Optimization Objective Functions
Create the objective function for Bayesian optimization. - Constraints in Bayesian Optimization
Set different types of constraints for Bayesian optimization. - Optimize Cross-Validated Classifier Using bayesopt
Minimize cross-validation loss using Bayesian Optimization. - Optimize Classifier Fit Using Bayesian Optimization
Minimize cross-validation loss using theOptimizeParameters
name-value argument in a fitting function. - Bayesian Optimization Plot Functions
Visually monitor a Bayesian optimization. - Bayesian Optimization Output Functions
Monitor a Bayesian optimization. - Bayesian Optimization Algorithm
Understand the underlying algorithms for Bayesian optimization. - Parallel Bayesian Optimization
How Bayesian optimization works in parallel.
Interpretación de modelos
- Interpret Machine Learning Models
Explain model predictions using thelime
andshapley
objects and theplotPartialDependence
function. - Shapley Values for Machine Learning Model
Compute Shapley values for a machine learning model using interventional algorithm or conditional algorithm. - Shapley Output Functions
Stop Shapley computations, create plots, save information to your workspace, or perform calculations while usingshapley
.
Validación cruzada
- Implement Cross-Validation Using Parallel Computing
Speed up cross-validation using parallel computing.
Evaluación de la capacidad de la clasificación
- ROC Curve and Performance Metrics
Userocmetrics
to examine the performance of a classification algorithm on a test data set. - Performance Curves by perfcurve
Learn how theperfcurve
function computes a receiver operating characteristic (ROC) curve.