Desarrollo y evaluación de modelos
Al desarrollar un modelo de clasificación predictiva de alta calidad, es importante seleccionar las características (o predictores) correctos y ajustar los hiperparámetros (parámetros del modelo que no se han estimado).
La selección de características y el ajuste de los hiperparámetros pueden arrojar varios modelos. Puede comparar las tasas de errores de clasificación de k iteraciones, las curvas ROC, por sus siglas en inglés) o las matrices de confusión entre los modelos. También puede realizar una prueba estadística para detectar si un modelo de clasificación supera significativamente a otro.
Para extraer nuevas características antes de entrenar un modelo de clasificación, utilice gencfeatures
.
Para desarrollar y evaluar modelos de clasificación de forma interactiva, utilice la app Classification Learner.
Para seleccionar automáticamente un modelo con hiperparámetros ajustados, utilice fitcauto
. Esta función prueba una selección de tipos de modelos de clasificación con diferentes valores en los hiperparámetros y devuelve un modelo final que se prevé que funcione bien con los nuevos datos. Utilice fitcauto
cuando no sepa con seguridad los tipos de clasificadores que mejor se adaptan a sus datos.
Para ajustar los hiperparámetros de un modelo concreto, seleccione los valores de los hiperparámetros y realice una validación cruzada del modelo con dichos valores. Por ejemplo, para ajustar un modelo SVM, elija un conjunto de restricciones de cajas y escalas de kernel y, después, realice una validación cruzada de un modelo para cada par de valores. Determinadas funciones de clasificación de Statistics and Machine Learning Toolbox™ ofrecen un ajuste automático de los hiperparámetros mediante optimización bayesiana, búsqueda por cuadrículas o búsqueda aleatoria. bayesopt
, la función principal para implementar la optimización bayesiana, es también lo suficientemente flexible para muchas otras aplicaciones. Consulte Bayesian Optimization Workflow.
Para interpretar un modelo de clasificación, puede utilizar lime
, shapley
y plotPartialDependence
.
Apps
Classification Learner | Entrenar modelos para clasificar datos usando machine learning supervisado |
Funciones
Objetos
Propiedades
ConfusionMatrixChart Properties | Confusion matrix chart appearance and behavior |
ROCCurve Properties | Receiver operating characteristic (ROC) curve appearance and behavior |
Temas
App Classification Learner
- Train Classification Models in Classification Learner App
Workflow for training, comparing and improving classification models, including automated, manual, and parallel training. - Visualize and Assess Classifier Performance in Classification Learner
Compare model accuracy values, visualize results by plotting class predictions, and check performance per class in the confusion matrix. - Feature Selection and Feature Transformation Using Classification Learner App
Identify useful predictors using plots or feature ranking algorithms, select features to include, and transform features using PCA in Classification Learner.
Selección de características
- Introduction to Feature Selection
Learn about feature selection algorithms and explore the functions available for feature selection. - Sequential Feature Selection
This topic introduces sequential feature selection and provides an example that selects features sequentially using a custom criterion and thesequentialfs
function. - Neighborhood Component Analysis (NCA) Feature Selection
Neighborhood component analysis (NCA) is a non-parametric method for selecting features with the goal of maximizing prediction accuracy of regression and classification algorithms. - Tune Regularization Parameter to Detect Features Using NCA for Classification
This example shows how to tune the regularization parameter infscnca
using cross-validation. - Regularize Discriminant Analysis Classifier
Make a more robust and simpler model by removing predictors without compromising the predictive power of the model. - Select Features for Classifying High-Dimensional Data
This example shows how to select features for classifying high-dimensional data.
Ingeniería de características
- Automated Feature Engineering for Classification
Usegencfeatures
to engineer new features before training a classification model. Before making predictions on new data, apply the same feature transformations to the new data set.
Selección de modelos automatizados
- Automated Classifier Selection with Bayesian and ASHA Optimization
Usefitcauto
to automatically try a selection of classification model types with different hyperparameter values, given training predictor and response data.
Optimización de hiperparámetros
- Bayesian Optimization Workflow
Perform Bayesian optimization using a fit function or by callingbayesopt
directly. - Variables for a Bayesian Optimization
Create variables for Bayesian optimization. - Bayesian Optimization Objective Functions
Create the objective function for Bayesian optimization. - Constraints in Bayesian Optimization
Set different types of constraints for Bayesian optimization. - Optimize Cross-Validated Classifier Using bayesopt
Minimize cross-validation loss using Bayesian Optimization. - Optimize Classifier Fit Using Bayesian Optimization
Minimize cross-validation loss using theOptimizeParameters
name-value argument in a fitting function. - Bayesian Optimization Plot Functions
Visually monitor a Bayesian optimization. - Bayesian Optimization Output Functions
Monitor a Bayesian optimization. - Bayesian Optimization Algorithm
Understand the underlying algorithms for Bayesian optimization. - Parallel Bayesian Optimization
How Bayesian optimization works in parallel.
Interpretación de modelos
- Interpret Machine Learning Models
Explain model predictions using thelime
andshapley
objects and theplotPartialDependence
function. - Shapley Values for Machine Learning Model
Compute Shapley values for a machine learning model using interventional algorithm or conditional algorithm.
Validación cruzada
- Implement Cross-Validation Using Parallel Computing
Speed up cross-validation using parallel computing.
Evaluación de la capacidad de la clasificación
- ROC Curve and Performance Metrics
Userocmetrics
to examine the performance of a classification algorithm on a test data set. - Performance Curves by perfcurve
Learn how theperfcurve
function computes a receiver operating characteristic (ROC) curve.