Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.
Un conjunto de clasificación es un modelo predictivo compuesto por una combinación ponderada de varios modelos de clasificación. En general, la combinación de varios modelos de clasificación aumenta el rendimiento predictivo.
Para explorar conjuntos de clasificación de forma interactiva, utilice la aplicación.Aprendiz de Clasificación Para una mayor flexibilidad, utilice en la interfaz de línea de comandos para aumentar o embolsar árboles de clasificación, o para cultivar un bosque aleatorio.fitcensemble
[11] Para obtener más información sobre todos los conjuntos compatibles, consulte .Ensemble Algorithms Para reducir un problema multiclase en un conjunto de problemas de clasificación binaria, entrene un modelo de códigos de salida de corrección de errores (ECOC). Para obtener más información, consulte .fitcecoc
Para aumentar los árboles de regresión mediante LSBoost o para hacer crecer un bosque aleatorio de árboles de regresión, consulte .[11]Ensambles de regresión
Capacitar modelos para clasificar datos mediante aprendizaje automático supervisado | |
Aprendiz de Clasificación | Capacitar modelos para clasificar datos mediante aprendizaje automático supervisado |
Train Ensemble Classifiers Using Classification Learner App
Create and compare ensemble classifiers, and export trained models to make predictions for new data.
Framework for Ensemble Learning
Obtain highly accurate predictions by using many weak learners.
Learn about different algorithms for ensemble learning.
Train a simple classification ensemble.
Learn methods to evaluate the predictive quality of an ensemble.
Handle Imbalanced Data or Unequal Misclassification Costs in Classification Ensembles
Learn how to set prior class probabilities and misclassification costs.
Classification with Imbalanced Data
Use the RUSBoost algorithm for classification when one or more classes are over-represented in your data.
LPBoost and TotalBoost for Small Ensembles
Create small ensembles by using the LPBoost and TotalBoost algorithms. (LPBoost and TotalBoost require Optimization Toolbox™.)
Tune RobustBoost parameters for better predictive accuracy. (RobustBoost requires Optimization Toolbox.)
Gain better predictions when you have missing data by using surrogate splits.
Bootstrap Aggregation (Bagging) of Classification Trees Using TreeBagger
Create a TreeBagger ensemble for classification.
Random Subspace Classification
Increase the accuracy of classification by using a random subspace ensemble.