Main Content

Árboles de decisión

Los árboles de decisión, o árboles de clasificación y árboles de regresión, predicen respuestas a los datos. Para predecir una respuesta, siga las decisiones del árbol desde el nodo raíz (principio) hacia abajo a un nodo hoja. El nodo hoja contiene la respuesta. Los árboles de clasificación dan respuestas que son nominales, como 'true' o 'false'. Los árboles de regresión dan respuestas numéricas.

Los árboles de Statistics and Machine Learning Toolbox™ son binarios. Cada paso en una predicción implica comprobar el valor de un predictor (variable). Por ejemplo, aquí puede ver un árbol de clasificación simple:

Este árbol predice clasificaciones basadas en dos predictores, x1 y x2. Para iniciar una predicción, empiece en el nodo superior, representado por un triángulo (Δ). La primera decisión es si x1 es más pequeño que 0.5. Si es así, siga la rama izquierda para ver que el árbol clasifica los datos como tipo 0.

Sin embargo, si x1 supera el 0.5, entonces siga la rama derecha hacia el nodo de triángulo de la parte inferior derecha. Aquí, el árbol pregunta si x2 es más pequeño que 0.5. Si es así, entonces siga la rama izquierda para ver que el árbol clasifica los datos como tipo 0. Si no es así, entonces siga la rama derecha para ver que el árbol clasifica los datos como tipo 1.

Para aprender a preparar los datos con los que desea realizar clasificaciones o regresiones mediante árboles de decisión, consulte Steps in Supervised Learning.

Entrenar un árbol de clasificación

En este ejemplo se muestra cómo entrenar un árbol de clasificación.

Cree un árbol de clasificación usando el conjunto de datos ionosphere completo.

load ionosphere % Contains X and Y variables
Mdl = fitctree(X,Y)
Mdl = 
  ClassificationTree
             ResponseName: 'Y'
    CategoricalPredictors: []
               ClassNames: {'b'  'g'}
           ScoreTransform: 'none'
          NumObservations: 351


  Properties, Methods

Entrenar un árbol de regresión

En este ejemplo se muestra cómo entrenar un árbol de regresión.

Cree un árbol de regresión usando todas las observaciones del conjunto de datos carsmall. Considere los vectores Horsepower y Weight como variables predictoras, y el vector MPG como respuesta.

load carsmall % Contains Horsepower, Weight, MPG
X = [Horsepower Weight];

Mdl = fitrtree(X,MPG)
Mdl = 
  RegressionTree
             ResponseName: 'Y'
    CategoricalPredictors: []
        ResponseTransform: 'none'
          NumObservations: 94


  Properties, Methods

Referencias

[1] Breiman, L., J. H. Friedman, R. A. Olshen, and C. J. Stone. Classification and Regression Trees. Boca Raton, FL: Chapman & Hall, 1984.

Consulte también

| | |

Temas relacionados