Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

Árboles de decisión crecientes

De forma predeterminada, y utilice el algoritmo para crear árboles de decisión.fitctreefitrtreeCARRITO estándar[1] Es decir, realizan los siguientes pasos:

  1. Empiece con todos los datos de entrada y examine todas las posibles divisiones binarias en cada predictor.

  2. Seleccione una división con el mejor criterio de optimización.

    • Una división puede provocar que un nodo secundario tenga muy pocas observaciones (menos que el parámetro).MinLeafSize Para evitarlo, el software elige una división que produce el mejor criterio de optimización sujeto a la restricción.MinLeafSize

  3. Imponga la división.

  4. Repita de forma recursiva para los dos nodos secundarios.

La explicación requiere dos elementos más: Descripción del criterio de optimización y la regla de detención.

Dejar de dividir cuando cualquiera de los siguientes retener:Stopping rule:

  • El nodo es.Puro

    • Para la clasificación, un nodo es puro si sólo contiene observaciones de una clase.

    • Para la regresión, un nodo es puro si el error cuadrado medio (MSE) para la respuesta observada en este nodo cae debajo del MSE para la respuesta observada en los datos enteros multiplicados por la tolerancia en el error cuadrático por el nodo (parámetro).QuadraticErrorTolerance

  • Hay menos que observaciones en este nodo.MinParentSize

  • Cualquier división impuesta en este nodo produce niños con menos observaciones.MinLeafSize

  • El algoritmo divide los nodos.MaxNumSplits

Optimization criterion:

  • Regresión: error cuadrado medio (MSE). Elija una fractura para minimizar el MSE de las predicciones en comparación con los datos de entrenamiento.

  • Clasificación: Una de las tres medidas, dependiendo de la configuración del par nombre-valor:SplitCriterion

    • (Índice de diversidad de Gini, el valor predeterminado)'gdi'

    • 'twoing'

    • 'deviance'

    Para obtener más información, consulte.ClassificationTreeMás acerca de

Para técnicas de selección de predictor dividido alternativo, consulte.Elija la técnica dividir predictor selección

Para un predictor continuo, un árbol puede dividirse a mitad de camino entre dos valores únicos adyacentes encontrados para este predictor. Para un predictor categórico con niveles, un árbol de clasificación debe considerar 2LL–1– 1 splits para encontrar la división óptima. Alternativamente, puede elegir un algoritmo heurístico para encontrar una buena división, como se describe en.División de predictores categóricos en árboles de clasificación

Para sistemas de doble núcleo y superiores, y paralelizar los árboles de decisión de formación mediante subprocesos Building Blocks (TBB).fitctreefitrtreeIntel® Para obtener más información sobre TBB, consulte.Intelhttps://software.intel.com/en-us/intel-tbb

Referencias

[1] Breiman, L., J. H. Friedman, R. A. Olshen, and C. J. Stone. Classification and Regression Trees. Boca Raton, FL: Chapman & Hall, 1984.

Consulte también

| | |

Temas relacionados