Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

plotPartialDependence

Cree parcelas de dependencia parcial (PDP) y de expectativa condicional individual (ICE)

Descripción

ejemplo

plotPartialDependence(Mdl,Vars) crea un PDP entre las características enumeradas en y las respuestas pronosticadas mediante el uso de Datos predictores y un modelo de regresión entrenado.VarsMdl

ejemplo

plotPartialDependence(Mdl,Vars,X) crea un PDP mediante el uso de nuevos Datos predictores en.X

ejemplo

plotPartialDependence(___,Name,Value) utiliza opciones adicionales especificadas por uno o más argumentos de par nombre-valor además de cualquiera de los argumentos de las sintaxis anteriores. Por ejemplo, si se especifica, la función crea una figura que incluye un PDP, un gráfico de dispersión de la entidad seleccionada y las respuestas previstas, y una gráfica ICE para cada observación.'Conditional','absolute'plotPartialDependence

ejemplo

ax = plotPartialDependence(___) Devuelve los ejes del trazado utilizando cualquiera de las combinaciones de argumentos de entrada de las sintaxis anteriores.

Ejemplos

contraer todo

Entrenar un árbol de regresión mediante el conjunto de datos y crear un PDP que muestre la relación entre una entidad y las respuestas previstas en el árbol de regresión entrenado.carsmall

Cargue el conjunto de datos.carsmall

load carsmall

Especifique, y como las variables predictoras (), y como la variable de respuesta ().WeightCylindersHorsepowerXMPGY

X = [Weight,Cylinders,Horsepower]; Y = MPG;

Construya un árbol de regresión usando y.XY

Mdl = fitrtree(X,Y);

Visualice una visualización gráfica del árbol de regresión entrenado.

view(Mdl,'Mode','graph')

Cree un PDP de la primera variable predictora,.Weight

plotPartialDependence(Mdl,1)

La línea azul representa relaciones parciales promediadas entre (etiquetadas como) y (etiquetadas como) en el árbol de regresión entrenado.Weightx1MPGYMdl

El visor de árbol de regresión muestra que la primera decisión es si es menor que 3085,5.x1 El PDP también muestra un cambio grande cerca de = 3085,5.x1 El visor de árbol visualiza cada decisión en cada nodo en función de las variables predictoras. Puede encontrar varios nodos divididos en función de los valores de, pero no es fácil averiguar la dependencia de on.x1Yx1 Sin embargo, las tramas PDP promediaron las respuestas pronosticadas contra, así que usted puede ver claramente la dependencia parcial de encendido.x1Yx1

Las etiquetas y son los valores predeterminados de los nombres predictores y el nombre de la respuesta.x1Y Puede modificar estos nombres especificando los argumentos de par nombre-valor y cuando se entrena utilizando.'PredictorNames''ResponseName'Mdlfitrtree También puede modificar las etiquetas de los ejes utilizando las funciones y.xlabelylabel

Entrenar un modelo de regresión de proceso Gaussiano utilizando datos de muestra generados donde una variable de respuesta incluye interacciones entre variables predictoras. A continuación, cree trazados ICE que muestren la relación entre una entidad y las respuestas previstas para cada observación.

Genere Datos predictores de muestra y.x1x2

rng('default') % For reproducibility n = 200; x1 = rand(n,1)*2-1; x2 = rand(n,1)*2-1;

Genere valores de respuesta que incluyan interacciones entre y.x1x2

Y = x1-2*x1.*(x2>0)+0.1*rand(n,1);

Construya un modelo de regresión de proceso Gaussiano usando y.[x1 x2]Y

Mdl = fitrgp([x1 x2],Y);

Cree una figura que incluya un PDP (línea roja) para el primer predictor, un gráfico de dispersión (marcadores de círculo negro) y las respuestas previstas, y un conjunto de trazados ICE (líneas grises) especificando as.x1x1'Conditional''centered'

plotPartialDependence(Mdl,1,'Conditional','centered')

Cuando es, desplaza trazados para que todos los trazados comiencen desde cero, lo que resulta útil para examinar el efecto acumulado de la entidad seleccionada.'Conditional''centered'plotPartialDependence

Un PDP encuentra relaciones promediadas, por lo que no revela dependencias ocultas, especialmente cuando las respuestas incluyen interacciones entre entidades. Sin embargo, las parcelas ICE muestran claramente dos dependencias diferentes de respuestas.x1

Entrenar un conjunto de regresión utilizando el conjunto de datos, y crear una gráfica de PDP y parcelas de ICE para cada variable predictora utilizando un nuevo conjunto de datos,.carsmallcarbig A continuación, compare las cifras para analizar la importancia de las variables predictoras. Además, compare los resultados con las estimaciones de importancia predictora devueltas por la función.predictorImportance

Cargue el conjunto de datos.carsmall

load carsmall

Especifique,,, y como las variables predictoras (), y como la variable de respuesta ().WeightCylindersHorsepowerModel_YearXMPGY

X = [Weight,Cylinders,Horsepower,Model_Year]; Y = MPG;

Entrenar un conjunto de regresión usando y.XY

Mdl = fitrensemble(X,Y, ...     'PredictorNames',{'Weight','Cylinders','Horsepower','Model Year'}, ...     'ResponseName','MPG');

Compare la importancia de las variables predictoras mediante el uso de las funciones y.plotPartialDependencepredictorImportance La función visualiza las relaciones entre un predictor seleccionado y las respuestas pronosticadas. resume la importancia de un predictor con un valor único.plotPartialDependencepredictorImportance

Cree una figura que incluya una gráfica de PDP (línea roja) y gráficas de ICE (líneas grises) para cada predictor mediante el uso y la especificación.plotPartialDependence'Conditional','absolute' Cada figura también incluye un gráfico de dispersión (marcadores de círculo negro) del predictor seleccionado y las respuestas pronosticadas. Además, cargue el conjunto de datos y utilíutilizarlo como nuevos Datos predictores,.carbigXnew Cuando se proporciona, la función utiliza en lugar de los datos del predictor en.XnewplotPartialDependenceXnewMdl

load carbig Xnew = [Weight,Cylinders,Horsepower,Model_Year];  f = figure; f.Position = [100 100 1.75*f.Position(3:4)]; % Enlarge figure for visibility. for i = 1 : 4     subplot(2,2,i)     plotPartialDependence(Mdl,i,Xnew,'Conditional','absolute') end

Calcule las estimaciones de importancia predictora mediante el uso.predictorImportance Esta función suma los cambios en el error cuadrático medio (MSE) debido a divisiones en cada predictor y, a continuación, divide la suma por el número de nodos de bifurcación.

imp = predictorImportance(Mdl); figure; bar(imp); title('Predictor Importance Estimates'); ylabel('Estimates'); xlabel('Predictors'); ax = gca; ax.XTickLabel = Mdl.PredictorNames;

La variable tiene el mayor impacto en según la importancia del predictor.WeightMPG El PDP de también muestra que tiene una alta dependencia parcial.WeightMPGWeight La variable tiene el menor impacto en según la importancia del predictor.CylindersMPG El PDP de también muestra que no cambia mucho dependiendo.CylindersMPGCylinders

Entrenar un modelo de regresión de máquina de vectores de soporte (SVM) utilizando el conjunto de datos y crear un PDP para dos variables predictoras.carsmall A continuación, extraiga estimaciones de dependencia parcial de la salida de.plotPartialDependence

Cargue el conjunto de datos.carsmall

load carsmall

Especifique, y como las variables predictoras ().WeightCylindersHorsepowerTbl

Tbl = table(Weight,Cylinders,Horsepower);

Construya un modelo de regresión de máquina de vectores de soporte (SVM) utilizando y la variable de respuesta.TblMPG Utilice una función de kernel Gaussiano con una escala de kernel automática.

Mdl = fitrsvm(Tbl,MPG,'ResponseName','MPG', ...     'KernelFunction','gaussian','KernelScale','auto');

Cree un PDP que visualiza la dependencia parcial de las respuestas pronosticadas () en las variables predictoras y.MPGWeightHorsepower Utilice el argumento de par nombre-valor para especificar los puntos para calcular la dependencia parcial.QueryPoints

pt1 = linspace(min(Weight),max(Weight),50)'; pt2 = linspace(min(Horsepower),max(Horsepower),50)'; ax = plotPartialDependence(Mdl,{'Weight','Horsepower'},'QueryPoints',[pt1 pt2]); view(140,30) % Modify the viewing angle

El PDP muestra un efecto de interacción entre y.WeightHorsepower

Extraiga la dependencia parcial estimada de on y.MPGWeightHorsepower Los valores de los ejes x (los primeros valores predictores seleccionados), los valores de los ejes y (los segundos valores predictores seleccionados) y los valores del eje z (los valores de dependencia parcial correspondientes), respectivamente, son los de valores.XDataYDataZDataax.Children

xval = ax.Children.XData; yval = ax.Children.YData; zval = ax.Children.ZData;

Si especifica como, crea una figura que incluye un PDP, un gráfico de dispersión y un conjunto de trazados ICE. y corresponden al PDP y al gráfico de dispersión, respectivamente.'Conditional''absolute'plotPartialDependenceax.Children(1)ax.Children(2) Los elementos restantes corresponden a las parcelas ICE.ax.Children Los valores de son los valores del eje x (los valores predictores seleccionados) y los valores del eje y (los valores de dependencia parcial correspondientes), respectivamente.XDataYDataax.Children(i)

Argumentos de entrada

contraer todo

Modelo de regresión entrenado, especificado como un objeto de modelo de regresión completa o compacta que se describe en la tabla siguiente.

Tipo de modelo entrenadoObjeto de modelo de regresiónDevuelto por
Agregación de bootstrap para conjunto de árboles de decisión,TreeBaggerCompactTreeBagger,TreeBaggercompact
Conjunto de modelos de regresión, ,RegressionEnsembleRegressionBaggedEnsembleCompactRegressionEnsemble,fitrensemblecompact
La regresión del proceso Gaussiano,RegressionGPCompactRegressionGP,fitrgpcompact
Modelo lineal generalizado de efecto mixtoGeneralizedLinearMixedModelfitglme
Modelo lineal generalizado,GeneralizedLinearModelCompactGeneralizedLinearModel, ,fitglmstepwiseglmcompact
Modelo lineal de efecto mixtoLinearMixedModel,fitlme fitlmematrix
La regresión lineal,LinearModelCompactLinearModel, ,fitlmstepwiselmcompact
Regresión lineal para datos de alta cotaRegressionLinearfitrlinear
La regresión no linealNonLinearModelfitnlm
Árbol de regresión,RegressionTreeCompactRegressionTree,fitrtreecompact
Apoye la regresión de la máquina vectorial,RegressionSVMCompactRegressionSVM,fitrsvmcompact

Si es un objeto de modelo de regresión compacta, debe proporcionar.MdlX

no admite un objeto de modelo entrenado con una matriz dispersa.plotPartialDependence Si se entrena mediante el uso, utilice una matriz numérica completa para los Datos predictores donde las filas corresponden a observaciones individuales.Mdlfitrlinear

Características para visualizar, especificadas como un vector de enteros positivos, Vector de caracteres o escalar de cadena, matriz de cadenas o matriz de celdas de vectores de caracteres. Puede elegir una o dos entidades, como se muestra en las tablas siguientes.

Una característica

ValorDescripción
entero positivoValor de índice correspondiente a la columna de los Datos predictores que se visualizaran.
Vector de caracteres o escalar de cadena

Nombre de una variable predictora que se visualiza. El nombre debe coincidir con la entrada.Mdl.PredictorNames

Dos características

ValorDescripción
Vector de dos enteros positivosValores de índice correspondientes a las columnas de los Datos predictores que se visualizaran.
matriz de cadenas o matriz de vectores de caracteres

Nombres de las variables predictoras que se visualizaran. Cada elemento de la matriz es el nombre de una variable predictora. Los nombres deben coincidir con las entradas.Mdl.PredictorNames

Ejemplo: {'x1','x3'}

Tipos de datos: single | double | char | string | cell

Datos de predictor, especificados como una matriz o tabla numérica. Cada fila de corresponde a una observación, y cada columna corresponde a una variable.X

  • Si es un objeto de modelo de regresión completa, utiliza los datos del predictor en.MdlplotPartialDependenceMdl Si usted proporciona, entonces no utiliza los datos del predictor en y utiliza solamente.XplotPartialDependenceMdlX

  • Si es un objeto de modelo de regresión compacta, debe proporcionar.MdlX

debe ser coherente con los Datos predictores que se entrenaron, almacenados en cualquiera de los dos o.XMdlMdl.XMdl.Variables

  • Si ha entrenado con una matriz numérica, debe ser una matriz numérica.MdlX Las variables que componen las columnas de deben tener el mismo número y orden que las variables predictoras que entrenaron.XMdl

  • Si ha entrenado usando una tabla (por ejemplo,), entonces debe ser una tabla.MdlTblX Todas las variables predictoras en deben tener los mismos nombres de variables y tipos de datos que los nombres y tipos en.XTbl Sin embargo, el orden de columna de no necesita corresponder al orden de columna de.XTbl

  • no admite una matriz dispersa.plotPartialDependence

Tipos de datos: single | double | table

Argumentos de par nombre-valor

Especifique pares de argumentos separados por comas opcionales. es el nombre del argumento y es el valor correspondiente. deben aparecer dentro de las cotizaciones.Name,ValueNameValueName Puede especificar varios argumentos de par de nombre y valor en cualquier orden como.Name1,Value1,...,NameN,ValueN

Ejemplo: crea un PDP utilizando 100 observaciones muestreadas enplotPartialDependence(Mdl,Vars,X,'NumObservationsToSample',100,'UseParallel',true) X y ejecutar iteraciones de bucle en paralelo.for

Tipo de trazado, especificado como el par separado por comas que consta de y, o.'Conditional''none''absolute''centered'

ValorDescripción
'none'

crea un PDP.plotPartialDependence

  • Si selecciona una entidad numérica, calcula la dependencia parcial en los valores entre el mínimo y el máximo de la entidad seleccionada y crea un PDP con una línea azul sólida.VarsplotPartialDependence

  • Si selecciona una característica categórica, calcula las respuestas pronosticadas en todos los valores categóricos y traza la dependencia parcial con marcadores de círculo azul conectados con una línea de puntos.VarsplotPartialDependence

  • Si selecciona dos operaciones, crea una gráfica de superficie.VarsplotPartialDependence

'absolute'

crea una figura que incluye los tres tipos de trazados siguientes:plotPartialDependence

  • PDP con una línea roja sólida

  • Gráfico de dispersión de la entidad seleccionada y respuestas pronosticadas con marcadores de círculo negro

  • Parcela de hielo para cada observación con una línea gris sólida

Este valor es válido cuando se selecciona solo una entidad.

'centered'

crea una figura que incluye los mismos tres tipos de trazados que. desplaza trazados para que todos los trazados comiencen desde cero.plotPartialDependence'absolute'plotPartialDependence

Este valor es válido cuando se selecciona solo una entidad.

Para obtener más información, consulte y.Parcela de dependencia parcialParcelas de expectativa condicional individual

Ejemplo: 'Conditional','absolute'

Número de observaciones a la muestra, especificadas como el par separado por comas que consta de un entero positivo.'NumObservationsToSample' El valor predeterminado es el número de observaciones totales en cualquiera de los dos o.MdlX Si se especifica un valor mayor que el número de observaciones totales, se utilizan todas las observaciones.plotPartialDependence

muestras de observaciones sin sustitución utilizando la función y utiliza las observaciones muestreadas para calcular la dependencia parcial.plotPartialDependencedatasample Si especifica como o, crea una figura que incluye una gráfica ICE para cada observación muestreada.'Conditional''absolute''centered'plotPartialDependence

Ejemplo: 'NumObservationsToSample',100

Tipos de datos: single | double

Ejes en los que trazar, especificados como el par separado por comas que consta de y un objeto AXES.'ParentAxisHandle' Si no especifica los ejes y si los ejes actuales son cartesianos, utiliza los ejes actuales ().plotPartialDependencegca Si los ejes no existen, los trazados en una nueva figura.plotPartialDependence

Ejemplo: 'ParentAxisHandle',ax

Apunta a calcular la dependencia parcial, especificada como el par separado por comas que consta de un vector de columna numérico, una matriz numérica de dos columnas o una matriz de celdas de dos vectores de columna numéricos.'QueryPoints'

El valor predeterminado es un vector de columna numérico o una matriz numérica de dos columnas, en función del número de entidades seleccionadas, donde una columna contiene 100 puntos espaciados uniformemente entre los valores mínimo y máximo de la entidad seleccionada.

  • Si selecciona una entidad, utilice un vector de columna numérico.Vars

  • Si selecciona dos entidades en:Vars

    • Utilice una matriz numérica de dos columnas para especificar el mismo número de puntos para cada entidad.

    • Utilice una matriz de celdas de dos vectores de columna numéricos para especificar un número diferente de puntos para cada entidad.

Los valores predeterminados de una entidad categórica son todos los valores categóricos de la entidad seleccionada. No se puede modificar para una operación categórica.'QueryPoints' Si selecciona una entidad numérica y una característica categórica, puede especificar una entidad numérica mediante una matriz de celdas que consta de un vector de columna numérico y una matriz vacía.'QueryPoints'

Ejemplo: 'QueryPoints',{pt,[]}

Tipos de datos: single | double | cell

Indicador para ejecutarse en paralelo, especificado como el par separado por comas que consta de y o.'UseParallel'truefalse Si especifica como, iteraciones de bucle de ejecuta en paralelo mediante el uso al predecir las respuestas para cada observación y promediarlas.'UseParallel'trueplotPartialDependenceforparfor

Ejemplo: 'UseParallel',true

Tipos de datos: logical

Argumentos de salida

contraer todo

Ejes de la gráfica, devueltos como un objeto de ejes. Para obtener más información sobre cómo modificar la apariencia de los ejes y extraer datos de los trazados, consulte y.Apariencia de los ejes (MATLAB)Extraiga estimaciones de dependencia parcial de parcelas

Más acerca de

contraer todo

Parcela de dependencia parcial

Un diagrama de dependencia parcial (PDP) visualiza las relaciones entre las entidades y las respuestas previstas en un modelo de regresión entrenado. crea una gráfica de línea o una gráfica de superficie de respuestas pronosticadas en una sola entidad o un par de entidades, respectivamente, al marginar sobre las otras variables.[1]plotPartialDependence

Considere un PDP para un subconjunto XS de todo el conjunto de características X = {x1, x2, …, xm}. Un subconjunto XS incluye una característica o dos características: XS = {xS1} O XS = {xS1, xS2}. Dejar XC ser el conjunto complementario de XS En.X Una respuesta pronosticada () depende de todas las características de:fXX

f(X) = f(XS, XC).

La dependencia parcial de las respuestas previstas en XS se define por la expectativa de respuestas previstas con respecto a XC:

fS(XS)=EC[f(XS,XC)]=f(XS,XC)pC(XC)dXC,

Dónde PC(XC) es la probabilidad marginal de XCEs decir pC(XC)p(XS,XC)dXS. Suponiendo que cada observación es igual de probable, y la dependencia entre XS Y XC y las interacciones de XS Y XC en las respuestas no son fuertes, estima la dependencia parcial mediante el uso de los Datos predictores observados de la siguiente manera:plotPartialDependence

fS(XS)1Ni=1Nf(XS,XiC),(1)

¿Dónde está el número de observaciones yN Xi = (XiS, XiC) es la observación TH.i

crea un PDP mediante.plotPartialDependenceEcuación 1 Introduzca un modelo entrenado () y seleccione entidades (f(·)XS) para visualizar mediante los argumentos de entrada y, respectivamente. calcula la dependencia parcial en 100 puntos espaciados uniformemente deMdlVarsplotPartialDependence XS o los puntos que especifique mediante el argumento de par nombre-valor.'QueryPoints' Puede especificar el número () de observaciones para muestrear de los datos de predictor dados mediante el argumento de par nombre-valor.N'NumObservationsToSample'

Parcelas de expectativa condicional individual

Una gráfica de expectativa condicional individual (ICE), como una extensión de un PDP, visualiza la relación entre una entidad y las respuestas previstas para cada observación.[2] Mientras que un PDP visualiza la relación promediada entre las entidades y las respuestas pronosticadas, un conjunto de parcelas ICE desagrupa la información promedio y visualiza una dependencia individual para cada observación.

crea una trama ICE para cada observación.plotPartialDependence Un conjunto de parcelas ICE es útil para investigar heterogeneidades de dependencia parcial originada por diferentes observaciones. también puede crear trazados ICE con cualquier dato predictor proporcionado a través del argumento Input.plotPartialDependenceX Puede utilizar esta función para explorar el espacio de respuesta pronosticado.

Considere una gráfica ICE para una entidad seleccionada XS con una observación dada XiCDónde XS = {xS}, XC es el conjunto complementario de XS en todo el conjunto de características yX Xi = (XiS, XiC) es la observación TH.i La gráfica ICE corresponde a la suma de la suma en:Ecuación 1

fSi(XS)=f(XS,XiC).

ParcelasplotPartialDependence fSi(XS) para cada observación cuando se especifica como.i'Conditional''absolute' Si especifica como, dibuja todos los trazados después de eliminar los efectos de nivel debido a diferentes observaciones:'Conditional''centered'plotPartialDependence

fSi,centered(XS)=f(XS,XiC)f(min(XS),XiC).

Esta resta garantiza que cada parcela empiece desde cero, de modo que pueda examinar el efecto acumulativo de XS y las interacciones entre XS Y XC.

Algoritmo de recorrido ponderado

El algoritmo de recorrido ponderado es un método para estimar la dependencia parcial de un modelo de regresión basado en árbol.[1] La dependencia parcial estimada es la media ponderada de los valores de respuesta correspondientes a los nodos hoja visitados durante el recorrido del árbol.

Dejar XS ser un subconjunto de todo el conjunto de características yX XC ser el conjunto complementario de XS En.X Para cada XS valor para calcular la dependencia parcial, el algoritmo atraviesa un árbol desde el nodo raíz (comenzando) hasta los nodos hoja (terminal) y encuentra los pesos de los nodos hoja. El recorrido comienza asignando un valor de ponderación de uno en el nodo raíz. Si un nodo se divide por XS, el algoritmo recorre el nodo secundario adecuado según el XS Valor. El peso del nodo secundario se convierte en el mismo valor que su nodo primario. Si un nodo se divide por XC, el algoritmo recorre ambos nodos secundarios. El peso de cada nodo secundario se convierte en un valor de su nodo primario multiplicado por la fracción de observaciones correspondiente a cada nodo secundario. Después de completar el recorrido de árbol, el algoritmo calcula el promedio ponderado mediante el uso de las ponderaciones asignadas.

Para un conjunto de árboles de regresión, la dependencia parcial estimada es un promedio de los promedios ponderados sobre los árboles de regresión individuales.

Algoritmos

utiliza una función para predecir las respuestas. elige la función adecuada según y se ejecuta con sus ajustes predeterminados.plotPartialDependencePredecirplotPartialDependencePredecirMdlPredecir Para obtener más información sobre cada función, consulte la función en la tabla siguiente.PredecirPredecir Si es un modelo basado en árbol y es, a continuación, utiliza el algoritmo de recorrido ponderado en lugar de la función.Mdl'Conditional''none'plotPartialDependencePredecir Para obtener más información, consulte.Algoritmo de recorrido ponderado

Tipo de modelo entrenadoObjeto de modelo de regresiónFunción para predecir respuestas
Agregación de bootstrap para conjunto de árboles de decisiónCompactTreeBaggerPredecir
Agregación de bootstrap para conjunto de árboles de decisiónTreeBaggerPredecir
Conjunto de modelos de regresión, ,RegressionEnsembleRegressionBaggedEnsembleCompactRegressionEnsemblePredecir
La regresión del proceso Gaussiano,RegressionGPCompactRegressionGPPredecir
Modelo lineal generalizado de efecto mixtoGeneralizedLinearMixedModelPredecir
Modelo lineal generalizado,GeneralizedLinearModelCompactGeneralizedLinearModelPredecir
Modelo lineal de efecto mixtoLinearMixedModelPredecir
La regresión lineal,LinearModelCompactLinearModelPredecir
Regresión lineal para datos de alta cotaRegressionLinearPredecir
La regresión no linealNonLinearModelPredecir
Árbol de regresión,RegressionTreeCompactRegressionTreePredecir
Apoye la regresión de la máquina vectorial,RegressionSVMCompactRegressionSVMPredecir

Referencias

[1] Friedman, J. H. “Greedy function approximation: a gradient boosting machine.” The Annals of Statistics. Vol. 29, No. 5, 2001, pp. 1189-1232.

[2] Goldstein, A., A. Kapelner, J. Bleich, and E. Pitkin. “Peeking inside the black box: Visualizing statistical learning with plots of individual conditional expectation.” Journal of Computational and Graphical Statistics. Vol. 24, No. 1, 2015, pp. 44-65.

[3] Hastie, T., R. Tibshirani, and J. H. Friedman. The Elements of Statistical Learning. New York: Springer, 2001.

Capacidades ampliadas

Introducido en R2017b