Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

Creación y evaluación de modelos

Selección de características, optimización de hiperparámetros, validación cruzada, diagnósticos residuales, parcelas

Al crear un modelo de regresión de alta calidad, es importante seleccionar las características correctas (o predictores), ajustar los hiperparámetros (parámetros del modelo no aptos para los datos) y evaluar los supuestos del modelo mediante diagnósticos residuales.

Puede ajustar los hiperparámetros iterando entre elegir valores para ellos y validando de forma cruzada un modelo utilizando sus opciones. Este proceso produce varios modelos, y el mejor modelo entre ellos puede ser el que minimiza el error de generalización estimado. Por ejemplo, para ajustar un modelo SVM, elija un conjunto de restricciones de cuadro y escalas de kernel, valide de forma cruzada un modelo para cada par de valores y, a continuación, compare sus estimaciones de error cuadrático medio con validación cruzada de 10 veces.

Algunas funciones de regresión no paramétrica ofrecen además la sintonización automática de hiperparámetros mediante la optimización Bayesiana, la búsqueda de cuadrículas o la búsqueda aleatoria.Statistics and Machine Learning Toolbox™ Sin embargo,, que es la función principal para implementar la optimización Bayesiana, es lo suficientemente flexible para muchas otras aplicaciones.bayesopt Para obtener más información, consulte.Flujo de trabajo de optimización bayesiana

Aplicaciones

El aprendiz de regresiónEntrenar modelos de regresión para predecir datos mediante el aprendizaje automático supervisado

Funciones

expandir todo

sequentialfsSelección secuencial de características
relieffRango importancia de los predictores usando ReliefF o RReliefF algoritmo
plotPartialDependenceCree parcelas de dependencia parcial (PDP) y de expectativa condicional individual (ICE)
stepwiselm Ajuste el modelo de regresión lineal utilizando la regresión escalonada
stepwiseglmCree un modelo de regresión lineal generalizado mediante la regresión escalonada
bayesoptSeleccione hiperparámetros óptimos de aprendizaje automático mediante la optimización bayesiana
hyperparametersDescripciones variables para optimizar una función de ajuste
optimizableVariableDescripción de variable para u otros optimizadoresbayesopt
crossvalEstimación de pérdidas mediante validación cruzada
cvpartitionCree una partición de validación cruzada para los datos
repartitionVuelva a particionar los datos para la validación cruzada
testLos índices de prueba para la validación cruzada
trainingLos índices de formación para la validación cruzada
coefCILos intervalos de confianza de las estimaciones de coeficiente del modelo de regresión lineal
coefTestPrueba de hipótesis lineal sobre coeficientes del modelo de regresión lineal
dwtestPrueba de Durbin-Watson con objeto de modelo de regresión lineal
plotGráfico de dispersión o parcela variable añadida del modelo de regresión lineal
plotAddedSe agregó una gráfica variable del modelo de regresión lineal
plotAdjustedResponseGráfica de respuesta ajustada del modelo de regresión lineal
plotDiagnosticsTrazar diagnósticos de observación del modelo de regresión lineal
plotEffectsTrazar los principales efectos de los predictores en el modelo de regresión lineal
plotInteractionTrazar los efectos de interacción de dos predictores en el modelo de regresión lineal
plotResidualsLos residuales de trazado del modelo de regresión lineal
plotSliceParcela de rodajas a través de superficie de regresión lineal ajustada
coefCILos intervalos de confianza de las estimaciones de coeficiente del modelo lineal generalizado
coefTestPrueba de hipótesis lineal sobre coeficientes del modelo de regresión lineal generalizada
devianceTestAnálisis de desviación
plotDiagnosticsEl diagnóstico de trazado del modelo de regresión lineal generalizada
plotResidualsLos residuos de trazado del modelo de regresión lineal generalizada
plotSliceParcela de rodajas mediante superficie de regresión lineal generalizada ajustada
coefCIIntervalos de confianza de estimaciones de coeficiente de modelo de regresión no lineal
coefTestPrueba de hipótesis lineal en coeficientes de modelo de regresión no lineal
plotDiagnosticsEl diagnóstico de trazado del modelo de regresión no lineal
plotResidualsLos residuales de trazado del modelo de regresión no lineal
plotSliceParcela de sectores a través de superficie de regresión no lineal ajustada
linhyptestPrueba de hipótesis lineal

Objetos

expandir todo

BayesianOptimizationLos resultados de optimización bayesiana
cvpartitionLas particiones de datos para la validación cruzada

Temas

Flujo de trabajo de aplicación de regresión aprendiz

Entrenar modelos de regresión en la aplicación de regresión Learner

Flujo de trabajo para entrenar, comparar y mejorar modelos de regresión, incluyendo el entrenamiento automatizado, manual y paralelo.

Elija Opciones de modelo de regresión

En el aprendizaje de regresión, entrenar automáticamente una selección de modelos, o comparar y ajustar las opciones de modelos de regresión lineal, árboles de regresión, máquinas de vectores de soporte, modelos de regresión de proceso Gaussiano y conjuntos de árboles de regresión.

Selección de características y transformación de características mediante la aplicación de regresión Learner

Identifique predictores útiles utilizando trazados, seleccione manualmente las entidades que desea incluir y transforme las entidades utilizando PCA en el aprendizaje de regresión.

Evalúe el rendimiento del modelo en aprendizaje de regresión

Compare las estadísticas del modelo y visualice los resultados.

Selección de características

Selección de características

Obtenga información sobre los algoritmos de selección de características, como la selección secuencial de entidades.

La optimización de hiperparámetros

Flujo de trabajo de optimización bayesiana

Realice la optimización bayesiana utilizando una función de ajuste o llamando directamente.bayesopt

Las variables para una optimización bayesiana

Cree variables para la optimización bayesiana.

Funciones objetivo de optimización bayesiana

Cree la función objetiva para la optimización bayesiana.

Las restricciones en la optimización bayesiana

Establezca diferentes tipos de restricciones para la optimización bayesiana.

Optimice un conjunto de regresión potenciado

Minimice la pérdida de validación cruzada de un conjunto de regresión.

Funciones de trazado de optimización bayesiana

Supervise visualmente una optimización bayesiana.

Funciones de salida de optimización bayesiana

Supervise una optimización bayesiana.

Algoritmo de optimización bayesiana

Comprenda los algoritmos subyacentes para la optimización bayesiana.

Optimización bayesiana paralela

Cómo funciona la optimización bayesiana en paralelo.

Validación cruzada

Implemente la validación cruzada mediante la computación paralela

Acelere la validación cruzada mediante la computación paralela.

Diagnóstico de modelo lineal

Interpretar los resultados de regresión lineal

Visualice e interprete las estadísticas de salida de regresión lineal.

Regresión lineal

Ajuste un modelo de regresión lineal y examine el resultado.

Regresión lineal con efectos de interacción

Construya y analice un modelo de regresión lineal con efectos de interacción e interprete los resultados.

Resumen de las estadísticas de resultados y diagnósticos

Evalúe un modelo ajustado mediante las propiedades del modelo y las funciones de objeto

La estadística F y la estadística t

En la regresión lineal, la-estadística es la estadística de prueba para el enfoque de análisis de varianza (ANOVA) para probar la significancia del modelo o los componentes en el modelo.F El-estadístico es útil para hacer inferencias sobre los coeficientes de regresiónt

Coeficiente de determinación (R-cuadrado)

El coeficiente de determinación (R-cuadrado) indica la cantidad proporcional de variación en la variable de respuesta explicada por las variables independientes en el modelo de regresión lineal.yX

Errores estándar de coeficiente y intervalos de confianza

Las desviaciones y las covarianzas del coeficiente Estimado capturan la precisión de las estimaciones del coeficiente de regresión.

Residuos

Los residuos son útiles para detectar valores atípicos y comprobar los supuestos de regresión lineal con respecto al término de error en el modelo de regresión.y

Durbin-Watson test

La prueba de Durbin-Watson evalúa si hay autocorrelación entre los residuos o no.

La distancia del cocinero

La distancia del cocinero es útil para identificar los valores atípicos en el valor (observaciones para las variables predictoras).X

Hat Matrix y leverage

La matriz de sombreros proporciona una medida de apalancamiento.

Delete-1 estadísticas

El cambio Delete-1 en covarianza () identifica las observaciones que son influyentes en el ajuste de regresión.covratio

Diagnóstico de modelo lineal generalizado

Modelos lineales generalizados

Los modelos lineales generalizados utilizan métodos lineales para describir una relación potencialmente no lineal entre los términos predictores y una variable de respuesta.

Diagnósticos de modelos no lineales

Regresión no lineal

Los modelos no lineales paramétricos representan la relación entre una variable de respuesta continua y una o más variables predictoras continuas.