Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

regress

La regresión lineal múltiple

Descripción

ejemplo

b = regress(y,X) Devuelve un vector de estimaciones de coeficiente para una regresión lineal múltiple de las respuestas en Vector en los predictores en la matriz.byX La matriz debe incluir una columna de unos.X

[b,bint] = regress(y,X) también devuelve una matriz de intervalos de confianza de 95% para las estimaciones de coeficiente.bint

[b,bint,r] = regress(y,X) también devuelve un vector adicional de residuos.r

ejemplo

[b,bint,r,rint] = regress(y,X) también devuelve una matriz de intervalos que se pueden usar para diagnosticar valores atípicos.rint

ejemplo

[b,bint,r,rint,stats] = regress(y,X) también devuelve un vector que contiene elstats R2 Estadística, el-estadístico y su-Value, y una estimación de la varianza del error.Fp

ejemplo

[___] = regress(y,X,alpha) utiliza un nivel de confianza% para calcular y.100*(1-alpha)bintrint Especifique cualquiera de las combinaciones de argumentos de salida en las sintaxis anteriores.

Ejemplos

contraer todo

Cargue el conjunto de datos.carsmall Identifique el peso y la potencia como predictores y el kilometraje como la respuesta.

load carsmall x1 = Weight; x2 = Horsepower;    % Contains NaN data y = MPG;

Calcule los coeficientes de regresión para un modelo lineal con un término de interacción.

X = [ones(size(x1)) x1 x2 x1.*x2]; b = regress(y,X)    % Removes NaN data
b = 4×1

   60.7104
   -0.0102
   -0.1882
    0.0000

Graficar los datos y el modelo.

scatter3(x1,x2,y,'filled') hold on x1fit = min(x1):100:max(x1); x2fit = min(x2):10:max(x2); [X1FIT,X2FIT] = meshgrid(x1fit,x2fit); YFIT = b(1) + b(2)*X1FIT + b(3)*X2FIT + b(4)*X1FIT.*X2FIT; mesh(X1FIT,X2FIT,YFIT) xlabel('Weight') ylabel('Horsepower') zlabel('MPG') view(50,10) hold off

Cargue el conjunto de datos.examgrades

load examgrades

Utilice las últimas puntuaciones de examen como datos de respuesta y las dos primeras puntuaciones de examen como Datos predictores.

y = grades(:,5); X = [ones(size(grades(:,1))) grades(:,1:2)];

Realice una regresión lineal múltiple con Alpha = 0,01.

[~,~,r,rint] = regress(y,X,0.01);

Diagnostique los valores atípicos encontrando los intervalos residuales que no contengan 0.rint

contain0 = (rint(:,1)<0 & rint(:,2)>0); idx = find(contain0==false)
idx = 2×1

    53
    54

Observaciones y son posibles valores atípicos.5354

Cree un gráfico de dispersión de los residuos. Rellene los puntos correspondientes a los valores atípicos.

hold on scatter(y,r) scatter(y(idx),r(idx),'b','filled') xlabel("Last Exam Grades") ylabel("Residuals") hold off

Cargue el conjunto de datos.hald Utilice como variable de respuesta y como Datos predictores.heatingredients

load hald y = heat; X1 = ingredients; x1 = ones(size(X1,1),1); X = [x1 X1];    % Includes column of ones

Realice la regresión lineal múltiple y genere las estadísticas del modelo.

[~,~,~,~,stats] = regress(y,X)
stats = 1×4

    0.9824  111.4792    0.0000    5.9830

Porque el

<math display="block">
<mrow>
<msup>
<mrow>
<mi>R</mi>
</mrow>
<mrow>
<mn>2</mn>
</mrow>
</msup>
</mrow>
</math>
valor de está cerca de 1, y el valor de es menor que el nivel de significancia predeterminado de 0,05, existe una relación de regresión lineal significativa entre la respuesta y las variables predictoras en.0.9824p-0.0000yX

Argumentos de entrada

contraer todo

Datos de respuesta, especificados como un vector numérico de-por-1.n Filas de corresponden a diferentes observaciones. debe tener el mismo número de filas que.yyX

Tipos de datos: single | double

Datos predictores, especificados como una matriz numérica.np Las filas corresponden a las observaciones y las columnas corresponden a las variables predictoras. debe tener el mismo número de filas que.XXy

Tipos de datos: single | double

Nivel de significancia, especificado como un escalar positivo. debe estar entre 0 y 1.alpha

Tipos de datos: single | double

Argumentos de salida

contraer todo

Estimaciones de coeficiente para la regresión lineal múltiple, devueltas como un vector numérico. es un vector de-por-1, donde está el número de predictores en.bppX Si las columnas de son linealmente dependientes, establece el número máximo de elementos de cero.Xregressb

Tipos de datos: double

Límites de confianza inferiores y superiores para las estimaciones de coeficiente, devueltas como una matriz numérica. es una matriz de-por-2, donde está el número de predictores en.bintppX La primera columna contiene límites de confianza inferiores para cada una de las estimaciones de coeficiente; la segunda columna contiene límites de confianza superiores.bint Si las columnas de son linealmente dependientes, devuelve ceros en los elementos de correspondiente a los cero elementos de.Xregressbintb

Tipos de datos: double

Valores residuales, devueltos como un vector numérico. es un vector de-por-1, donde está el número de predictores en.rppX

Tipos de datos: single | double

Intervalos para diagnosticar valores atípicos, devueltos como una matriz numérica. es una matriz de-por-2, donde está el número de predictores en.rintppX Si el intervalo de observación no contiene cero, el residuo correspondiente es mayor de lo esperado en% de las nuevas observaciones, sugiriendo un valor atípico.rint(i,:)i100*(1-alpha) Para obtener más información, consulte.Algoritmos

Tipos de datos: single | double

Estadísticas del modelo, devueltas como un vector numérico incluyendo el R2 Estadística, el-estadístico y su-Value, y una estimación de la varianza del error.Fp

  • debe incluir una columna de unos para que el modelo contenga un término constante.X La-estadística y su-Value se calculan bajo esta suposición y no son correctas para los modelos sin una constante.Fp

  • La-estadística es la estadística de prueba de la prueba en el modelo de regresión.FF La prueba busca una relación de regresión lineal significativa entre la variable de respuesta y las variables predictoras.F

  • el R2 estadística puede ser negativa para los modelos sin una constante, lo que indica que el modelo no es adecuado para los datos.

Tipos de datos: single | double

Sugerencias

  • trata valores en o como valores faltantes. omite las observaciones con valores faltantes del ajuste de regresión.regressNaNXyregress

Algoritmos

contraer todo

Intervalos residuales

En un modelo lineal, los valores observados de y sus residuos son variables aleatorias.y Los residuos tienen distribuciones normales con media cero pero con varianzas diferentes en valores diferentes de los predictores. Para poner los residuos en una escala comparable, "Studentizes" los residuos.regress Es decir, divide los residuos por una estimación de su desviación estándar que es independiente de su valor.regress Los residuos con studentized tienen distribuciones con grados de libertad conocidos.t Los intervalos devueltos son los turnos de los intervalos de confianza% de estas distribuciones, centrados en los residuales.rint100*(1-alpha)t

Funcionalidad alternativa

es útil cuando simplemente necesita los argumentos de salida de la función y cuando desea repetir el ajuste de un modelo varias veces en un bucle.regress Si necesita investigar un modelo de regresión ajustada aún más, cree un objeto de modelo de regresión lineal mediante o.LinearModelfitlmstepwiselm Un objeto proporciona más características queLinearModel regress.

  • Utilice las propiedades de para investigar un modelo de regresión lineal ajustada.LinearModel Las propiedades del objeto incluyen información sobre estimaciones de coeficiente, estadísticas de Resumen, método de adaptación y datos de entrada.

  • Utilice las funciones de objeto para predecir las respuestas y modificar, evaluar y visualizar el modelo de regresión lineal.LinearModel

  • A diferencia de, la función no requiere una columna de los datos de entrada.regressfitlm Un modelo creado por siempre incluye un término de intercepción a menos que especifique no incluirlo mediante el argumento de par nombre-valor.fitlm'Intercept'

  • Puede encontrar la información en la salida de uso de las propiedades y funciones de objeto de.regressLinearModel

    Salida deregressValores equivalentes enLinearModel
    bConsulte la columna de la propiedad.EstimateCoefficients
    bintUtilice el coefCI Función.
    rConsulte la columna de la propiedad.RawResiduos
    rintNo soportado. En su lugar, utilice los residuales (propiedad) y los diagnósticos de observación (propiedad) para buscar valores atípicos.ResiduosDiagnostics
    statsConsulte la visualización del modelo en la ventana de comandos. Puede encontrar las estadísticas en las propiedades del modelo (y) y mediante la función.MSERsquaredanova

Referencias

[1] Chatterjee, S., and A. S. Hadi. “Influential Observations, High Leverage Points, and Outliers in Linear Regression.” Statistical Science. Vol. 1, 1986, pp. 379–416.

Introducido antes de R2006a