Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

¿Qué es un modelo de regresión lineal?

Un modelo de regresión lineal describe la relación entre a, y uno o más,.dependent variableyindependent variablesX La variable dependiente también se llama el.response variable Las variables independientes también se denominan o.explanatorypredictor variables También se denominan variables predictoras continuas, y también se llama a las variables predictoras categóricas.covariatesFactores La matriz de observaciones en las variables predictoras se suele denomine.Xdesign matrix

Un modelo de regresión lineal múltiple es

yi=β0+β1Xi1+β2Xi2++βpXip+εi,i=1,,n,

Dónde

  • yi es la respuesta TH.i

  • βk es el coeficiente TH, dondekβ0 es el término constante en el modelo. A veces, las matrices de diseño pueden incluir información sobre el término constante. Sin embargo, o de forma predeterminada incluye un término constante en el modelo, por lo que no debe introducir una columna de 1s en la matriz de diseño.fitlmstepwiselmX

  • Xij es la observación TH en la variable predictora TH, = 1,...,.ijjp

  • Εi es el término de ruido TH, es decir, error aleatorio.i

Si un modelo incluye solo una variable predictora (p = 1), el modelo se denomina modelo de regresión lineal simple.

En general, un modelo de regresión lineal puede ser un modelo del formulario

yi=β0+k=1Kβkfk(Xi1,Xi2,,Xip)+εi,i=1,,n,

donde (.) es una función de valor escalar de las variables independientes,fXijs. Las funciones, (), pueden estar en cualquier forma, incluidas las funciones no lineales o polinomios.fX La linealidad, en los modelos de regresión lineal, se refiere a la linealidad de los coeficientesβk. Es decir, la variable de respuesta, es una función lineal de los coeficientes,yβk.

Algunos ejemplos de modelos lineales son:

yi=β0+β1X1i+β2X2i+β3X3i+εiyi=β0+β1X1i+β2X2i+β3X1i3+β4X2i2+εiyi=β0+β1X1i+β2X2i+β3X1iX2i+β4logX3i+εi

Los siguientes, sin embargo, no son modelos lineales ya que no son lineales en los coeficientes desconocidos,βk.

logyi=β0+β1X1i+β2X2i+εiyi=β0+β1X1i+1β2X2i+eβ3X1iX2i+εi

Los supuestos habituales para los modelos de regresión lineal son:

  • Los términos de ruido, Εi, no están correlacionados.

  • Los términos de ruido,εi, tienen distribuciones normales independientes e idénticas con media cero y varianza constante, σ2. Así

    E(yi)=E(k=0Kβkfk(Xi1,Xi2,,Xip)+εi)=k=0Kβkfk(Xi1,Xi2,,Xip)+E(εi)=k=0Kβkfk(Xi1,Xi2,,Xip)

    Y

    V(yi)=V(k=0Kβkfk(Xi1,Xi2,,Xip)+εi)=V(εi)=σ2

    Así que la varianza deyi es el mismo para todos los niveles deXij.

  • Las respuestasyi no están correlacionados.

La función lineal ajustada es

y^i=k=0Kbkfk(Xi1,Xi2,,Xip),i=1,,n,

Dónde y^i es la respuesta estimada y Bks son los coeficientes ajustados. Los coeficientes se estiman para minimizar la diferencia cuadrada media entre el vector de predicción y^ y el vector de respuesta real yEs decir y^y. Este método se llama el.method of least squares Bajo las suposiciones sobre los términos de ruido, estos coeficientes también maximizan la probabilidad del vector de predicción.

En un modelo de regresión lineal de la forma =yβ1X1 + β2X2 + ... +βpXp, el coeficienteβk expresa el impacto de un cambio de una unidad en la variable predictora, Xj, en la media de la respuesta E (), siempre que todas las demás variables se mantienen constantes.y El signo del coeficiente da la dirección del efecto. Por ejemplo, si el modelo lineal es E () = 1,8 – 2,35yX1 +X2, entonces – 2,35 indica una disminución de 2,35 unidad en la respuesta media con un aumento de una unidad enX1DadoX2 se mantiene constante. Si el modelo es E () = 1,1 + 1,5yX12 +X2, el coeficiente deX12 indica un aumento de 1,5 unidades en la media de con un aumento de una unidad enYX12 dado todo lo demás mantenido constante. Sin embargo, en el caso de E () = 1,1 + 2,1yX1 + 1,5X12, es difícil interpretar los coeficientes de manera similar, ya que no es posible sostenerX1 constante cuandoX12 cambios o viceversa.

Referencias

[1] Neter, J., M. H. Kutner, C. J. Nachtsheim, and W. Wasserman. Applied Linear Statistical Models. IRWIN, The McGraw-Hill Companies, Inc., 1996.

[2] Seber, G. A. F. Linear Regression Analysis. Wiley Series in Probability and Mathematical Statistics. John Wiley and Sons, Inc., 1977.

Consulte también

| |

Temas relacionados