Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.
Regresión no lineal
devuelve un vector de coeficientes estimados para la regresión no lineal de las respuestas en los predictores en el uso del modelo especificado por .beta
= nlinfit(X
,Y
,modelfun
,beta0
)Y
X
modelfun
Los coeficientes se estiman utilizando la estimación iterativa de mínimos cuadrados, con los valores iniciales especificados por .beta0
utiliza opciones adicionales especificadas por uno o más argumentos de par nombre-valor. Por ejemplo, puede especificar ponderaciones de observación o un modelo de error no constante. Puede utilizar cualquiera de los argumentos de entrada de las sintaxis anteriores.beta
= nlinfit(___,Name,Value
)
[
además devuelve los residuos, , el jacobiano de , , la matriz de varianza-covarianza estimada para los coeficientes estimados, , una estimación de la varianza del término de error, , y una estructura que contiene detalles sobre el modelo de error, .beta
,R
,J
,CovB
,MSE
,ErrorModelInfo
]
= nlinfit(___)R
modelfun
J
CovB
MSE
ErrorModelInfo
Para generar estimaciones de errores en las predicciones, utilice los argumentos de salida opcionales , , , o como entradas en .R
J
CovB
MSE
nlpredci
Para generar estimaciones de errores en los coeficientes estimados, , utilice los argumentos de salida opcionales , , , o como entradas en .beta
R
J
CovB
MSE
nlparci
Si utiliza la opción de ajuste robusto, debe utilizar —y podría necesitar— como entradas o para asegurarse de que los intervalos de confianza tienen en cuenta correctamente el ajuste robusto.RobustWgtFun
CovB
MSE
nlpredci
nlparci
trata los valores en o como datos que faltan, e ignora las observaciones correspondientes.nlinfit
NaN
Y
modelfun(beta0,X)
Para la estimación no robusta, utiliza el algoritmo levenberg-Marquardt de mínimos cuadrados no lineales.nlinfit
[1]
Para una estimación robusta, utiliza un algoritmo iterativo de mínimos cuadrados reponderados ( , ).nlinfit
[2][3] En cada iteración, las ponderaciones robustas se vuelven a calcular en función del residuo de cada observación de la iteración anterior. Estos pesos ponderan los valores atípicos, de modo que su influencia en el ajuste se reduce. Las iteraciones continúan hasta que convergen las ponderaciones.
Cuando se especifica un identificador de función para las ponderaciones de observación, las ponderaciones dependen del modelo ajustado. En este caso, utiliza un algoritmo iterativo de mínimos cuadrados generalizados para ajustarse al modelo de regresión no lineal.nlinfit
[1] Seber, G. A. F., and C. J. Wild. Nonlinear Regression. Hoboken, NJ: Wiley-Interscience, 2003.
[2] DuMouchel, W. H., and F. L. O'Brien. “Integrating a Robust Option into a Multiple Regression Computing Environment.” Computer Science and Statistics: Proceedings of the 21st Symposium on the Interface. Alexandria, VA: American Statistical Association, 1989.
[3] Holland, P. W., and R. E. Welsch. “Robust Regression Using Iteratively Reweighted Least-Squares.” Communications in Statistics: Theory and Methods, A6, 1977, pp. 813–827.