Los criterios de convergencia por sí solos no bastan para evaluar el resultado del ajuste de curva no lineal. Por lo tanto, se dispone de una serie de parámetros estadísticos para determinar la bondad del ajuste (Goodness-of-Fit).
Parámetro |
Se calcula con |
Nota |
|---|---|---|
Valores estimados / Los datos modelados |
Los valores estimados se obtienen calculando el modelo de regresión seleccionado con los parámetros p estimados. |
|
Residuos |
Los residuos son la diferencia vertical entre los valores reales de los datos y los valores estimados respectivos. Si el valor es positivo, el punto correspondiente está por encima de la curva estimada. Si el valor es 0, el punto se encuentra en la curva. |
|
Residuo medio |
Es el valor medio de los residuos. |
|
Suma de los residuos |
La suma puede ser 0 a pesar de muchos residuos positivos y negativos. |
|
Suma absoluta de cuadrados de los residuos |
|
|
Suma relativa de cuadrados de los residuos |
con |
Esta función suele denominarse como función χ2 y es una medida de la calidad del ajuste. |
Suma de cuadrados de la regresión |
|
|
Suma de cuadrados total |
SST = SSE + SSR |
|
Varianza del error |
|
|
Coeficiente de determinación R2 |
R2 = 1,0 significa que la curva pasa por todos los puntos de datos. Con un valor X conocido, se puede determinar exactamente el valor Y correspondiente. R2 = 0,0 significa que el modelo de regresión no describe los datos mejor que una línea horizontal que pasa por el valor medio de los datos. Los valores X conocidos no ayudan a calcular el valor Y correspondiente.
Analizar únicamente el valor R2 no es suficiente para interpretar un modelo. El mejor ajuste de curva resulta inútil si los parámetros específicos carecen de sentido físico o si el intervalo de confianza es demasiado amplio.
|
|
Coeficiente de determinación ajustado Ra2 |
Este coeficiente puede utilizarse para sopesar si merece la pena aumentar el número de parámetros para conseguir un R2 mayor. |
|
Matriz de covarianza |
|
|
Matriz de correlación |
Si los errores típicos son grandes y los intervalos de confianza amplios, es necesario realizar investigaciones adicionales. Una causa puede ser la redundancia en el modelo seleccionado, es decir, que varios parámetros del modelo se correlacionen entre sí. La matriz de correlaciones ayuda en este caso. En el caso de parámetros completamente no correlacionados, un empeoramiento en el ajuste de curva causado por un cambio en un parámetro no puede compensarse ajustando otro parámetro. Esto es posible con parámetros totalmente correlacionados. Al mismo tiempo, esto significa que los parámetros no pueden determinarse con claridad. Ejemplo: y = P0 * P1 * x |
|
Intervalo de confianza |
Los resultados son del 95 %, 99 % y 99,9 %. |
|
Banda de predicción |
Los resultados son del 95 %, 99 % y 99,9 %. |
|
Rango de confianza de los parámetros |
es el intervalo de confianza del 100(1-alpha)% para un parámetro |
No es correcto decir que con un intervalo de confianza del 90 %, la probabilidad de que un parámetro se encuentre dentro del intervalo es del 90 %. Esto solo ocurriría si se dispusiera de un número infinito de puntos de datos. En otras palabras, si un experimento se repite un número infinito de veces, el 90 % de los intervalos de confianza contienen el parámetro respectivo. Los resultados son del 95 %, 99 % y 99,9 %. |
Error estándar de los parámetros |
|
La bondad del ajuste (Goodness-of-Fit)
•Establecer los criterios de convergencia para la regresión no lineal:
Después de cada paso de iteración, debe comprobarse la función de mínimos cuadrados (función χ²). Los nuevos parámetros determinados se comparan con el mejor resultado anterior. Si el nuevo parámetro calculado es mejor, se guarda.
•Examinar el diagrama de dispersión de los residuos:
Los residuos deben distribuirse aleatoriamente en torno a 0 y no mostrar patrones reconocibles. Si los residuos aumentan o disminuyen, por ejemplo, con el tiempo, es señal de que es mejor otro modelo o de que es necesario ponderarlos.
•Ver la curva del modelo de regresión:
Los valores de los datos deben distribuirse aleatoriamente por encima y por debajo de la curva.
•Compruebe hasta qué punto el modelo seleccionado describe los datos:
οComprobar R2:
R2 = 1,0 significa que la curva pasa por todos los puntos de datos.
R2 = 0,0 significa que el modelo de regresión no describe los datos mejor que una línea horizontal que pasa por el valor medio de los datos.
•Suma de cuadrados de las desviaciones:
Un ajuste ideal de curva proporciona el resultado 0.
•El error éstandar de los estimadores es la desviación típica de las diferencias entre los datos introducidos y el modelo ajustado. De este modo, se puede saber cómo se distribuyen los residuos en torno al valor medio. Un ajuste ideal de curva proporcionaría el valor 0.
•Compruebe si los valores calculados tienen sentido, es decir, que no contradigan, por ejemplo, ninguna ley física.
•Examine el intervalo de confianza.
Si el intervalo de confianza es muy amplio, el ajuste de curva no es concluyente. Otros valores podrían conducir a un resultado similar.
•Es posible que se haya encontrado el mínimo incorrecto. Este es el caso si se trata de un mínimo local, pero no del mínimo global. Por lo tanto, es importante encontrar buenos valores iniciales para el modelo seleccionado.
Varias pruebas con diferentes valores iniciales aumentan la seguridad de que los resultados son correctos.
Bibliografía
•P.R. Bevington, D.K. Robinson. Data Reduction and Error Analysis for the Physical Sciences, 3rd Ed., McGraw-Hill, New York, 2003.
•J. Hartung. Statistik. Lehr- und Handbuch der angewandten Statistik. 9. Auflage. Editorial Oldenbourg, 1993.
•Harvey Motulsky, Arthur Christopoulos. Fitting Models to Biological Data Using Linear and Nonlinear Regression: A Practical Guide to Curve Fitting. Oxford University Press, 2004.
Véase también
Objeto de análisis Ajuste de curva no lineal