Aproximación de funciones con análisis de regresión

Esta calculadora en línea utiliza varios modelos de regresión simples para la aproximación de una función desconocida dada por el conjunto de puntos de datos.

El problema de aproximación de funciones nos pide que seleccionemos una función entre una clase bien definida que coincida estrechamente ("se aproxime") a una función objetivo.

Esta calculadora utiliza los datos proporcionados de la tabla de función de destino en forma de puntos {x, f (x)} para construir varios modelos de regresión, a saber, regresión lineal, regresión cuadrática, regresión cúbica, regresión de potencia, regresión logarítmica, regresión hiperbólica, regresión ab-exponencial, regresión exponencial. Los resultados pueden compararse utilizando el coeficiente de correlación, el coeficiente de determinación, el error relativo promedio (error estándar de la regresión) y visualmente, en el gráfico. La teoría y las fórmulas están debajo de la calculadora, como de costumbre.

PLANETCALC, Aproximación de funciones con análisis de regresión

Aproximación de funciones con análisis de regresión

Dígitos después del punto decimal: 4
Regresión lineal
 
Coeficiente de correlación lineal
 
Coeficiente de determinación
 
Error relativo promedio,%
 
Regresión cuadrática
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo promedio, %
 
Regresión cúbica
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo promedio, %
 
Regresión de potencia
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo promedio, %
 
ab-Regresión exponencial
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo promedio, %
 
Regresión logarítmica
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo promedio, %
 
Regresión hiperbólica
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo promedio, %
 
Regresión exponencial
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo promedio, %
 
Resultados

Regresión lineal

Ecuación:
\widehat{y}=ax+b

Coeficiente a
a&=\frac{\sum x_i \sum y_i- n\sum x_iy_i}{\left(\sum x_i\right)^2-n\sum x_i^2}

Coeficiente b
b&=\frac{\sum x_i \sum x_iy_i-\sum x_i^2\sum y_i}{\left(\sum x_i\right)^2-n\sum x_i^2}

Coeficiente de correlación lineal
r_{xy}&=\frac{n\sum x_iy_i-\sum x_i\sum y_i}{\sqrt{\left(n\sum x_i^2-\left(\sum x_i\right)^2\right)\!\!\left(n\sum y_i^2-\left(\sum y_i\right)^2 \right)}}

Coeficiente de determinación
R^2=r_{xy}^2

Error estándar de la regresión
\overline{A}=\dfrac{1}{n}\sum\left|\dfrac{y_i-\widehat{y}_i}{y_i}\right|\cdot100\%Regresión cuadrática
Ecuación:
\widehat{y}=ax^2+bx+c

Sistema de ecuaciones para hallar a, b y c.
\begin{cases}a\sum x_i^2+b\sum x_i+nc=\sum y_i\,,\\[2pt] a\sum x_i^3+b\sum x_i^2+c\sum x_i=\sum x_iy_i\,,\\[2pt] a\sum x_i^4+b\sum x_i^3+c\sum x_i^2=\sum x_i^2y_i\,;\end{cases}

Coeficiente de correlación
R= \sqrt{1-\frac{\sum(y_i-\widehat{y}_i)^2}{\sum(y_i-\overline{y})^2}},
dónde
\overline{y}= \dfrac{1}{n}\sum y_i

Coeficiente de determinación
R^2

Error estándar de la regresión
\overline{A}=\dfrac{1}{n}\sum\left|\dfrac{y_i-\widehat{y}_i}{y_i}\right|\cdot100\%

Regresión cúbica

Ecuación:
\widehat{y}=ax^3+bx^2+cx+d

Sistema de ecuaciones para hallar a, b, c y d
\begin{cases}a\sum x_i^3+b\sum x_i^2+c\sum x_i+nd=\sum y_i\,,\\[2pt] a\sum x_i^4+b\sum x_i^3+c\sum x_i^2+d\sum x_i=\sum x_iy_i\,,\\[2pt] a\sum x_i^5+b\sum x_i^4+c\sum x_i^3+d\sum x_i^2=\sum x_i^2y_i\,,\\[2pt] a\sum x_i^6+b\sum x_i^5+c\sum x_i^4+d\sum x_i^3=\sum x_i^3y_i\,;\end{cases}

Coeficiente de correlación, coeficiente de determinación, error estándar de la regresión: las mismas fórmulas que en el caso de la regresión cuadrática.

Regresión de potencia

Ecuación:
\widehat{y}=a\cdot x^b

Coeficiente b
b=\dfrac{n\sum(\ln x_i\cdot\ln y_i)-\sum\ln x_i\cdot\sum\ln y_i }{n\sum\ln^2x_i-\left(\sum\ln x_i\right)^2 }

Coeficiente a
a=\exp\!\left(\dfrac{1}{n}\sum\ln y_i-\dfrac{b}{n}\sum\ln x_i\right)

Coeficiente de correlación, coeficiente de determinación, error estándar de la regresión: las mismas fórmulas que las anteriores.

ab-Regresión exponencial

Ecuación:
\widehat{y}=a\cdot b^x

Coeficiente b
b=\exp\dfrac{n\sum x_i\ln y_i-\sum x_i\cdot\sum\ln y_i }{n\sum x_i^2-\left(\sum x_i\right)^2 }

Coeficiente a
a=\exp\!\left(\dfrac{1}{n}\sum\ln y_i-\dfrac{\ln b}{n}\sum x_i\right)

Coeficiente de correlación, coeficiente de determinación, error estándar de la regresión: el mismo.

Regresión hiperbólica

Ecuación:
\widehat{y}=a + \frac{b}{x}

Coeficiente b
b=\dfrac{n\sum\dfrac{y_i}{x_i}-\sum\dfrac{1}{x_i}\sum y_i }{n\sum\dfrac{1}{x_i^2}-\left(\sum\dfrac{1}{x_i}\right)^2 }

Coeficiente a
a=\dfrac{1}{n}\sum y_i-\dfrac{b}{n}\sum\dfrac{1}{x_i}

Coeficiente de correlación, coeficiente de determinación, error estándar de la regresión, el mismo que el anterior.

Regresión logarítmica

Ecuación:
\widehat{y}=a + b\ln x

Coeficiente b
b=\dfrac{n\sum(y_i\ln x_i)-\sum\ln x_i\cdot \sum y_i }{n\sum\ln^2x_i-\left(\sum\ln x_i\right)^2 }

Coeficiente a
a=\dfrac{1}{n}\sum y_i-\dfrac{b}{n}\sum\ln x_i

Coeficiente de correlación, coeficiente de determinación, error estándar de la regresión, el mismo que el anterior.

Regresión exponencial

Ecuación:
\widehat{y}=e^{a+bx}

Coeficiente b
b=\dfrac{n\sum x_i\ln y_i-\sum x_i\cdot\sum\ln y_i }{n\sum x_i^2-\left(\sum x_i\right)^2 }

Coeficiente a
a=\dfrac{1}{n}\sum\ln y_i-\dfrac{b}{n}\sum x_i

Coeficiente de correlación, coeficiente de determinación, error estándar de la regresión, el mismo que el anterior.

Derivación de fórmulas

Empecemos por el problema:
Tenemos una función desconocida y=f(x), dada en forma de datos de tabla (por ejemplo, los datos obtenidos de experimentos).
Necesitamos encontrar una función con el tipo conocido (lineal, cuadrático, etc.) y=F(x), esos valores deben estar lo más cerca posible de los valores de la tabla en los mismos puntos. En la práctica, el tipo de función se determina comparando visualmente los puntos de la tabla con gráficos de funciones conocidas.

Como resultado, debemos obtener una fórmula y=F(x), llamada fórmula empírica (ecuación de regresión, aproximación de función), que permite calcular y para las x no presentes en la tabla. Así, la fórmula empírica "suaviza" los valores de y.

Usamos el Método de Mínimos Cuadrados para obtener los parámetros de F para un mejor ajuste. El mejor ajuste en el sentido del método de mínimos cuadrados minimiza la suma de los residuos cuadrados, siendo un residuo la diferencia entre un valor observado y el valor ajustado proporcionado por un modelo.

Por lo tanto, necesitamos encontrar la función F, como la suma de los residuos cuadrados S será mínima
S=\sum\limits_i(y_i-F(x_i))^2\rightarrow min

Describamos la solución para este problema utilizando la regresión lineal F=ax+b como ejemplo.
Tenemos que encontrar el mejor ajuste para los coeficientes a y b, por lo tanto S es función de a y b. Para encontrar el mínimo, encontraremos puntos extremos, donde las derivadas parciales son iguales a cero.

Usando la fórmula para la derivada de función compleja, obtendremos las siguientes ecuaciones
\begin{cases} \sum [y_i - F(x_i, a, b)]\cdot F^\prime_a(x_i, a, b)=0 \\ \sum [y_i - F(x_i, a, b)]\cdot F^\prime_b(x_i, a, b)=0 \end{cases}

Para la función F(x,a,b)=ax+b, las derivadas parciales son
F^\prime_a=x,
F^\prime_b=1

Expandiendo las primeras fórmulas con derivadas parciales, obtendremos las siguientes ecuaciones
\begin{cases} \sum (y_i - ax_i-b)\cdot x_i=0 \\ \sum (y_i - ax_i-b)=0 \end{cases}

Después de quitar los soportes, obtendremos lo siguiente
\begin{cases} \sum y_ix_i - a \sum x_i^2-b\sum x_i=0 \\ \sum y_i - a\sum x_i - nb=0 \end{cases}

De estas ecuaciones podemos obtener fórmulas para a y b, que serán las mismas que las enumeradas anteriormente.

Usando la misma técnica podemos obtener fórmulas para todas las regresiones restantes.
 

Comentarios