Ajuste de curvas mediante métodos de mínimos cuadrados lineales sin restricciones y con restricciones

Esta calculadora en línea construye un modelo de regresión para ajustar una curva utilizando el método de mínimos cuadrados lineales. Si se introducen restricciones adicionales en la función de aproximación, la calculadora utiliza multiplicadores de Lagrange para encontrar las soluciones.

La calculadora que se muestra a continuación utiliza el método de mínimos cuadrados lineales para el ajuste de curvas, es decir, para aproximar una función de una variable utilizando el análisis de regresión, al igual que la calculadora Aproximación de funciones con análisis de regresión. Pero, a diferencia de la calculadora anterior, esta puede encontrar una función de aproximación si está restringida adicionalmente por puntos particulares, lo que significa que la curva de ajuste calculada debe pasar por estos puntos particulares.

Los multiplicadores de Lagrange se utilizan para encontrar una curva de ajuste en caso de restricciones. Esto plantea algunas limitaciones al modelo de regresión utilizado, a saber, solo pueden utilizarse modelos de regresión lineal. Por eso, a diferencia de la calculadora mencionada anteriormente, esta no incluye regresiones de potencia y exponenciales. Sin embargo, incluye regresiones polinómicas de 4º y 5º orden. Las fórmulas y un breve resumen de la teoría se encuentran debajo de la calculadora, como siempre.

Tenga en cuenta que si el campo de valores de x se deja vacío, la calculadora asume que x cambia partiendo de cero con un incremento de +1.

PLANETCALC, Ajuste de curvas mediante métodos de mínimos cuadrados lineales restringidos y no restringidos

Ajuste de curvas mediante métodos de mínimos cuadrados lineales restringidos y no restringidos

La función debe pasar por determinados puntos

Articulos por pagina:

Dígitos después del punto decimal: 4
Regresión cuadrática
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo medio, en %
 
Regresión cúbica
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo medio, en %
 
Regresión polinómica de 4º orden
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo medio, en %
 
Regresión polinómica de 5° orden
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo medio, en %
 
Regresión lineal
 
Coeficiente de correlación lineal
 
Coeficiente de determinación
 
Error relativo medio, en %
 
Regresión logarítmica
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo medio, en %
 
Regresión hiperbólica
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo medio, en %
 
Regresión polinómica de 6° orden
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo medio, en %
 
Regresión polinómica de 7° orden
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo medio, en %
 
Regresión polinómica de 8° orden
 
Coeficiente de correlación
 
Coeficiente de determinación
 
Error relativo medio, en %
 
Resultados
El archivo es muy grande; La ralentización del navegador puede ocurrir durante la carga y creación.

Mínimos cuadrados lineales (LLS)

Los mínimos cuadrados lineales (LLS) son la aproximación por mínimos cuadrados de funciones lineales a los datos. Y el método de mínimos cuadrados es un enfoque estándar en el análisis de regresión para aproximar la solución de sistemas sobredeterminados (conjuntos de ecuaciones en los que hay más ecuaciones que incógnitas) minimizando la suma de los cuadrados de los restos realizados en los resultados de cada ecuación.

Puede encontrar más información, incluyendo fórmulas, sobre la aproximación por mínimos cuadrados en la Aproximación de funciones con análisis de regresión.

Aquí vamos a demostrar con los modelos de regresión lineal que la función de aproximación es la combinación lineal de los parámetros que necesita ser determinada. Los valores determinados, por supuesto, deben minimizar la suma de los cuadrados de los restos.

Supongamos que tenemos un conjunto de puntos de datos $(x_1,y_1), ..., (x_m,y_m)$.

Nuestra función de aproximación es la combinación lineal de los parámetros a determinar, por ejemplo
y(x;a_1,a_2,a_3,a_4,a_5,a_6)=a_1+a_2x+a_3 \cdot ln(x) + ... + a_6x^{10}

Podemos utilizar una notación matricial para expresar los valores de esta función

\begin{bmatrix} \hat{y}_1 \\ ... \\ \hat{y}_m \end{bmatrix} = \begin{bmatrix} 1 & x_1 & ln(x_1) & ... & x_{1}^{10} \\ ... & ... & ... & ... & ... \\ 1 & x_m & ln(x_m) & ... & x_{m}^{10} \end{bmatrix} \begin{bmatrix} a_1 \\ ... \\ a_6 \end{bmatrix}

O, en notación corta:

\mathbf{\hat{y}=Xa}

Como estamos utilizando la aproximación por mínimos cuadrados, debemos minimizar la siguiente función

f(\mathbf{a})=\sum_{i=1}^m[\hat{y}(x_i;\mathbf{a})-y_i]^2,

o, en forma matricial

f(\mathbf{a})=|\mathbf{Xa-y}|^2

Este valor es la distancia entre el vector y y el vector Xa. Para minimizar esta distancia, Xa debe ser la proyección al espacio de columnas X, y el vector Xa-y debe ser ortogonal a ese espacio.

Esto es posible entonces
(X\mathbf{v})^T(X{\mathbf{a}}-\mathbf{y})=\mathbf{v}^T(X^TX{\mathbf{a}}-X^T\mathbf{y})=0,

donde v es un vector aleatorio en el espacio de columnas. Como es aleatorio, la única forma de satisfacer la condición anterior es tener

X^TX{\mathbf{a}}-X^T\mathbf{y}=0,

o

X^TX{\mathbf{a}}=X^T\mathbf{y},

por lo que

\mathbf{a}=(X^TX)^{-1}X^T\mathbf{y}

La calculadora utiliza la fórmula anterior en el caso del método de mínimos cuadrados lineales sin restricciones.

Multiplicadores de Lagrange

Ahora hablemos de las restricciones. Estas pueden ser:
– el ajuste de la curva debe pasar por determinados puntos (esto lo soporta la calculadora)
– la pendiente de la curva en determinados puntos debe ser igual a determinados valores.

Por lo tanto, tenemos que encontrar la función de aproximación, que, de un lado, debe minimizar la suma de los cuadrados,

f(\mathbf{a})=|\mathbf{Xa-y}|^2

y del otro lado, debe satisfacer las condiciones

\begin{bmatrix} y_{c_1} \\ ... \\ y_{c_k} \end{bmatrix} = \begin{bmatrix} 1 & x_{c_1} & ln(x_{c_1}) & ... & x_{c_1}^{10} \\ ... & ... & ... & ... & ... \\ 1 & x_{c_k} & ln(x_{c_k}) & ... & x_{c_k}^{10} \end{bmatrix} \begin{bmatrix} a_1 \\ ... \\ a_6 \end{bmatrix}

o, en forma de matriz,

\mathbf{b = Ca}

Esto se llama el extremo condicional y se resuelve construyendo la F(a,\lambda) Lagrangiana usando multiplicadores de Lagrange.

F(a, \lambda)=f(a)+\lambda\varphi(a)

En nuestro caso, la fórmula lagrangiana es

F(a, \lambda)=|\mathbf{Xa-y}|^2+\lambda  (\mathbf{Ca - b})

y la tarea es encontrar su extremo. Después de algunas derivaciones, que no he enumerado aquí, la fórmula para encontrar los parámetros es

\begin{bmatrix} a \\ \lambda \end{bmatrix} = \begin{bmatrix} 2X^TX & C^T \\ C & 0 \end{bmatrix}^{-1} \begin{bmatrix} 2X^Ty \\ b \end{bmatrix}

La calculadora utiliza la fórmula anterior en el caso del método de mínimos cuadrados lineales restringidos.

URL copiada al portapapeles
PLANETCALC, Ajuste de curvas mediante métodos de mínimos cuadrados lineales sin restricciones y con restricciones

Comentarios