jueves, 25 de mayo de 2023

Aplicaciones

 Las ecuaciones diferenciales son una herramienta matemática fundamental en diversos campos científicos y de ingeniería. Su solución tiene muchas aplicaciones prácticas, algunas de las cuales incluyen:

  • ·         Ciencias físicas: Las ecuaciones diferenciales son fundamentales para describir fenómenos físicos en campos como la mecánica clásica, la termodinámica, la electromagnetismo y la mecánica cuántica. Permiten modelar y predecir el comportamiento de sistemas físicos, como el movimiento de los planetas, la propagación de ondas electromagnéticas o la evolución de partículas subatómicas.
  • ·         Ingeniería: Las ecuaciones diferenciales son ampliamente utilizadas en la ingeniería para diseñar y analizar sistemas y procesos. Por ejemplo, en la ingeniería eléctrica se emplean para estudiar circuitos eléctricos y sistemas de control. En la ingeniería mecánica, son fundamentales para describir el movimiento y las fuerzas en máquinas y estructuras. También se utilizan en la ingeniería química para modelar reacciones químicas y procesos de transferencia de calor.
  • ·         Ciencias de la vida: En biología y medicina, las ecuaciones diferenciales se aplican para comprender y predecir el comportamiento de sistemas biológicos y procesos fisiológicos. Por ejemplo, pueden utilizarse para estudiar la propagación de enfermedades infecciosas, el crecimiento de poblaciones biológicas, la dinámica de redes metabólicas o el comportamiento de sistemas neuronales.
  • ·         Economía y finanzas: Las ecuaciones diferenciales también tienen aplicaciones en el campo de la economía y las finanzas. Se utilizan para modelar el crecimiento económico, los mercados financieros, la valoración de activos y la optimización de decisiones financieras.
  • ·         Ciencias ambientales: En el estudio del clima, la ecología y otras ciencias ambientales, las ecuaciones diferenciales se emplean para modelar la dinámica de sistemas complejos. Por ejemplo, se utilizan para predecir el cambio climático, el flujo de contaminantes en cuerpos de agua o la propagación de especies invasoras.

Estas son solo algunas de las numerosas aplicaciones de la solución de ecuaciones diferenciales. En resumen, las ecuaciones diferenciales son una herramienta poderosa y versátil para describir y comprender una amplia gama de fenómenos en diferentes disciplinas científicas y de ingeniería.

sistemas de ecuaciones diferenciales ordinarias métodos numéricos

Los métodos numéricos para ecuaciones diferenciales ordinarias son procedimientos utilizados para encontrar aproximaciones numericas a las soluciones de ecuaciones diferenciales ordinarias (EDO). Su uso también se conoce como integración numérica, aunque este término a veces se toma para significar el cálculo de una integración.


Muchas ecuaciones diferenciales no pueden resolverse usando funciones típicas ("análisis"). Sin embargo, a efectos prácticos, como en ingeniería, una aproximación numérica a la solución suele ser suficiente. Los algoritmos estudiados aquí pueden usarse para calcular tal aproximación. Un método alternativo es utilizar técnicas de cálculo infinitesimal para obtener una expansión en serie de la solución.


Las ecuaciones diferenciales ordinarias se presentan en muchas disciplinas científicas, por ejemplo, en física, química, biología y economía. Además, algunos métodos en ecuaciones diferenciales parciales numéricas convierten una ecuación diferencial parcial en una ecuación diferencial ordinaria, que luego debe resolverse



Métodos de pasos multiples

Los métodos de un paso descritos en las secciones anteriores utilizan información en un solo punto xi para predecir un valor de la variable dependiente yi+1 en un punto futuro xi+1. Procedimientos alternativos, llamados métodos multipaso, se basan en el conocimiento de que una vez empezado el cálculo, se tiene información valiosa de los puntos anteriores y esta a nuestra disposición. La curvatura de las líneas que conectan esos valores previos proporciona información con respecto a la trayectoria de la solución. Los métodos multipaso que exploraremos aprovechan esta información para resolver las EDO. Antes de describir las versiones de orden superior, presentaremos un método simple de segundo orden que sirve para demostrar las características generales de los procedimientos multipaso.


Esto lo podemos demostrar mediante las siguientes graficas.



Métodos de un paso

 Los métodos de un paso tienen por objetivo obtener una aproximación de la solución de un problema bien planteado de valor inicial en cada punto de la malla, basándose en el resultado obtenido para el punto anterior.

Se desarrollan aquí los métodos Taylor (incluyendo Euler), y de Runge Kutta. Para ver el detalle de cada uno de los métodos, hacer click en cada uno de los siguientes vínculos. Para volver a esta página, hacer click en la solapa "métodos de un paso".

¿Cómo decidir qué método aplicar?

Hay dos cuestiones importantes que deben tenerse en cuenta al evaluar un algoritmo:

  • El esfuerzo computacional requerido para ejecutarlo.

  • La precisión que este esfuerzo produce.

Para los algoritmos vistos, el mayor esfuerzo se presenta en la evaluación de f. El algoritmo de Euler hace una evaluación de f por paso y el de RK4 hace cuatro, mientras que los de Taylor, tienen la complicación de evaluar las derivadas de f en cada paso. Por esta razón, y dado que un método de Runge-Kutta de orden m tiene la misma precisión que el método de Taylor de igual orden, es que los métodos de Taylor no se utilizan con fines prácticos.

Por lo dicho anteriormente, el método RK4 requiere cuatro veces más esfuerzo por paso. Este hecho puede resultar engañoso ya que suele obtenerse con pocos pasos de RK4 la misma precisión que con cientos del método de Euler. Por ejemplo, analicemos los resultados obtenidos al aplicar ambos procedimientos en el siguiente PVI:
 

 

La solución exacta de este problema está dada por y = 2 + 2 t + et. El valor aproximado de y(1) obtenido con los métodos de Euler y Runge Kutta y con distintos pasos para cada uno de ellos, arrojó los resultados tabulados en la tabla siguiente:

Se observa en esta tabla que al reducir el tamaño del paso en un factor 10, se reduce el error un factor 10 para el método de Euler, y un factor 10000 para el método de Runge-Kutta de orden 4. Esto es consecuencia del error global de cada método. 

Mínimos cuadrados

Cuando varias personas miden la misma cantidad, generalmente no obtienen los mismos resultados. De hecho, si la misma persona mide la misma cantidad varias veces, los resultados variarán. ¿Cuál es la mejor estimación para la verdadera medición? El método de mínimos cuadrados proporciona una forma de encontrar la mejor estimación, suponiendo que los errores (es decir, las diferencias con respecto al valor verdadero) sean aleatorias e imparciales.

¿Qué son los mínimos cuadrados?

Es un procedimiento de análisis numérico en la que, dados un conjunto de datos (pares ordenados y familia de funciones), se intenta determinar la función continua que mejor se aproxime a los datos (línea de regresión o la línea de mejor ajuste), proporcionando una demostración visual de la relación entre los puntos de los mismos. En su forma más simple, busca minimizar la suma de cuadrados de las diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los correspondientes datos.

Este método se utiliza comúnmente para analizar una serie de datos que se obtengan de algún estudio, con el fin de expresar su comportamiento de manera lineal y así minimizar los errores de la data tomada.

La creación del método de mínimos cuadrados generalmente se le acredita al matemático alemán Carl Friedrich Gauss, quien lo planteó en 1794 pero no lo publicó sino hasta 1809. El matemático francés Andrien-Marie Legendre fue el primero en publicarlo en 1805, este lo desarrolló de forma independiente.

Definición:

Su expresión general se basa en la ecuación de una recta y = mx + b. Donde m es la pendiente y b el punto de corte, y vienen expresadas de la siguiente manera:

El método de mínimos cuadrados calcula a partir de los N pares de datos experimentales (x, y), los valores m y b que mejor ajustan los datos a una recta. Se entiende por el mejor ajuste aquella recta que hace mínimas las distancias d de los puntos medidos a la recta.

Teniendo una serie de datos (x, y), mostrados en un gráfico o gráfica, si al conectar punto a punto no se describe una recta, debemos aplicar el método de mínimos cuadrados, basándonos en su expresión general:

Cuando se haga uso del método de mínimos cuadrados se debe buscar una línea de mejor ajuste que explique la posible relación entre una variable independiente y una variable dependiente. En el análisis de regresión, las variables dependientes se designan en el eje y vertical y las variables independientes se designan en el eje x horizontal. Estas designaciones formarán la ecuación para la línea de mejor ajuste, que se determina a partir del método de mínimos cuadrados.



Correlación lineal

 Correlación lineal



Para estudiar la relación lineal existente entre dos variables continuas es necesario disponer de parámetros que permitan cuantificar dicha relación. Uno de estos parámetros es la covarianza, que indica el grado de variación conjunta de dos variables aleatorias.

La covarianza depende de las escalas en que se miden las variables estudiadas, por lo tanto, no es comparable entre distintos pares de variables. Para poder hacer comparaciones se estandariza la covarianza, generando lo que se conoce como coeficientes de correlación. Existen diferentes tipos, de entre los que destacan el coeficiente de Pearson, Rho de Spearman y Tau de Kendall.


Todos ellos varían entre +1 y -1. Siendo +1 una correlación positiva perfecta y -1 una correlación negativa perfecta.


Se emplean como medida de fuerza de asociación (tamaño del efecto):


0: asociación nula.

0.1: asociación pequeña.

0.3: asociación mediana.

0.5: asociación moderada.

0.7: asociación alta.

0.9: asociación muy alta.

Las principales diferencias entre estos tres coeficientes de asociación son:


La correlación de Pearson funciona bien con variables cuantitativas que tienen una distribución normal. En el libro Handbook of Biological Statatistics se menciona que sigue siendo bastante robusto a pesar de la falta de normalidad. Es más sensible a los valores extremos que las otras dos alternativas.


La correlación de Spearman se emplea cuando los datos son ordinales, de intervalo, o bien cuando no se satisface la condición de normalidad para variables continuas y los datos se pueden transformar a rangos. Es un método no paramétrico.


La correlación de Kendall es otra alternativa no paramétrica para el estudio de la correlación que trabaja con rangos. Se emplea cuando se dispone de pocos datos y muchos de ellos ocupan la misma posición en el rango, es decir, cuando hay muchas ligaduras.


Además del valor obtenido para el coeficiente de correlación, es necesario calcular su significancia. Solo si el p-value es significativo se puede aceptar que existe correlación, y esta será de la magnitud que indique el coeficiente. Por muy cercano que sea el valor del coeficiente de correlación a +1

 o −1

, si no es significativo, se ha de interpretar que la correlación de ambas variables es 0, ya que el valor observado puede deberse a simple aleatoriedad.


El test paramétrico de significancia estadística empleado para el coeficiente de correlación es el t-test. Al igual que ocurre siempre que se trabaja con muestras, por un lado está el parámetro estimado (en este caso el coeficiente de correlación) y por otro su significancia a la hora de considerar la población entera. Si se calcula el coeficiente de correlación entre X

 e Y

 en diferentes muestras de una misma población, el valor va a variar dependiendo de las muestras utilizadas. Por esta razón se tiene que calcular la significancia de la correlación obtenida y su intervalo de confianza.


t=rN−2−−−−−√1−r2−−−−−√,   df=N−2


Para este test de hipótesis, H0

 considera que las variables son independientes (coeficiente de correlación poblacional = 0) mientras que, la Ha

, considera que existe relación (coeficiente de correlación poblacional 

La correlación lineal entre dos variables, además del valor del coeficiente de correlación y de sus significancia, también tiene un tamaño de efecto asociado. Se conoce como coeficiente de determinación R2

. Se interpreta como la cantidad de varianza de Y

 explicada por X

. En el caso del coeficiente de Pearson y el de Spearman, R2

 se obtiene elevando al cuadrado el coeficiente de correlación. En el caso de Kendall no se puede calcular de este modo. (No he encontrado como se calcula).


Mediante bootstrapping también se puede calcular la significancia de un coeficiente de correlación. Es una alternativa no paramétrica al t-test. Resampling: Test de permutación, Simulación de Monte Carlo y Bootstrapping).



Interpolación segmentada

Interpolación segmentada Esta interpolación se llama interpolación segmentaria o interpolación por splines. La idea central es que en vez de usar un solo polinomio para interpolar los datos, podemos usar segmentos de polinomios y unirlos adecuadamente para formar nuestra interpolación. Cabe mencionar que entre todas, las splines cúbicas han resultado ser las más adecuadas para aplicaciones como la mencionada anteriormente. Así pues, podemos decir de manera informal, que una funcion spline está formada por varios polinomios, cada uno definido en un intervalo y que se unen entre si bajo ciertas condiciones de continuidad. Interpolación Segmentaria Lineal Este es el caso más sencillo. En él, vamos a interpolar una función f(x) de la que se nos dan un número N de pares (x,f(x)) por los que tendrá que pasar nuestra función polinómica P(x). 
Esta serie de funciones nuestras van a ser lineales, esto es, con grado 1: de la forma P(x) = ax + b. Definiremos una de estas funciones por cada par de puntos adyacentes, hasta un total de (N-1) funciones, haciéndolas pasar obligatoriamente por los puntos que van a determinarlas, es decir, la función P(x) será el conjunto de segmentos que unen nodos consecutivos; es por ello que nuestra función será continua en dichos puntos, pero no derivable en general. Interpolación Segmentaria Cuadrática En este caso, los polinomios P(x) a través de los que construimos el Spline tienen grado 2.
 Esto quiere decir, que va a tener la forma P(x) = ax² + bx + c Como en la interpolación segmentaria lineal, vamos a tener N-1 ecuaciones (donde N son los puntos sobre los que se define la función). La interpolación cuadrática nos va a asegurar que la función que nosotros generemos a trozos con los distintos P(x) va a ser continua, ya que para sacar las condiciones que ajusten el polinomio, vamos a determinar como condiciones: Que las partes de la función a trozos P(x) pasen por ese punto. Es decir, que las dos Pn(x) que rodean al f(x) que queremos aproximar, sean igual a f(x) en cada uno de estos puntos. Que la derivada en un punto siempre coincida para ambos "lados" de la función definida a trozos que pasa por tal punto común. Esto sin embargo no es suficiente, y necesitamos una condición más. ¿Por qué?. Tenemos 3 incógnitas por cada P(x). En un caso sencillo con f(x) definida en tres puntos y dos ecuaciones P(x) para aproximarla, vamos a tener seis incógnitas en total. Para resolver esto necesitaríamos seis ecuaciones, pero vamos a tener tan sólo cinco: cuatro que igualan el P(x) con el valor de f(x) en ese punto (dos por cada intervalo), y la quinta al igualar la derivada en el punto común a las dos P(x). Se necesita una sexta ecuación,¿de dónde se extrae? Esto suele hacerse con el valor de la derivada en algún punto, al que se fuerza uno de los P(x). Interpolación Segmentaria Cúbica En este caso, cada polinomio P(x) a través del que construimos los Splines en [m,n] tiene grado 3. Esto quiere decir, que va a tener la forma P(x) = ax³ + bx² + cx + d En este caso vamos a tener cuatro variables por cada intervalo (a,b,c,d), y una nueva condición para cada punto común a dos intervalos, respecto a la derivada segunda: Que las partes de la función a trozos P(x) pasen por ese punto. Es decir, que las dos Pn(x) que rodean al f(x) que queremos aproximar, sean igual a f(x) en cada uno de estos puntos. Que la derivada en un punto siempre coincida para ambos "lados" de la función definida a trozos que pasa por tal punto común. Que la derivada segunda en un punto siempre coincida para ambos "lados" de la función definida a trozos que pasa por tal punto común. Como puede deducirse al compararlo con el caso de splines cuadráticos, ahora no nos va a faltar una sino dos ecuaciones (condiciones) para el número de incógnitas que tenemos. La forma de solucionar esto, determina el carácter de los splines cúbicos. Así, podemos usar: Splines cúbicos naturales: La forma más típica. La derivada segunda de P se hace 0 para el primer y último punto sobre el que está definido el conjunto de Splines, esto son, los puntos m y n en el intervalo [m,n]. Dar los valores de la derivada segunda de m y n de forma "manual", en el conjunto de splines definidos en el intervalo [m,n]. Hacer iguales los valores de la derivada segunda de m y n en el conjunto de splines definidos en el intervalo [m,n].  



Aplicaciones

  Las ecuaciones diferenciales son una herramienta matemática fundamental en diversos campos científicos y de ingeniería. Su solución tiene ...