Real Academia de Ciencias Exactas, Físicas y Naturales
Program 2010-11
Elementos Finitos: nuevo desafío intelectual
Resumen de la conferencia por:

Manuel López Pellicer
Licenciado en Ciencias Físicas y en Ciencias Matemáticas. Se doctoró en Ciencias Matemáticas, con Tesis dirigida por el Profesor Manuel Valdivia. Profesor Agregado de Análisis Funcional (1975, Valencia) y Catedrático de Matemática Aplicada (desde 1979, Valencia). Académico de la Real Academia de Ciencias (Correspondiente en 1989 y Numerario desde 1998). Sus campos de investigación son Topología General y Análisis Funcional, habiendo publicado un centenar de artículos de investigación sobre Espacios de Banach, Espacios Localmente Convexos y Topología Descriptiva. Es editor de la Revista de la Real Academia de Ciencias Serie A, Matemáticas. Es coautor de los libros Metrizable barrelled spaces (Logman, 1995), General Topology in Banach Spaces (Nova Scientific Publications 2001) y Unsolved Problems on Mathematics for the 21st Century (IOS Press 2001). Es Académico Numerario de la Real Academia de Cultura Valenciana (2007).
 
texto completo publicado de la conferencia (pdf - 2.46 mb.)

resumen

Galileo dijo que la Matemática es el lenguaje del Universo y, en efecto, los sistemas físicos, mecánicos, térmicos o electrodinámicos, se describen matemáticamente por ecuaciones. La complejidad de muchas ecuaciones diferenciales impide encontrar su solución analítica y se deben buscar soluciones aproximadas con métodos numéricos.

Uno de ellos es el Método de Elementos Finitos, cuyo nacimiento se sitúa en 1943, cuando Courant obtuvo soluciones aproximadas de un sistema vibratorio.

El artículo de M.J. Turner, R.W. Clough, H.C. Martin, y L.J. Topp sobre la rigidez y deformación de estructuras complejas se publicó en 1956, coincidiendo con la aparición de los primeros ordenadores. Fue el inicio del cálculo matricial de estructuras, que por descomposición en pequeñas barras y aplicación de condiciones de equilibrio en los extremos, permite determinar desplazamientos, que luego nos dan las tensiones. Las barras se les llaman elementos y sus extremos nodos.

Este método de desplazamientos, cuyas ideas se encuentran en obras de Navier, Lagrange y Cauchy, no pudo ser aplicado hasta la aparición de los ordenadores, pues lleva a sistemas algebraicos de muchísimas ecuaciones. Por ello el cálculo de la estructura de un edificio se hacía manualmente con métodos iterativos, como el de Cross, obligando a semanas de trabajo tedioso. Hoy, Elementos Finitos y ordenador, permiten determinar con rapidez las tensiones que soporta cada elemento de la Torre Eiffel, por ejemplo.

El Boeing 747, presentado en 1968, fue testigo de la aplicación de los Elementos Finitos a estructuras con geometría compleja y del desarrollo de nuevas aplicaciones térmicas, electromagnéticas y mecánicas, en sólidos y fluidos.

Con la generalización de los ordenadores personales a partir de la década de los 80 llegaron los programas comerciales de Elementos Finitos (ANSYS, CAELinux, COSMOSXpress, … ), con programación dividida en:

Preproceso: Dibujo la figura, asignación de propiedades de los materiales y generación del mallado o descomposición en pequeños elementos.
Cálculo: Aproximación del problema por un gran sistema algebraico en cada instante en que se desee conocer la solución.
Postproceso: Cálculo de magnitudes derivadas de los resultados obtenidos en los nodos con presentación numérica y gráfica, que visualiza las deformaciones de una estructura, la solidificación de una colada o la circulación del aire acondicionado en una red de tuberías.

Las múltiples aplicaciones de los Elementos Finitos recuerdan lo que sucedió con el Cálculo Diferencial hace siglos; su éxito se debe a la descomposición de problemas complejos en una multitud de problemas sencillos, mediante mallados muy finos, y a la ayuda de ordenadores y superordenadores. Hay aplicaciones recientes en Economía y en el tratamiento del problema del calentamiento de la Tierra.

En esta teoría queda aún mucho trabajo matemático por realizar para analizar la dependencia de la solución de los parámetros iniciales, acotar el error de la solución aproximada obtenida y mejorar el ajuste de detalles de geometría. Es un buen desafío intelectual para las próximas décadas.