Real Academia de Ciencias Exactas, Físicas y Naturales
Programa 2001
Matemáticas, ordenadores y el conocimiento del mundo
Resumen de la conferencia por:

Manuel López Pellicer
Licenciado en Ciencias Físicas. Doctor en Ciencias Matemáticas. Ha sido Profesor Agregado de Análisis Funcional en la Universidad de Valencia y desde 1979 Catedrático de Matemática Aplicada en la Universidad Politécnica de Valencia. Académico Correspondiente de la Real Academia de Ciencias desde 1989 y Académico Numerario desde 1998. Sus campos de trabajo son la Topología Conjuntista y el Análisis Funcional, con aportaciones en espacios topológicos completamente regulares, espacios vectoriales topológicos y teoría de la medida
 
texto completo publicado de la conferencia (pdf - 2.62 mb.)

resumen

En el congreso de París de 1900, David Hilbert habló con el mismo optimismo con el que, en sus respectivas épocas, lo hubiesen hecho Pitágoras, Arquímedes, Newton o Leibniz. Las Matemáticas habían sido motor de los descubrimientos físicos del siglo XIX; las ecuaciones obtenidas habían cambiado el mundo y ayudaban a su comprensión. Por ejemplo, Faraday había formulado en 1835 la ley de inducción electromagnética, que tres décadas más tarde Maxwell tradujo a la ecuación matemática

ΔxE=-(δB/δt)

Así nació la era de la electricidad.

Luego llegó la segunda ley de Termodinámica, obtenida por Clausius en 1868 y complementada once años después por Boltzmann al probar que la entropía era una medida del desorden. Desde entonces se sabe que el Universo se parece a un reloj, va perdiendo su cuerda. Luego se generalizó la aritmética de Euclides con la teoría de conjuntos, que tantas aplicaciones ha dado en el estudio de los problemas físicos con algún tipo de simetría.

En 1900 Hilbert no pudo prever que la geometría no euclídea serviría de base para la teoría gravitatoria de Einstein, ni que los hoy llamados espacios de Hilbert serían la base matemática de la Mecánica Cuántica. En cambio, fue profeta al proponer una serie de problemas que junto a otros, entonces no resueltos, marcaron parte de la investigación del siglo XX. Uno de ellos era el último teorema de Fermat, quien en el siglo XVII había asegurado que "con números enteros a, b y c no es posible encontrar potencias an y bn cuya suma sea cn, para n > 2". Los ordenadores permitieron comprobar que no existen enteros a, b y c tales que an + bn = cn, cuando 2 < n < 100 000.

Esa comprobación no probaba la afirmación de Fermat, pero hacía intuir su certeza, fruto del trabajo, entre otros, de K. Ribet y A. Wiles. El primero probó en 1987 que si existiesen números enteros a, b, c y n, con n primo y mayor que 2, ligados por la ecuación an + bn = cn, entonces la curva elíptica y2 = x(x + an)(x - bn) no verificaría la conjetura de Taniyama-Shimura-Weil. Wiles probó en 1994 que esta curva verifica la conjetura.

El libro Principia Mathematica de B. Russell y A.N. Whitehead pudo motivar que Hilbert en su conferencia de 1900 propusiese encontrar un sistema lógico formal con el que se pudiese probar la verdad o falsedad de cualquier enunciado matemático. Nadie imaginó que ese sueño de Hilbert sería irrealizable, pero, tres décadas después, Kurt Gödel probó que no existe un sistema axiomático que contenga a toda la matemática. Entonces, y diez años antes de la aparición de los primeros ordenadores electrónicos, un pequeño grupo de matemáticos empezó a predecir cómo funcionarían. Uno de ellos, Alan Tuming, desarrolló muchos de los conceptos que utilizan nuestros ordenadores personales. Menos clara es la naturaleza del ordenador que tenemos en nuestra cabeza, del que se está empezando a descifrar los algoritmos empleados en los circuitos neuronales más simples.

Turing, explorando el concepto de computabilidad, encontró el problema de la interrupción y probó su equivalencia con el teorema de Gödel en 1936. Lo que todavía no se sabe es por qué es imposible elaborar un sistema formal que abarque toda la matemática. Dado que las matemáticas son construcciones mentales, Roger Penrose cree que la imposibilidad se debe a la intervención de las incertidumbres de la mecánica cuántica en el funcionamiento del cerebro a nivel de las neuronas.

El resultado de Gödel y Turing no diminuye la potencia de las aplicaciones de la matemática, que con ayuda del ordenador ha dedicado mucho esfuerzo en el siglo XX a la obtención de aproximaciones numéricas de soluciones de problemas complejos. Aún siguen siendo muchos los campos actuales necesitados de ayuda con nuevos desarrollos matemáticos, pues los problemas de muchas investigaciones son demasiado complicados para resolverlos por métodos conocidos. El plegamiento de las moléculas de proteínas, formadas por miles de aminoácidos, para adoptar una forma funcional exige el desarrollo de un tratamiento sistemático dada la enorme variedad de posibilidades. También los biólogos y bioquímicos tendrán que recurrir pronto a nuevos modelos informáticos para dar sentido a la enorme masa de datos acumulados.

El interés de la Física en la estructura del espacio-tiempo estimulará nuevos desarrollos matemáticos. La representación de las partículas como cuerdas submicroscópicas, o como membranas, inseparables del espacio y del tiempo, puede modificar los actuales conceptos de espacio y tiempo. Tal vez sea necesario modificar el lenguaje cartesiano para describir el espacio, así como la interrelación entre materia y espacio.

Antes del siglo XX Física y Matemáticas se estimularon mutuamente en sus desarrollos. Newton se vio obligado a desarrollar el cálculo diferencial para hacer convincentes las conclusiones del Principia. Después del siglo XX toda la Ciencia está más interrelacionada, y la Matemática, apoyada por las nuevas formas de cálculo, seguirá creciendo, como savia del cuerpo científico, con vida propia, facilitando el lenguaje para conocer y describir nuestro mundo.