Real Academia de Ciencias Exactas, Físicas y Naturales
Programa 2001
Entre el cero y el uno: el arte de calcular
Resumen de la conferencia por:

Alberto Galindo Tixaire
Licenciado en Ciencias Exactas, Universidad de Zaragoza, 1957. Doctor en Ciencias Físicas, Universidad Central de Madrid, 1960. Catedrático de Física Matemática, Universidad de Zaragoza, 1963-1967. Catedrático de Física Teórica, Universidad Complutense, desde 1967. Fundador y primer Director del Grupo Interuniversitario de Física Teórica. Miembro del primer Scientific Council del Erwin Schrödinger International Institute of Mathematical Physics, Viena. Medalla de Física de la Real Sociedad Española de Física y Química, 1970. Premio Nacional de Investigación en Física, 1977. Premio Nacional de Investigación "Ramón y Cajal", 1985. Premio Aragón 1991 a la Investigación Científico-Técnica. Académico Electo de la Academia de Ciencias Exactas, Físico-Químicas y Naturales de Zaragoza. Miembro de la Academia Europaea. Académico de Número de la Real Academia de Ciencias Exactas, Físicas y Naturales
 
texto completo publicado de la conferencia (pdf - 579 kb.)

resumen

Nunca antes estuvo el hombre tan dominado por la información como lo está ahora. Miríadas de decisiones elementales entre el sí y el no, entre el blanco y el negro, entre lo verdadero y lo falso, tejen una tupida tela de araña que nos condiciona y guía. Por eso vale la pena adentrarse en la fértil tierra de los bits, unos simples objetos físicos, los más simples podríamos decir, cuyo almacenamiento, transporte y procesado conforman una importante faceta de la actividad científica, tecnológica y económica del momento.

Nació el bit formalmente el año 1948, como unidad para medir la información, de la mano de Shannon. Veinte años después se reconoció la naturaleza física de la información, tras probarse su efectividad para explicar definitivamente la paradoja del diablillo de Maxwell. La densidad del almacenamiento de bits en memorias físicas, la fidelidad en su transmisión a través de canales ruidosos, y la velocidad en su transformación o procesado en los ordenadores, marcan el avance vertiginoso de los últimos tiempos. De seguirse la "ley" empírica de Moore, dentro de un par de décadas se alcanzará el límite atómico-molecular en el tamaño de los dispositivos electrónicos elementales de los microchips. En ese instante la robustez del funcionamiento de los ordenadores hará agua, pues las manifestaciones del azar cuántico aflorarán a ese nivel.

Los físicos llevan poco más de una década desarrollando las bases de un nuevo futuro de la información. El mundo de los quanta ofrece la preciosa posibilidad de reemplazar el viejo y aguerrido bit por un nuevo y delicado vástago, el qubit o bit cuántico, que a diferencia de aquel, puede ocupar una posición intermedia arbitraria entre el cero y el uno, un estado indefinido en el que la respuesta a una cuestión no es ni sí ni no, ni blanco ni negro, sino ambas cosas a la vez, digamos que probable, grisáceo, en una infinidad de matices. Esta exuberancia del qubit frente al bit tiene su cruz (que pasa a virtud en el campo criptográfico cuando se trata de detectar "escuchas" no autorizadas): la información guardada en qubits es sumamente frágil, y su más mínimo contacto con el mundo exterior tiende a degradarla en tiempos muy pequeños. Para contrarrestar esta nefasta acción (conocida como descoherencia) hay que utilizar la información que contienen los qubits antes de que se pierda, y si no da tiempo, hay que protegerla, difuminándola entre otros qubits auxiliares de modo que la corrección de cualquier acción exterior perniciosa sea factible.

¿Qué nos ofrecen los qubits? Primero, la posibilidad, basada en el enigmático enredo cuántico, de acumular en sistemas físicos pequeños, de unos cientos de qubits, tal cantidad de información que con bits no cabría en todo el Universo. Segundo, la posibilidad, como consecuencia del principio de superposición lineal, de procesar toda esa información de una sola tacada (paralelismo masivo). Y tercero, la posibilidad, mediante interferencias, de inducir a ese sistema cuántico de qubits a adoptar un estado tal que una medición sobre él lleve a la respuesta buscada, de un modo eficiente. De ahí tantas esperanzas puestas en los ordenadores cuánticos, que abren horizontes inmensos para la resolución de problemas en los que los ordenadores actuales se muestran ineficaces.

Queremos hablar de estas cosas, así como de para qué tipos de problemas podrían ser los ordenadores cuánticos superiores a los clásicos (clases cuánticas de complejidad computacional). Y, finalmente, hablaremos también de cálculos contrafactuales, realizables ¡sin ni siquiera enchufar el ordenador!