Cerrar
Emancipación;

Communia

Internacionalistas

Blog de Emancipación

También mantenemos el
Diccionario de Marxismo,
la Escuela de Marxismo y los canales @Communia (noticias internacionales) y @Huelga (huelgas en el mundo) en Telegram.

Comunicados de Emancipación

Buscar

  • También puede serte útil nuestro Mapa de navegación: todos nuestros artículos organizados en secciones y ordenados cronológicamente

Entender el ahora

Su moral y la nuestra

En el comunismo...

Decadencia: El antagonismo entre el crecimiento capitalista y el desarrollo humano

Los límites del conocimiento bajo el capitalismo

Historia de clase

Crítica de la ideología

Los orígenes de la ideología y la moral burguesa

¿Revolución cuántica o burbuja militarista?

26/1/2023 | Tecnología
¿Revolución cuántica o burbuja militarista?

La prensa mundial está exultante con noticias sobre las supuestas posibilidades infinitas de los ordenadores cuánticos, a una escala solo comparable a la atención que prestan a la fusión nuclear. Se escriben artículos celebrando que estos ordenadores van a permitir crear nuevos procesos para producir fertilizantes, resolver el cambio climático y encontrar nuevos fármacos. Mientras, publicaciones supuestamente serias afirman que científicos de Google han creado nada más y nada menos que un agujero de gusano usando unas decenas de qubits. Añadan a todo esto la noticia de hace una semana según la cual ingenieros chinos habrían desarrollado un método para romper una de las claves de cifrado más usadas y tendrán el caldo de cultivo de una burbuja mediática (hype) cargada de sensacionalismo. ¿Qué hay de cierto en todas estas afirmaciones, qué es lo que se encuentra detrás del circo mediático y qué interés tienen para la Humanidad estos ordenadores?

«Hype» cuántico

Ordenador cuántico chino

Ordenador cuántico chino

Desde hace más de un año aparecen montañas de artículos periodísticos sobre computación cuántica. Los medios amplifican exageraciones de grandes empresas y estados y si nos fiáramos de lo que dicen tendríamos que aceptar que

Lo cambia todo desde el momento en que se trata de una reinvención total de lo que es la informática desde sus cimientos

En el mundo real, esto no es cierto. Los ordenadores cuánticos no son una reinvención total de la informática, de hecho ni cumplen la definición de ordenador en la que piensa la mayor parte de la gente. Nadie va a tener un PC o una CPU cuánticos, se trata de máquinas ultra especializadas que solo sirven, potencialmente, para cumplir un conjunto de tareas mucho más reducido que un ordenador clásico.

Los popes de la computación cuántica llevan años quejándose del bombo que reciben y que ellos mismos consideran peligroso por engañoso. De hecho, ha llegado a convencer a una parte de los científicos de la supuesta viabilidad inmediata de la computación cuántica. David Deutsch lo ponía así hace un mes escaso:

Cuando hace poco le pregunté a David Deutsch, el físico visionario que en 1985 describió cómo sería la computación cuántica, si le sorprendía la rapidez con que la idea se había convertido en una tecnología viable, me contestó con la crudeza que le caracteriza: «No es así».

Y Peter Shor, de cuyos importantes algoritmos hablaremos más adelante en el artículo, resumía así la importancia científica de los resultados anunciados por Google:

La teoría comprobada en el laboratorio de Google solo tiene una relación muy tangencial con cualquier teoría de gravitación cuántica en nuestro universo.

Scott Aaronson, conocido profesor de computación cuántica, era aún más contundente:

Esta noche, David Nirenberg, Director del IAS e historiador medieval, pronunció un discurso después de la cena de nuestro seminario, centrado en lo oportuno que resultaba que el seminario se celebrara apenas una semana después del trascendental anuncio de un agujero de gusano holográfico en un microchip (¡!), una hazaña que los expertos consideraban la primera investigación en laboratorio de la gravedad cuántica y una nueva frontera para la propia física experimental. Nirenberg se preguntó si, dentro de un siglo, la gente recordaría el logro del agujero de gusano como hoy recordamos las observaciones del eclipse de Eddington de 1919, que demostraron la relatividad general.

Lo confieso: era la primera vez que sentía una ira visceral, en lugar de mera perplejidad, por este asunto de los agujeros de gusano. Antes, había asumido implícitamente que nadie había sido engañado. Asumí que nadie creía realmente, literalmente, que esta pequeña simulación de 9 qubits hubiera abierto un agujero de gusano, o que hubiera ayudado a demostrar la naturaleza holográfica del universo real, o algo por el estilo. Estaba equivocado.

El cansancio e incluso la rabia de los científicos es comprensible. La carrera cuántica se ha convertido en un puro espectáculo de afirmaciones delirantes y engañosas. En el mundillo de la Física actual, se considera necesario y normal subir una versión de los artículos a un repositorio público -generalmente ArXiv- antes de enviarlos a las revistas, lo que permite cierta discusión previa de su contenido dentro de la comunidad. Curiosamente este artículo, supuestamente tan importante, se saltó el paso y fue publicado por sorpresa. No solo eso, sino que el New York Times llevaba ya más de un mes preparando una historia de impacto para hinchar el bombo.

Del «hype» para captar capitales a las «Fake news» como arma de la guerra comercial

Core del ordenador cuántico de Google. EEUU está quedando atrás en la carrera cuántica.

Core del ordenador cuántico de Google. EEUU está quedando atrás en la carrera cuántica.

Nadie alberga muchas esperanzas sobre la prensa general, pero cuando una revista supuestamente seria soltó que el experimento había creado y no simulado un agujero de gusano, además de insistir en que esto era tan importante como la confirmación de la existencia del bosón de Higgs, todos sospecharon de una campaña desvergonzada de Google para captar capital. No sería la primera.

Una segunda ola de consternación llegó cuando el Departamento de Energía de EEUU se subió al carro de los agujeros de gusano y empezó a difundir la fake news de su creación en los laboratorios Google.

La realidad es que los ordenadores cuánticos chinos son capaces de hacer funcionar algoritmos cuánticos 2 o 3 veces más rápido que el ordenador Sycamore de Google, aunque por alguna razón misteriosa estos ordenadores no aparezcan nunca mencionados en la prensa del bloque estadounidense, que solo tiene ojos para los ordenadores de Google e IBM. Y es que EEUU necesita algo que le pueda dar ventaja tecnológica y que pueda convertirse en una «vuelta a la Luna» que enarbolar frente a China a toda costa.

Aunque China tampoco se queda corta en el campo de las publicaciones engañosas. Hace unos días, se subió a ArXiv un artículo chino que afirmaba la posibilidad de romper las llaves de cifrado más corrientes con un algoritmo para los ordenadores cuánticos de tamaño actual (en número de qubits). Inicialmente, esto causó preocupación en los círculos de ciberseguridad, pero una lectura cuidadosa del texto acabó mostrando que el artículo no demuestra factibilidad alguna, simplemente afirma que quizás funcione con un poco de suerte. De hecho, el algoritmo que sugieren para la factorización de las claves ni siquiera es cuántico, la parte cuántica es un algoritmo poco convincente que se aplicaría al primero. Eso sí, la misma prensa que no dijo nada al respecto de lo de Google (aunque esté publicado), no tardó en denunciar como un fraude el paper de los científicos chinos aunque no esté publicado ni haya pasado revisión por pares.

¿Pero a parte del bombo mediático, qué está ocurriendo? ¿La respuesta es debida a lo extraño que resulta estudiar fenómenos cosmológicos con un experimento cuántico de sobremesa?

Para nada, estudiar los agujeros negros en particular a través de analogías en sistemas atómicos es justamente uno de los campos más interesantes de la Física experimental. Ese no es el problema en sí.

Dos maneras de entender la Física

Desde el punto de vista de la cosmología actual, uno de sus principales problemas es la existencia paradójica de los agujeros negros. Por un lado los agujeros negros crecen acumulando materia que no puede volver a escapar, pero por otro, los agujeros negros tienen una temperatura y emiten partículas de luz al distorsionar gravemente el espacio que los rodea, la famosa radiación de Hawking.

La energía de estas partículas debe provenir de la masa del propio agujero negro, el problema de la masa en sí aún se puede reconciliar con la cuántica y la gravedad, pero el verdadero rompecabezas es que las propiedades de la luz emitida por los agujeros negros son completamente independientes de lo que haya caído en estos. Y esto rompe las leyes universales de la conservación. Existen varios problemas, el primero de ellos debido a que esta luz es causada por la deformación misma del espacio por el agujero y por ello tiene una longitud de onda enorme de varias veces el diámetro del astro. Es decir, es ultra débil y no se puede observar directamente.

Aquí, en el lugar más inesperado, es donde sale a relucir el poder de los experimentos de sobremesa.  Un programa de investigación -curiosamente chino- usa inteligentemente las propiedades emergentes de la materia para crear un análogo a los agujeros negros y a la radiación de Hawking dentro de materiales.

¿Cómo? La imagen clásica de la teoría de partículas como una colección de partículas con sus propiedades bien definidas y esenciales induce al error, buena parte de las propiedades que parecen mostrar las partículas no son intrínsecas a ellas.

Tomemos la masa por ejemplo, nunca encontraremos una subpartícula de la masa dentro de un electrón. De hecho no encontraremos nunca su masa considerando únicamente al electrón como un ente aislado de su entorno. Incluso en el vacío más absoluto -que no está realmente vacío- el electrón está interactuando constantemente con sus alrededores y son estas interacciones las que le otorgan la masa. El fenómeno debería resultar familiar a nuestros lectores.

Dicho de otro modo, si cambiamos las propiedades del material dentro del cual se mueven los electrones, podemos cambiar la masa de estas partículas cargadas. En metales con átomos pesados, los electrones pueden llegar a ser más de 1000 veces más pesados que en el vacío, mientras que en ciertos materiales como el grafeno o el fósforo negro la masa de los electrones se vuelve cero bajo ciertas condiciones de energía.

Los electrones no son solo equivalentes a los fotones sin masa de la radiación de Hawking, sino que su velocidad de la luz es mucho más baja y, jugando con las propiedades del material, se pueden crear agujeros negros dentro de los cuales los electrones pueden caer pero no volver a escapar. El efecto de estos agujeros negros sobre los campos que los rodean es equivalente al de los astros sobre el espacio que los rodea y deberían emitir una radiación equivalente, pero medible eléctricamente y ajustable experimentalmente.

¿Hicieron los científicos de Google algo parecido? No, hicieron en principio algo completamente distinto. Lo descrito arriba es lo que haría un físico experimental, pero el ejercicio de Google venía de la rama más especulativa de la Física.

Empezando por el propio Hawking, los intentos de resolver la paradoja desde el punto de vista puramente teórico han llevado a una lista de soluciones cada vez más delirantes. Desde la existencia de universos paralelos a través de agujeros negros hechos de cuerdas, hasta teorías holográficas del universo que intentan explicar cómo puede encontrarse la información al mismo tiempo dentro de un espacio en 3D (el agujero negro) y afectar causalmente al espacio fuera del agujero proyectada sobre una superficie en 2D (el espacio alrededor de la superficie del horizonte).

Es una versión de esta última teoría lo que está simulando Google en su ordenador cuántico Sycamore. De ahí la respuesta contundente de Shor sobre la escasa relación de la simulación con el mundo real. La recepción más bien fría de la mayoría de los físicos era esperable. Y no ayudaba el hecho de que, como apuntaba Aaronson, usar un ordenador cuántico no parezca haber mejorado la precisión de la simulación.

Esta tensión entre Física de la materia condensada y Física teórica de altos vuelos no es nueva, y la supeditación de la primera a la segunda no es casual. El propio Hawking usó un método originalmente ideado para explicar el comportamiento complejo de la materia dentro de los superconductores para explicar como la curvatura del espacio por el agujero negro podía crear partículas en su espacio cercano. El presupuesto del dominio de la idea sobre la materia conlleva, sin embargo, un precio para el conocimiento.

La elegancia de los trucos mentales y matemáticos ideados por el teórico se acaba recompensando por encima de cualquier verosimilitud o confirmación experimental, y la acumulación de hipótesis ad-hoc postulando más y más componentes nuevos e imposibles de demostrar -verdadera parodia del empirismo- se acaba imponiendo por encima de explicaciones que implican fenómenos emergentes y complejos de interacción entre el todo y las partes. Como decía el co-descubridor de uno de esos fenómenos:

El efecto Hall cuántico es fascinante por muchas razones, pero es importante, a mi parecer principalmente por una: establece experimentalmente que dos postulados centrales del modelo estándar de partículas elementales pueden aparecer espontáneamente como fenómenos emergentes. [...] No sé si las propiedades del universo tal como lo conocemos son fundamentales o emergentes, pero creo que la mera posibilidad de lo último debería hacer reflexionar a los teóricos de las supercuerdas.

Robert T. Laughlin, discurso de aceptación del Nobel

Y sin embargo, el experimento de Google tiene su importancia por razones que poco tienen que ver con las especulaciones teóricas que simula. Para empezar, en su formulación del principio holográfico, el modelo simula cierto tipo de partículas que son extremadamente importantes para el futuro de la computación cuántica. En 2021, el mismo equipo demostró la utilidad de usar un tipo de estrategia de corrección de errores que abre la puerta a la computación cuántica eficiente gracias a usar fenómenos emergentes. Pero solo el experimento más delirante y dudoso valía una campaña de publicidad concertada por los medios estadounidenses.

Y es que todo esto no es una simple digresión, los ordenadores cuánticos actuales tienen un grave problema.

El ruido que anula las operaciones cuánticas

En el mundo cuántico, cuando las partículas interaccionan, crean estados donde el conjunto y las partes tienen relaciones muy distintas a lo que estamos acostumbrados en nuestro día a día. Por ejemplo, un conjunto entrelazado contiene toda la información que podemos conocer del sistema, mientras que las partes se comportan como si estuvieran en una suma de varios estados al mismo tiempo. Los ordenadores cuánticos aprovechan estas propiedades para hacer operaciones que un ordenador clásico no puede hacer eficientemente, ya sea por tiempo o por recursos.

Pero estos estados son extremadamente frágiles, cuando las partes interaccionan con un conjunto externo mucho más grande, caen rayos cósmicos, interaccionan con partes metálicas del aparato o son medidos, el estado cuántico colapsa y cada parte adquiere un estado definido al 100%.

Por un lado, este colapso es absolutamente necesario para llevar a cabo la computación, pero por el otro limita mucho el tiempo ínfimo durante el cual se pueden mantener los estados cuánticos y operar con ellos. Esto causa una cantidad de ruido tremendo en el ordenador, y es el principal problema de diseño de los ordenadores cuánticos. Da igual cuántos qubits tenga el ordenador, es inservible si no se encuentra una manera de reducir el ruido. Por eso resulta engañoso medir la potencia de un ordenador cuántico a partir de su número de qubits, y por eso Google puede hacer más que IBM aunque los californianos tengan un ordenador 6 veces más pequeño... Y por lo mismo los investigadores chinos, a su vez, obtienen mejores resultados que Google.

Pero primero organicemos un poco las cosas. Detrás de todo el bombo, el hecho es que los ordenadores cuánticos sirven para (al menos) tres funciones principales y distintas:

  1. Manipular bits cuánticos para transmitir información cifrada. Ya es técnicamente posible y tiene interés sobre todo desde el punto de vista militar y del control sobre redes de comunicación.

  2. Simular sistemas cuánticos mejor que los ordenadores clásicos. Por ejemplo, para ayudar en el diseño de moléculas y sus nubes electrónicas. Esta es la aplicación original para la cual fueron teorizados los primeros ordenadores cuánticos en los 80. En teoría debería ser posible pronto.

  3. Usar ordenadores cuánticos para hacer tareas más rápida y eficientemente que cualquier algoritmo posible en un ordenador clásico. Es la función que más ruido hace y de lejos la que resulta más lejana y menos clara hoy en día.

El problema con las dos últimas funciones es que siguen sin ser viables con el nivel de ruido actual... Y eso no es algo que se pueda tapar simplemente con más ruido mediático. Por ejemplo, para simular sistemas atómicos:

Teniendo en cuenta cómo han aumentado los recursos disponibles en los últimos años, cabría esperar que ahora pudiéramos hacer mucho más [con los ordenadores cuánticos]. Pero un nuevo estudio de Garnet Chan, del Instituto de Tecnología de California, y sus colaboradores pone esto -y el comentario de Deutsch- en perspectiva. Han utilizado un chip de 53 qubits relacionado con el Sycamore de Google para simular una molécula y un material realmente interesantes. Eligieron sus ensayos sin intentar identificar los problemas más adecuados para un enfoque cuántico. Uno de ellos era el grupo de ocho átomos de hierro y azufre del núcleo catalítico de la enzima nitrogenasa, que fija el nitrógeno atmosférico en formas biológicamente utilizables. Comprender ese proceso podría ser valioso para desarrollar catalizadores artificiales de fijación del nitrógeno.

¿Qué tal funcionó el chip? Francamente, de un modo más bien indiferente. Chan admite que al principio pensó que con 53 qubits a su disposición podrían simular estos sistemas con soltura. Pero la resolución del problema le hizo desistir de esa idea. Al mapearlos en el circuito cuántico, los investigadores pudieron hacer un intento razonable de calcular, por ejemplo, los espectros de energía del cúmulo de FeS y la capacidad calorífica de α-RuCl3, pero nada que los métodos clásicos no pudieran hacer al menos igual de bien. Uno de los principales problemas es el ruido: los qubits actuales son propensos a los errores y aún no existen métodos para corregirlos.

El reto hoy en día es conseguir acallar este ruido usando todo tipo de diseños astutos. ¿Cómo se puede contrarrestar un ruido que viene de las más pequeñas variaciones locales? Los trucos más avanzados -como el usado por Google- se aprovechan del hecho de la localidad de este ruido, imponiendo un orden global al sistema que ningún ruido local pueda romper. ¿Cómo es posible? Usando ideas de una rama de las matemáticas que describe las relaciones entre el conjunto y las partes: la Topología.

El todo y las partes

Idear una rama de las matemáticas que trate sobre el conjunto y las partes no es para nada sencillo. Gran parte de las matemáticas clásicas simplemente tratan de los conjuntos como una suma de partes y propiedades locales. Cuando Euclides quiere demostrar cómo construir los poliedros a partir de sus polígonos constituyentes, solo puede hacerlo a partir de una multitud de polígonos con caras y ángulos perfectamente iguales y específicos. El cálculo descompone figuras complejas en la suma de una infinidad de partes ínfimamente pequeñas, y el álgebra, en su versión clásica, no parece ayudar demasiado.

A principios del siglo XVIII esto no pareció preocupar demasiado a Newton, que organizó sus Principia de un modo estrictamente geométrico al modo de Euclides. Sin embargo, Leibniz, que tenía preocupaciones mucho más amplias, no podía aceptar las limitaciones de las matemáticas de la época. Quería un método para describir conjuntos y poder tratar las relaciones entre partes sin tener que considerar sus posiciones y valores exactos.

Hay algo por encima de la geometría local. Si tenemos apretamos el lado de una esfera, por ejemplo, no sólo se hunde la parte que apretamos, sino que otros sectores de la esfera se abomban hacia afuera como si contrarrestasen las partes que hundimos. Y de hecho así es, hay una propiedad del conjunto que está siendo conservada ajustando las partes. Sin embargo, cómo cuantificar estas propiedades no era una tarea obvia.

Cuando Euler es contactado para intentar resolver explícitamente uno de estos problemas, éste responde que ni siquiera entiende qué es lo que se le está pidiendo:

Así pues, nobilísimo señor, ya ve que este tipo de solución tiene poco que ver con las matemáticas, y no entiendo por qué espera que la produzca un matemático y no cualquier otra persona, pues la solución se basa únicamente en la razón, y su descubrimiento no depende de ningún principio matemático.

Carta de Leonhard Euler a Carl Ehler, 1736

Irónicamente, será Euler el que dará nacimiento a la nueva rama de las matemáticas, la Topología, sin ni siquiera darse cuenta.

Pasarán el XVIII y buena parte del XIX hasta que los matemáticos sean capaces de poner sobre un pie funcional la nueva rama. Para describir los conjuntos hay que usar una serie de operaciones sobre estos en vez de medir valores fijos como haría la geometría.

Vamos a usar el ejemplo clásico porque es además el usado en computación cuántica. Imaginen que tenemos superficies en 2D sobre objetos en 3D, como lo sería la superficie de un globo. Podemos marcar un punto arbitrario sobre su superficie y dibujar un bucle tan grande como queramos a partir de ese punto (imagen debajo). Nuestra operación será contraer ese bucle tirando de él hasta colapsarlo dentro del punto original, siempre siguiendo la superficie y sin despegarse de ella.

Topología

Como se puede ver, en una esfera se pueden contraer todos los bucles hasta el punto inicial.  Pero sobre un toroide (un dónut, si prefieren), la presencia del agujero central hace que los bucles queden atrapados y no puedan contraerse en dos direcciones. Esto es un reflejo de las diferencia en las propiedades globales entre una esfera y un toroide y es literalmente lo que usa la estrategia de corrección de errores probada por Google.

El esquema funciona así: primero tendemos qubits (imaginemos que pueden ser 0 o 1 por ahora) en un tablero. Como es un toroide, la cara superior está conectada a la inferior (da toda la vuelta) por detrás y la izquierda a la cara derecha. Es decir, el tablero no tiene bordes, vuelve sobre sí mismo. Tenemos dos operaciones, el cuadrado -que cambia el valor de todos los cubits que lo rodean (de 0 a 1, o de 1 a 0)- y la cruz, que da error cuando el número de lados que convergen en un vértice es impar señalando al ordenador clásico acoplado al cuántico que encuentre el camino más corto para cerrar el bucle.

Topología

Con estas dos operaciones aplicadas continuamente sobre la superficie podemos

  1. reducir cualquier bucle a un punto y
  2. convertir cualquier línea rota -causada por ruido local- en un bucle a contraer por el cuadrado.

Pero recuerdemos: hay 2 bucles que no se pueden contraer en un toroide se haga lo que se haga. Es en estos bucles que almacenamos la verdadera información cuántica que queremos mantener en el sistema y no en los qubits individuales.

Topología

El número de bucles en la dirección horizontal o vertical cambiarán con el movimiento continuo de los operadores, pero su paridad (si el número de bucles es par o impar) se mantiene independientemente del ruido continuo en los qubits individuales del tablero. Si este es lo suficientemente grande, no hay variación local que pueda romper el orden global. A algunos lectores, probablemente este reino de lo global sobre partes locales variables les recuerde a la naturaleza misma de los fenómenos cuánticos, la relación no es casualidad.

Esta es la versión más sencilla ya verificada, pero se han propuesto versiones de mecanismos topológicos mucho más avanzadas que usan propiedades globales y operaciones más complejas para permitir más estabilidad ante errores... Irónicamente usando la versión física de las mismas partículas que Hawking usó idealmente para su teoría.

Pero hay mucho más, las capacidades de la Topología para imponer efectos de conjunto sobre una situación local variable no vale solo como experimento mental o para crear códigos de estabilización o algoritmos cuánticos. Hasta ahora, las mejoras en los sistemas de transmisión de información y potencia eléctrica se han centrado en reducir al máximo los defectos e impurezas locales. Desde los cristales de silicio ultrapuros hasta la necesidad de hacer bajar a temperaturas ultra-frías los cables y circuitos de superconductividad para eliminar el efecto nocivo de las fluctuaciones térmicas, todo ello se centra en eliminar efectos locales que estropean la coordinación a gran escala de las partículas.

En lugar de obsesionarse con el nivel de homogeneidad de la geometría local, dotar de propiedades topológicas globales al sistema de transmisión es más razonable y mucho menos derrochador energéticamente. Puede sonar como algo casi increíble, pero eso también es lo que creyeron hace décadas los primeros científicos que los descubrieron, no a partir de consideraciones teóricas de altos vuelos, sino experimentalmente y por casualidad cuando se encontraron con que la respuesta del material era casi imposiblemente perfecta independientemente de lo cutre de su preparación. Ahora mismo se está probando para transmisión de datos, y en un futuro posiblemente para transmitir energía.

¿Para qué sirve realmente un ordenador cuántico?

Todo esto está muy bien, pero ¿Realmente para qué sirve la computación cuántica en el mundo real? Después de todo, al mismo tiempo que los ordenadores cuánticos salen en las noticias, también se anuncian los descubrimientos de nuevos algoritmos clásicos que anulan la supuesta ventaja competitiva de los ordenadores cuánticos.

Sí, los ordenadores cuánticos cumplirían las tareas mucho más rápido que los clásicos si no tuviesen una tasa de error relativamente elevada. Para muchos problemas, se pueden encontrar algoritmos clásicos que permitan a un superordenador clásico igualar la velocidad de un ordenador cuántico incluso con corrección de errores. No hay duda respecto a esto. Sin embargo, el modo de cuantificación de la supuesta supremacía cuántica es algo engañoso.

De hecho, los ordenadores clásicos y los cuánticos son aparatos aún más distintos de lo que hemos dejado ver hasta ahora. Un ordenador digital clásico mueve unidades abstractas de información -los bits- y los procesa paso a paso en su unidad de proceso. En uno cuántico, los qubits (al menos los físicos) no son para nada abstractos, son de hecho el equivalente de los transistores.

Y las diferencias no se acaban ahí, muchos ordenadores cuánticos no siguen programas algorítmicos paso a paso como un ordenador digital. Existen muchos problemas, principalmente de distribución, también encontrar el camino menos costoso entre varios puntos u opciones, que son particularmente difíciles para los ordenadores clásicos. Pero los ordenadores cuánticos pueden tomar ventaja del conjunto entrelazado para encontrar la solución global sin ir parte por parte.

Topología

Cómo usar las propiedades del conjunto para encontrar los caminos más rápidos con el «quantum annealing»

Un ordenador cuántico como D-Wave que usa las propiedades cuánticas de los conjuntos entrelazados para converger hacia una solución sin hacer cálculo explícito alguno, es centenares a miles de veces más eficiente energéticamente que un superordenador enorme clásico. Aunque éste pueda ser teóricamente igual de rápido.

Sin embargo, esto puede resultar más una desventaja que una ventaja en el mundo actual. En plena carrera entre los capitales nacionales más enormes para producir microprocesadores clásicos con billones de transistores, un modo de computación que no requiera hundir montañas de capital es mucho menos atractivo que los usos militares.

Antes que hacer los problemas de distribución mucho más tratables y eficientes se proponen maneras de crear dinero cuántico o de privatizar internet.

Las promesas de solucionar el hambre o diseñar fármacos, son absurdas. Primero, diseñar la estructura de un fármaco no es la principal dificultad en su desarrollo, un número enorme de moléculas prometedoras fallaron por no ser fácilmente procesables por el cuerpo o por interaccionar con varias dianas imprevistas. Algo que no es fácilmente deducible a partir de la estructura de los compuestos.

Algo parecido ocurre con el desarrollo de procesos químicos a escala industrial para fertilizantes, que son mucho más que un problema de catalizadores. Contrariamente a lo que parece creer una buena parte de la clase dirigente, no basta con invertir más y más capital para resolver los problemas. Y tampoco basta con máquinas mágicas, sean litógrafos para microchips u ordenadores cuánticos para resolver los problemas comerciales de los capitales nacionales.

Pero el principal problema es que la razón por la cual la industria farmacéutica no produce nuevos antibióticos o fármacos contra muchas otras enfermedades, es la misma por la que cobra cantidades atroces por insulina a gran parte del mundo. Porque producir nuevos fármacos no es rentable en la mayor parte de casos. No tiene nada que ver con la capacidad de cálculo de los ordenadores. Y lo mismo aplica a la industria de fertilizantes, ya existen muchas alternativas a escalas más pequeñas y menos contaminantes, pero lo que el capitalismo requiere son plantas hiperconcentradas en un puñado de países. Otra vez, el problema no es en sí tecnológico ni computacional, sino de relaciones sociales.

La computación cuántica tendrá mucho potencial para un mundo que valore la distribución y producción a gran escala acorde a las necesidades humanas, pero en un sistema que tritura trabajo humano, malgasta recursos y energía a espuertas y sólo valora acumular más que los capitales rivales, los usos militares y las burbujas especulativas marcarán el desarrollo.