- La computación cuántica surge al aplicar superposición y entrelazamiento a modelos como la máquina de Turing, desde las ideas de Benioff, Feynman y Deutsch.
- Los hitos clave incluyen el algoritmo de Shor, el algoritmo de Grover y el desarrollo progresivo de procesadores de decenas a cientos de qubits por IBM, Google y otros.
- Las aplicaciones potenciales abarcan criptografía, simulación de moléculas, finanzas, IA y comunicaciones, aunque los dispositivos actuales siguen siendo ruidosos y limitados.
- El futuro pasa por qubits de alta calidad, corrección de errores, criptografía postcuántica y sistemas escalables con miles o millones de qubits.
Aunque suene espectacular, la realidad es que todavía estamos en una fase temprana: los prototipos actuales son frágiles, caros y muy especializados, y quedan muchos retos físicos, de ingeniería y de software por resolver. Aun así, la historia de la computación cuántica en apenas medio siglo está llena de hitos increíbles, ideas rompedoras y avances constantes que merece la pena conocer para entender hacia dónde vamos.
Orígenes físicos: de los cuantos de luz a la idea de simular la naturaleza
A comienzos del siglo XX, cuando la electrónica ni soñaba con los microprocesadores, Max Planck y Albert Einstein plantearon que la luz no era continua, sino que venía en paquetes discretos de energía llamados cuantos. Esta intuición, pensada para resolver la famosa “catástrofe ultravioleta”, abrió la puerta a toda la mecánica cuántica, la teoría que describe el comportamiento de la materia y la radiación a escalas atómicas y subatómicas.
Con el tiempo, otros físicos fueron refinando estas ideas y aparecieron fenómenos que hoy son la base de los ordenadores cuánticos: la superposición de estados (un sistema puede estar en varios estados a la vez) y el entrelazamiento cuántico (varias partículas quedan correlacionadas de forma tan profunda que lo que ocurre a una afecta instantáneamente al resto, sin importar la distancia).
Si lo comparamos con la informática clásica, donde el bit solo puede ser 0 o 1, la diferencia es brutal. En un PC normal, con n bits podemos representar hasta 2^n configuraciones distintas, pero el sistema está siempre en una sola de ellas en cada instante. Además, para cambiar x bits necesitamos, como mínimo, x operaciones, una por cada bit afectado, sin atajos mágicos.
En un sistema cuántico, los qubits pueden estar en superposición de 0 y 1 al mismo tiempo, y varios qubits pueden estar entrelazados, de manera que las operaciones sobre uno modifican simultáneamente las relaciones con los demás. Eso permite explotar una forma de paralelismo cuántico que, bien aprovechada, multiplica la capacidad de cómputo para ciertos problemas muy concretos.
Ahora bien, esta aparente ventaja viene con letra pequeña. Tal y como demostró Alexander Holevo en los años 70, aunque un conjunto de qubits pueda codificar muchísima más información que el mismo número de bits clásicos, al medir solo podemos extraer una cantidad limitada de información clásica. El acto de leer el qubit lo “colapsa” a 0 o 1, perdiendo la estructura probabilística previa.
Primeras ideas de computación cuántica: Benioff, Feynman y Deutsch

En la década de 1970, el físico estadounidense Paul Benioff fue uno de los primeros en plantearse de forma seria qué pasaría si una máquina de Turing, el modelo teórico de ordenador, se describiera con las reglas de la mecánica cuántica. En 1980, describió un modelo de máquina de Turing reversible que utilizaba sistemas cuánticos para representar la cinta, demostrando que era posible formular un modelo teórico de computación cuántica sin violar las leyes físicas.
En el diseño de Benioff, la cinta de la máquina de Turing se sustituye por una secuencia de sistemas cuánticos de dos niveles (algo análogo a espines), y el cabezal se modela como una interacción cuántica capaz de leer o resetear el estado. El conjunto de reglas se traduce en una ecuación de Schrödinger apropiada. El modelo es reversible y, en principio, no disipa energía, pero no explota a fondo la superposición, porque al final el cabezal actúa midiendo y colapsando los estados de la cinta.
Poco después, en una famosa charla de 1982 en el MIT, el premio Nobel Richard Feynman planteó una idea tremendamente influyente: los sistemas cuánticos reales son prácticamente imposibles de simular eficientemente con ordenadores clásicos, pero un ordenador basado en fenómenos cuánticos sí podría simularlos de forma natural. Este fue el germen de la simulación cuántica y de la intuición de que un computador cuántico podría abordar problemas inabordables para la informática convencional.
En paralelo, el matemático soviético Yuri Manin también defendía que ciertos sistemas físicos requerían modelos de computación nuevos, y que los dispositivos basados en mecánica cuántica ofrecían un camino prometedor. La idea de Feynman y Manin era clara: convertir la dificultad de simular lo cuántico en una oportunidad construyendo máquinas que obedezcan las mismas reglas que aquello que intentan simular.
El siguiente gran salto llegó en 1985 con el físico británico-israelí David Deutsch, de la Universidad de Oxford. Deutsch formuló el concepto de ordenador cuántico universal, una máquina que, aplicando una versión ampliada del principio de Church-Turing, podría simular cualquier otro sistema físico (y, en particular, cualquier otro ordenador cuántico) a través de un conjunto finito de puertas cuánticas. Además, fue el primero en formular explícitamente un algoritmo cuántico y en dejar claro que estos ordenadores no solo eran curiosidades teóricas, sino que podían ejecutar programas cuánticos específicos.
De la teoría a los algoritmos que cambian las reglas del juego
Durante los años 80 y principios de los 90, varios investigadores de IBM, Microsoft y otras instituciones comenzaron a desarrollar problemas pensados para ser resueltos de forma cuántica y a diseñar los primeros algoritmos cuánticos con ventajas demostrables frente a los algoritmos clásicos.
Entre los primeros ejemplos está el algoritmo Deutsch-Jozsa (1992), que permite decidir si una función dada en forma de “caja negra” es constante o balanceada usando muchos menos pasos que cualquier enfoque clásico. Aunque no resuelve un problema útil en la práctica, sirve como demostración de fuerza del paralelismo cuántico.
En 1994-1995, el matemático estadounidense Peter Shor dio el gran golpe conceptual al presentar un algoritmo cuántico para factorizar enteros grandes de forma exponencialmente más rápida que los mejores algoritmos clásicos conocidos. Justo después planteó un esquema de corrección de errores cuánticos, crucial para lidiar con el ruido y la decoherencia. El impacto fue inmediato: si algún día se construyen ordenadores cuánticos grandes y estables, los sistemas de cifrado como RSA y la criptografía de curva elíptica quedarían seriamente comprometidos
Casi en paralelo, surgieron otros algoritmos clave. En 1996, Lov Grover describió un algoritmo cuántico de búsqueda en bases de datos no ordenadas que ofrece una aceleración cuadrática: donde un algoritmo clásico necesitaría, en promedio, N consultas, el algoritmo de Grover lo hace con del orden de √N. No es tan espectacular como la aceleración exponencial de Shor, pero tiene aplicaciones potenciales en un montón de tareas de búsqueda y optimización.
En el ámbito de la optimización surgió también el llamado temple cuántico (quantum annealing), propuesto en 1989, que aprovecha efectos cuánticos para escapar de mínimos locales y encontrar configuraciones de energía mínima en problemas complejos. Aunque se trata de un modelo de computación más restringido que el de un ordenador cuántico universal, tiene aplicaciones claras en aprendizaje automático, logística o diseño de materiales.
Primeros dispositivos y la carrera por aumentar los qubits
Una cosa es tener modelos matemáticos elegantes y otra muy distinta es construir máquinas físicas que los implementen. A finales de los 90 empezaron los primeros demostradores experimentales de ordenadores cuánticos a muy pequeña escala.
En 1998, investigadores del MIT lograron manipular y leer el estado de un solo qubit usando una solución de aminoácidos, mientras en la Universidad de Berkeley se presentó un computador de 2 qubits basado en técnicas de resonancia magnética nuclear. Eran sistemas diminutos, pero demostraban que se podían controlar qubits reales y ejecutar operaciones cuánticas sencillas.
En 1999, los investigadores Yasunobu Nakamura y Jaw-Shen Tsai, en Japón, construyeron un circuito superconductor susceptible de actuar como qubit, abriendo la puerta a la tecnología de qubits superconductores que hoy usan empresas como IBM o Google. En 2000, en el Laboratorio Nacional de Los Álamos, con la participación de IBM y la Universidad de Stanford, se ejecutó el algoritmo de Shor en un ordenador cuántico de 7 qubits, otro hito simbólico.
La década de 2000 trajo un goteo constante de avances: en 2007, un equipo de Yale y del NIST desarrolló el primer bus cuántico superconductor para conectar componentes y servir como memoria temporal; en 2008, se consiguió almacenar un qubit en un átomo de fósforo durante 1,75 segundos, aumentando enormemente el tiempo de coherencia disponible para cálculos; en 2009, investigadores de Yale presentaron el primer procesador cuántico de estado sólido con un formato muy similar a un microprocesador clásico.
En paralelo, la empresa canadiense D-Wave Systems se centró en la tecnología de temple cuántico. En 2007 mostró un dispositivo de 16 qubits enfocado a problemas de optimización y, con el paso de los años, fue escalando hasta equipos de aproximadamente 2000 qubits. Aunque no son ordenadores cuánticos universales y su carácter “realmente cuántico” ha sido muy discutido, han servido para explorar aplicaciones prácticas en áreas como logística o aprendizaje automático.
Supremacía cuántica y procesadores cada vez más grandes
La competición se intensificó a partir de 2010. En 2011, D-Wave anunció la primera computadora cuántica comercial, con un precio en torno a los diez millones de dólares. En 2012, IBM presentó un chip cuántico relativamente estable con la ambición de que la tecnología pudiera llegar a las empresas e incluso a los hogares en el futuro.
Aunque los primeros prototipos tenían pocos qubits útiles, la evolución se aceleró: en 2017, IBM mostró un procesador cuántico comercial de 17 qubits; en 2019, lanzó el IBM Q System One, el primer ordenador cuántico comercial integrado en un sistema completo, y presentó un procesador de 53 qubits accesible en la nube. Ese mismo año, Google proclamó haber logrado la famosa supremacía cuántica: un procesador cuántico, Sycamore, habría realizado en unos 200 segundos una tarea (la generación de cierta distribución de números aleatorios) para la que un superordenador clásico necesitaría miles de años.
La afirmación de Google fue contestada por IBM, que argumentó que un superordenador bien optimizado podría realizar la misma tarea en un par de días y medio, no en milenios. Aun así, el mensaje de fondo estaba claro: los prototipos cuánticos empezaban a atacar problemas fuera del alcance práctico inmediato de los mejores superordenadores.
En 2021, IBM presentó un procesador de 127 qubits, y en 2022 dio a conocer Osprey, con 433 qubits, uno de los procesadores cuánticos más grandes del mundo en términos de número de qubits físicos. Ese mismo año se lograron otros hitos: en la Universidad Tecnológica de Delft se desarrolló el primer procesador de silicio de 6 qubits; en Japón se demostró una doble compuerta cuántica que permite intercambiar energía e información entre dos átomos en apenas 6,5 nanosegundos usando un láser; y en la Universidad de Gales del Sur se diseñó un procesador a escala atómica capaz de simular el comportamiento de una molécula, algo que Feynman había imaginado décadas antes.
Además, dentro del proyecto QuEra, equipos de Harvard y el MIT construyeron un ordenador cuántico de 256 qubits basado en átomos fríos. En junio de 2022, el equipo de Michelle Simmons anunció el primer chip cuántico que simula una molécula de poliacetileno, desarrollado por Silicon Quantum Computing. Todo ello confirma que la “carrera cuántica” está lejos de frenarse.
Qué es exactamente un qubit y por qué es tan especial
En la computación clásica, la unidad fundamental de información es el bit, que solo puede estar en uno de dos estados: 0 o 1. En computación cuántica, la unidad básica se llama qubit (quantum bit), y ahí es donde empieza la diferencia: un qubit puede estar en el estado 0, en el 1 o en una superposición de ambos al mismo tiempo, con determinadas probabilidades asociadas.
Formalmente, podemos pensar en el estado de un qubit como un punto en la esfera de Bloch, una representación geométrica donde cada punto de la superficie describe una combinación concreta de 0 y 1. Esto implica que hay infinitas superposiciones posibles, y cada una es un estado cuántico válido. Cuando no medimos el sistema, se mantiene en esa combinación; cuando lo medimos, colapsa aleatoriamente a 0 o 1, de acuerdo con las probabilidades.
Esta característica permite que con pocos qubits se represente una cantidad de información enorme. Por ejemplo, con 8 bits clásicos solo podemos almacenar un valor entre 256 posibles en cada instante. En cambio, con 8 qubits podemos tener una superposición de los 256 estados a la vez, lo que posibilita evaluar, en cierto sentido, todos esos casos en paralelo mediante un algoritmo cuántico bien diseñado.
Si pensamos en un sistema cuántico con n qubits, el número de amplitudes necesarias para describir su estado crece como 2^n. Con 40 partículas en 40 posiciones posibles, hay 2^40 configuraciones. Un ordenador clásico solo necesita 40 bits para indicar en cuál de esos estados se encuentra el sistema si es clásico, pero para describir un sistema cuántico que está en superposición de todos ellos se requieren 2^40 números complejos, es decir, más de 130 GB de memoria. Con 41 posiciones, la memoria se dobla. En unos cientos de partículas, la cantidad de información necesaria para describir el sistema supera el número de partículas del universo, de modo que simularlo en un superordenador clásico es, simplemente, inviable.
Superposición, entrelazamiento y decoherencia: la “magia” y sus limitaciones
La superposición cuántica es una de las propiedades más sorprendentes. Un qubit puede comportarse como “0 y 1 a la vez”, y un sistema de varios qubits puede estar simultáneamente en muchas combinaciones de valores. Esto se ilustra a menudo con la famosa paradoja del gato de Schrödinger: se imagina un gato en una caja opaca conectado a un mecanismo que, si detecta cierta partícula, rompe un vial de veneno. Hasta que abrimos la caja, en la descripción cuántica el gato está a la vez vivo y muerto, porque el sistema está en superposición de ambos estados.
Cuando varios qubits interactúan, puede aparecer el entrelazamiento cuántico. Dos qubits entrelazados tienen sus estados correlacionados de tal forma que no podemos describir cada uno por separado: solo el sistema conjunto tiene un estado bien definido. Si medimos uno de ellos, obtenemos información instantánea sobre el otro, incluso si están separados por grandes distancias. En términos de computación, esto permite realizar operaciones globales sobre muchos qubits a la vez y es la base del paralelismo cuántico más potente.
Sin embargo, estos fenómenos son extremadamente delicados. Cuando un sistema cuántico interactúa con el entorno (vibraciones, calor, campos magnéticos, radiación…), pierde progresivamente su carácter cuántico y se comporta como un sistema clásico. Este proceso se conoce como decoherencia cuántica. En la práctica, se traduce en que la superposición y el entrelazamiento se rompen en un tiempo finito, generando errores y resultados incorrectos si el cálculo no ha terminado.
Para minimizar la decoherencia, la mayoría de los ordenadores cuánticos actuales se operan en condiciones extremas: temperaturas cercanas al cero absoluto (aprox. −273 ºC), presión prácticamente nula, aislamiento del campo magnético terrestre y control muy fino del entorno. Incluso así, los qubits tienen tiempos de coherencia limitados, y cuantos más qubits se añaden, más complicado es mantenerlos entrelazados sin que alguno se “desentrelace”.
De hecho, el entrelazamiento es tan difícil de mantener y de demostrar que buena parte de las críticas iniciales a dispositivos como los de D-Wave se centraban en la falta de evidencias sólidas de entrelazamiento a gran escala. No basta con que el sistema produzca respuestas aparentemente útiles: hay que poder demostrar que se explotaban realmente efectos cuánticos y no solo procesos clásicos con mucha ingeniería.
Cómo son los ordenadores cuánticos frente a los clásicos
A primera vista, podría parecer que un ordenador cuántico es simplemente “un PC más rápido”, pero la realidad es muy distinta. No basta con cambiar la CPU clásica por una cuántica para que el ordenador se vuelva mágicamente millones de veces más potente. La arquitectura y la forma de programarlos son radicalmente diferentes.
Un ordenador clásico se basa en procesadores, memoria, buses y dispositivos de entrada/salida. Los datos se almacenan y se procesan en forma de bits, con puertas lógicas como AND, OR o NOT. En los ordenadores cuánticos, el corazón del sistema es un conjunto de qubits controlados por electrónica y sistemas criogénicos; el “resto” del ordenador, la parte clásica, se encarga de gestionar el entorno, enviar pulsos de control y leer los resultados. Muchos diseños de ordenadores cuánticos ni siquiera tienen memoria en el sentido habitual: el estado cuántico es, a la vez, dato y proceso.
Para que un dispositivo pueda considerarse un buen ordenador cuántico, suele exigirse que cumpla un conjunto de requisitos conocidos como criterios de Di Vincenzo. Entre ellos están: que sea escalable (que podamos añadir muchos qubits), que permita inicializar los qubits en un estado conocido, que mantenga la superposición el tiempo suficiente, que implemente un conjunto de puertas cuánticas universales con las que se pueda aproximar cualquier operación, y que ofrezca una medición fiable de los qubits al final del cálculo.
Hoy en día se exploran diversas tecnologías para implementar qubits: iones atrapados en campos electromagnéticos, circuitos superconductores, qubits topológicos, defectos en diamantes, átomos neutros en trampas ópticas, etc. Cada enfoque tiene ventajas y desventajas en términos de estabilidad, escalabilidad, facilidad de fabricación y tiempo de coherencia.
Como los ordenadores cuánticos son tan sensibles al entorno, se controlan siempre desde ordenadores clásicos convencionales. De hecho, cuando hablamos de “usar un ordenador cuántico en la nube”, lo que hacemos es enviar un trabajo que será traducido a pulsos de control físicos sobre qubits, y luego recibimos de vuelta resultados clásicos (bitstrings) que debemos interpretar estadísticamente, porque cada ejecución puede dar resultados distintos debido a la naturaleza probabilística del sistema.
Todo esto implica que la computación cuántica no va a sustituir a la clásica en el día a día: ambas convivirán y se complementarán. Para tareas sencillas o de propósito general, un PC clásico seguirá siendo mucho más práctico y barato. Los ordenadores cuánticos se reservarán para problemas muy concretos donde sí puedan ofrecer ventajas claras.
Aplicaciones potenciales: de la criptografía a la química y la IA
Pese a que los ordenadores cuánticos actuales aún son pequeños y ruidosos, se han identificado numerosos campos donde, si se logra escalar la tecnología, podrían marcar la diferencia. Uno de los más comentados es la ciberseguridad: con el algoritmo de Shor, un ordenador cuántico suficientemente grande podría factorizar en poco tiempo números enormes y romper sistemas como RSA o la criptografía de curva elíptica, pilares de la seguridad en Internet y en muchas aplicaciones financieras.
Esta amenaza ha impulsado el desarrollo de la llamada criptografía postcuántica: algoritmos diseñados para ejecutarse en ordenadores clásicos, pero que deberían seguir siendo seguros incluso ante un atacante con un ordenador cuántico potente. Se espera que alrededor de 2024 se consoliden estándares internacionales en este ámbito. En paralelo, tecnologías como la distribución cuántica de claves (QKD) utilizan propiedades cuánticas para detectar cualquier intento de espionaje en la transmisión de claves, abriendo caminos hacia comunicaciones ultras eguras.
En medicina y biología, la capacidad de simular sistemas cuánticos con precisión permitiría modelar moléculas complejas, proteínas o procesos bioquímicos con un nivel de detalle hoy inalcanzable. Esto podría acelerar el descubrimiento de fármacos, el diseño de tratamientos personalizados o el estudio del ADN y sus interacciones.
Las finanzas son otro campo prometedor: los algoritmos cuánticos podrían ayudar a optimizar carteras, gestionar riesgos, detectar fraudes o simular escenarios extremos con modelos mucho más realistas. En logística y transporte, técnicas similares se aplicarían a la optimización de rutas, la planificación de redes de tráfico, la asignación de aviones en aeropuertos o la mejora del consumo energético.
En el ámbito industrial y de la energía, la computación cuántica puede contribuir al diseño de nuevos materiales (por ejemplo, superconductores más eficientes o materiales “verdes”), a mejorar las baterías y a entender mejor las reacciones químicas que sostienen procesos clave. También se espera que juegue un papel importante en meteorología avanzada, modelando el clima con mucha mayor precisión.
La inteligencia artificial cuántica es un área emergente donde se exploran algoritmos cuánticos para clasificación, clustering, optimización o entrenamiento de modelos. Empresas como IBM trabajan en clasificadores cuánticos y en algoritmos híbridos cuántico-clásicos para mejorar sistemas de aprendizaje automático. Se habla incluso de personajes de videojuegos hiperrealistas o vehículos autónomos con capacidades de decisión más sofisticadas gracias a la computación cuántica.
En el ámbito de las comunicaciones y la web3, se estudia la creación de un Internet cuántico más rápido, menos vulnerable al espionaje y con nuevos servicios, algo clave para la evolución de la blockchain. La computación cuántica amenaza algunos de los fundamentos criptográficos de las cadenas de bloques actuales, pero también puede impulsar nuevos esquemas de firma, hashing y consenso postcuanticos que mantengan su seguridad e inmutabilidad.
Programar un ordenador cuántico: herramientas y lenguajes disponibles
Puede parecer que la computación cuántica está reservada a unos pocos laboratorios con acceso a hardware exótico, pero la realidad es que ya se puede programar y probar algoritmos cuánticos desde casa gracias a las plataformas en la nube de empresas como Google, IBM o Microsoft.
Google ofrece la plataforma Google Quantum AI, con una librería de Python llamada Cirq que permite describir circuitos cuánticos, puertas y mediciones. Para ejecutar y depurar los algoritmos, proporciona una Quantum Virtual Machine que simula el comportamiento de los qubits en un entorno clásico, además de acceso limitado a hardware cuántico real en ciertos programas.
IBM, por su parte, tiene el ecosistema Qiskit, que incluye entornos visuales donde se pueden arrastrar y soltar puertas cuánticas para construir circuitos, así como una potente librería en Python. Con Qiskit es posible simular circuitos en local, visualizar su estructura, analizar sus probabilidades y, cuando se quiere ir más allá, lanzar la ejecución en ordenadores cuánticos reales distribuidos por todo el mundo a través de IBM Quantum Experience.
Microsoft apuesta por Azure Quantum, una plataforma en la nube que integra diferentes proveedores de hardware cuántico y que se programa con el lenguaje Q# y el Quantum Development Kit. Este entorno se integra con Visual Studio y Visual Studio Code, y permite trabajar tanto con simuladores clásicos como con dispositivos cuánticos. Además, soporta la interacción con otros frameworks como Qiskit o Cirq, facilitando desarrollos híbridos.
Estas herramientas hacen posible que cualquier persona con cierta base en programación y matemáticas pueda aprender los principios de los algoritmos cuánticos, experimentar con superposición y entrelazamiento, crear circuitos y empezar a pensar de forma “cuántica”, sin necesidad de tener un laboratorio de física a mano.
Retos actuales y futuro de la computación cuántica
A pesar de los grandes avances, todavía hay obstáculos muy serios antes de que la computación cuántica se convierta en una tecnología de uso amplio. Uno de los retos prioritarios es conseguir qubits de alta calidad: más estables, con tiempos de coherencia largos y tasas de error muy bajas, que permitan ejecutar algoritmos complejos sin que el ruido arruine el resultado.
En paralelo, es esencial desarrollar códigos de corrección de errores cuánticos y arquitecturas que permitan operar con qubits lógicos robustos construidos a partir de muchos qubits físicos. Este enfoque recuerda a cómo, en la electrónica clásica, usamos redundancia y códigos de detección de errores para garantizar la fiabilidad en entornos ruidosos, pero la versión cuántica es mucho más exigente.
También hay un enorme desafío en el terreno del software: no se puede coger un algoritmo clásico cualquiera y esperar una mejora drástica al ejecutarlo en un ordenador cuántico. Hace falta rediseñar los algoritmos para aprovechar la superposición y el entrelazamiento, encontrar formulaciones que permitan aceleraciones cuánticas reales y, a la vez, lidiar con las limitaciones de hardware actual (número de qubits, profundidad de circuito, ruido…).
En el plano estratégico, muchos países están invirtiendo fuerte. En España, por ejemplo, se ha puesto en marcha el proyecto CUCO, financiado por el CDTI y el Ministerio de Ciencia e Innovación, que agrupa a varias empresas para investigar aplicaciones industriales de la computación cuántica. A nivel internacional, los planes son ambiciosos: IBM, por ejemplo, se ha fijado metas como superar los 4000 qubits con procesadores modulares para 2025 y, mirando más allá, alcanzar la escala del millón de qubits físicos hacia 2030.
Mirando al horizonte, se habla de plazos como 2040 para que sea técnicamente posible romper de forma práctica la criptografía RSA y la basada en curvas elípticas con ordenadores cuánticos totalmente desarrollados. Mientras tanto, consultoras y analistas suelen coincidir en que los primeros ordenadores cuánticos realmente útiles a nivel comercial, más allá de demostraciones, podrían consolidarse a lo largo de la década de 2030.
Lo que sí parece claro es que, al menos durante mucho tiempo, no tendremos móviles cuánticos en el bolsillo ni PCs de sobremesa con chips cuánticos sustituyendo a los procesadores actuales. Las condiciones extremas que exige el hardware actual hacen muy difícil la miniaturización completa, aunque se investigan nuevos materiales y diseños que podrían abaratar y simplificar la tecnología. Lo más probable es que, como en los albores de la informática clásica, los ordenadores cuánticos se queden de momento en grandes centros de datos y laboratorios, al servicio de empresas, gobiernos y centros de investigación.
La historia de la computación cuántica, desde las primeras intuiciones de Planck, Einstein, Benioff o Feynman hasta los procesadores de cientos de qubits de IBM, Google o QuEra, muestra una evolución rapidísima en muy poco tiempo. Aunque aún falte camino para ver sus efectos directos en el día a día de la mayoría de las personas, todo apunta a que esta tecnología será uno de los grandes motores de cambio en ciencia, industria y sociedad, y que las próximas décadas nos traerán avances que hoy ni siquiera imaginamos.