This article was translated from Chinese by Gemini 2.5 Pro.
El día antes de escribir este borrador, Google lanzó un nuevo algoritmo, Quantum Echoes (¿quizás algoritmo de eco?), que apunta a una alta verificabilidad. Originalmente, no quería meterme en cosas abstractas en el blog, pero los comentarios debajo de estas noticias/informes son realmente difíciles de ignorar, así que hablemos de qué es un cuanto.
Mecánica Clásica#
Vivimos en un mundo que parece ordenado y predecible. Una manzana cae de un árbol, un planeta orbita alrededor del sol, una bola de billar rueda sobre la mesa.
Todos los fenómenos mencionados anteriormente siguen un conjunto de reglas que nos son familiares e intuitivas.
¡La mecánica clásica!
En el universo descrito por Newton, todo funciona como un enorme y preciso mecanismo de relojería. Cada objeto en el universo, desde la partícula de polvo más pequeña hasta la galaxia más masiva, tiene una posición y un momento definidos.
Si pudiéramos conocer con precisión todas las condiciones iniciales de un sistema en un momento dado, como la posición, la velocidad de todas las partículas y las fuerzas que actúan sobre ellas, en principio podríamos predecir con exactitud el estado de ese sistema en cualquier momento futuro, de la misma manera que predecimos a qué hora alguien volverá a casa.
Esta idea se conoce como determinismo y constituye la piedra angular de la física clásica.
En este mundo clásico, las propiedades físicas son continuas. Imagina que subes por una rampa suave; puedes detenerte a cualquier altura en esa rampa.
La velocidad de un coche eléctrico puede ser de 11 km/h, 11.4 km/h, o 11.4514 km/h; los valores pueden subdividirse infinitamente.
Cantidades físicas como la energía, la velocidad y el momento pueden variar suavemente, y cualquier valor dentro de su rango está permitido.
Esta teoría ha tenido un éxito incomparable al describir los objetos macroscópicos de nuestra experiencia diaria; desde la construcción de puentes hasta el lanzamiento de naves espaciales, la mecánica clásica es el principio físico que mejor sabemos utilizar.
La Ruptura#
Sin embargo, a finales del siglo XIX y principios del XX, cuando los científicos dirigieron su atención a dominios más microscópicos, al comportamiento de los átomos y la luz, este universo perfectamente predecible comenzó a resquebrajarse.
Una serie de experimentos reveló fenómenos extraños que la física clásica no podía explicar, sacudiendo su posición inquebrantable de varios siglos.
Radiación del cuerpo negro#
La teoría clásica falló catastróficamente al predecir el color (distribución de frecuencias) de la luz emitida por un objeto calentado (un “cuerpo negro”).
La teoría predecía que, en la región ultravioleta, la energía de la radiación tendería al infinito, mientras que en los experimentos reales, la energía de la radiación disminuía gradualmente. Es decir, la teoría y el experimento no coincidían.
Esto se conoció como la catástrofe ultravioleta.
En este punto, alguien podría preguntar: “Bueno, si la teoría y el experimento no coinciden, ¿cuál es el problema?”
El problema es que la teoría se derivaba de los fundamentos de la mecánica clásica, el determinismo. Y si el experimento no se ajustaba a la teoría, significaba que, al menos en este ámbito, la familiar mecánica clásica ya no era aplicable.
Es como si el metro llegara todos los días a la misma hora, pero un día, de repente, no aparece. Le preguntas a un transeúnte y te dice: “Aquí no hay ninguna estación de metro”.
Entonces, ¿cómo has estado yendo a trabajar?
Para resolver este enigma, el físico Max Planck propuso en 1900 una hipótesis revolucionaria: la emisión y absorción de energía no es continua, sino que ocurre en “paquetes” de energía discretos e indivisibles.
Llamó a esta unidad mínima e indivisible de energía un “cuanto” (quantum).
Esta fue la primera aparición del concepto de cuanto, marcando el comienzo de una revolución en la física.
Efecto fotoeléctrico#
Ya a finales del siglo XIX se sabía que la luz era una onda y que los metales contenían electrones libres. Así surgió una idea espontánea: ¿podríamos usar la onda de luz para arrancar electrones del metal?
Curiosamente, la capacidad de arrancar electrones dependía del color (frecuencia) de la luz, no de su intensidad (brillo).
Incluso la luz azul más tenue podía expulsar electrones instantáneamente, mientras que la luz roja más intensa no lograba nada.
Albert Einstein explicó esto en 1905, proponiendo audazmente que la luz misma está compuesta por estos paquetes de energía, a los que llamó “cuantos de luz” (más tarde conocidos como “fotones”).
Cada fotón transporta una cantidad de energía, y solo cuando la energía de un solo fotón es suficientemente grande (es decir, la frecuencia de la luz es suficientemente alta) puede arrancar un electrón de un átomo (escapando de la superficie del metal).
Esta explicación no solo le valió a Einstein el Premio Nobel, sino que también proporcionó una fuerte evidencia de la naturaleza corpuscular de la luz.
Podemos explicarlo de una manera más sencilla. En la imaginación clásica, la luz es como una corriente de agua; un mayor brillo significa una corriente más fuerte.
El metal es como un muro, y si la corriente es lo suficientemente fuerte, puede arrancar algunas piedras (electrones).
Más tarde se descubrió que la luz no es una corriente de agua, sino más bien una carretera. El brillo determina cuán ancha es la carretera, no cuán fuerte es la energía. Lo que realmente transporta la energía son los coches que circulan por la carretera, es decir, los fotones.
Solo cuando el coche es lo suficientemente grande (alta frecuencia, gran energía) puede derribar ese muro y arrancar las piedras.
Estabilidad atómica#
Todo el mundo sabe que el mundo está compuesto por átomos y moléculas.
Pero aquí surge la pregunta: ¿cuál es su estructura?
Un átomo no es una pequeña bola sólida, sino un sistema compuesto por un núcleo y electrones, donde los electrones son partículas que se mueven alrededor del núcleo.
Sin embargo, según las leyes del electromagnetismo clásico, una partícula cargada en movimiento acelerado debería irradiar energía continuamente.
La energía es finita, por lo que un electrón no puede irradiar energía indefinidamente. Así, mientras orbita, perdería energía constantemente, su velocidad disminuiría, el radio de su órbita se reduciría y finalmente caería en espiral hacia el núcleo.
Si esta teoría fuera correcta, significaría que todos los átomos del universo colapsarían en un instante. Nuestras mesas, el aire, nuestros cuerpos, y de hecho el mundo entero, no podrían existir.
Pero la realidad es que todo está bien, el mundo es estable como siempre. Este fue el gran misterio al que se enfrentaron los científicos a principios del siglo XX.
En 1913, el físico Niels Bohr propuso una hipótesis audaz: ¿y si los electrones no pudieran moverse libremente, sino que solo se les permitiera ocupar ciertas órbitas específicas?
Es como si los electrones solo pudieran estar en los escalones de una escalera, en lugar de correr felizmente por una rampa.
Estos escalones corresponden a diferentes estados de energía, que llamamos niveles de energía. Cuando un electrón está en un nivel de energía, es estable, no emite energía y no cae.
Solo cuando un electrón “salta” a otro nivel de energía absorbe o libera un cuanto de energía, que es exactamente la diferencia entre los dos niveles:
Mecánica Cuántica#
En resumen, los cuantos no son continuos, sino que vienen en paquetes discretos. Esta es la esencia del pensamiento cuántico.
Los físicos se dieron cuenta de que las reglas que gobiernan el mundo microscópico son radicalmente diferentes de las que conocemos en el mundo macroscópico. Nació un sistema teórico completamente nuevo: la “mecánica cuántica”.
No es un simple ajuste de la mecánica clásica, sino una revolución de paradigma completa, diseñada específicamente para describir el comportamiento de partículas microscópicas como átomos, electrones y fotones.
Así, el mapa de la física se dividió en dos. La mecánica clásica sigue siendo la reina del mundo macroscópico, mientras que la mecánica cuántica es la soberana absoluta del dominio microscópico.
Ambas teorías han logrado un éxito asombroso en sus respectivos campos, pero las imágenes de la realidad que pintan son muy diferentes.
La física clásica no es incorrecta, sino que debe ser vista como una aproximación emergente de la mecánica cuántica a escala macroscópica. (¿Qué? ¿No sabes lo que es la emergencia?)
El determinismo y la previsibilidad que experimentamos en nuestra vida cotidiana no son propiedades fundamentales del universo. Comprender esto es crucial. El mundo clásico parece tan ordenado porque es el resultado del promedio estadístico a gran escala del comportamiento probabilístico de innumerables eventos cuánticos microscópicos.
Es como observar el flujo de una gran multitud: podemos predecir su tendencia general, pero no podemos determinar la trayectoria específica de un individuo. La realidad determinista que percibimos se basa en un fundamento cuántico lleno de probabilidad, incertidumbre y posibilidad.
Esto no es solo un cambio en la teoría física, sino una profunda transformación filosófica que ha alterado fundamentalmente nuestra comprensión de la naturaleza de la realidad. (Entonces, ¿estamos tratando de decir que el cálculo probabilístico de los LLM también es mecánica cuántica? ¡Cuando tengas dudas, mecánica cuántica!)
¿Qué es un cuanto?#
La palabra “cuanto” suena misteriosa y profunda, pero su concepto central es excepcionalmente simple. Proviene del latín quantus, que significa “cuánto”.
En física, un cuanto (quantum, plural quanta) se refiere a la unidad discreta más pequeña e indivisible de cualquier entidad física involucrada en una interacción.
Es como el “átomo” de una propiedad física, el ladrillo fundamental o el paquete de datos de esa propiedad.
Definición#
Podemos entender este concepto a través de algunos ejemplos concretos. El ejemplo más famoso es la luz.
Normalmente percibimos la luz como continua, pero en realidad, está compuesta por paquetes de energía, y estos paquetes son los fotones. Por lo tanto, un fotón es un cuanto de luz.
Del mismo modo, la carga eléctrica no es infinitamente divisible; existe una unidad de carga mínima, la carga elemental, que es el cuanto de carga.
Este concepto fue propuesto por primera vez por Planck al estudiar la radiación del cuerpo negro, quien hipotetizó que la energía solo podía ser absorbida o emitida en múltiplos enteros de la constante de Planck multiplicada por la frecuencia .
Posteriormente, Einstein, al explicar el efecto fotoeléctrico, materializó este concepto al proponer la existencia de los cuantos de luz.
Del sustantivo “cuanto”, derivamos un verbo más central: “cuantizar”.
La cuantización se refiere al hecho de que el valor de una propiedad física solo puede tomar ciertos valores discretos y discontinuos, como los números enteros, en lugar de cualquier valor arbitrario.
En pocas palabras, el mundo clásico es una rampa. En la mecánica clásica, cantidades físicas como la energía y la velocidad son como una rampa suave.
Puedes pararte a cualquier altura en la rampa: 1 metro, 1.1 metros, o 1.14 metros. No hay lugares intermedios prohibidos.
En la mecánica cuántica, sin embargo, muchas cantidades físicas, especialmente en sistemas ligados (sistemas formados por dos o más partículas unidas por fuerzas de interacción, cuya energía total es menor que la energía de las partículas completamente separadas), son como una escalera.
Solo puedes estar en el primer, segundo o tercer escalón, pero nunca con un pie en el primer escalón y el otro en el segundo. (Intentando estar en dos sitios a la vez, ¿eh?)
Por ejemplo, la energía de un electrón en un átomo está cuantizada. Solo puede tener ciertos niveles de energía específicos y discretos, como los diferentes escalones de una escalera.
Cuando un electrón absorbe o libera energía, “salta” instantáneamente de un nivel de energía a otro, un proceso llamado salto cuántico, y nunca pasa por estados intermedios. (Como hablaremos de la función de onda más adelante, esto no debe entenderse como teletransportación. Un salto cuántico parece instantáneo, pero en realidad es una transición de estado cuántico causada por una interacción).
De nuevo, la estabilidad atómica#
La cuantización no es solo un fenómeno microscópico interesante; es la razón fundamental de la existencia estable de nuestro universo. Volvamos a la crisis de la estabilidad atómica mencionada anteriormente: ¿por qué los electrones no caen en el núcleo?
La respuesta está en la cuantización de la energía. Debido a que los niveles de energía del electrón están cuantizados, existe un “escalón” de energía insuperable. Un electrón puede saltar a un nivel de energía más bajo y liberar energía, pero no puede hacerlo indefinidamente.
Una vez que alcanza el nivel de energía más bajo (el estado fundamental), ya no puede perder más energía porque no hay más escalones debajo de él. (¿O es que quieres entrar en los Backrooms?)
Esta energía mínima impide que el electrón caiga, garantizando así la estabilidad del átomo.
Por lo tanto, el principio de cuantización es la piedra angular de nuestro mundo. Es porque propiedades como la energía y el momento angular son discretas a nivel microscópico, en “paquetes”, que los átomos pueden formar estructuras estables, los enlaces químicos pueden unir moléculas, y el mundo material puede presentar la rica diversidad y el orden estable que observamos.
A un nivel más profundo, el descubrimiento de la cuantización reveló las limitaciones fundamentales del lenguaje de la física clásica.
La física clásica se basa en la suposición de continuidad, y su herramienta matemática principal es el cálculo, que trata con cambios continuos. El descubrimiento de la cuantización significa que la lógica subyacente del universo es discreta, digital.
Esto obligó a los físicos a adoptar un lenguaje matemático completamente nuevo, como el álgebra lineal y la teoría de operadores, para describir esta realidad construida sobre escaleras en lugar de rampas.
Esto también explica por qué la forma matemática de la mecánica cuántica parece tan abstracta para los principiantes: se basa en conceptos completamente nuevos.
Las tres grandes características de la mecánica cuántica#
Ya que estamos hablando de cuantos, debemos explicar simultáneamente la dualidad onda-partícula, la superposición y el entrelazamiento cuántico. Además, estos son los conceptos físicos fundamentales para entender la computación cuántica.
Dualidad onda-partícula: ¿Soy una onda? Oh, soy una partícula#
En el mundo clásico, las cosas se dividen claramente en dos categorías.
Partículas y ondas.
Las partículas son entidades discretas que ocupan una posición definida en el espacio, como una bola de billar.
Las ondas son perturbaciones difusas que se propagan por el espacio, como las ondas en la superficie del agua.
Ambas están claramente diferenciadas y no se mezclan.
Sin embargo, en el mundo cuántico, esta clara distinción desaparece.
Un principio central de la mecánica cuántica es la dualidad onda-partícula, que establece que toda entidad microscópica, ya sea un electrón considerado partícula o la luz considerada onda, posee simultáneamente propiedades de partícula y de onda.
La propiedad que se observa depende enteramente de la configuración experimental y del método de observación. Es importante destacar que nunca podemos observar ambas propiedades complementarias en el mismo experimento.
Nada demuestra la extrañeza de la dualidad onda-partícula mejor que el famoso experimento de la doble rendija.
El diseño del experimento es muy simple, pero sus resultados son suficientes para subvertir todas nuestras intuiciones sobre la realidad.
Primero, usemos objetos macroscópicos como referencia. Imagina que tienes un muro con dos rendijas paralelas. Lanzas pelotas de tenis al azar hacia este muro.
Algunas pelotas serán bloqueadas por el muro, mientras que otras pasarán por una de las rendijas y golpearán la pared de detrás.
Al final, en la pared de detrás, que llamaremos pantalla receptora, cada pelota que pase dejará un punto.
Verás dos áreas en forma de franja que corresponden a las rendijas, donde se concentran las pelotas de tenis. Esto se ajusta perfectamente a nuestra intuición y es un comportamiento típico de las partículas.
Quizás esto suena un poco complicado. Imagina que miras un muro con dos rendijas a través de las cuales puedes ver el paisaje de detrás. El paisaje que ves es más o menos equivalente a donde caen las pelotas.
Por supuesto, puedes usar pelotas de baloncesto en lugar de tenis.
Ahora, coloquemos el montaje experimental en un tanque de agua y usemos olas en lugar de pelotas de tenis. Cuando las olas de agua llegan a la doble rendija, cada rendija se convierte en una nueva fuente de ondas, generando ondas circulares que se expanden.
Estos dos conjuntos de ondas se superponen e interfieren entre sí durante su propagación. En algunos lugares, dos crestas de onda se encuentran, formando una cresta más alta (interferencia constructiva).
En otros lugares, una cresta y un valle se encuentran y se anulan mutuamente, dejando la superficie del agua en calma (interferencia destructiva).
Finalmente, en la pantalla receptora, veremos una serie de franjas claras y oscuras alternas. Este es el patrón de interferencia, el comportamiento característico de las ondas.
Aquí viene la parte crucial del experimento. Colocamos todo en un pequeño dispositivo y usamos un emisor de electrones para disparar electrones hacia una pared con dos pequeñas rendijas.
Esperaríamos ver dos franjas, como se mencionó antes; los lugares que puedes ver serían aproximadamente donde caen los electrones.
Sin embargo, el resultado experimental es que, aunque los electrones llegan a la pantalla receptora uno por uno, como pequeños puntos, con el tiempo, el patrón que forman estos puntos es un patrón de interferencia, ¡como el de las olas de agua!
Este resultado es desconcertante. Parece sugerir que cada electrón individual, cuando no está siendo observado, pasa simultáneamente por ambas rendijas e interfiere consigo mismo como una onda, para finalmente aparecer como una partícula en un punto aleatorio de la pantalla.
Para averiguar por qué camino fue realmente el electrón, instalemos detectores en las rendijas para observar los electrones mientras pasan.
Y aquí es donde ocurre la escena más extraña del mundo cuántico. Tan pronto como comenzamos a observar por qué rendija pasa el electrón, el patrón de interferencia desaparece instantáneamente.
El comportamiento de los electrones se vuelve ordenado, como el de las pelotas de tenis, dejando solo dos franjas en la pantalla receptora.
En la mecánica cuántica, el simple acto de saber la trayectoria del electrón cambia por completo el resultado del experimento. El acto de observar parece forzar al electrón a colapsar de un estado de onda difuso y lleno de posibilidades a una partícula con una trayectoria definida.
Por lo tanto, este experimento revela las limitaciones de nuestra percepción de la realidad. Onda y partícula no son descripciones últimas de lo que es una entidad cuántica; son más bien dos metáforas imperfectas que hemos tomado prestadas del mundo clásico para describir cómo se comporta en contextos específicos.
Un electrón en sí mismo no es ni una onda ni una partícula en el sentido clásico; es una entidad cuántica de un nivel más profundo que nuestro lenguaje cotidiano no puede describir con precisión.
Nuestro acto de observación es como forzar la proyección de esta compleja entidad cuántica sobre uno de los dos conceptos clásicos que podemos entender (onda o partícula).
Por lo tanto, la dualidad onda-partícula no es tanto una doble identidad de las partículas microscópicas, sino más bien nuestra incapacidad para describir con precisión el mundo cuántico usando el lenguaje y la intuición clásicos.
Superposición: Quiero que el caballo corra y que no coma heno#
La dualidad onda-partícula nos lleva a otro concepto cuántico aún más fundamental: la superposición.
Se refiere al hecho de que, antes de ser medido, un sistema cuántico puede existir en una mezcla de todos sus posibles estados simultáneamente.
La posición de un electrón no es un punto preciso, sino más bien una nube de probabilidad que se extiende en el espacio, describiendo la probabilidad de encontrar el electrón en diferentes lugares.
La descripción matemática de esta nube de probabilidad es la función de onda.
Imagina una moneda girando rápidamente en el aire. Antes de que aterrice, no es ni cara ni cruz, sino que se encuentra en un estado dinámico mixto que contiene ambas posibilidades.
Cuando la atrapamos con la mano (la medimos), su estado colapsa instantáneamente, determinándose como cara o cruz.
Cuando se realiza una medición en un sistema en superposición, el estado de superposición desaparece instantáneamente y el sistema (el mundo) elige al azar uno de los posibles estados para manifestarse. Este proceso se llama colapso de la función de onda.
Podemos calcular con precisión la probabilidad de cada resultado utilizando la función de onda, pero nunca podemos predecir qué resultado obtendremos antes de la medición. El universo, en su nivel más fundamental, parece estar tirando los dados.
Para revelar las consecuencias absurdas de extender el concepto de superposición del mundo microscópico al macroscópico, el físico Erwin Schrödinger diseñó en 1935 un famoso experimento mental: el gato de Schrödinger.
Se coloca un gato (hipotético) en una caja de acero completamente sellada. Dentro de la caja, hay un pequeño dispositivo que contiene un átomo radiactivo, un contador Geiger y un martillo conectado a un frasco de cianuro venenoso.
Este átomo radiactivo tiene un 50% de probabilidad de desintegrarse en la próxima hora. Si el átomo se desintegra, el contador Geiger se activará, lo que hará que el martillo rompa el frasco de veneno y el gato muera. Si el átomo no se desintegra, el gato permanecerá ileso.
Según el principio de superposición de la mecánica cuántica, antes de realizar una observación, el átomo radiactivo se encuentra en un estado de superposición de “desintegrado” y “no desintegrado”.
Dado que la vida o muerte del gato está estrictamente ligada al estado de este átomo, entonces, antes de abrir la caja y observar, el propio gato también debe estar en un estado de superposición de “vivo” y “muerto”. Es decir, está simultáneamente vivo y muerto.
Por supuesto, el propio Schrödinger no creía que un gato pudiera estar vivo y muerto al mismo tiempo. El propósito de su experimento mental no era demostrar la corrección de la mecánica cuántica, sino señalar agudamente, a través de una reductio ad absurdum, lo absurdo que es aplicar la interpretación de la superposición cuántica de la escuela de Copenhague indiscriminadamente a objetos macroscópicos.
Este experimento expone dramáticamente un problema central no resuelto en la mecánica cuántica: el problema de la medición.
¿Qué constituye exactamente una medición?
¿La activación del contador Geiger?
¿La interacción del gato con el gas venenoso?
¿O el momento en que el científico humano abre la caja?
¿Dónde está exactamente la frontera entre el mundo cuántico de las leyes probabilísticas y llenas de posibilidades, y la realidad clásica que percibimos como “esto o aquello”? La propia teoría cuántica no proporciona una respuesta clara y no arbitraria.
Entrelazamiento cuántico: Tú y yo, corazón con corazón#
Si la superposición ya desafía nuestra cognición, el entrelazamiento cuántico lleva esta extrañeza al extremo.
Se refiere a que dos o más partículas cuánticas pueden estar correlacionadas de una manera especial, de modo que sus propiedades físicas se vuelven inseparables, formando un único sistema unificado, sin importar cuán lejos estén unas de otras.
Es imposible describir el estado de una partícula de forma independiente; su estado solo tiene sentido en relación con la otra partícula.
Imagina que, de alguna manera (como la desintegración de una partícula inestable), producimos un par de electrones entrelazados. Según la ley de conservación del momento angular, sus espines deben ser opuestos.
Antes de ser medidos, cada electrón se encuentra en un estado de superposición de “espín arriba” y “espín abajo”.
Ahora, separamos estos dos electrones, enviando uno al Polo Norte y el otro al Polo Sur.
Cuando mides el electrón en el Polo Norte y encuentras que su espín es “arriba”, en ese mismo instante, el estado del otro electrón, lejos en el Polo Sur, se determina inmediatamente como “espín abajo”, y viceversa.
Esta correlación es instantánea y parece ignorar la distancia espacial. Fue este fenómeno el que perturbó profundamente a Einstein, quien lo llamó “acción fantasmal a distancia” (spooky action at a distance), porque parecía violar el principio de la relatividad especial de que ninguna información o influencia puede propagarse más rápido que la velocidad de la luz.
Para comprender la singularidad del entrelazamiento cuántico, debemos distinguirlo de las correlaciones clásicas que nos son familiares.
Imagina un par de guantes, uno izquierdo y otro derecho. Los pones en dos cajas opacas separadas, envías una al azar a un amigo en Francia y te quedas con la otra en casa.
Cuando abres tu caja y descubres que es el guante derecho, sabes instantáneamente que en la caja de tu amigo debe estar el guante izquierdo. Esto no es sorprendente, porque esta información (cuál es el izquierdo y cuál el derecho) estaba predeterminada desde el principio. Tu descubrimiento solo reveló un hecho que ya existía.
El entrelazamiento cuántico es completamente diferente.
Las propiedades de las partículas entrelazadas (como espín arriba o abajo) no están predeterminadas antes de la medición.
Ambas se encuentran en un estado de superposición que contiene ambas posibilidades. Es como decir que, antes de ser observados, cada uno de los dos guantes es simultáneamente un guante izquierdo y un guante derecho.
No es hasta el momento de abrir una de las cajas y observar que los estados de ambos guantes se determinan conjunta e instantáneamente: uno se convierte en izquierdo y el otro en derecho.
El teorema de Bell, propuesto por el físico John Bell, y numerosos experimentos posteriores han demostrado elocuentemente que la realidad cuántica funciona de esta última manera, descartando la posibilidad de teorías de variables ocultas locales como la del guante.
Es crucial enfatizar que, aunque la correlación entre partículas entrelazadas es instantánea, esto no puede usarse para la comunicación superlumínica.
La razón es que, si bien la medición de una partícula afecta instantáneamente a la otra, el resultado de la medición en sí es completamente aleatorio.
No podemos controlar que una partícula colapse a “espín arriba” para enviar una señal de “1” a la otra parte.
El fenómeno del entrelazamiento cuántico desafía fundamentalmente una creencia básica, el principio de localidad, que establece que un objeto solo es afectado por su entorno inmediato.
Nos revela que el universo, en su nivel más profundo, puede ser no local, que existe una interconexión profunda entre todas las cosas que va más allá de nuestra intuición clásica.
La separación y la distancia que percibimos pueden ser solo una ilusión macroscópica.
Dos partículas entrelazadas, sin importar cuán lejos estén, deben ser consideradas esencialmente como un único sistema cuántico indivisible. Esto es precisamente lo que Einstein encontró “fantasmal”.
¿Computación cuántica? ¿Qué es eso? ¿Se come?#
A principios de la década de 1980, el físico Richard Feynman planteó una pregunta profunda.
¿Podemos simular el mundo físico con una computadora?
Pero pronto se dio cuenta de que, dado que la naturaleza es fundamentalmente cuántica, no clásica, cualquier intento de simular con precisión fenómenos cuánticos con una computadora clásica enfrentaría un obstáculo fundamental.
El muro exponencial#
Las computadoras clásicas son excelentes para manejar la gran mayoría de los problemas de nuestra vida diaria, pero se quedan cortas al simular sistemas cuánticos (como interacciones moleculares complejas o las propiedades de nuevos materiales). La razón fundamental radica en el problema de la escala exponencial.
El estado completo de un sistema cuántico se describe por su función de onda. Para un sistema compuesto por cúbits (qubits), una computadora clásica necesita almacenar y procesar números complejos (amplitudes de probabilidad) para describir completamente su estado.
A medida que el número de cúbits aumenta linealmente, los recursos computacionales clásicos requeridos (memoria y tiempo) crecen exponencialmente.
Simular 10 cúbits requiere almacenar números complejos, lo cual es fácil para cualquier ordenador portátil.
Simular 30 cúbits requiere números complejos, lo que necesita aproximadamente 8GB de memoria, todavía dentro del alcance de un PC.
Pero simular de 50 a 60 cúbits… la memoria requerida…
Este obstáculo computacional insuperable se conoce a menudo como el muro exponencial. Significa que, para cualquier sistema cuántico de tamaño moderado, una computadora clásica ni siquiera puede almacenar con precisión su estado, y mucho menos simular su evolución dinámica.
Ante este desafío, Feynman propuso una idea: ¿por qué no usar un sistema cuántico para simular otro sistema cuántico?
Para simular un sistema que sigue las reglas cuánticas, el método más eficiente es construir una computadora que funcione según los principios de la mecánica cuántica.
Esta idea sentó las bases de la computación cuántica. Las computadoras cuánticas no están destinadas a reemplazar todas las funciones de las computadoras clásicas, sino a ser dispositivos especializados que utilizan las propiedades inherentes de la mecánica cuántica (como la superposición y el entrelazamiento) para resolver tipos específicos de problemas.
Especialmente aquellos que, debido a su complejidad exponencial, son intratables para las computadoras clásicas, como la simulación de sistemas cuánticos, ciertos problemas de optimización y la criptografía.
¡La función de onda!#
(Por favor, ten en cuenta que el siguiente contenido puede ser muy abstracto, contraintuitivo y poco visual. Haré todo lo posible por describirlo con palabras).
Para construir una computadora cuántica, primero necesitamos un lenguaje matemático capaz de describir la información cuántica. El núcleo de este lenguaje es el álgebra lineal, que traduce la realidad física de los estados cuánticos en objetos matemáticos precisos.
(¿Qué? ¿Me pides que explique álgebra lineal?)
La unidad básica de una computadora clásica es el bit, que solo puede estar en uno de dos estados definidos: 0 o 1.
La unidad básica de la computación cuántica es el cúbit (qubit), que puede ser , , o cualquier superposición de ambos.
La descripción matemática de este estado de superposición se llama función de onda o vector de estado, generalmente denotado como (esta es una notación conveniente llamada notación de Dirac).
Para un solo cúbit, su estado general puede escribirse como una combinación lineal de los dos estados base y :
- y son los vectores base computacionales. Son vectores unitarios ortogonales que, en un espacio vectorial complejo bidimensional, corresponden a los vectores columna y , respectivamente.
- Los coeficientes y son números complejos llamados amplitudes de probabilidad.
No solo determinan la probabilidad del resultado de la medición, sino que su fase relativa también contiene información crucial sobre la interferencia cuántica, que es clave para la computación cuántica.
Cuando medimos un cúbit en un estado de superposición , su función de onda colapsa, cayendo aleatoriamente en uno de los estados base.
Según la regla de Born de la mecánica cuántica, la probabilidad de medir es , y la probabilidad de medir es .
Por favor, ten en cuenta que esta condición de normalización no es una convención arbitraria, sino una consecuencia directa del axioma físico fundamental de la conservación de la probabilidad.
Dado que una medición debe producir un resultado (ya sea 0 o 1), la suma de las probabilidades de todos los resultados posibles debe ser igual al 100% (es decir, 1).
Esta condición garantiza que nuestra descripción matemática de los estados cuánticos siempre se corresponda con la realidad probabilística del mundo físico.
Cálculo, cálculo, cálculo, cálculo#
Hemos detallado la definición del estado cuántico fundamental en la computación cuántica. La siguiente pregunta es: ¿cómo evolucionan estos estados con el tiempo?
O, en otras palabras, ¿cómo se realiza realmente el cálculo?
Ecuación de Schrödinger#
La evolución temporal de un sistema cuántico cerrado (como una computadora cuántica ideal) está gobernada por la ecuación de Schrödinger dependiente del tiempo.
(Donde es el estado del sistema (función de onda) en el tiempo , es el operador Hamiltoniano del sistema (que representa la energía total), y es la constante de Planck reducida).
Bien, sé que ya no quieres seguir leyendo. Dicho de forma sencilla, esta fórmula describe cómo cambia el estado (función de onda) de un sistema cuántico con el tiempo.
Es decir, si conocemos el estado inicial , esta ecuación puede decirnos el estado en cualquier momento posterior .
Si aún no está claro, podemos hacer una analogía: es la base de la mecánica clásica, y es la base de la mecánica cuántica.
En cuanto a cómo se calcula esta función, lo omitiremos aquí. Básicamente, se divide el tiempo en muchos pequeños pasos, y el núcleo de evolución para cada paso se obtiene sumando todas las trayectorias ponderadas por :
Al expandir el propagador de corto tiempo a primer orden en el tiempo y reorganizar la integral de trayectoria, en el límite se obtiene la misma forma de ecuación diferencial, la ecuación de Schrödinger.
Operaciones unitarias#
La ecuación de Schrödinger es una ecuación diferencial lineal, y su solución puede expresarse como un operador lineal que actúa sobre el estado inicial. Si el estado de un sistema en el tiempo es , entonces en un tiempo posterior , su estado será , donde se llama operador de evolución temporal. La ecuación de Schrödinger demuestra rigurosamente que debe ser un operador unitario.
Un operador (o matriz) es unitario si su traspuesta conjugada es igual a su inversa , es decir, (donde es la matriz identidad).
La unitariedad tiene dos implicaciones físicas cruciales: la conservación de la probabilidad y la reversibilidad.
Una transformación unitaria preserva la norma (longitud) de un vector. Esto significa que si el estado inicial está normalizado (probabilidad total de 1), entonces cualquier estado después de una evolución unitaria también estará necesariamente normalizado.
Esto garantiza que la probabilidad no se crea ni se destruye durante el cálculo.
Como los operadores unitarios siempre tienen un inverso, cada paso de la evolución cuántica es teóricamente reversible. Podemos retroceder exactamente al estado anterior al cálculo aplicando la operación inversa .
Unitario puede entenderse simplemente como que, sin importar cómo evolucione el sistema o cómo rote la función de onda, la probabilidad total siempre será del 100%, ni más ni menos.
En este punto, alguien podría preguntar: “¿De qué diablos estás hablando? ¡No entiendo nada!”
Aquí debemos introducir un concepto importante: en la computación cuántica, cualquier pérdida de información implica que el sistema ha interactuado de forma irreversible con el entorno (como una medición o la decoherencia), lo que destruiría el estado de superposición cuántica.
Por lo tanto, una computadora cuántica debe garantizar que, durante el proceso de cálculo, la información no se descarte ni se copie (debido al teorema de no clonación cuántica).
Esto requiere que todas las operaciones sean transformaciones unitarias reversibles.
Compuertas#
En la computación cuántica, las operaciones realizadas sobre los cúbits se denominan compuertas cuánticas. Dado que cualquier proceso de computación cuántica debe ser una evolución físicamente permitida de un sistema cerrado, cada compuerta cuántica debe estar representada por una matriz unitaria.
Esto constituye la conexión más profunda entre la computación cuántica y la física cuántica: las reglas lógicas del cálculo derivan directamente de las leyes físicas fundamentales del universo.
Bien, sé que esto es confuso, y lo he escrito de forma confusa. Resumiendo un poco: la computación cuántica tiene una fórmula fundamental, la ecuación de Schrödinger. Luego, para garantizar la precisión de nuestros cálculos, todo el sistema debe permanecer en un estado cuántico, por lo que debemos asegurar la estabilidad durante el cálculo, y para ello usamos operaciones unitarias.
Entonces, para calcular, necesitamos compuertas lógicas. Las compuertas lógicas cuánticas son diferentes de las clásicas, y las razones de esta diferencia son las que acabamos de exponer.
Algoritmo, algoritmo, algoritmo, algoritmo#
Los algoritmos cuánticos manipulan la función de onda de los cúbits a través de una serie de compuertas cuánticas (transformaciones unitarias) cuidadosamente diseñadas, utilizando la superposición y la interferencia para resolver problemas.
H#
La compuerta de Hadamard (H) es una de las herramientas más fundamentales para crear estados de superposición. Su representación matricial es:
Cuando la compuerta de Hadamard actúa sobre un cúbit en el estado base , el efecto es:
El resultado es un estado de superposición uniforme, donde la probabilidad de medir 0 o 1 es del 50% cada una. Esta operación es la base del paralelismo cuántico. Al aplicar la compuerta de Hadamard a múltiples cúbits, podemos crear un estado de superposición que contiene las posibles entradas, permitiendo que un algoritmo cuántico calcule sobre todas estas entradas simultáneamente.
En resumen, la compuerta H nos da un cuanto en estado de superposición.
CNOT#
La compuerta Controlada-NO (CNOT) es una compuerta de dos cúbits que es una herramienta clave para crear entrelazamiento cuántico.
Su acción es la siguiente: si el cúbit de control es , invierte el estado del cúbit objetivo; de lo contrario, no hace nada.
Cuando el cúbit de control está en un estado de superposición, la compuerta CNOT puede generar entrelazamiento. Un ejemplo típico es la creación de un estado de Bell.
(Un estado de Bell se refiere a: )
La representación matricial de la compuerta CNOT es:
Por ejemplo, colocamos el primer cúbit (control) en un estado de superposición usando una compuerta de Hadamard, y mantenemos el segundo cúbit (objetivo) en . El estado total del sistema es .
Ahora aplicamos una compuerta CNOT. Para la parte , el bit de control es 0, por lo que el bit objetivo no cambia, permaneciendo como .
Pero para la parte , el bit de control es 1, por lo que el bit objetivo se invierte, convirtiéndose en .
Finalmente, obtenemos un estado entrelazado .
Este estado está entrelazado porque no puede escribirse como el producto de los estados de dos cúbits independientes. Estos dos cúbits han perdido su identidad individual y forman un todo inseparable. Medir uno de ellos determina instantáneamente el estado del otro, sin importar cuán lejos estén.
Resumen#
Bien, sé que probablemente no tienen idea de qué es todo esto, así que hagamos un pequeño experimento para ilustrar el entrelazamiento cuántico y la computación cuántica.
Supongamos que 0 es cara y 1 es cruz. Tenemos dos monedas y le pedimos a una computadora cuántica que las lance.
Lo que queremos es que las dos monedas estén entrelazadas, de modo que sus resultados sean siempre los mismos (00 o 11) o, después de un ajuste, siempre opuestos (01 o 10).
En este experimento, demostraremos el caso en que “ambas monedas son cara o ambas son cruz” (es decir, 00 y 11).
Partimos del estado inicial de dos cúbits (ambos cara) y realizamos secuencialmente las siguientes dos operaciones cuánticas:
La primera operación es una compuerta H, que transforma en el estado de superposición .
Después de aplicarla al primer cúbit, el estado del sistema se convierte en:
Esto significa que el primer cúbit es como una moneda girando, mientras que el segundo sigue siendo cara.
La segunda operación es una compuerta CNOT, que actúa sobre los dos cúbits (el cúbit 0 como control, el cúbit 1 como objetivo).
Si el cúbit de control es , invierte el cúbit objetivo; si es , no hace nada.
El estado del sistema se convierte en:
Es decir, los resultados de las dos monedas son siempre los mismos. Cuando la primera es cara, la segunda también es cara. Cuando la primera es cruz, la segunda también es cruz.
Sus resultados están perfectamente correlacionados. Este estado es un estado de entrelazamiento cuántico (un estado de Bell).
Tecnologías de cúbits#
Ya hemos hablado mucho de matemáticas, así que ahora contemos algunas historias para relajarnos: tecnologías de cúbits.
Circuitos superconductores#
La computación cuántica superconductora es una de las rutas de desarrollo más rápidas y escalables en la actualidad. Su principal ventaja es que puede aprovechar los procesos maduros de micro y nanofabricación de semiconductores para expandir rápidamente el número de cúbits.
Su base física consiste en enfriar un circuito electrónico macroscópico a temperaturas extremadamente bajas, cercanas al cero absoluto (aproximadamente 15 mK), para que entre en un estado superconductor, mostrando así efectos cuánticos macroscópicos controlables.
Un cúbit superconductor es esencialmente un sistema cuántico macroscópico artificial que puede simplificarse como un circuito resonante LC no lineal ().
En un circuito LC estándar, sus niveles de energía están espaciados uniformemente, como un oscilador armónico perfecto.
Esto significa que si intentas usar un pulso de microondas de una frecuencia específica para impulsar el sistema desde el estado fundamental al primer estado excitado , este pulso también impulsará el sistema de al segundo estado excitado , y así sucesivamente.
Esta degeneración de los niveles de energía nos impide confinar con precisión las operaciones del sistema a los dos estados de cúbit y , lo que hace imposible construir un cúbit efectivo.
El componente clave para resolver este problema fundamental es la unión Josephson (JJ).
Una unión Josephson consiste en dos capas de superconductor separadas por una barrera aislante extremadamente delgada. Su efecto físico único permite que los pares de electrones superconductores (pares de Cooper) atraviesen esta capa aislante mediante el efecto túnel cuántico, formando una supercorriente.
Las propiedades físicas de este proceso le otorgan a la unión Josephson un atributo crucial: una inductancia no lineal.
La presencia de esta inductancia no lineal cambia por completo la estructura de niveles de energía del circuito LC. Rompe la degeneración de los niveles de energía del oscilador armónico, de modo que la diferencia de energía entre el estado fundamental y el primer estado excitado (frecuencia de transición ) ya no es igual a la diferencia de energía entre el primer estado excitado y el segundo estado excitado (frecuencia de transición ). Esta falta de uniformidad en el espaciado de los niveles de energía se llama anarmonicidad.
Es precisamente esta anarmonicidad la que nos permite usar una frecuencia de microondas sintonizada con precisión para impulsar selectivamente solo la transición , sin excitar accidentalmente a niveles superiores. Esto convierte efectivamente este circuito macroscópico en un sistema cuántico de dos niveles controlable con precisión, es decir, un cúbit.
Entre los muchos diseños de cúbits superconductores, el cúbit Transmon (transmission-line shunted plasma oscillation qubit) se ha convertido en la arquitectura estándar para líderes de la industria como IBM y Google.
El diseño del Transmon establece ingeniosamente los parámetros del circuito en un régimen donde la energía de Josephson () es mucho mayor que la energía de carga (), es decir, .
La ventaja principal de este diseño es que reduce enormemente la sensibilidad del cúbit al ruido de carga del entorno, prolongando significativamente su tiempo de coherencia, lo cual es un avance importante en comparación con los diseños de cúbits superconductores anteriores. Los procesadores Heron y Condor de IBM, y los procesadores Sycamore y Willow de Google, utilizan arquitecturas basadas en Transmon.
Las ventajas de los circuitos superconductores incluyen velocidades de compuerta extremadamente rápidas y una excelente escalabilidad.
Las desventajas son tiempos de coherencia más cortos, un entorno operativo riguroso y una conectividad de cúbits limitada.
Al final, explicaremos de manera unificada los términos clave que han aparecido aquí: velocidad de operación de compuerta, escalabilidad, tiempo de coherencia y conectividad de cúbits. (¿Qué? ¿No sabes lo que es un entorno operativo riguroso? Respuesta: 15 mK).
Trampas de iones#
A diferencia de los circuitos superconductores artificiales, la computación cuántica con trampas de iones elige utilizar los sistemas cuánticos más perfectos de la naturaleza, los átomos individuales, como cúbits.
Al arrancar los electrones externos de un átomo para cargarlo, estos iones pueden ser manipulados con precisión mediante campos electromagnéticos.
El núcleo de una computadora cuántica de trampa de iones es el uso de átomos cargados individualmente (iones), como el iterbio-171 () o el bario (), como sus cúbits.
Estos iones se suspenden en una cámara de ultra alto vacío y se confinan mediante una trampa de Paul, que está compuesta por una combinación de campos eléctricos estáticos y campos eléctricos alternos de radiofrecuencia (RF).
Esta combinación de campos electromagnéticos crea un pozo de potencial en forma de silla de montar en el espacio. Al rotar rápidamente el pozo de potencial, los iones quedan confinados dinámicamente en el centro del pozo, logrando un excelente aislamiento del entorno externo.
Bueno, esto es bastante abstracto, así que pueden leerlo por encima. Lo principal es que, en una trampa de iones, como todos los iones están confinados en el mismo pozo de potencial, interactúan y se repelen entre sí a través de la fuerza electrostática de Coulomb.
Esta interacción hace que los modos de vibración de toda la cadena de iones sean colectivos. Estos modos de vibración cuantizados se llaman fonones.
¿Para qué sirve esto? Tiempos de coherencia extremadamente largos, fidelidades de compuerta muy altas, conectividad total y una perfecta uniformidad de los cúbits.
Suena genial, pero las desventajas también son evidentes: velocidades de operación de compuerta extremadamente lentas y baja escalabilidad.
Al final, explicaremos de manera unificada los términos clave que han aparecido aquí: tiempo de coherencia, fidelidad de compuerta, conectividad total, uniformidad de cúbits, velocidad de operación de compuerta y escalabilidad.
Procesadores fotónicos#
La computación cuántica fotónica adopta un paradigma completamente diferente al de los cúbits basados en materia mencionados anteriormente. Utiliza la unidad de energía más pequeña de la luz, el fotón, como cúbit, aprovechando su naturaleza ondulatoria y corpuscular para procesar información.
La computación cuántica fotónica se basa principalmente en componentes ópticos lineales, como divisores de haz, espejos y desplazadores de fase, para manipular los cúbits fotónicos. Estos componentes guían a los fotones para que interfieran, logrando así operaciones de compuerta cuántica.
Sin embargo, los fotones apenas interactúan entre sí de forma natural, lo que convierte la implementación de compuertas de entrelazamiento de dos cúbits en el mayor desafío de la computación cuántica fotónica. Las soluciones actuales suelen ser probabilísticas y requieren el uso de fotones auxiliares y mediciones proyectivas para lograrlo. Este modelo de computación se conoce como Computación Cuántica Basada en Medición (MBQC).
Las ventajas de los procesadores fotónicos son una robustez extrema y el funcionamiento a temperatura ambiente. Las desventajas son las compuertas de dos cúbits probabilísticas, la dificultad de generar fuentes de fotones individuales de alta calidad y la pérdida de fotones.
La ruta superconductora opta por priorizar la velocidad y el potencial de escalabilidad, considerando la tasa de error relativamente alta como un problema de ingeniería que se puede resolver en el futuro mediante técnicas de corrección y mitigación de errores.
La ruta de las trampas de iones, por otro lado, busca desde el principio la máxima calidad y conectividad de los cúbits, aceptando velocidades de compuerta más lentas como contrapartida.
En cuanto a los procesadores fotónicos, una vez que superen desafíos importantes como las compuertas probabilísticas y la pérdida de fotones, podrían cambiar por completo el paradigma de implementación y aplicación de la computación cuántica, haciéndola más accesible y fácil de integrar.
Características#
Ahora vamos a explicar algunas de las características mencionadas anteriormente.
- Velocidad de operación de compuerta (gate time / gate speed) El tiempo necesario para realizar una compuerta lógica cuántica. Cuanto más corto, mejor, ya que se pueden completar más compuertas antes de que se agote la coherencia. Sin embargo, hacer las compuertas más rápidas generalmente dificulta mantener una alta fidelidad y un bajo crosstalk.
- Escalabilidad (scalability) Cuando el número de cúbits, las conexiones, y los canales de control y lectura se multiplican, ¿puede el sistema mantener los costos, las tasas de error, la interconexión y la disipación de calor bajo control? También incluye la capacidad de la computación cuántica modular/distribuida para conectar múltiples QPU (unidades de procesamiento cuántico).
- Tiempo de coherencia (coherence time) Aquí hablaremos de la decoherencia, con más detalles más adelante. La decoherencia es el proceso en el que un sistema cuántico interactúa con su entorno, perdiendo gradualmente las relaciones de fase de su estado de superposición y evolucionando de un estado cuántico a un estado mixto clásico.
- Conectividad de cúbits (qubit connectivity) Se refiere a con cuántos otros cúbits puede un cúbit dado realizar directamente una compuerta de dos cúbits (representada por CNOT, que crea entrelazamiento cuántico). Una mayor conectividad requiere menos intercambios intermedios durante la compilación, lo que resulta en una menor profundidad del circuito.
- Fidelidad de compuerta (gate fidelity) Si el resultado de una operación de compuerta es el ideal. Se explicará con más detalle más adelante.
- Conectividad total (all-to-all connectivity) Cualquier par de cúbits puede realizar directamente una compuerta de dos cúbits, reduciendo la sobrecarga de enrutamiento. No todas las plataformas físicas la poseen de forma nativa.
- Uniformidad de cúbits (qubit uniformity) El grado de consistencia en parámetros como la frecuencia y el ruido entre diferentes cúbits en un chip. Una alta uniformidad simplifica la calibración y el control, y mejora la escalabilidad y el rendimiento de fabricación.
- Fuentes de fotones individuales de alta calidad y pérdida de fotones (photonic) La computación cuántica fotónica requiere fuentes de fotones individuales que sean bajo demanda, puras e indistinguibles. Al mismo tiempo, las pérdidas en los canales/dispositivos (así como la eficiencia de detección insuficiente) deben reducirse a niveles extremadamente bajos; de lo contrario, la tasa de éxito de las compuertas y la escalabilidad general serán muy bajas.
Rendimiento#
Simplemente contar el número de cúbits está lejos de ser suficiente para medir la verdadera capacidad de una computadora cuántica.
Un procesador con cientos de cúbits ruidosos y mal conectados puede tener una capacidad de cálculo muy inferior a la de un sistema con solo unas pocas docenas de cúbits de alta calidad y totalmente conectados. Por lo tanto, evaluar el rendimiento cuántico requiere un conjunto de métricas clave multidimensionales y rigurosas.
Tiempo de coherencia#
El tiempo de coherencia es la métrica central para medir la capacidad de un cúbit para mantener su frágil estado cuántico. Define el ciclo de vida de la información cuántica antes de que sea destruida por el ruido ambiental.
Un tiempo de coherencia más largo significa que tenemos más tiempo para ejecutar operaciones de compuerta cuántica, lo que nos permite ejecutar algoritmos cuánticos más profundos y complejos.
T1, también conocido como tiempo de relajación de energía o tiempo de relajación longitudinal, describe el tiempo característico que tarda un cúbit en el estado excitado en decaer espontáneamente al estado fundamental debido al intercambio de energía con el entorno.
T1 mide la estabilidad de la población de los niveles de energía del cúbit. En el modelo de la esfera de Bloch, este proceso puede imaginarse como un vector que apunta al polo norte (representando el estado ) relajándose gradualmente hacia el polo sur (representando el estado ).
T2, también conocido como tiempo de decoherencia o tiempo de relajación transversal, describe el tiempo que tarda la información de fase cuántica de un cúbit en un estado de superposición (por ejemplo, ) en ser aleatorizada por el ruido ambiental.
La fase es la base de la interferencia cuántica, y la interferencia cuántica es la clave de la ventaja de velocidad de los algoritmos cuánticos. T2 mide la estabilidad de las relaciones de fase en un estado de superposición cuántica.
En el modelo de la esfera de Bloch, este proceso se manifiesta como un vector en el ecuador, cuya información de ángulo azimutal se vuelve gradualmente incierta, dispersándose finalmente de manera uniforme en el plano ecuatorial.
Existe una relación fundamental entre T1 y T2: . Esto se debe a que cualquier mecanismo físico que cause relajación de energía (proceso T1) destruirá necesariamente las relaciones de fase (proceso T2).
Pero, a la inversa, el ruido de fase puro puede causar decoherencia sin causar pérdida de energía. Por lo tanto, el tiempo T2 suele ser más corto que el tiempo T1 y, a menudo, es el factor más crítico que limita el rendimiento de la computación cuántica.
En resumen, el tiempo de coherencia actúa como un limitador en la computación cuántica.
Aunque la velocidad de operación de las compuertas determina qué tan rápido es una sola operación, el tiempo de coherencia determina cuántas operaciones consecutivas podemos realizar en total antes de que el estado cuántico colapse.
Cuanto más largo sea el tiempo de coherencia, más operaciones podremos realizar.
Un ejemplo muy simple: imagina a una persona que solo está despierta cuando hay sol y se duerme cuando no lo hay.
Este tiempo de coherencia es la duración de la luz solar. Solo si la luz solar dura más tiempo, esta persona podrá hacer más cosas en un día.
Fidelidad de compuerta#
La fidelidad de compuerta es la métrica central para medir la precisión de las operaciones de compuerta cuántica. Cuantifica la cercanía entre una operación de compuerta cuántica ejecutada en hardware físico y la transformación matemática teórica, ideal y sin ruido.
Por ejemplo, una fidelidad del 99.9% significa que hay un 0.1% de probabilidad de que ocurra un error al ejecutar esa compuerta.
Aquí suelen aparecer dos métricas: la fidelidad de compuerta de un solo cúbit (1Q Gate Fidelity) y la fidelidad de compuerta de dos cúbits (2Q Gate Fidelity).
Debido a que las compuertas de dos cúbits requieren un control preciso de la interacción entre los cúbits, suelen ser más complejas y propensas a errores que las compuertas de un solo cúbit. Por lo tanto, la fidelidad de las compuertas de 2Q suele ser el cuello de botella del rendimiento general de una computadora cuántica.
Es importante tener en cuenta que los algoritmos cuánticos suelen requerir la ejecución de miles o incluso millones de compuertas cuánticas.
Incluso si la tasa de error de una sola compuerta es baja, estos errores se acumulan durante el cálculo y, finalmente, pueden ocultar por completo el resultado correcto.
La fidelidad total de un circuito cuántico puede considerarse, a grandes rasgos, como el producto de las fidelidades de todas las compuertas individuales que contiene. Si un circuito contiene compuertas y la fidelidad promedio de cada compuerta es , entonces la probabilidad de éxito general del circuito es aproximadamente .
Por ejemplo, una fidelidad de compuerta de dos cúbits aparentemente alta del 99% (), después de solo 70 operaciones de compuerta, la fidelidad general del circuito () caerá por debajo del 50%, lo que significa que el resultado del cálculo tiene más de la mitad de probabilidades de ser incorrecto, sin diferencia con una suposición aleatoria.
Esta es la razón fundamental por la que las computadoras cuánticas de escala intermedia ruidosa (NISQ) actuales solo pueden ejecutar circuitos poco profundos. También explica por qué mejorar la fidelidad de la compuerta del 99.5% al 99.9% es un gran salto de ingeniería, ya que se relaciona directamente con la expansión de la escala de los problemas que se pueden calcular.
Alcanzar una alta fidelidad (generalmente se requiere superior al 99.9%) también es un requisito previo para aplicar códigos de corrección de errores cuánticos (QEC).
En cuanto a qué son NISQ y QEC, por favor, tengan paciencia, lo explicaremos lentamente.
Métricas integrales#
Para superar las limitaciones de las métricas individuales, los investigadores han desarrollado varios puntos de referencia holísticos, diseñados para evaluar la capacidad de cálculo general de una computadora cuántica con una sola cifra completa.
El Volumen Cuántico (Quantum Volume), propuesto por IBM, es actualmente el punto de referencia holístico más adoptado en la industria.
No mide simplemente un parámetro único, sino que evalúa de manera integral el rendimiento del sistema mediante la ejecución de una serie de circuitos cuánticos aleatorios de una forma específica. El QV tiene como objetivo responder una pregunta central: “¿Qué tan grande y complejo puede ser un circuito cuántico que esta computadora cuántica puede ejecutar con éxito?”
Además del QV, la industria también está explorando otros puntos de referencia.
Por ejemplo, la compañía IonQ propuso el concepto de Cúbits Algorítmicos (#AQ).
El #AQ tiene como objetivo medir la escala efectiva de una computadora mediante la ejecución de un algoritmo específico y de valor práctico (como el algoritmo de optimización QAOA).
El valor de #AQ es igual al número máximo de cúbits con el que se puede ejecutar con éxito dicho algoritmo. Por ejemplo, #AQ 36 significa que el sistema puede ejecutar con éxito una instancia representativa del algoritmo en 36 cúbits.
La era cuántica#
Aunque el hardware cuántico ha experimentado un rápido desarrollo en los últimos años, debemos ser conscientes de que todo el campo se encuentra todavía en una etapa muy fundamental: la era de la computación cuántica de escala intermedia ruidosa (Noisy Intermediate-Scale Quantum, NISQ).
Esto significa que las computadoras cuánticas que tenemos en nuestras manos son más como los primeros prototipos de máquinas de vapor construidos a mano por genios artesanos en un garaje: rugen, tienen fugas, no son eficientes, pero demuestran irrefutablemente la viabilidad de un paradigma de potencia completamente nuevo.
Nos encontramos en el amanecer de una transición difícil, desde la era de los parches de la Mitigación de Errores (Error Mitigation) hacia la era industrial de la Corrección de Errores Cuánticos (Quantum Error Correction, QEC).
Esta es la razón por la que este artículo no ha perseguido los modelos de chips que cambian día a día o las noticias de algoritmos efímeros. En cambio, se ha centrado en la comprensión de la mecánica cuántica y los fundamentos de la computación cuántica.
Porque solo al comprender el significado subyacente se puede discernir verdaderamente si lo que tenemos ante nosotros es real o falso, tangible o ilusorio.
En este mundo de explosión de información, aferrarse a las ideas centrales es la única manera de tomarle el pulso a esta revolución tecnológica, sin importar qué nuevos y deslumbrantes avances surjan en el futuro.
Recordando los inicios de la física humana, desde el universo clásico determinista de Newton, similar a un reloj de precisión, hasta esa realidad cuántica llena de probabilidad, superposición y entrelazamiento, que es a la vez inquietante y fascinante.
En el último siglo, la humanidad ha dado un salto cognitivo, comenzando a utilizar verdaderamente el pensamiento cuántico como base para investigar cosas nuevas.
Y la computación cuántica es el primer cliente de esta nueva era. No se trata solo de una carrera por la capacidad de cálculo. Su significado más profundo es que la humanidad está aprendiendo a pensar y a resolver problemas en un lenguaje completamente nuevo, el lenguaje nativo del universo.
Ya no nos conformamos con simular aproximadamente este mundo con los clásicos 0 y 1, sino que intentamos dominar directamente la propia función de onda, dejando que la interferencia de las amplitudes de probabilidad nos guíe hacia las respuestas.
El futuro de las computadoras cuánticas quizás no sea reemplazar las computadoras de nuestros escritorios, sino convertirse en una prótesis intelectual para la exploración de territorios desconocidos por parte de la humanidad.
Primero abrirá puertas nunca antes vistas en aquellos campos donde la computación clásica es impotente, como el desarrollo de nuevos medicamentos, la ciencia de los materiales y la simulación del universo.
El futuro acaba de empezar.
Gracias a todos por leer. Publicaré más sobre el algoritmo Quantum Echoes en mis notas más adelante, probablemente no será muy largo. Con esto concluye este artículo. Escribirlo tomó cerca de 7 horas en total, y si sumamos la investigación y la realización de algunos experimentos, el tiempo invertido fue considerablemente mayor. Espero que hayan disfrutado la lectura. ¡Nos vemos en el próximo artículo! 👋