Ciencia con Serena. 23 de abril de 2025. MEDIUM
¿Te diste cuenta?
En medio de todas las noticias que hay en estos momentos, no me sorprendería que no lo hubiera hecho.
Las cosas parecen estar tomando un giro bastante complicado en estos momentos y los avances científicos actuales podrían estar cayendo en la etiqueta de «locuras que nunca esperé» en tu cerebro junto con todo lo demás.
Si bien es cierto que algunos de estos desarrollos deberían clasificarse como «locuras que nunca esperé» (mirándote a ti, chip Majorana-1 ), estoy aquí para decirte que el estado actual del progreso científico es realmente emocionante y vale la pena mantenerse al día si quieres seguir el progreso positivo de la sociedad.
De lo que hablo (y de lo que todo el mundo habla) son los avances en computación cuántica . La computación cuántica, pariente más atractiva de la IA, probablemente será la próxima tecnología revolucionaria que se lance a nuestro mundo; ya sea en cinco o cincuenta años, tiene el potencial de cambiar casi por completo la forma en que resolvemos problemas con las computadoras.
Este artículo presenta los tres pilares de la computación cuántica ( teoría, software y hardware ) y explica qué la hace tan revolucionaria. Al final, espero que tengan la información necesaria para comprender mejor lo que se ve en las noticias (y quizás incluso reírse con chistes sobre computación cuántica).
¿Listos? ¡Comencemos!
¿Qué es la computación cuántica?
La computación cuántica es una nueva era de la informática que utiliza la mecánica cuántica para resolver problemas que quedan fuera de las capacidades de una computadora clásica.

Simular sistemas complejos, encontrar la mejor opción dentro de un conjunto grande o factorizar números realmente grandes son tipos de problemas que las computadoras clásicas no pueden resolver, pero las computadoras cuánticas sí.
Por ejemplo, encontrar una molécula que pueda usarse como un nuevo fármaco es un problema de «mejor opción de un conjunto grande». Cualquier conjunto de átomos tiene múltiples disposiciones que pueden cambiar su naturaleza o función, y el número de estas disposiciones (llamadas configuraciones) solo aumenta exponencialmente con el número de átomos. Averiguar la configuración correcta para que una molécula sea un fármaco funcional cuando tiene, digamos, 100 átomos, es un proceso largo y laborioso que puede llevar años y años de ensayo y error. La computación clásica puede acelerar el proceso simulando posibles configuraciones de esa molécula, pero eso puede llevar semanas o meses. La computación cuántica puede hacerlo en segundos. Piénselo así: si una computadora clásica intenta encontrar la respuesta correcta tras 100 puertas cerradas abriéndolas todas, una computadora cuántica puede hacerlo abriéndolas todas a la vez. ¿Cómo?

La respuesta está en la superposición , un concepto cuántico que significa un estado intermedio. En la superposición, no se considera que las cosas sean una u otra, sino que técnicamente son ambas a la vez. Por lo tanto, 100 puertas en una superposición estarían abiertas y cerradas simultáneamente y revelarían inmediatamente dónde está la respuesta correcta.
Para nuestra molécula, esto implica comprobar todas las configuraciones posibles simultáneamente. Podríamos encontrar la correcta mucho más rápido.
¿Pero cómo llegamos allí?
Primera parada: teoría
La idea detrás de la computación cuántica surgió hace más de cien años, a principios del siglo XX, cuando se hizo evidente que la física clásica ya no describía con precisión la realidad física. Las ecuaciones y teorías que los antiguos, como Newton y Maxwell, habían desarrollado eran insuficientes para describir los fenómenos naturales detectados en la doble rendija o los experimentos fotoeléctricos.
Aunque los físicos siempre habían asumido que las partículas y las ondas eran dos cosas completamente diferentes —materia y energía—, poco a poco se acumulaban pruebas de que en realidad eran una sola cosa. Einstein propuso que la luz se liberaba en «cuantos», o explosiones de energía similares a partículas, y DeBroglie descubrió que los electrones se comportaban como ondas.
Este descubrimiento llevó a los físicos a idear una nueva interpretación de la realidad para abordar la naturaleza recién descubierta del universo: la mecánica cuántica.

Los principios que surgieron de esta nueva interpretación ( superposición , entrelazamiento y tunelización ) abrieron la puerta a una nueva forma de pensar sobre la informática.
Próximo paso: software
El software cuántico desarrollado durante la década de 1990 marcó el siguiente paso en la computación cuántica. Basándose en la teoría cuántica, matemáticos como Lov Grover y Peter Shor idearon algoritmos para superar los límites de la computación clásica.
El algoritmo de Grover utiliza la superposición y la probabilidad para buscar la respuesta correcta entre grandes cantidades de información, haciendo lo que las computadoras clásicas no pueden: coloca los cúbits (bits cuánticos, o dígitos binarios, 0 y 1) en un estado de superposición y amplifica el estado correcto para darnos la respuesta. Hace lo que mencioné antes: abre todas las puertas a la vez y hace que la respuesta correcta sea la que tenga más probabilidades de destacar.
Su algoritmo resuelve el problema de «seleccionar la opción correcta de un conjunto amplio», lo cual resulta sumamente interesante para químicos y bioquímicos, así como para cualquiera interesado en simular nuevas moléculas. Una industria en particular, la farmacéutica, espera con interés la implementación del algoritmo de Grover.
El algoritmo de Shor es otro algoritmo cuántico que resuelve el problema de la factorización de números muy grandes, con implicaciones revolucionarias para otra industria masiva: las finanzas.
Gran parte de la información financiera mundial está protegida mediante un cifrado basado en números infactorizables. Factorizar números es como la multiplicación inversa: un número creado al multiplicar otros dos puede ser sometido a ingeniería inversa para determinar cuáles eran esos dos números originales. Cuando los números multiplicados son enormes y primos, la ingeniería inversa de los dos originales es prácticamente imposible. Por eso, gran parte de la ciberseguridad financiera se basó en estos números infactorizables; deberían serlo.
Excepto que el algoritmo de Shor, con una combinación de superposición y algo llamado Transformada Cuántica de Fourier, podía factorizar eficientemente cualquier número. Incluso los que se creían imposibles.

Obviamente, esto genera cierta preocupación en la industria financiera y de la ciberseguridad, pero afortunadamente (¿o desafortunadamente?) todavía no hay motivos para temer a las computadoras cuánticas.
La última frontera: el hardware
Si bien la teoría cuántica y el software cuántico se han investigado exhaustivamente y están listos para su uso, el cuello de botella de la computación cuántica resulta ser la propia computadora. Investigadores y científicos de todo el mundo están trabajando actualmente en el hardware.

Mientras que la «computación cuántica» se refiere a todo el campo (teoría, software, hardware), un «procesador cuántico» se refiere a la máquina que realiza la computación. Hay muchísimas maneras de construirlo, y cada gran empresa tecnológica utiliza su propio enfoque, pero la estructura general de todas es la misma.
El cúbit se encuentra en el centro del cerebro cuántico. Es como un bit clásico, excepto que es capaz de comportamientos cuánticos como la superposición y el entrelazamiento. En lugar de almacenar información en unos o ceros, la almacena en ambos simultáneamente, y en lugar de ser independientes de otros bits, los cúbits están interconectados entre sí mediante entrelazamiento. Estas propiedades permiten a las computadoras cuánticas realizar cálculos rápidamente, pero también dificultan su construcción.
Para mantener su información, los cúbits deben permanecer en superposición y entrelazados constantemente. Esto es difícil por dos razones. En primer lugar, la mera observación colapsa un cúbit de superposición; ni siquiera pueden medirse sin perder la propiedad que los hace útiles. En segundo lugar, dado que todos están entrelazados, si un cúbit colapsa, colapsan todos. El resultado es un sistema extremadamente sensible.
Construir cúbits con estas condiciones ya es bastante difícil, pero construir cúbits que puedan mantenerlas es realmente insoportable. Ahí es donde se está realizando la mayor parte del trabajo actualmente: crear cúbits que no se descompongan (decoherencia), que se autocorrijan (corrección de errores) y que generen una gran cantidad (escalabilidad).
Hasta ahora no hay una forma única, clara y precisa de hacerlo. Científicos de todo el mundo intentan encontrar la mejor manera de construir procesadores que cumplan con todos los requisitos descritos anteriormente. Pero es difícil. Por eso siempre está en las noticias. Y por eso siempre es emocionante ver los avances que se están logrando.
¿Que sigue?
La carrera ha comenzado.
Todas las grandes empresas e institutos tecnológicos del mundo intentan crear una computadora cuántica práctica antes que nadie. Hay muchísimas maneras de hacerlo —superconductora, fotónica, atómica neutra, incluso topológica— y cada una tiene sus inconvenientes y ventajas, sin que todavía haya un ganador claro.
Los últimos avances importantes han sido Zuchongzhi 3.0, el procesador cuántico de la Universidad de Ciencia y Tecnología de China, diseñado para competir con el de Google, y el cúbit topológico Majorana-1 de Microsoft, que podría existir o no. ¿Quién lo sabe?

El campo está en constante desarrollo y siempre hay algo nuevo que aprender. Deja que la computación cuántica sea la noticia que esperas con ansias cada día y suscríbete a mi boletín para estar al tanto de las novedades de todos y publicarlas en línea para que otros las disfruten.
¡Hasta la próxima!