Los ordenadores cuánticos, explicados: cómo funcionan, qué problemas pretenden resolver y qué desafíos deben superar para lograrlo

Share on facebook
Share on google
Share on twitter
Share on linkedin
Click here to view original web page at www.xataka.com

Artículo seleccionado, original en www.xataka.com


Los ordenadores cuánticos, explicados: cómo funcionan, qué problemas pretenden resolver y qué desafíos deben superar para lograrlo

La computación cuántica está en el corazón del debate. Durante 2019 y 2020 le hemos dedicado muchos artículos en Xataka porque se han producido avances muy relevantes en esta disciplina en los que merecía la pena indagar. La llegada de la supremacía cuántica es el más sorprendente de todos ellos y la ha colocado en el centro de la discusión, pero los expertos en ordenadores y algoritmos cuánticos reconocen sin ambigüedad que queda mucho trabajo por hacer.

Tanto, de hecho, que hay quien cree que todo este esfuerzo no va a ir a ninguna parte. Uno de los miembros de la comunidad científica más críticos con la computación cuántica es el matemático israelí Gil Kalai, profesor en la Universidad de Yale. Según este investigador el incremento del número de estados de los sistemas cuánticos y de su complejidad provocará que acaben comportándose como los ordenadores clásicos, por lo que la superioridad de los primeros acabará evaporándose.

La llegada de la supremacía cuántica ha colocado los ordenadores cuánticos en el centro de la discusión, pero los expertos reconocen sin ambigüedad que aún queda mucho trabajo por hacer

No obstante, la ausencia de un respaldo unánime por parte de la comunidad científica no debe empañar el esfuerzo y los avances notables que están haciendo muchos grupos de investigación, algunos de ellos en instituciones españolas como el CSIC y otros integrados en la estructura de empresas que tienen unos recursos muy abultados, como IBM, Google o Intel, entre otras. Tenemos motivos fundados no para lanzar las campanas al vuelo, pero sí para mirar con razonable optimismo hacia las innovaciones que llegarán en el futuro.

Este breve repaso al statu quo de los ordenadores cuánticos es el preludio a un artículo en el que nos hemos propuesto recoger toda la información que necesitamos para tener una fotografía lo más certera posible del estado de la computación cuántica. Confiamos en que este texto resulte útil a los lectores que tenéis curiosidad por esta disciplina y queréis tener una base sólida sin necesidad de recorrer uno a uno todos los artículos que hemos publicado hasta ahora.

Qué es un cúbit

La palabra ‘cúbit’ procede de la contracción de los términos en inglés quantum bit, o bit cuántico. En los ordenadores que utilizamos actualmente un bit es la unidad mínima de información. Cada uno de ellos puede adoptar en un momento dado uno de dos valores posibles: 0 o 1. Pero con un único bit apenas podemos hacer nada, de ahí que sea necesario agruparlos en conjuntos de 8 bits conocidos como bytes u octetos.

Por otro lado, los bytes pueden agruparse en «palabras», que pueden tener una longitud de 8 bits (1 byte), 16 bits (2 bytes), 32 bits (4 bytes), etc. Si queremos saber cuántos valores diferentes puede adoptar un conjunto de bits, que puede tener cualquier tamaño (así que lo llamaremos n), solo tenemos que elevar 2 a n (2^n). El dos, que es la base, procede del hecho de que cada bit puede adoptar uno de un máximo de dos valores, de ahí que a la notación utilizada por los sistemas digitales en general se la llame notación binaria.

La notación que nosotros utilizamos en nuestro día a día es la decimal debido a que usamos un conjunto de diez valores diferentes que van del 0 al 9, y no solo dos valores (0 y 1), como la notación binaria. Si llevamos a cabo el sencillo cálculo del que acabo de hablaros comprobaremos que con un conjunto de dos bits podemos codificar cuatro valores diferentes (2^2 = 4), que serían 00, 01, 10 y 11.

Con tres bits nuestras opciones se incrementan a ocho valores posibles (2^3 = 8). Con cuatro bits obtendremos dieciséis valores (2^4 = 16), y así sucesivamente. Eso sí, un conjunto de bits determinado solo puede adoptar un único valor o estado interno en un instante dado. Es una restricción absolutamente razonable que parece tener un reflejo claro en el mundo que observamos porque una cosa es o no es, pero no puede tener ambas propiedades simultáneamente.

«Con MareNostrum 5 podríamos quedar entre los tres supercomputadores más rápidos del mundo, pero no es nuestro objetivo», Mateo Valero, director del BSC

Este principio tan evidente y básico, curiosamente, no se da en la computación cuántica. Y es que los cúbits, que son la unidad mínima de información en esta disciplina, a diferencia de los bits no tienen un único valor en un momento dado; lo que tienen es una combinación de los estados cero y uno simultáneamente. Pueden tener mucho de estado cero y poco de estado uno. O mucho de estado uno y poco de estado cero. O lo mismo de ambos. O cualquier otra combinación de estos dos estados que se os ocurra.

Qué son los estados cuánticos

La física que explica cómo se codifica el estado cuántico de un cúbit es compleja. No es necesario que profundicemos en esta parte para seguir adelante con el artículo, pero sí es interesante que sepamos que el estado cuántico está asociado a características como el espín de un electrón, que es una propiedad intrínseca de las partículas elementales, al igual que la carga eléctrica, derivada de su momento de rotación angular.

Esta idea no resulta intuitiva, pero tiene su origen en uno de los principios fundamentales de la mecánica cuántica conocido como principio de superposición de estados. Y es esencial porque en gran medida explica el enorme potencial que tienen los procesadores cuánticos.

En un ordenador clásico la cantidad de información que podemos codificar en un estado concreto utilizando n bits tiene tamaño n, pero en un procesador cuántico de n cúbits un estado concreto de la máquina es una combinación de todas las posibles colecciones de n unos y ceros.

Cada una de esas posibles colecciones tiene una probabilidad que nos indica, de alguna forma, cuánto de esa colección en particular hay en el estado interno de la máquina, que está determinado por la combinación de todas las posibles colecciones en una proporción concreta indicada por la probabilidad de cada una de ellas.

Como veis, esta idea es algo compleja, pero podemos intuirla si aceptamos el principio de superposición cuántica y la posibilidad de que el estado de un objeto sea el resultado de la ocurrencia simultánea de varias opciones con distinta probabilidad. Una consecuencia muy importante de esta propiedad de los ordenadores cuánticos es que la cantidad de información que contiene un estado concreto de la máquina tiene tamaño 2^n, y no n, como en los ordenadores clásicos.

Esta diferencia es esencial y explica el potencial de la computación cuántica, pero también puede ayudarnos a intuir su complejidad, en la que indagaremos un poco más adelante. Si en un ordenador clásico pasamos de trabajar con n bits a hacerlo con n+1 bits estaremos incrementando la información que almacena el estado interno de la máquina en un único bit.

Sin embargo, si en un ordenador cuántico pasamos de trabajar con n cúbits a hacerlo con n+1 cúbits estaremos duplicando la información que almacena el estado interno de la máquina, que pasará de 2^n a 2^n+1. Esto significa, sencillamente, que el incremento de la capacidad de un ordenador clásico a medida que introducimos más bits es lineal, mientras que el de un ordenador cuántico a medida que incrementamos el número de cúbits es exponencial.

Por qué hay algo en vez de nada: qué nos dice la ciencia acerca del origen cuántico del universo

Ya sabemos que el bit y el cúbit son las unidades mínimas de información que manejan los ordenadores clásicos y cuánticos, por lo que podemos dar un paso más hacia delante y repasar cómo hacemos operaciones con ellos. Los elementos que nos permiten operar con bits en los ordenadores clásicos son las puertas lógicas, que implementan las operaciones lógicas del Álgebra de Boole.

Este álgebra es una estructura diseñada para trabajar sobre expresiones de la lógica proposicional que tienen la peculiaridad de que solo pueden adoptar uno de dos posibles valores, cierto o falso, de ahí que sea también perfecta para llevar a cabo operaciones en sistemas digitales binarios, que, por tanto, también pueden adoptar en un instante dado solo uno de dos valores posibles: 0 o 1.

La operación lógica AND implementa el producto; la operación OR, la suma, y la operación NOT invierte el resultado de las otras dos, con las que puede combinarse para implementar las operaciones NAND y NOR. Estas, junto con la operación de suma exclusiva (XOR) y su negación (XNOR) son las operaciones lógicas básicas con las que trabajan a bajo nivel los ordenadores que todos utilizamos actualmente. Y con ellas son capaces de resolver todas las tareas que llevamos a cabo.

Cada una de ellas nos permite modificar el estado interno de la CPU, de manera que podemos definir un algoritmo como una secuencia de operaciones lógicas que modifican el estado interno del procesador hasta que alcance el valor que nos ofrece la solución a un problema dado. Un ordenador cuántico solo nos resultará de utilidad si nos permite llevar a cabo operaciones con los cúbits, que, como hemos visto, son las unidades de información que maneja.

Nuestro objetivo es utilizarlos para resolver problemas, y el procedimiento para conseguirlo es esencialmente el mismo que hemos descrito cuando hemos hablado de los ordenadores convencionales, solo que, en este caso, las puertas lógicas serán puertas lógicas cuánticas diseñadas para llevar a cabo operaciones lógicas cuánticas.

Las puertas lógicas cuánticas se representan bajo la forma de matrices

Sabemos que las operaciones lógicas que llevan a cabo los microprocesadores de los ordenadores clásicos son AND, OR, XOR, NOT, NAND, NOR y XNOR, y con ellas son capaces de llevar a cabo todas las tareas que hacemos con un ordenador hoy en día. Los ordenadores cuánticos no son muy diferentes, pero en vez de utilizar estas puertas lógicas usan las puertas lógicas cuánticas que hemos conseguido implementar actualmente, que son CNOT, Pauli, Hadamard, Toffoli o SWAP, entre otras.

No vamos a profundizar en su base matemática porque es compleja y no es necesario que la conozcamos para entender las ideas básicas de este artículo, pero es interesante saber que las puertas lógicas cuánticas se representan bajo la forma de matrices.

De esta manera, para calcular el resultado que obtendremos en la salida de la puerta cuántica tenemos que efectuar el producto de la matriz y el vector que representa el estado interno en un instante dado de nuestro ordenador cuántico.

Qué es la decoherencia cuántica y por qué los ordenadores cuánticos tienen ese aspecto tan extraño

Si diseñamos un algoritmo que recurre a una secuencia dada de operaciones lógicas cuánticas podremos ir modificando el estado interno de nuestro ordenador cuántico hasta obtener el resultado del problema que le hemos planteado inicialmente. Esta estrategia, como veis, es idéntica a la que utilizamos en los ordenadores clásicos.

Sin embargo, sabemos que debido al principio de superposición un bit cuántico adopta varios valores simultáneamente, por lo que al realizar una operación lógica cuántica a partir de varios bits cuánticos no obtendremos un único resultado; llegaremos simultáneamente a múltiples resultados como consecuencia de la multiplicidad de estados que adoptan los bits involucrados en la operación lógica cuántica.

Estamos retomando una vez más la idea que hemos desarrollado unos párrafos más arriba, cuando vimos que la capacidad de cálculo de los ordenadores cuánticos se incrementa exponencialmente a medida que somos capaces de llevar a cabo operaciones con más cúbits.

Y esto nos permite llegar a una primera conclusión con la que llevamos coqueteando desde los primeros párrafos del artículo: los ordenadores cuánticos son más potentes que los clásicos en la medida en que cada una de las operaciones lógicas que podemos llevar a cabo con ellos nos devuelve más resultados que una operación lógica clásica.

Esta capacidad se va acumulando a medida que llevamos a cabo más y más operaciones lógicas cuánticas hasta completar la secuencia establecida por nuestro algoritmo para resolver un problema concreto, lo que marca una diferencia enorme con la computación clásica. Hasta aquí todo pinta muy bien, pero hay dos razones de mucho peso que explican por qué la computación cuántica aún no ha acabado con la computación tradicional.

Los 20 ordenadores personales más importantes de la historia de la tecnología

Lo lógico sería pensar que si la primera es tan eficiente debería haber conseguido desplazar a la computación clásica e imponerse con una claridad aplastante en algunos escenarios de uso. Y no ha sido así. Al menos todavía. La primera razón es que por el momento tenemos pocos algoritmos cuánticos porque estas máquinas son muy difíciles de programar, y, por tanto, aún somos capaces de resolver pocos problemas recurriendo a la computación cuántica.

La segunda razón consiste en que es muy difícil preservar el estado de un sistema cuántico debido a que la superposición se rompe con facilidad a causa de la decoherencia cuántica. Antes de que veamos en qué consiste este fenómeno necesitamos introducir un concepto más que no es otra cosa que una propiedad esencial de los sistemas cuánticos: el entrelazamiento.

Este fenómeno no tiene un equivalente en la física clásica, y consiste en que el estado de los sistemas cuánticos involucrados, que pueden ser dos o más, es el mismo. Esto significa que estos objetos, en realidad, forman parte de un mismo sistema, incluso aunque estén separados físicamente. De hecho, la distancia no importa.

Si dos partículas, objetos o sistemas están entrelazados mediante este fenómeno cuántico, cuando midamos las propiedades físicas de uno de ellos estaremos condicionando instantáneamente las propiedades físicas del otro sistema con el que está entrelazado. Incluso aunque esté en la otra punta del Universo.

Suena a ciencia ficción, es verdad, pero por muy extraño y sorprendente que nos parezca este fenómeno se ha comprobado empíricamente. De hecho, es, junto a la superposición de estados de la que hemos hablado, uno de los principios fundamentales de la computación cuántica. Volvamos ahora a la decoherencia cuántica.

Este fenómeno se produce cuando desaparecen las condiciones necesarias para que un sistema que se encuentra en un estado cuántico entrelazado se mantenga. Una forma quizá un poco más sencilla de describirlo consiste en verlo como un sistema que deja de comportarse como dictan las reglas de la mecánica cuántica cuando se dan unas condiciones determinadas, pasando a comportarse a partir de ese instante como dictan las reglas de la física clásica.

Cuando aparece la decoherencia cuántica desaparecen los efectos cuánticos. Y, por tanto, también las ventajas que acarrean en el contexto de la computación cuántica. Este fenómeno es muy importante porque nos ayuda a entender por qué muchos sistemas físicos macroscópicos no exhiben efectos cuánticos. O, lo que es lo mismo, por qué en nuestro entorno cotidiano no podemos observar los contraintuitivos efectos de la mecánica cuántica.

Si tenemos presente lo que acabamos de ver podemos intuir que si se ven afectadas la superposición y el entrelazamiento como consecuencia de la decoherencia del sistema cuántico involucrado en el funcionamiento de un ordenador cuántico, se producirán errores y los algoritmos no nos devolverán los resultados correctos.

Los estados cuánticos se mantienen durante un periodo de tiempo limitado, y este tiempo es, precisamente, el que tenemos para llevar a cabo operaciones lógicas cuánticas con los cúbits de nuestro ordenador. Además, a medida que añadimos cúbits más difícil es mantener bajo control los errores preservando el estado cuántico del sistema.

Para evitar que los cúbits cambien de estado cuántico de forma espontánea como consecuencia de las perturbaciones introducidas por la energía térmica los ordenadores cuánticos actuales trabajan a una temperatura extremadamente baja. De hecho, está muy cerca del cero absoluto, que es -273,15 grados centígrados.

La temperatura de trabajo de los equipos cuánticos que tienen compañías como Intel, Google o IBM es de unos 20 milikelvin, que son aproximadamente -273 grados centígrados, lo que nos permite intuir que el sistema de refrigeración que es necesario poner a punto para alcanzar y mantener una temperatura tan extremadamente baja es complejo.

Precisamente ese sofisticado sistema de refrigeración es el responsable del aspecto extraño que tienen los ordenadores cuánticos, que no se parecen absolutamente nada a los ordenadores clásicos con los que todos estamos familiarizados.

El CERN continúa reinventándose para elaborar nueva física: estas son las dos estrategias que le permitirán ir más allá del bosón de Higgs

La importancia de trabajar a una temperatura lo más cercana posible al cero absoluto reside en que en este estado la energía interna del sistema es la más baja posible, lo que provoca que las partículas fundamentales carezcan de movimiento según los principios de la mecánica clásica.

No obstante, aunque seamos capaces de alcanzar el cero absoluto seguirá existiendo una energía residual, conocida en mecánica cuántica como energía del punto cero, que es el nivel de energía más bajo que puede tener un sistema físico.

Qué problemas esperamos resolver con los ordenadores cuánticos

Los avances en el diseño de los ordenadores cuánticos son esperanzadores, no cabe duda, sobre todo si echamos la vista atrás por un instante y contemplamos lo poco desarrollada que estaba esta disciplina hace solo dos décadas. Sin embargo, las capacidades de las máquinas de unas pocas decenas de cúbits distan mucho de permitirnos llevar a cabo cálculos realmente relevantes.

James Clarke, el director del laboratorio de computación cuántica de Intel, nos confesó durante nuestra visita a sus instalaciones en Delft (Holanda), que para que un ordenador cuántico sea significativamente mejor que uno clásico tendrá que trabajar con unos 1000 cúbits. Solo así llegarán a ser realmente relevantes. Y para alcanzar este objetivo aún quedan años de investigación que nos ayuden a encontrar la solución a los desafíos que todavía están sobre la mesa.

¿Realmente merece la pena tanto esfuerzo? Sí, sin duda la merece. En algunos escenarios, que ni mucho menos en todos, la computación cuántica es exponencialmente más rápida que la clásica, por lo que los científicos confían en que marque la diferencia en criptografía, inteligencia artificial, aprendizaje automático y otras disciplinas científicas, como la medicina, la física, la ingeniería o la química, que también podrán verse beneficiadas por la altísima eficiencia que se espera que pongan los ordenadores cuánticos en nuestras manos en el futuro.

Aun así, lo razonable es que seamos realistas y tengamos presente que los científicos actualmente están trabajando con muy pocos algoritmos que puedan ejecutarse correctamente sobre un procesador cuántico. De hecho, habitualmente trabajan sobre simuladores y no sobre máquinas cuánticas reales.

Ni siquiera está del todo claro cómo debe abordarse el proceso de programación de un ordenador cuántico, aunque ya están disponibles plataformas de desarrollo de algoritmos cuánticos, como las de Microsoft, IBM o Google, que nos invitan a mirar hacia el futuro con un optimismo razonable.

Qué es la supremacía cuántica

Entender este concepto no es difícil. En realidad no es más que el hito que alcanzaremos cuando un ordenador cuántico sea más rápido en la práctica que un ordenador clásico cuando ambos se enfrenten a la resolución de un mismo problema. No obstante, esta definición admite matices. ¿En qué medida debe ser más rápido el ordenador cuántico? ¿Mucho? ¿Basta que lo sea solo un poco?

La idea comúnmente aceptada propone que la máquina cuántica consiga resolver en un plazo de tiempo abarcable un problema que un superordenador clásico resolvería en un plazo de tiempo inasumible dada su extensión.

El telescopio espacial James Webb, explicado: por qué se ha retrasado tanto y qué esperamos conseguir con un instrumento tan avanzado

Hasta ahora los dos únicos equipos de investigación que han declarado haber alcanzado este hito han sido el dirigido por John Martinis en Google y el liderado por Jian-Wei Pan en la Universidad de Ciencia y Tecnología de China y la Universidad Tsinghua de Pekín.

El artículo que los investigadores de Google publicaron en su momento en Nature es un texto científico, y, como tal, su contenido es complejo. Aun así, hay varias ideas interesantes en las que merece la pena que indaguemos sin entrar en detalles demasiado complicados.

La primera de ellas consiste en que el procesador cuántico Sycamore utilizado por Google incorpora 53 cúbits superconductores, lo que significa que un estado interno concreto de esta máquina tiene un tamaño de 2^53.

Para intuir qué significa esto solo tenemos que recordar que en un procesador clásico de n bits la cantidad de información que podemos codificar en un estado concreto utilizando esos n bits tiene tamaño n, pero en un procesador cuántico de n cúbits un estado concreto de la máquina tiene tamaño 2^n.

Otra idea interesante expuesta por los investigadores de Google en su artículo explica por qué han decidido utilizar en su experimento un generador de números pseudoaleatorios. Según ellos su elección es la correcta a la hora de poner a prueba la capacidad de su ordenador cuántico porque este procedimiento carece de estructura y garantiza un esfuerzo computacional lo suficientemente elevado para que un superordenador clásico no sea capaz de resolverlo en un plazo de tiempo abarcable.

Es posible alcanzar la supremacía cuántica utilizando enfoques y tecnologías muy diferentes

La última explicación de los investigadores del equipo de John Martinis en la que merece la pena que nos detengamos detalla qué método han utilizado para cerciorarse de que tanto su procesador cuántico como su algoritmo han funcionado correctamente. En su artículo explican que han recurrido a un método conocido como prueba de entropía cruzada que, grosso modo, compara la frecuencia con la que se observa experimentalmente cada salida del ordenador cuántico con la distribución de probabilidad calculada mediante simulación en un ordenador clásico.

La estrategia utilizada por los investigadores asiáticos es radicalmente diferente a la empleada por el equipo de John Martinis. Y es que el grupo de Jian-Wei Pan ha puesto a punto un sistema cuántico que utiliza un circuito óptico capaz de aprovechar la propiedad cuántica que permite a los fotones viajar aleatoriamente en distintas direcciones para llevar a cabo cálculos extraordinariamente complejos.

Lo que nos interesa no es tanto conocer con detalle cómo funciona el experimento que han llevado a cabo los investigadores chinos como fijarnos en que es posible alcanzar la supremacía cuántica utilizando enfoques y tecnologías muy diferentes.

De hecho, es muy probable que durante los próximos meses otros grupos de investigación y otras empresas también lleven a cabo un logro equiparable al que ya tienen en su currículo estos investigadores chinos y estadounidenses.

Cuáles son los desafíos que tienen por delante los ordenadores cuánticos

Todo lo que hemos visto hasta este momento nos ayuda a intuir algunos de los retos que tiene la computación cuántica por delante, una realidad que en ningún caso empaña el enorme potencial que tiene esta disciplina.

Aun así, debemos ser cautos y confiar en que los investigadores sigan trabajando duro para que algún día los ordenadores cuánticos nos ayuden a encontrar la solución a algunos de los desafíos a los que se enfrenta la humanidad.

«Las necesidades mundiales de energía eléctrica se podrán abastecer solo con energía solar», Ignacio Mártil, catedrático de Electrónica

Estos son los cuatro retos de más envergadura en los que están trabajando los investigadores:

  • Necesitamos cúbits de más calidad. La información cuántica con la que operan los sistemas cuánticos se destruye en un periodo de tiempo breve, por lo que tener cúbits de más calidad nos permitirá dilatar la vida útil de la información cuántica y llevar a cabo operaciones más complejas con ella.
  • Un sistema de corrección de errores nos ayudará a garantizar que los resultados que nos entrega nuestro ordenador cuántico son correctos. Como hemos visto, aún no lo tenemos, y a medida que los grupos de investigación integran más cúbits en los ordenadores cuánticos resulta más difícil preservar la integridad del estado cuántico del sistema.
  • Además de tener cúbits de más calidad y sistemas de corrección de errores es necesario desarrollar nuevas herramientas que nos permitan controlarlos con precisión y llevar a cabo más operaciones lógicas con ellos. Su manipulación se vuelve mucho más compleja a medida que se incrementa el número de cúbits de los sistemas cuánticos.
  • También es necesario desarrollar más la arquitectura de los ordenadores cuánticos, como la electrónica de control, el procesador de control cuántico o los compiladores cuánticos. Uno de los retos más imponentes a los que se enfrentan los investigadores consiste en implementar nuevos algoritmos cuánticos que sean capaces de ayudarnos a abordar los problemas que no podemos resolver con los superordenadores clásicos más potentes que tenemos hoy en día. Estos algoritmos son los que permitirán a los ordenadores cuánticos marcar la diferencia.

No aspiran a llegar a nuestras casas, pero ya están llegando a nuestras vidas

Las computaciones clásica y cuántica están condenadas a entenderse. Los ordenadores cuánticos no aspiran a reemplazar los ordenadores clásicos; pretenden complementarlos reduciendo drásticamente el tiempo invertido en la ejecución de aquellos algoritmos que actualmente tienen un coste computacional inasumible si nos ceñimos al tiempo que requieren.

La corrección de errores es probablemente el reto más complejo que tendremos que resolver para que los ordenadores cuánticos alcancen una supremacía real, y los técnicos que están trabajando en esta disciplina reconocen que este momento está aún lejos.

Los ordenadores cuánticos no aspiran a reemplazar los ordenadores clásicos; pretenden complementarlos reduciendo drásticamente el tiempo invertido en la ejecución de algunos algoritmos

James Clarke, el director del laboratorio de computación cuántica de Intel, y Lieven Vandersypen, investigador y profesor de tecnología cuántica en la Universidad de Delft, creen que, si se mantiene el ritmo de desarrollo actual, tendremos ordenadores cuánticos interesantes en cinco años.

Serán máquinas con decenas de cúbits, probablemente incluso con más de un centenar de cúbits, que resultarán muy útiles como campo de pruebas. Nos ayudarán a seguir avanzando en los métodos de corrección de errores y probablemente también pondrán a nuestro alcance nuevas aplicaciones en las que la computación cuántica puede marcar la diferencia.

Sin embargo, estos mismos expertos reconocen que los ordenadores cuánticos no tendrán un impacto contundente en nuestras vidas, y, por tanto, claramente perceptible, hasta dentro de no menos de quince años.

Esta visión es interesante porque procede de personas que están involucradas de lleno en el diseño y la implementación de ordenadores cuánticos, pero no deja de ser una estimación, por lo que puede cumplirse, o no.

La potencia de un ordenador cuántico está en gran medida condicionada por la calidad de sus cúbits

Si nos ceñimos al escenario actual IBM, Intel, Google y Honeywell parecen encontrarse en una posición relativamente cómoda porque todas ellas tienen ordenadores cuánticos funcionales con una capacidad interesante como entorno de pruebas e investigación.

Pero no debemos menospreciar en absoluto el rol que pueden jugar otras compañías, como Microsoft, que también están realizando esfuerzos importantes en el terreno de la computación cuántica.

La potencia de un ordenador cuántico no está definida únicamente por el número de cúbits con el que es capaz de trabajar, sino también por su calidad, entendida como la capacidad de estos cúbits de no resultar perturbados por el ruido, y por la eficiencia de los algoritmos que podemos ejecutar sobre este hardware.

En cualquier caso, ya son lo suficientemente avanzados para que algunos centros de supercomputación, como los franceses y alemanes, hayan decidido introducirlos en su infraestructura como un procesador especializado más que puede marcar la diferencia en la búsqueda de la solución a algunos de los problemas a los que se enfrenta la humanidad.

Let's start a conversation

This website uses cookies to ensure you get the best experience on our website.