IBM anuncia el inicio de la “era de la utilidad cuántica” y anticipa una supercomputadora en 2033 | Tecnología

IBM anuncia el inicio de la “era de la utilidad cuántica” y anticipa una supercomputadora en 2033 |  Tecnología

La computación cuántica no es sólo una cuestión de qubits, la unidad básica de información. La clave de esta tecnología es la combinación de sistemas que nos permiten construir una computadora útil y tolerante a fallas. La multinacional IBM anunció este lunes un paso fundamental en este sentido al presentar tres avances: un procesador de 1.121 qubit llamado Cóndor (el más grande conocido); Heron, un chip de 133 qubits desarrollado para la interconexión y basado en una arquitectura conocida como “acoplador sintonizable”; y un nu…

Suscríbete para seguir leyendo

Leer sin límites

La computación cuántica no es sólo una cuestión de qubits, la unidad básica de información. La clave de esta tecnología es la combinación de sistemas que nos permiten construir una computadora útil y tolerante a fallas. La multinacional IBM anunció este lunes un paso fundamental en este sentido al presentar tres avances: un procesador de 1.121 qubit llamado Cóndor (el más grande conocido); Heron, un chip de 133 qubits desarrollado para la interconexión y basado en una arquitectura conocida como “acoplador sintonizable”; y un nuevo Sistema dos, un sistema modular y flexible para múltiples combinaciones de estos procesadores con enlaces de comunicación cuánticos y clásicos. Estos avances, junto con las nuevas fórmulas de mitigación y corrección de errores, anticipan lo que Darío Gil, vicepresidente de IBM y director de la división de investigación (IBM Research), describe como “la nueva era de la utilidad cuántica”, que podría conducir a, según según sus previsiones, en un superordenador básicamente cuántico, pero con sistemas clásicos y con corrección de errores modular en 2033.

Los últimos avances de IBM han hecho saltar por los aires la propia hoja de ruta de la multinacional, que hasta ahora había cumplido con precisión matemática, para ir más lejos y antes de lo esperado a “liberar todo el poder de la computación cuántica”. , según el nuevo camino tecnológico presentado este lunes.

La nueva hoja de ruta de IBM hacia la computación cuántica.IBM

Superar los errores, en palabras de Jian-Wei Pan, físico de la Universidad de Ciencia y Tecnología de China, “es uno de los grandes desafíos del ser humano”. Las fallas se generan por cualquier interacción con el entorno (ruido, ondas o temperatura, por ejemplo) y provocan que la superposición de estados (la propiedad física que permite que una partícula esté en la posición A y B al mismo tiempo) se degrade. hasta que se vuelve inútil. Esta superposición es la que permite una capacidad exponencial de la computación cuántica respecto al binario clásico, que se limita al 0 o al 1 del bit. Así, si dos bits pueden almacenar un número, dos qubits almacenan cuatro y diez qubits pueden tener 1.024 estados simultáneos.

Para alcanzar ese objetivo de sistemas útiles y tolerantes, IBM cree haber encontrado las puertas que lo pueden permitir y que se basan en los avances en los procesadores, en sus sistemas de interconexión para permitir una computación robusta, y en la mitigación y corrección. de errores.

IBM Cóndor, 1.121 qubits.IBM

IBM ha vuelto a conseguir este extraordinario aumento de capacidad. “El Cóndor vuela”, bromea Gil ante el hito del nuevo procesador cuántico que sucede al Osprey, presentado el año pasado con 433 qubits, capaz de representar un número de estados superior al número de átomos del universo observable. Pero casi triplicar la capacidad del procesador no es lo único que se consigue. “Este año han pasado muchas cosas simultáneamente”, explica Gil.

El principal logro es que IBM cree que ya no es imprescindible seguir aumentando la capacidad de un único procesador, sino que la computación cuántica práctica se puede conseguir con otro método. “Lo vamos a hacer mediante la modularidad, con muchos chips conectados entre sí de tal manera que podamos crear el superordenador”, afirma Gil.

Chip Heron con arquitectura ‘Acoplador sintonizable’.IBM

Estos chips, que serían como las piezas de un set de construcción, son ahora los IBM Quantum Heron de 133 qubits, creados a partir de una nueva arquitectura llamada acoplador sintonizable. Esta ingeniería permite plataformas de información cuántica de mayor tamaño y funcionalidad. “Heron se puede combinar de forma modular e incorporar la comunicación clásica para acelerar los flujos de trabajo. Con el acoplador sintonizable Podemos ajustar la frecuencia de los qubits y conseguir un procesador mucho mejor que el anterior”, explica Gil. Esta arquitectura se complementa con controladores de estado qubit crio-CMOS 4K, semiautónomos, de bajo consumo y del tamaño de una uña.

“Heron es nuestro procesador cuántico de mejor rendimiento hasta la fecha. Representa una mejora de hasta cinco veces en comparación con el dispositivo estrella: el Eagle”, añade Matthias Steffen, director de arquitectura cuántica y tecnologías de procesador de la empresa.

La base de la interconexión de los chips Heron es la nueva generación del System Two, el sistema diseñado para combinar de forma modular y flexible múltiples procesadores en un solo sistema con enlaces de comunicación. Esta red es el componente básico de la supercomputación cuántica, ya que permite escalar el potencial de computación sin tener que progresar indefinidamente en la capacidad singular de un único procesador.

“System Two permitirá nuevas generaciones de procesadores centrados en la tecnología cuántica, con una infraestructura central modular y totalmente escalable que permitirá ejecutar circuitos como nunca antes”, afirma Steffen.

Interior del IBM Quantum System Two.IBM

El nuevo modelo ha llevado a repensar la evolución futura. Gil afirma que “todas las generaciones posteriores se basarán en él”. “Estamos convencidos de que no necesitamos aumentar aún más el número de qubits por unidad de procesador. El futuro serán cientos y miles de procesadores, cada uno de menos de 1.000 qubits, conectados entre sí”, afirma.

El elemento clave que abrió las puertas a este nuevo camino fue la investigación publicada en Naturaleza y que demostró que un procesador IBM de sólo 127 qubits es capaz de medir valores esperados en operaciones físicas más allá de las capacidades de los mejores métodos computacionales clásicos actuales. “Nos permite entrar en la era que hemos llamado utilidad cuántica, en la que ahora se pueden hacer cálculos de una forma mucho más eficiente y robusta que con cualquier tipo de simulador o con cualquier tipo de computación clásica”, afirma Gil.

Katie Pizzolato, jefa de algoritmos cuánticos y socia científica de la empresa, cree que se trata de un momento disruptivo: “Era la primera vez que una computadora cuántica producía valores precisos a una escala que estaba fuera del alcance de la computación de fuerza bruta clásica”. y la respuesta desde entonces ha sido exactamente la que esperábamos; Desde este artículo, hemos visto a muchas personas publicar investigaciones que utilizan la cuántica como herramienta”.

Ya no se trata sólo de Qiskit, un entorno de sistemas clásicos y cuánticos que permite llevar soluciones al ruido a la programación y facilita a los usuarios incorporar la informática más avanzada. “Ahora hemos superado la barrera de los más de 100 qubits con calidad suficiente”, destaca el directivo español en referencia a la investigación de Naturaleza. Y anuncia: “Combinados con la mitigación de errores, permitirán una explosión científica”.

Jay Gambetta, vicepresidente de IBM Quantum, destaca que el desarrollo de este programa se verá favorecido por la inteligencia artificial: “Todo el poder de la computación cuántica estará impulsado por la IA generativa, que simplificará la experiencia del desarrollador”.

“Hay muchos problemas que afrontar y la naturaleza sabe cómo, pero no nos lo dice”, resume Stefan Woerner, director de Ciencia Computacional Cuántica en la sede de IBM en Zúrich (Suiza). El científico afirma que el objetivo final es llegar a la computación cuántica en base a tres criterios: que sea más eficiente, más barata y precisa. El modelo demostrado en NaturalezaSegún él, ha sido “crucial” para avanzar en este camino.

“Será muy extraño que cualquier plataforma importante en la nube no tenga computación cuántica en 2030. Esto tendrá más impacto que la inteligencia artificial y las supercomputadoras actuales”, cree Christian Weedbrook, director de Xanadu Quantum Technologies. “La computación cuántica cambiará las relaciones entre las personas, la tecnología y el trabajo”, añade Soney Trent, fundador y presidente de la empresa tecnológica Bulls Run Group.

La investigación cuántica continúa y todos contribuyen al desarrollo de esta tecnología. Investigadores del Laboratorio Nacional Argonne del Departamento de Energía de Estados Unidos (DOE), la Universidad de Chicago y la Universidad de Cambridge han creado qubits a partir de diamantes más controlables que pueden funcionar con equipos y gastos significativamente reducidos, como se publica en Revisión Física X. “Nuestra técnica nos permite aumentar drásticamente la temperatura de funcionamiento de estos sistemas y reduce en gran medida los recursos para operarlos”, dice Alex High, profesor asistente de la Escuela de Ingeniería Molecular Pritzker de la Universidad de California, cuyo laboratorio dirigió el estudio.

puedes seguir EL PAÍS Tecnología en Facebook y X o regístrate aquí para recibir nuestra boletín semanal.

También te podría gustar...

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *