Quantum Machines y Nvidia utilizan el aprendizaje automático para acercarse a una computadora cuántica con corrección de errores

sobre un hace un año y medioinicio de control cuántico Máquinas cuánticas y Nvidia anunciaron una profunda asociación que uniría a Nvidia DGX Cuántico plataforma informática y hardware de control cuántico avanzado de Quantum Machine. No escuchamos mucho sobre los resultados de esta asociación por un tiempo, pero ahora está comenzando a dar frutos y acercando a la industria un paso más al santo grial de una computadora cuántica con corrección de errores.

En una presentación a principios de este año, las dos empresas demostraron que Son capaces de utilizar un modelo de aprendizaje por refuerzo disponible en el mercado. ejecutándose en la plataforma DGX de Nvidia para controlar mejor los qubits en un chip cuántico Rigetti manteniendo el sistema calibrado.

Yonatan Cohen, cofundador y director de tecnología de Quantum Machines, señaló cómo su empresa ha buscado durante mucho tiempo utilizar motores de computación clásicos generales para controlar los procesadores cuánticos. Esos motores de computación eran pequeños y limitados, pero eso no es un problema con la extremadamente poderosa plataforma DGX de Nvidia. El santo grial, afirmó, es ejecutar la corrección de errores cuánticos. Aún no hemos llegado a ese punto. En cambio, esta colaboración se centró en la calibración, y específicamente en calibrar el llamado “pulsos π”que controlan la rotación de un qubit dentro de un procesador cuántico.

A primera vista, la calibración puede parecer un problema de una sola vez: se calibra el procesador antes de comenzar a ejecutar el algoritmo en él. Pero no es tan simple. “Si nos fijamos en el rendimiento de las computadoras cuánticas actuales, obtenemos cierta alta fidelidad”, dijo Cohen. “Pero los usuarios, cuando usan la computadora, normalmente no tienen la mejor fidelidad. Va a la deriva todo el tiempo. Si podemos recalibrarlo con frecuencia utilizando este tipo de técnicas y hardware subyacente, entonces podremos mejorar el rendimiento y mantener la fidelidad (alta) durante mucho tiempo, que es lo que se necesitará en la corrección de errores cuánticos”.

El sistema de control cuántico OPX+ todo en uno de Quantum Machine.Créditos de imagen:Máquinas cuánticas

Ajustar constantemente esos pulsos casi en tiempo real es una tarea extremadamente intensiva en computación, pero como un sistema cuántico siempre es ligeramente diferente, también es un problema de control que se presta a ser resuelto con la ayuda del aprendizaje por refuerzo.

“A medida que las computadoras cuánticas crecen y mejoran, surgen todos estos problemas que se convierten en cuellos de botella, que se vuelven realmente intensivos en computación”, dijo Sam Stanwyck, gerente de producto del grupo de Nvidia para computación cuántica. “La corrección de errores cuánticos es realmente enorme. Esto es necesario para desbloquear la computación cuántica tolerante a fallas, pero también cómo aplicar exactamente los pulsos de control correctos para aprovechar al máximo los qubits”.

Stanwyck también enfatizó que antes de DGX Quantum no existía ningún sistema que permitiera el tipo de latencia mínima necesaria para realizar estos cálculos.

Una computadora cuánticaCréditos de imagen:Máquinas cuánticas

Resulta que incluso una pequeña mejora en la calibración puede conducir a mejoras masivas en la corrección de errores. “El retorno de la inversión en calibración en el contexto de la corrección de errores cuánticos es exponencial”, explicó Ramon Szmuk, director de producto de Quantum Machines. “Si calibras un 10% mejor, eso te da un error lógico (rendimiento) exponencialmente mejor en el qubit lógico que se compone de muchos qubits físicos. Así que aquí hay mucha motivación para calibrar muy bien y rápido”.

Vale la pena enfatizar que esto es solo el comienzo de este proceso de optimización y colaboración. Lo que el equipo realmente hizo aquí fue simplemente tomar un puñado de algoritmos disponibles y observar cuál funcionó mejor (TD3en este caso). En total, el código real para ejecutar el experimento tenía sólo unas 150 líneas. Por supuesto, esto depende de todo el trabajo que también hicieron los dos equipos para integrar los distintos sistemas y desarrollar la pila de software. Sin embargo, para los desarrolladores, toda esa complejidad puede ocultarse, y las dos compañías esperan crear más y más bibliotecas de código abierto con el tiempo para aprovechar esta plataforma más grande.

Szmuk destacó que para este proyecto, el equipo sólo trabajó con un circuito cuántico muy básico, pero que también se puede generalizar a circuitos profundos. Si puedes hacer esto con una puerta y un qubit, también puedes hacerlo con cien qubits y 1.000 puertas”, dijo.

“Yo diría que el resultado individual es un pequeño paso, pero es un pequeño paso hacia la solución de los problemas más importantes”, añadió Stanwyck. “La computación cuántica útil requerirá una estrecha integración de la supercomputación acelerada, y ese puede ser el desafío de ingeniería más difícil. Entonces, al poder hacer esto de verdad en una computadora cuántica y ajustar un pulso de una manera que no solo esté optimizada para una pequeña computadora cuántica sino que sea una plataforma modular y escalable, creemos que realmente estamos en el camino de resolver algunos Uno de los problemas más importantes de la computación cuántica es esto”.

Stanwyck también dijo que las dos empresas planean continuar esta colaboración y poner estas herramientas en manos de más investigadores. Con los chips Blackwell de Nvidia disponibles el próximo año, también tendrán una plataforma informática aún más poderosa para este proyecto.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here