Hombre contra máquina: el nuevo robot de DeepMind triunfa en el tenis de mesa

Benj Edwards / Google DeepMind

El miércoles, los investigadores de Google DeepMind reveló El primer jugador de tenis de mesa robótico impulsado por IA capaz de competir a nivel amateur. El sistema combina un brazo robótico industrial llamado ABB IRB1100 y un software de inteligencia artificial personalizado de DeepMind. Si bien un jugador humano experto puede derrotar al robot, el sistema demuestra el potencial de las máquinas para dominar tareas físicas complejas que requieren una toma de decisiones en fracciones de segundo y adaptabilidad.

“Este es el primer agente robot capaz de jugar un deporte con humanos a nivel humano”, escribieron los investigadores en un papel de preimpresión “Representa un hito en el aprendizaje y el control de los robots”, se encuentra en arXiv.

El agente robot sin nombre (sugerimos “AlphaPong”), desarrollado por un equipo que incluye a David B. D'Ambrosio, Saminda Abeyruwan y Laura Graesser, mostró un rendimiento notable en una serie de partidos contra jugadores humanos de distintos niveles de habilidad. En un estudio en el que participaron 29 participantes, el robot impulsado por IA ganó el 45 por ciento de sus partidos, lo que demuestra un juego sólido a nivel amateur. Lo más notable es que logró una tasa de victorias del 100 por ciento contra principiantes y una tasa de victorias del 55 por ciento contra jugadores intermedios, aunque tuvo dificultades contra oponentes avanzados.

Un video de Google DeepMind del agente de IA luchando con un jugador de tenis de mesa humano.

El equipo físico está formado por el mencionado IRB 1100, un brazo robótico de 6 grados de libertad, montado sobre dos pistas lineales, lo que le permite moverse libremente en un plano 2D. Unas cámaras de alta velocidad rastrean la posición de la pelota, mientras que un sistema de captura de movimiento monitorea los movimientos de la pala del oponente humano.

La IA en el centro

Para crear los cerebros que impulsan el brazo robótico, los investigadores de DeepMind desarrollaron un enfoque de dos niveles que permite al robot ejecutar técnicas específicas de tenis de mesa mientras adapta su estrategia en tiempo real al estilo de juego de cada oponente. En otras palabras, es lo suficientemente adaptable como para jugar al tenis de mesa contra cualquier humano aficionado sin necesidad de un entrenamiento específico por jugador.

La arquitectura del sistema combina controladores de habilidades de bajo nivel (políticas de redes neuronales entrenadas para ejecutar técnicas específicas de tenis de mesa, como golpes de derecha, devoluciones de revés o respuestas de servicio) con un tomador de decisiones estratégicas de alto nivel (un sistema de IA más complejo que analiza el estado del juego, se adapta al estilo del oponente y selecciona qué política de habilidad de bajo nivel activar para cada pelota entrante).

Los investigadores afirman que una de las innovaciones clave de este proyecto fue el método utilizado para entrenar los modelos de IA. Los investigadores eligieron un enfoque híbrido que utilizó el aprendizaje por refuerzo en un entorno de física simulada, al tiempo que basaba los datos de entrenamiento en ejemplos del mundo real. Esta técnica permitió al robot aprender de alrededor de 17.500 trayectorias de pelotas del mundo real, un conjunto de datos bastante pequeño para una tarea compleja.

Un vídeo de Google DeepMind que muestra una ilustración de cómo el agente de IA analiza a los jugadores humanos.

Los investigadores utilizaron un proceso iterativo para perfeccionar las habilidades del robot. Comenzaron con un pequeño conjunto de datos de juego entre humanos y luego dejaron que la IA jugara contra oponentes reales. Cada partido generó nuevos datos sobre las trayectorias de las pelotas y las estrategias humanas, que el equipo incorporó a la simulación para un mayor entrenamiento. Este proceso, repetido durante siete ciclos, permitió que el robot se adaptara continuamente a oponentes cada vez más hábiles y a diversos estilos de juego. En la ronda final, la IA había aprendido de más de 14.000 pelotas de peloteo y 3.000 servicios, creando un conjunto de conocimientos de tenis de mesa que le ayudó a salvar la brecha entre la simulación y la realidad.

Curiosamente, Nvidia también ha estado experimentando con sistemas de física simulada similares, como Eurekaque permiten que un modelo de IA aprenda rápidamente a controlar un brazo robótico en un espacio simulado en lugar de en el mundo real (ya que la física se puede acelerar dentro de la simulación y se pueden realizar miles de pruebas simultáneas). Es probable que este método reduzca drásticamente el tiempo y los recursos necesarios para entrenar a los robots para interacciones complejas en el futuro.

Los humanos disfrutaban jugando contra él.

Más allá de sus logros técnicos, el estudio también exploró la experiencia humana de jugar contra un oponente de IA. Sorprendentemente, incluso los jugadores que perdieron contra el robot dijeron que disfrutaron de la experiencia. “En todos los grupos de habilidades y tasas de victorias, los jugadores coincidieron en que jugar con el robot era 'divertido' y 'entretenido'”, señalaron los investigadores. Esta recepción positiva sugiere posibles aplicaciones de la IA en el entrenamiento y el entretenimiento deportivo.

Sin embargo, el sistema no está exento de limitaciones. Tiene problemas con pelotas extremadamente rápidas o altas, tiene dificultades para leer los efectos intensos y muestra un rendimiento más débil en jugadas de revés. Google DeepMind compartió un video de ejemplo del agente de IA que pierde un punto ante un jugador avanzado debido a lo que parece ser una dificultad para reaccionar a un golpe rápido, como puede ver a continuación.

Un vídeo de Google DeepMind del agente de IA jugando contra un jugador humano avanzado.

Según los investigadores, las implicaciones de este prodigio robótico del ping-pong se extienden más allá del mundo del tenis de mesa. Las técnicas desarrolladas para este proyecto podrían aplicarse a una amplia gama de tareas robóticas que requieren reacciones rápidas y adaptación a un comportamiento humano impredecible. Desde la fabricación hasta la atención sanitaria (o simplemente pegarle a alguien con una pala repetidamente), las posibles aplicaciones parecen ser realmente enormes.

El equipo de investigación de Google DeepMind enfatiza que, con un mayor refinamiento, creen que el sistema podría competir potencialmente con jugadores de tenis de mesa avanzados en el futuro. DeepMind no es ajeno a la creación de modelos de IA que pueden derrotar a jugadores humanos, incluidos Alfa Cero y AlfaGoCon este último agente robot, parece que la empresa de investigación está yendo más allá de los juegos de mesa y adentrándose en los deportes físicos. Ajedrez y Peligro ya han caído ante los vencedores impulsados ​​por IA; tal vez el tenis de mesa sea el próximo.

Fuente