
Después del Go, el Ajedrez y el plegado de proteínas, la compañía de inteligencia artificial más famosa del mundo está asumiendo el desafío de un deporte exclusivamente humano.
Una de las subsidiarias más famosas de Google es su unidad de inteligencia artificial, Deepmind. Esta empresa con sede en Londres tomó el mundo de la investigación de IA por asalto en 2013 cuando construyó una máquina que aprendió a jugar videojuegos convencionales, como Pong y Breakout, y luego logró rápidamente un rendimiento sobrehumano.
Eso anunció una serie de avances impresionantes. El principal de ellos fue la máquina AlphaGo que alcanzó niveles sobrehumanos en el antiguo juego chino de Go. Más recientemente, su máquina AlphaFold superó a todos los demás enfoques para abordar el problema de larga data del plegamiento de proteínas.
Entonces, una pregunta interesante es cuál es el próximo problema al que se enfrenta la empresa.
Ahora tenemos una respuesta. Deepmind ha creado un agente inteligente que ha aprendido a jugar al fútbol. No solo habilidades de alto nivel, como cómo abordar, pasar y jugar en un equipo, sino también cómo controlar un cuerpo humano completamente articulado de una manera que realiza estas acciones como un humano. El resultado es una simulación impresionante de fútbol de una manera que recuerda a los jugadores humanos, aunque ingenuos y torpes.
Siqi Liu y sus colegas de Deepmind describen el enfoque. La primera tarea es darle al agente inteligente el control total sobre una figura humanoide con todas las articulaciones y articulaciones, 56 grados de libertad que tiene un humano real.
El agente aprende a controlar a este humanoide en un entorno simulado con la gravedad ordinaria y otras leyes de la física incorporadas. Para ello, aprende a copiar el movimiento de futbolistas reales capturado mediante técnicas estándar de captura de movimiento. Estos movimientos incluyen correr, cambiar de dirección, patear, etc. Luego, los humanoides de la IA practican habilidades de nivel medio, como regatear, seguir el balón y disparar. Finalmente, los humanoides juegan en partidas 2 contra 2 en las que el equipo ganador es el que anota primero.
Uno de los resultados impresionantes de este proceso es que los humanoides aprenden tácticas de varios tipos. «Desarrollan la conciencia de los demás y aprenden a jugar en equipo, logrando cerrar la brecha entre el control motor de bajo nivel en una escala de tiempo de milisegundos y el comportamiento coordinado dirigido a objetivos como un equipo en la escala de tiempo de decenas de segundos», dice Liu y colegas. Las imágenes de estos juegos junto con la forma en que los jugadores aprenden están disponibles en línea.
Lo que hace que este trabajo se destaque es que Deepmind asume estos desafíos juntos, mientras que en el pasado, generalmente se abordaron por separado. Eso es importante porque el comportamiento emergente de los jugadores depende fundamentalmente de su agilidad y su movimiento naturalista, lo que muestra la ventaja de combinar estos enfoques. “Los resultados demuestran que los agentes artificiales pueden aprender a coordinar movimientos complejos para interactuar con objetos y lograr objetivos a largo plazo en cooperación con otros agentes”, dice el equipo.
Curiosamente, los jugadores aprenden a pasar, pero no parecen aprender a correr hacia el espacio. Quizás sea porque esto a menudo requiere que los jugadores huyan del balón. Sin esa capacidad, los patrones de juego recuerdan a los de los niños pequeños, que tienden a perseguir la pelota en manada.
Los niños mayores desarrollan una sensación de espacio y los jugadores adultos pasan gran parte del juego corriendo hacia el espacio o cerrando espacios en los que los jugadores de la oposición podrían correr, todo sin la pelota.
Pero el enfoque de Deepmind está en su infancia y tiene el potencial de avanzar significativamente. El siguiente paso obvio es jugar con equipos más grandes y ver qué comportamiento surge. «Los equipos más grandes también podrían conducir al surgimiento de tácticas más sofisticadas», dicen los investigadores.
Estrategias de robot
Deepmind también ha simplificado significativamente las reglas del fútbol: sin saques de banda, sin penaltis, sin porteros dedicados. Las nuevas habilidades requeridas para esto necesitarán algo de entrenamiento para los humanoides de IA, pero también puede conducir al desarrollo de diferentes estilos de juego.
¿Por qué Deepmind estaría interesado en una búsqueda aparentemente tan frívola? La respuesta probablemente sea comprender mejor cómo usar la IA para resolver problemas del mundo real con estrategias de movimiento complejas. «Creemos que los estudios basados en simulación pueden ayudarnos a comprender aspectos de los principios computacionales que eventualmente nos permitirán generar comportamientos similares en el mundo real», dicen Liu y compañía.
Y puede haber algunos premios en el camino. Primero está el proyecto RoboCup, en el que equipos de robots humanoides juegan fútbol entre sí. Los juegos son lentos, forzados y cómicos. Así que no es difícil imaginar que la simulación de Deepmind se convierta en una fuerza poderosa en el fútbol robótico.
Luego está el potencial de los juegos. Es posible que los humanos tengan cierto control sobre el comportamiento de los jugadores, como ocurre con los actuales videojuegos de fútbol de la FIFA. Incluso puede ser posible incorporar humanos en estos juegos simulados utilizando tecnología de captura de movimiento.
Finalmente, existe la posibilidad de que las simulaciones de 11 jugadores se vuelvan más avanzadas que los juegos humanos. AlphaGo descubrió estrategias de juego completamente nuevas en Go, un juego que se ha jugado durante siglos. ¿Es imposible imaginar a Deepmind descubriendo nuevas tácticas y planes de juego para el fútbol? Dado su historial en otras áreas, sería una tontería descartarlo.