El 8 de agosto, Google DeepMind recurrió a la plataforma de redes sociales X (antes conocida como Twitter) para compartir información sobre su último proyecto de investigación que involucra un sistema robótico diseñado para jugar al tenis de mesa. Google DeepMind es un destacado laboratorio de investigación de inteligencia artificial (IA) que opera bajo el paraguas de Alphabet Inc., la empresa matriz de Google. Se formó mediante la fusión de dos equipos líderes de IA: Google Brain y el equipo original de DeepMind. Este esfuerzo combinado ha impulsado a Google DeepMind a la vanguardia de la innovación en IA, centrándose en el desarrollo de sistemas de IA avanzados que puedan abordar algunos de los desafíos científicos y de ingeniería más complejos. DeepMind se fundó inicialmente en 2010 con un fuerte énfasis en el aprendizaje de refuerzo profundo, un método que combina el aprendizaje profundo con el aprendizaje de refuerzo. El laboratorio ganó una amplia atención con la creación de AlphaGo, el primer sistema de IA en derrotar a un campeón mundial en el juego de Go, una hazaña que se consideró una década adelantada a su tiempo. Este éxito dio lugar a nuevos avances en IA, incluido el desarrollo de AlphaFold, una IA que predice modelos 3D de estructuras de proteínas con una precisión notable, revolucionando el campo de la biología. En 2023, Google fusionó sus divisiones de investigación de IA para formar Google DeepMind, con el objetivo de unificar esfuerzos y acelerar el progreso en IA. Uno de sus proyectos más recientes es Gemini, un modelo de IA de próxima generación que, según se informa, supera a algunos modelos de IA existentes, como GPT-4, en puntos de referencia específicos. Según el hilo de Google Deepmind en X, el tenis de mesa se ha utilizado durante mucho tiempo como punto de referencia en la investigación robótica debido a la combinación única de movimiento físico de alta velocidad, toma de decisiones estratégicas y precisión del deporte. Desde la década de 1980, los investigadores han utilizado el juego como banco de pruebas para desarrollar y perfeccionar las habilidades robóticas, lo que lo convierte en un candidato ideal para la última exploración impulsada por IA de Google DeepMind. Para entrenar al robot de tenis de mesa, Google DeepMind comenzó reuniendo un conjunto de datos completo de los estados iniciales de la pelota. Este conjunto de datos incluía parámetros críticos como la posición, la velocidad y el giro de la pelota, que son esenciales para comprender y predecir las trayectorias de la pelota durante un partido. Al practicar con esta amplia biblioteca de datos, el robot pudo desarrollar una variedad de habilidades necesarias para el tenis de mesa, incluido el efecto de derecha, el golpe de revés y la capacidad de devolver servicios. El proceso de entrenamiento se llevó a cabo inicialmente en un entorno simulado, lo que permitió al robot practicar en un entorno controlado que modelaba con precisión la física del tenis de mesa. Una vez que el robot demostró su competencia en el entorno simulado, se lo implementó en escenarios del mundo real donde jugó contra oponentes humanos. Esta práctica en el mundo real generó datos adicionales, que luego se volvieron a incorporar a la simulación para refinar aún más las habilidades del robot, creando un ciclo de retroalimentación continuo entre la simulación y la realidad. Una de las innovaciones clave en este proyecto es la capacidad del robot para adaptarse a diferentes oponentes. Google DeepMind diseñó el sistema para rastrear y analizar el comportamiento y el estilo de juego de sus adversarios humanos, como por ejemplo, a qué lado de la mesa preferían devolver la pelota. Esta capacidad le permitió al robot experimentar con varias técnicas, monitorear su efectividad y ajustar su estrategia en tiempo real, de manera similar a cómo un jugador humano podría alterar las tácticas en función de las tendencias de su oponente. Durante la investigación, el robot se enfrentó a 29 oponentes humanos con diferentes niveles de habilidad, que iban desde principiantes hasta jugadores avanzados. El desempeño del robot se evaluó en estos diferentes niveles y, en general, se clasificó en la mitad de los participantes, lo que indica que opera al nivel de un aficionado intermedio. Sin embargo, cuando se enfrentó a jugadores más avanzados, el robot encontró limitaciones. Google DeepMind reconoció que el robot no pudo vencer de manera constante a los jugadores avanzados, citando factores como la velocidad de reacción, las capacidades de detección de la cámara, el manejo del giro y los desafíos de modelar con precisión la goma de la pala en simulaciones como factores contribuyentes. Google DeepMind concluyó su hilo reflexionando sobre las implicaciones más amplias de este trabajo. Destacaron cómo los deportes como el tenis de mesa brindan un entorno rico para probar y desarrollar capacidades robóticas. Así como los humanos pueden aprender a realizar tareas complejas que requieren habilidad física, percepción y toma de decisiones estratégicas, los robots también pueden hacerlo, siempre que cuenten con el entrenamiento adecuado y los sistemas de adaptación necesarios. Esta investigación no solo hace avanzar el campo de la robótica, sino que también ofrece información sobre cómo se puede entrenar a las máquinas para que realicen tareas complejas del mundo real, lo que podría allanar el camino para futuras innovaciones en inteligencia artificial y robótica.
El tenis de mesa robótico ha servido como punto de referencia para este tipo de investigación desde la década de 1980. El robot tiene que ser bueno en habilidades de nivel bajo, como devolver la pelota, así como en habilidades de nivel alto, como la elaboración de estrategias y la planificación a largo plazo para lograr un objetivo. imagen.twitter.com/IX7VuDyC4J— Google DeepMind (@GoogleDeepMind) 8 de agosto de 2024
Imagen destacada vía Pixabay