Facebook crea un espacio virtual para robots que parece y suena real
Su plataforma Habitat ahora permite incorporar sonidos realistas para que los modelos de IA aprendan cosas como abrir la puerta cuando alguien está llamando. El objetivo es mejorar la capacidad de navegación simulada y trasladar esos conocimientos a robots para que los apliquen en el mundo físico
En junio de 2019, el laboratorio de inteligencia artificial (IA) de Facebook, FAIR, lanzó AI Habitat, una nueva plataforma de simulación para entrenar a asistentes de IA. El servicio permitía a los algoritmos explorar varios entornos virtuales realistas, como un apartamento amueblado y una oficina llena de cubículos. Luego, la IA podría implementarse en un robot para adquirir la inteligencia generada para navegar por el mundo real sin accidentes.
En el año transcurrido desde entonces, FAIR ha ampliado rápidamente los límites de su trabajo. En una reciente publicación de blog, el laboratorio anunció tres hitos adicionales alcanzados: dos nuevos algoritmos que permiten a un modelo crear y recordar rápidamente un mapa de los espacios por los que navega, y la adición de sonido en la plataforma para que los asistentes también aprendan a escuchar.
Los algoritmos se basan en un trabajo de FAIR de enero de este año, cuando un modelo fue entrenado en Habitat para navegar en entornos desconocidos sin mapa. Utilizando solo una cámara con sensor de profundidad, GPS y datos de la brújula, aprendió a entrar en un espacio casi como lo haría un ser humano y a encontrar el camino más corto posible hacia su destino sin giros equivocados, marcha atrás ni exploración.
El primero de estos nuevos algoritmos ahora puede generar un mapa del espacio al mismo tiempo, lo que le permite recordar el entorno y navegar por él más rápido si regresa. El segundo mejora la capacidad del modelo para mapear el espacio sin necesidad de visitar cada parte del mismo. Como ya se había entrenado en suficientes entornos virtuales, es capaz de anticipar ciertas características en uno nuevo. Por ejemplo, puede saber que es probable que haya un espacio vacío en el suelo detrás de una mesa de cocina sin tener que navegar hacia el otro lado para mirar. De nuevo, esto al final permite que el asistente se mueva más rápido por un entorno.
Además, el laboratorio también creó SoundSpaces, una herramienta de reproducción de sonido que permite a los investigadores añadir un audio altamente realista a cualquier entorno de Habitat. Podría reproducir los sonidos generados al golpear diferentes muebles, o el ruido de tacones sobre el suelo, contrario al de unas zapatillas deportivas. Ese plus le da a Habitat la capacidad de entrenar a los modelos en tareas que requieren detección visual y auditiva, como “Coger el teléfono que suena” o “Abrir la puerta a la que alguien llama”.
De los tres desarrollos, el de sonido es el que resulta más fascinante, según la investigadora de robótica del Instituto Allen de Inteligencia Artificial Ani Kembhavi, que no participó en este trabajo. Algunas investigaciones similares previas se han centrado más en dar a los modelos la capacidad de ver o responder a comandos de texto. La investigadora detalla: “Añadir audio es un paso esencial e impresionante. Veo muchas tareas diferentes en las que las entradas de audio serían muy útiles”. La combinación de visión y sonido en particular es “un área de investigación poco explorada”, afirma el director del Laboratorio de aprendizaje de robots de la Universidad de California, Berkeley (EE. UU.) Pieter Abeel.
Los investigadores de FAIR aseguran que cada uno de estos avances supone un paso más para el objetivo del laboratorio de crear asistentes robóticos realmente inteligentes. La meta final es que estos compañeros puedan moverse con agilidad y realizar tareas sofisticadas como cocinar.
Pero pasará mucho tiempo antes de que podamos dejar a los robots sueltos por la casa. Uno de los muchos obstáculos que FAIR deberá superar es el de trasladar todo el entrenamiento virtual al mundo físico, un proceso conocido como transferencia “sim2real”. Cuando los investigadores probaron por primera vez sus algoritmos entrenados virtualmente en robots físicos, el proceso no acabó muy bien.
En el futuro, los investigadores de FAIR también esperan empezar a añadir capacidades de interacción en Habitat. La investigadora de FAIR y profesora de Ciencias de la computación en la Universidad de Texas en Austin (EE. UU.) Kristen Grauman, quien dirigió parte del trabajo, concluye: “Digamos que soy un asistente. Entro y veo estos objetos. ¿Qué puedo hacer con ellos? ¿A dónde iría si se supone que debo hacer un soufflé? ¿Qué herramientas cogería? Este tipo de interacciones e incluso los cambios en el entorno basados en la manipulación llevarían este tipo de trabajo a otro nivel. Eso es lo que perseguimos activamente”.
Fuente: technologyreview.es