Icono del sitio INVDES

Nueva tecnología de Google permite controlar apps y juegos solo con la cara

Project Gameface permite a los usuarios controlar el cursor de un ordenador mediante el movimiento de la cabeza y diversas muecas. De momento, esta tecnología es código abierto en Github

Google celebró el pasado 14 de mayo su tradicional conferencia de desarrolladores para dar a conocer todas sus novedades respecto a dispositivos, software y hardware. Este año, la protagonista del evento I/O 2024 fue la inteligencia artificial (IA) por todos los modelos de lenguaje y funciones que la compañía de Mountain View incorpora a sus servicios, no obstante, otras innovaciones como Project Gameface también tuvieron su protagonismo.

Concretamente, esta última tecnología mencionada permite a los usuarios controlar aplicaciones móviles con la cara y las expresiones faciales, de esta manera, Google mejora la accesibilidad en los dispositivos con el sistema operativo Android para aquellas personas con dificultades de movimiento o enfermedades como la distrofia muscular.

De momento, Google afirma en un comunicado de su blog oficial que la fuente de código de Project Gameface está abierta para que los desarrolladores puedan crear aplicaciones Android con este sistema de control.

¿Qué es Project Gameface?

Project Gameface es una herramienta de código abierto que, tal y como lo define la compañía, es un «ratón» que permite a los usuarios controlar el cursor de un ordenador mediante el movimiento de la cabeza y diversas muecas. Es decir, dicha tecnología posibilita que los individuos controlen un juego levantando las cejas para clic, o abriendo la boca para mover el cursor.

Para usar esta innovación, el interesado tendrá que usar la cámara frontal del dispositivo para que analice las expresiones faciales y movimientos de la cabeza, traduciendo estos gestos en un control «intuitivo y personalizado». Además, podrá configurar su experiencia de uso, personalizando las expresiones faciales, el tamaño de los gestos o, incluso, la velocidad del cursor, entre otras opciones.

Android se vuelve más accesible para todos los usuarios

Para integrar Project Gameface en Android, Google ha utilizado el servicio de accesibilidad del sistema operativo para «crear un nuevo cursor», teniendo en cuenta que ha aprovechado la API de detección de puntos de referencia faciales de su servicio MediaPipe para programar el cursor, de manera que se traslade por la pantalla de acuerdo con el movimiento de la cabeza del usuario.

Por otro lado, esta API es capaz de reconocer 52 gestos faciales, como levantar las cejas, abrir la boca o guiñar un ojo. Asimismo, Google ha utilizado estos gestos para «mapear y controlar una amplia gama de funciones» de Project Gameface.

Fuente: 20minutos.es

Salir de la versión móvil