Los investigadores de Cornell han desarrollado un sistema de alimentación robótico que utiliza visión por computadora, aprendizaje automático y detección multimodal para alimentar de manera segura a personas con limitaciones graves de movilidad, incluidas aquellas con lesiones de la médula espinal, parálisis cerebral y esclerosis múltiple.
«Alimentar a personas con graves limitaciones de movilidad con un robot es difícil, ya que muchos no pueden inclinarse hacia adelante y necesitan que se les coloque la comida directamente en la boca», dijo Tapomayukh «Tapo» Bhattacharjee, profesor asistente de informática en el Cornell Ann S. Bowers College. de Computación y Ciencias de la Información y desarrollador senior detrás del sistema. «El desafío se intensifica cuando se alimenta a personas con afecciones médicas complejas adicionales «.
En la conferencia Human Robot Interaction, celebrada del 11 al 14 de marzo en Boulder, Colorado, se presentó un artículo sobre el sistema, «Feel the Bite: Robot-Assisted Inside-Mouth Bite Transfer using Robust Mouth Perception and Physical Interaction-Aware Control». . Recibió una Mención de Honor al Mejor Trabajo, mientras que una demostración del sistema de alimentación robótico más amplio del equipo de investigación recibió el Premio a la Mejor Demostración.
Bhattacharjee, líder en robótica de asistencia, y su laboratorio EmPRISE llevan años enseñando a las máquinas el complejo proceso mediante el cual los humanos nos alimentamos. Es un desafío complicado enseñarle a una máquina todo, desde identificar alimentos en un plato, recogerlos y luego transferirlos dentro de la boca de la persona atendida.
«Estos últimos cinco centímetros, desde el utensilio hasta el interior de la boca, son extremadamente desafiantes», dijo Bhattacharjee.
Algunas personas que reciben cuidados pueden tener aperturas bucales muy limitadas, que miden menos de 2 centímetros, mientras que otros experimentan espasmos musculares involuntarios que pueden ocurrir inesperadamente, incluso cuando el utensilio está dentro de su boca, dijo Bhattacharjee. Además, algunos sólo pueden morder la comida en lugares específicos dentro de la boca, lo que indican empujando el utensilio con la lengua, dijo.
«La tecnología actual sólo mira la cara de una persona una vez y supone que permanecerá quieta, lo que a menudo no es el caso y puede ser muy limitante para quienes reciben atención», dijo Rajat Kumar Jenamani, autor principal del artículo y estudiante de doctorado en el campo de Ciencias de la Computación.
Para abordar estos desafíos, los investigadores desarrollaron y equiparon su robot con dos características esenciales: seguimiento bucal en tiempo real que se ajusta a los movimientos de los usuarios y un mecanismo de respuesta dinámica que permite al robot detectar la naturaleza de las interacciones físicas a medida que ocurren y reaccionar. adecuadamente. Esto permite al sistema distinguir entre espasmos repentinos, mordeduras intencionales e intentos del usuario de manipular el utensilio dentro de su boca, dijeron los investigadores.
El sistema robótico alimentó con éxito a 13 personas con diversas afecciones médicas en un estudio de usuarios que abarcó tres ubicaciones: el laboratorio EmPRISE en el campus de Cornell Ithaca, un centro médico en la ciudad de Nueva York y el hogar de un destinatario de atención en Connecticut. Los usuarios del robot lo encontraron seguro y cómodo, dijeron los investigadores.
«Esta es una de las evaluaciones más extensas del mundo real de cualquier sistema de alimentación autónomo asistido por robot con usuarios finales», dijo Bhattacharjee.
El robot del equipo es un brazo de múltiples articulaciones que sostiene en el extremo un utensilio hecho a medida que puede detectar las fuerzas que se le aplican. El método de seguimiento de la boca, entrenado con miles de imágenes que muestran las posturas de la cabeza y las expresiones faciales de varios participantes, combina datos de dos cámaras colocadas encima y debajo del utensilio.
Esto permite una detección precisa de la boca y supera cualquier obstrucción visual causada por el propio utensilio, dijeron los investigadores. Este mecanismo de respuesta consciente de la interacción física utiliza sensores visuales y de fuerza para percibir cómo los usuarios interactúan con el robot, dijo Jenamani.
«Estamos capacitando a las personas para que controlen un robot de 20 libras sólo con su lengua», dijo.
Citó los estudios de usuarios como el aspecto más gratificante del proyecto, destacando el importante impacto emocional del robot en quienes reciben cuidados y sus cuidadores. Durante una sesión, los padres de una hija con esquizencefalia cuadriplejía, un raro defecto de nacimiento, fueron testigos de cómo ella se alimentaba exitosamente usando el sistema.
«Fue un momento de verdadera emoción; su padre levantó su gorra para celebrar y su madre estaba casi llorando», dijo Jenamani.
Si bien se necesita más trabajo para explorar la usabilidad a largo plazo del sistema, sus resultados prometedores resaltan el potencial de mejorar el nivel de independencia y la calidad de vida de los destinatarios de la atención, dijeron los investigadores.
«Es asombroso», dijo Bhattacharjee, «y muy, muy satisfactorio».
Fuente: techxplore.com