HeAR, la IA de Google que podría identificar enfermedades respiratorias con solo escuchar la tos

HeAR es un modelo de IA desarrollado por Google capaz de detectar enfermedades como covid-19 y tuberculosis mediante el análisis de sonidos

Científicos de Google han desarrollado un sistema de inteligencia artificial (IA) capaz de detectar enfermedades respiratorias mediante la evaluación de sonidos relacionados con la tos y la respiración. Los investigadores aseguran que el modelo de aprendizaje automático podría servir para evaluar la salud pulmonar y diagnosticar afecciones como el covid-19 o la tuberculosis.

El desarrollo se conoce como HeAR (Representaciones acústicas de salud). El proceso con el que fue entrenado y su capacidad de ajustarse para realizar múltiples tareas, lo diferencian de otros algoritmos que utilizan el sonido como biomarcador.

La mayoría de las herramientas de diagnóstico por audio basadas en IA utilizan grabaciones de sonidos que asocian a la información clínica del paciente para emitir una evaluación. Los autores del trabajo explican en un artículo publicado en la revista Nature que estos recursos relacionan las características sonoras con las etiquetas de datos médicos gracias a un proceso de entrenamiento llamado aprendizaje supervisado.

Yael Bensoussan, laringóloga de la Universidad del Sur de Florida, afirma que la técnica es muy útil porque añade una validación clínica a los resultados que el programa automatizado entrega. “La desventaja es que limita los conjuntos de información que se pueden utilizar. No considera las bases de datos anotados”. Este último grupo está conformado por referencias secundarias y generales relacionadas con un padecimiento que se pueden obtener de ensayos médicos, censos, cálculos de los programas de salud públicos o de materiales disponibles en la web.

HeAR fue entrenado mediante el método de aprendizaje autosupervisado que se basa en datos sin etiquetar. Se trata de un proceso automatizado a través del cual los científicos extrajeron de YouTube 313 millones de clips con dos segundos de duración. La muestra consideró sonidos de tos, respiración, carraspeo y otros sonidos humanos relacionados.

Cada fragmento se convirtió en una representación visual del audio (espectrograma). Algunos segmentos de estos registros gráficos fueron bloqueados para que el algoritmo aprendiera a predecir las partes faltantes. Los investigadores consiguieron desarrollar un modelo básico que puede adaptarse para identificar distintas enfermedades.

La diversidad de los datos de entrenamiento, las diferentes calidades de sonido y la variedad de fuentes humanas suponen que los resultados entregados son generalizables a una amplia gama de escenarios.

El modelo de Google demuestra su eficiencia

El recurso fue ajustado en una fase inicial para detectar covid-19, tuberculosis y características relacionadas con el tabaquismo. Los desarrolladores integraron al sistema un conjunto limitado de datos etiquetados con los síntomas y rasgos más característicos de dichas enfermedades.

El sistema consiguió tasas de precisión superiores en comparación con modelos similares existentes entrenados mediante aprendizaje supervisado, según el informe. El rendimiento del algoritmo se midió en una escala de 0.5 a 1. HeAR obtuvo puntuaciones de entre 0.645 a 0.710 al identificar covid-19 y de 0.739 para tuberculosis. Ali Imran, ingeniero de la Universidad de Oklahoma, dijo que el gran volumen de datos utilizados por el equipo de Google “nos da la confianza de que se trata de una herramienta fiable”.

La investigación no ha sido revisada por pares. El equipo de Google aclara que el proyecto se encuentra en una fase temprana de desarrollo. Para acelerar la optimización del sistema, abrirá el acceso al modelo a instituciones y científicos interesados en utilizarlo en sus estudios.

El uso de la voz como marcador biológico para identificar ciertas afecciones se encuentra en pleno auge. El año pasado, un programa de IA consiguió detectar casos de diabetes mellitus tipo 2 (DM2) tras analizar un mensaje de voz de apenas 10 segundos. La investigación publicada en Mayo Clinic Proceedings: Digital Health determinó que el recurso alcanzó una tasa de precisión de 89% en diagnósticos de mujeres y de 86% en el caso de los hombres.

“La acústica sanitaria existe desde hace décadas. La diferencia es que con la IA y el aprendizaje automático tenemos los medios para recopilar y analizar una gran cantidad de datos al mismo tiempo. La voz se convierte en un biomarcador realmente importante para la detección y el seguimiento de enfermedades. No es invasivo y requiere pocos recursos”, menciona Bensoussan.

Fuente: es.wired.com