“La IA habría detectado mi cáncer dos años antes del diagnóstico”: investigadora sobreviviente
La primera ganadora del Premio a la Inteligencia Artificial en Beneficio de la Humanidad, Regina Barzilay, defiende el potencial de la tecnología en medicina y advierte que no podremos aprovecharnos de él si no empezamos a confiar en sus beneficios, algo que el coronavirus ha dejado en evidencia
La profesora del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (IA) del MIT (CSAIL, por sus siglas en inglés) Regina Barzilay ha sido la primera persona en ganar el nuevo premio Squirrel AI Award for Artificial Intelligence for the Benefit of Humanity (Premio a la Inteligencia Artificial en Beneficio de la Humanidad), que reconoce la investigación extraordinaria en IA.
Barzilay comenzó su carrera trabajando en el procesamiento del lenguaje natural. Después de sobrevivir a un cáncer de mama en 2014, cambió su enfoque a los algoritmos de aprendizaje automático para detectar el cáncer y diseñar nuevos medicamentos. El premio será entregado en febrero de 2021 por la Asociación para el Avance de la Inteligencia Artificial (AAAI).
El premio de un millón de dólares (unos 850.000 euros), patrocinado por la empresa china de educación online Squirrel AI, sobre la que hemos escrito alguna pieza, sitúa el galardón en el mismo nivel económico que el Premio Nobel y el Premio Turing en informática. Hemos hablado con Barzilay por teléfono sobre su victoria y sobre la promesa y las frustraciones de la IA.
En primer lugar, enhorabuena. ¿Qué significa el premio para usted y para la IA en general?
Gracias. Ya sabe que hay muchas áreas en las que la IA todavía no marca la diferencia, pero podría hacerlo. Usamos traducción automática y sistemas de recomendación todo el tiempo, pero nadie los considera tecnología sofisticada, nadie los cuestiona. Pero en otras áreas de nuestra vida que son cruciales para nuestro bienestar, como la atención médica, la IA aún no tiene la aceptación de la sociedad. Espero que este premio, y la atención que lo acompaña, ayuden a cambiar la opinión de las personas y les permitan ver las oportunidades, ayudando a la comunidad de IA a dar los siguientes pasos.
¿Qué tipo de pasos?
Cuando la tecnología pasó de la energía del vapor a la electricidad, los primeros intentos de llevar la electricidad a la industria no tuvieron mucho éxito porque la gente simplemente se limitó a replicar las máquinas de vapor. Creo que con la IA ahora está pasando algo similar. Debemos descubrir cómo integrarla en muchos campos diferentes: no solo en atención médica, sino también en educación, en diseño de materiales, en planificación urbanística, etcétera. Por supuesto, queda bastante por hacer en el lado de la tecnología, incluida la creación de mejores algoritmos, pero estamos llevando la tecnología a entornos muy regulados y realmente no hemos descubierto cómo debemos hacerlo.
En este momento, la IA está floreciendo en lugares donde el precio del fracaso es muy bajo. Si Google nos hace una traducción incorrecta o nos da un enlace equivocado, está bien; podemos pasar al siguiente. Pero eso no le vale a un médico. Si a un paciente le da un tratamiento erróneo o si se equivoca con un diagnóstico, las consecuencias son realmente graves.
Muchos algoritmos pueden hacer las cosas mejor que los humanos. Pero siempre confiamos en nuestras propias intuiciones, en nuestra propia mente, más que en algo que no entendemos. Debemos dar a los médicos razones para confiar en la IA. La FDA [Agencia de Alimentos y Medicamentos de Estados Unidos] está analizando este problema, pero creo que está muy lejos de resolverse en cualquier lugar del mundo.
En 2014 le diagnosticaron cáncer de mama. ¿Cambió eso su forma de pensar sobre su trabajo?
Oh, sí, absolutamente. Una de las cosas que ocurrió durante el tratamiento y cuando pasé tanto tiempo en el hospital fue que las cosas en las que había estado trabajando me parecían triviales. Pensé: la gente está sufriendo. Podemos hacer algo.
Cuando comencé el tratamiento, pregunté qué les pasaba a los pacientes como yo, con mi tipo de tumor y mi edad y ese tratamiento. Me respondieron: “Oh, existe este ensayo clínico, pero usted realmente no encaja del todo”. Y pensé, el cáncer de mama es una enfermedad muy común. Hay tantos pacientes, con tantos datos acumulados. ¿Por qué no los usamos? Pero esta información no se puede sacar tan fácilmente del sistema de los hospitales. Está ahí, pero en formato texto. Entonces empecé a usar el procesamiento del lenguaje natural (PLN o NLP, por sus siglas en inglés) para acceder a él. No podía imaginar ningún otro campo en el que la gente desechara voluntariamente los datos disponibles. Pero eso es lo que estaba pasando en la medicina.
¿Los hospitales aprovecharon la oportunidad de hacer un mayor uso de estos datos?
Tardé bastante tiempo en encontrar un médico que quisiera trabajar conmigo. Le decía a la gente: “Si tiene algún problema, intentaré solucionarlo. No necesito financiación. Solo un problema y datos”. Pero tardé un tiempo en encontrar colaboradores. Sabe, yo no era un personaje especialmente popular.
A partir de este trabajo de PNL, empecé a predecir el riesgo de las pacientes a partir de mamografías, utilizando el reconocimiento de imágenes para predecir si contraería cáncer o no y cuál sería el probable desarrollo de la enfermedad.
¿Habrían marcado alguna diferencia estas herramientas si hubieran estado disponibles para usted cuando recibió su diagnóstico?
Por supuesto que sí. Podemos probarlo con mis mamografías desde antes de mi diagnóstico, y ya estaba allí, se ve claramente. No es ningún milagro, el cáncer no crece de un día para otro. Es un proceso bastante largo. Hay signos en el tejido, pero el ojo humano tiene una capacidad limitada para detectar lo que pueden ser patrones muy pequeños. En mi caso, habría sido visible dos años antes.
¿Por qué no lo vio el médico?
Es bastante difícil. Cada mamografía muestra manchas blancas que pueden ser cancerosas o no, y un médico debe decidir cuál de estas manchas blancas necesita una biopsia. El médico debe equilibrar su intuición con los posibles daños a un paciente al realizar biopsias innecesarias. Pero este es exactamente el tipo de decisión que la IA basada en datos puede ayudarnos a tomar de una manera mucho más sistemática.
Ahí volvemos al problema de la confianza. ¿Necesitamos una solución técnica para que las herramientas sean más comprensibles, o debemos educar a las personas que las utilizan?
Esa es una gran pregunta. Algunas decisiones serían realmente fáciles de explicar a un humano. Si una IA detecta el cáncer en una imagen, se puede ampliar el área que observa el modelo cuando hace la predicción. Pero si le pedimos a una máquina, como solemos hacer cada vez más, que haga algo que un humano no puede, ¿qué es exactamente lo que nos va a mostrar la máquina? Es como un perro, que puede oler mucho mejor que nosotros, explicando cómo es capaz de oler algo. Simplemente no tenemos esa capacidad. Creo que a medida que las máquinas se vuelven mucho más avanzadas, esta será la gran pregunta. ¿Qué explicación nos convencería si no somos capaces de resolver esa tarea por nosotros mismos?
Entonces, ¿deberíamos esperar hasta que la IA pueda explicarse completamente?
No. Piense en cómo respondemos ahora a las preguntas de vida o muerte. La mayoría de las cuestiones médicas, como la reacción a un tratamiento o a un medicamento, se responden mediante modelos estadísticos que pueden llevar a errores. Ninguno es perfecto.
Lo mismo ocurre con la IA. No creo que debamos esperar hasta que desarrollemos una IA perfecta. No creo que eso vaya a suceder pronto. La pregunta es cómo utilizar sus puntos fuertes y evitar sus debilidades.
Finalmente, ¿por qué la IA aún no ha tenido demasiado impacto en la COVID-19?
La IA no va a resolver todos los grandes problemas que tenemos. Pero tenemos algunos ejemplos pequeños. Cuando todos los servicios clínicos no esenciales se redujeron a principios de este año, usamos una herramienta de inteligencia artificial para identificar qué pacientes de oncología en Boston (EE. UU.) todavía deberían ir y hacerse su mamografía anual.
Pero la razón principal por la que la IA no ha sido más útil no es la falta de tecnología, sino la falta de datos. Sabe que estoy en el equipo directivo de la J-Clinic del MIT, un centro que se dedica a la inteligencia artificial en la atención médica, y en abril muchos de nosotros pensamos: queremos hacer algo, ¿dónde podemos obtener los datos? Pero no logramos conseguirlos. Fue imposible. Incluso ahora, seis meses después, no se sabe cómo obtener los datos.
La segunda razón es que no estábamos preparados. Incluso en circunstancias normales, cuando las personas no están sometidas a estrés, resulta difícil adoptar herramientas de inteligencia artificial en un proceso y asegurarse de que todo esté debidamente regulado. En la crisis actual, simplemente no tenemos esa capacidad.
Entiendo por qué los médicos son conservadores: la vida de las personas está en juego. Pero espero que el coronavirus se convierta en una llamada de atención sobre lo poco preparados que estamos para reaccionar rápidamente ante nuevas amenazas. Por mucho que piense que la IA es la tecnología del futuro, no la veremos avanzar a menos que descubramos cómo confiar en ella.
Fuente: technologyreview.es