Política cyti

El dilema de digitalizar la salud mental: más precisión, cero privacidad

Cada vez más psiquiatras analizan datos de teléfonos móviles y redes sociales en busca de pistas para diagnosticar y predecir trastornos mentales de forma más objetiva. Pero, sin leyes robustas sobre privacidad, el fenotipado digital psicológico también podría usarse con fines comerciales y discriminatorios

Cuando la neuropsiquiatra Neguine Rezaii se mudó a Estados Unidos hace una década, dudaba si decirle a la gente que era iraní. En lugar de eso, decía que era persa. Recuerda; «Pensé que la gente probablemente no sabría qué era eso». Esta ambigüedad lingüística le resultaba útil: podía ocultar su vergüenza por el régimen de Mahmoud Ahmadinejad sin dejar de ser fiel a sí misma. «La gente solía sonreír y marcharse», cuenta. Ahora, está contenta de poder volver a decir que es iraní.

No todos elegimos usar el lenguaje de forma tan consciente como Rezaii, pero las palabras que utilizamos son importantes. Los poetas, detectives y abogados llevan mucho tiempo examinando el lenguaje que usa la gente en busca de pistas para encontrar sus motivaciones y verdades internas. Los psiquiatras también, quizás incluso más. Al fin y al cabo, mientras que la medicina actual dispone de una serie de pruebas y herramientas técnicas para diagnosticar las enfermedades físicas, la principal herramienta de la psiquiatría es la misma desde hace siglos: la pregunta «¿Cómo te encuentras hoy?» Tal vez sea fácil de preguntar, pero no tanto de responder.

Rezaii, que trabaja en neuropsiquiatría en el Hospital General de Massachusetts (EE. UU.)., explica: «En psiquiatría ni siquiera tenemos nuestro propio estetoscopio. Se trata de hablar 45 minutos con un paciente y luego realizar un diagnóstico basado en esa conversación. No hay medidas objetivas. No hay números».

No existe un análisis de sangre para diagnosticar la depresión, ningún escáner cerebral que pueda identificar la ansiedad antes de que suceda. Los pensamientos suicidas no se pueden diagnosticar mediante una biopsia y, aunque los psiquiatras están muy preocupados por los graves impactos sobre la salud mental que podría generar la pandemia de coronavirus (COVID-19), no tienen una manera fácil de detectarlos.

En el lenguaje médico, no existe ningún biomarcador fiable para ayudar a diagnosticar cualquier trastorno psiquiátrico. La búsqueda de atajos para encontrar alguna anomalía en la mente sigue en vano, manteniendo gran parte de la psiquiatría en el pasado y bloqueando el camino hacia el progreso. Por eso el diagnóstico resulta un proceso lento, difícil y subjetivo e impide que los investigadores comprendan la verdadera naturaleza y las causas de la gran variedad de enfermedades mentales o que desarrollen mejores tratamientos.

Pero, ¿y si existieran otras formas? ¿Y si no solo escucháramos las palabras, sino que las midiéramos? ¿Podría eso ayudar a los psiquiatras a seguir las pistas verbales que podrían conducir a nuestro estado mental?

Rezaii detalla: «Eso es básicamente lo que buscamos. Encontrar algunas características de comportamiento a las que podamos asignar números. Poder seguirlas de manera fiable y usarlas para la posible detección o diagnóstico de los trastornos mentales».

En junio de 2019, Rezaii publicó un artículo sobre un nuevo y radical enfoque que lograba exactamente eso. Su investigación mostró que nuestra forma de hablar y escribir puede revelar indicios tempranos de psicosis, y que los ordenadores pueden ayudarnos a detectar esos signos con una precisión increíble. Siguió las migas de pan del lenguaje para ver adónde conducían.

Rezaii descubrió que el análisis del lenguaje podía predecir con más del 90 % de fiabilidad qué pacientes tenían probabilidades de desarrollar esquizofrenia antes de que aparecieran los síntomas típicos.

Resulta que las personas propensas a escuchar voces suelen hablar sobre ellas. No mencionan explícitamente estas alucinaciones auditivas, pero usan palabras similares, como «sonido», «escuchar», «cantar», «ruido», con más frecuencia en una conversación normal. El patrón es tan sutil que ese aumento no podría detectarse solo escuchándolos hablar. Pero un ordenador sí es capaz de encontrarlos. Y después de realizar pruebas con docenas de pacientes psiquiátricos, Rezaii descubrió que el análisis del lenguaje podía predecir con más del 90 % de fiabilidad cuáles de ellos tenían probabilidades de desarrollar esquizofrenia, antes de que aparecieran los síntomas típicos. Ese hallazgo prometía un gran salto adelante.

En el pasado, captar información sobre alguien o analizar las declaraciones de una persona para llegar a un diagnóstico se basaba en la habilidad, la experiencia y las opiniones de cada psiquiatra. Pero gracias a la omnipresencia de los teléfonos inteligentes y las redes sociales, el lenguaje que la gente usa nunca había sido tan fácil de registrar, digitalizar y analizar.

Un creciente número de investigadores está examinando los datos que producimos, desde nuestra elección de palabras o nuestros patrones de sueño hasta la frecuencia con la que llamamos a nuestros amigos y lo que escribimos en Twitter y Facebook, para buscar signos de depresión, ansiedad, trastorno bipolar y otros síndromes. Para Rezaii y otros investigadores, la capacidad de recoger estos datos y analizarlos es el próximo gran avance en psiquiatría. Lo denominan «fenotipado digital».

Medir las palabras

En 1908, el psiquiatra suizo Eugen Bleuler dio el nombre a una enfermedad que él y sus compañeros estaban estudiando: la esquizofrenia. Señaló cómo los síntomas de este trastorno «encuentran su expresión en el lenguaje», pero añadió: «La anomalía no se encuentra en el propio lenguaje en sí, sino en lo que tiene que decir».

Bleuler fue uno de los primeros en centrarse en los llamados síntomas «negativos» de la esquizofrenia, la ausencia de algo que se observa en las personas sanas, que son menos notables que los llamados síntomas positivos, que indican la presencia de algo adicional, como las alucinaciones. Uno de los síntomas negativos más comunes es la alogia o la ausencia o disminución del lenguaje. Los pacientes hablan menos o no dicen mucho cuando hablan, utilizan frases poco claras, repetitivas y estereotipadas. El resultado es lo que los psiquiatras denominan baja densidad semántica.

La baja densidad semántica es un signo revelador de que un paciente podría estar en riesgo de psicosis. La esquizofrenia, una forma común de psicosis, suele desarrollarse desde finales de la adolescencia y poco después de cumplir los 20 en los hombres y en las mujeres un poco antes y después de cumplir los 30 pero, el desarrollo completo de la enfermedad suele estar precedido por una etapa preliminar con síntomas más leves.

Se llevan a cabo muchas investigaciones en personas que están en esta fase atenuada o «prodrómica». Los psiquiatras como Rezaii utilizan el lenguaje y otras medidas de comportamiento para tratar de identificar qué pacientes prodrómicos desarrollan la esquizofrenia completa y por qué. Basándose en otros proyectos de investigación que sugieren, por ejemplo, que las personas con alto riesgo de psicosis tienden a usar menos posesivos como «mío», «suyo» o «nuestro», Rezaii y sus colegas querían descubrir si un ordenador podría detectar la baja densidad semántica.

Los investigadores utilizaron las grabaciones de las conversaciones realizadas durante la última década con dos grupos de pacientes con esquizofrenia en la Universidad de Emory (EE. UU.). Dividieron cada frase hablada en una serie de ideas centrales para que un ordenador pudiera medir la densidad semántica. La frase «Bueno, creo que la política me provoca reacciones intensas» obtiene una puntuación alta, gracias a las palabras «intensas», «política» y «reacciones».

Pero la frase como «Ahora, ahora sé cómo mantenerme tranquilo con la gente porque es como no hablar es como, es como, saber cómo estar tranquilo con la gente, es como si ahora supiera cómo hacer eso» tiene muy baja densidad semántica.

En la segunda prueba, el ordenador contaba la cantidad de veces que cada paciente usaba las palabras relacionadas con el sonido, buscando indicios sobre las voces que podían estar oyendo pero manteniéndolas en secreto. En ambos casos, los investigadores introdujeron en el ordenador una base de datos de lenguaje «normal» creada con las conversaciones online publicadas por 30.000 usuarios de Reddit.

Cuando los psiquiatras se encuentran con personas en la fase prodrómica, utilizan un conjunto estándar de entrevistas y pruebas cognitivas para predecir cuál de ellas desarrollará psicosis. Generalmente, aciertan 80 % de las veces. Al combinar los dos análisis de los patrones del habla, el ordenador de Rezaii lo logró al menos en un 90 %.

Rezaii subraya que hay un largo camino por recorrer antes de poder usar este descubrimiento en las clínicas para ayudar a predecir lo que sucederá con los pacientes. El estudio analizó la forma de hablar de solo 40 personas; el siguiente paso sería aumentar el tamaño de la muestra. Pero ya está trabajando en un software que podría analizar rápidamente las conversaciones que mantiene con sus pacientes.

La especialista explica: «Se trata de presionar un botón y los números salen. ¿Cuál es la densidad semántica del lenguaje del paciente? ¿Cuáles fueron las características sutiles de las que habló el paciente pero que no expresó necesariamente de una manera explícita? Si es una forma de adentrarse en las capas más profundas y subconscientes, sería genial».

Los resultados también tienen una implicación obvia: si un ordenador puede detectar cambios tan sutiles de manera fiable, ¿por qué no controlar continuamente a las personas con mayor riesgo?

Algo más que esquizofrenia

Aproximadamente una de cada cuatro personas en todo el mundo sufrirá algún síndrome psiquiátrico durante su vida. Dos de cada cuatro poseen un teléfono inteligente. El uso de los dispositivos para captar y analizar los patrones de voz y texto podría actuar como un sistema de alerta temprana. Eso daría tiempo a los médicos para intervenir con los que tienen mayor riesgo, quizás para observarlos más de cerca, o incluso para probar terapias para reducir la posibilidad de un episodio psicótico.

Los pacientes también pueden utilizar la tecnología para controlar sus propios síntomas. Los pacientes de salud mental a menudo son poco de fiar en lo que respecta a su salud: no pueden o no quieren identificar sus síntomas. Según el especialista postdoctoral que trabaja en salud digital en el Black Dog Institute en Sídney (Australia) Kit Huckvale, incluso podría servir de ayuda el control digital de mediciones básicas como la cantidad de horas de sueño, porque puede advertir a los pacientes de cuándo son más vulnerables a un deterioro de su enfermedad.

Las máquinas no solo pueden detectar esquizofrenia. Al analizar los teléfonos de las personas, los psiquiatras han podido detectar las señales sutiles que preceden a una crisis bipolar.

Huckvale detalla: «Al usar estos pequeños ordenadores que todos llevamos con nosotros, tal vez tengamos acceso a información sobre cambios en el comportamiento, la cognición o la experiencia que ofrecen fuertes señales sobre las futuras enfermedades mentales. O en efecto, solo de las primeras fases del problema».

Pero las máquinas no solo pueden detectar esquizofrenia. Probablemente, el uso más avanzado del fenotipado digital consiste en predecir los comportamientos de las personas con trastorno bipolar. Al estudiar los teléfonos de las personas, los psiquiatras han podido detectar las sutiles señales que preceden a una crisis. Cuando se acerca un bajón en el estado de ánimo, los sensores GPS en los teléfonos de los pacientes bipolares muestran que suelen estar menos activos. Responden menos a las llamadas, realizan menos llamadas y, en general, pasan más tiempo mirando la pantalla. En cambio, antes de una fase maníaca, se mueven más, envían más mensajes y pasan más tiempo hablando por teléfono.

Desde marzo de 2017, cientos de pacientes dados de alta en los hospitales psiquiátricos de Copenhague (Dinamarca) reciben teléfonos personalizados para que los médicos puedan observar su actividad en remoto para detectar signos de mal humor o manía. Si los investigadores notan alguna conducta inusual o preocupante, se anima a los pacientes a hablar con un enfermero. Al observar y reaccionar a las señales de alerta temprana de esta manera, el estudio tiene como objetivo reducir el número de pacientes que sufre una recaída grave.

Estos proyectos necesitan el consentimiento de los participantes y prometen mantener la confidencialidad de los datos. Pero, a medida que los detalles sobre salud mental son absorbidos por el mundo de big data, los expertos han empezado a manifestar su preocupación por la privacidad.

«La adopción de esta tecnología definitivamente va más rápido que la normativa vigente. Incluso se ha adelantado al debate público. Es necesario que haya un serio debate público sobre el uso de tecnologías digitales en el contexto de la salud mental», opina el especialista en las leyes y políticas de salud mental en el Instituto de Equidad Social de Melbourne (Australia) Piers Gooding.

Los científicos ya han utilizado algunos vídeos publicados por familiares en YouTube, sin pedir el consentimiento explícito, para entrenar las máquinas para encontrar movimientos corporales distintivos de niños con autismo. Otros han analizado las publicaciones de Twitter para rastrear los comportamientos relacionados con la transmisión del VIH, mientras que las compañías de seguros en Nueva York (EE. UU.) están oficialmente autorizadas a estudiar los feeds de Instagram de las personas antes de calcular sus primas de seguro de vida.

A medida que la tecnología rastrea y analiza nuestra conducta y estilo de vida con cada vez más precisión, a veces con nuestro conocimiento y otras sin él, las oportunidades para que otros controlen nuestro estado mental de forma remota aumentan rápidamente.

Proteger la privacidad

En teoría, las leyes de privacidad deberían prohibir el uso de los datos sobre salud mental. En EE. UU., la ley HIPAA lleva 24 años regulando el intercambio de datos de carácter médico, y la ley de protección de datos de Europa, el Reglamento general de protección de datos (RGPD), teóricamente debería prevenirlo también. Pero el informe de 2019 del organismo de control de la privacidad Privacy International descubrió que los sitios web más populares sobre depresión en Francia, Alemania y Reino Unido compartían los datos de sus usuarios con anunciantes, corredores de datos y grandes empresas tecnológicas, mientras que algunas páginas web que ofrecen pruebas sobre la depresión filtraron las respuestas y resultados de los test a terceros.

Gooding señala que, durante varios años, la policía canadiense compartió los datos de las personas que habían intentado suicidarse con las autoridades fronterizas estadounidenses, que luego no les permitía la entrada al país. En 2017, una investigación concluyó que esa práctica era ilegal y se dejó de utilizar.

Pocas personas negarían que se trataba de una invasión de la privacidad. Al fin y al cabo, la información médica debería ser intocable. Incluso con los diagnósticos de alguna enfermedad mental, las leyes de todo el mundo tendrían que impedir la discriminación en el trabajo y en otros lugares.

Pero a algunos especialistas en ética les preocupa que el fenotipado digital difumine los límites sobre lo que podría o debería clasificarse, regularse y protegerse como datos médicos.

Si se examinan las minucias de nuestra vida diaria en busca de pistas sobre nuestra salud mental, entonces nuestra «vía de escape digital» (los datos sobre qué palabras elegimos, lo rápido que respondemos a los mensajes y llamadas, con qué frecuencia deslizamos el dedo hacia la izquierda, qué publicaciones nos gustan) podría revelar a los demás, como mínimo, tanto sobre nuestro estado mental como lo que está en nuestros registros médicos confidenciales. Y eso es algo casi imposible de esconder.

La bioética de la Universidad de Stanford (EE. UU.) Nicole Martinez-Martin afirma: «La tecnología nos ha llevado más allá de los paradigmas tradicionales que protegían ciertos tipos de información. Cuando cualquier dato tiene potencial de convertirse en información sobre la salud, entonces hay muchas dudas sobre si aún tiene sentido ese tipo de excepción en cuanto la información médica».

La información sobre la atención médica, añade, solía ser fácil de clasificar y, por lo tanto, de proteger, porque la generaban los proveedores sanitarios y se mantenía en las instituciones clínicas, cada una de las cuales tenía sus propias regulaciones para salvaguardar las necesidades y derechos de sus pacientes. Hoy en día, las empresas comerciales, que no disponen de esas normas, están desarrollando muchas formas de rastrear y controlar la salud mental utilizando las señales de nuestras actividades diarias.

Facebook, por ejemplo, afirma utilizar algoritmos de inteligencia artificial para identificar a usuarios en riesgo de suicidio, al filtrar el lenguaje de las publicaciones y los comentarios de amigos y familiares preocupados. La red social asegura que ha alertado a las autoridades en al menos 3.500 casos. Pero los investigadores independientes se quejan de que no ha revelado cómo funciona su sistema o qué hace con los datos que recoge.

Gooding subraya: «Aunque los esfuerzos de prevención del suicidio son de vital importancia, esta no es la solución. No hay ninguna investigación sobre la fiabilidad, escala o efectividad de esta iniciativa, como tampoco hay datos sobre qué es lo que la empresa hace exactamente con la información para seguir cada aparente crisis. Eso básicamente se esconde detrás de la cortina de las leyes de secretos comerciales».

Los problemas no ocurren solo en el sector privado. Rezaii señala que, aunque los investigadores que trabajan en universidades e institutos de investigación están sujetos a una red de permisos para garantizar el consentimiento, la privacidad y la aprobación ética, algunas prácticas universitarias podrían alentar y permitir el uso indebido del fenotipado digital.

La especialista cuenta: «Cuando publiqué mi estudio sobre la predicción de la esquizofrenia, los editores querían que fuera totalmente accesible y me parecía bien porque estoy a favor de lo libre y gratuito. Pero, ¿qué pasaría si alguien lo usara para crear una aplicación y predecir algo sobre adolescentes diferentes? Eso es un riesgo. Las revistas han insistido en que los algoritmos se publiquen de forma gratuita. Ya se han descargado 1.060 veces. No sé con qué propósito, y eso me incomoda».

Además de las preocupaciones sobre privacidad, a algunos les preocupa que el fenotipado digital simplemente esté sobrevalorado.

La especialista en la filosofía de la psiquiatría de la Universidad de Texas en San Antonio (EE. UU.) Serife Tekin cree que los psiquiatras tienen un largo historial de recurrir a las últimas tecnologías como un intento de que sus diagnósticos y tratamientos parezcan más basados en pruebas. Desde las lobotomías hasta la llamativa promesa de los escáneres cerebrales, este campo tiende a moverse con enormes oleadas de optimismo acrítico que luego demuestra ser infundado, y el fenotipado digital podría ser simplemente el último ejemplo de eso, según su opinión.

Y advierte: «La psiquiatría contemporánea está en crisis. Pero es cuestionable si la solución a la crisis de la investigación de la salud mental es el fenotipado digital. Cuando seguimos poniendo todos nuestros huevos en una cesta, eso no responde realmente a la complejidad del problema».

¿Se puede modernizar la salud mental?

Rezaii reconoce que ella y otras personas que trabajan con el fenotipado digital a veces están cegadas por el brillante potencial de la tecnología. Y admite: «Hay cosas en las que no he pensado porque estamos muy ilusionados con la idea de obtener la mayor cantidad de datos posible sobre esta señal oculta en el lenguaje».

Pero también sabe que la psiquiatría lleva demasiado tiempo basándose en poco más que conjeturas fundamentadas. La especialista sostiene: «No queremos sacar conclusiones cuestionables sobre lo que el paciente podría haber dicho o querido decir si hay una manera de averiguarlo objetivamente. Queremos grabarlos, presionar un botón y obtener algunos números. Al finalizar la sesión, tenemos los resultados. Ese es el ideal. En eso estamos trabajando».

Rezaii cree que es natural que los psiquiatras modernos quieran usar teléfonos inteligentes y cualquier tecnología disponible. Considera que las discusiones sobre la ética y la privacidad son importantes, pero también lo es el hecho de que las empresas tecnológicas ya recogen la información sobre nuestro comportamiento y la utilizan, sin nuestro consentimiento, para fines menos nobles, como decidir quién pagará más por un taxi para un trayecto idéntico o esperará más tiempo para ser recogido.

Y concluye: «Vivimos en un mundo digital. Siempre se puede hacer un mal uso de las cosas. Cuando un algoritmo ya está disponible, la gente puede descargarlo y usarlo en otros. No hay forma de evitarlo. Al menos en el mundo médico pedimos el consentimiento».

Fuente: technologyreviews.com