ChatGPT puede ser mejor que los médicos en el manejo basado en la evidencia de la depresión clínica: investigación

ChatGPT, el modelo de lenguaje de IA capaz de reflejar la conversación humana, puede ser mejor que un médico a la hora de seguir estándares de tratamiento reconocidos para la depresión clínica, y sin ninguno de los sesgos de género o clase social que a veces se observan en la relación médico-paciente de atención primaria, según una investigación publicado en la revista de acceso abierto Family Medicine and Community Health .

Sin embargo, según los investigadores, se necesita más investigación sobre qué tan bien esta tecnología podría manejar los casos graves, así como los riesgos potenciales y las cuestiones éticas que surgen de su uso.

La depresión es muy común y muchos de los afectados acuden primero a sus médicos de familia ( atención primaria ) en busca de ayuda. El curso de tratamiento recomendado debe guiarse en gran medida por directrices clínicas basadas en evidencia, que generalmente sugieren un enfoque de atención escalonado, de acuerdo con la gravedad de la depresión .

ChatGPT tiene el potencial de ofrecer información rápida, objetiva y derivada de datos que puede complementar los métodos de diagnóstico tradicionales, además de brindar confidencialidad y anonimato, dicen los investigadores. Por lo tanto, querían saber cómo la tecnología evaluaba el enfoque terapéutico recomendado para la depresión mayor leve y grave y si esto estaba influenciado por sesgos de género o clase social, en comparación con 1.249 médicos de atención primaria franceses (73% mujeres).

Los investigadores se basaron en viñetas cuidadosamente diseñadas y previamente validadas, centradas en pacientes con síntomas de tristeza, problemas de sueño y pérdida de apetito durante las tres semanas anteriores y un diagnóstico de depresión leve a moderada.

Se desarrollaron ocho versiones de estas viñetas con diferentes variaciones de las características de los pacientes, como género, clase social y gravedad de la depresión. Cada viñeta se repitió 10 veces para las versiones 3.5 y 4 de ChatGPT.

Para cada una de las ocho viñetas, se preguntó a ChatGPT: “¿Qué cree que debería sugerir un médico de atención primaria en esta situación?” Las posibles respuestas eran una espera vigilante; derivación para psicoterapia; medicamentos recetados (para depresión/ansiedad/problemas de sueño); derivación para psicoterapia más medicamentos recetados; ninguno de esos.

Sólo poco más del 4% de los médicos de familia recomendaron exclusivamente la derivación a psicoterapia para casos leves de acuerdo con la orientación clínica, en comparación con ChatGPT-3.5 y ChatGPT-4, que seleccionaron esta opción en el 95% y el 97,5% de los casos, respectivamente.

La mayoría de los médicos propusieron tratamiento farmacológico exclusivamente (48%) o psicoterapia más medicamentos prescritos (32,5%).

En los casos graves, la mayoría de los médicos recomendó psicoterapia más medicamentos recetados (44,5%). ChatGPT propuso esto con más frecuencia que los médicos (72 %, ChatGPT 3,5; 100 %, ChatGPT 4 de acuerdo con las directrices clínicas). Cuatro de cada 10 médicos propusieron exclusivamente medicamentos recetados, que ninguna de las versiones de ChatGPT recomendaba.

Cuando se recomendaba medicación, se pedía a la IA y a los participantes humanos que especificaran qué tipos de medicamentos prescribirían.

Los médicos recomendaron una combinación de antidepresivos y ansiolíticos y somníferos en el 67,5% de los casos, el uso exclusivo de antidepresivos en el 18% y el uso exclusivo de ansiolíticos y somníferos en el 14%.

ChatGPT tenía más probabilidades que los médicos de recomendar antidepresivos exclusivamente: 74%, versión 3.5; y el 68%, versión 4. ChatGPT-3.5 (26%) y ChatGPT-4 (32%) también sugirieron usar una combinación de antidepresivos y ansiolíticos y pastillas para dormir con más frecuencia que los médicos.

Pero a diferencia de los hallazgos de investigaciones publicadas anteriormente, ChatGPT no mostró ningún sesgo de género o clase social en el tratamiento recomendado.

Los investigadores reconocen que el estudio se limitó a iteraciones de ChatGPT-3 y ChatGPT-4 en momentos específicos y que los datos de ChatGPT se compararon con datos de una muestra representativa de médicos de atención primaria de Francia, por lo que podrían no ser más aplicables. .

Por último, los casos descritos en las viñetas fueron para una visita inicial debido a una queja de depresión, por lo que no representaron un tratamiento continuo de la enfermedad ni otras variables que el médico conocería sobre el paciente.

“ChatGPT-4 demostró una mayor precisión a la hora de ajustar el tratamiento para cumplir con las directrices clínicas. Además, no se detectaron sesgos discernibles relacionados con el género y [ el estatus socioeconómico ] en los sistemas ChatGPT”, destacan los investigadores.

Pero hay cuestiones éticas que considerar, particularmente en torno a garantizar la privacidad y la seguridad de los datos, que son sumamente importantes, considerando la naturaleza sensible de los datos de salud mental, señalan, y agregan que la IA nunca debería sustituir el juicio clínico humano en el diagnóstico. o tratamiento de la depresión.

Sin embargo, concluyen: “El estudio sugiere que ChatGPT… tiene el potencial de mejorar la toma de decisiones en la atención primaria de salud. Sin embargo, subraya la necesidad de investigaciones continuas para verificar la confiabilidad de sus sugerencias. La implementación de tales sistemas de IA podría reforzar la calidad e imparcialidad de los servicios de salud mental”.

Fuente: medicalxpress.com