Los expertos recomiendan que toda la información proporcione la inteligencia artificial debe ser respaldada con evidencia científica verificable por médicos
Los Ángeles, 16 de enero (SinEmbargo).- ChatGPT Salud, un nuevo apartado en la plataforma de OpenAI, permite a los usuarios compartir sus datos de salud para obtener información personalizada, aunque se encuentra en fase de pruebas y sólo está disponible para un grupo limitado de usuarios.
A pesar de que la aplicación advierte que los datos serán cifrados y no se integrarán en el chat general, especialistas aconsejan cautela.
El Consejo General de Colegios Oficiales de Médicos de España (CGCOM) expresó su preocupación por la privacidad y la seguridad de los datos de salud. Abogó por que la figura del médico siga siendo crucial en el proceso, asegurando que la información proporcionada por la inteligencia artificial debe ser respaldada por evidencia científica.
Tomás Cobo, presidente del CGCOM, recomendó prudencia al compartir información médica a través de plataformas de inteligencia artificial y destacó el riesgo de sesgos en la información proporcionada.
Riesgo y ciberseguridad
Expertos en salud advirtieron que al usar plataformas como ChatGPT Salud los usuarios pueden estar expuestos a amenazas de ciberseguridad. Se enfatizó la importancia de anonimizar datos y establecer barreras como blockchain para proteger la información.
La posibilidad de obtener respuestas inexactas por parte de la inteligencia artificial plantea interrogantes sobre su eficacia. Se requiere que médicos y pacientes comprendan las limitaciones de estas herramientas para utilizarlas adecuadamente.
Seguridad de información
Los usuarios deben seguir pautas estrictas para proteger su privacidad al compartir información médica en línea, priorizando el anonimato y el cumplimiento de normativas como el Reglamento General de Protección de Datos (RGPD) en Europa o la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA, por sus siglas en inglés) en Estados Unidos. Esto minimiza riesgos como brechas de datos o identificaciones no autorizadas.
A continuación, se detallan recomendaciones clave basadas en guías establecidas.
Anonimato total. Evite compartir datos identificables como nombres, direcciones, correos electrónicos o imágenes que permitan reconocer al paciente, incluso indirectamente por contexto como ubicación o centro médico. Obtenga consentimiento explícito e informado antes de cualquier divulgación, y prefiera no revelar identidades aunque se autorice.
Plataformas seguras. Use servicios con cifrado de extremo a extremo, protocolos de autenticación como OAuth y registros de auditoría para rastrear accesos. Revise políticas de privacidad de sitios y apps antes de subir datos, y evite correos sospechosos o redes sociales públicas sin ajustes de privacidad estrictos.
Contenido general. Comparta sólo información genérica sobre salud pública o hábitos saludables, sin detalles personales ni consejos médicos directos a individuos. Verifique la veracidad de la información para no difundir datos erróneos.
Medidas adicionales. Configure firewalls, VPN y encriptación en sus dispositivos; reporte accesos no autorizados inmediatamente a proveedores. Para profesionales, documente todo uso de datos y siga códigos éticos profesionales.
Futuro de la IA en el ámbito de salud
La implementación de ChatGPT Salud podría ofrecer beneficios significativos al facilitar el acceso a información médica y personalizar la atención al paciente, pero se necesita una educación adecuada tanto para profesionales como para usuarios.
Fuente: sinembargo.mx


Deja una respuesta