Más de un centenar de científicos firman una iniciativa contra la creación de armas biológicas con inteligencia artificial
El documento exige el uso seguro y ético del diseño de proteínas con estas nuevas herramientas
La inteligencia artificial (IA) ha supuesto una revolución en la investigación en ciencias biológicas, al permitir el diseño de nuevas proteínas, los componentes básicos de la vida. Estos datos pueden empujar el desarrollo de nuevos medicamentos que respondan rápidamente a brotes infecciosos, curar enfermedades o ayudar a mitigar el cambio climático. Sin embargo, también entrañan grandes riesgos, principalmente su uso en la creación de armas biológicas.
Por ese motivo, una iniciativa lanzada el pasado viernes, firmada ya por más de un centenar de científicos de todo el mundo, pretende garantizar el uso seguro y ético del diseño de proteínas con IA. Entre ellos se encuentra Frances Arnold, del Instituto de Tecnología de California (EE. UU) y Premio Nobel de Química en 2018 por ser uno de los ‘padres’ de la «evolución dirigida», la creación de proteínas en laboratorio con los mismos principios que utiliza la evolución natural.
La propuesta responde a distintos informes del Congreso de EE.UU. y grupos de expertos que temen la posibilidad de que estas herramientas puedan facilitar el desarrollo de nuevas toxinas o virus altamente transmisibles que se utilicen como armas biológicas. Una de ellas es AlphaFold, de DeepMind, compañía de Google, que ha predicho con éxito la estructura de millones de proteínas, casi todas las conocidas por la ciencia. En lo mismo trabajan modelos de lenguaje similares al famoso ChatGPT, como ESMFold, de Meta, capaz de desentrañar 700 millones de proteínas del mundo metagenómico, microbios que viven en el suelo, en las profundidades del océano e incluso en nuestras entrañas.
La IA ha acelerado el diseño de proteínas. Esfuerzos que antes llevaban años ahora se logran en minutos. Y casi todo está disponible de forma gratuita. En el texto, los firmantes aseguran que los beneficios de estas tecnologías «superan con creces el potencial de daño y nos gustaría asegurarnos de que nuestra investigación siga siendo beneficiosa para todos en el futuro».
Para ello, exigen que la comunidad científica se controle a sí misma con un conjunto de valores y principios que incluyen seguridad, apertura y colaboración internacional. Así, piden revisar periódicamente las capacidades de las herramientas de IA y monitorear las prácticas de investigación.
Fuente: abc.es