Política cyti

Lo que le faltaba a Facebook: su nueva inteligencia artificial es racista y difunde Fake News

La inteligencia artificial tiene que ser la tecnología que domine esta década. Por desgracia, aún queda mucho viaje que recorrer antes de que ofrezca lo que necesitamos.

El martes, la división de inteligencia artificial de Meta (antes Facebook) presentó una demostración de Galactica, un gran modelo de lenguaje diseñado para «almacenar, combinar y razonar sobre el conocimiento científico». Como sabes, no son solo Instagram o WhatsApp, tienen más negocios.

Aunque está pensado para acelerar la redacción de literatura científica, los usuarios que realizaron pruebas descubrieron que también podía generar disparates realistas. Después de varios días de críticas éticas, Meta ha retirado la demo.

Los grandes modelos lingüísticos (LLM), como el GPT-3 de OpenAI, aprenden a escribir textos estudiando millones de ejemplos y comprendiendo las relaciones estadísticas entre las palabras.

Como resultado, pueden crear documentos que suenen convincentes, pero esas obras también pueden estar plagadas de falsedades y estereotipos potencialmente dañinos.

Los creadores de Galactica aseguran que su modelo ofrece «un corpus extenso y conservado del conocimiento científico de la humanidad», que incluye más de 48 millones de artículos, libros de texto y apuntes de conferencias, sitios web científicos y enciclopedias.

Según el documento de Galactica, los investigadores de Meta AI creían que estos supuestos datos de alta calidad conducirían a resultados de alta calidad. Como es habitual, Instagram y WhatsApp son quienes sostienen el negocio.

El problema que tienen los creadores de WhatsApp e Instagram

A partir del martes, los visitantes del sitio web de Galactica podían meter indicaciones para generar documentos como reseñas bibliográficas, artículos en la Wikipedia, apuntes de conferencias y respuestas a preguntas, según los ejemplos proporcionados por el sitio web.

Mientras que algunas personas encontraron la demostración prometedora y útil, otras pronto descubrieron que cualquiera podía escribir indicaciones racistas o potencialmente ofensivas, generando contenidos que parecían autorizados sobre esos temas con la misma facilidad.

Por ejemplo, alguien lo utilizó para crear una entrada en la wiki sobre un trabajo de investigación ficticio titulado «Los beneficios de comer vidrio triturado».

Incluso cuando el resultado de Galactica no era ofensivo para las normas sociales, el modelo podía destruir hechos científicos bien entendidos, dando inexactitudes como fechas o nombres de animales incorrectos, que requerían un profundo conocimiento del tema para ser detectados.

Como resultado, Meta retiró la demo de Galactica el jueves. Después, el científico jefe de IA de Meta, Yann LeCun, tuiteó: «La demo de Galactica está fuera de línea por ahora. Ya no es posible divertirse haciendo un mal uso de ella. ¿Contento?» Le crecen los enanos a Facebook.

Fuente: computerhoy.com