Cuatro expertos en IA son muy críticos con OpenAI y con cómo se desarrolla la inteligencia artificial: una tecnología en pocas manos

Hay grandes conocedores de la IA que advierten de que la forma actual de desarrollo no está siendo positiva para la humanidad

La inteligencia artificial cuenta con herramientas ampliamente utilizadas y constantemente nos sorprende con nuevas tecnologías. En un momento en que la Inteligencia Artificial avanza a una velocidad vertiginosa y promete transformar todos los ámbitos de la vida, crece también otras preocupaciones. Por ejemplo, si va a acabar con empleos o el hecho de que la IA esté en manos de unos muy pocos millonarios.

Diversas voces de referencia en el mundo de la IA alertan de que el desarrollo actual está en manos de un puñado de grandes corporaciones y multimillonarios, que imponen una visión tecnocrática, jerárquica y poco inclusiva. Lejos de un progreso pensado para el bien común, estos expertos denuncian una concentración de poder sin precedentes que puede suponer un gran riesgo.

La necesidad de escapar de una sola IA vertical que lo gestione todo
Audrey Tang es hacker y lleva diez años ejerciendo como ministra digital de Taiwán. Su objetivo es poder hacer de internet un lugar más seguro en el que los servicios que ofrece estén al servicio de la ciudadanía y no al revés. Una de sus grandes críticas al desarrollo de la IA que se nos está planteando es que estamos asistiendo al desarrollo de una o unas pocas «superinteligencia artificial vertical».

Su idea es que deberían existir infraestructuras de seguridad descentralizadas, transparentes y participativas para ofrecer a las personas inteligencia colectiva horizontal, sistemas de asistencia que potencien la capacidad de acción humana.

La IA está en manos de empresas que priorizan las ganancias sobre la seguridad

Geoffrey Hinton, ganador del Premio Nobel en 2024 y uno de los padres fundadores del ‘deep learning’, base de la actual IA, lleva varias décadas siendo una de las voces más influyentes en este campo de la tecnología. Pero desde su salida de Google en 2023, ha asumido un nuevo rol: el de portavoz crítico de los riesgos existenciales que plantea la IA.

En una reciente charla (disponible en YouTube) Hinton expresó con claridad su escepticismo ante algunas de las técnicas más utilizadas para «alinear» sistemas de IA con valores humanos. Entre ellas, la conocida como RLHF ocupa un lugar central en su crítica. El RLHF (siglas de ‘Reinforcement Learning from Human Feedback’, o ‘aprendizaje por refuerzo a partir de retroalimentación humana’) es una técnica mediante la cual se entrena un modelo de lenguaje (como, por ejemplo, GPT-4o) no solo con datos de texto en crudo, sino también mediante la intervención humana.

Hinton es uno de los pioneros del aprendizaje profundo y ha pasado de impulsar la IA a advertir sobre sus peligros. Critica que el desarrollo esté en manos de grandes corporaciones (como ciertas big tech) que priorizan la competencia comercial sobre la seguridad. También alerta de que la “carrera por la IA” puede dejar de lado los riesgos existenciales, como el desempleo masivo y la concentración de riqueza: “Musk se hará más rico y mucha gente quedará desempleada”.

La IA es «tontísima»

Yann LeCun (considerado uno de «los padrinos de la IA», junto a Hinton, y ganador del premio Turing) ha confirmado lo que muchos sospechaban desde que Meta abrazó la era de la superinteligencia: se va de la compañía. Lo anunció hace unos días.

La salida se produce en un contexto de tensión filosófica. LeCun lleva años avisando de que la IA generativa actual es «tontísima» y que modelos como GPT-4 no son más inteligentes que un gato doméstico. Mientras Silicon Valley y la propia Meta invierten miles de millones en escalar los LLM recolectando más datos y capacidad de cómputo, LeCun sostiene que esa estrategia es un callejón sin salida.

Para él, los LLM no resuelven problemas reales, sino que se limitan a predecir texto basándose en probabilidades sin entender la realidad. Con este enfoque, Lecun ha ido perdiendo peso interno frente a figuras como Alexandr Wang y otros fichajes del equipo de superinteligencia.

Concentración extrema de poder, riqueza y control

Jaime Sevilla es un investigador español, fundador de Epoch AI, una organización dedicada a analizar y prever la evolución de la IA, que ha alertado de escenarios en los que “el 99 % de los recursos acabará en manos de la IA”.

Su visión apunta a una posible concentración extrema de poder, riqueza y control en manos de quienes dominen los sistemas de IA. Eso podría provocar una fractura social profunda, con pocos favorecidos y muchos excluidos.

Además, advierte que muchos usos de la IA podrían ser dañinos: no solo por desempleo, sino por su potencial para actividades maliciosas (fraudes, manipulación, etc.).

Fuente: genbeta.com

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *