Cómo las grandes tecnológicas están cooptando a las estrellas emergentes de la IA
En lugar de acabar con el dominio que durante una década han ejercido las grandes tecnológicas sobre la economía de Internet, el auge parece estar jugando a favor de los gigantes
En 2021, un grupo de ingenieros abandonó OpenAI, preocupados porque la empresa pionera en inteligencia artificial (IA) se había centrado demasiado en ganar dinero. En su lugar, crearon Anthropic, una corporación de beneficio público dedicada a crear una IA responsable.
Esta semana, los bienhechores de Anthropic han anunciado un sorprendente acuerdo con Amazon por valor de 4.000 millones de dólares.
El acuerdo pone de relieve cómo la insaciable necesidad de potencia de cálculo de la IA está empujando incluso a las start-ups más anticorporativas a los brazos de las grandes tecnológicas. Antes de que Anthropic anunciara que Amazon era su socio “preferente” en la nube, presumía en febrero de una relación similar con Google. (En la entrada del blog de Anthropic de febrero ya no aparece la palabra “preferente”).
Portavoces de ambas empresas afirman que la relación entre Google y Anthropic no ha cambiado.
El auge de la inteligencia artificial se considera la próxima revolución tecnológica y puede catapultar a una nueva oleada de nuevas empresas a la estratosfera de Silicon Valley. Sin embargo, en lugar de acabar con el dominio que durante una década han ejercido las grandes tecnológicas sobre la economía de Internet, el auge de la IA parece estar jugando a su favor.
Los almacenes de potentes chips informáticos de las grandes tecnológicas son necesarios para entrenar los complejos algoritmos que hay detrás de los chatbots de IA, lo que da a Amazon, Google y Microsoft una inmensa influencia en el mercado. Y aunque advenedizos como Anthropic AI hayan creado una potente tecnología innovadora, siguen necesitando el dinero y los recursos de computación en la nube de las grandes tecnológicas para hacerla funcionar.
“Para crear IA a cualquier escala significativa, cualquier desarrollador va a depender de recursos que se concentran en gran medida en unas pocas empresas”, afirma Sarah Myers West, directora gerente del AI Now Institute, que investiga los efectos de la IA en la sociedad. “Realmente no hay un camino de salida”.
Entrenar sistemas “generativos” de IA, como chatbots y generadores de imágenes, es enormemente caro. La tecnología que hay detrás de ellos tiene que procesar billones de palabras e imágenes antes de poder producir textos similares a los humanos e imágenes fotorrealistas a partir de simples instrucciones. Este trabajo requiere miles de chips informáticos especializados ubicados en enormes centros de datos que consumen enormes cantidades de energía.
Y la demanda no hace más que aumentar. El norte de Virginia -la región más importante del mundo en cuanto a almacenes informáticos- añadió un 20% a su capacidad total en 2022, según la inmobiliaria CBRE. Aun así, las tasas de vacantes en los centros de datos de la región eran inferiores al 2 por ciento a principios de este año.
En enero, OpenAI, la start-up que dio el pistoletazo de salida al boom de la IA con el lanzamiento de ChatGPT el año pasado, anunció un acuerdo multimillonario similar con Microsoft, dando al gigante tecnológico un profundo acceso a la nueva tecnología y permitiéndole lanzar un chatbot propio. El acuerdo de Anthropic con Amazon no vincula tan estrechamente a ambas empresas, pero permite a los ingenieros de Amazon utilizar los modelos de Anthropic en sus productos, según afirma Amazon en un comunicado de prensa en el que anuncia el acuerdo.
La presidenta de la Comisión Federal de Comercio (FTC), Lina Khan, ha declarado que la agencia está muy atenta a cualquier indicio de comportamiento anticompetitivo. En marzo, la FTC abrió una investigación sobre los proveedores de computación en nube, preguntando si los productos de IA dependen del proveedor de la nube en la que se basan. Los reguladores también están atentos. Las oficinas de Nvidia, que fabrica los chips informáticos y el software necesarios para entrenar grandes modelos lingüísticos, fueron allanadas el miércoles por las autoridades francesas de la competencia, según el Wall Street Journal.
“Tenemos que estar muy atentos para asegurarnos de que no se trata de otro sitio en el que las grandes empresas se hacen más grandes y aplastan a sus rivales”, dijo Khan en la Cumbre de Primavera de Agentes Antimonopolio celebrada en marzo. “Cuando se producen estos momentos de transición tecnológica, . . . se ve que los titulares a veces tienen que recurrir a tácticas anticompetitivas para proteger sus fosos y proteger su dominio”.
Russell Wald, director de política del Instituto de IA Centrada en el Ser Humano de la Universidad de Stanford, dijo que la competencia existe, pero sólo entre el pequeño grupo de actores con acceso a la potencia de cálculo. A Wald, que organiza un programa para enseñar IA al personal del Congreso, le preocupa que algunas propuestas reguladoras puedan empeorar las cosas: Por ejemplo, exigir a las empresas que obtengan una licencia del gobierno para sus modelos de IA podría ayudar a las grandes empresas y dificultar la competencia de las más pequeñas.
Algunos líderes empresariales no están tan preocupados por el control que ejercen las grandes tecnológicas sobre la potencia de cálculo, ya que argumentan que el coste de los modelos de IA se reducirá inevitablemente a medida que aumenten la competencia y la eficiencia.
“Vamos a dejar de forzar nuestros avances en IA”, afirma Matt Calkins, director ejecutivo de Appian, una empresa de software que cotiza en bolsa y que está creando sus propias herramientas de IA. “Espero más eficiencia”.
Cuando ChatGPT se lanzó en noviembre de 2022, causó conmoción en el mundo de la tecnología. Los expertos en tecnología especularon con que el negocio de búsqueda de Google estaba en peligro porque la gente podía hacer preguntas a ChatGPT en lugar de buscarlas en Google. Las grandes empresas tecnológicas entraron en acción a una velocidad que los observadores no habían visto en años. Google pidió a sus trabajadores que dejaran de compartir sus investigaciones sobre IA con el público. Microsoft lanzó un nuevo chatbot, Bing, que inmediatamente expresó hostilidad hacia sus usuarios, lo que suscitó dudas sobre si estaba listo para el prime time.
En septiembre, una avalancha de anuncios de Google, Microsoft, Amazon y OpenAI ilustró el frenético ritmo de la competencia. Google integró su chatbot Bard en Gmail, Google Docs y algunos de sus otros productos; los usuarios descubrieron que la herramienta cometía errores básicos. Amazon anunció un nuevo modo de conversación para sus altavoces Alexa con tecnología de chatbot de vanguardia; en una demostración en el escenario, la herramienta hacía largas pausas entre respuestas.
Pero la capacidad de ofrecer tecnología de IA a los clientes a través de los productos existentes es una ventaja clave, afirma Myers West. ChatGPT saltó a la fama gracias al boca a boca, las publicaciones en redes sociales y la cobertura informativa, pero al cabo de pocos meses ya estaba perdiendo usuarios, según un informe de la empresa de seguimiento de tráfico web SimilarWeb. Las grandes empresas tecnológicas tienen miles de millones de usuarios cada día.
“La propiedad del ecosistema es importante”, afirma Myers West.
Las alianzas con las grandes tecnológicas han provocado inquietud entre algunos trabajadores e investigadores de IA, según Manoj Vekaria, ingeniero de software de Seattle. Laboratorios de IA como OpenAI y Anthropic pueden reclamar su independencia, pero es difícil predecir cuánto durará.
“¿Y si cambia la dirección? ¿Y si Amazon tiene un nuevo director general? ¿Y si Anthropic tiene un nuevo director general? dice Vekaria. “Cuando aceptas su dinero, estás vendiendo tu alma”.
Por ahora, Anthropic parece intentar mantener abiertas sus opciones. En un comunicado anunciando el acuerdo de Amazon, Amazon dijo que “Anthropic planea ejecutar la mayoría de sus cargas de trabajo en AWS.” Pero a pesar de cambiar su estatus “preferente”, Anthropic sigue utilizando principalmente servidores de Google, según una persona familiarizada con la configuración de computación en nube de la empresa que habló bajo condición de anonimato para discutir asuntos internos.
Fuente: infobae.com