Según la empresa de tecnología, AI Aizip, las IA menores pueden mejorar la seguridad doméstica y operar con costes reducidos
Un estudio realizado por la Universidad de California y científicos del Instituto Tecnológico de Massachusetts (MIT) , en conjunto con la empresa de tecnología de inteligencia artificial AI Aizip, indica que los modelos de inteligencia artificial más grandes habrían desarrollado la capacidad de crear modelos más pequeños sin intervención humana.
El análisis realizado llevó al extremo las capacidades de sistemas de inteligencia artificial actualmente usados por el público en general como es el caso de ChatGPT. Según indicó el CEO de AI Aizip, Yan Sun, al medio estadounidense Fox News, “es como un hermano mayor ayudando a su hermano menor a mejorar. Es el primer paso hacia un trabajo más amplio de una inteligencia artificial que evoluciona por su propia cuenta”.
Por otro lado, un investigador involucrado en el estuidio, Yubei Chen, señaló la creación de “una línea de producción totalmente automatizada” capaz de diseñar modelos de IA sin intervención humana, marcando un hito en el desarrollo tecnológico pues se destaca una utilidad nueva y con la capacidad de incrementar el potencial de asistencia de estos sistemas inteligentes.
En el caso de los modelos más pequeños de inteligencia artificial, aunque estos tengan un menor tamaño, tienen varias ventajas como la posibilidad de operar con costos significativamente menores (ChatGPT requiere de 700.000 dólares al día), además de estar especializadas en tareas específicas como el reconocimiento facial hasta el uso de aparatos auditivos y electrodomésticos.
Sun añadió que estas inteligencias llamadas, también llamadas TinyML, pueden integrarse en diferentes aspectos de la vida cotidiana e incuso apoyar en el aumento de la seguridad de los usuarios en el hogar.
El equipo de investigación también agregó que es posible que las TinyML pueden ser creadas por otros sistemas inteligentes de forma automática y que en el futuro “estos procesos pueden crear ecosistemas completos de inteligencia artificial”, indicó Chen.
Microsoft, en asociación con OpenAI, también ha resaltado sus modelos de IA de tamaño reducido pero potentes, sugiriendo una capacidad para rivalizar con ChatGPT. La capacidad para que la IA diseñe otras IAs sugiere no solo avances en eficiencia y accesibilidad, sino también un eventual cambio fundamental en cómo se desarrolla la tecnología de inteligencia artificial.
Inteligencia artificial fuera de control
Según el fundador de Microsoft, Bill Gates, considera que sí es posible que alguno de los modelos de inteligencia artificial se puedan salir del control humano. Una publicación de su blog personal, “GatesNotes”, indica que es probable que una inteligencia artificial pueda decidir que “los humanos son una amenaza, que sus intereses y los nuestros son diferentes o dejar de importarle la humanidad”.
Esta teoría está basada en que, por el momento, ninguna inteligencia artificial ha podido establecer sus propios objetivos sin intervención humana y tampoco es capaz de “controlar el mundo físico”. Gates indicó que estas serían dos señales de que se ha alcanzado un nivel que él denomina “Inteligencia artificial fuerte”.
Gates afirma que uno de los principales riesgos que se podrían presentar en el desarrollo de esta tecnología es que sea utilizada en la industria armamentista, por lo que ha invocado a que se regulen y limiten los usos que se le puede dar a las inteligencias artificiales.
Pese al riesgo existente, Gates insiste en que el desarrollo conseguido es positivo y que estos primeros pasos de la humanidad en la creación de inteligencias artificiales es solo el comienzo de una era en la que estas consciencias digitales podrán mostrar de lo que son capaces. “Cualquiera que sean las que tienen ahora, desaparecerán antes de que nos demos cuenta”, aseguró.
Fuente: infobae.com