Científicos crean revolucionario minichip capaz de ver, pensar y recordar al instante
La tecnología está avanzando más rápido que nunca y estos últimos años se han creado cosas impresionantes como chips tan pequeños como un grano de arena y maneras de contrarrestar la temperatura elevada con agua hirviendo en estos componentes. Incluso hay baterías hechas de hongo que son biodegradable, por lo que cualquier cosa es posible.
En la actualidad ya existen sistemas autónomos en coches como los Tesla Cybercab o el robot humanoide Optimus que Elon Musk quiere expandir por todo el mundo, pero los nuevos descubrimientos pueden hacer que sean mucho más eficientes y precisos con respecto a lo que estas máquinas ven.
Por ejemplo, los vehículos tienen la capacidad de “ver” a su alrededor con sensores, cámaras, radares e inteligencia artificial, lo cual garantiza viajes seguros sin conducción humana. Sin embargo, el objetivo de los científicos de la Universidad RMIT de Australia, ha ido más allá al desarrollar un chip neuromórfico que imita el ojo y el cerebro humano, algo que podría cambiar todo.
- Este chip podría imitar varias funciones del cerebro humano en las máquinas
- ¿Podría este minichip ser incorporado a una IA como ChatGPT?
Este chip podría imitar varias funciones del cerebro humano en las máquinas
Aunque es cierto que las máquinas actuales cuentan con una buena precisión y un porcentaje de éxito elevado en varias situaciones, lo que han descubierto los investigadores australianos es que los sistemas pueden mejorarse considerablemente integrando una nueva tecnología como complemento.
Según lo que se describe en el informe oficial del RMIT, la capacidad puede aumentar si se utiliza un minichip neuromórfico con el material de capas delgadas llamado disulfuro de molibdeno (MoS2) que se encarga de establecer temperatura, dar resistencia y lubrica las zonas relevantes.
Sin embargo, en este contexto, lo más importante es que permite que el componente use sus efectos para captar la luz con efectividad y así transformarla en señales eléctricas que puede entender para actuar ante diversas situaciones. Esto sería similar a la manera en la que funcionan las neuronas del cerebro humano.
Es decir, puede visualizar el entorno con mayor precisión, reaccionar ante los eventos al instante y memorizar lo que sucede. A esto se le suma un procesamiento analógico que aumenta estas capacidades y hace que haya menos consumo energético en comparación con otros componentes convencionales.
“La visión neuromórfica en estas aplicaciones, algo que aún está a muchos años de distancia, podría detectar cambios en una escena casi instantáneamente, sin necesidad de procesar muchos datos, lo que permitiría una respuesta mucho más rápida que podría salvar vidas”— Sumeet Walia, director del Centro de Materiales y Sensores Optoelectrónicos (COMAS) del RMIT.
Además, para ejecutar todas estas funcionalidades en tiempo real no se requiere de un ordenador externo que transmita señales o comportamientos. Por lo tanto, se clasifica como uno de los avances más óptimos y revolucionarios para productos como coches autónomos, robots inteligentes y tecnologías que interactúan naturalmente con humanos.
Para entenderlo mejor, este componente es como un ojo y cerebro juntos en un pequeño diseño y simula las capacidades que tienen los órganos reales. Entonces, ve de una manera similar a cualquier persona, como cuando algo se mueve hacia ti y hay que realizar una acción pensando rápido.
A su vez, ese mismo evento lo recuerda al almacenarlo en su memoria artificial para seguir aprendiendo, lo cual lo hace una tecnología muy avanzada. Sin embargo, no es algo que podría reemplazar por completo a los sistemas autónomos actuales, ya que se puede usar más como un elemento adicional en un sistema híbrido que aporte mejoras en las características y sea más eficiente.
¿Podría este minichip ser incorporado a una IA como ChatGPT?
En efecto, ya se está haciendo algo similar con los chips de Loihi de Intel y TrueNorth de IBM para que herramientas como ChatGPT puedan obtener mejoras en la productividad y procesamiento. Un ejemplo donde se podría estar integrando es en el modo visión, donde puedes activar la cámara del móvil para que la inteligencia artificial te responda de acuerdo a lo que se ve.
En algunos proyectos se está utilizando esto para fusionar las interfaces cerebro-computadora en aplicaciones o dispositivos especiales que le sirvan a personas con discapacidades de visión, auditivas o motoras.
Entonces, este nuevo descubrimiento podría comenzar a ser utilizado para crear acciones más avanzadas y precisas que mejoren la interacción con el entorno para que haya menos errores y la IA sea de ayuda en muchas áreas más, incluyendo cuando sea empleada en robots trabajadores.
Fuente: msn.com