Los niños son de los segmentos más vulnerables de la población en el mundo techie y por ello la creación de herramientas digitales siempre debe ponderar los riesgos en los que pueden caer
La implementación de la Inteligencia Artificial (IA) se va ampliando y cada vez impacta en más sectores de la población. Es así como el desarrollo de la tecnología debe hacerse desde un enfoque ético, especialmente cuando se trata de dispositivos orientados a niños.
Uno de los riesgos principales es la posibilidad de que los datos de los niños se vulneren a través de campañas maliciosas o por brechas en los dispositivos. Si bien Amazon ha mejorado en este aspecto, hace unos años estuvo en el centro de la polémica por sus ligeras protecciones de privacidad.
Otro caso de vulnerabilidad tiene que ver con YouTube Kids, plataforma en la que se han colado videos relacionados a caricaturas infantiles, pero con escenas violentas que no correspondían al contenido infantil. Su algoritmo para crear subtítulos automáticamente ha tenido un problema similar, pues insertó lenguaje explícito en los videos.
Mauricio García, director de tecnología en Frog, apunta que los diseñadores de tecnología deben asumir una postura de responsabilidad con los niños, lo cual conlleva asegurarse de tener en cuenta los riesgos e implementar los mecanismos para intentar minimizarlos a través de seguros y revisiones constantes.
“Si tenemos ese cuidado con el contenido, podemos promover una plataforma más segura para los menores porque se previeron las consecuencias y monitorear que sí se está respetando la confianza”, comenta.
Detalla que en el proceso de desarrollo se debe contemplar quiénes serán los usuarios e involucrar a niños y especialistas en esos sectores. “Sólo con conocimiento profundo de la población vamos a diseñar algo que les ayude y no un producto que sólo sea adictivo o muy fácil de consumir”, sentencia García.
Menciona que desde el consumidor -en este caso los padres- también se requiere responsabilidad, pues se debe analizar quién creó el sistema y qué controles de calidad está ejecutando para revisar el contenido que se transmite. Si no se puede asegurar ese aspecto, el especialista recomienda no usar la tecnología porque existe el riesgo de exponer a los niños a contenido nocivo sin darse cuenta.
La IA y sus usos positivos en niños
A pesar de que esta tecnología puede representar riesgos para los menores, se debe establecer una relación fluida de control y entendimiento para sacarles provecho, ya que se encuentra muy presente en la vida de todas las personas, incluidos los niños.
De acuerdo con datos de Juniper Research , para 2023 habrá más de 275 millones de asistentes de voz inteligentes, como los de Amazon Echo y Google Home. Además, una investigación de Data Child Futures indica que en 2019, el 40% de los juguetes que tenían los niños participantes estaban conectados a internet con la capacidad inherente de acceder a servicios de IA.
Los niños seguirán siendo un objetivo de vulnerabilidad, ya que pueden entrar en entornos de riesgo. Sin embargo, el experto detalla que se les debe mostrar quién y qué está detrás de la tecnología, es decir, instruirlos respecto a los algoritmos que influyen en su uso.
A partir de ese punto es posible establecer rutas seguras para acceder a la tecnología y aprovechar casos de uso benéficos, como mejorar los procesos de enseñanza a través de asistentes digitales que les muestren juegos adaptados a su forma de aprendizaje o incluso el uso terapéutico para niños con algún trastorno y que necesiten cierto acompañamiento.
Estos usos también pueden aportar a la creatividad, es decir, en vez de que el uso de la tecnología merme su desarrollo cognitivo, podría aportar una educación personalizada destacando aquellas materias que le atraigan para extender sus aprendizajes, así como motivar el interés por las ciencias computacionales.
Fuente: expansion.mx