Por extraño que parezca, la sencilla frase «No soy un robot» puede resultar extremadamente confusa para la inteligencia artificial.
Y es que, cuando de computadoras se trata, detrás de la misma por lo general está test del código Captcha -más tarde rebautizado como reCaptcha- que funciona como una prueba de Turing inversa, haciendo que la máquina sea la que distingue entre robots y humanos (y no al revés).
El invento lleva casi dos décadas en el mercado y, aunque ha evolucionado a lo largo de los años, la esencia de su desafío-respuesta sigue siendo la misma.
Se basa en un algoritmo público que pide al usuario introducir correctamente un conjunto de caracteres en una imagen distorsionada.
Y, por el momento, las máquinas no son capaces de comprender esa secuencia de manera adecuada.
Detrás de la idea está el guatemalteco Luis von Ahn, 40, un informático y profesor de ciencias de la computación en la Universidad Carnegie Mellon (Estados Unidos) quien le vendió su invento a Google hace 10 años.
Von Ahn es todo un pionero. Fue uno de los primeros en apostar por el crowdsourcing (la colaboración abierta, entre varias personas, para externalizar tareas) y sus investigaciones le han valido varios premios internacionales.
Cuando BBC Mundo lo entrevistó en 2011, Von Ahn trabajaba para Google, y aunque decía que no le gustaba tener jefes aseguraba que no le decían lo que tenía que hacer. «Puedo hacer lo que quiera», aseguró.
En ese momento, estaba a punto de desarrollar su siguiente proyecto, Duolingo, con el que soñaba traducir todo el contenido de internet. Hoy es la app educativa más descargada del mundo y ha superado los 200 millones de usuarios.
Pero el desarrollo del Captcha es tal vez el más famoso y reconocido de los inventos de Luis von Ahn, y aunque ha sido blanco de algunas críticas, se sigue usando a lo largo y ancho de internet.
Los «captchas», como se les conoce popularmente, son usados por sitios web y aplicaciones para evitar que los robots participen en las plataformas, envíen correos basura o usan ciertos servicios.
¿Imposible de engañar?
Una de las principales controversias pone en entredicho si el sistema es completamente imposible de burlar por los bots (cuentas automatizadas; es decir, máquinas).
Von Ahan actualizó su sistema Captcha (creado en el 2000) por reCaptcha (2007), con el que mejoraba algunas debilidades y hacía que la prueba consistiera en reconocer un texto mediante imágenes.
En 2009, le vendió los dos a Google.
ReCaptcha solucionaba el problema de la digitalización de textos, pues las palabras resultan más difíciles de reconocer para las máquinas si contienen letras deformes o «defectos» de impresión. Por eso es más confiable.
Sin embargo, algunas implementaciones de los «captchas» han sido pobremente implementadas, y algunos proyectos de investigación -como la de Vicarious, una firma californiana de inteligencia artificial- aseguraron que sus máquinas son capaces de burlar ciertos tipos de códigos Captcha y reCaptcha.
Pero Google sigue actualizando su ReCaptcha para que sea más efectivo. De hecho, a finales de octubre anunció su tercera generación.
Nuevos parámetros
«ReCaptcha v3 te ayuda a detectar tráfico abusivo en tu página web sin que el usuario sufra fricciones. Ofrece una puntuación basada en interacciones en tu sitio web y te da más flexibilidad para tomar las acciones adecuadas», se lee en el blog de Google.
«Si tienes una página web, debes protegerte de los bots, que tratan de filtrar contraseñas, publicar spam y eliminar tu contenido», aseguran los desarrolladores, que admiten que la casilla «No soy un robot» no vale en todos los casos.
También es probable que la nueva versión nos pida que resolvamos problemas, aunque Google no dio mucha más información al respecto.
Lo que sí sabemos es que las versiones 1 y 2 de ReCaptcha analizaban el comportamiento de los usuarios en una sola página web, mientras que la tercera observará también movimientos del mouse e incluso tiempos entre clics.
Con esos parámetros, Google asignará puntuacionesa los visitantes de los sitios web de manera «invisible».
Según le dijo a la BBC el especialista en ciberseguridad Simon Edwards cuando Vicarious lanzó su investigación (2017), no suelen verse ataques en Captcha, pero era necesaria una actualización.
«Esta tecnología lleva un tiempo usándose, se necesita una mejor versión de Captcha,» declaró el especialista.
El lado negativo, sin embargo, es que ese tipo de interacciones facilitan el Big Data y le dan (todavía) más información a Google sobre nuestros comportamientos en la red.
Fuente: BBC