Icono del sitio INVDES

Una IA convence a un anciano de que su hijo ha atropellado a una mujer, le estafan 22.000 euros

Las estafas potenciadas por inteligencia artificial, son cada vez más comunes. Cuando afectan a personas vulnerables, duelen más

Ya sabemos que la inteligencia artificial puede clonar cualquier voz. Esto lo aprovechan los ciberdelincuentes para poner en práctica timos como el que ha sufrido un anciano, con la angustia adicional de creer que su hijo había matado a una mujer embarazada.

Los hechos han ocurrido en Estados Unidos, según narra el medio ABC7. Un hombre mayor llamado Anthony, que no ha querido revelar su apellido, recibió la llamada de su hijo, en la que le explicaba que había tenido un accidente de coche, y había atropellado a una mujer embarazada. Después colgó bruscamente.

“Era su voz. Era absolutamente su voz. No había ninguna duda”, explica Anthony. Por desgracia, no lo era. Qué él lo creyera así, puso en marcha la estafa.

Así funciona una estafa con IA

Apenas un par de minutos después de que creyera hablar con su hijo, recibió la llamada de su supuesto abogado, Michael Roberts, que le dijo lo siguiente, con tono de urgencia: “Tiene que conseguir 9.200 dólares lo antes posible si quiere sacar a su hijo de la cárcel. De lo contrario, estará preso 45 días”.

Anthony intentó llamar a su hijo, pero siempre le salía el buzón de voz, así que asumió que era porque estaba en la cárcel.

El anciano acudió al banco a sacar el dinero. Les dijo que era para poner paneles solares en casa, no quería que sospechasen. Con el dinero en la mano, fue su hija la que llamó al abogado timador. Enseguida les envió un Uber para le diesen el dinero.

La hija comprobó que el Uber tenía un número de licencia legal, pero su gran fallo fue no meterse en el coche para ver en persona a ese abogado. O quizá sintió miedo. En estos timos, los conductores de Uber no suelen saber nada. A ellos les llaman para recoger un sobre, y es lo que hacen.

La estafa fue a peor. A las pocas horas les llamó un segundo abogado, Mark Cohen. Aseguraba que la mujer embarazada había fallecido en el hospital, así que la fianza subía a los 25.000 dólares. Las víctimas, bloqueadas, hicieron una segunda entrega. Hasta que la hija buscó información de estos casos en Internet, y llegó a la conclusión de que era un timo con IA.

Según explica la policía, los ciberdelincuentes obtuvieron unos segundos de la voz real del hijo de Anthony, quizá de un video que subió a redes sociales, o llamándole al móvil sin contestar. Con solo decir, “¿Quién es?” o “¿Quién es usted?”, ya es suficiente para que una inteligencia artificial pueda clonar la voz, y decir cualquier frase con el mismo tono.

Así fue como Anthony recibió un mensaje de audio de lo que él creía la voz de su hijo, afirmando que había atropellado a una mujer, y al creérselo, lo demás vino rodado.

La clave del asunto es por qué el hijo no respondió a las llamadas de su padre, en todas esas horas. La policía no lo ha confirmado, pero a veces los ciberdelincuentes roban el móvil al motivo de la estafa (el hijo), para que no pueda recibir llamadas.

Este tipo de timos basados en la angustia por un accidente, o un secuestro, llevan años funcionando. Pero antes se usaban personas que imitaban voces, o se limitaban a mensajes de texto. Ahora con la IA, todo es más realista y fácil de hacer. A este anciano le han estafado 23.000 euros de forma cruel, haciéndole creer que su hijo había matado a una mujer embarazada. La voz modificada con IA fue clave para que funcionase.

Fuente: computerhoy.20minutos.es

Salir de la versión móvil