Nace el primer ‘chatbot’ para ayudar a las víctimas de abusos sexuales
El movimiento #MeeToo ha inspirado el primer chatbot destinado a víctimas de acoso y agresiones sexuales. Desarrollado en inglés por la Universidad holandesa de Maastricht, aprovecha los algoritmos de la inteligencia artificial y el aprendizaje automático (machine learning) para simular una conversación con una persona y ayudar a las que no se sienten a gusto contando su experiencia en voz alta. Analiza el mensaje recibido por escrito, pregunta sobre la naturaleza, lugar y fecha del suceso, y al final, aconseja sobre la instancia a la que acudir. Entre ellas, la comisaría, un hospital o bien un psicólogo. El lanzamiento está previsto para 2020 y cuenta con el apoyo del Ayuntamiento de la ciudad y de la policía, así como el visto bueno del Centro sobre la Violencia Sexual, esta última de ámbito nacional. Este viernes será presentado en la Conferencia Europea de Machine Learning, celebrada en Würzburg (Alemania).
El chatbot pretende atender a los supervivientes de asaltos sexuales, ya fueran con violencia física o intimidación verbal, “porque los sociólogos que nos han asesoradoseñalan que no todo el mundo tiene fuerzas de revivir lo ocurrido ante otros”, señala Jerry Spanakis, profesor asistente del departamento de Ciencia de Datos e Ingeniería del Conocimiento, en Maastricht, e investigador jefe del proyecto. “Se trata de que los afectados se sientan seguros y no tengan vergüenza, de modo que los datos recogidos y procesados son anónimos. Tuvimos en cuenta la empatía, por supuesto, porque se trata de una máquina y no de un interlocutor humano, de modo que todavía estamos ajustando las preguntas a las historias, para que puedan recibir una contestación adecuada. Hemos empezado en inglés y luego lo haremos en neerlandés, aunque no descartamos otras lenguas”, cuenta.
Spanakis está en Alemania para la presentación del chatbot, y explica por teléfono que sus estudiantes de Máster usaron como ejemplo unos 12.000 informes escritos en diferentes años por víctimas reales de estos ataques para poder dividirlos en 5 categorías: abuso verbal, no verbal (con gestos o actitudes), abuso físico y físico grave y otras formas de acoso. Los informes formaban parte del proyecto SafeCity, lanzado en 2012 para trazar el mapa del abuso sexual en las ciudades de India, Kenia, Camerún y Nepal. Una vez que la víctima teclea su historia, el lenguaje utilizado en dicho texto es procesado para poder diferenciar el tipo de agresión. Palabras similares, como gritar o grito, que expresan emociones fuertes, se colocan cerca para que el programa de software pueda entender las diferentes maneras de describir un ataque. Los algoritmos se encargan entonces de clasificarlas por orden de gravedad y tipo de agresión, para aconsejar luego a dónde acudir y la dirección correspondiente.
“Otra de las razones de este chatbot es que muchas víctimas no denuncian porque creen que no les harán caso, y el culpable quedará impune. De ahí el apoyo de la policía y el Consistorio de Maastricht, que es el ámbito donde queremos actuar por ahora. Si el usuario consiente, sus datos son almacenados manteniendo el anonimato, y pueden ayudar a los agentes a reconocer el lugar de abuso en el plano de la ciudad y su frecuencia. De todos modos, esperamos afinar aún más el tipo de preguntas formuladas con ayuda de las víctimas, para estar seguros de que vamos por el buen camino. Es un tema grave y delicado”, asevera Spanakis. «#MeeToo es un movimiento social creciente para concienciar acerca del acoso sexual, y nuestro chatbot contribuye a asistir a sus supervivientes, porque el acoso cubre todo tipo de abusos», añade.
Si bien Maastricht, con una universidad muy popular y concurrida, será el primer campo de operaciones del chatbot, el experto espera que luego “su acceso sea libre a través de una web abierta y sin interés comercial”. “Creo que también puede ser una herramienta útil para los departamentos de recursos humanos de las empresas. Por eso, entre los trabajos finales figura probar su eficacia con ayuda de víctimas de abusos, y el refuerzo de la seguridad, para evitar ataques cibernéticos”, concluye.
Fuente: elpais.com