Según me han contado, hace solo dos años, una de las conferencias más importantes sobre inteligencia artificial (IA) era más una auténtica fiesta. Con la intención de captar al mejor talento, las compañías cedían sinfín de regalos y organizaban eventos masivos y explosivos, incluido uno con Flo Rida, de la mano de Intel. Los asistentes (en su mayoría hombres de entre 20 y 30 años), con grandes enormes y altamente cotizados, bebían alcohol gratis y pasaban toda la noche de fiesta.
Yo nunca tuve oportunidad de acudir a estas versiones más salvajes de NeurIPS (abreviatura en inglés de la conferencia de Sistemas de Procesamiento de información Neuronal). Asistí por primera vez el año pasado, después de que el exceso hubiera alcanzado su punto máximo. Externamente, esta comunidad de investigadores era cada vez más cuestionada a medida que se conocían las manipulaciones asociadas a las elecciones presidenciales de 2016 en Estados Unidos, ya que cada vez más personas cuestionaban la influencia de los algoritmos en la sociedad. A nivel interno, los informes sobre acoso sexual, antisemitismo, racismo y edadismo también hicieron que los asistentes a la conferencia se preguntaran si debían seguir asistiendo.
Así que, cuando acudí en 2018, la conferencia había nombrado un comité de diversidad e inclusión y había actualizado la abreviatura por la que era conocida anteriormente, NIPS. Los debates de aquel año también fueron diferentes a los anteriores. Había menos fiestas, las charlas tenían un mayor enfoque social y las conversaciones que se producían entre cada actividad mostraban una mayor consciencia sobre los desafíos éticos que el campo debe abordar.
Dado que el papel de la IA se ha ido expandiendo drásticamente, junto con los aspectos más preocupantes de su impacto, parece que esta comunidad por fin ha empezado a reflexionar sobre su poder y las responsabilidades que conlleva. O como me dijo un asistente: «Parece que esta comunidad está madurando».
Este cambio se manifiesta de algunas formas concretas. En lugar de centrarse en los retos teóricos, muchas de las sesiones técnicas se enfocaron en los desafíos del mundo real con el foco puesto en el ser humano. Los carteles destacaban los mejores métodos para proteger la privacidad del usuario, garantizar la igualdad y reducir la cantidad de energía necesaria para ejecutar y entrenar modelos de última generación. Los talleres recibían títulos como: Abordar el cambio climático con el aprendizaje automático e Igualdad en el aprendizaje automático para la salud.
Además, muchos de los ponentes invitados abordaron de forma directa los desafíos sociales y éticos a los que se enfrenta el campo, temas que antes habían sido descartados por no ser fundamentales para la práctica del aprendizaje automático. Sus charlas también fueron bien recibidas por los asistentes, lo que indica una nueva apertura para participar en estos temas.
En el acto de inauguración, por ejemplo, la psicóloga cognitiva y representante del movimiento #metoo Celeste Kidd pronunció un discurso conmovedor en el que instó a la industria tecnológica a asumir la responsabilidad de cómo sus tecnologías modulan las opiniones y desacreditan los mitos sobre el acoso sexual. Recibió una gran ovación. En la charla de apertura en el simposio Queer in AI, la investigadora de la Universidad de Stanford (EE. UU.) Ria Kalluri también desafió al público a pensar más sobre cómo sus modelos de aprendizaje automático podrían cambiar el poder en la sociedad desde aquellos que lo tienen a los que no. Su charla fue muy difundida online.
Una gran parte de este cambio no ha sido casualidad. Gracias al trabajo del comité de diversidad e inclusión, la conferencia contó con la participación más diversa de su historia. Cerca de la mitad de los ponentes principales eran mujeres y con una cantidad similar de minorías; el 20 % de los más de 13.000 asistentes también eran mujeres, en comparación con el 18 % del año pasado. Hubo siete grupos organizados por la comunidad para apoyar a los investigadores de las minorías, lo cual es un récord. Se trataba, entre otros, de Black in AI, Queer in AI y Disability in AI, y realizaron debates paralelos en el mismo espacio que NeurIPS para facilitar la mezcla de personas e ideas.
Kidd me explicó que cuando la IA involucra a equipos más diversos, naturalmente se incide más en cómo la IA está dando forma a la sociedad, para bien o para mal. La experta añadió: «Vienen de un lugar menos privilegiado y son más conscientes de algunos conceptos como el prejuicio y la injusticia y de cómo las tecnologías diseñadas para un determinado grupo demográfico en realidad pueden dañar a las poblaciones desfavorecidas». Kalluri compartió su opinión y afirmó que los esfuerzos intencionales para diversificar la comunidad obligan a los investigadores a «enfrentarse a preguntas sobre cómo funciona el poder en su campo».
Sin embargo, a pesar de este avance, muchos subrayaron que el trabajo no ha hecho más que empezar. Tener un 20 % de mujeres sigue siendo terrible, y este año, como en años anteriores, continuaron los desafíos tremendos en la obtención de visados para los investigadores internacionales, particularmente para los de África.
«Históricamente, este campo se ha reducido bastante a un grupo demográfico concreto de la población, y la investigación que surge refleja los valores de esas personas», explica la profesora asistente de la Universidad de Duke (EE. UU.) y copresidenta del comité de diversidad, Katherine Heller. La experta añade: «Lo que queremos a largo plazo es un lugar más inclusivo para dar forma a la futura dirección de la IA. Todavía queda un largo camino por recorrer». Sí, todavía queda un largo camino por recorrer. Pero en esta última conferencia, mientras la gente hacía cola para dar las gracias a Kidd por su discurso, yo sentí esperanzas.
Fuente: technologyreview.es