Una nueva ‘app’ permite trabajar con los astronautas para completar el mapa de la contaminación lumínica

¿Cómo se ve Madrid desde el espacio? ¿Y de noche? Alejandro Sánchez, astrofísico en la Universidad de Exeter (Reino-Unido), asegura que muy poca gente sabe contestar a esta pregunta. “Conocen la forma de la ciudad pero no están acostumbrados a verla de noche y es lo que revela una realidad impresionante: la intensidad de la actividad humana”, explica. El grupo Cities At Night (Ciudades de noche), con la participación de la NASA y de la Agencia Espacial Europea, lanza este jueves una nueva plataforma en línea para que cualquier ciudadano ayude a los profesionales a clasificar las imágenes de la Tierra tomadas desde el espacio. La aplicación Lost At Night (Perdido en la noche) tiene como objetivo localizar hasta 90.000 ciudades para descubrir con precisión qué zonas del planeta sufren la mayor contaminación lumínica.

Los astronautas fotografían la Tierra desde la Estación Espacial Internacional que se encuentra a una altura de 400 kilómetros dando vueltas al planeta en 45 minutos. El científico tiene un campo de visión de hasta 2.000 kilómetros de radio por lo que no sabe siempre con exactitud qué ciudad está capturando. Un segundo son cientos de kilómetros transcurridos, sostiene Sánchez, por lo tanto, es muy difícil localizar las imágenes de alta resolución porque puede ser Madrid, Ávila o incluso una ciudad de Francia. Las de baja resolución es más sencillo ya que se reconoce rápidamente la forma del país.

La contaminación lumínica eclipsa el brillo de las estrellas. Incluso en el espacio, a esos 400 kilómetros en el cielo, los astronautas perciben con más intensidad las ciudades que los astros que les rodean. El nuevo proyecto Lost At Night, financiado por un crowdfunding y adaptado para móviles, pretende luchar contra la polución de la luz industrial, concienciar al ciudadano y hacerlo partícipe del combate. “La comunicación es parte de la herramienta, hay que llegar a la gente”, asegura el astrofísico.

Personas, mejor que algoritmos

Con una vocación divulgativa y educativa, la página web propone una fotografía de una ciudad de noche en grande y arriba varias pequeñas ya localizadas. El usuario tiene que descubrir en un rango de 1.000 kilómetros qué imagen corresponde a la principal propuesta. “Si bien los algoritmos informáticos tienen problemas para distinguir entre las estrellas, la Luna y las ciudades, las personas son mejores a la hora de reconocer patrones y analizar imágenes complejas”, opina Sánchez.

La primera fase del proyecto nació hace cinco años y según cuenta el científico, del millón y medio de imágenes nocturnas de la Tierra que tiene la NASA, consiguieron clasificar y localizar 3.000 imágenes cuando la agencia espacial puede tardar 10 años. El sistema necesita también la inteligencia artificial para sustituir el ojo humano cuando el pico de actividad disminuirá en unos seis meses, estima el experto. “Ahora, hay que entrenarlo y por eso pedimos a la gente que participe y localice más fotos”, cuenta.

Los humanos también cometen errores por lo que esta iniciativa pide aportes de cinco personas por imagen para reducir el margen de error. A partir de ahí, la inteligencia artificial toma la rienda del proyecto. De las 300.000 imágenes clasificadas de alta resolución, 30.000 son ciudades y tan solo 3.000 están localizadas. El usuario trabajará por lo tanto codo a codo con los científicos y la inteligencia artificial para completar este puzle de la contaminación lumínica de la Tierra.

“Más imágenes de astronautas y más pistas de los habitantes de la Tierra ayudarán a los investigadores a evaluar mejor estos efectos con el tiempo y fomentarán acciones para optimizar el alumbrado público”, esperan los científicos al mando del proyecto en el cual colabora la Fundación Ibercivis junto a la Fundación Española de Ciencia y Tecnología (FECYT) del Ministerio de Ciencia, Innovación y Universidades.

Fuente: elpais.com