México dio un paso clave en el debate sobre la regulación de la Inteligencia Artificial (IA) con la presentación de la Declaración de Ética y Buenas Prácticas para el Uso de la IA en México, un documento que establece diez principios éticos orientativos para guiar el desarrollo, adopción y uso responsable de esta tecnología en el país.
La iniciativa fue presentada de manera conjunta por la Agencia de Transformación Digital y Telecomunicaciones (ATDT) y la Secretaría de Ciencia, Humanidades, Tecnología e Innovación (Secihti).
Durante el anuncio, la titular de la Secihti, Rosaura Ruiz Gutiérrez, subrayó que la IA es uno de los avances tecnológicos más disruptivos de la actualidad y que, si bien ofrece grandes oportunidades para el bienestar social y la atención de problemáticas públicas, también implica riesgos importantes si no se rige por criterios éticos claros.
“La tecnología nunca es socialmente neutral”, advirtió la funcionaria, al señalar que una implementación sin lineamientos adecuados puede profundizar desigualdades, generar nuevas formas de discriminación y vulnerar derechos fundamentales.
Por ello, el decálogo busca servir como base para la construcción de políticas públicas, regulaciones y herramientas institucionales que aseguren un desarrollo seguro, responsable y con enfoque social.
La declaración no establece obligaciones legales inmediatas, pero sí plantea un marco de referencia para abrir el debate nacional sobre la gobernanza de la IA, la supervisión humana y la responsabilidad de quienes diseñan, implementan y utilizan estos sistemas.
Los 10 principios éticos para el uso de la IA en México
1 La IA debe ampliar los derechos, nunca restringirlos.
Los sistemas de IA deben proteger los derechos humanos y evitar reproducir prejuicios, exclusiones o vulneraciones al derecho a la información.
2 Supervisión humana permanente.
Las decisiones automatizadas, especialmente en el ámbito público, deben ser monitoreadas y, en su caso, corregidas por personas responsables dentro de marcos institucionales claros.
3 Si una decisión no puede explicarse, no debe automatizarse.
La IA debe ser comprensible y verificable, con procesos transparentes que permitan conocer su funcionamiento y alcances.
4 Gobernanza colectiva.
La regulación de la IA debe construirse con la participación de la ciudadanía, la academia, comunidades, organizaciones sociales y el sector privado.
5 Generación de valor social.
La adopción de la IA debe traducirse en bienestar social, reducción de desigualdades y mejora en el acceso a servicios públicos.
6 Desarrollo sustentable.
Se deben considerar los impactos sociales, ambientales y energéticos de la IA, reconociendo que depende de infraestructuras físicas y recursos naturales.
7 IA alineada con las necesidades nacionales.
El desarrollo tecnológico debe fortalecer las capacidades del país, impulsar la autonomía tecnológica y responder a objetivos de largo plazo.
8 Programas formativos y educativos.
Es necesario impulsar la formación de profesionales capaces de desarrollar, evaluar y comunicar los impactos sociales, éticos y culturales de la IA.
9 Respeto a la diversidad cultural y lingüística.
Los sistemas de IA deben incorporar y preservar la diversidad cultural del país, incluyendo el fortalecimiento de las lenguas indígenas.
10 Protección de datos y privacidad.
El uso de datos debe garantizar seguridad, calidad y representatividad, así como prevenir usos indebidos y fortalecer la ciberseguridad.
De acuerdo con Ruiz Gutiérrez, este decálogo tiene un carácter orientador y busca asegurar que la innovación tecnológica avance en equilibrio con la dignidad humana, la justicia social y el bien común, sentando las bases para una regulación futura de la Inteligencia Artificial en México.
Fuente: launion.com.mx


Deja una respuesta