Naciones Unidas ha propuesto un tratado internacional para regular el desarrollo, uso y límites éticos de la inteligencia artificial (IA), marcando un nuevo capítulo en la carrera por garantizar un uso responsable de esta tecnología en expansión.
El anuncio fue hecho este lunes desde Ginebra por parte de la Alta Comisionada de Asuntos Tecnológicos de la ONU, Fatima Kassem, quien señaló que “la IA no puede seguir avanzando sin una brújula ética común y sin mecanismos de responsabilidad global”.

¿Qué propone el tratado?
- Prohibir el uso de IA en armas autónomas ofensivas.
- Regular algoritmos en procesos electorales, financieros y judiciales.
- Obligar a las empresas a informar cuándo se usa IA en productos o servicios masivos.
- Establecer auditorías obligatorias en sistemas de IA que impacten derechos humanos.
Además, se propone la creación de un Consejo Mundial de Ética Algorítmica, con sede en Viena, para monitorear su cumplimiento.
¿Quién lo apoya y quién duda?
Más de 90 países han expresado su interés en sumarse, incluidos Francia, Canadá, México, Alemania y Sudáfrica. Sin embargo, Estados Unidos y China aún no han confirmado su adhesión total, aunque sí han enviado observadores a las mesas de trabajo.
¿Por qué es urgente?
El crecimiento de la inteligencia artificial en sectores como educación, seguridad, salud y comunicación ha sido tan acelerado que los marcos legales no han podido seguirle el paso. Casos recientes de uso indebido de IA en campañas políticas, creación de contenido falso (deepfakes) y vigilancia masiva han encendido las alarmas.
Expertos como la investigadora Joy Buolamwini advierten que “sin regulación clara, los sesgos algorítmicos pueden reforzar injusticias sociales a gran escala”.
¿Qué sigue?
La ONU espera que las negociaciones formales del tratado comiencen en septiembre de 2025 y que un borrador esté listo para mediados de 2026. Aunque aún faltan consensos, el movimiento marca el primer intento serio de ponerle límites globales a una tecnología que no conoce fronteras.
