El 2 de diciembre de 2024, la Asamblea General de la ONU aprobó una resolución histórica que marca un hito en la regulación de las tecnologías armamentísticas. Con el respaldo de 166 países, la resolución busca prohibir el uso de robots asesinos, o sistemas de armas autónomas letales (LAWS, por sus siglas en inglés), impulsados por inteligencia artificial (IA). Esta medida responde a las crecientes preocupaciones sobre los riesgos que representan estos dispositivos, que operan sin intervención humana directa.
El uso de robots asesinos plantea una amenaza alarmante para la seguridad global y los derechos humanos. Estos sistemas están diseñados para tomar decisiones de vida o muerte de forma autónoma, lo que podría desencadenar una peligrosa carrera armamentística y agravar las crisis humanitarias en los conflictos armados. A pesar de que la resolución no es vinculante, la ONU subraya la necesidad urgente de un tratado internacional que prohíba su uso.
El desafío global: ¿Cómo regular estas armas?
A pesar del amplio apoyo, algunos países se mostraron en contra. Bielorrusia, Corea del Norte y Rusia votaron en contra, mientras que 15 países optaron por abstenerse, según Human Rights Watch (HRW). Estados Unidos y otras naciones también han expresado su oposición, argumentando que las armas autónomas podrían ofrecer ventajas estratégicas en el futuro, lo que dificulta la creación de un consenso internacional.
El Secretario General de la ONU, António Guterres, calificó el uso de robots asesinos como “políticamente inaceptable y moralmente repugnante”, advirtiendo que permitir que las máquinas decidan sobre la vida o la muerte podría erosionar las normas del derecho internacional y generar consecuencias devastadoras en los conflictos armados.
¿Qué es un robot asesino?
Un robot asesino, también conocido como sistema de arma autónoma letal (LAWS), utiliza IA para seleccionar y atacar objetivos sin intervención humana. Estos dispositivos operan de forma independiente una vez programados, tomando decisiones autónomas sobre cuándo y cómo atacar, basándose en algoritmos, sensores avanzados y análisis de datos en tiempo real. Su capacidad para operar en entornos terrestres, aéreos y marítimos, junto con su rapidez y precisión, los convierte en una amenaza difícil de controlar.
Retos éticos y legales
Organizaciones como HRW y el Comité Internacional de la Cruz Roja alertan sobre los desafíos éticos de estos sistemas. La falta de control humano significativo podría violar el derecho internacional humanitario, particularmente la distinción entre combatientes y civiles. La propuesta de la ONU busca evitar que máquinas sin ética ni juicio humano tomen decisiones sobre vidas humanas, un riesgo global inaceptable.
A pesar de los avances tecnológicos, la falta de consenso entre las potencias mundiales, como Estados Unidos, Rusia y China, líderes en el desarrollo de estas armas, hace que el establecimiento de un marco legal vinculante sea uno de los mayores desafíos para la comunidad internacional.
Próximos pasos: Consultas en 2024
La ONU planea una serie de consultas en Nueva York en 2024, donde representantes de Estados miembros, organizaciones internacionales y expertos de la comunidad científica evaluarán los riesgos y las implicaciones de las armas autónomas. Mary Wareham, de HRW, destacó que la principal tarea será negociar un tratado global que prohíba estas tecnologías, aunque el camino hacia un acuerdo definitivo parece aún incierto.
En este contexto, la resolución de la ONU es solo el primer paso en un largo proceso para regular una tecnología que plantea serias dudas sobre su impacto en la humanidad y el futuro de los conflictos armados.