Ago 27, 2018

En Ginebra. Tratado para Prohibir los Robots Asesinos

Negociar un Tratado de Prohibición para Mantener el Control Humano de la Fuerza

Se llama a hacer un Tratado para Prohibir los Robots Asesinos antes de la Reunión de la ONU

(Ginebra, 27 de agosto de 2018) Están aumentando los llamados para que los países comiencen negociaciones sobre un nuevo tratado para prohibir sistemas de armas que, una vez activados, seleccionarían y atacarían objetivos sin intervención humana. La Campaña para Detener Robots Asesinos insta a los países a participar en la sexta reunión internacional sobre sistemas de armas autónomas letales, que se inaugura hoy en las Naciones Unidas en Ginebra, para recomendar un avance hacia un mandato de negociación para crear dicho tratado de prohibición.

“Cada vez es más obvio que el público se oponga a permitir que las maquinas seleccionen los objetivos y que usen la fuerza sin un control humano significativo. Hacer esto sería aberrante, inmoral y una ofensa para el concepto de la dignidad humana y de los principios de la humanidad”, dice Jody Williams, Premio Nobel de la Paz de 1997 y presidenta de la Iniciativa Nobel de Mujeres. “Es tiempo de que los gobiernos presten atención a los llamados para una nueva ley internacional que prohíba los robots asesinos y comiencen a negociar una”.

Se espera que más de 70 países asistan a la sexta reunión de la Convención de Armas Convencionales (CCW) sobre sistemas de armas autónomas letales en la ONU del 27 al 31 de agosto del 2018. Se espera que la reunión genere recomendaciones para futuros trabajos sobre este tema. La CCW opera por consenso por lo que cualquier Estado se puede oponerse y potencialmente bloquear propuestas para iniciar negociaciones.

Lo graves desafíos legales, operacionales, morales, técnicos, y de proliferación que han provocado las armas totalmente autónomas han captado la atención desde la primera reunión sobre el tema en la CCW en mayo de 2014. Sin embargo, los estados no han llegado a un acuerdo de las respuestas de regulación necesarias para atender los retos de seguridad humanitarios e internacionales causados por los robots asesinos. Austria y otros Estados han propuesto un inicio de negociaciones en 2019 sobre un nuevo tratado de prohibición que mantenga el control humano sobre los sistemas de armas.

La campaña para detener robots asesinos insta a los estados a recomendar que la CCW adopte un nuevo mandato en su reunión anual el 23 de noviembre para negociar un nuevo protocolo para finales de 2019.

Durante la última reunión sobre robots asesinos de la CCW en abril, la lista de países que hace un llamado para la prohibición de las armas completamente autónomas aumento a 26, con la inclusión de Austria, China, Colombia y Djibouti. Prácticamente todos los estados que hablaron insistieron sobre la necesidad de mantener el control humano sobre los sistemas de armas y el uso de la fuerza. No obstante, Francia y Alemania rechazaron ser parte del llamado para la prohibición y en cambio propusieron una declaración política sobre el control humano débilmente redactada, la cual la campaña rechazo por inapropiada y poco ambiciosa.

Durante la última reunión, Francia, Israel, Rusia, Reino Unido y Estados Unidos rechazaron explícitamente comenzar a negociar una nueva ley internacional sobre armas completamente autónomas. Estos países y otros poderes militares están haciendo grandes inversiones en drones armados y otros sistemas de armas que disminuyen los niveles de control humano. La preocupación es que variedad de sensores disponibles y los avances en inteligencia artificial han hecho practico el diseño de sistemas de armas para atacar sin ningún control humano significativo. Si la tendencia hacia la autonomía continua, los humanos pueden comenzar a desaparecer en la toma de decisiones para ciertas acciones militares, quizás conservando un limitado papel de supervisión, o simplemente estableciendo los parámetros generales de la misión.

“El ímpetu se está comenzando a construir rápidamente para que los estados comiencen a negociar un nuevo tratado de prohibición y se determine que es necesario para mantener el control humano sobre los sistemas de armas y el uso de la fuerza”. Dice Peter Asaro, vicepresidente del Comité Internacional de Control de Armas de robots ICRAC). “La solicitud de más tiempo para examinar este reto puede parecer valida, pero suena cada vez más a excusas dirigidas para retrasar la inevitable regulación que se aproxima”.

Desde la última reunión de la CCW, se han multiplicado los llamados para tomar acción ante los robots asesinos:

  • En la “agenda para el desarme” presentada en mayo, el secretario general de la ONU Antonio Gutiérrez ha ofrecido apoyar Estados para que elaboren nuevas medidas que incluyan “acuerdos legales de prohibición” para asegurar que “que los humanos permanezcan en todo momento en control sobre el uso de la fuerza.”
  • El parlamento nacional de Bélgica adopto una resolución aprobando una prohibición en el uso de armas completamente autónomas el 4 de julio y aseguran que el ejército de Bélgica nunca va a usar estas armas en operaciones militares.
  • El 7 de junio Google emitió unos principios éticos, que comprometen a la compañía a no diseñar o desarrollar inteligencia artificial para que se use en armas. Esta acción vino luego de que google accediera a terminar su participación en un esfuerzo del Pentágono llamado Proyecto Maven, que estaba dirigido a identificar contenidos en los videos captados por drones militares.
  • En julio en un congreso de inteligencia artificial, el Instituto del futuro de la vida emitió una declaración endosada por más de 200 compañías tecnológicas, sociedades, grupos y 2.600 expertos en inteligencia artificial y otras personas comprometidas a “no participar ni apoyar en el desarrollo, fabricación, comercialización o uso de armas autónomas letales”.
  • El observatorio de derechos humanos y la Clínica Internacional de Derechos Humanos de la facultad de derecho de Harvard publicaron un reporte el 21 de agosto que encontró que un nuevo tratado de prohibición es necesario porque las armas totalmente autónomas violan la Cláusula Martens, un estándar ético codificado en el derecho internacional para la evaluación de la tecnología emergente.

“Las promesas de transparencia y las declaraciones de políticas dóciles son insuficientes para hacer frente al alcance de las consecuencias de la creación de armas completamente autónomas,” dijo Mary Wareham del Observatorio de Derechos Humanos, coordinadora de la Campaña para Detener Robots Asesinos. “Se necesitará nada menos que un tratado de prohibición para afrontar efectivamente el desarrollo de la autonomía en las funciones críticas de los sistemas de armas y para evitar el uso deshumanizado de la fuerza.”

Sobre la reunión

La campaña es una coalición global de 76 organizaciones en 32 países que trabajan desde abril de 2013 para de manera preventiva prohibir los sistemas de armas autónomas letales, también conocidas como armas totalmente autónomas. Aproximadamente 45 representantes de 19 organizaciones no gubernamentales de la campaña participaran en la reunión. Los corresponsales acreditados por la ONU en Ginebra están invitados a asistir a un evento paralelo de la Campaña para Detener Robots Asesinos el martes 28 de agosto a la 1:15 pm en la sala XXIII.

El embajador de la India, Amandeep Singh Gill, supervisará la reunión de la CCW en su calidad de presidente del Grupo de Expertos Gubernamentales de la CCW sobre Sistemas de Armas Autónomas Letales. También se desempeña como director ejecutivo de la secretaría de un Panel de Alto Nivel sobre Cooperación Digital, anunciado por el Secretario General de las Naciones Unidas el 12 de julio.

No hubo transmisión en vivo de la reunión de CCW o eventos paralelos, pero los aspectos destacados fueron tuiteados por la campaña en @BanKillerRobots usando el hashtag #CCWUN. Siga la campaña en Instagram, Facebook y YouTube.

Consulte el sitio web de la campaña, incluida la lista de la delegación, el folleto del evento paralelo y esta Nota informativa de antecedentes, también disponible en francés e inglés.

 

Share on FacebookTweet about this on Twitter