Jul 22, 2015

Armas autónomas: carta abierta a los investigadores de inteligencia artificial y robótica

8606660799_626638af8a_b

Con motivo de la 24 Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI), que se desarrollará en Buenos Aires (Argentina) del 25 al 31 de julio, la Campaña para Detener a los Robots Asesinos busca sumar esfuerzos en el campo investigativo para lograr una prohibición preventiva de este armamento.

Las armas autónomas seleccionan y atacan objetivos sin necesidad de una intervención humana. Esto implica que dentro de esta categoría se incluyan, por ejemplo, quadcopters (helicóptero quadrotor) armados que pueden encontrar y eliminar personas mediante ciertos criterios predefinidos; pero excluya los misiles crucero o drones pilotados de forma remota, ya que en este caso es un humano quien toma todas las decisiones sobre la selección de objetivos.

El desarrollo de la inteligencia artificial ha llegado a un punto en el que el despliegue de estos sistemas es –prácticamente, si bien no legalmente- accesible en pocos años. Y hay mucho en juego: las armas autónomas se considera que traerán la tercera revolución en el campo de batalla, después de la pólvora y las armas nucleares.

Se han escuchado muchos argumentos a favor y en contra de las armas autónomas, como por ejemplo que el hecho de reemplazar soldados por máquinas reduciría los muertos y heridos, pero a su  vez rebajaría el umbral de condicionantes para ir a la guerra. La pregunta clave para la humanidad hoy en día es si se desea empezar una carrera armamentística basada en la inteligencia artificial o, por el contrario, se quiere prevenir su inicio.

Si una potencia militar sigue adelante con el desarrollo de armas con inteligencia artificial, una carrera armamentística global es prácticamente inevitable, y el destino de esta trayectoria tecnológica es obvio: las armas autónomas serán el Kalashnikov del mañana. A diferencia de las armas nucleares, estos sistemas autónomos no son costosos y las materias primas no son difíciles de obtener, por lo que serán muy económicos de producir a gran escala por parte de las potencias militares. Sólo será cuestión de tiempo que aparezcan en el mercado negro y en las manos de terroristas, dictadores con deseos de controlar más a su población, hombres de la guerra deseando perpetrar limpiezas étnicas, etc.

Las armas autónomas son ideales para realizar asesinatos, desestabilizar naciones, someter a poblaciones y matar selectivamente a un grupo étnico particular. Asimismo, consideramos que una carrera armamentística basada en la inteligencia artificial no sería beneficiosa para la humanidad. Hay muchos caminos en los cuales la inteligencia artificial puede hacer más seguros los campos de batalla, especialmente para los civiles, sin necesidad de crear nuevas herramientas que maten a la población.

Del mismo modo que la mayoría de químicos y biólogos no tienen ningún interés en la construcción de armas químicas o biológicas, la mayoría de investigadores de inteligencia artificial no quieren este tipo de armas, ni que otros manchen el buen nombre de este campo investigativo para hacerlo, lo que potencialmente crearía una reacción pública contraria que cuestionaría sus futuros beneficios sociales. En ese sentido, químicos y biólogos han apoyado en términos generales los acuerdos internacionales que prohíben las armas químicas y biológicas, al tiempo que los físicos se han mostrado favorables a los tratados que prohíben las armas nucleares y los láseres cegadores.

En resumen, creemos que la inteligencia artificial tiene un gran potencial para beneficiar a la humanidad en muchos sentidos y que el objetivo de este campo debe ser ese. Empezar una carrera armamentística basada en la inteligencia artificial es una mala idea y debería ser prevenida con la prohibición de las armas autónomas ofensivas sin control humano.

Firma la carta abierta

Share on FacebookTweet about this on Twitter